home bbs files messages ]

Forums before death by AOL, social media and spammers... "We can't have nice things"

   talk.politics.china      Discussion of political issues related t      73,176 messages   

[   << oldest   |   < older   |   list   |   newer >   |   newest >>   ]

   Message 72,902 of 73,176   
   Mobot to All   
   =?utf-8?Q?[NYT]=20=E4=BD=A0=E5=91=8A=E8=   
   16 Nov 25 15:41:56   
   
   XPost: alt.chinese.text   
   From: mobot@fakemail.com   
      
   观点   
      
   你告诉AI机器人一个“犯罪秘密”,你会被逮   
   吗?   
      
   NILS GILMAN   
      
   2025年11月12日   
      
   Gaia Alari   
      
   元旦那天,乔纳森·林德克内希特   
   称问了ChatGPT这样一个问题:“如果因为你的香   
   引起了火灾,这算是你的错吗?”ChatGPT回答说:   
   是的。”10个月后,他现在被指控纵火——当局称他引发了   
   一场小火,火在一周后   
   燃,最终酿成帕利塞兹特大火。   
      
   根   
   联邦起诉书,此   
   林德克内希特曾向聊天机器人透露数月   
   焚烧圣经带来的“奇妙”感受,还要求其创作一幅“   
   乌托邦”画作:描绘一群穷人逃离森林大火时,   
   群富人隔门嘲讽的场景。   
   目   
   被告已作无罪抗辩。   
      
   联邦当局认为,这些与人工智能的互动   
   证了林德克内希特的纵火心理、动机与意图。结合将其定   
   在初始火源现场的GPS数   
   ,足以将其逮   
   并提出多项指控,包括纵火破坏财产。   
      
   这一令人   
   安的进展为司法体系敲   
   警钟。随着越来越多的人将AI聊天工具视为知己   
   心理治疗师和顾问,我们亟需建立新型法律保护   
   制,守护人机对话的隐私屏障。我称其为“AI交互特权”   
   所有法律特权都基于同一理念:律师与客户、医   
   与患者、神父与忏悔者等特定关系,依赖坦诚交流   
   能促进整个社会的福祉。若无隐私保障,人们便   
   自我审查,而社会也将失去诚实带来的   
   处。弗吉尼亚大学法学教授格雷格·米切尔告诉   
   ,法院历来   
   愿创设新特权,除非“保密性成为维系该关系的   
   对必要条件”。如今,众多用户与AI的交互已达   
   了这一门槛。   
      
   人们越来越自然地与人工智能系统交谈,   
      
   把它用作日记,而是视其为对话伙伴。因为这些   
   统进行的对话已与人类交流无异。机器似乎在倾   
   、推理、回应——在某些情况下,它   
   仅   
   映用   
   户的思想和情感,甚至对其加以塑造。人工智能   
   统能像优秀的律师或心理治疗师一样引导人们表   
   自己。许多人之所以求助于人工智能,正是因   
   他们缺乏一个安全且负担得起的人类对象来倾   
   诉禁忌或脆弱的想法。   
      
   这在某   
   程度上可以说是设计使然。就在上个月,OpenAI首   
   执行官萨姆·奥尔特曼宣布,其ChatGPT平台的下一   
   版本将“放宽”部分用户限制,允许用户让自   
   的ChatGPT“以高度人性化的方式回应   
   。   
      
   让政府获取这些未经筛选的交流内容并将其视为法律供   
   ,将产生巨大的寒蝉效应。如果每个私密的思想   
   验日后都可能成为法庭上的武器,AI用户必将自   
   审查,从而削弱这些系统一些最具价   
   的功能。这将摧毁人工智能在心理健康、法律   
   财务问题的解决过程中所依赖的那   
   坦诚关系,把这   
   本可成为自我探索与自我表达的强大工具变成潜   
   的法律风险。   
      
   目   
   ,大多数数字互动都属于“第三方原则”的范畴   
   该原则认为,任何自愿向第三方披露的信息——   
   存储在企业   
   务器上的数   
   ——都“   
   具备合法的隐私期待”。这使政府能够在无需搜查   
   令的情况下获取大量线上行为记录(例如谷歌搜索历史)。   
      
   但AI对话是否属于此   
   意义上的"自愿披露"?既然众多用户将这些系统   
   为私人顾问而非搜索引擎,法律标准就应当与时俱进,以   
   映这   
   保密期待。AI企业掌握的私人数   
   量,已超越任何心理治   
   疗师或律师所能触及的私密范畴,至今   
   未承担明确的法律保护责任。“AI交互特权”应   
   三个方面借鉴现有的法律特权。首先,为寻求咨   
   或情绪疏导而与人工智能进行的交流,应受到保护,   
      
   于在法庭上被强制披露。用户可以通过应用程序   
   设置来指定受保护的会话,或在法律取证阶段主   
   特权,只要对话的上下文支持这一主张。其次   
   该特权必须纳入所谓的“警示义务”原则,   
      
   AI   
   务合理判定认为当事人对自己或他人构成迫在眉   
   的威胁或者已造成实际伤害时,有义务报告。第   
   ,必须为犯罪和欺诈行为设立例外。若AI被用于   
   划或实施犯罪,相关对话记录应在司法   
   监督下作为证   
   调取。   
      
   按照这   
   逻辑,林德克内希特的案件同时揭示了这   
   保护的必要性与局限性。他关于香烟引发火灾的   
   问,本质上等同于一次互联网搜索,   
   应享有特权保护;但根   
   “AI交互特权”,他关于焚   
   《圣经》的坦白则应受到保护——那既   
   是犯罪计划,也   
   是迫在眉睫的威胁。   
      
   建立一   
   新的特权符合法律   
   断适应新型信任关系的演进模式。心理治疗师与   
   人之间的保密特权本身直到1996年   
   被正式承认,当时美国最高法院认定保密对心理治疗具有   
   要价值。同样的逻   
   如今也适用于AI:坦诚交互带来的社会效益,远   
   过偶尔失去某些证   
   的代价。   
      
      
   [continued in next message]   
      
   --- SoupGate-Win32 v1.05   
    * Origin: you cannot sedate... all the things you hate (1:229/2)   

[   << oldest   |   < older   |   list   |   newer >   |   newest >>   ]


(c) 1994,  bbs@darkrealms.ca