Forums before death by AOL, social media and spammers... "We can't have nice things"
|    talk.politics.china    |    Discussion of political issues related t    |    73,179 messages    |
[   << oldest   |   < older   |   list   |   newer >   |   newest >>   ]
|    Message 72,660 of 73,179    |
|    Mobot to All    |
|    =?utf-8?Q?[WSJ]=20#=E4=BA=BA=E5=B7=A5=E6    |
|    02 Oct 25 12:44:22    |
      XPost: alt.chinese.text       From: mobot@fakemail.com              专访“AI教父”:对人类灭绝风险的担忧丝毫未减              Isabelle Bousquette              2 - 3 minutes              AI先驱、图灵奖得主约书亚·本吉奥在蒙特利尔大       任教,他也是魁北克省AI研究机构Mila的创始人       科学顾问的创始人兼科学顾问。 图片来源:Mila              两年多       ,人工智能(AI)先驱约书亚·本吉奥(Yoshua Bengio)曾       呼吁暂停AI模型开发、专注于安全标准的最       亮发声者之一。              但没有人停下脚步。相       的,各家公司继续投入数       亿美元,用于构建更先进的模型,这些模型能够       行长链推理,并且能够日益代表用户采取自主       动。如今,被视为“AI教父”之一的本吉奥       以往一样忧心忡忡。              他说:“如果我们制造出比我们聪明得多、并且       其自身生存目标的机器,那将是       险的。”              本吉奥是蒙特利尔大学(Université de Montréal)的教       ,也是魁北克省AI研究机构Mila的创始人和科学顾       。今年早些时候,他还发起了一个       为LawZero的非营利研究组织,旨在探索如何构建真正安全的       AI模型。              本吉奥接受了《       尔街日报》Leadership Institute的专访,谈到了构建       全AI所面临的挑战,当今竞赛式的市场环境为何       这一任务变得更加困难,以及在为时已晚之       人类还剩下多少时间。              以下是经过编辑的谈话节选。              《       尔街日报》Leadership Institute:您曾谈到AI会向人       撒谎并欺骗用户。AI为什么会这样做?              本吉奥:我认为我们还没有找到关于这个问题的       有科学的答案,但我可以给出几个方向。其一,       些AI系统的训练方式主要是模仿人类。而人类会       谎、欺骗,并且会       顾你给他们的指令而试       保护自己,因为他们有另外一些目标。另一个       因是,这些推理模型取得了很大进展。它们正变       善于制定策略。              《       尔街日报》Leadership Institute:为什么我们创造的A       会有与我们       一致的目标?              本吉奥:为了实现一个主目标,你会设定一些子       标。在AI领域,这些子目标的问题在于,我们       会去检查它们。我们要求AI做某件事,但对于AI如       做,我们没有发言权。而这个“如何做”有时       并       符合我们的期望。这可能会很糟糕。              电影《2001太空漫游》(2001: A Space Odyssey)中的情景       是如此。最近的实验表明,在某些情况下,当AI       得       在其生存(       它被赋予的目标)和造成人类死亡之间做出选择       ,它们可能会为了保全其       标而选择让人类死亡。              《       尔街日报》Leadership Institute:我们可以在构建AI       直接告诉它       要撒谎、欺骗或伤害我们吗?              本吉奥:它们已经有了所有这些安全指令和道德指令。但       幸的是,这些指令的运行并       可靠。OpenAI最近表示,以我们目       的发展方向,按照       沿模型的现有框架,我们将无法摆脱幻觉。所以从       某       意义上说,我们目       的做法永远无法提供公众用户和部署AI的公司所要求的那       可信度。              《       尔街日报》Leadership Institute:从幻觉和欺骗一下       跳到可能导致人类灭绝,这中间似乎是个巨大的飞跃。这       威胁到底有多真实?              本吉奥:如果我们制造出比我们聪明得多、并有       自身生存目标的机器,那将是       险的。这就像为人类创造了一个比我们更聪明的       争对手。它们可以通过说       、威胁、       纵公众舆论来影       人类       。它们可以通过各       方式,借助人类在世界上完成任务。比如,帮助       怖分子制造一       可能引发新的大流行病的病毒,这对我们来说可能非常       险。              对于像人类灭绝这样的灾难性事件,甚至是像摧       我们的民主这样虽       那么极端但       是灾难性的事件,问题在于它们是如此糟糕,以至于       使只有1%的发生几率,也是       可接受的。              《       尔街日报》Leadership Institute:所有大型AI实验室       非常坦率地谈论了他们在这些模型中加入的安全       施和护栏。您和他们有过交流吗?              本吉奥:我读过他们的报告。我也有过一些交流       但实际上,我进行的交流告诉我,这些公司内部       很多人都很担心。我还得到这样一              象,那就是如果身处一家试图推动       沿技术的公司,可       能会产生一       乐观偏见。这就是为什么我们需要独立的第三方       验证他们正在开发的任何安全方法是否真的没有问题。              《       尔街日报》Leadership Institute:在LawZero,您正在开       技术解决方案,为智能体化AI提供一些监督。您       为其他AI公司在这一领域开展更多工作所面临的最大障       是什么?              本吉奥:是竞赛状态。这些公司几乎每周都在为       出比竞争对手更好的下一个版本而竞争。因此,       们专注于       让自己在这场竞赛中看起来落后。                     [continued in next message]              --- SoupGate-Win32 v1.05        * Origin: you cannot sedate... all the things you hate (1:229/2)    |
[   << oldest   |   < older   |   list   |   newer >   |   newest >>   ]
(c) 1994, bbs@darkrealms.ca