谷歌的人工智能没有感知力
科技公司一直在大肆宣传他们不断改进的人工智能的能力。但谷歌很快就否认了它的一个程序已经发展得如此之快以至于它变得有感知力的说法。
根据周六《华盛顿邮报》的一篇令人大开眼界的故事,一位谷歌工程师表示,在与名为 LaMDA 的尖端、未发布的人工智能系统进行了数百次交互后,他相信该程序已经达到了一定程度的意识。
一名员工的离职如何震撼谷歌和人工智能行业
一名员工的离职如何震撼谷歌和人工智能行业
在采访和公开声明中,人工智能社区中的许多人反驳了这位工程师的说法,而一些人指出,他的故事突出了该技术如何引导人们为其赋予人类属性。但是,谷歌的人工智能可以有感知的信念可以说凸显了我们对这项技术可以做什么的恐惧和期望。
LaMDA 代表“对话应用程序的语言模型”,是几个大型 AI 系统之一,这些系统已经在互联网上的大量文本上进行了训练,并且可以响应书面提示。本质上,他们的任务是寻找模式并预测接下来应该出现什么单词或单词。这样的系统越来越擅长以看似令人信服的人性化方式回答问题和写作——谷歌自己在去年 5 月的一篇博客文章中将 LaMDA 介绍为可以“以自由流动的方式参与看似无穷无尽的主题的系统。 “但结果也可能是古怪的、怪异的、令人不安的,并且容易漫无边际。
据报道,工程师 Blake Lemoine 告诉《华盛顿邮报》,他与谷歌分享了 LaMDA 具有感知能力的证据,但该公司不同意。谷歌周一在一份声明中表示,包括伦理学家和技术专家在内的团队“根据我们的人工智能原则审查了布莱克的担忧,并通知他证据不支持他的说法。”
6 月 6 日,Lemoine 在 Medium 上发帖称,谷歌让他休了带薪行政假,“与我在公司内部提出的对人工智能道德问题的调查有关”,他可能“很快”被解雇。 (他提到了 Margaret Mitchell 的经历,她一直是 Google 道德 AI 团队的负责人,直到 Google 在 2021 年初解雇了她,因为她直言不讳地表示当时的联合领导人 Timnit Gebru 将于 2020 年底离职。Gebru 在内部混战后被赶下台,包括一篇与公司 AI 领导层的研究论文相关的文章,该公司的 AI 领导告诉她不要考虑在会议上发表演讲,或者删除她的名字。)
谷歌发言人证实 Lemoine 仍在休行政假。据《华盛顿邮报》报道,他因违反公司保密政策而被休假。
Lemoine 周一无法发表评论。
在海量数据上训练的强大计算程序的不断出现也引起了人们对管理此类技术的开发和使用的道德规范的担忧。有时,进步是通过可能发生的事情来看待的,而不是当前可能发生的事情。
上周末,人工智能社区的人们对 Lemoine 的经历的反应在社交媒体上反复出现,他们普遍得出了相同的结论:谷歌的人工智能离意识还很远。 Mozilla 值得信赖的 AI 高级研究员 Abeba Birhane 周日在推特上写道:“我们已经进入了一个‘这个神经网络是有意识的’的新时代,这一次它会消耗大量的精力来反驳。”
Geometric Intelligence 的创始人兼首席执行官 Gary Marcus 被卖给了 Uber,他也是《重启人工智能:构建我们可以信任的人工智能》等书籍的作者,他在推文中称 LaMDA 的想法是有感觉的“高跷上的胡说八道”。他很快写了一篇博文,指出所有这些人工智能系统所做的都是通过从庞大的语言数据库中提取来匹配模式。
Blake Lemoine 于 2022 年 6 月 9 日星期四在加利福尼亚州旧金山的金门公园为肖像拍照。
Blake Lemoine 于 2022 年 6 月 9 日星期四在加利福尼亚州旧金山的金门公园为肖像拍照。
在周一接受 CNN Business 采访时,马库斯表示,考虑 LaMDA 等系统的最佳方式就像是自动完成软件的“美化版”,您可以使用它来预测短信中的下一个单词。如果您输入“我真的很饿,所以我想去一家”,它可能会建议将“餐厅”作为下一个词。但这是使用统计数据做出的预测。
“没有人应该认为自动完成,即使是在类固醇上,也是有意识的,”他说。
在一次采访中,分布式人工智能研究所 (DAIR) 的创始人兼执行董事 Gebru 表示,Lemoine 是许多声称有意识的人工智能或通用人工智能的公司的受害者——这种想法指的是可以执行的人工智能类似人类的任务并以有意义的方式与我们互动——并不遥远。
谷歌给了一位教授 60,000 美元,但他拒绝了。这就是为什么?
例如,她指出,OpenAI 的联合创始人兼首席科学家 Ilya Sutskever 在 2 月发推文称,“今天的大型神经网络可能有点意识。”上周,谷歌研究部副总裁兼同事 Blaise Aguera y Arcas 在为《经济学人》撰写的一篇文章中写道,当他去年开始使用 LaMDA 时,“我越来越觉得我在和一些聪明人说话。” (这篇文章现在包括一个编者注,指出 Lemoine “据报道,在接受《华盛顿邮报》采访时声称谷歌的聊天机器人 LaMDA 已经变得‘有意识’后,已经被停职。”)
“正在发生的事情是一场使用更多数据、更多计算的竞赛,说你创造了这个无所不知的通用事物,回答你所有的问题或其他什么,这就是你一直在演奏的鼓,”格布鲁说. “所以,当这个人将它发挥到极致时,你怎么会感到惊讶?”
谷歌在声明中指出,LaMDA 已经接受了 11 次“不同的人工智能原则审查”,以及与质量、安全性以及提出基于事实的陈述的能力相关的“严格研究和测试”。 “当然,更广泛的人工智能社区中的一些人正在考虑有感知或通用人工智能的长期可能性,但通过拟人化当今没有感知的对话模型来这样做是没有意义的,”该公司表示。
“数百名研究人员和工程师已经与 LaMDA 进行了交谈,我们不知道还有其他人像 Blake 那样做出广泛的断言,或将 LaMDA 拟人化,”谷歌说。