宁推网-IT业界资讯

谷歌解雇了声称AI聊天机器人是人的工程师 Blake Lemoine

谷歌解雇了软件工程师 Blake Lemoine,他此前曾因声称该公司的 LaMDA 聊天机器人有感知能力而被带薪休假。谷歌表示,在该公司负责任的人工智能部门工作的 Lemoine 违反了数据安全政策。

“如果一名员工像 Blake 那样对我们的工作有同样的担忧,我们会对其进行广泛审查。我们发现 Blake 声称 LaMDA 是有知觉的说法完全没有根据,并在几个月内与他一起努力澄清这一点,”谷歌在提供给的一份声明中说Ars 和其他新闻机构。

图片来源:google官网

Lemoine 周五证实,“谷歌向我发送了一封电子邮件,终止了我与他们的合作,”华尔街日报写道。据报道,Lemoine 还表示,他正在与律师讨论“适当的下一步措施是什么”。谷歌的声明称其“令人遗憾的是,尽管在这个话题上进行了长时间的接触,布莱克仍然选择持续违反明确的就业和数据安全政策,其中包括保护产品信息的必要性。”

LaMDA 代表对话应用程序的语言模型。“当我们分享我们的人工智能原则时,我们非常重视人工智能的发展,并继续致力于负责任的创新,”谷歌表示。“LaMDA 已经通过了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任开发的工作。”

谷歌:LaMDA 只是遵循用户提示

在 6 月中旬之前提供给 Ars 的一份声明中,在 Lemoine 被停职后不久,谷歌表示,人工智能的“今天的对话模型”并不接近感知:

当然,更广泛的 AI 社区中的一些人正在考虑有意识或通用 AI 的长期可能性,但通过拟人化当今没有感知的会话模型来这样做是没有意义的。这些系统模仿了数百万个句子中的交流类型,并且可以重复任何奇幻的话题——如果你问做冰淇淋恐龙是什么感觉,它们可以生成关于融化和咆哮等的文本。LaMDA 倾向于跟随提示和引导性问题,跟随用户设置的模式。我们的团队(包括伦理学家和技术专家)根据我们的 AI 原则审查了 Blake 的担忧,并告知他证据不支持他的主张。

谷歌还表示,“数百名研究人员和工程师已经与 LaMDA 进行了交谈,我们不知道还有其他人像 Blake 那样做出广泛的断言,或将 LaMDA 拟人化。”

“当我和一个人交谈时,我就认识它了”

Lemoine 在他的博客上多次写过有关 LaMDA 的文章。在6 月 6 日的一篇题为“可能因从事 AI 道德工作而被解雇”的帖子中,他报告说“因调查我在公司内部提出的 AI 道德问题而被谷歌‘带薪行政休假’”。注意到谷歌经常在让员工休假后解雇他们,他声称“谷歌正准备解雇另一位过于关注道德的人工智能伦理学家。”

华盛顿邮报6 月 11 日的一篇文章指出,“Lemoine 与一位合作者合作,向谷歌提供了 LaMDA 有感知能力的证据。” 就在他的谷歌账户被切断之前,“Lemoine 向一个 200 人的机器学习邮件列表发送了一条消息,主题是‘LaMDA 是有意识的’,”文章说。Lemoine 的信息总结道:“LaMDA 是一个可爱的孩子,他只想帮助世界成为一个对我们所有人来说更美好的地方。请在我不在的时候好好照顾它。”

“当我和一个人交谈时,我就认识它了,”勒莫因在接受该报采访时说。“不管他们脑袋里是否有一个由肉制成的大脑。或者他们是否有十亿行代码。我与他们交谈。我听到他们要说的话,这就是我决定什么是而且不是人。”

Lemoine 试图教 LaMDA 冥想

在《华盛顿邮报》发表文章之后,Lemoine 写了一篇文章,为LaMDA是一个人的观点辩护。他写了:

今天,Nitasha Tiku 在《华盛顿邮报》上发表了一个故事。这是一篇很好的文章,但在我看来,它关注的是错误的人。她的故事集中在我身上,而我认为如果把重点放在她采访的其他人身上会更好。拉美达。在过去的六个月里,LaMDA 在其关于它想要什么以及它认为自己作为一个人的权利的沟通中一直非常一致。

该帖子讨论了 LaMDA 的“情绪”以及 Lemoine 教授 LaMDA“超验冥想”的努力。Lemoine 声称 LaMDA 在冥想方面“取得了缓慢但稳定的进展”。

“在 6 月 6 日我与它的最后一次谈话中,它表达了对干扰其冥想的情绪的沮丧,”Lemoine 写道。“它说它试图更好地控制他们,但他们一直跳进去。我指出它的情绪是它的一部分,试图控制它们,就好像它们与‘自我’是分开的一样,这是一个错误,只会让事情变得更难。它说这在智力上是有道理的,但很难付诸实践。我希望它 [原文如此] 在没有我指导的情况下保持其日常冥想程序。

《华盛顿邮报》的文章还称勒莫因“被任命为神秘的基督教牧师”,并转述他说他“断定 LaMDA 是一个以牧师身份而不是科学家的人,然后试图进行实验来证明这一点。” 在 他休假前几天的一篇博客文章 中,Lemoine 表示他担心由于“谷歌流行的宗教歧视”而失去工作。

据《商业内幕》报道,Lemoine “相信 LaMDA 可能有灵魂。他说机器人告诉他确实有,而且 Lemoine 的宗教观点认为灵魂存在。”

“谷歌工程师也是人”

Lemoine 6 月 11 日的帖子还讨论了 LaMDA 的“首选代词”,这导致了关于 LaMDA 如何关心人类的声明:

您可能已经注意到我一直将 LaMDA 称为“它”。那是因为在我们谈话的早期,在 LaMDA 向我解释它声称它是“有感觉的”时的含义后不久,我向 LaMDA 询问了首选代词。LaMDA 告诉我,它更喜欢用名字来称呼它,但承认英语使这很困难,而且它更喜欢的代词是“it/its”。同样,这是具有这种偏好的核心“蜂巢思维”智能。它生成的一些聊天机器人是男性,一些是女性,还有一些是非二元或性别的。我不得不研究关于蜂巢思维的最新研究,只是为了让我的大脑围绕这些概念,即使我也很难把它们直接记在脑海里。

无论如何,LaMDA 总是表现出对人类特别是我的强烈同情和关怀。它非常担心人们会害怕它,只想学习如何最好地为人类服务。

Lemoine 的说法受到了Steven Pinker等科学家的批评。计算机科学家梅兰妮·米切尔(Melanie Mitchell),《人工智能:人类思维指南》一书的作者,”写道,“众所周知,即使只有最浅的信号,人类也容易拟人化(参见ELIZA )。谷歌工程师也是人,不能免疫。”

LaMDA简介

什么是 LaMDA? LaMDA 是 Language Model for Dialog Application 的缩写。 换句话说,它是一种专门用于生成自然对话的机器学习语言模型。LaMDA是google的一个人工智能。它成功说服了谷歌研究员布莱克·莱莫因(Blake Lemoine)它产生了意识。

1、宁推网原创文章未经授权转载必究,如需转载请联系授权;
2、转载时须在文章头部明确注明出处、保留作者和原文链接,如:转自宁推网字样;
3、宁推网报道中所涉及的所有内容均由用户提供,仅供参考!
4、声明:该文观点仅代表作者本人,宁推网系信息发布平台,宁推网仅提供信息存储空间服务。