打开网易新闻 查看精彩图片

斯坦福大学两位重量级专家在参与了人工智能感知辩论上,两人坚定地站在“BS”的角落。

最近,关于Google 的 LaMDA 系统的争论愈演愈烈。

开发商 Blake Lemoine 引发了争议。曾在 Google 负责任的 AI 团队工作的 Lemoine 一直在测试大语言模型 (LLM) 是否使用了有害言论。

这位 41 岁的老人告诉《华盛顿邮报》,他与人工智能的对话让他相信它有一个有知觉的头脑。

打开网易新闻 查看精彩图片

“当我与一个人交谈时,我就认识它,”他说。“他们的脑袋里是否有一个由肉制成的大脑并不重要。或者如果他们有十亿行代码。我跟他们说话。我听到他们要说的话,这就是我决定什么是人,什么不是人的方式。”

谷歌否认了他的说法。7 月,该公司因发布机密信息而让 Lemoine 休假。

这一集引发了耸人听闻的头条新闻和关于人工智能正在获得意识的猜测。然而,人工智能专家在很大程度上驳斥了Lemoine 的论点。

本周,斯坦福二人组与《斯坦福日报》分享了进一步的批评。

斯坦福以人为中心的人工智能研究所(HAI)的联合主任约翰·埃切门迪(John Etchemendy)说:“LaMDA 没有感知能力,原因很简单,它不具备有感觉和感觉的生理学。” “这是一个软件程序,旨在根据句子提示生成句子。”

斯坦福人工智能实验室前主任 Yoav Shoham同意 LaMDA 没有感知力。他将《华盛顿邮报》的文章描述为“纯粹的点击诱饵”。

“他们之所以发表这篇文章,是因为他们暂时可以写出关于提出这种荒谬主张的‘谷歌工程师’的标题,而且因为他们的大多数读者还不够成熟,无法识别它的本质,”他说。

打开网易新闻 查看精彩图片

Shoham 和 Etchemendy 加入了越来越多的批评者行列,他们担心公众会被误导。

炒作可能会产生点击和营销产品,但研究人员担心这会分散我们对更紧迫问题的注意力。

法学硕士正在引起特别的警报。虽然这些模型已经擅长生成类似人类的文本,但对它们的“智能”的兴奋可以掩盖它们的缺点。

研究表明,这些系统可能产生巨大的碳足迹,放大歧视性语言,并构成现实生活中的危险。

“围绕 LaMDA 是否有意识的辩论将整个对话转移到辩论废话上,并远离诸如种族主义和性别歧视法学硕士通常如何、法学硕士需要巨大的计算资源、[以及]他们未能准确代表边缘化语言/身份等关键问题,” Mozilla 值得信赖的人工智能高级研究员Abeba Birhane发了推文。

很难预测何时或是否会出现真正有感知的人工智能。但是,关注这一前景会让我们忽视已经在发生的现实后果。