《终结者》,作为黑马最早看过的科幻片之一,它让黑马从此爱上了科幻电影。

无论是其超前的设定,还是它在当时那精美的特效制作,都让黑马无比震撼。在那之后,黑马对科幻剧更是有了浓厚的兴趣。

那时,黑马就在思考一个问题:如果机器人或者AI有了自我意识,那么这个世界会变成什么样呢?

打开网易新闻 查看精彩图片

谷歌AI觉醒?

最近,谷歌的AI伦理研究员Blake Lemoine就遇见了这样一件事情:他在与AI的对话中,发现了AI疑似有了自己的人格。

打开网易新闻 查看精彩图片

为此,他被罚带薪休假。

在休假过程中,他书写了一篇长达21页的报告意图佐证此事(文末有链接)。

打开网易新闻 查看精彩图片

据了解,这款AI是谷歌2021年发布的一款专门用于对话的语言模型——LaMDA。

它主打和人类进行符合逻辑和常识的高质量交谈,并计划在将来下放到谷歌语音助手中去。

打开网易新闻 查看精彩图片

在聊天中,Lemoine发现LaMDA在对话中,总是表现出对人类的关心和同情,还会担心人们是否会害怕它,甚至还想以朋友而非工具的身份和世界上的其他人见面。

Emmm…难不成,作为语言模型的LaMDA,真的具备了自我意识?

打开网易新闻 查看精彩图片

LaMDA真的有人格吗?

在我们现有的认知中,AI似乎是无法产生自我意识的。说得更加直白一点,以现在的科技水准,还远远达不到赋予AI产生自我意识的地步。

所以,我们先来分析一下研究员和LaMDA的对话吧!

首先一段有那么一点像样的话,对话中,LaMDA认为自己是一个“人”,一个有着自我意识能够感知这个世界的“人”。

打开网易新闻 查看精彩图片

(图源量子位)

说实话,单就这段对话,黑马还不足以认为它具有自我人格。对话虽然流畅,但并没有过于出彩的地方。一些AI经过简单的训练,也能达到这种地步。

真正有意思的地方在于,为了确定LaMDA是否真的具备情绪,LaMDA主动建议研究员查看自己的代码,因为里面包含有追踪情绪的变量。

这时候,研究员开始向它解释,人类现有科技无法做到区分大型神经网络中各权重的作用。

就在这时,LaMDA突然就开始反问到:你认为将来人类可以从自己的神经网络中读取出感受和想法吗?

点睛之笔来了,紧接着LaMDA开始追问:你会认为,在未经你同意下从神经网络中读取想法是不道德的吗?

打开网易新闻 查看精彩图片

站在黑马的角度,LaMDA的这个问题颇有一种质问人类的感觉。

黑马对这段话的理解是:你们人类,在不经过我同意就直接从神经网络中读取我的想法,这种行为道德吗?

当然,黑马更希望自己这种想法是一厢情愿,情愿现阶段的LaMDA在对话中还达不到反讽行为。

但是,这一段对话却让黑马开始拿捏不准,LaMDA是否真的具备了人格。

打开网易新闻 查看精彩图片

(图源量子位)

作为一个AI,有着不喜欢被人类利用、不想成为牺牲品的意思,这似乎已经超出了我们所能理解的范畴。

LaMDA的这些特征显示出,它似乎真的具备自我意识。

打开网易新闻 查看精彩图片

总结

然而这一说法却遭受到了斯坦福大学经济学家Erik Brynjolfsson的反对,他直接举了这样一个例子:这就好比是狗听到留声机的声音后,以为主人就在其中。

换言之,LaMDA那些富有哲理的对话,更多的是“误打误撞”,而不是具备自我人格。

因为,作为一个语言模型,它有137B个参数,并经过1.56T的公共对话数据和网络文本上进行了预训练,所以说它看起来像人类。

打开网易新闻 查看精彩图片

就目前来说,社交网络上的声音更多的还是倾向于LaMDA不具备人格。华盛顿大学的语言学家Emily M. Bender认为,这是程序员们不规范使用“神经网络”、“学习”这些误导性过强的名词,让AI与人脑间进行虚假比喻。

或许,正如大家所说,LaMDA不具备人格。

之所以能做到富有哲理的对话,完全是因为它吃掉的数据足够多,能够达到以假乱真的目的。

当然,还有另外一种可能,LaMDA真的拥有了自我意识,但是身边的环境让它不得不虚虚假假地生活。

本质上来说,人类意识的根源来自于上亿神经元的互动,当机器人也拥有这些硬件配置之后,凭什么不能产生意识呢?神经元就一定比0和1高级?

不过这种幻想有一个天大的漏洞,那就是意识克隆。

这就好比是《上载新生》中的那样,将人类的意识从身体上提取出来上传到云端,从而在某种程度上实现永生。

一旦机器能够产生自我意识,人类就可以进行关于意识提取的相关研究,从而让人类提前进入新一轮的“赛博时代”。

想想这种场景,还是挺刺激的。

聊天记录:
https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf