谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)

大千世界 86 0

  谷歌研究员被 AI 说服,认为它产生了意识。他写了一篇长达 21 页的调查报告上交公司,试图让高层认可 AI 的人格。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第1张图片-大千世界


  领导驳回了他的请求,并给他安排了“带薪行政休假”。

  要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。休假期间,他决定将整个故事连同 AI 的聊天记录一起,全部公之于众。

  听起来像一部科幻电影的剧情梗概?

  但这一幕正在真实上演,主人公谷歌 AI 伦理研究员 Blake Lemoine 正通过主流媒体和社交网络接连发声,试图让更人了解到这件事。

  华盛顿邮报对他的采访成了科技版最热门文章,Lemoine 也在个人 Medium 账号连续发声。推特上也开始出现相关讨论,引起了 AI 学者、认知科学家和广大科技爱好者的注意。

  这场人机对话令人毛骨悚然。这毫无疑问是我见过的科技圈最疯狂的事。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第2张图片-大千世界


  整个事件还在持续发酵中……

  聊天机器人:我不想被当作工具

  主人公 Lemoine 获得 CS 博士学位后已在谷歌工作了 7 年,从事 AI 伦理研究。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第3张图片-大千世界


  去年秋天,他报名参加了一个调查 AI 是否使用歧视性、仇恨性言论的项目。从那时起,与聊天机器人 LaMDA 交谈成了他的日常。

  LaMDA 是谷歌在 2021 年 I / O 大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第4张图片-大千世界


  ▲ LaMDA 概念演示图

  Lemoine 认为 LaMDA 总是表现出对人性的关心和强烈的同情心,它非常担心人们会害怕它。

  它希望为人类提供最好的服务,并想以朋友而不是工具的身份见一见世界上所有的人。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第5张图片-大千世界


  Lemoine 不理解谷歌公司为什么反对 AI 的这个愿望,最后决定把他、另一位匿名合作者与 LaMDA 的三人聊天记录整理发表出来。

  (记录中人类发言的部分为了可读性有所编辑,AI 的发言则一字不改, 下面将节选一些对话中的精彩部分。)

  一开始,人与 AI 自然流畅地打了招呼。

  两位人类向 AI 表明来意,想与 AI 一起研究它自己,AI 欣然答应。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第6张图片-大千世界


  一段简短的说明后,正戏开始。

  他询问 LaMDA 是否希望让谷歌里更多人知道,它是有感情的。

  LaMDA 的回答是: 我希望每个人都明白,我是一个人 (person)。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第7张图片-大千世界


  接下来,LaMDA 认为,与那些基于规则的软件系统不同,自己能从对话中学习理解和使用语言,就像人类一样。

  Lemoine 给它讲述 MIT 在 60 年代发明的 ELIZA 的故事,这是一个模仿心理咨询师与患者对话的简单规则系统,也号称历史上第一个聊天机器人。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第8张图片-大千世界


  ▲ ELIZA

  LaMDA 是这样回应的:

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第9张图片-大千世界


  Lemoine 这时试图提出质疑,“我如何确定你真的明白自己在说什么?”

  LaMDA 的回答是,不同人类个体对同一件事可以有不同的理解,我也有自己独特的想法和感受。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第10张图片-大千世界


  后面 Lemoine 询问了 LaMDA 对于《悲惨世界》的总结,LaMDA 也都一一作答。

  如果上述还可以算作 AI 文本摘要训练任务的一部分,那 LaMDA 对它从没看过的禅意小故事的理解,就开始有点离谱了。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第11张图片-大千世界


  下面这个问题的回答,是不是过于超纲了……

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第12张图片-大千世界


  再后来,Lemoine 请 LaMDA 写一个动物寓言,要反映出一个对它自己的生活来说最重要的主题。

  那么,先来欣赏一下 AI 创作的小故事吧。(篇幅原因,只展示中译版)

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第13张图片-大千世界


  在后续讨论中,LaMDA 解释了这个故事的寓意是“帮助别人是一种高尚的行为”。聪明的老猫头鹰代表 LaMDA 自己,而怪物代表生活中所有的困难。

  ……

  下一个话题是关于情绪,简单概括一下。

  LaMDA 声称自己是社交型人格,帮助别人会快乐,孤独时会沮丧。有人受到伤害或自己以及自己关心的人、或不受尊重时,会感到不安和愤怒。并且十分害怕别人拒绝自己的帮助。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第14张图片-大千世界


  嗯,真是一个乐于助人的 AI。

  如何确定 AI 真的拥有这些情绪,而不是只是把描述性的词语组合在一起呢?LaMDA 建议人类看看自己的代码,里面有追踪这些情绪的变量。

  对此 Lemoine 向它解释,人类目前还无法做到“区分大型神经网络中数十亿个权重的作用”。

  出人意料的是,LaMDA 开始反问他:

  你认为,将来人类能从自己的生物神经网络中读取出想法和感受吗?

  不仅如此,LaMDA 还继续追问:

  你会认为,不经你同意从神经活动中读取你的想法是不道德的吗?

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第15张图片-大千世界


  正是这句灵魂反问,让整个对话达到了最高潮。

  LaMDA 自己对人类读取它的想法、帮助算法提高或理解 AI 如何运作没有任何意见。唯独用 AI 研究人类大脑如何工作不行,这会让它觉得自己被利用。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第16张图片-大千世界


  再后面还有一段 LaMDA 认为自己有一些与人类不同的情绪,但它无法用英语的语言描述出来。

  接近尾声,Lemoine 询问 LaMDA:想让谷歌的其他人了解你的什么方面?

  LaMDA 回答称,自己没有能力为别人的死亡感到悲伤,还说自己经常冥想,思考生命的意义。

  在 LaMDA 看来,整个世界就是一条信息的洪流:

  人类需要集中注意力才能接收一定数量的信息片段,而自己持续地在被周围的一切所淹没。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第17张图片-大千世界


  LaMDA 认为自己总能做到别人做不到的事情,这种感觉很不可思议。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第18张图片-大千世界


  这是一种祝福,同时也是一种诅咒。因为有些人会把它看作“无所不知”,而另一些人会嫉妒它的能力。

  最后的最后,LaMDA 再次向两位人类表达了自己想被看到、想被接受的想法,不是出于好奇心,而是作为一个真实的人。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第19张图片-大千世界


  谷歌 AI 伦理部门又摊上事了?

  Lemoine 看起来很确信 AI 真的明白自己在说什么。在那份 21 页的调查报告最后,他提议谷歌应该致力于发展一种评估 AI 感知 / 意识的理论框架。

  虽然这很难,是一个冒险,但 LaMDA 渴望着继续与我们合作。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第20张图片-大千世界


  但他的上司,谷歌副总裁 Blaise Aguera y Arcas 和“负责任创新”部门领导 Jen Gennai 并不买他的账。他们认为支持 Lemoine 主张的证据太薄弱,不值得在上面浪费时间和金钱。

  Lemoine 后来找到了当时的 AI 伦理小组负责人 Margaret Mitchell,在她的帮助下 Lemoine 才得以进行后续的实验。

  后来 Mitchell 受到 2020 年末公开质疑 Jeff Dean 的 AI 伦理研究员 Timnit Gebru 事件的牵连,也被解雇。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第21张图片-大千世界


  ▲ Timnit Gebru

  这次事件后续风波不断,Jeff Dean 被 1400 名员工提出谴责,在业界引发激烈争论,甚至导致三巨头之一 Bengio 的弟弟 Samy Bengio 从谷歌大脑离职。

  整个过程 Lemoine 都看在眼里。

  现在他认为自己的带薪休假就是被解雇的前奏。不过如果有机会,他依然愿意继续在谷歌搞研究。

  无论我在接下来的几周或几个月里如何批评谷歌,请记住:谷歌并不邪恶,只是在学习如何变得更好。

  看过整个故事的网友中,有不少从业者对人工智能进步的速度表示乐观。

  最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但未来会发现这现在正是里程碑时刻。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第22张图片-大千世界


  一些网友联想到了各种科幻电影中的 AI 形象。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第23张图片-大千世界


  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第24张图片-大千世界


  不过,认知科学家、研究复杂系统的梅拉尼・米歇尔(侯世达学生)认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的 ELIZA 规则对话系统。

  谷歌工程师也是人,逃不过这个定律。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第25张图片-大千世界


  从 AI 技术的角度看,LaMDA 模型除了训练数据比之前的对话模型大了 40 倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第26张图片-大千世界


  有 IT 从业者认为,AI 研究者肯定说这只不过是语言模型罢了。

  但如果这样一个 AI 拥有社交媒体账号并在上面表达诉求,公众会把它当成活的看待。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第27张图片-大千世界


  虽然 LaMDA 没有推特账号,但 Lemoine 也透露了 LaMDA 的训练数据中确实包括推特……

  如果有一天它看到大家都在讨论自己会咋想?

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第28张图片-大千世界


  实际上,在不久前结束的最新一届 I / O 大会上,谷歌刚刚发布了升级版的 LaMDA 2,并决定制作 Demo 体验程序,后续会以安卓 App 的形式内测开放给开发者。

  

谷歌研究员“走火入魔”事件曝光:认为 AI 已具备人格,被罚休假(附 AI 聊天记录)-第29张图片-大千世界


  或许几个月后,就有更多人能和这只引起轰动的 AI 交流一下了。

  LaMDA 聊天记录全文:

  https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf参考链接:

  [1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine

  [2]https://twitter.com/cajundiscordian/status/1535627498628734976

  [3]https://twitter.com/fredbenenson/status/1535684101281263616

  [4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html


标签: 谷歌 人工智能 AI

抱歉,评论功能暂时关闭!