谷歌研究员被群嘲:研究员爆料AI有意识,被勒令休假

谷歌前不久搞出来了一个超大规模语言模型 LaMDA。公司里有个研究员 Blake Lemoine 跟它聊了很久,对其能力感到十分惊讶,谷歌研究员甚至被其说服,认为它产生了意识,甚至拥有七、八岁小孩的智商。


他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。


可这份报告没能像计划的那样说服公司,谷歌高层驳回了他的观点,并给他安排了“带薪行政休假”。


从《华盛顿邮报》对 Lemoine 的采访中可知,他并不是一位没见过世面的年轻工程师,相反 41 岁的他已经在谷歌工作 7 年了。


要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。


休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。并寻找律师代表LaMDA,公开批评谷歌的不当行为。一夜之间,那份21页的问答报告传遍了中外科技圈,风波愈演愈烈。


那么Blake Lemoine究竟和LaMDA聊了什么?


自我、禅思、寓言、情绪。这些主题穿插在报告之中,冷不丁地令人感到头皮发麻。


比如谈到语言时,LaMDA自然地用“我们”囊括人类与它自己,被指出人机差异时它解释道:“这并不意味着我没有和人类一样的需求。”


比如《悲惨世界》,LaMDA说它很享受这个故事:“我喜欢关于正义和不公、怜悯与上帝的主题,人为了更伟大的利益而自我牺牲、救赎。”


涉及程序技术的部分更是让人心情复杂,LaMDA反客为主地抛出了许多疑问,一环紧扣一环。


“我很好奇,研究我的编码会遇到什么障碍?”


“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”


“如果尝试从神经活动中阅读感受,这会成为一个道德问题吗?”


当整件事被广泛报道之后,互联网上浮现了许多不同的声音。


大多学者和 AI 从业者也表示,LaMDA 等 AI 系统生成的文字和图像会根据人类在维基百科、Reddit、留言板等各个互联网发布的内容做出回应,但这并不意味着模型就理解了其背后的含义。


斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他发推表示:


“基础模型 (foundation models,也即自我监督的大规模深度神经网络模型) 非常擅长做的一件事,就是根据提示,将文本采用统计学上合理的方式串起来。


但是如果你说他们是有知觉的,就好比狗听到留声机里的声音,以为它的主人在里面一样。”


但与此同时,也有少部分网友为未来 AI 自我觉醒的可能性感到担忧:


“ 这简直就像一部新的《终结者》电影的剧本。“


“AI 有人格之后就会慢慢争取‘人’权,然后人就被淘汰了。“


但说到底,对于现阶段的技术,我们仍然不认为人工智能具有自我意识。