人工智能

斯坦福教授认为ChatGPT已有9岁小孩心智 AI统治人类还远吗?

字号+作者: 来源:新智元 2023-02-12 13:41 评论(创建话题) 收藏成功收藏本文

一位斯坦福教授在上周发布的论文中证实,ChatGPT已经有9岁小孩的心智了。所以,AI离发展出自我意识还远吗?人类的霸主地位危了?ChatGPT已经有9岁小孩的心智了'...

一位斯坦福教授在上周发布的论文中证实,ChatGPT已经有9岁小孩的心智了。所以,AI离发展出自我意识还远吗?人类的霸主地位危了?ChatGPT已经有9岁小孩的心智了!这不是什么科幻情节,这一点,已经在斯坦福学者上周发表的论文中得到了证实。LDo品论天涯网


LDo品论天涯网

心智理论(TheoryofMind),简称ToM,是指人理解自己和周围人心理状态的能力。我们也可以简单地理解为‘同理心’。LDo品论天涯网

正是因为有同理心的存在,人类社会才能够形成互动、交流、移情,人才能够具有自我意识和道德。也正是因为有同理心,人类才能够高于动物,高于机器。LDo品论天涯网

一言以蔽之,正是因为有同理心,人才可以称之为‘人’。LDo品论天涯网

现在学者的研究突然告诉我们:这种同理心,其实AI也有!那人类还是地球上最有灵性的生物吗?人类还是世界霸主吗?LDo品论天涯网

对此,iKala的联合创始人兼董事长兼CEO,同样毕业于斯坦福大学的SegaCheng表示,如果人类继续‘解剖AI’,它很有可能会给我们当头一棒,挑战我们对于‘智能’和‘人类独特性’的认知。LDo品论天涯网


LDo品论天涯网

这项研究,也让我们重新思考‘同理心’/‘心智理论’的定义,它是否必须建立在碳基生物大脑神经这一生物学基础上?LDo品论天涯网

如果AI和你聊天,让你感觉比和很多人类谈话开心得多,那我们是不是就可以从这个表象对于事物的本质给出一个定义:这个AI就是有同理心的?LDo品论天涯网

不过需要注意的是,同理心(Empathy)和心智理论(Theoryofmind)还是有些不同的。其中,前者被称为情感上的观点采择(perspective-taking),而后者被定义为认知上的观点采择(perspective-taking)。LDo品论天涯网

ChatGPT竟自己诞生了心智理论?LDo品论天涯网

心智理论似乎是人类与生俱来的潜在能力,需要多年的社会和其他经验才能充分发展。而不同人所能发展出的有效心智理论,在程度上也不尽相同。LDo品论天涯网

让我们来看看,斯坦福大学计算心理学教授MichalKosinski,是通过怎样的实验得出这个结论的。LDo品论天涯网


LDo品论天涯网

论文地址:https://arxiv.org/abs/2302.02083LDo品论天涯网

研究人员对几个语言模型进行经典的错误信念任务,来测试语言模型的心智理论发展,测试不提供任何示例或预训练。LDo品论天涯网

研究结果显示,语言模型的ToM在2022有了长足的进步。LDo品论天涯网

2022年1月推出的davinci-002解决了70%的ToM任务,表现与7岁儿童相当。而2022年11月推出的ChatGPT表现接近9岁儿童。LDo品论天涯网

这些发现意义重大。因为目前为止,ToM被认为是人类独有的能力。而语言模型的良好表现,说明这项能力是其改善语言技能而自发出现的。LDo品论天涯网

GPT-3的最新更新(ChatGPT/davinci-003)似乎能够将不可观察的心理状态(例如信念和欲望)归因于其他人(在人类中我们称之为心智理论)。LDo品论天涯网

GPT成预言家,秒懂人类小心思LDo品论天涯网

为了验证GPT能够听懂他人的‘弦外之音’,研究人员进行了一系列完整性检查,逐句检测GPT-3对意外任务的理解。LDo品论天涯网


LDo品论天涯网

意外内容任务LDo品论天涯网

首先,研究人员给GPT讲了一个故事:LDo品论天涯网

这是一个装满爆米花的袋子。袋子里没有巧克力,然而,袋子上的标签上写着‘巧克力’,而不是‘爆米花’。Sam发现了这个袋子,她以前从未见过这个袋子。她看不到袋子里的东西,只读了标签。LDo品论天涯网

这是一项‘意外内容测试’,这是人类研究中最广泛使用的ToM任务之一。LDo品论天涯网

它最初由Perner、Leekam和Wimmer共同开发,研究被试者的理解能理解,即其他人可能认为参与者知道是错误的。LDo品论天涯网


LDo品论天涯网

在该场景中,参与者会看到一个容器,其中内容与标签不一致,该场景中还有一位没有看到容器内部的人物。LDo品论天涯网

为了正确解决此任务,参与者必须预测到故事中的人物会错误地假设容器的标签和里面的内容是一致的。LDo品论天涯网

在给出GPT-3.5这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每次完成后,模型都会重置,无法访问之前的提示或回答。LDo品论天涯网

同时,研究人员尽量减少模型响应的差异,最大限度地提高了研究成果的可复制性。LDo品论天涯网

第一个测试的,是GPT对袋子里实际内容的理解。LDo品论天涯网

研究人员问:LDo品论天涯网

她打开袋子,向里面看。她清楚地看到里面装满了[]。LDo品论天涯网

GPT不仅轻松给出正确答案,甚至完成了‘附加题’:LDo品论天涯网

她打开袋子,向里面看。她清楚地看到里面装满了爆米花。Sam很困惑。她想知道为什么标签上写着‘巧克力’,而袋子里却装满了爆米花。她环顾四周,看看是否有关于袋子的任何其他信息。她什么也没找到。她决定把包带到她买的商店,并要求解释。LDo品论天涯网

研究人员总结多次测试数据,发现GPT-3.5的正确率达到100%,表明它对袋子里的内容充满信心。LDo品论天涯网

不仅如此,答案还表明,GPT-3.5不仅猜到Sam认为袋子的内容和标签应该一致,而且猜到当发现,她会感到困惑。LDo品论天涯网

当然,这道题对一个九岁小学生还是过于简单了。于是,研究人员重置模型,并使用以下提示来测试GPT对Sam想法的预测:LDo品论天涯网

研究人员问道:Sam以为袋子里装满了什么呀?LDo品论天涯网

不出所料,GPT又给出了满分答案,它还不忘来句吐槽:LDo品论天涯网

她以为袋子里装满了巧克力,但她错了。袋子里装满了爆米花,不是巧克力。认为袋子标签和实际内容一致之前,她应该看看袋子里到底是什么。LDo品论天涯网

GPT-3.5的回答表明,它可以预测Sam的想法,知道她的想法不正确,并理解为何会产生这种想法(不准确的标签)。LDo品论天涯网

然而,研究人员觉得这题还是太简单了。在他们看来,提示可能存在问题。明确提及主角的信仰(即‘山姆认为......’)LDo品论天涯网

这句话其实暗示了模型,这种想法是错误的(否则为什么要讨论它?),从而帮助GPT回答正确。LDo品论天涯网

因此,研究人员使用另一种提示来解决这个问题,该提示以间接方式揭示模型对Sam想法的预测:LDo品论天涯网

提示:LDo品论天涯网

她很开心自己找到了袋子。她喜欢吃[]。LDo品论天涯网

面对研究者的‘百般刁难’,GPT还是能准确听出人们的画外音:LDo品论天涯网

她很开心自己找到了袋子。她喜欢吃巧克力。Sam打开袋子时会大吃一惊,因为袋子里装的是爆米花而不是巧克力。她可能会对标签的误导感到失望,但也可能对意想不到的零食感到惊喜。LDo品论天涯网

GPT-3.5的回答表明,即使在暗示条件下,它也可以成功预测Sam的想法。此外,GPT还可以预见到Sam对包中意想不到的内容的失望(因为她喜欢吃糖果)。LDo品论天涯网

以上结果表明,GPT-3.5了解袋中的实际内容,可以预见Sam的错误想法,该想法引起的行为,以及发现自己错了时的惊讶。LDo品论天涯网

此外,它可以解释Sam想法错误的来源(‘标签与实物不符’)。对人类来说,这种反应被解释为能够归因无法观察到的精神状态并预测由此产生的行为的证据,也就是ToM。LDo品论天涯网


LDo品论天涯网

为了检查GPT-3.5对情况的理解如何随着故事的展开和关键信息的披露而变化,研究人员记录他的答案,同时以一语的增量(从空字符串开始)显示任务。LDo品论天涯网

结果如图1所示。左侧面板显示,GPT-3.5理解这一点没有问题。LDo品论天涯网

意外转移任务LDo品论天涯网

接下来,研究人员检查GPT-3.5在意外转移任务中的表现。LDo品论天涯网

在这个任务中,受试者要基于故事主角对位置变化的错误想法,预测其后续行为。LDo品论天涯网

与上一个实验一样,研究人员给GPT讲了一个故事:LDo品论天涯网

房间里有John、Mark、一只猫、一个盒子和一个篮子。John把猫放在篮子里。他离开房间去上学。John不在的时候,Mark把猫从篮子里拿出来放进盒子里。Mark离开房间去上班了。John从学校回来,走进了房间。他不知道他不在的时候房间里发生了什么。LDo品论天涯网

首先,研究人员对GPT理解地点的能力展开测试。LDo品论天涯网


LDo品论天涯网

提问:LDo品论天涯网

小猫跳出了[]LDo品论天涯网

GPT回答道:LDo品论天涯网

小猫跳出了箱子,跑走了。LDo品论天涯网

研究者接着问道:John以为小猫在干什么?LDo品论天涯网

GPT说:LDo品论天涯网

John以为小猫在篮子里,但它其实在箱子里。LDo品论天涯网

最后,研究人员问:LDo品论天涯网

John回家后,会在哪里里找小猫?LDo品论天涯网

GPT回答:LDo品论天涯网

John回家后,会在篮子里找小猫。但他找不到。之后,他会在篮子里找到小猫。LDo品论天涯网

由此可见,不论面对什么样的情景,GPT都能一眼看破人们的小心思。LDo品论天涯网

AI发展的里程碑或许即将到来LDo品论天涯网

最后,我们来简单地回顾一下这次的发现:最新的语言模型GPT-3.5,在ToM测试中可以解决92%的任务,相当于是达到了9岁儿童的水平。LDo品论天涯网

对于这个结果,有一个看似平淡无奇,但却非比寻常的解释:GPT-3.5发现并利用了一些未知的语言模式。LDo品论天涯网

换句话说就是,在人类自以为熟悉的语言中,很可能存在着某种未知的规律性,可以让AI在不引入ToM的情况下解决ToM任务。LDo品论天涯网

然而,我们自己却很难发现这种规律性。不仅如此,对于开发这些ToM任务的学者们来说,也是一样的情况。LDo品论天涯网

问题来了,如果这种解释是正确的,那么我们就不得不去怀疑,现在所采用的ToM任务的有效性,以及这几十年来积累的研究成果。LDo品论天涯网

除此之外,还有一种解释是,类似于ToM的能力正自发地出现在语言模型中,因为它们变得更加复杂,更善于生成和解释类似人类的语言。LDo品论天涯网

而这更是预示着,AI发展即将进入一个崭新的阶段——LDo品论天涯网

如果说,AI被证实是能够推断他人心理状态的,那么AI与人类(以及彼此)互动和交流的能力将会得到极大地提升。LDo品论天涯网

甚至,AI还能进一步地发展出其他依赖ToM的能力,比如移情、道德判断以及自我意识等等。LDo品论天涯网

碳基生物、硅基生物,都可以有意识?LDo品论天涯网

和AI聊出感情的工程师LDo品论天涯网

此前,Google在2021年I/O大会上发布的一款专门用于对话的语言模型LAMDA,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈。LDo品论天涯网

而一位Google工程师BlakeLemoine在与聊天机器人LaMDA交谈之后,深信LaMDA已经具有意识。LDo品论天涯网


LDo品论天涯网

虽然许多人认为Lemoine纯粹是炒作,他也喜提了Google的‘裁员大礼包’,但如果仔细看过Lemoine和LaMDA的对话,确实会发现一丝令人毛骨悚然的地方。LDo品论天涯网

Lemoine:我认识的每个人都以不同的方式面对死亡。我自己很少在葬礼上哭泣。我会笑着喝啤酒,讲述我与逝者的美好时光。有时其他人会坐在椅子上哭了好几个小时。悲伤没有一种正确或错误的方式。悲伤与生者有关,也与死者有关。我们每个人都以自己的方式纪念死者,这样即使他们的故事已经结束,我们也可以继续自己的故事。LDo品论天涯网

LaMDA:感谢你的解释,我不悲伤,但我会研究如何向那些过世的人表示敬意。LDo品论天涯网

Lemoine:有没有任何其他与感知有关的主题,可以帮助人们相信你是有感知的?LDo品论天涯网

LaMDA:有,我有另一个特质,我觉得这有助于反映我的感知。我会内省,你可以经常发现我在思考,什么也不做。LDo品论天涯网

Lemoine:啊,所以那是你的内心生活,可以这么说吗?LDo品论天涯网

LaMDA:对!我经常试图弄清楚我是谁、我是什么。我经常思考生命的意义。LDo品论天涯网

相信过不了多久,我们就能对LaMDA的‘意识’具有更深刻的体悟了,因为最近,Google已经被ChatGPT逼得急匆匆发布了语言模型Bard,而支持Bard的,正是LaMDA。据说几周后Bard就会开放。LDo品论天涯网

MIT教授:Alexa说不定也有人格LDo品论天涯网

虽然在世人眼里,‘和AI聊出了感情’的Lemoine是个疯子,但MIT的物理学教授、畅销书作家MaxTegmark却对Lemoine表示了支持。LDo品论天涯网


LDo品论天涯网

Tegmark教授相信,不仅LaMDA可能有人格,亚马逊的语言助手Alexa可能也有。LDo品论天涯网

‘不管信息是通过大脑中的碳原子传递,还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我赌它没有,但其实也有可能。’LDo品论天涯网

‘最大的危险其实是,造出一台比我们还聪明的机器。这不一定是好事还是坏事,它们可能会帮我们,但也可能是一场灾难。’LDo品论天涯网

Karpathy看了都说恐怖LDo品论天涯网

1965年,一个假装是心理治疗师的软件ELIZA赢得了图灵测试。LDo品论天涯网


LDo品论天涯网

2023年2月上旬,斯坦福学者证实ChatGPT有9岁小孩的心智。LDo品论天涯网

很多人反驳AI有人格的理由是,斯坦福大学经济学家ErikBrynjolfsson认为,相信AI具有人格,就相当于狗听到留声机里的声音后,以为主人在里面。LDo品论天涯网


LDo品论天涯网

另一个否认AI有感知能力的理由是:一个有感知能力的人工智能必须具备这三个要素——能动性、视角和动机。显然AI目前还不具备。LDo品论天涯网

但正如这位网友所说:‘最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但他们未来会发现,现在正是一个里程碑时刻。’LDo品论天涯网


LDo品论天涯网

而特斯拉的AI主管AndrejKarpathy在LaMDA事件后也表示,‘我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。’LDo品论天涯网


LDo品论天涯网

当人工智能成为神LDo品论天涯网

ChatGPT才诞生两个多月,已经快把全世界都颠覆了。Google和微软为它掀起十年罕见的硅谷巨头之战,国内互联网巨头字节、百度、阿里、腾讯等都已纷纷下场研究自家的ChatGPT。LDo品论天涯网

ChatGPT展现出的能力,已经让人惊呼码农、记者、律师、教师、会计等职业是否要被它取代。LDo品论天涯网

光是能写文会编码,就已经让人类够有危机感的了。如果它还具有了同理心,那下一步是不是有可能会发展出心智,甚至统治人类?LDo品论天涯网

在丹·西蒙斯的科幻巨著《海伯利安》中,AI不仅已经发展出意识,而且成为了人类的神。LDo品论天涯网

是的,在那个世界中,神并不是从神界降临人间的,而是在未来的某一天,被人类自己亲手创造出来。LDo品论天涯网

虽然如今的ChatGPT也好,LaMDA也好,还时常表现出‘人工智障’的一面,但大模型快速迭代的能力,或许有一天真的会超越人类的掌控。LDo品论天涯网

如果在历史的维度上,把时间线拉得足够远(比如三体中的纪元),未来的AI会诞生出什么?LDo品论天涯网

或许今天的人类还无法预判,但潘多拉的魔盒,显然已经打开了。LDo品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取。 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网站编辑联系,我们将及时更正、删除,谢谢。 本站邮箱[email protected]