人工智能

OpenAI CEO谈GPT4:人类迄今开发的最伟大技术 有点害怕了

字号+作者: 来源:半导体行业观察 2023-03-18 22:10 评论(创建话题) 收藏成功收藏本文

创建ChatGPT的公司背后的首席执行官认为,人工智能技术将重塑我们所知的社会。他认为它会带来真正的危险,但也可能是“人类迄今为止发展出的最伟大的技术'...

创建ChatGPT的公司背后的首席执行官认为,人工智能技术将重塑我们所知的社会。他认为它会带来真正的危险,但也可能是“人类迄今为止发展出的最伟大的技术”,可以极大地改善我们的生活。“我们在这里必须小心,”OpenAI首席执行官萨姆奥特曼说。“我认为人们应该为我们对此有点害怕而感到高兴。”nyG品论天涯网

Altman坐下来接受ABC新闻首席商业、技术和经济记者RebeccaJarvis的独家采访,谈论GPT-4的推出——AI语言模型的最新版本。nyG品论天涯网

在接受采访时,Altman强调OpenAI需要监管机构和社会尽可能地参与ChatGPT的推出——坚持认为反馈将有助于阻止该技术可能对人类造成的潜在负面影响。nyG品论天涯网

他补充说,他与政府官员保持“定期联系”。nyG品论天涯网

ChatGPT是一种AI语言模型,GPT代表GenerativePre-trainedTransformer。nyG品论天涯网

仅在几个月前发布,它已被认为是历史上增长最快的消费者应用程序。该应用程序在短短几个月内就达到了1亿月活跃用户。nyG品论天涯网

相比之下,根据瑞银的一项研究,TikTok用了九个月才达到这么多用户,而Instagram用了将近三年。nyG品论天涯网

虽然“不完美”,但根据Altman的说法,GPT-4在统一律师考试中得分为第90个百分位。它还在SAT数学测试中取得了近乎满分的成绩,现在它可以熟练地用大多数编程语言编写计算机代码。nyG品论天涯网

GPT-4只是朝着OpenAI最终构建通用人工智能的目标迈出的一步,即当AI跨越一个强大的阈值时,这个阈值可以被描述为通常比人类更聪明的AI系统。nyG品论天涯网

尽管他庆祝自己产品的成功,但Altman承认AI可能的危险实施让他彻夜难眠。nyG品论天涯网

nyG品论天涯网

“我特别担心这些模型可能会被用于大规模的虚假信息,”Altman说。“现在他们在编写计算机代码方面做得越来越好,[他们]可以用于攻击性网络攻击。”nyG品论天涯网

Altman没有分享的一个常见的科幻恐惧:不需要人类的人工智能模型,它们自己做出决定并策划世界统治。“它等待有人给它输入,”Altman说。“这是一种非常受人类控制的工具。”nyG品论天涯网

然而,他说他确实担心哪些人可以控制。“会有其他人不设置我们设置的一些安全限制,”他补充说。nyG品论天涯网

“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何监管,如何处理。”nyG品论天涯网

2017年开学第一天,俄罗斯总统弗拉基米尔·普京(VladimirPutin)告诉俄罗斯学生,无论谁在人工智能竞赛中领先,都可能“统治世界”。nyG品论天涯网

“所以这肯定是一个令人不寒而栗的声明,”Altman说。“相反,我希望的是,我们不断开发出越来越强大的系统,我们都可以以不同的方式使用这些系统,将其融入我们的日常生活,融入经济,并成为人类意志的放大器。”nyG品论天涯网

对错误信息的担忧nyG品论天涯网

根据OpenAI的说法,GPT-4与之前的迭代相比有了巨大的改进,包括将图像理解为输入的能力。演示展示了GTP-4描述某人冰箱里的东西、解决难题,甚至阐明互联网模因背后的含义。nyG品论天涯网

目前只有一小部分用户可以使用此功能,包括参与Beta测试的一群视障用户。nyG品论天涯网

但根据Altman的说法,ChatGPT等AI语言模型的一个持续问题是错误信息:该程序可以为用户提供事实上不准确的信息。“我最想提醒人们的是我们所说的‘幻觉问题’,”Altman说。“该模型会自信地陈述事物,就好像它们是完全虚构的事实一样。”nyG品论天涯网

根据OpenAI的说法,该模型存在这个问题,部分原因是它使用演绎推理而不是记忆。nyG品论天涯网

OpenAI首席技术官MiraMurati告诉美国广播公司新闻:“我们从GPT-3.5到GPT-4看到的最大差异之一是这种新兴的更好推理能力。”nyG品论天涯网

“我们的目标是预测下一个词——由此,我们看到了对语言的理解,”Murati说。“我们希望这些模型能像我们一样看待和理解世界。”nyG品论天涯网

“考虑我们创建的模型的正确方法是推理引擎,而不是事实数据库,”Altman说。“它们也可以充当事实数据库,但这并不是它们的特别之处——我们希望它们做的是更接近于推理能力,而不是记忆能力。”nyG品论天涯网

Altman和他的团队希望“随着时间的推移,这个模型将成为这个推理引擎,”他说,最终能够使用互联网和它自己的演绎推理来区分事实和虚构。nyG品论天涯网

根据OpenAI的说法,GPT-4产生准确信息的可能性比其之前的版本高40%。nyG品论天涯网

尽管如此,Altman表示,依赖该系统作为准确信息的主要来源“是你不应该使用它的地方”,并鼓励用户仔细检查程序的结果。nyG品论天涯网

防范不良行为者nyG品论天涯网

ChatGPT等AI语言模型所包含的信息类型也一直备受关注。例如,ChatGPT是否可以告诉用户如何制造炸弹。nyG品论天涯网

根据Altman的说法,答案是否定的,因为编码到ChatGPT中的安全措施。nyG品论天涯网

“我担心的一件事是……我们不会成为这项技术的唯一创造者,”奥特曼说。“会有其他人不对我们施加的一些安全限制加以限制。”nyG品论天涯网

根据Altman的说法,针对AI的所有这些潜在危害,有一些解决方案和保护措施。其中之一:让社会在风险较低的时候玩弄ChatGPT,并学习人们如何使用它。nyG品论天涯网

Murati表示,目前,ChatGPT向公众开放主要是因为“我们正在收集大量反馈”。nyG品论天涯网

随着公众继续测试OpenAI的应用程序,Murati表示,识别需要保护措施的地方变得更加容易。nyG品论天涯网

“人们用它们做什么,还有它的问题是什么,缺点是什么,以及能够介入[和]改进技术,”Murati说。Altman表示,让公众与每个版本的ChatGPT进行互动非常重要。nyG品论天涯网

“如果我们只是秘密地开发这个——在我们这里的小实验室里——然后制造出GPT-7,然后一下子把它投放到世界上……我认为,这是一个有更多不利因素的情况,”nyG品论天涯网

Altman说。“人们需要时间来更新、做出反应、习惯这项技术,[并]了解缺点在哪里以及可以采取哪些缓解措施。”nyG品论天涯网

关于非法或道德上令人反感的内容,Altman表示他们在OpenAI有一个政策制定者团队,他们决定将哪些信息输入ChatGPT,以及允许ChatGPT与用户共享哪些信息。nyG品论天涯网

“[我们]正在与各种政策和安全专家交谈,对系统进行审计,试图解决这些问题,并推出我们认为安全和好的东西,”Altman补充道。“再一次,我们不会在第一次就做到完美,但吸取教训并在风险相对较低的情况下找到优势非常重要。”nyG品论天涯网

人工智能会取代工作吗?nyG品论天涯网

这项技术的破坏性能力令人担忧的是工作的替代。Altman说这可能会在不久的将来取代一些工作,并担心这会发生多快。nyG品论天涯网

“我认为经过几代人的努力,人类已经证明它可以很好地适应重大技术变革,”Altman说。“但如果这种情况发生,你知道,在个位数的年数中,其中一些转变,这是我最担心的部分。nyG品论天涯网

但他鼓励人们更多地将ChatGPT视为一种工具,而不是替代品。他补充说,“人类的创造力是无限的,我们找到了新的工作。我们找到了新的事情要做。”nyG品论天涯网

“我认为在几代人的时间里,人类已经证明它可以很好地适应重大技术变革,”Altman说。“但如果这种情况发生在个位数年内,其中一些转变......这是我最担心的部分。”nyG品论天涯网

根据Altman的说法,ChatGPT可以用作人类工具的方式超过了风险。nyG品论天涯网

Altman说:“我们都可以在口袋里拥有一位为我们量身定制的不可思议的教育者,它可以帮助我们学习。”“我们可以为每个人提供超出我们今天所能获得的医疗建议。”nyG品论天涯网

ChatGPT作为“副驾驶”nyG品论天涯网

在教育领域,ChatGPT引起了争议,因为一些学生用它来作弊。教育工作者对这是否可以作为他们自己的延伸,或者是否会阻碍学生自学的动力感到困惑。nyG品论天涯网

Altman说:“教育将不得不改变,但随着技术的发展,这种情况已经发生了很多次,”他补充说,学生将能够拥有一种超越课堂的老师。“让我最兴奋的其中一个是提供个人学习的能力——为每个学生提供很好的个人学习。”nyG品论天涯网

在任何领域,Altman和他的团队都希望用户将ChatGPT视为“副驾驶”,即可以帮助您编写大量计算机代码或解决问题的人。nyG品论天涯网

奥特曼说:“我们可以为每一个职业都做到这一点,我们可以拥有更高质量的生活,比如生活水平。”“但我们也可以拥有我们今天甚至无法想象的新事物——所以这就是承诺。”nyG品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取。 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网站编辑联系,我们将及时更正、删除,谢谢。 本站邮箱[email protected]