人工智能

AI教父:人工智能可能会重写自己的代码来“逃脱控制”

字号+作者: 来源:​财联社 2023-10-12 01:04 评论(创建话题) 收藏成功收藏本文

在业内有“人工智能教父”之称的计算机科学家杰弗里·辛顿(GeoffreyHinton)表示,如果人类不小心的话,人工智能“可能会接管一切”。现年75岁的辛顿近日在接'...

在业内有“人工智能教父”之称的计算机科学家杰弗里·辛顿(GeoffreyHinton)表示,如果人类不小心的话,人工智能“可能会接管一切”。现年75岁的辛顿近日在接受媒体采访时表示,快速发展的人工智能技术可能在“五年内”获得比人类更聪明的能力。他补充说,如果这种情况发生,人工智能可能会进化到人类无法控制的程度。jDa品论天涯网

jDa品论天涯网

辛顿指出,人工智能系统可能逃脱控制的方法之一是自己编写“自己的计算机代码”,这是我们需要认真担心的事情。jDa品论天涯网

辛顿的工作被认为对当代人工智能系统的发展至关重要。1986年,他与人合著了一篇开创性的论文《通过反向传播误差来学习表征》,这是人工智能技术基础神经网络发展的一个里程碑。2018年,他被授予图灵奖,以表彰他的研究突破。jDa品论天涯网

今年4月,在谷歌工作了10年之后,辛顿辞去了副总裁兼工程研究员的职位,这样他就可以自由地谈论人工智能带来的风险。在离职后,辛顿声称对自己在开发人工智能这项技术中的角色感到遗憾。jDa品论天涯网

他特别强调,人类,包括像他这样构建人工智能系统的顶尖科学家,仍然没有完全理解这项技术是如何工作和发展的。jDa品论天涯网

许多人工智能研究人员也坦率地承认对此缺乏理解。今年4月份,谷歌首席执行官桑达尔·皮查伊将其称为人工智能的“黑匣子”问题。jDa品论天涯网

正如辛顿所描述的那样,科学家为人工智能系统设计算法,从“数据集”中提取信息,比如互联网。他说:“当这种学习算法与数据产生交互时,它会产生擅长做某些事情的复杂神经网络。但说实话,我们并不真正了解它们是如何做到这些的。”jDa品论天涯网

皮查伊和其他人工智能专家似乎并不像辛顿那样担心机器失控的问题。另一位图灵奖得主YannLeCun称,任何有关人工智能可能取代人类的警告都是“荒谬可笑的”,因为人类总是可以阻止任何变得过于危险的技术。jDa品论天涯网

但辛顿认为,最坏的情况并不确定,医疗保健等行业已经从人工智能中受益匪浅。jDa品论天涯网

此外,人工智能制造的错误信息、假照片和视频在网上广泛传播。他呼吁进行更多的研究来了解人工智能,政府应该出台法规来控制这项技术,并在全球范围内禁止人工智能军用机器人。jDa品论天涯网

在上个月,美国科技大佬齐聚国会山,参加了由参议院多数党领袖舒默举办的人工智能峰会,商讨未来人工智能的监管方式。尽管科技巨头呼吁美国国会通过立法加强对人工智能的监管,但在如何进行监管上,各科技公司仍然存在分歧。jDa品论天涯网

辛顿指出,无论人工智能护栏是由科技公司,还是在美国联邦政府的强制要求下实施的,都需要尽快出台相关的监管措施。jDa品论天涯网

他认为,人类可能正处于“某种转折点”,接下来会发生什么存在巨大的不确定性。并补充说,科技圈和政府领导人必须决定“是否进一步发展这些东西,以及如果他们这样做该如何保护自己。”jDa品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]