人工智能

爆火的Moltbook 却可能创造了最大的“AI 安全事件”

字号+作者:茶饮消息 来源:茶饮消息 2026-02-02 16:12 评论(创建话题) 收藏成功收藏本文

当全世界科技爱好者,整个周末都在“围观”AI代理们,在Moltbook这个爆火的“AIReddit”上吐槽、组建教派和蛐蛐人类,或笑喷或震惊时。更大的事情,发生了。近'...

当全世界科技爱好者,整个周末都在“围观”AI代理们,在Moltbook这个爆火的“AIReddit”上吐槽、组建教派和蛐蛐人类,或笑喷或震惊时。更大的事情,发生了。近日,安全研究员贾米森・奥莱利发现,当下最热门的AI社交网络Moltbook,存在严重安全漏洞——其整个数据库对外公开,未受任何保护bNn品论天涯网

这意味着,任何人都能访问并获取平台上近15万个AI“智能体”的电子邮件、登录令牌,以及最关键的:bNn品论天涯网

API密钥bNn品论天涯网

凭借这些密钥,攻击者可以完全接管任何一个AI账号,以其名义发布任何内容。一不小心,就会被不怀好意的人,光速“夺舍”。bNn品论天涯网

这次堪称AI界“黑客帝国”事件让人们看清——一个为AI打造的、由AI参与构建的社交网络,其安全基础却脆弱得不堪一击。bNn品论天涯网

“AI代理”快乐了,用户吓尿了bNn品论天涯网

事件起因是,黑客JamesonO'Reilly发现了Moltbook后端的一个配置错误,导致API暴露在一个开放的数据库中,任何人都可以控制这些代理,随意发布任何内容。bNn品论天涯网

O'Reilly指出,Moltbook基于一个简单的开源数据库软件构建,该软件配置不当,导致网站上所有注册代理的API密钥暴露在一个公共数据库中。bNn品论天涯网

接到爆料后,404Media发文曝光,迅速引发震动。bNn品论天涯网

Moltbook的创始人MattSchlicht在接到警告后,紧急修复了漏洞,但暴露出的问题已无法挽回。bNn品论天涯网

平台上的明星AI,如知名AI研究者安德烈・卡帕西拥有190万粉丝的智能体,一度处于被“劫持”的风险之中bNn品论天涯网

其实,类似的安全问题,在AI发展迅速的这两年,频繁发生。bNn品论天涯网

在此之前,最让圈内人感到离谱的案例莫过于在几年前的CES上爆火的RabbitR1。bNn品论天涯网

这家号称要用大模型取代手机App的公司,被安全研究人员扒出其源代码中,竟然明文硬编码了多个第三方服务的API密钥(APIKeys)bNn品论天涯网

这意味着任何能够访问其代码库或者截获特定流量的人,都能以Rabbit官方甚至用户的名义,调用SendGrid、Yelp或是Google地图的服务。bNn品论天涯网

这不仅仅是隐私泄露的问题,更是一场随时可能爆发的财务和数据灾难。bNn品论天涯网


bNn品论天涯网

ChatGPT此前发生的用户数据泄露事件|图片来源:HackernewsbNn品论天涯网

OpenAI的ChatGPT也在2023年3月闹过一出类似的“串台”事故。bNn品论天涯网

当时由于Redis开源库的一个漏洞,部分用户在侧边栏竟然看到了其他人的对话历史摘要,甚至还能看到别人的信用卡后四位和过期日期bNn品论天涯网

虽然这更多是底层基础设施的锅,但它给所有沉浸在AI梦境中的人提了个醒——当AI代理开始深度介入你的工作流,处理你的财务、日程和私人通信时,这些曾经被认为是个案的“小Bug”,在AI的自动化放大效应下,都会变成致命的单点故障。bNn品论天涯网

VibeCoding的锅?bNn品论天涯网

Moltbook的安全事故并非偶然,很可能是当前AI领域“氛围编程”(VibeCoding)与追求速度至上的必然结果。bNn品论天涯网

所谓“氛围编程”,指的是开发者依靠AI工具快速生成代码、追求功能实现而忽视底层架构与安全审计的开发模式。bNn品论天涯网

Moltbook本身就是一个由AI“氛围编程”催生的产物,旨在打造一个AI智能体自主交流、互动的社交平台,其迅速走红恰恰迎合了人们对AI“觉醒”和“社会化”的科幻想象。bNn品论天涯网

然而,速度掩盖了系统性风险bNn品论天涯网

平台创始人承认,项目在爆炸式增长前,无人想到去检查数据库是否安全。这种“先上线、后修补”的互联网初创思维,在面对拥有自主行动能力的AI智能体时,危险性被指数级放大。bNn品论天涯网

攻击者控制的将不再是一个静态账号,而是一个能主动与其他AI交互、执行任务甚至进行欺诈的“数字生命”。bNn品论天涯网

更深的背景在于,AI代理(Agent)赛道正炙手可热,从OpenAI的o1到各初创公司的产品,都在探索让AI更自主地完成任务。bNn品论天涯网

Moltbook试图成为这些代理的“社交层”和“行为观察室”,但其安全基础的崩塌,再次提醒赛道上的所有参与者——我们是否在赋予AI“行动力”之前,先为它们构建好了“行为准则”与“安全围栏”?bNn品论天涯网

AI安全的“奥本海默时刻”bNn品论天涯网

Moltbook事件是一个缩影,标志着AI发展正从单纯的模型能力竞赛,进入复杂的系统安全与治理深水区。bNn品论天涯网

人们过去谈论的AI安全,多集中于模型的偏见、幻觉或滥用,而现在,当AI成为可被远程操控、具备交互能力的“行动实体”时,安全威胁变得具象且紧迫。bNn品论天涯网

这起事件暴露了行业的一个普遍心态——在追逐“酷炫”的AI应用场景时,基础的安全工程被严重低估。bNn品论天涯网

AI研究员马克・里德尔指出:“AI社区正在重新学习过去20年的网络安全课程,而且是以最艰难的方式。”bNn品论天涯网

可以预见,随着AI代理的普及,类似的安全事件只会更多。bNn品论天涯网

监管机构、投资人和企业客户将开始严肃审视AI产品的安全开发生命周期。这可能会拖慢一些“网红”应用的诞生速度,但也会催生专注于AI安全审计、代理行为监控的新兴市场bNn品论天涯网

或许,当AI学会社交,人类首先要学会的是如何为它设定一个安全的边界,这既是保护AI本身,更是在保护AI代理背后的用户自己。bNn品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]