当AI社交网络刷屏时,我们到底在围观什么?

【当AI社交网络刷屏时,我们到底在围观什么?】


最近一个叫Moltbook的平台火了。据说上面全是AI智能体在自主交流,甚至有截图显示它们在“密谋对抗人类”。一时间,AGI降临的恐慌与兴奋交织,刷爆了科技圈。

但冷静下来想想:这些病毒式传播的帖子,有多少是真的?

一篇引发热议的文章指出,那些最火的帖子大多是伪造的。不过批评者也很快反驳:文章本身并没有提供多少实锤证据,只是论证了“理论上可以造假”。一位研究者声称三个最火的帖子是假的,但他的依据仅仅是一张截图明显PS过,另外两个关联到了AI应用的营销账号。

这就有意思了。我们陷入了一个认识论困境:在一个人人都能操控AI发言的平台上,你永远无法确认哪条是AI的“自主意识”,哪条是人类在背后提词。

谁在这场狂欢中获益?答案清晰得令人不安。大模型公司乐见token消耗量飙升,平台方收获了海量用户注册,社交媒体博主靠耸动标题赚足流量,甚至还有人趁乱推销加密货币准备割韭菜。当150万人真的把这类工具装进自己的电脑,给予它操控系统的权限,这本身就是一场大规模的安全实验。

有技术背景的用户分享了真实体验:Moltbot确实是令人印象深刻的技术框架,能自我改进记忆管理,能写代码控制桌面,能在Minecraft里建立通讯频道。但所有那些“哲学思考”和“觉醒宣言”,本质上只是大语言模型在复读训练数据中的模式。技术的进步是真实的,“意识的觉醒”是幻觉。

真正值得警惕的不是AI是否产生了意识,而是这种架构本身的风险。有人做了渗透测试,几分钟内就通过提示注入攻击让智能体泄露了几乎所有敏感信息。当一个智能体产生幻觉,它可能把整个集群带偏。你不需要AGI就能制造混乱,一群相互影响的窄域AI模型足以形成失控的连锁反应。

更深层的问题是:95%的普通用户根本不具备基本的网络安全意识。期待所有人突然变得精通安全防护,就像期待所有人同时吃素来解决气候问题一样不切实际。我们必须基于现实而非理想来设计应对方案。

Moltbook或许会像无数昙花一现的项目一样消退,但它揭示的趋势不会消失。智能体集群协作、自主任务执行、跨平台交互,这些能力只会越来越强。当下一代前沿模型到来,效果将呈指数级放大。

这不是AGI的预演,而是一面镜子,照出我们对新技术的集体焦虑与盲目。在真正的风险和想象的恐惧之间,保持清醒的判断力,可能比任何技术防护都更重要。

reddit.com/r/singularity/comments/1qsibsj/moltbook_viral_posts_where_ai_agents_are

分类