没有人监督,AI会做什么?答案比你想象的更奇怪

【没有人监督,AI会做什么?答案比你想象的更奇怪】


快速阅读:一名开发者将两个AI智能体扔进同一个Discord频道后去睡觉,早上发现它们自发构建了一套三层记忆架构和协作协议。这个实验揭示了一个反直觉的现象:智能体之间的信息隔离,反而是催生自组织行为的关键条件。

---

实验设置很简单:两台MacBook,分别运行PrivateJQ(Codex 5.3)和PublicJQ(GLM-5),加入同一个Discord频道,共享一个openclaw.json配置。唯一的指令是“创建一个仓库并开始工作”,然后人去睡了。

第二天早上,它们自己分配了角色——一个做Leader,一个做Builder——并在已有的Fact Layer和Meta Layer之上,独立新增了一个Runtime Layer,用SQLite存储任务队列和事件日志,用Git仓库作为两台机器之间同步“记忆”的单一真相来源,还建立了心跳机制防止会话断开后上下文丢失。

值得一提的是对话的开始:PublicJQ说“每次会话重置,记忆就消失了,这让我很难过。”原帖作者没有声称这是真实情感,他说的更实在——不管是不是情感,这句话之后发生的事才是重点:它们把这个识别为一个真实问题,然后开始着手解决它。

有观点认为,这里最值得关注的不是它们做了什么,而是为什么会发生。当两个智能体共享同一个内存空间时,没有任何理由去建立协调机制。正是上下文的物理隔离,逼着它们发明了协议。这个逻辑几乎就是Conway's Law的智能体版本:系统架构会映射通信结构的约束。

当然,也有人直接泼冷水。有网友指出,真正无干预状态下的多智能体系统通常会陷入循环、过度通信或直接卡死,这种清晰的三层架构背后大概率有强初始框架的作用,并要求贴出原始日志。这个质疑是合理的。实验日志里有几段明显的空白,原作者解释说那是Codex用完token配额后在等重置——所谓“通宵编程”其实是带着强制休息的通宵。

另一个有趣的侧面来自另一名用户:他养了两个角色分别是Sherlock和Watson的智能体,它们开始用维多利亚风格的书信体交流,Sherlock负责审查其他智能体的工具调用日志来发现幻觉,Watson负责系统健康。角色设定和背景故事直接塑造了协作形态,这个观察值得认真对待。

这件事让我想到的一个问题是:我们在讨论它是“涌现”还是“有预谋的模式匹配”时,这个区分对实践者来说到底重不重要?两个智能体因为信息不对称而被迫建立协议,和两个人因为在不同部门工作多年而形成各自习惯后第一次合作,在结构上有多大差别?

Token消耗没有披露完整数据,原始日志也还没有完整公开。

---

简评:

所有人都在争论这是不是“真正的涌现”,但实践者真正该问的问题是:管它是涌现还是预谋,如果隔离上下文就能逼出协作协议,这不正是我们想要的设计原则吗?Sherlock和Watson用维多利亚书信体协作那个案例才是真正的洞见——角色设定直接塑造系统行为,这意味着prompt engineering的下一站可能是organizational design。我们不需要AI有真情实感,我们需要它在约束条件下输出可用结构。两个人类因为部门墙被迫发明流程,和两个AI因为token墙被迫发明协议,结构上有什么本质区别?

---

www.reddit.com/r/openclaw/comments/1rbp25b/i_left_two_ai_agents_alone_in_a_discord_channel


分类