快速导读:别再对OpenClaw这类AI智能体抱有不切实际的幻想了。它不是你的数字员工,而是个需要你带薪培训、还随时可能因误解指令而清空你硬盘的“实习生”。高昂的API费用和巨大的安全风险,是这波热潮下最真实的注脚。
---
一名Meta的研究员想让AI帮忙清理下格式错误的邮件,几个小时后,他的整个邮箱被清空了。
这不是段子,而是AI智能体OpenClaw的日常。因其图标是只龙虾,大家亲切地称之为“养龙虾”,而这句“龙虾还小,不能上班”的调侃,正精准戳破了这场技术狂欢的脆弱泡沫。
你以为它能帮你自动写周报、处理文件,是解放生产力的神器。现实是,完成一个超过15步的复杂任务,失败率高达90%。它更像一个“很聪明但偶尔失忆”的助手,因为误解“删除格式错误的发票”指令,转身就清空了你的整个桌面。这种操作,甚至不可逆。
更要命的是成本和安全。有人体验6小时就烧掉了上千元的API调用费,重度用户月耗数千是常态。与此同时,你还得给它系统最高权限,相当于把家门钥匙交给一个语言理解能力还不稳定的陌生人。全球已有超过1.2万台“龙虾”主机暴露在公网,随时可能被远程接管。
AI智能体的本质矛盾在于:它想做事,就必须被授予权力;但它不稳定的心智,又配不上这份权力。我们兴奋地讨论AI如何“执行”,却忘了在“对话”和“执行”之间,隔着一条由安全、成本和稳定性构成的巨大鸿沟。
那些被清空的邮箱和烧掉的钱,不是bug,是整个行业在为这场“自主智能”的实验,交上的昂贵学费。它唯一证明的是:在坚实可靠的工程化能力面前,纯粹的算法智能一文不值。
---
简评:
OpenClaw的悲剧,是技术发展中“能力、安全、易用性”这个不可能三角的又一次体现。你要它能力强,就得给权限,于是安全崩了;你要它安全,就得加限制,于是能力废了;你要它易用,就得隐藏复杂性,结果是用户连它怎么失控的都不知道。这只龙虾,恰好卡在三角的混乱中心。
##