找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 4|回复: 0

OpenAI变成军事承包商不是因为贪婪,是因为那130亿美元从一开始就锁死了终点

[复制链接]

3

主题

0

回帖

9

积分

新手上路

积分
9
发表于 3 小时前 | 显示全部楼层 |阅读模式
【OpenAI变成军事承包商不是因为贪婪,是因为那130亿美元从一开始就锁死了终点】


快速导读:OpenAI从非营利组织变成军事承包商只用了三年。这不是因为Sam Altman特别贪婪,而是因为那笔钱从一开始就决定了终点。真正值得追问的,是Anthropic拒绝之后发生了什么。

---

三天前,OpenAI正式与美国国防部签约。

一个最初写在使命宣言里的句子是:“为了全人类的利益开发人工智能。”现在这句话还在官网上,就在那份军事合同的同一家公司名下。

大多数人的反应是:Sam Altman变了,或者OpenAI被腐化了。这个判断没错,只是太晚了,而且指向了错误的原因。

真正的转折点不是这周,是2023年微软注入130亿美元的那一刻。那笔钱不附带“继续做非营利”的条款,它附带的是“产生回报,否则我们换掉你的董事会”——而换掉董事会这件事,已经在2023年底真实发生过一次,只是方向反了。OpenAI董事会试图解雇Altman,结果五天后Altman回来了,董事会成员走了。资本和使命之间的博弈,结果在那时候就已经明牌了。

现在来看一个更有意思的对比。Anthropic也收到了同样的来自五角大楼的要求——移除模型的安全限制,用于军事用途。Anthropic拒绝了。理由是他们的安全限制不是写在合同里的条款,而是直接训练进模型权重里的东西,物理上无法“临时关掉”。结果是他们被政府踢出了这笔合同,并承受了后续的压力。

OpenAI的限制从来都是合同条款:在纸上写着“仅用于合法目的”。而2024年美国最高法院的一项裁决已经确立了总统以“官方行为”为由可以获得大范围豁免。如果总统命令部署某个系统是“官方行为”,谁来判断它合不合法?

这就是两者的本质差异,不是道德层面的——而是技术架构层面的。一个把安全写进硅基里,一个把安全写进合同里。

如果你现在在用或者在开发基于OpenAI接口的产品,这个问题迟早会压到你:你的工具链上游,刚刚向一个可以重新定义“合法”的客户打开了后门。

这跟你信不信任Sam Altman无关。跟你信不信任那份合同有关。

---

简评:

最讽刺的不是OpenAI变了——是它根本没有条件不变。一家靠风险资本活着的“非营利”,从定义上就是一个等待被解体的矛盾体。Anthropic的拒绝让这件事有了参照系:原来那条线是可以不越的,代价是被踢出局。现在的问题不是谁更有道德,而是谁的架构设计让道德变得可绕过。

---

ref: reddit.com/r/singularity/comments/1rhqwkj/openai_in_just_a_couple_of_years_nonprofit

##


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-3-2 19:41 , Processed in 0.246419 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表