Anthropic 硬刚五角大楼:达里奥的「原则」值多少钱?
一场不对称的对抗
五角大楼想要 Anthropic 签一份协议——「任何合法使用」。
翻译成人话就是:军方想用 Claude 干嘛都行,只要法律没禁止。
Anthropic 的回复干脆利落:不签。
结果就是:五角大楼直接把 Anthropic 列进「供应链风险」名单。这意味着什么?简单来说,政府合同基本没戏了,军方项目直接出局。
而与此同时,OpenAI 悄咪咪地跟五角大楼达成了合作协议,允许美国军方在机密网络部署 GPT。
同一个问题,两种答案。
达里奥的「原则」到底是什么?
说实话,看到这条新闻的第一反应是:Anthropic 疯了?
跟五角大楼对着干,在美国商业语境下几乎等于自杀。政府合同是 AI 公司的肥肉,不光有钱,还有示范效应——军方都用,说明靠谱。
但达里奥(Dario Amodei)不是第一次这么干了。
去年 Anthropic 发布 Claude 3 的时候,我就注意到这家公司对「安全」的偏执。别家都在吹性能、吹参数,他们在吹「 constitutional AI」、「AI 安全研究」。当时还觉得是营销话术,现在看,人家是真信这个。
更值得关注的是达里奥对中国市场的态度。
Anthropic 至今没有正式进入中国,不像 OpenAI 搞了个「服务不可用」的半吊子封禁。达里奥在公开场合多次表示,AI 安全是全球性问题,需要跨国合作——而不是简单的技术封锁。
对中国有原则,对美国军方也有原则。
这种「两边不讨好」的立场,在商业上很蠢,但在伦理上站得住。
OpenAI 是背叛,还是务实?
先别急着骂 Sam Altman 是叛徒。
OpenAI 跟五角大楼合作,本质上是个商业决策。Google 早就跟军方眉来眼去了(Project Maven 了解一下),微软更是拿下了 JEDI 大单子。
你不合作,不代表 AI 不会被用于军事。只代表你不是那个赚这份钱的人。
从这个角度看,OpenAI 的选择很务实:既然阻止不了 AI 军事化,不如我来参与,至少能在一定程度上影响使用方式。
这有点像当年核物理学家的心态——我们知道这玩意儿会被用来做炸弹,但如果我不参与,连发声的机会都没有。
但问题是,一旦上了这艘船,你还能下来吗?
今天给军方提供 GPT,明天军方说要用它分析无人机目标数据,后天是不是就要开发自主杀伤系统了?
Anthropic 的担心不是杞人忧天。
AI 伦理红线到底在哪?
这场争论的核心其实是:AI 公司有没有权力、有没有责任为技术使用划定红线?
传统观点认为,技术是中立的,如何使用取决于使用者。菜刀可以切菜也可以杀人,你能怪卖菜刀的吗?
但 AI 不一样。
第一,AI 的门槛太高了。 不是谁都能训练 GPT-4 级别的模型,能造出这玩意儿的公司一只手数得过来。这意味着 AI 公司实际上是「守门人」,他们有能力决定谁能用、谁不能用。
第二,AI 的不可解释性太强了。 你很难说清楚一个 AI 系统为什么会做出某个决策。在军事场景下,这种黑箱特性极其危险。
第三,AI 的扩散速度太快了。 一旦某个模型被用于军事,相关的技术知识很快就会扩散。这不是「卖菜刀」的问题,是「卖核技术」的问题。
所以 Anthropic 坚持「不为军事目的提供服务」,不是在故作姿态,是在试图建立一个行业先例:
有些事情,我们就是不干。
哪怕代价是失去整个政府市场。
谁是对的?
说实话,我不知道。
达里奥的原则令人敬佩,但商业上能不能撑住是个大问题。Anthropic 的估值已经很高了,投资人不会永远有耐心看你「做正确的事」。
Sam Altman 的务实可以理解,但一旦开了这个口子,底线就会不断后退。今天是非战斗用途,明天就很难说了。
唯一确定的是:这场争论不会结束。
随着 AI 能力越来越强,类似的伦理困境只会越来越多。自动驾驶的电车难题、医疗 AI 的生死抉择、军事 AI 的杀戮授权——这些不是科幻,是未来十年要面临的真问题。
Anthropic 和 OpenAI 的分歧,可能只是这个漫长争论的序幕。
写在最后
我对达里奥的 respect 是真的。
在这个人人都在喊「AI for good」但实际上都在抢市场的年代,有人愿意真金白银地为原则买单,挺难得的。
但我也理解 OpenAI 的选择。
这不是非黑即白的问题。两种立场都有道理,也都有代价。
唯一的问题是:十年后再回头看,我们会庆幸 Anthropic 坚持了底线,还是会觉得他们太天真?
让时间给答案吧。
本文基于公开报道及个人观点整理,如有疏漏欢迎指正。









