极客前沿

极客资讯 正文

五角大楼将Anthropic列为供应链风险,AI伦理战升级

2026-03-01 00:30 | The Verge AI ...

一场突如其来的“供应链风险”标签

就在特朗普总统在Truth Social上宣布禁止联邦政府使用Anthropic产品后不到两小时,国防部长皮特·赫格塞斯(Pete Hegseth)又向前迈出了一步——他正式将这家AI公司标记为“供应链风险”。这个通常用于与外国政府有联系、对美国国家安全构成威胁的公司的标签,如今首次公开贴在一家美国本土科技企业身上。

Anthropic的反应迅速而强硬:公司表示将在法庭上挑战这一决定。这场冲突的核心,是五角大楼要求无限制使用Anthropic的Claude AI模型,包括用于自主致命武器和大规模监控,而Anthropic则坚守其“有效利他主义”的伦理立场。

谈判破裂与最后通牒

据知情人士透露,这场对峙已经酝酿了一周。五角大楼与Anthropic就公司的可接受使用政策进行了紧张谈判,最终给出了最后通牒:必须在美东时间周五下午5:30前同意让五角大楼将Claude用于“所有合法目的”,否则就会被列为供应链风险。

News Image

“我们的立场从未动摇,也永远不会动摇:国防部必须拥有对Anthropic模型的完全、无限制访问权限,用于保卫共和国的每一个合法目的。”赫格塞斯在推文中写道。他指责Anthropic及其CEO达里奥·阿莫代(Dario Amodei)选择了“虚伪”,称其“披着‘有效利他主义’的伪善外衣,试图胁迫美国军方屈服”。

有趣的是,Anthropic在周五晚间的博客回应中表示,他们并未收到五角大楼或白宫关于谈判状态的直接沟通。公司坚称:“部长没有法定权力来支持这一声明。”

技术背景:Claude AI的特殊性

要理解这场冲突的深层原因,需要了解Anthropic和Claude AI的特殊地位。与OpenAI的ChatGPT不同,Anthropic从一开始就将AI安全与伦理作为核心卖点。Claude模型被设计为“乐于助人、无害且诚实”的AI,公司在训练过程中投入了大量资源来减少偏见和有害输出。

News Image

这种技术定位使得Claude在需要高可靠性和安全性的场景中备受青睐——这也正是五角大楼感兴趣的原因。但与此同时,Anthropic的伦理承诺也限制了其技术的应用范围,特别是涉及致命自主武器系统的领域。

行业影响:涟漪效应已经开始

赫格塞斯的决定可能立即影响多家使用Claude为五角大楼工作的大型科技公司,包括Palantir和AWS。更广泛地说,任何与Anthropic有商业往来的公司都可能受到影响——赫格塞斯在推文中将标签范围扩大到了“与Anthropic有任何商业活动的公司”。

特朗普的指令给了这些公司六个月时间剥离Anthropic产品,但对于已经深度集成Claude AI的企业来说,这可能意味着重大的技术重构和成本增加。

News Image

Anthropic试图缩小影响范围,声称这一标签“仅适用于Claude AI在国防部合同工作中的使用——它不能影响承包商如何使用Claude为其他客户服务”。但五角大楼的强硬立场可能使这种区分变得困难。

法律战场:前所未有的挑战

“将Anthropic列为供应链风险将是一个前所未有的行动——历史上这一标签是为美国的对手保留的,从未公开应用于一家美国公司。”Anthropic在声明中写道。

这场法律战的焦点可能集中在几个关键问题上:国防部长单方面将公司列为供应链风险的权限边界是什么?这种标签是否可以扩展到与国家安全无关的商业活动?以及,一家公司是否有权基于伦理理由拒绝政府的某些使用要求?

News Image

值得注意的是,赫格塞斯作为国防部长,确实有权自行决定将公司标记为供应链风险。但这一决定是在五角大楼多次尝试迫使Anthropic让步后做出的,包括威胁动用《国防生产法》。

用户价值与伦理困境

对于普通用户和开发者来说,这场冲突提出了一个根本性问题:当AI公司的伦理承诺与政府需求冲突时,谁会赢?

Anthropic的立场吸引了一批重视AI安全和伦理的客户,但如果公司被迫在法庭上投入大量资源,或者其商业前景受到严重限制,这些承诺还能维持多久?另一方面,如果政府可以强迫AI公司放弃伦理限制,那么消费者对AI技术的信任可能会受到侵蚀。

这场对峙也反映了硅谷与华盛顿之间日益紧张的关系。赫格塞斯直接批评Anthropic“将硅谷意识形态置于美国生命之上”,这种言辞在科技圈引发了强烈反响。有评论者调侃说:“这就像是《终结者》的编剧直接跳进了现实政治。”

未来展望:不止一场法律战

无论法庭如何裁决,这场冲突已经标志着AI治理进入了一个新阶段。随着AI技术变得越来越强大和普及,政府与科技公司之间的权力平衡正在重新调整。

对于整个行业来说,Anthropic的案例可能成为一个分水岭。如果公司成功挑战五角大楼的决定,将为其他AI公司树立先例,保护它们基于伦理理由拒绝某些政府要求的能力。反之,如果政府获胜,可能会开启一个新时代,在这个时代里,国家安全考虑可以凌驾于企业的伦理承诺之上。

在这场高科技的“西部对决”中,唯一确定的是:无论结果如何,AI行业的规则正在被重新书写。而对于关注这一领域的每个人来说,现在正是系好安全带的时候——这场旅程才刚刚开始。