极客前沿

极客资讯 正文

五角大楼给Anthropic贴“供应链风险”标签,AI伦理战升级

2026-03-07 00:30 | The Verge AI ...

一场由AI伦理引发的“五角大楼对决”

在科技圈,AI公司Anthropic最近可算是摊上大事了。美国国防部(俗称“五角大楼”)正式给它贴上了“供应链风险”的标签,这可不是什么好兆头——通常这顶帽子只扣给那些有“敌对政府背景”的外国企业,Anthropic作为一家土生土长的美国公司,还是头一回“享受”这待遇。

事情的导火索,说起来有点极客式的倔强:Anthropic死活不肯让自家AI程序Claude被用于两个领域——一是没有人类监督的自主致命武器,二是大规模监控。用他们CEO Dario Amodei的话说,这是公司的“红线”,谁碰跟谁急。但五角大楼那边可不这么想,国防部长Pete Hegseth早就放话威胁,说Anthropic要是再不松口,就等着被收拾吧。

News Image

结果呢?谈判谈崩了,公开警告发了,官司威胁也撂了,五角大楼果然说到做到,一纸通知把Anthropic打成了“风险分子”。这下可好,任何国防承包商只要用了Claude,就别想再接政府的活儿了。Amodei在博客上硬气回应:“我们觉得这操作不合法,法庭上见!”——这剧情,简直比硅谷的创业故事还带感。

技术背景:Claude不是“小白兔”

可能有人会问:Claude到底是个啥,能让五角大楼这么上头?简单来说,它是Anthropic开发的一款AI程序,属于当前大热的生成式AI范畴,但比普通聊天机器人更“严肃”一些,主打安全性和可控性。Anthropic这家公司本身就是由前OpenAI研究员创办的,理念上更强调AI的“对齐问题”(Alignment Problem),也就是确保AI的行为符合人类价值观。

News Image

正因如此,他们给Claude设了严格的使用政策,比如禁止用于暴力、监控等场景。这听起来很“白莲花”,但在五角大楼眼里,却成了绊脚石——毕竟,AI在军事领域的应用早已不是新鲜事,从情报分析到目标识别,Claude这类工具甚至被曝在近期对伊朗的导弹袭击中“立功”了。五角大楼担心,让一家私人公司卡住政府的脖子,这权力是不是太大了点?

<2>行业影响:一场“蝴蝶效应”正在酝酿

这场纠纷远不止是两家机构的嘴炮。首先,它开了个危险的先例:美国本土科技公司被自家政府列为供应链风险,这在历史上还是头一遭。如果五角大楼真按国防部长Hegseth说的那样,把制裁范围扩大到“任何与Anthropic有商业往来”的公司,那波及面可就广了——从云计算伙伴到软件集成商,都可能被殃及池鱼。

News Image

其次,这给整个AI行业敲响了警钟。随着AI技术日益成熟,伦理和监管问题越来越突出。Anthropic的坚持,某种程度上代表了科技圈里的一股“清流”,但清流能不能挡得住洪流,还得看法律怎么判。如果五角大楼赢了,其他AI公司可能也得重新掂量自己的“红线”该画在哪;如果Anthropic赢了,那政府在使用AI时恐怕得多几分顾忌。

更有趣的是,这场争端还夹带了点政治彩蛋:Hegseth和特朗普政府给Anthropic设了六个月的“最后通牒”,要求把Claude从政府系统中移除。但现实是,AI工具已经深度嵌入军事操作,真要拔掉,谈何容易?这就像让你把手机里的微信删了——用惯了,离不开了啊!

News Image

用户价值:AI的“灵魂拷问”

抛开官司和标签,这件事其实抛出了一个更深层的问题:AI到底该为谁服务?Anthropic的立场很明确:技术不能没有底线,哪怕用户是政府。这种“极客式硬核”在中文互联网上被戏称为“AI界的罗永浩”——理想很丰满,但现实可能很骨感。

对普通用户来说,这或许是个好消息。Anthropic的坚持,间接推动了AI伦理的讨论,让大家意识到,AI不是“工具人”,它的使用边界需要全社会来定义。毕竟,谁也不想哪天发现自己被AI监控了,或者战场上冒出个“杀手机器人”吧?

当然,也有人吐槽:Anthropic是不是太“圣母”了?在国家安全面前,伦理能不能让步?这个问题没有标准答案,但可以肯定的是,随着AI越来越强大,类似的“灵魂拷问”只会更多。这场五角大楼与Anthropic的对决,或许只是序幕而已。

最后,别忘了那个经典梗:当AI开始跟政府“刚正面”,人类是该鼓掌还是该捂脸?至少,Anthropic用行动证明了一件事——在科技圈,有时候“不作恶”比“赚大钱”更需要勇气。至于结局如何,咱们拭目以待,法庭上见真章!