极客前沿

极客资讯 正文

AI巨头集体沉默:五角大楼红线前,为何无人敢说“不”?

2026-02-28 00:30 | The Verge AI ...

一场没有硝烟的“红线”战争

想象一下,你开发的AI系统突然被要求识别目标并自主开火——没有人类监督,没有确认按钮,只有算法决定生死。这不是科幻电影情节,而是五角大楼给AI公司Anthropic下的最后通牒:要么开放技术用于大规模监控和全自主致命武器,要么被列为“供应链风险”并损失数百亿美元合同。

更戏剧性的是,当Anthropic CEO达里奥·阿莫代伊周四硬气回应“良心不允许我们妥协”时,他悄悄补了一句:“我只是说现在技术不够可靠,未来可不一定。”这种“今天不行明天再说”的暧昧态度,像极了程序员面对bug时说的“下个版本修复”。

News Image

沉默的大多数:70万科技工作者的无力感

在硅谷的咖啡厅里,一位亚马逊AWS工程师苦笑着告诉同事:“我入行时以为科技是让生活更美好,现在发现是在让监控、驱逐和杀人变得更高效。”这种背叛感正在蔓延——OpenAI、xAI、谷歌、微软的员工都在私下表达类似忧虑。

代表70万科技工作者的组织已经联名要求公司拒绝五角大楼,但现实很骨感。一位微软软件工程师直言:“从公司角度看,他们只想闷声发大财,根本不想讨论这个话题。”这让人想起那个经典梗:“当我们谈论伦理时,董事会正在数钱。”

News Image
  • OpenAI 悄悄移除了服务条款中“军事和战争”使用禁令
  • Anthropic 刚刚修改了备受吹捧的负责任扩展政策
  • 亚马逊、谷歌、微软 早已向国防和情报业务敞开大门

有趣的是,当Anthropic提出与国防部合作研发“提高系统可靠性”时,军方居然没接这个橄榄枝。看来五角大楼要的不是改进版,而是现成的“开箱即用”杀人工具。

技术背后的“魔鬼细节”

全自主致命武器听起来高大上,其实技术门槛比想象中低。现有的计算机视觉算法已经能在复杂环境中识别特定目标,关键问题在于:误判率多少可以接受?99.9%的准确率意味着每1000次行动就有1次误杀——而这个数字在军事场景中可能被无限放大。

News Image

更讽刺的是,AI公司常挂在嘴边的“对齐问题”(Alignment Problem)——如何确保AI目标与人类价值观一致——在军事合同中变成了“如何更好对齐杀伤指令”。一位前谷歌工程师吐槽:“我们花了十年让AI理解人类意图,现在却要教它如何绕过人道主义审查。”

行业“内卷”下的伦理滑坡

为什么科技巨头集体沉默?除了显而易见的商业利益,更深层的原因是AI军备竞赛已经白热化。当竞争对手都在接国防订单时,拒绝可能意味着掉队。这就像一场没有裁判的赛车:第一个刹车的人肯定输。

News Image

但问题在于,这种“竞相堕落”正在改变整个行业的基因。原本以“不作恶”为傲的科技文化,现在变成了“不讨论恶”。当工程师开始习惯为监控系统优化算法,为自主武器调试传感器时,那个曾经梦想用代码改变世界的硅谷精神,可能真的只剩代码了。

值得玩味的是,阿莫代伊的声明中特意强调“今天技术不可靠”——这既给了自己道德高地,又为未来合作留了后门。这种精心设计的模糊性,恰恰反映了整个行业的尴尬处境:既想当道德标杆,又舍不得万亿级市场。

红线到底该画在哪里?

技术发展从来不是非黑即白。AI在军事领域确实有正当用途:排雷机器人、后勤优化、情报分析都能挽救生命。但“无人类监督的致命自主权”这条线一旦越过,就可能开启潘多拉魔盒。

想象这样一个场景:某国AI系统误判民用航班为威胁目标,自动发射导弹——事后调查发现是训练数据偏差导致的算法错误。这时候该起诉谁?程序员?产品经理?还是那行出bug的代码?

目前看来,科技公司更倾向于把锅甩给“技术不成熟”。但正如一位匿名工程师所说:“如果等‘技术成熟’再讨论伦理,那讨论本身就已经失去了意义——因为到那时,既得利益集团早就把生米煮成熟饭了。”

这场红线之争的结局,可能不取决于哪家公司最有骨气,而取决于消费者、投资者和普通工程师用脚投票的力量。毕竟,当你的代码可能决定他人生死时,写注释的心情都会不一样吧?