特朗普下令切断与Anthropic联系后,其AI仍被用于伊朗空袭:WSJ
美军在特朗普禁令后仍使用Anthropic AI
据《华尔街日报》周六报道,尽管唐纳德·特朗普总统下令联邦机构停止使用Anthropic的AI工具,但美国军方仍在对伊朗的一次重大空袭中依赖该公司的Claude平台。
中央司令部在行动中的AI应用
熟悉此事的人士向《华尔街日报》透露,美国中央司令部在伊朗空袭期间使用Claude进行情报评估、目标识别和模拟战斗场景。这发生在特朗普周五指示各机构开始六个月内逐步淘汰Anthropic产品之后,原因是该公司与五角大楼在后者如何使用商业开发的AI系统方面谈判破裂。
专家解读:政策转变的技术滞后性
Decrypt已联系国防部和Anthropic寻求评论。
TknOps.io首席执行官兼联合创始人Midhun Krishna M告诉Decrypt:“当AI工具已经嵌入实时情报和模拟系统时,高层的决策不会立即转化为地面的变化。这里存在技术、程序和人为的滞后。”
Krishna补充道:“一旦模型嵌入到机密情报和模拟系统中,就会面临沉没的集成成本、再培训、安全重新认证和平行测试问题,所以六个月的淘汰期听起来果断,但实际的财务和运营负担要深得多。”
“国防机构现在将优先考虑模型的可移植性和冗余性,”他说。“没有一个严肃的军事操作员希望在危机中发现其AI层政治上脆弱。”
Anthropic拒绝解除AI防护措施
Anthropic首席执行官Dario Amodei周四表示,公司不会解除防止Claude被用于大规模国内监控或完全自主武器的防护措施。
Amodei写道:“我们不能昧着良心答应他们的要求。”此前,国防部要求承包商允许他们的系统“用于任何合法用途”。
特朗普随后在Truth Social上写道:“左翼疯子在Anthropic犯下了灾难性的错误,试图强迫战争部就范”,并命令各机构“立即停止”所有Anthropic产品的使用。
国防部将Anthropic列为国家安全风险
国防部长Pete Hegseth紧随其后,将Anthropic指定为“供应链对国家安全的风险”,这一标签以前是留给外国对手的,禁止每个五角大楼承包商和合作伙伴与该公司进行商业活动。
Anthropic称这一指定“前所未有”,并誓言要在法庭上挑战它,称“从未公开适用于一家美国公司”。
该公司补充说,据其所知,这两个有争议的限制至今尚未影响任何政府任务。
OpenAI迅速填补空白
Krishna补充道:“这场辩论不是关于AI是否会在国防中使用,这已经在发生了。问题是前沿实验室能否在‘任何合法用途’合同下维持差异化护栏,一旦其系统成为作战资产。”
OpenAI迅速采取行动填补空白,首席执行官Sam Altman周五晚间宣布与五角大楼达成协议,覆盖机密军事网络,声称包括Anthropic所寻求的相同护栏。
业内反应:对未来的担忧
当被问及五角大楼有效将Anthropic列入黑名单是否为未来与AI公司的纠纷树立了令人不安的先例时,OpenAI首席执行官Sam Altman在X上回应:“是的;我认为这是一个非常可怕的先例,我希望他们用不同的方式处理。”
“我认为Anthropic处理得也不好,但作为更有权力的一方,我认为政府负有更多责任。我仍然希望有一个更好的解决方案,”他补充道。
与此同时,来自OpenAI和谷歌的近500名员工签署了一封公开信,警告五角大楼正试图挑起AI公司之间的对立。






