正文

Anthropic与OpenAI在AI竞赛加速中缩减安全承诺

编辑:Luna发布时间:8小时前

Anthropic放弃核心安全承诺

据《时代》杂志的一篇报道,Anthropic已经从其负责任扩展政策中删除了一项核心安全承诺。这些变化放宽了此前禁止Claude AI开发者在没有充分保障措施的情况下训练先进AI系统的承诺。

应对竞争对手的压力

此举重塑了该公司在与OpenAI、谷歌和xAI的竞争中的定位。尽管Anthropic长期以来一直标榜自己为业内最注重安全的实验室之一,但在修订后的政策下,该公司不再承诺在风险缓解措施未完全到位时停止训练。

Anthropic首席科学官Jared Kaplan告诉《时代》杂志:“我们认为停止训练AI模型并不会真正帮助任何人。”“在AI快速发展的背景下,我们不认为单方面做出承诺是有意义的……如果竞争对手在奋勇向前。”

与美国国防部的公开争端

这一改变正值Anthropic卷入与美国国防部长Pete Hegseth的公开争端之际,原因是拒绝向五角大楼提供对Claude的完全访问权限,使其成为谷歌、xAI、Meta和OpenAI等主要AI实验室中唯一采取这种立场的公司。

早期AI安全框架的变化

RAND公司的高级政策研究员Edward Geist表示,早期的“AI安全”框架来自一个特定的知识社区,该社区早于今天的大型语言模型。

Geist告诉《Decrypt》:“几年前,有一个AI安全领域。”“AI安全与一群在我们拥有这些LLM之前就关心强大AI的人的观点有关。”

对投资者和政策制定者的信号

Geist说,早期的AI安全倡导者对于先进人工智能的愿景与当前的LLM有很大的不同。

“他们最终以某种方式概念化了这个问题,这在某些方面设想了一些与当前LLM有质的不同的东西,无论好坏,”Geist说。

他还表示,语言的变化也向投资者和政策制定者发出了信号。

“部分原因是向各个选民发出信号,表明这些公司希望给人的印象是,他们不会因为对‘AI安全’的担忧而在经济竞争中退缩,”他说,并补充说术语本身也在随着时代变化。

OpenAI的安全语言修订

Anthropic并不是唯一一家修订其安全语言的公司。非营利新闻机构《对话》最近的一份报告指出,OpenAI也在其2024年的IRS文件中更改了使命宣言,删除了“安全地”一词。

该公司先前的声明承诺要构建能够“安全地造福人类”的通用AI,不受财务回报需求的约束。更新后的版本现在表示其目标是“确保人工通用智能惠及全人类”。

新的透明度措施

Anthropic的新政策强调透明度措施,例如发布“前沿安全路线图”和定期的“风险报告”,并表示如果认为存在重大灾难风险,将推迟开发。

Anthropic和OpenAI的政策转变正值这些公司寻求加强其商业地位之际。

巨额融资推动发展

本月早些时候,Anthropic表示已筹集了300亿美元,估值约为3800亿美元。与此同时,OpenAI正在完成由亚马逊、微软和英伟达支持的融资轮,可能达到1000亿美元。

政府合同与政治动态

Anthropic、OpenAI、谷歌和xAI已经获得了美国国防部的丰厚政府合同。然而,由于访问投诉问题,Anthropic的合同似乎存疑,五角大楼正在考虑是否切断与该AI公司的联系。

随着资本涌入该行业,地缘政治竞争加剧,生命未来研究所的AI与国家安全负责人Hamza Chaudhry表示,政策变化反映了政治动态的变化,而非为了争取五角大楼的业务。

Chaudhry告诉《Decrypt》:“如果是那样的话,他们上周就会直接屈服于五角大楼的要求。”“Dario [Amodei]也不会现身会面。”

相反,Chaudhry表示,重写反映了AI公司在谈论风险时的一个转折点,因为政治压力和竞争赌注上升。

“Anthropic现在表示,‘看,我们不能一直说安全,我们不能无条件暂停,我们将推动更为宽松的监管,’”他说。