Anthropic的创立之路:七位联合创始人深度对话
引言:从事故到反思
过去一周,Anthropic经历了两次重大事故:先是内部近3000份文件因CMS配置错误被公开访问,紧接着Claude Code v2.1.88在npm发布时夹带了59.8MB的source map,导致51万行源码直接暴露。这些事件让这家以“安全”为核心基因的公司陷入了尴尬境地。
七位联创简介
这次播客录于2024年12月,七位联合创始人分享了他们建立Anthropic的过程、RSP(Responsible Scaling Policy)的制定,以及对“安全”的深刻理解。
- Dario Amodei:CEO,前OpenAI研究副总裁,神经科学出身。
- Daniela Amodei:总裁,Dario的姐姐,曾在Stripe工作。
- Jared Kaplan:物理学教授转AI研究者。
- Chris Olah:可解释性研究代表人物。
- Tom Brown:GPT-3论文一作,负责Anthropic的算力资源。
- Jack Clark:前彭博科技记者,负责政策与公共事务。
- Sam McCandlish:研究联创,发言最少但常点到要害。
精彩观点摘要
在这次对话中,联合创始人们分享了许多关于AI发展的深刻见解。
为什么做AI:从物理无聊到“看够了就信了”
Jared Kaplan提到他之前做物理感到无聊,而Dario Amodei则通过不断展示AI模型结果来说服团队成员。
逆共识下注:大多数共识是羊群效应伪装成了成熟
Dario Amodei强调,很多所谓的“共识”其实是羊群效应伪装成的成熟,真正的创新需要敢于下注。
安全与规模化是缠绕在一起的
Tom Brown将RSP比作Anthropic的“宪法”,强调其在指导公司发展中的核心地位。
火警响太多次,真着火就没人跑了
Dario Amodei用火警比喻频繁的安全演练可能带来的负面影响。
「高尚的失败」是个陷阱
Chris Olah认为,过于强调“高尚的失败”实际上会导致决策权落入不重视安全的人手中。
联创们承诺捐出80%收入
Tom Brown提到,联合创始人们共同承诺将收入的80%捐赠给能够推动社会发展的事业。
没人想创业,但觉得必须这么做
Sam McCandlish表示,虽然没有人一开始就想创办公司,但他们觉得这是确保AI发展朝着正确方向前进的唯一途径。
可解释性:神经网络里藏着一整套「人工生物学」
Chris Olah展望未来,认为神经网络的研究将揭示许多令人惊叹的结构。
AI用于增强民主,而不是成为独裁工具
Dario Amodei强调,AI应该成为促进自由和自决的工具。
从白宫会议到诺贝尔奖:AI的影响力早就超出了技术圈
Jared Kaplan提到,AI的影响已经引起了政府高层的关注。
Anthropic的创立故事
Sam McCandlish回顾了Anthropic的创立初衷,强调团队的责任感和使命感。
如何打造信任文化
Daniela Amodei指出,团队的高度信任和统一性是Anthropic的一大优势。
竞逐AI的巅峰
Jack Clark认为,Anthropic的成功将激励其他公司效仿其在安全领域的做法。
展望人工智能的未来
Chris Olah和其他联合创始人对未来充满期待,尤其是在可解释性和AI应用领域。






