Anthropic 正试图在 AI 竞赛中获胜,同时不失其灵魂
达里奥·阿莫代伊(Dario Amodei)已经从一位学者转型为一家市值 610 亿美元初创公司的首席执行官。
Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)在二月中旬的某天收到了 Slack 上的一条消息:公司安全团队的高级成员表示担忧,如果没有适当的防护措施,他们即将向公众发布的人工智能模型可能会被用于制造生物武器。
这一令人震惊的消息传来时,阿莫代伊正面临着日益加剧的压力。所涉及的模型 — — Claude 3.7 Sonnet — — 距离发布仅有几天时间,而 Anthropic PBC 正在全速推进,以跟上竞争对手争相推出自家模型的节奏。与此同时,42 岁的阿莫代伊正忙于完成一轮数十亿美元的融资,该轮融资对 Anthropic 的估值超过 600 亿美元。阿莫代伊戴着眼镜、卷发环绕,在职业生涯早期,他曾在学术实验室中小心翼翼地从死去的蝾螈身上取出眼球。
此时显然不是踩刹车的最佳时机,但这恰恰是阿莫代伊在四年前协助创办 Anthropic 时所承诺要做的事情。与大多数其他人工智能行业的领导者相比,阿莫代伊更强调他所构建的这项技术伴随着重大的风险。
当时,Anthropic 的一组员工 — — 被称为“前沿红队”的成员,正在加利福尼亚圣克鲁兹参加一个安全会议。他们与来自生物安全咨询公司 Gryphon Scientific LLC 的外部专家一同躲进酒店房间处理这一问题。Gryphon 的专家们也在参加此次会议。阿莫代伊通过 Google Meet 远程参与,他们开始对该模型进行一系列测试。Anthropic 的员工对他说了大多数人在这种情况下大概都会说的话:他们会连夜工作,彻底评估这个问题,并坚持原定发布时间表。阿莫代伊回忆道:“他们说,‘我们可以彻夜不眠,我们可以按时完成,我们可以72小时不睡觉完成这事。’”他说:“我当时的反应是,‘如果你们这样做,那你们就做不好。’”他告诉他们,应该花更多时间,更严格地测试这个模型。
为了预见这种时刻的到来,Anthropic 早已建立了一套名为“负责任扩展政策”(Responsible Scaling Policy)的框架,参考了美国政府的生物安全实验室标准,用以判断在面对日益强大的 AI 系统时,应如何处理相关风险。只要模型保持在特定级别以下 — — 也就是他们所称的“AI 安全等级 2”(AI Safety Level 2,简称 ASL-2),公司就可以照常运营。一个 ASL-2 级别的系统可能具备提供制造生物武器的相关指令的能力,但这些指令既不具备实用性,也不会比搜索引擎上能找到的信息更详细。而如果达到 ASL-3 级别,系统则可能在实际层面显著协助用户 — — 尤其是具备一定技术背景的用户 — — 真正制造或部署此类武器。
截至目前,Anthropic 发布的所有模型都处于 ASL-2 或更低等级。如果某个模型达到了 ASL-3,根据 Anthropic 的内部指南,公司就必须加强安全防护措施。这些措施可能包括:增强防御机制,以防止恶意行为者窃取模型代码,或诱骗系统泄露危险信息。在这些高级防护措施尚未到位之前,公司必须采取临时措施,例如:有意降低模型能力、屏蔽某些回应内容,或者干脆不发布该模型。
经过将近一周的努力,团队最终判定该模型并不像阿莫代伊的员工最初担心的那样强大。Anthropic 最终稍微推迟了一些时间发布了该模型 — — 至少到目前为止,它并没有导致人类文明的崩溃。
阿莫代伊表示,考虑到激烈的市场竞争,这次短暂的延迟是“痛苦”的。但如果 Anthropic 真能如其所言打造出如此强大的技术,那么未来还将面临更多更棘手的抉择。阿莫代伊深信,人工智能将彻底改变世界,它将在数据中心中创造出一个“天才之国”。从乐观的一面来看,这种 AI 可能将治愈癌症;但另一方面,它也可能导致全球大多数人失去谋生手段。而这种将重新塑造整个社会的技术,按照阿莫代伊的说法,最快将在明年出现,几乎可以肯定不会晚于 2030 年。他说:“如果我们不尽可能清晰、频繁地说明正在发生的事情,这几乎就是在放弃我们的道德责任。”
Anthropic 的成立初衷,是以尽可能负责任的方式引领这场转型。然而,如今客户也开始为使用其技术支付真金白银:截至 4 月,Anthropic 的年收入预计将达到 20 亿美元,是四个月前的两倍。Anthropic 表示,公司目前尚未盈利,原因在于训练 AI 系统的成本极其高昂;阿莫代伊曾表示,训练一款最前沿的模型最终可能花费高达 1000 亿美元。
几乎可以肯定,客户今后仍会持续追求更强大的 AI。Anthropic 完全预料到自己很快就会触及 ASL-3 级别,甚至可能就在眼前,因此已经开始提前加强安全防护措施。近年来,公司从 OpenAI 招募了至少六位知名研究人员,其中一些人曾批评前雇主偏离了其原本对安全的承诺。可以想见,如果将来 Anthropic 试图回避自身的承诺,这些研究人员不会袖手旁观。
这一关键时刻何时到来,仍存在争议。与谷歌、Meta 和 OpenAI 一样,Anthropic 在推出其最昂贵、最强大的一系列 AI 模型的新版本方面,已落后于原定时间表。怀疑者质疑,如今围绕 AI 危险性的各种言论,是否是在有意制造一种技术比实际更强大的印象。
与此同时,那些关注 AI 安全性的人则担心,市场对快速迭代的强大压力,可能会促使公司做出不负责任的决策。毕竟,那些投资人之所以向 Anthropic 投资 140 亿美元,并不是为了让它输给 OpenAI、DeepSeek 或 Meta。一旦接受了这笔巨额资金,就不可能再完全无视商业驱动力。“你无法真正正面对抗市场,”阿莫代伊坦言。但他也表示,自己可以发起一场他所谓的“向上竞赛”(race to the top) — — 通过示范如何在不毁灭世界的前提下构建改变世界的 AI,让 Anthropic 带动整个行业向更负责任的方向发展。
-
阿莫代伊是土生土长的旧金山人,从未把自己视为“科技圈的人”。他成长于科技资本尚未涌入之前的使命区(Mission District),出身工人阶级家庭。他的父亲早年在意大利是孤儿,后来成为一名皮具工匠,但在阿莫代伊年幼时因长期健康问题不得不停止工作,并在他十几岁时去世。他的母亲则是一名图书馆项目经理。
阿莫代伊的妹妹丹妮拉·阿莫代伊(Daniela Amodei) — — 同样是 Anthropic 的联合创始人兼公司总裁 — — 回忆说,哥哥从小就是个在数学和科学方面格外出众的孩子。幼年时,他会宣布“今天是数数日”,然后数数数上一整天。“真的是一整天,”她说,“你见过哪个三岁的孩子有这种注意力持续力?”他在高中期间就开始在加州大学伯克利分校修课,随后在加州理工学院学习了两年物理,之后转学到斯坦福大学。
丹妮拉回忆说,哥哥达里奥是在大学期间第一次对人工智能产生兴趣的,那时他读了雷·库兹韦尔(Ray Kurzweil)的《奇点临近:当人类超越生物学》(The Singularity Is Near: When Humans Transcend Biology)。书中预测,人工智能将在 2029 年达到人类智能水平,而人类将在 2045 年与机器融合。
阿莫代伊于 2006 年获得本科学位,随后将研究重心转向物理学在神经科学和生物学中的应用。在研究生阶段,他前往东海岸,在普林斯顿大学攻读生物物理学博士学位。他的研究聚焦于两栖动物视网膜中神经节细胞的神经结构,这也是他为何要切割蝾螈、研究它们视网膜的原因。“我对这件事在动物权益方面的意义并不感到兴奋,”阿莫代伊说,他从小就是素食者(不过他对虾和其他无脊椎动物例外)。但他补充道:“我是一名科学家,我想解决生物学和人类健康的问题。”
真正令阿莫代伊动摇的,并不是实验室伦理问题,而是研究进展的节奏。当他在日复一日地忍受枯燥的实验工作时,却看到另一项试图揭示智能本质的研究正以更快速度推进 — — 那就是人工神经网络的发展。彼时,被称为“深度学习”的方法在计算机科学界一度不受欢迎,但到了 2012 年前后,这一领域开始复苏,而研究人员在计算机视觉方面取得的突破让阿莫代伊印象深刻。“我当时想,‘哇,这玩意真的有效!’”他回忆道。2014 年,阿莫代伊在斯坦福大学从事博士后研究期间所在的计算机科学系教授吴恩达(Andrew Ng)邀请他加入自己在百度负责的人工智能研究团队。面对这个机会,阿莫代伊毫不犹豫地答应了。
阿莫代伊最终在百度工作了一年,随后又在 Google 内部专注于人工智能研究的团队 Google Brain 工作了一年。正是在那里,他开始认真思考 AI 快速发展所带来的伦理问题。2016 年,他发表了一篇广受认可的论文,题为《人工智能安全中的具体问题》(Concrete Problems in AI Safety),系统地提出了 AI 可能引发非预期和有害行为的五个关键领域。
尽管在 2010 年代初期,谷歌可能是 AI 研究人员最理想的去处,但一家新成立的非营利实验室 — — OpenAI — — 似乎与阿莫代伊的兴趣更契合。他于 2016 年加入 OpenAI,担任安全研究负责人。那时,他住在旧金山格伦公园(Glen Park)社区的一栋合租房中,和几位室友一起生活,其中包括另外三位 OpenAI 同事 — — 他们后来都成为了 Anthropic 的联合创始人。其中一位正是他的妹妹丹妮拉(Daniela)。当时,阿莫代伊兄妹都活跃于与“有效利他主义”(effective altruism)相关的社交圈中。这一哲学主张以理性思维为改善世界的最高效方式,在关注 AI 安全的人群中颇为流行。(这一运动后来声誉受损,因为其最知名的倡导者之一、加密货币巨头萨姆·班克曼-弗里德〔Sam Bankman-Fried〕 — — 其公司曾投资 Anthropic,后在破产清算过程中出售持股 — — 因诈骗投资人而被判有罪。)
阿莫代伊在 OpenAI 最重要的研究贡献,是提出了“扩展法则”(scaling laws)的概念:只需扩大模型规模、增加数据量和计算能力,就能从根本上提升神经网络的性能。在计算机科学的大部分历史中,人们普遍认为突破性的进展主要来自于不断优化算法。而通过推动这一路线 — — “越大越好”的策略 — — 阿莫代伊在大型语言模型的崛起中发挥了关键作用,而这些模型正是当前 AI 热潮的核心。这一成就不仅让他在 OpenAI 内部赢得了重要地位,也使他在整个行业中声名鹊起。
阿莫代伊对人工智能所抱持的责任感始终压在心头,随着时间推移,他对 OpenAI 的态度也逐渐变得消极。2020 年,他与六位 OpenAI 同事一同离职,创办了 Anthropic,并承诺要建立一个更加负责任的 AI 实验室。这个团队很容易协作融洽:他们彼此早已有共事经验,其中三人曾一起合租生活,而其中两人还是亲兄妹。
这场“出走”至今仍是硅谷津津乐道的话题 — — 那里向来热衷于混乱的初创公司剧本,尤其当涉及的是史上最具价值的独角兽公司之一时,更是如此。阿莫代伊对此事一直保持模糊态度,但他谈到自己对 OpenAI 领导层逐渐失去了信心。“我不认为有某个明确的转折点,”他说,“这是多年积累下来的一个认识 — — 我们想以不同的方式去运作。我们想与我们信任的人一起工作。”当时,Anthropic 的前景看起来充满不确定,毕竟 OpenAI 拥有庞大的资金和在模型研发上的先发优势。“几年前的共识是,Anthropic 无法实现扩展,因为它筹不到足够的资金,”Anthropic 的早期投资人、前谷歌 CEO 埃里克·施密特(Eric Schmidt)回忆道。
然而,Anthropic 如今已发展成一个实力强劲的竞争对手,拥有与 OpenAI 相当的技术,并在金融、制药、软件开发等多个行业中吸引了越来越多付费客户。(Anthropic 也推出了面向公众的 AI 聊天机器人 Claude,但相比 OpenAI,它对消费市场的关注较少。)
施密特回忆起 2018 年曾造访阿莫代伊和他的伴侣卡米拉·克拉克(Camilla Clark) — — 如今已是他的妻子 — — 当时他们住在旧金山一处靠近高速公路的简陋公寓里。那时阿莫代伊还在 OpenAI 工作,但施密特对他印象深刻,后来决定投资 Anthropic。不过,施密特曾对阿莫代伊打算将 Anthropic 设立为一家公益公司(public benefit corporation)表示怀疑。这种企业虽为营利性质,但其宗旨是履行特定的公共使命。当施密特劝他按传统初创公司的模式来设立时,阿莫代伊拒绝了。
这类争论在 Anthropic 创立初期非常常见。“那时我们经常讨论:‘我们是否只靠慈善资金支持?我们的重点是否只是单纯做安全研究?到底需要多少资金?’”阿莫代伊的研究生同学贾里德·卡普兰(Jared Kaplan)说道,他后来成为了 Anthropic 的联合创始人兼首席科学官。“有些人当时认为我们应该办成一个非营利组织。我觉得达里奥和我都觉得,那可能不是一个好主意。我们应该保留一些选择的空间。”
风投公司 General Catalyst 的首席执行官赫曼特·塔内贾(Hemant Taneja)表示,Anthropic 如今似乎已具备跻身当前 AI 热潮中“少数胜出者”之列的有利条件。该公司在最近一轮融资中得到了 General Catalyst 的支持。“这家公司可能具备了成为最终重要玩家的一切关键因素,”他说,“但我必须坦白告诉你:我从未代表 GC 写过一张金额如此之大、却又伴随如此多不确定性的支票。”
即便在快速前进的同时,Anthropic 也逐渐树立起一个形象:相比其前身公司,它在安全性与责任等问题上更为严肃认真。OpenAI 在 2023 年短暂罢免首席执行官萨姆·奥特曼(Sam Altman)后,外界对该公司诚信以及是否仍忠于最初使命的质疑持续不断 — — 当时董事会指控奥特曼“缺乏一贯的坦率”。
阿莫代伊通常避免直接批评他的前雇主,但他和他的公司也不吝于暗讽几句。Anthropic 曾在旧金山投放广告牌,上面写着:“值得信赖的 AI”以及“没有那些乱七八糟的那一个”。与其他一些科技高管(包括奥特曼)不同,阿莫代伊几乎没有试图与特朗普政府搞好关系,他表示自己传达的信息在拜登担任总统时和现在是一样的。他提到业内存在“一些玩家”,相反地,“对掌权政党说什么就跟着说什么”,以图讨好政治权力。“你一看就知道这完全是没有原则的行为,”他说。
今年一月,阿莫代伊首次前往瑞士达沃斯,参加世界经济论坛。他穿上了一套细条纹西装,展开了一场兼具思想引领与高风险交易的行程。就在他在彭博社达沃斯会馆发表涉及 DeepSeek 与 AI 医疗的演讲的那一天,他还花了将近一个小时与美国国际集团(AIG)首席执行官彼得·扎菲诺(Peter Zaffino)闭门会谈。最终,Anthropic 拿下了一份多年期合约,将协助 AIG 在保险承保流程中分析客户数据。(AIG 表示,此前为期 18 个月的试点项目中,Anthropic 的技术将该流程的速度提升了 8 到 10 倍。)扎菲诺表示,他之所以选择 Anthropic,是因为该公司在“值得信赖”和“引用特定数据来源的准确性”方面具有明确的专注,尤其在保险这类高度受监管的行业中格外重要。扎菲诺还称赞阿莫代伊学习能力惊人。“尽管达里奥缺乏商业经验,但他大脑里的算法运行得非常快,”扎菲诺说,“他能迅速将学习到的内容与我们讨论的业务目标联系起来并付诸应用。”
在达沃斯结束一天的工作后,阿莫代伊没有参加晚间的各种社交派对,而是回到酒店房间,撰写了一篇关于 DeepSeek 所揭示的加强半导体出口管制必要性的文章。Anthropic 最近一轮融资已让他跻身亿万富翁行列,他出行时常有安保人员随行。但他仍住在旧金山南部郊区的一栋租赁房屋里,院子里还养着几只鸡。他承诺将把自己“绝大部分”的财富捐赠用于慈善事业。
当他在三月于 Anthropic 办公室接待《彭博商业周刊》的记者时,条纹西装已不见踪影;阿莫代伊明显对回到克拉克所称的他的“舒适装”感到满意 — — 一条灰色弹力运动裤和一件看起来同样舒适的灰色 T 恤。他说,这身打扮“有助于我思考”。
阿莫代伊的思维方式深植于他多年的学术背景,也深刻影响着 Anthropic 的企业文化。每两周,Anthropic 的员工(他们自称为 “蚁人” Ants)都会聚集在一起,聆听阿莫代伊发表约一小时的演讲,内部称之为 “Dario 的愿景探索”(Dario vision quests)。会前会发放配套文档,供员工提前阅读。在阿莫代伊的领导下,Anthropic 也会投入研究一些短期内无法直接变现的领域,比如:机制可解释性(mechanistic interpretability):研究不透明的算法是如何做出决策的;AI 福利(AI welfare):探讨如果计算机未来真的拥有感知能力,人类应如何以伦理方式与其互动。
凭借这些行动记录,Anthropic 在业界建立起一个广受认可的形象:在其他科技公司似乎只是在口头上谈论责任,甚至在某些情况下对“伦理框架”本身持敌意(只因它可能放慢技术发展)的背景下,Anthropic 被认为是真正严肃对待“负责任 AI 发展”的少数派。“达里奥和整个团队在安全问题上是以诚信态度行动的,他们值得肯定和信任,”知名经济与政策作家马修·伊格莱西亚斯(Matthew Yglesias)表示,他曾为阿莫代伊的一些写作提供过咨询。“但问题在于,这是否真的能改变结构性局势还不清楚。如果你在竞赛中,即便你再诚心想保持安全,也很难真的做到。”
Anthropic 的目标是打造几乎无所不能的机器,而目前其人工智能最擅长的一项任务就是编写计算机代码。公司最近发布了一款专为程序员设计的应用 — — Claude Code,其技术也为多款流行的独立编程应用提供支持,例如 Cursor。根据 Anthropic 今年 2 月发布的经济指数报告,所有与 Claude 有关的工作类互动中,有 37% 与编程相关,是占比最高的类别(艺术与媒体类位列第二,约为 10%)。阿莫代伊表示,在过去几个月里,自动化编程很可能是公司业务增长最快的部分。
由 AI 生成的代码不像 AI 创作的音乐或绘画那样具备情感共鸣。与一首歌曲不同,消费者通常并不在意他们使用的应用程序背后的代码是否出自人类之手。而程序员们自己也基本接受了 AI 成为工作的一部分:GitHub 公司去年对 2,000 名技术人员的调查显示,几乎所有人(高达 97%)都曾在工作中使用过 AI 编程工具。
但在程序员这个领域,即将到来的职位流失,比起“AI 制造脏弹”这类安全性问题,显得不那么假设化,更加切身与迫在眉睫。Anthropic 的数据显示,在使用 Claude Code 的程序员中,有 79% 是为了“自动化”任务,而非“增强”工作能力。这意味着许多用户并非只是借助 AI 提高效率,而是在用它替代某些原本由人完成的工作。(值得一提的是,Anthropic 的政策负责人、联合创始人 — — 也是前彭博社记者 — — 杰克·克拉克(Jack Clark)表示,这份经济指数报告本身就部分由 Claude Code 协助生成。)
这是阿莫代伊已经不得不直面的现实领域 — — 他所推动的技术带来的严峻社会影响。3 月 10 日,他在美国华盛顿特区出席由外交关系委员会(Council on Foreign Relations)主办的演讲时预测,AI 可能在一年内就能编写几乎所有的计算机代码。这段发言片段在网络上迅速传播,引发了公众的恐慌与怀疑交织的反应。阿莫代伊表示,这句话被断章取义了。他在那场活动中还提到,人类在整个编码过程中依然会扮演重要角色,例如确定要构建什么类型的应用程序,或如何让其与其他系统集成。他说:“归根结底,这些模型最终会在所有方面都比我们更强。我们必须面对这个现实。在整个社会层面,每个人都必须面对它。我的目标不是在这个过渡期制造一个被边缘化的阶层。”
对 Anthropic 来说,令人尴尬的是,在这场技术变革中,最可能受到冲击的,正是那些如今在公司内部亲手打造自动化工具的员工。“现在的氛围是:‘哦,事情真的开始变了。’”联合创始人杰克·克拉克(Jack Clark)说。阿莫代伊在最近一次“愿景探索”内部演讲中,将这一问题作为重点话题。他告诉员工,Anthropic 的技术正在实质性地改变公司组织工作的方式。他回忆自己当时说:
“我们可能会因为 Claude 而放慢招聘节奏,而我们这样做,是因为我们不希望将来因为 Claude 而解雇任何人。”
他还补充说,公司将支持程序员适应他们不断演变的角色。
在那次会议配套的内部备忘录中,阿莫代伊写道:他认为在今年某个时候,AI 有 70% 的可能性会在“执行关键技术任务”方面 — — 例如编写代码、调试程序、提出并管理实验等 — — 从一个“有用的工具”跃升为“绝对不可或缺的存在”,承担起其中大部分工作。他预测,这种转变将使 Anthropic 的执行速度翻倍。
“未来 AI 进展的主要推动力将来自 AI 本身,”阿莫代伊写道,但他也补充说,人类仍将扮演非常核心的角色,“可能在相当一段时间内都会如此,因为人类还具备比较优势。”不过,他也指出,人类的角色可能会逐步被削弱,直到 AI 开始以某种递归的方式创造新的 AI,进入一个自我迭代的循环。
如果这种能力真的被开发出来,Anthropic 的模型将在其内部的危险等级中大幅跃升。按照 Anthropic 的标准,ASL-4(AI 安全等级 4) 表示 AI 拥有“完全自动化完成一名远程入门级研究员工作”的能力。而到了 ASL-5,AI 则具备加速提升自身能力的能力,也就是可以实现自我改进与迭代。
在《充满爱意的机器》(Machines of Loving Grace)一文中,阿莫代伊描绘了如果一切顺利,人工智能将如何引领我们走向理想终局。这篇文章最初于去年 10 月在公司内部发布,随后他在个人博客上公开发布,广泛传播。他结合自己在生物学方面的专业背景指出:AI 将使科学发现的速度提升 10 倍,帮助治愈几乎所有传染病、大多数癌症和阿尔茨海默症,最终让人类寿命翻倍。(如今,Anthropic 会将这篇文章印制成口袋大小的小册子,分发给员工阅读。)
在谈到 AI 与“工作”及“意义”的关系时,文章的语调发生了明显转变。阿莫代伊指出,这一问题尤其复杂,因为它“更模糊,也更难以预判”。他预测,AI 最终可能会取代大多数人类劳动。如果人们无法找到某种尚未被确定的方式来继续保持经济上的价值,那么他们将不得不依靠全民基本收入或其他形式的财富再分配来维持生计。
“为了在这个问题上取得一个良好的结果,我们很可能需要付出斗争:充满剥削或走向反乌托邦的路径显然也是可能的,而我们必须加以防范。”阿莫代伊写道。“关于这些问题还有很多可以深入探讨的内容,我希望未来某个时候能继续写下去。”
-
这篇特写发表于 Bloomberg Businessweek 2025 年 5 月 19 日,标题为“Anthropic Is Trying to Win the AI Race Without Losing Its Soul”。记者 Shirin Ghaffary 通过数月对话和现场观察,勾勒出 Anthropic 及其首席执行官 Dario Amodei 的商业-伦理两难。