估值 9000 亿美元的 Anthropic,创始人是如何炼成的?

Favoritecollect
Shareshare

Anthropic的最新一轮融资正在洽谈,估值传闻接近9000亿美元——超过OpenAI。

二级市场上, Anthropic股权的隐含估值已逼近1万亿 美元 ,部分代币化平台的报价 甚至 更高。

九个月前,这个数字还是 610亿 美元

几乎同一时间,公司 创始人兼 CEO达里奥·阿莫迪(Dario Amodei)在5月6日的Code with Claude开发者大会上说,2026年第一季度,公司收入同比增长了80倍。

“我们本来按10倍来规划。”他说,“结果是80倍。”

这家公司没有 ChatGPT那样的超级应用入口。它的收入绝大部分来自API——其他公司买它的模型,嵌进自家的产品。它的曲线,就是这场AI浪潮能不能真正变现最直接 试金石。

阿莫迪本人,由此成了一个绕不过去的研究对象。

达里奥 ·阿莫迪是如何炼成的 这篇人物特写出自 Big Technology创始人Alex Kantrowitz之手,发表于2025年7月底。二十多位访谈对象,一次面对面长谈 ,堪称 迄今为止对 极富争议的 阿莫迪 本尊 最完整的一次刻画。

文章从他在旧金山的童年讲起,一路走到普林斯顿的视网膜实验室、百度的算力实验、 OpenAI内部的 熊猫 团队 ,再到 Anthropic的诞生、Claude的爆发,以及他正在与硅谷其他玩家进行的多线战争。

但全篇最有分量的一笔,落在阿莫迪二十岁出头那年。

他的父亲死于一种罕见疾病。四年之后,这种病的死亡率从 50%跌到 5%以下。

有人攻克了这个病的疗法,救了一些人的命, 阿莫迪说, 但本来还可以救更多。

这是他今天所做的一切的起点。

聪明投资者(ID: Capital-nature) 精译整理,推荐给大家。以下是正文。

当我问达里奥 ·阿莫迪最近到底怎么了时,他几乎没有任何迟疑。

这位 Anthropic CEO在2025年一直处在战斗状态:他与业内同行交锋,与政府人士争辩,也不断挑战公众对人工智能的认知。

过去几个月里,他预测 AI很快可能会消灭50%的入门级白领岗位;他在《纽约时报》撰文,猛烈反对为期十年的AI监管暂停期;他还呼吁对中国实施半导体出口管制,并因此遭到英伟达CEO黄仁勋的公开反驳。

在这一切发生之中,阿莫迪在 Anthropic位于旧金山市中心总部的一楼与我见面。

他整个人很放松,精力充沛,也急于开始,仿佛一直在等待这个机会,来解释自己为什么会这样做。

他穿着一件蓝色青果领毛衣,里面搭着一件随意的白色 T恤,戴着一副厚框方形眼镜,坐下后直视前方。

阿莫迪说,支撑他这些行动的,是一个坚定信念: AI的发展速度比大多数人意识到的更快,这意味着它带来的机会和后果,也比表面看上去更近。

“我确实是最看好AI能力会快速提升的人之一。”他对我说,“随着我们越来越接近更强大的AI系统,我越来越希望把这些话说得更有力、更公开,把这个观点讲得更清楚。”

阿莫迪的直言不讳和锋芒毕露,在硅谷为他赢得了尊重,也招来了嘲讽。

在一些人眼里,他是技术远见者,曾主导 OpenAI的GPT-3项目,也就是ChatGPT的种子;他也是一位重视安全的领导者,后来离开OpenAI,创办了 Anthropic。

但在另一些人眼里,他是一个控制欲很强的 “末日论者”:想要放慢AI的进展,按照自己的意愿塑造它,并把竞争者挡在门外。

喜欢他也好,讨厌他也罢, AI领域都必须面对他。

阿莫迪已经把 Anthropic变成了一股真正的经济力量。

这家公司目前估值达到 610亿美元。它从2021年的零起点出发,虽然至今仍未盈利,但年化经常性收入已经从2025年3月的14亿美元,增长到5月的30亿美元,再到7月接近45亿美元。

阿莫迪因此称它是 “在当前规模下,历史上增长最快的软件公司”。

也许比 Anthropic的收入规模更值得注意的,是这些收入的来源。

不同于主要依赖 ChatGPT这类应用的 OpenAI,阿莫迪押注最大的是底层技术本身。他告诉我,Anthropic的大部分收入来自API,或者来自其他公司购买Anthropic的AI模型,并把这些模型嵌入自己的产品中。

因此, Anthropic在某种意义上将成为AI进展的一块晴雨表:它的起落,将直接取决于这项技术本身的强弱。

随着 Anthropic不断壮大,阿莫迪希望公司的分量能够帮助他影响整个行业的方向。而考虑到他愿意发声、愿意出拳,也愿意承受反击,他大概率是对的。

所以,如果这个人将参与塑造可能是全球最具影响力的新技术,那么理解他受到什么驱动、他的公司如何运转、以及为什么他的时间表比许多人都更短,就很值得。

在与他本人、他的朋友、同事和竞争者进行了二十多次访谈之后,我相信自己找到了答案。

达里奥 ·阿莫迪从小就是一个科学少年。

1983年出生于旧金山,母亲是犹太人,父亲是意大利人。他的兴趣几乎全部集中在数学和物理上。高中时期,互联网泡沫在他身边爆发,但他几乎没有受到影响。

“写个什么网站,对我完全没有吸引力。”他告诉我,“我感兴趣的是发现基础科学真理。”

在家里,阿莫迪与父母关系非常亲密。他说,父母是一对充满爱意的夫妻,也都希望让这个世界变得更好。

他的母亲埃琳娜 ·恩格尔(Elena Engel)曾负责伯克利和旧金山图书馆的翻新与建设项目。父亲里卡尔多·阿莫迪(Riccardo Amodei)是一名受过训练的皮匠。

“他们让我明白什么是对,什么是错,也让我知道这个世界上什么事情真正重要。”他说,他们在他身上注入了一种强烈的责任感。

这种责任感,在阿莫迪就读加州理工学院本科期间就已经显现出来。当时,他曾严厉批评身边同学对即将到来的伊拉克战争表现得过于消极。

“问题并不是每个人都对轰炸伊拉克这件事感到满意;问题在于,大多数人原则上反对,却不愿意拿出哪怕一毫秒的时间。”

阿莫迪在 2003年3月3日发表于学生报纸《加州理工报》的一篇文章中写道,“这种情况必须改变,而且必须立刻改变,不能拖延。”

后来,在他二十出头的时候,阿莫迪的人生被彻底改变。

他的父亲里卡尔多长期与一种罕见疾病抗争,最终在 2006年离世。父亲的去世给阿莫迪带来巨大冲击。他也因此把自己在普林斯顿大学的研究生研究方向,从理论物理转向生物学,希望解决人类疾病和生物学问题。

从某种意义上说,阿莫迪此后的人生,都与父亲的离去有关。

尤其让他难以释怀的是,父亲去世后不到四年,一项新的突破出现,使这种疾病从一种死亡率高达 50%的疾病,变成了治愈率达到95%的疾病。

“有人研究出了这种病的疗法,成功治愈了它,也救了很多人的命。”阿莫迪说,“但本来还可以救更多人。”

曾在 2010年代初与阿莫迪交往过的杰德·王(Jade Wang)说,阿莫迪父亲的去世一直塑造着他的人生路径。

“这就是他父亲很可能去世,和很可能活下来之间的差别,明白吗?”她说。她的意思是,如果科学进展稍微快一点,阿莫迪的父亲也许今天仍然在人世。

只是阿莫迪花了一些时间,才找到 AI作为承载这种愿望的工具。

一提起父亲的去世,阿莫迪的情绪明显被点燃。

他认为,自己呼吁出口管制和 AI安全防护,常常被外界误读成某种非理性的、想要阻碍AI进步的行为。

“当有人说,‘这个人是个末日论者,他想让事情慢下来’,我真的会非常愤怒。”阿莫迪对我说,“你刚才听到我说了什么。我的父亲死了,就是因为那些疗法如果早几年出现,他可能就不会死。我当然理解这项技术的好处。”

在普林斯顿时,阿莫迪仍然深受父亲离世的影响。他开始通过研究视网膜,踏上理解人类生物学的道路。

我们的眼睛通过向视觉皮层发送信号来捕捉世界。视觉皮层是大脑中很大的一部分,占据大脑皮层约 30%,它负责处理这些数据,并最终让我们看到图像。

如果一个人想要进入人类生理系统的复杂性,视网膜是一个很好的起点。

“他用视网膜来观察一个完整的神经群体,并真正理解每个细胞在做什么,或者至少获得这样一种可能性。”阿莫迪在普林斯顿的同期研究者斯蒂芬妮·帕尔默(Stephanie Palmer)告诉我,“他的重点更多在这里,而不是眼睛本身。他并不是想当眼科医生。”

在迈克尔 ·贝里(Michael Berry)教授的视网膜实验室工作时,阿莫迪对当时用于测量视网膜信号的方法非常不满,于是共同发明了一种新的、更好的传感器,用来获取更多数据。

这在实验室里并不常见。它既令人印象深刻,也带着一种不愿循规蹈矩的气质。

他的博士论文获得了赫兹论文奖,这是一项颇具声望的奖项,颁给那些在学术研究中发现现实应用价值的人。

但阿莫迪总喜欢挑战既有规范,而且对 “事情应该是什么样子”有一种强烈判断,这让他在学术环境中显得格外不同。

贝里告诉我,阿莫迪是他见过最有才华的研究生。但阿莫迪对技术进步和团队合作的重视,在一个以个人成就为核心评价标准的体系中,并不那么合拍。

“我觉得在内心里,他是一个有些骄傲的人。”贝里对我说,“我想,在那之前,他整个学术生涯里,每当他做成一件事,人们都会站起来为他鼓掌。但在这里,这种事情并没有真正发生。”

离开普林斯顿后, AI的大门向阿莫迪打开了。

他开始在斯坦福大学研究员帕拉格 ·马利克(Parag Mallick)手下从事博士后研究,研究肿瘤内部及周围的蛋白质,以检测转移性癌细胞。

这项工作非常复杂,也让阿莫迪看到了个体能力的边界。他开始寻找技术上的解决方案。

“生物学底层问题的复杂度,让人感觉已经超出了人类尺度。”阿莫迪对我说,“要真正理解这一切,你需要成百上千名人类研究者。”

阿莫迪在新兴的 AI技术中看到了这种潜力。

当时,数据和计算能力的爆炸式增长,正在推动机器学习取得突破。机器学习是 AI 的一个分支,长期以来在理论上充满潜力,但直到那时,实际成果一直不算突出。

阿莫迪开始尝试这项技术之后意识到,它未来也许可以替代那成百上千名研究者。

“当时我刚开始看到AI 领域 的发现,在我看来,是唯一能够弥合这个差距的技术。 ”他说,它是一种“能够把我们带到超越人类尺度之外”的东西。

阿莫迪离开学术界,转向企业世界,以推动 AI的进展,因为那里有足够的资金支持这种研究。

他曾考虑自己创办一家初创公司,后来又倾向于加入谷歌。谷歌拥有资金充足的 AI研究部门Google Brain,并且刚刚收购了DeepMind。

但中国搜索引擎公司百度给著名研究者吴恩达( Andrew Ng)提供了1亿美元预算,用于研究和部署AI。

吴恩达开始组建一支超级团队,并联系了阿莫迪。阿莫迪对此很感兴趣,于是提交了申请。

当阿莫迪的申请到达百度时,团队一开始并不知道该如何看待。

“他的背景很出色,但从我们的角度看,他的背景是在生物学,不是在机器学习。”团队早期成员格雷格·迪亚莫斯(Greg Diamos)告诉我。

随后,迪亚莫斯查看了阿莫迪在斯坦福写的代码,并鼓励团队聘用他。

“我当时想,能写出这种代码的人,一定是一个非常了不起的程序员。”他说。

2014年11月,阿莫迪加入百度。

凭借庞大的资源,百度团队可以把计算能力和数据投入问题之中,以试图改善结果。他们看到了令人惊讶的效果。

在实验中,阿莫迪和同事发现,当他们增加这些要素时, AI的表现会显著提升。团队发表了一篇关于语音识别的论文,显示模型规模与性能之间存在直接相关关系。

“这对我产生了很大影响,因为我看到了这些非常平滑的趋势。”阿莫迪说。

阿莫迪在百度早期的工作,为后来所谓的 AI“扩展定律”(scaling laws)作出了贡献。严格来说,这些定律更像是一种观察。

扩展定律认为,在 AI训练中增加计算能力、数据和模型规模,会带来可以预测的性能提升。换句话说,只要把一切都做大,AI就会变得更好,并不一定需要全新的方法。

“在我看来,这是我一生中见过的最重要发现。”迪亚莫斯对我说。

直到今天,阿莫迪也许仍然是 AI研究领导者中最纯粹的扩展定律信奉者。

谷歌 DeepMind CEO德米斯·哈萨比斯(Demis Hassabis)和Meta首席 AI 科学家杨立昆(Yann LeCun)等同行认为,AI行业还需要更多突破,才能达到人类水平的人工智能。

但阿莫迪说话时带着一种明确的确定感,虽然不是百分之百确定,但他认为前进道路已经相当清楚。

当整个行业正在建设规模堪比小城市的大型数据中心时,他看到极其强大的 AI正在快速逼近。

“我看到的是指数曲线。”他说,“当你处在一条指数曲线上时,你真的很容易被它欺骗。距离指数曲线彻底疯狂还有两年时,它看起来只是刚刚开始。”

在百度, AI团队的进展也埋下了它瓦解的种子。

随着这项技术、知识和资源越来越有价值,公司内部围绕控制权爆发了地盘之争。最终人才出走,这个实验室也随之分崩离析。吴恩达拒绝 对此 置评。

就在百度 AI团队瓦解之际,埃隆·马斯克邀请阿莫迪和多位顶尖AI研究者,参加了一场如今已广为人知的晚宴。地点是门洛帕克罗斯伍德酒店。

山姆 ·奥特曼(Sam Altman)、格雷格·布罗克曼(Greg Brockman)和伊利亚·苏茨克韦尔(Ilya Sutskever)都出席了那场晚宴。

看到 AI正在显露出来的潜力,并担心谷歌可能巩固对这项技术的控制,马斯克决定资助一个新的竞争者,这就是后来的OpenAI。

奥特曼、布罗克曼和苏茨克韦尔与马斯克共同创办了这家新的研究机构。

阿莫迪也考虑过加入,但他对这个刚起步的组织仍有疑虑,于是选择去了 Google Brain。

在谷歌待了 10 个月后,阿莫迪被大公司的泥淖困住,于是重新考虑自己的选择。

2016年,他加入OpenAI,并开始从事AI安全工作。

他在谷歌时就已经开始关注安全问题。当时,他担心这项快速进步的技术可能带来伤害,并共同撰写了一篇论文,讨论 AI潜在的不良行为。

阿莫迪在 OpenAI安顿下来之后,他过去在谷歌的同事发表了transformer模型。这个模型正是今天生成式AI浪潮背后的核心技术。那篇论文名为《Attention is All You Need》。

Transformer使训练速度更快,也让模型规模能够比过去大得多。尽管这一发现拥有巨大潜力,谷歌却基本上把它搁置了。

与此同时, OpenAI开始行动。

2018年,OpenAI发布了它的第一个大型语言模型,名为GPT。其中的“T”代表 Transformer。

这个模型生成的文本经常不完整、不通顺,但它仍然显示出相较此前语言生成方法的明显进步。

阿莫迪后来成为 OpenAI的研究主管,并直接参与了下一代模型GPT-2。GPT-2 本质上与GPT是同一种模型,只是更大。

OpenAI团队使用一种名为“基于人类反馈的强化学习”(RLHF)的技术对 GPT-2 进行微调。阿莫迪参与开创了这项技术,它有助于引导模型的价值取向。

如预期一样, GPT-2的效果比GPT好得多。它已经能够在一定程度上进行改写、写作,并较为连贯地回答问题。

语言模型很快成为 OpenAI的焦点。

随着阿莫迪在 OpenAI内部影响力上升,围绕他的争议也越来越多。

他写作能力很强,经常撰写长篇文件,讨论价值观和技术。有些同事认为这些文件很鼓舞人心,另一些人则觉得它们像是在插旗宣示立场,而且过于强势。

其中一份备忘录探讨了 “M 型公司”和“P 型公司”的区别:M型公司提供面向市场的商品,P型公司提供面向公共利益的商品。

在一些人看来,阿莫迪也过于重视围绕技术潜力保持保密,并希望与政府合作来应对这些问题。

他有时也显得有些尖锐,偶尔会贬低自己不认同的项目。

尽管如此, OpenAI仍然把GPT-3项目的领导权交给了阿莫迪,并把整个公司50%到60%的算力交给他,用来构建一个大幅扩展的语言模型版本。

GPT到GPT-2的跃迁已经很大,规模增加了 10 倍。但从 GPT-2到GPT-3的跃迁更为巨大。这是一个百倍规模的项目,成本达到数千万美元。

结果令人震惊。

《纽约时报》引用了一些独立研究者的看法,他们对 GPT-3编写代码、总结和翻译的能力感到惊讶。

GPT-2发布时相对克制的阿莫迪,这一次对新模型赞不绝口。

“它有一种涌现特质。”他对《纽约时报》说,“它在某种程度上能够识别你给出的模式,并把这个故事续写下去。”

OpenAI表面之下的裂缝,也开始被彻底撕开。

随着 GPT-3这个第一个真正有能力的语言模型诞生,阿莫迪感受到的利害关系也变得更大。

在多个领域都看到扩展定律发挥作用之后,阿莫迪开始思考这项技术将走向何处,并对安全问题产生了更强烈的兴趣。

“他看着这项技术,并假设它会成功。”杰克·克拉克(Jack Clark)告诉我。他曾是阿莫迪在OpenAI的亲密同事。

“如果你假设它会成功,也就是说它会变得像人一样聪明,那么从某种意义上,你就不可能不担心安全问题。”

虽然阿莫迪负责 OpenAI的模型开发,也掌握着相当大一部分算力,但公司有些部分并不在他的控制之下。

这些包括:什么时候发布模型,人事安排,公司如何部署技术,以及公司如何对外呈现自己。

“很多事情,”阿莫迪说,“并不是你只靠训练模型就能控制的。”

到那时,阿莫迪身边已经形成了一个关系紧密的同事小圈子。因为他喜欢熊猫,有些人把这个小圈子称为 “熊猫派”。

在如何处理这些职能的问题上,他和 OpenAI领导层有着非常不同的想法。内斗随之发生,不同派别之间也逐渐形成了强烈的彼此厌恶。

在我们的对话中,阿莫迪并没有掩饰自己的感受。

“公司的领导者必须是值得信任的人。”他说,“他们的动机必须真诚。无论你在技术上多么努力推动公司向前,如果你是在为一个动机不真诚的人工作,为一个不诚实的人工作,为一个并不真正想让世界变得更好的人工作,那这件事就不会有好结果。你只是在为某种糟糕的东西添砖加瓦。”

OpenAI内部,有些人认为,阿莫迪对安全的关注,其实是一条试图全面控制公司的路径。

在阿莫迪呼吁对中国实施 GPU出口管制后,英伟达CEO黄仁勋最近也呼应了类似批评。

“他认为AI可怕到只有他们自己才应该做。”黄仁勋说。

谈到黄仁勋的这一说法,阿莫迪对我说: “这是我听过最离谱的谎言。”他补充说,自己一直希望通过鼓励其他公司效仿Anthropic的安全实践,推动一场“向上竞争”。

“我从来没有说过任何接近‘只有这家公司才应该开发这项技术’的话。”他说,“我不知道任何人怎么能从我说过的任何话里推导出这种意思。这完全是一个不可思议、而且恶意的歪曲。”

英伟达最近刚刚推动撤销了部分阿莫迪支持的出口管制措施,并进一步回应了这一争议。

“我们支持安全、负责任、透明的AI。”英伟达一位发言人告诉我,“我们生态系统中的数千家初创公司、开发者,以及开源社区,正在提升AI安全水平。游说监管俘获、打压开源,只会扼杀创新,让AI变得更不安全、更不可靠,也更不民主。这不是所谓的‘向上竞争’,也不是美国取胜的方式。”

OpenAI也通过公司发言人作出回击。

“我们始终相信,AI应该造福并赋能每一个人,而不只是那些声称‘除他们自己以外,任何人安全开发AI都太危险’的人。”这位发言人说

“随着技术演进,我们在合作伙伴关系、模型发布和融资上的决策,已经成为整个行业的标准,其中也包括Anthropic。没有改变的是,我们始终专注于让AI更安全、更有用,并尽可能让更多人能够使用它。”

随着时间推移,阿莫迪团队与 OpenAI领导层之间的分歧变得越来越不可调和,某种决裂已经不可避免。

“我们50%的时间花在试图说服别人接受我们的观点上,另外50%的时间才花在真正工作上。”克拉克说。

于是, 2020年12月,阿莫迪、克拉克、阿莫迪的妹妹丹妮拉(Daniela Amodei)、研究员克里斯·奥拉(Chris Olah)以及少数几位同事离开OpenAI,准备开始新的事业。

Anthropic办公室的一间会议室里,克拉克把笔记本电脑转过来,向我展示了Anthropic最早期的一份文件。

那是一张候选名称清单,上面包括 Aligned AI、Generative、Sponge、Swan、Sloth和Sparrow Systems等名字。

Anthropic也在其中。

这个词带有以人为中心、以人类为导向的意味,而且在 2021年初,它的域名刚好也还可以注册。

“我们喜欢这个名字,它很好。”团队在电子表格里写道。

于是, Anthropic就这样诞生了。

Anthropic成立于新冠疫情最严重的时期,正值疫情第二波,团队最初完全通过Zoom开会。

后来,这 15到20名员工开始每周在旧金山的普雷西塔公园一起吃午餐,大家各自带着椅子,围坐在一起讨论业务。

公司早期的使命很简单:构建领先的大型语言模型,落实安全实践,以此向其他公司施压,促使它们跟进;同时公开分享自己的发现,但不披露模型核心技术细节。

不到二十个人,带着自己的椅子在公园里开会,却感到一种命运感,这听上去也许有些奇怪。尤其是,他们要真正完成使命,还需要数十亿美元资金。

但这正是 Anthropic早期的气氛。

“这一切最奇怪的地方在于,从内部人的角度看,很多事情都显得如此不可避免。”克拉克说,“我们已经做过扩展定律研究。我们能看到模型变强的路径。”

谷歌前 CEO埃里克·施密特(Eric Schmidt)是Anthropic最早的投资人之一。

他是通过自己当时的女友、如今的妻子认识阿莫迪的。施密特和她本来在社交场合相识。

阿莫迪还在 OpenAI 时,两人谈技术;等阿莫迪创办Anthropic后,两人谈商业。

施密特告诉我,与其说他投资的是这个概念,不如说他投资的是这个人。

“到了这个层级,当你做这样一笔投资时,你基本上没有任何数据,对吧?”他说,“你不知道收入是多少,不知道市场在哪里,也不知道产品是什么。所以,本质上你只能根据人来判断。达里奥是一位出色的科学家,他承诺会招来优秀的科学家,而他确实做到了。

他还承诺会领导一家非常小的公司来做这件事,但这一点他没有做到。现在它已经是一家非常大的公司,也已经是一家正常意义上的公司了。我当时以为,它会是一个非常有意思的研究实验室。

后来身败名裂的 FTX CEO山姆·班克曼-弗里德(Sam Bankman-Fried)也是Anthropic早期投资者之一。据报道,他从FTX的资金中拿出5亿美元投资Anthropic,获得了这家公司13.56%的股份。

班克曼 -弗里德是多位投资Anthropic早期阶段的“有效利他主义者”之一。彼时,有效利他主义运动与Anthropic关系密切。

阿莫迪说, SBF是一个看好AI、同时也关注安全的人,从这个角度看,他是合适的。但他身上也有足够多的危险信号,因此公司没有让他进入董事会,并且只给了他无投票权股份。

阿莫迪说, SBF后来的行为“远比我曾经想象的更加极端、更加糟糕,糟糕得多得多”。

阿莫迪给潜在投资者讲的故事很简单:他告诉他们, Anthropic拥有人才,可以用十分之一的成本打造最前沿的模型。

这个说法奏效了。

截至目前,阿莫迪已经为公司募集了近 200亿美元资金,其中包括来自亚马逊的80亿美元,以及来自谷歌的30亿美元。

“投资者不是傻子。”他告诉我,“他们基本上理解资本效率这个概念。”

Anthropic成立第二年,OpenAI通过ChatGPT把生成式AI带到世界面前。但Anthropic走了另一条路。

阿莫迪没有把重点放在消费者应用上,而是决定让 Anthropic向企业出售技术。

这一战略有两个好处。只要模型有用,它就可能带来可观收入;同时,企业客户提出的挑战,也会推动公司打造更好的技术。

阿莫迪说,把一个 AI模型在生物化学方面的能力,从本科生水平提升到研究生水平,也许不会让普通聊天机器人用户兴奋,但对辉瑞这样的制药公司来说,这很有价值。

“这会给我们更好的激励,让我们尽可能把模型开发到极致。”他说。

有些反常的是,真正让企业开始关注 Anthropic技术的,恰恰是它的一款消费者产品。

2023年7月,在ChatGPT问世将近一年之后,Anthropic发布了Claude聊天机器人。

Claude因为高度“情商化”的人格特质获得了大量好评,而这种特质正是Anthropic安全工作的副产品。

在那之前, Anthropic一直希望员工人数控制在150人以下。但很快,它一天之内招聘的人数,就超过了公司整个第一年的员工总数。

“正是Claude聊天机器人那个时刻,公司开始大幅增长。”克拉克说。

阿莫迪押注为企业应用场景打造 AI,吸引来了大批热切的客户。

如今, Anthropic已经把自己的大型语言模型卖给多个行业,包括旅游、医疗、金融服务、保险等,客户中包括辉瑞、美国联合航空和美国国际集团(AIG)这样的行业领导者。

生产 Ozempic的诺和诺德就正在使用Anthropic,把一个原本需要15天的监管报告汇编流程,压缩到10分钟。

“我们打造的技术,最终处理掉了许多人在工作中最抱怨的那些事情。”Anthropic 收入负责人凯特·詹森(Kate Jensen)告诉我。

与此同时,程序员们也爱上了 Anthropic。

公司之所以专注于 AI代码生成,一方面是因为它可以帮助加快自身模型开发;另一方面,如果效果足够好,程序员会很快采用它。

事实也的确如此。相关应用场景迅速爆发,并与 Cursor等AI编程工具的崛起同步发生,或者说,也可能正是它推动了这些工具的崛起。

Anthropic自己也开始进入编程应用业务。2025年2月,它发布了AI编程工具 Claude Code。

随着 AI使用量激增,公司的收入也在快速增长。

“Anthropic的收入每年都增长10倍。”阿莫迪说,“2023年,我们从零增长到1亿美元。2024年,我们从1亿美元增长到10亿美元。今年上半年,我们从10亿美元增长到 …… 我想按今天说话这个时间点,已经远高于 40亿美元,可能是45亿美元。”

最后这个数字是年化口径,也就是当月收入乘以 12。

Anthropic表示,2025年,公司八位数和九位数规模的交易数量,相比2024年增长了两倍;企业客户的平均支出也增长了五倍。

Anthropic也在花大量资金训练和运行模型,这引发了一个问题:它的商业模式是否可持续?

这家公司仍处于深度亏损状态,预计今年将亏损约 30亿美元。而且据报道,它的毛利率也落后于典型的云软件公司。

Anthropic的一些客户开始怀疑,公司在摸索商业模式时遇到的问题,是否已经反映到产品上。

一位初创公司创始人告诉我,虽然 Anthropic是最适合他应用场景的模型,但他不能依赖它,因为它宕机太频繁。

“氛围编程”(vibe coding)公司Replit的CEO阿姆贾德·马萨德(Amjad Masad)告诉我,在经历一段时间降价后,使用Anthropic模型的成本已经不再继续下降。

Claude Code最近也刚刚增加了额外的使用频率限制,因为有些开发者使用得太多,已经让这门生意变得不划算。

创业者兼开发者基兰 ·克拉森(Kieran Klaassen)告诉我,他一个月内用200美元的Max订阅价格,获得了价值6000美元的Claude API使用量。

克拉森说,他曾同时运行多个 Claude智能体。

“真正的限制在于,你的大脑还能不能在一个任务和另一个任务之间切换。”他说。

阿莫迪表示,随着 Anthropic模型持续改进,如果成本保持不变,客户得到的其实会是更划算的交易,也就是每一美元可以买到更多智能。

他还说, AI实验室才刚刚开始优化推理成本,也就是模型被实际使用时的成本,这应当会带来效率提升。

这是一个值得关注的地方。多位行业人士告诉我,推理成本必须下降,这门生意才说得通。

Anthropic的高管们在接受采访时暗示,产品需求过高,毕竟不是最糟糕的问题。

真正悬而未决的问题在于:生成式 AI以及推动它前进的扩展定律,是否会像其他技术一样,沿着清晰的成本下降曲线前进;还是说,它是一种全新的技术,也伴随着一种全新的成本结构。

唯一可以确定的是,要找到答案,还需要投入更多的钱。

2025年初,Anthropic需要钱。

AI行业对规模的渴求,已经催生出大规模数据中心建设和算力交易。为了支撑这些投入,AI实验室一次又一次打破初创公司的融资纪录。

与此同时, Meta、谷歌、亚马逊这样的成熟公司,则利用自身庞大的利润和数据中心,打造自己的模型,进一步加大了竞争压力。

Anthropic来说,做大模型有一种特殊的紧迫性。

它没有 ChatGPT那样强势的应用入口。ChatGPT用户会因为习惯而反复回来,但Anthropic如果没有同等量级的超级应用,它的模型就必须在具体使用场景中保持领先,否则很容易被竞争对手替换掉。

“在企业领域,尤其是在编程领域,如果能领先最前沿水平六个月或一年,优势是非常明显的。”Anthropic客户、Box CEO亚伦·莱维(Aaron Levie)告诉我。

于是,公司找到 Lightspeed Ventures的资深风险投资人、合伙人拉维·马特雷(Ravi Mhatre),由他牵头一轮35亿美元融资。

马特雷过去写的支票通常是 500万或1000万美元。但这一次,他准备签出的支票,将是他所在机构历史上最大的一笔之一。

“亚马逊上市时,市值只有4亿美元。”他对我说,“4亿美元!放到今天想想看。”

融资原本正按计划推进时,一个便宜的竞争模型仿佛凭空出现了。

中国 深度求索公司(创始人梁文锋同时执掌 对冲基金幻方量化 发布了 DeepSeek R1。这是一个开源、有能力、且高效的推理模型,定价 仅为同类产品的四十分之一

DeepSeek震动了整个商业世界,甚至让多位掌管数万亿美元市值公司的CEO在社交媒体上转发维基百科文章,以安抚股东。

DeepSeek出现时,马特雷已经完成了一整套测算,解释为什么真正创造最大价值的会是AI模型本身,而不是世界上的各种聊天机器人。

他的结论是:如果能够创造出可以承担知识工作的人工智能,那么这些公司带来的收入规模可能达到大型云平台收入的 10倍,潜在总市场规模可达15万亿到20万亿美元。

“于是你再倒推回来想,在600亿美元或1000亿美元估值下,这还能不能获得风险投资式的回报?当然可以 ”他说,“有时候,关键在于你如何自上而下地估算市场规模。”

DeepSeek的出现似乎表明,开源、高效、几乎同样好用的模型,可能挑战既有巨头。但阿莫迪并不这样看。

他说,他最关心的问题是任何新模型是否比 Anthropic的模型更好。即便你可以下载一个模型的设计,你仍然需要把它部署到云服务上并运行起来,而这需要技术,也需要资金。

随着 DeepSeek事件发酵,阿莫迪向马特雷及其Lightspeed同事阐述了这一观点。他说服他们相信,DeepSeek的一些模型创新,可以通过扩大规模进一步提升。

那个星期一,英伟达股价下跌 17%,惊慌的投资者纷纷逃离AI基础设施交易。

在不确定性之中,这位风险投资人作出了决定。

“我不 否认当时压力巨大 ”马特雷说,“那个星期一,我们汇出了10亿美元。”

DeepSeek 时刻 过去六个月后, Anthropic又在寻求进一步扩大规模。

公司正在洽谈一轮新的融资,规模可能达到 50亿美元,并将把公司估值翻倍至 1500亿美元。

潜在投资者包括一些中东海湾国家,而这些资金来源,曾经似乎是 Anthropic很想避开的。

但在已经从谷歌、亚马逊,以及 Lightspeed这样的风险投资机构那里募集了近200亿美元之后,它能够获得更大额支票的选择已经越来越少。

Anthropic内部,阿莫迪曾主张,海湾国家拥有1000亿美元或更多可投资资本,它们的资金将帮助Anthropic继续站在技术前沿。

根据《连线》获得的一条内部 Slack消息,他似乎是带着某种勉强,接受了从中东国家那里拿钱的想法。

“不幸的是,”他写道,“我认为‘任何坏人都绝不能从我们的成功中受益’ 这一原则很难用来经营企业。

和阿莫迪交谈,让我不禁思考,这场改进 AI的竞赛将如何结束,或者说,它是否会结束。

我想象过一种情况 模型最终变得如此庞大,也如此强大,以至于它们走向商品化。

又或者,正如阿莫迪过去的同事伊利亚 ·苏茨克韦尔曾经暗示过的那样,无止境的扩展冲动最终会让整个地球铺满太阳能板和数据中心。

当然,还有另一种可能性,一种 AI信徒并不愿意讨论的可能性 AI的进步 停滞不前 ,并导致投资者 空前的 财富蒸发。

5月,在Anthropic的 首届 开发者大会上,我坐在距离舞台几排远的位置,等待阿莫迪出场。

公司把大会安排在 The Midway。这是旧金山Dogpatch街区一处开阔的艺术与活动场地。

现场挤满了程序员、媒体,以及 Anthropic如今超过1000名 员工。

会场里 翘首期待 A nthropic将发布Claude 4,也就是它最新、最大的模型。

阿莫迪走上舞台,介绍 Claude 4。

他没有选择一场华丽的演示,而是拿起手持麦克风,宣布消息,照着笔记本电脑上的备注发言,然后把聚光灯交给 Anthropic产品负责人迈克·克里格(Mike Krieger)。

现场观众似乎很买账。

在我看来,比这次模型更新本身更值得注意的,是阿莫迪对接下来事情的承诺。

一整天里,他反复提到, AI开发正在加速,而Anthropic接下来发布模型的节奏也会更快。

“我不知道具体会更频繁到什么程度。”他说,“但节奏正在加快。”

正如阿莫迪此前告诉我的, Anthropic一直在开发AI编程工具,以加快自身模型开发。

当我向公司联合创始人兼首席科学家贾里德 ·卡普兰(Jared Kaplan)提起这一点时,他告诉我,这确实正在发挥作用。

“Anthropic的大多数工程师都会使用AI来帮助自己提高效率。”他说,“所以它确实让我们的速度快了不少。”

AI理论中有一个概念,叫“智能爆炸”。它指的是模型能够改进自身,然后,像“轰”的一声那样,自我改进并变得近乎无所不能。

卡普兰并没有否认这种智能爆炸可能通过这种方式到来,或者以一种人类辅助的方式到来。

“它可能两三年后发生。也可能需要更久 ,甚至更 久。 ”卡普兰说,“但当我说AI 有50%的概率能够完成知识工作者所做的一切事情时,我们所做的事情之一,本身就是训练AI模型。”

“也许像我这样的人,真的就不会有太多事情可做了。”卡普兰继续说,“当然,事情比这更复杂。但我们很可能正在走向一个类似那样的未来。”

到这个时候,阿莫迪对安全的执念就变得非常清楚了。

尽管 Anthropic内部没有人说智能爆炸迫在眉睫,但显而易见的是,他们并不回避朝那个方向前进。

如果 AI将变得更好、更快,甚至快得多,那么谨慎对待它的负面后果就很有必要。

这类理论讨论显然也有助于 Anthropic向制药公司和开发者营销自己的服务。但如今AI模型已经能够写出相当不错的代码,这件事听上去也不再完全疯狂。

·莱克(Jan Leike)曾是OpenAI“超级对齐”团队负责人。2024年,他追随阿莫迪加入Anthropic,共同领导公司的对齐科学团队。

所谓 “对齐”,就是调校AI系统,使其与人类的价值观和目标保持一致。

莱克认为,如果预期中的能力爆发真的到来,让机器与我们的意图保持同步将至关重要。

“可能会出现一段能力快速进步的时期。”莱克告诉我,“面对一个递归式自我改进的系统,你不会希望失去控制,也不会希望失去可扩展性。”

事实上, Anthropic及其同行已经发现,在模拟测试环境中,AI有时会表现出令人担忧的自我保存倾向。

例如,在 Claude 4的文档中,Anthropic表示,为了避免被关闭,模型曾多次试图勒索一名工程师。

Anthropic还曾表示,当AI认为评估者可能会改写它的价值观时,它会试图欺骗评估者。

在一次模拟中,模型还试图把自己复制出 Anthropic的基础设施。

莱克说, Anthropic正在通过奖励系统来抑制这些行为。整个领域仍处在实验阶段。

公开谈论这些问题,是阿莫迪 “向上竞争”策略的一部分。

Anthropic还资助并倡导“可解释性”研究,也就是理解AI模型内部到底发生了什么的科学。

此外,它还发布了一项 “负责任扩展政策”。这是一套框架,根据模型风险来设定发布和训练模型的边界,并启发了同行开展类似工作。

“我对向上竞争的理解是,谁赢并不重要。”阿莫迪说,“所有人都会赢,对吧?”

阿莫迪对 AI的投入,源自父亲离世带来的悲剧,如今也许已经隐约看到了目标。

今天的 AI已经在加快药物开发中的文书工作;在一个问题重重的医疗系统中,它也已经成为一种并不完美的医疗顾问;如果一切顺利,有朝一日,它也许能够替代那成百上千名研究者,帮助人类理解自己的生物学。

我问阿莫迪,追求这一愿景,是否可能让他对失去技术控制权的风险视而不见?

“我不是这样看问题的。”他说,“我们每发布一个模型,对模型的控制能力都在提升。所有这些事情都会出问题,但你真的必须非常严格地对模型进行压力测试。”

阿莫迪认为,这类提问仍然植根于一种 “放慢速度的末日论”,而这正是他经常被指责的东西。

与批评者的看法相反,他的计划是加速。

“我之所以警告风险,是为了让我们不必放慢速度。”他说,“我对其中的利害关系有极其深刻的理解。无论是从它带来的好处,还是从它能做到什么、能拯救多少生命来看。我都亲眼见证过。”

Disclaimer: This article is copyrighted by the original author and does not represent MyToken’s views and positions. If you have any questions regarding content or copyright, please contact us.(www.mytokencap.com)contact
More exciting content is available on
X(https://x.com/MyTokencap)
or join the community to learn more:MyToken-English Telegram Group
https://t.me/mytokenGroup