AI中 国网 https://www.cnaiplus.com
导读:图片来源:StripeZ Highlights这种长期建立的信任与默契,让我们始终保持高度一致。尤其是在公司不断扩张的过程中,有七个人能够准确传递公司的价值观,并将这种理念传递到更广的团队中,使公司在快速增长的同时,仍能保持凝聚力与核心价值。AI的应用场景非常广泛,而且在不断变化。其中增长最快的领域是编程,虽然它并不是唯一的应用方向,我们的业务覆盖范围远不止于此。现在 ......
图片来源:Stripe
Z Highlights
这种长期建立的信任与默契,让我们始终保持高度一致。尤其是在公司不断扩张的过程中,有七个人能够准确传递公司的价值观,并将这种理念传递到更广的团队中,使公司在快速增长的同时,仍能保持凝聚力与核心价值。
AI的应用场景非常广泛,而且在不断变化。其中增长最快的领域是编程,虽然它并不是唯一的应用方向,我们的业务覆盖范围远不止于此。现在的AI模型在很多领域的潜力都远远超过了它们目前的应用程度,但落地过程中存在一定阻力尤其是大型企业的员工对新技术不够熟悉。
和“放缓技术”或“全速前进”这两个极端相比,我们应该探索如何在不大幅拖慢技术发展的情况下,采取安全和保障措施。AI技术潜力巨大,真正的风险在于它可能无序扩张,因此我不想阻止其发展势头,而是把它引向正确的方向。
Dario Amodei是Anthropic的核心创始人兼CEO,他在人工智能领域中专注于推动AGI的安全性和可靠性。Anthropic致力于开发以人类福祉为核心的AI系统,并将透明性、可解释性与安全性作为其研发的核心目标。在Dario的引领下,Anthropic从早期的AI安全性研究起步,迅速发展为全球领先的人工智能公司之一。本次访谈为Stripe联合创始人John Collison与Dario Amodei探讨AI模型商业的经济学以及对未来的预测,发布于2025年8月。
01 创业启航:多创始人架构的独特优势John Collison:我很想聊聊Anthropic的业务。你本科是学物理和计算神经科学的。
Dario Amodei:是的。
John Collison:之后你去了百度、Google Brain、OpenAI。
Dario Amodei:是的。
John Collison:然后创立了Anthropic。
Dario Amodei:没错。
John Collison:我们待会会聊Anthropic的业务,但我也很想知道,和自己的兄弟姐妹一起创业是什么感觉?
Dario Amodei:我也可以反过来问你。其实,经营公司主要有两件事要做:一个是执行运营,另一个是制定战略尤其是能看清那个最重要、但别人还没注意到的事情。我的工作主要是后者,而Daniela负责前者。我们在各自的领域都很擅长,所以能各自把大部分时间花在自己最擅长的事上。
John Collison:而且,兄妹之间天然有高度的信任感,这在创业团队里非常难得。因为无论在科技公司还是AI公司,联合创始人的关系往往不太稳定,而你们有多年、深入的信任基础,这本身就是优势。
Dario Amodei:Anthropic一开始就有七位联合创始人。当时几乎所有人的建议都是:“七个联合创始人必定是灾难,公司很快就会分崩离析,内部一定会出现严重分歧。”对于我给所有人分配同等股权的决定,外界的质疑更甚。
事实证明,我们的情况有所不同。我和Daniela是兄妹,其他几位创始人中,有些彼此认识多年,不仅有私交,还长期共事过。这种长期建立的信任与默契,让我们始终保持高度一致。尤其是在公司不断扩张的过程中,有七个人能够准确传递公司的价值观,并将这种理念传递到更广的团队中,使公司在快速增长的同时,仍能保持凝聚力与核心价值。
02 应用场景的冰与火:为何在编程领域一骑绝尘?John Collison:我想聊一下Anthropic的业务,这确实是一个引人注目的故事。最近有报道说,你们的年经常性收入已经突破40亿美元。外界对你们技术的关注是理所当然的,但这同时也是史上增长最快的企业之一。所以我想先从AI市场谈起人们在用AI做些什么?有人用它写代码,有人用它处理客服工作,那么这些庞大的收入主要来自哪些场景呢?
Dario Amodei:AI的应用场景非常广泛,而且在不断变化。其中增长最快的领域是编程,虽然它并不是唯一的应用方向,我们的业务覆盖范围远不止于此。编程之所以发展这么快,除了我们在这一领域投入较多、模型本身也很擅长外,还有一个重要原因与“技术的社会扩散速度”有关。现在的AI模型在很多领域的潜力都远远超过了它们目前的应用程度,但落地过程中存在一定阻力尤其是大型企业的员工对新技术不够熟悉。
比如在银行或保险公司,即使模型性能不再提升、即使不再在其上构建更多产品,仅凭现有能力,也能在单个企业创造数十亿美元的价值。很多我接触过的大公司CEO对此非常清楚,但如果企业规模达到一万甚至十万人,内部运行方式已相当固化,改变需要时间。而编程领域的情况不同程序员在社交和技术上都与AI模型的开发者高度接近,本身也是新技术的早期采用者,所以扩散速度非常快。这也是代码生成应用增长迅猛的最大原因。
不过,AI的应用远不止于编程。比如,有公司专注于工具类应用;在客服领域,我们与像Intercom这样的企业密切合作;在生物领域,我们也有布局,包括与制药和医疗公司合作,以及支持基础科研。例如,我们与Benchling合作,也与大型制药企业合作过。此前我们与Novo Nordisk合作,帮助其撰写临床研究报告。临床研究报告是总结临床试验结果的文件,包括不良反应和统计数据。传统撰写流程大约需要九周,而Claude可以在五分钟内完成初稿,再由人工用几天时间审核,大幅加快了流程。随着模型能力提升,这种加速效应将延伸到更深层次的科研环节。
总体来看,编程领域目前走在最前面,但背后还有大量“长尾”应用,其中不乏非常重要的场景。代码生成可能只是一个早期信号,预示着同样的指数式增长将出现在其他领域只是速度可能会稍慢一些。
John Collison:确实如此。很多领域的AI应用潜力都很大,但工程师天生习惯快速采纳新技术。你想想Hacker News上,人们会为谁的工具更好而争论不休,这种群体对新工具有很强的热情。
Dario Amodei:我们发布Claude Code后不到两个小时,就有人已经用它尝试了一万种不同的用法,把它接入各种框架。Twitter上两小时内就会形成一种观点,然后再在接下来的两小时内改变观点。你再对比一下这种速度,与一家制药公司在科研中落地新技术的速度,或者一家传统零售公司的采纳速度,完全是两个节奏。
我们当然希望能把AI推进到一切领域,尤其是那些直接影响实体经济的地方,因为这些才是全球最大化收益的应用场景。但从本质上来说,不同领域的落地速度就是存在差异。
03 垂直深耕还是平台为王:Anthropic的生态位选择John Collison:那你们是怎么决定哪些垂直领域自己做、哪些交给平台生态来做的?比如你们有Claude Code,同时也有像Windsurf、Cursor这样的平台公司在做类似的事。你们推出了Claude for Financial Services,显然还有其他垂直领域你们会说“这个工具我们不自己做”。
Dario Amodei:我们有一些像Claude for Enterprise这样的产品,虽然它不属于某个垂直领域,但可以广泛服务企业市场。我们更倾向把自己定位为一家平台公司。一个类比是云计算:如果你想在几年内做到非常大的平台规模,有些垂直领域会倾向于自己做一手的产品。原因之一是直接接触终端用户,可以更清楚地了解他们具体怎么用、最需要什么。如果完全是纯平台模式,没有这种直接连接,在某些方面就会处于劣势。
John Collison:要打造最好的产品并不容易。
Dario Amodei:是的,而且有时甚至很难判断模型真正需要朝哪个方向发展。大家会说“要在编程方面做到最好”,但市面上有很多看似擅长编程的模型,却并没有在用户真正需要的方面表现出色。我们让Claude在这些真正有用的维度上做得很好,这是一大原因。
另一个原因还是与大型企业有关。对一些传统企业来说,仅依赖API开发往往比较困难,需要给他们更易上手的方案要么是帮助他们构建的工具包,要么是直接提供应用。所以,很多企业也很喜欢Claude Code,而我们也在逐步将Claude for Enterprise打造成“虚拟同事”。
John Collison:不过我很难想象Anthropic会去做面向石油和天然气勘探的Claude版本,为什么呢?
Dario Amodei:你是问为什么你觉得难以想象,还是我之前说了什么让你这样想。
John Collison:嗯,也许这就是你们下一步的发布计划,不过……
Dario Amodei:目前我们确实没有在做石油天然气勘探专用Claude。我会区分几种情况:有些是我们不允许的,比如违法的用途;还有一些场景,虽然作为平台会有人去做,但……
John Collison:但你们并不感兴趣。
Dario Amodei:对,我们不会在这些场景上主动投入,也不会在其他更重要的应用之前去推进它们。
John Collison:明白。
Dario Amodei:我们在科学和生物医学方面的投入,可能与其短期盈利能力并不成比例。
John Collison:因为你们觉得这些领域值得去做?
Dario Amodei:是的,我们认为值得。对于发展中国家的项目,我们也持同样态度。我举一个有争议的例子,人们往往是反着想的就是我们在国防和情报领域的工作。很多人会说,“他们这是在出卖自己。”但我恰恰是相反的看法。
John Collison:嗯。
Dario Amodei:比如我们和美国国防部及情报部门签了一个最高金额2亿美元的合同,很多人会说,“Anthropic出卖自己了。”但事实完全相反如果是从某个做代码产品的初创公司那里拿到2亿美元,所需的精力要比拿下这份合同少一个数量级。
John Collison:但你认为国防领域是很有意义的?
Dario Amodei:是的,我们做这件事是因为希望保卫民主,同时会设定明确的边界。我们确实有一些担忧,比如非常关注政府在国内事务中滥用权力的风险,所以我们更专注于对外的防御方向。这也是一个例子我们优先做的事情,是那些我们认为本质上有益的事,而不一定是让人感到愉快的事,也不一定会得到积极的舆论反馈。我们真正相信的事情,我们会坚持去做,不管外界怎么看。
04 指数增长的引擎:模型、资本与商业模式的协同律动John Collison:你提到过自己想打造的商业模式。那么在三到五年内,你对Anthropic的业务有什么期望?
Dario Amodei:AI在很多方面都很特殊,其中之一就是它的指数级增长让人很难准确预测业务规模。举个例子,2023年,我从未向机构投资者融资过,而且那时我们的营收是零,因为还没有发布任何产品。我在准备融资材料时写到:“我们第一年可能会做到1亿美元营收。”结果有投资人直接说:“这太疯狂了,资本主义历史上从未有过,你完全失去了我的信任。”
John Collison:他们觉得你是在编造数据,对吧?
Dario Amodei:是的,直接说“再见”。但后来我们真的做到了。第二年,我说:“我们可能会从1亿做到10亿。”虽然相比第一次,投资人的质疑稍微少了,但依然有人觉得荒谬。结果我们又做到了。今年才过半,就像你刚才提到的,我们的营收已经超过40亿美元如果用对数刻度来看,这意味着我们又增加了一个数量级。
未来有几种可能性:一种是规模达到一定程度后增长曲线会放缓;另一种更大胆的可能是,这条指数曲线继续延伸,两三年后AI公司会成为全球最大的企业之一。在Anthropic工作或经营这家公司最大的感受和不确定性之一,就是你根本无法完全预料。你做了一个指数型预测,它听起来很疯狂,也许确实疯狂,但也可能并不疯狂,因为历史上这条趋势线的确被反复验证过。
我在谈论AI模型训练或模型认知能力提升时也说过类似的话这些技术曲线在技术层面上是连续的,而现在我们在业务层面上也看到了同样的连续增长轨迹。
John Collison:那什么可以和Scaling Law类比呢?你们通过并行放大模型质量的相关输入,从而让模型性能大幅提升,是不是也有类似的机制?比如说,把更好的模型投入进去,然后有某种“正确的组织”……虽然我知道输入是什么。
Dario Amodei:没错。确实存在一条曲线,你花费五倍甚至十倍的资源去训练模型,或者用五倍、十倍的数据,具体取决于Scaling Law的要求,就会带来对应的收益转移曲线。举个例子,模型的能力可能从“聪明的本科生”提升到“聪明的博士生”,然后我去找一家制药公司,问他们这提升值多少钱,他们往往会说大约……
John Collison:超过十倍,对。
Dario Amodei:是的,约等于十倍,这种幂律分布在很多场景都存在。从技术角度来看,随着模型训练的进行,它会捕捉越来越多的长尾相关性,比如语言结构、世界知识和模式,而这些相关性正是缩放定律产生作用的原因,因为它们呈现出一种对数分布。随着模型在认知任务上的能力越来越强,结合经济中模型的实际应用,我们迄今为止的经验也支持这一点。
John Collison:是的。
Dario Amodei:如果考虑公司的组织结构,它本身也是一种幂律结构。
John Collison:就是组织架构。
Dario Amodei:公司组织架构本身也呈现出幂律分布,好比在沿着这条价值的幂律曲线攀登。我对产品和市场推广的看法是,模型本身想在收入的指数曲线上不断提升,而产品和市场推广就像擦亮窗户,让阳光能够透进来。
John Collison:对。
Dario Amodei:换句话说,就是打开光圈,让指数增长得以发生。
John Collison:这就像模型本身想学习,想在市场上取得非凡的成功。
Dario Amodei:没错。除了具备学习的动力,模型还具有某种资本主义冲动,除非给它们配上糟糕的产品或糟糕的销售,否则它们会想体现这种冲动。
John Collison:因为它们真的很有用,这种智能对人们非常有价值,所以这股动力会被激发出来。
Dario Amodei:完全正确,这是一种很好的理解方式。
John Collison:那么最终市场结构会是怎样的?是少数几个大型玩家主导,还是会不断涌现针对特定用例的新兴企业?
Dario Amodei:很难说清楚,几年前这还存在很大不确定性。但现在可能已经相对接近最终的玩家阵容了,尽管不一定是最终的市场结构或各方的角色。我估计大概会有三到六个玩家,具体数字取决于如何定义,这些玩家都有能力构建前沿模型,并且拥有足够的资本来实现自我启动。
John Collison:我很想了解模型业务的运作方式,你们先期投入大量资金进行训练,然后模型作为资产快速折旧,虽然可能存在较长的使用寿命,希望最终能收回投资。到目前为止,外界对这个业务的印象是资本支出不断攀升,那这笔钱是怎么用的呢?
Dario Amodei:在模型业务中其实有两种不同的情况。比如说,2023年你训练了一个花费1亿美元的模型,然后2024年上线,带来了2亿美元的收入。与此同时,按照Scaling Law,2024年你又训练了一个花费10亿美元的模型,到了2025年,这个模型带来了20亿美元的收入,但你为了训练这个模型,总共花了100亿美元。
如果用传统的利润表来看,公司第一年亏损了1亿,第二年亏了8亿,第三年亏了80亿,表面上看起来亏损越来越严重。但如果把每个模型看作一个独立的公司,2023年训练的模型其实是盈利的你投入1亿,赚了2亿,虽然推理阶段还有一些成本,但即便加上这些,整体状态还是良好的。换句话说,如果每个模型都是一家公司,这个例子里的模型是赚钱的。
实际情况是,当你在享受一个“公司”的收益时,你又得启动另一个成本更高、需要更多研发投入的新“公司”。这种情况会持续,直到模型规模达到极限,增长放缓,届时这个业务会变成一个规模大、利润丰厚的产业。或者,有一天模型停止提升,AGI的进展被迫中断,出现一种“我们花了很多钱却没得到相应回报”的状况,之后业务会回到某个稳定规模。
换个角度看,这其实是风险投资常见的模式先花很多钱,再开始盈利。这在这个领域不断循环发生,且都在同一批公司里进行。我们目前正处于指数增长阶段,未来一定会达到某种平衡。关键问题是,这个平衡点会有多大规模,以及是否会出现过冲。
John Collison:没错。你刚才提到把云计算公司作为参考,云计算公司的数据中心资本支出更连续,他们一直在新增数据中心。相比之下,这些模型的迭代代际是分明的,有点像发动机制造商不断推出新技术,增加产能之类的。
Dario Amodei:对,就像F-16战斗机,或者有点像药物开发,属于研发密集型的工作。
John Collison:完全正确。
Dario Amodei:就像制药公司先开发一种药,如果成功,再开发十种,然后一百种。
John Collison:是的。
Dario Amodei:虽然药物开发的市场规模并不是按这个数字增长的,但感觉好像是这样的。
John Collison:所以我们可以把每个模型看作一个独立的项目,分析它们各自的盈亏情况。
Dario Amodei:没错。
John Collison:你说这些模型的回本周期,至少从行业内现有的模型来看,其实并不难做到。客户获取的回本周期如果是九个月,那你肯定会愿意一直投入。这是很容易接受的投资回报周期。
Dario Amodei:是的,完全同意。
John Collison:你说回本时间大概是九个月到十二个月,对于企业来说非常容易实现。
Dario Amodei:我不想给出具体数字,但从整体来看,如果逐个模型分析,商业模式是非常可行的。
John Collison:对,持续增长的资本支出掩盖了模型业务本身的良好盈利能力。
Dario Amodei:没错,就是这样。
John Collison:2023年,大家都在讨论“数据瓶颈”问题。你觉得我们是通过什么方式解决了这个瓶颈吗?
Dario Amodei:其实公众讨论中很多说法可能只是传闻或者猜测,我甚至不确定数据瓶颈是否真的存在。我要说的是,强化学习的概念已经存在很久了。早在Google DeepMind用AlphaGo击败围棋世界冠军时,强化学习就是核心技术。后来我们训练了语言模型,现在我们把强化学习和语言模型结合起来,这其实就是链式思考或推理的过程,本质上也是强化学习。模型通过不断“写作”来尝试和调整,最终给出答案,没什么特别复杂的,只是换了个花哨的名字。
我把这看作两种关键的学习方式:基础的LLM是通过模仿学习,而强化学习是通过试错学习。就像小孩子学习一样,有两种方式:一是观察父母做什么然后模仿,二是自己尝试世界并从中学习。发展心理学也证明了人们都会用这两种方法,我们现在在语言模型中也看到同样的过程。先是模仿学习,然后是试错学习,这非常正常。
05 护城河何在:人才、工程能力与组织文化的壁垒John Collison:还有一个显而易见的现象是,对于不在AI行业的人来说,很难忽视的人才争夺战,以及你们的知识产权每天晚上员工下班就带走了。你在最近一次采访里提到过,有价值1亿美元的“秘密”可能只是几行代码。虽然你当时是在国家安全的语境下讲这个问题,但其实放到人才争夺上也很有意思。
Dario Amodei:当然。
John Collison:制药行业用专利来保护机密,华尔街有些对冲基金也靠锁住员工来守住价值上亿美元的简单秘诀,比如文艺复兴科技基金。那在目前的AI环境下,你们是如何保证商业领先优势的?
Dario Amodei:确实有些东西像你说的那样可以被保护,但随着行业成熟,更重要的是团队的技术能力和构建复杂系统的能力。
John Collison:是的。
Dario Amodei:没错。有些我们用到的想法确实很简单,但这些简单的想法,比如“调整一下Transformer的某个元素”这种,往往很快就会被别人独立发现或者知道了。真正难的是那些工程实现非常复杂的东西,或者是“这个事情很麻烦”,需要特殊的经验和技巧才能做好的部分。这类知识往往是集体智慧的结晶,也更难泄露出去,所以防护性更强。
当然,泄密问题仍然存在,无论是出于商业竞争还是国家安全的考虑,我们都希望尽量避免。为此,我们采取了一些措施,比如信息隔离管理。你问任何情报机构,他们都是这样运作的员工只被告知自己需要知道的信息。Anthropic内部也是如此。
John Collison:但这跟硅谷那种信息在公司内部自由流动的文化可能很不一样。
Dario Amodei:是的,确实不一样。
John Collison:对的。
Dario Amodei:不过我们同时也保持着非常开放的文化。我说的话,可能别人会觉得像是在做公关,你懂的。
John Collison:是的。
Dario Amodei:但当真的有秘密的时候,员工会相信这确实是他们必须知道的事情。最后,留住员工、降低离职率是非常关键的一点。我们在所有AI公司中拥有最高的员工留存率。其实差距还更明显,因为大家都有一定的、无法避免的正常离职率。扣除这部分差异后,我们的优势更大。有时候员工离开后还会选择回来。
John Collison:我最近还看到过这个情况。
Dario Amodei:你可以公开查到很多人去了Meta超级智能实验室,甚至考虑到我们公司的规模,很多人还是拒绝了那边的邀请。
John Collison:所以在大家都在谈论的疯狂“1亿美元薪资大战”里,你们倒是没太被影响?
Dario Amodei:相比其他公司,我们做得不错,甚至可以说有一定的优势。这既源于对使命的坚定信念,也源于对股权潜力的认可。Anthropic树立了一个声誉,那就是我们承诺的事情一定做到,有时候我们甚至不会许下过高的承诺,但对已做出的承诺始终坚持履行。我们清晰表达自己的价值观,并且多年来始终如一地坚持,这种一致性凝聚了公司内部的团结,也有效抵御了玩世不恭的态度。
John Collison:你刚才提到股权的潜力,那你们向投资人或候选人介绍Anthropic时,会怎么说?“我们正在打造一个非常大的公司”,这算是个不错的开头吧。
Dario Amodei:是的。
John Collison:那还有什么内容呢?
Dario Amodei:我经常会讲到平台和模型的重要性。奇怪的是,有时候有人认为API业务“不够黏性”,或者“迟早会变成商品化”。
John Collison:我经营着API业务,我很喜欢API业务。
Dario Amodei:没错,确实如此。还有比我们更大的API业务,我会再次举云服务为例。云服务就是数百亿美元的API业务,在资本成本高昂、玩家有限的情况下……相较于云服务,我们的产品差异化更明显。每个模型都有不同的“个性”,就像是在跟不同的人对话。我常开玩笑说,如果我和十个人坐在一起,难道我就被商品化了吗?
John Collison:是的。
Dario Amodei:房间里还有其他九个人,他们的智力差不多,个子差不多,那还要我干嘛?但我们都知道人类劳动不是这样的。我对模型的看法也是一样。所以,API业务是个好生意,但我们想做得更广泛。OpenAI和谷歌这样的老牌玩家,更专注于消费者市场。而我们则致力于为企业提供AI服务,这块我们正越来越擅长,我们在这方面已经取得了领先地位。虽然我不太清楚其他玩家的具体收入情况,但我们目前很可能占据了API市场的最大份额,甚至可能是企业级AI市场的领先者。
John Collison:是的,说到商品化的论调,作为经历过这种怀疑论的人,我记得2015年AWS终于单独公布收入数据时,给我留下了深刻印象。你还记得那之前AWS的收入都是算在亚马逊的数据里吗?
Dario Amodei:是的,没错。
John Collison:当时大家都在说,专家们说“云服务是商品化的,没什么看头”,结果一拆开账目,才发现它是有史以来最成功的业务之一。一个业务即便有竞争者,也会有买家关注价格,但这和真正的商品化是完全不同的。
Dario Amodei:完全正确。
John Collison:正如你说的,这些产品运作方式各不相同。
Dario Amodei:没错。我们也是云服务的大客户之一,而且用的不止一家。可以告诉你,云服务之间的差异远没有AI模型之间那么大。
John Collison:确实,因为感觉上,一是它们的表现是非确定性的,设计上也故意让人难以捉摸,这自然导致了“我用这个模型就能得到更满意的客服回复,但为什么能这样,我也说不清楚”。
Dario Amodei:完全正确,你说的对。这有点像烤蛋糕。
John Collison:是啊。
Dario Amodei:你放入原料……
John Collison:它就会以某种方式成型。
Dario Amodei:对,一个厨师做出来是这个味道,另一个厨师做出来又是另外一种。如果你说“我要它完全像那个厨师做的那样”,你做不到。
John Collison:是的。
Dario Amodei:你就是做不到。
John Collison:现在所有AI产品还没有做到那么个性化,但个性化肯定会成为一件大事。
Dario Amodei:肯定会的。
John Collison:而且它会成为用户粘性的主要来源,因为用户不想轻易换产品。无论是面向消费者还是企业应用,具体会是什么样子,我也不太确定。
Dario Amodei:没错,完全正确。我们才刚刚开始探索如何让模型根据具体企业或企业中的某个人进行定制。这其实才是API业务的起点,但企业AI不仅仅是API。
像Claude Code这样的产品,我们卖给的不只是个人开发者,还有企业客户,他们觉得很有用。Claude for Enterprise已经卖给了很多企业。你也能看到一些云服务商,他们提供了各种不同的服务。
John Collison:是的。
Dario Amodei:有些是应用程序,有些则是云服务本身。AWS、GCP或Azure这样的大厂,以及我们现在开始呈现自己的方式,都是想表达“我们希望成为你的一站式AI或云服务商,你可以在这里买到所有这些服务,并且可以跟我们沟通,了解哪种服务适合你的需求”。这开始勾勒出一个更稳固的商业模式。
John Collison:如果以典型的财富500强企业为例,他们可能会用AI做客户服务,工程师也许用AI辅助编程工具。相比理想状态,他们对AI的采用程度如何?
Dario Amodei:显然远远不够。
John Collison:大概是5%?还是30%?
Dario Amodei:领导层通常是认同的。你跟CEO聊,CEO懂;跟CTO聊,CTO也懂。问题是,这些公司有成千上万员工,他们的工作是做银行、保险、药品研发,他们听说过AI,但并不是这方面的专家。所以挑战在于,我们需要跟公司的领导层合作,让这几万甚至十几万员工真正熟悉并使用这项技术。
编码工具的推广最快,因为开发者本身最贴近这个趋势。接下来是客户服务和流程类应用。但即使是现在的模型,市场规模也远远可以扩大100倍,你真的能感受到这个潜力。
John Collison:我感觉创业公司会率先体现AI的应用模式,因为他们没有组织结构的束缚,可以随心所欲地做合适的事。大公司则相对僵化,员工各司其职,决策链条长。新行为模式会从创业公司传导过来,而大公司的CEO和CTO都很聪明,也认可AI的重要性,他们会把这些新想法引进来,类似当年云计算等技术趋势的采用过程。
Dario Amodei:没错。
John Collison:这符合你的观察吗?
Dario Amodei:是的。大公司会把创业公司的新想法引进来,或者当创业公司成为威胁、带来颠覆时,大公司就会有紧迫感,推动变革。
我见过一个比较有效的做法,是建议大公司组建一个独立的突击队,专门开发这些原型。这样能快速积累动力,等证明了可行,再花力气去整合到整个公司。只要有足够动力,推动起来会更容易。
06 AGI视野下的未来:技术潜力和风险的平衡John Collison:你看到Dwarkesh最近写的关于AI时间线的博客了吗?
Dario Amodei:是关于持续学习的吗?
John Collison:对。他说,许多生产力AI模型的根本问题是,它们像个超级聪明的虚拟同事,但这个同事才刚工作五分钟,始终停留在刚入职的状态,没有随着时间学习和成长。
Dario Amodei:是的,没错。
John Collison:那我们该怎么解决这个问题?
Dario Amodei:我在AI研究和技术领域看到的一个规律是,很多时候大家觉得遇到了“天花板”,比如“AI模型不能推理”,后来又说“AI模型不能做新的发现”。几年前还有人说“AI模型写不出连贯的长文”,但现在显然做到了。再往前几年,根据乔姆斯基的说法,模型能处理语法但搞不懂语义。这些“天花板”其实都被突破了。
John Collison:刚才你提到“新的发现”方面,我们突破了什么?
Dario Amodei:这其实是最近大家讨论的一个话题。我的看法是,这种“新发现”不是非黑即白的。
John Collison:是啊,虽然它们不会出现在论文署名里,但那只是……
Dario Amodei:对,模型不会在论文上署名,但什么算新发现?什么算天才?我记得一本发展心理学书里提过,人们常常把天才神话化。比如说,桌子一摇晃,我拿个杯垫垫在下面,桌子就稳了。这也是一个“新发现”,即使我从没见过别人这么做。和诺贝尔奖那种发现相比,区别只是在程度上,不是本质上的不同。
所以,AI模型其实一直在做“新发现”。举个例子,我家里有人有病,医生没诊断出来,但用AI模型Claude诊断出了。这可能算不上什么重大发现,但确实是“新发现”。有人会说“它只是模式匹配以前见过的东西”,但新发现本来就是这样。比如作家写出一部小说,看似全新,但其实是各种影响的重新组合和创新。整体上是连续渐进的过程。
这也和持续学习有关。有人说AI没持续学习能力,但其实已经有一点了,我们会找到更多方法去实现它。比如模型会从对话上下文中学习,未来上下文可能达到一亿个tokens,甚至可以在上下文中实时更新模型权重。
John Collison:对的。
Dario Amodei:这些思路都很接近现有技术。很多人想相信存在某个根本性壁垒,觉得某些事做不到。这像是一种心理应激反应。
John Collison:你觉得这其实是一种心理安慰机制吗?
Dario Amodei:对,这让我想起19世纪的“生命力论”观点。
John Collison:是的。
Dario Amodei:当时有人认为活着的生物体和无生命物质是由完全不同的材料组成的。但科学已经证明这不是真的。尽管如此,人们还是很想相信这个观点,因为直觉告诉他们,我和桌子不一样,我是活着的。
John Collison:是的。
Dario Amodei:自己和金属、玻璃这些无机物完全不同。但如果深入到最基本的层次,其实我们都是由同样的东西构成。
John Collison:你觉得现在人们其实用现代版的“生命力论”来看待人性本质,说模型做不到那些事情?
Dario Amodei:你提到了一些人倾向于相信这种说法。这就像以前的“生命力论”一样,解决方法在于认识到,无论思维是由什么构成,思维就是思维。认知或感知的尊严和特殊性并不是不存在,而是它可以由任何东西构成。
John Collison:你刚才提到了医疗应用,这是个非常棒的用例,首先因为它帮助了很多人解决了健康问题。你在《Machines of Loving Grace》那篇文章中也谈到过智能的边际收益,哪些领域是智能成为瓶颈的?
我对医疗这个普遍认知的理解是,这确实是个很有吸引力的用例。其实大多数普通人都会遇到各种健康问题,无论轻重,而社会在这方面确实受限于智能。不是说人们没机会见到优秀医生,而是医生能给的时间非常有限,可能只花十秒钟思考你的问题。
Dario Amodei:确实是这样。
John Collison:其实这里关键是“推理时间”的计算能力,这正是医疗领域需要的。你的看法也是这样吗?
Dario Amodei:是的,我也这样认为。我还跟一些诺贝尔奖得主的生物学家聊过,听上去有点精英主义,但他们说:“我只会去看最顶尖1%的医生,因为剩下99%的人,我可以从LLM那里获得更好的建议。”这确实是真的。医生都非常忙碌,医疗数据和信息本质上是大量的模式匹配和重复,涉及很多相似的内容。LLM模型在整合多种信息和保持一致性方面表现得非常好。
John Collison:你在《Machines of Loving Grace》里提到了一些人类智能成为限制因素的重要领域。个人医疗是个很好的例子,社会整体在这方面受限,如果能给更多人提供针对性智能支持,价值非常大。那么在消费者或企业应用中,还有哪些领域你觉得同样明显受到智能限制?
Dario Amodei:现在AI模型能帮助最大的领域特点是,任务重复但每次具体情况又有细微差别。
John Collison:对。
Dario Amodei:在AI出现之前,自动化只能做可编程、完全重复的任务。如果你每次都做一样的事情,那可以实现自动化。
John Collison:是的。
Dario Amodei:但像客服这样,情况就复杂得多。举个例子,客服中存在大量的长尾问题,每个电话都有不同的情况,但大致都是十种问题之一。每个人表达方式不同,但内容类似。任务是既重复又不完全相同,每次都有自己的细节,这正是AI可以大显身手的地方。
John Collison:是的。Dwarkesh在同一篇文章里预测,现有的AI还不能完全处理你的财务数据、邮件并帮你报税。他预测,到2028年,人们只需把所有资料发给AI,它就能自动完成报税。你怎么看这个预测?
Dario Amodei:可能会比那个时间更早。
John Collison:嗯。
Dario Amodei:我不确定是2026年还是2027年。主要还是模型的准确性问题。现在的模型其实已经能够做到这件事,但错误率太高了。要解决这个问题,一方面是让模型能自我检查、减少错误,另一方面是界面设计上的改进。不会拖那么久。
John Collison:2026年或2027年。你提到的一些问题,其实也包含了人们之前认为AI永远解决不了的问题。比如幻觉问题,虽然没完全解决,但已经进步很大了。
Dario Amodei:确实进步很大了,而且人们也更习惯了,知道什么时候该信模型,什么时候不该信。模型也开始引用资料了,比如我们在Claude.ai和Enterprise Claude中就用了这种方式。所以解决幻觉问题,部分靠引用来源,部分靠算法改进减少幻觉,还有部分靠用户适应,了解模型的弱点。
我一直觉得,有些批评者看到模型偶尔表现怪异或者比人差,就说“看,AI永远不可能像人一样”,他们其实是在期待AI和人脑完全一样。说“这太不同了,绝不可能像人脑那样”。但这是误区。通用智能是由很多不同能力组成的,你可以在大部分能力上表现很好,但在某些方面比人差,某些方面甚至比人更强。
John Collison:是啊。
Dario Amodei:没错。比如自闭症患者和精神分裂症患者,以及人类容易被欺骗的视觉错觉,这些都是人类的弱点,和模型出现幻觉的情况其实很类似。只是表现形式不同,我们更习惯于人类的这些弱点,因为我们每天都和人打交道。
John Collison:自动驾驶的双重标准,感觉就是这方面最明显的例子。
Dario Amodei:绝对是。
John Collison:人们对自动驾驶的要求远远高于人类驾驶。
Dario Amodei:是的,人们的标准更高。但这会成为这项技术的一个特性,并且会对商业产生影响。未来模型犯错的频率会比人低很多,但犯的错误会更怪异。作为终端用户,需要适应这种变化。
比如你和一个人类客服交流,客服出错可能有5%的概率,你也能感知出他们语无伦次或者态度不佳,就会对他说的话打个折扣。这是你习以为常的行为。但LLM模型犯错的概率可能只有1%,而且它的错误更“隐蔽”,说出来的话听起来一样有学问、一致性强,不容易分辨对错。这需要用户适应。我们也会和客户沟通,告诉他们要做好这方面的心理准备。
John Collison:所以说,我们是不是得给LLM模型设计出“说话含糊”的功能?
Dario Amodei:对,就是这样。
07 产品的进化:AI时代的构建哲学与个人实践John Collison:你是从研究员起步的,但现在已经是公司的CEO,负责AI产品的销售。那你在市场推广、客户关系以及其他方面都学到了什么?
Dario Amodei:确实如此。我当初创办公司,并不是因为对销售或者商业特别感兴趣。我看到其他一些公司运营的方式,以及他们试图打造的东西的影响力,他们背后的人和动机可能并不完全理想。这个领域会有很多参与者,但至少应该有一家公司的方向感需要保持明确,能够给整个生态带来积极影响。我们会用不同的方式去构建和部署产品,最重要的是,我们会坚持一套虽然简短但清晰的原则。那是我最初的出发点,当然我也对技术开发充满热情。
随着公司的发展,我和其他联合创始人不得不学习如何思考商业和战略问题。我发现自己对商业方面产生了浓厚的兴趣,甚至超出了预期。主要原因是我很好奇我们所服务的各种行业。就像云服务商,或者像你们的公司一样,我们的客户遍布各行各业。
这让我学到了很多之前没想过的东西。虽然我曾是生物学家,对制药行业有一定了解,但我从未从商业角度深入思考过,也没想过药物临床试验是怎么运作的,或者如何降低成本。我也没怎么了解过国防和情报行业。通过这些了解,非常有趣,想知道人们面临的挑战是什么,AI如何帮助解决这些问题,所以我对这些很自然地产生了兴趣。
实际上,产品方面我最初是比较排斥的。我天生对商业有兴趣,但对做应用开发一开始并不热衷,甚至是在创办公司之后也是如此。但最近我看到哪些产品成功,哪些没成功,我开始关注如何设计产品,使其具备以AGI为核心理念的特质,也就是让产品的方向更持久,有助于未来更有用的东西。
我们都听过“包装公司”或“包装产品”的概念,就是你做了Claude N,然后别人做了一个弥补Claude N不足的产品,但当Claude N+1出现时,那个包装产品就被取代了。我给所有AI公司朋友的建议是,别做这种产品。
John Collison:对的。
Dario Amodei:要看清技术发展的方向,做出互补的产品。
John Collison:是的。
Dario Amodei:如何以AGI为核心理念的方式重新设计产品,这一点让我非常感兴趣。
John Collison:很高兴你提到这个问题。现在感觉我们根本没有真正的AI界面,对吧?我们还是在文本框里输入文字,跟70年代的终端机没什么区别,只不过界面圆角更圆润了点。语音助手还是得手动唤醒,跟Transformer之前的Siri没啥区别。所以说,用户界面几乎没什么变化。
Dario Amodei:是的,确实感觉哪里不对劲,我基本同意你的看法。
John Collison:难道我们就不能自动生成界面吗?
Dario Amodei:这让我想起互联网早期的情况,那时候网站设计都是模仿现实世界的结构,比如打开一个衣柜什么的。
John Collison:没错,那时候的设计还停留在“无马车时代”。
Dario Amodei:这个现象有个专门的词,我一时想不起来。
John Collison:叫做拟物化设计。
Dario Amodei:对,就是这个感觉。其实,随着我们越来越多地用Agent,未来AI模型能实现端到端的处理,Claude已经几乎能做到大部分事情正确完成了。人的主要工作是去审核,有时仔细检查。但是有意思的是,审核往往需要深入细节,这里面有种矛盾。用户需要一个界面或产品,既能让AI顺畅完成任务,大部分时间不用管它,但一旦出现问题,你又能方便地介入。现在市面上还没有哪款产品或界面真正解决了这个问题,不知道你有没有这种感觉?
John Collison:有,完全同意。理想的状态是,Agent可以自主完成高质量工作,然后把结果呈现给你,你来复核、引导和做决定。
Dario Amodei:没错,但你不能被信息淹没,因为它会做远比你能查看的更多的事情。如果你总是盯着看,反而会比自己亲自做还慢。这其实是个界面设计的问题。
John Collison:没错。归根结底,AI最令人兴奋的一点,就是我们已经有了很多现成的能力,关键是把它们打造成优秀的产品。就算AI技术暂时停滞,我们也有至少十年的时间来持续打造好产品。
Dario Amodei:完全同意。实际上,整个行业里大家构建产品的方式都很不一样,因为技术在不断进步。如果模型的进步停下来,产品的构建方式会立刻改变。之前我们从未遇到过这样的情况技术在你开发产品的同时,以如此迅速的速度在演变。所以传统意义上的长期产品路线图变得不再适用。早期在Anthropic时,自己对产品一窍不通,但现在每当有人说“这跟非AI领域开发产品不一样”,我都会认同。
John Collison:因为产品需要更贴合AGI的发展?
Dario Amodei:没错。即使你是这方面的专家,技术也会在你脚下快速变动。快速迭代在这里比普通情况更重要。
John Collison:能举个具体例子吗?
Dario Amodei:比如你说“我们六个月后推出某个产品”,在这里更没意义,孤立地构建产品变得更不可行。
John Collison:也就是说你们需要更紧凑的发布节奏和更多的迭代?
Dario Amodei:是的,需要更紧凑的发布计划,还得多尝试。很难预测什么会受欢迎,因为可能刚发布的新模型突然擅长某项功能,促成了某个产品的可能性。你做的事情大多是以前从未尝试过的。新模型只在公司内部可用,你能做的就是基于它快速构建,内部试用。就像第一次发现数据库技术时一样,大家都在想,“这能用来做什么?”
John Collison:对。
Dario Amodei:感觉永远是第一天,这就是区别所在。
John Collison:你提到数据库技术,这或许能帮我们理解开源的情况。最早成功的关系型数据库是专有的,但后来开源版本赶了上来。那你们如何保持与开源方案的差距?
Dario Amodei:开源在AI模型领域跟其他领域的意义不太一样,有人用“开源权重模型”这个说法来区分。主要区别在于,你看着模型的权重,也看不懂里面究竟发生了什么。
John Collison:对。
Dario Amodei:没有那种组合性。我看不懂“源代码”,也不能随便...
John Collison:你没法随意做出一个稍微不同的版本。
Dario Amodei:没错,我不能随便做出一个差别很小的版本。Anthropic现在其实在做机制解释性研究,这项工作能让人“看到”模型内部发生了什么。我们在这方面有一些进展,但距离真正做到还有很大差距。
当然,有些事情是可以做的。比如,如果你能访问模型本身,可以对模型进行微调。我们现在通过接口已经让用户可以微调模型了。所以,真正接触到模型权重的价值相较于通过一个功能完善的API来操作,存在一定争议。这其中还有经济成本的问题,毕竟云端运行模型花费不小,需要有人托管,提供高速推理服务,利润空间自然也有限。
John Collison:所以你觉得开放权重的模型价值不大,完全开源的模型和商业模型之间差距还是很大?
Dario Amodei:把它和以前的技术类比只能说是部分相似。
John Collison:嗯。
Dario Amodei:这是我们还在探索的新事物。但从我们的角度看,新模型一出来,无论是不是开源权重模型,我们关注的是它是不是强模型。如果对手推出一个擅长我们做的事情的强模型,那对我们来说就是竞争,无论它开不开源,差别不大。
John Collison:Anthropic怎么比其他机构更以AGI为核心呢?比如,发布节奏更快,但不仅仅是产品部门,而是整个组织的运作?
Dario Amodei:我提过,每隔几周我会站在公司前面讲述我的愿景,目的是让大家聚焦于使命。当前世界的状态很奇怪,我总是觉得未来充满不确定,但如果我下注,我会赌未来一两三年内,我们会看到一个“天才国度”诞生在数据中心。这是很奇怪的现象,它会改变经济,加快科学进步,同时带来全球对齐和国家安全风险,甚至可能引发经济问题。潜力巨大,同时扰动也很大。
我努力避免员工抱着“我以前在这个行业干过,那现在进了AI公司,几年后还会跳槽去别处”的心态。
John Collison:这和之前任何经历完全不同。
Dario Amodei:确实如此。公司上下都要明白这点。财务部门在做财务预测时,必须意识到虽然不一定会是指数型增长,但有可能出现极端结果。招聘团队要理解这背后疯狂的薪酬水平是合理的。产品团队要做以AGI为核心的产品,政策团队也要意识到这事关重大。
我的重要工作之一就是确保整个组织对这一核心论点保持一致。不是让每个人都信教,也不是穿着袍子喊口号,但公司围绕这样一个假设建立:未来有可能、甚至很可能发生巨大变革,公司业务和公益活动都应该基于这种可能性来设计。
John Collison:用数据来说,你提过AI可能带来10%的年经济增长。那么当谈论AI风险时,人们往往关注AI的滥用和负面影响,但最大的风险难道不是我们稍微监管过头或进展放缓,从而让大量人类福利受损,因为缺乏足够的AI能力吗?
Dario Amodei:确实,我有家人因疾病去世,而这些疾病几年后被治愈,这让我深刻体会到如果进步不够快,后果有多严重。AI的某些风险确实可能严重破坏社会稳定,威胁人类文明,所以我们不能轻视这些风险。
但我绝不是主张“停止技术”“暂停技术”的人。出于多种原因,这根本不可能。我们有地缘政治对手,他们不会停下。资金充裕,只要你哪怕提出稍微限制的建议,我就会面对成千上万亿的资本反对。这说明了现实的限制。
和“放缓技术”或“全速前进”这两个极端相比,我们应该探索如何在不大幅拖慢技术发展的情况下,采取安全和保障措施。如果10%的经济增长能带来巨大收益,我们愿意以9%的增长买保险,规避风险。这才是实际的权衡。AI技术潜力巨大,真正的风险在于它可能无序扩张,因此我不想阻止其发展势头,而是把它引向正确的方向。
John Collison:你说过,“如果到2025年12月还没有AI相关法律,我会非常担心。”现在感觉怎么样?
Dario Amodei:加州其实已经有些相关法规了,有一项叫做SB53的法案。当然,去年还有一个SB1047法案。我们对SB1047的态度比较复杂,最初的版本过于激进。技术发展太快,如果法规太死板反而没什么帮助,甚至可能影响安全保障。我担心如果这类法案通过了,后续的测试最终会显得很荒谬,AI行业的人会觉得“这就是所谓的安全监管,真傻”,结果大家都只会做表面功夫,走形式不走实质。
作为一个支持理性监管的人,我其实有些担忧。我们曾经试图推动法案修改,做了折中方案,希望兼顾行业和安全利益,但没能完全成功。现在来看,今年的法案更温和一些,主要关注提高安全和保密措施的透明度。Anthropic在这方面一直走在前列,我也看到其他公司开始做这件事,但不是所有公司都这样做,也没有办法验证他们说的是否真实。
John Collison:加州的监管就足够了,毕竟很多公司都在这边有业务。
Dario Amodei:是的,大部分法案都是针对在加州开展业务的企业,因此很难绕开这条线。
John Collison:这里的人对AI都特别“上心”。
Dario Amodei:确实如此。
John Collison:嗯。
Dario Amodei:我们就看接下来会怎样发展了,不确定具体结果。但我们一直主张设立“护栏”,包括立法层面的护栏,同时要谨慎行事。我们不想扼杀这棵“摇钱树”,只是希望防止它过热或者偏离轨道。
John Collison:对,这有点像现代银行监管,虽然很多人抱怨,但毕竟银行业务本身风险就很高。
Dario Amodei:没错,风险确实明显。就像银行挤兑那样……
John Collison:没错,但现代监管环境建立起来后,整体运作还是很顺畅的。最后一个问题。你个人的AI工具栈是怎样的?你用AI的方式和其他科技人有什么不同?
Dario Amodei:挺有意思的。我写了很多东西,可能对自己的写作挺有自豪感。我用Claude来帮我生成很多想法,把它当做一种调研工具,但写作基本上还是自己完成。Claude比其他模型更接近能完全帮我写作的程度,但还没达到。如果是商务邮件,我会放心让它帮忙写,但如果是论文或者重要文章,我还是亲自写比较放心。不过估计一年内这个问题会解决。
John Collison:太棒了,Dario,这次访谈非常精彩。
Dario Amodei:是的,谢谢。
John Collison:谢谢你来参加。
Dario Amodei:谢谢邀请。
原视频:A Cheeky Pint with Anthropic CEO Dario Amodei
https://www.youtube.com/watch?v=GcqQ1ebBqkc&ab_channel=Stripe
编译:Claire Zhou
请注意,本文编译自文末载明的原始链接,不代表Z Potentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。
AI中 国网 https://www.cnaiplus.com
本文网址: