来源:互联网2026-01-10 00:00:00 热度:

黄仁勋谈2026:推理变强了,AI也更会赚钱了

来自AI中国网 https://www.cnaiplus.com

导读:(黄仁勋谈推理Token经济学)当AI 圈还在争论有没有泡沫,黄仁勋已经在算“推理(Reasoning)”能赚多少钱。2026 年 1 月 8 日,播客 No Priors 上,他这样说:就算 ChatGPT 没出现,NVIDIA也会赢。这份自信,源于对计算产业的真实判断。过去十年,摩尔定律逐渐失效,算力不再自动变便宜。所以加速计算从高端选项变成了“产业标配”。当主持人问起 “2025 年 AI 最让你惊讶”的进 ......

黄仁勋谈2026:推理变强了,AI也更会赚钱了

(黄仁勋谈推理Token经济学)

当AI 圈还在争论有没有泡沫,黄仁勋已经在算“推理(Reasoning)”能赚多少钱。

2026 年 1 月 8 日,播客 No Priors 上,他这样说:

就算 ChatGPT 没出现,NVIDIA也会赢。

这份自信,源于对计算产业的真实判断。

过去十年,摩尔定律逐渐失效,算力不再自动变便宜。所以加速计算从高端选项变成了“产业标配”。

当主持人问起 “2025 年 AI 最让你惊讶”的进展,黄仁勋没讲多模态、也没讲大模型,答案是:模型推理能力的进化,和它如何成为一门可以定价、可以收费的生意。

这意味着,AI 的战场已经从做大模型转向了卖推理能力。

推理到底怎么赚钱?

谁在为推理付费?

这个窗口还能开多久?

第一节|推理开始能定价,OpenEvidence毛利率90%过去,AI 的强,主要指两个方向:会写、会说。

从 ChatGPT 到各种聊天机器人,只要能输出连贯、像人写的内容,就算是好模型。

但到了企业场景,标准变了。他们不在乎会不会聊天,在乎的是:这个 AI 能给我省多少钱、赚多少钱?

要让 AI 输出值钱,黄仁勋的回答是:推理能力。

这个能力不是模型参数再翻几倍,而是:

根据上下文找准问题,

在数据不全时推出合理结论,

给出能被医生、律师、工程师放心使用的答案。

有了这种能力,AI 给出的结果就能明码标价了。

他举了几个例子:

OpenEvidence 做医疗搜索,推理Token的毛利率达到了90%;

Harvey 为律师事务所服务,已经在多个大型律所落地使用;

甚至 Claude 企业版,企业也愿意为它付费。

这说明什么?过去 AI 输出不稳定,企业不敢付高价;现在推理让答案可控,按结果收费成为可能。

这个变化有两个信号值得特别注意:

模型本身不再是唯一卖点。会写文章、会对话只是起点,能推理、能接任务、能给出可验证的答案,才是企业考虑是否付费的关键。

企业愿意为推理质量付更高的价。OpenEvidence的高毛利率不是靠压低成本,而是因为医生真的把它当可信赖资源在用。当AI从助手变成专业工具,定价逻辑就变了。

在这个过程中,最早跑出来的不是消费级产品,而是高度专业场景。

医疗、法律、科研、工程……这些地方对答案质量要求极高,恰好让推理有了明确价格。

我们第一次看到,推理从模型的一个小能力,变成了能单独收费的产品。

第二节|真正赚钱的是AI工厂,电工工资翻倍了推理能收费了,但这些能卖钱的Token,是怎么产出来的?

黄仁勋把这个生产场所叫作:AI 工厂。

这些工厂 24 小时不停地运算、生成推理结果。但要让 Token 持续产出,背后得有三样东西支撑:

芯片厂:造出最关键的计算芯片

超级计算中心:搭建大模型运行需要的硬件

AI数据中心:一天24小时不停地产生推理结果

这三类工厂,正在美国各地大量建设。

而建设这些工厂,需要的不只是技术,更是人。

黄仁勋说,他第一次看到电工、技术员、水管工的需求涨得这么快。电工资格证成了热门证书。有人专门接 AI 工厂的活,一出差就是一个月。建筑工人也被拉到这些新工地,很多州开始出现抢人的现象。

这是实实在在的变化: 不是模型参数增长,不是论文数量增长, 而是数据中心大量开工、光缆加速铺设、电费暴涨、岗位激增。

AI 不再只是代码和算法,而是开始像传统工业一样,有产线、有工人、有产能指标。

这场基础设施建设确实在创造大量就业。但随之而来的问题是:当AI真正投入使用后,会不会反过来取代人的工作?

黄仁勋认为恰恰相反。他举了放射科医生的例子:

“八年前,AI 教父 Hinton 预言 AI 会彻底改变放射学,放射科医生将不再被需要。他说对了一半,现在 100% 的放射学应用都是 AI 驱动的。但放射科医生的数量不减反增。”

原因在于:

AI 接管的是任务(研究扫描片),但放射科医生的目的是诊断疾病、做研究、服务更多病人。

当 AI 帮他们更快看完扫描片,他们就能接更多病例、做更深入的研究,医院效率提高了,反而需要雇更多放射科医生。

这个逻辑不只适用于医生,也适用于所有使用 AI 推理能力的行业:

律师用 AI 处理合同,能接更多案子;

工程师用 AI 写代码,能开发更多产品;

企业用 AI 做决策,能拓展更多业务。

所以 AI 提高了效率,但也释放了需求。不是 AI 取代人,而是 AI 让人能做更多以前做不了的事。

这也是为什么基础设施建设本身,就是 2026 年最确定的商业机会之一。

而对于那些想用 AI 做应用的人来说,真正的问题是:推理能收费了,接下来该怎么做?

第三节|成本每年降10倍,小公司也有机会既然推理能卖钱,那谁能抓住这个机会?

这听起来像只有大公司才做得到的事。但黄仁勋指出:

“生成推理的成本,每年下降10倍。”

“落后 6 个月也不怕,成本降了就能赶上。”

于是出现了两种玩法:

一方面,大公司还在筹建下一批超算集群,争夺供应链;另一方面,小公司已经在开源模型上搭建出垂直服务,开始接单赚钱。

比如:

生物领域有公司在做端到端分子设计

工业领域有公司在做机器人抓取放置系统

材料科学有公司在做化学构象预测

这些小公司都不做万能助手,而是只解决一类人的刚需问题。

黄仁勋形容这是“在一个小池塘里先做到极致”。这种专注一个场景做到能收钱的方式,才是接下来五年里,大多数AI创业者最现实的路径。

而让这条路径成为可能的,是开源。

黄仁勋说:

“没有开源,初创公司、教育、研究都没法做。传统企业也做不了AI 转型。”

他甚至说,中国 AI 公司 DeepSeek 去年开源的训练方法,是“对美国AI最大的单一贡献”。因为它让硅谷所有初创司都能学到最前沿的技术,大幅降低了进入门槛。

降低门槛意味着:

不需要从头训练大模型,在开源基础上做垂直优化就够了;不需要烧掉几亿美元,用更小的成本就能验证需求。

但能做,不等于能做成。关键在于:

你得知道推理在你的场景里值多少钱,

你得愿意去一个小市场快速验证、快速迭代。

不是没模型就做不了AI,而是你得想清楚:你要解决谁的问题?你怎么把推理包装成一个值得付费、值得信赖的数字员工?

如果还不确定方向,黄仁勋提到了 2026 年三个值得关注的领域:

第一,数字生物学将迎来它的 ChatGPT 时刻。

蛋白质理解、多蛋白质生成、化学构象……这些领域正在汇聚合成数据、多模态、推理三大能力。Nvidia 最近开源的模型就是为多蛋白质理解设计的。

第二,汽车不再只是感知加规划,而是会变成推理汽车。

当车遇到从未见过的情况时,它能把复杂场景分解成已知情况,通过推理系统导航通过。Nvidia的自动驾驶堆栈刚刚拿到安全评级第一名。

第三,人形机器人或多具身机器人将有巨大突破。

黄仁勋说“我们开始得太早了”,自动驾驶经历了四个时代,而机器人正在用现成的端到端模型加推理系统起步,可能不需要10年就能落地。

这三个方向的共同点是:推理能力已经成熟,接下来就是谁先把它变成产品。

你不需要几亿美元,但你需要找对一个细分场景,一个真实的痛点。

窗口期很短,但机会还在。

结语|模型再强,不如结果能卖过去讲 AI,是讲性能、讲模型、讲谁更像人。

现在讲 AI,有个很清楚的衡量标准:能不能让人愿意付钱?

推理开始值钱,标志着三个转变:

模型不再只是看起来厉害,而是能落地、能计价;

企业不再只问能不能用,而是问值不值钱;

创业者不能再幻想做通用助手,得先做个实用工具。

AI 行业的竞争重点变了。

模型再强,不如结果好卖。

识自AI 本文由AI深度研究院出品,内容翻译自黄仁勋在播客No Priors的访谈等网上公开素材,属翻译编译性质。内容为合理翻译与编辑整理,未逐字复制原访谈材料。未经授权,不得转载。

参考资料:

https://www.youtube.com/watch?v=k-xtmISBCNE

https://podcasts.apple.com/us/podcast/no-priors-artificial-intelligence-technology-startups/id1668002688?l=fr-FR

https://techcrunch.com/2025/01/07/nvidia-ceo-says-his-ai-chips-are-improving-faster-than-moores-law/?utm_source=chatgpt.com

来源:官方媒体/网络新闻

排版:Atlas

编辑:深思

主编: 图灵

来自AI中国网 https://www.cnaiplus.com

本文网址:

欢迎关注微信公众号:人工智能报;合作及投稿请联系:editor@cnaiplus.com

AI中国号...

关注微信公众号,了解最新精彩内容