作者 林易编辑重点君12月3日,拉斯维加斯。AWS CEO 马特加曼(Matt Garman)在他的首场 re:Invent 年度演讲中,在10分钟内发布25款新品,全场两小时发布的新品更是近40个。包括全新一代自研芯片、前沿基础模型及企业级模型定制框架在内的一系列重磅产品,集中展示AWS在算力层、模型层和应用层的突破。作为年化收入高达1320 亿美元的全球云计算一哥,AWS此刻正站在一个关键十字路口:AI热潮已经持续两年,但许多企业仍困在“高投入、低回报”的焦虑中,他们开始追问巨额投入什么时候才能转化为真实的业务回报。
AWS在此次re:Invent大会上给出的答案是:AI必须从陪聊的助手(Assistant),进化到能真正干活的智能体(Agent)。
为了接住这个从模型驱动向智能体驱动转移的机会,AWS选择了一条非常重的路:向下造芯,死磕性价比;中间做厚模型,打破微调的天花板;向上立规矩,解决Agent落地最核心的失控风险。
整场发布会看下来,AWS的战略重心已从专注技术突破转向更侧重企业级价值落地,推动AI真正为企业客户创造价值。
在此次大会密集的发布和两万字实录中,我们梳理了AWS在算力、模型、应用三个维度的核心进展。
在算力层:
AWS的策略变得更加务实且激进:一方面用自研芯片大幅压低成本,另一方面打破公有云的物理边界,去适应那些不想上云的大客户。
AWS 发布了 Trainium 3 UltraServers,相比前代,Trn3 的推理能效提升了 5 倍。更激进的是,AWS还罕见地提前预告了正在设计中的Trainium 4,承诺性能将再提升 6 倍。向市场传递了一个清晰信号:在超大规模模型训练上,AWS 决意摆脱对外部算力的绝对依赖。
为了解决金融和政企客户对数据主权极其敏感的顾虑,AWS 推出了 AWS AI Factories。相当于把 AWS 的算力基础直接建在客户自己的数据中心里。
当然AWS 依然是英伟达最铁的盟友。Trn3未来将兼容英伟达NVlink Fusion技术,此外,新发布的P6e 实例首批搭载了英伟达最新的GB300 NVL72 系统,专为那些最极端的 AI 负载准备。
在模型层:
AWS 终于补齐了 Amazon Nova 自研模型家族,一口气发布了 Amazon Nova 2 系列。其中,Nova 2 Omni 是业界首个支持文本、图、音、视四种输入并能多模态输出的模型;而 Nova 2 Pro 则在复杂的指令遵循上表现激进,AWS 称其在基准测试中优于 GPT-5.1。
企业用大模型最大的痛点是微调太浅,而且容易让模型变笨,比如遗忘核心能力。AWS 推出的 Amazon Nova Forge 引入了“开放训练模型”概念,允许企业在模型预训练的最后阶段注入专有数据。
索尼集团已作为早期客户宣布采用Nova Forge和AgentCore,旨在将其合规审查效率提升100 倍。
在应用层:
Agent(智能体)是未来的核心,但其不可控的特点让很多企业不敢用。AWS 试图用一套严密的规则体系,让 Agent变成可信的生产力工具。
马特加曼打了一个比方:管理 AI Agent 就像管教青春期的孩子既要给自由,又要有底线。为此,AWS 推出了AgentCore Policy。不同于以往的模糊提示词,这是一套基于 Cedar 语言的确定性控制系统,能实时拦截 Agent 的违规操作,比如阻止超过1000 美元的自动退款,解决了企业对 AI 行为失控的根本恐惧。
针对开发者,AWS 发布了 Frontier Agents 系列,这不仅仅是代码助手,而是能独立干活的数字员工。例如 Kiro Autonomous Agent 可以自主修复 Bug,Security Agent 能在代码提交前自动扫描漏洞,而 DevOps Agent 甚至能在半夜报警时自动诊断根因并给出修复建议。这意味着软件工程的生命周期,正在被 AI 全面接管。
以下为AWS第十四届re:Invent大会实录:
1、AWS业务概况
欢迎大家来到第十四届年度re:Invent 大会。能来到现场真是太棒了,此刻现场有超过 60,000 人与我们要共聚一堂,线上观众接近 200 万,其中还包括首次通过《堡垒之夜》(Fortnite)观看直播的朋友们。欢迎大家,感谢各位的到来。
走在拉斯维加斯的走廊里,我能感受到一种难以置信的能量,这与我过去几个月与大家交流时的感受不谋而合。这确实是不可思议的一年。AWS 已成长为一家年化收入达 1320 亿美元的企业,年增长率达到 20%。为了让大家对这个数字有更直观的概念:仅在过去一年,我们的收入就增长了约 220 亿美元。这 12 个月的绝对增长额,已经超过了半数《财富》500 强公司的全年收入。
这种增长源于我们业务的方方面面:
Amazon S3:持续增长,客户存储的对象数量已超过500 万亿个,数据量达数百艾字节(Exabytes),平均每秒处理超过 2 亿次请求。
计算能力:连续第三年,AWS 新增的 CPU 容量中有一半以上来自自研的 Graviton 芯片。
AI 与数据:数百万客户正在使用我们的数据库服务;Amazon Bedrock 目前正在支持超过 10 万个 AI 推理应用。
今年,我们推出了首批构建模块,通过Bedrock AgentCore 帮助企业在规模化环境中安全地部署和运行高能力的Agent。AgentCore 展现出了极其强劲的发展势头,自发布仅几个月以来,其 SDK 下载量已超过 200 万次。此外,我们还发布了首款量子计算芯片原型 Ocelot。Ocelot 是量子计算领域的突破,它不仅降低了实施成本,还提升了 90% 以上的量子纠错能力。
这一切都始于安全、可用且具有弹性的全球基础设施,在这个领域我们依然无可匹敌。AWS 拥有迄今为止规模最大、覆盖最广的 AI 云基础设施。我们的全球数据中心网络覆盖 38 个区域、120 个可用区,并已宣布计划新增三个区域。仅在过去一年,我们就新增了 3.8 吉瓦(GW)的数据中心容量,这一数字领先全球。同时,我们拥有世界上最大的私有网络,在过去 12 个月内规模增长了 50%,目前拥有的陆地和海底电缆总长超过 900 万公里,这一长度足以往返地球与月球 11 次以上。
在Amazon,一切始于客户。今天,数以百万计的客户在我们的平台上运行着各种各样的用例。全球各行各业的大型企业、金融服务、医疗保健、媒体娱乐、通信行业,乃至各国政府机构,都在 AWS 上运营业务并实现转型。
对于AWS 而言,安全是重中之重,是一切的基础。正因如此,美国情报界十多年来一直选择 AWS 作为首选云服务商;纳斯达克将交易市场迁移至 AWS;辉瑞公司(Pfizer)也选择 AWS 作为其数字化转型的核心。
我们也深知合作伙伴对客户成功的重要性。我们要感谢庞大的合作伙伴网络,包括本周到场的众多SaaS 提供商、系统集成商和解决方案提供商,没有你们,我们无法服务如此广泛的全球客户。
我个人对初创公司情有独钟。在AWS 上构建的“独角兽”企业数量远超其他任何平台。如今,越来越多的初创公司,尤其是 AI 初创公司,正涌向 AWS。福特 2025 年 AI 50 榜单中 85% 的企业,以及 CNBC Disruptor 50 榜单中 85% 的企业都运行在 AWS 上。这些创始人创造的成果令人惊叹。
(以下为AudioShake 团队分享内容)
AudioShake 是去年 re:Invent “Unicorn Tank” 路演比赛的冠军。试想一下,如果我们能从一段热带雨林、游乐场或街头音乐的录音中,将音乐、车声或背景对话单独提取出来,会发生什么?
在AudioShake,我们将声音分离,以便人类和机器能以全新的方式访问和理解它。我们的多说话者分离器是全球首个能将不同说话者的声音高分辨率分离到不同流中的技术。这可以应用于呼叫中心将个别声音隔离,也广泛应用于媒体和娱乐领域。
更重要的是,我们在听力和语言障碍领域看到了巨大潜力。我们与一些关注ALS(肌萎缩侧索硬化)的非营利组织合作,利用患者发病前的旧录音,分离出他们原本的声音进行克隆,让患者能用自己原本的声音交流。
创业之初我们只有三个人。如果没有AWS,我们根本无法获得将模型交付给真实客户所需的基础设施。我们在 AWS 上运行整个生产流水线,从推理、存储到作业编排及整个生产环境。我们正迈入一个声音更加可定制化的世界,这不仅能帮助听力障碍者以想要的方式聆听世界,也能帮助机器更深入地理解现实世界。
感谢AudioShake 团队的精彩分享。AWS 的一切工作都离不开构建者,尤其是开发者。本次大会一直以来都是一个以此为核心的学习型会议。我要感谢全球数以百万计的 AWS 开发者,特别是在座的 AWS Heroes,以及遍布全球 129 个国家、拥有超过 100 万成员的用户组社区。
我们为什么要这样做?是什么激励着我们?为什么我们在20 年后的今天,依然保持着与 AWS 创立之初同样的热情?
驱动我们每天前进的动力,是赋予你们完全的发明自由。从创立AWS 的那一刻起,这就是我们的愿景:我们要让每一位开发者或发明家,无论是在宿舍还是车库,都能获得所需的技术基础设施和能力,去构建他们想象中的任何东西。
20 年前,这是不可能的。开发者无法在不投入大量资金和时间的情况下获得服务器或算力。大家把太多时间花在采购服务器和管理基础设施上,而不是构建产品。我们在 Amazon 内部也曾切身体会到这一点我们拥有充满绝妙创意的构建者,但受限于基础设施,无法快速行动。
于是我们问自己:“为什么不呢?(Why not?)” 为什么开发者不能专注于构建?为什么不能将实验的时间和成本降为零?为什么不让每一个想法都成为可能?
过去二十年,我们一直在为实现这些目标而创新。如今,我们正见证人工智能领域的爆发式发明。每一家公司、每一个行业都在被重塑。虽然技术迭代速度前所未有,但我们仍处于AI 变革的早期阶段。
但我知道,许多客户尚未看到与AI 承诺相匹配的回报,AI 的真正价值尚未完全释放。这一情况正在快速改变。我们看到“AI 助手(Assistants)”正开始让位于“AI Agent”。Agent不仅能回答问题,更能为你执行任务并实现自动化。这正是 AI 投资开始产生实质性商业回报的地方。
我相信,Agent的出现将把我们带到人工智能发展的一个拐点。AI 正在从一种技术奇迹转变为能够带来真正价值的生产力工具。这一变化对业务的影响将堪比互联网或云计算的诞生。
未来,每一家公司的内部和各个领域都将涌现出数十亿个Agent。我们已经看到Agent在加速药物发现、提升客户服务、提高工资处理效率等方面的应用。在某些情况下,Agent将人类的影响力扩展了 10 倍,让人们有更多时间去创新。
如果每个人都能获得这种程度的影响力,岂不是太棒了?我们也是这么认为的。这就是为什么我们再次问自己:“为什么不呢?”
要迈向拥有数十亿Agent的未来,让每一个组织都能从 AI 中获得真实的商业成果,要求我们必须打破基础设施的可行性极限。我们需要为具有Agent能力的系统和应用发明新的构建模块,我们需要重新构想每一个流程以及大家的工作方式。
在AWS,我们一直在堆栈的各个层面进行创新,以赋予你们发明未来的全部自由。要交付真正带来价值的Agent,一切都始于拥有最具扩展性和最强大的 AI 基础设施。你需要一个高度可扩展且安全的云平台,为 AI 工作负载提供绝对的最佳性能。同时,你希望在模型训练、定制化以及推理的全过程中,以尽可能低的成本实现这一目标。
说起来容易做起来难,这需要对硬件和软件的每一层进行深度优化。事实证明,这没有捷径,而这正是AWS 能够做到的。
2、AI 基础设施当我们思考AI 基础设施时,首先想到的就是 GPU。在AWS 上运行 NVIDIA GPU 无疑是最佳选择。我们是最早提供云端NVIDIA GPU 的服务商之一,与 NVIDIA 的合作已超过 15 年,这意味着我们已经掌握了大规模运行 GPU 的技术。如果你询问任何在其他供应商处运行过大型 GPU 集群的人,他们会告诉你,AWS 在运行 GPU 集群方面是最稳定的。我们在避免节点故障方面表现出色,并提供最佳的可靠性。
这源于我们对细节的精益求精。即使是调试BIOS 以防止 GPU 重启这类细微的工作,我们也会投入精力。在其他地方,人们可能会接受现状,认为“这就是运作方式”。但我们不同,我们会调查并找出每一个问题的根本原因,然后与合作伙伴 NVIDIA 合作,确保持续改进。对我们而言,没有小到不值得关注的问题。正是这些细节至关重要,使我们在 GPU 可靠性方面引领行业。这需要艰苦的努力和真正的工程技术才能实现,而我们在每一代产品上都在这些新的维度上进行改进。
今年,我们推出了第六代P6 EC2 Instances,包括采用 NVIDIA Blackwell 处理器 GB200 的 P6E Ultra 服务器,其计算能力比我们之前的 P5n 提升了超过 20 倍。这些Instances非常适合正在使用超大型 AI 模型的客户。
今天,我们很高兴地宣布推出全新的P6E GB300,由 NVIDIA 最新的 GB300 NVL72 提供支持。我们持续为最苛刻的AI 工作负载提供同类最佳的计算能力。我们对硬件和软件采取了全栈方法,再加上严谨的运维,确保了全球最大规模的组织能够获得绝对最佳的性能和可靠性。
世界上最大规模的组织,包括NVIDIA 自身(通过 Project Saba on AWS)和 OpenAI 等众多公司,今天都在 AWS 上积极运行大规模通用生成式 AI 集群。他们正在使用由数十万 GB200(很快将升级为 GB300)芯片构成的 EC2 Ultra 服务器集群。这些集群具有可扩展能力,能够扩展到数千万个 CPU 以上,用于管理他们的智能Agent工作流,支持其 ChatGPT 应用以及下一代模型的训练。
另一个合作案例是沙特阿拉伯新成立的公司Humane,他们致力于推动该地区的 AI 创新。我们最近宣布与 Humane 合作开发沙特阿拉伯王国的 AI 区。这项合作将为客户提供高性能基础设施、模型以及 SageMaker 和 Bedrock 等 AI 服务,同时帮助满足沙特王国对安全、隐私和负责任 AI 的严格标准。
这类项目引起了大型政府机构和公共部门对类似概念的兴趣。于是我们思考:能否将这种类型的AI 区域交付给更广泛的客户,甚至可能利用客户现有的数据中心方案?
这就是我们今天很高兴宣布推出AWS AI Factories的原因。通过此项发布,客户能够在他们自己的数据中心部署专用的AWS AI 基础设施和服务,仅供他们专用。AWS AI 工厂的运作方式类似于私有的 AWS 区域,客户可以利用他们已购置的数据中心空间和电力容量,并获得 AWS 领先的 AI 基础设施和服务,包括最新的 Trainium Ultra 服务器或 NVIDIA GPU,以及对 SageMaker 和 Bedrock 等服务的访问。这些 AI 工厂专门为每个客户独立运行,有助于实现隔离,同时保持 AWS 的安全性和可靠性,并满足严格的合规性和主权要求。我们非常期待这些 AI 工厂能为客户带来的巨大可能性。
谈到AWS 的 AI,我们始终强调选择自由。如果你想拥有顶级的AI 基础设施,你需要具备用于 AI 训练和推理的最优算力。AWS 迄今为止以最广泛的选项领先一步,其中就包括我们开创性的专用 AI 处理器。
AWS Trainium 是我们定制的 AI 芯片,旨在为 AI 工作负载提供最佳的性价比。客户喜欢 Trainium 在训练工作负载方面所能达成的成果。但我们也要自我批评:AWS 的产品命名常常令人头疼,Trainium 也不例外。我们将其命名为 Trainium,因为它旨在为 AI 训练提供出色的体验。然而,事实证明,Trainium 2 目前实际上是世界上用于推理的最佳系统。
许多客户可能已经在不知不觉中使用Trainium。今天,在 Amazon Bedrock 上运行的大部分推理工作负载实际上都由 Trainium 提供支持。Trainium 的性能优势非常明显。如果你在 Bedrock 中使用 Claude 的最新一代模型,所有这些流量都运行在 Trainium 上,它提供了比任何其他主要供应商更优的端到端响应时间。
这也是我们迄今为止已部署超过100 万枚 Trainium 芯片的部分原因。我们以创纪录的速度达到了百万芯片的规模,因为我们掌控整个流程和技术栈,能够端到端优化部署方式,从而实现更快地推进。事实上,Trainium 2 在数据中心的大规模部署速度,比我们之前见过的下一款最快芯片快四倍。它是我们有史以来大规模投产的最强 AI 芯片,并且正在以我们能制造的最快速度售出。Trainium 今天已经代表了一项数十亿美元级别的业务,并且仍在快速增长。
当所有这些在一个围绕Trainium 专门构建的系统中汇聚时,会是怎样一番景象?
以前有人说“数据中心就是新的计算机”,而现在,在训练下一代模型时,数据中心园区就是新的计算机。Anthropic 的 Claude 是当今世界上最好的模型之一,它由 Trainium 在 Project Rainer 中实现。
现在我们宣布Trainium 3 UltraServers已全面可用。Trainium 3 芯片在单一纵向扩展域中协同工作,通过定制的 Neuron 交换机互联,提供了巨大的 362 FP8 PetaFLOPS 的计算能力和超过每秒 700 TB 的总带宽,且全部在一个计算Instances中。此外,我们定制构建的 EFA 网络支持将这些扩展到数十万芯片的集群。
没有其他任何人能为你提供这种能力。这需要将所有这些系统级组件协同设计:需要多种类型的定制硅芯片,需要纵向扩展和横向扩展的网络,需要详尽且集成的软件栈,当然还需要业内领先的数据中心。
在一个关于性能提升的真实世界示例中,我们针对一个流行的开源GPT(GPT-OSS)12B 模型进行了推理基准测试,分别在 Trainium 2 和 Trainium 3 上运行。结果显示,Trainium 3 相比 Trainium 2 获得了显著的效率提升:每兆瓦输出的Token 数提高了超过五倍,同时每位用户保持了相同的感知延迟(我们称之为交互性)。我们在多个不同模型上运行时也看到了类似的结果。我们非常期待Trainium 3 将为客户带来的创新,并且我们不会止步于此,正在全力开发Trainium 4。
未来,计算速度和过程的安全性将比以往任何时候都更重要。AWS 在这方面的组合是世界上最优秀的。其对人类的意义在于,能够构建一种新型的、具有可扩展性的科学思维和基础设施,让这种思维开始运转,去发现治疗方法、新能源技术、新材料等等,共同将更好的未来带入当下。
3、Amazon Bedrock:生成式 AI 平台基础设施层面的发明令人难以置信,但基础设施只是故事的一部分。我们看到世界上每一个应用都正在被AI 重新定义。我们正迈向一个推理(Inference)的未来,推理是每个开发者构建的应用中不可或缺的一部分。要在那个未来取得成功,你需要一个安全、可扩展、功能丰富的推理平台。
这就是我们开发Amazon Bedrock的原因。Bedrock 是一个全面的平台,旨在帮助你在从原型过渡到生产环境的过程中,加速生成式 AI 应用的开发。
使用Bedrock,你可以选择各种最新模型并进行自定义。我们提供开放权重模型和专有模型,通用型或专用型,大型或小型模型。在过去一年里,我们将 Bedrock 中提供的模型数量增加了近一倍。今天,我们很高兴地宣布将推出一整批新的开源权重模型。
这些模型包括Google 的 Gemma、Miniaix M2 和 NVIDIA 的 Neotron。同时,今天还有几款全新模型首次向全球发布:
Mistral Large:这是对他们Large 2 模型的巨大飞跃,上下文窗口大小翻倍,模型参数数量增加了超过五倍。
Mistral 3:包含三款模型组合,提供了灵活的部署选项,适用于超高效的边缘设备、单GPU 部署或高级本地运行。
除了Bedrock 上提供的众多第三方模型之外,AWS 去年发布了Amazon Nova,这是亚马逊的基础模型家族,为许多工作负载提供业内最佳性价比。在过去一年里,Nova 家族已扩展以支持更多用例,包括语音到语音的用例,例如Amazon Sonic。我们最近发布了业内性能最好的新一代模型Amazon Nova 2:
Nova 2 Lite:将成为真正的主力模型,提供行业领先或更优的性价比,适用于各种场景。
Nova 2 Pro:是我们最智能的推理模型,非常适合处理那些复杂的Agent工作负载。在遵循指令和自主工具使用等关键领域,Nova 2 Pro 表现出色。在这些领域的人工分析基准上,Nova 2 Pro 的绝对结果优于 GPT-5.1、Gemini 3 Pro 和 Claude 4.5 Sonnet 等领先模型。
Nova 2 Sonic:适用于需要语音功能的应用程序,在出色的性价比下提供行业领先的对话质量,具有更低的延迟和更高的可扩展性,并显著扩展了语言支持。
Nova 2 Omni:是一种全新的多模态模型,具备独特的能力,能够处理图像、视频和音频输入,并支持文本和图像生成输出的推理。
这是为Amazon Nova 家族推出的四个新的行业领先模型,但这仅仅是一个开始。
接下来,我们来看看Gradial 正在如何利用 Nova 和 Bedrock 构建优秀的能力。在营销中,最大的瓶颈不是创意本身,而是创意实现之后发生的一切。Gradial 致力于实现内容的快速交付。
如今,内容运营领域高度依赖人工。将创意简报发布到网站上,可能需要四到六周,涉及设计师、工程师、文案撰稿人以及网站策略师等20 个不同的步骤。Gradial 所做的是将所有不同的系统连接在一起,从而能够将创意想法快速转化为网站内容。
Gradial 利用 Bedrock 实现这些功能令人惊叹。随着这些模型被用于驱动越来越多的关键任务业务线应用和Agent工作流,AI 对贵公司数据的理解变得至关重要。
本文网址:




