加速杀入AI芯片战场!亚马逊(AMZN.US)推出新一代自研芯片Trainium 3:提速四倍、能耗降40%,主打性价比
智通财经APP获悉,亚马逊(AMZN.US)旗下云计算部门AWS正加速将其最新一代人工智能(AI)芯片推向市场,力图在硬件领域与英伟达(NVDA.US)和谷歌(GOOGL.US)的产品一较高下。
AWS副总裁Dave Brown在接受采访时表示,这款名为Trainium 3的加速器芯片已在部分数据中心完成部署,将于本周二正式向客户开放。
“到明年初,我们将启动极快速的规模化部署,”他说道。
推出自研芯片是亚马逊在AI领域脱颖而出战略的关键一环。AWS是云计算和数据存储服务的最大供应商,但在AI工具的主流开发者群体中,该公司却难以复制这种主导地位。部分企业更倾向于选择与ChatGPT开发商OpenAI联系紧密的微软(MSFT.US)合作,或是选用谷歌(GOOGL.US)的相关服务。
此举将加剧AI芯片市场的竞争态势。当前英伟达在该市场占据主导地位,其在用于训练ChatGPT等大语言模型的芯片市场上估计拥有80%至90%的份额。
就在上周,有消息称Meta(META.US)将在数据中心采用谷歌AI芯片,引发行业震动。这预示着目前全球市值最高企业、AI投资热潮风向标英伟达将迎来新的竞争。此前一个月,谷歌最新发布的AI模型正是使用其自研芯片而非英伟达硬件完成训练。
亚马逊试图以高性价比吸引企业客户。该公司称,与英伟达占据市场主导地位的GPU相比,Trainium系列芯片在支撑AI模型密集型计算任务时,具备更高的成本效益和运算效率。
AWS补充道,基于Trainium 3芯片的新款服务器每台包含144颗芯片,计算性能较前代产品提升四倍以上,同时能耗降低40%。并且,相较于主要采用英伟达GPU的同等系统,其芯片可将AI模型训练和运营成本降低高达50%。
“Trainium芯片在性价比方面的表现令人非常满意,”Brown表示。
此次Trainium 3的推出距上一代加速器芯片发布仅约一年时间,按芯片行业标准来看堪称“极速迭代”。今年8月该芯片首次启动测试时,一位AWS工程师打趣道:“我们现在最期待的,就是不要出现任何技术故障。”
这样的快速更新节奏也与英伟达保持同步,后者承诺每年推出新款芯片。
但Trainium芯片存在一项关键短板:缺乏英伟达那样丰富的软件生态库,而后者能帮助客户快速实现GPU的部署与运行。Bedrock Robotics是一家利用AI模型实现建筑设备自主运行的企业,其基础设施搭建在AWS服务器上,但该公司首席技术官Kevin Peterson透露,在开发挖掘机导航模型时,Bedrock选择了英伟达芯片。
“我们需要兼具高性能与易用性的解决方案,而这正是英伟达的优势所在,”Peterson表示。
目前投入使用的Trainium芯片大多由Anthropic在印第安纳州、密西西比州和宾夕法尼亚州的数据中心调配使用。AWS今年早些时候曾宣布,已将50多万颗Trainium芯片集群化,用于支持这家AI初创公司的最新模型训练,并计划在年底前为Anthropic专属配置100万颗该芯片。
亚马逊寄望于Anthropic的成功案例及其自身AI服务生态,吸引更多企业客户。亚马逊表示,除了Anthropic,日本大模型公司Karakuri、SplashMusic及Decart等AWS客户也已开始使用第三代芯片与系统,并显著降低了推理成本。不过,该公司尚未披露其他主要芯片客户信息,这也让分析师难以评估Trainium的市场表现。
值得注意的是,Anthropic同时在使用谷歌的TPU,并于今年早些时候与谷歌达成协议,获得价值数百亿美元的算力支持。AWS首席执行官Matt Garman在接受采访时强调,亚马逊与Anthropic的合作关系“异常稳固”,并指出Anthropic对算力的需求极为庞大,因此选择了多家服务商。
兼容英伟达技术
与此同时,亚马逊还透露,其已着手开发Trainium 4芯片,预计其在标准AI工作负载上的性能将达到Trainium3的三倍以上。
而值得注意的是,这款新一代芯片将兼容英伟达技术,实现与该公司服务器和硬件的协同工作。此举表明,在竞争的同时,亚马逊希望利用对手的优势吸引主要AI客户使用其服务。
AWS表示,Trainium 4将采用名为“NVLink Fusion”的高速芯片互连技术,但未公布具体发布日期。据了解,NVLink技术能在不同芯片之间建立高速连接,是英伟达的核心技术之一。
英伟达一直在推动其他芯片公司采用其NVLink技术,目前英特尔(INTC.US)、高通(QCOM.US)以及AWS均已加入该技术阵营。该技术将帮助AWS构建更强大的AI服务器,实现更快速的识别与互通——这对于需要连接数千台机器训练大模型至关重要。作为合作内容,客户将能使用AWS推出的“AI工厂”,即部署在自有数据中心内的专用AI基础设施,从而获得更快的速度和响应能力。
英伟达首席执行官黄仁勋在一份声明中表示:“英伟达与AWS正在共同打造AI工业革命的计算架构,将先进AI技术带给每个国家、每家企业,加速世界迈向智能化的进程。”
AI模型系列Nova
此次芯片发布是在亚马逊年度用户大会re:Invent上宣布的。近年来,该大会已成为亚马逊AI服务的重要推广平台,吸引着尖端AI工具开发者及潜在付费企业客户。
除芯片外,亚马逊周二还发布了其主力AI模型系列Nova的更新版本。新一代Nova 2包含一款名为Omni的多模态模型,可接收文本、图像、语音或视频输入,并支持文本或图像形式的输出。
与芯片策略类似,亚马逊在AI模型推广中同样主打“性价比”优势。不过在标准化问答性能基准测试中,此前的Nova模型并未跻身行业顶尖行列。
“真正的衡量标准是实际应用效果,”亚马逊AI模型研发及通用人工智能(AGI)团队负责人Rohit Prasad在采访中表示,并预计新模型将具备较强的市场竞争力。
亚马逊还计划允许客户在定制模型时接入更多自有数据。新推出的Nova Forge工具面向专业用户,支持其获取尚未完成训练的Nova模型版本,并通过自有数据进行定制化开发。
Garman指出:“这项服务能让您打造深度理解企业信息的专属模型,同时完整保留模型训练的核心知识库。”
社交平台Reddit(RDDT.US)正利用Nova Forge开发一款模型,用于检测平台帖子是否违反安全政策。Reddit首席技术官Chris Slowe表示,部分AI客户倾向于用最先进的通用模型解决所有问题,而非选择具备特定专业能力的模型。
“通过定制化使其成为我们专属领域的专家,这才是价值所在,”他在采访中说道。
免责声明:文章中的所有内容仅代表作者的观点,与本平台无关。用户不应以本文作为投资决策的参考。
你也可能喜欢
某交易所 CEO:代币化是未来

嘉信理财:将于2026年初提供比特币和以太坊交易服务
价值发现:解码希尔威金属矿业(SVM.US)“最具投资潜力公司”的战略纵深

美股异动 | 文远知行(WRD.US)涨逾3% 获木头姐旗下投资公司建仓

