加速你进军AI芯片战场!亚马逊(AMZN.US)推出新
作者:bet356亚洲版本体育 发布时间:2025-12-03 10:26
加速你进军AI芯片战场!亚马逊(AMZN.US)推出新一代自研芯片Trainium 3:速度提升四倍,能耗降低40%,专注成本效益 智通财经APP获悉,亚马逊(AMZN.US)旗下云计算部门AWS正在加速将最新一代人工智能(AI)芯片推向市场,力争在硬件领域与英伟达(NVDA.US)、谷歌(Googl.us)的产品展开竞争。 AWS副总裁Dave Brown在接受采访时表示,这款名为Trainium 3的加速器芯片已经部署在多个数据中心,并将于周二正式向客户开放。 “到明年初,我们将大规模启动非常快速的部署,”他说。推出自研芯片是亚马逊在AI领域脱颖而出战略的关键一环。 AWS是最大的云计算和数据存储服务提供商,但该公司一直在努力重新定位凸显其在人工智能工具主要开发商中的主导地位。一些公司更愿意与与ChATGPT OpenAI开发商密切相关的微软(MSFT.US)合作,或者使用谷歌(Googl.us)的相关服务。此举将加剧AI芯片市场的竞争。 Nvidia 目前在市场上占据主导地位,估计在用于训练 ChatGPT 等大型语言模型的芯片上占据 80% 至 90% 的市场份额。就在上周,有消息称Meta(Meta.us)将在其数据中心使用谷歌人工智能芯片,震惊了整个行业。这预示着全球市场价值最大的公司、AI投资热潮的风向标NVIDIA将服务于新的竞争。一个月前,谷歌最新的 AI 模型是使用自己的芯片而不是 NVIDIA 硬件进行训练的。亚马逊正试图以高性价比来吸引企业客户。该公司表示,与NVIDIA市场领先的GPU相比,火车系列芯片更加e支持AI模型计算任务时高效且计算高效。 AWS补充称,基于Trainium 3芯片的新型服务器每台包含144个芯片,计算性能比上一代产品提高四倍以上,同时能耗降低40%。此外,与主要使用 NVIDIA GPU 的同等系统相比,其芯片可将 AI 模型训练和运营成本降低高达 50%。 “Trainium芯片在性价比方面的表现非常令人满意,”Brown说道。 Trainium 3的推出距上一代加速器芯片发布仅一年左右,按照芯片行业标准堪称“进化非常快”。当该芯片于今年 8 月首次推出测试时,一位 AWS 工程师打趣道:“我们现在最希望的是不要出现任何技术故障。”这种快速的更新节奏也与NVIDIA承诺每年推出新芯片相同步。卜t trainium 芯片有一个重大缺点:缺乏 NVIDIA 丰富的软件生态系统,无法帮助客户快速部署和操作 GPU。 Bedrock Robotics是一家利用models ng AI实现建筑设备自主操作的公司。其基础设施建立在AWS服务器上,但该公司首席技术官Kevin Peterson宣布,在开发挖掘机的导航模型时,Bedrock选择了NVIDIA芯片。 “我们需要将高性能与易用性结合起来的解决方案,而这正是 Nvidia 所引领的方向,”彼得森说。目前使用的大多数训练芯片都部署在 Anthropic 位于印第安纳州、密西西比州和宾夕法尼亚州的数据中心。 AWS今年早些时候宣布,它已经集群了超过50万个训练芯片来支持最新的AI初创公司训练模型,并计划在今年年底前部署100万个专门用于人类学的芯片。亚马逊依赖 Anthropic 的成功案例自己的人工智能服务生态系统,以吸引更多的商业客户。亚马逊表示,除了anthropic之外,日本大型模型公司karakuri、splashmusic和decart等AWS客户也开始使用第三代芯片和系统,并大幅降低了维护成本。不过,该公司并未披露CHIP其他主要客户的信息,这也使得分析师难以评估Trainium的市场表现。值得注意的是,Anthropic也使用了谷歌的TPU,并于今年早些时候与谷歌达成协议,获得价值数十亿美元的算力支持。 AWS首席执行官Matt Garman在接受采访时强调,亚马逊与Anthropic之间的合作伙伴关系“非常牢固”,并指出Anthropic对cowhite的力量有巨大需求,因此选择了许多服务提供商。与NVIDIA技术同时,亚马逊也宣布开始开发Trainium 4芯片,该芯片是预计在典型 AI 工作负载中的性能是 Trainium 3 的三倍以上。值得注意的是,新一代芯片兼容 NVIDIA 技术,并将与该公司的服务器和硬件协同工作。此举表明,在竞争的同时,亚马逊希望利用竞争对手的优势来吸引关键的人工智能客户使用其服务。 AWS表示,Trainium 4将采用一种名为“NVLink Fusion”的高速芯片互连技术,但没有公布具体的发布日期。据了解,NVLINK技术可以在不同芯片之间建立高速连接,是NVIDIA的主要技术之一。 NVIDIA已经推动其他芯片公司采用NVLLINK技术,英特尔(INTC.US)、高通(QCOM.US)和AWS也加入了该技术阵营。这项技术将帮助AWS构建更强大的AI服务器并实现更快的识别和互操作性——这对于训练需要连接数千个的大型模型非常重要的机器。作为合作的一部分,客户可以使用AWS的“AI Factory”,即部署在自有数据中心的专用AI基础设施,以获得更快的速度和响应。 NVIDIA首席执行官黄仁勋在一份声明中表示:“Nvidia和AWS正在共同构建AI产业革命的计算架构,将先进的AI技术带给每个国家、每个公司,加速世界迈向智能化的旅程。” Nova AI模型系列芯片的发布是在年度Amazon Re: Invent用户大会上宣布的。近年来,该大会已成为亚马逊AI服务的重要推广平台,吸引了尖端AI工具开发者和潜在付费企业客户。除了芯片之外,亚马逊还在周二发布了主要 Nova AI 模型系列的更新版本。新一代 Nova 2 包括名为 OMNI 的多模态模型,可以接收文本、图像、语音或视频输入和输出ut 支持文本或图像的形式。与芯片策略类似,亚马逊也注重推广AI模型的“性价比”优势。但在标准问答基准测试中,之前的NOVA机型并未跻身mga行业前列。 “真正的衡量标准是应用的实际影响,”AI模型开发和通用人工智能(AGI)团队负责人Rohit Prasad在接受采访时表示,并预测新模型将在市场上产生激烈的竞争。亚马逊还计划允许客户在定制模型时利用更多自己的数据。新推出的Nova Forge工具面向专业用户,允许他们获取尚未完成训练的NOVA模型版本,并利用自己的数据进行定制开发。 Garman 指出:“这项服务可以让您构建一个深入了解企业信息的专用模型,同时充分保留企业的核心知识库。社交平台Reddit(RDDT.US)使用Nova Forge构建模型来检测平台的帖子是否违反安全策略。Reddit首席技术官Chris Slowe表示,一些AI客户更喜欢使用最先进的通用模型来解决所有问题,而不是选择具有特定专业能力的模型。“通过定制成为我们利基领域的专家,这才是价值所在。”他在接受采访时表示。 特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。 注:以上内容(包括图片和视频,如有)由网易用户Hao上传发布,网易用户Hao为社交媒体平台,仅提供信息存储服务。
电话
020-66888888