
来源:半导体产业纵横(ID:ICVIEWS)综合
美国时间本周三,AMD将推出其最新芯片,旨在为人工智能(AI)系统提供动力,此举可能有助于该芯片厂商在人工智能热潮中与英伟达展开竞争。
该公司将在周三的 AMD“Advancing AI”活动上推出 Instinct MI300 数据中心GPU加速器。除了新的人工智能芯片外,AMD 还表示,它将凸显公司与人工智能硬件和软件合作伙伴的增长势头。
Instinct MI300系列将包含一款能够加速处理生成式AI的加速器,这款产品名为MI300X。据AMD董事长兼首席执行官苏姿丰 (Lisa Su)介绍,该公司的Infinity Architecture Platform,采用八组MI300X,做为生成式AI的推理与训练。亚马逊云端事业AWS与Meta的主管都为苏姿丰站台,谈论在他们的资料中心中采用新的AMD处理器。
AMD还发布了最新版Epyc服务器处理器的通用版本,以及一款名为Bergamo的新变化版本,用于云计算用途。
AMD表示,MI300X加速器基于该公司CDNA 3技术,同时使用多达192 GB的存储器来为大型语言模型与生成式AI处理工作量。该公司于今年第三季度提供该技术的样本给大客户,并且在第四季度全面生产。 另一款产品Instinct MI300A现在正提供样本给客户。
据悉,MI300X晶体管数量高达1530亿个,比今年1月在美国消费电子展(CES)揭露的MI300的1460亿个更多,苏姿丰形容这是MI300的GPU版本。
相比业界竞争对手的产品,苏姿丰说,MI300X的内存是H100(英伟达产品)的2.4倍,带宽是H100的1.6倍,性能更加提升,尤其是推理能力,代表可支持更大语言模型的运算。
苏姿丰表示,如今模型规模越来越大,需要靠多个GPU来运作,MI300X目的在减少GPU的数量,降低总成本,让更多企业能够获取这项技术。
此外,苏姿丰也宣布推出搭载8个MI300X的Instinct运算平台,内存高达1.5TB的第3代高带宽内存(HBM3)。
AMD此前表示,预计MI300到2024年将产生20亿美元的销售额。
Wedbush Securities 分析师在当地时间本周二的研究报告中表示,在此次活动中,AMD 可以将其新型 MI300 芯片与英伟达H100 的功能进行比较,特别强调内存内容和带宽。
根据杰富瑞 (Jefferies LLC) 的分析,AMD的主要竞争对手之一英伟达被誉为“定位最佳”的公司之一,能够从人工智能热潮中获得高达 80% 的市场份额。
上个月,英伟达推出了该公司最新、最强大的 GPU H200,专为人工智能而设计,尽管 11 月底发布的报告称, 由于服务器制造商集成问题,该芯片制造商将推迟其新人工智能芯片的发布至 2024 年。英伟达芯片延迟发布之际,投资者担心美国对中国芯片出口的限制对英伟达构成重大风险。
Wedbush 在其报告中表示,微软可能会参与 AMD 活动,因为这家科技巨头已经宣布将把 AMD 的新芯片应用到其云计算系统Azure中。
Wedbush 分析师写道,AMD 可能会受益于其当前人工智能投资推动的未来增长,而与竞争对手相比,英伟达可能会实现人工智能芯片销售的增长。
Jefferies 分析师指出,随着 MI300 芯片的推出,AMD与英伟达一起成为“首选”,因为该公司对 2024 年美国人工智能芯片厂商持积极态度。
今年,AMD股价已上涨 85%,但本周二尾盘下跌0.3%。
AMD加大人工智能投资
AMD公布的第三季度收益好于预期,预计今年最后三个月的收入将达到 61 亿美元(正负 3亿美元)。这一数字高于第三季度的 58 亿美元,但低于分析师预期的64亿美元。
然而,一些分析师表示,AMD 的 AI 处理器阵容比其嵌入式业务(工业、汽车和网络领域的芯片)更重要。
Wedbush Securities 分析师 Matt Bryson表示,AMD 嵌入式业务的年度市场规模不到 100 亿美元,而竞争对手英伟达的季度GPU销售额很可能会超过这一数字。所以,对于AMD来说,机会是巨大的。
Matt Bryson在一份报告中写道:“我们认为,对AMD人工智能产品更好的增长预期胜过关于FPGA销售何时何地触底以及AMD嵌入式业务正常化收入是多少的问题。”
AMD正在加大对人工智能的投资,以追赶竞争对手英伟达,英伟达已成为全球最大的半导体公司,市值超过1万亿美元。
AMD的MI300 处理器被该公司描述为世界上最先进的生成人工智能加速器,可以帮助这家芯片商赶上其更大的竞争对手。
AMD董事长兼首席执行官苏姿丰 (Lisa Su) 在公司财报电话会议上表示,2024年人工智能驱动的GPU销售额预计将达到 20 亿美元。
今年早些时候,苏姿丰将人工智能称为塑造下一代计算的决定性技术,也是AMD最大的战略增长机会,并表示该公司专注于加速人工智能平台在数据中心的大规模部署。