share_log

AI狂欢继续!英伟达:25年还是供不应求 |AI脱水

wallstreetcn ·  May 23 16:38

B100加快供货速度,预计Q2出货,Q3逐步放量,今年B系列芯片将贡献大量收入。

本文作者:张逸凡

编辑:申思琦

来源:硬AI

尽管分析师们在会前给足了预期,但英伟达实际披露的数据还是超过了市场的预测。

5月23日,英伟达发布了2025Q1的财报,数据显示,营收和盈利双超预期。

早在业绩会之前,由于NVDA AI芯片的供应链数据十分的亮眼,分析师们已经给足了预期,预测营收同比增长246%,但这一数字仍远低于英伟达在业绩会上公布的262%的同比增幅。

从公司官方披露的信息来看,这次业绩超预期有不少原因。

1、GB100供货超预期

虽然NVDA的B系列和H系列需求十分旺盛,但考虑到HBM和CoWos供需紧张,以及台积电先进产能吃紧的情况,市场先前预测B100最早也得在2024年下半年才开始出货。一些保守风格的机构更是预测需要到2024年Q4才开始出货,认为B100的放量需要等到2025年。

然而,业绩会上公司披露,Blackwell芯片Q2就会出货,Q3逐步放量,并预计今年就会带来大量收入。

另外,此前市场担心的芯片需求放缓,公司也给予了回应:H200和B系列持续供不应求,并且这种供不应求的状况可能会持续到2025年。

公司解释到,这种旺盛的需求主要是得益于丰厚的投资回报。公司透露,在 NVIDIA AI 基础设施上每花费 1 美元,云提供商就有机会在 4 年内赚取 5 美元的 GPU 即时托管收入。另外,在HGX H200 服务器上每花费 1 美元,托管Llama 3服务的 API 提供商就能在 4 年内获得 7 美元的收入。

2、业务拓展

英伟达将业务扩展至系统供应商,而不仅局限于GPU卖家。

像 Meta 和 Tesla 构建的大型集群是人工智能生产的重要基础设施的例子。同样的,目前英伟达与超过 100 家客户合作构建 AI 集群,规模从数百到数万个 GPU,有的达到 10 万个 GPU。

除了商业领域的公司,还有不少来自主权AI的需求。公司在会上表示,主权AI的收入将从去年的零收入,扩张到今年的近数十亿美元。

3、以太网络产品Spectrum-X将贡献几十亿美金收入

为了应对网络市场的以太网生态需求,英伟达在infiniband之后,又推出了适用于以太网生态的网络设备Spectrum-X。

会上,公司提到了Spectrum-X的最新进展。

目前,Spectrum-X已经与多家客户进入了量产阶段, 其中包括一个10万GPU的大型集群。

参考前阵子交换机龙头Arista在业绩会上提到的,公司的以太网产品将在2025年连接10万个GPU的规划,以太网在AI算力集群的份额也许会逐步扩大。

Spectrum-X 为 NVIDIA 的网络业务打开了一个全新的市场,公司预计 Spectrum-X 将在一年内跃升为价值数十亿美元的产品线。

4、自动驾驶AI需求

参考上个月特斯拉的业绩会上,马斯克透露,到2024年年底,特斯拉将拥有8.5万块英伟达H100 GPU来用于训练人工智能。

此次,NVDA在会上表示,公司目前已经支持特斯拉将其训练 AI 集群扩展到 35,000 个 H100 GPU。这一扩展,也使得特斯拉FSD 12取得了突破性的进展。

公司预计汽车行业将成为今年数据中心业务最大的企业垂直领域,从而在本地和云消费领域带来数十亿美元的收入机会。

5、推理芯片难度增加,NVDA壁垒还在

AI芯片分训练芯片和推理芯片。

此前市场一度传出推理芯片技术壁垒低,可能导致推理端竞争格局多样化,进而影响英伟达的推理市场份额。

公司在会上回复道,今后,随着模型复杂度、用户数量和每用户查询次数的增加,推理芯片的复杂程度也将随之提升。

此外,从实际的出货数据来看,过去的四个季度的业绩显示,推理芯片驱动了公司数据中心约 40% 的收入。

最后,业绩会给出了25Q2的指引,预计营收预计为280亿美元,上下浮动2%;GAAP毛利率预计为74.8%,上下浮动50个基点,预计全年毛利率70%左右。公司指出,公司接下来的营收增量将来自于每年迭代的新品,以及来自网络、软件的长期收入。

The above content is for informational or educational purposes only and does not constitute any investment advice related to Futu. Although we strive to ensure the truthfulness, accuracy, and originality of all such content, we cannot guarantee it.
    Write a comment