博通(AVGO.US)2025财年Q2电话会:2026年AI收入将延续60%的增速


智通财经APP获悉,6月6日,博通(AVGO.US)召开2025 财年第二季度财报电话会。财报显示,该公司二季度半导体收入84 亿美元,占总收入 56%,同比增 17%(由 AI 半导体收入驱动)。基础设施软件收入66 亿美元,占收入 44%,同比增 25%(超出 65 亿美元指引)。高管表示,将增加支出以支持前沿 AI 半导体开发; 严格管控推动软件营业利润率同比提升 16%;库存环比增 6% 以支持未来收入增长。
FY 2025 Q3 指引方面,该公司预计收入 158 亿美元(同比 +21%);调整后 EBITDA%至少 66%;毛利率环比下降 1.3%(因 AI 业务中 XPU 占比提升)。
对于2026 年 AI 业务是否将延续 60% 年增长率,该公司高管表示,基于当前可见度,公司确认 2026 年 AI 收入将延续现有增长轨迹(即 60% 年增速),但该预测为趋势性指引,非具体财务目标。
Q&A 问答
Q:AI 业务明年增长的信心主要来自 XPU、连接解决方案,还是两者共同作用?
A:增长信心主要源于 XPU 部署的显著增加,随之而来是更多网络需求,两者共同推动。
Q:在推理方面有何具体进展?
A:当前观察到推理需求整快速增长。
Q:AI 业务 60% 的年增长率是否能持续至本年末和下一财年?公司预测框架(包括 60% 增长 CAGR)是否仍适用?
A:是的,基于当前可见度,公司预计在 26 财年能维持类似增长轨迹,此前提出的增长框架有效,但 27 财年数据暂时无需更新。
Q:AI 网络业务表现强劲(超预期)的原因是什么?这对明年增长意味着什么?
A:
增长逻辑:
1、 AI 网络与 AI 加速器集群的部署高度同步,其部署节奏与加速器(GPU/XPU)一致。
2、 超大规模客户正从Scale-out(横向扩展)转向 Scale-up(纵向升级)架构,后者对交换机的密度要求超预期提升(达 Scale-out 的 5-10 倍)。这一结构性变化推动本季度AI 网络收入占比维持 40%(此前预计下降但实际未发生)。
Q:Tomahawk 交换机何时开始推动增长加速?
A: 市场对 102 Tb/s 的新一代 Tomahawk 交换机展现出强劲需求。但当前仅处于向客户提供概念验证样品(PoC)的阶段,尚未开始大规模发货。
Q:向客户运送基于以太网的 scale-up 网络的时机为何?
A:scale-up 架构正快速转向以太网技术,尤其对于超大规模客户,当前 scale-up 已主要基于以太网部署。
Q:2026 年 AI 业务是否将延续 60% 年增长率?对应收入规模是否达 300 亿美元?
A:基于当前可见度,公司确认 2026 年 AI 收入将延续现有增长轨迹(即 60% 年增速),但该预测为趋势性指引,非具体财务目标。
Q:新增推理业务是否推动整体 SAM(可服务市场)超越原 600-900 亿美元的预期?
A:公司拒绝讨论 SAM 规模变化,明确表示不调整此前设定的 2027 年长期目标,亦不回应 SAM 是否扩大,仅重申维持原有增长路径。
Q:近期网络业务超预期增长是否意味着 XPU 业务表现疲软?是否存在产品转型等因素影响?
A:XPU 业务表现完全符合预期轨迹,未出现疲软或波动。网络业务的高热度并不影响 XPU 增长节奏,本季度及后续季度进展均与预测一致,短期可见度清晰。
Q:对于新增 XPU 客户,哪些里程碑可作为商业化验证信号?如何评估其何时贡献收入?
A:当前暂不更新任何长期预测数据(包括 2027/2028 年目标)。公司维持 6 个月前设定的 SAM 框架(基于三大客户 1 万亿 GPU 加速集群的预期),该假设依然有效。新增客户的收入贡献时间表需待 2026 年获得更清晰可见度后方能更新。
Q:哪些推理工作负载最适合定制芯片?训练与推理在未来 XPU 业务中的占比如何?
A:定制芯片的核心价值在于端到端的软硬件协同优化:
1、定制加速器的优势不仅在于成本控制,更在于算法与硬件的深度绑定――客户通过持续迭代,可显著提升大语言模型(LLM)性能;
2、推理与训练无需严格区分:无论是通用或定制芯片,超大规模客户均通过长期技术积累(学习曲线)优化算法,使硬件与软件高度适配。此过程无法速成,但最终带来远超传统软硬件分离方案的性能上限;
3、定制芯片占比未量化:公司未提供训练/推理业务的具体比例数据,但强调定制化路径是客户实现性能跃升的关键选择。
Q:实现 5-10 倍 scale-up 网络增量,共封装光学(CPO)是否关键?Tomahawk 交换机是否为主要驱动?
A:技术演进路径的核心在于铜缆→光互联转换,而非特定技术强制绑定:
1、当前现状:小规模集群(≤72 GPU)仍以铜缆互联主导,距离与带宽需求未超出现有能力;
2、转换触发点:当集群规模突破 72-100+ GPU,铜缆因距离与信号衰减问题将遇瓶颈,因此需转向光学互联(非 CPO 专属);
3、技术选项多元化:
(1)过渡期可采用低成本且灵活的可插拔光模块连接交换机(如 512 端口的 Tomahawk);
(2)CPO(硅光共封装)是可选但非唯一路径,博通已有布局但未强制锁定该方案;
4、时间窗口:预计铜→光转换潮在1-2 年内爆发,超大规模客户率先推动,博通将处于技术前沿。
Q:XPU 业务外,是否有其他的利润压力?长期看定制芯片规模扩大后如何影响利润率?
A:
短期归因:毛利率 130 基点环比下降主因 XPU 业务占比提升,其利润率历来低于公司均值(无线业务除外),无其他异常因素;
长期趋势:未提供定制芯片规模扩张后的具体利润率指引,但重申 XPU 结构性利润率较低的事实。
Q:当前 AI 需求激增是否因 XPU/ASIC 芯片在软件或能效上赶超 GPU?会否导致 XPU 份额加速侵蚀 GPU 市场?
A:
核心驱动力并非技术迭代:超大规模客户亟需验证天量训练投入的回报――通过部署推理服务将大模型商业化变现。
客户范围: 需求集中于少数已自建 LLM 的头部云厂商(客户数量未增加)。
技术无关性: 加速与硬件技术路线无关,核心是客户对投资回报(ROI)的刚性诉求。
Q:2025 年 AI 业务 60% 增速是否延续至 2026 年?新增客户(如 Meta 及其他云巨头)会否支撑该增长?
A:基于需求叠加效应(训练基建扩容 + 推理落地加速),公司维持此前预判――2026 年将延续 2025 年的增长轨迹。未量化新客户具体贡献,强调现有可见度已支持该趋势。
Q:NVLink Fusion 架构的 scale-up 市场会否转向以太网路线?(类比集群间 scale-out 的以太网替代趋势)
A:博通未参与 NVLink 技术生态,明确表示无立场评论竞品技术演进方向。
Q:完成 VMware 整合后,公司在分红、股票回购、债务削减与并购间的资本配置策略为何?
A:建立三级优先级机制:
1、固定分红:每年将50% 自由现金流用于股息分配(基于前一年现金流水平);
2、核心债务削减:剩余资金优先降低负债,目标将债务/EBITDA 比率控制在≤2 倍;
3、机会性回购:在满足前两项前提下,可择机实施股票回购(如本季度 42 亿美元回购,部分用于对冲 RSU 行权稀释)。
并购(M&A)战略定位:
1、严控标准:仅考虑显著且规模可观的交易(如 VMware 级标的)。
2、资本准备:当前降债行动本质是储备借贷能力,确保未来大额并购时可快速融资。
3、明确优先级:不牺牲核心目标(降杠杆、分红)追逐中型交易。
Q:2026 年业绩预期是否包含新增客户(4 家潜在客户)的实质贡献?
A:公司拒绝讨论任何潜在客户。
Q:网络业务在 AI 收入中占比 40% 是否将持续?XPU 业务增长会否改变该比例?
A:明确结构将动态调整――随着 XPU 业务加速扩张,网络业务占比应降至 30% 以下,此趋势将贯穿 2026 年。
Q:此前提及AI 业务不受出口管制影响在行业政策频繁变动情况下是否依然成立?能否确保未来无实质冲击?
A:无法提供确定性保证:
1、政策环境高度动态:贸易协定谈判持续引发规则快速变更,企业预判能力有限;
2、风险敞口不可量化:管理层坦言无法掌握管制具体实施细则及影响范围,拒绝作出任何确定性承诺。
Q:客户向订阅制转化是否接近完成?或仍需多个季度持续推进?
A:基于3 年合同周期框架:
1、当前续约进度已过半,大概完成了 2/3,仍处于转型中期;
2、预计完全转化需至少 1 年至 1.5 年(按合同自然到期节奏推进)。


版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。
本文地址:http://cpqg.com/html/xinwen/chuangyegushi/100080.html