英伟达与硅光子共封装:从 Spectrum-X 到跨站点 AI 网络的演进 | HotChips2025(英伟达芯片涨价)
今天给各位分享
芝能智芯出品在 2025 年 Hot Chips 大会上,英伟达讲了在硅光子共封装(CPO)方向的最新进展通过在 Spectrum-X 交换机和相关互连架构中引入硅光子学,英伟达试图解决大规模 AI 训练和数据中心网络中的抖动、功耗和扩展性问题。
强调了低抖动通信对于 AI 作业的重要性,还展示了可扩展至多站点的 Spectrum-XGS 架构,提出了横向扩展和距离感知调度的新方法。
Part 1硅光子共封装与 Spectrum-X 的架构逻辑英伟达在 Hot Chips 上的演讲首先强调了一个基本观点:在 AI 时代,单个 GPU 不再是计算的中心,整个数据中心才是新的计算单元,互连的效率和可靠性直接决定了整体算力的发挥。
传统以太网虽然在通用性上具备优势,但在面对 AI 大规模训练时,抖动和带宽利用率成为限制因素。一旦网络延迟不稳定,GPU 集群中便会出现大规模空闲,从而造成极高的算力浪费。
英伟达推出了基于硅光子共封装的 Spectrum-X 交换机与传统可插拔光模块不同,CPO 技术将光学引擎直接封装在交换芯片或中介层之上,从而减少了电光转换和插拔接口带来的功耗与延迟英伟达 的光子方案采用了 1.6T 的 CPO 芯片,并配备微环调制器,这种设计能够在有限的封装面积内提供高密度光学 I/O,同时降低整体能耗。
在系统层面,Spectrum-X 的目标是为 AI 集群提供低抖动、端到端优化的通信路径英伟达并未将优化局限于交换机本身,而是通过 BlueField-3 DPU、NIC 以及软件栈的协同,实现了对 NCCL 等通信库的加速,在多租户环境或同时运行多个大规模作业时,能够显著降低任务间的干扰,提高 GPU 集群的整体利用率。
与现成的 Broadcom 以太网交换机相比,Spectrum-X 强调的是“面向 AI”的定制化,并不只是提供更高带宽,而是针对 AI 训练的同步与调度特性,设计出一套低抖动通信机制,使得 Spectrum-X 成为 AI 数据中心专用网络的一种候选架构。
Part 2跨站点扩展与 Spectrum-XGS 的意义在展示完单站点网络的优化后,英伟达又进一步提出了 Spectrum-XGS,这是其横向扩展方案的核心随着 AI 模型规模持续扩大,单个数据中心的算力已无法满足需求,如何跨越不同站点进行分布式训练,成为新的挑战。
Spectrum-XGS 的思路是通过硅光子共封装带来的能效优势,将以太网能力延伸到跨站点场景中这里的关键问题不再只是带宽,而是如何在数百米乃至数公里的范围内保持低抖动和高同步性,500 米以内的跨规模网络可以直接扩展,而超过 500 米则需要算法层面的调整,以补偿距离带来的物理延迟,硬件与调度算法的耦合将成为未来系统设计的重点。
与Broadcom 的多站点方案相比,Spectrum-XGS 并非仅仅强调连通性,而是进一步引入了“距离感知算法”,以优化跨站点的作业调度英伟达 一贯的“软硬件协同”思路:通过网络架构与软件算法的融合,使 GPU 集群能够在多站点条件下高效运行。
英伟达使用 Spectrum-XGS 可以使横向扩展的效率提升约 1.9 倍,并存在进一步优化的空间,能够在实际部署中得到验证,将意味着跨站点 AI 训练将不再受限于单一数据中心的资源瓶颈,而能够实现真正的“算力池化”。
CoreWeave 作为可能的首个部署方,也为这一技术在商用落地方面提供了现实案例。
小结英伟达在 Hot Chips 2025 上展示的硅光子共封装方案,从 Spectrum-X 到 Spectrum-XGS,体现了其对 AI 时代网络架构的系统性思考在单站点场景中,通过 CPO 技术和低抖动优化,提升了 GPU 集群的利用率和多租户环境下的稳定性;在跨站点场景中,又提出了结合距离感知算法的横向扩展方案,使超大规模 AI 模型的训练具备了更高的可行性。
挑战依然存在。硅光子共封装的量产工艺、封装复杂度、成本控制,以及与现有以太网生态的兼容性,都是需要逐步解决的问题。跨站点训练的算法优化和网络标准化,也需要业界的进一步合作。返回搜狐,查看更多


