技术文章

Technical articles

当前位置:首页技术文章共封装光学(CPO)vs 可插拔光模块

共封装光学(CPO)vs 可插拔光模块

更新时间:2026-05-15点击次数:26

一、数据中心光互连的技术分水岭

20年,数据中心光互连主要依赖可插拔光模块Pluggable Optical Module光模块插入交换机前面板,可热插拔、灵活替换。这一架构简单直观,至今仍是市场主流。

然而,随着数据中心带宽需求每年增30%以上AI大模型训练需要千卡甚至万卡互联,可插拔光模块的功耗、延迟和密度瓶颈日益凸显。正是在这一背景下,共封装光学Co-Packaged Optics, CPO)应运而生,被视为光互连技术从分立时代进入集成时代的分水岭。

 

img1 

1:可插拔光模vs CPO结构对比

 

二、可插拔光模块20年主流方案的得与失

2.1什么是可插拔光模块?

可插拔光模块将光发射器、光接收器、驱动电路CDR(时钟数据恢复)等全部封装在一个独立模块中,通过标准化QSFP-DDOSFP等接口插入交换机前面板。交换机芯片Switch ASIC)通PCBSerDes(串行/解串器)电接口连接光模块,电信号PCB上传10-20厘米后进入光模块完成光电转换。

2.2可插拔方案的优势

灵活性高:可热插拔,维护和升级不影响系统运行

供应链成熟:多厂商兼容,采购渠道广泛

良率高:模块独立测试,单件良率接100%

散热简单:光模块独立散热,交换机芯片散热单独设计

2.3可插拔方案的瓶颈

功耗墙:每100G/400G可插拔光模块功3-5W,一51.2T交换机64800G)仅光模块功耗就200-320W,占整机功30%以上

延迟墙SerDes电信号PCB上传10-20厘米,延10-20纳秒,CPO方案中封装内光学互连延迟小1纳秒,相10-20

密度墙:前面板物理空间限制了端口密度,很难在单机柜内实现超128个高速光端口

成本墙:分立封装、精密对准、独立散热等工艺成本难以继续降低

三、共封装光CPO:封装即系统

3.1什么CPO

CPO将光引擎Optical Engine)与交换机芯片Switch ASIC)共封装在同一个基板Substrate)上,两者之间的互连PCBSerDes电信号,改为封装内的光I/OOptical I/O)。光引擎通常基于硅光子Silicon PhotonicsInP技术,包含调制器、探测器、波导CWDM/DWDM复用器等光器件,全部集成在同一芯片或芯片组上。

3.2 CPO的工作原理

交换机芯片通过高速电接口(56Gbaud PAM4)与光引擎交换数据;光引擎在封装内完成-光转换,光信号通过光纤阵列Fiber Array)直接输出到外部光纤。整SerDes电互连长度PCB10-20厘米缩短到封装内的毫米级,功耗和延迟均大幅降低,同时光端口密度大幅提升。

3.3 CPO的核心优势

功耗降70%+SerDes电互连缩100倍,驱动功耗大幅下降;硅光子技术的本征低功耗特性进一步加持,单端口功耗可降1W以下

延迟降10-20倍:封装内光I/O延迟小1纳秒,而可插拔方案PCB SerDes10-20纳秒

端口密度提2-4倍:光引擎与芯片共封装,不占用前面板空间,可在同等体积内实现更-端口密度

成本优势(规模化后)CPOCMOS兼容的硅光子工艺,随着规模化和良率提升,单端口成本有望显著低于可插拔方案

img2 

2CPO vs可插拔光模块性能-面对比

 

CPO面临的技术挑战

CPO优势显著,但其大规模商用仍面临若干关键挑战:

热管理挑战CPO将光引擎和交换机芯片封装在一起,两者的散热需求都很大,且光器件(特别III-V激光器)对温度更敏感,需要精密的热协同设计,液冷成CPO的标配

维护性挑战:可插拔光模块支持热插拔,出现故障时可单独更换CPO一旦出现故障需要更换整CPO封装模块,维护成本高,需要更高的可靠性设计

初期成本挑战CPO-新技术,初期部署成本高于成熟的可插拔方案,需要达到一定规模才能体现成本优势

供应链挑战CPO需要光模块厂商、芯片封装厂、交换机系统商的深度协同,目前产业链仍在成熟过程中

良率挑战:可插拔方案中交换机芯片和光模块独立测试,良率独立计算CPO一旦封装完成,任何一个芯片出问题都需要整体更换,良率挑战更大

CPO的核心应用场景

CPO并非要完-全取代可插拔光模块,而是要替代那些对功耗、延迟、密度要求极-高的特定场景:

5.1 AI/HPC集群(最大应用场景)

AI大模型训练需要千卡甚至万卡高速互联GPU/CPU服务器间的光互连带宽需求爆炸式增长CPO的超低功耗(降低至整机功耗10%以内)和超低延迟特性,正好解AI集群中光模块功耗占比过高(可30-40%)和通信延迟的痛点NvidiaGrace-Hopper超级芯片中-先采CPOBroadcomTomahawk 5交换芯片也同步推CPO版本,瞄准这一市场。

5.2数据中Spine-Leaf互联

数据中心交换Spine-Leaf架构中Spine交换机之间LeafSpine之间的互联需要极-高的带宽密度和能效CPO-端口密度和低功耗优势,使其成51.2T/102.4T超大容量交换机的-选互连方案。

5.3超级计算机

-级超级计算机通常包含万级计算节点,节点间的高速互连对性能和能效要求极-高CPO有望成为下一E级超算(百亿亿次计算)的核心互连技术。

img3 

3CPO技术演进与市场应用路线

 

img4 

4CPO的核心应用场景

 

六、市场展望2025-2030年是关键窗口期

CPO的规模商用正在加速。根据行业预测:

2025CPO与可插拔共存元年51.2T CPO交换机800G x 64端口)开始规模部署,主要面AI集群和超大规模数据中心;可插拔光模块800G/1.6T)仍是中小规模数据中心的主流选择

2026-2028CPO爬坡期。随着硅光CPO良率提升和成本下降CPOAI集群中的渗透率显著提升;同时共封装光2.0(支1.6T/3.2T端口)开始商用

2029-2030CPO逐步成为主流3.2T/6.4T CPO交换机的成熟,加上液冷数据中心的普及CPO在新建数据中心中的占比有望超50%

2030年以后:硅光子技术-面成熟CPO成为数据中心光互连的标准配置,而全光交换All-Optical Switching)开始探索

七、结论:光互连的集成革命正在发生

CPO vs可插拔光模块,不是谁取代谁的问题,而是技术演进的不同阶段。可插拔光模块过20年推动了数据中心的蓬勃发展,未来仍将在中小规模、灵活性要求高的场景中发挥价值。

CPO则代表了光互连从分立走向集成的技术方向。随AI大模型、生成AI的爆发,数据中心对高带宽、低功耗、低延迟光互连的需求正在加CPO的商用进程。

从更长远的视角看CPO和硅光子技术的结合,将为未来数据中心、超级计算机乃6G通信提供光进电退的底层支撑。这场从芯片到封装的光学革命,才刚刚开始。