AI 網(wǎng)絡正以前所未有的速度演進,這主要得益于AI能力的指數(shù)級增長以及對算力需求激增。為應對這些需求,運營商正采用以下四大核心策略,構建具備強大性能、可擴展性與創(chuàng)新性的網(wǎng)絡,從而支持下一代 AI 應用:
互聯(lián) AI 數(shù)據(jù)中心,實現(xiàn)更智能的運營
隨著超大規(guī)模數(shù)據(jù)中心在電力、土地可用性以及數(shù)據(jù)中心內部物理空間方面面臨多重限制,運營商正轉向“遠程 AI 數(shù)據(jù)中心”模式。這一趨勢包括將AI工作負載分散至多個互聯(lián)的園區(qū)中,構建能夠跨越長距離連接多個數(shù)據(jù)中心地點的光纖網(wǎng)絡。
對于大語言模型(LLM)及其他 AI 系統(tǒng)而言,將計算、內存和電力分布到各個園區(qū)能夠提升性能和效率。這種分布式方法需要低延遲、高帶寬的光纖布線,以支撐AI對密集數(shù)據(jù)處理的嚴苛需求。長距離光纖網(wǎng)絡正逐漸成為分布式AI基礎設施的骨干,使網(wǎng)絡能夠在多個數(shù)據(jù)中心之間預訓練和運行大規(guī)模AI模型,同時保持無縫連接。
為未來的可擴展性需求提前布局,而非事后補救
最成功的超大規(guī)模網(wǎng)絡能夠提前考慮未來的需求,而不是等到問題發(fā)生才做調整??蓴U展性已成為數(shù)據(jù)中心建設中的決定性因素,尤其是在AI終端應用和工作負載日益復雜的背景下?,F(xiàn)代AI模型需要更大規(guī)模、高帶寬的GPU集群,并通過大規(guī)模光纖網(wǎng)絡互聯(lián),以應對龐大的AI計算負載。這些集群不再局限于單臺服務器或單個機架(即“縱向擴展”,scale-up),而是擴展至多個機架、多棟建筑,甚至多個園區(qū)——這種增長趨勢被稱為“橫向擴展”(scale-out)。
這一演進要求更大的交換機、多平面網(wǎng)絡架構以及高密度布線架構,以實現(xiàn)GPU在可擴展單元內互聯(lián)。隨著AI節(jié)點擴展至更大網(wǎng)絡,布線需求也成倍增加。生成式AI網(wǎng)絡對光纖的需求量已是傳統(tǒng)數(shù)據(jù)中心的10倍。過去,這類架構通常采用銅纜,但隨著對更高帶寬和更長距離連接(每米可達100Gbps)的需求不斷增長,光纖已成為更經(jīng)濟且節(jié)省空間的選擇。
通過光電共封裝(CPO)技術加速網(wǎng)絡速度
光電共封裝(Co-Packaged Optics,CPO)技術代表了網(wǎng)絡設計領域的變革性創(chuàng)新,它將光器件與電子器件集成于同一封裝中,從而提升處理速度和能效。通過將光學組件直接集成到交換機中,CPO省去了電信號在轉換為光信號前長距離傳輸?shù)牟襟E,有效降低了延遲并提升了性能。
CPO 技術的采用使運營商能夠構建端口密度更高、效率更優(yōu)的大型交換機,突破傳統(tǒng)可插拔光模塊的限制。這一轉變對于應對 AI 工作負載所帶來的巨大帶寬需求至關重要,同時還能降低總體擁有成本(TCO)并提升可擴展性。隨著新一代服務器正圍繞 CPO 進行設計,該技術預計將在推動超大規(guī)模網(wǎng)絡跟上 AI 快速發(fā)展步伐中發(fā)揮核心作用。
創(chuàng)新光纖解決方案,賦能 AI 未來發(fā)展
AI 的爆發(fā)式增長正推動網(wǎng)絡運營商大膽創(chuàng)新,以支撐網(wǎng)絡基礎設施的演進。從橫向擴展 GPU 集群,到構建由長距離光纖互聯(lián)的分布式園區(qū),再到采用 CPO 技術,創(chuàng)新能力已成為在 AI 時代保持領先的關鍵。
康寧的GlassWorks? AI 解決方案組合中的創(chuàng)新產品正處在這些技術進步的核心,為 AI 網(wǎng)絡提供所需的帶寬、低延遲與高能效。通過投資前沿光纖與連接技術,運營商能夠構建足以支持日益復雜模型訓練與推理的 AI 網(wǎng)絡,同時降低運營成本。
AI 網(wǎng)絡的未來路徑已然清晰:運營商必須聚焦于基礎設施的可擴展性、分布式部署與技術創(chuàng)新,以支撐下一代 AI 應用的發(fā)展。通過擁抱這四大關鍵趨勢——可擴展性、分布式網(wǎng)絡、CPO 技術以及先進光纖解決方案——運營商就能夠“今日構建明日網(wǎng)絡”,充分釋放 AI 的全部潛能。
作者:Brian Rhoney 康寧公司數(shù)據(jù)中心市場發(fā)展總監(jiān)