C114訊 5月24日消息(張曉寶)5月23日,由CIOE中國光博會與C114通信網(wǎng)聯(lián)合舉辦的2024中國高質(zhì)量發(fā)展論壇第四場——“AI時代:數(shù)據(jù)中心光互聯(lián)技術(shù)新趨勢”研討會成功舉行,京東光互聯(lián)架構(gòu)師陳琤在會上分享了關(guān)于《高性能計算網(wǎng)絡(luò)中的光互連》的主題發(fā)言。
京東在高性能計算網(wǎng)絡(luò)領(lǐng)域起步較早,持續(xù)在多個代際的智算拓?fù)渖献隽舜罅康耐度,?yīng)用場景涉及到了推薦算法、智能客服,AI售賣租賃、數(shù)字人直播等等。
智算網(wǎng)絡(luò)拓?fù)湟话惴譃閮深惇?dú)立的網(wǎng)絡(luò),其一是接入/存儲網(wǎng)絡(luò),主要實現(xiàn)CPU之間的互聯(lián);其二是計算網(wǎng)絡(luò),主要進(jìn)行GPU節(jié)點數(shù)據(jù)的并行協(xié)同。
整體來看,智算網(wǎng)絡(luò)對于光互連的要求主要集中于三方面,即大帶寬、低成本和低延時。
光模塊與大帶寬的關(guān)系
數(shù)據(jù)鏈路帶寬方面,首先要實現(xiàn)的是GPU與GPU之間并行多路的通信,需要注意數(shù)據(jù)傳輸過程中鏈路帶寬的情況,在計算節(jié)點內(nèi)部互聯(lián)中一般可采用C2C Full mesh的方式,連接速率可達(dá)數(shù)百GB/s。
如要實現(xiàn)不同GPU出口的通信,則要通過PCle與網(wǎng)卡連接,在進(jìn)行串并轉(zhuǎn)化后進(jìn)而通過光模塊、計算網(wǎng)絡(luò)實現(xiàn)跨端口連接。因此,當(dāng)前許多廠家均在提倡光學(xué)輸入/輸出(OIO)的形式,以突破高速互聯(lián)的瓶頸,這也是當(dāng)下的一個發(fā)展方向。
在網(wǎng)絡(luò)設(shè)備/光模塊帶寬演進(jìn)方面,當(dāng)前智算網(wǎng)絡(luò)主要部署的是50G Serdes的交換機(jī)和光模塊,光模塊類型選擇則以200G/400G等為主。當(dāng)單節(jié)點容量達(dá)到51.2T時,根據(jù)對網(wǎng)絡(luò)可拓展性的要求會去選擇不同的拓?fù)漕愋停泵赖囊恍⿵S家會選擇64x800G OSFP,國內(nèi)廠家則采用128x400G QSFP 112的封裝,但二者產(chǎn)業(yè)鏈?zhǔn)峭ㄓ玫摹?/p>
若未來單芯片交換容量達(dá)到102.4T,可插拔光模塊依然可以支持高密度大容量的光互連應(yīng)用,可以選擇64x1.6T OSFP和QSFP224-DD。。CPO也是熱門的解決方案之一,它要繼續(xù)解決可靠性的問題,還要解決建設(shè)部署中的可維護(hù)性問題。
如何降低光互連成本?
在降低光互連低成本問題中,硅基光子技術(shù)是潛在的降成本方案之一。硅光并非是全新的技術(shù),但就數(shù)據(jù)中心應(yīng)用而言是比較新的產(chǎn)品,當(dāng)前112G per lane模塊的供應(yīng)鏈上游集中于少量光器件廠家,因此硅光光模塊可以據(jù)此介入,以打破供應(yīng)緊張問題。
特別硅光模塊是可以覆蓋解決2km以內(nèi)的所有數(shù)據(jù)中心應(yīng)用場景需要的,因此京東也在進(jìn)行相應(yīng)的認(rèn)證等工作,相信不久的將來也能真正的部署到當(dāng)下網(wǎng)絡(luò)中。
線性直驅(qū)光模塊LPO/LRO當(dāng)前也是比較熱門的應(yīng)用方向,在112G per lane時代,借助于ASIC驅(qū)動能力足夠強(qiáng)的特性,可以將光模塊作減法,即去掉DSP或CDR的部分,進(jìn)而可降低光模塊的復(fù)雜程度,以達(dá)到降低成本的目的。
但其也面臨了一些挑戰(zhàn),如兼容性與互聯(lián)互通的問題,要考慮ASIC芯片對其的支持情況、不同廠家間互聯(lián)情況、新舊模塊互聯(lián)互通的情況等等問題。
還有演化可持續(xù)性的問題也要考慮進(jìn)來,如112G已可支持LPO,但如發(fā)展至224G等,就要考量LPO是否支持的可行性了。
智算網(wǎng)絡(luò)低延時問題
在低延時方面,如要實現(xiàn)整體協(xié)同的運(yùn)算保障,不同的計算節(jié)點間的GPU延時問題勢必會大大降低運(yùn)行效率,那么哪些因素通常會導(dǎo)致延時呢?
首先是基于協(xié)議,GPU的網(wǎng)絡(luò)最初基于InfiniBand(IB)的協(xié)議形式較多,在數(shù)據(jù)傳輸中可繞過CPU的參與,實現(xiàn)了不同計算節(jié)點間GPU緩存之間的數(shù)據(jù)通信,大大減少了基于協(xié)議的通信延時。
基于傳統(tǒng)以太的協(xié)議,則要CPU介入到通信整個過程,因此其延時會比較長。
在智算網(wǎng)絡(luò)中用到的是一個較為折中的方案,即RDMA方案,可借用以太協(xié)議的封裝將RDMA的內(nèi)核封裝進(jìn)去,進(jìn)而實現(xiàn)共用以太網(wǎng)的設(shè)施以實現(xiàn)降低延時。
其次則是鏈路延時,因為GPU與GPU之間的通信要經(jīng)過leaf-spine架構(gòu),并要進(jìn)行光信號轉(zhuǎn)換,實現(xiàn)數(shù)據(jù)互聯(lián),其過程中各環(huán)節(jié)也必然產(chǎn)生各種不同的延時。
如在決策類模型的時延中,可優(yōu)化項為光模塊中的信號恢復(fù)單元導(dǎo)致的延時。而在生成式模型的延時中,主要是數(shù)據(jù)傳輸時間導(dǎo)致的延時為主,而物理鏈路導(dǎo)致的延時實際占比極小。因此,這時候系統(tǒng)延時會對帶寬利用率更為敏感,要根據(jù)模型不同去優(yōu)化延時的不同方向。
最后陳琤總結(jié)到,相較于傳統(tǒng)數(shù)通網(wǎng)絡(luò),智算網(wǎng)絡(luò)帶寬的增長也會更迅速,低成本互聯(lián)有賴于新技術(shù)的支撐,如硅光、LPO/LRO等。另外,不同的模型對延時的要求是不一樣的,要優(yōu)化的方向會有所區(qū)別。