C114通信網(wǎng)  |  通信人家園

專題
2024/5/24 15:44

京東光互聯(lián)架構(gòu)師陳琤:高性能計算網(wǎng)絡(luò)中的光互連

C114通信網(wǎng)  張曉寶

C114訊 5月24日消息(張曉寶)5月23日,由CIOE中國光博會與C114通信網(wǎng)聯(lián)合舉辦的2024中國高質(zhì)量發(fā)展論壇第四場——“AI時代:數(shù)據(jù)中心光互聯(lián)技術(shù)新趨勢”研討會成功舉行,京東光互聯(lián)架構(gòu)師陳琤在會上分享了關(guān)于《高性能計算網(wǎng)絡(luò)中的光互連》的主題發(fā)言。

京東在高性能計算網(wǎng)絡(luò)領(lǐng)域起步較早,持續(xù)在多個代際的智算拓?fù)渖献隽舜罅康耐度,?yīng)用場景涉及到了推薦算法、智能客服,AI售賣租賃、數(shù)字人直播等等。

智算網(wǎng)絡(luò)拓?fù)湟话惴譃閮深惇?dú)立的網(wǎng)絡(luò),其一是接入/存儲網(wǎng)絡(luò),主要實現(xiàn)CPU之間的互聯(lián);其二是計算網(wǎng)絡(luò),主要進(jìn)行GPU節(jié)點數(shù)據(jù)的并行協(xié)同。

整體來看,智算網(wǎng)絡(luò)對于光互連的要求主要集中于三方面,即大帶寬、低成本和低延時。

光模塊與大帶寬的關(guān)系

數(shù)據(jù)鏈路帶寬方面,首先要實現(xiàn)的是GPU與GPU之間并行多路的通信,需要注意數(shù)據(jù)傳輸過程中鏈路帶寬的情況,在計算節(jié)點內(nèi)部互聯(lián)中一般可采用C2C Full mesh的方式,連接速率可達(dá)數(shù)百GB/s。

如要實現(xiàn)不同GPU出口的通信,則要通過PCle與網(wǎng)卡連接,在進(jìn)行串并轉(zhuǎn)化后進(jìn)而通過光模塊、計算網(wǎng)絡(luò)實現(xiàn)跨端口連接。因此,當(dāng)前許多廠家均在提倡光學(xué)輸入/輸出(OIO)的形式,以突破高速互聯(lián)的瓶頸,這也是當(dāng)下的一個發(fā)展方向。

在網(wǎng)絡(luò)設(shè)備/光模塊帶寬演進(jìn)方面,當(dāng)前智算網(wǎng)絡(luò)主要部署的是50G Serdes的交換機(jī)和光模塊,光模塊類型選擇則以200G/400G等為主。當(dāng)單節(jié)點容量達(dá)到51.2T時,根據(jù)對網(wǎng)絡(luò)可拓展性的要求會去選擇不同的拓?fù)漕愋停泵赖囊恍⿵S家會選擇64x800G OSFP,國內(nèi)廠家則采用128x400G QSFP 112的封裝,但二者產(chǎn)業(yè)鏈?zhǔn)峭ㄓ玫摹?/p>

若未來單芯片交換容量達(dá)到102.4T,可插拔光模塊依然可以支持高密度大容量的光互連應(yīng)用,可以選擇64x1.6T OSFP和QSFP224-DD。。CPO也是熱門的解決方案之一,它要繼續(xù)解決可靠性的問題,還要解決建設(shè)部署中的可維護(hù)性問題。

如何降低光互連成本?

在降低光互連低成本問題中,硅基光子技術(shù)是潛在的降成本方案之一。硅光并非是全新的技術(shù),但就數(shù)據(jù)中心應(yīng)用而言是比較新的產(chǎn)品,當(dāng)前112G per lane模塊的供應(yīng)鏈上游集中于少量光器件廠家,因此硅光光模塊可以據(jù)此介入,以打破供應(yīng)緊張問題。

特別硅光模塊是可以覆蓋解決2km以內(nèi)的所有數(shù)據(jù)中心應(yīng)用場景需要的,因此京東也在進(jìn)行相應(yīng)的認(rèn)證等工作,相信不久的將來也能真正的部署到當(dāng)下網(wǎng)絡(luò)中。

線性直驅(qū)光模塊LPO/LRO當(dāng)前也是比較熱門的應(yīng)用方向,在112G per lane時代,借助于ASIC驅(qū)動能力足夠強(qiáng)的特性,可以將光模塊作減法,即去掉DSPCDR的部分,進(jìn)而可降低光模塊的復(fù)雜程度,以達(dá)到降低成本的目的。

但其也面臨了一些挑戰(zhàn),如兼容性與互聯(lián)互通的問題,要考慮ASIC芯片對其的支持情況、不同廠家間互聯(lián)情況、新舊模塊互聯(lián)互通的情況等等問題。

還有演化可持續(xù)性的問題也要考慮進(jìn)來,如112G已可支持LPO,但如發(fā)展至224G等,就要考量LPO是否支持的可行性了。

智算網(wǎng)絡(luò)低延時問題

在低延時方面,如要實現(xiàn)整體協(xié)同的運(yùn)算保障,不同的計算節(jié)點間的GPU延時問題勢必會大大降低運(yùn)行效率,那么哪些因素通常會導(dǎo)致延時呢?

首先是基于協(xié)議,GPU的網(wǎng)絡(luò)最初基于InfiniBand(IB)的協(xié)議形式較多,在數(shù)據(jù)傳輸中可繞過CPU的參與,實現(xiàn)了不同計算節(jié)點間GPU緩存之間的數(shù)據(jù)通信,大大減少了基于協(xié)議的通信延時。

基于傳統(tǒng)以太的協(xié)議,則要CPU介入到通信整個過程,因此其延時會比較長。

在智算網(wǎng)絡(luò)中用到的是一個較為折中的方案,即RDMA方案,可借用以太協(xié)議的封裝將RDMA的內(nèi)核封裝進(jìn)去,進(jìn)而實現(xiàn)共用以太網(wǎng)的設(shè)施以實現(xiàn)降低延時。

其次則是鏈路延時,因為GPU與GPU之間的通信要經(jīng)過leaf-spine架構(gòu),并要進(jìn)行光信號轉(zhuǎn)換,實現(xiàn)數(shù)據(jù)互聯(lián),其過程中各環(huán)節(jié)也必然產(chǎn)生各種不同的延時。

如在決策類模型的時延中,可優(yōu)化項為光模塊中的信號恢復(fù)單元導(dǎo)致的延時。而在生成式模型的延時中,主要是數(shù)據(jù)傳輸時間導(dǎo)致的延時為主,而物理鏈路導(dǎo)致的延時實際占比極小。因此,這時候系統(tǒng)延時會對帶寬利用率更為敏感,要根據(jù)模型不同去優(yōu)化延時的不同方向。

最后陳琤總結(jié)到,相較于傳統(tǒng)數(shù)通網(wǎng)絡(luò),智算網(wǎng)絡(luò)帶寬的增長也會更迅速,低成本互聯(lián)有賴于新技術(shù)的支撐,如硅光、LPO/LRO等。另外,不同的模型對延時的要求是不一樣的,要優(yōu)化的方向會有所區(qū)別。

給作者點贊
0 VS 0
寫得不太好

版權(quán)說明:C114刊載的內(nèi)容,凡注明來源為“C114通信網(wǎng)”或“C114原創(chuàng)”皆屬C114版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載我方內(nèi)容的單位,也必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和本站來源。編譯類文章僅出于傳遞更多信息之目的,不代表證實其描述或贊同其觀點;翻譯質(zhì)量問題請指正

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機(jī)版

      Copyright©1999-2024 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141