C114訊 2月10日消息(水易)中國(guó)AI初創(chuàng)公司深度求索(DeepSeek)憑借DeepSeek-R1、V3等系列開(kāi)源模型,號(hào)稱(chēng)能以O(shè)pen AI的3%-5%成本,實(shí)現(xiàn)媲美甚至超過(guò)Chat GPT的性能,引發(fā)了業(yè)界對(duì)“算力為王”和“scaling law”的疑問(wèn)。
不過(guò)在市場(chǎng)研究機(jī)構(gòu)TrendForce集邦咨詢(xún)看來(lái),DeepSeek模型雖降低AI訓(xùn)練成本,但AI模型的低成本化可望擴(kuò)大應(yīng)用場(chǎng)景,進(jìn)而增加全球數(shù)據(jù)中心建置量。
另外,DeepSeek與CSP,AI軟件業(yè)者將共同推動(dòng)AI應(yīng)用普及,特別是未來(lái)的大量數(shù)據(jù)將會(huì)在邊緣端生成,意味著工廠、無(wú)線基地臺(tái)等場(chǎng)域需布建大量微型數(shù)據(jù)中心。
光收發(fā)模塊作為數(shù)據(jù)中心互連的關(guān)鍵組件,將受惠于高速數(shù)據(jù)傳輸?shù)男枨。TrendForce指出,未來(lái)AI服務(wù)器之間的數(shù)據(jù)傳輸,都需要大量的高速光收發(fā)模塊,這些模塊負(fù)責(zé)將電信號(hào)轉(zhuǎn)換為光信號(hào)并通過(guò)光纖傳輸,再將接收到的光信號(hào)轉(zhuǎn)換回電信號(hào)。
根據(jù)TrendForce統(tǒng)計(jì),2023年400Gbps以上的光收發(fā)模塊全球出貨量為640萬(wàn)個(gè),2024年約2,040萬(wàn)個(gè),預(yù)估至2025年將超過(guò)3,190萬(wàn)個(gè),年增長(zhǎng)率達(dá)56.5%。
據(jù)了解,從美國(guó)幾大主流云服務(wù)廠商發(fā)布的2025年CAPEX指引來(lái)看,亞馬遜為1000億美元,微軟為800億美元,谷歌為750億美元,Meta為600-650億美元,合計(jì)超過(guò)3000億美元。
OpenAI聯(lián)合創(chuàng)始人Sam Altman也撰文表示,算力依然是基礎(chǔ),AI模型的智能大致等于用于訓(xùn)練和運(yùn)行它的資源的對(duì)數(shù)。與此同時(shí),AI成本每12個(gè)月下降10倍,較低的價(jià)格會(huì)帶來(lái)更多使用。