C114通信網(wǎng)  |  通信人家園

人工智能
2024/12/29 20:56

Hugging Face 研究“AI 降本增效”:給予更長運算時間讓低成本小模型輸出比擬大模型準確結(jié)果

IT之家  漾仔

目前業(yè)界模型性能通常與訓(xùn)練期間投入的資源綁定,除了頭部廠商大肆投入資源訓(xùn)練模型外,許多小型企業(yè)和個人開發(fā)者實際上并不具備足夠的資源,為了解決這一問題,許多團隊試圖尋找降本增效替代方案。

Hugging Face 于本月中旬公布一項報告,提出一種“擴展測試時計算(IT之家注:Test-Time Compute Scaling)”方法,也就是用時間來彌補模型體量,給予“低成本小模型”充足時間,讓相關(guān)模型能夠?qū)?fù)雜問題生成大量結(jié)果,再利用驗證器對這些結(jié)果進行測試及修正,反復(fù)輸出能夠比擬“高成本大模型”的結(jié)果

Hugging Face 團隊表示,他們使用這種方法利用 10 億參數(shù)的 Llama 模型進行數(shù)學(xué)基準測試,據(jù)稱在某些情境下超越了參數(shù)量高達 70 億的大型模型,證明了用時間提升模型輸出內(nèi)容效果做法可行。

此外,谷歌 DeepMind 最近也公布了類似的論文,他們認為可以為小模型動態(tài)分配運算資源,并設(shè)置驗證器對模型的解答結(jié)果進行評分,從而引導(dǎo)模型不斷輸出正確的答案,從而幫助企業(yè)以較少的資源部署足夠精度的語言模型。

給作者點贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141