今天凌晨,谷歌正式發(fā)布了為新智能體時代構(gòu)建的下一代模型——Gemini 2.0。
這是谷歌迄今為止功能最強的AI模型,帶來了更強的性能、更多的多模態(tài)表現(xiàn)(如原生圖像和音頻輸出)和新的原生工具應(yīng)用。
Gemini 2.0關(guān)鍵基準測試中相較于前代產(chǎn)品Gemini 1.5 Pro實現(xiàn)了性能的大幅提升,速度甚至達到了后者的兩倍。
支持圖像、視頻和音頻等多模態(tài)輸入與輸出,例如與文本混合的原生文生圖和可自定義的文本轉(zhuǎn)語音(TTS)多語言音頻內(nèi)容。
此外還支持原生調(diào)用工具,如Google搜索、代碼執(zhí)行以及第三方用戶定義函數(shù)等,為用戶提供了更為便捷和強大的功能。
在技術(shù)層面,Gemini 2.0采用了最新的機器學(xué)習和深度學(xué)習算法,提升了神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和效率,特別是在自然語言處理(NLP)領(lǐng)域表現(xiàn)出色。
這些技術(shù)的創(chuàng)新使得Gemini 2.0能夠更好地理解和生成自然語言,增強了人機交互的智能性。
即日起,開發(fā)人員便可在AI Studio和Vertex AI中對Gemini 2.0 Flash實驗版本進行試用,而且該版本也已經(jīng)在網(wǎng)頁版中為Gemini Advanced開放試用,移動版后續(xù)也將推出。
為了幫助開發(fā)者構(gòu)建動態(tài)和交互式應(yīng)用程序,谷歌還發(fā)布了新的Multimodal Live API,具有實時音頻、視頻流輸入以及使用多個組合工具的能力。