C114通信網(wǎng)  |  通信人家園

人工智能
2025/3/21 13:39

OpenAI 發(fā)布新一代語(yǔ)音模型,讓 AI 智能體語(yǔ)音表達(dá)更自然

IT之家  故淵

OpenAI 昨日(3 月 20 日)發(fā)布博文,宣布推出語(yǔ)音轉(zhuǎn)文本(speech-to-text)和文本轉(zhuǎn)語(yǔ)音(text-to-speech)模型,提升語(yǔ)音處理能力,支持開(kāi)發(fā)者構(gòu)建更精準(zhǔn)、可定制的語(yǔ)音交互系統(tǒng),進(jìn)一步推動(dòng)人工智能語(yǔ)音技術(shù)的商業(yè)化應(yīng)用。

在語(yǔ)音轉(zhuǎn)文本模型上,OpenAI 主要推出了 gpt-4o-transcribe 和 gpt-4o-mini-transcribe 兩個(gè)模型,官方表示在單詞錯(cuò)誤率(WER)、語(yǔ)言識(shí)別和準(zhǔn)確性上超越現(xiàn)有 Whisper 系列。

這兩個(gè)模型支持超 100 種語(yǔ)言,主要通過(guò)強(qiáng)化學(xué)習(xí)和多樣化高質(zhì)量音頻數(shù)據(jù)集訓(xùn)練,能捕捉細(xì)微語(yǔ)音特征,減少誤識(shí)別,尤其在嘈雜環(huán)境、口音及不同語(yǔ)速下表現(xiàn)更穩(wěn)定。

在文本轉(zhuǎn)語(yǔ)音上,OpenAI 最新推出了 gpt-4o-mini-tts 模型,開(kāi)發(fā)者通過(guò)“模擬耐心客服”或“生動(dòng)故事敘述”等指令,控制語(yǔ)音風(fēng)格,可以應(yīng)用于客服(合成更具同理心的語(yǔ)音,提升用戶(hù)體驗(yàn))和創(chuàng)意內(nèi)容(為有聲書(shū)或游戲角色設(shè)計(jì)個(gè)性化聲音)方面。

 

 

IT之家援引博文介紹,附上三款模型費(fèi)用如下:

gpt-4o-transcribe:音頻輸入每 100 萬(wàn) tokens 費(fèi)用 6 美元、文本輸入每 100 萬(wàn) tokens 費(fèi)用 2.5 美元,輸出每 100 萬(wàn) tokens 費(fèi)用 10 美元,每分鐘成本 0.6 美分。

gpt-4o-mini-transcribe:音頻輸入每 100 萬(wàn) tokens 費(fèi)用 3 美元、文本輸入每 100 萬(wàn) tokens 費(fèi)用 1.25 美元,輸出每 100 萬(wàn) tokens 費(fèi)用 5 美元,每分鐘成本 0.3 美分。

gpt-4o-mini-tts:每 100 萬(wàn) tokens 輸入費(fèi)用為 0.60 美元,每 100 萬(wàn) tokens 輸出費(fèi)用為 12 美元,每分鐘成本 1.5 美分。

給作者點(diǎn)贊
0 VS 0
寫(xiě)得不太好

免責(zé)聲明:本文僅代表作者個(gè)人觀點(diǎn),與C114通信網(wǎng)無(wú)關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)讀者僅作參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。

熱門(mén)文章
    最新視頻
    為您推薦

      C114簡(jiǎn)介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機(jī)版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號(hào)

      C114 通信網(wǎng) 版權(quán)所有 舉報(bào)電話(huà):021-54451141