C114通信網(wǎng)  |  通信人家園

人工智能
2024/10/14 11:29

智譜開源文生圖模型CogView3-Plus,相關(guān)功能上線智譜清言App

IT之家  清源

智譜技術(shù)團隊今天宣布開源文生圖模型CogView3 及 CogView3-Plus-3B ,該系列模型的能力已經(jīng)上線“智譜清言”App。

據(jù)介紹,CogView3 是一個基于級聯(lián)擴散的 text2img 模型,其包含如下三個階段:

第一階段:利用標(biāo)準(zhǔn)擴散過程生成 512x512 低分辨率的圖像。

第二階段:利用中繼擴散過程,執(zhí)行 2 倍的超分辨率生成,從 512x512 輸入生成 1024x1024 的圖像。

第三階段:將生成結(jié)果再次基于中繼擴散迭代,生成 2048×2048 高分辨率的圖像。

官方表示,在實際效果上,CogView3 在人工評估中比目前最先進的開源文本到圖像擴散模型 SDXL 高出 77.0%,同時只需要 SDXL 大約 1/10 的推理時間。

CogView3-Plus 模型則在 CogView3(ECCV'24)的基礎(chǔ)上引入了最新的 DiT 框架,以實現(xiàn)整體性能的進一步提升。據(jù)介紹,其采用 Zero-SNR 擴散噪聲調(diào)度,并引入了文本-圖像聯(lián)合注意力機制。與常用的 MMDiT 結(jié)構(gòu)相比,它在保持模型基本能力的同時,有效降低訓(xùn)練和推理成本。CogView-3Plus 使用潛在維度為 16 的 VAE。

 

 

附地址如下:

開源倉庫地址:

https://github.com/THUDM/CogView3

Plus 開源模型倉庫:

https://huggingface.co/THUDM/CogView3-Plus-3B

https://modelscope.cn/models/ZhipuAI/CogView3-Plus-3B

給作者點贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機版

      Copyright©1999-2024 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141