阿里開源通義萬相首尾幀生視頻14B模型,宣布成為業(yè)內首個開源的百億級參數(shù)規(guī)模首尾幀生視頻模型,可根據(jù)用戶指定的開始和結束圖片,生成一段能銜接首尾畫面的720p高清視頻,滿足延時攝影、變身等更可控、更定制化的視頻生成需求。用戶已可在通義萬相官網(wǎng)直接免費體驗該模型,或在GitHub、Hugging Face、魔搭社區(qū)下載模型本地部署后進行二次開發(fā)。
首尾幀生視頻比文生視頻、單圖生視頻的可控性更高,是最受AI視頻創(chuàng)作者歡迎的功能之一,但這類模型的訓練難度較大,對模型的指令遵循、視頻內容與首尾幀一致性、視頻過渡自然流暢性等均有高要求。
據(jù)介紹,基于現(xiàn)有的Wan2.1文生視頻基礎模型架構,通義萬相首尾幀生視頻模型進一步引入了額外的條件控制機制,通過該機制可實現(xiàn)流暢且精準的首尾幀變換;在訓練階段,團隊還構建了專門用于首尾幀模式的訓練數(shù)據(jù),同時針對文本與視頻編碼模塊、擴散變換模型模塊采用了并行策略,這些策略提升了模型訓練和生成效率,也保障了模型具備高分辨率視頻生成的效果。
基于該模型,用戶可完成更復雜、更個性化的視頻生成任務,可以實現(xiàn)同一主體的特效變化、不同場景的運鏡控制等視頻生成。