Meta 公司周四宣布推出名為 Meta Motivo 的人工智能模型,該模型旨在控制類人數(shù)字智能體的動作,從而提升元宇宙體驗。
Meta 還發(fā)布了大型概念模型 LCM 和視頻水印工具 Video Seal 等 AI 工具,并重申其對 AI、AR 和元宇宙技術(shù)持續(xù)投入的決心。
IT之家注:Meta Motivo 是一個基于行為的基礎(chǔ)模型,在 Mujoco 模擬器中進行訓(xùn)練,使用了 AMASS 動作捕捉數(shù)據(jù)集的子集和 3000 萬個在線交互樣本,通過一種新型的無監(jiān)督強化學(xué)習(xí)算法進行預(yù)訓(xùn)練,以控制復(fù)雜虛擬人形智能體的運動。
Meta Motivo 使用一種新穎的 FB-CPR 算法進行訓(xùn)練,該算法利用未標記的動作數(shù)據(jù)集,保留零樣本推理能力的同時,將無監(jiān)督強化學(xué)習(xí)引導(dǎo)至學(xué)習(xí)類似人類的行為。
盡管模型沒有經(jīng)過任何特定任務(wù)的顯式訓(xùn)練,但在預(yù)訓(xùn)練過程中,動作軌跡跟蹤(例如側(cè)手翻)、姿勢到達(例如阿拉貝斯克舞姿)和獎勵優(yōu)化(例如跑步)等任務(wù)的性能都得到了提升,展現(xiàn)出更接近人類的行為。
該算法的關(guān)鍵技術(shù)創(chuàng)新在于學(xué)習(xí)表示(representation),該表示可以將狀態(tài)、動作和獎勵嵌入到相同的潛在空間中。因此,Meta Motivo 能夠解決各種全身控制任務(wù),包括運動跟蹤、目標姿態(tài)到達和獎勵優(yōu)化,而無需任何額外的訓(xùn)練或規(guī)劃。