字節(jié)跳動旗下AI視頻生成模型Seedance2.0近日開啟小范圍測試,憑借其多模態(tài)交互能力與電影級視頻生成效果,迅速成為科技圈熱議焦點。該模型支持文本或圖片輸入,可自動生成5至10秒的高質(zhì)量視頻片段,其技術(shù)突破性引發(fā)行業(yè)廣泛關(guān)注。
在創(chuàng)意應(yīng)用層面,有開發(fā)者利用Seedance2.0復(fù)原了1670年的紐約城市風(fēng)貌。通過輸入歷史地圖與建筑描述,模型精準(zhǔn)還原了阿姆斯特丹風(fēng)格的街景布局,包括運(yùn)河、磚石建筑和市集場景。與谷歌Genie3世界模型的對比測試顯示,Seedance2.0在歷史場景還原的準(zhǔn)確性上表現(xiàn)更為突出,其生成的動態(tài)畫面被評價為"真正符合17世紀(jì)城市特征"。這項成果在社交平臺引發(fā)大量二次創(chuàng)作,用戶紛紛嘗試用不同歷史時期的素材進(jìn)行視頻生成。
科技界對這款模型的關(guān)注度持續(xù)升溫。特斯拉創(chuàng)始人馬斯克在體驗測試版本后公開表示:"Seedance2.0的進(jìn)化速度令人印象深刻。"這一評價進(jìn)一步推高了公眾期待值。據(jù)內(nèi)部人士透露,該模型在訓(xùn)練階段引入了超過2000小時的歷史影像資料,并采用時空連貫性算法解決動態(tài)場景中的細(xì)節(jié)失真問題。
目前Seedance2.0已全面接入豆包平臺,用戶可通過App、網(wǎng)頁端和PC客戶端使用。操作流程顯著簡化:在對話框選擇"Seedance2.0"入口后,輸入描述性文字或上傳參考圖片即可生成視頻。特別推出的"分身視頻"功能支持用戶創(chuàng)建數(shù)字化身,通過真人動作捕捉技術(shù)實現(xiàn)個性化視頻創(chuàng)作。平臺數(shù)據(jù)顯示,內(nèi)測期間用戶平均生成時長較初代產(chǎn)品縮短67%,創(chuàng)意產(chǎn)出效率大幅提升。













