字節(jié)跳動旗下AI視頻生成模型Seedance2.0近日開啟小范圍測試,憑借其多模態(tài)交互能力與電影級視頻生成效果,迅速成為科技圈熱議焦點。這款模型支持文本或圖片輸入,能夠生成5至10秒的高質量視頻片段,在社交平臺引發(fā)創(chuàng)作熱潮。
有創(chuàng)作者利用Seedance2.0復原了1670年的紐約市風貌,通過輸入歷史文本描述,模型精準還原了阿姆斯特丹風格的建筑群與運河景觀。與谷歌Genie3世界模型的對比測試顯示,Seedance2.0在歷史場景還原的準確性上表現(xiàn)突出,其生成的城市細節(jié)獲得專業(yè)歷史學者認可。
科技界對這款模型給予高度關注。特斯拉創(chuàng)始人馬斯克在體驗后公開評價:"技術迭代速度令人驚嘆",該言論進一步推高了公眾期待值。目前測試用戶已突破十萬,生成的創(chuàng)意視頻在短視頻平臺累計播放量超五千萬次。
產品已全面接入豆包生態(tài),用戶可通過App、網頁端及電腦客戶端使用。操作流程顯著簡化:在對話框選擇"Seedance2.0"入口后,輸入提示詞即可生成視頻。特別推出的"分身視頻"功能支持用戶創(chuàng)建數(shù)字化身,經人臉識別驗證后,可讓虛擬形象完成指定動作或參與劇情演繹。
開發(fā)團隊透露,當前版本重點優(yōu)化了人物動作連貫性與光影效果,后續(xù)將開放更長時長的視頻生成能力。測試期間收集的用戶反饋顯示,87%的參與者認為模型顯著降低了視頻創(chuàng)作門檻,專業(yè)導演則關注其作為前期預覽工具的潛在價值。













