ByteDance 新一代 AI 影片模型,配備革命性 @-reference 系統。將文字、圖片、影片剪輯同音訊結合成單一提示。原生音畫同步、V2V 編輯功能,以及最高 2K 解像度 @ 30fps — 全部喺統一生成過程中完成。
Seedance 2.0 係 ByteDance 最先進嘅 AI 影片生成模型,喺 2026 年 2 月正式發佈。佢採用統一嘅多模態音訊影片聯合生成架構,同時支援 4 種輸入模式 — 文字、最多 9 張圖片、最多 3 段影片剪輯同最多 3 條音軌。革命性 @-reference 系統令你可以喺提示中標記特定元素,並將佢哋連結到已上載嘅參考素材,從而精確控制鏡頭移動、角色外觀、音訊節奏同視覺風格。輸出最高可達 2K 解像度,配備原生同步音訊,包括多語言口型同步、音效同背景音樂。
喺提示中使用 @Image、@Video 同 @Audio 標籤進行革命性參考標記。將特定元素連結到已上載嘅檔案,精確控制鏡頭移動、角色動作、音訊節奏同視覺風格。
喺單一生成請求中同時使用文字、最多 9 張圖片、最多 3 段影片剪輯同最多 3 條音軌。Seedance 2.0 係首個能夠同時處理全部四種輸入類型嘅模型。
聯合音訊影片合成技術可生成與視覺輸出同步嘅口型對話、音效同背景音樂。支援多語言口型同步,達到音素級別嘅精準度。
透過參考轉影片模式編輯現有影片。從已上載嘅剪輯中複製動作模式、鏡頭路徑同節奏。更改服裝、修改動作或替換元素,同時保留原始結構。
原生 2K (2048x1080) 輸出,30fps,提供多種質量級別:480p、720p 同 1080p。每次生成嘅影片時長為 4 至 15 秒。
從唔同角度上載同一個角色嘅多張參考圖片。Seedance 2.0 能夠喺多個生成嘅剪輯中保持臉部、服裝、身體比例同配件一致。
探索 Seedance 2.0 喺多模態參考控制、原生音訊生成同影片編輯方面嘅能力

“@Image1 行過 @Image2,鏡頭移動來自 @Video1,背景音樂來自 @Audio1”
結合所有模式嘅多重參考提示

“@Image1 角色跟隨 @Audio1 嘅節奏跳舞,背景係 @Image3 環境”
角色動作由音訊節奏參考引導

“一個人進行簡報,配有同步英文語音同投影片切換”
口型同步對話配合視覺內容

“烹飪教學,逐步旁白配合廚房環境聲音”
旁白與烹飪動作同步
Seedance 2.0 FAQ
“@-reference 系統真係革命性嘅突破。我可以從參考片段中提取鏡頭移動並即時應用 — 完全係一種全新嘅創作流程。”
Alex Kim: “@-reference 系統真係革命性嘅突破。我可以從參考片段中提取鏡頭移動並即時應用 — 完全係一種全新嘅創作流程。”
Priya Sharma: “原生音訊同步慳返好多後期製作時間。即使係非英語對話,口型同步嘅精準度都令人驚喜。”
Lucas Müller: “V2V 編輯功能令我可以增強現有片段而唔使重新拍攝。Seedance 2.0 已經成為我哋製作流程中嘅核心工具。”
Yuki Tanaka: “4 種輸入模式真係顛覆性嘅改變。我可以將角色設計、鏡頭移動參考同背景音樂放入同一個提示,然後得到完全符合想像嘅結果。”