ByteDanceの次世代AI動画モデル、革新的な@-referenceシステムを搭載。テキスト、画像、動画クリップ、音声を単一のプロンプトで組み合わせられます。ネイティブな映像音声同期、V2V編集、最大2K解像度・30fpsの出力を、すべて統一された生成プロセスで実現します。
Seedance 2.0はByteDanceの最先端AI動画生成モデルで、2026年2月に発表されました。統合型マルチモーダル音声動画共同生成アーキテクチャを採用し、テキスト、最大9枚の画像、最大3本の動画クリップ、最大3本の音声トラックという4つの入力モダリティを同時に処理できます。画期的な@-referenceシステムを使用すると、プロンプト内の特定の要素にタグを付け、アップロードした参照ファイルにバインドすることで、カメラの動き、キャラクターの外見、音声のリズム、視覚スタイルを細かく制御できます。出力は最大2K解像度に達し、多言語リップシンク、効果音、背景音楽を含むネイティブ同期音声に対応しています。
プロンプト内で@Image、@Video、@Audioラベルを使用する革新的な参照タグ付け機能。特定の要素をアップロードしたファイルにバインドし、カメラの動き、キャラクターの動作、音声リズム、視覚スタイルを精密に制御できます。
テキスト、最大9枚の画像、最大3本の動画クリップ、最大3本の音声トラックを単一の生成リクエストで組み合わせられます。Seedance 2.0は4つの入力タイプすべてを同時に処理する最初のモデルです。
音声と映像の統合合成により、リップシンク対応の台詞、効果音、背景音楽を視覚出力と同期して生成します。音素レベルの精度で多言語リップシンクに対応しています。
参照-to-動画モードで既存の動画を編集。アップロードしたクリップから動作パターン、カメラパス、テンポを転写します。元の構造を保持したまま、服装の変更、アクションの修正、要素の置き換えが可能です。
ネイティブ2K(2048×1080)出力、30fps、複数の品質レベルに対応:480p、720p、1080p。生成あたりの動画長は4〜15秒です。
同じキャラクターを様々な角度から撮影した複数の参照画像をアップロード。Seedance 2.0は、生成された複数のクリップ間で顔、服装、身体プロポーション、アクセサリーの一貫性を維持します。
Seedance 2.0のマルチモーダル参照制御、ネイティブ音声生成、動画編集機能をご覧ください

“@Image1が@Image2の中を歩く、@Video1のカメラワーク、@Audio1の背景音楽”
全モダリティを組み合わせたマルチ参照プロンプト

“@Image1のキャラクターが@Audio1のリズムに合わせて@Image3の環境で踊る”
音声ビート参照でガイドされるキャラクターの動き

“英語の同期音声とスライド遷移を伴うプレゼンテーションを行う人物”
視覚コンテンツと同期したリップシンク台詞

“ステップバイステップのナレーションと台所の環境音を伴う料理チュートリアル”
料理動作と同期したナレーション
Seedance 2.0 FAQ
“@-referenceシステムは本当に革新的です。参照クリップからカメラの動きを抽出して即座に適用できる — まったく新しいクリエイティブワークフローです。”
Alex Kim: “@-referenceシステムは本当に革新的です。参照クリップからカメラの動きを抽出して即座に適用できる — まったく新しいクリエイティブワークフローです。”
Priya Sharma: “ネイティブ音声同期のおかげで後処理の時間が大幅に短縮されました。非英語の台詞でもリップシンクの精度が驚くほど高いです。”
Lucas Müller: “V2V編集を使えば、撮り直しをしなくても既存の映像を強化できます。Seedance 2.0は今や私たちの制作パイプラインの中核ツールです。”
Yuki Tanaka: “4モダリティ入力は状況を一変させます。キャラクターデザイン、カメラワークの参考、背景音楽をすべて1つのプロンプトに入れれば、思い描いた通りのものが得られるのです。”
Seedance 2.0 — ByteDanceが誇る最先端の動画生成AIをオンラインで無料体験
10,000+ users