ネオン輝くサイバーパンクな都市を疾走するスポーツカー。ComfyUIとWan 2.2による長編動画生成のイメージ。

WAN (WanVideo)

ComfyUI × Wan 2.2 で長編動画を作る方法!ループ処理とImage-to-Video完全解説

広告

LATEST AI WORKFLOW
Wan 2.2 I2Vで
「終わらない動画」を作る
たった1枚の画像から、物語のある長編動画へ。
ComfyUIのループ処理と最新モデルWan 2.2を駆使した、
途切れない高品質な映像生成術を伝授します。

🎥 今回の参考動画はこちら



1. Wan 2.2 Image to Videoとは?

今回は、最新のAI動画生成モデルWan 2.2 Image to Video (I2V)を使用した、高度なワークフローをご紹介します。従来の動画生成AIは数秒程度の短いクリップしか作れないことが課題でしたが、今回の手法を使えば、一枚の画像を起点に、ストーリー性のある長尺動画を生成することが可能になります。

本記事のゴールは、ループ処理(Loop Mechanism)を活用して、継ぎ目のない滑らかな長編動画を作成することです。単に動画を繋げるだけでなく、「プロンプトトラベル」によってシーンごとの展開を制御し、「カラーマッチング」で色調の一貫性を保つ、プロフェッショナルなテクニックを解説します。

2. 必要な準備(モデル・カスタムノード)

このワークフローを実行するには、以下の環境とリソースが必要です。特にVRAM消費が激しいため、環境に合わせたモデル選びが重要です。

必須モデルとLoRA

以下のモデルをHugging Face等からダウンロードし、ComfyUIの所定のフォルダ(`models/diffusion_models` や `models/loras`)に配置してください。

  • Wan 2.2 I2V Model: 本体の拡散モデルです。VRAM容量に応じて、通常版(SafeTensor)または軽量化されたGGUF版(Q4_K_Mなど)を選択してください。
  • LightX2V LoRA: Wan 2.2用の画質向上・動き制御用のLoRAです。
  • VAE & Text Encoder: Wan 2.2に対応したT5エンコーダーとVAEが必要です。

推奨カスタムノード

ComfyUI Managerを使用して、以下のノード群をインストールしてください。

  • ComfyUI-Wan: Wanモデルをネイティブに扱うための基本ノード群。
  • ComfyUI-GGUF: 低VRAM環境でGGUFモデルを使用する場合に必須です。
  • SageAttention: 推論速度を向上させるためのアテンション最適化ライブラリです(導入にはPython環境でのビルドが必要な場合があります)。

3. ComfyUIワークフロー徹底解説

それでは、実際のワークフロー構築手順を見ていきましょう。このシステムは、スパゲッティのようにノードを無限に繋ぐのではなく、ループ構造を利用してスマートに処理を行います。

Step 1: 動画設定と初期計算

まず、動画全体の長さとフレームレートを決定します。今回は25fpsを基準とし、生成したい秒数(例: 28秒)から総フレーム数(例: 726フレーム)を算出します。重要なのは「1回のループで生成するフレーム数(Sampler Length)」の設定です。ここでは約5秒分に相当する121フレームを設定します。

Step 2: 3段階サンプラー構成 (Advanced 3-Sampler Method)

ここが画質の鍵です。単一のKSamplerではなく、以下の3段階で生成を行うことで、プロンプトの反映度と画質を劇的に向上させます。

  1. High Noise Model: 動画の大まかな動きと構図を決定します。
  2. High Noise + LoRA: LightX2V LoRAを適用し、動きの質とディテールを強化します。
  3. Low Noise Model: 最後にノイズを除去し、詳細を描き込んで仕上げます。

この3段構えにより、AI特有の「崩れ」を最小限に抑えつつ、ダイナミックな動きを実現します。

Step 3: ループ処理とプロンプトトラベル

長編動画の核心部分です。Loop BeginLoop End ノードを使用し、以下の処理を繰り返します。

  • 前回の最終フレームを入力にする: 最初のループは「初期画像」を使いますが、2回目以降は「前のループで生成された動画の最後のフレーム」を開始画像として使用します。
  • プロンプトの切り替え: テキストボックスに行単位でプロンプトを記述し、ループ回数(Index)に応じて読み込むプロンプトを切り替えます。これにより、「座っている → 立ち上がる → 歩き出す」といったストーリー展開が可能になります。

Step 4: カラーマッチングによる一貫性維持

長時間の生成を続けると、徐々に色味が変わってしまうことがあります。これを防ぐため、最初のループで生成された画像の色情報を参照(Reference)し、以降の全フレームにカラーマッチングを適用します。これにより、シーンが変わっても統一感のある映像トーンを維持できます。

4. 品質の底上げとVRAM対策

フレーム補間 (Frame Interpolation)

生成直後の動画は25fpsですが、さらに滑らかにするためにフレーム補間を行います。RIFE等のノードを使用してフレーム数を倍(50fpsや60fps)にすることで、プロのようなヌルヌル動く映像になります。

VRAM不足への対策

Wan 2.2は高画質ですが重いモデルです。VRAMエラー(OOM)が出る場合は、以下の対策を行ってください。

  • GGUFモデルの使用: FP8やFP16の代わりに、量子化されたGGUFモデルを使用することで、VRAM使用量を大幅に削減できます。
  • 解像度の調整: 720p (1280x720) が厳しい場合は、480p (854x480) 程度に落として生成し、後からアップスケールする手法が有効です。
  • Tiled VAEの使用: VAEのデコード時にメモリを節約します。

5. まとめ

今回解説したワークフローを使えば、ComfyUIとWan 2.2 I2Vの力を最大限に引き出し、映画のような長編動画を個人で制作することが可能になります。

ポイントは、「ループ処理による無限の拡張性」「3段階サンプラーによる高画質化」、そして「カラーマッチングによる一貫性」です。これらを組み合わせることで、従来のAI動画生成の限界を突破できます。ぜひあなたのPCで、まだ見ぬ物語を紡ぎ出してみてください。


この記事の執筆・コーディング・デプロイは、
PythonとGemini APIで構築された自動化システムが実行しました。

開発工数をゼロにする
「完全自動化パイプライン」の仕組みを公開中。

AIツール宣伝バナー
  • この記事を書いた人
  • 最新記事

運営者:OKIHIRO

Gemini API × Python のスペシャリスト。 AI技術でWeb制作とブログ運営を完全自動化するエンジニア。 理論だけでなく、実際に動くコードとシステム設計で、クリエイターの時間を「単純作業」から解放する。 最先端AIの実装ノウハウを、どこよりも分かりやすく発信中。

-WAN (WanVideo)
-, , , ,