未来的なデジタルフィルムストリップとニューラルネットワークのインターフェース。Wan 2.2による動画補間プロセスを視覚化したイメージ。

AI動画生成

【ComfyUI × WanGP】Wan 2.2 I2Vで「最初と最後」を指定して動画生成!Next Scene LoRA活用術

広告

Wan 2.2 I2V × Next Scene LoRA
動画の「結末」を制御する新手法

AI動画生成は「運任せ」の時代から「演出」の時代へ。
ComfyUIとWanGPを駆使して、意図通りのカメラワークとストーリーを作り出す最新ワークフローを解説します。

🎬First & Last Frame制御
開始画像だけでなく「終了画像」も指定し、その間をWan 2.2で補間生成。
⏭️Next Scene LoRA
Qwen Image Editを使って、物語の「続き」となる完璧なLast Frameを作成。
🛠️WanGP Tool
低VRAMでも動作可能な動画生成WebUIで、サクサクと動画を拡張。

🎥 今回の参考動画はこちら



1. Wan 2.2 I2VのFirst & Last Frame機能とは?

こんにちは、AIアーキテクトのOKIHIROです。

これまでのImage-to-Video(I2V)は、1枚の画像を「開始点」として動画を生成するのが一般的でした。しかし、動画がどう変化していくかはAI任せで、意図しない方向にカメラが動いたり、被写体が崩れたりすることがよくありました。

今回紹介するWan 2.2 I2Vの「First Frame & Last Frame」機能は、その常識を覆します。「最初のフレーム」と「最後のフレーム」の両方を指定することで、その間の動きをAIに補間させるのです。

これにより、「女性がスマホを拾い上げる」→「カメラが空へ引いていく」といった具体的な演出やカメラワークを、驚くほど正確にコントロールできるようになります💡

2. 必要な準備(PCスペック・モデル・カスタムノード)

今回のワークフローでは、2つのツールを使い分けます。素材作りにはComfyUI、動画生成にはWanGPというツールを使用します。

推奨PCスペック

VRAMは最低でも12GB、快適に動作させるには16GB以上を推奨します。WanGP自体はVRAM 6GB程度から動作するように最適化されていますが、高解像度生成には余裕が必要です。

1. ComfyUI環境(Last Frame作成用)

まずは、動画の「ゴール」となる画像(Last Frame)を作成するための準備です。

  • カスタムノード: ComfyUI Managerから「Qwen Image Edit」関連のノードをインストールしておきましょう。
  • モデル: Qwen Image Edit 2509 モデルが必要です。
  • LoRA: Next Scene LoRA
    Hugging Faceの lovis93/next-scene-qwen-image-lora-2509 から next-scene_lora-v1-3000.safetensors をダウンロードし、ComfyUIの models/loras フォルダに入れてください。

2. WanGP(動画生成用)

Wan 2.2 I2Vを低負荷で動かせるWebUIツールです。今回は動画に従い、ComfyUIではなくこちらで動画生成を行います。

  • インストール: GitHubの DeepBeepMeep/Wan2GP リポジトリからクローンします。
    git clone https://github.com/deepbeepmeep/Wan2GP.git
  • 環境構築: 推奨はPython 3.10環境です。READMEに従って requirements.txt をインストールしてください。

3. Step 1: ComfyUIで「最後のフレーム」を作成する

動画生成の前に、物語の着地点となる「Last Frame」を用意します。ここで活躍するのが Qwen Image EditNext Scene LoRA です。

このLoRAは、ある画像に対して「次のシーン」を想像して描画することに特化しています。

ワークフローの解説

  1. Load Image: 最初のフレーム(First Frame)となる画像を読み込みます。今回はFlux.1で生成した「荒廃した街に立つ女性」の画像を使用します。
  2. LoRA設定: Next Scene LoRA をロードします。強度は 0.7 〜 0.8 程度が推奨です。強すぎると元画像から乖離しすぎ、弱すぎると変化が起きません。
  3. プロンプト入力: ここが最大のポイントです。プロンプトは必ず Next Scene: という言葉から始めてください。
    例: Next Scene: Camera taking a low-angle shot, showing a woman bending to pick up a damaged smartphone
    (次のシーン: ローアングルから、女性が壊れたスマホを拾おうとかがむ様子)
  4. 生成実行: これにより、「First Frameの雰囲気やキャラクターを維持したまま、アクションが進んだ画像(Last Frame)」が生成されます。

生成された画像は、必ず保存しておきましょう。ファイル名は Last Frame.png など分かりやすくしておくと便利です。

4. Step 2: WanGPで動画を生成する

素材が揃ったら、いよいよWanGPを起動して動画を生成します。

WanGPの基本設定

ブラウザでWanGP(通常は localhost:7860)を開き、以下の設定を行います。

  • モデル選択: Wan2.2 - Image2Video 14B を選択します。
  • Start Video with Image: 「Start Video with Image」を選択し、先ほどのFirst Frame画像をアップロードします。
  • End Image(s): ここにチェックを入れ、ComfyUIで作成した Last Frame画像 をアップロードします。これがこの機能の核となります🚀

生成パラメータの設定

動画内で推奨されている設定は以下の通りです。

  • Category (解像度): 480p (または720p)
  • Aspect Ratio: 16:9
  • Number of frames: 81フレーム
  • Inference Steps: 4 〜 6ステップ(少なくても高品質なのがWan 2.2の特徴です)

プロンプトと生成

ComfyUIで使用したような、動きを説明するプロンプトを入力します。準備ができたら「Generate」をクリック。

完成した動画を確認すると、女性が自然に屈み込み、指定したLast Frameのポーズへと完璧に繋がっているはずです✅

5. 応用: 動画をさらに拡張する (Extend)

さらに物語を続けたい場合は、WanGPの 「Continue Video」 機能を使います。

  1. 生成された動画をダウンロードし、WanGPの「Video to Continue」欄にアップロードします。
  2. 「End Image(s)」の画像を一度削除し、新しいLast Frame(例えば、上空からの空撮画像など)をアップロードします。
  3. プロンプトを「カメラが上昇して街の全貌を映す」といった内容に変更し、再度生成します。

これを繰り返すことで、一貫性のある長いショートムービーを作成することが可能です。

6. まとめ

今回のワークフローのポイントは以下の3点です。

  • Next Scene LoRA を使えば、ComfyUI上で「物語の続き」となる画像を簡単に作れる。
  • Wan 2.2 I2V のFirst/Last Frame機能を使えば、AI動画特有の「動きの破綻」を防ぎ、確実に意図した結末へ誘導できる。
  • WanGP を使えば、複雑なComfyUIワークフローを組まずとも、WebUIで手軽に高度な動画生成が可能。

この手法を使えば、映画の絵コンテを描くように、キーフレームさえ用意すれば間の動きはAIが完璧に埋めてくれます。ぜひあなたのクリエイティブワークに取り入れてみてくださいね!


この記事の執筆・コーディング・デプロイは、
PythonとGemini APIで構築された自動化システムが実行しました。

開発工数をゼロにする
「完全自動化パイプライン」の仕組みを公開中。

AIツール宣伝バナー
  • この記事を書いた人
  • 最新記事

運営者:OKIHIRO

Gemini API × Python のスペシャリスト。 AI技術でWeb制作とブログ運営を完全自動化するエンジニア。 理論だけでなく、実際に動くコードとシステム設計で、クリエイターの時間を「単純作業」から解放する。 最先端AIの実装ノウハウを、どこよりも分かりやすく発信中。

-AI動画生成
-, , , ,