動画の「結末」を制御する新手法
AI動画生成は「運任せ」の時代から「演出」の時代へ。
ComfyUIとWanGPを駆使して、意図通りのカメラワークとストーリーを作り出す最新ワークフローを解説します。
開始画像だけでなく「終了画像」も指定し、その間をWan 2.2で補間生成。
Qwen Image Editを使って、物語の「続き」となる完璧なLast Frameを作成。
低VRAMでも動作可能な動画生成WebUIで、サクサクと動画を拡張。
🎥 今回の参考動画はこちら ▼
1. Wan 2.2 I2VのFirst & Last Frame機能とは?
こんにちは、AIアーキテクトのOKIHIROです。
これまでのImage-to-Video(I2V)は、1枚の画像を「開始点」として動画を生成するのが一般的でした。しかし、動画がどう変化していくかはAI任せで、意図しない方向にカメラが動いたり、被写体が崩れたりすることがよくありました。
今回紹介するWan 2.2 I2Vの「First Frame & Last Frame」機能は、その常識を覆します。「最初のフレーム」と「最後のフレーム」の両方を指定することで、その間の動きをAIに補間させるのです。
これにより、「女性がスマホを拾い上げる」→「カメラが空へ引いていく」といった具体的な演出やカメラワークを、驚くほど正確にコントロールできるようになります💡
2. 必要な準備(PCスペック・モデル・カスタムノード)
今回のワークフローでは、2つのツールを使い分けます。素材作りにはComfyUI、動画生成にはWanGPというツールを使用します。
推奨PCスペック
VRAMは最低でも12GB、快適に動作させるには16GB以上を推奨します。WanGP自体はVRAM 6GB程度から動作するように最適化されていますが、高解像度生成には余裕が必要です。
1. ComfyUI環境(Last Frame作成用)
まずは、動画の「ゴール」となる画像(Last Frame)を作成するための準備です。
- カスタムノード: ComfyUI Managerから「Qwen Image Edit」関連のノードをインストールしておきましょう。
- モデル:
Qwen Image Edit 2509モデルが必要です。 - LoRA: Next Scene LoRA
Hugging Faceのlovis93/next-scene-qwen-image-lora-2509からnext-scene_lora-v1-3000.safetensorsをダウンロードし、ComfyUIのmodels/lorasフォルダに入れてください。
2. WanGP(動画生成用)
Wan 2.2 I2Vを低負荷で動かせるWebUIツールです。今回は動画に従い、ComfyUIではなくこちらで動画生成を行います。
- インストール: GitHubの
DeepBeepMeep/Wan2GPリポジトリからクローンします。git clone https://github.com/deepbeepmeep/Wan2GP.git - 環境構築: 推奨はPython 3.10環境です。READMEに従って
requirements.txtをインストールしてください。
3. Step 1: ComfyUIで「最後のフレーム」を作成する
動画生成の前に、物語の着地点となる「Last Frame」を用意します。ここで活躍するのが Qwen Image Edit と Next Scene LoRA です。
このLoRAは、ある画像に対して「次のシーン」を想像して描画することに特化しています。
ワークフローの解説
- Load Image: 最初のフレーム(First Frame)となる画像を読み込みます。今回はFlux.1で生成した「荒廃した街に立つ女性」の画像を使用します。
- LoRA設定:
Next Scene LoRAをロードします。強度は 0.7 〜 0.8 程度が推奨です。強すぎると元画像から乖離しすぎ、弱すぎると変化が起きません。 - プロンプト入力: ここが最大のポイントです。プロンプトは必ず
Next Scene:という言葉から始めてください。
例:Next Scene: Camera taking a low-angle shot, showing a woman bending to pick up a damaged smartphone
(次のシーン: ローアングルから、女性が壊れたスマホを拾おうとかがむ様子) - 生成実行: これにより、「First Frameの雰囲気やキャラクターを維持したまま、アクションが進んだ画像(Last Frame)」が生成されます。
生成された画像は、必ず保存しておきましょう。ファイル名は Last Frame.png など分かりやすくしておくと便利です。
4. Step 2: WanGPで動画を生成する
素材が揃ったら、いよいよWanGPを起動して動画を生成します。
WanGPの基本設定
ブラウザでWanGP(通常は localhost:7860)を開き、以下の設定を行います。
- モデル選択:
Wan2.2 - Image2Video 14Bを選択します。 - Start Video with Image: 「Start Video with Image」を選択し、先ほどのFirst Frame画像をアップロードします。
- End Image(s): ここにチェックを入れ、ComfyUIで作成した Last Frame画像 をアップロードします。これがこの機能の核となります🚀
生成パラメータの設定
動画内で推奨されている設定は以下の通りです。
- Category (解像度): 480p (または720p)
- Aspect Ratio: 16:9
- Number of frames: 81フレーム
- Inference Steps: 4 〜 6ステップ(少なくても高品質なのがWan 2.2の特徴です)
プロンプトと生成
ComfyUIで使用したような、動きを説明するプロンプトを入力します。準備ができたら「Generate」をクリック。
完成した動画を確認すると、女性が自然に屈み込み、指定したLast Frameのポーズへと完璧に繋がっているはずです✅
5. 応用: 動画をさらに拡張する (Extend)
さらに物語を続けたい場合は、WanGPの 「Continue Video」 機能を使います。
- 生成された動画をダウンロードし、WanGPの「Video to Continue」欄にアップロードします。
- 「End Image(s)」の画像を一度削除し、新しいLast Frame(例えば、上空からの空撮画像など)をアップロードします。
- プロンプトを「カメラが上昇して街の全貌を映す」といった内容に変更し、再度生成します。
これを繰り返すことで、一貫性のある長いショートムービーを作成することが可能です。
6. まとめ
今回のワークフローのポイントは以下の3点です。
- Next Scene LoRA を使えば、ComfyUI上で「物語の続き」となる画像を簡単に作れる。
- Wan 2.2 I2V のFirst/Last Frame機能を使えば、AI動画特有の「動きの破綻」を防ぎ、確実に意図した結末へ誘導できる。
- WanGP を使えば、複雑なComfyUIワークフローを組まずとも、WebUIで手軽に高度な動画生成が可能。
この手法を使えば、映画の絵コンテを描くように、キーフレームさえ用意すれば間の動きはAIが完璧に埋めてくれます。ぜひあなたのクリエイティブワークに取り入れてみてくださいね!
