ホログラムの光を放つフィルムリールが、人間のシルエットをサイバーパンクなキャラクターに変換している様子を描いたシネマティックな画像。

WAN (WanVideo)

ComfyUIで動画の人物を別人へ!最新モデル「Wan 2.2 Animate」完全ガイド

広告

AI VIDEO WORKFLOW
動画の中の「あの人」を
AIで別人へ変身させる

ComfyUIと最新モデル「Wan 2.2 Animate」があれば、動きはそのままでキャラクターだけを自由自在に入れ替えることが可能です。PC1台で実現する、魔法のような映像編集の世界へご案内します。


🎥 今回の参考動画はこちら



1. Wan 2.2 Animateとは? - 動画置換の革新

AIアーキテクトのOKIHIROです。今回は、動画生成AI界隈で話題沸騰中の「Wan」シリーズ、特に「Wan 2.2 Animate」と呼ばれるワークフローに焦点を当てます。

これは、Alibaba Cloudが開発した強力な動画生成モデル「Wan 2.1」をベースに、動画内の被写体(人物)をマスクで特定し、その動きを維持したまま別のキャラクターに描き変える技術です。

最大の特徴は、従来の技術よりも物理演算(髪の揺れや服のなびき)の再現性が高く、入力した動画の動きを忠実にトレースできる点にあります。

2. 必要な準備(PCスペック・モデル・カスタムノード)

このワークフローは比較的高負荷です。推奨されるPC環境は、VRAM 16GB以上のNVIDIA GPUです(動画ではRTX 4090 24GBを使用)。

必須モデルのダウンロード

ComfyUI Manager等を通じて、Hugging Faceなどから以下のモデルファイルを入手し、所定のフォルダ(ComfyUI/models/...)に配置する必要があります。

  • Checkpoints (Wan2.1): Wan2.1_14B_fp8_e4m3fn_scaled.safetensors などのメインモデル。
  • VAE: Wan2.1_VAE.safetensors
  • CLIP / T5 Encoder: umt5_xxl_fp8_e4m3fn_scaled.safetensors

必須カスタムノード

ComfyUI Managerの「Install Missing Custom Nodes」機能を使えば自動で検出されますが、主に以下のノード群が必要です。

  • ComfyUI-WanVideoWrapper: WanモデルをComfyUIで扱うためのラッパー。
  • ComfyUI-Segment-Anything-2: 動画内の対象物を高精度に切り抜くためのSAM2モデル。
  • ComfyUI-KJNodes: 汎用的な便利ノード群。

3. ComfyUIワークフロー徹底解説

それでは、実際の構築手順を見ていきましょう。複雑に見えるノード群も、役割ごとに分割すれば理解しやすくなります。

ステップ1:素材のロードと解像度設定

まずは左側の入力エリアから設定します。

  • Load Video: 元となる動画ファイルを読み込みます。処理負荷を考慮し、1080p以下の解像度が推奨されています。
  • Load Image: 入れ替えたいキャラクターの画像を読み込みます(例:海賊の女性のAI生成画像など)。
  • Video Size: 出力解像度を設定します。幅と高さは必ず16の倍数である必要があります(例: 576x1024)。

ステップ2:プロンプトの入力

CLIP Text Encode ノードに、映像の内容を簡潔な英語で記述します。

例:female pirate dancing(踊っている海賊の女性)

ここには複雑な呪文を入れるよりも、アクションとキャラクターの属性をシンプルに伝える方が良い結果が出やすいです。

ステップ3:ポイントエディタによる対象指定(最重要)

このワークフローの肝となるのが、Points Editor ノードです。これはAIに対象物を教えるための指示出しを行います。

  • 緑色の点: 動画内の「残したい人物(被写体)」の上に打ちます。Shift + 左クリックで追加できます。
  • 赤色の点: 背景や「除外したい部分」の上に打ちます。Shift + 右クリックで追加できます。

点は多ければ多いほど精度が上がります。特に手足の先や頭部など、動きが大きい部分には丁寧に緑色の点を打ってください。

ステップ4:マスク領域の拡張(Grow Mask)

Grow Mask ノードの設定も重要です。元の人物よりも新しいキャラクターの服や髪が大きい場合、マスク領域を広げる必要があります。

デフォルトは「10」ですが、衣装が豪華なキャラクターに入れ替える場合は「35」程度まで数値を上げ、描画領域に余裕を持たせましょう。

ステップ5:モード選択(Mix vs Move)

Wan 2.2 Animateには2つの動作モードがあります。

  • Mix Mode: 背景は元の動画のまま、キャラクターだけを入れ替えます(デフォルト)。
  • Move Mode: 元動画の「動き」だけを抽出し、背景も含めて参照画像の世界観に書き換えます。

Move Modeに切り替えるには、WanAnimate ノードへの background_videocharacter_mask の接続を切断します。

4. 生成と調整のコツ

プレビュー用設定の活用

動画生成は時間がかかります。マスクの指定が正しいかを確認するためには、一度 KSampler ノードを選択して Ctrl + B を押し、一時的に無効化(Bypass)します。

この状態で「Queue Prompt」を実行すると、ポイントエディタの最初のフレーム処理だけが走り、マスクが正しく生成されているかを即座に確認できます。確認後に再度 Ctrl + B で有効化して本番生成を行いましょう。

フレーム数の調整

デフォルトでは77フレーム(約3〜4秒)の生成設定になっています。より長い動画を作りたい場合は、Video Extend グループのノードを有効化(Unbypass)し、フレーム数を81以上に設定することで対応可能です。

5. まとめ

Wan 2.2 Animateを使えば、実写のダンサーをアニメキャラクターに変えたり、自分の動画を映画のワンシーンのように加工したりすることが、PC1台で完結します。

特に物理演算の自然さは特筆すべきもので、服の揺れや髪の動きが非常にリアルです。ぜひこのワークフローを導入して、AI動画制作の新たな可能性に挑戦してみてください。


この記事の自動化に使われた技術と思考法は、
すべて私の講座で「思考OS」としてインストールできます。

ツールを「使う側」から、AIを指揮して「創る側」へ。
あなたも自分だけの自動化システムを構築しませんか?

AI司令官養成ブートキャンプ
  • この記事を書いた人
  • 最新記事

運営者:OKIHIRO

Gemini API × Python のスペシャリスト。 AI技術でWeb制作とブログ運営を完全自動化するエンジニア。 理論だけでなく、実際に動くコードとシステム設計で、クリエイターの時間を「単純作業」から解放する。 最先端AIの実装ノウハウを、どこよりも分かりやすく発信中。

-WAN (WanVideo)
-, , , ,