画面分割で左側に人間の顔、右側に未来的なロボットの顔が表示され、データストリームで変身過程が表現されているCGイメージ。

WAN (WanVideo)

【ComfyUI】WAN 2.2 Animateで動画内の人物を別人に完全置換する方法【AI動画生成】

広告

New Workflow
動画の人物を
「WAN 2.2」で
別人に入れ替える
ComfyUIと最新AIモデルを使い、動きや物理法則を維持したまま、動画内のキャラクターを自然に置換する魔法のような手法を解説します。

🎥 今回の参考動画はこちら



1. WAN 2.2 Animateとは? - 動画置換の新たな選択肢

こんにちは、OKIHIROです。今回は、動画生成AI界隈で注目を集めている最新モデル「WAN 2.2 Animate」を活用し、動画内の人物を全く別のキャラクターに置き換える手法をご紹介します。

このモデルの最大の特徴は、「物理演算の再現性」「キャラクターの一貫性」です。元動画の人物がバスケットボールをしたり、回転したりしても、置換後のキャラクターがその動きに自然に追従します。物体との相互作用や複雑な動きも破綻しにくいのが強みですね💡

本記事では、ComfyUIを使ってこの強力なモデルを制御し、誰でも再現可能なワークフローとして解説していきます。

2. 必要な準備(PCスペック・モデル・カスタムノード)

まず、このワークフローを実行するための環境についてです。WAN 2.2 Animateは非常に高性能ですが、その分マシンパワーを必要とします。

推奨スペック

GPUのVRAMは24GB以上が推奨されています(RTX 3090/4090など)。VRAMが不足している場合は、RunPodなどのクラウドGPUサービスの利用を強くお勧めします。

必要なカスタムノード

ComfyUI Managerの「Install Missing Custom Nodes」機能を使えば、ワークフロー読み込み時に不足しているノードを一括インストールできますが、主に以下のノード群が重要になります。

  • ComfyUI-WanVideoWrapper (Kijai氏開発のラッパーノード)
  • ComfyUI-KJNodes (マスク処理等に使用)
  • ComfyUI-VideoHelperSuite (動画の読み込み・書き出し)

モデルファイルについては、Hugging Faceの「Wan-AI」等のリポジトリから、対応するWan2.1またはWan2.2系列のモデル(Checkpoints)とVAEなどをダウンロードし、ComfyUIの所定のフォルダ(models/diffusion_models等)に配置する必要があります。

3. ComfyUIワークフロー徹底解説

それでは、具体的な手順を見ていきましょう。配布されているワークフロー(動画概要欄参照)をベースに解説します。

Step 1: 元動画の読み込み設定

まず、Load Videoノードで置換元の動画を読み込みます。ここでは「フレーム数」「解像度」の設定が重要です。

VRAM容量にもよりますが、まずはframe_load_capを125フレーム(約5秒)程度に設定し、解像度は576x1024(縦長動画の場合)程度にリサイズすることをお勧めします。高解像度すぎるとエラーの原因になります。

Step 2: 参照画像 (Reference Image) の用意

次に、置換後のキャラクターとなる画像をLoad Imageノードで読み込みます。方法は2つあります。

  • 全く別のキャラクター画像: ネット上の画像や生成したキャラクター画像を使用します。全身が映っているものが好ましいです。
  • スタイル変換した画像: 元動画の1フレームを書き出し、Artlist.ioなどの画像生成AIで「アニメ風」「3D風」に変換した画像を使用します。これにより、動画全体を別のアートスタイルに作り変えることが可能です。

Step 3: マスク領域の拡張 (最重要ポイント)

このワークフローの肝となるのが、マスク処理です。Segment Anything等で人物を切り抜いた後、Grow Mask With Blurノードを使用します。

ここで重要なのがexpand(拡張)パラメータです。デフォルトの「10」では、新しいキャラクターが元より大きい場合(例:鎧を着た戦士など)、領域が足りずに途切れてしまうことがあります。

新しいキャラクターの体格に合わせて、この値を「25」程度まで大きくすることで、生成されるキャラクターが見切れるのを防げます💡

Step 4: プロンプトと生成実行

WanVideo TextEncodeノードには、動画の内容を説明するシンプルなプロンプトを入力します。例:「female clown talking」(喋っている女性のピエロ)など、簡潔な英語でOKです。

すべての設定が完了したら、「Queue Prompt」を押して生成を開始しましょう。設定にもよりますが、数分〜数十分で処理が完了します。

4. クオリティアップのコツ:アップスケーリング

生成された動画は解像度が低め(576x1024等)であるため、仕上げにアップスケーリングを行うと見違えるほど綺麗になります。

動画内では「Topaz Video AI」が推奨されています。特に「Rhea」モデルを使用し、2倍〜4倍にアップスケールすることで、細部がシャープになり、プロフェッショナルな仕上がりになります。

また、フレームレートが低い場合(16fps等)は、同時にフレーム補間(Frame Interpolation)を行うことで、60fpsの滑らかな動画に変換することも可能です。

5. まとめ

今回は、ComfyUIとWAN 2.2 Animateを用いた高度な動画置換ワークフローを解説しました。

重要なポイントは以下の3点です。

  • 物理演算に強いWANモデルを活用することで、自然な動きを実現できる。
  • マスクの拡張設定(expand)を調整し、新しいキャラの描画領域を確保する。
  • 仕上げにAIアップスケーラーを通すことで、実用レベルの画質にする。

ぜひ、あなたのクリエイティブワークに取り入れて、未来の動画編集を体験してみてくださいね🚀


この記事の自動化に使われた技術と思考法は、
すべて私の講座で「思考OS」としてインストールできます。

ツールを「使う側」から、AIを指揮して「創る側」へ。
あなたも自分だけの自動化システムを構築しませんか?

AI司令官養成ブートキャンプ
  • この記事を書いた人
  • 最新記事

運営者:OKIHIRO

Gemini API × Python のスペシャリスト。 AI技術でWeb制作とブログ運営を完全自動化するエンジニア。 理論だけでなく、実際に動くコードとシステム設計で、クリエイターの時間を「単純作業」から解放する。 最先端AIの実装ノウハウを、どこよりも分かりやすく発信中。

-WAN (WanVideo)
-, , , ,