AIで「人物」を自在に操る。
🎥 今回の参考動画はこちら ▼
1. Wan 2.2 Animateとは? - 動画置換の新基準
AIアーキテクトのOKIHIROです。今回は、動画生成AI界隈で大きな話題となっているAlibabaの最新モデルWan 2.2 Animateについて深掘りします。
このモデルの最大の特徴は、「Video-to-Video(動画から動画へ)」の変換精度の高さにあります。既存の動画に含まれる人物の動き(モーション)を維持したまま、顔や服装だけを別のキャラクター(写真)に置き換えることができます。
動画内でも紹介されている通り、実写の人物をアニメキャラクターや映画のヒーロー、あるいは動物のキャラクターに置き換えることが可能です。しかも、これらがオープンソースとして無料で公開されている点が革新的ですね💡
2. 必要な準備(Web版・ComfyUI版)
この技術を試すには、大きく分けて2つの方法があります。PCスペックや目的に応じて選択してください。
A. Hugging Face Spaces(Webブラウザで手軽に)
ハイスペックなPCを持っていない場合や、まずは試してみたい場合はこちらがおすすめです。
- 必要なもの: Hugging Faceのアカウント(無料)
- コスト: 基本無料(GPUの待ち時間が発生する場合あり)
B. ComfyUI(ローカル環境で本格的に)
自分のPCで制限なく生成したい、画質やパラメータを細かく調整したい開発者向けです。
- PCスペック: VRAM 16GB以上のNVIDIA GPU推奨(24GBあると快適)
- 必要なソフトウェア: ComfyUI本体、Git、Python環境
- ストレージ: モデルサイズが大きいため、50GB以上の空き容量
3. ComfyUIワークフロー徹底解説
動画ではHugging Face Spacesの使用がメインでしたが、私のブログではComfyUIを使ったローカル実装についても技術的な補足を行います。ComfyUIを使えば、生成時間の制限を受けずに試行錯誤が可能です。
カスタムノードのインストール
Wan 2.2 (Wan 2.1系) をComfyUIで動かすには、以下のカスタムノードが推奨されます。ComfyUI Managerを使うとスムーズです。
- ComfyUI-WanVideoWrapper (by Kijai氏など)
- または ComfyUI-Wan
Managerで「Wan」と検索し、該当のノードをインストールして再起動してください。
モデルのダウンロードと配置
Hugging Faceの公式リポジトリ(Wan-AI/Wan2.1-T2V-14B 等)からモデルをダウンロードします。ファイルサイズが非常に大きいため(数GB〜十数GB)、通信環境に注意してください。
- Checkpoint:
Wan2.1_T2V_14B_fp8.safetensorsなどをダウンロードし、ComfyUI/models/diffusion_modelsフォルダに配置します。 - T5 Encoder: 必要に応じて
umt5-xxl-enc-bf16.safetensorsなどをmodels/text_encodersに配置します。 - VAE: Wan専用のVAEがある場合は
models/vaeに配置します。
ワークフローの構築
基本的なVideo-to-Video(人物置換)のノード接続は以下のようになります。
まず、CheckpointLoader (Wan) ノードでダウンロードしたモデルを読み込みます。この出力をメインのサンプラーノードに接続します。
次に、入力素材の準備です。Load Video ノードで元となる動画を読み込み、Load Image ノードでなりかわりたいキャラクターの画像を読み込みます。これらを WanVideoToVideo 系のノード(またはImage to Videoノードの関連入力)に接続します。ここでは、動画が「動きの参照元」、画像が「外見の参照元」として機能します。
最後に、生成結果を VAE Decode ノード経由で Video Combine ノード(ComfyUI-VideoHelperSuite等に含まれる)に接続し、動画ファイルとして保存します。これが基本的な流れです✅
4. 動画置換・アニメーション調整のコツ
高品質な結果を得るためのプロフェッショナルなTipsをまとめました。これらはWeb版、ComfyUI版共通で役立ちます。
解像度は720pが最適
入力する動画の解像度は720p(1280x720)程度にリサイズすることをお勧めします。高解像度すぎると生成エラーの原因になりやすく、低すぎるとディテールが崩れます。
顔の向きとクリアな視認性
置換元の画像(キャラクター)は、顔が正面を向いていて、はっきりと写っているものを選んでください。横顔やサングラスをかけている画像は、AIが特徴を正しく認識できず、生成結果が破綻する原因になります。
人間以外のキャラクターへの置換
動画内でも触れられていますが、リザード(トカゲ)やタコのような「人間とかけ離れた形状」への置換は、Video-to-Videoではうまくいかないことがあります。この場合は、「Photo Animate(画像を動かす)」機能を使う方が、キャラクターの形状を保ったまま動かせるため適しています。
5. まとめ
Wan 2.2 Animateは、オープンソースでありながら商用ツールに匹敵するクオリティを持つ驚異的なモデルです。Hugging Faceで手軽に試すもよし、ComfyUIで限界までチューニングするもよし。ぜひあなたのクリエイティブワークフローに取り入れてみてください。
最後に重要な注意点です。この技術は非常に強力なため、悪用(ディープフェイクによる詐欺や名誉毀損など)は厳禁です。技術は正しく使い、倫理観を持ってクリエイティブな表現に役立てましょう🚀
