ComfyUIのノードグラフ画面でWan2.2 Animate의 GGUFローダーを設定している様子。

WAN (WanVideo)

【Wan2.2 Animate】VRAM不足エラー「Allocation on device」を解消!GGUF量子化とComfyUI設定で動かす完全ガイド

広告

Wan2.2 Animateが動かない?
VRAMエラー完全攻略ガイド
140億パラメータの巨大モデルを、家庭用GPUで動かすための「GGUF量子化」と「メモリ管理術」を徹底解説します。
ComfyUI Python


1. Wan2.2 Animateと「Allocation on device」エラーの正体

最近公開された動画生成AIモデルWan2.2 Animate (14B)は、その圧倒的な表現力で注目を集めていますが、多くのComfyUIユーザーが共通の壁に直面しています。それがAllocation on device...から始まる致命的なエラーです。

このエラーの本質は、GPUのVRAM(ビデオメモリ)不足です。Wan2.2の14Bモデルは、標準的なFP16精度でロードするだけで約28GBのVRAMを必要とします。これはRTX 4090 (24GB) でさえ単体では扱いきれないサイズであり、RTX 3060 (12GB) や 4060 Ti (16GB) といった一般的なGPUでは、モデルを読み込もうとした瞬間に物理的な限界を迎えてしまいます。

しかし、諦める必要はありません。このエラーは「モデルのデータサイズを圧縮する技術」と「ComfyUIのメモリ管理設定」を組み合わせることで回避可能です。本記事では、VRAM 8GB〜12GBクラスのGPUでもWan2.2を動作させるための具体的な手順を解説します。

2. 必要な準備(環境構築・インストール)

この問題を解決するための核となる技術がGGUF量子化です。これはモデルのパラメータ精度を落とすことで、画質をほぼ維持したままファイルサイズを劇的に(1/3程度まで)小さくする技術です。

まずは、ComfyUIでGGUFモデルを扱うために必要なカスタムノードをインストールしましょう。

ComfyUI-GGUFのインストール

ComfyUI Managerを開き、「Install via Git URL」または検索機能を使って以下のリポジトリをインストールしてください。インストール後はComfyUIの再起動が必要です。

  • ComfyUI-GGUF (Author: city96)
  • URL: https://github.com/city96/ComfyUI-GGUF

GGUFモデルファイルの入手

次に、軽量化されたモデルファイルをダウンロードします。Hugging Faceなどで「Wan2.1-T2V-14B GGUF」と検索すると見つかりますが、VRAM容量に合わせて以下のバージョンを選んでください。

  • VRAM 12GB〜16GB向け: Q4_K_M.gguf (約8.75GB) - 画質と速度のバランスが良い推奨モデル。
  • VRAM 6GB〜8GB向け: Q3_K_S.gguf (約6.5GB) - 画質はわずかに落ちるが、エントリークラスでも動作可能。

ダウンロードした.ggufファイルは、ComfyUIディレクトリ内のmodels/unetまたはmodels/ggufフォルダに配置します。

3. 実装・使い方の解説

ここからは、実際にComfyUIでエラーを回避しながら動画生成を行うための具体的な設定手順を解説します。

ステップ1: 起動引数の最適化 (重要)

モデルを軽量化しても、ComfyUIのメモリ管理機能が誤作動してエラーになることがあります。これを防ぐために、ComfyUIの起動用バッチファイル(run_nvidia_gpu.batなど)を編集し、以下の引数を追加してください。

python main.py --disable-pinned-memory --normalvram

解説:

  • --disable-pinned-memory: システムRAMの一部を固定する機能を無効化します。VRAM不足時にOSが柔軟にメモリをスワップできるようになり、謎の強制終了を防ぎます。
  • --normalvram: --lowvramを使いたくなりますが、GGUF使用時はこちらの方が安定するケースが多いです。不要なデータを即座に破棄してVRAMを空ける挙動になります。

ステップ2: GGUFロード用ワークフローの構築

通常の「Load Checkpoint」ノードの代わりに、インストールしたUnet Loader (GGUF)ノードを使用します。

  • Unet Loader (GGUF): ダウンロードしたQ4_K_M.ggufなどを選択。
  • Clip Loader: テキストエンコーダとしてumt5_xxl_fp8などを別途ロード。
  • VAE Loader: wan_2.1_vae.safetensorsをロード。

これらを組み合わせてサンプラーに接続することで、巨大な14Bモデルではなく、圧縮されたモデルを使って推論が行われます。

ステップ3: Tiled VAE Decodingの導入

生成プロセスの最後(デコード時)にエラーが出る場合は、VAEの処理でメモリが溢れています。これを防ぐために、標準の「VAE Decode」ノードを「VAE Decode Tiled」に置き換えてください。

このノードは、画像を小さなタイルに分割して少しずつ処理するため、VRAM消費を劇的に抑えることができます。処理時間は少し伸びますが、12GB以下のVRAM環境で720p動画を出力するには必須のテクニックです。

4. 応用・注意点

Lightning LoRAによる高速化

VRAM不足対策として「生成時間を短くする」ことも有効です。Wan2.2用に公開されているLightning LoRAを併用すると、通常20ステップ必要な生成を4〜8ステップで完了できます。GPUが高負荷状態にある時間を減らすことで、熱暴走やタイムアウトによるエラーのリスクを低減できます。

画質とビット深度のトレードオフ

GGUFの「Q4(4ビット)」や「Q3(3ビット)」といった数字は、パラメータの圧縮率を表します。数字が小さいほど軽く動かしやすくなりますが、Q2(2ビット)まで下げると映像の破綻が目立つようになります。基本的にはQ4_K_Mを基準とし、どうしても動かない場合のみQ3、Q2と下げていくのが良いでしょう。

5. まとめ

Wan2.2 Animateで発生する「Allocation on device」エラーは、ハードウェアのスペック不足というよりも、「ソフトウェア側の工夫で乗り越えるべき課題」です。

数万円〜十数万円(数百〜千ドル)のハイエンドGPUを買い足す前に、まずは無料のGGUFモデル起動設定の見直しを試してみてください。適切な設定を行えば、RTX 3060のようなミドルレンジGPUでも、最新のAI動画生成技術を十分に楽しむことができます。


【免責事項】本記事は、AI技術を用いて作成された部分を含みます。公開時点の情報に基づいていますが、AIの仕様変更やサービスの更新により、内容が現状と異なる場合があります。最新の情報は公式サイト等でご確認ください。
  • この記事を書いた人
  • 最新記事

運営者:OKIHIRO

Gemini API × Python のスペシャリスト。 AI技術でWeb制作とブログ運営を完全自動化するエンジニア。 理論だけでなく、実際に動くコードとシステム設計で、クリエイターの時間を「単純作業」から解放する。 最先端AIの実装ノウハウを、どこよりも分かりやすく発信中。

-WAN (WanVideo)
-, , , ,