WanGPのインターフェース画面と背後に浮かぶAIニューラルネットワークのイメージ図。

LTX-2

LTX-2を低VRAMで動かす!WanGP環境構築&使い方ガイド【ローカルAI動画生成】

広告

LOCAL AI TUTORIAL
LTX-2 × WanGP
低VRAMで動画生成

ComfyUIよりも軽量・高速。
「GPU Poor」のための最適化ツールで、
最新モデルをローカルで動かす手順。

🐍 🎥 ⚙️

🎥 今回の参考動画はこちら



1. LTX-2とWanGPとは? - 概要とメリット

AIアーキテクトのOKIHIROです。今回は、Lightricksがオープンソース化した最新の動画生成AIモデル「LTX-2」を、一般的なスペックのGPUでも快適に動作させるためのソリューションを紹介します。

LTX-2は、テキストから「動画」と「音声」を同時に生成できる高品質なモデルです。しかし、通常このような最新モデルをローカルで動かすには、ComfyUIなどの複雑なノード構築や、高価なハイエンドGPUが必要になることが一般的です。

そこで今回注目するのが「WanGP」というオープンソースツールです。「WanGP」は、その名の通り(皮肉交じりですが)「GPU Poor(GPU資産が乏しい人)」向けに徹底的に最適化されたWebUIです。少ないVRAM(ビデオメモリ)でも動作し、生成速度も非常に高速である点が特徴です。

2. 必要な準備(環境構築)

本記事では、動画内でも推奨されている手動インストール(Manual Installation)の手順を解説します。Pinokioなどのワンクリックインストーラーは便利ですが、Python環境の競合を引き起こす可能性があるため、開発者としてはCondaによる仮想環境の構築を強く推奨します。

前提となる環境

以下のツールがインストールされていることを確認してください。

  • NVIDIA GPU: GTX 10シリーズ以降(VRAM 8GB以上推奨)
  • Git: リポジトリのクローンに使用
  • Miniconda (または Anaconda): Python仮想環境の管理
  • FFmpeg: パスが通っていること(動画・音声処理に必須)
  • CUDA Toolkit: PyTorch等の動作に必要

3. WanGPのインストール手順

それでは、ターミナル(Windowsの場合はAnaconda Prompt推奨)を開いて、順にコマンドを実行していきましょう。

3-1. リポジトリのクローンと環境作成

まず、任意のディレクトリでWanGPのソースコードをダウンロードし、Python 3.10.9の仮想環境を作成します。

# リポジトリをクローン
git clone https://github.com/DeepBeepMeep/WanGP.git

# ディレクトリ移動(動画の手順と異なり、先に移動しておくとスムーズです)
cd WanGP

# Conda環境の作成(Python 3.10.9を指定)
conda create -n wangp python=3.10.9

# 環境のアクティベート
conda activate wangp

3-2. 依存ライブラリのインストール

次に、使用しているGPUの世代に合わせて必要なライブラリをインストールします。ここでは動画の例にならい、RTX 30シリーズ(Ampereアーキテクチャ)の場合のコマンドを紹介します。他のシリーズをお使いの方は公式GitHubのReadmeを参照してください。

# PyTorch等のインストール(RTX 30xx系向け)
pip install torch==2.6.0.dev20240924+cu124 torchvision==0.20.0.dev20240924+cu124 torchaudio==2.5.0.dev20240924+cu124 --index-url https://download.pytorch.org/whl/nightly/cu124

# 必須ライブラリのインストール
pip install -r requirements.txt

💡技術的な補足: 動画内ではSageAttentionTritonのインストールも試みていますが、Windows環境ではビルドに失敗することがよくあります。WanGPはこれらがなくても動作するように設計されていますので、エラーが出てもrequirements.txtさえ入れば基本的には問題ありません。

4. 実装・使い方の解説

4-1. アプリケーションの起動

インストールが完了したら、以下のコマンドでWebUIを起動します。もしSageAttentionのインストールに失敗している場合や、動作が不安定な場合は、--attention sdpaオプションを付けて起動してください。

# 通常起動
python wan_gp.py

# SageAttentionが使えない場合の起動(推奨)
python wan_gp.py --attention sdpa

起動すると、ブラウザが自動的に開き(http://localhost:7860)、WanGPのインターフェースが表示されます。

4-2. LTX-2モデルの選択と初回ダウンロード

UI上部にあるモデル選択タブから「LTX-2」を選びます。さらに、サブメニューで「Distilled」(蒸留版)を選択することをお勧めします。これにより、品質を維持しつつ生成速度を向上させることができます。

⚠️注意: 初めて生成ボタン(Generate)を押すと、必要なモデルデータのダウンロードが始まります。動画では合計で約50GBほどのダウンロードが発生しているため、ディスク容量と通信環境には十分ご注意ください。

4-3. 動画生成の実行

使い方は非常にシンプルです。

  • Prompt: 生成したい動画の内容を英語で入力します。
  • Resolution: 解像度を選択します。
  • Generate: ボタンを押して生成開始。

動画の実例では、RTX 30シリーズを使用し、わずか3分程度で高品質な音声付き動画が生成されていました。これはローカル環境としては驚異的な速度です。

5. まとめ

今回は、話題のLTX-2をローカル環境で手軽かつ高速に動かすためのツール「WanGP」を紹介しました。

ComfyUIは拡張性が高く素晴らしいツールですが、手っ取り早く最新モデルを試したい場合や、GPUスペックに不安がある場合には、WanGPのような特化型ツールが強力な選択肢になります。ぜひあなたのローカル環境でも、次世代の動画生成を体験してみてください。


【免責事項】本記事は、AI技術を用いて作成された部分を含みます。公開時点の情報に基づいていますが、AIの仕様変更やサービスの更新により、内容が現状と異なる場合があります。最新の情報は公式サイト等でご確認ください。
  • この記事を書いた人
  • 最新記事

運営者:OKIHIRO

Gemini API × Python のスペシャリスト。 AI技術でWeb制作とブログ運営を完全自動化するエンジニア。 理論だけでなく、実際に動くコードとシステム設計で、クリエイターの時間を「単純作業」から解放する。 最先端AIの実装ノウハウを、どこよりも分かりやすく発信中。

-LTX-2
-, , , ,