あなたのPCへ
🎥 今回の参考動画はこちら ▼
1. Wan2GP と LTX-2 とは?
今回は、ローカル環境で手軽に動画生成AIを楽しむためのツール「Wan2GP」と、そこで動作するモデル「LTX-2」について解説します。
通常、最新の動画生成AIをローカルで動かすには、「ComfyUI」のようなノードベースの複雑なツールや、ハイエンドなGPUが必要になることが一般的です。しかし、今回紹介する「Wan2GP」は、以下の特徴を持っています。
- シンプルなUI: ノードを繋ぐ必要がなく、直感的な操作画面で完結します。
- 低負荷設計: RTX 3060(VRAM 12GB)クラスの、いわゆる「Potato Computer(そこそこのスペック)」でも動作可能です。
- LTX-2対応: Lightricks社が開発したオープンソースの動画生成モデル「LTX-2」を利用できます。
このツールを使えば、テキストからの動画生成(Text-to-Video)や、画像からの動画生成(Image-to-Video)を、自身のPC内で完結させることができます。クレジット制限や待機時間を気にする必要はありません。
2. 必要な準備と前提環境
Wan2GPをインストールする前に、いくつかのツールがインストールされている必要があります。Windows環境を前提に解説します。
以下のコマンドラインツールやライブラリが必要です。まだの場合は各公式サイトからインストールしてください。
- Git: リポジトリのクローンに使用します。
- Python 3.10: 推奨バージョンです。
- Anaconda (または Miniconda): 仮想環境の構築に推奨されています。
- CUDA Toolkit: NVIDIA GPUを使用するために必要です(バージョン11.8など、PyTorchの要件に合わせてください)。
- FFmpeg: 動画処理に必須です。パスを通しておいてください。
GPUに関しては、NVIDIA GeForce RTX 30XXシリーズ以降で、VRAM 8GB以上(できれば12GB以上)あると安定して動作します。
3. インストール手順(手動構築)
動画では「Pinokio」を使ったワンクリックインストールも紹介されていますが、環境によってはエラーが発生しやすいため、ここでは確実性の高いコマンドラインによる手動インストールの手順を解説します。
STEP 1: リポジトリのクローン
まず、任意のフォルダ(例: F:\AI など)でコマンドプロンプトを開き、GitHubからソースコードを取得します。
git clone https://github.com/deepbeepmeep/Wan2GP.gitこれにより、Wan2GP というフォルダが作成されます。
STEP 2: 仮想環境の作成
次に、Anacondaを使って専用の仮想環境を作成します。依存関係の競合を防ぐために重要です。
cd Wan2GP
conda create -n wan2gp python=3.10
conda activate wan2gpこれで wan2gp という名前の仮想環境が有効化されました。
STEP 3: 依存ライブラリのインストール
使用しているGPUに合わせて、PyTorchなどのライブラリをインストールします。例えば、RTX 30XXシリーズの場合は以下のコマンドを実行します(公式ドキュメントを参照し、ご自身の環境に合わせて選択してください)。
pip install torch==2.1.2+cu118 torchvision==0.16.2+cu118 torchaudio==2.1.2+cu118 --index-url https://download.pytorch.org/whl/cu118続いて、その他の必要なパッケージを一括インストールします。
pip install -r requirements.txtこの処理には時間がかかる場合がありますので、完了するまで待ちましょう。
4. 起動と使い方
起動スクリプトの作成
毎回コマンドを打つのは手間なので、起動用のバッチファイル(run.bat)を作成しておきましょう。Wan2GP フォルダ内に新規テキストファイルを作成し、以下の内容を記述して保存します。
@echo off
call conda activate wan2gp
python app.py
pause拡張子を .txt から .bat に変更すれば完成です。
WebUIの操作
作成した run.bat をダブルクリックするとサーバーが起動し、ブラウザでアクセスするためのURL(通常は http://localhost:7860)が表示されます。
WebUIの主な操作項目は以下の通りです。
- Model Selection: 上部のタブで「LTX-2」を選択します。低スペックPCの場合は「Distilled(蒸留版)」を選ぶと高速化できます。
- Prompt: 生成したい動画の内容を英語で入力します。
- Resolution Budget: 解像度を設定します。480p(16:9)などに設定すると、生成時間を短縮できます。
- Duration: 生成する秒数を指定します(スライダーでフレーム数調整)。
初回生成時はモデルデータのダウンロードが行われるため時間がかかりますが(動画では約25分)、2回目以降は数分程度(RTX 3060で約5分)で生成可能です。
5. まとめ
Wan2GPを使用することで、専門的なノード知識がなくても、ローカル環境でLTX-2による動画生成が可能になります。
画質を480p程度に抑えれば、エントリークラスのGPUでも十分に遊べる速度で動作します。もちろん、ハイエンドPCをお持ちであれば、より高解像度・高品質な生成も可能です。
AI動画生成の世界は日々進化しています。ぜひこの機会に、ご自身のPC環境で最新技術に触れてみてください🚀
この記事の自動化に使われた技術と思考法は、
すべて以下のアカデミーでインストールできます。