ComfyUI 入門:ノードベースUIで自由な画像生成を始めよう【2025年版】
最新の画像生成モデルを試したい、あるいはもっと自由に画像生成プロセスをコントロールしたいけれど、「ComfyUI」って何?どうやって始めるの?という方も多いでしょう。
大丈夫です!この記事では、2025年現在の情報に基づいて、ComfyUI の基本からインストール、そして応用的な使い方までを分かりやすく解説します。
1. ComfyUI とは?
ComfyUI は、Stable Diffusion(ステーブル・ディフュージョン)などの画像生成 AI を、より柔軟かつ詳細に制御するためのソフトウェア(ユーザーインターフェース)です。最大の特徴は、処理の流れを視覚的に組み立てるノードベースのインターフェースを採用している点です。
- Stable Diffusion:テキスト(プロンプト)や他の情報から、AI が新しい画像を生成する技術の総称。様々な派生モデル(SD1.5、SDXLなど)や関連技術(LoRA, ControlNetなど)が存在します。
- ノードベース:画像生成に必要な各ステップ(例:「モデル読み込み」「プロンプト解釈」「画像生成実行」「画像表示」)を「ノード」という箱で表現し、それらを線で繋いで処理の流れ(ワークフロー)を構築する方式です。
料理で例えるなら、「材料を用意する(モデル読み込み)」「レシピを読む(プロンプト解釈)」「調理する(画像生成)」「盛り付ける(画像表示)」といった各工程がノードで、それらを矢印で繋いで全体のレシピ(ワークフロー)を作るイメージです。これにより、処理の裏側が明確になります。
2. なぜ ComfyUI なのか?メリットと特徴
Stable Diffusion を使うツールには、より初心者向けのシンプルなUI(例:AUTOMATIC1111版 WebUI、Stable Diffusion WebUI Forge など)もありますが、ComfyUI には独自の強みがあります。
特に「画像生成の仕組みを理解したい」「他のUIではできない複雑なことをしたい」「最新技術をいち早く試したい」といった方におすすめです。
- 究極の柔軟性と透明性:
- 画像生成の「裏側」で何が起こっているかが、ノードの繋がりとして完全に可視化されます。
- これにより、ワークフローの任意の部分だけを変更・再実行したり、非常に複雑で特殊な処理(例:複数のControlNetを組み合わせる、動画生成、特定のアップスケール処理を挟むなど)を自由に構築できます。
- 効率的なリソース利用:
- ワークフローで定義された処理だけを実行するため、特にVRAM(グラフィックボードのメモリ)の使用量を最適化しやすいです。低スペックな環境でもある程度動作させやすく、高スペック環境ではより高速な処理が期待できます。
- 最新技術への迅速な対応:
- 新しいモデルや技術が登場した際に、コミュニティによってカスタムノードとして比較的早く実装・共有される傾向があります。
- ワークフローの共有と再利用:
- 作成したワークフローはファイル(.json形式や、ワークフロー情報が埋め込まれた画像ファイル)として保存・共有できます。
- Civitai などのサイトでは、他のユーザーが作成した素晴らしい画像のワークフローが多数公開されており、ダウンロードして自分の ComfyUI で読み込めます。これにより、複雑な設定をすぐに試したり、他の人のテクニックを学んだりすることが非常に簡単になります。
デメリットは、ノードの概念や接続方法に慣れるまで、他のシンプルなUIよりも学習コストが高い点です。しかし、一度基本を理解すれば、他のUIでは難しい高度なカスタマイズが可能になり、その過程自体も楽しめます。
3. インストール方法 (Windows ポータブル版)
ComfyUI のインストール方法はいくつかありますが、ここでは初心者にも簡単な Windows 向けポータブル版の手順を紹介します(2025年4月時点の情報)。(Mac や Linux の場合は手順が異なりますので、公式ドキュメント等をご確認ください)
- 公式 GitHub リポジトリへアクセス:ウェブブラウザで ComfyUI の GitHub ページを開きます。
- ポータブル版をダウンロード:ページを少し下にスクロールし、「Installing」セクションにある「Windows」の項目を見つけます。「Direct link to download」というリンクをクリックして、ポータブル版の
.7z
ファイルをダウンロードします。(ファイルサイズが大きいので、安定したネットワーク環境推奨) - 7-Zip で展開(解凍):ダウンロードした
.7z
ファイルを展開(解凍)するためのソフトウェアが必要です。まだインストールしていない場合は、「7-Zip」を公式サイトからダウンロードしてインストールしておきましょう。ダウンロードした ComfyUI のファイルを右クリックし、7-Zip を使って展開します。展開先は分かりやすい場所(例:D:\ComfyUI
など、パスに日本語や空白を含まない場所が望ましい)を選びます。 - 実行:展開してできたフォルダ(例:
ComfyUI_windows_portable
)の中にある実行ファイルを探します。お使いのNVIDIA製グラフィックボードを使用する場合はrun_nvidia_gpu.bat
を、CPUのみで実行する場合(非推奨、非常に遅い)やAMD製GPUの場合はrun_cpu.bat
をダブルクリックします。 - 起動とアクセス:初回起動時には、必要なライブラリなどのダウンロードやセットアップが自動で行われるため、コマンドプロンプト(黒い画面)が表示されてから少し時間がかかることがあります。処理が完了し、コマンドプロンプトに
To see the GUI go to: http://127.0.0.1:8188
のようなメッセージが表示されると、通常は自動的にウェブブラウザでそのアドレス(http://127.0.0.1:8188
)が開きます。(もし自動で開かない場合は、手動でアクセスしてください)ComfyUI の画面が表示されればインストール成功です!
(注意)画像生成には、十分な VRAM(ビデオメモリ)を搭載した NVIDIA 製グラフィックボード(GPU)が強く推奨されます(最低 6GB、快適には 8GB 以上、より複雑な処理には12GB以上あると安心です)。また、常に最新のインストール手順や推奨環境を公式 GitHub で確認するようにしましょう。
3.5 ComfyUI Manager の導入 (強く推奨)
基本的なセットアップが完了したら、今後のカスタムノードやモデルの管理を格段に楽にする拡張機能「ComfyUI Manager」の導入を強く推奨します。これがあるとないとでは、ComfyUI の利便性が大きく変わります。
導入には Git が必要になる場合があります。まだインストールしていない場合は、事前に Git 公式サイト などから Git をインストールしておくとスムーズです。
custom_nodes
フォルダを開く:エクスプローラーで、ComfyUI のインストール先フォルダ内にあるComfyUI\custom_nodes
フォルダを開きます。- 例:
D:\ComfyUI\ComfyUI_windows_portable\ComfyUI\custom_nodes
- 例:
- コマンドプロンプトを開く:
custom_nodes
フォルダが開いているエクスプローラーのアドレスバー(フォルダパスが表示されている場所)をクリックし、内容を消去してからcmd
と入力して Enter キーを押します。これにより、custom_nodes
フォルダをカレントディレクトリとしてコマンドプロンプトが起動します。 - Git でリポジトリをクローンする:開いたコマンドプロンプトで、以下の
git clone
コマンドを実行して、ComfyUI-Manager のリポジトリをダウンロード(クローン)します。 これにより、custom_nodes
フォルダ内にComfyUI-Manager
というフォルダが作成されます。git clone https://github.com/ltdrdata/ComfyUI-Manager.git
- ComfyUI を再起動する:【最重要】コマンドプロンプトを閉じ、必ず ComfyUI を完全に再起動してください。(実行中の
run_*.bat
を一度閉じ、再度実行します) - 確認:再起動後、ComfyUI の画面下部(または右側)のメニューに「Manager」ボタンが表示されていれば導入成功です。
(補足)Git を使わない場合は、ComfyUI-Manager の GitHub ページから ZIP ファイルをダウンロードし、展開したフォルダを custom_nodes
ディレクトリに配置することでも導入可能ですが、Git を使う方がアップデート管理が容易でおすすめです。
4. 基本的な画面構成と使い方
ComfyUI の画面(ウェブブラウザに表示されるインターフェース)は、2025年4月現在の一般的なバージョンでは、主に以下の要素で構成されます。
- キャンバス:画面中央の広大なスペース。ここにノードを配置し、線で繋いでワークフローを視覚的に構築します。マウスホイールで拡大・縮小、マウス中ボタン(またはスペースキー+左クリック)ドラッグで移動できます。
- ノード:一つ一つの処理を表す箱。左側に入力ソケット(点)、右側に出力ソケット(点)があり、ソケット同士をドラッグして線で繋ぎます。ノード内には設定値(モデル選択、プロンプト入力、数値調整スライダーなど)が含まれます。
- 上部メニューバー:画面上部にあるメニュー。「File」(Load, Save, Clearなど)、「Edit」、「View」、「Help」、そして導入済みの「Manager」ボタン、「Update」などが並びます。
- 下部コントロールバー:画面下部にある操作パネル。「Queue Prompt」(生成開始)ボタン、現在実行待ちのタスク数(キュー)表示、キャンバスのズームイン/アウトボタンなどがあります。
- サイドパネル(左右):
- 左側パネル(デフォルト):「Node Library」(利用可能なノードの一覧)、「Workflow Browser」(保存したワークフローの管理)、「Model Browser」(インストール済みモデルの確認)などのタブがあります。(表示/非表示切り替え可能)
- 右側パネル(デフォルト):「Settings」(UI設定など)、「Node Options」(選択中ノードの詳細設定)などのタブがあります。(表示/非表示切り替え可能)
基本的な操作フロー:
- ノードを追加:キャンバスの何もない場所をダブルクリックするか、右クリックして「Add Node」からカテゴリとノードを選択します。左サイドパネルの「Node Library」からドラッグ&ドロップすることも可能です。
- ノードを接続:出力ソケットから入力ソケットへドラッグして線を引きます。データの種類(MODEL, CLIP, VAE, LATENT, IMAGE, CONDITIONING など)が一致するソケット同士を繋ぎます。
- ノードを設定:「Load Checkpoint」で使用するモデルファイルを選択したり、「CLIP Text Encode」にプロンプトを入力したり、「KSampler」のステップ数や CFG スケールを調整したりします。
- 生成を実行:ワークフローが完成したら、画面下部のコントロールバーにある「Queue Prompt」ボタンをクリックします。現在処理中のノードは緑色でハイライトされます。
- 結果を確認:「Preview Image」ノードがあればキャンバス上に画像が表示され、「Save Image」ノードがあれば ComfyUI の
output
フォルダに画像が保存されます。
ComfyUI Managerの主な機能:画面上部のメニューバーにある「Manager」ボタンを押すと、新しいウィンドウが開きます。ここから、世界中の開発者が作成したカスタムノードを検索・インストールしたり、モデル(Checkpoint, LoRA, VAEなど)をCivitaiなどから直接ダウンロードしたり、インストール済みのカスタムノードを更新したりできます。
5. 簡単な画像生成ワークフローの例 (Text-to-Image)
最も基本的な「テキストから画像を生成する(Text-to-Image)」ワークフローは、以下のようなノードで構成されます。(ComfyUI 起動時にデフォルトで読み込まれることが多いです)これは全ての応用の基礎となる重要な流れです。
- Load Checkpoint (モデル読み込み):
- 役割: 画像生成の核となる Stable Diffusion モデル(例:
v1-5-pruned-emaonly.safetensors
,sd_xl_base_1.0.safetensors
など、ComfyUI/models/checkpoints
フォルダに配置)を選択・読み込みます。 - 出力: MODEL, CLIP, VAE の情報を後続のノードに渡します。
- 役割: 画像生成の核となる Stable Diffusion モデル(例:
- CLIP Text Encode (プロンプトエンコード - Positive):
- 役割: 生成したい画像の内容(ポジティブプロンプト)をテキストで入力し、モデルが理解できる形式(CONDITIONING)に変換します。
- 入力: Load Checkpoint から CLIP を受け取ります。
- 出力: CONDITIONING を KSampler へ渡します。
- CLIP Text Encode (プロンプトエンコード - Negative):
- 役割: 画像に含めたくない要素(ネガティブプロンプト)をテキストで入力し、CONDITIONING に変換します。
- 入力: Load Checkpoint から CLIP を受け取ります。
- 出力: CONDITIONING を KSampler へ渡します。
- Empty Latent Image (潜在空間の初期化):
- 役割: 画像が生成される前のノイズ状態のデータ(LATENT)を用意します。ここで画像の幅 (width)、高さ (height)、一度に生成する枚数 (batch_size) を指定します。
- 出力: LATENT を KSampler へ渡します。
- KSampler (サンプリング実行):
- 役割: モデル(MODEL)、プロンプト(CONDITIONING)、潜在空間(LATENT)の情報を受け取り、ノイズ除去の計算(サンプリング)を繰り返して画像を生成します。ステップ数(steps)、CFGスケール、サンプラー(sampler_name)などを設定します。これが画像生成の中核処理です。
- 入力: MODEL, positive, negative, latent_image を受け取ります。
- 出力: 生成された潜在空間データ (LATENT) を VAE Decode へ渡します。
- VAE Decode (ピクセル画像へデコード):
- 役割: KSampler が生成した潜在空間データ (LATENT) を、人間が見える通常のピクセル画像 (IMAGE) に変換します。
- 入力: Load Checkpoint から VAE、KSampler から LATENT を受け取ります。(別途 Load VAE ノードを使うこともあります)
- 出力: IMAGE を Save Image や Preview Image へ渡します。
- Save Image ・ Preview Image (保存・表示):
- 役割: 最終的な画像 (IMAGE) をファイルに保存したり、画面上にプレビュー表示したりします。
- 入力: VAE Decode から IMAGE を受け取ります。
これらのノードを正しく接続し、モデルを選択、プロンプトを入力して「Queue Prompt」を押せば、基本的な Text-to-Image が実行されます。まずはこの流れをしっかり理解しましょう。
6. 基本をマスターした後のステップ:さらにComfyUIを活用するために
ComfyUI をインストールし、基本ワークフローを動かせるようになったら、さらに深く、そして便利に ComfyUI を使いこなすための次のステップに進みましょう。
- モデルを用意する:Stable Diffusion のモデル(Checkpoint)は必須です。Civitai などのサイトから
.safetensors
形式のファイルをダウンロードし、ComfyUI/models/checkpoints
フォルダに入れてください。(初心者には、まずは Stable Diffusion v1.5 系 (例:v1-5-pruned-emaonly.safetensors
) や SDXL Base モデル (例:sd_xl_base_1.0.safetensors
) がおすすめです。)ComfyUI Manager を使えば、Civitai から直接ダウンロードすることも可能です。 - デフォルトワークフローを試す:ComfyUI 起動時に表示されるデフォルトのワークフローで、用意したモデルを選択し、簡単なプロンプト(例:
a cute cat
)を入力して「Queue Prompt」を押してみましょう。エラーなく画像が生成されればOKです。 - 設定値を変更してみる:KSampler の
steps
(ステップ数、多いほど詳細だが時間増)、cfg
(プロンプトへの忠実度、上げすぎると破綻しやすい)、sampler_name
(サンプリング方法、それぞれ特徴がある)、scheduler
などを変えると、生成結果がどう変わるか実験してみましょう。Empty Latent Image のwidth
やheight
を変えて画像サイズを変更してみましょう。(モデルの推奨サイズに合わせるのが基本です) - 他のワークフローを読み込んで学ぶ(超重要!):これが ComfyUI の醍醐味の一つです!
- Civitai などで公開されている魅力的な画像の多くには、その画像を生成したワークフロー(
.json
ファイル、またはワークフロー情報が埋め込まれた.png
画像)が添付されています。 - これらのファイルをダウンロードし、ComfyUI の画面にドラッグ&ドロップするか、「Load」ボタンから読み込みます。
- 【ポイント】ワークフローを読み込むと、必要なカスタムノードが不足している場合、赤色のノードで表示され、エラーメッセージが出ることがあります。その場合は慌てずに、メニューの「Manager」ボタンをクリックし、「Install Missing Custom Nodes」を選択してください。必要なノードがリストアップされるので、「Install」を押せば自動でインストールしてくれます。(インストール後は Manager の指示に従い ComfyUI の再起動かリフレッシュが必要です)
- 読み込んだワークフローは、最高の学習教材です。「なぜこのノードを使っているのか?」「なぜこのように接続されているのか?」「この設定値の意味は?」と考えながらノードを観察することで、様々なテクニックを効率的に学ぶことができます。
- Civitai などで公開されている魅力的な画像の多くには、その画像を生成したワークフロー(
- カスタムノードを探求する:ComfyUI Manager の「Install Custom Nodes」メニューから、人気のカスタムノードや特定の機能(ControlNet、顔修正、アップスケール、アニメーションなど)を持つノードを探して導入してみましょう。これにより ComfyUI の機能が無限に広がります。
- 応用機能に挑戦する:基本の Text-to-Image に慣れたら、LoRA を使った画風やキャラクターの追加、ControlNet を使ったポーズや構図の制御、Image-to-Image による元画像の加工、Inpainting による部分修正など、より高度な機能に挑戦してみましょう。
- 情報収集を続ける:ComfyUI は進化が速い分野です。公式の ComfyUI Examples、GitHub の Discussions、YouTube のチュートリアル動画、関連する Discord コミュニティなどを活用して、常に新しい情報やテクニックを学ぶことをおすすめします。
7. まとめ
この記事では、ノードベースの画像生成インターフェースである ComfyUI の概要、メリット、インストール方法、基本的な使い方、そして更なる活用のためのステップを解説しました。
特に、カスタムノードやモデルの管理を劇的に楽にする「ComfyUI Manager」の導入と、Civitai などで共有されているワークフローを読み込んで学ぶことの重要性を強調しました。これらを活用することで、初心者でも効率的に ComfyUI の使い方をマスターし、高度な画像生成に挑戦することができます。
ComfyUI は最初は少し戸惑うかもしれませんが、その自由度と奥深さは他のツールにはない魅力です。基本を理解し、コミュニティの知恵(ワークフローやカスタムノード)を活用すれば、あなたの創造性を最大限に引き出す強力なパートナーとなるでしょう。ぜひ、様々な機能を試して、あなただけの画像生成を探求してみてください!