私的AI研究会 > ComfyUI5
画像生成AI「ComfyUI」5(実習編)†
「ComfyUI」を使ってローカル環境でのAI画像生成を検証する
▼ 目 次
▲ 目 次
※ 最終更新:2026/03/10
「ComfyUI」いろいろなワークフローの作成†
プロジェクトで作成するワークフロー†
| このプロジェクトで作成するワークフローと関連データは下記にアップロードしている(更新されている場合は再度ダウンロードのこと) |
- ワークフローと動作環境による生成時間(分:秒)
| ワークフロー | 機 能 | CPU | CPU |
| RTX 4070 | RTX 4060 | RTX 4060L | RTX 3050 | GTX 1050 | i7-1260P | i7-1185G7 |
| test_img2img_outpaint.json | アウトペインティング1 | 00:06.34 | 00:11.41 | 00:21.29 | 00:17.07 | 01:05.91 | 19:55.85 | 07:24.03 |
| bs_i2i_outpaimt.json | アウトペインティング2 | 00:16.05 | 00:19.99 | 00:24.95 | 00:33.11 | 01:24.59 | 08:57.10 | 08:17.11 |
| s01_img2img.json | Comfyui 公式サンプル Img2Img | 00:01.67 | 00:02.85 | 00:03.54 | 00:06.46 | 00:28.08 | 03:08.13 | 02:59.00 |
| s02_hiresfix_latent.json | 2パスTxt2Img (高解像度修正) | 00:05.11 | 00:10.99 | 00:14.97 | 00:22.59 | 02:38.34 | 23:06.98 | 18:44.22 |
| s02a_hiresfix_esrgan.json | 非潜在アップスケーリング | 00:07.50 | 00:15.41 | 00:18.73 | 00:33.31 | 03:00.41 | 26:30,40 | 21:22.71 |
| tagger_t2i_base.json | 画像から同じ雰囲気の画像を生成 | 00:05.46 | 00:09.22 | 00:04,46 | 00:12.00 | 00:41.83 | 04:34.00 | 04:19.55 |
| ollama_t2i_base.json | Ollama 同じ雰囲気の画像を生成 | 00:10.62 | 00:21.87 | 00:16.18 | 00:29.46 | 01:03.96 | 05:34.55 | 05:27.80 |
| tagger_t2i_canny.json | 画像から同じ画像を再現 | 00:06.91 | 00:10.89 | 00:17.98 | 00:17.17 | 00:43.70 | 04:12.83 | 04:07.27 |
| base-sdxl.json | SDXL「text2img」基本 | 00:39.86 | 01:05.69 | 00:56.79 | 01:24.05 | 04:09.59 | 29:28.01 | 21:28.40 |
アウトペインティング1:「Pad Image for Outpainting」ノードを使用する†
Outpainting(アウトペインティング)は、AI技術を用いて元画像の周囲を拡張し、キャンバスを広げるように背景や被写体の続きを自動生成する機能 見切れた風景の補完やアスペクト比の変更、イラストの描写範囲拡大などに使われ、元の画像に自然になじむ描写が可能 |
- 主な特徴と機能
・画像拡張:
画像の端(上下左右)に続きを描き足す
・自然な描写:
元の画像のスタイルや色調を維持し、違和感なく拡張する
・用途:
風景写真の拡大、見切れたキャラクターの全身描写、バナー作成など
・技術的アプローチ:
ComfyUI内のノード(PadImageForOutpaintingなど)を用いて、元の画像に余白(パディング)を追加し、その部分をInpaint技術で描画する
- このテーマのサイト内検証ページ(参考)
- 「_base/」
bs_img2img.json『image-to-image』基本ワークフローを読み出す
①「Load Image」ノードに入力画像をドラッグ&ドロップする
②「Upscale Image」ノードを削除し「Pad Image for Outpainting」ノードを追加
③「VAE Encode」ノードを削除し「VAE Encode for inpainting」ノードを追加する
④「Load Image」の IMAGE と「Pad Image for Outpainting」image を接続
⑤「Pad Image ...」の IMAGE, MASK を「VAE Encode ...」の pixels, mask に接続
⑥「VAE Encode for inpainting」の LATENT を「KSampler」の latent_image に繋ぐ
⑦「Load Checkpoint」VAE 出力を「VAE Encode for inpainting」vae に接続する
- 『image-to-image outpainting』ワークフローの完成
①「Run」を押して画像を生成する

※ ワークフロー:「test/」
test_img2img_outpaint.json
- 『ComfyUI基本アウトペインティングワークフロー』
① 基本ワークフロー:
basic-outpainting-workflow.json をダウンロード
② ComfyUI キャンバス上にドラッグ&ドロップ
③ 追加のモデルををダウンロード → sd-v1-5-inpainting.ckpt
④「StabilityMatrix/Data/Models/StableDiffusion/SD1.5/」に配置する
⑤「Run」を押して画像を生成する
⑥「Empty Latent Image」ノードを削除する
⑦「Load Image」「Upscale Image」「VAE Encode」ノードを追加して接続
⑧「Load Checkpoint」ノードのモデルを変更する
⑨ 入力画像・プロンプト・ネガティブ・プロンプトを変更する
- 『image-to-image outpainting』ワークフローの完成
①「Run」を押して画像を生成する

※ ワークフロー:「_base/」
bs_i2i_outpaimt.json
Comfyui 公式サンプル :「Img2Img」「Txt2Img (Hires fix)」「Non latent Upscaling」†
Hires.fix(High-Res Fix)は、低解像度で生成した画像を基に、AIが詳細(ディテール)を描き加えながら高解像度化する技術 A1111 と異なり、ワークフローノードで「Latent Upscale」や「2回目のKSampler」を使って手動構築する必要があるが劇的に画質を向上させる |
- 主な特徴とメリット
・ディテールの再構築:
単なる引き伸ばし(アップスケール)と異なり、AIが情報を補完して高精細な画像を描き直すため、細かい目や鼻なども崩れにくい
・構造の維持:
低解像度で生成された全体の構図を維持したまま、高解像度化できる
・柔軟性:
2回目の生成時にデノイズ強度(Denoise)やプロンプトを調整することで、ディテールの描き込み具合を制御できる
- ComfyUIでの実装方法
・通常生成:
低解像度(例: 512x512)で画像を生成
・アップスケール:
Latent Upscale ノードでLatent(潜在空間)のサイズを拡大
・再描画:
拡大した Latentを2回目の KSampler に通し、Denoise値を0.5~0.6程度にして高精細化する
- このテーマのサイト内検証ページ(参考)
- 「Img2Img」
Img2Img は画像をロードし VAEで潜在空間に変換 1.0未満の denoise でサンプリングすることによって機能する denoise は画像に追加されるノイズの量を制御する denoiseが低いほど追加されるノイズが少なくなり画像の変化も少なくなる |
① パラメータを修正し「Run」を押して画像を生成する

※ ワークフロー:「_sample/」
s01_img2img.json
- 「2 Pass Txt2Img (Hires fix) 」2パスTxt2Img(高解像度修正)
Hires fix は低解像度で画像を作成しそれをアップスケールしてから img2img に送る ComfyUI では txt2img と img2img は同じノードである Txt2Img は最大のノイズ除去でサンプラーノードに空の画像を渡すことで実現される |
① パラメータを修正し「Run」を押して画像を生成する

※ ワークフロー:「_sample/」
s02_hiresfix_latent.json
- 「Non latent Upscaling」非潜在アップスケーリング
アップスケーリングステップに esrgan アップスケーラーを使用する方法の例 ESRGAN はピクセル空間で動作するため画像はアップスケールされた後にピクセル空間に変換され再び潜在空間に戻される必要がある |
① 追加のモデルををダウンロード → RealESRGAN_x4plus.pth
②「StabilityMatrix/Data/Models/RealESRGAN/」に配置する
③ パラメータを修正し「Run」を押して画像を生成する

※ ワークフロー:「_sample/」
s02a_hiresfix_esrgan.json
画像から:同じ雰囲気の画像を生成する†
- 元画像から「Tagger」でプロンプトを生成して生成
①「Run」を押して画像を生成する

※ ワークフロー:「_prompt/」
tagger_t2i_base.json
- 元画像から「Ollama」でプロンプトを生成して生成
画像を扱うことのできる大規模言語モデル(LLM)でプロンプトを作成して画像を生成する 入力するテキストの指示により詳細を追加することかできる |
①「Run」を押して画像を生成する

※ ワークフロー:「_prompt/」
ollama_t2i_base.json
- 生成例:
画像から:同じ画像を再現する†
- 元画像のプロンプトを生成して「ControlNet-canny」で生成
①「Run」を押して画像を生成する

※ ワークフロー:「_prompt/」
tagger_t2i_canny.json
- 生成例:
SDXL モデル「text2img」基本ワークフロー†
SDXLモデルは、Stability AI社が開発した高精細・高性能なAI画像生成モデル(1024x1024推奨) 複雑な指示の理解力が高く、自然なライティングと高解像度画像が特徴で、Base と Refiner の二段構成でさらに品質を高められる 1024x1024 が標準だが 896x1152, 1536x640 などのアスペクト比も適している |
- 主な特徴
・高解像度・高品質:
従来の SD1.5 モデルに比べ、プロンプトへの追従力や画質(特にディテール、シャドウ)が大幅に向上
・ComfyUI での利点:
VRAM 使用量が比較的少なく高速な処理が可能。ノードを視覚的に組み合わせることで、Base / Refiner の連携など複雑な工程を自在に制御できる
- モデルの構成:
基本は Base モデルで画像を生成するが、さらに詳細を描き込むための Refiner モデルを組み合わせることができる
- アニメ特化モデル:
「Pony Diffusion V6 XL」など、ファンタジー系やアニメ調に強いコミュニティモデルも多数利用可能
- 「_base/」
base.json 基本ワークフローを読み出す
①「Load Checkpoint」ノードの ckpt_name「fudukiMix_V20」を選択
②「CLIP Text Encoder」ノード 2つにプロンプト/ネガティブ・プロンプトをそれぞれ入力
| Prompt |
a woman with a short haircut and a white shirt is posing for a picture with a white background, perfect face, a character portrait, precisionism
|
| ショートヘアで白いシャツを着た女性が、白い背景、完璧な顔、人物描写、精密主義の写真のためにポーズをとっている。 |
| Negative Prompt |
worst quality,low quality,painting,sketch,flat color,monochrome,grayscale,ugly face,bad face,bad anatomy,deformed eyes,missing fingers,acnes,skin blemishes,nsfw,nude,nipples
|
| 最低品質、低品質、絵画、スケッチ、単色、モノクロ、グレースケール、醜い顔、悪い顔、悪い解剖学、変形した目、指がない、ニキビ、皮膚の傷、NSFW、ヌード、乳首 |
③「Empty Latent Image」ノードの weight → 896, height → 1152
④「Load Image」ノードの IMAGE と「Pad Image for Outpainting」image を接続
⑤「Load LoRA」ノードを 2つ配置しそれぞれ「ayane_LoRA_V20」「ClearHand-V2」を指定
⑥「Load Checkpoint」と「CLIP Text Encode」ノードの間に「Load LoRA」ノードを直列に接続する
- LoRA「ayane_LoRa_V20」「ClearHand-V2」
①「Run」を押して画像を生成する

- LoRA「ClearHand-V2」
①「Run」を押して画像を生成する

※ ワークフロー:
base-sdxl.json
更新履歴†
参考資料†
- ComfyUI Custom Node Outpainting