私的AI研究会 > Diffusion > ComfyUI5
画像生成AI「ComfyUI」5(実習編) == 編集中 ==†
「ComfyUI」を使ってローカル環境でのAI画像生成を検証する
▼ 目 次
▲ 目 次
※ 最終更新:2025/11/12
「ComfyUI」いろいろなワークフローの作成†
プロジェクトで作成するワークフロー†
アウトペインティング1:「Pad Image for Outpainting」ノードを使用する†
bs_img2img.json『image-to-image』基本ワークフローを読み出す
①「Load Image」ノードに入力画像をドラッグ&ドロップする
②「Upscale Image」ノードを削除し「Pad Image for Outpainting」ノードを追加
③「VAE Encode」ノードを削除し「VAE Encode for inpainting」ノードを追加する
④「Load Image」の IMAGE と「Pad Image for Outpainting」image を接続
⑤「Pad Image ...」の IMAGE, MASK を「VAE Encode ...」の pixels, mask に接続
⑥「VAE Encode for inpainting」の LATENT を「KSampler」の latent_image に繋ぐ
⑦「Load Checkpoint」VAE 出力を「VAE Encode for inpainting」vae に接続する
- 『image-to-image outpainting』ワークフローの完成
①「Run」を押して画像を生成する

※ ワークフロー:
test_img2img_outpaint.json
- 『ComfyUI基本アウトペインティングワークフロー』
① 基本ワークフロー:
basic-outpainting-workflow.json をダウンロード
② ComfyUI キャンバス上にドラッグ&ドロップ
③ 追加のモデルををダウンロード → sd-v1-5-inpainting.ckpt
④「StabilityMatrix/Data/Models/StableDiffusion/」に配置する
⑤「Run」を押して画像を生成する
⑥「Empty Latent Image」ノードを削除する
⑦「Load Image」「Upscale Image」「VAE Encode」ノードを追加して接続
⑧「Load Checkpoint」ノードのモデルを変更する
⑨ 入力画像・プロンプト・ネガティブ・プロンプトを変更する
- 『image-to-image outpainting』ワークフローの完成
①「Run」を押して画像を生成する

※ ワークフロー:
bs_i2i_outpaimt.json
更新履歴†
参考資料†
- ComfyUI Custom Node Outpainting