私的AI研究会 > Diffusion > ComfyUI5

画像生成AI「ComfyUI」5(実習編) == 編集中 ==

 「ComfyUI」を使ってローカル環境でのAI画像生成を検証する

▲ 目 次
※ 最終更新:2025/11/12 

「ComfyUI」いろいろなワークフローの作成

いろいろな状況でのワークフローを作成してみる

プロジェクトで作成するワークフロー

アウトペインティング1:「Pad Image for Outpainting」ノードを使用する

  1. filebs_img2img.json『image-to-image』基本ワークフローを読み出す
    ①「Load Image」ノードに入力画像をドラッグ&ドロップする
    ②「Upscale Image」ノードを削除し「Pad Image for Outpainting」ノードを追加
    ③「VAE Encode」ノードを削除し「VAE Encode for inpainting」ノードを追加する
    ④「Load Image」の IMAGE と「Pad Image for Outpainting」image を接続
    ⑤「Pad Image ...」の IMAGE, MASK を「VAE Encode ...」の pixels, mask に接続
    ⑥「VAE Encode for inpainting」の LATENT を「KSampler」の latent_image に繋ぐ
    ⑦「Load Checkpoint」VAE 出力を「VAE Encode for inpainting」vae に接続する

  2. 『image-to-image outpainting』ワークフローの完成
    ①「Run」を押して画像を生成する
    ComfyUI_2025-11-11_00007_m.jpg
     ※ ワークフロー:filetest_img2img_outpaint.json

アウトペインティング2:「ComfyUI Wiki チュートリアル」 から構築する

  1. 『ComfyUI基本アウトペインティングワークフロー』
    ① 基本ワークフロー:filebasic-outpainting-workflow.json をダウンロード
    ② ComfyUI キャンバス上にドラッグ&ドロップ
    ③ 追加のモデルををダウンロード → sd-v1-5-inpainting.ckpt
    ④「StabilityMatrix/Data/Models/StableDiffusion/」に配置する
    ⑤「Run」を押して画像を生成する ⑥「Empty Latent Image」ノードを削除する
    ⑦「Load Image」「Upscale Image」「VAE Encode」ノードを追加して接続
    ⑧「Load Checkpoint」ノードのモデルを変更する
    ⑨ 入力画像・プロンプト・ネガティブ・プロンプトを変更する

  2. 『image-to-image outpainting』ワークフローの完成
    ①「Run」を押して画像を生成する
    ComfyUI_2025-11-11_00008_m.jpg
     ※ ワークフロー:filebs_i2i_outpaimt.json
 

更新履歴

 

参考資料