私的AI研究会 > Diffusion > ComfyUI4

画像生成AI「ComfyUI」4(応用編) == 編集中 ==

 「ComfyUI」を使ってローカル環境でのAI画像生成を検証する

▲ 目 次
※ 最終更新:2025/11/18 

「ComfyUI」カスタムノード

「ComfyUI」で用意されている様々な カスタムノードを使ってみる

プロジェクトで作成するワークフロー

カスタムノードのインストール

1.「Manager」ボタンを押し「ComfyUI Manager」から「Custom Nodes Manager」を選択
2. カスタムノード を検索。インストールするノードの「Install」を押す
3. バージョン番号を選択(基本「latest」を選択)
4. インストールが完了すると、ComfyUI の再起動を求められるので、下部の「Restart」ボタンを押す
5.「Confirm」(確認)ボタンを押すとインストール開始する
6. インストール完了すると再度確認ウインドウが開く(別のウインドウがオープンするので閉じる)
7. 前のブラウザ画面で「Confirm」(確認)ボタンを押す
8.「ComfyUI Manager」でインストール完了となっていることを確認してブラウザと「Stability Matrix」を一旦終了する

← インストール完了語の状態

顔を修正する「Face Detailer」『Impact Pack』

  1. カスタムノード2つ『ComfyUI-Impact-Pack』『ComfyUI-Impact-Subpack』をインストールする
    GitHub: ComfyUI-Impact-Pack
    GitHub: ComfyUI-Impact-Subpack
    (参考)comfyUI-extension-tutorials

  2. 『t2i_face_detailer』(text2ing)基本ワークフロー
    ①「Run」を押して画像を生成する
    ComfyUI9_2025-11-03_00015_m.jpg
     ※ ワークフロー:filet2i_face_detailer.json

  3. 『i2i_face_detailer』(img2img)基本ワークフロー
    ①「Run」を押して画像を生成する
    ComfyUI9_2025-11-03_00016_m.jpg
     ※ ワークフロー:filei2i_face_detailer.json

画像からプロンプトを得る「Tagger」『WD14 Tagger』

  1. カスタムノード『ComfyUI WD 1.4 Tagger』をインストールする
    GitHub: ComfyUI WD 1.4 Tagger

  2. filebs_text2img.json『text-to-image』基本ワークフローを読み出す
    ①「test_text2img.json」ワークフローをキャンバス上にドラッグ&ドロップする
    ②「Load Image」ノードを追加する
    ③「WD14 Tagger」ノードを追加する
    ④「String Function」ノードを追加する
    ⑤「Show Text」ノードを追加する
    ⑥「Load Image」IMAGE を「WD14 Tagger」image に接続
    ⑦「WD14 Tagger」STRING を「String Function」の中央のテキストボックスに接続する※
    ⑧「String Function」の STRING と「CLIP Text Encode (Prompt)」のテキストボックスに接続※
    ⑨「String Function」の STRING と「Show Text」の text を繋ぐ
    ⑩「CLIP Text Encode (Prompt)」のテキストボックスをクリア
    ⑪「String Function」の 上の適するボックスにプロンプト(前半)を入力
    masterpiece,best quality,8k,raw photo,photo realistic,
    ⑫「CLIP Text Encode (Prompt)」の ネガティブ・プロンプトを入力
    worst quality,low quality,painting,sketch,flat color,monochrome,grayscale,ugly face,bad face,bad anatomy,deformed eyes,missing fingers,acnes,skin blemishes,nsfw,nude,nipples
    ※ 以前の「Convert Widget to Input」による設定の必要はなくなった

  3. 『t2i_tagger』(text2ing)基本ワークフロー
    ①「Run」を押して画像を生成する
    ComfyUI9_2025-11-04_00001_m.jpg
     ※ ワークフロー:filet2i_tagger.json

    ・参考:「WD14 Tagger」の出力プロンプト
    1girl, solo, long_hair, looking_at_viewer, brown_hair, brown_eyes, jewelry, upper_body, earrings, outdoors, parted_lips, necklace, mole, blurry, lips, blurry_background, freckles, realistic, nose,

モノクロ画像をカラー画像にする「DDColor」『ComfyUI-DDColor』

  1. カスタムノード『ComfyUI-DDColor』をインストールする
    GitHub: ComfyUI-DDColor

  2. ワークフローを実行する
    ①「Run」を押して画像を生成する
    ComfyUI_temp_kqjrv_00003_m.jpg
     ※ ワークフロー:filetest_DDColor.json

  3. カスタムノード『WAS Node Suite (Revised)』をインストールする
    WAS Node Suite (Revised)

  4. 濃淡の調整を追加したワークフローを実行する
    ①「Run」を押して画像を生成する
    ComfyUI_temp_kqjrv_00004_m.jpg
     ※ ワークフロー:filetest_DDColor+blend.json

画像の一部を別の画像に入れ替える「paint by example」『paint-by-example_comfyUI』

  1. カスタムノード『paint-by-example_comfyUI』をインストールする
    GitHub: paint-by-example_comfyui
    ワークフロー phyblas/ironna_comfyui_workflow

  2. マスク画像を作成するワークフローを実行する
    ①「Run」を押して画像を生成する
    ComfyUI_2025-11-14_00007_m.jpg
     ※ ワークフロー:filepaint-by-example_maskedit.json

  3. マスク画像を個別入力するワークフローを実行する
    ①「Run」を押して画像を生成する
    ComfyUI_2025-11-14_00008_m.jpg
     ※ ワークフロー:filepaint-by-example_mask.json

  4. 実行結果の例

プロンプトを日本語入力する「AlekPet」『ComfyUI_Custom_Nodes_AlekPet』

  1. カスタムノード『ComfyUI_Custom_Nodes_AlekPet』をインストールする
    GitHub: ComfyUI_Custom_Nodes_AlekPet

  2. プロンプト/ネガティブ・プロンプトを日本語入力にする(使い方1)

    ①「Deep Transfer Text Node」の text を「CLIP Text Encode」ノードに注入する
    ②「Preview Textn Node」を翻訳後の確認のため接続しておく(任意)
     ※ ワークフロー:filetxt2img_ipn_input.json

  3. プロンプト/ネガティブ・プロンプトを日本語入力にする(使い方2)

    ①「Deep Transfer Text Node」を「CLIP Text Encode」ノードと入れ替える
    ②「Preview Textn Node」を翻訳後の確認のため接続しておく(任意)
     ※ ワークフロー:filetxt2img_ipn_input2.json

ComfyUIでLLMを使用する「Ollama」『ComfyUI Ollama』

  1. 以下のコマンドで画像を扱うことのできる「llava-phi3」LLM モデルをインストールする
    ollama run llava-phi3:latest
  2. カスタムノード『ComfyUI Ollama』をインストールする
    GitHub: ComfyUI Ollama

  3. 『ComfyUI Ollama』の使い方

    ①「OllamaConnectivity」ノードを配置しモデルを設定する
    ②「OllamaGenerate」ノードでシステムプロンプトとテキスト入力
    ③「Load Image」ノードで画像入力(必要であれば)
    ④「Preview Text Node」ノードで生成テキストを確認
    ⑤「Deep Transrator Text Node」「Preview Text Node」ノードで日本語訳を見ることができる
     ※ ワークフロー:fileollama.json

  4. 「txt2img」ワークフローに追加して生成してみる
    ①「Run」を押して画像を生成する
    ComfyUI_2025-11-18_00014_m.jpg
     ※ ワークフロー:fileollama_test.json

 

更新履歴

 

参考資料