私的AI研究会 > Diffusion > ComfyUI4
画像生成AI「ComfyUI」4(応用編) == 編集中 == †
「ComfyUI」を使ってローカル環境でのAI画像生成を検証する
▼ 目 次
▲ 目 次
※ 最終更新:2025/11/18
「ComfyUI」カスタムノード†
「ComfyUI」で用意されている様々な カスタムノードを使ってみる
プロジェクトで作成するワークフロー†
カスタムノードのインストール†
1.「Manager」ボタンを押し「ComfyUI Manager」から「Custom Nodes Manager」を選択
2. カスタムノード を検索。インストールするノードの「Install」を押す
3. バージョン番号を選択(基本「latest」を選択)
4. インストールが完了すると、ComfyUI の再起動を求められるので、下部の「Restart」ボタンを押す
5.「Confirm」(確認)ボタンを押すとインストール開始する
6. インストール完了すると再度確認ウインドウが開く(別のウインドウがオープンするので閉じる)
7. 前のブラウザ画面で「Confirm」(確認)ボタンを押す
8.「ComfyUI Manager」でインストール完了となっていることを確認してブラウザと「Stability Matrix」を一旦終了する
← インストール完了語の状態
顔を修正する「Face Detailer」『Impact Pack』†
カスタムノード2つ『ComfyUI-Impact-Pack』『ComfyUI-Impact-Subpack』をインストールする
・GitHub: ComfyUI-Impact-Pack
・GitHub: ComfyUI-Impact-Subpack
(参考)comfyUI-extension-tutorials
『t2i_face_detailer』(text2ing)基本ワークフロー
①「Run」を押して画像を生成する
※ ワークフロー: t2i_face_detailer.json
『i2i_face_detailer』(img2img)基本ワークフロー
①「Run」を押して画像を生成する
※ ワークフロー: i2i_face_detailer.json
画像からプロンプトを得る「Tagger」『WD14 Tagger』†
カスタムノード『ComfyUI WD 1.4 Tagger』をインストールする
・GitHub: ComfyUI WD 1.4 Tagger
bs_text2img.json 『text-to-image』基本ワークフローを読み出す
①「test_text2img.json」ワークフローをキャンバス上にドラッグ&ドロップする
②「Load Image」ノードを追加する
③「WD14 Tagger」ノードを追加する
④「String Function」ノードを追加する
⑤「Show Text」ノードを追加する
⑥「Load Image」IMAGE を「WD14 Tagger」image に接続
⑦「WD14 Tagger」STRING を「String Function」の中央のテキストボックスに接続する※
⑧「String Function」の STRING と「CLIP Text Encode (Prompt)」のテキストボックスに接続※
⑨「String Function」の STRING と「Show Text」の text を繋ぐ
⑩「CLIP Text Encode (Prompt)」のテキストボックスをクリア
⑪「String Function」の 上の適するボックスにプロンプト(前半)を入力
masterpiece,best quality,8k,raw photo,photo realistic,
⑫「CLIP Text Encode (Prompt)」の ネガティブ・プロンプトを入力
worst quality,low quality,painting,sketch,flat color,monochrome,grayscale,ugly face,bad face,bad anatomy,deformed eyes,missing fingers,acnes,skin blemishes,nsfw,nude,nipples
※ 以前の「Convert Widget to Input」による設定の必要はなくなった
『t2i_tagger』(text2ing)基本ワークフロー
①「Run」を押して画像を生成する
※ ワークフロー: t2i_tagger.json
・参考:「WD14 Tagger」の出力プロンプト
1girl, solo, long_hair, looking_at_viewer, brown_hair, brown_eyes, jewelry, upper_body, earrings, outdoors, parted_lips, necklace, mole, blurry, lips, blurry_background, freckles, realistic, nose,
モノクロ画像をカラー画像にする「DDColor」『ComfyUI-DDColor』†
カスタムノード『ComfyUI-DDColor』をインストールする
・GitHub: ComfyUI-DDColor
ワークフローを実行する
①「Run」を押して画像を生成する
※ ワークフロー: test_DDColor.json
カスタムノード『WAS Node Suite (Revised)』をインストールする
・WAS Node Suite (Revised)
濃淡の調整を追加したワークフローを実行する
①「Run」を押して画像を生成する
※ ワークフロー: test_DDColor+blend.json
画像の一部を別の画像に入れ替える「paint by example」『paint-by-example_comfyUI』†
カスタムノード『paint-by-example_comfyUI』をインストールする
・GitHub: paint-by-example_comfyui
・ワークフロー phyblas/ironna_comfyui_workflow
マスク画像を作成するワークフローを実行する
①「Run」を押して画像を生成する
※ ワークフロー: paint-by-example_maskedit.json
マスク画像を個別入力するワークフローを実行する
①「Run」を押して画像を生成する
※ ワークフロー: paint-by-example_mask.json
実行結果の例
プロンプトを日本語入力する「AlekPet」『ComfyUI_Custom_Nodes_AlekPet』†
カスタムノード『ComfyUI_Custom_Nodes_AlekPet』をインストールする
・GitHub: ComfyUI_Custom_Nodes_AlekPet
プロンプト/ネガティブ・プロンプトを日本語入力にする(使い方1)
①「Deep Transfer Text Node」の text を「CLIP Text Encode」ノードに注入する
②「Preview Textn Node」を翻訳後の確認のため接続しておく(任意)
※ ワークフロー: txt2img_ipn_input.json
プロンプト/ネガティブ・プロンプトを日本語入力にする(使い方2)
①「Deep Transfer Text Node」を「CLIP Text Encode」ノードと入れ替える
②「Preview Textn Node」を翻訳後の確認のため接続しておく(任意)
※ ワークフロー: txt2img_ipn_input2.json
ノードをまとめてテンプレートとして保存する(例:日本語翻訳と確認)
①「Ctrl」キーを押しながらテンプレートとして保存したいノードをドラッグで指定
② 囲まれた領域の上で右クリックする
③ 表示されたメニューから「Save Selected as Template」を選択
④ 名前を付ける(例:「prompy_jpn」「neg_prompt_jpn」)
テンプレートの保存場所(ファイル):
「ComfUI/user/default/comfy.templates.json」
保存したテンプレートを使う(例:日本語翻訳と確認)
① キャンバス上の何もないところで右クリック
② メニューから「Node Template」→「テンプレート名」を選択する
日本語翻訳テンプレート
・プロンプト テキスト翻訳:「prompy_jpn」
・ネガティブ・プロンプトテキスト翻訳:「neg_prompt_jpn」
・プロンプト テキスト翻訳 + CLIP:「prompy_clip_jpn」
・ネガティブ・プロンプトテキスト翻訳 + CLIP:「neg_prompt_clip_jpn」
ComfyUIでLLMを使用する「Ollama」『ComfyUI Ollama』†
以下のコマンドで画像を扱うことのできる「llava-phi3」LLM モデルをインストールする
ollama run llava-phi3:latest
カスタムノード『ComfyUI Ollama』をインストールする
・GitHub: ComfyUI Ollama
『ComfyUI Ollama』の使い方
①「OllamaConnectivity」ノードを配置しモデルを設定する
②「OllamaGenerate」ノードでシステムプロンプトとテキスト入力
③「Load Image」ノードで画像入力(必要であれば)
④「Preview Text Node」ノードで生成テキストを確認
⑤「Deep Transrator Text Node」「Preview Text Node」ノードで日本語訳を見ることができる
※ ワークフロー: ollama.json
「txt2img」ワークフローに追加して生成してみる
①「Run」を押して画像を生成する
※ ワークフロー: ollama_test.json
更新履歴†
2025/11/03 初版
2025/11/17「AlekPet」追加
2025/11/18「ComfyUI Ollama」追加
参考資料†
ComfyUI Custom Node 「Impact-Pack」
ComfyUI Custom Node 「WD14 Tagger」
ComfyUI Custom Node 「ComfyUI IPAdapter plus」
ComfyUI Custom Node 「ComfyUI_experiments」
ComfyUI Custom Node 「DDColor」
ComfyUI Custom Node 「paint by example」
ComfyUI Custom Node 「AlekPet」
ComfyUI Custom Node 「Ollama」