「Stable Diffusion」まとめ
種類 | モデル | 特徴 | 活動状況 | |
![]() | Stable Diffusion WebUI Automatic1111 | SD1.5 SDXL | 最もポピュラーな WebUI、多くのカスタム機能や拡張が利用可能。特に初心者にとっては使いやすく、拡張機能が豊富でカスタマイズ性が高い。安定したパフォーマンスが期待できる https://github.com/AUTOMATIC1111/stable-diffusion-webui | 停止 v1.10.1 |
![]() | Stable Diffusion WebUI Forge | SD1.5 SDXL | パフォーマンスの最適化、メモリ処理に優れた WebUI。生成速度が早く、大量の生成や連続処理に強いのが特徴。UIも使いやすく、生成プロセスを効率化できる 2024/6 以降は実験的ブランチになっており、一般的な使用は非推奨 https://github.com/lllyasviel/stable-diffusion-webui-forge | 活発 |
![]() | Stable Diffusion WebUI reForge | SD1.5 SDXL | Forge の後継。軽量化と生成速度の速さなどの Forge の特徴を引き継ぎ活動も活発。派生元の Automatic1111 版とほぼ同じUIで使いやすい https://github.com/Panchovix/stable-diffusion-webui-reForge | 活発 |
![]() | SD.Next | SD1.5 SDXL | AUTOMATIC1111のフォーク版。主要な拡張機能が事前インストールされている。PyTorch 2.0 に最適化されていて、生成が速い https://github.com/vladmandic/sdnext | 活発 |
![]() | Fooocus | SDXL | 難しいパラメーターの調整が不要で、プロンプトを入力したり作りたい画像スタイルをボタンで選んだりするだけで簡単にハイクオリティ画像が作れる画像生成AIツール(SDXLモデル専用) https://github.com/lllyasviel/Fooocus | 停止 LTS v2.5.5 |
![]() | ComfyUI | SD1.5 SDXL | ビジュアルプログラミングに近い操作性を持つ WebUIで、画像生成の各ステップを細かく制御できる。ノードベースで、複雑なプロンプトや生成プロセスを視覚的に管理できるのが特徴。高度なカスタマイズが可能で、細かい生成パラメータを視覚的に調整でき、プロフェッショナル向けの高度な生成に向いている https://github.com/comfyanonymous/ComfyUI | 活発 v0.3.27 |
種類 | モデル | 特徴 | 活動状況 | |
![]() | StabilityMatrix | SD1.5 SDXL | 「Automatic1111」「reForge」「SDNext」「Fooocus」「ComfyUI」など多数の Stable Diffusion 環境に対応し、事前のパッケージ・インストールや環境構築が不要。複数の Stable Diffusion 環境間でモデルファイルを共有することができる https://github.com/LykosAI/StabilityMatrix | 活発 v2.13.4 |
バージョン | 基本画像サイズ | 容量(約) | 特徴 | 長所 | 短所 |
SD1.5 (Stable Diffusion v1.5) | 512x512 | 2GB | 最初期の安定したバージョンで多くのユーザーが利用しているモデル 多様なチェックポイントやLoRAが公開され、リアルな画像からアニメ調の画像まで、幅広いStyleに対応する汎用性の高いバージョン | 軽量であり、初心者でも使いやすい。多くのチェックポイントやLoRAとの互換性が高い。生成サイズは大きくないがアップスケーラを使用することで実用的な解像度を得ることが可能 | 単純な生成結果だと顔の品質が低く、品質を確保するには拡張機能(Adetailerなど)を使わなければいけない。指は崩れやすい |
SDXL (Stable Diffusion XL) | 1024x1024 | 6GB | 大規模で高解像度の画像を生成するために最適化されたバージョン。特に細かいディテールや複雑な構図の画像を生成する際に力を発揮する | SD1.5 モデルより大きなサイズの画像を生成できる。使いこなせると質の高い画像を生成できる | Refinerを使った再生成などにより、計算量はSD1.5から明らかに増加している。指が相変わらず崩れやすい。 |
Flux1 | 1024x1024 | 10GB~20GB | 現時点最新のモデル、生成スピード重視の schnell、高バランスの dev、と Proの3種がある。Proが最高品質、Local環境で使えるのはschnellとdevのみ | 簡単なプロンプトでも驚異的な品質での生成が可能な上、プロンプトに対する反応や忠実度、再現度も高い、ネガティブプロンプトが原則不要 | チェックポイント(学習済みモデル)のファイルサイズが非常に大きい。計算量も多く、生成には高い GPU能力とメモリが必要 |
内容 | キーワード | 解説ページへのリンク |
StableDiffusion とは | reForge Automatic1111 | 【Diffusion】 |
パッケージ概要 | SD.Next | 【SD.Next】 |
Fooocus | 【Fooocus】 | |
ComfyUI | 【ComfyUI】 | |
StabilityMatrix | 【StabilityMatrix】 | |
インストール手順(推奨) 統合環境「StabilityMatrix」を利用する | reForge Automatic1111 | 【StabilityMatrix】【Diffusion】 |
SD.Next | 【SD.Next】 | |
Fooocus | 【Fooocus】 | |
ComfyUI | 【ComfyUI】 |
内容 | キーワード | 解説ページへのリンク |
画像生成速度の目安(画像 1枚の生成時間) | SD1.5 | 【Diffusion_hd】【Diffusion】【SD.Next】 |
SDXL | 【SD.Next】【Fooocus】 | |
ハードウェアの違いによる生成画像の比較 | SD1.5 | 【Diffusion_hd】【SD.Next】 |
SDXL | 【SD.Next】 | |
StableDiffusion モデル(Checkpoint)の種類と用途 | SD1.5 | 【Diffusion】【Diffusion_real】【Diffusion_try】 |
SDXL | 【SD.Next】【SD.Next_real】【Fooocus】 | |
モデルの違いによる生成画像の比較 | SD1.5 | 【Diffusion_hd】【Diffusiond】 |
SDXL | 【SD.Next】 |
内容 | キーワード | 解説ページへのリンク | |
ポートレート画像 | ![]() | SD1.5 | 【Diffusion_real】 |
SDXL | 【SD.Next_real】【Fooocus_real】 | ||
リアル・実写系のテンプレート | ![]() | SD1.5 | 【Diffusion_real】 |
SDXL | 【SD.Next_real】【Fooocus_real】 | ||
グラビアアイドルを画像生成 | ![]() | SD1.5 | 【Diffusion_real】 |
SDXL | 【SD.Next_real】【Fooocus_real】 | ||
風景写真 | ![]() | SD1.5 | 【Diffusion_real】 |
SDXL | 【SD.Next_real】【Fooocus_real】 | ||
自然の景色の生成 | ![]() | SD1.5 | 【Diffusion_real】 |
SDXL | 【SD.Next_real】【Fooocus_real】 | ||
山の風景の生成 | ![]() | SD1.5 | 【Diffusion_real】 |
SDXL | 【Fooocus_real】 |
内容 | キーワード | 解説ページへのリンク | |
プロンプト | プロンプトのキーワード | Prompt | 【Diffusion_prmpt】 |
ネガティブ・プロンプト | Negative Prompt | 【Diffusion_prmpt】 | |
ライティング(照明・光源) | Prompt | 【Diffusion_prmpt】 | |
人物の目線を指定する | Prompt | 【Diffusion_prmpt】 | |
人物の表情を指定する | Prompt | 【Diffusion_prmpt】 | |
人物の年齢を指定する | Prompt | 【Diffusion_prmpt】 | |
画風を指定する | Prompt | 【Diffusion_prmpt】 | |
画像からプロンプト推定 | img2img Tagger | 【Diffusion_prmpt】 | |
プロンプトの入力を簡単にボタンで入力 | EasyPromptSelector | 【Diffusion_prmpt】 | |
シード値 | Seed | 【Diffusion_param】【Diffusion】 | |
サンプリング | Sampling steps (Steps) | Steps | 【Diffusion_param】【Diffusion】 |
Sampling method (Sampler) | Sampler | 【Diffusion_param】【Diffusion】 | |
CFG scale | CFG scale | 【Diffusion_param】【Diffusion】 | |
Clip skip | Clip skip | 【Diffusion_param】【Diffusion】 | |
サンプリング 用語集 | Sampling | 【Diffusion_param】 | |
Script(応用機能) | パラメータの自動生成 | X/Y/Z plot | 【Diffusion】 |
アップスケーラー 生成画像の高画質化 | 概要 | Upscaler | 【Diffusion_param】 |
画像生成後に自動でアップスケール | Hires.fix | 【Diffusion_param】 | |
生成していない画像でも高画質化できる | Extras | 【Diffusion_param】 |
内容 | キーワード | 解説ページへのリンク | |
ControlNet 概要 | ControlNet | 【Diffusion_ext】 | |
線画/深度を抽出して別画像を生成 | Canny/Depth | 【Diffusion_ext】 | |
画像の一部を修正 | Inpaint | 【Diffusion_ext】 | |
元画像や棒人間から人物のポーズを検出して生成 | OpenPose | 【Diffusion_ext】 | |
元画像の特徴を含んだ画像を生成 | Reference | 【Diffusion_ext】 | |
手書きの線からリアルな画像を生成 | Scribble | 【Diffusion_ext】 | |
線画抽出を比較する | ControlNet | 【Diffusion_ext】 | |
画像の外側を生成する | openOutpaint | 【Diffusion_ext2】 | |
顔・手・体が崩れないようにする | ADetailer | 【Diffusion_ext2】 | |
画像の顔を入れ替える(FaceSwap) | Reacror | 【Diffusion_ext2】 | |
画像の背景を消す | Rembg | 【Diffusion_ext2】 | |
画像の背景を消す(高精度) | BiRefNet | 【Diffusion_ext2】 | |
ControlNet 応用 | 撮影した写真を水彩画にする | ControlNet | 【Diffusion_note】 |
元画像から同じ構図・同じ構成の画像を生成する | ControlNet | 【Diffusion_note】 | |
できるだけ元の写真に近い画像を生成する | ControlNet | 【Diffusion_exp】 | |
生成画像を一括で表示・管理する | ImageBrowser | 【Diffusion_ext2】 |
内容 | キーワード | 解説ページへのリンク | |
Stable Diffusion web UI チュートリアル | 1 基礎編 最初の一歩 | ![]() | 【SDtutorial】 |
2 応用編 拡張機能 | 【SDtutorial2】 | ||
リアル・フォトイメージ | StableDiffusion SD1.5 Model / LoRA | Checkpoint | 【Diffusion_try】 |
グラビアアイドルの生成1 | ![]() | 【Diffusion_try】 | |
グラビアアイドルの生成2 | 【Diffusion_try】 | ||
グラビアアイドルの生成3 | 【Diffusion_try】 | ||
元画像を参考にする | 【Diffusion_try】 | ||
モデル写真1 | ![]() | 【Diffusion_try2】 | |
モデル写真2 | 【Diffusion_try2】 | ||
モデル写真3 | 【Diffusion_try2】 | ||
モデル写真4 | 【Diffusion_try2】 | ||
プロダクトデザイン | プロダクトデザイン向けモデル | Checkpoint | 【Diffusion_pd】 |
未来的なプロダクトデザイン | ![]() | 【Diffusion_pd】 | |
プロダクトデザイン向けプロンプト | 【Diffusion_pd】 | ||
車の画像の生成 | 【Diffusion_pd】 | ||
建築デザイン | 【Diffusion_pd】 | ||
イラスト系 | プロダクトデザイン向けモデル | Checkpoint | 【Diffusion_illst】 |
イラスト系モデルによる生成画像の違い | ![]() | 【Diffusion_illst】 | |
様々なジャンルのイラストを生成 | 【Diffusion_illst】 | ||
様々なジャンルの生成画像 | 1 プロンプトによる様々なジャンルの画像生成 | ![]() | 【Diffusion_webUI】 |
2 ChatGPT にプロンプトを考えてもらう | 【Diffusion_webUI】 | ||
3 プロンプトとモデルでリアルな人の顔を生成 | 【Diffusion_webUI】 | ||
4 モデルの違いによる人物表現 | 【Diffusion_webUI】 | ||
5 リアル系の画像生成 | 【Diffusion_webUI】 | ||
6 実用性を試す | 【Diffusion_webUI】 |
エラー内容 | 解説ページへのリンク |
dlopen(): error loading libfuse.so.2 | 【StabilityMatrix】 |
RuntimeError: Cannot add middleware after an application has started | 【StabilityMatrix】 |
「ControlNet」でモデルが表示されない(Linux 版のみ <v2.13.4> 2025/03/12 現在) | 【StabilityMatrix】 |
'NoneType' object has no attribute 'height' | 【SD.Next】 |
ImportError: DLL load failed while importing onnxruntime_pybind11_state | 【SD.Next】 |
UnicodeDecodeError: 'cp932' codec can't decode byte 0x97 | 【Fooocus】 |
ModuleNotFoundError: No module named 'tf_keras' | 【Diffusion_ext2】 |
内容 | 解説ページへのリンク | |
stable_diffusion.openvino | 「Stable-Diffusion」を試してみる | 【StableDef】 |
GUIを作る | 【StableDef2】 | |
画像生成を試す | 【StableDef3】 | |
パラメータを検証する | 【StableDef4】 | |
画像生成速度を検証する | 【StableDef5】 | |
自動翻訳を組み合わせる | 【StableDef6】 | |
色々な画像生成を試す | 【StableDef7】 | |
実用性を探る | 【StableDef8】 | |
人物画像を生成する | 【StableDef9】 | |
画像を元にして生成する | 【StableDef10】 | |
Webサービス「Dream Studio」 | 【DreamStudio】 | |
Stable-Diffusion infinity を試してみる | 【StableInf】 | |
(旧版)画像生成 プロジェクト環境構築(Windows編) | 【ProjectEnv】 | |
(旧版)画像生成 プロジェクト環境構築(Linux編) | 【ProjectEnv1】 |