私的AI研究会 > Diffusion > ComfyUI6
画像生成AI「ComfyUI」6(動画編) == 編集中 ==†
「ComfyUI」を使ってローカル環境でのAI画像生成を検証する
▼ 目 次
▲ 目 次
※ 最終更新:2025/11/30
「ComfyUI」FramePack による動画生成†
| 「FramePackWrapper」を使って動画を作成してみる |
プロジェクトで作成するワークフロー†
動画生成のための環境構築†
- 「Stability Matrix」上の「ComfyUI」にカスタムノード「ComfyUI-FramePackWrapper」 を導入
ComfyUI-Manager ではレポジトリからの導入が出来ないので「Git via URL」からの導入か「Git clone」での導入が必要。 Git via URL だと、ComfyUI-Manager のセキュリティを変更する必要があるので、Git clone を使って導入する |
・「Anaconda PowerShell」を起動し一時的に PATH を変更(例:D:\StabilityMatrix に設置の場合)
| ① |
python -V
| Python のバージョン確認 |
| ② |
$env:Path = "D:\StabilityMatrix\Data\Assets\Python310;" + $env:Path
| 一時的なPATHの変更 |
| ③ |
python -V
| パッケージ実行時のPython のバージョン確認 |
・ パッケージ・ディレクトリに移動してパッケージ内の仮想環境を起動する
| ④ |
cd "D:/StabilityMatrix/Data/Packages/ComfyUI"
| パッケージのディレクトリに移動 |
| ⑤ |
./venv/Scripts/activate
| 仮想環境を起動 |
| コマンドラインに (venv) の表示がある(仮想環境下である)ことを確認すること |
・「custom_nodes」フォルダへ階層変更し、git clone を実行
・「ComfyUI_Local_Media_Manager」階層に移動して必要なパッケージ類を導入する(パッケージの導入が必要なノードの場合)
| ⑧ |
ComfyUI-FramePackWrapper
| ComfyUI-FramePackWrapper フォルダへ移動 |
| ⑨ |
pip install -r requirements.txt
| 必要なパッケージ類を導入 |
・ カスタムノードの導入は完了。「Anaconda PowerShell」を終了する
- 動画生成のワークフロー作成に必要なカスタムノードの導入
| 以下は ComfyUI-Manager 使って導入する |
・複数枚の画像を集約し、次ノードへ渡す「Get Image Size & Count」
kijai/ComfyUI-KJNodes →
「KJNodes」
で検索
・画像のリサイズを行う「Image Resize」
cubiq/ComfyUI_essentials →
「ComfyUI_essentials」
で検索
・複数枚の画像を結合し動画化するノード「Video Combine」
Kosinkadink/ComfyUI-VideoHelperSuite →
「VideoHelperSuite」
で検索
- 必要モデルのダウンロードと配置
| 「Stability Matrix」上の「ComfyUI」ではモデルフォルダの場所が異なっていることに注意 → モデルフォルダの配置 |
サンプル・ワークフローによる生成†
- 「ComfyUI-FramePackWrapper」添付のサンプル・ワークフロー
・「StabilityMatrix/Data/Packeges/ComfyUI/custom_nodes/ComfyUI-FramePackWrapper/example_workflows/」フォルダ内の
「framepack_hv_example.json」ファイルをドラッグ&ドロップする
- 「Load FramePackModel」ノードを確認する
・「model」が「FramePackI2V_HY_fp8_e4m3fn.safetensors」
・「load device」が「offload device」
(VRAM が少ない場合にエラーとなるため)
- 「DualCLIPLoader」ノードを確認する
・「clip_name1」が「clip_l.safetensors」
・「clip_name2」が「llava_llama3_fp16.safetensors」
- 「Load CLIP Vision」ノードを確認する
・「clip_name」が「sigclip_vision_patch14_384.safetensors」
- 「Load VAE」ノードを確認する
・「vae_name」が「hunyuan_video_vae_bf16.safetensors」
- 「Load Image」ノードで 画像を指定する
・「first_frame」例: 00010-1751599963.png
・「last_frame」 例: 必要ない場合は、Bypass
- 「CLIP Text Encoder」ノードの「prompt」を入力する
・例:
The girl dances gracefully, with clear movements, full of charm.
- 「VAE Decode (Tiled)」ノードのパラメータを調整する
・デフォールト値でメモリーエラーとなったのでこの値に変更
- 「FramePackSampler」ノードを確認する
・「total_second_length」パラメータで再生時間を指定できる
- 「Video Conbine」ノードで生成結果の指定がきる
・「save_output」が「Faulse」の場合 自動保存しないが、右クリック「Save preview」でダウンロードできる
- 「Run」を押して生成する
※ ワークフロー:
framepack_hv_example_ok.json
- 生成結果
更新履歴†
参考資料†