私的AI研究会 > Diffusion > ComfyUI6

画像生成AI「ComfyUI」6(動画編) == 編集中 ==

 「ComfyUI」を使ってローカル環境でのAI画像生成を検証する

▲ 目 次
※ 最終更新:2025/11/30 

「ComfyUI」FramePack による動画生成

「FramePackWrapper」を使って動画を作成してみる

プロジェクトで作成するワークフロー

動画生成のための環境構築

  1. 「Stability Matrix」上の「ComfyUI」にカスタムノード「ComfyUI-FramePackWrapper」 を導入
    ComfyUI-Manager ではレポジトリからの導入が出来ないので「Git via URL」からの導入か「Git clone」での導入が必要。
    Git via URL だと、ComfyUI-Manager のセキュリティを変更する必要があるので、Git clone を使って導入する
    ・「Anaconda PowerShell」を起動し一時的に PATH を変更(例:D:\StabilityMatrix に設置の場合)
    python -V Python のバージョン確認
    $env:Path = "D:\StabilityMatrix\Data\Assets\Python310;" + $env:Path 一時的なPATHの変更
    python -V パッケージ実行時のPython のバージョン確認
    ・ パッケージ・ディレクトリに移動してパッケージ内の仮想環境を起動する
    cd "D:/StabilityMatrix/Data/Packages/ComfyUI" パッケージのディレクトリに移動
    ./venv/Scripts/activate 仮想環境を起動
    コマンドラインに (venv) の表示がある(仮想環境下である)ことを確認すること
    ・「custom_nodes」フォルダへ階層変更し、git clone を実行
    cd custom_nodes custom_nodes フォルダへ移動
    git clone https://github.com/kijai/ComfyUI-FramePackWrapper git clone を実行
    ・「ComfyUI_Local_Media_Manager」階層に移動して必要なパッケージ類を導入する(パッケージの導入が必要なノードの場合)
    ComfyUI-FramePackWrapper ComfyUI-FramePackWrapper フォルダへ移動
    pip install -r requirements.txt 必要なパッケージ類を導入
    ・ カスタムノードの導入は完了。「Anaconda PowerShell」を終了する

  2. 動画生成のワークフロー作成に必要なカスタムノードの導入
    以下は ComfyUI-Manager 使って導入する
    ・複数枚の画像を集約し、次ノードへ渡す「Get Image Size & Count」
      kijai/ComfyUI-KJNodes → 「KJNodes」 で検索
    ・画像のリサイズを行う「Image Resize」
      cubiq/ComfyUI_essentials → 「ComfyUI_essentials」 で検索
    ・複数枚の画像を結合し動画化するノード「Video Combine」
      Kosinkadink/ComfyUI-VideoHelperSuite → 「VideoHelperSuite」 で検索

  3. 必要モデルのダウンロードと配置
    「Stability Matrix」上の「ComfyUI」ではモデルフォルダの場所が異なっていることに注意 → モデルフォルダの配置
    モデル名ファイル名( .safetensors)配置先
    /StabilityMatrix/Data/Models/
    ダウンロード URL
    FramePack ModelFramePackI2V_HY_fp8_e4m3fnDiffusionModelsKijai/HunyuanVideo_comfy
    (FramePackI2V_HY_bf16)
    Hunyan Video VAEhunyuan_video_vae_bf16VAE
    CLIP Visionsigclip_vision_patch14_384ClipVisionComfy-Org/sigclip_vision_384
    CLIPclip_l
    llava_llama3_fp16
    TextEncodersComfy-Org/HunyuanVideo_repackaged

サンプル・ワークフローによる生成

  1. 「ComfyUI-FramePackWrapper」添付のサンプル・ワークフロー
    ・「StabilityMatrix/Data/Packeges/ComfyUI/custom_nodes/ComfyUI-FramePackWrapper/example_workflows/」フォルダ内の  「framepack_hv_example.json」ファイルをドラッグ&ドロップする

  2. 「Load FramePackModel」ノードを確認する

    ・「model」が「FramePackI2V_HY_fp8_e4m3fn.safetensors」
    ・「load device」が「offload device」
     (VRAM が少ない場合にエラーとなるため)

  3. 「DualCLIPLoader」ノードを確認する

    ・「clip_name1」が「clip_l.safetensors」
    ・「clip_name2」が「llava_llama3_fp16.safetensors」

  4. 「Load CLIP Vision」ノードを確認する

    ・「clip_name」が「sigclip_vision_patch14_384.safetensors」

  5. 「Load VAE」ノードを確認する

    ・「vae_name」が「hunyuan_video_vae_bf16.safetensors」

  6. 「Load Image」ノードで 画像を指定する
    ・「first_frame」例: 00010-1751599963.png
    ・「last_frame」 例: 必要ない場合は、Bypass

  7. 「CLIP Text Encoder」ノードの「prompt」を入力する
    ・例:  The girl dances gracefully, with clear movements, full of charm.

  8. 「VAE Decode (Tiled)」ノードのパラメータを調整する

    ・デフォールト値でメモリーエラーとなったのでこの値に変更

  9. 「FramePackSampler」ノードを確認する

    ・「total_second_length」パラメータで再生時間を指定できる

  10. 「Video Conbine」ノードで生成結果の指定がきる
    ・「save_output」が「Faulse」の場合 自動保存しないが、右クリック「Save preview」でダウンロードできる

  11. 「Run」を押して生成する
     ※ ワークフロー:fileframepack_hv_example_ok.json

  12. 生成結果

     
 

更新履歴

 

参考資料