私的AI研究会 > AI_Program3
これまで検証してきた結果をもとに、Python で生成 AI プログラムを書く
画像から画像を生成する img2img & controlnet |
参考サイト:instruct-pix2pixで画像を指示した通り変更したり
(base) PS > conda activate sd_test (sd_test) PS > cd workspace_3/sd_test
## sd_040.py【SD1.5】 画像から画像生成(instruct-pix2pix)サンプル・ソースコード ## https://qiita.com/phyblas/items/28c342740c2ed00250b8 ## Model: https://huggingface.co/timbrooks/instruct-pix2pix ## Ver. 0.00 2025/07/05 import torch from PIL import Image from diffusers import StableDiffusionInstructPix2PixPipeline, logging from translate import Translator logging.set_verbosity_error() # フォルダーのパス model_path = "timbrooks/instruct-pix2pix" # モデル image_path = "images/sd_040_test.png" # 元画像 # GPUを使う場合は"cuda" 使わない場合は"cpu" device = 'cuda' if torch.cuda.is_available() else 'cpu' # seed 値 seed = 0 # パイプラインを作成 if device == 'cpu': pipeline = StableDiffusionInstructPix2PixPipeline.from_pretrained(model_path).to(device) else: pipeline = StableDiffusionInstructPix2PixPipeline.from_pretrained( model_path, torch_dtype = torch.float16, ).to(device) # プロンプト trans = Translator('en','ja').translate prompt_jp = '雪の中の場面にする' # プロンプト prompt = trans(prompt_jp) src_image = Image.open(image_path) # Generatorオブジェクト作成 generator = torch.Generator(device).manual_seed(seed) print(f'Seed: {seed}, Model: {model_path}') print(f'source_image: {image_path}') print(f'prompt : {prompt_jp} → {prompt}') # 画像を生成 image = pipeline( prompt = prompt, image = src_image, num_inference_steps = 20, image_guidance_scale = 1.5, generator = generator ).images[0] image.save("results/image_040.png") # 生成画像
(sd_test) PS > python sd_040.py Loading pipeline components...: 100%|████████████| 7/7 [00:02<00:00, 2.48it/s] Seed: 0, Model: timbrooks/instruct-pix2pix source_image: images/sd_040_test.png prompt : 雪の中の場面にする → Make it a scene in the snow 100%|██████████████████████████████████████████| 20/20 [00:01<00:00, 16.78it/s]
## sd_040a.py【SDXL】 画像から画像生成(instruct-pix2pix)サンプル・ソースコード ## https://qiita.com/phyblas/items/28c342740c2ed00250b8 ## Model: https://huggingface.co/timbrooks/instruct-pix2pix ## Ver. 0.00 2025/07/07 import torch from PIL import Image from diffusers import StableDiffusionXLInstructPix2PixPipeline, logging from translate import Translator logging.set_verbosity_error() # フォルダーのパス model_path = "diffusers/sdxl-instructpix2pix-768" # モデル image_path = "images/sd_040_test.png" # 元画像 # GPUを使う場合は"cuda" 使わない場合は"cpu" device = 'cuda' if torch.cuda.is_available() else 'cpu' # seed 値 seed = 0 # 画像サイズ resolution = 768 # パイプラインを作成 pipeline = StableDiffusionXLInstructPix2PixPipeline.from_pretrained( model_path, torch_dtype = torch.float16, ).to(device) # プロンプト trans = Translator('en','ja').translate prompt_jp = '雪の中の場面にする' # プロンプト prompt = trans(prompt_jp) #src_image = Image.open(image_path) from diffusers.utils import load_image src_image = load_image(image_path).resize((resolution, resolution)) # Generatorオブジェクト作成 generator = torch.Generator(device).manual_seed(seed) print(f'Seed: {seed}, Model: {model_path}') print(f'source_image: {image_path}') print(f'prompt : {prompt_jp} → {prompt}') # 画像を生成 image = pipeline( prompt = prompt, image = src_image, height = resolution, width = resolution, guidance_scale=3.0, image_guidance_scale = 1.5, num_inference_steps = 20, generator = generator ).images[0] image.save("results/image_040a.png") # 生成画像
(sd_test) PS > python sd_040a.py Loading pipeline components...: 100%|████████████| 7/7 [00:05<00:00, 1.38it/s] Seed: 0, Model: diffusers/sdxl-instructpix2pix-768 source_image: images/sd_040_test.png prompt : 雪の中の場面にする → Make it a scene in the snow 100%|██████████████████████████████████████████| 20/20 [00:03<00:00, 5.30it/s]