私的AI研究会 > OpenWebUI

ローカル PC で LLM を利用する(運用編) == 編集中 ==

StableDiffusion_g735_m.jpg
ollama_m.jpg

 ローカル PC で AI チャットを動かす

▲ 目 次
※ 最終更新:2025/05/07 

Open WebUI で Gemma 3 を使う

Open WebUI の起動

  1. Open WebUI を起動する
     Windows  「Anaconda PowerShell」から起動
    (base) PS C:\anaconda_win> .\open-webui.ps1
     Linux  「Anaconda ターミナル」から起動
    (base) $ source open-webui.sh
  2. Waiting for application startup. の表示を確認して次に進む
  3. Web サイト http://localhost:8080 を開く
  4. 左上のドロップダウンリストの「gemma3」モデルの選択を確認する

テキストでの対話

  1. 画面下部のテキスト入力欄に質問や指示を入力する
  2. 「↑」ボタンを押して送信する
  3. しばらくすると画面上に応答結果が表示される
    ▼「テキストでの対話」プレーン・テキスト

画像を使った対話(マルチモーダル機能)

  1. 入力欄の左下にある「+」ボタンをクリックして追加するか、入力欄にドラッグ&ドロップするか、クリップボードの画像をペーストする
  2. 画像が添付された状態で「↑」ボタンを押して送信する
  3. しばらくすると画面上に応答結果が表示される
    ▼「画像を使った対話」プレーン・テキスト

RAG(検索拡張生成)を試す

 

更新履歴

参考資料