私的AI研究会 > Ollama
ローカル PC で AI チャットを動かす
言語モデル | 説明 | 用途例 |
Llama 3 | 最新のLlamaシリーズで、高度な自然言語処理能力を持つモデル | 文章生成、要約、校正 |
Llama 2 | Llama 3の前のバージョンで、効率的なテキスト生成や会話能力が特徴 | チャットボット、会話型AI |
Gemma 3 | Google DeepMind が開発した最新の大規模言語モデル | テキスト生成、翻訳、要約、質問応答、テキストの分類と分析、コーディング支援 |
Gemma 2 | 特定分野での応用に特化したモデルで、柔軟な適応性が魅力 | 医療や法務のテキスト解析 |
Mistral | 高精度な言語理解を提供するモデルで、テキスト解析に強い | 意味解析、感情分析 |
Moondream 2 | 感情分析や創作系タスクに適したモデルで、創造的なテキスト生成が得意 | 創作、感情に基づいた文章生成 |
Neural Chat | 会話に特化したモデルで、自然な対話を生成することが可能 | カスタマーサポート、音声アシスタント |
Starling | 大規模データセットを用いた高い言語理解能力を持つ汎用モデル | 質問応答、知識検索 |
Code Llama | 画像とテキストのマルチモーダル対応モデルで、視覚情報を処理可能 | コード生成、バグ修正 |
LLaVA | 画像とテキストのマルチモーダル対応モデルで、視覚情報を処理可能 | 画像キャプション生成、画像認識 |
Solar | 情報検索や質問応答に優れたモデルで、効率的な情報抽出が得意 | 情報検索、FAQ自動回答 |
DeepSeek-R1 | DeepSeekの推論モデル。OpenAI-o1に匹敵する性能 | 複雑なデータ分析と推論タスク |
Windows 実行環境の構築
PS > ollama help Large language model runner Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model stop Stop a running model pull Pull a model from a registry push Push a model to a registry list List models ps List running models cp Copy a model rm Remove a model help Help about any command Flags: -h, --help help for ollama -v, --version Show version information Use "ollama [command] --help" for more information about a command.
PS > $env:OLLAMA_MODELS D:\LLM\models
Linux 実行環境の構築
$ curl -fsSL https://ollama.com/install.sh | sh
$ ollama help
$ printenv $OLLAMA_MODELS
用途 | 入力パラメータ | 実行例 |
モデルの取得 | pull <モデル名> | ollama pull gemma3 |
モデルの実行※ | run <モデル名> | ollama pull gemma3 |
ダウンロード済みのモデルの確認 | list | ollama list |
モデルの詳細 | show <モデル名> | ollama show gwmma3 |
モデルの削除 | rm <モデル名> | ollama rm gemma3 |
Model | Parameters | Size | Download |
Gemma 3 | 1B | 815MB | ollama run gemma3:1b |
Gemma 3 | 4B | 3.3GB | ollama run gemma3 |
Gemma 3 | 12B | 8.1GB | ollama run gemma3:12b |
Gemma 3 | 27B | 17GB | ollama run gemma3:27b |
QwQ | 32B | 20GB | ollama run qwq |
DeepSeek-R1 | 7B | 4.7GB | ollama run deepseek-r1 |
DeepSeek-R1 | 671B | 404GB | ollama run deepseek-r1:671b |
Llama 3.3 | 70 | 43GB | ollama run llama3.3 |
Llama 3.2 | 3B | 2.0GB | ollama run llama3.2 |
Llama 3.2 | 1B | 1.3GB | ollama run llama3.2:1b |
Llama 3.2 Vision | 11B | 7.9GB | ollama run llama3.2-vision |
Llama 3.2 Vision | 90B | 55GB | ollama run llama3.2-vision:90b |
Llama 3.1 | 8B | 4.7GB | ollama run llama3.1 |
Llama 3.1 | 405B | 231GB | ollama run llama3.1:405b |
Phi 4 | 14B | 9.1GB | ollama run phi4 |
Phi 4 Mini | 3.8B | 2.5GB | ollama run phi4-mini |
Mistral | 7B | 4.1GB | ollama run mistral |
Moondream 2 | 1.4B | 829MB | ollama run moondream |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
LLaVA | 7B | 4.5GB | ollama run llava |
Granite-3.3 | 8B | 4.9GB | ollama run granite3.3 |
PS > ollama run gemma3 pulling manifest pulling aeda25e63ebd: 100% ▕████████████████████████████▏ 3.3 GB pulling e0a42594d802: 100% ▕████████████████████████████▏ 358 B pulling dd084c7d92a3: 100% ▕████████████████████████████▏ 8.4 KB pulling 3116c5225075: 100% ▕████████████████████████████▏ 77 B pulling b6ae5839783f: 100% ▕████████████████████████████▏ 489 B verifying sha256 digest writing manifest success
>>> gemma3 はどのようなLLMモデルですか? Gemma 3 は、Google DeepMind が開発した新しい大規模言語モデル (LLM) です。主な特徴は以下の通りです。 **Gemma 3 の主な特徴:** * **オープンソース:** Gemma 3 は、研究および商用利用のためにオープンソースで公開されています。これにより、研究者や 開発者はモデルの内部構造を理解し、独自のアプリケーションに組み込むことができます。 * **多様なサイズ:** Gemma 3 は、異なるサイズのモデル (Nano, Medium, Large) が提供されており、ユーザーは利用環境や 目的に合わせて最適なモデルを選択できます。 * **高度なパフォーマンス:** Gemma 3 は、類似のオープンソースモデルと比較して、性能が向上しています。特に、複雑な推 論や創造的なタスクにおいて、優れた結果を出力します。 * **安全性と倫理性:** Gemma 3 は、安全性と倫理的な考慮が組み込まれており、有害なコンテンツの生成を抑制する仕組みが 施されています。 * **マルチモーダル (Gemma 3 Pro):** 最新の Gemma 3 Pro は、テキストだけでなく、画像や音声などのマルチモーダルな入 力を理解し、生成することができます。これは、より高度なタスクやインタラクションを可能にします。 **Gemma 3 の詳細:** * **開発元:** Google DeepMind * **ベースモデル:** Gemini モデルを基に構築 * **ライセンス:** Apache 2.0 * **利用方法:** Google Cloud Marketplace、Hugging Face Hub などからアクセスできます。 **Gemma 3 の詳細については、以下の公式リソースを参照してください:** * **Google DeepMind Gemma:** [https://deepmind.google/gemma/](https://deepmind.google/gemma/) * **Hugging Face Hub - Gemma:** [https://huggingface.co/oobabooga/gemma-3](https://huggingface.co/oobabooga/gemma-3) Gemma 3 は、オープンソースの LLM の分野において、大きな進歩をもたらす可能性を秘めたモデルです。 もし、Gemma 3 についてさらに具体的な質問があれば、お気軽にお尋ねください。例えば、以下のような質問にもお答えできます 。 * Gemma 3 の各サイズのモデルの違いは? * Gemma 3 を利用するための具体的な手順は? * Gemma 3 の利用事例は?
>>> なぜ空は青いのでしょう? 空が青く見える理由は、科学的に「レイリー散乱」と呼ばれる現象によるものです。以下に詳しく説明します。 **1. 太陽光の構成** 太陽光は、実際には様々な色の光が混ざり合ってできています。虹の色(赤、橙、黄、緑、青、藍、紫)を想像してみてください 。 **2. 大気との相互作用** 太陽光が地球の大気(主に窒素や酸素分子)に当たると、光はこれらの分子にぶつかって散乱されます。この散乱は、光の波長に よって散乱のされ方が異なります。 * **波長の短い光(青や紫):** 波長の短い青や紫の光は、波長の長い光(赤やオレンジ)よりもずっと強く散乱されます。 * **波長の長い光(赤やオレンジ):** 波長の長い赤やオレンジの光は、あまり散乱されません。 **3. レイリー散乱** この「散乱のされ方が波長によって異なる」という現象を「レイリー散乱」と呼びます。 **4. なぜ青い色だけが目に目立つのか?** レイリー散乱の結果、太陽光は大気中を散乱され、どこからか見てみると、散乱されやすい青い光が目に見える度合いが最も大き くなります。そのため、空全体が青く見えるのです。 **5. 紫色の光は?** 紫色の光も青色の光と同様に強く散乱されますが、 * 太陽光に含まれる紫色の光の量が青色の光に比べて少ないこと * 人間の目が紫色の光に比べて青色の光に敏感であること などにより、空が青く見えるのを感じるようになっているのです。 **まとめ** 空が青く見えるのは、太陽光に含まれる青い光が、大気中の分子によって強く散乱される「レイリー散乱」という現象によるもの です。 --- より詳しく知りたい場合は、以下のキーワードで検索してみてください。 * レイリー散乱 * 光の散乱 * 大気光学 また、YouTubeなどで「空が青い 理由」と検索すると、動画で分かりやすく解説しているものが見つかります。 >>> /bye
PS > ollama run llama3.2 pulling manifest pulling dde5aa3fc5ff: 100% ▕████████████████████████████▏ 2.0 GB pulling 966de95ca8a6: 100% ▕████████████████████████████▏ 1.4 KB pulling fcc5a6bec9da: 100% ▕████████████████████████████▏ 7.7 KB pulling a70ff7e570d9: 100% ▕████████████████████████████▏ 6.0 KB pulling 56bb8bd477a5: 100% ▕████████████████████████████▏ 96 B pulling 34bb5ab01051: 100% ▕████████████████████████████▏ 561 B verifying sha256 digest writing manifest success
>>> llama3.2 はどのようなLLMモデルですか? Llama 3.2は、Meta AIが開発したLarge Language Model (LLM)で、2022年10月にリリースされました。Llama 3.2は、Llama 3をベ ースに Updatesを適用したものです。 Llama 3は、BERTやRoBERTaなどの伝統的なLSTM-based LLMに代わって、 Transformers-based LLMであるため、特定のタスクで高 いパフォーマンスを示しています。Llama 3には、多数のトランザクションと出力出力の両方で最適化されたことが含まれていま す。 Llama 3.2は、この LLM の後続バージョンであるため、そのメカニズムやパフォーマンスはLlama 3に似ています。Llama 3.2は、 より優れたトランザクションと出力出力の両方で高価なパフォーマンスを実現することが可能です。 ただし、Llama 3.2は、特定のタスクやデータセットで最適化されたLlama 3に比べて、パフォーマンスが高い場合もあります。
>>> なぜ空は青いのでしょう? 空が青色になっているのは、主にBLUEライトです。Blue light とは、人間の視覚器官で見える青い光の部分を指します。 Blue light は、太陽光や天然発光などさまざまな出発源から生じる光のうちの一部です。日照射量が増すことで、太陽光の BLUE-LIGHTの割合が増えます。 しかし、人体は BLUE-LIGHT を受けると、夜間睡眠に悪影響を与えることがわかっています。また、長期的には BLUE-LIGHT の出 発源の増加も環境に悪影響を及ぼす可能性があります。 BLUE-LIGHT の原因として、以下のようなものが挙げられます。太陽光は地球上でのBLUE-LIGHT の主要な出発源です。太陽光は BLUE-LIGHT を発射しており、これが人が見る青い色の原動力となっています。光学技術や工芸品などの BLUE-LIGHT を利用する 製品も増えています。デジタル機器、コンピューター、モバイル PHONEなどの BLUE-LIGHT が出ます。BLUE-LIGHT の特性が人体 に悪影響を与える。BLUE-LIGHT は視覚系統の調節に関係があり、光学メカニズムによって受け取る光の種類に応じて視野と時間 感を変化させます。 BLUE-LIGHT を見ると、夜間睡眠に悪影響を与えます。BLUE-LIGHT の出発源が増えており、人体は BLUE-LIGHT を高さが増すことで BLUE-LIGHT を受け取る可能性が高くなり、視覚系統に悪影響を及ぼします。長期的には BLUE-LIGHT の出発源の増加も環境に悪影響を与える可能性があります。BLUE-LIGHT は天然発光や光学技術などのさまざまな出発 源から生じる光のうちの一部です。 BLUE-LIGHT の特性が人体に悪影響を与えること、および BLUE-LIGHT を高さが増すことで BLUE-LIGHT を受け取る可能性が高くなり、視覚系統に悪影響を及ぼします。 BLUE-LIGHT の原因としては、以下のようなものがあります。太陽光は地球上でのBLUE-LIGHT の主要な出発源です。太陽光は BLUE-LIGHT を発射しており、これが人が見る青い色の原動力となっています。光学技術や工芸品などの BLUE-LIGHT を利用する 製品も増えています。デジタル機器、コンピューター、モバイル Phone の BLUE-LIGHT が出ます。BLUE-LIGHT の特性が人体に悪 影響を与える。また、BLUE-LIGHT は視覚系統の調節に関係があり、光学メカニズムによって受け取る光の種類に応じて視野と時 間感を変化させます。 BLUE-LIGHT を見ると、夜間睡眠に悪影響を与えます。 BLUE-LIGHT の出発源が増えており、人体は BLUE-LIGHT を高さが増すことで BLUE-LIGHT を受け取る可能性が高くなり、視覚系統に悪影響を及ぼします。長期的には BLUE-LIGHT の出発源の増加も環境に悪影響を与える可能性があります。BLUE-LIGHT は天然発光や光学技術などのさまざまな出発 源から生じる光のうちの一部です。 BLUE-LIGHT の原因としては、以下のようなものがあります。太陽光は地球上でのBLUE-LIGHT の主要な出発源です。太陽光は BLUE-LIGHT を発射しており、これが人が見る青い色の原動力となっています。光学技術や工芸品などの BLUE-LIGHT を利用する 製品も増えています。デジタル機器、コンピューター、モバイル Phone の BLUE-LIGHT が出ます。BLUE-LIGHT の特性が人体に悪 影響を与える。また、BLUE-LIGHT は視覚系統の調節に関係があり、光学メカニズムによって受け取る光の種類に応じて視野と時 間感を変化させます。 BLUE-LIGHT を見ると、夜間睡眠に悪影響を与えます。 BLUE-LIGHT の出発源が増えており、人体は BLUE-LIGHT を高さが増すこ とで BLUE-LIGHT を受け取る可能性が高くなり、視覚系統に悪影響を及ぼします。 長期的には BLUE-LIGHT の出発源の増加も環境に悪影響を与える可能性があります。BLUE-LIGHT は天然発光や光学技術などのさ まざまな出発源から生じる光のうちの一部です。 >>> /bye
PS > ollama run deepseek-r1 pulling manifest pulling 96c415656d37: 100% ▕████████████████████████████▏ 4.7 GB pulling 369ca498f347: 100% ▕████████████████████████████▏ 387 B pulling 6e4c38e1172f: 100% ▕████████████████████████████▏ 1.1 KB pulling f4d24e9138dd: 100% ▕████████████████████████████▏ 148 B pulling 40fb844194b2: 100% ▕████████████████████████████▏ 487 B verifying sha256 digest writing manifest success
>>> deepseek-r1 はどのようなLLMモデルですか? <think> </think> DeepSeek-R1 是一款基于 DeepSeek 技术平台开发的 large language model (LLM),专为中文应用场景设计,旨在提供高效、准确 和友好的交互体验。它具备多轮对话能力,并通过不断优化提升了对中文语境的理解和表达能力。 ### 主要特点: 1. **快速响应**:支持即时提问和解答。 2. **多领域知识**:涵盖广泛的知识范围,能够提供深入的解释。 3. **自然语言处理**:高度自然的中文表达,符合用户习惯。 4. **安全可靠**:经过严格的安全性和隐私性验证。 ### 适用场景: - **信息查询**:解答复杂问题和详细解释。 - **内容创作**:帮助生成高质量的文本内容。 - **对话交互**:提供个性化的服务和建议。 ### 使用方式: 用户可以通过多种渠道与 DeepSeek-R1 进行互动,如网页、桌面应用或移动App。通过简单的指令或自然的语言提出问题,系统会提 供详细的回答。 如果你有更多具体问题,欢迎继续交流!
>>> 日本語で質問できますか <think> </think> 当然、質問します。日本語で会話します。
>>> なぜ空は青いのでしょう? <think> Alright, the user is asking "为什么会是蓝色呢?" in Japanese. I need to explain why the sky appears blue. First, I remember that Earth's atmosphere scatters sunlight. Sunlight is made of different colors. Because blue light has a shorter wavelength than other colors like red or orange, it gets scattered more by the atmosphere. This is called Rayleigh scattering. So when the sun is low on the horizon, we see this effect more, making the sky appear blue at noon as well because all the other colors are scattered away. I should explain this in simple terms without using too much technical jargon. </think> 天が青いのは、地球のatmosphere(大気)が光を散り_orient(スレーチ)するせいです。 Our atmosphere scatters sunlight, and blue light has a shorter wavelength than other colors like red or orange. This scattering makes the sky appear blue during the day. ### 記事一覧 - **天の色は因地而后、天を见くする要因が理解出来ます。** - **天の色が変化する原因は?** >>> bye
Open WebUIは、拡張性、機能豊富さ、そしてユーザーフレンドリーさを兼ね備えた、完全にオフラインで動作するセルフホスト型AIプラットフォームです。OllamaやOpe(機械翻訳)nAI互換APIなどの様々なLLMランナーをサポートし、RAG用の推論エンジンを内蔵しているため、強力なAIデプロイメントソリューションとなっています。
公式ドキュメント から Anaconda 環境でのインストールを行う
(base) conda create -n open-webui python=3.11
(base) conda activate open-webui
(open-webui) pip install open-webui
$name = @" *** Open WebUI environment *** "@ $env:DATA_DIR="C:\anaconda_win\workspace_3\open-webui\data" conda activate open-webui open-webui serve・起動コマンド「Anaconda PowerShell」から
(base) PS C:\anaconda_win> .\open-webui.ps1
#!/bin/sh echo "*** Open WebUI (LLM) environment ***" export DATA_DIR=$HOME/workspace_3/open-webui/data conda activate open-webui open-webui serve・起動コマンド「Anaconda ターミナル」から
(base) $ source open-webui.sh
(base) PS > conda activate open-webui (open-webui) PS > $env:DATA_DIR="C:\anaconda_win\workspace_3\open-webui\data" (open-webui) PS > pip install -U open-webuiLinux 「Anaconda ターミナル」から
(base) $ conda activate open-webui (open-webui) $ export DATA_DIR=$HOME/workspace_3/open-webui/data (open-webui) $ pip install -U open-webui
(base) PS C:\anaconda_win> .\open-webui.ps1 : INFO: Started server process [3144] INFO: Waiting for application startup. :Linux 「Anaconda ターミナル」から起動
(base) $ source open-webui.sh : INFO: Started server process [3144] INFO: Waiting for application startup. :
【引用サイト】 → Gemma 3 で RAG 機能付きの安全なローカル AI チャット環境を構築する
モデルサイズ | パラメータ数※ | 動作させる環境 | 特徴 |
1B | 10 億 | モバイル、ノート PC | 最も軽量・高速、基本的な会話や質問応答 |
4B | 40 億 | 一般的なノート PC | バランスの良い性能、画像認識も可能 |
12B | 120 億 | 高性能ノート PC・デスクトップ | 高度な推論、より複雑な質問に対応 |
27B | 270 億 | 高性能デスクトップ・ワークステーション | 最高の性能、専門的な内容も理解 |
モデル | CPU | GPU | メモリ | ストレージ |
1B | マルチコアプロセッサー | オプション(CPU 単体でも十分) | 8GB 以上 | 約 1GB |
4B | マルチコアプロセッサー | RTX 3050(8GB)以上推奨 | 16GB 以上 | 約 4GB |
12B | 高性能マルチコアプロセッサー | RTX 3060(12GB)以上推奨 | 24GB 以上 | 約 9GB |
27B | 高性能マルチコアプロセッサー | RTX 4090(24GB)以上推奨 | 32GB 以上 | 約 18GB |
【引用サイト】 → 生成AI「Llama」の最新モデルLlama3.2とは?商用利用や活用方法を徹底解説
【引用サイト】 → 大規模言語モデル(LLM)とは? 仕組みや種類・用途など
【引用サイト】 → RAG(Retrieval-Augmented Generation:検索拡張生成)とは?
【引用サイト】 → 自然言語処理(NLP)とは? 仕組み・活用例など
【引用サイト】 → 用語解説:ハルシネーション
【引用サイト】 → ウィキペディア:インターネット・ミーム・活用例など