使い方
Ollamaとは:ローカルでLLMを簡単に扱うツール
Ollamaは、Llama 3、Mistral、Gemma、Phiなどの最新の大規模言語モデル(LLM)をローカル環境で実行・管理できるオープンソースツールです。インターネット接続が不要で、データプライバシーを確保しながら高パフォーマンスの自然言語処理が可能です。
Ollamaのインストール方法
Ollamaは、macOS、Windows、Linuxに対応しています。以下の手順でインストールできます。
- macOS:公式サイトからインストーラーをダウンロードし、インストールを進めます。
- Windows:公式サイトからインストーラーをダウンロードし、インストールを進めます。
- Linux:ターミナルで以下のコマンドを実行します。
curl -fsSL https://ollama.com/install.sh | sh
モデルのダウンロードと実行
Ollamaでは、以下のコマンドでモデルをダウンロードし、実行できます。
- モデルのダウンロード:
ollama pull モデル名
例:ollama pull llama3
- モデルの実行:
ollama run モデル名
例:ollama run llama3
モデルの管理
Ollamaでは、以下のコマンドでモデルの管理ができます。
- ダウンロード済みモデルの一覧表示:
ollama list
- モデルの削除:
ollama rm モデル名
APIの利用
Ollamaは、REST APIを提供しており、外部アプリケーションとの連携が可能です。
- テキスト生成:
curl -X POST http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "こんにちは"}'
- チャット形式の対話:
curl -X POST http://localhost:11434/api/chat -d '{"model": "llama3", "messages": [{"role": "user", "content": "こんにちは"}]}'
高度なカスタマイズ
Ollamaでは、Modelfileを使用してモデルの動作をカスタマイズできます。以下の設定が可能です。
- 創造性のレベルや出力長などのパラメータ調整
- カスタムシステムプロンプトの定義
- LoRAなどのファインチューニングアダプタの統合
- GGUFやSafetensorsなどのフォーマットからのモデルインポート
GPUの活用
Ollamaは、GPUを活用してパフォーマンスを向上させることができます。対応するGPUとドライバがインストールされていれば、自動的にGPUが使用されます。
モデルの保存場所の変更(Windows)
デフォルトでは、Ollamaはホームディレクトリにモデルを保存しますが、以下の手順で保存場所を変更できます。
- 「環境変数」を検索し、「アカウントの環境変数を編集」をクリック
- 「OLLAMA_MODELS」という新しい変数を作成し、モデルを保存したいディレクトリを指定
- 設定を保存し、Ollamaを再起動