OllamaをClaude Desktopで使う方法|GUI・会話管理・MCPを活かした活用術

2026年5月7日木曜日

Claude Ollama

t f B! P L

アイキャッチ画像

Ollamaはローカル環境でLLMを手軽に動かせる便利なツールですが、標準の操作はターミナルからのCLI操作のみです。Claude Desktopと連携させることで、使い慣れたGUIから複数のOllamaモデルを呼び出せるようになります。

本記事では、Ollama 0.23以降で利用可能になったClaude Desktop連携の手順と、Ollama単体利用と比べたメリットを紹介します。

必要なもの

  • Ollama 0.23以上(インストール済み)
  • Claude Desktop(macOS または Windows)
  • Ollama APIキー(後述)

Ollamaがインストールされていない場合は、以下の記事を参照してください。

ローカルLLMを試す!定番ツールのOllamaのインストール方法と簡単な使い方

Claude DesktopはAnthropicの公式サイトからダウンロードできます。

Claude Desktop ダウンロード

Ollama APIキーの取得

Ollama CloudのモデルをClaude Desktop経由で使うためには、Ollama CloudのAPIキーが必要です。

  1. ollama.com にアクセスし、アカウントを作成(またはログイン)
  2. ダッシュボード右上のアカウントメニューから 「API Keys」 を選択
  3. 「Create API Key」 ボタンをクリックしてキーを発行
  4. 表示されたキーをコピーして安全な場所に保存(再表示されないため注意)

Claude DesktopにOllamaを連携する手順

1. APIキーを環境変数に設定する

ターミナルで以下を実行します。your_api_key は取得したAPIキーに置き換えてください。

export OLLAMA_API_KEY=your_api_key

毎回設定するのが手間な場合は、~/.zshrc(または~/.bashrc)に追記しておくと自動的に読み込まれます。

echo 'export OLLAMA_API_KEY=your_api_key' >> ~/.zshrc
source ~/.zshrc

2. Ollamaのバージョンを確認する

連携にはOllama 0.23以上が必要です。確認しておきましょう。

ollama --version

0.23.0 以上が表示されれば問題ありません。古い場合は公式サイトから最新版をインストールしてください。

3. ollama launch claude-desktop を実行する

以下のコマンドを実行すると、Claude DesktopがOllamaのCloud推論を使うように設定されます。

ollama launch claude-desktop

実行後、Ollama Cloudで利用可能なモデルが自動的に検出されます。

4. Claude Desktopを再起動する

設定を反映させるため、Claude Desktopをいったん終了して再起動します。

起動後にモデル選択メニューを開くと、OllamaのモデルがClaude標準モデルとともに表示されていれば連携成功です。

元の設定に戻す方法

Ollamaとの連携を解除して、通常のClaude(Anthropic)モデルだけを使う状態に戻したい場合は以下のコマンドを実行します。

ollama launch claude-desktop --restore

Claude Desktopを再起動すると元の状態に戻ります。

Ollama単体と比べたメリット

CLIでも十分便利なOllamaですが、Claude Desktopと組み合わせることでさらに使いやすくなります。

GUIで操作できる

ターミナルを開かなくても、Claude Desktopのチャット画面からOllamaのモデルを呼び出せます。非エンジニアや普段CLIを使わない方でも、違和感なく利用できます。

会話履歴・プロジェクト管理ができる

Claude Desktopは会話をプロジェクト単位で管理する機能を持っています。Ollama CLIでは基本的に会話は保存されませんが、Claude Desktop経由であれば過去のやり取りを後から振り返ることができます。

MCPツールが使える

Claude DesktopはMCP(Model Context Protocol)に対応しており、ファイル操作やWebブラウジングなどのツールをモデルに使わせることができます。Ollama CLIにはこの仕組みがないため、Claude Desktop経由での利用は大きなアドバンテージです。

Claudeモデルと使い分けができる

Claude Desktop上でAnthropicのClaudeモデルとOllamaモデルをシームレスに切り替えられます。簡単な質問はOllamaのローカルモデルで処理し、複雑な推論が必要な場面はClaudeに任せる、といったコスト最適化が可能です。

現時点での制限事項

便利な連携ですが、現時点ではいくつかの制限があります。

  • Web search は利用不可
  • Extensions(Claude.ai拡張機能)は利用不可

これらの機能はAnthropicのClaudeモデル利用時のみ有効で、Ollamaモデル経由では使えません。

まとめ

OllamaをClaude Desktopと連携させると、CLIなしで複数のLLMをGUIから使えるようになります。会話管理やMCPツールとの組み合わせも可能になり、Ollama単体よりも格段に使い勝手が上がります。Ollamaをすでに使っている方は、ぜひ一度試してみてください。

スポンサーリンク
スポンサーリンク

このブログを検索

Profile

自分の写真
Webアプリエンジニア。 日々新しい技術を追い求めてブログでアウトプットしています。
プロフィール画像は、猫村ゆゆこ様に書いてもらいました。

仕事募集もしていたり、していなかったり。

QooQ