ユーザ用ツール

サイト用ツール


ai:localllm:claudecode

文書の過去の版を表示しています。


Claude Code CLI で Local LLM を使う

Claude Code でも Local LLM を使うことができるようになりました。

Ollama : 他の PC で動いている Ollama を使用する

接続先とモデルを環境変数で定義します。ANTHOROPIC_BASE_URL の IP アドレス (192.168.100.50) は正しいのもに置き換えてください。

export ANTHROPIC_AUTH_TOKEN="ollama"
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL="http://192.168.100.50:11434"
 
claude --model gpt-oss:120b

モデル名は claude コマンドのパラメータで渡します。

OpenAI 互換 API が使われていますが、ANTHROPIC_BASE_URL には “v1” を含めません。

Ollama Cloud (旧 Ollama Turbo)

接続先とモデルを環境変数で定義します。ANTHROPIC_AUTH_TOKEN には Ollama Cloud の API Key を設定してください。

export ANTHROPIC_AUTH_TOKEN="~"
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL="https://ollama.com"
 
claude --model gpt-oss:120b

モデル名は claude コマンドのパラメータで渡します。

LMStudio : 他の PC 上で動いている LMStudio を使用する場合

接続先とモデルを環境変数で定義します。

export ANTHROPIC_AUTH_TOKEN="lmstudio"
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL="http://192.168.100.60:1234"
 
claude --model openai/gpt-oss-120b

モデル名は claude コマンドのパラメータで渡します。

ai/localllm/claudecode.1770807261.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki