ai:localllm:claudecode
目次
Claude Code CLI で Local LLM を使う
Claude Code でも Local LLM を使うことができるようになりました。
Ollama : 他の PC で動いている Ollama を使用する
接続先とモデルを環境変数で定義します。ANTHOROPIC_BASE_URL の IP アドレス (192.168.100.50) は正しいのもに置き換えてください。
export ANTHROPIC_AUTH_TOKEN="ollama" export ANTHROPIC_API_KEY="" export ANTHROPIC_BASE_URL="http://192.168.100.50:11434" claude --model gpt-oss:120b
モデル名は claude コマンドのパラメータで渡します。
OpenAI 互換 API が使われていますが、ANTHROPIC_BASE_URL には “v1” を含めません。
Ollama Cloud (旧 Ollama Turbo)
接続先とモデルを環境変数で定義します。ANTHROPIC_AUTH_TOKEN には Ollama Cloud の API Key を設定してください。
export ANTHROPIC_AUTH_TOKEN="~" export ANTHROPIC_API_KEY="" export ANTHROPIC_BASE_URL="https://ollama.com" claude --model gpt-oss:120b-cloud
モデル名は claude コマンドのパラメータで渡します。
LMStudio : 他の PC 上で動いている LMStudio を使用する場合
接続先とモデルを環境変数で定義します。
export ANTHROPIC_AUTH_TOKEN="lmstudio" export ANTHROPIC_API_KEY="" export ANTHROPIC_BASE_URL="http://192.168.100.60:1234" claude --model openai/gpt-oss-120b
モデル名は claude コマンドのパラメータで渡します。
ai/localllm/claudecode.txt · 最終更新: by oga
