ai:localllm:claudecode
文書の過去の版を表示しています。
Claude Code CLI で Local LLM を使う
Claude Code でも Local LLM を使うことができるようになりました。
Ollama : 他の PC で動いている Ollama を使用する
接続先とモデルを環境変数で定義します。
export ANTHROPIC_AUTH_TOKEN="ollama" export ANTHROPIC_API_KEY="" export ANTHROPIC_BASE_URL="http://192.168.100.50:11434" claude --model gpt-oss:120b
モデル名は claude コマンドのパラメータで渡します。
ai/localllm/claudecode.1770806898.txt.gz · 最終更新: by oga
