ai:localllm:claudecode
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| ai:localllm:claudecode [2026/02/11 19:41] – oga | ai:localllm:claudecode [2026/02/11 19:54] (現在) – [Ollama Cloud (旧 Ollama Turbo)] oga | ||
|---|---|---|---|
| 行 1: | 行 1: | ||
| ====== Claude Code CLI で Local LLM を使う ====== | ====== Claude Code CLI で Local LLM を使う ====== | ||
| + | |||
| + | Claude Code でも Local LLM を使うことができるようになりました。 | ||
| + | |||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | |||
| ===== Ollama : 他の PC で動いている Ollama を使用する ===== | ===== Ollama : 他の PC で動いている Ollama を使用する ===== | ||
| + | 接続先とモデルを環境変数で定義します。ANTHOROPIC_BASE_URL の IP アドレス (192.168.100.50) は正しいのもに置き換えてください。 | ||
| + | |||
| + | <code bash> | ||
| + | export ANTHROPIC_AUTH_TOKEN=" | ||
| + | export ANTHROPIC_API_KEY="" | ||
| + | export ANTHROPIC_BASE_URL=" | ||
| + | |||
| + | claude --model gpt-oss: | ||
| + | </ | ||
| + | |||
| + | モデル名は claude コマンドのパラメータで渡します。 | ||
| + | |||
| + | OpenAI 互換 API が使われていますが、ANTHROPIC_BASE_URL には " | ||
| + | |||
| + | ===== Ollama Cloud (旧 Ollama Turbo) ===== | ||
| + | |||
| + | 接続先とモデルを環境変数で定義します。ANTHROPIC_AUTH_TOKEN には Ollama Cloud の API Key を設定してください。 | ||
| + | |||
| + | <code bash> | ||
| + | export ANTHROPIC_AUTH_TOKEN=" | ||
| + | export ANTHROPIC_API_KEY="" | ||
| + | export ANTHROPIC_BASE_URL=" | ||
| + | |||
| + | claude --model gpt-oss: | ||
| + | </ | ||
| + | |||
| + | モデル名は claude コマンドのパラメータで渡します。 | ||
| + | |||
| + | |||
| + | ===== LMStudio : 他の PC 上で動いている LMStudio を使用する場合 ===== | ||
| + | |||
| + | 接続先とモデルを環境変数で定義します。 | ||
| + | |||
| + | <code bash> | ||
| + | export ANTHROPIC_AUTH_TOKEN=" | ||
| + | export ANTHROPIC_API_KEY="" | ||
| + | export ANTHROPIC_BASE_URL=" | ||
| + | |||
| + | claude --model openai/ | ||
| + | </ | ||
| + | |||
| + | モデル名は claude コマンドのパラメータで渡します。 | ||
ai/localllm/claudecode.1770806477.txt.gz · 最終更新: by oga
