ユーザ用ツール

サイト用ツール


ai:localllm:claudecode

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:localllm:claudecode [2026/02/11 19:42] – [Claude Code CLI で Local LLM を使う] ogaai:localllm:claudecode [2026/02/11 19:54] (現在) – [Ollama Cloud (旧 Ollama Turbo)] oga
行 9: 行 9:
 ===== Ollama : 他の PC で動いている Ollama を使用する ===== ===== Ollama : 他の PC で動いている Ollama を使用する =====
  
 +接続先とモデルを環境変数で定義します。ANTHOROPIC_BASE_URL の IP アドレス (192.168.100.50) は正しいのもに置き換えてください。
 +
 +<code bash>
 +export ANTHROPIC_AUTH_TOKEN="ollama"
 +export ANTHROPIC_API_KEY=""
 +export ANTHROPIC_BASE_URL="http://192.168.100.50:11434"
 +
 +claude --model gpt-oss:120b
 +</code>
 +
 +モデル名は claude コマンドのパラメータで渡します。
 +
 +OpenAI 互換 API が使われていますが、ANTHROPIC_BASE_URL には "v1" を含めません。
 +
 +===== Ollama Cloud (旧 Ollama Turbo) =====
 +
 +接続先とモデルを環境変数で定義します。ANTHROPIC_AUTH_TOKEN には Ollama Cloud の API Key を設定してください。
 +
 +<code bash>
 +export ANTHROPIC_AUTH_TOKEN="~"
 +export ANTHROPIC_API_KEY=""
 +export ANTHROPIC_BASE_URL="https://ollama.com"
 +
 +claude --model gpt-oss:120b-cloud
 +</code>
 +
 +モデル名は claude コマンドのパラメータで渡します。
 +
 +
 +===== LMStudio : 他の PC 上で動いている LMStudio を使用する場合 =====
 +
 +接続先とモデルを環境変数で定義します。
 +
 +<code bash>
 +export ANTHROPIC_AUTH_TOKEN="lmstudio"
 +export ANTHROPIC_API_KEY=""
 +export ANTHROPIC_BASE_URL="http://192.168.100.60:1234"
 +
 +claude --model openai/gpt-oss-120b
 +</code>
 +
 +モデル名は claude コマンドのパラメータで渡します。
  
  
  
ai/localllm/claudecode.1770806534.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki