ユーザ用ツール

サイト用ツール


ai:localllm:codex

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:localllm:codex [2026/02/11 19:17] – [ollama cloud (ollama turbo) の例] ogaai:localllm:codex [2026/02/11 19:52] (現在) – [Ollama : 他の PC で動いている ollama を使う場合] oga
行 1: 行 1:
-====== OpenAI Codex CLI ======+====== OpenAI Codex CLI で Local LLM を使う ======
  
   * [[https://developers.openai.com/codex/cli/]]   * [[https://developers.openai.com/codex/cli/]]
行 11: 行 11:
  
 codex に限った話ではありませんが、provider を新規に登録する場合 "ollama" や "lmstudio" 等の公式名称を避けたほうが無難です。 codex に限った話ではありませんが、provider を新規に登録する場合 "ollama" や "lmstudio" 等の公式名称を避けたほうが無難です。
-プリセットで "ollama" や "lmstudio" などの provider が組み込まれている可能性があり、設定しても正しく反映されない場合があります。+ツール自体にプリセットで "ollama" や "lmstudio" などの provider が組み込まれている場合があり、設定しても正しく反映されない可能性があります。
 "ollamalocal" など、別の名前にしておいた方が確実です。 "ollamalocal" など、別の名前にしておいた方が確実です。
  
行 17: 行 17:
  
  
-==== 他の PC で動いている ollama を使う場合 ====+===== Ollama : 他の PC で動いている ollama を使う場合 =====
  
 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。
-base_url の IP アドレス (192.168.100.21) の部分は ollama が動作している PC ものに置き換えてください。+base_url の IP アドレス (192.168.100.50) の部分は ollama が動作している PC ものに置き換えてください。
  
  
行 29: 行 29:
 [model_providers.ollamalocal] [model_providers.ollamalocal]
 name = "Ollama" name = "Ollama"
-base_url = "http://192.168.100.21:11434/v1"+base_url = "http://192.168.100.50:11434/v1"
 </code> </code>
  
 もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。 もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。
  
 +OpenAI 互換 API が使われており baseUrl には "v1" まで含めます。
  
  
-==== ollama cloud (ollama turbo) の例 ====+ 
 +===== Ollama cloud (ollama turbo) の例 =====
  
 ollama cloud (旧 ollama turbo) の場合は API Key が必要です。 ollama cloud (旧 ollama turbo) の場合は API Key が必要です。
行 42: 行 44:
  
 <code ini> <code ini>
-model = "gpt-oss:120b"+model = "gpt-oss:120b-cloud"
 model_provider = "ollamatrubo" model_provider = "ollamatrubo"
  
行 50: 行 52:
 env_key = "OLLAMA_API_KEY" env_key = "OLLAMA_API_KEY"
 </code> </code>
 +
 +
 +<code bash>
 +$ export OLLAMA_API_KEY="~"
 +$ codex
 +</code>
 +
 +===== LMStudio : 他の PC で動いている LMstudio を使う場合 =====
 +
 +他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。
 +base_url の IP アドレス (192.168.100.60) は置き換えてください。
 +
 +
 +<code ini>
 +model = "openai/gpt-oss-120b"
 +model_provider = "lmstudiolocal"
 +
 +[model_providers.lmstudiolocal]
 +name = "LMStudio"
 +base_url = "http://192.168.100.60:1234/v1"
 +</code>
 +
 +もちろん自分自身で LMStudio が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。
  
  
  
ai/localllm/codex.1770805034.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki