ユーザ用ツール

サイト用ツール


ai:localllm:codex

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:localllm:codex [2026/02/11 19:08] – [ollama] ogaai:localllm:codex [2026/02/11 19:52] (現在) – [Ollama : 他の PC で動いている ollama を使う場合] oga
行 1: 行 1:
-====== OpenAI Codex CLI ======+====== OpenAI Codex CLI で Local LLM を使う ======
  
   * [[https://developers.openai.com/codex/cli/]]   * [[https://developers.openai.com/codex/cli/]]
行 5: 行 5:
  
  
-==== ollama ====+Cordex CLI では Local LLM を使用することができます。 
 + 
 +公式手順のように「 ollama launch codex 」 を使って起動することもできますが、codex を使用する PC 上に直接 ollama をインストールしておく必要があります。 
 +ここでは ollama をインストールせずに、直接他の PC やサーバーに接続する方法を記載します。 
 + 
 +codex に限った話ではありませんが、provider を新規に登録する場合 "ollama" や "lmstudio" 等の公式名称を避けたほうが無難です。 
 +ツール自体にプリセットで "ollama" や "lmstudio" などの provider が組み込まれている場合があり、設定しても正しく反映されない可能性があります。 
 +"ollamalocal" など、別の名前にしておいた方が確実です。 
 + 
 + 
 + 
 + 
 +===== Ollama : 他の PC で動いている ollama を使う場合 =====
  
 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。
-base_url の IP アドレス (192.168.100.21) の部分はしいものに置き換えてください。+base_url の IP アドレス (192.168.100.50) の部分は ollama が動作る PC ものに置き換えてください。 
  
 <code ini> <code ini>
行 16: 行 29:
 [model_providers.ollamalocal] [model_providers.ollamalocal]
 name = "Ollama" name = "Ollama"
-base_url = "http://192.168.100.21:11434/v1"+base_url = "http://192.168.100.50:11434/v1"
 </code> </code>
  
 +もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。
  
 +OpenAI 互換 API が使われており baseUrl には "v1" まで含めます。
  
  
-==== ollama cloud (ollama turbo) の例 ==== 
  
-<code toml> +===== Ollama cloud (ollama turbo) の例 ===== 
-model = "gpt-oss:120b" + 
-model_provider = "ollamalocal"+ollama cloud (旧 ollama turbo) の場合は API Key が必要です。 
 +**''<nowiki>$HOME/.codex/config.toml</nowiki>''**  に以下のように設定したあと、環境変数 OLLAMA_API_KEY に API Key を設定しておいてください。 
 + 
 +<code ini
 +model = "gpt-oss:120b-cloud
 +model_provider = "ollamatrubo"
  
 [model_providers.ollamaturbo] [model_providers.ollamaturbo]
行 33: 行 52:
 env_key = "OLLAMA_API_KEY" env_key = "OLLAMA_API_KEY"
 </code> </code>
 +
 +
 +<code bash>
 +$ export OLLAMA_API_KEY="~"
 +$ codex
 +</code>
 +
 +===== LMStudio : 他の PC で動いている LMstudio を使う場合 =====
 +
 +他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。
 +base_url の IP アドレス (192.168.100.60) は置き換えてください。
 +
 +
 +<code ini>
 +model = "openai/gpt-oss-120b"
 +model_provider = "lmstudiolocal"
 +
 +[model_providers.lmstudiolocal]
 +name = "LMStudio"
 +base_url = "http://192.168.100.60:1234/v1"
 +</code>
 +
 +もちろん自分自身で LMStudio が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。
  
  
  
ai/localllm/codex.1770804523.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki