ユーザ用ツール

サイト用ツール


ai:localllm:codex

文書の過去の版を表示しています。


OpenAI Codex CLI

Cordex CLI では Local LLM を使用することができます。

公式手順のように「 ollama launch codex 」 を使って起動することもできますが、codex を使用する PC 上に直接 ollama をインストールしておく必要があります。 ここでは ollama をインストールせずに、直接他の PC やサーバーに接続する方法を記載します。

codex に限った話ではありませんが、provider を新規に登録する場合 “ollama” や “lmstudio” 等の公式名称を避けたほうが無難です。 プリセットで “ollama” や “lmstudio” などの provider が組み込まれている可能性があり、設定しても正しく反映されない場合があります。 “ollamalocal” など、別の名前にしておいた方が確実です。

他の PC で動いている ollama を使う場合

他の PC で動いている Ollama に接続する場合は、$HOME/.codex/config.toml に以下のような設定を行います。 base_url の IP アドレス (192.168.100.50) の部分は ollama が動作している PC ものに置き換えてください。

model = "gpt-oss:120b"
model_provider = "ollamalocal"
 
[model_providers.ollamalocal]
name = "Ollama"
base_url = "http://192.168.100.50:11434/v1"

もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。

Ollama cloud (ollama turbo) の例

ollama cloud (旧 ollama turbo) の場合は API Key が必要です。 $HOME/.codex/config.toml に以下のように設定したあと、環境変数 OLLAMA_API_KEY に API Key を設定しておいてください。

model = "gpt-oss:120b"
model_provider = "ollamatrubo"
 
[model_providers.ollamaturbo]
name = "Ollama"
base_url = "https://ollama.com/v1"
env_key = "OLLAMA_API_KEY"

LMStudio : 他の PC で動いている LMstudio を使う場合

他の PC で動いている Ollama に接続する場合は、$HOME/.codex/config.toml に以下のような設定を行います。 base_url の IP アドレス (192.168.100.60) の部分は ollama が動作している PC ものに置き換えてください。

model = "openai/gpt-oss-120b"
model_provider = "lmstudiolocal"
 
[model_providers.lmstudiolocal]
name = "LMStudio"
base_url = "http://192.168.100.60:1234/v1"

もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。

ai/localllm/codex.1770805186.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki