ユーザ用ツール

サイト用ツール


ai:localllm:codex

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:localllm:codex [2026/02/11 19:20] – [LMStudio : 他の PC で動いている LMstudio を使う場合] ogaai:localllm:codex [2026/02/11 19:52] (現在) – [Ollama : 他の PC で動いている ollama を使う場合] oga
行 1: 行 1:
-====== OpenAI Codex CLI ======+====== OpenAI Codex CLI で Local LLM を使う ======
  
   * [[https://developers.openai.com/codex/cli/]]   * [[https://developers.openai.com/codex/cli/]]
行 11: 行 11:
  
 codex に限った話ではありませんが、provider を新規に登録する場合 "ollama" や "lmstudio" 等の公式名称を避けたほうが無難です。 codex に限った話ではありませんが、provider を新規に登録する場合 "ollama" や "lmstudio" 等の公式名称を避けたほうが無難です。
-プリセットで "ollama" や "lmstudio" などの provider が組み込まれている可能性があり、設定しても正しく反映されない場合があります。+ツール自体にプリセットで "ollama" や "lmstudio" などの provider が組み込まれている場合があり、設定しても正しく反映されない可能性があります。
 "ollamalocal" など、別の名前にしておいた方が確実です。 "ollamalocal" など、別の名前にしておいた方が確実です。
  
行 17: 行 17:
  
  
-==== 他の PC で動いている ollama を使う場合 ====+===== Ollama : 他の PC で動いている ollama を使う場合 =====
  
 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。
行 34: 行 34:
 もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。 もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。
  
 +OpenAI 互換 API が使われており baseUrl には "v1" まで含めます。
  
  
-==== Ollama cloud (ollama turbo) の例 ====+ 
 +===== Ollama cloud (ollama turbo) の例 =====
  
 ollama cloud (旧 ollama turbo) の場合は API Key が必要です。 ollama cloud (旧 ollama turbo) の場合は API Key が必要です。
行 42: 行 44:
  
 <code ini> <code ini>
-model = "gpt-oss:120b"+model = "gpt-oss:120b-cloud"
 model_provider = "ollamatrubo" model_provider = "ollamatrubo"
  
行 52: 行 54:
  
  
-==== LMStudio : 他の PC で動いている LMstudio を使う場合 ====+<code bash> 
 +$ export OLLAMA_API_KEY="~" 
 +$ codex 
 +</code> 
 + 
 +===== LMStudio : 他の PC で動いている LMstudio を使う場合 =====
  
 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。 他の PC で動いている Ollama に接続する場合は、**''<nowiki>$HOME/.codex/config.toml</nowiki>''** に以下のような設定を行います。
ai/localllm/codex.1770805209.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki