ai:localllm:codex
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| ai:localllm:codex [2026/02/11 19:12] – [ollama] oga | ai:localllm:codex [2026/02/11 19:52] (現在) – [Ollama : 他の PC で動いている ollama を使う場合] oga | ||
|---|---|---|---|
| 行 1: | 行 1: | ||
| - | ====== OpenAI Codex CLI ====== | + | ====== OpenAI Codex CLI で Local LLM を使う |
| * [[https:// | * [[https:// | ||
| 行 10: | 行 10: | ||
| ここでは ollama をインストールせずに、直接他の PC やサーバーに接続する方法を記載します。 | ここでは ollama をインストールせずに、直接他の PC やサーバーに接続する方法を記載します。 | ||
| - | ==== ollama ==== | + | codex に限った話ではありませんが、provider を新規に登録する場合 " |
| + | ツール自体にプリセットで " | ||
| + | " | ||
| + | |||
| + | |||
| + | |||
| + | |||
| + | ===== Ollama : 他の PC で動いている | ||
| 他の PC で動いている Ollama に接続する場合は、**''< | 他の PC で動いている Ollama に接続する場合は、**''< | ||
| - | base_url の IP アドレス (192.168.100.21) の部分は ollama が動作している PC ものに置き換えてください。 | + | base_url の IP アドレス (192.168.100.50) の部分は ollama が動作している PC ものに置き換えてください。 |
| 行 22: | 行 29: | ||
| [model_providers.ollamalocal] | [model_providers.ollamalocal] | ||
| name = " | name = " | ||
| - | base_url = " | + | base_url = " |
| </ | </ | ||
| + | もちろん自分自身で ollama が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。 | ||
| + | OpenAI 互換 API が使われており baseUrl には " | ||
| - | ==== ollama cloud (ollama turbo) の例 ==== | ||
| - | <code toml> | + | ===== Ollama cloud (ollama turbo) の例 ===== |
| - | model = " | + | |
| - | model_provider = "ollamalocal" | + | ollama cloud (旧 ollama turbo) の場合は API Key が必要です。 |
| + | **'' | ||
| + | |||
| + | <code ini> | ||
| + | model = " | ||
| + | model_provider = "ollamatrubo" | ||
| [model_providers.ollamaturbo] | [model_providers.ollamaturbo] | ||
| 行 39: | 行 52: | ||
| env_key = " | env_key = " | ||
| </ | </ | ||
| + | |||
| + | |||
| + | <code bash> | ||
| + | $ export OLLAMA_API_KEY=" | ||
| + | $ codex | ||
| + | </ | ||
| + | |||
| + | ===== LMStudio : 他の PC で動いている LMstudio を使う場合 ===== | ||
| + | |||
| + | 他の PC で動いている Ollama に接続する場合は、**''< | ||
| + | base_url の IP アドレス (192.168.100.60) は置き換えてください。 | ||
| + | |||
| + | |||
| + | <code ini> | ||
| + | model = " | ||
| + | model_provider = " | ||
| + | |||
| + | [model_providers.lmstudiolocal] | ||
| + | name = " | ||
| + | base_url = " | ||
| + | </ | ||
| + | |||
| + | もちろん自分自身で LMStudio が動作しているのであれば、127.0.0.1 など localhost を指定することもできます。 | ||
ai/localllm/codex.1770804760.txt.gz · 最終更新: by oga
