ai:localllm:codex
文書の過去の版を表示しています。
OpenAI Codex CLI
ollama
他の PC で動いている Ollama に接続する場合は、$HOME/.codex/config.toml に以下のような設定を行います。
base_url の IP アドレス (192.168.100.21) の部分は正しいものに置き換えてください。
model = "gpt-oss:120b" model_provider = "ollamalocal" [model_providers.ollamalocal] name = "Ollama" base_url = "http://192.168.100.21:11434/v1"
ollama cloud (ollama turbo) の例
model = "gpt-oss:120b" model_provider = "ollamalocal" [model_providers.ollamaturbo] name = "Ollama" base_url = "https://ollama.com/v1" env_key = "OLLAMA_API_KEY"
ai/localllm/codex.1770804523.txt.gz · 最終更新: by oga
