ユーザ用ツール

サイト用ツール


ai:localllm:codex

文書の過去の版を表示しています。


OpenAI Codex CLI

ollama

他の PC で動いている Ollama に接続する場合は、$HOME/.codex/config.toml に以下のような設定を行います。 base_url の IP アドレス (192.168.100.21) の部分は正しいものに置き換えてください。

model = "gpt-oss:120b"
model_provider = "ollamalocal"
 
[model_providers.ollamalocal]
name = "Ollama"
base_url = "http://192.168.100.21:11434/v1"

ollama cloud (ollama turbo) の例

model = "gpt-oss:120b"
model_provider = "ollamalocal"
 
[model_providers.ollamaturbo]
name = "Ollama"
base_url = "https://ollama.com/v1"
env_key = "OLLAMA_API_KEY"
ai/localllm/codex.1770804523.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki