文書の過去の版を表示しています。
目次
OpenClaw で Local LLM をセットアップする場合の設定例
Local LLM を利用するようにセットアップするには直接 ~/.openclaw/openclaw.json を編集するのが確実です。
- models.providers を定義して任意の provider を追加します。
- agents.defaults.model.primary に、使用する provider と model を指定します。
注意点など
プロバイダを追加する場合の注意点
プロバイダ名を既存のありそうな名称 “ollama” や “lmstudio” と重ならないようにしてください。 OpenClaw にはプリセットのプロバイダとして “ollama” がすでに含まれておりこれらを完全に上書きすることができません。
例えば agents.defaults.model.primary に “ollama/gpt-oss:120b” を指定した場合、必ず localhost (127.0.0.1:11343) の ollama を見に行きます。 そのため baseUrl を定義して他の PC に接続しようとしても失敗します。
baseUrl を設定して他の PC やサーバーに接続する場合は設定するプロバイダ名に注意してください。
設定ファイルを書き換えてモデルを変更する場合の注意点 (1)
.openclaw/openclaw.json を書き換えて設定を変更したあとは、確実に読み込ませるために Gateway を再起動してください。 openclaw status 等のコマンドで一見読み込まれているように見えても、Gateway には読み込まれていない可能性があります。
確実に設定を反映させるためには「openclaw gateway restart」の実行を忘れないようにしてください。
設定ファイルを書き換えてモデルを変更する場合の注意点 (2)
openclaw status などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。
モデルの変更が反映されていないと思って焦らないようにしてください。
LMStudio
- LMStudio だけでなく llama.cpp の llama-server など、openai 互換 API を使用しているものなら同じように設定できます。
🔵 他の PC 上で走っている LMStudio を使用する場合
{ ~ "models": { "providers": { "lmstudiolocalpc": { "baseUrl": "http://<LMSTUDIO HOST ADDRESS>:1234/v1", "apiKey": "lmstudio", "api": "openai-completions", "models": [ { "id": "openai/gpt-oss-120b", "name": "openai/gpt-oss-120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 655360 }, { "id": "minimax-m2.5", "name": "minimax-m2.5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 16384, "maxTokens": 163840 }, { "id": "qwen/qwen3-vl-8b", "name": "qwen/qwen3-vl-8b", "reasoning": true, "input": [ "text", "image" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 32768 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "lmstudiolocalpc/openai/gpt-oss-120b" }, "imageModel": { "primary": "lmstudiolocalpc/qwen/qwen3-vl-8b" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
Ollama
🔵 他の PC 上で走っている ollama を直接使用する場合
{ ~ "models": { "providers": { "ollamalocalpc": { "baseUrl": "http://<OLLAMA HOST ADDRESS>:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "gpt-oss:120b", "name": "gpt-oss:120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 655360 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollamalocalpc/gpt-oss:120b" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
Ollama Cloud (旧 Ollama-Turbo)
🔵 Ollama cloud に直接アクセスする場合
この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 ollama のランタイムはそれなりに大きいのでストレージの節約になります。
コンテキストウィンドウ長は必要に応じて修正してください。
{ ~ "models": { "providers": { "ollamaturbo": { "baseUrl": "https://ollama.com/v1", "apiKey": "<OLLAMA CLOUD API KEY>", "api": "openai-completions", "models": [ { "id": "gpt-oss:120b-cloud", "name": "gpt-oss:120b-cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 }, { "id": "glm-5:cloud", "name": "glm-5:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 }, { "id": "kimi-k2.5:cloud", "name": "kimi-k2.5:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 }, { "id": "gemini-3-flash-preview:cloud", "name": "gemini-3-flash-preview:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollamaturbo/glm-5:cloud" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
