Local LLM を利用するようにセットアップするには直接 ~/.openclaw/openclaw.json を編集するのが確実です。
プロバイダ名を既存のありそうな名称 “ollama” や “lmstudio” と重ならないようにしてください。 OpenClaw にはプリセットのプロバイダとして “ollama” がすでに含まれておりこれらを完全に上書きすることができません。
例えば agents.defaults.model.primary に “ollama/gpt-oss:120b” を指定した場合、必ず localhost (127.0.0.1:11343) の ollama を見に行きます。 そのため baseUrl を定義して他の PC に接続しようとしても失敗します。
baseUrl を設定して他の PC やサーバーに接続する場合は設定するプロバイダ名に注意してください。
.openclaw/openclaw.json を書き換えて設定を変更したあとは、確実に読み込ませるために Gateway を再起動してください。 openclaw status 等のコマンドで一見読み込まれているように見えても、Gateway には読み込まれていない可能性があります。
確実に設定を反映させるためには「openclaw gateway restart」の実行を忘れないようにしてください。
openclaw status や openclaw tui などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。
古いモデル名が表示されたままでも openclaw gateway restart していれば大丈夫なのでそのまま使用してください。
OpenClaw にネットワークアクセスを許可する場合は、必ず 300b 以上のパラメータ数を持った LLM を使用してください。 例えば OpenAI の gpt-oss 120b はローカル PC 上でも動作可能ですが、パラメータ数が少ないのでセキュリティ面からは非推奨となります。 もちろん 120b でも OpenClaw を使用すること自体は可能なので、クローズドな SandBox 上で動作テストを行うことはできます。 以下の設定では gpt-oss:120b を使用している部分がありますが、仮想マシンを使った完全な隔離された環境での実験利用を想定していますのでご注意ください。
{ ~ "models": { "providers": { "lmstudiolocalpc": { "baseUrl": "http://<LMSTUDIO HOST ADDRESS>:1234/v1", "apiKey": "lmstudio", "api": "openai-completions", "models": [ { "id": "openai/gpt-oss-120b", "name": "openai/gpt-oss-120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 655360 }, { "id": "minimax-m2.5", "name": "minimax-m2.5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 16384, "maxTokens": 163840 }, { "id": "qwen/qwen3-vl-8b", "name": "qwen/qwen3-vl-8b", "reasoning": true, "input": [ "text", "image" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 32768 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "lmstudiolocalpc/openai/gpt-oss-120b" }, "imageModel": { "primary": "lmstudiolocalpc/qwen/qwen3-vl-8b" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
{ ~ "models": { "providers": { "ollamalocalpc": { "baseUrl": "http://<OLLAMA HOST ADDRESS>:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "gpt-oss:120b", "name": "gpt-oss:120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 655360 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollamalocalpc/gpt-oss:120b" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 ollama のランタイムはそれなりに大きいのでストレージの節約になります。 ただし今のところ vision モデルがうまく動作しません。
コンテキストウィンドウ長は必要に応じて修正してください。 apiKey が必要です。
{ ~ "models": { "providers": { "ollamaturbo": { "baseUrl": "https://ollama.com/v1", "apiKey": "<OLLAMA CLOUD API KEY>", "api": "openai-completions", "models": [ { "id": "glm-5:cloud", "name": "glm-5:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 }, { "id": "kimi-k2.5:cloud", "name": "kimi-k2.5:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollamaturbo/glm-5:cloud" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
この方法を使うと簡単にセットアップを行うことができます。 その代わり ollama コマンドのインストールが必要で、4.5 GB ほどストレージ容量を消費します。
あらかじめ OpenClaw が動作している PC やサーバー上に Ollama をインストールしておく必要があります。
また apiKey の代わりに ollama signin で認証しておいてください。
ollama launch openclaw –model <モデル名> で実行すると自動的に OpenClaw が起動します。openclaw.json も書き換えてくれます。
モデル指定を行わない場合はおすすめのモデルから選択できるようになります。
例
ollama launch openclaw –model glm-5:cloud
もしメニューでモデルを選択し直す場合は –config をつけてください。
ollama launch openclaw –config