文書の過去の版を表示しています。
目次
OpenClaw で Local LLM をセットアップする場合の設定例
Local LLM を利用するようにセットアップするには直接 ~/.openclaw/openclaw.json を編集するのが確実です。
- models.providers を定義して任意の provider を追加します。
- agents.defaults.model.primary に、使用する provider と model を指定します。
注意点など
プロバイダを追加する場合の注意点
独自のプロバイダを追加する場合は、既存のありそうな名称 “ollama” や “lmstudio” と重ならないようにしてください。 OpenClaw のプリセット、もしくは今後追加された場合に名称が衝突する可能性があります。 最初から重ならない名前にしておけば、意図しない挙動になることも安心です。
設定ファイルを書き換えてモデルを変更する場合の注意点 (1)
.openclaw/openclaw.json を書き換えて設定を変更したあとは、確実に読み込ませるために Gateway を再起動してください。 openclaw status 等のコマンドで一見読み込まれているように見えても、Gateway には読み込まれていない可能性があります。
確実に設定を反映させるためには「openclaw gateway restart」の実行を忘れないようにしてください。
設定ファイルを書き換えてモデルを変更する場合の注意点 (2)
openclaw status や openclaw tui などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。
古いモデル名が表示されたままでも openclaw gateway restart していれば大丈夫なのでそのまま使用してください。
Local LLM で使用するモデルについての注意点
OpenClaw にネットワークアクセスを許可する場合は、必ず 300b 以上のパラメータ数を持った LLM を使用してください。 例えば OpenAI の gpt-oss 120b はローカル PC 上でも動作可能ですが、パラメータ数が少ないのでセキュリティ面からは非推奨となります。 もちろん 120b でも OpenClaw を使用すること自体は可能なので、クローズドな SandBox 上で動作テストを行うことはできます。 以下の設定では gpt-oss:120b を使用している部分がありますが、仮想マシンを使った完全な隔離された環境での実験利用を想定していますのでご注意ください。
🟩 LMStudio
- openai 互換 API を使用しているものなら同じように設定できます。
🔵 他の PC 上で走っている LMStudio を使用する場合
直接 ~/.openclaw/openclaw.json を書き換えます。
{ ~ "models": { "providers": { "lmstudio-pc": { "baseUrl": "http://<LMSTUDIO HOST ADDRESS>:1234/v1", "apiKey": "lmstudio", "api": "openai-completions", "models": [ { "id": "openai/gpt-oss-120b", "name": "openai/gpt-oss-120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 32768 }, { "id": "qwen3.5-122b-a10b", "name": "qwen3.5-122b-a10b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 32768 }, { "id": "qwen/qwen3-vl-8b", "name": "qwen/qwen3-vl-8b", "reasoning": true, "input": [ "text", "image" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 32768 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "lmstudio-pc/openai/gpt-oss-120b" }, "imageModel": { "primary": "lmstudio-pc/qwen/qwen3-vl-8b" }, ~ } } }
🟩 Ollama
🔵 インストーラーを使う場合
OpenClaw に最初から含まれているので、インストール時の指示に従ってください。 あとから Ollama モデルに変更または追加したい場合は以下のようにします。
Ollama が走っているのは OpenClaw と同じ PC でも他の PC でも構いません。
(1) ollama のインストール
ollama 自体はすでにインストールされているものとします。 もしまだインストールしていない、もしくは最新版に更新されていない場合はこちらからインストールしてください。
(2) Model のダウンロード
ollama pull コマンドで使用するモデルをダウンロードしておきます。
例
ollama pull gpt-oss:120b
(3) OpenClaw の設定
- model の設定を開始します
openclaw configure --section model
- 「Where will the Gateway run?」
- 「Local (this machine)」を選択
- 「Model/auth provider」
- Ollama を選択
- 「Ollama base URL」
- Ollama をインストールした PC の URL を入れます。もし OpenClaw と同じ PC で走っている場合は「http://127.0.0.1:11434」です
- 「Ollama mode」
- もし Local PC 上だけで使用するなら「Local」を選択します
- モデル一覧が出たらモデルを選択します
🔵 直接 openclaw.json を書き換える場合
直接 ~/.openclaw/openclaw.json を書き換えます。
{ ~ "models": { "providers": { "ollama-pc": { "baseUrl": "http://<OLLAMA HOST ADDRESS>:11434", "apiKey": "ollama-local", "api": "ollama", "models": [ { "id": "gpt-oss:120b", "name": "gpt-oss:120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 32768 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollama-pc/gpt-oss:120b" }, ~ } } }
🟩 Ollama Cloud
🔵 Ollama Cloud を使う場合
OpenClaw 自体に Ollama Provider が含まれるようになったので特に何も必要ありません。
あらかじめ ollama をインストールしておき、ollama signin でログインしておけば全く同じようにセットアップできます。
🟩 llama.cpp
サーバーの例
RAM 96GB + GPU VRAM 16GB
llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf --alias Qwen3.5-122B-A10B -t 8 --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20
RAM 128GB + GPU VRAM 16GB
llama-server --model Qwen3.5-122B-A10B-UD-Q6_K_XL-00001-of-00004.gguf --alias Qwen3.5-122B-A10B -t 8 --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20
🔵 他の PC 上で走っている llama-server を使用する場合
直接 ~/.openclaw/openclaw.json を書き換えます。
{ ~ "models": { "providers": { "llamacpp-pc": { "baseUrl": "http://<LLAMA-SERVER IP ADDRESS>:8080/v1", "apiKey": "llama.cpp", "api": "openai-completions", "models": [ { "id": "Qwen3.5-122B-A10B", "name": "Qwen3.5-122B-A10B", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 32768 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "llamacpp-pc/Qwen3.5-122B-A10B" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
