文書の過去の版を表示しています。
目次
OpenClaw で Local LLM をセットアップする場合の設定例
Local LLM を利用するようにセットアップするには直接 ~/.openclaw/openclaw.json を編集するのが確実です。
- models.providers を定義して任意の provider を追加します。
- agents.defaults.model.primary に、使用する provider と model を指定します。
注意点など
プロバイダを追加する場合の注意点
プロバイダ名を既存のありそうな名称 “ollama” や “lmstudio” と重ならないようにしてください。 OpenClaw にはプリセットのプロバイダとして “ollama” がすでに含まれておりこれらを完全に上書きすることができません。
例えば agents.defaults.model.primary に “ollama/gpt-oss:120b” を指定した場合、必ず localhost (127.0.0.1:11343) の ollama を見に行きます。 そのため baseUrl を定義して他の PC に接続しようとしても失敗します。
baseUrl を設定して他の PC やサーバーに接続する場合は設定するプロバイダ名に注意してください。
設定ファイルを書き換えてモデルを変更する場合の注意点 (1)
.openclaw/openclaw.json を書き換えて設定を変更したあとは、確実に読み込ませるために Gateway を再起動してください。 openclaw status 等のコマンドで一見読み込まれているように見えても、Gateway には読み込まれていない可能性があります。
確実に設定を反映させるためには「openclaw gateway restart」の実行を忘れないようにしてください。
設定ファイルを書き換えてモデルを変更する場合の注意点 (2)
openclaw status や openclaw tui などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。
古いモデル名が表示されたままでも openclaw gateway restart していれば大丈夫なのでそのまま使用してください。
Local LLM で使用するモデルについての注意点
OpenClaw にネットワークアクセスを許可する場合は、必ず 300b 以上のパラメータ数を持った LLM を使用してください。 例えば OpenAI の gpt-oss 120b はローカル PC 上でも動作可能ですが、パラメータ数が少ないのでセキュリティ面からは非推奨となります。 もちろん 120b でも OpenClaw を使用すること自体は可能なので、クローズドな SandBox 上で動作テストを行うことはできます。 以下の設定では gpt-oss:120b を使用している部分がありますが、仮想マシンを使った完全な隔離された環境での実験利用を想定していますのでご注意ください。
LMStudio
- LMStudio だけでなく llama.cpp の llama-server など、openai 互換 API を使用しているものなら同じように設定できます。
🔵 他の PC 上で走っている LMStudio を使用する場合
{ ~ "models": { "providers": { "lmstudiolocalpc": { "baseUrl": "http://<LMSTUDIO HOST ADDRESS>:1234/v1", "apiKey": "lmstudio", "api": "openai-completions", "models": [ { "id": "openai/gpt-oss-120b", "name": "openai/gpt-oss-120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 655360 }, { "id": "minimax-m2.5", "name": "minimax-m2.5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 16384, "maxTokens": 163840 }, { "id": "qwen/qwen3-vl-8b", "name": "qwen/qwen3-vl-8b", "reasoning": true, "input": [ "text", "image" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 32768 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "lmstudiolocalpc/openai/gpt-oss-120b" }, "imageModel": { "primary": "lmstudiolocalpc/qwen/qwen3-vl-8b" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
Ollama
🔵 他の PC 上で走っている ollama を直接使用する場合
{ ~ "models": { "providers": { "ollamalocalpc": { "baseUrl": "http://<OLLAMA HOST ADDRESS>:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "gpt-oss:120b", "name": "gpt-oss:120b", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 65536, "maxTokens": 655360 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollamalocalpc/gpt-oss:120b" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
Ollama Cloud (旧 Ollama-Turbo)
🔵 Ollama cloud に直接アクセスする場合
この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 ollama のランタイムはそれなりに大きいのでストレージの節約になります。 ただし今のところ vision モデルがうまく動作しません。
コンテキストウィンドウ長は必要に応じて修正してください。 apiKey が必要です。
{ ~ "models": { "providers": { "ollamaturbo": { "baseUrl": "https://ollama.com/v1", "apiKey": "<OLLAMA CLOUD API KEY>", "api": "openai-completions", "models": [ { "id": "glm-5:cloud", "name": "glm-5:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 }, { "id": "kimi-k2.5:cloud", "name": "kimi-k2.5:cloud", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 1310720 } ] } } }, ~ "agents": { "defaults": { "model": { "primary": "ollamaturbo/glm-5:cloud" }, "workspace": "/home/~/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "timeoutSeconds": 1800, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } } }
🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合
この方法を使うと簡単にセットアップを行うことができます。 その代わり ollama コマンドのインストールが必要で、4.5 GB ほどストレージ容量を消費します。
(1) ollama のインストール
あらかじめ OpenClaw が動作している PC やサーバー上に Ollama をインストールしておく必要があります。
また apiKey の代わりに ollama login で認証しておいてください。
(2) OpenClaw の起動
ollama launch openclaw –model <モデル名> で実行すると自動的に OpenClaw が起動します。openclaw.json も書き換えてくれます。
モデル指定を行わない場合はおすすめのモデルから選択できるようになります。
例
ollama launch openclaw –model glm-5:cloud
もしメニューでモデルを選択し直す場合は –config をつけてください。
ollama launch openclaw –config
