ユーザ用ツール

サイト用ツール


ai:openclaw:localllm

文書の過去の版を表示しています。


OpenClaw で Local LLM をセットアップする場合の設定例

Local LLM を利用するようにセットアップするには直接 ~/.openclaw/openclaw.json を編集するのが確実です。

  1. models.providers を定義して任意の provider を追加します。
  2. agents.defaults.model.primary に、使用する provider と model を指定します。

注意点など

プロバイダを追加する場合の注意点

プロバイダ名を既存のありそうな名称 “ollama” や “lmstudio” と重ならないようにしてください。 OpenClaw にはプリセットのプロバイダとして “ollama” がすでに含まれておりこれらを完全に上書きすることができません。

例えば agents.defaults.model.primary に “ollama/gpt-oss:120b” を指定した場合、必ず localhost (127.0.0.1:11343) の ollama を見に行きます。 そのため baseUrl を定義して他の PC に接続しようとしても失敗します。

baseUrl を設定して他の PC やサーバーに接続する場合は設定するプロバイダ名に注意してください。

設定ファイルを書き換えてモデルを変更する場合の注意点 (1)

.openclaw/openclaw.json を書き換えて設定を変更したあとは、確実に読み込ませるために Gateway を再起動してください。 openclaw status 等のコマンドで一見読み込まれているように見えても、Gateway には読み込まれていない可能性があります。

確実に設定を反映させるためには「openclaw gateway restart」の実行を忘れないようにしてください。

設定ファイルを書き換えてモデルを変更する場合の注意点 (2)

openclaw statusopenclaw tui などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。 古いモデル名が表示されたままでも openclaw gateway restart していれば大丈夫なのでそのまま使用してください。

LMStudio

  • LMStudio だけでなく llama.cpp の llama-server など、openai 互換 API を使用しているものなら同じように設定できます。

🔵 他の PC 上で走っている LMStudio を使用する場合

{
  ~
 
  "models": {
    "providers": {
      "lmstudiolocalpc": {
        "baseUrl": "http://<LMSTUDIO HOST ADDRESS>:1234/v1",
        "apiKey": "lmstudio",
        "api": "openai-completions",
        "models": [
          {
            "id": "openai/gpt-oss-120b",
            "name": "openai/gpt-oss-120b",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 65536,
            "maxTokens": 655360
          },
          {
            "id": "minimax-m2.5",
            "name": "minimax-m2.5",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 16384,
            "maxTokens": 163840
          },
          {
            "id": "qwen/qwen3-vl-8b",
            "name": "qwen/qwen3-vl-8b",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 32768
          }
        ]
      }
    }
  },
 
  ~
 
  "agents": {
    "defaults": {
      "model": {
        "primary": "lmstudiolocalpc/openai/gpt-oss-120b"
      },
      "imageModel": {
        "primary": "lmstudiolocalpc/qwen/qwen3-vl-8b"
      },
      "workspace": "/home/~/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "timeoutSeconds": 1800,
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  }
}

Ollama

🔵 他の PC 上で走っている ollama を直接使用する場合

{
  ~
 
  "models": {
    "providers": {
      "ollamalocalpc": {
        "baseUrl": "http://<OLLAMA HOST ADDRESS>:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-oss:120b",
            "name": "gpt-oss:120b",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 65536,
            "maxTokens": 655360
          }
        ]
      }
    }
  },
 
  ~ 
 
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollamalocalpc/gpt-oss:120b"
      },
      "workspace": "/home/~/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "timeoutSeconds": 1800,
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  }
}

Ollama Cloud (旧 Ollama-Turbo)

🔵 Ollama cloud に直接アクセスする場合

この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 ollama のランタイムはそれなりに大きいのでストレージの節約になります。 ただし今のところ vision モデルがうまく動作しません。

コンテキストウィンドウ長は必要に応じて修正してください。

{
  ~
 
  "models": {
    "providers": {
      "ollamaturbo": {
        "baseUrl": "https://ollama.com/v1",
        "apiKey": "<OLLAMA CLOUD API KEY>",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-oss:120b-cloud",
            "name": "gpt-oss:120b-cloud",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 1310720
          },
          {
            "id": "glm-5:cloud",
            "name": "glm-5:cloud",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 1310720
          },
          {
            "id": "kimi-k2.5:cloud",
            "name": "kimi-k2.5:cloud",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 1310720
          },
          {
            "id": "gemini-3-flash-preview:cloud",
            "name": "gemini-3-flash-preview:cloud",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 1310720
          }
        ]
      }
    }
  },
 
  ~ 
 
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollamaturbo/glm-5:cloud"
      },
      "workspace": "/home/~/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "timeoutSeconds": 1800,
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  }
}

🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合

(1) ollama のインストール

あらかじめ OpenClaw が動作している PC やサーバー上に Ollama をインストールしておく必要があります。

(2) OpenClaw の起動

ollama launch openclaw –model <モデル名> で実行すると自動的に OpenClaw が起動します。openclaw.json も書き換えてくれます。 モデル指定を行わない場合はおすすめのモデルから選択できるようになります。

  • ollama launch openclaw –model glm-5:cloud
ai/openclaw/localllm.1771590622.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki