ユーザ用ツール

サイト用ツール


ai:openclaw:localllm

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:openclaw:localllm [2026/04/07 22:46] – [🔵 他の PC 上で走っている LMStudio を使用する場合] ogaai:openclaw:localllm [2026/04/07 22:58] (現在) – [🟩 llama.cpp] oga
行 152: 行 152:
  
  
-==== 🔵 OpenClaw と同じ PC にインストールした Ollama を使う場合 ====+==== 🔵 インストーラーを使う場合 ==== 
 + 
 + 
 +OpenClaw に最初から含まれているので、インストール時の指示に従ってください。 
 +あとから Ollama モデルに変更または追加したい場合は以下のようにします。 
 + 
 +Ollama が走っているのは OpenClaw と同じ PC でも他の PC でも構いません。
  
  
行 175: 行 181:
  
  
-=== (3) OpenClaw の起動 ===+=== (3) OpenClaw の設定 === 
 + 
 + 
 +  - model の設定を開始します 
 +    * <code bash> 
 +openclaw configure --section model 
 +</code> 
 +  - 「Where will the Gateway run?」 
 +    *「Local (this machine)」を選択 
 +  - 「Model/auth provider」 
 +    * Ollama を選択 
 +  - 「Ollama base URL」 
 +    * Ollama をインストールした PC の URL を入れます。もし OpenClaw と同じ PC で走っている場合は「http://127.0.0.1:11434」です 
 +  - 「Ollama mode」 
 +    * もし Local PC 上だけで使用するなら「Local」を選択します 
 +  - モデル一覧が出たらモデルを選択します 
 + 
 + 
 +++++古いやり方|
  
 ''ollama launch openclaw --model <モデル名>'' を実行すると自動的に OpenClaw が起動します。~/.openclaw/openclaw.json も書き換えてくれます。 ''ollama launch openclaw --model <モデル名>'' を実行すると自動的に OpenClaw が起動します。~/.openclaw/openclaw.json も書き換えてくれます。
行 184: 行 208:
 ollama launch openclaw --model gpt-oss:120b ollama launch openclaw --model gpt-oss:120b
 </code> </code>
 +
 +++++
 +
 +==== 🔵 直接 openclaw.json を書き換える場合 ====
  
  
-==== 🔵 他の PC 上で走っている ollama を直接使用する場合 ==== 
  
 直接 ~/.openclaw/openclaw.json を書き換えます。 直接 ~/.openclaw/openclaw.json を書き換えます。
行 251: 行 278:
  
  
-==== 🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合 ==== +==== 🔵 Ollama Cloud を使う場合 ====
- +
-この方法を使うと簡単にセットアップを行うことができます。 +
-API Key を設定に書かなくて済むことや Web 検索機能が使えることからこちらの方法がお勧めです。 +
-その代わり ollama コマンドのインストールが必要で、4.5 GB ほどストレージ容量を消費します。 +
- +
- +
-=== (1) ollama のインストール === +
- +
-あらかじめ OpenClaw が動作している PC やサーバー上に [[https://ollama.com/|Ollama]] をインストールしておく必要があります。 +
- +
-  * [[https://ollama.com/]] +
- +
- +
-また apiKey の代わりに ''ollama signin'' で認証しておいてください。 +
- +
- +
-=== (2) OpenClaw の起動 === +
- +
-''ollama launch openclaw --model <モデル名>'' で実行すると自動的に OpenClaw が起動します。openclaw.json も書き換えてくれます。 +
-モデル指定を行わない場合はおすすめのモデルから選択できるようになります。 +
- +
-例 +
- +
-  * ''ollama launch openclaw --model glm-5:cloud'' +
- +
- +
-もしメニューでモデルを選択し直す場合は ''--config'' をつけてください。 +
- +
-  * ''ollama launch openclaw --config'' +
- +
- +
-この方法で OpenClaw をセットアップした場合は、ollama_web_search 用の plugin が自動的にインストールされます。 +
- +
-++++🔵 Ollama cloud に直接アクセスする場合 (非推奨)| +
-==== 🔵 Ollama cloud に直接アクセスする場合 (非推奨) ==== +
- +
- +
-この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 +
-ollama のランタイムはそれなりに大きいのでストレージの節約になります。 +
-ただし今のところ vision モデルがうまく動作しません。 +
-なお ollama_web_search を使う場合は、ollama コマンド経由でのインストールをお勧めします。 +
- +
- +
-コンテキストウィンドウ長は必要に応じて修正してください。 +
-apiKey が必要です。 +
- +
-<code javascript> +
-+
-  ~ +
- +
-  "models":+
-    "providers":+
-      "ollama-turbo":+
-        "baseUrl": "https://ollama.com/v1", +
-        "apiKey": "<OLLAMA CLOUD API KEY>", +
-        "api": "openai-completions", +
-        "models":+
-          { +
-            "id": "glm-5:cloud", +
-            "name": "glm-5:cloud", +
-            "reasoning": true, +
-            "input":+
-              "text" +
-            ], +
-            "cost":+
-              "input": 0, +
-              "output": 0, +
-              "cacheRead": 0, +
-              "cacheWrite":+
-            }, +
-            "contextWindow": 131072, +
-            "maxTokens": 32768 +
-          }, +
-          { +
-            "id": "kimi-k2.5:cloud", +
-            "name": "kimi-k2.5:cloud", +
-            "reasoning": true, +
-            "input":+
-              "text" +
-            ], +
-            "cost":+
-              "input": 0, +
-              "output": 0, +
-              "cacheRead": 0, +
-              "cacheWrite":+
-            }, +
-            "contextWindow": 131072, +
-            "maxTokens": 32768 +
-          } +
-        ] +
-      } +
-    } +
-  }, +
- +
-  ~  +
- +
-  "agents":+
-    "defaults":+
-      "model":+
-        "primary": "ollama-turbo/glm-5:cloud" +
-      }, +
-      "workspace": "/home/~/.openclaw/workspace", +
-      "compaction":+
-        "mode": "safeguard" +
-      }, +
-      "timeoutSeconds": 1800, +
-      "maxConcurrent": 4, +
-      "subagents":+
-        "maxConcurrent":+
-      } +
-    } +
-  } +
-+
-</code> +
- +
-+++++
  
 +OpenClaw 自体に Ollama Provider が含まれるようになったので特に何も必要ありません。
 +あらかじめ ollama をインストールしておき、''ollama signin'' でログインしておけば全く同じようにセットアップできます。
  
  
行 380: 行 293:
 === サーバーの例 === === サーバーの例 ===
  
-RAM 96GB + GPU VRAM 16GB+RAM 96GB + GPU VRAM 16GB の例
  
 <code> <code>
-llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf --alias Qwen3.5-122B-A10B -t 8 --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20+llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf --alias Qwen3.5-122B-A10B  --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20
 </code> </code>
  
-RAM 128GB + GPU VRAM 16GB+RAM 128GB + GPU VRAM 16GB の例
  
 <code> <code>
-llama-server --model Qwen3.5-122B-A10B-UD-Q6_K_XL-00001-of-00004.gguf --alias Qwen3.5-122B-A10B  -t 8 --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20+llama-server --model Qwen3.5-122B-A10B-UD-Q4_K_XL-00001-of-00003.gguf --alias Qwen3.5-122B-A10B --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20
 </code> </code>
 ==== 🔵 他の PC 上で走っている llama-server を使用する場合 ==== ==== 🔵 他の PC 上で走っている llama-server を使用する場合 ====
行 436: 行 349:
         "primary": "llamacpp-pc/Qwen3.5-122B-A10B"         "primary": "llamacpp-pc/Qwen3.5-122B-A10B"
       },       },
-      "workspace": "/home/~/.openclaw/workspace", + 
-      "compaction": { +       
-        "mode": "safeguard" +
-      }, +
-      "timeoutSeconds": 1800, +
-      "maxConcurrent": 4, +
-      "subagents":+
-        "maxConcurrent":+
-      }+
     }     }
   }   }
ai/openclaw/localllm.1775569585.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki