ユーザ用ツール

サイト用ツール


ai:openclaw:localllm

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:openclaw:localllm [2026/02/20 21:33] – [🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合] ogaai:openclaw:localllm [2026/02/20 22:47] (現在) – [🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合] oga
行 34: 行 34:
  
  
 +==== Local LLM で使用するモデルについての注意点 ====
 +
 +OpenClaw にネットワークアクセスを許可する場合は、必ず 300b 以上のパラメータ数を持った LLM を使用してください。
 +例えば OpenAI の gpt-oss 120b はローカル PC 上でも動作可能ですが、パラメータ数が少ないのでセキュリティ面からは非推奨となります。
 +もちろん 120b でも OpenClaw を使用すること自体は可能なので、クローズドな SandBox 上で動作テストを行うことはできます。
 +以下の設定では gpt-oss:120b を使用している部分がありますが、仮想マシンを使った完全な隔離された環境での実験利用を想定していますのでご注意ください。
  
  
行 208: 行 214:
  
 コンテキストウィンドウ長は必要に応じて修正してください。 コンテキストウィンドウ長は必要に応じて修正してください。
 +apiKey が必要です。
  
 <code javascript> <code javascript>
行 220: 行 227:
         "api": "openai-completions",         "api": "openai-completions",
         "models": [         "models": [
-          { 
-            "id": "gpt-oss:120b-cloud", 
-            "name": "gpt-oss:120b-cloud", 
-            "reasoning": true, 
-            "input": [ 
-              "text" 
-            ], 
-            "cost": { 
-              "input": 0, 
-              "output": 0, 
-              "cacheRead": 0, 
-              "cacheWrite": 0 
-            }, 
-            "contextWindow": 131072, 
-            "maxTokens": 1310720 
-          }, 
           {           {
             "id": "glm-5:cloud",             "id": "glm-5:cloud",
行 255: 行 246:
             "id": "kimi-k2.5:cloud",             "id": "kimi-k2.5:cloud",
             "name": "kimi-k2.5:cloud",             "name": "kimi-k2.5:cloud",
-            "reasoning": true, 
-            "input": [ 
-              "text" 
-            ], 
-            "cost": { 
-              "input": 0, 
-              "output": 0, 
-              "cacheRead": 0, 
-              "cacheWrite": 0 
-            }, 
-            "contextWindow": 131072, 
-            "maxTokens": 1310720 
-          }, 
-          { 
-            "id": "gemini-3-flash-preview:cloud", 
-            "name": "gemini-3-flash-preview:cloud", 
             "reasoning": true,             "reasoning": true,
             "input": [             "input": [
行 323: 行 298:
  
   * [[https://ollama.com/]]   * [[https://ollama.com/]]
 +
 +
 +また apiKey の代わりに ''ollama signin'' で認証しておいてください。
  
  
行 335: 行 313:
  
  
 +もしメニューでモデルを選択し直す場合は ''--config'' をつけてください。
  
- +  * ''ollama launch openclaw --config''
  
  
  
  
ai/openclaw/localllm.1771590781.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki