ユーザ用ツール

サイト用ツール


ai:openclaw:localllm

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:openclaw:localllm [2026/02/20 21:09] – [🔵 他の PC 上で走っている ollama を使用する場合] ogaai:openclaw:localllm [2026/02/20 22:47] (現在) – [🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合] oga
行 29: 行 29:
 ==== 設定ファイルを書き換えてモデルを変更する場合の注意点 (2) ==== ==== 設定ファイルを書き換えてモデルを変更する場合の注意点 (2) ====
  
-''openclaw status'' などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。 +''openclaw status'' や ''openclaw tui'' などのコマンドで表示されるモデル名は、新しいものに切り替わるまで時間がかかります。 
-モデルの変更反映されていないと思って焦らないようにしてください。+古いモデル表示されたままでも ''openclaw gateway restart''ていれば大丈夫のでそのまま使用してください。
  
  
 +
 +==== Local LLM で使用するモデルについての注意点 ====
 +
 +OpenClaw にネットワークアクセスを許可する場合は、必ず 300b 以上のパラメータ数を持った LLM を使用してください。
 +例えば OpenAI の gpt-oss 120b はローカル PC 上でも動作可能ですが、パラメータ数が少ないのでセキュリティ面からは非推奨となります。
 +もちろん 120b でも OpenClaw を使用すること自体は可能なので、クローズドな SandBox 上で動作テストを行うことはできます。
 +以下の設定では gpt-oss:120b を使用している部分がありますが、仮想マシンを使った完全な隔離された環境での実験利用を想定していますのでご注意ください。
  
  
行 198: 行 205:
  
  
-==== 🔵 Ollama cloud (旧 Ollama turbo) に直接アクセスする場合 ====+====Ollama Cloud (旧 Ollama-Turbo===== 
 + 
 +==== 🔵 Ollama cloud に直接アクセスする場合 ====
  
 この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。
 ollama のランタイムはそれなりに大きいのでストレージの節約になります。 ollama のランタイムはそれなりに大きいのでストレージの節約になります。
 +ただし今のところ vision モデルがうまく動作しません。
  
 コンテキストウィンドウ長は必要に応じて修正してください。 コンテキストウィンドウ長は必要に応じて修正してください。
 +apiKey が必要です。
  
 <code javascript> <code javascript>
行 216: 行 227:
         "api": "openai-completions",         "api": "openai-completions",
         "models": [         "models": [
-          { 
-            "id": "gpt-oss:120b-cloud", 
-            "name": "gpt-oss:120b-cloud", 
-            "reasoning": true, 
-            "input": [ 
-              "text" 
-            ], 
-            "cost": { 
-              "input": 0, 
-              "output": 0, 
-              "cacheRead": 0, 
-              "cacheWrite": 0 
-            }, 
-            "contextWindow": 131072, 
-            "maxTokens": 1310720 
-          }, 
           {           {
             "id": "glm-5:cloud",             "id": "glm-5:cloud",
行 251: 行 246:
             "id": "kimi-k2.5:cloud",             "id": "kimi-k2.5:cloud",
             "name": "kimi-k2.5:cloud",             "name": "kimi-k2.5:cloud",
-            "reasoning": true, 
-            "input": [ 
-              "text" 
-            ], 
-            "cost": { 
-              "input": 0, 
-              "output": 0, 
-              "cacheRead": 0, 
-              "cacheWrite": 0 
-            }, 
-            "contextWindow": 131072, 
-            "maxTokens": 1310720 
-          }, 
-          { 
-            "id": "gemini-3-flash-preview:cloud", 
-            "name": "gemini-3-flash-preview:cloud", 
             "reasoning": true,             "reasoning": true,
             "input": [             "input": [
行 308: 行 287:
  
  
-==== 🔵 Ollama cloud (旧 Ollama turbo) 直接アクセスする場合 ====+==== 🔵 Local PC にインストールした ollama コマンド経由で Ollama Cloud を使う場合 ==== 
 + 
 +この方法を使うと簡単にセットアップを行うことができます。 
 +その代わり ollama コマンドのイントールが必要で、4.5 GB ほどストレージ容量を消費しま。 
 + 
 + 
 +=== (1) ollama のインストール === 
 + 
 +あらかじめ OpenClaw が動作している PC やサーバー上に [[https://ollama.com/|Ollama]] をインストールしておく必要があります。 
 + 
 +  * [[https://ollama.com/]] 
 + 
 + 
 +また apiKey の代わりに ''ollama signin'' で認証しておいてください。 
 + 
 + 
 +=== (2) OpenClaw の起動 === 
 + 
 +''ollama launch openclaw --model <モデル名>'' で実行すると自動的に OpenClaw が起動します。openclaw.json も書き換えてくれます。 
 +モデル指定を行わない場合はおすすめのモデルから選択できるようになります。 
 + 
 +
  
 +  * ''ollama launch openclaw --model glm-5:cloud''
  
  
 +もしメニューでモデルを選択し直す場合は ''--config'' をつけてください。
  
 +  * ''ollama launch openclaw --config''
  
  
  
  
ai/openclaw/localllm.1771589369.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki