ai:openclaw:localllm
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| ai:openclaw:localllm [2026/04/03 19:58] – [🔵 Ollama cloud に直接アクセスする場合] oga | ai:openclaw:localllm [2026/04/07 22:58] (現在) – [🟩 llama.cpp] oga | ||
|---|---|---|---|
| 行 11: | 行 11: | ||
| ==== プロバイダを追加する場合の注意点 ==== | ==== プロバイダを追加する場合の注意点 ==== | ||
| - | プロバイダ名を既存のありそうな名称 " | + | 独自のプロバイダを追加する場合は、既存のありそうな名称 " |
| - | OpenClaw | + | OpenClaw |
| + | 最初から重ならない名前にしておけば、意図しない挙動になることも安心です。 | ||
| - | 例えば agents.defaults.model.primary に " | ||
| - | そのため baseUrl を定義して他の PC に接続しようとしても失敗します。 | ||
| - | baseUrl を設定して他の PC やサーバーに接続する場合は設定するプロバイダ名に注意してください。 | ||
| ==== 設定ファイルを書き換えてモデルを変更する場合の注意点 (1) ==== | ==== 設定ファイルを書き換えてモデルを変更する場合の注意点 (1) ==== | ||
| 行 132: | 行 131: | ||
| " | " | ||
| }, | }, | ||
| - | " | + | |
| - | | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | } | + | |
| } | } | ||
| } | } | ||
| 行 162: | 行 152: | ||
| - | ==== 🔵 OpenClaw と同じ PC にインストールした Ollama | + | ==== 🔵 インストーラーを使う場合 ==== |
| + | |||
| + | |||
| + | OpenClaw に最初から含まれているので、インストール時の指示に従ってください。 | ||
| + | あとから Ollama モデルに変更または追加したい場合は以下のようにします。 | ||
| + | |||
| + | Ollama が走っているのは OpenClaw と同じ PC でも他の PC でも構いません。 | ||
| 行 185: | 行 181: | ||
| - | === (3) OpenClaw の起動 | + | === (3) OpenClaw の設定 |
| + | |||
| + | |||
| + | - model の設定を開始します | ||
| + | * <code bash> | ||
| + | openclaw configure --section model | ||
| + | </ | ||
| + | - 「Where will the Gateway run?」 | ||
| + | *「Local (this machine)」を選択 | ||
| + | - 「Model/ | ||
| + | * Ollama を選択 | ||
| + | - 「Ollama base URL」 | ||
| + | * Ollama をインストールした PC の URL を入れます。もし OpenClaw と同じ PC で走っている場合は「http:// | ||
| + | - 「Ollama mode」 | ||
| + | * もし Local PC 上だけで使用するなら「Local」を選択します | ||
| + | - モデル一覧が出たらモデルを選択します | ||
| + | |||
| + | |||
| + | ++++古いやり方| | ||
| '' | '' | ||
| 行 194: | 行 208: | ||
| ollama launch openclaw --model gpt-oss: | ollama launch openclaw --model gpt-oss: | ||
| </ | </ | ||
| + | |||
| + | ++++ | ||
| + | |||
| + | ==== 🔵 直接 openclaw.json を書き換える場合 ==== | ||
| - | ==== 🔵 他の PC 上で走っている ollama を直接使用する場合 ==== | ||
| 直接 ~/ | 直接 ~/ | ||
| 行 209: | 行 226: | ||
| " | " | ||
| " | " | ||
| - | " | + | " |
| " | " | ||
| - | " | + | " |
| " | " | ||
| { | { | ||
| 行 241: | 行 258: | ||
| " | " | ||
| }, | }, | ||
| - | | + | ~ |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | } | + | |
| } | } | ||
| } | } | ||
| 行 265: | 行 271: | ||
| ---- | ---- | ||
| - | ===== 🟩 Ollama Cloud (旧 Ollama-Turbo) | + | ===== 🟩 Ollama Cloud ===== |
| 行 272: | 行 278: | ||
| - | ==== 🔵 Local PC にインストールした ollama コマンド経由で | + | ==== 🔵 Ollama Cloud を使う場合 ==== |
| - | + | ||
| - | この方法を使うと簡単にセットアップを行うことができます。 | + | |
| - | API Key を設定に書かなくて済むことや Web 検索機能が使えることからこちらの方法がお勧めです。 | + | |
| - | その代わり ollama コマンドのインストールが必要で、4.5 GB ほどストレージ容量を消費します。 | + | |
| - | + | ||
| - | + | ||
| - | === (1) ollama のインストール === | + | |
| - | + | ||
| - | あらかじめ OpenClaw が動作している PC やサーバー上に [[https:// | + | |
| - | + | ||
| - | * [[https:// | + | |
| - | + | ||
| - | + | ||
| - | また apiKey の代わりに '' | + | |
| - | + | ||
| - | + | ||
| - | === (2) OpenClaw の起動 === | + | |
| - | + | ||
| - | '' | + | |
| - | モデル指定を行わない場合はおすすめのモデルから選択できるようになります。 | + | |
| - | + | ||
| - | 例 | + | |
| - | + | ||
| - | * '' | + | |
| - | + | ||
| - | + | ||
| - | もしメニューでモデルを選択し直す場合は '' | + | |
| - | + | ||
| - | * '' | + | |
| - | + | ||
| - | + | ||
| - | この方法で OpenClaw をセットアップした場合は、ollama_web_search 用の plugin が自動的にインストールされます。 | + | |
| - | + | ||
| - | ==== 🔵 Ollama cloud に直接アクセスする場合 (非推奨) ==== | + | |
| - | + | ||
| - | この方法を使うと、Local PC 上に ollama コマンドをインストールしなくてもクラウド上のモデルを利用することができます。 | + | |
| - | ollama のランタイムはそれなりに大きいのでストレージの節約になります。 | + | |
| - | ただし今のところ vision モデルがうまく動作しません。 | + | |
| - | なお ollama_web_search を使う場合は、ollama コマンド経由でのインストールをお勧めします。 | + | |
| - | + | ||
| - | + | ||
| - | コンテキストウィンドウ長は必要に応じて修正してください。 | + | |
| - | apiKey が必要です。 | + | |
| - | + | ||
| - | <code javascript> | + | |
| - | { | + | |
| - | ~ | + | |
| - | + | ||
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | { | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | ], | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | { | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | ], | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | } | + | |
| - | ] | + | |
| - | } | + | |
| - | } | + | |
| - | }, | + | |
| - | + | ||
| - | ~ | + | |
| - | + | ||
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | } | + | |
| - | } | + | |
| - | } | + | |
| - | } | + | |
| - | </ | + | |
| - | + | ||
| + | OpenClaw 自体に Ollama Provider が含まれるようになったので特に何も必要ありません。 | ||
| + | あらかじめ ollama をインストールしておき、'' | ||
| 行 399: | 行 293: | ||
| === サーバーの例 === | === サーバーの例 === | ||
| - | RAM 96GB + GPU VRAM 16GB | + | RAM 96GB + GPU VRAM 16GB の例 |
| < | < | ||
| - | llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf -t 16 --ctx-size 40000 -ctk bf16 -ctv bf16 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20 | + | llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf --alias Qwen3.5-122B-A10B |
| </ | </ | ||
| - | RAM 128GB + GPU VRAM 16GB | + | RAM 128GB + GPU VRAM 16GB の例 |
| < | < | ||
| - | llama-server --model Qwen3.5-122B-A10B-UD-Q6_K_XL-00001-of-00004.gguf -t 16 --ctx-size 65536 -ctk bf16 -ctv bf16 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20 | + | llama-server --model Qwen3.5-122B-A10B-UD-Q4_K_XL-00001-of-00003.gguf --alias Qwen3.5-122B-A10B |
| </ | </ | ||
| ==== 🔵 他の PC 上で走っている llama-server を使用する場合 ==== | ==== 🔵 他の PC 上で走っている llama-server を使用する場合 ==== | ||
| 行 428: | 行 322: | ||
| " | " | ||
| { | { | ||
| - | " | + | " |
| - | " | + | " |
| " | " | ||
| " | " | ||
| 行 453: | 行 347: | ||
| " | " | ||
| " | " | ||
| - | " | + | " |
| }, | }, | ||
| - | " | + | |
| - | | + | |
| - | " | + | |
| - | }, | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | " | + | |
| - | } | + | |
| } | } | ||
| } | } | ||
ai/openclaw/localllm.1775213901.txt.gz · 最終更新: by oga
