ユーザ用ツール

サイト用ツール


ai:openclaw:localllm

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
ai:openclaw:localllm [2026/04/07 22:57] – [🔵 他の PC 上で走っている llama-server を使用する場合] ogaai:openclaw:localllm [2026/04/07 22:58] (現在) – [🟩 llama.cpp] oga
行 293: 行 293:
 === サーバーの例 === === サーバーの例 ===
  
-RAM 96GB + GPU VRAM 16GB+RAM 96GB + GPU VRAM 16GB の例
  
 <code> <code>
-llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf --alias Qwen3.5-122B-A10B -t 8 --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20+llama-server --model Qwen3.5-122B-A10B-Q4_K_M-00001-of-00002.gguf --alias Qwen3.5-122B-A10B  --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20
 </code> </code>
  
-RAM 128GB + GPU VRAM 16GB+RAM 128GB + GPU VRAM 16GB の例
  
 <code> <code>
-llama-server --model Qwen3.5-122B-A10B-UD-Q6_K_XL-00001-of-00004.gguf --alias Qwen3.5-122B-A10B  -t 8 --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20+llama-server --model Qwen3.5-122B-A10B-UD-Q4_K_XL-00001-of-00003.gguf --alias Qwen3.5-122B-A10B --ctx-size 65536 --host 0.0.0.0 --port 8080 --temp 0.6 --min-p 0.01 --top-p 0.95 --top-k 20
 </code> </code>
 ==== 🔵 他の PC 上で走っている llama-server を使用する場合 ==== ==== 🔵 他の PC 上で走っている llama-server を使用する場合 ====
ai/openclaw/localllm.1775570225.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki