ユーザ用ツール

サイト用ツール


ai:openclaw:memory

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

次のリビジョン
前のリビジョン
ai:openclaw:memory [2026/03/11 17:24] – 作成 ogaai:openclaw:memory [2026/03/11 17:52] (現在) – [LMStudio] oga
行 1: 行 1:
 ====== OpenClaw で埋め込みベクトル用に Local Model を使う ====== ====== OpenClaw で埋め込みベクトル用に Local Model を使う ======
  
 +
 +Gemini や OpenAI など API Key を使用する場合は自動で有効化されていますが、Local LLM を使用する場合は手動で設定が必要です。
 +
 +
 +
 +
 +  * [[https://docs.openclaw.ai/concepts/memory]]
 +
 +OpenClaw と同じ PC 上で CPU で走らせたい場合は agents.memorySearch.provider = "local" を使います。
 +
 +
 +以下は、他の PC で動いている Ollama や LMStudio、llama-server 等に接続したい場合の説明になります。
 +
 +
 +
 +
 +===== LMStudio =====
 +
 +  - LMStudio でモデルをダウンロードします。例えば qwen3-embedding-4b-gguf など。
 +  - もしダウンロードしたモデルが My Models の Text Embedding に含まれていない場合は以下の設定を行ってください
 +    - My Models からダウンロードしたモデルを選択して⚙(歯車)をクリック
 +    - 右側のパネルの一番下に「Domain Control」があるので、"Override Domain Type" を「Text Embedding」に変更
 +    * これで qwen3-embedding-4b-gguf が My Models の Text Embedding に分類されるようになります。
 +
 +
 +接続設定を ~/.openclaw/openclaw.json の agents.memorySearch に記述します。
 +以下はその例です。LM-STUDIO-IP-ADDRESS と model 名は置き換えてください。
  
 <code javascript> <code javascript>
行 12: 行 39:
         "fallback": "none",         "fallback": "none",
         "remote": {         "remote": {
-          "baseUrl": "http://192.168.1.200:1234/v1",+          "baseUrl": "http://<LM-STUDIO-IP-ADDRESS>:1234/v1",
           "apiKey": "lm-studio"           "apiKey": "lm-studio"
         }         }
ai/openclaw/memory.1773217493.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki