ユーザ用ツール

サイト用ツール


ai:openclaw:memory

文書の過去の版を表示しています。


OpenClaw で埋め込みベクトル用に Local Model を使う

Gemini や OpenAI など API Key を使用する場合は自動で有効化されていますが、Local LLM を使用する場合は手動で設定が必要です。

OpenClaw と同じ PC 上で CPU で走らせたい場合は agents.memorySearch.provider = “local” を使います。

以下は、他の PC で動いている Ollama や LMStudio、llama-server 等に接続したい場合の説明になります。

LMStudio

  1. LMStudio でモデルをダウンロードします。例えば qwen3-embedding-4b-gguf など。
  2. MyModels からダウンロードしたモデルを選択して⚙(歯車)をクリック
  3. 下の方に「Domain Control」があるので、“Override Domain Type” を「Text Embedding」に変更

これで My Models の Text Embedding に分類されるようになります。

接続設定は ~/.openclaw/openclaw.json の agents.memorySearch に記述します。

{
  ~
 
  "agents": {
      "memorySearch": {
        "provider": "openai",
        "model": "text-embedding-qwen3_embedding_4b",
        "fallback": "none",
        "remote": {
          "baseUrl": "http://<LM-STUDIO-IP-ADDRESS>:1234/v1",
          "apiKey": "lm-studio"
        }
      },
  },
 
  ~
}
ai/openclaw/memory.1773219005.txt.gz · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki