ai:openclaw:memory
文書の過去の版を表示しています。
OpenClaw で埋め込みベクトル用に Local Model を使う
Gemini や OpenAI など API Key を使用する場合は自動で有効化されていますが、Local LLM を使用する場合は手動で設定が必要です。
OpenClaw と同じ PC 上で CPU で走らせたい場合は agents.memorySearch.provider = “local” を使います。
以下は、他の PC で動いている Ollama や LMStudio、llama-server 等に接続したい場合の説明になります。
LMStudio
- LMStudio でモデルをダウンロードします。例えば qwen3-embedding-4b-gguf など。
- MyModels からダウンロードしたモデルを選択して⚙(歯車)をクリック
- 下の方に「Domain Control」があるので、“Override Domain Type” を「Text Embedding」に変更
これで My Models の Text Embedding に分類されるようになります。
接続設定は ~/.openclaw/openclaw.json の agents.memorySearch に記述します。
{ ~ "agents": { "memorySearch": { "provider": "openai", "model": "text-embedding-qwen3_embedding_4b", "fallback": "none", "remote": { "baseUrl": "http://<LM-STUDIO-IP-ADDRESS>:1234/v1", "apiKey": "lm-studio" } }, }, ~ }
ai/openclaw/memory.1773219005.txt.gz · 最終更新: by oga
