OpenClaw でテキスト埋め込みモデルに Local Model を使う
Gemini や OpenAI など API Key を使用する場合は自動で有効化されていますが、Local LLM を使用する場合は手動で設定が必要です。
埋め込み用モデルは 1b 未満の小さいものも用意されているので、OpenClaw と同じ PC の CPU で走らせることもできます。 ただしその分メモリを必要とするため、VPS など RAM 容量が 3GB 未満の場合はおすすめしません。
他の PC 上で動いている Ollama や LMStudio に接続して埋め込みモデルを走らせることができます。
OpenClaw と同じ PC の CPU を使う方法
Ollama, LMStudio を使って埋め込みモデルを使用することができます。 以下の手順と同じように進めて、IP アドレスを自分自身 “127.0.0.1” にしてください。
CPU を使う場合は 1b 未満の小さいモデルがお勧めです。
また OpenClaw 内蔵の機能を使って agents.memorySearch.provider = “local” を設定することもできます。 この場合は自分でモデルファイルを用意し、かつ nodejs の inference モジュールも追加でインストールしておく必要があります。
LMStudio
(1) LMStudio 上のセットアップ
- LMStudio でモデルをダウンロードします
- 例えば Mac でメモリに余裕があるなら qwen3-embedding-4b-gguf、CPU だけなら embeddinggemma-300m-qat-gguf (Q8_0)
- もしダウンロードしたモデルが My Models の Text Embedding に含まれていない場合は以下の設定を行ってください
- My Models からダウンロードしたモデルを選択して⚙(歯車)をクリック
- 右側のパネルの一番下に「Domain Control」があるので、“Override Domain Type” を「Text Embedding」に変更
- これで qwen3-embedding-4b-gguf が My Models の Text Embedding に分類されるようになります。
(2) OpenClaw の設定ファイルの編集
接続設定を ~/.openclaw/openclaw.json の agents.memorySearch に記述します。 以下はその例です。LM-STUDIO-IP-ADDRESS と model 名は置き換えてください。 自分自身の PC 上で走らせる場合は LM-STUDIO-IP-ADDRESS を 127.0.0.1 にしてください。
{ ~ "agents": { "defaults": { "memorySearch": { "provider": "openai", "model": "text-embedding-qwen3_embedding_4b", "fallback": "none", "remote": { "baseUrl": "http://<LM-STUDIO-IP-ADDRESS>:1234/v1", "apiKey": "lm-studio" } }, ~ } }, ~ }
(3) 再インデックス化
以下のコマンドを実行してメモリのインデックスを更新します。
openclaw memory index --force
Ollama
(1) ollama でダウンロード
- ollama でモデルをダウンロードします。CPU を使う場合は 0.3b (300m) や 0.6b など小さいモデルがおすすめです
ollama pull embeddinggemma:300m
(2) OpenClaw の設定ファイルの編集
接続設定を ~/.openclaw/openclaw.json の agents.memorySearch に記述します。 以下はその例です。 もし他の PC 上で動いている ollama に接続する場合は “127.0.0.1” を他の PC の IP アドレスに置き換えてください。 またモデル名 “embeddinggemma:300m” も必要に応じて置き換えてください。
{ ~ "agents": { "defaults": { "memorySearch": { "provider": "openai", "model": "embeddinggemma:300m", "fallback": "none", "remote": { "baseUrl": "http://127.0.0.1:11434/v1", "apiKey": "ollama" } }, ~ } }, ~ }
(3) 再インデックス化
以下のコマンドを実行してメモリのインデックスを更新します。
openclaw memory index --force
Local
- embeddinggemma-300m-qat-Q8_0.gguf をダウンロードして ~/models に入れておきます
- 以下のコマンドでモジュールをインストールします
cd ~/.npm-global/lib/node_modules/openclaw npm install node-llama-cpp
- 設定を追加します。modelPath は環境によって異なるので修正してください。
{ ~ "agents": { "defaults": { "memorySearch": { "provider": "local", "fallback": "none", "local": { "modelPath": "/home/openclaw/models/embeddinggemma-300m-qat-Q8_0.gguf" } }, ~ } }, ~ }
- 再インデックス化します
openclaw memory index --force
