ユーザ用ツール

サイト用ツール


ai:openclaw:memory

OpenClaw でテキスト埋め込みモデルに Local Model を使う

Gemini や OpenAI など API Key を使用する場合は自動で有効化されていますが、Local LLM を使用する場合は手動で設定が必要です。

埋め込み用モデルは 1b 未満の小さいものも用意されているので、OpenClaw と同じ PC の CPU で走らせることもできます。 ただしその分メモリを必要とするため、VPS など RAM 容量が 3GB 未満の場合はおすすめしません。

他の PC 上で動いている Ollama や LMStudio に接続して埋め込みモデルを走らせることができます。

OpenClaw と同じ PC の CPU を使う方法

Ollama, LMStudio を使って埋め込みモデルを使用することができます。 以下の手順と同じように進めて、IP アドレスを自分自身 “127.0.0.1” にしてください。

CPU を使う場合は 1b 未満の小さいモデルがお勧めです。

また OpenClaw 内蔵の機能を使って agents.memorySearch.provider = “local” を設定することもできます。 この場合は自分でモデルファイルを用意し、かつ nodejs の inference モジュールも追加でインストールしておく必要があります。


LMStudio

(1) LMStudio 上のセットアップ

  1. LMStudio でモデルをダウンロードします
    • 例えば Mac でメモリに余裕があるなら qwen3-embedding-4b-gguf、CPU だけなら embeddinggemma-300m-qat-gguf (Q8_0)
  2. もしダウンロードしたモデルが My Models の Text Embedding に含まれていない場合は以下の設定を行ってください
    1. My Models からダウンロードしたモデルを選択して⚙(歯車)をクリック
    2. 右側のパネルの一番下に「Domain Control」があるので、“Override Domain Type” を「Text Embedding」に変更
    • これで qwen3-embedding-4b-gguf が My Models の Text Embedding に分類されるようになります。

(2) OpenClaw の設定ファイルの編集

接続設定を ~/.openclaw/openclaw.json の agents.memorySearch に記述します。 以下はその例です。LM-STUDIO-IP-ADDRESS と model 名は置き換えてください。 自分自身の PC 上で走らせる場合は LM-STUDIO-IP-ADDRESS を 127.0.0.1 にしてください。

{
  ~
 
  "agents": {
    "defaults": {
      "memorySearch": {
        "provider": "openai",
        "model": "text-embedding-qwen3_embedding_4b",
        "fallback": "none",
        "remote": {
          "baseUrl": "http://<LM-STUDIO-IP-ADDRESS>:1234/v1",
          "apiKey": "lm-studio"
        }
      },}
  },
 
  ~
}

(3) 再インデックス化

以下のコマンドを実行してメモリのインデックスを更新します。

openclaw memory index --force

Ollama

(1) ollama でダウンロード

  1. ollama でモデルをダウンロードします。CPU を使う場合は 0.3b (300m) や 0.6b など小さいモデルがおすすめです
    • ollama pull embeddinggemma:300m

(2) OpenClaw の設定ファイルの編集

接続設定を ~/.openclaw/openclaw.json の agents.memorySearch に記述します。 以下はその例です。 もし他の PC 上で動いている ollama に接続する場合は “127.0.0.1” を他の PC の IP アドレスに置き換えてください。 またモデル名 “embeddinggemma:300m” も必要に応じて置き換えてください。

{
  ~
 
  "agents": {
    "defaults": {
      "memorySearch": {
        "provider": "openai",
        "model": "embeddinggemma:300m",
        "fallback": "none",
        "remote": {
          "baseUrl": "http://127.0.0.1:11434/v1",
          "apiKey": "ollama"
        }
      },}
  },
 
  ~
}

(3) 再インデックス化

以下のコマンドを実行してメモリのインデックスを更新します。

openclaw memory index --force

Local

  1. embeddinggemma-300m-qat-Q8_0.gguf をダウンロードして ~/models に入れておきます
  2. 以下のコマンドでモジュールをインストールします
    • cd ~/.npm-global/lib/node_modules/openclaw
      npm install node-llama-cpp
  3. 設定を追加します。modelPath は環境によって異なるので修正してください。
    • {
        ~
       
        "agents": {
         "defaults": {
            "memorySearch": {
              "provider": "local",
              "fallback": "none",
              "local": {
                "modelPath": "/home/openclaw/models/embeddinggemma-300m-qat-Q8_0.gguf"
              }
            },}
        },
       
        ~
      }
  4. 再インデックス化します
    • openclaw memory index --force
ai/openclaw/memory.txt · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki