ユーザ用ツール

サイト用ツール


ai:openclaw:nemoclaw

NemoClaw を Local LLM 用にセットアップする

NemoClaw は NVIDIA の OpenClaw 用サンドボックスです。 Ollama に対応しています。


Install 手順

現在対応しているのは Ubuntu 22.04 以降のみです。 Ubuntu 24.04 へのインストールを行っています。

(1) Docker Engine のインストール

  1. Docker をインストールします
    • curl -fsSL https://get.docker.com | sudo bash
      sudo usermod -aG docker $USER
  2. 一旦ログアウトしてから再ログインします

(2) Ollama のインストール

  1. Ollama のインストール
    • curl -fsSL https://ollama.com/install.sh | sh
  2. OLLAMA_HOST を編集します。
    • sudo systemctl edit ollama
    • 以下の行を追加します
    • [Service]
      Environment="OLLAMA_HOST=0.0.0.0:11434"
  3. ollama を再起動します
    • sudo systemctl restart ollama
  4. 使用するモデルをダウンロードしておきます
    • Nemotron 3 Super の Cloud 版を使う場合の例。Local モデルでも構わない
    • ollama pull nemotron-3-super:cloud

(3) NemoClaw のインストール

  1. NemoClaw をインストールします
    • curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash
  2. 「[2/7] Configuring inference (NIM)」
    • 「7) Local Ollama (localhost:11434) — running (suggested)」を選択
  3. ダウンロードしたモデル一覧が表示されるので
    • 「nemotron-3-super:cloud」を選択 (もしくは使用するモデルを選択)
  4. 「[5/7] Creating sandbox」
    • Sandbox name に任意の名前を入力。例えば「nemotronbot」
  5. 「Available policy presets:」が表示されるので必要なものを選択
    • 例えば「pypi, npm, slack」を入力
    • Policy はあとからも追加できます (nemoclaw <SandboxName> policy-add slack)
  6. インストールが完了すると各種情報が表示されるので保存しておいてください

(4) OpenClaw へのアクセス

  • もし Ubuntu の Desktop 環境なら (3) でメモした URL をブラウザで開きます。
  • もし Ubuntu Server などの CLI 環境なら
    1. 以下のコマンドを実行 (source ~ は最初の一回のみ)
      • source $HOME/.bashrc
        nemoclaw <SandBoxName> connect
    2. SandBox に入ったら以下のコマンド (「Error: ✕ Port 18789 is already forwarded to ~」が表示されても無視して構わない)
      • openclaw tui
ai/openclaw/nemoclaw.txt · 最終更新: by oga

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki