ai:openclaw:nemoclaw
目次
NemoClaw を Local LLM 用にセットアップする
NemoClaw は NVIDIA の OpenClaw 用サンドボックスです。 Ollama に対応しています。
Install 手順
現在対応しているのは Ubuntu 22.04 以降のみです。 Ubuntu 24.04 へのインストールを行っています。
(1) Docker Engine のインストール
- Docker をインストールします
curl -fsSL https://get.docker.com | sudo bash sudo usermod -aG docker $USER
- 一旦ログアウトしてから再ログインします
(2) Ollama のインストール
- Ollama のインストール
curl -fsSL https://ollama.com/install.sh | sh
- OLLAMA_HOST を編集します。
sudo systemctl edit ollama- 以下の行を追加します
[Service] Environment="OLLAMA_HOST=0.0.0.0:11434"
- ollama を再起動します
sudo systemctl restart ollama
- 使用するモデルをダウンロードしておきます
- Nemotron 3 Super の Cloud 版を使う場合の例。Local モデルでも構わない
ollama pull nemotron-3-super:cloud
(3) NemoClaw のインストール
- NemoClaw をインストールします
curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash
- 「[2/7] Configuring inference (NIM)」
- 「7) Local Ollama (localhost:11434) — running (suggested)」を選択
- ダウンロードしたモデル一覧が表示されるので
- 「nemotron-3-super:cloud」を選択 (もしくは使用するモデルを選択)
- 「[5/7] Creating sandbox」
- Sandbox name に任意の名前を入力。例えば「nemotronbot」
- 「Available policy presets:」が表示されるので必要なものを選択
- 例えば「pypi, npm, slack」を入力
- Policy はあとからも追加できます (nemoclaw <SandboxName> policy-add slack)
- インストールが完了すると各種情報が表示されるので保存しておいてください
- 特に「http://127.0.0.1:18789/#token=<TOKEN>」はメモしてください
(4) OpenClaw へのアクセス
- もし Ubuntu の Desktop 環境なら (3) でメモした URL をブラウザで開きます。
- もし Ubuntu Server などの CLI 環境なら
- 以下のコマンドを実行 (source ~ は最初の一回のみ)
source $HOME/.bashrc nemoclaw <SandBoxName> connect
- SandBox に入ったら以下のコマンド (「Error: ✕ Port 18789 is already forwarded to ~」が表示されても無視して構わない)
openclaw tui
ai/openclaw/nemoclaw.txt · 最終更新: by oga
