文書の過去の版を表示しています。
目次
OpenClaw の Install 手順
ここでインストールしたものが OpenClaw のサーバーとなります。 OpenClaw ではサーバーのことを Gateway と呼びます。
Linux
インストール先について
独立した仮想環境にインストールすることを推奨します。ファイルが勝手に削除されたりなどトラブルが発生しても問題がないようにするためです。
- これを書いている人は自宅の PC に proxmox を入れており、仮想マシンに Ubuntu Server 24.04 を入れて OpenClaw を動かしています。
(1) OpenClaw インストール
- 公式のドキュメントの手順通りに行います
- 「
curl -fsSL https://openclaw.bot/install.sh | bash」を実行 - I understand this is powerful and inherently risky. Continue?: Yes
- インストーラーが始まるので、セキュリティリスクの説明をよく読んでから Yes を選択
- もしインストーラーが自動的に始まらない場合は「
openclaw onboard --install-daemon」
- Onboarding mode: QuickStart
- もし Gateway (Server) ではなく Node としてインストールする場合は Manual を選びます
- Model/auth provider: 任意の API を選択
- すでに使用している AI サービスの API があればここで指定します。適当に選択だけしておいて、あとから設定することもできます。
- もし ollama や LMStudio 等の Local LLM を使う場合は仮の設定として 「Skip for now」→ 「openai」→「Keep current」 を選びます。
- Select channel (Quick Start): 任意のサービスを選択 または Skip for now
- Discord や Slack などのセットアップができます。
- あとから行う場合は「Skip for now」
- Configure skills now?: Yes
- Show Homebrew install command?: Yes
- Homebrew のインストール手順が表示されるので、OpenClaw のインストールが終わってから実行します
- Preferred node manager for skill installs: npm
- Install missing skill dependencies: Skip for now
- SPACE キーでどれか項目を選択してから ENTER で進みます
- Set GOOGLE_PLACES_API_KEY for goplaces?: No
- Set GOOGLE_PLACES_API_KEY for local-places?: No
- Set GEMINI_API_KEY for nano-banana-pro?: No
- Set NOTION_API_KEY for notion?: No
- Set OPENAI_API_KEY for openai-image-gen?: No
- Set OPENAI_API_KEY for openai-whisper-api?: No
- Set ELEVENLABS_API_KEY for sag?: No
- Enable hooks?: Skip for now
- SPACE キーでどれか項目を選択してから ENTER で進みます
- How do you want to hatch your bot?: Do this later
- Install shell completion script?: Yes
(2) Homebrew インストール
もし Homebrew がインストールされていない場合は、初回のインストール時にメッセージが出ます。以下の手順でインストールしておいてください。
- 「
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"」を実行 - Homebrew インストーラーの最後に表示されたメッセージに従い、PATH の追加を行います。
- 「
echo >> /home/hiroog/.bashrc」 - 「
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"' >> $HOME/.bashrc」 - 「
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"」
(3) 使用する LLM の再セットアップ
■ 有料の各種 API を使用する場合
もし有料の API を使用する場合は以下の手順で再セットアップできます。
- 「
openclaw configure --section model」を実行 - Where will this Gateway run?: Local
- Model/auth provider: 使用するサービスを選択
- 以降はそれぞれの API 毎に異なります。インストーラーの指示に従ってください。
■ Local LLM を使用する場合
直接 ~/.openclaw/openclaw.json を編集します。
- models.providers を定義して任意の provider を追加します。
- agents.defaults.model.primary に、使用する provider と model を指定します。
ポイントは、provider 名を既存の “ollama” や “lmstudio” と重ならないようにすることです。
OpenClaw にはプリセットの provider として “ollama” 等がすでに含まれておりこれらを上書きすることができません。 例えば agents.defaults.model.primary に “ollama/gpt-oss:120b” を指定した場合、必ず localpc (127.0.0.1:11343) の ollama を見に行こうとして baseUrl にアクセスしなくなってしまいます。
以下設定例です。contextWindow と maxTokens は、走らせている PC のスペックやモデルに合わせて変更してください。
Local LLM では以下の構成の PC で gpt-oss:120b を使って動くことを確認しました。ただし 120b ではパラメータ数が少なくセキュリティ警告が出ますので利用する場合は注意してください。
- Windows PC (Ryzen 7 9700X, GeForce RTX 5060Ti 16GB, RAM128GB) : LMStudio + openai/gpt-oss-120b (Context Window 65536)
- Windows PC (EVO-X2, Ryzen AI Max+ 395, RAM128GB) : LMStudio + openai/gpt-oss-120b (Context Window 65536)
🔵 任意の PC 上で走っている ollama を使用する場合の設定例
(4) メッセージングサービスとの連携を再セットアップ
初回のインストーラーでスキップした場合や、あとから別のツールとの連携を追加したい場合などは以下の手順で設定できます。
- 「
openclaw configure --section channels」を実行 - Where will this Gateway run?: Local
- Channels: Configure/link
- Select a channel: 使用するサービスを選択
- 以降はそれぞれのサービス毎に異なります。インストーラーの指示に従ってください。
