從零開始部署龍蝦 OpenClaw:Windows + WSL + Telegram + 多供應商入口,搭配免費與高 CP 值模型來源無痛暢用


最近如果你有在關注 AI 工具,應該多少都聽過 AI agent 這個詞。

很多人會把它想得很玄,好像一定要很會寫程式、很懂 Linux,還要有一台很猛的電腦,才有資格開始玩。其實沒有那麼誇張。

今天我想介紹的是 OpenClaw,也就是很多人俗稱的「龍蝦」AI agent。這個專案從今年初在 GitHub 上快速竄起來之後,討論度一直很高。我自己這一個多月,已經在自己的電腦,以及好幾位親戚朋友的電腦上協助安裝、部署、調整過好幾輪,也慢慢整理出一套比較適合一般 Windows 使用者上手的路線。

如果你前陣子已經看過我上一篇文章 想玩 AI Agent 自動化卻怕太花錢?9 個免費與高 CP 值雲端 API 來源一次整理,你可能會接著問一個很實際的問題:這些 API 申請完了,然後呢?到底可以拿來做什麼?

我這篇文章,就是想接著回答這個問題。


先破除兩個常見迷思

在正式進入工具安裝之前,我想先講兩件很多人對 OpenClaw 使用門檻上的誤解。

迷思一:一定要很強的本地硬體,才能玩 OpenClaw

這件事不能說完全錯,但也沒有很多人想像得那麼絕對。

如果你今天的玩法,是希望大量跑本地模型,那硬體當然會很重要,所以很多人會跑去買 Mac Mini。可是如果你主要串接的是雲端 LLM,像 Google、NVIDIA、OpenAI Codex OAuth,或者其他雲端 provider,那你的本地機器主要是負責把 OpenClaw 跑起來、接工具、跑流程,不一定非得先準備一台超高階主機。

所以對多數一般使用者來說,第一步不是先糾結自己電腦夠不夠神,需不需要額外升級硬體配備,而是先釐清你打算走本地模型路線,還是先用雲端模型把整個 agent 架構跑起來。

迷思二:OpenClaw 一定很燒 token,很花錢

這也是很多人一開始最怕的地方,動不動每個月要燒幾百美金才能用的江湖傳說。

但如果你前面已經跟著我前面的整理申請過一些免費 API,或者你本來就有固定訂閱會提供一定額度模型用量的服務,那實際上,OpenClaw 未必會讓你額外多出一筆很誇張的成本。

OpenClaw 是免費開源的軟體,本身完全免費。重點是你怎麼配置模型入口,你平常主要用哪些 provider,你把它拿來做什麼,你是需要他每一分每一秒無時無刻都在持續處理資料?還是當你真的有需要時他能及時協助就好?(這其實是一個值得大家反思的問題,這篇文章先不論述)

換句話說,真正容易讓成本失控的,通常不是「有沒有裝 OpenClaw」,而是「你有沒有把整個使用方式設計好」。


先給你一份可以逐步對照的 GitHub repo

在正式進入安裝步驟之前,我先把這次搭配使用的 GitHub repo 放在前面:

openclaw-windows-wsl-guide

這個 repo,不只是我拿來整理部署流程的公開參考,也是一份我用 vibe coding 與 AI 協作方式,一步一步整理出來的範本與介紹。

你可以把它理解成兩層用途:

  • 第一層,是給各位讀者一份可以逐步對照的公開安裝模板
  • 第二層,是把我實際部署 OpenClaw 時整理出來的路線、結構與取捨,變成一份可重複參考的公開資料
所以這篇文章不是要取代 repo。

比較準確地說,repo 比較像施工圖,這篇文章比較像旁邊那個真的做過幾輪的人,陪你把每一步在做什麼、為什麼這樣做、哪些地方容易卡,講清楚。

後面這篇文章的安裝主線,我也會盡量依照 repo 的流程來寫。這樣你一邊看文章,一邊對照 repo,實作時會比較不容易亂掉。


為什麼我會建議 Windows 使用者先走 WSL

如果你本來就是 Windows 使用者,我目前比較建議的路線,不是直接在 Windows 原生環境裡東補西補,而是先用 WSL 把 OpenClaw 跑起來。

原因很簡單。

第一,OpenClaw 與相關工具鏈,多半還是以 Linux 使用情境為主。

第二,像 bashsystemd --userjournalctl 這類工具,在 WSL 裡的使用脈絡比較一致,後面排錯、做常駐 service、看 log 都比較順。

第三,你仍然可以保留 Windows 端的編輯器、瀏覽器,以及批次檔入口,形成「Windows 操作 + WSL 執行」的組合。這個做法在實務上其實蠻舒服的。

這不是說 Windows 原生一定不能做,而是如果你的目標是先成功、先穩定、先不要踩太多不必要的坑,那 WSL 會是一條比較實際的起手式。


這篇文章會怎麼帶你走

我這篇不打算一開始就把所有進階功能一次塞滿。

主線很單純,就是先照 repo 的流程把基本環境跑通:

  1. 安裝 WSL2 與 Ubuntu
  2. 初始化 Ubuntu
  3. 視需要啟用 WSL 的 systemd
  4. clone repo
  5. 安裝 nvm
  6. 用 nvm 安裝 Node.js 22
  7. 安裝 OpenClaw
  8. 視情況決定要不要跑 openclaw onboard
  9. 套用 repo 公開模板
  10. 先用 openclaw gateway 或 service 方式啟動
  11. 驗證 dashboard
  12. 再往下接 Telegram 與多供應商入口
講白話就是,先求有,再求好。
先把 OpenClaw 跑起來,再慢慢把常駐、Telegram、模型切換入口補上去。


 

步驟一,用 PowerShell 安裝 WSL2

如果你的 Windows 11 還沒有安裝 WSL,先用系統管理員身分打開 PowerShell,執行:

wsl --install
wsl --update
wsl --status

完成後,請重新啟動電腦,然後開啟 Ubuntu。

如果你是第一次進 Ubuntu,系統會要你建立一組 Linux 用的使用者名稱與密碼。這一段照畫面操作就好。


步驟二,初始化 Ubuntu 與更新系統

第一次進入 Ubuntu 後,我建議先把系統與常用工具補齊:

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git ca-certificates build-essential

這一步看起來很基本,但不要跳。

因為很多後面看起來像 OpenClaw 的問題,實際上根本只是底層環境沒更新、缺工具、缺憑證,最後變成你花很多時間在排一個本來可以先避開的小坑。


步驟三,可選但推薦,啟用 WSL 的 systemd

這一步先講清楚,它不是 OpenClaw 基本啟動的硬性必要條件。

如果你只是想先測試 OpenClaw 能不能跑起來,直接用前景模式執行 openclaw gateway 就可以,不一定要先處理 systemd

但如果你後續打算做這幾件事,你也可以考慮把它開起來:

  • 讓 gateway 常駐
  • 接 Telegram bot
  • 使用 repo 提供的 Windows 批次檔入口
如果你的 WSL 還沒有啟用 systemd,可以先建立 /etc/wsl.conf
sudo tee /etc/wsl.conf > /dev/null <<'EOF'
[boot]
systemd=true
EOF
exit

接著回到 Windows PowerShell 執行:

wsl --shutdown

之後重新打開 Ubuntu,再確認:

systemctl --user status

如果能正常回應,表示 systemd 已經可以用。


步驟四,先把 repo clone 到 WSL 家目錄

這一步是為了讓你後面可以直接對照 repo 裡面的模板與文件。

在 WSL 內執行:

git clone https://github.com/taoyutsun/openclaw-windows-wsl-guide.git ~/openclaw-windows-wsl-guide
cd ~/openclaw-windows-wsl-guide

如果你不是用 git clone,而是直接下載 ZIP,也可以,只是我還是比較建議你把資料夾放在 WSL 家目錄底下,路徑比較乾淨。


步驟五,安裝 nvm

這份 repo 的主線,推薦用 nvm 安裝 Node.js,而不是把 Node.js 跟全域 npm 套件直接混到系統層。

原因其實很務實:

  • 安裝在使用者家目錄,比較不容易被權限卡住
  • 之後升級或切換 Node 版本比較方便
  • 對一般個人使用者來說,比較不容易踩到 sudo npm -g 造成的路徑混亂
請執行:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
source ~/.bashrc
command -v nvm

如果最後有正確看到 nvm,表示這一步完成了。


步驟六,用 nvm 安裝 Node.js 22

接著安裝 Node.js 22:

nvm install 22
nvm alias default 22
nvm use 22
node -v
npm -v

node -v 至少要看到 v22 以上。

這裡建議不要自己發明太多變形做法,先照 repo 主線走,對大多數讀者來說會比較穩。


步驟七,安裝 OpenClaw

Node.js 環境準備好之後,就可以安裝 OpenClaw:

npm install -g openclaw@latest
openclaw --version

如果有正常看到版本資訊,表示 OpenClaw CLI 已經裝好了。

接著很多人會問,openclaw onboard 要不要跑?

在我的架構下,這一步是可選,不是必跑。

如果你想先用官方互動式精靈建立一個基本骨架,可以執行:

openclaw onboard

但這篇文章與 repo 的主線,比較偏向「直接套用公開模板」的做法。原因不是官方精靈不好,而是模板化流程更容易套用,也更容易讓各位讀者做出可重現、可對照、後面也比較好延伸的設定結構。

所以比較簡單的理解方式是:

  • 想先跑官方精靈熟悉一下,可以用 openclaw onboard
  • 想直接照本文與 repo 主線做,可以跳過這一步

步驟八,套用 repo 的公開模板

這一步開始,OpenClaw 才算真正進入「可維護」的狀態。

先建立設定資料夾:

mkdir -p ~/.openclaw ~/.config/systemd/user

接著把 repo 模板複製到預設位置:

cp templates/start-openclaw-public/openclaw.env.example ~/.openclaw/.env
cp templates/start-openclaw-public/openclaw.template.redacted.json ~/.openclaw/openclaw.json
cp templates/start-openclaw-public/systemd/openclaw-gateway.service.example ~/.config/systemd/user/openclaw-gateway.service

然後編輯兩個主要檔案:

nano ~/.openclaw/.env
nano ~/.openclaw/openclaw.json

這裡至少要先處理幾個欄位:

  • GOOGLE_GEMINI_API_KEY
  • NVIDIA_API_KEY
  • OPENCLAW_GATEWAY_TOKEN
  • openclaw.json 裡預設的 workspace 路徑 placeholder
如果你暫時還不需要 Telegram,可以先保留 channels.telegram.enabled = false,先把主線跑通。

如果你對 WSL 檔案操作還不熟,也可以從 Windows 檔案總管直接進到 \\wsl$\Ubuntu\home\你的使用者名稱\ 去複製和編輯。


步驟九,啟動 OpenClaw gateway

這一步分兩種模式。

模式 A,先用前景模式快速測試

如果你只是想先確認 OpenClaw 到底能不能跑起來,可以先直接執行:

openclaw gateway

這種方式的好處是很直接。

  • 不需要先處理 service
  • 出錯時比較容易直接看到訊息
  • 適合第一次測試
缺點也很明顯,就是你關掉終端機之後,gateway 也會一起停掉。

另外補一個很實務的提醒。如果你後面準備接 Telegram,就不要一邊保留這個前景模式的 openclaw gateway,另一邊又再啟動 openclaw-gateway.service。同一個 Telegram bot token,一次最好只由一個 gateway instance 輪詢,否則很容易出現 409 Conflict、訊息中斷,甚至回覆不完整。

模式 B,安裝成常駐 service

如果你後續要接 Telegram、要讓 OpenClaw 長時間待命、或要用 Windows 批次檔切模型,那就比較建議把 gateway 做成 service。

第一次啟用時,可以執行:

systemctl --user daemon-reload
systemctl --user enable --now openclaw-gateway.service
openclaw gateway status

之後日常重啟或查看狀態,就可以直接用:

openclaw gateway restart
openclaw gateway status

這邊有一個觀念很重要。

systemd 不是最前面的硬性條件,但如果你後面要做 Telegram、要做入口切換、要讓它變成一個比較穩定的日常工具,那它會很有幫助。


步驟十,驗證 dashboard

如果你只想先拿到 dashboard 網址,可以執行:

openclaw dashboard --no-open

如果你想直接打開瀏覽器,可以用:

openclaw dashboard

到這一步,如果 dashboard 正常打開,代表你的 OpenClaw 主線安裝已經大致完成。



步驟十一,啟用 Telegram bot

當主線安裝完成之後,下一個很值得補上的就是 Telegram。

我自己會很喜歡這個組合,因為它真的很符合日常使用場景。手機好用,桌機也好用,想到事情就可以直接丟給 bot。對很多人來說,這會比你每次都回到終端機裡操作直覺很多。

實作步驟如下。

1. 先建立 Telegram bot

到 Telegram 找 @BotFather,傳送 /newbot 指令建立新的 bot,拿到 bot token。

2. 把 token 填進 .env

nano ~/.openclaw/.env

加入或修改:

TELEGRAM_BOT_TOKEN=你的_bot_token

3. 在 openclaw.json 開啟 Telegram

nano ~/.openclaw/openclaw.json

channels.telegram.enabled 改成 true

模板預設大致如下:

"telegram": {
  "enabled": false,
  "botToken": "${TELEGRAM_BOT_TOKEN}",
  "dmPolicy": "open",
  "groupPolicy": "open",
  "streaming": {
    "mode": "partial"
  }
}

4. 重啟 gateway

如果你前面已經把 gateway 做成 service,直接執行:

openclaw gateway restart
openclaw gateway status

如果你目前還是用前景模式測試,那就把原本的 openclaw gateway 終端關掉再重開一次。

這裡請特別注意,不要讓同一個 bot token 同時被兩個 gateway instance 使用。你如果已經改成 service 模式,就不要另外再長時間保留第二個手動 gateway;反過來也一樣。

5. 驗證 Telegram channel

openclaw channels status --json

如果看到 telegramrunning=true,表示 bot provider 已經載入。

這時你就可以直接在 Telegram 對 bot 傳一則簡單訊息測試。

6. 常見問題,409 conflict

如果 log 顯示 getUpdates conflict,通常代表同一個 bot token 被兩個執行個體同時輪詢。

最常見的情況就是:

  • 一邊跑 systemd service
  • 另一邊又手動開了一個 openclaw gateway
  • 或你另外有一支 Windows 自訂 launcher,會自行拉起另一個 gateway,結果又和原本的 service 共用同一個 bot token
這時處理方式其實不複雜,就是確保只保留一個 gateway 執行個體,不要同時開兩邊。

如果你還要再往下排錯,可以用:

systemctl --user status openclaw-gateway.service --no-pager -l
journalctl --user -u openclaw-gateway.service -n 100 --no-pager



步驟十二,建立多供應商多模型入口

這一段,是我覺得 repo 很實用的一塊。

因為很多人裝完 OpenClaw 之後,真正卡住的不是「能不能跑」,而是「我到底要用哪個 provider、哪個模型、怎麼切比較方便」,或是 API Token 會不會燒掉太多錢。

但是如果你有看過我之前分享過的這篇文章:想玩 AI Agent 自動化卻怕太花錢?9 個免費與高 CP 值雲端 API 來源一次整理,基本上一般使用者只要串接好這些免費或高 CP 值的 API 到 OpenClaw 之後,Token 用量根本都是用不完的。

所以我把自己平常在用的思路,整理成一個比較容易理解的公開版 Windows 批次檔入口。

公開版入口位置在:

  • templates/start-openclaw-public/Start-OpenClaw_Public_MultiProvider.bat
這份入口只先保留 4 個代表的經典模型:
  • A1: Ollama Cloud - qwen3.5:cloud
  • B1: Google - gemini-3.1-pro-preview
  • B2: NVIDIA - qwen/qwen3.5-397b-a17b
  • B3: OpenAI Codex OAuth - openai-codex/gpt-5.4

1. 先把 .bat 放到 Windows 端常用位置

例如桌面、Documents,或者你自己的工具資料夾都可以。

2. 檢查 WSL_DISTRO

打開 .bat 後,確認上方這一行是不是你的發行版名稱:

set "WSL_DISTRO=Ubuntu"

如果你的 WSL 發行版不是 Ubuntu,記得改成自己的名稱。

3. 先準備各 provider 所需資訊

如果要用 Google,請確認 .env 內有:

GOOGLE_GEMINI_API_KEY=

如果要用 NVIDIA,請確認 .env 內有:

NVIDIA_API_KEY=

如果要用 OpenAI Codex OAuth,第一次使用前,先在 WSL 內完成登入:

openclaw models auth login --provider openai-codex


4. 這份入口實際做了什麼

它的邏輯大致是:

  • 用 Windows 批次檔顯示選單
  • 透過 WSL 修改 ~/.openclaw/openclaw.json 裡的 agents.defaults.model.primary
  • 重啟已安裝的 gateway service
  • 打開 openclaw dashboard
所以 B 組選單的前提是,你前面已經把 gateway 安裝成 service。

如果你自己另外維護的是那種會自動拉起 nohup openclaw gateway 的自訂入口,記得不要讓它和這種 service-based 的入口同時連到同一個 Telegram bot。否則就算模型切換正常,Telegram 仍然可能因為雙 polling instance 而不穩。


Ollama 為什麼放在延伸章節,不放主線

這裡我想特別提醒一下,因為很多人會直覺把 Ollama 放到最前面。

但以這份 repo 的規劃來說,Ollama 是延伸,不是主線必要步驟。

原因很簡單:

  • 它不是 OpenClaw 基本部署的必要條件
  • 一開始就加進主線,會讓第一次部署的步驟變多
  • 對一般 Windows 讀者來說,先把 gateway 跑起來更重要
  • 不過 Ollama 每周也有提供不少免費的高級模型使用額度
所以如果你後面真的想加上 Ollama,可以再另外做:
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
ollama signin
ollama pull qwen3.5:cloud
ollama run qwen3.5:cloud

這樣的節奏會比較合理。先把主線跑通,再補 Ollama,不要一開始就把自己丟進太多變數裡。


如果你想讓 AI agent 協助你把這套流程走完

如果你看到這裡,覺得整套流程還是有點複雜,這其實很正常。

對很多一般使用者來說,WSL、Linux 指令、Node.js、service、provider 設定,這些東西一次看到,本來就會有壓力。這也是為什麼我前面會說,這份 repo 本身就是我用 vibe coding 與 AI 協作整理出來的範本。

如果你手邊剛好有 AI agent 工具,例如 Codex 、Claude Code 或 Antigravity,其實也可以反過來利用它們,協助你把整個安裝流程轉換成更容易操作的步驟(也就是整套流程都可以讓 AI agent 代為處理,一條龍跑完)。

OpenAI Codex Windows GUI 可以怎麼裝

如果你是用 Windows 圖形介面版本的 [Codex],建議做法是先依官方安裝方式完成安裝與登入。裝好之後,先不要急著直接叫它亂跑。

比較實際的用法是:

  1. 先打開這份 GitHub repo 頁面
  2. 把 repo README 或對應章節文件貼給 Codex
  3. 明確告訴它,你目前做到哪一步
  4. 要它一次只帶你完成一小段,而不是整包講完

提供一個實用的 Codex 提示詞範例

你可以直接把下面這段貼給 Codex,再依你的情況調整:

請依照這個 GitHub repo 的流程,協助我在 Windows 11 + WSL2 上安裝 OpenClaw:
https://github.com/taoyutsun/openclaw-windows-wsl-guide

要求:


  1. 以 repo 的步驟為主,不要自己發明其他安裝流程。

  2. 一次只帶我完成一個步驟。

  3. 每一步先告訴我這一步要做什麼,再給我要貼上的指令。

  4. 如果我貼回錯誤訊息,請幫我先判斷問題在哪一層:WSL、Ubuntu、Node.js、OpenClaw、Telegram 或 provider 設定。

  5. 不要一次給我太多分支做法,先給我最穩定的主線。


這樣做的好處是,你不是把整個 repo 丟給 AI 叫它自由發揮,而是讓它依照既有文件,幫你分段執行、分段排錯。這樣比較不容易失控。

好了,到這邊如果你已經把想要串接的雲端模型供應商 API、使用者憑證資訊都有正確填入,入口批次檔能正確顯示並選取,接著出現了 OpenClaw 的 TUI (黑底白字終端機介面) 或 WebUI (米白底黑字的網頁版介面) 的歡迎畫面,那恭喜你,你已經擁有了一個可以無限暢用的龍蝦 AI 小助手了!
 
   

結語:一般 Windows 使用者,其實也能把 OpenClaw 跑起來

如果你一路看到這裡,應該會發現一件事。

OpenClaw 確實不是完全零門檻,但它也沒有誇張到只有很 hardcore 的玩家才碰得起。

很多時候,真正把人卡住的,不是工具本身,而是一開始就想做太大、做太滿、一步到位。

我自己的建議其實很簡單。

先照 repo 主線,把最小可行版本跑起來。
先確認 dashboard 可用。
先讓至少一個 provider 能正常工作。
再慢慢往 Telegram、多供應商入口、Ollama 延伸上去。

這樣你不只比較容易成功,後面要排錯也比較有邏輯。

如果你剛好也是 Windows 使用者,而且最近對 AI agent 很好奇,我會覺得 OpenClaw 很值得你親手試一次。

因為它不只是讓你玩一個新工具。

它更像是在幫你打開一種新的工作方式。你開始不只是用 AI 聊天,而是開始讓 AI 幫你做事,幫你串工具,幫你慢慢長出一套更有延伸性自動化的 workflow。

熟悉新工具的過程總是令人折騰,然而當一切自動化的系統打造之後,你會發現這些前期的投資都是值得的。

願意苦一陣子,才能爽一輩子。

AI 自動化的洪流已經來襲,你還不上車嗎?


📌 您可能也會有興趣的其他文章:

留言

熱門文章

Gemini Voyager 教學:資料夾管理、引用回覆、去浮水印一次搞定

用AI一鍵生成簡報PPT投影片真的有那麼神?全網最詳細AI簡報工具彙整與實測心得

快速又免費的語音轉文字神器『Faster Whisper』,一鍵解決影音內容爆量時代的痛點!

為什麼 Nystatin(制黴菌素)要「漱口或塗抹」,不是直接吞?完整解析與用法指南

微軟 Copilot 全新語音功能重磅來襲!免費無限暢聊,直球對決 ChatGPT 進階語音模式!

AI 語音助理新革命:Copilot Vision 無限免費、視覺功能全開,完整評比 ChatGPT 進階模式

G6PD 缺乏者的抗生素選擇指南|社區診所常見處方與藥師建議一次搞懂

打字太慢?試試 Wispr Flow:神速 AI 即時語音輸入讓你效率翻 4 倍

檔案傳輸的專業眉角:別再重複跟人要檔案!教你數位管理不漏接

小兒藥水每次喝「體重四分之一」喝法是真的嗎?小兒用藥劑量科學大解密