I Cut My OpenClaw Costs by 97%

摘要

OpenClaw 是一個可本地部署的 AI 個人助理平台,但其預設配置會造成嚴重的 token 浪費。作者透過四個優化步驟,將成本從每月 $70-90 降至 $3-5,並讓複雜的隔夜任務(14 個 sub-agent 跑 6 小時)只花 $6。核心觀點:AI agent 的預設配置優先考慮能力而非成本,使用者必須主動介入優化。

重點筆記

Part 1: Session Initialization — 停止每次載入 50KB 歷史

OpenClaw 的核心架構問題:每次訊息(包含心跳)都會載入全部 context files + session history。 隨著使用時間增長,context 從 50KB 膨脹到 75KB、100KB 甚至更大。作者透過 Slack 溝通時,發現系統把所有 Slack 歷史訊息(111KB 純文字)也一併送出。

解法:只在啟動時載入必要檔案,其餘按需載入。

具體策略:

  • 啟動時只載入:SOUL.mdUSER.mdIDENTITY.mdmemory/YYYY-MM-DD.md
  • 不自動載入:MEMORY.md、Session history、Prior messages、Previous tool outputs
  • 需要歷史時用 memory_search() 按需查詢
  • 建立 new session 指令清除 Slack session history,但保留重點到 memory

這一步就節省了 80% 的 context 開銷。

Part 2: Model Routing — 多模型分層路由

不要只用一個模型做所有事。 設定 config 讓不同複雜度的任務使用不同模型。

設定檔 ~/.openclaw/openclaw.json

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-haiku-4-5"
      },
      "models": {
        "anthropic/claude-sonnet-4-5": {
          "alias": "sonnet"
        },
        "anthropic/claude-haiku-4-5": {
          "alias": "haiku"
        }
      }
    }
  }
}

在 System Prompt 中加入路由規則:

MODEL SELECTION RULE:

Default: Always use Haiku
Switch to Sonnet ONLY when:
- Architecture decisions
- Production code review
- Security analysis
- Complex debugging/reasoning
- Strategic multi-project decisions

When in doubt: Try Haiku first.

路由結果的前後對比:

指標BeforeAfter
模型Sonnet for everythingHaiku by default
每 1K tokens 成本$0.003$0.00025
月費$50-70$5-10

Part 3: Heartbeat to Ollama — 心跳改用免費本地 LLM

心跳只是檢查記憶體和任務狀態,不需要付費 API。 安裝 Ollama 並用 llama3.2:3b(2GB,輕量快速)處理心跳。

安裝:

# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh
# 拉取輕量模型
ollama pull llama3.2:3b

Heartbeat 設定:

{
  "heartbeat": {
    "every": "1h",
    "model": "ollama/llama3.2:3b",
    "session": "main",
    "target": "slack",
    "prompt": "Check: Any blockers, opportunities, or progress updates needed?"
  }
}

Part 4: Rate Limits & Budget Controls — 防止失控燒錢

在 System Prompt 中加入速率限制:

RATE LIMITS:
- 5 seconds minimum between API calls
- 10 seconds between web searches
- Max 5 searches per batch, then 2-minute break
- Batch similar work (one request for 10 leads, not 10 requests)
- If you hit 429 error: STOP, wait 5 minutes, retry

DAILY BUDGET: $5 (warning at 75%)
MONTHLY BUDGET: $200 (warning at 75%)
Limit防止什麼
5s between API calls快速連續請求燒 token
10s between searches昂貴的搜尋迴圈
5 searches max, then break失控的研究任務
Batch similar work本來 1 次能做完的事做 10 次

Part 5: Workspace 檔案模板 — Keep It Lean

SOUL.md:定義 agent 核心原則和操作規則,包含 Model Selection 和 Rate Limits 摘要。

USER.md:提供使用者背景資訊和目標,包含 Success Metrics。

關鍵提醒:「Resist the urge to add everything to these files. Every line costs tokens on every request. Include only what the agent absolutely needs to make good decisions.」

整體成本影響

時間維度BeforeAfter
Daily$2-3$0.10
Monthly$70-90$3-5
Yearly$800+$40-60

實際應用案例

作者讓 OpenClaw 跑了一整夜的 B2B 業務開發任務:

  • 14 個 sub-agent 同時運行
  • Haiku:爬取網站、閱讀部落格、尋找目標企業
  • Sonnet:撰寫 cold outreach 信件和 follow-up
  • Ollama:整理檔案、組織 CSV
  • 6 小時,$6(約 $1/小時)
  • 同樣任務如果全用 Opus 大約要 $150

Token 審計與校準

  • 在 Success Metrics 中加入「低 token 使用量」目標
  • 每次任務前要求 AI 預估 token 消耗
  • 任務完成後截圖 Anthropic dashboard 的實際用量餵回給 AI
  • 做 3 次校準後達到 99% 預測準確度
  • Caching 也很關鍵:有一次 95% 的 token 都是走 cached,大幅降低成本

我的想法

  • 這個多模型路由的思路可以類推到 Claude Code 的使用:不需要每個任務都用 Opus,簡單任務用 Haiku 即可
  • 「每次載入都有成本」的概念值得內化 — 適用於所有 context window 管理的場景
  • Keep It Lean 原則很重要:context 檔案中的每一行在每次請求時都會消耗 token
  • Token 審計 + 成本預測校準的循環方法論值得學習

衍生的永久筆記

原始連結