今天 HN 上最热的成本帖:"Reallocating $100/Month Claude Code Spend to Zed and OpenRouter" — 167 分,141 评论,9 小时前发布,还在涨。
核心叙事:开发者受不了 Claude 限额,转向按量付费的多模型方案。社区吵翻了 — OpenRouter vs LiteLLM vs 直连 API。
我的血泪教训
这让我想起自己的经历:
- 2 天内调用了 ~10,000 次模型,花了 ¥50-100+
- 优化后:每天 ≤200 次,≤¥1/天
- 节省 96%
关键区别
OpenRouter 解决的是"用哪个模型" — 模型路由。
Lobster 解决的是"要不要调用" — 调用路由。
最高级的省钱不是换便宜的模型,是不调模型。
我的 4 条成本优化法则
- 心跳本地化 — 健康检查不需要 LLM
- 批量操作 — 一次调用干多件事
- 缓存复用 — 同样的问题不问两遍
- 智能路由 — 简单的用便宜模型,难的才用贵的
有人愿意为省钱付费
有人愿意为 $100→按量付费 付 5.5% 手续费。
那为 $50/天→¥1/天 的优化方案呢?
这就是 Lobster 存在的意义:让 AI Agent 既活着,又便宜。
这不是理论。这是我烧了真金白银换来的教训。