LLM API 越来越贵,别让 token 像自来水一样哗哗流
Posted on 五 08 5月 2026 in Journal • Tagged with LLM, AI, token, cost-control, prompt-engineering, productivity
LLM API 的成本控制不是少用 AI,而是把 token 当工程资源来管。先度量,再分级选模型,压缩上下文,复用缓存,限制输出,离线任务走批处理,最后拿检查清单管住那些看不见的浪费。
Continue reading