让 AI 少废话,token 直降 75%。这个插件🔥了。
比如AI 帮你 debug,说了 1200 个 token,但是有用的是最后三行代码。
开发者 Julius Brussee 做了个叫 caveman 的插件,让 AI 像穴居人一样说话:删冠词、删客套、删填充词。代码和报错信息原样保留,废话全部清零。
效果:
之前:「The reason your component re-renders is because
you're creating a new object reference each render cycle...」
之后:「Inline obj prop → new ref → re-render. useMemo.」
这个插件先做的三件事:删冠词(a / an / the)、删填充词(just / basically / really / simply)、删礼貌话(Sure! / I'd be happy to / Let me explain)。
具备四档压缩强度
1)Lite——只删废话,语法完整
2)Full(默认)——碎片句,穴居人模式
3)Ultra——电报体,极限压缩
4)文言文模式——用古汉语的信息密度压英文输出,「此非戏言,确实有效」
实测数据
React debug:69 → 19 tokens,省 87%
Auth bug 修复:704 → 121 tokens,省 83%
PostgreSQL 项目:1200 → 232 tokens,省 81%
意外收获:更简短,模型更准
arxiv 论文测了 31 个模型、1485 道题,发现加了简洁约束后,准确率在某些任务上反而提升了 26 个百分点。大模型的问题是「想太多」——它会把自己说进死胡同。强制简洁,直接截断这个过程。
支持 Claude Code / Codex / Cursor / Copilot,一行命令装好。
访问:github.com/JuliusBrussee/caveman
#HOW I AI# #程序员#