这是要随时随地VibeCoding!
这是要随时随地VibeCoding!
Anthropic官方iMessage插件,用iMessage跟Claude Code交互
Anthropic官方iMessage插件,用iMessage跟Claude Code交互
本地执行,双向通信(支持文字和图片)
可以手机发消息让Claude查文件、改代码、读取图片,并回复消息
默认只响应自己,其他联系人需手动开白名单授权,陌生人消息直接丢弃
github:http://t.cn/AXfeoEO1
##
...
谷歌刚把一个关乎全球数字基础设施存亡的倒数计时器,猛地往前拨到了2029年。这是这家科技巨头为“Q Day”设定的最新红线。
谷歌刚把一个关乎全球数字基础设施存亡的倒数计时器,猛地往前拨到了2029年。这是这家科技巨头为“Q Day”设定的最新红线。
Q Day,密码学家给全球加密系统集体失效日起的代号。那一天,量子计算机将拥有足够的算力,能在数日内破解RSA和椭圆曲线加密。这两种算法是今天保护你银行账户、医疗记录、政府机密和军事通信的根 ...
2025年:我需要一台能运行VSCode和Vibe Coding插件的桌面操作系统笔记本
2025年:我需要一台能运行VSCode和Vibe Coding插件的桌面操作系统笔记本,考虑到VSCode的内存占用,至少需要16GB内存,因此我选择松下CF-SC6。
2026年:我只需要一个Terminal,打开两个窗口,一个窗口跑Claude Code,另一个窗口运行Helix,好像MacBook Neo就够了。
...
给本地 Claude Code / Codex / Copilot 装上 Chrome MCP,可以很大程度释放双手
给本地 Claude Code / Codex / Copilot 装上 Chrome MCP,可以很大程度释放双手,它会直连到你当前打开的浏览器,网页各种登录态和浏览器插件依旧都在,也省却了很多环境配置复杂度。
无论是文档写作、表格处理、资料搜索还是网页开发,甚至是游戏开发、后台运营,它都可以长时间跑下去,20~60min,直到将任务完成。
这 ...
rtk:给Claude Code装上"省钱模式",一个CLI代理减少80%的token消耗。
rtk:给Claude Code装上"省钱模式",一个CLI代理减少80%的token消耗。
AI写代码有个隐形成本:每一条命令的输出都是token。git status输出3000个token,cargo test输出25000个token。一个中等项目的常见开发命令加起来就是11.8万个token。
rtk做的事很简单:在命令输出到Claude之前,把它压缩掉。结果就是总token消耗从1 ...
立个FLAG, 今年下半年应该是多模态Agent之年.
立个FLAG, 今年下半年应该是多模态Agent之年.
龙虾这类的Agent框架本身system prompt 巨大无比 + 多轮对话积累的 prompt + 图片/视频模态本身嵌入后 token 量也不小, 所以目前最大的瓶颈反而又回到了 prefill 速度上, 即, 真正拼GPU性能的时代又回来了.
TFLOPS/TOPS 性能不够的情况下,多模态Agent的TTFT会非常长(10s以 ...
OpenClaw更新了2026.3.24 版本🔥
OpenClaw更新了2026.3.24 版本🔥
- 🔌 Improved OpenAI API:支持通过openwebui 与子代理(sub-agents)对话,更好实现多代理协作。
- 🎛️ Skill & Tool Management Control UI:新增技能/工具管理控制界面,配置更直观、调试更容易。
- 🎨 Slack interactive reply buttons:Slack 支持交互式回复按钮,代理可在聊天中 ...
懒人福音来袭!#想帮帮AI服务智能体# 免费一键部署 OpenClaw,安装 “龙虾” 超简单,再也不用自己折腾啦!
懒人福音来袭!#想帮帮AI服务智能体# 免费一键部署 OpenClaw,安装 “龙虾” 超简单,再也不用自己折腾啦!
http://t.cn/AXfryF87
说OpenClaw闲置的是没有深度去用,拿我个人来说,它反倒成了日常办公和理财的实用工具!
说OpenClaw闲置的是没有深度去用,拿我个人来说,它反倒成了日常办公和理财的实用工具!
🔻利用AKshare-skill+stock daily analysis搭了选股策略,每天自动筛10只好股还能回测模拟,省去手动复盘的麻烦;
🔻利用baoyu-XHS-images一键生成小红书图文,配图加文案一步到位,内容创作效率翻倍;当然宝玉系列正在实践应用中, ...
看大家都在搞openclaw的自主进化学习,目前测试来看,大部分的智能体都可以实现
看大家都在搞openclaw的自主进化学习,目前测试来看,大部分的智能体都可以实现,让他自己给自己生成记忆体长文和临时会话记录,临时的就是当前会话干完活就销毁,支持多个智能体协同记忆,除了openclaw,opencode,claude,codex都可以实现,每一次都会提炼,一些刁钻的问题,本次解决之后,下次直接本地检索,不会消耗tok ...
网友爆料:玩疯了?AI能30分钟搓出一家一人跨国公司了
网友爆料:玩疯了?AI能30分钟搓出一家一人跨国公司了
该网友称“今天凌晨,阿里国际在海外上线了一个新东西叫Accio Work,这个是专门面向海外想做生意的普通人的AI Agent。目前看反响非常不错,据内部数据说,目前海外已经有1000多万商家在用了,不少博主都在测评,我刷到TT上一条帖子说,几分钟就把专业的店铺开好,现在 ...
Claude Code顶配插件全解析
Claude Code顶配插件全解析:手把手带你解锁claude-plugins-official九大核心能力——从skill-creator启程,经claude-md-management、code-simplifier、feature-dev、frontend-design、hookify、pr-review-toolkit、commit-commands,直抵ralph-loop闭环!覆盖技能构建、MD文档运维、代码精炼、功能开发、前端设计、钩子封 ...
强烈推荐这个 skill,真的好用到离谱。
强烈推荐这个 skill,真的好用到离谱。
如果你每天都想看最有价值的 AI 干货,建议你一定装一个。它会自动帮你整理四类内容:顶级 AI 播客最新一期的精华摘要,25 位精选 AI 建造者在 X/Twitter 上的关键观点和洞察,AI 公司官方博客的完整文章(比如 Anthropic Engineering、Claude Blog),以及所有原始内容的链接,方便 ...
[v0.2.6] ZeeLinClaw 0.2.6版本上线
[v0.2.6] ZeeLinClaw 0.2.6版本上线
1、新增 微信 即时通讯功能
2、新增Agent运行时(OpenClaw Runtime),优化 Agent 记忆压缩功能
3、优化 飞书、企业微信 即时通讯的设置方式
4、优化 OpenClaw 引擎,新增 Agent 设定与用户档案
5、加强安全防护功能
下载链接
windows
http://t.cn/AXf1ymlg
MacOSM芯片
http://t.cn/ ...
Claude出了Computer use功能,就是能在你的授权下,彻彻底底使用你的电脑。
Claude出了Computer use功能,就是能在你的授权下,彻彻底底使用你的电脑。
昨天朋友提到这件事的时候,我只是单纯觉得这功能蛮弔,但是具体对工作、生活有什么帮助,其实也没想清楚。
今天卡兹克做了个实验,提到可以用computer use功能接入桌面端的绿泡泡软件,这样Claude就能帮你刷朋友圈、刷群聊。卧槽!思路打开!
...
这段时间科技圈养龙虾讨论度好高,作为折腾过不少AI工具的人,我立刻上手试了下,发现它和OpenClaw的定位还挺不一样。
这段时间科技圈养龙虾讨论度好高,作为折腾过不少AI工具的人,我立刻上手试了下,发现它和OpenClaw的定位还挺不一样。
CoPaw本土化适配,这正是国内开发者的核心痛点。之前用OpenClaw,想接入钉钉、飞书得自己写代码适配,和国内大模型对接也得手动配置,对非技术党太不友好。而CoPaw直接内置了这些国内常用IM,填个APIKey ...
想象一下,你每晚入睡后,AI助理会自动分析你的目标,并主动为你完成一项任务。
想象一下,你每晚入睡后,AI助理会自动分析你的目标,并主动为你完成一项任务。第二天醒来,工作就向前推进了一步!这就是OpenClaw的“夜班员工”模式,通过一个简单的定时任务提示词就能实现,让AI真正为你自主工作。## http://t.cn/AXfE6BT6 ...
我们很快会更新下插件,解决这个问题。
我们很快会更新下插件,解决这个问题。目前只有升级了最新版的原生openclaw的用户会暂时遇到这个问题,其他比如workbuddy、QClaw接入的没啥影响,openclaw的这次升级,似乎也影响了一堆国内外的IM消息渠道,一个新产品的迭代里有点小问题,可以理解。至于后面解读说微信不懂生态玩法,我觉得有点像说鱼不会游泳了。。。。 ...
谷歌全新压缩算法:TurboQuant,将LLM键值缓存内存减少了6倍,速度提升了8倍,零精度损失,无需训练
谷歌全新压缩算法:TurboQuant,将LLM键值缓存内存减少了6倍,速度提升了8倍,零精度损失,无需训练
AI模型使用高维向量来处理信息,但这些向量非常消耗内存,特别是在KV cache中
传统向量量化:
量化本身能压缩数据,但需要存储额外的量化常数
这些常数通常用全精度存储,每个数额外开销1-2 bit
部分抵消了压缩的意义
T ...