谷歌这个论文非常厉害,大模型推理内存革命了,节省资源非常厉害 FineRIk 2026-03-26 14:04:46 今日推介(第2086期):高效通用感知编码器、针对“自动化研究”本身的元研究、基于条件流匹配的统一神经算子学习 想过 2026-03-26 10:35:21 一句“嘿”吞掉22%用量配额,Claude的计费逻辑你可能从没搞清楚 闻听 2026-03-26 08:18:17 在多模型推理调度领域,「如何在不实际生成回复的情况下,预判哪个模型最适合处理当前请求」是一个悬而未决的难题。 吴歌 2026-03-26 07:21:22 在自动化科研(autoresearch)领域,LLM 驱动的超参数搜索已初见成效,但所有现有系统的搜索机制本身 铉霸 2026-03-26 07:17:03 🚀Anthropic 推出《Anthropic Science Blog》:AI 加速科学研究的桥梁 梅琴 2026-03-25 23:26:54 神经网络持久结构化记忆中的坐标系问题 西域·骆驼 2026-03-25 22:31:02 版本避坑提醒 王荣超 2026-03-25 13:25:15 最近在想一个问题:大模型和传统数据挖掘到底有什么本质区别? 如果夜懂我 2026-03-24 21:52:09 LLM 是人类有史以来最强大的通用工具 短腿小矮基 2026-03-24 21:50:02 很有趣的一篇论文。 憬溺 2026-03-24 21:39:20 刚才用Codex coding,模型GPT-5.4,它在思考的时候,出现了神奇的一幕——出现了一段一般是在网页被篡改劫持时候的一段代码… 陈连利 2026-03-24 20:55:28 在对话记忆检索领域,如何在有限token预算内从海量历史会话中精准召回相关证据,是悬而未决的难题。 小鱼急急 2026-03-24 11:07:30 在形式化数学推理领域,反例生成长期处于被忽视的角落。 Valeron83enved 2026-03-24 08:50:26 中国大模型版图全扫描:谁是真正的玩家? 金灿湖 2026-03-24 08:46:23 有朋友问我,为啥在网页使用 AI 大模型,跟自己调用 API 时感觉不一样,差别很大呢? 憬溺 2026-03-23 20:34:46 让AI帮我总结这篇论文 伍嶽 2026-03-23 08:33:39 Sebastian Raschka的新长篇文章:A Visual Guide to Attention Variants in Modern LLMs 现代大型语言模型注意力变体视觉指南 大优 2026-03-23 08:31:44 大家都在追求更大的LLM... 但GPU显存正在角落里默默流泪。😭 林小北 2026-03-23 01:12:05 deepseek是什么?deepseek究竟是什么? 老高—深圳代理 2026-03-22 22:47:32 发现更多