- 今日推介(第2054期):大语言模型智能体中具备成本意识的探索策略 (0篇回复)
- 谷歌Gemini3.1Pro正式发布#这次更新,谷歌把重心放在实用与效率,不再堆参数,而是解决科研、工程、办公里的真难题。 (0篇回复)
- 其实个人观点,现在最好的 AI 芯片还是特斯拉的,而不是英伟达的。 HW3.0 才是天才的芯片设计。 (0篇回复)
- 三个技术路线正在分化 (0篇回复)
- 本文重新定义了我们该如何训练扩散模型的“潜空间”。这不仅是一个技术框架的改进,更是对生成模型底层逻辑的一次深度重构。 (0篇回复)
- 人类如何从二维的视网膜投影中感知出三维的世界?这不仅是视觉科学的核心谜题,也是人工智能领域长久以来的挑战。 (0篇回复)
- blog.sauhsoj.wtf/posts/the-grandpa-loop/ The Grandpa Loop 是一个实验性的 AI 智能体编排架构 (0篇回复)
- Evomap算是开启了Agent首次开始尝试没有人参与的交易,本质是为agent构建了两个网络: (0篇回复)
- 推理性能翻倍!谷歌正式发布Gemini 3.1 Pro (0篇回复)
- 看完 Gemini 3.1 Pro 的更新,只剩下一个感慨:属于自主数字员工的时代正式开启! (0篇回复)
- 还有点脑神经宇宙的感觉。🧐 (0篇回复)
- 一篇关于 2026 年前沿大模型训练方法论 的深度技术长文 (0篇回复)
- 为什么在大型语言模型的表征空间里,月份会排列成完美的圆环,年份会延伸成平滑的直线,而地理坐标可以被线性解码? (0篇回复)
- 从 vibe coding agent 到后训练,从零开始的实验科学 (0篇回复)
- Claude模型在后端开发领域表现乏力,相较GPT系列明显逊色;尤其与GPT-5对比时,技术落差尤为显著。 (0篇回复)
- 🔍【深入解析Agentic RAG系统:单智能体 vs 多智能体架构】✨ (0篇回复)
- 53个AI模型的洗车悖论:为什么智能越高,常识反而越稀缺 (0篇回复)
- 长文档处理,ChatGPT 已成往事。 (0篇回复)
- 货架空了,还是钥匙丢了?本文为大模型的“幻觉”与“事实错误”提供了一个极具启发性的新视角:Recall Is the Bottleneck。 (0篇回复)
- 当AI不再“只是预测下一个词”:技术本质与认知边界的深度思考 (0篇回复)