我有一个很粗暴的看法,LLM大概率已经过了优化的甜点期
我有一个很粗暴的看法,LLM大概率已经过了优化的甜点期,因为在获取了大量和人类交互的数据以后,LLM都陆续获得了高强度强化学习后遗症。以前的语料都是人类创作的,而现在插入了大量的AI生成语料,属于自己拉的自己再吃一遍,以前的语料都是人类之间的沟通互动和辩论,现在人和AI的互动数据,已经占了很大一部分,新增的数 ...
去年开始脑 的AI
去年开始脑 的AI,其实是DEEPSEEK开始的,这个东西之所以引起这么大的震动是因为技术层面使用者的确感觉电脑的一侧是有人在对面的感觉,核心的技术就是LLM,LLM全称叫大语言模型,LLM生成自然语言文本或理解语言文本的含义,看上去像自然的语言,因此一下子就火了,问题在于LLM现在只能去解决理解人的自然语言的讲话以及, ...
DeepSeek 又发新论文啦!
DeepSeek 又发新论文啦!给大家带来解读。说实话这次的论文我看完了心里挺不是滋味
DeepSeek 联合北大、清华发了一篇新论文 DualPath, 解决了一个很多人可能没意识到的问题: 在 Agent 场景下, GPU 大部分时间不是在算, 而是在等数据从硬盘搬过来.
先说背景. 大家都知道现在 AI Agent 任务火爆. 问题是: 每一轮上下文的 9 ...
⼤神 Karpathy 最新推⽂:AI 技术栈⻓出了新的⼀层 ,叫 Claw
Andrej Karpathy⼜造词了。
上⼀次是“vibe coding”——不看代码 ,⽤⾃然语⾔告诉 AI 你想要什么 ,它替你写。这个词从⼀条推⽂变成了全⾏业通⽤语。这⼀次他拎出来的词是 Claw。
他说了什么
Karpathy 发了条长推:买了台新 Mac mini,准备周末折腾 OpenClaw——最近爆火的开源 AI Agent 项⽬,GitHub 上 20 万颗星。 ...
谷歌刚刚发布了自己的 Agent 构建器
谷歌刚刚发布了自己的 Agent 构建器
现在你可以在 Google Opal 里添加一个 Agent 模块,并用纯英文对它进行“编程”。
而且它原生支持:
工具调用(比如 Nano Banana、Veo、网页搜索等)
跨会话记忆(可以保存信息)
条件逻辑
这可能是我目前见过最简单的 AI Agent 构建方式了。 http://t.cn/AXcJ8fyH
...
LLM 为何很难处理好记忆?因为记忆不是简单的知识分类和存储,而是同原模型的融合进化
LLM 为何很难处理好记忆?因为记忆不是简单的知识分类和存储,而是同原模型的融合进化
可以做个想象类比,把我们每次输入的提示词看作一簇有无数触角的“信息结构”,它无法进行简单的归类存储,而是需要把这些触角同模型可以激活的思维部分链接,并消化因关联带来的层层涟漪(人类要通过睡眠来进行深层修剪),这个过程超 ...
如何从零构建一个 LLM 记忆层系统
如何从零构建一个 LLM 记忆层系统
towardsdatascience.com/how-to-build-your-own-custom-llm-memory-layer-from-scratch/
这篇文章介绍了如何从零构建一个受 Mem0 架构启发的 LLM 记忆层系统,通过 DSPy 框架 实现四阶段流水线:提取(将对话转为原子化事实)、嵌入(使用 text-embedding-3-small 存入 QDrant 向量数据库 ...
智能的本质在于对时间的抽象。
[LG]《Compositional Planning with Jumpy World Models》J Farebrother, M Pirotta, A Tirinzoni, M G. Bellemare... [FAIR at Meta & Mila – Québec AI Institute] (2026)
智能的本质在于对时间的抽象。
为什么即便拥有了强大的预训练基础策略,机器人依然难以解决复杂的长程任务?本文给出了答案:因为我们一直试图 ...
(2026) AdaEvolve:让LLM进化的“齿轮”动起来,从静态搜索到层级自适应优化
[LG]《AdaEvolve: Adaptive LLM Driven Zeroth-Order Optimization》M Cemri, S Agrawal, A Gupta, S Liu... [UC Berkeley] (2026) AdaEvolve:让LLM进化的“齿轮”动起来,从静态搜索到层级自适应优化
AI自动编程正经历从“一键生成”到“推理侧搜索”的范式转移。虽然让LLM在进化算法中充当变异算子已成主流,但现有的 ...
#模型时代# 菲尔兹奖、诺贝尔奖、图灵奖得主同台:AI正在怎样改变科学?
#模型时代# 菲尔兹奖、诺贝尔奖、图灵奖得主同台:AI正在怎样改变科学?
2026年2月10日,UCLA的数学科学研究所IPAM举办了一场学术聚会。菲尔兹奖得主陶哲轩、诺贝尔物理学奖得主Barry Barish、图灵奖得主、强化学习之父Richard Sutton,与来自OpenAI、微软研究院、NVIDIA、AWS的技术负责人,以及宾大、布朗、USC等学者同台 ...
最近技术圈都在关注一个新概念——WebMCP
最近技术圈都在关注一个新概念——WebMCP
它可能是继大模型之后,改变我们与互联网交互方式的下一个关键技术。
什么是 WebMCP?
简单来说,它是 Anthropic 提出的 MCP (Model Context Protocol) 协议在浏览器端的原生实现。目前正在作为 W3C 标准推进。
它可以让网页(Web App)直接向浏览器里的 AI Agent 主动“暴露”出 ...
AI agent 的能力增长曲线。
AI agent 的能力增长曲线。
AI 发展已跨过奇点
【AI 发展已跨过奇点】
Boris(Claude 缔造者)认为如果硬要类比的话,当前我们所处的AI革命与印刷术比较类似。
在印刷术发明之前,读写能力只被掌握在少数人中。随着印刷术的出现,各类印刷制品疯狂传播,文化得以普及,这为之后的“文艺复兴”奠定了土壤。
在这轮AI革命之前,“编程”是一项专业技能,由一个特定人群 ...
神经网络在AI中的作用
神经网络是人工智能领域中的一种重要技术,它通过模拟人脑神经元的工作方式来实现智能。神经网络在AI中扮演着以下关键角色:
[*]神经网络是AI的核心组成部分。深度学习等基于深度神经网络的机器学习方法已经推动了AI的发展,在计算机视觉、自然语言处理、语音识别等领域发挥关键作用。[1][2]
[*]神经网络是AI中模仿人脑的一种 ...
运行 AI Agent 应用为什么要先安装 Node.js 和 Git ?
在电脑上安装 AI Agent 应用要先安装 Node.js 和 Git,几乎是目前(2025-2026年)绝大多数开源 AI Agent 项目 / 框架 / 模板的标配前置环境,主要原因如下:为什么几乎都要先装 Node.js?一句话总结:你要运行的那个“Agent 应用”大概率就是一个 Node.js 项目,所以必须先有 Node.js 环境才能执行 npm install 和后续的启 ...
今日推介(第2054期):大语言模型智能体中具备成本意识的探索策略
今日推介(第2054期):大语言模型智能体中具备成本意识的探索策略、误差有界且代数可组合的偏微分方程神经求解器、通过二元Token实现自回归生成模型的规模化扩展、通过动作匹配串联动态人类技能、基于球面编码器的图像生成 公·众·号:爱可可爱生活 http://t.cn/AXcPtBW2 ##
...
谷歌Gemini3.1Pro正式发布#这次更新,谷歌把重心放在实用与效率,不再堆参数,而是解决科研、工程、办公里的真难题。
#谷歌Gemini3.1Pro正式发布#这次更新,谷歌把重心放在实用与效率,不再堆参数,而是解决科研、工程、办公里的真难题。在全球AI内卷下,Gemini 3.1 Pro用实力稳住旗舰位置,也让大模型从“聊天好玩”转向“干活能打”。
对普通用户来说,以后AI写方案、做图表、解难题更靠谱;对行业而言,低成本高性能的AI工具,将加速办 ...
其实个人观点,现在最好的 AI 芯片还是特斯拉的,而不是英伟达的。 HW3.0 才是天才的芯片设计。
其实个人观点,现在最好的 AI 芯片还是特斯拉的,而不是英伟达的。
HW3.0 才是天才的芯片设计。
也是第一性原理(First Principles)的真实运用实例。
因为虽然模型在高速迭代,但是不变的东西也明确:
算法会改变和迭代(CNN, Transformer, RNN),但是 99% 的计算量都是加法和乘法。
所以 hw3.0 把这些不变的算法给 ...
三个技术路线正在分化
三个技术路线正在分化:
1. 灵魂派 (Anthropic):招哲学家 → 训练价值观 → 研究 AI 意识 → 终点是"AI 作为道德主体"。模型 MBTI 从 T→F,从工具走向主体。
2. 工程派 (Google, xAI):不招哲学家 → 用技术手段解决安全 → 模型始终是工具。MBTI 固定在 INTJ/ENTJ,不会出现 F 维度偏移。
3. 矫正派 (OpenAI, De ...
本文重新定义了我们该如何训练扩散模型的“潜空间”。这不仅是一个技术框架的改进,更是对生成模型底层逻辑的一次深度重构。
[LG]《Unified Latents (UL): How to train your latents》J Heek, E Hoogeboom, T Mensink, T Salimans [Google DeepMind Amsterdam] (2026)
本文重新定义了我们该如何训练扩散模型的“潜空间”。这不仅是一个技术框架的改进,更是对生成模型底层逻辑的一次深度重构。
长期以来,潜空间(Latent Space)一直是扩散模型 ...