找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 2|回复: 0

9B端侧开源模型跑通百万上下文,面壁全新稀疏-线性混合注意力 最强的大模型,已经把scaling卷到了一个新维度:百万级上下文。

[复制链接]

1

主题

0

回帖

3

积分

新手上路

积分
3
发表于 9 小时前 | 显示全部楼层 |阅读模式
9B端侧开源模型跑通百万上下文,面壁全新稀疏-线性混合注意力


最强的大模型,已经把scaling卷到了一个新维度:百万级上下文。

几天前,Claude Opus 4.6发布,让人第一次真切感受到了百万上下文的涌现能力——


单次吃进50万字中文内容、实现跨文档法律分析、多轮Agent规划……

此情此景,用户火速用脚投票,华尔街更是直接给出K线回应。

而这股scaling的风,也很快吹到了端侧。

刚刚,面壁智能带着首次大规模训练的稀疏与线性混合注意力模型,小年交卷——

这套新注意力架构,不仅解决了传统Transformer的计算冗余,还第一次在性能无损的前提下,让9B端侧模型能够在5090显卡上处理百万长文本。

与此同时,基于SALA注意力架构的模型MiniCPM-SALA也将一并开源。

除此之外,面壁还以OpenBMB社区名义,联合SGLang与NVIDIA发起2026稀疏算子加速大奖赛(SOAR),将这套scaling能力直接交到开发者手中,推动端侧Agent部署的性能突破。
http://t.cn/AXtXWRcF

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-16 10:41 , Processed in 0.098873 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表