隐藏置顶帖
置顶
一起港湾 (17GW.com) 论坛发帖须知
欢迎来到 一起港湾 (17GW) 社区!这里是 AI 技术爱好者、数码极客和生活分享者的精神家园。为了维护港湾的纯净秩序与技术氛围,请在开启您的分享之旅前,仔细阅读并遵守以下发帖规范。
一、 核心发帖准则
[*]主题契合,精准归类:请确保内容与所属版块(如 AI 技术、数码维修、资源分享等)相关。标题应简明扼要,避免“ ...
苹果自研AI服务器芯片曝光#:直接采购三星玻璃基板,把控封装质量
New
【#苹果自研AI服务器芯片曝光#:直接采购三星玻璃基板,把控封装质量】芯片通信方面交由博通(Broadcom)开发,负责解决各处理器协同运行时的通信问题;而三星电机(Samsung Electro-Mechanics)负责提供 T-glass 玻璃基板,并最终由台积电生产封装。
...
哈哈,出炉了。 学习了两天做了一个土豆子的产品视频。
New
哈哈,出炉了。
学习了两天做了一个土豆子的产品视频。
和之前即梦、Sora 不一样的是,这个是生产力方向的。
一步一步按照我的要求生成我想要的东西。
你们感觉效果怎么样?
http://t.cn/AXMzTNRI
Mac 跑 AI 模型更方便了,Tiny Corp 称苹果已为英伟达、AMD 外置显卡开绿灯
New
【Mac 跑 AI 模型更方便了,Tiny Corp 称苹果已为英伟达、AMD 外置显卡开绿灯】该驱动并非来自 GPU 厂商,而是由 Tiny Corp 自主开发,因此其主要面向 AI 大模型运算,而非游戏用途。
微软和谷歌正寻求与SK海力士达成长期协议
New
微软和谷歌正寻求与SK海力士达成长期协议
SK海力士正与包括微软和谷歌在内的全球主要人工智能公司签订DRAM长期供应协议(LTA)。大型科技公司正试图锁定DRAM这种价格波动剧烈的产品,以延长其供应期限。随着全球人工智能基础设施投资热潮的兴起,人们对DRAM供应短缺的担忧日益加剧,大型科技公司正在制定战略,以确保稳定 ...
5小时众筹破百万美金,Tiiny AI为什么能卖爆
New
“我们没想到端侧AI会火的这么快。”
3月末,Tiiny AI副总裁兼商业化负责人Eco Lee向虎嗅复盘了这款在Kickstarter上迅速爆火的项目时感慨道。
3月中旬,Tiiny AI Pocket Lab小盒子在Kickstarter上线,售价1399美金起,上线仅5小时众筹突破100万美元。上一次在该平台跑出同等速度的,还是2022年的拓竹Bambu Lab X1。短短四 ...
Gemma4对高通是巨大利好
New
Gemma4对高通是巨大利好
谷歌新出的Gemma4大模型,就是给高通量身定做的“赚钱神器”,对高通来说,完完全全是天上掉馅饼的大好事。
以前的AI大模型又大又笨,只能在服务器上跑,手机根本带不动。而Gemma4是轻量化小模型,专门能在手机、汽车这些终端设备上离线运行,不用靠网络,反应还快,这刚好戳中了高通的核心优 ...
MWC展出的AI算力玩家的产品具象化一下吧。
New
MWC展出的AI算力玩家的产品具象化一下吧。
平时都在机房里面堆着你们也不怎么看的到。
Nvidia,AMD,Supermicro,Giagbyte,Qualcomm(这是意外,高通all in搞推理了?头脑还是清醒的,知道下半场在哪里),联发科等等。
## http://t.cn/AXf2C6vc
...
英伟达的B300服务器,最近一个月,单台报价就上涨超过100万以上(短短一个月内),市场的公开报价从400多万一台,暴涨到500多万了。
New
英伟达的B300服务器,最近一个月,单台报价就上涨超过100万以上(短短一个月内),市场的公开报价从400多万一台,暴涨到500多万了。不过,内存条的价格是下来了一些了,目前市场稀缺的只有高端的AI芯片了(因为AI的应用需求在大幅上升,各大公司也在疯狂的因为AI应用大幅落地而不断裁员优化)
附英伟达B300服务器的参考配 ...
今天去聊了几个做GPU云服务的厂商,最大的感受就是顶级算力已经贵到离谱了。
New
今天去聊了几个做GPU云服务的厂商,最大的感受就是顶级算力已经贵到离谱了。前几个月拿的几个node感觉已经血赚……
现在 B200 和下一代 Vera Rubin 的需求非常高,高到很多资源已经不是按节点往外卖了,基本上就是整柜起订,一个机柜、一个 NVL72 去谈。交付周期也很夸张,你想临时拿几个node,基本很难。
更夸张的是价 ...
只要在电脑的PCIe 插个卡
New
只要在电脑的PCIe 插个卡
就能用上 Qwen 3.5-27B 10000token/S 超级体验
超低功耗
400 刀左右的价格
Taala新出的把大模型焊死到芯片里实现的高效计算
感觉这个卡的需求会非常大
好想搞到一个,体验下 token 自由的感觉
1000 刀也值
...
GPU霸权将被超大内存架构取代,AI芯片迎来内存革命!
New
【GPU霸权将被超大内存架构取代,AI芯片迎来内存革命!】
AI芯片的技术演进正站在重大拐点之上 。
被誉为“HBM之父”的韩国科学技术院电气与电子工程学院教授金正浩近日公开表示,未来AI算力体系将发生结构性重构——主导权正从处理器转向内存 。
目前以英伟达GPU和通用CPU为核心的计算范式,将在中长期被一种全新的内 ...
网传“Rubin Ultra从4颗GPU减配到2颗、技术无法实现”,目前只是上游渠道传闻,并非英伟达官方确认
网传“Rubin Ultra从4颗GPU减配到2颗、技术无法实现”,目前只是上游渠道传闻,并非英伟达官方确认;且“所有配套都砍半”是过度线性外推,实际影响远没那么极端。
一、先理清Rubin Ultra的基本信息
- 官方规划(GTC 2026):单颗Rubin Ultra为4颗GPU芯粒(chiplet)封装,配1TB HBM4e,计划2027年下半年量产
- 网传 ...
Ollama 官方消息:Ollama 0.19 开始使用苹果的 MLX 作为后端
Ollama 官方消息:Ollama 0.19 开始使用苹果的 MLX 作为后端,所以能更好地利用统一内存和 GPU 加速,在有 32G 内存的 M5 系列设备上运行 int4 量化的 Qwen3.5-35B-A3B 可以实现预填充 1851 token/s,生成 134 token/s。 http://t.cn/AXIKNdVW
Mac可以用外接GPU来跑大模型了。
Mac可以用外接GPU来跑大模型了。
文档: docs.tinygrad.org/tinygpu/
#How I AI#
“HBM 之父”金正浩:AI 芯片格局将发生根本性变化,内存会取代 GPU 主角地位
【“HBM 之父”金正浩:AI 芯片格局将发生根本性变化,内存会取代 GPU 主角地位】4 月 1 日消息,当地时间 3 月 30 日,据韩媒《亚洲经济》报道,被称为“HBM 之父”的韩国科学技术院电气与电子工程学院教授金正浩表示,AI 芯片格局即将发生根本性变化,当前以英伟达 GPU 为核心的体系,将被内存主导的架构取代。
金正浩 ...
#Mac跑大模型提速#:本地 AI 工具 Ollama 接入苹果 MLX 框架
【#Mac跑大模型提速#:本地 AI 工具 Ollama 接入苹果 MLX 框架】4 月 1 日消息,科技媒体 Ars Technica 昨日(3 月 31 日)发布博文,报道称本地 AI 工具 Ollama 发布 0.19 预览版,全面接入苹果 MLX 机器学习框架,提升苹果 Mac 运行本地大模型速度。本次更新深度优化统一内存的使用效率,改进缓存性能,并新增支持 NVFP4 ...
当速度飙到10000 tokens/秒:把AI模型烧进芯片,会是一门好生意吗
【当速度飙到10000 tokens/秒:把AI模型烧进芯片,会是一门好生意吗】
快速阅读: 一家叫Taalas的公司据传要把Qwen 3.5 27B直接蚀刻进芯片,制造成本300-400美元,成品卡600-800美元,跑速10000 tokens/秒。这引发了关于本地AI推理的路线之争:专用ASIC对决云端API,速度对决灵活性。
---
先说数字。Qwen 3.5 27B通过API ...
买了 Mac Mini 当服务器,没显示器怎么办?一招搞定
买了 Mac Mini 当服务器,没显示器怎么办?一招搞定
最近不少人因为 OpenClaw(龙虾🦞)入手了 Mac Mini,打算拿来跑模型或当开发服务器。但问题来了:专门给它配一台显示器,既占地方又浪费钱。其实 macOS 自带的"屏幕共享"功能就能完美解决这个问题——用你现有的 Mac 直接远程操控 Mac Mini,就像坐在它面前一样。
设 ...
qwen大模型能烧进芯片,自动驾驶软件的大模型就能烧进芯片,这会带来自动驾驶硬件系统价格暴降,各种机器人也会采取大模型硬件烧录方案。
qwen大模型能烧进芯片,自动驾驶软件的大模型就能烧进芯片,这会带来自动驾驶硬件系统价格暴降,各种机器人也会采取大模型硬件烧录方案。英伟达真要面临挑战了,专用烧录芯片会取代英伟达显卡,前者价格只有三四百美元,后者价格3万美元,价格是百分之一,性能还远远超过。升级很简单,扔掉旧烧录芯片换新烧录芯片。
...
2026装机必看!本地跑 Llama 4 和 实时视频生成,AI玩家该怎么配?机🤖🚀
2026年了,如果你还在按2023年的思路配AI电脑,那真是“入场即过时”。现在的AI模型不再只是简单的聊天窗口,而是深度集成了实时视觉和高逻辑推理。
想在本地流畅跑起最新的大模型,或者玩转实时AI分身、AI驱动的开放世界游戏?这份2026版AI玩家配置清单请收好!
[hr]
核心逻辑:NPU加速、显存带宽、以及“全闪存”时代
1 ...