订阅

AI硬件 今日: 1 |主题: 129|排名: 20 

  • 隐藏置顶帖 置顶 一起港湾 (17GW.com) 论坛发帖须知
    欢迎来到 一起港湾 (17GW) 社区!这里是 AI 技术爱好者、数码极客和生活分享者的精神家园。为了维护港湾的纯净秩序与技术氛围,请在开启您的分享之旅前,仔细阅读并遵守以下发帖规范。 一、 核心发帖准则 [*]主题契合,精准归类:请确保内容与所属版块(如 AI 技术、数码维修、资源分享等)相关。标题应简明扼要,避免“ ...
    1101 teanzhong 发表于 2026-3-29 服务
  • 苹果自研AI服务器芯片曝光#:直接采购三星玻璃基板,把控封装质量 New
    【#苹果自研AI服务器芯片曝光#:直接采购三星玻璃基板,把控封装质量】芯片通信方面交由博通(Broadcom)开发,负责解决各处理器协同运行时的通信问题;而三星电机(Samsung Electro-Mechanics)负责提供 T-glass 玻璃基板,并最终由台积电生产封装。 ​​​ ...
    05 紫霄 发表于 11 小时前 AI硬件
  • 哈哈,出炉了。 学习了两天做了一个土豆子的产品视频。 New
    哈哈,出炉了。 学习了两天做了一个土豆子的产品视频。 和之前即梦、Sora 不一样的是,这个是生产力方向的。 一步一步按照我的要求生成我想要的东西。 你们感觉效果怎么样? http://t.cn/AXMzTNRI ​​​
    011 我爱榛子 发表于 昨天 17:01 AI硬件
  • Mac 跑 AI 模型更方便了,Tiny Corp 称苹果已为英伟达、AMD 外置显卡开绿灯 New
    【Mac 跑 AI 模型更方便了,Tiny Corp 称苹果已为英伟达、AMD 外置显卡开绿灯】该驱动并非来自 GPU 厂商,而是由 Tiny Corp 自主开发,因此其主要面向 AI 大模型运算,而非游戏用途。 ​​​
    015 cirock 发表于 前天 14:14 AI硬件
  • 微软和谷歌正寻求与SK海力士达成长期协议 New
    微软和谷歌正寻求与SK海力士达成长期协议 SK海力士正与包括微软和谷歌在内的全球主要人工智能公司签订DRAM长期供应协议(LTA)。大型科技公司正试图锁定DRAM这种价格波动剧烈的产品,以延长其供应期限。随着全球人工智能基础设施投资热潮的兴起,人们对DRAM供应短缺的担忧日益加剧,大型科技公司正在制定战略,以确保稳定 ...
    011 流水潺潺可穿石 发表于 前天 13:08 AI硬件
  • 5小时众筹破百万美金,Tiiny AI为什么能卖爆 New
    “我们没想到端侧AI会火的这么快。” 3月末,Tiiny AI副总裁兼商业化负责人Eco Lee向虎嗅复盘了这款在Kickstarter上迅速爆火的项目时感慨道。 3月中旬,Tiiny AI Pocket Lab小盒子在Kickstarter上线,售价1399美金起,上线仅5小时众筹突破100万美元。上一次在该平台跑出同等速度的,还是2022年的拓竹Bambu Lab X1。短短四 ...
    021 狂刷排名 发表于 3 天前 AI硬件
  • Gemma4对高通是巨大利好 New
    Gemma4对高通是巨大利好 谷歌新出的Gemma4大模型,就是给高通量身定做的“赚钱神器”,对高通来说,完完全全是天上掉馅饼的大好事。 以前的AI大模型又大又笨,只能在服务器上跑,手机根本带不动。而Gemma4是轻量化小模型,专门能在手机、汽车这些终端设备上离线运行,不用靠网络,反应还快,这刚好戳中了高通的核心优 ...
    020 FineRIk 发表于 3 天前 AI硬件
  • MWC展出的AI算力玩家的产品具象化一下吧。 New
    MWC展出的AI算力玩家的产品具象化一下吧。 平时都在机房里面堆着你们也不怎么看的到。 Nvidia,AMD,Supermicro,Giagbyte,Qualcomm(这是意外,高通all in搞推理了?头脑还是清醒的,知道下半场在哪里),联发科等等。 ## http://t.cn/AXf2C6vc ​​​ ...
    041 秋欢 发表于 4 天前 AI硬件
  • 英伟达的B300服务器,最近一个月,单台报价就上涨超过100万以上(短短一个月内),市场的公开报价从400多万一台,暴涨到500多万了。 New
    英伟达的B300服务器,最近一个月,单台报价就上涨超过100万以上(短短一个月内),市场的公开报价从400多万一台,暴涨到500多万了。不过,内存条的价格是下来了一些了,目前市场稀缺的只有高端的AI芯片了(因为AI的应用需求在大幅上升,各大公司也在疯狂的因为AI应用大幅落地而不断裁员优化) 附英伟达B300服务器的参考配 ...
    022 唐代斯 发表于 4 天前 AI硬件
  • 今天去聊了几个做GPU云服务的厂商,最大的感受就是顶级算力已经贵到离谱了。 New
    今天去聊了几个做GPU云服务的厂商,最大的感受就是顶级算力已经贵到离谱了。前几个月拿的几个node感觉已经血赚…… 现在 B200 和下一代 Vera Rubin 的需求非常高,高到很多资源已经不是按节点往外卖了,基本上就是整柜起订,一个机柜、一个 NVL72 去谈。交付周期也很夸张,你想临时拿几个node,基本很难。 更夸张的是价 ...
    018 王吉杨 发表于 5 天前 AI硬件
  • 只要在电脑的PCIe 插个卡 New
    只要在电脑的PCIe 插个卡 就能用上 Qwen 3.5-27B 10000token/S 超级体验 超低功耗 400 刀左右的价格 Taala新出的把大模型焊死到芯片里实现的高效计算 感觉这个卡的需求会非常大 好想搞到一个,体验下 token 自由的感觉 1000 刀也值 ​​​ ...
    025 恒国 发表于 6 天前 AI硬件
  • GPU霸权将被超大内存架构取代,AI芯片迎来内存革命! New
    【GPU霸权将被超大内存架构取代,AI芯片迎来内存革命!】 AI芯片的技术演进正站在重大拐点之上 。 被誉为“HBM之父”的韩国科学技术院电气与电子工程学院教授金正浩近日公开表示,未来AI算力体系将发生结构性重构——主导权正从处理器转向内存 。 目前以英伟达GPU和通用CPU为核心的计算范式,将在中长期被一种全新的内 ...
    134 曹玉兰 发表于 7 天前 AI硬件
  • 网传“Rubin Ultra从4颗GPU减配到2颗、技术无法实现”,目前只是上游渠道传闻,并非英伟达官方确认
    网传“Rubin Ultra从4颗GPU减配到2颗、技术无法实现”,目前只是上游渠道传闻,并非英伟达官方确认;且“所有配套都砍半”是过度线性外推,实际影响远没那么极端。 一、先理清Rubin Ultra的基本信息 - 官方规划(GTC 2026):单颗Rubin Ultra为4颗GPU芯粒(chiplet)封装,配1TB HBM4e,计划2027年下半年量产 - 网传 ...
    027 啊哎呀 发表于 7 天前 AI硬件
  • Ollama 官方消息:Ollama 0.19 开始使用苹果的 MLX 作为后端
    Ollama 官方消息:Ollama 0.19 开始使用苹果的 MLX 作为后端,所以能更好地利用统一内存和 GPU 加速,在有 32G 内存的 M5 系列设备上运行 int4 量化的 Qwen3.5-35B-A3B 可以实现预填充 1851 token/s,生成 134 token/s。 http://t.cn/AXIKNdVW ​​​
    024 大水瓶 发表于 7 天前 AI硬件
  • Mac可以用外接GPU来跑大模型了。
    Mac可以用外接GPU来跑大模型了。 文档: docs.tinygrad.org/tinygpu/ #How I AI# ​​​
    027 蓝蓝夜 发表于 7 天前 AI硬件
  • “HBM 之父”金正浩:AI 芯片格局将发生根本性变化,内存会取代 GPU 主角地位
    【“HBM 之父”金正浩:AI 芯片格局将发生根本性变化,内存会取代 GPU 主角地位】4 月 1 日消息,当地时间 3 月 30 日,据韩媒《亚洲经济》报道,被称为“HBM 之父”的韩国科学技术院电气与电子工程学院教授金正浩表示,AI 芯片格局即将发生根本性变化,当前以英伟达 GPU 为核心的体系,将被内存主导的架构取代。 金正浩 ...
    028 咸蛋超银 发表于 7 天前 AI硬件
  • #Mac跑大模型提速#:本地 AI 工具 Ollama 接入苹果 MLX 框架
    【#Mac跑大模型提速#:本地 AI 工具 Ollama 接入苹果 MLX 框架】4 月 1 日消息,科技媒体 Ars Technica 昨日(3 月 31 日)发布博文,报道称本地 AI 工具 Ollama 发布 0.19 预览版,全面接入苹果 MLX 机器学习框架,提升苹果 Mac 运行本地大模型速度。本次更新深度优化统一内存的使用效率,改进缓存性能,并新增支持 NVFP4 ...
    026 王吉杨 发表于 7 天前 AI硬件
  • 当速度飙到10000 tokens/秒:把AI模型烧进芯片,会是一门好生意吗
    【当速度飙到10000 tokens/秒:把AI模型烧进芯片,会是一门好生意吗】 快速阅读: 一家叫Taalas的公司据传要把Qwen 3.5 27B直接蚀刻进芯片,制造成本300-400美元,成品卡600-800美元,跑速10000 tokens/秒。这引发了关于本地AI推理的路线之争:专用ASIC对决云端API,速度对决灵活性。 --- 先说数字。Qwen 3.5 27B通过API ...
    057 六亚之父之父 发表于 2026-3-30 AI硬件
  • 买了 Mac Mini 当服务器,没显示器怎么办?一招搞定
    买了 Mac Mini 当服务器,没显示器怎么办?一招搞定 最近不少人因为 OpenClaw(龙虾🦞)入手了 Mac Mini,打算拿来跑模型或当开发服务器。但问题来了:专门给它配一台显示器,既占地方又浪费钱。其实 macOS 自带的"屏幕共享"功能就能完美解决这个问题——用你现有的 Mac 直接远程操控 Mac Mini,就像坐在它面前一样。 设 ...
    029 真情错爱 发表于 2026-3-30 AI硬件
  • qwen大模型能烧进芯片,自动驾驶软件的大模型就能烧进芯片,这会带来自动驾驶硬件系统价格暴降,各种机器人也会采取大模型硬件烧录方案。
    qwen大模型能烧进芯片,自动驾驶软件的大模型就能烧进芯片,这会带来自动驾驶硬件系统价格暴降,各种机器人也会采取大模型硬件烧录方案。英伟达真要面临挑战了,专用烧录芯片会取代英伟达显卡,前者价格只有三四百美元,后者价格3万美元,价格是百分之一,性能还远远超过。升级很简单,扔掉旧烧录芯片换新烧录芯片。 ...
    028 小鱼急急 发表于 2026-3-30 AI硬件
  • 2026装机必看!本地跑 Llama 4 和 实时视频生成,AI玩家该怎么配?机🤖🚀
    2026年了,如果你还在按2023年的思路配AI电脑,那真是“入场即过时”。现在的AI模型不再只是简单的聊天窗口,而是深度集成了实时视觉和高逻辑推理。 想在本地流畅跑起最新的大模型,或者玩转实时AI分身、AI驱动的开放世界游戏?这份2026版AI玩家配置清单请收好! [hr] 核心逻辑:NPU加速、显存带宽、以及“全闪存”时代 1 ...
    036 咿呀呀咦哟 发表于 2026-3-29 AI硬件
  • 下一页 »

    快速发帖

    还可输入 120 个字符
    您需要登录后才可以发帖 登录 | 立即注册

    本版积分规则

    关注公众号

    相关侵权、举报、投诉及建议等,请发 E-mail:admin@discuz.vip

    Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.|青ICP备2025004122号-1

    在本版发帖
    关注公众号
    返回顶部