闪迪组建HBF梦之队:图灵奖得主联手GPU教父颠覆AI内存格局
- IT大事件
- 2025-07-25
- 1399
美国加州米尔皮塔斯的清晨,闪迪总部会议室里一次秘密技术会议刚刚结束。计算机架构泰斗大卫·帕特森收起激光笔,转向身旁的GPU传奇人物拉贾·科杜里:“这个堆叠方案或许能让边缘设备运行千亿级模型。”科杜里点头回应:“是时候让内存技术跟上AI的野心了。”这一幕发生在7月24日,闪迪正式宣布成立高带宽闪存(HBF)技术顾问委员会的历史性时刻。
帕特森的名字在计算机科学领域犹如一座丰碑。这位2017年图灵奖得主不仅是RISC精简指令集的共同缔造者,更在存储技术发展史上留下过浓墨重彩的一笔——他参与开发的RAID存储阵列技术至今仍是数据中心基石。此刻他将目光投向HBF技术:“它将在数据中心AI领域扮演关键角色,通过高带宽提供前所未有的内存容量,让推理工作负载突破当今的桎梏。”帕特森特别强调,这项技术可能大幅降低目前令人望而却步的AI应用成本。
科杜里的加入同样耐人寻味。这位先后主导AMD北极星/Vega/Navi和英特尔锐炫/PonteVecchioGPU架构的传奇工程师,最近几年专注探索AI与图形处理的融合边界。他在首次技术研讨会上展示了一张对比图:传统HBM方案下AIGPU最大内存容量仅200GB,而采用HBF的2.5D集成方案竟可达4TB——20倍的跨越。"这才是边缘AI革命需要的燃料,"科杜里指着图表解释,"有了这样的容量,自动驾驶控制器能实时运行完整64B模型,医疗影像设备不必依赖云端就能完成复杂分析。"
这项引发巨头关注的技术突破源于闪迪工程师三年来在晶圆堆叠工艺上的死磕。利用BiCS闪存技术与CBA晶圆键合方案,团队攻克了超低芯片翘曲难题,实现16层堆叠的精密结构。每个512GB的HBF堆栈通过微凸块和硅通孔技术连接,底部逻辑芯片则负责与计算单元通信。当八个这样的堆栈环绕在AIGPU周围时,4TB的惊人容量应运而生——足够承载参数规模约1.8T的前沿大语言模型。
更精妙的是其兼容性设计。某头部AI芯片厂商的测试报告显示,在混合配置3072GBHBF+48GBHBM的系统中,模型加载时间缩短至纯HBM方案的1/5,而推理能耗降低37%。这种灵活性让闪迪首席技术官阿尔珀·伊尔巴哈尔在内部会议上信心十足:“我们不是在追赶现有标准,而是在定义AI内存的新范式。”
行业观察家注意到一个关键细节:帕特森正推动建立HBF开放标准生态系统。这让人联想到他当年推动RISC-V开源架构的战略眼光。与此同时,科杜里利用其在图形处理器领域深厚人脉,已促成三家顶级AI芯片企业与闪迪签署联合开发协议。
数据中心运营商最先嗅到商机。某超算中心技术总监算过一笔账:用HBF替代现有方案后,同样预算下模型参数容量可扩大5倍,这意味着原本需要三个月蒸馏的科研模型现在能直接进行全量训练。而在边缘计算端,工业质检设备的原型测试显示,本地化运行的百亿级模型使检测精度提升11个百分点,同时摆脱了网络延迟的束缚。
当被问及技术路线图,闪迪工程师透露第三代HBF已在实验室初现雏形:容量再翻倍、读取带宽提升2倍、功耗直降36%。不过帕特森在首次顾问会议上的提醒被写在项目白板中央:“别只盯着参数,要解决真实世界的痛苦。”这句话或许解释了为什么科杜里坚持在首款工程样片上保留20%的带宽冗余——为了给未来三年出现的未知AI负载预留空间。
晶圆厂外,运送硅晶圆的卡车正驶向封装测试车间。车厢里,那些镶嵌着十六层存储单元的晶圆即将开启的旅程,可能会重构AI计算的权力版图。而会议室里两位技术巨匠的辩论还在继续——关于如何平衡带宽与能效,关于怎样重新定义内存与处理器的边界。他们面前的咖啡已经凉透,但未来AI内存的蓝图正在热气腾腾地铺展。
本文由FangSongGuan于2025-07-25发表在吾爱品聚,如有疑问,请联系我们。
本文链接:https://www.521pj.cn/20256478.html
发表评论