高通正式推出AI200与AI250两款数据中心加速器,产品核心聚焦内存容量与数据传输效率。其中,AI200加速器卡支持高达768GB LPDDR内存,可减少大型语言模型与多模态模型运行所需的硬件部件数量,同时避免频繁的卡外数据传输。

AI250则采用近内存计算布局,该设计旨在提升推理过程中的有效内存带宽。推理场景中,工作负载常因反复访问键值缓存而陷入停滞,这一架构恰好可解决此问题。高通表示,该架构能使有效内存带宽提升 10 倍以上,同时降低功耗。
高通CEO Cristiano Amon表示:“高通推出基于AI200与AI250芯片的加速器卡及整机柜产品,为数据中心AI工作负载提供行业领先的机柜级推理性能与内存效率。”

两款产品均提供加速器卡与全液冷机柜两种形态。机柜采用PCIe接口实现纵向扩展配置,通过以太网构建横向扩展集群。单个整机柜的功耗为160千瓦,与其他厂商现有GPU推理机柜处于同一级别。产品上市将分阶段推进,AI200计划于2026年推出,AI250则预计在2027年上市。此外,高通还披露其数据中心产品路线图将保持年度更新节奏,并确认HUMAIN为早期客户之一,该客户计划部署的容量最高可达200兆瓦。
各厂商数据中心芯片内存规格对比
AMD Instinct MI350X:288GB HBM3e内存,带宽8TB/s;其继任型号MI400最高将支持 432GB 内存
NVIDIA B200系列:单GPU约180GB HBM3e内存
Intel Gaudi 3:128GB HBM2e内存
从上述数据可见,高通的产品定位并非以HBM内存容量为竞争点,而是以单卡总内存容量形成差异化优势。
丁丁打折网©版权所有,未经许可严禁复制或镜像 ICP证: 湘ICP备20009233号-2
Powered by 丁丁打折网本站为非营利性网站,本站内容均来自网络转载或网友提供,如有侵权或夸大不实请及时联系我们删除!本站不承担任何争议和法律责任!
技术支持:丁丁网 dddazhe@hotmail.com & 2010-2020 All
rights reserved