最新消息显示,OpenAI 正与美国芯片制造商博通合作,将于明年推出自家的 AI 芯片,摆脱英伟达的限制。
OpenAI的首席执行官山姆·奥特曼曾在多个场合公开吐槽,坦言英伟达GPU的短缺是限制公司研发新模型、提升服务能力的关键瓶颈。
的确,无论是训练下一个版本的GPT模型,还是支撑全球数百万用户的实时问答,背后都需要海量的高性能计算资源。过度依赖单一供应商,不仅意味着要承担断供的风险,还要在采购成本上看人脸色。对于正处在高速扩张期的OpenAI来说,将如此关键的命脉交到别人手中,显然不是长久之计。
造自己的芯片,好处远不止不差钱这么简单。通用芯片如同均码服装,虽然适用性广,但未必最合身。而定制芯片则像是为OpenAI的软件和模型架构量身定制的F1赛车。
通过深度优化,定制芯片可以在性能、功耗和内存利用效率上达到通用芯片难以企及的高度。这意味着,未来运行在自家芯片上的OpenAI模型,可能会跑得更快、更省电,最终为用户带来更流畅、更低成本的服务体验。
目前,全球各大科技巨头主要依靠英伟达供应的GPU,其 A100、H100 在全球市场上供不应求。除了英伟达以外,谷歌、亚马逊、Meta、X AI 等企业也先后布局芯片制造。
谷歌 是这条赛道上的老玩家,其自研的TPU(张量处理单元)已经从最初主要负责推理任务,进化到了v5e版本,甚至可以承担大规模的预训练工作,堪称全能选手。
亚马逊 和 Meta 同样不甘示弱,纷纷投入重金研发自己的定制AI芯片,以驱动其庞大的云服务和社交媒体帝国。X AI 将重心放到了全新的 AI5 和 AI6 芯片,试图解决英伟达的算力限制。
对这些科技巨头而言,自研AI芯片不仅是为了省钱,更是为了在未来的AI竞争中构筑核心技术壁垒。当模型和算法的差距日益缩小时,底层硬件的效率和成本将成为决定胜负的关键手。摆脱对英伟达等外部供应商的依赖,将让它们在产品迭代和商业策略上拥有更大的自由度和想象空间。
OpenAI与博通的这次合作,无疑为这场日趋白热化的AI芯片军备竞赛又添了一把火。可以预见,在不远的将来,拥有一颗强大、高效且自主可控的心脏,将成为顶尖AI玩家的标配。
丁丁打折网©版权所有,未经许可严禁复制或镜像 ICP证: 湘ICP备20009233号-2
Powered by 丁丁打折网本站为非营利性网站,本站内容均来自网络转载或网友提供,如有侵权或夸大不实请及时联系我们删除!本站不承担任何争议和法律责任!
技术支持:丁丁网 dddazhe@hotmail.com & 2010-2020 All
rights reserved