全球AI竞争正在走向模型与算力的协同,在这方面,OpenAI与DeepSeek分别在美国与中国扮演了最重要的角色。OpenAI正在打造辐射硬件与软件的万亿美元AI平台。继采购英伟达与AM···
全球AI竞争正在走向模型与算力的协同,在这方面,OpenAI与DeepSeek分别在美国与中国扮演了最重要的角色。
OpenAI正在打造辐射硬件与软件的万亿美元AI平台。继采购英伟达与AMD芯片,部署10GW与6GW数据中心后,它终于官宣了与博通的合作。这款传闻已久的定制AI芯片,已经秘密设计了18个月,有望在2026年下半年投入使用,并于2029年底全面部署,整体规模高达10GW。
这款AI芯片为推理而生。按照参与该芯片设计的首位核心员工的说法,早在o1正式发布前的几个月内,即进入去年下半年,团队就已开始着手设计。期间,公司的模型团队与芯片团队,以及博通合作团队,就已经紧密协作起来,试图把智能的成本与延迟,一起压向零的边际。
事实上,OpenAI与博通的合作,已经超出了最初的设想。与其说它们在合作开发一款定制AI芯片,不如说它们在合作定制一整套完整的,能够直接塞到数据中心里的算力系统。据双方的声明,OpenAI负责设计芯片和系统整体架构,博通设计端到端的以太网、PCIe和光纤连接解决方案组合。
它还是一套协同创新的方法论,围绕OpenAI生态而生。OpenAI宣称将其“在开发前沿模型和产品过程中积累的经验直接嵌入到硬件中,从而释放更高水平的功能和智能”。博通也称,双方讨论的下一件事,是将算力从芯片的二维空间堆叠到三维空间,并将光学也引入其中。
这背后反映的是OpenAI正在打造一个自我闭环的模型+算力帝国。过去,OpenAI曾几次尝试让芯片厂商围着自己转。GPU紧缺和溢价已经成为了OpenAI的瓶颈;更要命的是,OpenAI越来越绑定在英伟达的CUDA体系内,无法迅速最大化地释放模型性能,也不会符合推理时代的token经济学。
由OpenAI 研究员创建的深度学习编译器Triton,最初兼容CUDA,然后逐步扩展到AMD ROCm等更多架构,让旗下模型能跨硬件运行。微软最初发布Maia 100,宣传的可是专为Azure平台设计,旨在运行生产级OpenAI模型。在初版“星门项目”的蓝图里,OpenAI更愿意使用以太网,希望避免使用InfiniBand。
OpenAI的野心是构筑自己的万亿美元AI商业生态。这次OpenAI开发者日,奥特曼展示了ChatGPT Apps SDK、AgentKit等,相当于要让ChatGPT成为新的操作系统。但当天在接受Stratechery采访时,奥特曼却声称,自己现在花时间最多的地方,是基础设施。
这呼应了Groq创始人Jonathan Ross的最近的观点。谁掌控算力,谁才真正掌控AI,“自己造芯片,并不只是拥有一颗芯片,真正意义是你把命运掌握在自己手里”。
去年初,奥特曼提出的7万亿美元AI基础设施计划遭到所有人的嘲笑与质疑,如今,奥特曼计划在2033年就将算力规模提升到惊人的250GW,差不多就要对应超过10万亿美元资金。

发表评论
最近发表
标签列表