今年年初,ChatGPT吸引了无数网友的关注,一度成为热门话题。这是由人工智能研究实验室OpenAI开发的聊天机器人模型,也被称为人工智能(AI)技术驱动的自然语言处理工具。能够通过学习和理解人类语言进行对话,根据上下文进行互动,甚至完成电子邮件、视频剧本、文案、翻译、代码等任务。
微软已经在OpenAI上投资了数十亿美元,使用NVIDIA最新的H100计算卡来满足处理训练和扩展AI所需的巨大计算负载。据相关媒体报道,微软和OpenAI正在开发自己的AI芯片,希望更高效、更廉价地适配他们的大语言模型(LLM),以满足未来计算能力的需求。微软计划在下个月的年度开发者大会上正式推出AI芯片。从长远来看,这也是为了减少对NVIDIA的依赖,避免“卡脖子”。
几个月前就有报道称,微软针对AI任务的定制处理器,代号为“Athena”,基于台积电的5纳米制程,旨在加速AI工作量,并扩展至数百甚至数千个并行运行的芯片。有传言称,该项目始于2019年,在性能与NVIDIAGPU相近的情况下,将拥有仅三分之一的显著成本优势,这将带来显著的成本节约。
因为H100搭载了大量的CUDA内核,再加上英伟达十多年来对开发平台的不断优化,整个生态圈已经非常成熟,这也是其远胜于竞争对手的原因。微软不仅需要提高AI芯片的计算性能,还需要改进配套的开发软件,这估计需要一些时间。像亚马逊、谷歌或Meta这样对人工智能任务有很大需求的超大型公司很早就开始设计用于人工智能培训的芯片,但对微软来说,制造定制芯片才刚刚起步。