GPU图形产品面临新一轮涨价风险的,此次并非采掘所致,而是AI人工智能,尤其是近期火灾的生成型聊天机器人ChatGPT。
据媒体报道,包括三星、SK海力士在内的主要DRAM厂商已经提高了对显存芯片产品的报价,先进的HBM3,居然飙升了5倍之多需要知道HBM的平均价格是普通DRAM的3倍,但生产技术和工艺要复杂得多。
得益于超高带宽,HBM3已经安装在NVIDIA计算卡H100中,英特尔最近推出的x86处理器至强max也使用了HBM2e。
当然,三星也有计算一体的解决方案,像HBM-PIM(aquabolt-XL)芯片一样,能够提供1.2T的计算能力。SK海力士去年开发了具有计算功能的GDDR6-AiM,预计AI至少可以拯救在图形计算、加速器领域低迷的DRAM的需求。
据了解,为了创建和维护但随之而来另一个隐忧是,业内对AI包括机器学习训练的跟风,或将导致GPU芯片再度短缺。chatgpt所需的人工智能分析数据海量数据库,开发者使用10000个NVIDIA的GPU进行了相关训练。
目前,为了满足当前服务器的需求,ChatGPT的开发商OpenAI已使用了约2.5万个英伟达的GPU,随着需求的增加未来预计还会增加。每有1亿活跃用户,ChatGPT需要13.5EPLOPS的计算能力,约为6.9万台NVIDIA
DGXA10080G服务器支持,但当今世界的计算能力仅支持1亿日均在线人数。
有专家估计,谷歌搜索要完全集成Bard平台的AI技术,需要512820台A100HGX服务器,需要410万台以上的A100GPU。