在我们上一篇文章之后,由于ChatGPT的火爆,NVIDIA的GPU增长看起来有望在未来几个月内加速。
如前一篇文章所述,ChatGPT和其他语言/图像/视频生成工具严重依赖于AI处理能力,这是NVIDIA的主要优点。因此,使用ChatGPT的主要技术公司都在使用NVIDIA的GPU来满足不断增长的人工智能需求。NVIDIA在这个行业的强大似乎与该公司的AI有关
GPU在未来几个月将短缺。
据FierceElectronics报道,ChatGPT
【Open.AI测试版】虽然经过了NVIDIA万个GPU的训练,但自从受到公众的关注以来,该系统已经无法承受负载,无法满足大量用户的需求。所以该公司发布了新的ChatGPT
一种Plus订阅程序,不仅在高峰时段提供对服务器的常规访问,而且可加快响应时间并优先访问新功能和改进。ChatGPT
Plus的订阅费是每月20美元。
《福布斯》称,微软和谷歌等主要科技巨头也计划将ChatGPT这样的LLMs集成到搜索引擎中。谷歌要在每次搜索查询中将其整合起来,需要51万2820个A100
HGX服务器,共计410万2568个A100GPU。光是服务器和网络成本,就需要约000亿美元的资本支出。
据Investing.com报道,分析师预计,目前的ChatGPT模型训练有约2万5000个NVIDIAGPU,测试版使用1万个。
这对英伟达来说可能是个好消息,但对消费者,尤其是游戏玩家来说,却不太好。如果NVIDIA在人工智能GPU业务中发现了机会,有可能优先提供人工智能GPU而不是游戏GPU。
据报道,由于中国春节,游戏GPU本季度已经看到有限的供应,库存依然存在,但这可能会对已经短缺的高端GPU构成问题。此外,高端GPU还可以像服务器部件一样,以更低的价格提供更高的人工智能能力。它们可能成为有利可图的选择,进一步剥离对游戏玩家的供应。