目前,在周三发布的一组新的测试数据中,全球领先的两大人工智能芯片制造商高通和英伟达在功率效率的三个指标上以2-1击败了英伟达。人工智能模型需要用大量数据进行训练,以提高其准确性和性能。训练完成后,人工智能模型可以用于推理,包括执行特定任务,如根据输入生成文本回复或确定图像是否包含猫。推理是人工智能技术在产品中广泛应用的一个方面,但它也增加了企业的成本,其中一个主要成本是电力。
高通公司利用其为智能手机等低功耗设备设计芯片的经验,推出了一款专门为云和边缘设备提供高性能、低功耗人工智能处理的芯片,名为cloudAI100。在维护人工智能芯片行业测试标准的工程联盟MLCommons周三发布的测试数据中,该芯片在两个功率效率指标上击败了NVIDIA的旗舰芯片H100。功率效率指标是指每瓦电可以执行多少服务器查询。高通公司的CloudAI100在图像分类方面实现了每瓦227.4次查询,而NVIDIA的H100每瓦只有108.4次查询。图像分类可用于识别图像中的对象或场景。高通公司在对象检测方面也领先于NVIDIA,分别实现了每瓦3.8次查询和每瓦2.4次查询。物体检测可以用来分析零售店的监控视频,并了解顾客最频繁光顾的地方。然而,NVIDIA在自然语言处理方面具有绝对优势,在性能和电源效率方面都排名第一。自然语言处理是聊天机器人等系统中使用最广泛的人工智能技术。英伟达达到了每瓦10.8次查询,而高通以每瓦8.9次查询排名第二。高通和英伟达都希望通过提供高效的人工智能芯片来抢占数据中心市场的市场份额。随着越来越多的企业将人工智能技术融入到产品中,这个市场有望快速增长。