据新浪科技新闻报道,支撑当前人工智能热潮的最重要的“原材料”价格正在迅速下降,这将有助于该技术更快进入主流。但是,这可能会威胁到希望从这股热潮中获利的创业公司的财务状况,导致行业主导权集中在一些公司。
这里的素材是指大语言模型(LLM)的处理能力。这些模式由ChatGPT和微软新支持搜索等服务。
由于运行这些模型本来就需要高昂的计算成本,可能会严重拖慢模型的广泛应用。据搜索引擎You.com首席执行官、著名计算机科学家理查德·索彻(RichardSocher)介绍,几周前,You.com使用人工智能提供搜索服务的成本比传统互联网搜索低但是上个月末,由于大语言模型公司OpenAI、Anthropic和Cohere之间的激烈竞争,这一成本差距下降到了约5%。
几天后,OpenAI推出了一项新服务,允许开发者直接使用ChatGPT,将使用该技术的价格降低了90%。
这对客户来说是件好事,但对OpenAI的竞争对手来说可能是灾难性的。许多公司,包括Anthropic和Inflection,都已经完成或正在融资,以支持各自的大语言模式的发展。
像大语言模型这样的技术很少能如此迅速地从实验室研究向大规模商用化发展,这也促进了研究者将实验室环境的开发过程“工业化”。性能的大幅提高和成本的降低,主要是由于运行大语言模型的底层计算平台的优化,以及模型训练和运行方法的改进。
从某种意义上说,硬件成本的大幅下降有利于所有市场参与者。这包括专为满足最新人工智能机型要求而设计的高性能芯片,例如NVIDIAh100GPU。微软在Azure云计算平台上运行OpenAI的模型,为其他大型语言模型公司提供同样经济高效的硬件支持。
但是,大语言模式既是科学,也是艺术。据OpenAI介绍,自去年12月以来,ChatGPT对处理查询的方式进行了“一系列系统范围优化”,将成本降低了90%,最终为用户带来了大幅降价。
大规模语言模型的培训需要几千万美元,处理这些任务的技术也在迅速变化。至少在短期内,一小部分具有模型开发和培训经验的人才可以获得更大的好处。
当最优技术被广泛理解和采用时,初始参与者可能已经获得了先发优势。微软云计算和人工智能部门的负责人斯科特·格斯利(ScottGuthrie)提到了GitHubCopilot等新服务。该服务于去年夏天推出,为软件开发人员提供了代码建议。广泛使用后,此类服务将迅速优化。他本周在摩根士丹利的投资者会议上表示,这种来自服务用户的“信号”很快将成为产品的重要差异化点。
OpenAI竞争对手的主要希望是提供额外的服务,使开发者和大型企业客户更容易使用大语言模型,并为细分市场寻找满足特定业务需求的模型。
例如,以色列创业公司AI21Labs本周发布了最新的大语言模型,还发布了一系列APP应用界面(API),用于提供文字概要和重写等更高级的服务。
据亚投行21联合首席执行官寡申(OriGoshen)介绍,大多数公司不使用ChatGPT这样的通用模式,而是需要面向金融和医疗等行业的培训,或者需要基于某家公司独特数据的培训。
他认为,大语言模型还处于初级阶段,需要完成许多工作,包括减少模型说谎的倾向,防止模型产生“幻觉”,提供与事实无关、似是而非的答案。如果希望成功,人工智能公司需要继续进行前沿探索。
但是,在目前的事实中,这些生成型人工智能的基础成本大幅下降。OpenAI降价是一个信号,表明该技术将以极快的速度进入大规模商用。但这同时也带来了警告,表示这个行业的未来可能不会有太多企业加入。