您现在的位置是:主页 > 品牌 > 百度 >
揭开中国大模型价格竞争的内幕
发布时间:2024年05月23日 10:16:43 百度 人已围观
简介5月21日上午,阿里云在例行峰会上宣布大幅降价。通义千问 GPT-4级主力模型的推理输入价格降至每百万tokens仅0.5元,降幅达到97%。这一消息引发了业界的广泛关注与讨论。...
5月21日上午,阿里云在其定期召开的峰会上意外宣布了令人瞩目的降价消息:通义千问的 GPT-4 级主力模型推理输入费用大幅降低至 0.5 元/百万 tokens,降幅高达 97%。
阿里云降价通知 | 来源:阿里云
这一震撼人心的降价消息迅速引起了业界的广泛关注与讨论,紧接着,百度智能云在短短几个小时内便宣布其文心大模型的主力模型 ERNIE Speed(上下文长度 8K、128K)和 ERNIE Lite(上下文长度 8K、128K)均将免费提供。
尽管这两种模型与阿里云宣布降价的模型并不完全一样,但这一举动却引发了许多人对中国大模型企业 API 商业模式前景的担忧,难道这一模式真的可能在短短3小时内就会消亡吗?
文心大模型的两大主力模型全面免费
实际上,早在此之前,字节跳动便已宣布其豆包通用模型的推理输入价格为 0.8 元/百万 tokens。
虽然这些价格背后的并发量和模型能力存在显著差异,甚至根据创业者的实际计算,实际业务中的成本降低远未如此夸张。
但从纸面上看,字节、阿里和百度在一周内分别宣布了 0.8 元、0.5 元和免费的推理输入价格。业内人士甚至戏谑道,下一家跟进的厂商或许得通过发钱来补贴客户使用 API,在如此短的时间内遭遇如此剧烈的变革,究竟是什么原因?这是市场宣传上的内卷,还是大模型 API 调用的商业模式真的就此消失?
01 价格战背后,大模型 API 调用的商业模式
最初大家对 ChatGPT 发布后的大模型作为服务调用的商业模式寄予了厚望。毕竟,与以往那种 AI 项目的交付方式相比,大模型提供了更为通用的 AI 能力,作为标准化服务使用显得更为合理。
以 OpenAI 为例,其主要有两种商业化方式:一是类似 ChatGPT Plus,每月 20 美元的会员订阅,二是开发者的 API 调用服务。由于这两种标准化服务的推动,到2023年12月31日,《The Information》报道 OpenAI 的年度经常性收入(Annual Recurring Revenue,ARR)已达到 16 亿美元。
但即便是实力强劲的 OpenAI,面对百亿美金级别的研发成本,其营收规模也显得微不足道。
实际上,单纯提供模型 API 的服务与 AI 应用的实际落地之间还有很大的距离,大多数 AI 应用需要在通用模型 API 的基础上进行数据喂养和微调等操作,以优化模型引擎。在认识到这一瓶颈后,国内各大模型公司过去一年里进行了大量探索,以降低 AI 应用的门槛,目的是提升大模型的调用量。
以百度智能云为例,去年推出了模型开发工具 Model Builder 和 AI 应用开发工具 AppBuilder,以及更具性价比的多种模型,但模型的调用增长仍似乎有限。今年4月,百度智能云推出生态策略,旨在与有渠道和场景的供应商合作,为客户提供服务,希望进一步提升文心大模型的标准化 API 调用量。从这些迹象来看,大厂们显然并未打算真正放弃 API 调用的商业模式,但这一模式似乎未能带来足够的规模化收入,确实是个问题。