“用ChatGPT-4写一封电子邮件,就好比让兰博基尼送披萨。”这句话听上去有点夸张,却一语道破了当前生成式AI在应用层上遇到的巨大难题:成本过高,尤其是在AI产品和市场契合度(PMF)不那么高的情况下。
近期,分析公司CCS Insight发布预测报告称:生成式人工智能领域将在明年接受现实的检验,具体表现在:技术炒作逐渐消退,运行成本不断上升,监管呼声越来越多。种种迹象表明:生成式AI的增长即将放缓。
就在报告发布的前一天,华尔街日报的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan &Deepa Seetharaman)在副标题中指出,包括微软、谷歌在内的一些公司,正在努力尝试各种策略,只为让AI产品真正能赚到钱。
适道对这篇文章进行了编译和补充,结合CCS Insight的报告,试着梳理出生成式AI面临的困境,并给出相应的判断,以下是正文。
1
每月倒贴3000万美元,150万用户致成本失控
GitHub Copilot是微软基于ChatGPT推出的一款AI编程产品,被程序员们称为“开发者神器”,目前用户超过150万人。如果按照互联网时代的商业逻辑,GitHub Copilot以10美元/月的会员费,早就能赚到盆满钵满。但据文章作者所言,这款爆火的AI应用让微软亏到吐血。
今年的前几个月,GitHub Copilot平均每月要给每个用户倒贴20美元,给有些用户最多能倒贴80美元。算下来,自从推出GitHub Copilot,微软一个月就能亏3000万美元,如果情况不变,一年下来亏损直接过亿。不知道的以为微软转行做慈善了。
生成式AI “冤种”联盟的成员还有谷歌、亚马逊、Adobe、Zoom等。
为了避免血亏,Adobe公司直接对用户的每月使用量设置了上限。谷歌除了收取每月6美元起的常规会员费,将对一款AI助手的用户收取30美元/月的额外费用;微软则是在13美元/月的基础费用之上,对AI版Microsoft 365的用户多收30美元/月。另外,知情人透露,这两家巨头还会“偷梁换柱”,采用更便宜的小模型。
繁荣之下,为什么生成式AI会还能亏钱呢?
最主要的问题是成本失控。
首先,买硬件需要钱。AI算力芯片是大模型的发动机,早期微软向OpenAI投资的150多亿美元,大多数都用在了搭建AI超级计算机和购买AI芯片的硬件支出上。据悉GPT-4模型需要超过3万枚A100芯片。不然怎么说英伟达是当前AI时代当之无愧的*赢家,也难怪MAAMA都开始卷起了芯片。
其次,大模型越聪明的代价是所需的算力越多。作者指出:企业要花费数年时间和数亿美元,才能训练出一个成熟的AI产品。a16z曾发布报告称,单次GPT-3训练的成本在50万美元到460万美元之间。就连电费都是一笔天文数字,据估算,2023年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100 GPU,每日电费在5万美元左右。
最重要的是,AI应用不具备互联网应用的规模经济。算力有成本,每计算一次要多花一次的钱。SemiAnalysis首席分析师Dylan Patel统计,OpenAI光是运行ChatGPT,每天投入的成本就可能高达70万美元。这导致使用AI产品的用户越多,或用户的使用次数越多,提供服务的企业就要支付更高的成本费用。如果只向用户收取一笔固定的月费,那么企业就会面临潜在的成本损失,正如微软在GitHub Copilot遭遇的血亏。
2
用户找不到为生成式AI付费的理由
当然,钱是赚来的,不是省来的。毕竟, “日亏70万美元”的吞金兽OpenAI,如今也能估值高达900亿美元。近期,The Information还爆出,OpenAI预计在未来一年内,通过销售AI软件及其计算能力,获得超过10亿美元的收入。
但OpenAI在商业模式上的巨大成功并不具备普遍性。就目前来看,不少生成式AI产品的吸金能力显然有限。
Insight的杰出工程师Carm Taglienti指出:人工智能项目失败的原因99%与客户过高的期望值有关。但这句话也揭示了一点:现在的人工智能没有聪明到能解决用户希望解决的问题。
而根据红杉资本的判断,当前AI市场已经从“*幕”——从技术出发,进入了 “第二幕”——从客户开始。这个阶段要求生成式AI必须具备解决人类问题的能力。也就是说,当人们对新兴技术的热情退散时,他们会思考自己到底需要何种AI服务,并质疑自己为什么要为AI付费?
这正如文章中Amazon Web Services的首席执行官Adam Selipsky所指出的:目前,许多用户开始对运行AI模型的高昂费用感到不满。
事实上,红杉资本的报告《Generative AI’s Act Two》也显示,无论是首月用户留存率,还是目前用户的日常使用情况,以大模型为代表的生成式AI使用情况都不容乐观。相比普通产品最高85%的留存和日/月活,用户体验过ChatGPT后还愿意继续用比例为56%,每天打开的比例仅为14%。
这或许意味着,至少很多用户还没找到自己必须使用生成式AI产品的理由。
从to B的层面来讲,大模型也不是万金油。你所构建的AI产品必须与你试图解决的任务强相关。甚至OpenAI的首席技术官 Mira Murati也指出:企业用户并不是总需要最强大的模型,有时候他们只需要适合其特定用例且更经济实惠的模型。(详细见【适道】文章)
而从解决问题的角度看,目前通用大模型存在使用成本高、推理延迟较大,数据泄漏、专业任务上不够准确等问题。与之相比,一些更小型、专业化的长尾模型具有更准确、更便宜、更快速的优点,刚好能够满足客户企业的需求。
总而言之,早期初创公司投资人在去年砸进了22亿美元资金,如果AI的实际应用确实达不到预期效果,随之而来的失望将导致投资缩减。
为企业打造生成式AI工具的公司Writer的首席执行官梅·哈比卜(May Habib)说,估值不断上升反映了人们对AI前景的热情,不过高管们很快就会更仔细地关注成本问题。他认为,明年投资者对于生成式AI就不会如此趋之若鹜了。
3
生成式AI*的问题是向用户证明其价值
高昂的开发成本,再加上难以盈利的应用,反正不会让投资人高兴,可能只有英伟达和一些云服务提供商开心。
但情况真就如此糟糕吗?也不一定。文章指出:预计随着时间的推移,生成式AI会变得更便宜,就像云存储和3D动画等许多技术一样。同时,新芯片和其他创新可能也会降低处理成本。
可是即便事实如CCS Insight所预测的:2024年生成式AI的增长即将放缓,但从长远来看,生成式AI也一定会增长。正如Amara定律:我们倾向于在短期内高估一项技术的效果,在长期内低估其效果的现象。
这让人想到互联网发展初期的1998年,一位著名经济学家宣称:到2005年,一切将变得清晰,互联网对经济的影响不会超过传真机。”
或许,生成式AI目前只是处在“尴尬的青春期”,它*的问题不是寻找使用案例、需求或分发,而是证明其在解决用户问题上产生的真正价值。正如福特汽车公司创始人的经典名言:如果我问客户他们想要什么,他们的回答一定是一辆更快的马”。无论如何,技术一定要走在市场前面,因为消费者看不到那么远。