“英伟达是教科书式的市场大错觉”
大模型的浪潮下,英伟达成了2023年*钱的科技公司,但传奇投资人、投资机构Research Affiliates的董事长罗伯•阿诺特却认为英伟达在今年惊人的反弹后形成了巨大资产泡沫。
表面原因有很多,无论是英伟达不够老的资历、远超行业水平的市盈率,还是对其硬件生产商业模式天花板的讨论,人们认可英伟达的价值,也同样担忧他的未来。
以市盈率为例,作为对比,微软总市值2.36万亿,市盈率ttm32.75;谷歌市值1.64万亿,市盈率ttm27.54;苹果市值2.73万亿,市盈率ttm29.33;而英伟达市值1.03万亿,市盈率却高达100.51。
而更核心的原因在于,在巨大的AI浪潮,似乎只有英伟达一家赚得盆满钵满。
整个产业链尚处于百废待兴的状态,一切都在十分早期,商业化的路径并不明确。从其中上市科技公司的二季度财报数据来看,包括Google、Meta、Microsoft在内,推动增长的仍然是最传统的广告业务,AI在财报中不仅没有成为主角,甚至没有被过多提到。
当然,英伟达抢滩着陆,因为他是典型的“卖铲子”的公司,但不能忽视的问题是,如果淘金者持续淘不到金子,卖铲子的生意也不可持续。
个体的繁荣要建立在生态的繁荣之上,否则一条不健康的产业链,无法培育出下一个长红的万亿科技公司。
当然,从英伟达最近频繁的投资和谈判的动作来看,英伟达正试图破局,在GPU之上讲出一个关于“云与软件服务”的新故事,以此来重新锚定自己在AI时代的位置。
英伟达,不能只做孤独的胜利者。
01 焦虑
英伟达是AI大模型*的受益者,今年他或将一改全球半导体行业已经21年的格局,成为年收入最高的半导体公司。
近日,名半导体行业咨询机构Semiconductor Intelligence发布消息,预计英伟达2023年收入将达到529亿美元,接近其2022年收入的两倍,并超越英特尔和三星,成为全球收入最高的半导体公司。
目前来看,英伟达二季度的收入就已经超过英特尔。财报数据显示,英伟达二季度收入收入为135.1 亿美元,较上一季度增长88%,较去年同期增长101%,净利润更是暴涨843%。
▲图源:Semiconductor Intelligence
这一切自然都得益于AI大模型的爆发,其A100和H100系列是目前训练AI大模型最有效率的工具。研究机构 Omdia近日提到,英伟达二季度出货了900吨H100显卡,按一张H100约3kg的重量,仅二季度英伟达可能就卖出了约30万块H100。
毫无疑问,2023年是英伟达最高光的时候,但即便这样的高光顶上也不免存在着一朵阴云——即除了英伟达之外,其他和大模型相关的企业似乎都不怎么赚钱。
8月底,The Information报道OpenAI 预计在未来 12 个月内,通过销售人工智能软件及其计算能力,将获得超过 10 亿美元的收入,但这些收入目前还只是“预计”。
更直观的一点感受是,今年二季度,作为如今全球AI大模型*代表的企业,在Google母公司Alphabet、Microsoft和Meta的财报中 ,AI不仅没有成为其中主角,甚至没有被提到更多。
真正推动这些巨无霸增长的,还是最传统的互联网变现方式——广告。各家在提到二季度的增长时,都异口同声的提到:“得益于广告行业的复苏”。
至于AI和大模型,过去半年中“OpenAI使用了Azure的智能云服务”一直被认为是Azure*的广告,但二季度Azure的业绩增速并不理想。财报显示,微软智能云业务的收入增长为32亿美元,涨幅15%。而2023财年Q2、Q3的增幅分别为18%和16%,2022财年Q4的增幅为20%。
▲数据来源:微软财报
Alphabet也处于漫长的投入期,其首席财务官 Ruth Porat 在之前的财报电话会议上表示,新的人工智能技术是有代价的,Alphabet第二季度资本支出的*组成部分是服务器,以及对人工智能计算的“重大投资”。
在国内,只有三六零在9月份发布半年报时提到,大模型已经为公司创收2000万元,被认为是*个用大模型赚到钱的互联网公司。但对比上半年15.6亿元的研发投入,也只是杯水车薪。
显而易见,英伟达是目前少有的通过AI大模型赚到钱的公司。原因也很简单,因为别人都在“淘金子”,但他是在卖“铲子”。
大多数人欣赏这样的公司,因为这是每次淘金热中最稳定赚钱的一拨人。但人们其实也总爱忽略一个问题,即如果淘金的人长时间淘不到金子,那么“卖铲子”的生意也必定不会长久。
近日,集微网报道,AI协作工具Microsoft 365 Copilot需求不如之前强烈等原因,微软正在下调英伟达H100芯片订单,且拉货放缓。
德意志银行的分析师也曾在英伟达财报后提到,他们预计数据中心客户将在某个时候放慢购买芯片的速度,以便“消化”已经购买的芯片。
显然,由于商业化落地不及预期,今年上半年疯狂下单的芯片正在经历一个“冷静”和“饱和”的阶段。
这正是英伟达的焦虑。
作为“卖铲者”,英伟达的增长必须要建立在行业整体的增长之上,只有英伟达一家赚钱的行业不是一个好行业。
02 破局
为了缓解这种焦虑,上半年赚了钱的英伟达开始疯狂投资。
据不完全统计,英伟达今年上半年已完成20多笔投资,作为对比,作为全球创投界的"三巨头"之一的环球老虎基金,今年上半年也才完成30笔左右的交易。
英伟达投资的企业主要都与AI相关,其中不乏AI大模型的“独角兽企业”,比如加拿大AI公司Cohere,软件初创公司Databricks、美国AI初创公司Inflection AI、视频类AI生成公司Runway等等。
投资这些公司,除了生态布局和投资回报之外,对于英伟达最直接的意义还是拉动其GPU的增长。
比如,Inflection AI 6月份宣布正在开发一款超级计算机,将配备2.2万片英伟达H100。再比如,同样获得英伟达投资的AI算力新秀CoreWeave,近期通过抵押H100拿到了23亿美元的贷款,用来购买更多英伟达GPU组建计算中心。
通过给AI大模型企业提供投资,企业拿到钱之后又反过来购买英伟达的GPU,再将GPU抵押贷款,贷出来的钱再购买英伟达的GPU。
如此循环,鸡生蛋,蛋生鸡。以至于有人批评英伟达获得收入的方式是“往返交易”(洗钱的一种方式)。
当然,对于英伟达来说,通过投资来扩大GPU的出货量显然不是最终目的,这背后隐藏着英伟达面对产业焦虑的解决方式和磅礴的野心。
作为参考,英伟达上一个投资爆发点在2017年,当时核心围绕两个方向,一个是以GPU为计算核心的人工智能,另一个则是汽车电子。
彼时黄仁勋意识到除了游戏外,GPU擅长的并行计算可能在未来对其他庞大数据处理的需求都有用武之地,英伟达开始靠投资开疆拓土并寻找可能性。
▲图源:中国电子报整理
基于此,也诞生了英伟达目前硬件上最核心的两块长板,一是通用GPU(GPGPU),第二则是自动驾驶芯片。目前,英伟达Orin系列自动驾驶芯片已经成为除特斯拉以外其他智能车的标配。
这轮投资后,英伟达也最终形成了目前以游戏显示、数据中心、汽车作为“三架马车”的有业务路线。
因此,当我们梳理了英伟达近20年的投资历史会发现一个结论:英伟达的投资方向往往代表了未来布局的方向,且总能通过投资来反哺自身业务。正如其 VP Jonathan Cohen 在最近接受采访时所说,英伟达正在投资于理解和加速整个生成式人工智能的技术栈。
到这,我们几乎就能理解,英伟达正欲通过投资培养和寻找未来,同时带动AI生态的其他环节实现“共同富裕”。
这不只是为了英伟达,更是为了整个生态的繁荣。
03 野心
当然商业世界中从来不存在温情,英伟达此举,更是为了巩固和加强自己在未来AI生态中的关键地位,成为类似于Windows时代的Intel,才能穿越下个经济和技术周期。
除了找到与生态结合更准确的方向,英伟达也不满足于只“卖卡”这一项服务,而是想要参与到更多大模型的开发和应用过程当中。
去年,英伟达向AWS、Azure、谷歌云等大客户们提议,想要在他们的数据中心租用英伟达芯片支持的服务器,然后把这些服务器溢价转租给人工智能软件开发商。
这么做对于英伟达来说,既可以向大模型企业提供云服务,又可以避开前期自建IaaS层的高昂的投入和时间成本,能够更快实现商业化。对于英伟达来说,是一笔卖卡之外的额外收入,一本万利。
据英伟达官网数据,DGX Cloud(英伟达自建的云服务)客户可以以每月3.7万美元的价格租用内嵌8个A100的GPU云服务器,而在AWS上,A100 GPU 服务器的费用在每小时 32 美元至 40 美元之间,即每月 2.4万 美元至3万美元之间。
我们简单的算一笔账,英伟达不仅能将8块A100卖给云厂商,还能赚到每月7000美元的差价,按照一块A100五年寿命计算,5年内英伟达能多赚42万美元。
当然,英伟达也不可能满足于只赚差价的生意。其真正的目的隐藏在英伟达投资的众多明星公司中两个毫不起眼的项目,那是两家小型云服务的公司,从体量上根本不能与AWS、Azure和Google的GCP相比。
但英伟达走的是一条“软件定义硬件”的道路,基于云厂商提供的服务器资源搭配DGX Cloud,英伟达的工程师利用他们对本公司芯片的了解,可以通过软件对服务器进行调优,同时搭配更多开发工具和软件解决方案,使其性能优于其他云厂商提供的服务器。
AI软件公司Anyscale就曾表示,与传统云提供商为客户提供的GPU服务器相比,DGX Cloud的性能“非常高,而且售价也非常有竞争力”。
显然,“卖铲人”不甘于屈居幕后,而是要走向台前,并在逐渐深入软件生态,增加多元化收入,在云厂商的领地里,再造一个英伟达。
04 尾声
英伟达当然明白,时势造英雄,也能败英雄。
如果不思考长期战略,英伟达如今的成功,很像风口上被鼓吹起来的“胖子”,高光时刻或如过眼云烟,尤其是当技术车轮继续滚滚向前,英伟达所面临的挑战也越来越多。
比如无论是国内还是国外,从谷歌到阿里、从微软到百度,各家云厂商都已经自研了自己的云端AI芯片,未来显然会逐渐降低对英伟达的依赖。
除此之外,目前AI大模型企业对于英伟达GPU的需求,本质上还是来源于Transformer架构下,大模型对算力的需要。
但随着AI大模型的参数规模越来越大,Transformer架构下的算力成本也在如指数级上升。从目前的相关报道来看,GPT-4可能在1万到2.5万张A100上进行的训练,而根据马斯克的说法,GPT-5可能需要3万到5万张H100。
为了解决算力带来的巨大成本,也有越来越多的*研究机构开始探索比Transformer更有效率的架构,以期待降低对算力的依赖。
比如斯坦福和Mila的研究人员提出了一种名为Hyena的新架构,在达到与GPT-4同等准确性的前提下,使用的算力少100倍。但目前Hyena架构还只能在参数规模较小的情况下使用,不到GPT-3的十分之一。
此外,麻省理工学院的两名研究人员也从提出了 “液态神经网络” (liquid neural networks)。这种架构不仅速度更快,而且异常稳定,这意味着系统可以处理大量的输入而不至于失控,且比"Transformer"更加透明且更易于人类理解。
整体上,基础架构不断改进,以达到减少对算力依赖的“命运齿轮”已经开始转动。就像《三体》中不知道何时会出现的技术大爆炸一样,不可预料,也不可轻视。
而英伟达需要做的,就是赶在新的技术范式诞生之前,推动AI生态基于Transformer和GPU建立一个庞大的生态。
这既是英伟达焦虑,也正是英伟达的野心
【本文由投资界合作伙伴自象限授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。