1848年,美国加州发现金矿,无数淘金客蜂拥而至。
短短4年,跟风来此的人就多达30万,当地客栈、餐厅、酒吧、赌场,价格水涨船高。
绝大多数人就算凭运气得到了金子,也都把钱散在了这些地方。
真的赚到钱,攒到钱的,没有一个是淘金者,反倒是那些给淘金者提供服务的人。
有一位叫布兰南的商人,他没有自己去挖金子,而是大量囤积锄头、锤子、筛网,每天向矿工们出售,单日利润高达5000美元。
靠着倒腾装备,他成为加州*位百万富翁。
百年后,相似的故事又在重演。
ChatGPT引领的AI革命,是当下最火的“金矿”,微软*淘到金块,各大巨头闻风而后动,小厂也不甘落伍。
大家都想去淘块金子。
其中,能有几个淘到黄金还不好说。但能确定的是,不管别的企业赚不赚钱,英伟达肯定赚的盆满钵满。
它是目前*一个在AI这个金矿边上,卖铲子的角色。
如同70年代OPEC一限产,全球工业都得熄火。
现在,只要英伟达一断供芯片,全球至少有一半科技公司都要地震。
黄仁勋和他的算力帝国,已经扼住了这个科技时代的命脉。
自古时势造英雄,风口出巨头。
2018年初,《财富》杂志举办的活动中,有人问黄仁勋:你何时知道英伟达公司将会改变世界的?
答:1993年2月17日,我成立公司的日子。不改变世界,我创个什么业?
可能有吹牛的成份,但历史本就是由胜者书写。
从一开始,英伟达就是靠开发游戏显卡起家的。而显卡的升级,依赖的是算力提高。
电子游戏带来了针对算力的需求,而这些算力又用在了更多地方。
迄今为止,几乎所有AI里程碑,都发生在英伟达的硬件上。
2010年,计算机科学家吴恩达在谷歌X实验室,意图构建一个可以自行学习的神经网络。
这个模型在YouTube上观看了1000万个视频,并学会了如何认出人脸、身体和猫。但想要准确做到这一点,预计需要1.6万块CPU提供算力。
就算是家大业大的谷歌,也不能轻松批下这么大的预算。
英伟达首席科学比尔·戴利,是吴的好友。听闻此事大笑两声,直道这有何难:“我只需要几块GPU就可以做到同样的事情。”
他解释道,CPU注重的是逻辑运算能力,它可以完成极其复杂的工作,但缺点是每次处理的工作量有限。GPU没有那么强的逻辑能力,但可以同时进行大量简单计算。
戴利找到刚入职英伟达的研究员布莱恩· 卡坦扎罗,很快就找到了解决方案:并联12块GPU成功驱动了吴恩达的神经网络模型,并联48块GPU就能得到预计要用1.6万块CPU才有的理想效果。
两年后,Alex团队在两块GeForce GTX 580上,使用1400万张图像成功训练了AlexNet,首次证明GPU可以用于训练人工智能。
AI技术飞跃的奇点,自此开始。
2016年8月,黄仁勋把全球*台AI超级计算机DGX-1捐给了成立不到一年的OpenAI。
这台 DGX-1 ,能把 OpenAI 一年的训练时间,压缩到短短一个月。
老黄在机器上写下一句话:
致 Elon 和 OpenAI 团队!为了计算和人类的未来,我捐出世界上*台 DGX-1!
数年过去,ChatGPT面世,被称为AI技术革命的开始。
据报道,OpenAI 用了10000个GPU来训练 ChatGPT,这些硬件可能会在 12 个月内为英伟达带来30-110亿美元的销售额。
这是非常恐怖的收益。
同时,随着越来越多的企业开始使用AI来理解收集的海量数据,各国政府也在向深度学习研究领域投入资金以保持*地位。AI已成为“下一个超级大国”竞争的焦点领域。
但因为技术越发成熟,AI参数规模、数据量这些软件指标也会叠加上来,诞生AI时代的新「摩尔定律」。
按照现在的趋势,根据预测,AI所需算力每100天将翻一倍。
算力就像曾经的石油,成为新时代进程最稀缺的资源。
而早从2015年开始,英伟达的GPU在超算中心的市场份额一路上涨,这几年稳居 90% 左右。
这也就无怪乎,为什么在人工智能产业浪潮中,英伟达被视为全球科技行业*的赢家。
毕竟,在这场淘汰赛中,不论谁胜谁负,都绕不开基础的算力和硬件。
它就像曾经卖铲子的那个商人,甚至犹有过之,扼住了所有下游的咽喉。
但没人乐意被卡脖子。
就像全世界的游戏玩家,基本都用着N卡,还是对英伟达骂声一片。
用N卡,是因为它在笔记本上无可替代。骂他,是因为太贵了。
AMD的显卡,看着跑分高,但在实际游戏中的表现就不尽人意;英特尔的ARC独立显卡,性能连英伟达的RTX入门级显卡的性能都够不到。
有什么办法?为了体验,只能选N卡。
再贵也得捏着鼻子,当冤大头。
过去,英伟达在显卡领域为所欲为。现在,在算力方面,依然能如此。
随着算力军备竞赛开启,市场对AI芯片需求大增。如马斯克此前表示,为他刚刚创立的人工智能公司采购了数千个GPU,这些暴增的需求导致英伟达AI芯片供应持续短缺。
供不应求,价格自然暴涨。
据国内渠道商透露,之前拿货周期大约为一个月左右,现在基本都得三个月,甚至更长。
“一台通用计算服务器的成本大约在5万块钱左右,现在符合美国技术出口规范的A800一块价格已经涨到10万块钱,对于投入算力基础设施的公司来说,整个采购成本都在增加。”
即便是PC时代的卖铲人微软,也只能作为英伟达*的矿工。
H100在eBay上售价超过4W美元
据估计,OpenAI将需要超过3万个A100GPU用于ChatGPT的商业化。而此前,微软称已经用了1万个A100来训练ChatGPT。
研究公司SemiAnalysis表示,ChatGPT的运营成本大概是每天70万美元,大概每次查询0.36美分。而这些成本的主要来源,就是服务器,实在是太贵了。
而早在几年前,微软就招揽了英特尔前高管Rani Borkar组建Athena项目,目前已经拥有近1000名员工。
不过制造一个好的AI芯片,至少需要数年的时间,而英伟达目前已经取得了巨大的*优势。
所以,最近市场传出微软与AMD合作开发新款AI芯片,加快推出相关产品,为自身及市场提供英伟达GPU之外的另一种底层硬件选择。
“如果 Athena 具有竞争力,与 Nvidia 的产品相比,它可以将每芯片的成本降低三分之一。”
其他所有有志于AI的大厂,都没有闲着。
4月初,谷歌首次公布了自家AI超算的细节——性能相较上代v3提升10倍,比A100强1.7倍。
此外,据说能和H100对打的芯片,也已经在研发了。
他们并非没有胜出的机会。
前文已经说了,AI所需算力每100天将翻一倍。
也就是说,到2030年,AI所需算力是现在的3000万倍。(2的25次方)
显然,如果不在当前的软硬件基础上做出更多创新,人类目前的算力发展不可能达到如此恐怖的需求增长。
即便是英伟达,也不可能。
据报道,微软等客户对英伟达A100/H100芯片订单需求追到了2024年,微软为了给必应聊天机器人与Office365留下足够资源,内部已陷入AI服务器短缺,甚至必须对GPU采取“配额供给”机制。
显然,英伟达虽然强大,但并没有能力覆盖整个市场。
这很像2021-2022年席卷全球的缺芯潮:成千上万的AI初创公司、甚至是大型云服务商,将如当年因缺少关键芯片而停产的车企,或因缺少GPU面临相似困境。
极度焦虑之下,多家公司开始寻求其他品牌的替代品。
为了揽客,英特尔已率先掀起了GPU价格战。
什么?价格战?这不是国内厂商的拿手好戏吗。
的确,虽然技术上尚有差距,但这确实是国产芯片的一个机会。
国内已有多家科技公司已经进入到AI芯片领域中来,如寒武纪、云知声、海光信息、景嘉微、壁仞科技、摩尔线程、地平线等。
随着微软开始加大与AMD的合作力度,共同推出专用AI芯片后,市场中其他公司也有可能将效仿,导致整个AI芯片市场的竞争加剧。
叠加全球供应链安全的考量,AI芯片市场从过去的英伟达一家独大,或慢慢转变为群雄割据。
但不是所有公司,都这么有种的。
“算力不能保证我们在通用人工智能技术上*,算力是可以买来的,创新的能力是买不来的。”
两天前,国内某科技巨头创始人,在一次内部分享中表示。
类似的话语,我们其实听得不少。
有人说中国别的科技领域都在勃勃生机万物竞发,受限的只有芯片,所以问题不大。
这话说得令人喷饭。
芯片是几乎所有产业的基础,正如写字用笔、踢球用脚,我们目力所及的所有大规模产业,包括AI、电动车、机器人、智能制造、新能源,哪一条跟高端芯片没关系?
很多号称“自由”的经济学家,他们吃惯了过去二十年拿来主义的红利,于是通过各种论证,试图说明自主研发是一件ROI(回报率)极低的事情。
这种鼠目寸光的论调,真侮辱了经济学家的称号。
难有难的价值。
难的事情一旦能做成,带来的收获才更大。看看这些年的英伟达,怎么从一个卖游戏显卡的小企业迅速成为市值数千亿美元,扼住全球科技发展命脉的超级巨头的?
现在亡羊补牢,并不算晚。
从上至下,政策、产业、市场加强半导体基础研究建设,完全可以做到拉近与世界先进水平的差距。
我们跟美国人荷兰人同在一个地球,共享同一套物理规律,只要不回避问题,从*性原理出发,谜题总是会被解开的。
难道谁比谁笨不成?
黑暗森林里,每个存在都是猎人,永远别去奢望靠外力保住猎物。
从来没有共赢,只有赢者通吃。