以仙童半导体和德州仪器为开端的科技发展种子,在半导体行业内散播半个世纪后,最终撞上内存墙。
台积电创始人张忠谋在2014年断言“摩尔定律只剩五六年寿命”,届时,*钱的公司不会是半导体企业,而是如Google、Amazon和华为这类能够整合整个物联网系统的公司。
从2015年开始,每年都有人工智能的相关政策出炉,人工智能逐渐上升到国家战略地位,2017年进入十九大报告。过去五年,AI和风口一词紧紧联系在一起,也和摩尔定律失效联系在一起。
现有的半导体进化速度将越来越不能满足AI时代呈指数增长的算力需求。为避免硬件被数据“吞噬”,美国2017年提出“软件定义芯片”的概念,将科技创新的风向标扔向了互联网企业。
然而事实证明,多数把AI芯片当成风口的人都赌输了。包括国资背景寒武纪在内的初创企业,亏损持续扩大,离盈利还差一场马拉松。
这不是一个单纯靠砸钱和砸人便能成就的行业,由于有着超过许多行业的时间及试错成本,意味着芯片必须尽早打通新的商业模式以维持研发,如可落地的AI应用。
就像英伟达追过英特尔一样,更适宜人工智能大规模高算力需求的GPU得以被重新估值。随着对“缺芯”劣势的认知加深,市场对具备软硬件一体化优势的互联网企业寄予厚望。
华为之后,小米花费三年从澎湃S1挣扎到澎湃S2,携手联发科想摆脱高通,OV带数十亿上场赌芯。
不过眼下真正值得细究的,是以BAT为代表纷纷宣布造芯的互联网企业。
阿里旗下半导体公司平头哥自研出玄铁910,成功适配Linux内核与安卓系统;腾讯成立深圳宝安湾腾讯云计算有限公司,业务涵盖集成电路设计、研发;百度带着AI算法入场最早,2010年已使用FPGA进行AI架构的研发,2018年昆仑1出世,次年流片成功,随后实现量产,性能提升3倍的昆仑2眼见量产。
业内盛传GPU阻碍人工智能发展不是毫无道理,无论是深度学习所需的大数据还是强化学习面临的并行方式,都可以从天然具备软件技术和数据资源的互联网公司得到解决方案。
国内的芯片设计领域与国际差距并不算太远,因此,我们可以换个思路来看芯片的未来:与其拘泥于只能针尖式突破,暂时毫无办法的的EDA/IP和光刻机,不如看看互联网企业能够为芯片带去什么架构创新。
下一个十年,或许是芯片行业的黄金十年,也是互联网企业的新征程。
01
产业布局,芯片生机?
越是有想象力的市场,资本越偏好。
国内外资本对AI芯片的偏好略有不同,这与半导体的发展历史有关。以硅谷为代表的半导体投资行业愿意放手赌注高门槛的云端芯片公司。国内则主要是富有积累的大型互联网企业在进行云端芯片研发,但偏向终端芯片的初创企业也通常能获得资本青睐。
亚太地区以后很长一段时间都还会是全球*的半导体消费市场,市场会倒逼科技创新。
2020年,可以说是AI公司的爆发之年,去年发布的2035年远景规化中,AI是首要关键。AI四小龙里,除商汤外的云从、依图和旷视先后提起IPO。
AI芯片的价值随着AI行业的发展水涨船高。比特大陆高调进军智慧城市,欣博电子联合百度又布局金融、安防领域,地平线主攻自动驾驶和AIoT市场,清微智能和寒武纪类似,仰仗学术背景,有CGRA架构技术加持……
不过芯片本身的特性使得市场可能还需要走过一段泡沫期,过滤大部分偏科选手。
目前国内排名靠前的IC设计公司,放到国际行列,多处于第三梯队,除开一些外部不可抗力因素外,市场也是一个很重要的因素。
AI芯片面对更新换代十分迅速的消费和企业服务市场,随着图像识别、语音识别等智慧领域发展,算法对算力需求的增长已非硬件升级就可以实现。从2012年以后开始,算力需求几乎是每3个月就翻倍一次。
因此,AI芯片从诞生之初就是为了弥补CPU、GPU无法实现的能效和通用性,进而才能真正落地到商业应用上。
传统芯片每秒瓦可以进行的操作完全不能满足大规模深度学习的算力需求。一般而言,AI专用芯片的能效是 CPU 的万倍,GPU 的百倍,可达到100 TOPS/W以上。
满足了算力需求,还需要满足通用性,通用AI芯片被称为AI芯片皇冠上的明珠,不过短时间内还没有办法出现像曾经的CPU一样的AI通用算法芯片,这便是机会。
以百度自主研发的XPU为例,该架构专用于解决计算密集型和基于规则的多样化计算任务,既能提高能效也有助于灵活性,昆仑芯片的高性能便得益于此。
随着AI芯片的发展,未来的计算机和各类终端很可能都需要配备AI芯片,技术正在把互联网带向神经网络的格局。
02
AI上云,终端入芯
目前市场上的AI芯片从用途来看大致分为云端和终端两类。除了坚持云端芯片开发的寒武纪、百度等,多数企业都将重心放在了终端AI芯片的研发上。
云端芯片门槛更高,研发成本更高,一个产品从设计到流片成功再到量产,耗资往往数千万美元,并非一般的AI芯片初创企业所能拿下。以小米澎湃S2为例,连续五次流片失败就已耗光2500万美元。
当云计算无法承载IoT设备碎片化趋势下的算力需求,终端设备就需要分担相应的数据处理任务。简而言之,无论是云端还是终端的AI芯片,都需要具备相应的算力。
训练算力涉及大量数据,这对国内外的大型互联网企业来说都较为容易。加之云端芯片研发面临的技术、费用门槛,不难理解,为何现下只有华为、百度和寒武纪三家能够真的将产品做出来。
不过,终端市场一直是国内优势。终端AI芯片需要在现有计算机架构上,模拟人体神经网络的神经元和突触,这就需要研发相对CPU和GPU更具灵活性的AI芯片。
根据定制化程度,AI芯片可以分为GPU、FPGA和ASIC三大类型。其中ASIC的定制化程度最高,灵活性最差,寒武纪MLU100和1M两款芯片,技术路线都是ASIC。
GPU和FPGA的灵活性较佳,前者专用多重任务处理,主打云端训练和推理,后者长于单数据流分析,主打云、终端推理。
从成本、功耗及平均算力来考虑,半定制的FPGA是性价比更高的选择。
以百度的通用芯片昆仑为例,这款芯片基于FPGA研发AI架构,既可应对云端的高密度计算,也可以稳定边缘端的基础计算。
FPGA高性能、低成本、自主可控和易编程等特点对应的是广阔的市场前景和生命周期。基于FPGA灵活的优势,产品更新换代、市场变化越迅速的行业更适用昆仑一类的AI芯片。
当然,FPGA的技术路线也有其弱点,在实现庞大复杂的算法时,需要增加DSP等高级模块。
长远看来,AI芯片企业只会越来越多,智能终端还具有许多尚未开垦的领地,也面临向手机外其他形态迁徙的可能。
尽管资本市场对芯片投资进入冷静期,但AIoT趋势并不会放缓,并且还会加速造芯企业优胜劣汰。
Gartner相关报告显示,2019年到2023年,AI芯片的市场规模增速为每年50%,预计2023年将超过320亿美元。
我们必须要清楚的一点是,芯片制造行业类似军备赛,被寄托了更多历史使命和科技振兴的希望,AI芯片的设计则天然携带商业属性,不能脱离实际应用场景和可持续的商业模式。
实际应用方面,造车和造芯几乎是孪生兄弟,此外还有以小米、小度、小爱等一系列智能音箱的落地设备。
AI芯片成为独立产业的潜力巨大。前段时间传出百度将成立独立的AI芯片企业,从百度近两年在AI领域的动作来看,可能性较大。随着Apollo智能驾驶商业化落地,智能音箱的市场拓宽,AI芯片应用市场的成熟已入开局。
商业模式上,自产自销并非长久之计,也支撑不起高耗的研发成本。科技成果赋能于己只是初级关卡,赋能于彼才是长久生态。
入场早不代表最终胜利,开源才能将一切机会无限放大。百度2010年上场AI架构赛道,芯片设计之初主要是为了支撑自己的机器学习平台BML。
随着行业发展,昆仑芯片已经实现对全球主流操作系统CPU,深度学习框架Pytorch和 TensorFlow等的支持。其实,这种开放性,在百度开启开源深度学习框架飞桨(PaddlePaddle)对0基础用户的友好模式时就已见端倪。
类似去年百度在资本市场的逆势上涨,我们也需要重新审视AI算法加持下的软件创新,能为局促的硬件世界带去什么。
03
软硬一体,应用先行
全球AI芯片市场,英伟达依然占据着一半以上的市场份额,英特尔积极转型,Google的TPU从诞生以来备受瞩目。
几乎所有人都想超过英伟达,但所有人都需要跨越硬件、软件两条大河。
比较有代表性的是英国AI芯片制造商Graphcore研发的IPU,由于兼具CPU与GPU的工作能力,ARM创始人赫曼·豪瑟将其称为计算机史上的第三次革命。
赫曼的上述评价带有相当的主观情绪,IPU最终是否能够挑战英伟达,成为一方霸主,暂时还很难说。尤其是在芯片制造已从2D转3D的今天,软件领域的颠覆性创新显得越来越重要,这也是为什么说互联网企业可以在AI芯片领域大有可为的理由之一。
就国内的AI造芯行业而言,资金首先就会刷掉一大批竞争者,再剩下一群或偏硬件或偏软件的玩家。
唯有软硬件结合到位得玩家才可能真正存活下来,这类似于寒武纪创始人陈天石所谓“端云一体”思路。商业落地是寒武纪的弱势,它不得不与各大具备成熟商业体系的厂商如OV、联想、美的等保持深度合作。
再好的AI芯片都需要藉由AI应用实现商业落地,对于普通用户来说,云计算不容易直接感受,能直接感受到的商品是如智能音箱这一类的AI终端。
终端芯片要求比云端更低的功耗,最常见用于智能家居语音交互、智能车载语音交互等场景。
智研咨询数据显示,2020年国内AI语音市场规模达155亿元,接下来还会保持高速增长的态势。
云知声、思必驰和百度等是着力语音芯片领域的代表企业。其中,思必驰与海信、长虹、阿里、北汽等达成了深度合作,而云知声在2019年发布雪燕、海豚等产品后开始冲击IPO。百度的鸿鹄语音芯片则是对传统语音交互技术进行了革新。
值得一提的是,百度最新发布的小度智能音箱2红外版得益于这种技术革新,平均功耗仅100mw,低于3C产品通行的待机标准。
传统智能音箱走的是将语音交互分割为先增强后识别的路子,增强和识别模块优化目标不一致,拾音严重依赖声源定位,在真实使用环境中性能会大打折扣。
鸿鹄语音芯片打破了这种传统方案,它分担了语音交互中复杂地计算,将语音增强和识别地建模进行端到端一体化,统一二者的优化目标。这种“基于复数的卷积神经网络”的技术将语音识别的错误率降低了30%,高噪音环境下的唤醒率也提升了10%。
上述压缩能耗,分担算力,互联网企业做芯片的思维,其实是在为AI终端应用的市场普及开路。
不同于寒武纪一类科研出身的AI初创公司,阿里、微软、亚马逊、百度等互联网企业开始扎根半导体行业,追逐异构计算。表面上看是在贩卖硬件,实际上图的是硬核技术背后的增值服务。
唯有走出贩卖商品的阶段,AI才会真正成为新基建。因为说到底,AI、AI芯片以及背后的软硬件一体化,都是作为服务存在的。显然,服务是一个更具有想象空间的世界。
【本文由投资界合作伙伴微信公众号:奇偶派授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。