旗下微信矩阵:
首页 产业 ai 正文

深度解读人工智能过去60年沉浮史,未来60年将彻底改变人类【万字长文】

近年来全球机器学习领域的三大趋势包括更大规模的机器学习、更深度的机器学习以及更强交互性的机器学习,这些都是基于大数据与云计算的兴起。正是因为廉价的云计算和大数据技术,人工智能才有可能扩散到社会的每一个角落。
2016-04-05 08:19 · 钛媒体 吴宁川

  从底层芯片突破人工智能

  2016年3月24日,在ARM公司与重庆市的战略合作签约仪式上,重庆市长黄奇帆在致辞中表示“一切人工智能的源头,集中在芯片上”。

  黄奇帆市长可能没有意识到,这个论断也是未来60年人工智能发展的重要主题之一。在人工智能前60年的发展中,冯·诺依曼架构的瓶颈已经成为共识,在接下来的60年里,如何打破冯·诺依曼架构的瓶颈,已经成为各大公司和各国政府战略级的研究项目。

【深度长文】人工智能过去60年沉浮史,未来60年将彻底改变人类

  IBM TrueNorth神经元芯片

  2014年8月,IBM研究院在《科学》杂志上介绍了一款名为“TrueNorth”神经元芯片,它从底层模仿了人脑结构而且用普通半导体材料就能制造出来。TrueNorth表面上看起来和普通处理器没有太大区别,它的核心区域内挤满了4096个处理核心,用来模拟超过百万个人脑神经元和2.56亿个神经突触。

  2008年初,IBM TrueNorth研究项目获得了美国五角大楼高级计划研究局(DARPA)的5300万美元资助,DARPA认为这项研究有助于突破冯·诺伊曼计算机体系。TrueNorth由三星代工生产,具备量产的基础。基于TrueNorth芯片,IBM已经研发出了神经元计算机原型机,能够以低功耗实现更高准确率的图像识别、视频处理等人工智能关键性功能。

  2015年4月,IBM研究院Mark Ritter在他的一篇博客中,介绍了IBM在量子计算机方面的研究突破。IBM的T.J.沃森研究实验室的一组科学家和工程师,正处于开发首台真正量子计算机的前沿。2015年4月,这个团队在科学杂志《Nature Communications》(《自然通讯》)上发布了一篇重要的论文,介绍了在实现可行性量子计算机中的两个关键性进展。

  1981年在MIT召开的首届量子计算会议上,诺贝尔奖获得者Feynman挑战科学家们研究量子计算机。与现代计算科学的方式方法截然不同,在量子计算前提下,整个计算基础设施必须被重新想象与重构。除了IBM外,谷歌与微软也集合了科学家与高校的力量投入量子计算的研究。Mark Ritter认为,IBM有望首先实现量子计算机,而当前正在进入量子计算研究的黄金时代。

  除了远期的神经元芯片和量子计算机外,NVIDIA、Intel、ARM等公司通过改进现有的芯片设计,把人工智能推进到底层芯片中。NVIDIA的GPU被用于数据中心的大规模分布式机器学习环境,区别于传统CPU的Intel Xeon Phi更强调与CPU协同工作的GPU技术,而在移动互联网时代遥遥*的ARM则在智能汽车、可穿戴设备、智能家电、物联网、工业装置等领域围绕未来人工智能场景来思考一代又一代的芯片设计。

ARM全球CEO Simon Segars在接受采访时表示,必须以更具成本效益的方式实现人工智能应用,只有当AI的成本和价格是普通人都能够承担时,AI才是真正达到了人们期望的目标。2016年3月,ARM宣布与台积电合作展开7nm芯片的研究,能以更高性价比广泛应用于智能终端和数据中心,预计在2017~2019年量产。目前,其它芯片公司还停留在10nm芯片的竞争。此外,ARM还加入了由Facebook发起的开源硬件项目OCP,该项目邀请开源硬件社区共同设计下一代数据中心的硬件设备,ARM就在与Paypal联合开发低功耗的定制化芯片。

  创业者把AI扩散到社会的每一个角落

  随着AlphaGo在全社会引起了巨大的反响,新一轮人工智能创业潮正在酝酿中。2016年3月26日,科大汛飞与专注天使轮投资的阿尔法公社宣布了AI领域联合天使投资计划,未来将在AI领域展开批量投资。科大讯飞高级副总裁江涛表示,在未来社会里AI将成为水和电一样的基础性资源,创业者们将把AI扩散到社会的方方面面。

【深度长文】人工智能过去60年沉浮史,未来60年将彻底改变人类

阿尔法公社与科大讯飞联合宣布批量支持AI创业

为什么说AI将成为基础性社会资源?原因很简单,今天的互联网已经成为了基础性的社会资源。而在万物互联网时代,物联网的规模远远大于今天的互联网。除了接入现有的互联网设备外,未来的物联网还将接入大量机器对机器(M2M)网络。在一个更为复杂和庞大的物联网前提下,人工智能就必须成为整个物联网的关键组成部分,进而成为基础性资源。

  如果说过去的人工智能创业必须要在基础科研层面有所突破,如今这个壁垒已经被打破。谷歌、微软、Facebook等大公司以及卡耐基·梅隆大学、NYU等高校纷纷开源核心的机器学习算法,谷歌的TensorFlow、微软的DMTK、Facebook的Torch、卡耐基·梅隆大学的Petuum、加州伯克利分校的Caffe等,都提供了成熟的人工智能和深度学习算法模块。而IBM Watson认知计算云服务,本身就是以低价格向全社会大规模输出人工智能的能力。

值得注意的是,大公司开源出来的机器学习算法并不是简单的宣传“噱头”,而是货真价实的“干货”。微软开源版DMTK包含了目前世界上*规模的主题模型和分布式词向量模型,DMTK还是分布式机器学习工具,让创业者很简单就在多机环境甚至是集群系统中部署大规模机器学习算法,大幅降低了机器学习创业的门槛。为什么这么多大公司都纷纷开源自己的核心机器学习算法呢?原因很简单:争夺下一个生态。

  当然,也有人担心大公司将垄断未来的人工智能社会。2015年12月12日,特斯拉CEO Elon Musk在Twitter上宣布正式启动非盈利人工智能项目OpenAI。OpenAI是一个非营利性的人工智能研究公司,目标是“推动数字智能的发展,同时不被财务回报所限制,从而造福整个人类”。OpenAI筹措了10亿美元作为经费,从谷歌等公司挖来了人工智能专家,专门研究人工智能技术并答应无偿公开。显然,OpenAI是人工智能创业的又一剂强心针。

另一方面,人工智能创业迎来黄金期,还有另一个时代背景。微软亚洲研究院人工智能研究组首席研究员、卡耐基·梅隆大学博士生导师刘铁岩告诉记者,近年来全球机器学习领域的三大趋势包括更大规模的机器学习、更深度的机器学习以及更强交互性的机器学习,这些都是基于大数据与云计算的兴起。正是因为廉价的云计算和大数据技术,人工智能才有可能扩散到社会的每一个角落。

【本文由投资界合作伙伴钛媒体授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。