据透露,AI 半导体初创公司 LeapMind 将于 2024 年 7 月 31 日解散。
该公司董事兼首席执行官松田宗一(Soichi Matsuda)在发给相关方的电子邮件中表示,“我们认为,为了实际使用人工智能,我们需要同时考虑软件和硬件,而且,这样的公司很少。”世界各地都有这种想法,所以我们不断接受挑战,认为它们很有价值,但我们非常失望,我们还没有能够证明它们的价值”,并解释说,他们决定这样做。在公司尚有现金和存款的情况下自愿解散公司,以防止违约风险。
从8月起,公司计划启动正常清算程序,届时松田先生将担任代表清算人。
LeapMind开始开发新的AI芯片
据该公司在官网介绍,随着技术的进步,社会在不断变化。设备的快速创新和基础设施的普及,让收集和利用大量数据已成为可能。伴随着机器学习的实际应用,分析的准确性提高了,数据的利用也变得更加熟悉。数据周期的流动,即通过机器学习变得更加智能的设备产生更好的数据,将变得比以往任何时候都更快,使人们的生活更加便利。
LeapMind作为一家最早预测这一未来的公司之一,并且自 2012 年以来一直在经营基于机器学习的业务。
LeapMind表示,公司的技术能力和远见得到了很多公司和组织的高度评价,并参与了很多使用机器学习的项目,但遗憾的是并没有很多案例转化为社会落地。有两个问题。一是构建实用的机器学习模型。为了利用机器学习来解决迄今为止无法解决的任务,我们必须开发高质量的机器学习模型。第二个是允许机器学习模型实际运行的计算环境。没有明确的设备可以让它在使用受到限制的情况下实际工作,例如在边缘。
为了通过使用机器学习的设备来改善社会, LeapMind认为公司必须克服两个挑战。通过与具有不同技能的同事继续真诚地面对客户和问题,我们能够通过两种方法解决问题:“开发高质量的机器学习模型”和“开发高速、高效的硬件IP” ”我得出了答案。
通过从软件和硬件两方面着手,我们可以将不可能变成可能。这个未来是触手可及的。我们相信,通过为世界提供未来的关键技术,我们可以创造更加人性化的生活方式。
基于这些背景和思考,LeapMind在去年十月宣布,将开发新的AI芯片,以加快AI模型的计算处理速度,追求行业*的性价比。
他们表示,由于最近人工智能模型(包括大规模语言模型(LLM))的规模和计算复杂性不断增加,训练尖端人工智能模型的成本与 10 年前相比大幅增加。这种不断上升的成本是人工智能发展的一个重大瓶颈。
为了创建优秀的AI模型,需要使用大量处理器进行并行计算。提供大量处理器需要大量预算。如果能使用性价比优异的处理器,即使预算规模相同,也能开发出更好的AI模型。换句话说,AI学习所需的处理器特性正在从*性能向性价比转变。
鉴于这些情况,LeapMind开始应用我们在边缘人工智能加速器开发中积累的技术,开发用于人工智能学习和推理的新型处理器半导体(以下简称“人工智能芯片”)。这款新的AI芯片专注于AI模型学习和推理,其计算性能目标为2 PFLOPS(千万亿次浮点运算),其性价比是同等性能GPU的10倍。该产品预计最迟将于 2025 年开始发货。
据介绍,新型AI芯片具有以下特点:
专为AI模型学习和推理而设计
强调低位表达如fp8
开源驱动程序和编译器
他们表示,当将人工智能模型学习和推理视为计算任务时,它具有以下特征:
矩阵乘法是计算瓶颈
易于并行化
条件分支很少。
LeapMind强调,公司不是以提高通用计算机的性能为目标,而是利用上述特性,专门为人工智能模型学习和推理而设计。例如,由于程序中的条件分支很少,因此可以通过省略分支预测单元来减少晶体管的数量。
而之所以强调如fp8等低位表达,是因为在他们看来,AI模型的计算瓶颈是矩阵乘法,其中涉及大量乘法和加法。乘法器往往是大型电路,但通过使用位宽比以前更低的数据类型(例如 fp8),可以减少所需的晶体管数量。此外,由于处理的数据较小,因此可以有效地利用近年来成为瓶颈的DRAM带宽。
至于开源驱动程序和编译器,则因为开发人工智能模型需要先进的软件堆栈,而这不能由单一公司提供。已经有一个涉及多家公司的开源软件生态系统,为了成为这个生态系统的一部分,作为开源软件加入社区非常重要。
按照LeapMind计划,公司将尽可能公开硬件规格,并在符合 OSI 的许可下发布驱动程序和编译器等软件。
他们指出,这款新型人工智能芯片支持广泛的神经网络训练和推理,包括大规模语言模型训练以及扩散模型等生成式人工智能模型。
“我公司在边缘AI推理加速器的开发方面取得了较高的成果和成果。在服务器端,我们将利用已经培养的技术能力,开发新的AI芯片,加快AI模型计算处理速度,加速下一代AI的演进。”LeapMind Co., Ltd. 首席执行官 Soichi Matsuda 的评论道。
公司一开始对搞芯片的看法
LeapMind 的首席技术官撰文谈到了对进军芯片的看法,以下文章以*人称视角描述:
正如上文所说,LeapMind 将进军 AI 半导体芯片业务。开发已经开始。到目前为止,我们只针对边缘市场销售半导体IP,即设计,但在服务器市场,很难只销售半导体设计,因此我们将以实际芯片的形式开展业务(或板)。新产品不仅可以用于推理,还可以用于学习。
虽然只有一句话,但这样写会大大增加你作为一个企业需要做的工作量。由于LeapMind到目前为止一直在卖IP,所以我们基本上没有做库存管理。从这样的公司的角度来看,处理实物产品本身就是一项艰巨的任务。库存管理、现金流管理、需求预测、缩小产品阵容等。有很多事情我不知道,不明白。当然,还有很多其他事情需要做。
当前的半导体行业,流动的资金量极其巨大,如果尝试使用接近尖端的半导体工艺制造芯片,将需要数十亿日元到数百亿日元。仅仅发展成功是不够的,我们还必须在考虑各种因素的同时开展业务。
现在,我们正在进入一个比IP业务复杂得多的市场。这个决定是基于一系列复杂的原因做出的,不能简单地用“我要这样做是因为……”来回答。然而,可以零碎地提出一些原因。
首先,众所周知,服务器人工智能半导体作为一项业务的价值正在不断增加。训练大型语言模型(LLM)的成本,更不用说扩散模型,比几年前高出几个数量级,而且我开始长时间训练大型模型显然没有价值。看看这是真的。
最初,我们公司的理念是,“虽然很难预测神经网络的具体未来,但执行设备对于实际使用来说是*必要的,因此我们提供专用于神经网络的处理器。”我们希望提供一种处理器致力于神经网络不断增长的市场与公司最初的理念和宗旨是一致的。
如果成功,这项业务可能成为在各种设备上普及神经网络的关键垫脚石。比如神经渲染是一个热门的研究领域,我认为它未来有潜力在游戏和其他领域流行起来。通过成长为一家处理实际半导体设备的公司,我们希望建立一个能够快速响应这些新市场的地位。
现在,我们正在进入一个困难的行业和一个困难的市场,但我们真的有机会获胜吗?
从技术上讲,我们拥有实际交付半导体 IP 并将其作为物理芯片工作的记录。尽管我们所处的领域略有不同,但我们在创建可正常运行的 IP 和软件方面拥有良好的记录。我有信心自己有资格进入市场。
如果您相信缩放定律,那么创建大型模型就很重要,为此目的,确保计算能力也很重要。由于神经网络训练可以并行化,因此具有优异性价比的处理器比单个高速处理器更合适。从程序员的角度来看SIMT更容易使用(比SIMD),而且它能做的事情范围更广(比SIMD),但是为了同时实现易用性和性能,缓存几乎是必不可少的,而神经网络则是如果你仔细想想,你可能会说这对程序员来说有点太友好了,而且负担都在硬件方面。我们相信,通过专注于该领域的神经网络学习和推理,我们可以提高性价比。
此外,就处理器业务而言,仅仅创建硬件是不够的;我们需要一个允许我们利用现有软件资产的系统。在这方面,情况与几年前相比已经有了很大改善。在这里写这么长是不平衡的,所以我只发布一些链接,但是使用 PyTorch 现在可以使用PJRT创建了Triton。通过为 PJRT 编写插件,您可以接收StableHLO 格式的网络定义、编译并运行它们。这样,现在就可以通过简单地实现原始运算符并将它们组合起来来运行主要的深度学习框架,而不是手写大量的运算符代码。
我列出了一些我认为获胜机会很大的原因。说实话,无论你想出多少理由,都不能保证你有100%的获胜机会。也就是说,我认为我们获胜的机会很大。
最初,我们计划从大型高性能产品开始,但最终,就像今天的 GPU 一样,在秋叶原的零件店可以轻松获得廉价的产品,我们的产品也将用于超级计算机。我们的目标是未来的产品。已安装。
但在搞了芯片不到一年之后,这家公司宣布解散。
【本文由投资界合作伙伴微信公众号:半导体行业观察授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。