您的位置:主页 > 公司动态 > 每日行情 > 每日行情

Graphcore:英国的寒武纪为何触礁?-国际原油

2015年,两名来自英国的创业者Simon Knowles和Nigel Toon正在为他们的人工智能(AI)芯片项目寻找资金。

卖力手艺的Simon Knowles于1980年月结业于剑桥大学,早期在英国政府研究实验室研究神经网络,开办的*家公司Element 14即成为90年月的独角兽,并在2000年以6.4亿美元的价钱出售给博通。而Nigel Toon则是商业人才,在1990年月加入美国科技企业Altera,并在Altera担任欧洲营业的副总裁与总司理。

2002年,两人合资开办了一家叫做Icera的3G modem(蜂窝调制解调器)芯片公司,并于2011年乐成地以3.7亿美元的价钱卖给英伟达。从风投角度来看,二人的履历应该是最受追捧的团队模板:靠山鲜明,能力互补,延续创业,乐成套现。

但尴尬的是,专用AI芯片赛道并不被主流VC认可,两人甚至一度找不到投资人开会。

这跟那时人工智能赛道的热闹截然相反。2015年的ImageNet大赛,所有排名靠前的玩家都在使用GPU举行图像识别,距离AlexNet模子*次行使GPU训练神经网络模子夺冠已经已往了三年,行业内掀起AI热潮。

但现实上,AI在那时只是个业内自嗨的小众热门。Simon和Nigel追求融资时,一半的投资人问“什么是AI芯片?”另一半投资人认可AI的远景,但对其上游的芯片设计却不伤风,缘故原由是“以为英伟达的GPU可以笼罩行业需求。”[2]

眼看新项目就要胎死腹中,殊不知AI芯片已经走到了黎明时刻。

这一年,谷歌已隐秘研发出一款专注于AI领域中机械学习算法的芯片,并将其用在内部的云盘算数据中央中,以取代英伟达的GPU。2016年5月,这款自研芯片公诸于世,就是赫赫著名的TPU。这名字一出来,内行外行都看懂了:GPU并不是AI芯片的*选择,新的处置器设计可能存在市场空间。

TPU的推出也给两位创业者带来了信心。一个月后,Knowles和Toon的AI芯片公司:Graphcore正式确立,由Nigel Toon担任CEO,Simon Knowles担任CTO。

Graphcore迅速筹到的A轮3200万美元,于2016年10月到位。在随后的四年里,其融资历程也是一起狂飙:2020年12月,E轮融资落地。Graphcore四年间共获投7.1亿美元,市值27.7亿美元,一跃成为融资和估值最高的AI硬件初创公司,投资者包罗三星、微软、戴尔等科技巨头,也包罗红杉资源、柏基投资(Baillie Gifford)等*风投。

乐成“上岸”的Simon Knowles自然是吃水不忘挖井人,专程给谷歌AI营业的卖力人Jeff Dean写了一封谢谢邮件,内容是[1]:“同志,谢谢你!(Thanks, mate.)”

若是站在今天的时间点,Jeff Dean可能会回复一句:别喜悦的太早。

1、产物:专为AI加速而生的芯片

Graphcore的焦点产物叫做IPU(Intelligence Processing Unit)。

IPU降生的靠山是,随着芯片制程的迭代,半导体行业的两大定律:摩尔定律和登纳德缩放比例定律(Dennard Scaling)在逐渐失效。

摩尔定律说的是:集成电路上可以容纳的晶体管数目在约莫每经由18个月到24个月便会增添一倍。登纳德缩放比例定律以为随着晶体管密度的增添,单个晶体管的功耗会下降,因此芯片的功耗需求会保持稳固。

这两条定律都曾在已往几十年被行业视为清规戒律,GPU和CPU的生长都受益于此。但今天的情形是,芯片上晶体管很难再增添,而芯片的功耗需求也变得越来越高,芯片自己就越来越烫。

因此,就像香港的衡宇一样,在面积有限的情形下想要提高生涯质量,势需要在结构结构上大动干戈,市场上关于“架构创新”的呼声越来越大。专用盘算芯片(ASIC)的需求应运而生,由于针对详细应用场景的优化,可以比通用盘算带来更高的能效比。

ASIC的特点是彻底牺牲通用性,换取在特定应用上的*效率。举一个通俗的例子比喻:

GPU是能提供汉堡、披萨、包子、面条等所有食物类目的综合餐厅,优点是什么都市做,瑕玷稀奇出彩的产物,出餐效率也一样平常。而ASIC是专做披萨或汉堡的美食专门店,味道极好,出餐效率也稀奇高,瑕玷则是想转型做其他产物,就没那么容易了。

TPU就是典型的ASIC,它专为谷歌的超级营业:云盘算数据中央而生。事实上,谷歌自研TPU的缘故原由之一,就是由于GPU会“烧”。

不外,和ASIC相比,IPU有更大的野心。

根据Nigel Toon的话来说,Graphcore不属于CPU、GPU和ASIC中的任何一类,而是一款全新的,专为AI加速而生的处置器:既有极高的运算能力以处置高性能盘算营业(HPC),又和GPU一样可编程,以知足差其余场景需求。[3]

Graphcore的IPU主要有三个特点:

图片泉源:Graphcore官网

(1). 盘算焦点有多达 1400 多个处置器内核,每个内核可运行 6 个线程。

内核数目的意义在于体现芯片的盘算能力,二者呈正相关。每个内核里都有一个盘算单元(ALU),业界有一个异常典型的比喻:CPU就是一名会高等数学的大学生,会解庞大题型,而GPU和IPU是成百上千其中学生,醒目加减乘除。

在AI深度学习所需要的恰恰是大量简朴特定的运算,也就是“加减乘除”。在这种情形下,成百上千其中学生加在一起的效率,比一个优异的大学生更高。

而IPU和GPU的焦点区别在于,处置器核接纳了差其余架构。延续上文的比喻,两支中学生团队使用差其余盘算方式。

GPU使用的SIMD架构通常用于处置器执行大量盘算的问题,这些盘算需要处置器并行执行相同下令,就像划船竞赛中,所有队员做同样的事,配合提高团队效率。

而 IPU使用的MIMD则将庞大算法支解为无关的、自力的部门,每个部门分配给一个差其余处置器来并发处置的解决方案,好比足球竞赛中,队员们虽然有同样的进球目的,然则每小我私人肩负的职责差异。[4]

因此,IPU用到的MIMD架构能够处置更庞大的操作。

(2). IPU 接纳处置器片内漫衍式存储架构,而 GPU 接纳显存或高宽带显存 HBM,是片外的大型存储。

与 GPU 的存储架构中直接毗邻动态随机存储器(DRAM)相比,处置器的内存由IPU的内陆静态随机存储器(SRAM)组成,每个内核(tile)都执行只在内陆内存上举行的盘算。[5]

这样可以制止了频仍接见外部存储资源,大幅度提升频宽、降低延迟和功耗,在特定情境下甚至可能会有近 50 倍的增幅。[6]

图片泉源:Citadel Securities Technical Report

(3). 在跨芯片多核通讯调剂设计上, Graphcore IPU 设计了 BSP(Bulk Synchronous Parallel)的软硬件连系算法,让芯片内 1000 多个内核,以及多芯片可以跨 IPU 毗邻。

而GPU 是以多核多线程出现,开发者需要处置差异线程之间的通讯与数据同步问题。简而言之,对软件工程师或者开发者来说,接纳BSP后的AI芯片异常易于编程。[8]

IPU的架构 图片泉源:Graphcore官网

达晨财智刘昼:为何要大力发展股权投资

2、定位:和英伟达的竞争和差异化

在手艺卖力人Simon Knowles眼里,与英伟达睁开周全竞争,着实不算一件伶俐的事。

在接受外洋博客节目The Robot Brains Podcast的采访时,他分享了自己的创业准则:绝不试图生产大公司现有产物的强化版。[9]——由于大公司有重大的市场基础,初创企业在统一产物上很难与之抗衡。

Simon的看法是:AI会存在于人类未来手艺的任何领域,而所有行业的需求不能能由统一个架构来支持。而对于Graphcore来说,IPU只需要在特定领域显示得比GPU好,在这个爆炸式增进的市场中分到一杯羹就足够了。

正如上文所提及,由于MIMD架构下的芯片能够处置更庞大的操作,IPU对于现在在CPU和GPU上无法*运行的高性能盘算义务具有吸引力。其中有关“希罕数据”的处置就是它最主要的应用偏向。

希罕数据是指在数据集中绝大多数数值缺失或者为零的数据,好比在电商平台,相对海量商品而言,每个消费者购置的只是小部门产物,以是单个消费者的购置纪录就是一个希罕数据。

在现实生涯中,就经常要在海量的庞大信息中寻找指定要害信息,因此有关希罕数据的盘算异常普遍,而IPU能够自力和并行地执行许多异常差其余盘算,恰相符希罕盘算的特点。

其中,分子就是希罕数据结构最典型的应用案例。分子排列不纪律,行为庞大,而且很小。而IPU大规模并行结构的特征,恰恰适合操作不规则的数据结构。[9]

详细到行业,IPU在化学质料和医疗领域都能获得应用,还曾被证实可用于辅助研究冠状病毒。

2020年5月,微软机械学习科学家Sujeeth Bharadwaj就曾将Graphcore IPU内置于微软Azure操作系统中,并在胸部X光片中识别新冠[11]。他说:“Graphcore芯片可以在30分钟内完成在英伟达传统芯片上需要5个小时才气完成的事情。”

在商业模式上,Graphcore不直接对外销售芯片,而是将IPU内置于叫“pods”的系统中,打包出售给下游的云盘算和服务器厂商。

微软作为Graphcore的投资人之一,在2019年*款IPU产物公布时就已成为其最早使用的客户。而另外一个大股东戴尔也鼎力支持,*批用上了IPU。

除了自家投资人捧场,Graphore的主要客户是欧洲的厂商。作为欧洲*的AI独角兽,难免要打着“国货之光”的招牌向欧洲乡亲拉票。

2018年The Wired采访人工智能大师Geoff Hinton,Hinton帮Graphcore做了一次超级公关,他对记者说:“我以为我们需要转向差异类型的盘算机。幸运的是,我这里有一个。”然后伸手进入他的钱包,拿出一个又大又亮的芯片,这个芯片就是Graphcore的IPU。

2021年,Graphcore与法国超级盘算机制造商Atos和超级盘算机芯片设计公司SiPearl都睁开了相助,还在英国爱丁堡大学的EPCC超级盘算中央安装了基于IPU的Bow Pod系统。[12]

2022年6月,Graphcore又与德国框架供应商Aleph Alpha签署协议,配合研究下一代多模态语言和视觉模子的预培训、微和谐推断。与德国相助后,欧盟还专程强调,欧洲供应商需要这样一条供应链,而不是依赖英伟达(Nvidia)等美国公司的人工智能[13]。

一个自主可控的“欧洲英伟达”,这个梦想无比性感。那些昔时想做“欧洲Google”、“欧洲苹果”、“欧洲亚马逊”的人也曾经这样理想过。

3、触礁:Graphcore面临的问题

Simon说[9]:“若是你计划开发一种新型处置器,真的需要有一个20年的久远视角。”不外,就算在手艺层面计划了未来20年。但在商业层面,却未必过得好眼下这两年。

2022年10月,英国《泰晤士报》突然爆出,Graphcore和微软的相助已经泡汤了[14]。此前,IPU被内置于微软Azure平台上, 而现在可以

2023年4月18日,著名科技媒体The Information爆料:微软正在隐秘研发自己的AI芯片,代号雅典娜(Athena)[18]。

雅典娜芯片由台积电代工,接纳5nm先进制程。据悉,微软从2019年就最先研发这款芯片,现在已在测试阶段。雅典娜的*目的是为Open AI提供算力引擎,以替换昂贵的英伟达A100/H100,节约成本。而下一步,可能就将剑指Azure云服务,朋分英伟达的蛋糕。

缺少大客户的采购,Graphcore的业绩一起低迷,外媒报道,2021年,Graphcore销售额仅为500万美元,税前亏损1.835亿美元。账目显示,停止2021年底,现金、现金等价物和短期投资为3.27亿美元。[15]

这导致英美的*风投都抛售了Graphcore的股份,Baillie Gifford减记对其1660万美元的投资,减记幅度达58%,红杉资源也有类似的减持操作[16]。这给Graphcore带来的直接影响是估值暴跌10亿美元,与*时期的28亿美元相比,削减了35%。

Graphcore的逆境展现了一个残酷的事实:初创公司挑战英伟达帝国,是一件如登天一样难的事情。

一方面,英伟达通过CUDA平台、TensorCore、NVLink等手艺来不停牢固GPU的护城河,尤其是CUDA生态,连Intel和AMD这种大厂都难以逾越,中小客户险些没有放弃英伟达、押注新玩家的可能。

而对于想降低成本、增添对英伟达谈判能力的大厂,他们基本上都有能力组织资源自研AI芯片,Google、微软、亚马逊、特斯拉都已经入局,海内华为、阿里、百度也都在开发自己的AI芯片,华为升腾910已经被用来组建超算平台。

只管IPU的降生源于处置器设计空间具有新的“可能性”,但在眼下混沌又猛烈的AI军备竞赛中,芯片客户更需要“确定性”。

有投资人曾对外媒UK Tech News示意,“人们对英伟达的关注度很高——人们希望使用他们的手艺,由于这是平安的赌注。要把人们的注重力从这上面转移开,是一个异常异常艰难的挑战。”[16]

投资者也在用脚投票。停止2022年12月5日,2022 年全球半导体初创企业的风险投资到达 78 亿美元,这与2021年创纪录的 145 亿美元的投资额相比下降了 46%,即即是与2020年103亿美元相比也下降了24%。

Graphcore的融资神话止步在2020年终。但见GPU笑,哪闻IPU哭。

今年,ChatGPT火爆,英伟达狂飙。而Graphcore的CEO Nigel Toon却意气消沉地向英国政府发出一封果然信,希望政府“抵制外国大型科技公司的诱惑,它们正试图倾轧我们的英国公司。

更详细一些,他直接点名道姓了英伟达。Toon说:“除非预算的很大一部门明确指定给英国供应商,否则这笔资金准许将很快被美国芯片制造商英伟达(Nvidia)等数字巨头消耗掉。”

Toon以为,英伟达等公司依附其主导市场份额的优势,一直在以低成本提供gpu,以激励英国研究职员使用这些gpu,这种方式塑造了人工智能从业者和研究职员的习惯,并倾轧了其他硬件供应商。因此,他呼吁英国政府,将耗资9亿英镑的新超级盘算机项目使用Graphcore芯片。

一家降生于老牌资源主义国家的公司,竟然自动呼吁商业珍爱、封禁对手,说明事情已经到了绝望的境界。

4、尾声

除了Graphcore之外,这些还涌现出不少中小AI芯片公司,好比Cerebras、Habana Labs、Mythic等。其中Habana Labs的了局可能算得上*——被Intel以20亿美金收购。

中小AI芯片公司所面临的问题跟Graphcore类似:英伟达帝国坚不能摧,大客户自研暗流涌动,人工智能行业与日俱增,手艺蹊径像六月的天气一样转变多端,能从英伟达碗里夺食的可能只有像Google和微软这样的大厂。

半导体行业的清规戒律是:规模效应,芯片产量越大,芯片价钱越低。英伟达和Graphcore等设计公司虽然没有重资产的Foundry产线,巨额的研发用度同样也是一种“重资产”,出货1万片和出货100万片的企业成真相差悬殊。

中国的寒武纪本纪相比英国的“寒武纪”,一个优势就是英伟达的*进芯片如A100和H100基本卖不进来,只能卖阉割事后的A800。Nigel Toon求之不得的“商业珍爱”,这中国厂商这里反而能轻松获得。

但抛开这点优势,海内AI芯片公司所面临的问题和Graphcore并无二致。纵然是残血的A800,在今年春节后也被海内大厂疯狂抢购。OV小米可以无障碍地购置高通最新款消费级芯片,海内AI大厂却不行,因此他们自研AI芯片的刻意会比Google和微软更大。

因此,无论是海内照样外洋,种种“xPU”们想来分英伟达的羹,都没那么容易。