您的位置:主页 > 公司动态 > 每日行情 > 每日行情

AI芯片欠缺即将到来-外盘期货

坊间曾传出一份讲述,讲述称今年年头百度紧要下单了3000台包罗8张芯片的A800服务器(相当于2.4万张A800芯片),预计整年会有A800和H800共5万枚需求。无独占偶,阿里云预计也将在今年一万枚左右芯片,其中6000枚是H800。

有知情人士透露,A800、H800芯片现在正遭到包罗服务器、互联网厂商的海内公司“哄抢”,“H800海内最先出货了,但原本产量也不多。A800海内今年一年出货的量,跨越一半在互联网公司,”该知情人士称,“H800出货更少,剩下客户新订的可能最快要到12月才气交付。”

在这一轮由Chat GPT掀起的大模子创业潮里,AI芯片成了抢手货,其中GPU最为显著。

01 *的“硬通货”

随着征象级AI产物Chat GPT的走红,以大型语言模子为代表的前沿AI手艺走向聚光灯之下。不少相关企业都接连推出了自己的大模子,百度、阿里、360、商汤等海内企业纷纷宣布入局AI大模子。

在手艺架构层面,AI芯片可分为GPU(图形处置器)、ASIC(专业集成电路)、FPGA(现场可编程门阵列)和类脑芯片。Chat GPT背后的算力支持主要来自GPU或CPU FPGA。由于具备并行盘算能力,可兼容训练和推理,GPU现在被普遍应用。

大模子对于GPU的要求极高。一方面是对于GPU的数目有要求。凭证Semianalysis的测算,Chat GPT天天在盘算硬件成本方面的运营成本为69万美元。Open AI需要约3,617台HGX A100服务器(2.8万个GPU)来为Chat GPT提供服务。

另一方面,对于GPU自身的性能也有要求。黄仁勋在一次聚会上示意:“当前*可以现实处置Chat GPT的GPU是英伟达HGX A100。”A100由540亿个晶体管组成,打包了第三代Tensor焦点,并具有针对希罕矩阵运算的加速功效,对于AI推理和训练来说稀奇有用。今后,英伟达还推出A100的替换者——H100,该芯片由台积电5nm定制版本制程(4N)打造,单块芯片包罗800亿晶体管,一举成为最强。

一时间,GPU成为了各大企业走向AI时代的*“硬通货”。

除了前文提到的海内两家巨头企业在购置GPU外,4月14日,海内第四大云厂商腾讯宣布推出新一代的高性能盘算集群,该集群接纳腾讯云自研服务器,搭载了英伟达最新的中国*版GPU H800,服务器间的毗邻带宽高达3.2Tbps。腾讯称,该服务器集群算力性能较前代提高了3倍,将腾讯自研的“混元NLP大模子”训练时间由11天缩短至4天。

随着海内大模子不停推出,GPU的数目还远远不够知足。据前人工智能NLP企业首席科学家、千芯科技董事长陈巍测算,海内若是想要直接训练出一个GPT-3级其余大模子,最少需要3000到5000枚A100级其余AI芯片。以守旧情形估量,现在海内A100级其余AI芯片缺口在30万枚左右。

“疯狂”购置的不止是海内企业,外洋巨头也在抢购。

2022年11月公布Chat GPT-3之后,Open AI背后的金主微软示意,已经购置了跨越一万枚英伟达A100 GPU芯片,为Chat GPT构建AI盘算集群。前不久,马斯克也为了推进推特内部的新AIGC项目,直接购置了约1万个GPU。

不外,田主家的存粮也不多,据新闻人士透露,从2022年终,微软就执行了GPU资源配额供应,但今年1月以来审批时间越来越长,现在部门申请需要守候几天甚至几周才气获批。同时,微软向英伟达预订的数万枚GPU芯片,交货无期。

02 GPU价钱攀升

云云伟大的需求,推动着本就昂贵的GPU价钱再度上涨。

停止5月5日,英伟达最新公布的旗舰AI芯片H100在ebay上的售价到达4万美元一枚。记者搜索eBay时发现,现在共有6家店肆挂牌销售H100芯片,其售价普遍到达4.5万美元左右。相较于之前零售商报价的3.6万美元,提价显著。

海内方面,AI应用的主力芯片——由英伟达2020年公布的A100,价钱也在飞速飙升。从年头到现在的5个月内,A100的价钱从原来的6万元一起飙升到10万元,涨幅跨越50%。业内人士展望由于美国的禁令,海内相关芯片的价钱将延续上涨。

去年年底,英伟达推出A100“阉割版”(带宽被限制)——A800显卡,价钱也在同步上涨。记者领会到现在A800在京东官网的订价为89999元。但现实上A800现在处于“有价无市”的情形,供应主要,真实成交价钱高于平台报价。

即便按89999元一颗A800芯片的价钱盘算,1万颗的成本就是约人民币9亿元。A800现在在浪潮、新华三等海内服务器厂商手中是稀缺品,一次只能采购数百片。有业内人士叹息:“一天一个价,一天比一天贵。”

年轻人开始流行给自己买花

《芯片战争》的作者Chris Miller在接受采访时也做出展望:“对于用于AI的特定类型的芯片,现实上已经泛起了繁荣和一些已经变得显著的欠缺。而且似乎对这些类型芯片的需求只会增进。”

03 代工产能堪忧

英伟达已经供不上货了。

作为最强GPU,英伟达自然选择了拥有全球*进制程的台积电举行*代工。详细来看,英伟达的A100、A800接纳的是台积电7nm工艺、H100则是由台积电5nm定制版(4N)打造。

今年3月,台积电收到了英伟达增添的代工订单,其产物就是A100、H100,而且也包罗为海内市场设计的A800系列GPU的代工订单。

在5nm-7nm制程这块,原本今年台积电的产能行使率并不算高点。5nm方面,去年四序度台积电就面临多家客户消减订单;7nm方面,台积电也展望在今年上半年不再处于已往3年的高点。

现真相形却出乎意料,Chat GPT的火热带来的不仅仅是对于英伟达订单的需求,同样也助力了AMD等企业。业内人士示意,AMD也获得了不少客户的急单需求,而且已经向台积电加大了订单量,其产物制程同样笼罩5nm和7nm家族。

台积电先进制程的份额中,各家占比差异。凭证日本周详加工研究所所长汤之上隆的展望,2022年的排名依次为:苹果(25.4%)、AMD(9.2%)、联发科(8.2%)、Broadcom(8.1%)、高通(7.6%)、英特尔(7.2%)、英伟达(5.8%)。可以看到,英伟达仅在第七。而且占有台积电25.4%营收的苹果,更是垄断了台积电80-90%的尖端制程。

随着去年年底,特斯拉大量订购了台积电的4nm/5nm制程订单,想将其用于全自动驾驶汽车。伟大的订单量,使得特斯拉一跃拉成为台积电的第七大客户,英伟达顺次排到了第八。

在前七大客户的订单打击下,英伟达的订单难免也将受到挤压。

而且,远水救不了近火,芯片代工原本就需要较长时间。去年8月,受到美国禁令的影响,英伟达直接对台积电下了“超级急件(super hot runs)”订单。这批“超级急件”总量约5000片,交期将大幅缩短,从原本预估的5至6个月,压缩为2至3个月,最快10月尾至11月初最先交货。

由此来看,纵然英伟达现在下单台积电,正常情形下GPU的量产仍需要一段时间。

04 吊死在英伟达一棵树上?

业内有人甚至以2021年席卷全球的缺芯潮,来类比眼下的GPU欠缺:成千上万的AI初创公司、甚至是大型云服务商,将如昔时因缺少要害芯片而停产的车企,或因缺少GPU面临相似逆境。

不外,也并非所有客户都“吊死在英伟达一棵树上”,许多人将目的光投向了英伟达的竞争对手,好比AMD的GPU、Cerebras的WSE,Cerebras示意自家WSE-2是”地球上最快的”AI处置器”。

今年1月,AMD预告了重磅产物AMD Instinct MI300,MI300被称为“天下上*款在数据中央集成的CPU GPU”,MI300加速器专为*的高性能盘算(HPC)和AI性能而设计,借助3D封装手艺将CPU和加速盘算单元集成在一起,总共有1460亿个晶体管,预计在今年问世。苏姿丰示意,该芯片可以将推理建模历程的时间从几个月缩短至几周。

据领会,约莫在5年前,微软就最先研发一种芯片,内部代号「雅典娜」(Athena),300人配合研发,专为训练大型语言模子(LLM)而设计。若是顺遂,微软将通过Athena将每颗芯片成本降低三分之一,从而为Chat GPT生长提供主要动力。

与此同时,英特尔也率先掀起了GPU价钱战。J.Gold Associates剖析师Jack Gold示意,英特尔的GPU订价“相当激进,尤其是一些低端产物”;一些超大规模的厂商很有可能会向自家客户提供英特尔的高端GPU。

值得注重的是,面临众多大模子的算力需求,黄仁勋在2023年3月宣布英伟达将开展一项新的云租赁服务——向B端租赁用于开发Chat GPT等人工智能手艺的超级盘算机。

不外,此举看似开源,实则价钱不菲——租赁这种包罗8个A100或H100旗舰芯片的价钱为3.7万美元/月,约合人民币25.4万元。

云云来看,AI依旧是富人的游戏。