您的位置:主页 > 公司动态 > 每日行情 > 每日行情

英伟达曝 AI 专用「核弹」:GPT速率提高 30 倍_外

3 月 21 日晚上 11 点,英伟达 CEO 黄仁勋的演讲,为 GTC 2023 拉开序幕。

ChatGPT 和 GPT-4 掀起这股天生式 AI 热潮后,为 AI 提供心脏的英伟杀青了背后的大赢家,也让今年的 GTC 注定成为有史以来最受关注的一届。

黄仁勋没有让关注者失望。

「AI 的 iPhone 时刻已经到来。」70 分钟的演讲里,老黄重复了四五遍。

每次讲这句话前,他都市分享一项关于天生式 AI 的新希望——对创作、医疗、工业等领域的革命,让通俗人用浏览器就能训练大模子的云服务,以及让大模子处置成本下降 10 倍的超级芯片……

「AI 的生长会跨越任何人的想象。」这句话是对这场演讲*的注脚。

01、让大语言模子的处置成本下降一个数目级

2012 年,Alex Kerchevsky、Ilya Suskever 和他们的导师 Geoff Hinton 在两块 GeForce GTX 580 上,使用 1400 万张图像训练了 AlexNet——这被以为是这一轮 AI 革命的劈头,由于它首次证实了 GPU 可以用于训练人工智能。

4 年后,黄仁勋亲手向 OpenAI 交付了*台 NVIDIA DGX 超级盘算机。今后数年,OpenAI 在大型语言模子上的突破让 AIGC 最先进入人们的视野,并在去年年底推出 ChatGPT 后彻底破圈。几个月内这个对话式 AI 产物吸引了跨越 1 亿用户,成为历史上增进最快的 App。

NVIDIA DGX 最初被用作 AI 的研究装备,现在已经被企业普遍用于优化数据和处置 AI。凭证黄仁勋,财富 100 强公司中有一半安装了 DGX。

在这之中,部署像 ChatGPT 这样的 LLM 正在成为 DGX 越来越主要的一项事情。对此,黄仁勋宣布了一种新的 GPU——带有双图形处置器 NVLink 的 H100 NVL。

基于英伟达的 Hopper 架构,H100 接纳 Transformer 引擎,被设计用于专门处置类似 GPT 这样的模子。与用于 GPT-3 处置的 HGX A100 相比,一个搭载四对 H100 和 NVLINK 的尺度服务器的处置速率快 10 倍。凭证官网数据,H100 的综合手艺创新。可以将大型语言模子的速率提高 30 倍。

「H100 可以将大型语言模子处置成本降低一个数目级,」黄仁勋说到。

此外,在已往的十年里,云盘算每年增进 20%,成为一个 1 万亿美元的行业。为了 AI 和 云盘算,英伟达设计了 Grace CPU,在新的架构下,GPU 卖力处置 AI 的事情负载,Grace CPU 卖力采样,二者之间通过一个 900 GB/s 的高速传输装备毗邻在一起。

「Grace-Hopper 是处置大规模数据集的*选择。」黄仁勋称,「我们的客户希望确立训练数据大几个数目级的 AI 大模子,Grace-Hopper 是理想的引擎。」

某种意义上来说,盘算成本已经成为今天阻碍天生式 AI 生长的焦点问题,OpenAI 为此烧掉了数十亿甚至上百亿美元,微软也出于成本思量始终没有向更大局限的民众开放新 Bing,甚至限制用户天天的对话次数。

英伟达此时推出更高效的算力方案,无疑是给行业解决了一个浩劫题。

02、DGX Cloud:让任何企业

都能构建 AI 能力

今年 GTC 上另一个涉及天生式 AI 的重点,就是 DGX Cloud。

现实上,这并不是英伟达*次宣布 DGX Cloud。此前英伟达四序报公布时,黄仁勋就向外界透露英伟达将与云服务厂商睁开相助,让客户可以使用网页浏览器,就能通过 NVIDIA DGX Cloud 来使用 DGX 盘算机,从而训练和部署大型语言模子或完成其他 AI 事情负载。

英伟达已经与甲骨文睁开相助,预计下个季度微软 Azure 也会最先托管 DGX 云,而谷歌云也将在不久之后加入这一行列,以托管的方式向那些有意愿构建新产物和生长 AI 战略的企业提供 DGX 云服务。

黄仁勋称,这种相助关系将英伟达的生态系统带到了云服务商手中,同时扩大了英伟达的市场规模和笼罩面。企业将能够每月租用 DGX 云集群,确保他们能够快速轻松地扩展大型多节点 AI 训练。

03、ChatGPT 只是最先

「加速盘算是曲速引擎,AI 就是它的能源。」黄仁勋说道,「天生式 AI 日新月异的能力,给我们重新构想其产物和商业模式带来了紧迫感。」

ChatGPT 和 GPT-4 为代表的大语言模子在已往几个月火遍全球,但对英伟达来说,ChatGPT 和大模子并不是 AI 的所有。会上,黄仁勋还分享了更多英伟达在 AI 领域的探索和他本人的考察。

首先是最火的天生式 AI。

只需要一张手绘的草图,就能天生 3D 建模的户型。

撰写代码也不在话下。

尚有创作音乐。

为了加速那些追求行使天生 AI 的人的事情,英伟达宣布确立 NVIDIA AI Foundations,这是一个云服务和代工厂,面向需要构建、改善和定制 LLM 和天生式 AI 的用户,这些客户使用其专有数据训练特定领域的 AI。

AI Foundations 的服务包罗 NVIDIA NeMo,用于构建文本-文本的天生模子;毕加索,一种视觉语言模子制作服务,面向希望构建基于经授权内容训练模子的用户;以及 BioNeMo,辅助生物医药研究职员。

作为生产力工具,AI 也在施展伟大的价值,黄仁勋在演讲中先容了几个异常有意思的案例。

*个是与美国电信巨头 AT&T。AT&T 需要定期派遣 3 万名手艺职员,为 700 个区域的 1300 万名客户提供服务。这个重大的数据,调剂是一个痛点,若是在 CPU 上运行,调剂优化需要一整夜的时间才气完成。


借助英伟达的 CuOpt,AT&T 可以将调剂方案的优化时间加速 100 倍,并可实时更新其调剂方案。

某种意义上,在英伟达的辅助下,AT&T 做到了美团、滴滴这些需要实时匹配的互联网公司用很多多少年积累才做到的事情。

另一个案例是与芯片公司的相助。大多数人都知道了光刻机这个半导体产业的要害装备。但鲜为人知的是,随着制程手艺的生长,芯片设计对算力的需求也是半导体行业的一大痛点。

今天盘算光刻是芯片设计和制造领域*的盘算事情负载,每年需要消耗数百亿 CPU 小时,而且随着算法越来越庞大,盘算光刻的成本也在提高。

对此,英伟达宣布推出 cuLitho——一个盘算光刻库。并与 ASML、台积电等巨头睁开相助,从而大幅降低芯片设计历程中的算力消耗,节能减排。

事实上,削减能源消耗,提高盘算效率,是黄仁勋眼中 AI 手艺将为人类社会带来的另一大价值。而在摩尔定律失效的当下,加速盘算和 AI 的到来恰逢其时。

「各行业正都在面临可延续生长、天生式 AI 和数字化的挑战。工业公司正在竞相数字化,并重塑为软件驱动的科技公司——成为推翻者,而不是被推翻者,」加速盘算让这些公司可以应对这些挑战,黄仁勋说道。「加速盘算是削减电力消耗、实现可延续性生长和碳中和的*方式。」

最后,类似于一个彩蛋,从老黄此次演讲的显示不难展望,视频中泛起的老黄,应该全程是一个虚拟形象。如无意外,很有可能也是「天生式 AI」的产物——在显示 AI 提高的同时,也算是黄仁勋为自己家「核弹算力」再次「现身说法」。