英伟达是今天生成式AI浪潮里最大的赢家,而黄仁勋要告诉世界,这一切跟运气无关,是英伟达预见并用实力创造了今天的一切。
6月2日晚,英伟达创始人和CEO黄仁勋在COMPUTEX开幕前发表了最新的主题演讲,距离上一场在GTC上的重磅发布会仅仅三个月后,这场发布会依然干货满满,甚至惊喜不断。
除了更系统全面的梳理和展示了英伟达在加速计算和生成式AI上的最新成果,黄仁勋还剧透了下一代GPU架构——
是的,“史上最强”的Blackwell刚刚公布三个月,而且还没有开始量产发货,下一代就在路上了。
黄仁勋表示,2025年英伟达会推出Blackwell Ultra,而2026年下一代架构名字为Rubin,2027年继续推出Rubin Ultra。
一年一款大更新,这节奏,已经赶上手机厂商的发布节奏。
而且,这些大更新会继续把推理成本指数级的打下来。这个路线图的剧透,就像是黄式定律在秀肌肉。
一切尽在掌握。你们尽管买英伟达的卡就行了。
而在演讲中,黄仁勋梳理英伟达从GPU,到CUDA,到最新的NIM,再到机器人和数字孪生平台的一系列产品线的历史时,明显的改变了讲述风格。
黄仁勋形容英伟达早就看到了CPU的瓶颈,因而走了GPU和加速计算的路——过往提到英伟达GPU产品线的诞生他还总是会谦虚,而业内也总是把GPU形容为碰巧适合人工智能计算需求的芯片。但今天黄仁勋给出的因果关系变了。
“CUDA是英伟达和人工智能的第一次亲密接触。而那之后我们深入理解深度学习的本质,有意识的重新发明了一切。改变了GPU架构,增加Tensor核,发明NV link,推出cuDNN,TensorRT,Nickel,收购Mellanox推出Triton等等。”这是英伟达的新叙事。
而其中,CUDA被黄仁勋大夸特夸。“如果没有我们精心打造的打造的各类特定领域的库,全球深度学习科学家们就无法充分利用潜力。CUDA就像OpenGL之于计算机图形学,SQL之于数据分析。”他说。
“一个新的开发平台和拥有大量的开发者,这是个鸡生蛋的问题。它很少被打破。而我们把它打破了。我们花了20年的时间,一个个的域库,一个个加速库的做,现在我们拥有500万开发人员。”黄仁勋不再需要谦虚。“CUDA已经到了一个临界点,开始实现良性循环。”
黄仁勋在演讲里,干脆不藏着掖着了,他把英伟达定义为今天世界上生成式AI浪潮的来源。
“人工智能崛起之所以有可能,完全因为我们相信只要让强大的计算变得越来越便宜,总会有人找到巨大的用途。”他说。“正因为我们利用特定算法将计算边际成本降低了100万级别,今天使用互联网上的所有数据来训练大模型才成为了所有人默认合乎逻辑的选择,不再有人怀疑和质疑这个做法。”
而在英伟达这么做之前,“没有人预料到,没有人提出这样的需求。甚至没有人理解全部潜力。”
在这场演讲里,黄仁勋也不时说几句中文。他给token提供了一个翻译:词元。
“今天我们可以为任何有价值的事物生成它的token。就像特斯拉发明交流电机给我们不断产生电子,英伟达发明的是人工智能生成器,在不断产生token。”
一切都与token有关,而英伟达制造和掌握了这一切。
以下为这场发布会的核心要点和全文实录。
核心要点整理:
-
新的架构路线图:2025年是Blackwell Ultra,2026年会有新架构Rubin,2027年则是Rubin Ultra。
-
我们现在所处的不是AI时代,而是一个生成式AI时代。
-
几乎世界万物都可以转换成Token(词元)。
-
价值3万亿美元的IT产业将成为 AI 工厂,为每个行业制作 AI 产品。
-
我们需要基于物理并理解物理定律的AI。
-
每个装有 RTX 显卡的 PC,都是 AIPC。
-
CUDA不仅达到了重要的成熟阶段,还进入了一个自我强化的良性循环,不断提升其性能和应用价值。
-
随着CPU性能增长放缓,利用CUDA等技术加速计算任务是应对计算需求指数级增长的关键策略,未来所有处理密集型应用和数据中心都将采用这一策略以保持效率和成本效益。
-
这 60 年来,我们只见证了两三次主要的技术变革,如今生成式 AI 使我们得以再次见证一次技术变革。
以下为全文实录:
大家好!很高兴再次来到这里。今晚我将在此举办一场“Don't Walk”演讲。因为我们要谈论的事情很多,时间紧迫,所以不能慢慢走,得用跑的。
今晚我将谈论以下几个方面:
当前的行业动态、我们正在共同努力的方向是什么?
什么是生成式AI、它对我们及各行各业的影响?
以及我们将如何把握这个难得的机遇。接下来会发生什么?
生成式AI及其影响、我们的蓝图以及未来的展望。这些都是令人无比兴奋的时刻。
1
重新梳理英伟达的历史:没有英伟达就没有今天AI的一切
英伟达目前正处于计算机图形模拟的交叉点上,这是我们的灵魂所在。 我今天展示的一切都是模拟,是数学,是科学,是计算机科学,是令人惊叹的计算机体系结构。 所有内容都不是动画制作的。 这是英伟达的灵魂,我们把所有东西都放在了这个我们称之为“Omniverse”的虚拟世界中。
你所看到的一切都基于两项基本技术:加速计算和人工智能。这两种技术将重塑计算机行业。计算机行业从诞生至今已有60年的历史。从很多方面来看,我们今天所做的一切都源于1964年,IBM System 360在那一年发明,引入了中央处理单元、通用计算,并通过操作系统实现了软硬件分离。
多任务处理、I/O、子系统、DMA,我们今天使用的各种技术、架构兼容性、向后兼容性以及我们今天所知道的关于计算的一切,主要是在1964年后诞生的。当然,PC革命使计算民主化,并将其掌握在每个人手中。2007年,iPhone推出了移动计算功能,并将电脑放进了我们的口袋。从那时起,一切都通过移动云始终连接和运行。
在过去的60年里,我们看到两三个主要的技术转变,两三个计算领域的结构性转变,一切都发生了变化。而这种情况即将再次发生。
第一个问题是处理器,计算机行业在中央处理单元上运行的引擎,其性能扩展已经大大放缓。
然而,我们需要的计算量仍然以指数级的速度翻倍。如果我们需要处理的数据继续呈指数级增长,但性能却没有,我们将经历计算膨胀。事实上,就在我们说话的时候,世界各地的数据中心电力数量正在大幅增长,计算机的成本也在不断增长。我们看到了计算通货膨胀。
当然,这种情况无法继续,数据将继续呈指数级增长,而CPU性能扩展永远不会恢复。近二十年来,我们一直致力于加速计算,利用CUDA增强CPU,卸载和加速专用处理器可以做得更好的工作。现在很明显,随着CPU扩展速度的减缓并最终大幅停止,我们应该加速一切。
我预测,每个处理密集型的应用程序都将加速,并且每个数据中心都将在不久的将来加速。现在,加速计算是非常明智的一件事。如果你看一下应用程序,这里的100t意味着100个时间单位,它可能是100秒,也可能是100个小时。我们现在正在开发可以运行100天的人工智能应用程序。1t是需要顺序处理的代码,其中单线程CPU非常重要。
操作系统控制逻辑对于一条指令接着另一条指令执行非常重要。然而,计算机图形是一种可以完全并行操作的图形。计算机图形学、图像处理、物理模拟、组合优化、图形处理、数据库处理,当然还有非常著名的深度学习线性代数,有许多类型的算法非常有助于通过并行处理加速。
因此,我们发明了一种架构来实现这一点,通过向CPU添加GPU,让专用处理器花费大量时间并将其加速到令人难以置信的速度。因为这两个处理器可以并排工作,所以它们都是自主的,并且都是独立的。也就是说,我们可以将过去需要100个单位时间的东西加速到一个单位时间。
嗯,速度提升听起来难以置信,但今天我将为您展示许多例子。好处是非常非凡的,它速度提升100倍,但功率只增加了大约3倍,而你只增加了约50%的成本。我们在个人电脑行业一直在这样做,我们增加了一个GPU,一个500美元的GeForce GPU,到1000美元的电脑,性能大大提高。我们在一个十亿美元的数据中心里这样做,我们增加了价值5亿美元的GPU,突然间它变成了一个AI工厂。
这在当今世界各地都在发生。嗯,节省的成本是非常非凡的,您每美元可以获得60倍的性能,100倍的速度,加速,您只需要将功率增加3倍,100倍的速度,您只需要将成本增加1.5倍。节省的成本令人难以置信。很明显,许多公司花费数亿美元在云端处理数据。如果它被加速,你可以节省数亿美元,这并不出乎意料。
现在为什么呢?原因很清楚。
我们在通用计算领域已经经历了很长时间的通货膨胀。现在我们终于决心加速,这可以帮我们挽回巨大的损失。大量捕获的废数据现在可以将其从系统中释放出来,这将转化为储蓄,储蓄和金钱,储蓄和能源。这就是为什么你听我说你买的越多,你说的就越多。你买的越多,就越安全。加速计算确实提供了非凡的结果,但这并不容易。
没有所谓的软件可以通过交流编译器运行,然后突然之间该应用程序的运行速度提高了100倍。这甚至不符合逻辑。如果可以做到这一点,他们只需要更改CPU。要做到这一点,实际上你必须重写软件,以便您可以重构在CPU上编写的算法,以便它可以被加速、卸载、加速和并行运行。计算机科学练习非常难,在过去的20年里,我们已经让它变得容易了。
当然,非常著名的cuDNN,即处理神经网络的深度学习库,我们有一个人工智能物理学库,您可以将其用于流体动力学和许多其他应用,其中神经网络必须遵守物理定律。
我们有一个很棒的新项目,叫做Aerial,它是一个CUDA加速的5G无线电,这样我们就可以用软件定义和加速电信网络,就像我们解决软件定义世界网络互联网一样。因此,我们加速的能力使我们能够将所有电信变成基本上相同类型的平台、计算平台事业部,就像我们在云端一样。
cuLitho是一个计算光刻平台,使我们能够处理芯片制造中计算密集型的部分,使得台积电(TSMC)掩模使用cuLitho进行生产,节省了大量的能源和资金。但是台积电的目标是加速他们的堆栈,以便他们为算法的进一步进步和更深入的网络和窄晶体管的更多计算做好准备。
这是我们的基因测序库。它是世界上最高通量的基因测序库。cuOpt 是一个令人难以置信的库,用于组合优化、路线规划优化等问题。科学家们已经得出结论,你需要一台量子计算机来做这件事,我们创建了一个运行在加速计算上的算法,它运行得像闪电一样快,创造了23项世界纪录。我们今天保持着每一项主要的世界纪录。
cuQuantum是量子计算机的仿真系统。如果你想设计一台量子计算机,你需要一个模拟器来完成。如果你想设计量子算法,你需要一个量子模拟器来实现。如果量子计算机不存在,你将如何设计这些量子计算机,创建这些量子算法?你可以使用当今世界上最快的计算机,我们称之为NVIDIA CUDA,并且在其上我们有一个模拟量子计算机的模拟器,它被世界各地的数十万研究人员使用。它被集成到所有领先的量子计算框架中,并在世界各地的科学超级计算中心中使用,是一个令人难以置信的数据处理库。
数据处理消耗了绝大多数的云指出,而仅靠CUDA是不可能的,世界各地的深度学习科学家都无法使用,CUDA、TensorFlow和PyTorch中使用的算法、深度学习算法分离得太远了。
这几乎就像尝试在没有OpenGL的情况下进行计算机图形处理一样,就像在没有SQL的情况下进行数据处理一样。这些特定领域的库真的是我们公司的财富。我们有350个库,正是它们使我们能够拥有如此开放的市场的原因。
今天我会给你看一些其他的例子。就在上周,谷歌宣布他们已经将cuDF放入云端并加速Pandas。Pandas是世界上最受欢迎的数据科学库。在座的许多人可能已经在使用Pandas了。它被全球1000万数据科学家使用,每月被下载1.7亿次。Excel是数据科学家的电子表格。只需单击一下,您现在就可以在Colab中使用Pandas,这是谷歌的云数据中心平台,由cuDF加速。速度真的令人难以置信。那是个很棒的演示,对吧?
当您加快数据处理速度时,演示不需要很长时间。CUDA现在已经达到了人们所说的临界点,但它甚至比这更好,CUDA现在已经达到了一个良性循环。如果你回顾历史和所有的计算架构、计算平台,这种情况很少发生。
在微处理器CPU的情况下,它已经存在了60年。在这个水平上60年没有改变。
加速计算已经出现,创建一个新的平台非常困难,因为这是一个先有鸡还是先有蛋的问题。如果没有开发人员使用您的平台,那么当然就没有用户,但是如果没有用户,就没有安装基础。如果没有基于安装的开发人员对它不感兴趣。开发人员希望为大型安装基础编写软件,但大型安装基础需要大量应用程序,以便用户可以创建该安装基础。
这个鸡或蛋的问题很少被打破,现在已经花了我们20年的时间。一个个的域库,一个个加速库,现在我们在全球拥有500万开发人员。我们服务于每一个行业,包括医疗保健、金融服务、计算机行业、汽车行业,以及世界上几乎每一个主要行业,几乎每一个科学领域。因为我们的建筑有很多客户。OEM和云服务提供商对构建我们的系统感兴趣。
系统制造商对构建我们的系统感兴趣,然后将更多的系统推向市场,这当然为我们创造了更大的机会,这使我们能够增加我们的研发规模,从而进一步加快应用程序的速度。嗯,每一次我们加速应用程序,计算成本就会下降。
就像我在幻灯片里演示的一样,100倍加速比转化为97%、96%、98%,因此当我们从100倍速度提高到200倍速度提高到1000倍速度时,计算的边际成本节省将继续下降。
当然,我们相信通过令人难以置信地降低计算成本,市场开发者、科学家、发明家将继续发现新的算法,这些算法消耗越来越多的计算资源,这样总有一天会发生面部表情的变化。计算的边际成本如此之低,以至于出现了一种新的使用计算机的方式。
事实上,这就是我们多年来所看到的,在过去10年中,我们已经将一个特定算法的边际计算成本降低了一百万倍。因此,现在使用互联网上的所有数据来训练大型语言模型是其实是非常合乎逻辑的一件事。没有人会三思而后行,认为你可以创建一台能够处理如此多数据的计算机来编写自己的软件。
人工智能的出现之所以成为可能,是因为我们完全相信,如果我们让计算变得越来越便宜,就会有人发现它有很大的用处。
好的,今天,CUDA已经实现了良性循环,安装基础正在增长,计算成本正在下降,这使得更多的开发人员提出更多的想法,从而推动更多的需求。
现在我们正处于一件非常重要的事情的开始。但在我公布之前,我想先说下什么是不可能的,如果不是因为我们创造了现代版本的通用AI,生成AI。那我们的新产品将不可能实现。
这个是地球2号,我们将创建地球的数字孪生体,我们将前往模拟地球,以便我们可以预测地球的未来,帮助我们更好地避免灾难或更好地了解气候变化的影响,让我们可以更好地适应新环境,改变生活习惯。
这个地球的数字孪生体,可能是世界上有史以来最雄心勃勃的项目之一。我们每年都在向前迈出一大步。今年,我们取得了一些重大突破,举例来说。
周一,风暴将再次向北并接近。它的路径存在很大的不确定性,不同的路径将对顶部产生不同程度的影响。想象一个我们能够预测未来的世界——数字孪生,一个反映真实情况的虚拟世界,让我们看见未来。数字孪生是一种反映真实世界的虚拟模型,让我们能够从今天的行为来预测对未来世界的影响。
介绍一下NVIDIA Earth-2,一个利用AI物理模拟和电脑图形技术来预测全球气候的数字孪生。FourCastNet是NVIDIA的生成式AI模型,它在WRF数值模拟的基础上训练而成,能够以12倍更高的分辨率生成天气模式,从25公里提高到2公里,这代表了区域天气预测的一个巨大飞跃。
令人惊讶的是,FourCastNet比传统的物理模拟方法快1000倍,且能源效率高3000倍。在气象局,我们使用这些模型来更精确地预测台风登陆点。
但我们并不止步于此。
下一个前沿是超本地预测,能精确到数十米,并考虑到城市基础设施的影响。FourCastNet AI还在使用像是PALM生成的高分辨率数据进行训练。一个极高分辨率的物理模型用于模拟大气和海洋边界层。当与天气模拟风场结合一起时,它可以模拟建筑物周围的气流。当强风汇聚的情况,我们预计能够预测下冲这样的现象。当强风汇聚到街道上,有可能造成损坏并影响行人。
NVIDIA Earth-2是一个绝佳范例,它融合了人工智能、物理模拟和观测数据,可以帮助国家和公司预见未来并应对极端天气的影响。
不久的将来,我们可以随时随地提出我们的气象预报。我们可以随时掌握当地的气候变化。而且它是连续性的预测,为什么呢?因为我们已经把这个AI都训练好了,而且它不需要消耗太多的电力。
希望大家喜欢刚才我们的这个例子,我的国语讲得标准吗?但这不是我说的,这个是Jason AI说的,我给他写了这个台词,由Jason AI也就是我的数字孪生体帮我做旁白的,所以我的国语不够好,但我有孪生帮我做的旁白,这真的是一个奇迹。
之前在2012年,我们正致力于推进CUDA,致力于不断提高驱动器的性能并降低成本,此时研究人员发现了AI,这是英伟达与AI的第一次接触。
这是一个非常重要的时间。我们与优秀科学家合作,使深度学习发生成为可能。当然,AlexNet实现了计算机视觉方面的巨大突破。但我们还需要了解背景是什么,深度学习的基础是什么,它的长期影响是什么,它的潜力是什么?
我们意识到这项技术具有巨大的潜力,可以扩展几十年前发明并发现的算法。突然之间,我们需要更多的数据,更大的网络,非常重要的是,更多的计算。突然间,深度学习能够实现人类算法现在无法想象的目标。如果我们进一步扩展架构,使用更大的网络,更多的数据和更多的计算,会发生什么呢?所以我们致力于重新发明一切。
在2012年之后,我们改变了GPU的架构以添加Tensor Core,我们发明了10年前的NVLink,现在可以使用TensorRT。我们购买了Mellanox,TensorRT,以尝试推理服务器,所有这些都整合在一台全新的计算机上。
没有人理解,事实上,我确信没有人想买它,所以我们在GTC上和OpenAI介绍它,它当时还是旧金山的一家小公司,他们要求我给他们送一个。我在2016年向OpenAI交付了第一台DGX,世界上第一台AI超级计算机。
好的,在那之后,我们继续从1台AI超级计算机、1台AI设备扩展到大型超级计算机,到2017年甚至有了Transformer,这样我们就可以训练大量数据并识别和学习在很长一段时间内顺序排列的模式。现在我们可以训练这些大型语言模型来理解并实现自然语言理解突破,之后我们继续努力,建造了更大的模型。
然后在2020年10月22日,在一台非常大的AI超级计算机上训练了数千、数万个NVIDIA GPU。OpenAI五天后宣布ChatGPT达到100万用户,五天后增加100万用户,两个月后增加1亿用户,这是历史上增长最快的应用程序。
这背后的原因非常简单,它非常易于使用,使用起来非常神奇,能够像人类一样与计算机交互,而且清楚地知道你想要什么,就像计算机理解你的意思。
1
未来一切都与Token有关,而一切Token都由英伟达来生成
ChatGPT还没有跟大家见面之前,所谓的人工智能都是需要如何理解自然语言、电脑视觉、语音的识别。 换句话说是感知的能力,侦测的能力。
这是我们第一次看到有生成式的人工智能系统出现,它可以产生我们所谓的词元(token),一次产生一个词元,而这些词元就变成是我们的文字。当然有些词元它可能是影像,它可能是线图,可能是表格、歌曲、演讲、视讯、影片,有可能是任何形式,只要是有意义的,都算是,甚至包括蛋白质、化学分子等等。
你之前在NVIDIA Earth-2中看到的,我们正在生成天气的词元。我们可以理解,我们可以学习物理。如果你能学习物理,你可以教一个AI模型物理知识。AI模型可以学习物理学的含义,并且可以生成物理学。我们用的不是过滤的方法,我们用的是深层次的人工智能,让我们的分辨率,气候预报的分辨率不断的提高。所以几乎所有的事情都可以把它转换成Token,Token是非常有价值的。
我们现在所处的不是AI时代,而是一个生成式AI时代。那它的重要性在哪里呢?原本我们说这是一部超级电脑,可是它现在不断的进化,它已经变成了资料中心。而且它生产的东西是什么?就是资源。这就是一个人工智能工厂。他们产生的是新形态的大宗商品,每个产业都用得到,具有无比的价值。而他更好的是,他这种方法是可以复制的,是可以扩展的。因此你们有没有注意到,现在我们每一天都有一些新的生成式的AI模型被打造出来。
价值3万亿美元的IT产业,即将创造一些可以直接服务于价值100万亿美元的产业的东西,不再仅仅是信息存储或数据处理的工具。而是一个为每个行业生成智能的工厂。AI 将带来一个全新的制造业,不是计算机制造业,而是在制造业中使用计算机。
这是一场工业革命,而不仅仅是对我们行业的影响。我们可以为许多行业创造一种新的商品,一种我们称之为“词元”(token)的新产品。
正如我之前所说,60年来,不同的运算方式都在改变。从CPU到通用目的的运算,到加速的GPU运算。以前电脑需要指令命令,现在它可以去处理大型语言模型、AI模型。
现在计算机处理大型语言模型、AI模型,而过去的计算模型是基于检索的,几乎每次你触摸手机时,一些预先录制的文本、预先录制的图像或预先录制的视频会为您检索,并根据推荐系统重新合成,以根据您的习惯呈现给您。
但在未来,你的计算机将尽可能多地生成,只检索必要的内容。其原因是生成的数据需要较少的能量来获取信息。生成的数据也更具上下文相关性。它将对知识进行编码,它将编码你对你的理解,而不是为我获取这些信息或为我获取那个文件。
在未来,你只需要问电脑,它就能提供你需要的档案和信息。未来的电脑不再只是我们所使用的工具了。未来电脑它甚至能够生成新的技能,它会帮你做一些工作。所以未来这个产业它不再只是去设计软件,设计应用程序。
当你使用ChatGPT时,在它们的堆栈下面是一堆软件,在提示符下面是软件,这是非常复杂的,因为模型有数十亿到万亿个参数。它不是只在一台计算机上运行,而是在多台计算机上运行。它必须将工作负载分布在多个GPU上,张量并行,管道并行数据,各种并行,专家并行,各种并行,将工作负载分布在多个GPU上,尽可能快地处理它。
当然,这在90年代是非常了不起的。大家别忘记当时微软他们有这个套装软件,可以说是改变了整个电脑的产业。
因为如果没有这些套装软件的话,我们干嘛要电脑呢?我们电脑能拿来做什么呢?
所以这些套装软件当然推动了整个产业。但是现在我们有新的工厂,新的电脑,我们现在也会有新的软件,我们就把它叫做NIM,NVIDIA的推理即服务。这个NIM它是在工厂里头运行的,而这个NIM它是一个预先训练的模型,它是一个AI。这个AI当然本身是非常的复杂,但是去运行这个AI的运算堆叠,它非常的复杂。
你去使用ChatGPT, 它底下有非常非常多软件。你下一个指令,你下一个提示,背后其实有非常多的软件正在跑。所以它不只是在一个参数上面跑,是数以万计、数以亿计的这个运算参数在跑。它需要做Tensor的各式各样的并行、不同的平行等等平行运算。所以它有各式各样的平行在走,它在不同的GPU上分配它的这个作业负载,它的速度也非常的快。
如果我们今天要经营工厂的话,你的这个产量是多少?跟你的服务品质,跟你的营收,跟有多少人可以使用你的服务有非常正向的关系。
我们现在的这个资料中心,它的传输量非常的大,所以传输量的使用率就很重要了。以前也很重要,只是没那么重要。以前很重要,但是大家不会去测量它。现在每一个参数都必须要测量起始时间、使用时间、利用率、idle的时间等等。因为现在它就变成是一座工厂了。它一旦它变成工厂,它的一切的运行就会跟这家公司它的财务表现有很密切的关系。我们知道对于大部分的公司来说,这都是非常复杂的事情。
1
你在AI时代需要的,英伟达全都有
所以我们就去把这个AI装进了一个盒子里头,这些容器,这些container里头有非常多很棒的软件。
在这个容器里头有CUDA、cuDNN、TensorRT Triton,它是推理即服务,它是在云端上的一个堆叠。
除此之外它也有各式各样的管理的服务,还有hooks可以去让大家监督自己的AI,它有通用的API、标准的API,所以基本上你就可以跟这个盒子来对话,你把这个推理即服务下载,你可以跟他对话。所以你在只要你的电脑上有CUDA,基本上现在基本上每一组每每一朵云上面都有,有数亿台电脑上面都有。大家把它下载之后,你就有AI你可以跟他对话,就像你跟ChatGPT对话一样。所有的软件现在都整合在一起了,四百多个dependency都把它整合在一起。
我们测试了这些NIM,每一个都是预先训练的,是他们都是可以安装的。在各种云上面,不管是Pascal或者是Ampere,各种不同的版本,Hopper也可以各式各样不同的版本。我甚至还会忘记有哪一些。所以NIM这个NVIDIA的推理即服务,真的是很棒的一个发明,我真的非常的喜欢。我想大家也知道,我们现在可以创造各式各样的大型语言模型,还有预先训练的模型。我们有各式各样不同的版本,不管它是语言版本的,或者视觉,或者是图片版本为主的,或者是说针对这个医疗保健产业的、数字生物产业的。
我们还有是所谓的数字人。甚至我们可以请大家去看一下,我们今天才贴了Hugging Face这个Llama 2 NIM,它是完全优化的,大家可以去试试看,甚至可以带着走,那是免费的。所以大家可以在云上面来运行,然后可以下载这个容器放在自己的资料中心里头,你可以放在自己的资料中心提供给你的客户使用。
使用它的方式是将这些微服务连接到大型应用程序中。当然,未来最重要的应用之一是客户服务代理。几乎每个行业都需要客户服务代理。它代表着全球数万亿美元的客户服务。护士在某些方面是客户服务代理,其中一些是非处方或非诊断性质的。
现在可以通过语言模型和AI增强数千万的客户服务,所以你看到的基本上是NIM,其中一些NIM是给定任务的推理代理,找出任务是什么,将其分解成一个计划。一些NIM检索信息,一些NIM可能会去搜索,可能一些NIM会使用我之前提到的cuDF工具,他们可以使用一种可以在SAP上运行的工具,因此它必须学习一种名为ABAP的特定语言。也许一些NIM必须进行SQL查询。
因此,所有这些NIM都是现在组成一个团队的专家。应用层已经发生了变化,曾经用指令编写的应用程序现在变成了组装团队的应用程序,很少有人知道如何编写程序。几乎每个人都知道如何分解问题并组建团队。
我相信未来的每家公司都将拥有大量的NIM团队,你可以带下你想要的专家,将他们连接成一个团队,你甚至不需要弄清楚如何连接他们,你只需将任务交给代理人。给一个名字,以找出谁来分解任务以及将任务交给谁。然后,应用程序的领导者,如果你愿意,团队的领导者会分解任务并将其交给各个团队成员,团队成员将执行他们的任务,并将其带回团队领导者。
团队领导会对此进行推理,并向您反馈信息,就像人类一样。在不久的将来,这就是应用程序的外观。现在我们可以通过文本提示和语音提示与这些大型AI服务进行交互,但是,在许多应用程序中,我们希望与其他类似人类的形式进行交互。我们称它们为数字人类。英伟达研究数字人类技术已经有一段时间了。
数字人类有潜力成为一个伟大的互动代理,与你互动,他们可以让你更有吸引力,更有同理心。当然,我们必须跨越这个令人难以置信的鸿沟,这个不可思议的现实主义鸿沟,这样数字人类就会显得更加自然。这当然是我们的愿景,这是我们喜欢去的地方的愿景,但让我向您展示我们现在的位置。
想象一下,未来的计算机可以像人类一样与我们互动。这就是数字人类令人难以置信的潜力。数字人类将彻底改变从客户服务到广告和游戏的各个行业。
利用手机扫描厨房,AI室内设计师就能生成照片级逼真的设计建议,并采购材料和家具。我们已经为您生成了几种设计方案。数字人类还可以成为AI客户服务代理,提供更具吸引力的互动体验,或化身数字医疗保健工作者,提供及时、个性化的护理。他们甚至可以成为AI品牌大使,引领营销和广告的新潮流。
生成式人工智能和计算机图形学的新突破,让数字人类能够以人类的方式看、听、理解和与我们互动。从我看到的,您似乎正在进行某种录音或制作。数字人类的基础是基于多语言语音识别和合成的人工智能模型,以及能够理解和生成对话的人工智能模型。
AI连接到另一个生成式AI,动态制作逼真的3D面部网格动画。最后,能够重现逼真外观的人工智能模型实现了实时路径追踪和次表面散射,模拟光线穿透皮肤、散射并在不同点离开的方式,使皮肤呈现出柔软和半透明的外观。
NVIDIA Ace是一套数字人类技术,打包成易于部署、完全优化的微服务或“Nim”。开发人员可以将Ace Nim集成到他们现有的框架、引擎和数字人类体验中。NIM Tron SLM和LM Nim可以理解我们的意图并协调其他模型。Riva语音Nim用于交互式语音和翻译;音频到面部和身体动画的面部和手势Nim;以及Omniverse RTX与DLSS用于皮肤和头发的神经渲染。Nim运行在NVIDIA GDM之上,这是一个全球性的NVIDIA加速基础设施网络,为100多个地区提供低延迟的数字人类处理。
我们一直在研发AI GPU,为这一天做好准备。原因很简单,我们一直都知道,要创建一个新的计算平台事业部,首先需要一个已安装的基础。最终,应用程序会随之而来。如果你不创建已安装的基础,应用程序从何而来?因此,如果你建造它,它们可能会来,但如果你不建造它,它们就一定不会来。因此,我们安装了每个带有张量核心处理的RTX GPU。现在,我们在全球拥有1亿个GeForce RTX AIPC。
在这次发布会上,我们展示了4款令人惊叹的新笔记本电脑。它们都能够运行AI。你未来的笔记本电脑,你未来的电脑都将融入AI。它会不断地帮助你,在后台协助你。PC还将运行由AI增强的应用程序。当然,你所有的照片编辑、写作和工具,以及你使用的所有东西都将通过AI得到增强。你的电脑也将托管带有数字人类的应用程序。
AI将以不同的方式在个人电脑上呈现和使用,但个人电脑将成为一个非常重要的AI平台。那么我们从这里走向哪里呢?我之前谈到了我们数据中心的扩展。每一次扩展,当我们从DGX扩展到大型AI超级计算机时,我们发现了一个新的拐点,我们让Transformer能够在非常大的数据集上进行训练。
嗯,一开始发生的事情是,数据是由人类监督的。需要人工标记来训练人工智能系统。不幸的是,人类标签的数量是有限的。Transformers使无监督学习成为可能。现在,Transformers只需查看大量数据或查看大量视频,或查看更大量的图像,它们可以从研究大量数据中学习,找到模式和关系本身。
虽然下一代AI需要基于物理,但今天大多数AI都不理解物理定律。它不是植根于物理世界,无法生成图像、视频、3D图形和许多物理现象。我们需要基于物理并理解物理定律的AI。当然,从视频中学习是一个来源。另一种方式是合成数据、模拟数据,另一种方式是使用计算机相互学习。这与使用AlphaGo没有什么不同,让AlphaGo自己玩自己的游戏,在这两种能力之间,将相同的能力相互玩很长一段时间,它们变得更加聪明。
你开始看到这种类型的AI崛起,如果任何数据都是合成生成并使用强化学习,那么数据生成速度将继续提高是合理的。每一次数据生成的增长,我们所提供的计算量也需要随之增长。我们即将进入一个阶段,在这里,AI可以学习物理和理解定律,并以物理世界的数据为基础,因此我们预计模型将继续增长,我们需要更大的GPU。Blackwell就是为这一代人设计的。
这是Blackwell,拥有几项非常重要的技术。当然,这只是芯片的大小。我们拿了两个最大的芯片,一个是TSMC所能做到的最大的芯片,我们将其中两个连接在一起,每个第二个环节10TB,将世界上最先进的GPU连接在一起。将这两个连接在一起,然后我们将其中两个放在一个计算机节点上,用一个Grace CPU连接它。
在训练情况下,Grace CPU可以用于几件事情。它可以使用,它可以用于快速检查点和在推理和生成的情况下重新启动。它可以用于存储上下文记忆,以便AI具有记忆并理解我们想要的对话的上下文。这是我们的第二代Transformer引擎。Transformer引擎允许我们根据该计算层所需的精度和范围动态适应较低的精度。这是我们的第二代GPU,具有安全的AI,因此您可以要求服务提供商保护您的AI免遭窃取、盗窃或篡改。这是我们的第五代NVLink。
NVLink允许我们将多个GPU连接在一起。这也是我们第一代具有可靠性和可用性引擎的产品。这个RAS系统,允许我们测试每一个晶体管片上存储器触发器、片外存储器,这样我们就可以在现场确定某个芯片是否没有MTBF。与此同时,一台拥有10000个GPU的超级计算机发生故障之间的间隔是以小时为单位测量的。超级计算机故障之间的时间间隔是100000个GPU的间隔。它以分钟为单位测量。
如果我们不发明技术来增强其可靠性,超级计算机能够长期运行并训练可能持续数月的模型的能力实际上是不可能的。可靠性当然会增加正常运行时间,这直接影响成本。最后,减压。引擎数据处理是我们必须做的最重要的事情之一。我们添加了数据压缩引擎解压缩引擎,以便我们可以以比今天更快的速度20倍的速度从存储中提取数据。
所有这些都代表了Blackwell。我们在GTC期间展示了Blackwell的原型。这是世界上有史以来最复杂、最高性能的计算机。这是灰色的CPU。这些是Blackwell模具,其中两个连接在一起。
这是世界上最大的芯片。我们用10TB/s的NVLink将两个GPU连接在一起。这使得Blackwell计算机的性能令人难以置信。我们在八年内将计算量和人工智能模型规模提高了一千倍。我们通过计算能力的提升降低了能耗。用于训练GPT-4的2万亿参数、8万亿token,能耗下降了350倍。以前用Pascal架构需要1000吉瓦时,这意味着需要一个千兆瓦的数据中心。世界上没有千兆瓦的数据中心,即使有,训练也需要一个月的时间。
这就是为什么仅在八年前,我们通过不断提高性能和能效来实现ChatGPT这样的大型语言模型。如果一台超级计算机有1万个GPU,平均无故障时间是1万小时。但现在是用分钟来衡量的,所以一台超级计算机要能够运行很长一段时间,才能长期训练一个模型。这就要求我们的技术非常可靠,不能中断运行。持续运行需要花费很多时间和金钱。所以我们加入了数据压缩和解压缩引擎,让数据访问速度提高20倍。
1
展示Blackwell,剧透它的替代者
这就是Blackwell,我们这里有一个已经在生产中的Blackwell。在GTC,我给大家看了Blackwell的原型。这就是我们正式生产的Blackwell,里面有最尖端的技术。这是我们实际生产的版本,可以说是功能和性能最强大的芯片。这是我们的CPU。每个裸晶包含两个GPU,这可以说是世界上我们可以生产出来的最大的芯片。它两个串联起来的时候,连接的速度是10TB/s。Blackwell电脑的性能非常强大。
这是一个DGX Blackwell,气冷式,里面有八个这样的GPU。看看这些GPU上的散热片大小。大约15千瓦,完全气冷式。这个版本支持x86,并且进入了我们一直在运输的Hopper基础设施。但是,如果您想要液体冷却,我们有一个新系统。这个新系统基于模块化的MGX。这是两个Blackwell板。所以这个节点有四个Blackwell芯片,这是一个两层的系统。九个这样的节点加在一起,总共有72个GPU,用新的NVLink连接在一起。这是我们的NVLink交换器,是我们第五代NVLink产品。
NVLink交换器可以说是科技上的一种奇迹,它的数据传输速率真的太快了。
如果把所有Blackwell芯片串联在一起,就可以有一个72个GPU的Blackwell系统。这样做的好处是,在每个GPU的领域中,看起来就像一个GPU,但实际上有72个。与上一代相比,数量是9倍,带宽是18倍,浮点运算能力是45倍,但功耗只有10倍。这是一个100千瓦的系统,之前是10千瓦。当然你可以把更多的芯片串联在一起。
为什么说NVLink芯片是一个科技上的奇迹呢?
因为NVLink把所有芯片串联在一起,大型语言模型不能只有一个节点,不能只有一个GPU。我们必须把整个机架里头所有的GPU全部都连接在一起,这样才能有一个可以处理十兆参数以上的大型语言模型。它有500亿个晶体管,72个端口,4个NVLink,每秒速度是1.8TB。
这就是我们现在的DGX。很多人都在问我们,NVIDIA到底是做什么的,为什么单凭GPU就能变得这么大?这就是GPU,这可以说是世界上最先进的GPU,不过这是打电话用的GPU。我旁边的这个也是一个GPU,各位女士,各位先生,这就是我们的DGX,GPU跟过去已经截然不同了。
这个GPU的后面就是NVLink所组成的一个背板。这个背板当中有5000条线,加起来有两英里这么长。这就是我们所谓的NVLink背板,可以连接72个GPU。把70个GPU连接在一起,这可以说是在电机学上面的一种奇迹。它通过铜线让NVLink交换器,透过背板当中的铜线,让我们一个机架可以节省20千瓦。我们可以把节省下来的20千瓦用来进行数据处理,这就是NVLink背板。
我们要打造AI工厂,所以我们必须要有更高速的网络技术。我们有两种InfiniBand。第一种InfiniBand用在AI工厂和超级电脑当中,而且它成长的速度非常的快。可是并不是每个资料中心都可以用InfiniBand,因为他们以前已经采用了以太网络了。实际上,管理InfiniBand是需要一些特别的技术。因此我们就把InfiniBand的一些功能,放到以太网络的架构当中。这其实非常的困难,为什么呢?
道理很简单。以太网络当初设计的时候,它是针对平均传输量比较高的系统。每个电脑、每个节点都是连接到一个不同的人,大部分是资料中心跟另外一端的人在进行沟通。可是AI工厂当中的深度学习系统GPU并不是跟人来做沟通。GPU是他们彼此之间在做沟通,因为他们在收集数据,也就是把产品的部分数据收集起来,然后进行缩减,然后再重新的来进行分配。所以重点不是平均的传输量,而是最后一个接收到信息的那个GPU。
因为你是从每个人那边去收集一些资料,看谁的速度最慢。这个系统的速度就决定于哪一个人给资料的时候速度最慢。那个人就决定了这样的一个速度。过去以太网络是办不到的,所以我们必须要有端到端的架构。这当中有四个不同的技术。NVIDIA有世界上最先进的NVLink和RDMA。
RDMA是专门针对以太网络所做的设计。除此之外,我们还有拥塞控制系统,它很快的在处理这些参数的数值。每次假如有任何GPU送出太多的资料,我们就叫他们慢一点,这样才不会产生瓶颈。第三个就是自适应路由,以太网络必须要传送和接收资料的时候,必须要按顺序来。假如我们看到有任何端口没有使用,或者是有塞车的情形,我们就把这个信息送到没有使用的端口,这样我们就可以把工作的顺序重新安排好。
还有一个很重要,就是流量隔离。因为我们在训练的模组不止一个,所以资料中心里头一定都会有一些其他流量。一旦进入我们的工作流程当中,就会产生噪音。这样就会影响数据传递的速度,就会使训练的速度变慢。我们已经打造了一个50亿或者30亿美金造价的资料中心来做训练。假如网络的利用率降低40%,培训时间延长了20%,那么50亿美元的数据中心实际上花费了60亿美元。因此成本影响相当大。
使用Spectrum-X以太网基本上允许我们大大提高性能,因此网络基本上是免费的。所以这真的是一个相当大的成就。我们非常,我们拥有完整的以太网产品管道。这是Spectrum-X 800,它是51.2 Tb每秒和256个端口。
接下来即将到来的是512端口的Spectrum-X,即一年之后的Spectrum-X 800 Ultra。之后的那个是X 1600。重要的是,X 800是为成千上万个GPU设计的,X 800 Ultra也是为成千上万个GPU设计的,而X 1600是为数百万个GPU而设计的。数百万GPU数据中心的日子即将到来。
原因很简单。当我们希望训练更大的模型时,在未来,几乎你与互联网或计算机的每次互动都可能在云端运行生成式AI。生成式AI正在与你合作,与你互动,生成视频、图像或文本,或者可能是数字人。因此,你几乎一直在与计算机进行交互,并且总是有一个生成式AI与之相连。有些在本地,有些在你的设备上,其中很多可能在云端。
这些生成式AI还将具有大量的推理能力,而不仅仅是一次性答案,它们可能会对答案进行迭代,以便在将答案提供给您之前提高答案的质量。因此,未来我们将要处理的生成内容的数量将是非凡的。
让我们现在来看看今晚所有这些,这是我们的第一个夜间主题演讲。你不能在早上的主题演讲中这样做。我认为这种基调风格在Computex中从未做过,可能是最后一次。只有媒体才能做到这一点,只有我能做到。当然,Blackwell是最初推出的第一代媒体平台。
正如世界所知,生成式AI时代已经到来。正如世界意识到AI工厂的重要性一样,正如这场新工业革命的开始。我们有如此多的支持者,几乎每个OEM、每个计算机制造商、每个CSP、每个GPU云、主权云,甚至电信公司,世界各地的企业,成功的数量,采用率,对Blackwell的热情程度都非常令人兴奋。我想为此感谢大家。
我们不会止步于此。在这个令人难以置信的增长时期,我们希望确保继续提高性能,继续降低成本,包括培训成本、推理成本,并继续扩展AI能力,以使每家公司都能接受。我们走的越远,性能越强,成本下降就越大。当然,Hopper平台可能是历史上最成功的数据中心处理器。这只是一个令人难以置信的成功故事。
然而,Blackwell就在这里,正如你所注意到的,每个平台都有几件事情。你有CPU,有GPU,有NVLink,有NIC,还有这个交换器。NVLink交换器会把所有的GPU连接在一起,把它变成一个最大的领域。我们因此可以用非常高速的交换器。但其实它是一整个平台,我们打造一整个平台,我们把整平台整合成一个AI工厂的超级电脑,我们再把它分散,让全世界都可以使用。
在座各位都有能力去创造非常有趣、非常有创意的一个设置配置,可以用不同的风格,不同的数据中心,不同的顾客。你们可以在不同的地方,不同的边缘,甚至是有一些是电商等等。所以我们尽量让它有弹性,让大家可以有最有创意的方式来进行建构。
关于Blackwell平台,我们公司按照一年一个的节奏推出。我们的基本理念非常简单,我们要建立整个数据中心,再将它分解,并以一年的节奏部分卖给用户。我们将一切推向技术极限。无论是什么TSMC工艺,技术都会把它推向绝对极限,无论是什么封装技术,都将它推向绝对极限,无论是什么存储技术,都将它推向绝对极限,无论是网络技术,光学技术,一切都将被推向极限。
然后在那之后,以这样的方式做所有事情,以便我们所有的软件都能在整个安装的基础上运行。软件惯性是计算机中最重要的事情。当计算机向后兼容并且在架构上与已经创建的所有软件兼容时,您进入市场的能力将更快。因此,当我们可以利用整个软件安装基础时,速度是令人难以置信的。这就是我们在Blackwell在场时所创造的一切。
明年我们将推出Blackwell Ultra,就像我们有H-100和H-200一样,你可能会看到我们的一些非常令人兴奋的新一代,Blackwell Ultra再次挑战极限,推出我提到的下一代Spectrum交换器。
下一个是我们的另一个开发平台,代号Rubin。我不会用太长时间介绍Rubin,大家肯定会拍照来看细节内容。我们有了Rubin平台,一年后我们会有Rubin Ultra平台。到时候所有的产品都将会百分百兼容。
过去的12年里,从ImageNet让我们意识到计算的未来将发生根本性变化,到今天,就像2012年之前的早期GeForce和今天的NVIDIA一样,这家公司确实发生了巨大的变化。我要感谢所有在这里支持我们每一步的合作伙伴。
1
机器人与数字孪生及其他
接下来,我想谈谈下一波AI浪潮——物理AI,即理解物理定律的AI。
AI可以在我们之间工作,因此它们必须理解世界模型,以便解释和感知世界。当然,它们还必须具备出色的认知能力,这样才能理解我们的要求,并在未来执行任务。
机器人技术是一个更普遍的概念。当我说机器人时,通常指人形机器人,但事实并非如此。所有的工厂都将是机器人员工,工厂将安排机器人工作,这些机器人将建造机器人产品,并与机器人互动。为了实现这一点,我们需要取得一些突破。
总有一天,所有移动的东西都将是自主的。世界各地的研究人员和公司正在开发由物理人工智能驱动的机器人。物理AI是能够理解指令的模型,一个自主机器人在现实世界中执行复杂的任务。多模态大型语言模型是使机器人能够学习、感知和理解周围世界,并持续突破、计划如何行动的关键。
机器人现在可以学习使用粗略和精细的运动技能与世界互动。推进机器人技术的一项重要技术是强化学习,就像大型语言模型需要从人类反馈中获取RLHF(Reinforcement Learning from Human Feedback,即基于人类反馈的强化学习)来学习特定技能一样,物理AI可以利用模拟世界中的物理反馈强化学习来学习技能。这些模拟环境是机器人通过在遵循物理定律的虚拟世界中执行行动来学习决策的地方。机器人可以学习复杂而安全的日常任务,并通过数百万次的尝试和行动来完善他们的技能。
在操作系统上,典型的AI模拟并重新创建。
这是一种发展吗?
世界模拟结合了实时、基于Omniverse的物理模拟和生成式AI技术。机器人可以学习如何成为机器人,他们学习如何自主操纵物体,例如抓取和处理物体,或自主导航环境,在避开障碍物的同时找到最佳路径。在Omniverse中学习,将模拟与现实的差距最小化,最大化学习行为的迁移。
建造具有这种能力的机器人需要三台英伟达AI超级计算机来训练模型。因此,我们推出了NVIDIA Omniverse,让机器人可以学习和完善他们的技能。我们构建开发人员和公司所需的平台、加速库和AI模型,并允许他们使用。
对他们来说,这就是下一波人工智能机器人的浪潮,人工智能的时代和工业革命。
我们有几种方式来服务市场。
首先,我们将为每种类型的机器人系统创建平台,一个用于机器人工厂和仓库,一个用于操纵事物的机器人,一个用于移动的机器人,一个用于人形机器人。这些机器人平台包括计算机加速库和预训练模型,我们测试一切,训练一切,整合一切。
这里是机器人学习如何成为机器人的地方。当然,现在机器人仓库的生态系统真的非常复杂。需要很多公司、很多工具、很多技术来建造一个现代化的仓库。仓库越来越趋向自动化,直到某一天将会完全自动化。因此,在每个生态系统中,我们都有SDKs和APIs连接到软件行业,SDKs和APIs连接到边缘AI行业和公司。当然,还有为PLC设计的系统和用于ODM的机器人系统。然后由集成商集成,最终为客户建立仓库。
工厂拥有完全不同的生态系统,富士康正在建造一些世界上最先进的工厂。他们的生态系统包括用于设计工厂、工作流程、为机器人编程的边缘计算机和机器人软件,当然还有协调数字工厂和人工智能工厂的PLC计算机。我们也有连接到每个生态系统的SDKs。这正在各地发生。富士康已经建立了他们工厂的数字孪生,Delta也正在建立他们工厂的数字孪生。
Pigatron正在建立他们的机器人工厂的数字孪生,Wistron也正在建立他们的机器人工厂的数字孪生。这真的很酷。让我们来看一看富士康新工厂的视频。随着世界将传统数据中心现代化为生成式AI工厂,对英伟达加速计算的需求正在飙升。富士康,世界上最大的电子产品制造商,正准备通过使用英伟达Omniverse构建机器人工厂来满足这一需求。
霓虹灯工厂规划人员使用Omniverse来整合来自领先行业应用程序(如西门子Teamcenter)的设施和设备数据,这些数据在数字孪生中得到充分利用。他们优化了地板布局和线路配置,并找到最佳的摄像头放置位置,以使用英伟达Metropolis的视觉AI监控未来的运营。虚拟集成为规划人员节省了施工期间物理变更单的巨大成本。富士康团队使用数字孪生作为真相的来源,以沟通和验证准确的设备布局。
Omniverse数字孪生也是机器人训练馆,在这里,富士康开发人员培训和测试Nvidia Isaac AI应用程序,用于机器人感知和操作,以及Metropolis AI应用程序,用于Omniverse中的传感器融合。富士康在将运行时部署到装配线上的Judson计算机之前,模拟了2个机器人AI。他们模拟了用于物体识别、缺陷检测和轨迹规划的自动光学检测的Isaac机械手库和AI模型。
为了转移到测试机器人,他们模拟Isaac感知器驱动的Farab AMR,他们通过3D映射和重建感知并在环境中移动。富士康建造了他们的机器人工厂,这些工厂协调运行在Nvidia Isaac上的机器人,以构建视频AI 2计算机,从而控制起重机Vox。所以一个机器人工厂设计有三台计算机:在Nvidia AI上训练AI,让机器人在PLC系统上运行,以协调工厂,然后,当然,你在Omniverse中模拟一切。
机械手臂和机器人的AMRs也是一样的,三个计算机系统,不同之处在于两个Omniverse将会结合在一起。所以这些共享一个虚拟空间。当他们共享一个虚拟空间时,这个机械手臂将进入机器人工厂。
再一次,三台计算机,我们为计算机提供加速层和预训练的AI模型。我们已经将Nvidia的机械手和Nvidia Omniverse与世界领先的工业自动化软件和系统公司西门子连接起来。这真的是一个非常棒的合作关系。
他们在世界各地的工厂工作。语义拾取AI现在集成了Isaac机械手和语义拾取AI运行,操作ABB、KUKA、Yaskawa、FANUC、Universal Robots和Techman。
我们还有各种其他的集成,例如,Arcbest正在将Isaac感知器集成到Foxx智能自主机器人中,以增强物体识别和人类运动跟踪。电子产品的运动跟踪和材料处理正在将Isaac操纵器和感知器集成到他们的人工智能机器人中,以提高全球制造效率。
Idealworks正在将Isaac感知器构建到他们的iWMS软件中,用于工厂物流内在的AI机器人。Kivnon正在整合Isaac感知器,以推进AI驱动的运动,以推进AI启用的物流。Argo机器人正在将Isaac感知器应用于基于高级视觉的感知引擎中。Solomon在他们的AcuPick中使用Isaac操纵器AI模型。
Tattile机器人正在将Isaac Sim和机械手引入TMF Web加速自动光学检测。Teradyne机器人正在将Isaac机械手集成到协作机器人的PolyScope X中,并将Isaac感知器集成到MiR AMRs中。Mech-Mind正在将Isaac操作器集成到Mech-Eye工业3D相机中,用于AI操作机器人。
机器人来了,物理AI在这里。
这不是科幻小说,它正在各地使用,真的非常令人兴奋。那就是工厂,里面的机器人,所有的产品都将是机器人。
其中之一是自动驾驶汽车或具有大量自主能力的汽车。英伟达再次构建整个堆栈。明年,我们将与奔驰车队一起投入生产。
之后,在2026年,我们向全世界提供完整的JLR舰队堆栈。但是,欢迎您取用我们堆栈的任何部分或任何层,就像整个驱动器堆栈打开一样。下一个大批量机器人产品将由机器人工厂制造,内部有机器人,可能是人形机器人。
近年来,由于基础模型的出现,这在认知的能力和我们正在开发的世界理解能力方面都有了很大的进步。我对这个领域感到非常兴奋,最容易适应这个世界的机器人是人类机器人,因为我们为我们建造了这个世界。
我们还需要比其他类型的机器人更大量的数据来训练这些机器人,因为我们拥有相同的生理学。训练数据,我们可以通过演示功能和视频功能提供,这将是非常棒的。
因此,我们将在这个领域看到很多进展。事实证明,这项技术与当今已经构建的所有其他计算机的构建技术非常相似。所以这对我们来说将是一段非常非凡的旅程。
这些信息可能会帮助到你: 联系作者 | 报毒说明
修改版本软件,加群提示等均为修改者自留,非本站信息,注意鉴别
评论(0)