Flamboyant CEO 黄仁勋 1 小时 39 分钟的主题演讲涵盖了很多内容,但两打公告中的大多数统一主题都是以 GPU 为中心,以及 Nvidia 对其构建的所有内容的平台方法。
大多数人都知道 Nvidia 是世界上最大的图形处理单元或 GPU 。 GPU 是一种芯片,最初用于加速游戏系统中的图形。 从那时起,该公司不断为 GPU 找到新的用例,包括自动驾驶汽车、人工智能 (AI)、3D 视频渲染、基因组学、数字双胞胎等等。
该公司迄今已从单纯的芯片设计和制造取得了进步,黄将其公司的 Omniverse 开发平台概括为“世界人工智能基础设施的新引擎”。
与所有其他硅制造商不同,Nvidia 提供的产品不仅仅是芯片。 它采用平台方法并设计完整、优化的解决方案,并将其打包为参考架构,供其合作伙伴进行批量构建。
这个 2022 GTC 主题演讲有很多这种方法的例子。
NVIDIA Hopper H100 系统“改造”人工智能
如前所述,所有 Nvidia 解决方案的核心是 GPU,在 GTC22 上,该公司宣布了其新的 Hopper H100 芯片,该芯片采用了一种新架构,旨在成为大规模可扩展 AI 基础设施的引擎。 该硅片具有高达 80B 的晶体管,并包括一个新引擎,专为变压器引擎的训练和推理而设计。 对于那些对 AI 仅有粗略了解的人来说,Transformer 是一种神经网络,它根据称为“注意力”的概念对 AI 进行真正的转换。
注意力是一段数据中的每个元素都试图弄清楚它对数据的其他部分了解或需要了解的程度。 传统的神经网络查看相邻数据,而转换器查看整个信息体。 Transformers 广泛用于自然语言处理 (NLP),因为完成一个句子并理解句子中的下一个词应该是什么——或者代词的含义——就是要理解使用了哪些其他词以及模型的句子结构可能需要学习。
将多个 GPU 连接在一起 Nvidia 的 NVLink ,从而有效地创建一个大 GPU,从而产生 4.9 Tbps 的外部带宽。
在相关说明中,Huang 还宣布将 NVLink 从内部互连技术扩展到完整的外部交换机。 以前,NVLink 用于连接计算系统内的 GPU。 新的 NVLink 开关支持多达 256 个 GPU 充当单个芯片。 超出系统的能力导致 192 Teraflops 的计算性能。 虽然这看起来像是一个疯狂的性能,但推荐系统、自然语言处理和其他人工智能用例正在摄取大量数据,而且这些数据集一直在变得越来越大。
继续平台主题,英伟达还发布了基于 DGX H100 的新系统、SuperPOD(多节点系统)和 576 节点超级计算机。 这是一个交钥匙系统,包含几乎即插即用的 AI 任务所需的所有软件和硬件。 像它的所有系统一样,这是作为生产系统的参考架构构建的。
AI Enterprise 2.0 现在是全栈
可能没有比 Nvidia 如何启用企业 AI 更好的平台方法的例子了。 该公司采用多层模型来处理这一细分市场。 底层是人工智能基础设施,包括不同的系统,如 DGX、HGX、EGX 和其他基于 NVIDIA 广泛的 GPU 和 DPU 构建的系统。 除此之外,Nvidia 提供所有必要的软件和操作系统,让开发人员使用硬件。 这包括 CUDA、TAO、RAPIDS、Triton Inference Server、TensorFlow 和其他软件。
顶层是一组预先构建的人工智能系统,用于解决特定的用例。 例如,Maxine 是公司的视频 AI 系统,Clara 是为医疗保健设计的,Drive 是为汽车行业设计的,Isaac 是它的模拟器。
这使企业和软件供应商能够使用这些组件来提供创新的新功能。 例如,统一通信供应商 Avaya 在其 Spaces 产品中使用 Maxine 来消除噪音、虚拟背景以及视频会议中的其他功能。 包括捷豹和梅赛德斯在内的许多汽车制造商都在使用 Drive 作为自动驾驶汽车的平台。
黄还宣布了人工智能平台的正式化。 当人们想到其他企业平台时,例如 VMware vSphere 和 Windows Server,它们具有持续的创新路线图和在其上运行的经过验证的软件生态系统。 NVIDIA 目前与包括联想、戴尔和思科在内的供应商有一个底层硬件项目。 该公司正在通过一个名为 Nvidia Accelerate 的软件程序来补充这一点,该程序目前拥有 100 多个成员,包括 Adobe 和 Keysight。 这应该让客户相信该软件已经过针对 Nvidia 平台的测试、审查和优化。
Omniverse 扩展到云端
Nvidia 的 Omniverse 是一个遵循所有物理定律的协作和模拟引擎。 公司可以使用它来构建对象的虚拟版本,从而减少培训时间。 例如,教机器人走路可能既昂贵又耗时,因为需要构建许多场景,例如上坡、下坡、楼梯等。 使用 Omniverse,这可以虚拟完成,上传数据,然后机器人就可以立即行走。 另一个用例是构建工厂之类的数字双胞胎,以便建筑规划人员可以在施工开始之前对其进行设计以扩大规模。
在 GTC22 上,Nvidia 宣布了 Omniverse Cloud,顾名思义,它使模拟引擎可用作流式云服务。 从历史上看,需要一个高性能系统来运行 Omniverse。 现在作为一种云服务,它可以在任何计算设备上运行,甚至是 Chromebook 或平板电脑。 这使 Omniverse 民主化,并使任何有 Internet 连接的人都可以使用它。
第二个公告是 OVX 计算系统,这是一个用于工业数字孪生的数据中心规模系统。 该系统从 8 个 NVIDIA A40 GPU 开始,然后从那里向上扩展。 同样,与其所有系统一样,这是一个参考架构,系统来自联想、浪潮和 Supermicro。
平台方法创造了可持续的差异化
许多行业观察家一直在预测,随着越来越多的芯片制造商进入市场,英伟达在 GPU 领域的主导地位将会结束,这会产生竞争和定价压力。 例如,英特尔多年来一直在积极追求 GPU,但没有人能够在 Nvidia 的业务中取得成功。 Nvidia 采用的平台方法在网络、云和软件中很常见,但在硅片中却是****的。 Jensen 的主题演讲强调了这些优势,并为公司创造了长期的差异化优势。
声明:所有白马号原创内容,未经允许禁止任何网站及个人转载、采集等一切非法引用。本站已启用原创保护,有法律保护作用,否则白马号保留一切追究的权利。发布者:白马号,转转请注明出处:https://www.bmhysw.com/article/9293.html