锐单电子商城 , 一站式电子元器件采购平台!
  • 电话:400-990-0325

20 个 GPU 可承载相当于全球互联网流量、Grace CPU 超级芯片现世,英伟达这届 GTC 发布了什么?...

时间:2023-02-24 09:30:00 3芯片式连接器传感器dgs66hbm高精度力传感器

a73982d70f6c1fedfe4e3f1d654537fc.gif

整理 |苏宓

出品 | CSDN(ID:CSDNnews)

技术的极限在哪里?

想必科技圈给出回答大概率是没有!

这不,在 GTC 2022 Keynote 上身穿黑色夹克「战袍」黄仁勋指挥,英伟达带领台积电 4nm 工艺建设,拥有 800 十亿晶体管 H100 GPU,基于最新 Arm v9 架构的 Grace CPU,以及具有元宇宙属性的元宇宙属性 Omniverse 和自动驾驶平台 Hyperion 9 等待软硬件再次刷新自己甚至整个行业的记录。

20 个 H100 GPU 能维持相当于整个世界的互联网流量吗?

英伟达,你可以称之为芯片霸主,也可以称之为人工智能计算和元宇宙大玩家。

最擅长的 GPU 英伟达在该领域宣布 Hopper? 下一代架构加速计算平台的到来,其性能比上一代产品跃升到数量级,大力推动下一波人工智能数据中心的发展。

这种新架构是美国计算机科学家的先驱 Grace Hopper 两年前推出的名称命名被取代 NVIDIA Ampere 架构。

此外,英伟达还发布了它的第一款基于 Hopper 的 GPU——英伟达 H100。

作为 A100 在设计方面,与以前的网络传输相比,替代者 5nm 工艺制造有偏差,这个 H100 目前台积电采用最先进的台积电 4nm 工艺、拥有 800 一亿晶体管可以加速 AI、HPC、内存带宽、互连和通信的发展,甚至能够实现每秒近 5 兆字节的外部连接。

性能方面,H100采用自然语言处理的标准模型,即新的 Transformer Engine。H100 加速器可以将这些网络的速度提高到上一代 6 而不失去精度。

此外,H100 也是第一个支持 PCIe Gen5 的 GPU,也是第一次使用 HBM3 的GPU,实现了 3TB/s 内存带宽。20 个 H100 GPU 能够维持相当于整个世界的互联网流量,实时运行数据推理,使客户能够提供先进的推荐系统和大型语言模型。

除了以上,H100 以下突破仍在技术上实现:

  • 实现第二代安全实例GPU。在上一代产品中,英伟达有多个例子 GPU 技术可以是一个 GPU 为了处理不同类型的工作,分为七个小的、完全隔离的例子。在云环境中为每一个 GPU 实例提供安全的多租户配置,Hopper 架构将 MIG 与上一代相比,功能得到了扩展 7 倍。

  • 保密计算。H100 它是世界上第一个具有保密计算能力的加速器,可以处理 AI 在模型和客户数据中保护它们。客户还可以将保密计算应用于医疗保健、金融服务等隐私敏感行业的联邦学习和共享云基础设施。

  • 支持第四代 NVLink 技术。英伟达将加速最大的人工智能模型 NVLink 与新的外部 NVLink Switch 相结合,将 NVLink 作为扩展网络扩展到服务器之外,与使用 NVIDIA HDR Quantum InfiniBand 与上一代相比,最多可以连接多达 256 个 H100 GPU,带宽也比较高 9 倍。

  • 新的 DPX 该指令加速了动态编程,广泛应用于各种算法,包括路线优化和基因组学。与 CPU 相比之下,动态编程的速度有所提高 40 倍,上一代 GPU 相比提高了 7 倍。这包括 Floyd-Warshall 算法为动态仓库环境中的自主机器人团队寻找最佳路线 Smith-Waterman 算法,用于 DNA 对齐蛋白质分类和折叠的顺序。

黄仁勋说:"数据中心正在成为人工智能工厂。NVIDIA H100 是全球 AI 企业利用基础设施引擎加速基础设施引擎 AI 驱动业务。"

值得注意的是,英伟达也是基于 H100 发布了一系列产品。

黄仁勋说:人工智能从根本上改变了软件的功能和生产模式。利用人工智能彻底改变他们行业的公司意识到他们人工智能基础设施的重要性,我们说 DGX H100 该系统将是企业 AI 工厂提供动力,将数据提炼成最有价值的资源——智能。

基于 Hopper 架构的 H英伟达推出了第四代 DGX? 系统 DGX H100。

DGX H100 拥有 8 颗 H100 GPU,可以在新的 FP8 精度下提供 32 petaflops的 AI 性能,提供的规模可型语言模型、推荐系统、医疗保健研究和气候科学的大规模计算需求。

DGX H100 每个系统 GPU 都由第四代 NVLink 连接,提供 900GB/s 连接速度比上一代快 1.5 倍。NVSwitch? 使 H100 的所有八个 GPU 都能通过 NVLink 连接。

英伟达说它也可以用 NVLink 多达技术连接 32 个 DGX(总共包含 256 个 H100 GPU),从而创造DGX Pod”。

「DGX POD 每秒带宽 768 terbyte,作为对比,目前整个互联网每秒带宽 100 terbyte,」黄仁勋解释道。

而多个 DGX Pod 可以一起创建连接 DGS Superpods,黄仁勋称之为现代 AI 工厂”。

在这方面,英伟达还开发了一种名为 Eos 全新的超级计算机将配备 18 个 DGX Pod。在 AI 在处理能力方面,它将是世界上最强大的超级计算机 Fugaku 的四倍。

预计 Eos 它将在未来几个月上线,并将成为世界上最快的 AI 计算机。

两个 CPU 组成的超级芯片——Grace CPU Superchip

在 CPU 在主题演讲中,黄仁勋正式分享了英伟达为数据中心设计的第一款 Arm CPU 芯片——Grace CPU Superchip。

称之为超级芯片的黄仁勋表示,该芯片将使英伟达芯片的性能和能效翻倍。

但本质上,这款超级芯片是两个 CPU 内部有两个合体 CPU 芯片组成,通过 NVLink-C2C(这是一种新型的高速、低延迟、芯片到芯片互连)互连技术。

英伟达说,Grace CPU 超级芯片旨在提供单一的效率性能 CPU 搭载 144 个 Arm Neoverse 核心,并在 SPECrate2017_int_base 在基准测试中获得 740 预测效率。

这与目前随 DGX A100 出货的双 CPU 相比之下,效率性能更高 1.5 这是英伟达实验室同类编译器估计的结果。

Grace CPU 超级芯片的 LPDDR5x 内存子系统提供的带宽是传统的 DDR5 设计的两倍达到每秒 1 兆字节,同时功耗大大降低,整个 CPU 只有内存功耗 500 瓦。

英伟达说,Grace CPU 超级芯片将是最严格的要求 HPC、AI、在数据分析、科学计算和超大规模计算应用中表现良好,具有最高的性能、内存带宽、能源效率和可配置性 2023 年初发货。

首款 Omniverse 计算系统OVX

英伟达今年是元宇宙领域的大玩家 GTC 开发者会议推出了一种新的工业数字双胞胎计算系统——OVX。

OVX 目的是创造 Omniverse 数字孪生模拟在中间运行,Omniverse 是英伟达发布的实时物理精确的世界模拟与 3D 设计合作平台。

“正如我们为 AI 提供 DGX,我们现在为 Omniverse 提供 OVX黄仁勋说。

OVX 是第一款 Omniverse 八个计算系统 Nvidia A40 GPU、三个 Nvidia ConnectX-6 Dx 200-Gbps NIC、双 Intel Ice Lake 8362 CPU、1TB 系统内存和 16TB NVMe 存储组成。

当与 Spectrum-3 交换结构连接时,OVX 计算系统可以从 8 个 OVX 单个服务器 pod 扩展到 32 个 OVX 服务器的 SuperPOD 。还可以部署多个 SuperPODS 以满足更大的模拟需求。

据英伟达官员介绍,OVX 设计师、工程师和规划师将能够在物理和虚拟世界之间建立精确的建筑数字双胞胎,或创造一个大规模、真实的模拟环境,并实现精确的时间同步。

黄仁勋还在演讲中指出,由于工业体系的复杂性,Omniverse 软件和计算机需要可扩展性、低延迟和支持精确的时间,英伟达希望使用它,因为数据中心在尽可能短的时间内处理数据,而不是在准确的时间内 OVX 创建同步数据中心。

当前第一代 OVX 该系统已部署在英伟达内部和一些早期客户中二代系统目前正在开发中,这将受益于英伟达今天推出的新系统 Spectrum-4 以太网平台。

Spctrum-4 是一种每秒 51.2 Tbps、1000 亿晶体管的以太网交换机,可实现纳秒级计时精度。

除此之外,在 Omniverse 层面,英伟达还发布了 Omniverse Cloud 新品,这是一项旨在促进创意人员和工程师之间实时 3D 设计协作的云服务。

Omniverse Cloud 据说可以消除由于需要多个设计师在各种不同的工具和不同的位置一起工作而产生的复杂性。

“我们希望 Omniverse 能够接触到数以千万计的设计师、创造者、机器人专家和人工智能研究人员中的每一位,”黄仁勋说道。

自动驾驶DRIVE Hyperion 9

自动驾驶,一个近年来各大科技巨头「兵刃相见」的领域,谁都知道这是一块香饽饽,但是拿得下拿不下都得凭借真本事。

和苹果想要将软硬件生态全部握在自己手中的造车愿景不同,英伟达在自动驾驶领域目标很明确,就是一步一步构建完全自动驾驶方案。

继 2019 年发布面向自动驾驶的 Orin 芯片并于本月正式投产销售之后,这次英伟达发布了用软件定自动驾驶的下一代平台——DRIVE Hyperion 9

据官方介绍,DRIVE Hyperion 9 平台采用了开放式、模块化设计,包含了计算机架构、传感器组以及完整的 NVIDIA DRIVE 司机和礼宾服务应用程序,也方便开发者在开发时各取所需。

同时,英伟达在 DRIVE Hyperion 9 架构的计算中加入了冗余功能。另外,采用了 2021 年发布的 DRIVE Atlan 车规系统芯片,其性能是基于 Orin 芯片的两倍以上。在详细参数层面,DRIVE Hyperion 9 架构包括用于自动驾驶和自主驾驶的 14 个摄像头、9 个雷达、3 个激光雷达和 20 个超声波,以及用于内部乘员感应的 3 个摄像头和 1 个雷达。

英伟达还将 DRIVE Hyperion 比作车辆的神经系统,DRIVE Atlan 作为大脑,英伟达这一代系统的规模从 NCAP 到 3 级驾驶和 4 级停车,具有先进的 AI 驾驶舱功能。

英伟达计划 DRIVE Hyperion 9 将于 2026 年量产车辆,同时可编程架构建立在多台  DRIVE Atlan 计算机上,以实现智能驾驶和车内功能。

参考资料:

https://nvidianews.nvidia.com/news/nvidia-announces-hopper-architecture-the-next-generation-of-accelerated-computing

https://blogs.nvidia.com/blog/2022/03/22/drive-hyperion-9-atlan/

https://venturebeat.com/2022/03/22/nvidia-introduces-arm-based-grace-cpu-superchip/

锐单商城拥有海量元器件数据手册IC替代型号,打造电子元器件IC百科大全!

相关文章