英伟达刷新 AI 推理纪录,推两大 GPU 新品,六类 AI 算法通杀

NVIDIA 面向企业级服无器非常新推出的 A30 和 A10 GPU 两大数据中间推理新品,本日实现机能首秀,并创下推理新纪录。

在业界公认的 AI 机能掂量基准——MLPerf 基准测试中,NVIDIA GPU 在全部种别革新纪录。

绝大无数介入数据中间及边沿推理测试的体系均接纳 NVIDIA GPU 作为 AI 加快器,小批则接纳高通、赛灵思、Neuchips、Centaur、Arm 等其余芯片商的加快器。

NVIDIA 的两款新 GPU 集高机能与低功耗于一身,可成为企业在 AI 推理、练习、图形和古代企业级计较工作负载等诸多方面的合流选定。思科、戴尔科技、慧与、海潮和遐想估计会从今年夏日首先将这两款 GPU 集成到其非常高容量的服无器中。

一、NVIDIA 在六类算法测试均革新纪录

MLPerf 基准测试由图灵奖得主 David Patterson 团结科技公司和环球顶级高校于 2018 年倡议,是业界首套掂量机械借鉴软硬件机能的通用基准,能展现差别 CPU、GPU、加快器组合做展现出的差别机能阐扬,现在 MLPerf 已成为业界评测 AI 机能的非常合流规范之一。

“跟着 AI 连接为各行各业带来厘革,MLPerf 也成为企业的一项紧张对象,可以或许助力其在IT底子办法投资方面做出理智的计划。”NVIDIA 加快计较部分总司理兼副总裁 Ian Buck 说,“现在,全部要紧 OEM 厂家都提交了 MLPerf 测试后果。”

除 NVIDIA 公司提交的测试后果外,阿里云、戴尔科技、富士通、技嘉科技、慧与、海潮、遐想和超微等多家 NVIDIA 同盟同伴也提交了共 360 多项基于 NVIDIA GPU 的测试后果。

非常新公布的测试后果表现,NVIDIA 是唯独一家针对数据中间和边沿种别中的每项测试都提交后果的公司,并在全部 MLPerf 工作负载中均展现出当先的机能。

比方,在数据中间基准测试中,NVIDIA A100 的机能阐扬相较 CPU 进步 17-314 倍,非常新公布的 A10 和 A30 也展现出不错的测试后果。

相比高通 Cloud AI 100,NVIDIA A100 在 ResNet-50 和 SSD-Large 算法中均展现出更高的机能。

NVIDIA A100、Jetson 系列在边沿基准测试中展现了一切六类算法测试的后果。

别的,NVIDIA 还创始性地应用 NVIDIA Ampere 架构的多实例 GPU 机能,在单纯 GPU 上应用 7 个 MIG 实例,同时运转全部 7 项 MLPerf 离线测试。该配置实现了与单纯 MIG 实例自力运转险些相像(98%)的机能。

这些提交后果展现了 MIG 的机能和通用性。底子办法司理可以针对特定应用,配置得当数目的 GPU 计较,从而让每个数据中间 GPU 都能发扬非常大的效用。

多项提交后果还基于 NVIDIA Triton 推理服无器。该推理服无器支撑来自全部要紧框架的模子,可在 GPU 及 CPU 上运转,并针对批处分、及时和串流传输等差别的盘问范例举行了优化,能简化在应用中布置 AI 的复杂性,同时包管当先的机能。

在配置相配的环境下,接纳 Triton 的提交后果所到达的机能靠近于非常优化的 GPU 实现及 CPU 实现可以或许到达的机能。

二、A30 和 A10 今夏商用

NVIDIA 可以或许获得云云佳绩,得益于 NVIDIA AI 平台的广度。

该 AI 平台包括多品种型的 GPU 以及经优化后能实现 AI 加快的全栈 NVIDIA 应用,包括 TensorRT 和 NVIDIA Triton 推理服无器。微软、Pinterest、Postmates、T-Mobile、USPS、微信等企业都布置了 NVIDIA AI 平台。

A30 和 A10 GPU 是 NVIDIA AI 平台中的非常新成员。

A30 可以或许为行业规范服无器供应通用的机能,支撑宽泛的 AI 推理和合流企业级计较工作负载,如保举体系、对话式 AI 和计较机视觉。

A10 可加快深度借鉴推理、交互式渲染、计较机辅助计划和云游戏,使企业可以或许基于通用底子办法,为混合型 AI 和图形工作负载供应支撑。通过接纳 NVIDIA 虚拟 GPU 应用,可改进经管,为计划师、工程师、艺术家和科学家所用的虚拟桌面进步行使率并美满配置。

NVIDIA Jetson 平台基于 NVIDIA Xavier 体系级模块,可在边沿供应服无器级的 AI 机能,助力机械人、医疗健康、零售等平台实现更多的创新应用。Jetson 基于 NVIDIA 的同一架谈判 CUDA-X 应用仓库,是唯独接纳紧凑型计划、可以或许运转全部边沿工作负载且功耗低于 30W 的平台。

以前 6 个月,NVIDIA 端到端 AI 平台在 MLPerf 的机能晋升达 45%。

NVIDIA A100 GPU 搭载于当先服无器生产商的服无器、全部要紧云服无供应商的云端,以及 NVIDIA DGX 体系产品组合(包括 NVIDIADGX StationA100、NVIDIA DGX A100 和 NVIDIA DGX SuperPOD)。

A30 和 A10(功耗分别为 165W 和 150W)估计将从今夏升引于各类服无器中,包括经严酷测试以确保在各类工作负载下均可实现高机能的 NVIDIA 认证体系。

NVIDIA Jetson AGX Xavier 和 Jetson Xavier NX 体系级模块已通过环球代理商供货。

NVIDIA Triton 和 NVIDIA TensorRT 均可通过 NVIDIA 的应用目次 NGC 获取。

结语:MLPerf 介入者密集于芯片大厂

全体来看,介入 MLPerf 基准测试的 AI 加快器要紧来自 NVIDIA、高通、赛灵思等芯片巨擘,尤其是 NVIDIA GPU 险些刷屏数据中间及边沿的加快器一列,比较而言,我们鲜少瞥见 AI 硬件草创公司的身影。

NVIDIA 加快计较部分总司理兼副总裁 Ian Buck 说:“NVIDIA 及同盟同伴的关注点不但在于实现环球当先的 AI 机能,同时还注重通过即将面市的一系列搭载 A30 和 A10 GPU 的企业级服无器来实现 AI 遍及化。”

您可能还会对下面的文章感兴趣: