产品特性
解决现代 AI 和深度学习需求的扩展难题
为了应对商业应用和科学研究中紧迫的挑战,深度神经网络在规模和复杂性上发展迅速。传统的数据中心架构已无法满足支持现代 AI 工作负载所需的计算能力。新技术如增加模型并行使用率与 GPU 之间的带宽限制相冲突,因为开发人员构建了越来越大的加速计算集群,从而限制了数据中心的规模扩展。人们需要一种新方法来提供几近无限的 AI 计算规模,以便突破障碍,加速获取可以改变世界的见解。
变不可能为可能的训练性能
日益复杂的 AI 渴求的计算水平。NVIDIA® DGX-2 ™ 是世界上个 2 petaFLOPS系统,配备16块极为的GPU,得以为先前无法训练的新深度学习模型类型提供加速。凭借性的GPU 规模,您可以在单个节点训练4倍规模的模型。与传统的x86架构相比,DGX-2训练ResNet-50的性能相当于 300台配备双路英特尔至强Gold CPU服务器的性能,而后者成本超过270万美元。
NVIDIA NVSwitch - 革命性的 AI 网络结构
研究要求自由地利用模型并行性,并且需要的 GPU 间带宽。NVIDIA 开发了 NVSwitch 以解决这一需求。正如从拨号上网到速宽带的,NVSwitch 把属于未来的网络结构带到了今天。有了 NVIDIA DGX-2,模型的复杂性和规模不再受传统架构限制的约束。在 DGX-2 中采用网络结构进行模型并行训练,可提供 2.4TB/ 秒的对分带宽,比前几代增加 24 倍。这种新的互连“速公路”为模型类型赋予了无限可能,现在用户可同时在 16 块 GPU 间进行分布式训练,强大的计算能力得以大程度地释放出来。
更大规模的 AI
AI 现代企业需要根据业务需求迅速部署 AI ,同时还需要在不增加成本或复杂性的前提下扩展 AI 规模。我们构建了 DGX-2,并为其配备了 DGX 软件,从而实现大规模的加速部署和操作简化。DGX-2 提供的解决方案是实现扩展 AI 快的路径,加上虚拟化支持,使您可以建立自己的企业级 AI 云。现在,企业可以在一个解决方案中充分利用不受限制的 AI 算力,这种解决方案轻松地扩展了将加速计算资源结合在一起所需的网络基础设施部分。利用加速部署模型和为易扩展性构建的架构,您的团队可以将更多的时间用于获取见解,而节省花费在构建基础设施的时间。
企业级 AI 基础设施
如果 AI 平台对您的业务至关重要,那么您需要考虑使用专为可靠性、可用性和可服务性 (RAS) 设计的平台。企业级的 DGX-2 专为严苛的全天候 AI 业务和RAS 而构建,可减少非计划停机时间、简化维护,及保持运行的持续性。节省调试和优化时间,增加专注于探索的时间。NVIDIA 企业级支持让您无需耗费时间对硬件和开源软件进行问题排查。借助每一个 DGX 系统,用户可利用包括软件、工具和 NVIDIA 知识的集成解决方案,更快地入门、训练和运行。
产品参数
产品型号 DGX-2
GPUs 16块NVIDIA Tesla V100 32GB
GPU显存 512GB
系统性能 1petsFLOPS
NVIDIA CUDA核心数量 81920
NVIDIA Tensor核心数量 10240
NVSwitches 12
大功率 10KW
CPU 双路英特尔至强Platinum 8168 2.7GHz 24核心
系统内存 1.5TB DDR4
网络 1.5TBDDR4
存储空间 操作系统:2 x960GB NVME SSD 数据存储:30TB(8 x3.84TB)NVME SSD
系统软件 Ubuntu Linux OS
系统重量 154.2kg
系统尺寸W*H*D 440*482.3*795.4mm
运行温度范围 5°C 至 35°C
资源下载