NVIDIA A100登录AWS,打开加快云计算技术的下一个十

NVIDIA A100登录AWS,打开加快云计算技术的下一个十年 十年以前,AWS(Amazon Web Services)公布了首例选用NVIDIA M2050 GPU的案例。那时候,根据CUDA的运用关键潜心于加快科学研究仿真模拟,AI和深层学习培训还漫漫无期。

通讯全球网信息(CWW)十年以前,AWS(Amazon Web Services)公布了首例选用NVIDIA M2050 GPU的案例。那时候,根据CUDA的运用关键潜心于加快科学研究仿真模拟,AI和深层学习培训还漫漫无期。

自那时候起,AWS也不断扩大云空间GPU案例主力阵容,包含K80(p2)、K520(g3)、M60(g4)、V100(p3 / p3dn)和T4(g4)。

如今,已全方位发售的全新升级AWS P4d案例选用全新NVIDIA A100 Tensor Core GPU,打开了加快测算的下一个十年。

全新升级的P4d案例,为设备学习培训训炼和性能卓越测算运用出示AWS上特性与成本费经济效益最大的GPU服务平台。与默认设置的FP32精密度对比,全新升级案例将FP16设备学习培训实体模型的训炼時间降低高达3倍,将TF32设备学习培训实体模型的训炼的時间降低高达6倍。

这种案例还出示优异的逻辑推理特性。NVIDIA A100 GPU在近期的MLPerf Inference标准检测中一骑绝尘,完成了比CPU快237倍的特性。

每一个P4d案例均内嵌八个NVIDIA A100 GPU,根据AWS UltraClusters,顾客能够运用AWS的Elastic Fabric Adapter(EFA)和Amazon FSx出示的可拓展性能卓越储存,按需、可拓展地同时浏览高达4,000好几个GPU。P4d出示400Gbps互联网,根据应用NVLink、NVSwitch、NCCL和GPUDirect RDMA等NVIDIA技术性,进一步加快深层学习培训训炼的工作中负荷。EFA上的NVIDIA GPUDirect RDMA在网络服务器中间可根据GPU传送数据信息,不用根据CPU和系统软件运行内存,进而保证互联网的低延迟时间。

另外,很多AWS服务都适用P4d案例,包含Amazon Elastic Container Services、Amazon Elastic Kuberes Service、AWS ParallelCluster和Amazon SageMaker。P4d还可让用全部NGC出示的历经提升的器皿化手机软件,包含HPC运用、AI架构、预训炼实体模型、Helm数据图表及其TensorRT和Triton Inference Server等逻辑推理手机软件。

现阶段,P4d案例已在国外东部地区和中西部发售,并将迅速拓展到别的地域。客户能够根据按需案例(On-Demand)、Savings Plans、预埋案例(Reserved Instances)或竟价型案例(Spot Instances)几类不一样的方法开展选购。

GPU发展趋势最开始的十年,已经为销售市场产生超出100 exaflops的AI测算。伴随着根据NVIDIA A100 GPU的Amazon EC2 P4d案例的面世,GPU云计算技术的下一个十年将迈入一个幸福的开始。

NVIDIA和AWS持续协助各种各样运用提升AI的界线,便于掌握顾客将怎样应用AI强劲的特性。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://wzdji.cn/ganhuo/4022.html