1. 首页
  2. 人工智能

NVIDIA A100登陆AWS,开启加速云计算的下一个十年

在AWS运行NVIDIAGPU十周年之际,AWS发布了采用全新A100的AmazonEC2P4d实例十年前,AWS(AmazonWebServices)发布了首个采用NVIDIAM2050GPU的实例。当时,基于CUDA的应用主要专注于加速科学模拟,AI和深度学习还遥遥无期。

在AWS运行NVIDIAGPU十周年之际,AWS发布了采用全新A100的AmazonEC2P4d实例

NVIDIA A100登陆AWS,开启加速云计算的下一个十年

十年前,AWS(AmazonWebServices)发布了首个采用NVIDIAM2050GPU的实例。当时,基于CUDA的应用主要专注于加速科学模拟,AI深度学习还遥遥无期。

自那时起,AW就不断扩充云端GPU实例阵容,包括K80(p2)、K520(g3)、M60(g4)、V100(p3/p3dn)和T4(g4)。

现在,已全面上市的全新AWSP4d实例采用最新NVIDIAA100TensorCoreGPU,开启了加速计算的下一个十年。

全新的P4d实例,为机器学习训练和高性能计算应用提供AWS上性能与成本效益最高的GPU平台。与默认的FP32精度相比,全新实例将FP16机器学习模型的训练时间减少多达3倍,将TF32机器学习模型的训练的时间减少多达6倍。

这些实例还提供出色的推理性能。NVIDIAA100GPU在最近的MLPerfInference基准测试中一骑绝尘,实现了比CPU快237倍的性能。

NVIDIA A100登陆AWS,开启加速云计算的下一个十年

每个P4d实例均内置八个NVIDIAA100GPU,通过AWSUltraClusters,客户可以利用AWS的ElasTIcFabricAdapter(EFA)和AmazonFSx提供的可扩展高性能存储,按需、可扩展地同时访问多达4,000多个GPU。P4d提供400Gbps网络,通过使用NVLink、NVSwitch、NCCL和GPUDirectRDMA等NVIDIA技术,进一步加速深度学习训练的工作负载。EFA上的NVIDIAGPUDirectRDMA在服务器之间可通过GPU传输数据,无需通过CPU和系统内存,从而确保网络的低延迟。

此外,许多AWS服务都支持P4d实例,包括AmazonElasTIcContainerServices、AmazonElasTIcKubernetesService、AWSParallelCluster和AmazonSageMaker。P4d还可使用所有NGC提供的经过优化的容器化软件,包括HPC应用、AI框架、预训练模型、Helm图表以及TensorRT和TritonInferenceServer等推理软件。

目前,P4d实例已在美国东部和西部上市,并将很快扩展到其他地区。用户可以通过按需实例(On-Demand)、SavingsPlans、预留实例(ReservedInstances)或竞价型实例(SpoTInstances)几种不同的方式进行购买。

GPU云计算发展最初的十年,已为市场带来超过100exaflops的AI计算。随着基于NVIDIAA100GPU的AmazonEC2P4d实例的问世,GPU云计算的下一个十年将迎来一个美好的开端。

NVIDIA和AWS不断帮助各种应用突破AI的界限,以便了解客户将如何运用AI强大的性能。

免责声明:本站旨在传递信息,不代表有传资讯的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:78799268)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/rengongzhineng/14332.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

联系我们

在线咨询:点击这里给我发消息

邮件:78799268@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code