NVIDIA全新Ampere数据中心GPU全面投产

 行业动态     |      2022-08-08 10:20:40    |      沥拓

  

  加州圣克拉拉–GTC2020–2020年5月14日–NVIDIA今天宣布首款基于NVIDIA®Ampere架构的GPU——NVIDIAA100已全面投产,并已交付给全球客户。

  A100采用了NVIDIAAmpere建筑的突破性设计,设计为NVIDIA第八代GPU它提供了迄今为止最大的性能飞跃,集成AI训练与推理相结合,其性能比上一代产品高20倍。作为一种通用工作加速器,A100还设计用于数据分析、科学计算和云图形。

  NVIDIA创始人兼CEO黄仁勋说:“云计算和AI强劲的趋势正在推动数据中心设计的结构转型,过去是纯粹的CPU服务器正被有效的加速计算基础设施所取代。NVIDIAA100GPU作为端到端的机器学习加速器,实现了从数据分析到训练再到推理的20倍AI性能飞跃。到目前为止,这是第一次在一个平台上加速水平和垂直扩展的负载。NVIDIAA100将降低数据中心的成本,同时增加吞吐量。”

  A100采用的新型弹性计算技术可以为每项工作分配适当的计算能力。GPU技术可以把每一个A100GPU分割成七个单独的案例来执行推理任务,而第三代则分为七个单独的案例NVIDIANVLink®互联技术可以将多个A100GPU合并成一个巨大的GPU开展更大规模的培训任务。

  许多世界领先的云服务提供商和系统构建商将计划A100GPU集成到其产品中,包括:阿里云,AWS,Atos,百度智能云,思科,DellTechnologies,富士通,技嘉科技,GoogleCloud,新华三,HPE,浪潮,联想,MicrosoftAzure,甲骨文,Quanta/QCT,Supermicro和腾讯云。

  在全球范围内迅速采用

  Microsoft是首批采用NVIDIAA100GPU计划充分利用其性能和可扩展性的用户之一。

  Microsoft公司副总裁MikhailParakhin表示:“Microsoft上一代大规模应用NVIDIAGPU训练了世界上最大的语言模型——TuringNaturalLanguageGeneration。Azure将使用NVIDIA新一代A100GPU训练规模较大AI促进语言、语音、视觉和多模态技术领域的最新发展。”

  DoorDash作为餐厅在大流行期间的生命线,它指出了拥有灵活的人工智能基础设施的重要性。

  DoorDash机器学习工程师GaryRen表示:“现代繁杂AI培训和推理工作负荷需要处理大量的数据,比如NVIDIAA100GPU这种最先进的技术有助于缩短模型训练时间,加速机器学习的发展过程。此外,基于云的使用GPU集群还可以为我们提供更高的灵活性,可以根据需要进行扩容或缩容,将有助于提高效率,简化操作,节约成本。”

  其他最初的用户还包括许多国家实验室和一些世界顶级的高等教育和研究机构,他们正在使用它们A100支持其新一代超级计算机。以下是一些初始用户:

  印第安纳大学(IndianaUniversity),在国外,其BigRed基于200超级计算机的超级计算机HPE的CrayShasta系统。超级计算机将支持科学和医学研究以及AI,前沿研究机器学习和数据分析领域。

  利希超算中心(JülichSupercomputingCentre),在德国,其JUWELS增速系统由Atos专为极端计算能力和极端计算能力而设计AI设计任务。

  卡尔斯鲁厄理工大学(KarlsruheInstituteofTechnology),在德国,它正在与联想一起建造它HoreKa超级计算机。超级计算机将能够在材料科学、地球系统科学、能源和动力工程研究以及粒子和天体物理学领域进行更大规模的多规模模拟。

  马克斯普朗克计算和数据中心(MaxPlanckComputingandDataFacility),在德国,新一代超级计算机由联想建造Raven,马克斯普朗克研究所(MaxPlanckInstitutes)开发、改进、分析和可视化的高性能计算应用提供了先进的支持。

  美国能源部国家能源研究科学计算中心(U.S.DepartmentofEnergy’sNationalEnergyResearchScientificComputingCenter),位于美国劳伦斯伯克利国家实验室(LawrenceBerkeleyNationalLaboratory),其正在基于HPE的CrayShasta新一代超级计算机系统建设Perlmutter。超级计算机将用于支持大规模的科学研究,开发新能源,提高能源效率,探索新材料。

  A100的五大突破

  NVIDIAA100GPU突破性技术设计来自五大关键创新:

  NVIDIAAmpere架构–A100的核心是NVIDIAAmpereGPU这种体系结构包括一个超过540亿的晶体管,它成为世界上最大的7纳米Cpu。

  具有TF32的第三代TensorCore核心–NVIDIA普遍采用的TensorCore核心现在变得更加灵活、快速和易于使用。扩展后,增加了其功能AI开发的全新TF32,它可以使其无需更改任何代码FP32精度下的AI性能提升多达20倍。TensorCore现在核心支持FP与上一代相比,64精度HPC应用程序提供的计算能力比以前提高了多达2倍.5倍。

  多实例GPU–MIG,一种全新的技术功能,可以单独使用A100GPU多达七个独立GPU,为不同规模的工作提供不同的计算能力,从而最大化最佳利用率和投资回报率。

  第三代NVIDIANVLink–使GPU两者之间的高速连接增加到原来的两倍,从而实现服务器的高效性能扩展。

  结构化稀疏–这种新种新的效率技术AI数学固有的稀疏性,使性能翻倍。

  有了这些新功能,NVIDIAA100变成了AI训练与推理,科学模拟,对话AI,各种高要求工作负荷的理想选择,如推荐系统、基因组学、高性能数据分析、地震建模、财务预测等。

  新系统已经搭载NVIDIAA100,即将登陆云端

  今天同时发布NVIDIADGX™A100系统,其内置8个NVIDIANVLink互联的NVIDIAA100GPU。NVIDIA与官方合作伙伴现在已经开始供应系统。

  阿里云,AWS,百度智能云,GoogleCloud,MicrosoftAzure,甲骨文和腾讯云计划提供基于A100的服务。

  此外,许多世界领先的系统制造商还将提供各种基于A100服务器,包括Atos,思科,DellTechnologies,富士通,技嘉科技,新华三,HPE,浪潮,联想,Quanta/QCT和Supermicro。

  为了帮助合作伙伴加速服务器的开发,NVIDIA开发了HGXA100服务器构建模块,采用多个模块GPU集成基板配置。

  HGXA1004-GPU通过NVLink实现GPU完整的互连,8-GPU配置的HGX