NVIDIA在过去几年中已经成为了人工智能巨头,他们的GPU不仅成为HPC的首选,也成为了数据中心(包括人工智能和深度学习生态系统)的首选。最近,NVIDIA宣布,它正在利用人工智能来设计和开发远远优于人类创建的GPU,看起来NVIDIA的旗舰Hopper GPU就是对这一声明的证明,该声明的特点是近13000个电路实例完全由AI制作。
 
NVIDIA最先进的hopper GPU[有13000个AI设计电路]
 
在NVIDIA开发者网站上发布的博客中,该公司重申了其优势以及它自己如何利用其AI能力创建其最大的GPU,即HopperH100。NVIDIAGPU主要使用最先进的EDA(电子设计自动化)工具设计,但在AI使用PrefixRL方法(使用深度强化学习优化并行前缀电路)的帮助下,公司可以创建更小、更快,更节能的芯片同时具有更好的性能。
 
计算机芯片中的算术电路是使用逻辑门网络(例如NAND、NOR和XOR)和电线构建的。所需的电路应具有以下特性:
 
  1. 小:允许更多电路安装在芯片上的底面。
  2. 快速:减少延迟以提高芯片性能。
  3. 消耗更少的功率:芯片的功耗更低。
 
NVIDIA使用这种方法设计了近13,000个AI辅助电路,与EDA工具相比,它们的面积减少了25%,而EDA工具的速度和功能相当。但是PrefixRL据说是一项计算量非常大的任务,并且物理模拟每个GPU需要256个CPU和超过32,000个GPU小时。为了消除这一瓶颈,NVIDIA开发了Raptor,这是一个内部分布式强化学习平台,专门利用NVIDIA硬件进行此类工业强化学习。
 
NVIDIA最先进的hopper GPU[有13000个AI设计电路]
 
Raptor有几个功能可以提高可扩展性和训练速度,例如:B.作业调度、自定义网络和支持GPU的数据结构。在PrefixRL的上下文中,Raptor允许将工作分布在CPU、GPU和Spot实例的混合中。
 
此强化学习应用程序中的网络是多种多样的,并受益于以下几点。
 
  1. Raptor在NCCL之间切换以进行点对点传输以将模型参数直接从学习器GPU传输到推理GPU的能力。
  2. Redis用于异步和较小的消息,例如奖励或统计信息。
  3. 一个JIT编译的RPC来处理大容量、低延迟的请求,例如B.上传经验数据。
 
NVIDIA得出结论,将AI应用于现实世界的电路设计问题可能会在未来带来更好的GPU设计。
装机