Azure和NVIDIA为AI提供下一代GPU加速

微软Azure用户现在能够利用NVIDIA加速计算技术的最新进展,彻底改变其生成式人工智能应用程序的培训和部署。


Azure ND H100 v5虚拟机(vm)与NVIDIA H100 Tensor Core gpu和Quantum-2 InfiniBand网络的集成保证了生成式AI和高性能计算应用的无缝扩展,所有这些都只需点击一个按钮。


当开发人员和研究人员正在积极探索大型语言模型(llm)和加速计算的潜力以解锁新的消费者和业务用例时,这种尖端的协作出现在关键时刻。


NVIDIA的H100 GPU通过一系列架构创新实现了超级计算级的性能。其中包括第四代Tensor Cores,用于增强LLM加速的新Transformer Engine,以及将gpu间通信速度提升至900GB/秒的NVLink技术。


NVIDIA Quantum-2 CX7 InfiniBand的集成-拥有3,200 Gbps的跨节点带宽-确保跨gpu的完美性能,即使在大规模的情况下也是如此。这种能力使该技术与世界上最先进的超级计算机的计算能力不相上下。


新推出的ND H100 v5虚拟机在训练和推断日益复杂的llm和计算机视觉模型方面具有巨大的潜力。这些神经网络支持最复杂和计算密集型的生成式人工智能应用,从问答和代码生成到音频、视频、图像合成和语音识别。


ND H100 v5虚拟机的一个突出特点是它们能够在LLM推理中实现高达2倍的加速,特别是与上一代实例相比,BLOOM 175B模型证明了这一点。这种性能提升凸显了他们进一步优化人工智能应用的能力,从而推动了各行业的创新。


NVIDIA H100 Tensor Core gpu与微软Azure之间的协同作用为企业提供了无与伦比的人工智能训练和推理能力。通过整合NVIDIA AI企业软件套件和面向MLOps的Azure机器学习,这一合作伙伴关系还简化了生产人工智能的开发和部署。


正如行业标准MLPerf基准测试所验证的那样,双方的共同努力带来了突破性的人工智能性能。



NVIDIA Omniverse平台与Azure的集成进一步扩展了此次合作的范围,为用户提供了工业数字化和人工智能超级计算所需的一切。


(图片来源:来自Pixabay的Uwe Hoh)



作者:Ryan Daws


https://www.artificialintelligence-news.com/2023/08/11/ibm-research-breakthrough-analog-ai-chip-deep-learning/


著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com