深度学习的三大要素是数据、算法和计算力,其中数据是基础,算法是工具,计算力是助推器,计算力的提高推动者深度学习的发展,深度学习之前发展缓慢,除了算法的原因外,很重要的一个原因是计算能力的不足,解决计算力最重要的支撑是AI服务器(这里主要指通用的AI服务器,GPU服务器)。下面就让小编为大家介绍ai人工智能服务器是什么?
ai人工智能服务器是什么?
AI服务器与普通的GPU服务器虽然组成上类似,核心计算部件都是GPU加速卡,但是不可等同,主要有以下几点区别:
1)卡的数量不一致:普通的GPU服务器一般是单卡或者双卡,AI服务器需要承担大量的计算,一般配置四块GPU卡以上,甚至要搭建AI服务器集群。
2)P2P通讯:普通GPU服务器要求的是单卡性能,AI训练中GPU卡间需要大量的参数通信,模型越复杂,通信量越大,所以AI服务器除了要求单卡性能外,还要求多卡间的通讯性能,采用PCI3.0协议通信的最大P2P带宽达到32GB/s,采用SXM2协议通信的最大P2P带宽达到50GB/s,采用SXM3协议通信的最大P2P带宽达到300GB/s。
3)独特设计:AI服务器由于有了多个GPU卡,需要针对性的对于系统结构、散热、拓扑等做专门的设计,才能满足AI服务器长期稳定运行的要求。
4)先进技术:AI服务器有很多更先进的技术,包括Purley平台更大内存带宽,NVlink提供更大的互联带宽,TensorCore提供更强的AI计算力。
AI服务器的诞生是由于浪潮对于AI行业和应用的深刻理解。浪潮开发的面向开发人员和运维人员的深度学习管理平台AIStation,多机多卡的深度学习框架Caffe-MPI,辅助调优工具Teye等软实力与硬件研发的硬实力耦合,相互促进,更好地发挥AI服务器的性能,从而为客户提供完整端到端的解决方案。以上就是小编为大家介绍的ai人工智能服务器是什么?的全部内容,感谢观看。
[免责声明]
文章标题: ai人工智能服务器是什么?
文章内容为网站编辑整理发布,仅供学习与参考,不代表本网站赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请及时沟通。发送邮件至36dianping@36kr.com,我们会在3个工作日内处理。