如何部署GPU满足服务器工作负载需求

如何部署GPU满足服务器工作负载需求,第1张

选择GPU服务器时首先要考虑业务需求来选择适合的GPU型号。在HPC高性能计算中还需要根据精度来选择,比如有的高性能计算需要双精度,这时如果使用P40或者P4就不合适,只能使用V100或者P100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此选择GPU型号要先看业务需求。

GPU服务器人工智能领域的应用也比较多。在教学场景中,对GPU虚拟化的要求比较高。根据课堂人数,一个老师可能需要将GPU服务器虚拟出30甚至60个虚拟GPU,因此批量Training对GPU要求比较高,通常用V100做GPU的训练。模型训练完之后需要进行推理,因此推理一般会使用P4或者T4,少部分情况也会用V100。

综上所述,选择服务器时不仅需要考虑业务需求,还要考虑性能指标,比如精度、显存类型、显存容量以及功耗等,同时也会有一些服务器是需要水冷、降噪或者对温度、移动性等等方面有特殊的要求,就需要特殊定制的服务器。

欢迎了解更多:网页链接

IW4211-8G GPU服务器,具有高性能、高密度、可扩展性强的特点,支持双路Intel® Xeon® Scalable 处理器,部分型号单CPU性能提升36%, 采用 Intel C622 芯片组设计,标配 12个硬盘位,双万兆光纤高速互联,可作为 GPU 计算集群超高密度、高性能的节点平台;标准的4U机架式服务器结构,整机系统设计可提供超强专业显卡扩展能力,加配后置风扇设计,能够保证系统在高配置下的散热和整机稳定性;是超大模型人工智能训练、HPC高密度计算的优选。你可以去咨询下思腾合力,它是英伟达的精英级合作伙伴,而且思腾合力IW4211-8G/8Gs/16G配置CPU与GPU间的连接拓扑有三种:Common模式、Cascaded模式及Balanced模式,三种拓扑间通过变换线缆连接方式进行变换,根据不同应用下的实测数据进行调优使用。

传统的风冷散热:通过散热器将CPU发出的热量转移至散热器块,然后通过风扇将热气吹走。因此还需要空调给环境降温。液冷散热:指通过液体来替代空气,把CPU、内存条、芯片组、扩展卡、GPU 等器件在运行时所产生的热量带走液冷散热运行相比于风冷散热更安静(没有风扇产生的噪音);同体积液体比同体积空气带走的热量更多,导热更强,也就是降温效率更高;功耗也更低;而且采用液冷技术后,还可减少空调机的投入,节省空间。但液冷散热的成本高,维护比较困难。目前国内有很多企业像蓝海大脑、联想、华为、浪潮等都在从事研究液冷散热这一领域。个人比较喜欢蓝海大脑,主要是因为有次和他们合作,感觉他们做事情很职业很负责,沟通也比较顺畅。是异构计算的高性能超算平台公司,专注为企业数据中心、云计算、人工智能、边缘计算、生命科学等领域的高性能服务商。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/606320.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-07-12
下一篇2023-07-12

发表评论

登录后才能评论

评论列表(0条)

    保存