尝试在虚拟机的linux系统中用intel cpu中itegrated gpu的hevc_qsv的功能,提示如下:
原因是: 虚拟机中不支持GPU的虚拟化 。
所以应该在直接装liunx的机器上运行hevc_qsv的功能。
成功时显示信息如下:
选择GPU服务器时首先要考虑业务需求来选择适合的GPU型号。在HPC高性能计算中还需要根据精度来选择,比如有的高性能计算需要双精度,这时如果使用P40或者P4就不合适,只能使用V100或者P100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此选择GPU型号要先看业务需求。
GPU服务器人工智能领域的应用也比较多。在教学场景中,对GPU虚拟化的要求比较高。根据课堂人数,一个老师可能需要将GPU服务器虚拟出30甚至60个虚拟GPU,因此批量Training对GPU要求比较高,通常用V100做GPU的训练。模型训练完之后需要进行推理,因此推理一般会使用P4或者T4,少部分情况也会用V100。
综上所述,选择服务器时不仅需要考虑业务需求,还要考虑性能指标,比如精度、显存类型、显存容量以及功耗等,同时也会有一些服务器是需要水冷、降噪或者对温度、移动性等等方面有特殊的要求,就需要特殊定制的服务器。
欢迎了解更多:网页链接
可以。vm可以装Ubuntu,但是不能使用宿主机显卡,所以gpu版的TensorFlow跑不起来。
宿主机最好装一个Linux,然后安装Docker,通过制作Docker镜像(宿主机需要事先装好NVIDIA驱动,容器内需要对应的cuda库及相关。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)