即运用如下指令进行装置
pip3 install torch torchvision torchaudio
或许conda指令为:
conda install pytorch torchvision torchaudio -c pytorch
以下是Pytorch 1.12发布时所展现的性能比照,能够看到在训练和验证普遍都快了5-20倍。
运用M1芯片进行加快
要想像运用服务器的GPU上进行深度学习加快,就需要将模型放到GPU上,在服务器中这个操作是经过
device = torch.device("cuda:0")
model = model.to(device)
完成,而MacBook Pro中只需要将cuda改为mps即可,即
device = torch.device("mps")
model = model.to(device)
例如,咱们能够将数据和模型经过指定device的方法生成或许从cpu搬到GPU上,示例代码如下:
import torch
import torchvision
device = torch.device("mps")
x = torch.randn(32, 32, device=device)
model = torchvision.models.resnet18().to(device)
print(x.device)
print(next(model.parameters()).device)
这里的变量x直接经过指定device的方法在mps即M1芯片的GPU上生成,而模型resnet18则是从CPU生成后搬到了mps。
先在CPU中生成了随机数。linux跑pytorch因为先在CPU中生成了随机数。在使用pytorch的过程中,发现CPU占用率过高。经过检查,发现是因为先在CPU中生成了随机数,然后再调用to(device)传到GPU。在服务器上跑pytorch服务,cpu核心全部占用,影响其他服务的性能
pytorch默认是能用多少线程就用多少的,可通过一下方法设置线程
通过减少线程数,可以减少cpu占用,同时也会使得服务的qps有所下降
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)