在PyTorch中,DataParallel 是一个模块,它允许你在多个GPU上分布式地训练模型。为了让输入数据自动移动到GPU,你需要做的是将模型和数据包装在 DataParallel 中。以下是一个简单的例子,展示如何使用 DataParallel:import torch
import torch.nn as nn
from torch.ut[...]
数据准备import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
# Set random seed for reproducibility
np.random.seed(0)
torch.manual_seed(0)
# Gene[...]
代码如下:import torchvision
from PIL import Image
import torchvision.transforms as transforms
from matplotlib import pyplot as plt
from torchvision.models.feature_extraction impor[...]
对于Variable的态度,PyTorch官方明确说明:deprecated已经被废弃。下面是PyTorch官方说明:The Variable API has been deprecated: Variables are no longer necessary to use autograd with tensors. Autograd autom[...]