您的位置:

PyTorch固定随机种子的多个方面详解

一、为什么要固定随机种子

在深度学习中,模型的性能经常收到随机性的影响,如初始化、Dropout, BN等。这些随机性导致相同的训练过程,在不同的运行中可能会得到不同的结果或者训练过程会发生不同的情况。这对于实验的可重复性和比较来说是不可取的。为此,我们需要建立一般的方法来固定或控制这些随机化元素,以确保实验的可重复性。

二、PyTorch中随机种子固定的方法

在PyTorch中,我们可以使用以下代码来允许固定随机种子:

import torch
import random
import numpy as np

# Set the random seed manually for reproducibility.
torch.manual_seed(0)
# Set the random seed manually for reproducibility.
np.random.seed(0)
# Set the random seed manually for reproducibility.
random.seed(0)

在上述代码示例中,我们使用PyTorch、NumPy和Python内置随机函数库的函数分别调用了函数torch.manual_seed(0), np.random.seed(0)和random.seed(0)来设置随机种子。

三、 PyTorch中随机种子固定的方法详解

1、torch.backends.cudnn.benchmark

在使用GPU进行训练时,使用cudnn.benchmark可以自动寻求最优的cudnn算法来优化训练速度,但同时也会引入随机因素。因此,在使用可重复的实验时,我们要将其关闭。示例:

import torch.backends.cudnn as cudnn
# Turn off benchmark mode when not needed
cudnn.benchmark = False
torch.backends.cudnn.deterministic = True

2、针对卷积器权重和偏执设置随机种子

在PyTorch中,通过nn.Conv2d类建立的卷积层,如果不显式的设置卷积层的偏置以及权重,PyTorch会自动生成。生成方式参考其源码,它会从均匀分布U(-stdv, stdv)中随机取值,其中stdv为sqrt(1 / n),其中n等于权重的元素个数或者输入通道数。对于这个变量的初始值的设置,会对模型的训练有很大的影响,这也是一个重要的随机因素。我们可以通过如下代码来设置随机种子:

torch.manual_seed(123)
model = nn.Sequential(nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1),
                      nn.ReLU(),
                      nn.MaxPool2d(kernel_size=2, stride=2),
                      nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1),
                      nn.ReLU(),
                      nn.MaxPool2d(kernel_size=2, stride=2))

# Explicitly define the initialization of the conv parameters
for p in model.parameters():
    if len(p.shape) >=2:
        torch.nn.init.xavier_normal_(p)

3、随机数据生成器的随机种子

在模型训练的过程中,我们需要考虑输入的数据集是否容易受到随机性的影响,如果是,则需要初始化其生成方法的随机种子。示例代码:

# Configure the data generator to have a stable randomization pattern
train_loader = torch.utils.data.DataLoader(
    torchvision.datasets.ImageFolder(train_dir, transforms.Compose([
        transforms.RandomHorizontalFlip(),
        transforms.RandomRotation(10),
        transforms.RandomResizedCrop(size),
        transforms.ToTensor(),
        normalize,
    ])),
    batch_size=args.batch_size, shuffle=True,
    num_workers=args.workers, pin_memory=True)

4、 Dropout和BN层的随机种子

PyTorch中的Dropout和Batch Normalization层,同样会影响神经网络的性能。对于Dropout层的构建,可以手动设置随机种子:

class Model(nn.Module):

    def __init__(self):
        super(Model, self).__init__()
        self.dropout = nn.Dropout(p=0.5)

    def forward(self, x):
        x = self.dropout(x)
        return x

model = Model()
model.train()

# Explicitly define dropout's random seed
torch.manual_seed(123)
dropout_output1 = model(torch.randn([1, 3]))

# If we set the random seed again, we should get the same result.
torch.manual_seed(123)
dropout_output2 = model(torch.randn([1, 3]))

print(torch.all(torch.eq(dropout_output1, dropout_output2)))

对于Batch Normalization层,由于其属于一个自适应的过程,其无法通过简单的固定随机种子的方法固定其均值和方差。但是我们可以修改内部的参考数据集,使之与训练之前的数据保持一致,来实现模型的可复现性。代码示例:

class MyModel(nn.Module):

    def __init__(self):
        super(MyModel, self).__init__()
        self.bn = nn.BatchNorm2d(5)

    def forward(self, x):
        x = self.bn(x)
        return x

model = MyModel()

# In order to make the batch_norm layer deterministic,
# we can manually set the running mean/std to a known value.

# Assuming you have inputs of shape (batch_size, channel, height, width)
inputs = torch.randn(32, 5, 24, 24)

# Load the BN layer with data with fixed mean/std.
model.eval()
out = model(inputs)
model.train()
print(out.mean(), out.var())

四、 总结

在PyTorch中,固定随机种子是非常关键的方法之一来确保实验的可重复性。在实际的开发过程中,我们需要考虑到多个方面的随机化元素,如Dropout、BatchNormalization层等等。只有统一设置好随机种子,才能保证各种实验之间的可比性和生产环境的稳定性。