前言

PyTorch 是一个基于 Python 的深度学习平台,它简单易用上手快的同时功能十分强大。

本篇文章首先将介绍 PyTorch 的基本数据结构 Tensor 的一些操作;随后给出神经网络中的 HelloWorld 例子:用最经典的卷积神经网络(LeNet5)训练手写数据集 MNIST

PyTorch 中的 Tensor

以下内容来自: https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html

Tensor 简单讲就是多维数组,用来表示各种维度的数据。

Tensor 的创建修改

  • 创建一个未初始化的 5*3 的 Tensor
1
2
import torch
torch.empty(5, 3)
1
2
3
4
5
tensor([[ 9.5708e+07,  3.0709e-41,  6.3358e-01],
        [ 7.7766e-01, -2.0187e-01, -8.6674e-01],
        [-5.1109e-01, -1.0250e+00, -9.1226e-01],
        [ 2.3205e-01,  5.3887e-01, -1.2480e-01],
        [-1.0433e+00,  1.2003e+00, -6.7501e-01]])
  • 初始化一个随机 5*3 矩阵
1
torch.rand(5, 3)
1
2
3
4
5
tensor([[0.0390, 0.5990, 0.0840],
        [0.6614, 0.7563, 0.2282],
        [0.0315, 0.6136, 0.1151],
        [0.6960, 0.7748, 0.0595],
        [0.2393, 0.2217, 0.3775]])
  • 初始化一个全零 5*3 矩阵,类型为 long
1
torch.zeros(5, 3, dtype=torch.long)
1
2
3
4
5
tensor([[0, 0, 0],
        [0, 0, 0],
        [0, 0, 0],
        [0, 0, 0],
        [0, 0, 0]])
  • 用数据初始化一个 tensor
1
torch.tensor([5.3, 4.6])
1
tensor([5.3000, 4.6000])
  • 从一个存在的 tensor 创建一个 tensor
1
2
3
4
5
6
x = torch.tensor([5.3, 4.6])
x = x.new_ones(5, 3, dtype=torch.double)
print(x)

x = torch.randn_like(x, dtype=torch.float)
print(x)
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
tensor([[1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.]], dtype=torch.float64)
tensor([[ 0.3986, -0.6534, -1.4937],
        [-0.2801,  0.0836, -1.0442],
        [-0.7142,  0.0531,  1.1577],
        [-0.6354,  0.3266, -1.3960],
        [ 1.7434,  1.7014,  0.4675]])
  • 返回大小
1
x.size()
1
torch.Size([5, 3])

Tensor 的一些操作

运算(如加法)

  • +号

    1
    2
    3
    
    x = torch.rand(5, 3)
    y = torch.rand(5, 3)
    print(x + y)
    
    1
    2
    3
    4
    5
    
    tensor([[0.9469, 0.3852, 1.5441],
            [0.4680, 0.5465, 1.4358],
            [1.1088, 0.9111, 1.7751],
            [0.6542, 0.4761, 0.4270],
            [0.1642, 1.5561, 0.7222]])
    
  • torch.add

    1
    
    torch.add(x, y)
    
    1
    2
    3
    4
    5
    
    tensor([[0.9469, 0.3852, 1.5441],
            [0.4680, 0.5465, 1.4358],
            [1.1088, 0.9111, 1.7751],
            [0.6542, 0.4761, 0.4270],
            [0.1642, 1.5561, 0.7222]])
    
  • 提供一个参数保存结果

    1
    2
    3
    
    result = torch.empty(5, 3)
    torch.add(x, y, out=result)
    print(result)
    
    1
    2
    3
    4
    5
    
    tensor([[0.9469, 0.3852, 1.5441],
            [0.4680, 0.5465, 1.4358],
            [1.1088, 0.9111, 1.7751],
            [0.6542, 0.4761, 0.4270],
            [0.1642, 1.5561, 0.7222]])
    
  • 原地相加

    1
    2
    
    y.add_(x)
    print(y)
    
    1
    2
    3
    4
    5
    
    tensor([[0.9469, 0.3852, 1.5441],
            [0.4680, 0.5465, 1.4358],
            [1.1088, 0.9111, 1.7751],
            [0.6542, 0.4761, 0.4270],
            [0.1642, 1.5561, 0.7222]])
    

改变维度,类似 numpy 中的 reshape

使用 tensor.view 改变 tensor 的大小。

1
2
3
4
x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8)  # -1 被推断成其它维度
print(x.size(), y.size(), z.size())
1
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])

返回值

对于只有一个元素的 tensor 通过 .item() 得到它的值

1
2
3
x = torch.randn(1)
print(x)
print(x.item())
1
2
tensor([-1.7529])
-1.7529343366622925

Tensor 转换成 Numpy

1
2
a = torch.ones(5)
print(a)
1
tensor([1., 1., 1., 1., 1.])
1
2
b = a.numpy()
print(b)
1
[1. 1. 1. 1. 1.]

a 和 b 共享内存

1
2
3
a.add_(1)
print(a)
print(b)
1
2
tensor([2., 2., 2., 2., 2.])
[2. 2. 2. 2. 2.]

Numpy 转换成 Tensor

1
2
3
4
5
6
import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)
1
2
[2. 2. 2. 2. 2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

CUDA Tensor

Tensor 可以移动到任意设备,通过 .to 方法

1
2
3
4
5
6
7
if (torch.cuda.is_available()):
    device = torch.device('cuda')
    y = torch.ones_like(x, device=device)
    x = x.to(device)
    z = x + y
    print(z)
    print(z.to('cpu', torch.double))
1
2
tensor([-0.7529], device='cuda:0')
tensor([-0.7529], dtype=torch.float64)

搭建 LeNet5 训练 MNIST 数据集

MNIST 数据集处理

虽然 PyTorch 中已经预置了 MNIST 数据集的处理代码,但是我们要有自己处理数据集的能力,特别是在学习阶段,所以本文会自己处理数据集,然后结合 PyTorch 的数据处理机制。

MNIST 数据集的结构

MNIST 数据集包含 60000 张训练用的图片,10000 张测试用的图片,每个图片均有对应的标签。每张图片的像素是 28 * 28,每个像素值的范围是 0 - 255,用 8 个比特表示。数据集有下面四个二进制文件,对应训练图片,训练标签,测试图片,测试标签:

train-images.idx3-ubyte

train-labels.idx1-ubyte

t10k-images.idx3-ubyte

t10k-labels.idx1-ubyte

图片(idx3)的格式:首先是 32 位的整数,是一个 magic 数字,接下来 32 位整数表示图片的数量,接下来的两个 32 位整数是分别是图片行数和列数,接下来是像素值,每个像素 8 位一个字节,取值 0-255。标签(idx1)的格式:首先是 32 位的整数,是一个 magic 数字,接下来 32 位整数表示标签的数量,接下来是标签的值,每个标签一个字节,取值 0-9。

更加详细的介绍可以看官方文档:http://yann.lecun.com/exdb/mnist/

下载地址:链接: https://pan.baidu.com/s/1Ve1mtx7UNq7im6xu0MVbdQ 提取码: c57g

读取数据集的代码

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
# -*- coding: utf-8 -*-
import os.path as path
import numpy as np
import codecs


class Mnist:
    def __init__(self, directory):
        """传入 MNIST 数据的目录
        """
        self.__directory = directory

    def load_data(self):
        """解析数据,返回一个元组(训练图片数据,训练标签数据,测试图片数据,测试标签数据)"""
        train_image_file = path.join(self.__directory, "train-images.idx3-ubyte")
        train_label_file = path.join(self.__directory, "train-labels.idx1-ubyte")
        test_image_file = path.join(self.__directory, "t10k-images.idx3-ubyte")
        test_label_file = path.join(self.__directory, "t10k-labels.idx1-ubyte")
        return (
            self.__decode_idx3(train_image_file),
            self.__decode_idx1(train_label_file),
            self.__decode_idx3(test_image_file),
            self.__decode_idx1(test_label_file),
        )

    def __get_int(self, byte):
        """把字节转换成int"""
        return int(codecs.encode(byte, "hex"), 16)

    def __decode_idx3(self, file):
        """解析图片数据文件,返回的数据维度,即shape=(length, 28, 28) dtype=uint8"""
        with open(file, "rb") as f:
            data = f.read()
            magic = self.__get_int(data[:4])
            length = self.__get_int(data[4:8])
            rows = self.__get_int(data[8:12])
            cols = self.__get_int(data[12:16])
            images = np.frombuffer(data, dtype=np.uint8, offset=16).reshape(
                length, rows, cols
            )
            return images

    def __decode_idx1(self, file):
        """解析标签数据,返回的数据维度,即shape=(length) dtype=int64"""
        with open(file, "rb") as f:
            data = f.read()
            length = get_int(data[4:8])
            labels = np.frombuffer(data, dtype=np.uint8, offset=8).astype(np.int64)
            # 转换成int64,因为PyTorch 需要对应的 Long 类型,也可以在后面进行转换
            return labels

PyTorch 的数据处理方法

PyTorch 提供了一个 torch.utils.data.DataLoader 工具对数据进行批量(batch)化,打乱数据,并行处理的等。=DataLoader= 的定义如下:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
DataLoader(dataset, batch_size=1, shuffle=False, sampler=None,
           num_workers=0, collate_fn=default_collate, pin_memory=False,
           drop_last=False)

# dataset:加载的数据集(Dataset对象)
# batch_size:batch size
# shuffle::是否将数据打乱
# sampler: 样本抽样
# num_workers:使用多进程加载的进程数,0代表不使用多进程
# collate_fn: 如何将多个样本数据拼接成一个batch,一般使用默认的拼接方式即可
# pin_memory:是否将数据保存在pin memory区,pin memory中的数据转到GPU会快一些
# drop_last:dataset中的数据个数可能不是batch_size的整数倍,drop_last为True会将多出来不足一个batch的数据丢弃

DataLoader 中第一个参数是一个 DataSet 对象,=DataSet= 提供一个抽象的接口,我们可以继承它来处理自己的数据集。通过下面的例子来说明使用方法。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
class MnistDataSet(data.Dataset):
    def __init__(self, root, train=True, transform=None, target_transform=None):
        """在 __init__ 中做一些初始化操作,如这里通过 Mnist 类将数据从文件读取到内存。
        对于比较小的数据集可以在这里一次性读入,如果数据集过大,需要使用其它方法。"""
        self.mnist = Mnist(root) # root 是数据目录,初始化Mnist
        self.train = train # 训练数据还是测试数据
        self.transform = transform # 预处理数据的方法
        self.target_transform = target_transform # 预处理标签数据的方法
        self.train_images, self.train_labels, self.test_images, self.test_labels = (
            self.mnist.load_data()
        ) # 将所有数据读到内存

    def __getitem__(self, index):
        """DataLoader 通过这个方法获取指定 index 的数据,必须要重写的方法"""
        if self.train:
            img, target = self.train_images[index], self.train_labels[index]
        else:
            img, target = self.test_images[index], self.test_labels[index]

        if self.transform is not None:
            img = self.transform(img) # 预处理

        if self.target_transform is not None:
            target = self.target_transform(target) # 对标签预处理

        return img, target

    def __len__(self):
        """数据的长度,必须重写"""
        if self.train:
            return self.train_images.shape[0]
        else:
            return self.test_images.shape[0]

搭建 LeNet5 网络

LeNet5 网络这里就不介绍了,CNN 入门网络。网络图如下:

PyTorch 搭建网络有四种方式,下面是我喜欢的一种,其它三种可以自行搜索

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34

# 继承自 nn.Module
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__() # 传入Net
        self.conv = nn.Sequential()
        # C1
        self.conv.add_module("C1", nn.Conv2d(1, 6, 5, padding=2))
        self.conv.add_module("Relu1", nn.ReLU())
        # S2
        self.conv.add_module("S2", nn.MaxPool2d(2))
        # C3
        self.conv.add_module("C3", nn.Conv2d(6, 16, 5))
        self.conv.add_module("Relu3", nn.ReLU())
        # S4
        self.conv.add_module("S4", nn.MaxPool2d(2))

        self.dense = nn.Sequential()
        # F5
        self.dense.add_module("F5", nn.Linear(16 * 5 * 5, 120))
        self.conv.add_module("Relu5", nn.ReLU())
        # F6
        self.dense.add_module("F6", nn.Linear(120, 84))
        self.conv.add_module("Relu6", nn.ReLU())
        # F7
        self.dense.add_module("F7", nn.Linear(84, 10))
        self.conv.add_module("Relu7", nn.ReLU())

    def forward(self, x):
        """定义前向传播,反向传播自动求导机制自动定义"""
        conv_out = self.conv(x)
        res = conv_out.view(conv_out.size(0), -1) # 多维变一维作为全连接的输入
        out = self.dense(res)
        return out

上面的网络跟图片上的完全一样,图片的输入是 32*32,所以 C1 层加个 padding=2

定义训练和测试方法

代码参考:https://github.com/pytorch/examples/blob/master/mnist/main.py

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
def train(args, model, device, train_loader, optimizer, epoch):
    """训练网络。
    args 为命令行参数;
    model 为定义的模型;
    device 为用到的设备;
    train_loader 为训练数据;
    optimizer 为权值更新方式;
    epoch 为训练的轮数"""
    model.train()  # 指定模型为训练模式

    # PyTorch 只接收 batch 作为输入数据,即输入是一个四维数组(nSamples*nChannels*Height*Weight)
    # 每一次循环就是一个batch
    for batch_idx, (data, target) in enumerate(train_loader):
        data, target = data.to(device), target.to(device)  # 数据给到指定设备 CPU/GPU
        optimizer.zero_grad()
        output = model(data)
        loss = F.cross_entropy(output, target)  # 这里使用交叉熵代价函数
        loss.backward()  # 反向传播
        optimizer.step()  # 更新

        # 输出日志
        if batch_idx % args.log_interval == 0:
            print(
                "Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss:{:.6f}".format(
                    epoch,
                    batch_idx * len(data),
                    len(train_loader.dataset),
                    100.0 * batch_idx / len(train_loader),
                    loss.item(),
                )
            )


def test(args, model, device, test_loader):
    """测试网络
    args 命令行参数;
    model 定义的模型;
    device 用到的设备;
    test_loader 测试数据;
    """
    model.eval()  # 指定模型为测试模式
    test_loss = 0
    correct = 0

    # 无梯度模式,具体看 PyTorch 的自动求导机制文档
    with torch.no_grad():
        for data, target in test_loader:
            data, target = data.to(device), target.to(device)
            output = model(data)
            test_loss += F.cross_entropy(output, target, reduction="sum").item()
            pred = output.argmax(dim=1, keepdim=True)
            correct += pred.eq(target.view_as(pred)).sum().item()

    test_loss /= len(test_loader.dataset)
    print(
        "\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.2f}%)\n".format(
            test_loss,
            correct,
            len(test_loader.dataset),
            100.0 * correct / len(test_loader.dataset),
        )
    )

训练过程

代码参考:https://github.com/pytorch/examples/blob/master/mnist/main.py

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88

def main():
    parser = argparse.ArgumentParser(description="MNIST")
    parser.add_argument(
        "--mnist-data", required=True, metavar="D", help="MNIST 数据集目录"
    )
    parser.add_argument(
        "--batch-size", type=int, default=64, metavar="N", help="训练的 batch 大小(默认:64)"
    )
    parser.add_argument(
        "--test-batch-size",
        type=int,
        default=1000,
        metavar="N",
        help="测试的 batch 大小(默认:1000)",
    )
    parser.add_argument(
        "--epochs", type=int, default=10, metavar="N", help="训练的轮数(默认:10)"
    )
    parser.add_argument(
        "--lr", type=float, default=0.01, metavar="LR", help="学习率 (默认:0.01)"
    )
    parser.add_argument(
        "--momentum", type=float, default=0.5, metavar="M", help="SGD momentum (默认:0.5)"
    )
    parser.add_argument(
        "--no-cuda", action="store_true", default=False, help="不使用 CUDA 训练 (默认:False)"
    )
    parser.add_argument("--seed", type=int, default=1, metavar="S", help="随机种子 (默认:1)")
    parser.add_argument(
        "--log-interval",
        type=int,
        default=10,
        metavar="N",
        help="输出一次训练状态的日志的 batch 间隔 (默认:10)",
    )
    parser.add_argument(
        "--save-model", action="store_true", default=False, help="保存模型 (默认:False)"
    )
    args = parser.parse_args()  # 解析命令行参数

    use_cuda = not args.no_cuda and torch.cuda.is_available()

    torch.manual_seed(args.seed)

    device = torch.device("cuda" if use_cuda else "cpu")

    kwargs = {"num_workers": 1, "pin_memory": True} if use_cuda else {}

    # 载入数据
    train_loader = data.DataLoader(
        dataset=MnistDataSet(
            args.mnist_data,
            train=True,
            transform=transforms.Compose(
                # 数据预处理,两个过程组合,第一个把 numpy 转换成tensor,
                # 第二个把数据归一化为 均值是0.1307,标准差是0.3081
                [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
            ),
        ),
        batch_size=args.batch_size,
        shuffle=True,
        **kwargs
    )
    test_loader = data.DataLoader(
        dataset=MnistDataSet(
            args.mnist_data,
            train=False,
            transform=transforms.Compose(
                [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
            ),
        ),
        batch_size=args.test_batch_size,
        shuffle=True,
        **kwargs
    )

    # 模型实例化
    model = Net().to(device)
    # 使用梯度下降
    optimizer = optim.SGD(model.parameters(), lr=args.lr, momentum=args.momentum)

    for epoch in range(1, args.epochs + 1):
        train(args, model, device, train_loader, optimizer, epoch)
        test(args, model, device, test_loader)

    if args.save_model:
        torch.save(model.state_dict(), "mnist_lenet5.pt")

训练结果

训练 10 轮后,正确率到达 98.52%