卷积层的作用是提取输入图片中的信息,这些信息被称为图像特征,这些特征是由图像中的每个像素通过组合或者独立的方式所体现,比如图片的纹理特征,颜色特征。
卷积层有很多卷积核,通过做越来越多的卷积,提取到的图像特征会越来越抽象。
# 此方法中有初始化的卷积核,因此只需要指定卷积核大小即可,不需要管其中内容
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros')
in_channels
:参数代表输入特征矩阵的深度即channel
,比如输入一张RGB
彩色图像,那in_channels=3
out_channels
:参数代表卷积核的个数,使用n
个卷积核输出的特征矩阵深度即channel
就是n
kernel_size
:参数代表卷积核的尺寸,输入可以是int
类型如3
,代表卷积核的height=width=3
,也可以是tuple
类型如(3, 5)
代表卷积核的height=3,width=5
stride
:参数代表卷积核的步距,默认为1
,和kernel_size
一样输入可以是int
类型,也可以是tuple
类型【传入若为(2,3)
,即卷积核每次向右移动2
格,右边不够位后回到起点向下移动3
格重新开始】
padding
:参数代表在输入特征矩阵四周补零的情况默认为0
【上图👆就在外围补了一圈0
】,同样输入可以为int
型如1
代表上下方向各补一行0
元素,左右方向各补一列0
像素
如果输入为tuple
型如(2, 1)
代表在上方补2
行下方补2
行,左边补1
列,右边补1
列。padding[0]
是在H
高度方向两侧填充,padding[1]
是在W
宽度方向两侧填充
bias
:参数表示是否使用偏置,默认使用
其余参数较少使用,此处省略
在卷积操作过程中,我们知道矩阵经卷积操作后的尺寸由以下👇几个因素决定:
输入图片的大小 W×WW \times WW×W
若大小为H×WH \times WH×W,则用下边公式👇分别计算得到新的H
和W
,二者相乘为矩阵尺寸N
卷积核kernel_size
大小 K×KK \times KK×K
步长stride
大小S
填充padding
大小P
矩阵尺寸 N=⌊W−K+2PS⌋+1如下代码经过卷积得到的矩阵尺寸为N=⌊5−2+2×12⌋+1=3矩阵尺寸\ N = \left \lfloor \dfrac{W − K + 2P }{S} \right \rfloor + 1\\ \\ 如下代码经过卷积得到的矩阵尺寸为N = \left \lfloor \dfrac{5 − 2 + 2\times 1 }{2} \right \rfloor + 1=3 矩阵尺寸 N=⌊SW−K+2P⌋+1如下代码经过卷积得到的矩阵尺寸为N=⌊25−2+2×1⌋+1=3
import torch
import torch.nn as nn
# 利用标准正态分布填充
# 四维分别对应:(batch_size,channel,H,W)
im = torch.randn(1, 1, 5, 5)
c = nn.Conv2d(in_channels=1, out_channels=1,kernel_size=2, stride=2, padding=1)
output = c(im)
print("原(1,1,5,5)张量:")
print(im)
print("经卷积处理后的张量:")
print(output)
具体可看此博客👉:理解卷积神经网络中的通道channel
最初输入的图片样本的 channels
,即in_channels
,取决于图片类型,比如RGB
图像作为输入时channels=3
卷积操作完成后输出的 out_channels
,取决于卷积核【可以理解为每个卷积核通过计算会得到 “一层” 结果,层数即为通道数】的数量。此时的 out_channels
也会作为下一次卷积时的卷积核的 in_channels
;
多层的卷积核叫做过滤器
池化层的作用是对卷积层中提取的特征进行挑选
常见的池化操作有最大池化和平均池化,池化层是由 n×nn\times nn×n 大小的矩阵窗口滑动来进行计算的,类似于卷积层,只不过不是做互相关运算,而是求 n×nn\times nn×n 大小的矩阵中的最大值、平均值等
池化层主要有以下👇几个作用:
WxH
kernel_size
的尺寸FxF
stride
的大小S
padding
【如果传入参数使用了padding
参数,则理解为输入图像W
和H
多了 2×padding2\times padding2×padding 即可】W=⌊W−FS+1⌋H=⌊H−FS+1⌋\begin{aligned} W & =\left \lfloor \frac{W-F}{S}+1 \right \rfloor \\ H & =\left \lfloor \frac{\mathrm{H}-\mathrm{F}}{\mathrm{S}}+1 \right \rfloor \end{aligned} WH=⌊SW−F+1⌋=⌊SH−F+1⌋
池化不改变通道数,因此若输入图像通道数为D
,则经过池化后通道数仍然为D
import torch
import torch.nn as nn
# 四维分别对应:(batch_size,channel,H,W)
im = torch.randn(1, 64, 112, 112)
# 卷积核为3*3,步长为2,上下左右各填充1行
# 原图像W=H=112,由于padding=1,因此最后图像大小应为W=H= 112 + 2*1 =114
# 代入公式时 W= H= 114
c = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
output = c(im)
print("原张量尺寸:")
print(im.shape)
print("经最大池化处理后的张量尺寸:")
print(output.shape)
上一篇:linux环境配置git认证