FILTER W0和W1的规格是相同的,在做计算的时候可以选择不同的卷积层,但是在同一个卷积层中必须是相同的
3*3*2
2表示的是输出结果的深度
3表示输出结果的深度和宽度
step=2
把所有区域都滑动完成后,区域就做出来了,得到当前特征图的结果
选定指定大小计算内积
卷积的结果是特征图
h*w*c
得到的特征图的深度是6,结果是由6个图叠加到一起的
pad:填充
0代替边界成为新边界
w1,h1表示输出的宽度长度,f表示卷积核长和宽的大小,S表示滑动窗口的步长,P表示边界的填充
经过卷积后,输出的规模不一定变小,输出结果是
32*32*10
10是从10个filter中来的
对于不同区域,卷积核中的值应该是不同的
数据使用图像,使用10个xx规模的filter来进行卷积操作,所需要的权重参数有多少个?
每一个位置都选择相同的卷积核
比全连接网络的参数少的多,好训练!!!
64表示得到64的特征图
池化层:做压缩的,下采样 downsampling
体积变成原来的四分之一倍
是要有选择性的压缩
在原始得到的特征基础上进行筛选。CHANNEL变了,但是长和宽不会发生改变。
选择不同区域,每个区域选择最大的值,只是做了一个筛选工作而已。
神经网络中大的值代表这个东西比较重要,只选大的,只挑比较重要的
AVERAGE POOLING 不常用
卷积层都会跟RELU函数搭在一起
想得到一个结果,还是需要一个全连接层
把之前提取出来的东西,拉成一个特征向量,很长,特征向量中的每一个东西都是一个值。【10240,5】,把10240个特征转换成5个类别的东西。
什么是一层?
转换:把长方体
转换成一条向量
向量才能进入全连接层,最终得到分类的实际结果