设计思想
使用mlpconv网络替代传统的convolution层
不用FC层
- 减了少参数个数,进而网络层数可以加深,加快训练速度;
- 由于参数过多,网络过大,GPU显存不够限制了网络层的增加,从而限制了模型的泛化能力;
核心结构mlpconv
mlpconv = conv + 1×1conv + 1×1conv(2层的mlp)
1×1卷积核作用:
- 实现通道间的信息交互和整合(加了1*1后,对通道也学习了一下。例如3D卷积就是学习 通道信息);
- 卷积核通道数的降维和升维;
ResNet中也用到了1×1卷积,并在3×3前后都使用了。既进行了降维,还进行了升维,使卷积的输入和输出通道都减小了,参数数量进一步减小;