图像分类学习笔记
时间:2023-10-24 16:37:01
- CNN结构的演化
- AlexNet
- 2012年的第一
- ReLU
- Max pooling
- dropout 归一
- 2个GPU跑,分两条路;其实也可以作为一个想法,一个边缘设备,然后切割batch
- LRN(以后用不到)
- NIN
- 开始考虑如何减少参数
- 1*1卷积
- 深度卷积核的运算是相应的层卷积累
- 所以1*1深度卷积核是直接累积输入的层
- 可以实现特征图通道数的降维和升维
- 降维:训练减少参数
- 升维:更多特征
- VGG
- 认为LRN没用,浪费开销
- 减少参数,减少计算,增加深度
- 核分解
- 7*7->3个3*3 ReLU
- 参数数量 暴跌
- 至于具体的层数和核数,需要逐一测试,但总体上倾向于使用3*3的核
- vgg16层 19层
- 穷举层数和激活层
- ImageNet-2014第一