【图像分类骨干网络】AlexNet
时间:2023-10-24 14:37:02
为了降低ImageNet LSVRC-提出了2010年的分类错误AlexNet网络(Krizhevsky, Sutskever, & Hinton, 2012年,该网络共有8层,包括5个卷积层和3个全连接层。基于网络训练耗时,实现了一种基础GPU此外,还使用了卷积计算dropout有效避免全连接层的过拟合。最后,在ILSVRC-在2012年的比赛中,获得了15场.3%的top-错误率比第二名低近10个百分点。
文献认为,卷积层的深度对分类效果有很大影响AlexNet中间层的任何卷积层都可能被移除top-1分类精度下降2%。
AlexNet网络卷积层采用11×11,5×5和3×三种不同尺寸的滤波器,这种设计的起点是什么?
使用全连接层Dropout虽然该技术可以在一定程度上缓解拟合现象,但全连接层的巨大参数导致模型过大。此外,全连接层对分类效果的贡献不明确。文章中是否有相关研究,为什么有三个全连接层,而不是两个或一个?增加一个全连接层和一个卷积层,两者对提高分类效果的贡献是否相同?
在第二章中介绍数据集是不合理的。通常,本文实验将使用的数据集将设置在实验中。
AlexNet网络的贡献是:
- 在ILSVRC-2010和ILSVRC-2012年训练了当时最大的卷积神经网络,获得了STOA的效果;
- 在GPU上实现了2D由于卷积等训练卷积网络的操作,有效减少了AlexNet训练时间;
- 利用ReLU、LRN、GPU训练深度卷积神经网络等方法,改进AlexNet网络分类效果,减少训练时间;
- 引入数据增强,dropout技术避免过拟合;
文献评述:
- AlexNet掀起了在GPU训练深度卷积神经网络的浪潮;
- AlexNet是当时最深的卷积神经网络,当时训练深度卷积神经网络面临的主要挑战是什么?AlexNet是第一次引入吗?GPU训练深度卷积神经网络;
- 在介绍网络结构之前,充分说明了为什么引入这些技术,采用问题驱动的方式进行介绍;