搜索引擎优化论文(强化学习进行神经网络架构搜索方法(proxydataset)论文解读 )

优采云 发布时间: 2022-02-04 15:21

  搜索引擎优化论文(强化学习进行神经网络架构搜索方法(proxydataset)论文解读

)

  论文:学习可迁移架构以进行可扩展图像识别

  

  介绍

  论文作者在 ICLR 2017 上使用强化学习进行神经网络架构搜索,取得了不错的性能,但这种搜索方式需要大量的计算资源。在 CIFAR-10 上搜索 28 天需要 800 个 GPU,这在大型数据集上几乎是不可能的。寻找。因此,论文提出在代理数据集上进行搜索,然后将网络迁移到 ImageNet。主要亮点如下:

  方法

  

  论文的神经网络搜索方法沿用了经典的强化学习方法。具体可以参考我之前的论文解读。流程如图1所示。简单来说就是用RNN生成网络结构,然后在数据集上训练,收敛后根据准确率调整RNN的权重。论文的核心是定义一个新的搜索空间,称为NASNet搜索空间。论文观察到目前优秀的网络结构,比如ResNet和Inception,其实都是堆叠着重复的模块(cells),所以RNN可以用来预测一般的卷积模块,这样的模块可以组合堆叠成一系列的模型,论文主要收录两种单元:

  

  图 2 展示了 CIFAR-10 和 ImageNet 的网络框架。图像输入分别为 32x32 和 299x299。Reduction Cell和Normal Cell可以是相同的结构,但是论文发现独立的结构更好。当减少特征图的大小时,手动将卷积核的数量翻倍,以大致保持特征点的总数。另外,单元的重复次数N和卷积核的初始个数都是手动设置的,针对不同的分类问题

  

  单元的结构在搜索空间中定义。首先选择前两个低级单元的输出和作为输入,然后控制器RNN预测剩余的卷积单元结构块。单块预测如图3所示,每个单元(cell)由B个块组成,每个块收录5个预测步骤,每个步骤由一个softmax分类器选择,块的预测如下:

  

  Step 3 和 4 中选择的操作包括上述一些主流的卷积网络操作,而 Step 5 中的 merge 操作主要包括两种:1) element-wise addition 2) concatenation,最后,所有 Unused隐藏层输出连接在一起作为单元输出。控制器RNN总共执行子预测,前者作为Normal Cell,另一个作为Reduction Cell。在 RNN 训练方面,强化学习和随机搜索都可以使用。实验发现随机搜索只比强化学习得到的网络稍差。,这意味着:

  实验和结果

  控制器RNN使用近端策略优化(PPO)进行训练,以全局工作队列的形式对子网络进行分布式训练。实验总共使用 500 个 P100 来训练队列中的网络。整个训练耗时4天,相比上一版800 Block K40训练28天,训练加速7倍以上,效果更佳

  

  图 4 显示了性能最好的 Normal Cell 和 Reduction Cell 的结构,它们是通过在 CIFAR-10 上搜索获得的,然后转移到 ImageNet。得到卷积单元后,需要修改几个超参数来构建最终的网络。首先是单元重复次数N,然后是初始单元的卷积核个数,比如4个单元的重复次数和初始单元的卷积核个数。具体检索方法请参考论文附录A。需要注意的是,论文提出了 DropPath 的改进版本,一种称为 ScheduledDropPath 的正则化方法。DropPath是在训练时以一定概率随机丢弃cell的路径(如图4中*敏*感*词*框连接的边),但在论文的情况下它不是很有效。因此,论文改用ScheduledDropPath,在训练过程中线性增加drop的概率

  CIFAR-10 图像分类结果

  

  NASNet-A 通过随机裁剪数据增强实现 SOTA

  ImageNet 图像分类结果

  

  论文将在CIFAR-10上学习到的结构转移到ImageNet上,最大模型达到SOTA(82.7%),与SENet的准确率一致,但参数数量大大减少

  

  图 5 直观地展示了 NASNet 系列与其他人工构建的网络的比较。NASNet 在各方面都优于人工构建的网络。

  

  论文还测试了移动端配置的网络准确性。要求网络的参数和计算量足够小,NASNet仍然有非常抢眼的表现。

  改进的对象检测功能

  

  本文研究了 NASNet 在其他视觉任务中的表现,并使用 NASNet 作为 Faster-RCNN 的主干,在 COCO 训练集上进行测试。与移动网络相比,mAP达到了29.6%的mAP,提升了5.1%。使用最好的 NASNet,mAP 达到 43.1% mAP,提高了 4.0% mAP。结果表明,NASNet 可以提供更丰富、更通用的特征,从而在其他视觉任务中表现良好

  架构搜索方法的效率

  

  论文比较了网络搜索方法的性能,主要是强化学习方法(RL)和随机搜索方法(RS)。对于最佳网络,RL 搜索的整体准确率比 RS 高 1%,而对于整体性能(如 top-5 和 top-25),这两种方法比较接近。因此,论文认为虽然RS是一种可行的搜索策略,但RL在NASNet的搜索空间中表现更好

  结论

  论文在前人使用强化学习对神经网络架构搜索的研究基础上,将搜索空间从整体网络转换为一个卷积单元(cell),然后根据设置堆叠成一个新的网络NASNet。这不仅降低了搜索的复杂度,而且加快了搜索过程,从 28 天到 4 天,而且搜索到的结构具有可扩展性,可以在小模型和大模型场景中使用较少的参数和参数。另外,由于搜索空间和模型结构的巧妙设计,论文可以将小数据集学习到的结构迁移到大数据集,通用性更好。并且网络在目标检测领域的表现也相当不错

  附录 NASNet-B & NASNet-C

  论文中还有另外两种结构,NASNet-B 和 NASNet-C。搜索空间和方法与 NASNet-A 有点不同。有兴趣的可以去看原文的附录。

  

  

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线