• 问答
  • 技术
  • 实践
  • 资源
难以置信的目标检测小妙招:多训练几个 epochs,平均一下就能获得更好的模型
技术讨论

本文转载我爱计算机视觉
原文链接https://mp.weixin.qq.com/s/stAVRiCQx3-JEeg-KvimIw

随着深度学习技术的成熟,设计新的算法在主流的目标检测数据集比如COCO上提升精度已经很难了,但总有一些涨点技巧,比如谷歌前几天公布的 简单粗暴“复制-粘贴”数据增广,简单又有效,让人措不及防。

今天要跟大家介绍一篇新文章 SWA Object Detection ,可能是最简单、计算成本最低、动手成本最低的。

同样的,这篇文章全文无公式、无算法流程图,不改模型结构,不增加模型复杂度、推断时间,也不对数据进行增广。但将其简单应用于主流的目标检测算法,可普遍在COCO数据集上获得 ~1 个AP的精度提升!而且神奇的是原始模型精度越高提升幅度越大。
简单一句话介绍方法:将模型在数据集上多训练几个epochs,将多个epochs得到的checkpoints 进行简单平均,获得最终模型。该方法启发于 Stochastic Weights Averaging(随机权重平均,SWA,来自论文 Averaging weights leads to wider optima and better generalization. UAI, 2018),其本来是为了改进深度学习模型的泛化能力。

SWA理论认为平均多个SGD优化轨迹上的多个模型,最终模型泛化性能更好。如下图:

W1、W2、W3为模型优化过程中不同的checkpoint,SWA认为在其张成的空间中,中心点具有更好的泛化能力。故取checkpoint平均。

问题来了,训练多少个epoch再平均?如何调整学习率?

在SWA原理论中模型再训练时使用固定学习率或者循环余弦退火学习率。

其实很难用理论回答,所以作者的做法很直接,多次实验,看结果总结规律。

作者使用Mask RCNN 在COCO上做了实验,固定学习率和循环余弦退火学习率调整都试了。
获得了很神奇的结果!checkpoints平均后获得了比之前训练路径上所有模型都更好的结果,循环余弦退火学习率调整获得的结果更好,bbox AP 和 mask AP都可以获得超过 1 个AP的提升!而且相比于6个、24个、48个checkpoints的平均,12是一个足够好的数字。

为验证此方法具有通用性,作者在不同的算法上进行验证。
总结一下简单又神奇的SWA方法:
在传统的使用lrini和lrend作为起始和结束学习率训练结束后,额外多训练12个epochs,每个epochs学习率由lrini变化到lrend,最后将这12个checkpoints平均,得到最终的模型。

论文地址:
https://arxiv.org/pdf/2012.12645.pdf
代码地址:
https://github.com/hyz-xmaster/swa_object_detection

期待这种简单的抗过拟合方法,能够在其他视觉任务上有效!


  • 0
  • 0
  • 419
收藏
暂无评论
18342

大连交通大学 · 其他

大连交通大学 | 本科

  • 1

    关注
  • 0

    获赞
  • 0

    精选文章
文章专栏
  • 367