• 问答
  • 技术
  • 实践
  • 资源
热门的目标检测开源方案盘点 (附论文 + 代码下载)
技术讨论
以下文章来源于AI约读社 ,作者南山 [AI约读社


在2020年中,目标检测领域出现了许多优秀的工作,今天我们来聊一聊在当前热门的五大目标检测开源方案。

1、**五大改进,二十多项技巧实验,堪称最强目标检测万花筒:**YOLOv4&YOLOv5

论文:**YOLOv4: Optimal Speed and Accuracy of Object Detection**

COCO AP:55.4

论文地址:https://arxiv.org/pdf/2004.10934.pdf

代码地址:https://github.com/AlexeyAB/darknet

YOLOv5https://github.com/ultralytics/yolov5

(非官方)源码地址:

  (1) Pytorch版:https://github.com/WongKinYiu/PyTorch\_YOLOv4

  (2) tensorflow版:https://github.com/ultralytics/yolov5

YOLOv4试验对比了大量的近几年来最新的深度学习技巧,例如  Swish、Mish激活函数,CutOut和CutMix数据增强方法,DropPath和DropBlock正则化方法,也提出了自己的创新,例如 Mosaic (马赛克) 和 自对抗训练数据增强方法,提出了修改版本的 SAM 和 PAN,跨Batch的批归一化(BN),共五大改进。所以说该文章工作非常扎实,也极具创新。

YOLOv5的工作与YOLOv4十分相近,YOLOv4的网络结构图:

image.png


2、基于Transformer的目标检测新范式: DETR

论文:**End-to-End Object Detection with Transformers**

论文地址:https://arxiv.org/abs/2006.02334

代码地址:https://github.com/facebookresearch/detr

DETR将检测视为集合预测问题,简化了目标检测的整体流程。它没有现在主流的目标检测器中的anchor、label assign、nms等操作,做到了真正的end-to-end。它主要采用了Transformer的编解码结构,它在序列预测任务上大获成功。Transformer中的自注意力机制显示地界定了序列中元素间的相互作用,因此可以用于约束集合的预测结果。

DETR的检测思路是首先使用CNN提取图像特征,然后用transformer模型来检测物体输出set of box predictions ,训练过程采用二分图匹配损失函数。

image.png


3、**目前最高最快最小模型,可扩缩且高效的目标检测: EfficientDet**

论文:**EfficientDet: Scalable and Efficient Object Detection**

论文地址:https://arxiv.org/abs/2005.12872

代码地址:https://github.com/google/automl

COCO AP: 51.0 

(非官方)源码地址:

  (1) Pytorch版:https://github.com/toandaominh1997/EfficientDet.Pytorch

  (2) Keras&&TensorFlow版:https://github.com/xuannianz/EfficientDet

EfficientDet一大创新点是改进了FPN中的多尺度特征融合方式,提出了加权双向特征金字塔网络BiFPN。BiFPN 引入了一种自顶向下的路径,融合P3~P7的多尺度特征, 并且EfficientDet认为FPN中各尺度的特征重要性是不同的,故在BiFPN特征融合的连接中需要加权,而权值是在训练中学习得到的。EfficientDet引入了 EfficientNet 中模型缩放的思想,考虑Input size、backbone Network、BiFPN侧向级联层数、Box/class 层深度作为搜索空间,通过统一的系数缩放(具体方法见原论文),得到了8个不同计算量和参数量的模型。

image.png

参考阅读:EfficientDet 算法解读

https://zhuanlan.zhihu.com/p/93241232


4、**CenterNet2以56.4mAP超越当前所有检测模型**

论文:**Probabilistic two-stage detection**

论文地址:https://arxiv.org/abs/2103.07461

代码地址:https://github.com/xingyizhou/CenterNet2

COCO AP:  56.4

CenterNet2在目前最先进的One-Stage检测器的基础上建立了一个概率Two-Stage检测器。对于每一阶段的检测,CenterNet2模型都会提取区域级特征并进行分类。在第2阶段使用更快的R-CNN或级联分类器。这两个阶段一起训练,以最大限度地提高预测的概率准确度。在推理中,CenterNet2使用这个最终的对数似然作为检测得分。

结构说明:
image.png

参考阅读:Centernet 算法解读


5、特征金字塔与空洞卷积完美结合的目标检测:**DetectoRS**

论文:**DetectoRS: Detecting Objects with Recursive Feature Pyramid and Switchable Atrous Convolution**

论文地址:https://arxiv.org/abs/2005.12872

代码地址:https://github.com/joe-siyuan-qiao/DetectoRS

COCO AP: 54.7 AP

DetectoRS是谷歌团队提出的目标检测模型,论文中探讨了目标检测中looking and thinking twice的机制,在宏观上提出了递归特征金字塔RFN(Recursive Feature Pyramid),就是把FPN的输出先连接到bottom up那儿进行再次输入,然后再输出时候与原FPN的输出再进行结合一起输出。在微观上提出了可切换空洞卷积SAC(Switchable Atrous Convolution)。在COCO test-dev中取得了SOTA的结果,目标检测box mAP达到54.7,实例分割mask mAP达到47.1,全景分割PQ达到49.6。

image.png


参考阅读:

目标检测中的 Tricks
视频目标检测大盘点

  • 0
  • 0
  • 1563
收藏
暂无评论