ECCV 2020 论文大盘点-目标跟踪篇

技术讨论 hello_uncle ⋅ 于 5个月前 ⋅ 502 阅读

作者丨CV君
来源丨我爱计算机视觉

本文盘点ECCV 2020 所有与跟踪相关的研究,单指目标的跟踪,不涉及人体姿态等点的跟踪,总计19篇文章,其中12篇开源或者将开源。

其中多目标跟踪、单目标跟踪、对抗学习+目标跟踪研究工作较多。其中有已经特别知名的工作,比如来自CenterNet思想延申的 Tracking Objects as Points ,非常值得关注。

下载包含这些论文的 ECCV 2020 所有论文:

https://www.ecva.net/papers.php

多目标跟踪 MOT

Chained-Tracker: Chaining Paired Attentive Regression Results for End-to-End Joint Multiple-Object Detection and Tracking
作者 | Jinlong Peng, Changan Wang, Fangbin Wan, Yang Wu, Yabiao Wang, Ying Tai, Chengjie Wang, Jilin Li, Feiyue Huang, Yanwei Fu
单位 | 腾讯优图;复旦大学;奈良先端科学技术大学院大学
论文 | https://arxiv.org/abs/2007.14557
代码 | https://github.com/pjl1995/CTracker
备注 | ECCV 2020 Spotlight

Segment as Points for Efficient Online Multi-Object Tracking and Segmentation
作者 | Zhenbo Xu, Wei Zhang, Xiao Tan, Wei Yang, Huan Huang, Shilei Wen, Errui Ding, Liusheng Huang
单位 | 中国科学技术大学;百度
论文 | https://arxiv.org/abs/2007.01550
代码 | https://github.com/detectRecog/PointTrack
备注 | ECCV2020 Oral
以点来分割,高效的在线多目标跟踪和分割

file

Tracking Objects as Points
作者 | Xingyi Zhou, Vladlen Koltun, Philipp Krähenbühl
单位 | 得克萨斯大学奥斯汀分校;英特尔
论文 | https://arxiv.org/abs/2004.01177
代码 | https://github.com/xingyizhou/CenterTrack
备注 | ECCV 2020 Spotlight
以22 FPS的速度在MOT17数据集上实现了67.3%的MOTA,以15 FPS的速度在KITTI跟踪基准上实现了89.4%的MOTA。

CenterTrack在最新发布的nuScenes 3D跟踪基准上达到了28.3%AMOTA@0.2,在28 FPS的运行速度下,大幅超越了该基准上的单目基线。

Towards Real-Time Multi-Object Tracking
作者 | Zhongdao Wang, Liang Zheng, Yixuan Liu, Yali Li, Shengjin Wang
单位 | 清华大学;澳大利亚国立大学
论文 | https://arxiv.org/abs/1909.12605
代码 | https://github.com/Zhongdao/Towards-Realtime-MOT
备注 | ECCV 2020
在以往的工作中,多目标跟踪系统的检测和表观嵌入模块使分离的,该文使检测与表观嵌入共享模型,设计了第一个实时的MOT系统,随分辨率不同其运行速度为22至40 FPS。同时,它的跟踪精度与SOTA的分离模型相近。

Simultaneous Detection and Tracking with Motion Modelling for Multiple Object Tracking
作者 | ShiJie Sun, Naveed Akhtar, XiangYu Song, HuanSheng Song, Ajmal Mian , Mubarak Shah
单位 | 长安大学;西澳大学;迪肯大学;中佛罗里达大学
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123690613.pdf
代码 | https://github.com/shijieS/OmniMOTDataset
备注 | ECCV 2020

单目标跟踪

PG-Net: Pixel to Global Matching Network for Visual Tracking
作者 | Bingyan Liao, Chenye Wang, Yayun Wang, Yaonong Wang, Jun Yin
单位 | 浙江大华技术股份有限公司
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123670426.pdf
备注 | ECCV 2020

file

CLNet: A Compact Latent Network for Fast Adjusting Siamese Trackers
作者 | Xingping Dong, Jianbing Shen, Ling Shao, Fatih Porikli
单位 | Inception Institute of Artificial Intelligence;Mohamed bin Zayed University of Artificial Intelligence;Australian National University
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123650375.pdf
代码 | https://github.com/xingpingdong/CLNet-tracking
备注 | ECCV 2020

file

Learning Feature Embeddings for Discriminant Model based Tracking
作者 | Linyu Zheng, Ming Tang, Yingying Chen, Jinqiao Wang, Hanqing Lu
单位 | 中科院;国科大;深圳英飞拓科技股份有限公司;ObjectEye Inc
论文 | https://arxiv.org/abs/1906.10414
代码 | https://github.com/noneUmbrella/DCFST
备注 | ECCV 2020

file

Object Tracking using Spatio-Temporal Networks for Future Prediction Location
作者 | Yuan Liu, Ruoteng Li, Yu Cheng, Robby T. Tan, Xiubao Sui
单位 | 南京理工大学;新加坡国立大学;耶鲁-新加坡国立大学学院
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123670001.pdf
备注 | ECCV 2020
利用 Spatio-Temporal 网络进行目标跟踪,实现未来的预测定位。

file

Know Your Surroundings: Exploiting Scene Information for Object Tracking
作者 | Goutam Bhat, Martin Danelljan, Luc Van Gool, Radu Timofte
单位 | 苏黎世联邦理工学院
论文 | https://arxiv.org/abs/2003.11014
备注 | ECCV 2020
利用场景信息用于目标跟踪,所提出的方法在3个跟踪基准上创造了新SOTA,在最近的GOT-10k数据集上实现了63.6%的AO得分。

file

Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping
作者 | Adam W. Harley, Shrinidhi K. Lakshmikanth, Paul Schydlo, Katerina Fragkiadaki
单位 | 卡内基梅隆大学
论文 | https://arxiv.org/abs/2008.01295
代码 | https://github.com/aharley/neural_3d_tracking(未开源
备注 | ECCV 2020
通过观察静态场景,跟踪出现的新来目标。

file

RGBT 跟踪

Challenge-Aware RGBT Tracking
作者 | Chenglong Li, Lei Liu, Andong Lu, Qing Ji, Jin Tang
单位 | 安徽大学
论文 | https://arxiv.org/abs/2007.13143
备注 | ECCV 2020
RGB与热源信号的目标跟踪。

file

Anchor-free 跟踪

Ocean: Object-aware Anchor-free Tracking
作者 | Zhipeng Zhang, Houwen Peng, Jianlong Fu, Bing Li, Weiming Hu
单位 | CASIA & AI School;微软
论文 | https://arxiv.org/abs/2006.10721
代码 | https://github.com/researchmm/TracKit
备注 | ECCV 2020
Anchor-free 跟踪器在VOT-2018、VOT-2019、OTB-100、GOT-10k和LaSOT等五个基准上实现了SOTA。
视频demo:

远程眼动跟踪

Deep Learning-based Pupil Center Detection for Fast and Accurate Eye Tracking System
作者 | Kang Il Lee, Jung Ho Jeon, Byung Cheol Song
单位 | 韩国仁荷大学
论文 | https://www.ecva.net/papers/eccv_2020/
papers_ECCV/papers/123640035.pdf
备注 | ECCV 2020
所提出的系统不仅在通用计算机环境下可达到52 FPS,而且在BioID、GI4E和Talking Face Video数据集的精细度精度方面分别达到96.71%、99.84%和96.38%。

file

对抗学习+目标跟踪

SPARK: Spatial-aware Online Incremental Attack Against Visual Tracking
作者 | Qing Guo, Xiaofei Xie, Felix Juefei-Xu, Lei Ma, Zhongguo Li, Wanli Xue, Wei Feng, Yang Liu
单位 | 天津大学;南洋理工大学;阿里;Kyushu University;天津理工大学
论文 | https://arxiv.org/abs/1910.08681
备注 | ECCV 2020

file

Efficient Adversarial Attacks for Visual Object Tracking
作者 | Siyuan Liang, Xingxing Wei, Siyuan Yao, Xiaochun Cao
单位 | 中科院;国科大;鹏城实验室;北航
论文 | https://arxiv.org/abs/2008.00217
备注 | ECCV 2020
FAN可以在10ms内生成一个对抗性实例,实现有效的针对性攻击(OTB上至少40%的drop rate)和非针对性攻击(OTB上至少70%的drop rate)。

file

Robust Tracking against Adversarial Attacks
作者 | Shuai Jia, Chao Ma, Yibing Song, Xiaokang Yang
单位 | 上海交通大学;腾讯AI
论文 | https://arxiv.org/abs/2007.09919
代码 | https://github.com/joshuajss/RTAA
备注 | ECCV 2020

file

细胞跟踪

细胞跟踪,弱监督学习
Weakly-Supervised Cell Tracking via Backward-and-Forward Propagation
作者 | Kazuya Nishimura, Junya Hayashida, Chenyang Wang, Dai Fei Elmer Ker, Ryoma Bise
单位 | 日本九州大学;港中文
论文 | https://arxiv.org/abs/2007.15258
代码 | https://github.com/naivete5656/WSCTBFP
备注 | ECCV 2020

file

数据集

大规模多类别目标跟踪数据集
TAO: A Large-Scale Benchmark for Tracking Any Object
作者 | Achal Dave, Tarasha Khurana, Pavel Tokmakov, Cordelia Schmid, Deva Ramanan
单位 | CMU;Inria;Argo AI
论文 | https://arxiv.org/abs/2005.10356
代码 | http://taodataset.org/#

大叔

成为第一个点赞的人吧 :bowtie:
回复数量: 0
暂无回复~
您需要登陆以后才能留下评论!