CVPR 2019 无人驾驶相关论文(待更新)

论文速递 你找不到我 ⋅ 于 6个月前 ⋅ 最后回复由 hello_uncle 5个月前 ⋅ 3114 阅读

写在前面:一直以来,极市得到了许许多多开发者的关注和支持,极市的成长离不开各位开发者的见证,为此我们特开设极市开发者祝愿帖,期待听到您真实的心声和建议~φ (> ω<*) :

极市开发者祝愿活动 (有奖回馈)

近期计算机视觉顶会CVPR 2019 接收结果已经出来了,极市也做了相关报道:1300篇!CVPR2019接收结果公布,你中了吗? 目前官方只公布了接收论文ID列表,极市已汇总目前公开的所有论文链接及code,本文是对本次CVPR2019自动驾驶相关论文的汇总,更多其他分类请前往:CVPR 2019 论文汇总(按方向划分,GitHub更新中)

原创整理:不努力一下子
来源链接:https://zhuanlan.zhihu.com/p/59171574

1、Stereo R-CNN based 3D Object Detection for Autonomous Driving,3D目标检测

摘要 : 我们通过充分利用立体图像中的稀疏,密集,语义和几何信息,提出了一种用于自动驾驶的三维物体检测方法。 我们的方法,称为Stereo R-CNN,扩展了更快的R-CNN用于立体声输入,以同时检测和关联左右图像中的对象。 我们在立体声区域提议网络(RPN)之后添加额外分支来预测稀疏关键点,视点和对象维度,这些关键点与2D左右框组合以计算粗略的3D对象边界框。 然后,我们通过使用左右RoI的基于区域的光度对准来恢复精确的3D边界框。 我们的方法不需要深度输入和3D位置监控,但是,优于所有现有的完全监督的基于图像的方法。 在具有挑战性的KITTI数据集上的实验表明,我们的方法在3D检测和3D定位任务上的性能优于最先进的基于立体的方法约30%AP。 代码将公开发布。
file
file
file

2、Group-wise Correlation Stereo Network

立体匹配(KITTI Stereo Evaluation 2012 、KITTI Stereo Evaluation 2015)

  • 作者:Xiaoyang Guo,Kai Yang,Wukui Yang,Xiaogang Wang,Hongsheng Li
  • 团队:香港中文大学电子工程系、商汤科技
  • 论文地址:https://arxiv.org/abs/1903.04025

摘要: 立体匹配估计整流图像对之间的差异,这对深度感测、自动驾驶和其他相关任务非常重要。先前的工作建立了在所有视差水平上具有交叉相关或串联左右特征的成本量,然后利用2D或3D卷积神经网络来回归视差图。在本文中,我们建议通过分组相关来构建成本量。左边特征和右边特征沿着通道维度被分成组,并且在每个组之间计算相关图以获得多个匹配成本提议,然后将其打包到成本量中。分组相关为测量特征相似性提供了有效的表示,并且不会丢失过多的信息,如完全相关。与以前的方法相比,它在减少参数时也能保持更好的性能。在先前的工作中提出的3D堆叠沙漏网络被改进以提高性能并降低推理计算成本。实验结果表明,我们的方法在Scene Flow,KITTI 2012和KITTI 2015数据集上优于以前的方法。此代码可通过xy-guo/GwcNet(代码待更新)获得。
file
file

3、Hierarchical Discrete Distribution Decomposition for Match Density Estimation

立体匹配,(KITTI Stereo Evaluation 2012、KITTI Stereo Evaluation 2015)

  • 作者:Zhichao Yin(个人GitHub ,CVPR 2018 GeoNet),Trevor Darrell,Fisher Yu
  • 研究结构:伯克利DeepDrive
  • 论文地址:https://arxiv.org/abs/1812.06264

摘要:用于像素对应的现有深度学习方法输出运动场的点估计,但不表示完全匹配分布。匹配分布的显式表示对于许多应用是期望的,因为它允许直接表示对应概率。使用深度网络估计全概率分布的主要困难是推断整个分布的高计算成本。在本文中,我们提出了分层离散分布分解,称为HD3,以学习概率点和区域匹配。它不仅可以模拟匹配不确定性,还可以模拟区域传播。为了实现这一点,我们估计了不同图像尺度下像素对应的层次分布,而没有多假设集合。尽管它很简单,但我们的方法可以在既定基准上实现光流和立体匹配的竞争结果,而估计的不确定性是错误的良好指标。此外,即使区域在图像上变化,也可以将区域内的点匹配分布组合在一起以传播整个区域。
file
file
file

4、Deep Rigid Instance Scene Flow

(SOTA for Scene Flow Evaluation 2015)

摘要: 在本文中,我们解决了自动驾驶环境下的场景流量估计问题。 我们利用深度学习技术以及强大的先验,因为在我们的应用领域中,场景的运动可以由机器人的运动和场景中的演员的3D运动来组成。 我们将问题表达为深度结构化模型中的能量最小化,这可以通过展开高斯 - 牛顿求解器在GPU中有效地求解。 我们在具有挑战性的KITTI场景流数据集中的实验表明,我们以超大的优势超越了最先进的技术,同时快了800倍。
file
file
file

5、MagicVO: End-to-End Monocular Visual Odometry through Deep Bi-directional Recurrent Convolutional Neural Network

单目视觉测距

摘要:本文提出了一种解决单眼视觉测距问题的新框架,称为MagicVO。 基于卷积神经网络(CNN)和双向LSTM(Bi-LSTM),MagicVO在摄像机的每个位置输出6-DoF绝对标度姿势,并以一系列连续单目图像作为输入。 它不仅利用CNN在图像特征处理中的出色表现,充分提取图像帧的丰富特征,而且通过Bi-LSTM从图像序列前后学习几何关系,得到更准确的预测。 MagicVO的管道如图1所示.MagicVO系统是端到端的,KITTI数据集和ETH-asl cla数据集的实验结果表明MagicVO比传统的视觉测距具有更好的性能( VO)系统在姿态的准确性和泛化能力方面。
file

file
file


6、SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection

行人检测(待更新。。)

摘要:

行人检测在诸如自动驾驶的许多应用中起着重要作用。我们提出了一种方法,将语义分割结果作为自我关注线索进行探索,以显着提高行人检测性能。具体而言,多任务网络被设计为从具有弱框注释的图像数据集联合学习语义分割和行人检测。语义分割特征图与相应的卷积特征图连接,为行人检测和行人分类提供更多的辨别特征。通过联合学习分割和检测,我们提出的行人自我关注机制可以有效识别行人区域和抑制背景。此外,我们建议将来自多尺度层的语义注意信息结合到深度卷积神经网络中以增强行人检测。实验结果表明,该方法在Caltech数据集上获得了6.27%的最佳检测性能,并在CityPersons数据集上获得了竞争性能,同时保持了较高的计算效率。
file




推荐阅读
谷歌提出新方法:基于单目视频的无监督深度学习结构化
极市直播|袁源 Jerry:机器学习及深度学习在自动驾驶中的应用

微信公众号: 极市平台(ID: extrememart )
每天推送最新CV干货

本帖已被设为精华帖!
本帖由 Admin 于 5个月前 加精
回复数量: 1
  • hello_uncle 算法工程师 @ 北邮

    为母校工作打call~

    6个月前
您需要登陆以后才能留下评论!