ECCV 2020 论文大盘点-图像视频修复篇

论文速递 shijie ⋅ 于 3个月前 ⋅ 487 阅读
来源:我爱计算机视觉


本文盘点 ECCV 2020 图像修复(inpainting)所有相关论文,总计 7 篇。

下载包含这些论文的 ECCV 2020 所有论文:ECCV 2020 论文合集下载,分类盘点进行中


图像修复

Rethinking Image Inpainting via a Mutual Encoder-Decoder with Feature Equalizations

作者 | Hongyu Liu, Bin Jiang, Yibing Song, Wei Huang, Chao Yang

单位 | 湖南大学;腾讯

论文 | https://arxiv.org/abs/2007.06929

代码 | https://github.com/KumapowerLIU/Rethinking-Inpainting-MEDFE

备注 | ECCV 2020 oral

提出了一种具有特征均衡的相互编码器-解码器,在图像修复过程中,将填充结构与纹理关联起来。

Short-Term and Long-Term Context Aggregation Network for Video Inpainting

作者 | Ang Li, Shanshan Zhao, Xingjun Ma, Mingming Gong, Jianzhong Qi, Rui Zhang, Dacheng Tao, Ramamohanarao Kotagiri

单位 | 墨尔本大学;悉尼大学;迪肯大学;

论文 | https://arxiv.org/abs/2009.05721

备注 | ECCV 2020 spotlight

本文研究了视频修复问题,并解决了现有方法的三个局限:

1、short-term 或 long-term 参考帧的无效利用

2、目标帧中缺失区域导致的 short-term 上下文聚合不准确

3、long-term 语境信息的固定采样

基于此,作者提出一个 Short-term, and Long-term 上下文聚合网络,通过两个互补的模块对 short-term 和 long-term 信息进行有效利用。


High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling

作者 | Yu Zeng, Zhe Lin, Jimei Yang, Jianming Zhang, Eli Shechtman, Huchuan Lu

单位 | 大连理工大学;Adobe Research

论文 | https://arxiv.org/abs/2005.11742

更多结果展示 | https://zengxianyu.github.io/iic/

备注 | ECCV 2020

VCNet: A Robust Approach to Blind Image Inpainting

作者 | Yi Wang, Ying-Cong Chen, Xin Tao, Jiaya Jia

单位 | 港中文;腾讯优图;SmartMore

论文 | https://arxiv.org/abs/2003.06816

代码 | https://github.com/shepnerd/blindinpainting\_vcnet

备注 | ECCV 2020

研究如何自动修复有未知污染的图像

Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed Scenes

作者 | Liang Liao, Jing Xiao, Zheng Wang, Chia-Wen Lin, Shin'ichi Satoh

单位 | 武汉大学;National Institute of Informatics;台湾清华大学

论文 | https://arxiv.org/abs/2003.06877

备注 | ECCV 2020


视频修复

Learning Joint Spatial-Temporal Transformations for Video Inpainting

作者 | Yanhong Zeng, Jianlong Fu, Hongyang Chao

单位 | 中山大学;微软亚洲研究院

论文 | https://arxiv.org/abs/2007.10247

代码 | https://github.com/researchmm/STTN

备注 | ECCV 2020

视频修复是一项挑战性的任务,以往的方法是逐帧修复,这会因为不连续的注意力结果而产生模糊和时序瑕疵。

来自中山大学和微软亚研院的学者提出一种同时修复所有输入帧的自注意力方法:联合时空Transformer网络(STTN),取得了高质量连贯的视频修复效果。

代码已开源。

https://v.qq.com/x/page/c31578cxxev.html​v.qq.com![图标](https://pic3.zhimg.com/v2-8ed92c32ccb584c11cd8e53b5beabb66_180x120.jpg)


视频修复,自动驾驶

DVI: Depth Guided Video Inpainting for Autonomous Driving

作者 | Miao Liao, Feixiang Lu, Dingfu Zhou, Sibo Zhang, Wei Li, Ruigang Yang

单位 | 百度

论文 | https://arxiv.org/abs/2007.08854

代码 | https://github.com/sibozhang/Depth-Guided-Inpainting

数据集 | http://apolloscape.auto/inpainting.html

备注 | ECCV 2020


成为第一个点赞的人吧 :bowtie:
回复数量: 0
暂无回复~
您需要登陆以后才能留下评论!