计算机视觉知识点总结

写在前面:一直以来,极市得到了许许多多开发者的关注和支持,极市的成长离不开各位开发者的见证,为此我们特开设极市开发者祝愿帖,期待听到您真实的心声和建议~φ (> ω<*) :

极市开发者祝愿活动 (有奖回馈)

分享一篇计算机视觉知识点的相关博文汇总,非常系统全面,超多干货,也欢迎大家补充好的文章~

目录

  • 0 计算机视觉四大基本任务
  • 1 经典卷积网络
  • 2 卷积、空洞卷积
  • 3 正则化
  • 4 全卷积网络
  • 5 1x1 卷积核
  • 6 感受野
  • 7 常见损失
  • 8 优化算法
  • 9 concat 和 add的区别
  • 10 注意力机制
  • 11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)
  • 12 边框回归
  • 13 非极大值回归(NMS, Soft NMS)
  • 14 激活函数
  • 15 评价指标
  • 16 batch size的选择
  • 17 Graph Convolutional Network(GCN)


0 计算机视觉四大基本任务

计算机视觉四大基本任务(分类、定位、检测、分割)

目标检测解读汇总

目标检测论文及解读汇总

图像语义分割综述

图像语义分割综述


1 经典卷积网络

AlexNet

从AlexNet理解卷积神经网络的一般结构


VGG

【深度学习】经典神经网络 VGG 论文解读
深度学习之基础模型-VGG

GoogleNet

深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现

ResNet

ResNet解析
ResNetV2:ResNet深度解析

Xception

Xception算法详解

DenseNet

DenseNet算法详解

DetNet

旷视科技提出物体检测专用Backbone——DetNet

2 卷积、空洞卷积

变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。

卷积

如何通俗易懂地解释卷积?
“看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)
CNN入门必读经典:Visualizing and Understanding Convolutional Networks


空洞卷积

如何理解空洞卷积(dilated convolution)?

总结-空洞卷积(Dilated/Atrous Convolution)

3 正则化

batch normalization、group normalization

Batch Normalization导读

深度学习中的Normalization模型

Group Normalization 及其MXNet、Gluon实现


dropout

理解dropout


L1、L2

机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中正则化项L1和L2的直观理解

4 全卷积网络

全卷积网络 FCN 详解

5 1 * 1 卷积核

一文读懂卷积神经网络中的1x1卷积核
卷积神经网络中用1 * 1 卷积有什么作用或者好处呢?
如何理解卷积神经网络中的1 * 1卷积


6 感受野

深度神经网络中的感受野(Receptive Field)


7 常见损失

损失函数改进方法总览
请问faster rcnn和ssd 中为什么用smooth l1 loss,和l2有什么区别?

focal loss

何恺明大神的「Focal Loss」,如何更好地理解?


交叉熵

交叉熵损失函数
卷积神经网络系列之softmax,softmax loss和cross entropy的讲解


对比损失(Contrastive Loss)

Contrastive Loss (对比损失)


三元组损失(Triplet Loss)

Triplet Loss及其梯度


8 优化算法

Momentum

路遥知马力——Momentum

Nesterov Accelerated Gradient

比Momentum更快:揭开Nesterov Accelerated Gradient的真面目


9 concat 和 add的区别

如何理解神经网络中通过add的方式融合特征?


10 注意力机制

瑟木:计算机视觉中的注意力机制
张戎:计算机视觉中的注意力机制

11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)

CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?

12 边框回归

边框回归(Bounding Box Regression)详解


13 非极大值回归(NMS, Soft NMS)

NMS

NMS——非极大值抑制

Soft NMS

Soft NMS算法笔记


14 激活函数

深度学习中的激活函数导引
如何理解ReLU activation function?
请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?


15 评价指标

目标检测mAP

rafaelpadilla/Object-Detection-Metrics

语义分割(PA、MPA、MIoU、FWIoU)

语义分割之评价指标



可参考下面论文第五章节

A Review on Deep Learning Techniques Applied to Semantic Segmentation


16 batch size的选择

怎么选取训练神经网络时的Batch size?

深度机器学习中的batch的大小对学习效果有何影响?

17 Graph Convolutional Network(GCN)

如何理解 Graph Convolutional Network(GCN)?



作者 | JustDoIT
来源 | https://zhuanlan.zhihu.com/p/58776542


推荐阅读:
计算机视觉顶会文章的解读汇总(CVPR/ECCV/ICCV/NIPS)
AI公司招聘内推汇总
【Awsome】GitHub 资源汇总

微信公众号: 极市平台(ID: extrememart )
每天推送最新CV干货