如何理解卷积--Understanding Convolutions

技术讨论 chengzi ⋅ 于 4周前 ⋅ 151 阅读

作者丨CoCoairforce@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/357648179
编辑丨极市平台

抛球实验 -- Ball drop experiment

想象一下,我们把一个球从某个高度落到地面上,它只有一个运动维度。如果你把球落下,然后再从它的落点上方把它落下,球会走一段距离 $c$ 的可能性有多大?

我们来分析一下: 第一次下落后,它将以概率 $f(a)$ 落在离起点一个单位的地方,其中$f$是概率分布。 现在,在第一次落下之后,我们把球捡起来,从它第一次落地点以上的另一个高度落下。球从新的起点滚动 $b$ 个单位的概率是 $g(b)$,如果它是从不同的高度落下的,那么 $g$ 可能是不同的概率分布。

如果我们把第一次下落的结果固定下来,使我们知道球走了距离 $a$,对于球走的总距离 $c$,第二次下落时走的距离也固定为 $b$,即 $a+b=c$。所以这种情况发生的概率简单来说就是 $f(a)⋅g(b)$.。

我们用一个具体的离散例子来思考这个问题。我们希望总距离 $c$ 为 3。如果它第一次滚动,$a=2$,那么第二次必须滚动 $b=1$,才能达到我们的总距离 $a+b=3$。这个概率是 $f(2)⋅g(1)$。

然而,这并不是我们可以达到总距离3的唯一方法。 球可以第一次滚1个单位,第二次滚2个单位。或者第一次滚0个单位,第二次滚3个单位。它可以是任何 $a$ 和 $b$,只要他们加起来是 3。

如上图所示,其概率分别为 $f(1)⋅g(2)$ 和 $f(0)⋅g(3)$。

为了求出小球到达总 $c$ 的总概率,我们不能只考虑到达 $c$ 的一种可能方式,而是考虑将 $c$ 分成 $a$ 和 $b$ 的所有可能方式,并将每种方式的概率相加。

$$
\ldots f(0) \cdot g(3)+f(1) \cdot g(2)+f(2) \cdot g(1) \ldots
$$

我们已经知道,$a+b=c$ 的每一种情况的概率简单来说就是 $f(a)⋅g(b)$.所以,将 $a+b=c$ 的每一个解求和,我们可以将总似然表示为。

$$
\sum_{a+b=c} f(a) \cdot g(b)
$$

$f$ 和 $g$ 的卷积,在 $c$ 处被定义为。

$$
(f * g)(c)=\sum_{a+b=c} f(a) \cdot g(b)
$$

如果我们把$b=c-a$代入,我们得到。

$$
(f * g)(c)=\sum_{a} f(a) \cdot g(c-a)
$$

为了使这一点更加具体,我们可以从球可能落地的位置来考虑。在第一次落地后,它将以概率 $f(a)$落在中间位置 $a$。如果它落在 $a$ 处,它落在 $c$ 处的概率为 $g(c-a)$。

为了得到卷积,我们需要考虑所有的中间位置。

可视化卷积 -- Visualizing Convolutions

假设一个球落在离原点一定距离 $x$ 的概率是$f(x)$。那么,它 从 $x$ 处返回原点的的概率是$f(-x)$。

如果我们知道球在第二次落地后落在$c$ 处,那么第一次的位置是 $a$ 的概率是多少?

所以,前一个位置是 $a$ 的概率是 $g(-(a-c))=g(c-a)$.

每个中间位置球最终落在 $c$ 处的概率。我们知道第一个落点把球放到中间位置 $a$ 的概率是 $f(a)$。我们还知道,如果它落在 $c$ 处,它在 $a$ 处的概率是 $g(c-a)$。

将 $a$ 的所有可能值相加,我们得到卷积结果。

通过移动下半部分,当分布对齐时,卷积达到峰值。

并且随着分布之间的交点越来越小而缩小。

下图,我们能够直观地看到三角波与方波函数的卷积。

掌握了这个要点,很多概念变得更加直观。

在音频处理中有时会用到卷积。例如,人们可能会使用一个有两个尖峰,但其他地方都是零的函数来创建一个回声。当我们的双尖峰函数滑动时,一个尖峰首先击中一个时间点,将该信号添加到输出声音中,之后,另一个尖峰跟随,添加第二个延迟的副本。

高维卷积--Higher Dimensional Convolutions

卷积不仅仅适用于1维看空间,也适用于高维空间。

回顾开头的例子,落下的球。现在,当它落下时,它的位置不仅在一维中移动,而且在二维中移动。

和前面的卷积一样。

$$
(f * g)(c)=\sum_{a+b=c} f(a) \cdot g(b)
$$

只是,现在 $a$, $b$, 和 $c$ 都是向量。更明确地说,

$$
(f * g)\left(c{1}, c{2}\right)=\sum{a{1}+b{1}=c{1} \atop a{2}+b{2}=c{2}} f\left(a{1}, a{2}\right) \cdot g\left(b{1}, b_{2}\right)
$$

标准定义:

$$
(f * g)\left(c{1}, c{2}\right)=\sum{a{1}, a{2}} f\left(a{1}, a{2}\right) \cdot g\left(c{1}-a{1}, c{2}-a_{2}\right)
$$

就像一维卷积一样,我们可以把二维卷积看成是把一个函数滑动到另一个函数之上,进行乘法和加法。

卷积神经网络--Convolutional Neural Networks

那么,卷积与卷积神经网络的关系如何呢?

在一个1维卷积层中,输入 $x =\left{x{1},x{2},\cdots ,x{n}\right}$,输出 $y = \left{y{1},y{2},\cdots , y{n}\right}$。

从信号与系统的角度来描述,

  • $y=A \cdot x$

$x$ 是输入信号,$y$是输出信号,$A$ 是系统,这个系统由 $n$ 个神经元组成,可以用输入来描述输出。

也可以用神经网络的方式来描述

  • $y = \left(W x +b\right)$
  • 其中 $x =\left{x{1},x{2},\cdots ,x{n}\right}$是输入,$W =\left{w{1},w{2},\cdots ,w{n}\right}$ 是权重。权重描述了神经元与输入的连接方式。
  • 负的权重意味着输入会抑制神经元发射,而正的权重则鼓励它发射。
  • 权重是神经元的心脏,控制着它的行为.如果说2个神经元是相同的,即它们的权重是相同的。

其中一个常见的应用是图像处理。我们可以把图像看作是二维函数。许多重要的图像变换都是卷积,你用一个非常小的局部函数(称为 "内核")对图像函数进行卷积。

图像尺寸= 5(高度)x5(宽度)x1(通道数)

在上面的演示中,绿色部分类似于我们的 5x5x1 输入图像 $I$。在卷积层的第一部分进行卷积操作的元素被称为Kernel/Filter, 用黄色表示。我们选择一个3x3x1矩阵作为Kernel。

Kernel 以一定的步伐向右移动,直到它解析出整行的宽度。接着,它以相同的步伐值跳到图像的开头(左边),并重复这个过程,直到遍历整个图像。

在多通道图像的情况下( 如RGB ),Kernel 的深度与输入图像的深度相同。Kernel 与图片 $I$ 进行矩阵乘法,然后将所有结果与偏置相加,得到一个单通道卷积特征输出。

卷积操作的目的是从输入图像中提取高级特征,如边缘。传统上,卷积层可以捕捉低级特征,如边缘、颜色、梯度方向等。随着层数的增加,架构也可以捕捉高阶特征,让我们的神经网络对图像有更深刻的理解.

该卷积有两种结果--一种是卷积特征与输入相比维度减少,有效填充(Valide Padding)。另一种是维度增加或保持不变,相同填充(Same Padding).

当我们将5x5x1的图像填充为6x6x1的图像,然后在其上应用3x3x1的核,我们发现卷积矩阵变成了5x5x1的尺寸。 因此,我们将其命名为--相同填充(Same Padding)。

另一方面,如果我们在没有填充的情况下执行同样的操作,我们将得到一个具有内核(3x3x1)本身尺寸的矩阵--有效填充(Valide Padding)。

池化层 -- Pooling Layer

与卷积层类似,Pooling层负责减少卷积特征的空间大小。这是为了通过降低维度来降低处理数据所需的计算能力。此外,它还有助于提取旋转和位置不变的主导特征,从而保持模型的有效训练过程。下图表示在5x5卷积特征上的3x3池化。

有两种类型的池化。最大池化和平均池化。最大池化(Max Pooling)返回的是Kernel覆盖的图像部分的最大值。另一方面,平均池化(Average Pooling)返回Kernel覆盖的图像部分的所有值的平均值。

Max Pooling也是一种噪声抑制器。它完全丢弃了嘈杂的激活,并在降低维度的同时进行去噪。另一方面,Average Pooling只是作为噪声抑制机制进行维度降低。因此,我们可以说Max Pooling的性能比Average Pooling好很多。

卷积层和池化层,共同构成了卷积神经网络的第$i$层。根据图像的复杂程度,可以增加这些层的数量,以便进一步捕捉低层次的细节,但代价是增加计算能力。

在经历了上述过程后,我们已经成功地使模型理解了特征。接下来,我们要将最终的输出结果进行扁平化处理,并将其馈送到普通的神经网络中,以达到分类的目的。

全连接层(FC层) —- Fully Connected Layer (FC Layer)

全连接层正在学习该空间中可能的非线性函数。

现在,我们已经将输入图像转换为适合多级感知器 (Multi-Level Perceptron) 的形式,我们将把图像扁平化(Flatten layer)为列向量。扁平化的输出被送入前馈神经网络,并在每次训练迭代中应用反向传播。在一系列的纪元中,该模型能够区分图像中的主导特征和某些低级特征,并使用Softmax分类方法对其进行分类。

总结 -- Conclusion

我们在这篇博文中介绍了很多数学机制,但我们获得的东西可能并不明显。卷积显然是概率论和计算机图形学中的一个有用工具,但是用卷积来表述卷积神经网络,我们获得了什么?

  • 第一个好处是,我们有了一些非常强大的语言来描述神经网络的层。卷积大大简化了繁琐的计算工作。
  • 其次,卷积非常容易实现。现存的许多库都提供了高效的卷积方法。
  • 此外,卷积看起来是一个$O\left(n^{2}\right)$ 操作,但使用一些相当深刻的数学见解,可以创建一个 $O(n \log (n))$ 的实现。

Tips:

我们想知道球第一次滚动 $a$ 单位,第二次滚动 $b$ 单位的概率。所以 $P(a, b)=P(a) * P(b)=f(a) \cdot g(b)$.

卷积满足交换律,即 $f g=g f$。

$$
\sum{a+b=c} f(a) \cdot g(b)=\sum{b+a=c} g(b) \cdot f(a)
$$

卷积满足结合律的,即$f g=g f$,

$$
\sum{(a+b)+c=d}(f(a) \cdot g(b)) \cdot h(c)=\sum{a+(b+c)=d} f(a) \cdot(g(b) \cdot h(c))
$$

小迷离

成为第一个点赞的人吧 :bowtie:
回复数量: 0
暂无回复~
您需要登陆以后才能留下评论!