Tensorflow卷积实现原理+手写python代码实现卷积教程

Tensorflow卷积实现原理+手写python代码实现卷积教程

卷积是深度学习中最常用的操作之一,它可以用来提取特征、识别图像或语音信号中的模式等。Tensorflow是目前最流行的深度学习框架之一,它提供了方便的卷积函数来实现这些操作。本文将介绍Tensorflow卷积的实现原理,并提供手写Python代码来实现卷积操作。

1. Tensorflow卷积实现原理

Tensorflow中的卷积函数是通过计算滑动窗口内的输入和卷积核之间的内积来实现的。具体来说,给定一个输入张量$X$和一个卷积核张量$K$,卷积操作可以写成以下公式:

$$Y_{i,j}=\sum_{m=0}^{M-1}\sum_{n=0}^{N-1}X_{i+m,j+n}K_{m,n}$$

其中$Y_{i,j}$是卷积操作的输出,$M,N$分别是卷积核的高和宽,$i,j$分别是输出张量$Y$上的位置。这个公式的含义是:对于输出张量$Y$的每个位置$(i,j)$,计算输入张量$X$在以$(i,j)$为左上角、$M\times N$大小的滑动窗口内与卷积核$K$的内积,结果存储到$Y_{i,j}$中。

在实际计算中,为了避免对边沿像素的处理出现问题,我们通常会使用填充操作(Padding)。Padding的方式通常有两种,一种是在输入张量的边缘填充一圈0,另一种是在输入张量的较大维度上复制边缘几次。与此同时,为了减少输出张量的尺寸,我们通常会使用跨度(Stride)的方式来减小滑动窗口的步幅,例如使用2表示每次滑动距离为2个像素。

最后,对于在Tensorflow中实现卷积操作的方式,我们可以看看它的函数定义:

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, dilations=None, name=None)

其中input是输入张量,filter是卷积核张量,strides是跨度,padding是填充方式,其余参数不再赘述。在使用这个函数时,我们需要注意输入张量和卷积核张量的rank,卷积核的rank必须是4,第1和第4维分别表示卷积核的高和宽,第2和第3维分别表示卷积核的输入和输出通道数。例如,对于一个输入张量$X$和一个卷积核张量$K$,如果它们的rank分别是$[B,H,W,C_X]$和$[H_K,W_K,C_X,C_Y]$,那么在使用tf.nn.conv2d函数时,我们应该使用以下参数:

strides=[1,S,S,1]

padding='VALID'

其中$S$是跨度,$C_X$和$C_Y$分别是输入和输出通道数,在这种情况下输出张量的rank是$[B,H',W',C_Y]$,其中$H'$和$W'$分别是计算得到的输出张量的高和宽。

2. 手写Python代码实现卷积操作

现在我们已经了解了Tensorflow卷积操作的原理,接下来我们将使用Python手写一个基于numpy的卷积函数,帮助你更好地理解卷积操作的内部机制。

首先,我们需要定义一个函数,输入两个张量$X$和$K$,计算它们的卷积结果$Y$,并返回结果张量。

def conv2d(X, K, S=1, P='VALID'):

"""

Computes a 2D convolution given input and kernel tensor.

Args:

X: Input tensor of shape (N,H,W,C_X)

K: Kernel tensor of shape (H_K,W_K,C_X,C_Y)

S: Stride size (default: 1)

P: Padding type (default: 'VALID', no padding). Can be 'SAME' or 'VALID'.

Returns:

Output tensor of shape (N,H',W',C_Y),

where H' and W' are the height and width of the output tensor

"""

N, H, W, C_X = X.shape

H_K, W_K, _, C_Y = K.shape

assert C_X == K.shape[2], "Input channel of X ({}) and K ({}) must be the same".format(C_X, K.shape[2])

if P == 'VALID':

H_out = (H - H_K) // S + 1

W_out = (W - W_K) // S + 1

X_pad = X

elif P == 'SAME':

H_out = H // S

W_out = W // S

P_H = max((H_out - 1)*S + H_K - H, 0)

P_W = max((W_out - 1)*S + W_K - W, 0)

P_H_top = P_H // 2

P_H_bottom = P_H - P_H_top

P_W_left = P_W // 2

P_W_right = P_W - P_W_left

X_pad = np.pad(X, ((0,0),(P_H_top,P_H_bottom),(P_W_left,P_W_right),(0,0)), 'constant')

Y = np.zeros((N, H_out, W_out, C_Y))

for i in range(H_out):

for j in range(W_out):

X_window = X_pad[:, i*S:i*S+H_K, j*S:j*S+W_K, :]

Y[:, i, j, :] = (X_window @ K.reshape(-1, C_Y)).reshape(N, 1, 1, C_Y)

return Y

这个函数的核心是一个双重循环,遍历计算输出张量的每个位置,并根据卷积公式计算局部区域内的卷积。需要注意的是,这里的卷积操作使用了向量化的方式,即将输入张量和卷积核张量分别展开为二维矩阵,并使用矩阵乘法计算它们的内积,这个运算比循环更高效。预处理输入数据的方式与Tensorflow中的卷积函数一样,也可以支持VALID和SAME两种填充方式。

最后,让我们来测试一下这个函数。我们可以使用numpy生成一组随机数据来模拟输入和卷积核张量,并使用函数计算卷积的结果。下面是一个简单的示例代码:

import numpy as np

# Generate some random data

N, H, W, C_X = 4, 10, 10, 3

H_K, W_K, C_X, C_Y = 5, 5, 3, 8

X = np.random.rand(N, H, W, C_X)

K = np.random.rand(H_K, W_K, C_X, C_Y)

# Compute convolution using our function

Y = conv2d(X, K, S=2, P='SAME')

# Compare with Tensorflow implementation

import tensorflow as tf

tf_Y = tf.nn.conv2d(X, K, strides=[1,2,2,1], padding='SAME').numpy()

assert np.allclose(Y, tf_Y, atol=1e-4, rtol=1e-4)

print('Convolution test passed!')

这个测试会生成一个$10\times 10$的黑白随机图像,和一个$5\times 5$的卷积核,使用stride=2和padding='SAME'的方式计算卷积结果。然后它使用我们自己编写的卷积函数和Tensorflow提供的卷积函数分别计算卷积,并对比它们的计算结果,如果两者相差不超过$10^{-4}$,则测试通过。

3. 总结

本文介绍了Tensorflow卷积操作的实现原理,并提供了一个手写的Python函数来实现类似的卷积操作。希望这篇文章能够帮助大家更好地理解卷积操作的内部机制,以及如何在代码中实现卷积操作。当然,这个实现方式并不是最优秀的,有很多可以优化的地方,例如使用im2col等技巧来减小循环次数,使用GPU进行加速等,但这些内容超出了本文的范畴,有兴趣的读者可以自行探索。

免责声明:本文来自互联网,本站所有信息(包括但不限于文字、视频、音频、数据及图表),不保证该信息的准确性、真实性、完整性、有效性、及时性、原创性等,版权归属于原作者,如无意侵犯媒体或个人知识产权,请来电或致函告之,本站将在第一时间处理。猿码集站发布此文目的在于促进信息交流,此文观点与本站立场无关,不承担任何责任。

后端开发标签