Python实战小项目之Mnist手写数字识别

1. Mnist手写数字识别介绍

Mnist手写数字识别是指基于MNIST数据集的手写数字图像进行的一种分类问题,即将手写数字图像映射到相应的数字标签,是计算机视觉中的一个常见问题。使用Python编程语言实现这个问题对于开发计算机视觉模型的初学者来说是一个不错的起点。在这篇文章中,我们将使用Python语言实现一个基于深度学习的手写数字识别模型,并讲解其中的细节部分。

2. 使用的工具及框架

2.1 工具

开发环境:Python3.6+,Jupyter notebook。

2.2 框架

本项目将使用以下Python库:

tensorflow:TensorFlow是由Google Brain团队开发的一个广泛使用的开源机器学习框架。

keras:Keras是一个高级神经网络API,用于构建和训练深度学习模型。

numpy:NumPy是Python中最有用的科学计算库之一,用于支持多维数组和矩阵运算。

matplotlib:Matplotlib是Python的一个绘图库,用于绘制二维图形。

3. 数据集介绍

3.1 Mnist数据集

MNIST数据集是一个包含手写数字的大型数据库,是机器学习算法评估的一个常见问题。该数据集包含60,000张训练图像和10,000张测试图像,这些图像已经过预处理,具有相同的大小和比例,并已经分成10个类别(0-9)。

Mnist数据集中的图像尺寸为28*28,其中每个像素代表一个0-255的灰度值。我们将使用这个数据集来训练我们的深度学习模型。

3.2 加载数据集

加载MNIST数据集可以使用Keras提供的函数。我们加载训练数据和测试数据,并将其存储为numpy数组:

import keras

from keras.datasets import mnist

# 加载数据

(X_train, y_train), (X_test, y_test) = mnist.load_data()

# 将灰度值缩放到[0,1]之间

X_train = X_train.astype('float32') / 255.

X_test = X_test.astype('float32') / 255.

# 将标签转换为one-hot

num_classes = 10

y_train = keras.utils.to_categorical(y_train, num_classes)

y_test = keras.utils.to_categorical(y_test, num_classes)

print("X_train shape:", X_train.shape)

print(X_train.shape[0], "train samples")

print(X_test.shape[0], "test samples")

在上面的代码中,我们首先将训练数据和测试数据从Keras加载到内存中,然后将图像数据缩放到[0, 1]的范围内,最后将标签从整数表示转换为one-hot编码,以便我们可以用于后续训练模型。

4. 构建深度学习模型

使用Keras构建深度学习模型是非常简单的。Keras提供了一种简洁而直观的方法,可以通过添加一系列层来构建深度学习模型。在本项目中,我们将使用卷积神经网络(Convolutional Neural Network,CNN)来分类手写数字图像,它是一种在视觉任务中非常成功的网络类型。

4.1 模型架构

本项目中的模型架构如下所示:

import keras

from keras.models import Sequential

from keras.layers import Dense, Dropout, Flatten

from keras.layers import Conv2D, MaxPooling2D

# 构建模型

model = Sequential()

model.add(Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))

model.add(Conv2D(64, (3, 3), activation='relu'))

model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Dropout(0.25))

model.add(Flatten())

model.add(Dense(128, activation='relu'))

model.add(Dropout(0.5))

model.add(Dense(num_classes, activation='softmax'))

print(model.summary())

在上面的代码中,我们使用了以下几个层:

Conv2D:该层将会构建一个卷积核来对2D信号进行卷积操作,即完成图像特征提取的任务。

MaxPooling2D:该层将会进行2D最大池化,即从输出图像中选取最大的部分作为该层的输出。

Dropout:该层将会随机“失活”一些输入,这有助于防止过拟合。

Dense:该层是一个全连接层,即将上一层的所有节点连接到这一层的所有节点上。

模型的输入是一个28*28的图像,通道数为1(因为这是灰度图像)。模型的输出是一个softmax层,该层将输出一个10维向量,每个维度对应一个数字标签。因此,对于一个给定的输入,模型将输出一个10维的向量,其中每个元素表示该输入是该数字标签的概率。

4.2 训练模型

我们使用下面的代码来训练我们的模型:

batch_size = 128

num_epochs = 15

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

history = model.fit(X_train, y_train, batch_size=batch_size, epochs=num_epochs, verbose=1, validation_data=(X_test, y_test))

score = model.evaluate(X_test, y_test, verbose=0)

print('Test loss:', score[0])

print('Test accuracy:', score[1])

在上面的代码中,我们首先设置了批处理大小和epoch数。然后,我们编译了模型,并使用训练数据来拟合该模型。我们的目标是最小化交叉熵损失,并且我们的模型将优化adam优化器,同时还会记录其准确性。我们使用测试数据集来评估训练过程中模型的准确性和损失。

在训练过程中,我们可以看到下面这样的输出:

Epoch 1/15

469/469 [==============================] - 34s 72ms/step - loss: 0.2565 - accuracy: 0.9219 - val_loss: 0.0508 - val_accuracy: 0.9834

Epoch 2/15

469/469 [==============================] - 33s 70ms/step - loss: 0.0893 - accuracy: 0.9732 - val_loss: 0.0399 - val_accuracy: 0.9866

Epoch 3/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0665 - accuracy: 0.9792 - val_loss: 0.0328 - val_accuracy: 0.9889

Epoch 4/15

469/469 [==============================] - 34s 71ms/step - loss: 0.0550 - accuracy: 0.9830 - val_loss: 0.0318 - val_accuracy: 0.9898

Epoch 5/15

469/469 [==============================] - 34s 71ms/step - loss: 0.0454 - accuracy: 0.9858 - val_loss: 0.0279 - val_accuracy: 0.9911

Epoch 6/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0394 - accuracy: 0.9871 - val_loss: 0.0278 - val_accuracy: 0.9910

Epoch 7/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0379 - accuracy: 0.9886 - val_loss: 0.0262 - val_accuracy: 0.9916

Epoch 8/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0309 - accuracy: 0.9903 - val_loss: 0.0291 - val_accuracy: 0.9907

Epoch 9/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0286 - accuracy: 0.9906 - val_loss: 0.0276 - val_accuracy: 0.9911

Epoch 10/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0272 - accuracy: 0.9913 - val_loss: 0.0273 - val_accuracy: 0.9916

Epoch 11/15

469/469 [==============================] - 34s 71ms/step - loss: 0.0256 - accuracy: 0.9916 - val_loss: 0.0288 - val_accuracy: 0.9914

Epoch 12/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0235 - accuracy: 0.9923 - val_loss: 0.0313 - val_accuracy: 0.9913

Epoch 13/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0208 - accuracy: 0.9932 - val_loss: 0.0286 - val_accuracy: 0.9920

Epoch 14/15

469/469 [==============================] - 33s 71ms/step - loss: 0.0206 - accuracy: 0.9931 - val_loss: 0.0289 - val_accuracy: 0.9920

Epoch 15/15

469/469 [==============================] - 34s 71ms/step - loss: 0.0196 - accuracy: 0.9938 - val_loss: 0.0292 - val_accuracy: 0.9921

在这些训练输出中,我们可以看到训练集和测试集准确性的提高,这表明我们的模型已经学会了正确识别图像。我们还可以对模型进行更多的调试或更多的训练来提高模型的精度。

免责声明:本文来自互联网,本站所有信息(包括但不限于文字、视频、音频、数据及图表),不保证该信息的准确性、真实性、完整性、有效性、及时性、原创性等,版权归属于原作者,如无意侵犯媒体或个人知识产权,请来电或致函告之,本站将在第一时间处理。猿码集站发布此文目的在于促进信息交流,此文观点与本站立场无关,不承担任何责任。

后端开发标签