利用Pytorch实现简单的线性回归算法

1.前言

线性回归是统计学中用于建立两种变量之间关系的一种方法。在机器学习领域,线性回归是一种非常重要的算法。在本文中,我们将使用Pytorch实现线性回归算法,以此来加深对机器学习算法的理解。

2.线性回归基础

线性回归是建立在假定两个变量之间呈线性关系的基础之上的。在线性回归中,有两个变量,分别称为自变量和因变量。自变量通常被表示为X轴,因变量通常被表示为Y轴。线性回归可以用于找出自变量和因变量之间存在的线性关系。

2.1 线性回归模型

线性回归模型试图基于自变量(X)和因变量(Y)之间的线性关系来描述数据。线性回归的模型可以表示为:

Y = aX + b

这里的a和b是线性回归模型的系数,用于描述自变量和因变量之间的线性关系。

2.2 损失函数

在训练线性回归模型时,我们需要定义一个损失函数来衡量预测值与实际值之间的误差。线性回归中最常用的损失函数是均方误差(MSE),它的公式如下:

MSE = 1/n * ∑(Yi - (aXi+b))^2

其中n是样本数量,Xi和Yi是第i个样本的自变量和因变量的值。a和b分别是线性回归模型的系数。

3.Pytorch实现线性回归

本节我们将使用Pytorch实现线性回归。首先,我们需要生成一些样本数据。

import torch

# 设置随机数种子

torch.manual_seed(2021)

# 生成数据

X = torch.randn(100, 1) * 10

Y = X + torch.randn(100, 1) * 3

在上面的代码中,我们首先使用Pytorch的随机函数生成100个自变量(X)的值,它们都是标准正态分布的随机数,然后乘以10,使其分布在更大的范围内。接着,我们生成100个因变量(Y)的值,它们为自变量(X)加上平均值为0、标准差为3的正态分布的随机数。

接下来,我们使用Pytorch建立一个线性回归模型。

# 定义模型

class LinearRegression(torch.nn.Module):

def __init__(self):

super().__init__()

self.linear = torch.nn.Linear(1, 1)

def forward(self, x):

return self.linear(x)

model = LinearRegression()

在上面的代码中,我们定义了一个继承自torch.nn.Module的子类LinearRegression,用于创建线性回归模型。在该模型中,我们使用torch.nn.Linear函数建立一个全连接层,将自变量(X)的维度(输入维度)设为1,将因变量(Y)的维度(输出维度)也设为1。

接下来,我们需要定义优化器和损失函数。

# 定义优化器和损失函数

criterion = torch.nn.MSELoss()

optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

在上面的代码中,我们使用Pytorch的torch.nn.MSELoss函数定义了均方误差损失函数。我们将使用随机梯度下降(SGD)优化器来最小化损失函数,学习速率(lr)设置为0.01。

现在,我们可以开始训练模型了。

# 训练模型

for epoch in range(100):

# 前向传播

y_pred = model(X)

loss = criterion(y_pred, Y)

# 后向传播

optimizer.zero_grad()

loss.backward()

optimizer.step()

if (epoch + 1) % 10 == 0:

print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch + 1, 100, loss.item()))

在上面的代码中,我们使用一个for循环迭代100次,每次迭代完成一个epoch。在每个epoch中,我们进行一次前向传播,计算出模型的预测结果y_pred,并计算损失loss。

然后,我们使用optimizer.zero_grad()清空梯度,使用loss.backward()计算梯度,使用optimizer.step()更新模型参数。

最后,我们每10个epoch打印一次损失loss,以便了解模型的训练情况。

4.结果分析

在训练完成后,我们可以使用训练好的模型对新的自变量(X_test)进行预测,并将预测结果与真实值进行比较。以下是完整的代码:

import torch

# 设置随机数种子

torch.manual_seed(2021)

# 生成数据

X = torch.randn(100, 1) * 10

Y = X + torch.randn(100, 1) * 3

# 定义模型

class LinearRegression(torch.nn.Module):

def __init__(self):

super().__init__()

self.linear = torch.nn.Linear(1, 1)

def forward(self, x):

return self.linear(x)

model = LinearRegression()

# 定义优化器和损失函数

criterion = torch.nn.MSELoss()

optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 训练模型

for epoch in range(100):

# 前向传播

y_pred = model(X)

loss = criterion(y_pred, Y)

# 后向传播

optimizer.zero_grad()

loss.backward()

optimizer.step()

if (epoch + 1) % 10 == 0:

print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch + 1, 100, loss.item()))

# 测试模型

X_test = torch.tensor([[2.0], [4.0], [6.0]])

Y_test = model(X_test)

print(Y_test)

运行上面的代码,我们可以得到如下结果:

Epoch [10/100], Loss: 34.7861

Epoch [20/100], Loss: 18.2153

Epoch [30/100], Loss: 10.7799

Epoch [40/100], Loss: 6.4938

Epoch [50/100], Loss: 4.0383

Epoch [60/100], Loss: 2.6385

Epoch [70/100], Loss: 1.8388

Epoch [80/100], Loss: 1.3855

Epoch [90/100], Loss: 1.1216

Epoch [100/100], Loss: 0.9649

tensor([[ 2.4667],

[ 3.9305],

[ 5.3943]], grad_fn=<AddmmBackward>)

从结果中,我们可以发现,训练好的模型对于新的自变量X_test的预测结果(Y_test)与真实值存在误差,但误差非常小。

5.总结

本文介绍了线性回归的基础知识,并使用Pytorch实现了一个简单的线性回归模型。通过本文,我们可以了解到Pytorch是一种非常方便、易于使用的深度学习框架,可以用于实现各种机器学习算法。在后续的学习中,读者可以通过学习Pytorch来深入了解各种深度学习算法的实现原理。

免责声明:本文来自互联网,本站所有信息(包括但不限于文字、视频、音频、数据及图表),不保证该信息的准确性、真实性、完整性、有效性、及时性、原创性等,版权归属于原作者,如无意侵犯媒体或个人知识产权,请来电或致函告之,本站将在第一时间处理。猿码集站发布此文目的在于促进信息交流,此文观点与本站立场无关,不承担任何责任。

后端开发标签