多元线性回归_梯度下降法实现【Python机器学习系列(六)】

文章目录

  • 1. 读取数据
  • 2.定义代价函数
  • 3. 梯度下降
  • 4.可视化展示

      ʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞ
                
    ʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞ


大家好,我是侯小啾!

本期blog分享的是,python实现多元线性回归的梯度下降法。


1. 读取数据

首先要做的就是读取数据,请自行准备一组适合做多元回归的数据即可。这里以data.csv为例,这里做的是二元回归。导入相关库,及相关代码如下。

import numpy as npimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Ddata = np.loadtxt("data.csv", delimiter=",")# 提取特征数据与标签x_data = data[:,0:-1]y_data = data[:,-1]

2.定义代价函数

回归模型形如:

       h ( x ) = t h e t a 0 + t h e t a 1 ∗ x 1 + t h e t a 2 ∗ x 2 h(x)=theta0 + theta1*x1 + theta2*x2 h(x)=theta0+theta1x1+theta2x2

接下来我们需要初始化相关参数,并定义出代价函数。因为存在多个系数参数,这里代价函数的写法与一元回归时的情况略有不同,稍微有所调整。具体如下:

# 初始化一系列参数# 截距theta0 = 0# 系数theta1 = 0theta2 = 0# 学习率learning_rate = 0.0001# 初始化迭代次数n_iterables = 1000# 定义代价函数(损失函数)def compute_mse(theta0, theta1, theta2, x_data, y_data):    total_error = 0    for i in range(len(x_data)):        # 计算损失 真实值:y_data  预测值h(x)=theta0 + theta1*x1 + theta2*x2        total_error += (y_data[i] - (theta0 + theta1 * x_data[i, 0] + theta2 * x_data[i, 1])) ** 2    mse_ = total_error / len(x_data) / 2    return mse_

3. 梯度下降

多元回归的梯度下降与一元回归的差不多,在一元回归中只需要求一个导数,而现在求多个偏导数。代码过程如下:

def gradient_descent(x_data, y_data, theta0, theta1, theta2, learning_rate, n_iterables):    m = len(x_data)    # 循环 --> 迭代次数    for i in range(n_iterables):        # 初始化 theta0 theta1 theta2 的偏导值        theta0_grad = 0        theta1_grad = 0        theta2_grad = 0        # 计算偏导的总和再平均        # 遍历m次        for j in range(m):            theta0_grad += (1 / m) * ((theta1 * x_data[j, 0] + theta2 * x_data[j, 1] + theta0) - y_data[j])            theta1_grad += (1 / m) * ((theta1 * x_data[j, 0] + theta2 * x_data[j, 1] + theta0) - y_data[j]) * x_data[                j, 0]            theta2_grad += (1 / m) * ((theta1 * x_data[j, 0] + theta2 * x_data[j, 1] + theta0) - y_data[j]) * x_data[                j, 1]        # 更新theta        theta0 = theta0 - (learning_rate * theta0_grad)        theta1 = theta1 - (learning_rate * theta1_grad)        theta2 = theta2 - (learning_rate * theta2_grad)    return theta0, theta1, theta2print(f"开始:截距theta0={theta0},theta1={theta1},theta2={theta2},损失={compute_mse(theta0,theta1,theta2,x_data,y_data)}")print("开始运行")theta0,theta1,theta2 = gradient_descent(x_data,y_data,theta0,theta1,theta2,learning_rate,n_iterables)print(f"迭代{n_iterables}次后:截距theta0={theta0},theta1={theta1},theta2={theta2},损失={compute_mse(theta0,theta1,theta2,x_data,y_data)}")

执行结果输出如下:

1000次迭代之后,损失值由23.64变为0.3865。


4.可视化展示

可视化展示常常作为机器学习过程的补充,可以使得机器学习的效果更为生动,直观。

# 可视化散点分布fig = plt.figure()ax = Axes3D(fig)ax.scatter(x_data[:,0],x_data[:,1],y_data)plt.show()# 可视化散点分布fig = plt.figure()ax = Axes3D(fig)ax.scatter(x_data[:,0],x_data[:,1],y_data)# 绘制预期平面# 构建xx_0 = x_data[:,0]x_1 = x_data[:,1]# 生成网格矩阵x_0,x_1 = np.meshgrid(x_0,x_1)y_hat = theta0 + theta1*x_0 + theta2*x_1# 绘制3D图ax.plot_surface(x_0,x_1,y_hat)# 设置标签ax.set_xlabel("Miles")ax.set_ylabel("nums")ax.set_zlabel("Time")plt.show()

散点图输出如下:
       

加上拟合回归面后如图所示:
       


本次分享就到这里,小啾感谢您的关注与支持!
꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ꧔ꦿ