一、多项式回归简介
多项式回归是一种基于最小二乘法的回归分析方法,它是一种特殊的线性回归,通过构造一个特定的多项式模型,并通过求解最小二乘法来拟合样本的非线性关系,得到更精准的预测结果。
多项式回归在实际应用中广泛存在,例如:股票价格预测、房价预测等。下面将介绍如何使用Python实现多项式回归。
二、python实现多项式回归
1.导入必要的库:
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
2.准备数据:
# 生成随机数据
np.random.seed(0)
x = np.linspace(0, 10, 100)
y = np.sin(x) + np.random.randn(100) / 5
plt.scatter(x, y);
这里我们使用numpy库生成了一些随机数据,然后使用matplotlib库将它们可视化。
3.进行多项式回归:
# 使用最高次数为5的多项式进行回归
p = np.polyfit(x, y, 5)
print(p)
这里我们使用np.polyfit()函数进行多项式回归,其中x和y是我们准备好的数据,5表示使用最高次数为5的多项式进行回归。运行以上代码可以输出拟合后的系数。在这个例子中,我们使用最高次数为5的多项式进行回归。如果你想要使用更高次数的多项式,只需要将5这个参数修改为相应的数值即可。
4.可视化多项式回归结果:
# 将多项式拟合曲线可视化
x_plot = np.linspace(0, 10, 100)
y_plot = np.polyval(p, x_plot)
plt.scatter(x, y)
plt.plot(x_plot, y_plot, color='r');
以上代码将多项式回归结果可视化,其中使用了np.polyval()函数,它可以帮助我们使用回归系数计算多项式拟合方程的值。最后使用plt.plot()函数将多项式拟合曲线可视化。
三、多项式回归应用案例
下面举个简单的例子,展示多项式回归在实际应用中的效果。
首先我们导入必要的库,然后使用make_regression()函数创建一个随机回归模型。
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
from sklearn.datasets import make_regression
# 创建一个随机回归模型
X, y = make_regression(n_samples=100, n_features=1, noise=20, random_state=42)
# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
接下来,我们创建一个多项式特征转换器,并训练一个线性回归模型。
# 创建多项式特征转换器,并训练一个线性回归模型
poly = PolynomialFeatures(degree=2)
X_poly_train = poly.fit_transform(X_train)
X_poly_test = poly.transform(X_test)
lin_reg = LinearRegression()
lin_reg.fit(X_poly_train, y_train)
然后我们可以使用均方误差(MSE)来评价模型的性能。
# 评估模型性能
y_pred = lin_reg.predict(X_poly_test)
mse = mean_squared_error(y_test, y_pred)
print('MSE:', mse)
可视化多项式回归结果:
# 可视化多项式回归结果
X_plot = np.linspace(-3, 3, 100).reshape(-1, 1)
y_plot = lin_reg.predict(poly.transform(X_plot))
plt.scatter(X, y)
plt.plot(X_plot, y_plot, color='r');
四、总结
本文介绍了如何使用Python实现多项式回归,并通过简单的案例介绍了多项式回归在实际应用中的效果。对于了解多项式回归的读者,希望本文可以为你提供一些帮助。