一、Python逐步回归法
Python逐步回归法是一种针对高维数据选择最优变量子集的算法。该算法通过反复地调整模型中自变量的数量,然后利用交叉验证来确定最优模型。
使用Python进行逐步回归,通常使用statsmodels库中的OLS函数。下面是一个简单的例子:
from statsmodels.formula.api import ols model = ols('y ~ x1 + x2', data=df).fit() print(model.summary())
在以上代码中,y代表因变量,x1和x2代表自变量,df代表数据集。这个模型只考虑了两个自变量,还可以通过加号添加更多自变量。
Python逐步回归还可以利用step函数逐步选择最优模型:
import statsmodels.api as sm results = sm.OLS(y, X).fit() print(results.summary()) print(results.params) selected, remaining = step(X, y) print(selected.model.formula)
其中step函数可以通过指定如下的一些参数进行调节:
- method:可以是“backward”、“forward”、“both”中的任何一个值,表示逐步回归的方法。
- criterion:可以是“AIC”或“BIC”,表示评估模型的准则。
- alpha:调节的参数变化大小。
二、Python回归问题
Python中的回归问题通常包括线性回归、多项式回归、岭回归、Lasso回归等。Python中可以使用多个库进行回归分析,包括numpy、pandas、scikit-learn、statsmodels等。
Python的线性回归可以使用numpy库实现,下面是一个简单的例子:
import numpy as np x1 = np.array([1, 2, 3, 4, 5]) x2 = np.array([2, 4, 6, 8, 10]) y = np.array([2.1, 4.2, 6.3, 8.4, 10.5]) X = np.column_stack((np.ones(5), x1, x2)) w = np.linalg.lstsq(X, y)[0] print(w)
以上代码实现了一个最小二乘线性回归的例子。其中,x1和x2代表自变量,y代表因变量。
三、Python逐步回归包
Python中有许多可以用于逐步回归的包。其中,较为著名的包有statsmodels和scikit-learn。
statsmodels的逐步回归包使用起来比较简单。下面是一个简单的例子:
import statsmodels import statsmodels.api as sm X = np.column_stack((np.ones(5), x1, x2)) y = np.array([2.1, 4.2, 6.3, 8.4, 10.5]) results = sm.OLS(y, X).fit() print(results.summary()) selected, remaining = statsmodels.regression.linear_model.OLS(y, X).\ fit().model.exog[:, 1:], statsmodels.regression.linear_model.OLS(y, X).\ fit().model.exog[:, 1:] while remaining.shape[1] > 0: scores = [] model = sm.OLS(y, selected).fit() for col in remaining.T: test_X = np.column_stack((selected, col)) test_model = sm.OLS(y, test_X).fit() scores.append((test_model.rsquared_adj, col)) best_new_score, best_new_col = max(scores) if best_new_score > model.rsquared_adj: selected = np.column_stack((selected, best_new_col)) remaining = np.delete(remaining, np.argwhere( remaining == best_new_col)[0][0], 1) print('Add x%d with R-squared %.2f' % (np.argwhere(X == best_new_col)[1][0], best_new_score)) else: print('Model is complete.') break
以上代码使用了statsmodels中自带的逐步回归方法,并可以分步进行调节,包括添加新变量等等。
scikit-learn也提供了类似的逐步回归方法,称为RFE(Recursive Feature Elimination),使用起来也比较简单:
from sklearn.feature_selection import RFE lr = LinearRegression() rfe = RFE(lr, 1) rfe = rfe.fit(X, y) print(rfe.support_) print(rfe.ranking_)
以上代码将会输出一个bool类型的数组,代表哪些变量被选择,以及一个int类型的数组,代表每个变量的排名。
四、Python逐步回归代码
Python逐步回归的代码其实就是逐步添加自变量的代码。下面是一个简单的例子,用于说明如何进行逐步回归:
import pandas as pd import numpy as np import statsmodels.api as sm data = pd.read_csv('data.csv') X = data[['x1', 'x2']] y = data['y'] def stepwise_selection(X, y, initial_list=[], threshold_in=0.01, threshold_out = 0.05, verbose=True): included = list(initial_list) while True: changed=False excluded = list(set(X.columns)-set(included)) new_pval = pd.Series(index=excluded,dtype='float64') for new_column in excluded: model = sm.OLS(y, sm.add_constant(pd.DataFrame(X[included+[new_column]]))).fit() new_pval[new_column] = model.pvalues[new_column] best_pval = new_pval.min() if best_pval < threshold_in: best_feature = new_pval.argmin() included.append(best_feature) changed=True if verbose: print('Add %s with p-value %.6f' % (best_feature, best_pval)) model = sm.OLS(y, sm.add_constant(pd.DataFrame(X[included]))).fit() pvalues = model.pvalues.iloc[1:] worst_pval = pvalues.max() if worst_pval > threshold_out: changed=True worst_feature = pvalues.argmax() included.remove(worst_feature) if verbose: print('Drop %s with p-value %.6f' % (worst_feature, worst_pval)) if not changed: break return included result = stepwise_selection(X, y) print(result)
以上代码使用了statsmodels库中的OLS函数进行逐步回归,并可以调节新增变量的阈值、剔除变量的阈值、初始列表等参数。
五、Python做回归分析
Python做回归分析可以使用多种库。本文中已经涉及到了numpy、pandas、statsmodels和scikit-learn等库。
对于多元回归分析,可以使用statsmodels库实现,下面是一个简单的例子:
import statsmodels.api as sm X = df[['x1', 'x2', 'x3']] y = df['y'] model = sm.OLS(y, X).fit() print(model.summary()) print(model.predict(df_new[['x1', 'x2', 'x3']]))
以上代码使用OLS函数对三个自变量进行回归分析,并可以通过predict函数预测新的结果。
对于岭回归和Lasso回归,可以使用scikit-learn库进行实现,下面是一个简单的例子:
from sklearn.linear_model import Ridge, Lasso ridge = Ridge(alpha=1.0) ridge.fit(X, y) lasso = Lasso(alpha=0.1) lasso.fit(X, y) print(ridge.coef_) print(lasso.coef_)
以上代码分别实现了岭回归和Lasso回归,并输出结果。
六、Python逐步回归分析
Python逐步回归分析是指通过逐步回归的方式来确定最优模型。逐步回归可以分为前向逐步回归和后向逐步回归两种。
对于前向逐步回归,可以使用statsmodels库中的step函数进行实现,下面是一个简单的例子:
import statsmodels.api as sm X = df[['x1', 'x2', 'x3']] y = df['y'] selected = [] for i in range(3): remaining = [x for x in X.columns if x not in selected] scores = {} for candidate in remaining: formula = "{} ~ {} + 1".format('y', ' + '.join(selected + [candidate])) score = smf.ols(formula, data).fit().rsquared_adj scores[candidate] = score bestvar, bestscore = sorted(scores.items(), key=lambda x: x[1], reverse=True)[0] selected.append(bestvar) print(selected)
以上代码使用了OLS函数和step函数实现了前向逐步回归。具体来说,该代码一开始没有变量,然后在每次循环中,选择最优变量子集中的变量,并在已选择的自变量中添加以后的变量。
对于后向逐步回归,可以使用和前向逐步回归类似的方法。下面是一个简单的例子:
import statsmodels.api as sm X = df[['x1', 'x2', 'x3']] y = df['y'] included_vars = list(X.columns) while True: changed = False best_pval = float('inf') for var in included_vars: formula = "y ~ " + ' + '.join(list(set(included_vars) - set([var]))) ols_result = smf.ols(formula=formula, data=df).fit() p = ols_result.pvalues[var] if p < best_pval: best_pval = p best_var = var if best_pval < 0.05: included_vars.remove(best_var) changed = True if not changed: break print(included_vars)
以上代码实现了后向逐步回归。该代码一开始考虑全部变量,然后在每次循环中,剔除P值过大的自变量,直到不再有变化。
七、Python逐步回归库选取
Python中有众多可以用于逐步回归的库,包括:statsmodels、scikit-learn、mlxtend等。这些库各有优缺点,可以根据需要选择使用。
statsmodels是一个常用的处理统计问题的库,综合性较强,逐步回归的功能也比较全面。scikit-learn是一个全面性较强的机器学习库,在回归问题中表现出色,而且可以很方便地实现交叉验证、正则化等功能。mlxtend则是一个相对较新的库,但是对于特征选择和逐步回归,实现方式比较简单,也比较易于理解。