您的位置:

sklearnxgboost详解

一、xgboost简介

XGBoost 是一种在梯度提升决策树 (Gradient Boosting Decision Tree,简称 GBDT)基础上演进而来的机器学习模型,是 Boosting Family 算法中的一种。GBDT 是一种迭代的决策树算法,通过加上多个弱分类器(决策树),不断调整目标函数的取值为残差,进而拟合出一个比较强大的分类模型。

XGBoost 是 GBDT 的一个实现,相比其他 GBDT 实现,XGBoost 在分裂节点时会比传统 GBDT 基于 Greedy 算法采用贪心策略更优,具有对缺失值的自适应处理能力,并且在正则化方面有很多的算法和技巧。

对于分类问题,XGBoost 使用 Softmax 函数进行预测;对于回归问题,XGBoost 则采用数据拟合即可。在实际应用过程中,XGBoost 在文本分类、推荐系统、搜索排序、天气预测、生物信息学等众多应用领域得到了广泛应用。

二、安装sklearnxgbos

安装sklearnxgboost,可以使用pip进行安装。命令:pip install xgboost。除了使用pip安装,也可以使用源码进行安装。源代码可以在 XGBoost 官方网站下载。

三、数据预处理

在使用XGBoost进行训练之前需要对数据进行预处理。首先,将数据分成训练集、测试集,使用 sklearn.model_selection 下的 train_test_split 函数进行,代码如下:

from sklearn.model_selection import train_test_split

xtrain, xtest, ytrain, ytest = train_test_split(X, Y, test_size=0.3, random_state=42)

其中,X 是所有自变量的数据,Y 是因变量的数据。

接下来,需要对训练集进行正态分布处理。这里使用 sklearn.preprocessing 下的 StandardScaler 进行预处理,代码如下:

from sklearn.preprocessing import StandardScaler

sc = StandardScaler()
xtrain = sc.fit_transform(xtrain)
xtest = sc.transform(xtest)

四、模型训练

使用XGBoost进行模型训练,代码如下:

import xgboost as xgb

dtrain = xgb.DMatrix(xtrain, label=ytrain)
dtest = xgb.DMatrix(xtest, label=ytest)

param = {'max_depth': 5, 'eta': 0.1, 'objective': 'multi:softmax', 'num_class': 3}
num_round = 100
bst = xgb.train(param, dtrain, num_round)

preds = bst.predict(dtest)

在这个例子中,我们设置计算树的最大深度为 5,使用 softmax 进行多分类问题预测,共有 3 个类别,学习率为 0.1,训练轮次为 100 轮。在模型训练完成后,使用 bst.predict 进行预测,得到了测试集的预测结果。

五、模型评估

在模型训练完成后,需要对模型进行评估,可以使用 sklearn.metrics 下的 accuracy_score、precision_score、recall_score 和 f1_score 等函数进行评估,代码如下:

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score

print('Accuracy: ', accuracy_score(ytest, preds))
print('Precision: ', precision_score(ytest, preds, average='weighted'))
print('Recall: ', recall_score(ytest, preds, average='weighted'))
print('F1-Score: ', f1_score(ytest, preds, average='weighted'))

六、模型调参

在使用XGBoost进行模型训练时,可以通过调整模型的参数来提高模型的性能。其中,最常见的参数包括:

1、max_depth:决策树的最大深度。

2、learning_rate:学习率,也称为步长。

3、n_estimators:决策树的数量。

4、subsample:在构建每个决策树时,使用的子样本占总样本的比例。

......

调参过程并不是一次调参解决所有问题,而是一个不断迭代调参的过程。可以使用 sklearn.model_selection 下的 GridSearchCV 或 RandomizedSearchCV 进行自动调参。代码如下:

from sklearn.model_selection import GridSearchCV, RandomizedSearchCV

params = {'max_depth': [3, 5, 7], 'learning_rate': [0.05, 0.1, 0.2], 'n_estimators': [50, 100, 150], 
          'subsample': [0.3, 0.5, 0.7]}
xgb_clf = xgb.XGBClassifier()

clf = RandomizedSearchCV(xgb_clf, params, cv=5, n_jobs=-1)
clf.fit(xtrain, ytrain)

print('Best Params: ', clf.best_params_)
print('Best Score: ', clf.best_score_)

在这里,我们设定了一组树的最大深度、学习率、决策树数量和子样本比例参数,使用随机搜索进行一次自动化的调参过程。

七、小结

通过本篇文章的介绍,我们可以发现,使用 XGBoost 进行模型训练时,需要进行数据预处理、模型训练、模型评估与调参等步骤。在这个过程中,我们了解了 XGBoost 的基本原理,以及如何通过 XGBoost 优化模型。