您的位置:

MLPClassifier调参详解

一、激活函数

激活函数是神经网络中非常重要的一部分,常见的激活函数有sigmoid、ReLU、tanh等。对于MLPClassifier,我们可以通过设置激活函数来提高模型的准确度。

sigmoid函数的定义为$f(x)=\frac{1}{1+e^{-x}}$,它的输出值在0到1之间,可以被用来进行二分类问题。但是,它的缺点是容易饱和,导致梯度消失的问题。因此,在大多数情况下,ReLU和tanh是更好的选择。

ReLU函数的定义为$f(x)=max(0,x)$,它可以使得一些神经元处于非活跃状态,减少了过拟合的问题。tanh函数的定义为$f(x)=tanh(x)$,它的输出值在-1到1之间,可以被用来处理多分类问题。

from sklearn.neural_network import MLPClassifier
model = MLPClassifier(activation='relu')

二、网络结构

网络结构也是决定模型准确度的重要因素。MLPClassifier有两个重要的参数:hidden_layer_sizes和max_iter。hidden_layer_sizes定义了隐藏层的结构,通常来说3到5层是一个合理的选择。max_iter定义了模型的最大迭代次数,当模型达到最大迭代次数却没有收敛时,训练过程会终止。

在进行调参时,我们可以采用网格搜索(GridSearchCV)和随机搜索(RandomizedSearchCV)的方法。网格搜索会枚举所有可能的参数组合,因此搜索速度比较慢。而随机搜索则是随机生成一些参数组合进行训练,速度相对于网格搜索来说更快一些。

from sklearn.model_selection import GridSearchCV, RandomizedSearchCV
param_grid = {
    'hidden_layer_sizes': [(50,50),(100,100),(200,200)],
    'max_iter': [500,1000,1500]
}

grid_search = GridSearchCV(model,param_grid=param_grid,cv=3,n_jobs=-1)
grid_search.fit(X_train,y_train)

print("Best parameters found: ",grid_search.best_params_)
print("Best score: ",grid_search.best_score_)

random_search = RandomizedSearchCV(model,param_distributions=param_grid,cv=3,n_jobs=-1,n_iter=10)
random_search.fit(X_train,y_train)

print("Best parameters found: ",random_search.best_params_)
print("Best score: ",random_search.best_score_)

三、正则化

正则化是防止过拟合的重要手段。MLPClassifier支持两种正则化方法:L1和L2。L1会让权重矩阵具有稀疏性,而L2会让权重矩阵比较平滑。在进行调参时,我们可以使用交叉验证进行模型评估,并且根据评估结果选择最优的正则化方法。

from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler

pipe = Pipeline([
    ('scaler',StandardScaler()),
    ('mlp',MLPClassifier())
])

param_grid = [
    {
        'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
        'mlp__activation':['relu','tanh'],
        'mlp__solver':['lbfgs','sgd','adam']
    },
    {
        'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
        'mlp__activation':['relu','tanh'],
        'mlp__solver':['lbfgs','sgd','adam'],
        'mlp__hidden_layer_sizes':[(50,50),(100,100),(200,200)]
    },
    {
        'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
        'mlp__activation':['relu','tanh'],
        'mlp__solver':['lbfgs','sgd','adam'],
        'mlp__hidden_layer_sizes':[(50,50,50),(100,100,100),(200,200,200)]
    }
]

grid_search = GridSearchCV(pipe,param_grid=param_grid,cv=3,n_jobs=-1)
grid_search.fit(X_train,y_train)

print("Best parameters found: ",grid_search.best_params_)
print("Best score: ",grid_search.best_score_)

四、mini-batch优化

在进行训练过程中,我们可以选择将训练数据分成若干个小批量(mini-batch)进行训练,以减少内存的使用,并且提高训练速度。在Mini-batch优化中,我们可以通过调整batch_size来控制每次训练所使用的样本数量。常用的选项是64、128、256、512等。

model = MLPClassifier(batch_size=64)

五、总结

本文对于MLPClassifier的调参方法进行了详细的阐述。通过设置激活函数、网络结构、正则化和mini-batch等参数,我们可以生成最优的模型,提高预测准确度。