一、激活函数
激活函数是神经网络中非常重要的一部分,常见的激活函数有sigmoid、ReLU、tanh等。对于MLPClassifier,我们可以通过设置激活函数来提高模型的准确度。
sigmoid函数的定义为$f(x)=\frac{1}{1+e^{-x}}$,它的输出值在0到1之间,可以被用来进行二分类问题。但是,它的缺点是容易饱和,导致梯度消失的问题。因此,在大多数情况下,ReLU和tanh是更好的选择。
ReLU函数的定义为$f(x)=max(0,x)$,它可以使得一些神经元处于非活跃状态,减少了过拟合的问题。tanh函数的定义为$f(x)=tanh(x)$,它的输出值在-1到1之间,可以被用来处理多分类问题。
from sklearn.neural_network import MLPClassifier
model = MLPClassifier(activation='relu')
二、网络结构
网络结构也是决定模型准确度的重要因素。MLPClassifier有两个重要的参数:hidden_layer_sizes和max_iter。hidden_layer_sizes定义了隐藏层的结构,通常来说3到5层是一个合理的选择。max_iter定义了模型的最大迭代次数,当模型达到最大迭代次数却没有收敛时,训练过程会终止。
在进行调参时,我们可以采用网格搜索(GridSearchCV)和随机搜索(RandomizedSearchCV)的方法。网格搜索会枚举所有可能的参数组合,因此搜索速度比较慢。而随机搜索则是随机生成一些参数组合进行训练,速度相对于网格搜索来说更快一些。
from sklearn.model_selection import GridSearchCV, RandomizedSearchCV
param_grid = {
'hidden_layer_sizes': [(50,50),(100,100),(200,200)],
'max_iter': [500,1000,1500]
}
grid_search = GridSearchCV(model,param_grid=param_grid,cv=3,n_jobs=-1)
grid_search.fit(X_train,y_train)
print("Best parameters found: ",grid_search.best_params_)
print("Best score: ",grid_search.best_score_)
random_search = RandomizedSearchCV(model,param_distributions=param_grid,cv=3,n_jobs=-1,n_iter=10)
random_search.fit(X_train,y_train)
print("Best parameters found: ",random_search.best_params_)
print("Best score: ",random_search.best_score_)
三、正则化
正则化是防止过拟合的重要手段。MLPClassifier支持两种正则化方法:L1和L2。L1会让权重矩阵具有稀疏性,而L2会让权重矩阵比较平滑。在进行调参时,我们可以使用交叉验证进行模型评估,并且根据评估结果选择最优的正则化方法。
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
pipe = Pipeline([
('scaler',StandardScaler()),
('mlp',MLPClassifier())
])
param_grid = [
{
'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
'mlp__activation':['relu','tanh'],
'mlp__solver':['lbfgs','sgd','adam']
},
{
'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
'mlp__activation':['relu','tanh'],
'mlp__solver':['lbfgs','sgd','adam'],
'mlp__hidden_layer_sizes':[(50,50),(100,100),(200,200)]
},
{
'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
'mlp__activation':['relu','tanh'],
'mlp__solver':['lbfgs','sgd','adam'],
'mlp__hidden_layer_sizes':[(50,50,50),(100,100,100),(200,200,200)]
}
]
grid_search = GridSearchCV(pipe,param_grid=param_grid,cv=3,n_jobs=-1)
grid_search.fit(X_train,y_train)
print("Best parameters found: ",grid_search.best_params_)
print("Best score: ",grid_search.best_score_)
四、mini-batch优化
在进行训练过程中,我们可以选择将训练数据分成若干个小批量(mini-batch)进行训练,以减少内存的使用,并且提高训练速度。在Mini-batch优化中,我们可以通过调整batch_size来控制每次训练所使用的样本数量。常用的选项是64、128、256、512等。
model = MLPClassifier(batch_size=64)
五、总结
本文对于MLPClassifier的调参方法进行了详细的阐述。通过设置激活函数、网络结构、正则化和mini-batch等参数,我们可以生成最优的模型,提高预测准确度。