设为首页收藏本站

EPS数据狗论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1444|回复: 0

数据挖掘-模型融合

[复制链接]

15

主题

136

金钱

225

积分

入门用户

发表于 2019-7-31 13:54:49 | 显示全部楼层 |阅读模式

模型融合
介绍:模型融合通常可以在各种不同的机器学习任务中使结果获得提升。顾名思义,模型融合就是综合考虑不同模型的情况,并将它们的结果融合到一起。具体内容会从以下几个方面来讲:
1、Voting
2、Averaging
3、Ranking
4、Bagging
5、Boosting
6、Stacking
7、Blending

一、Voting
Voting即投票机制,分为软投票和硬投票两种,其原理采用少数服从多数的思想。
硬投票:对多个模型直接进行投票,最终投票数最多的类为最终被预测的类。
软投票:和硬投票原理相同,增加了设置权重的功能,可以为不同模型设置不同权重,进而区别模型不同的重要度。
备注:此方法用于解决分类问题。
代码实例如下:
硬投票:
  1. iris = datasets.load_iris()
  2. x=iris.data
  3. y=iris.target
  4. x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3)
  5. clf1 = XGBClassifier(learning_rate=0.1, n_estimators=140, max_depth=1, min_child_weight=2, gamma=0, subsample=0.7,
  6.                      colsample_bytree=0.6, objective='binary:logistic', nthread=4, scale_pos_weight=1)
  7. clf2 = RandomForestClassifier(n_estimators=50, max_depth=1, min_samples_split=4,
  8.                               min_samples_leaf=54,oob_score=True)
  9. clf3 = SVC(C=0.1, probability=True)
  10. # 硬投票
  11. eclf = VotingClassifier(estimators=[('xgb', clf1), ('rf', clf2), ('svc', clf3)], voting='hard')
  12. for clf, label in zip([clf1, clf2, clf3, eclf], ['XGBBoosting', 'Random Forest', 'SVM', 'Ensemble']):
  13.     scores = cross_val_score(clf, x, y, cv=5, scoring='accuracy')
  14.     print("Accuracy: %0.2f (+/- %0.2f) [%s]" % (scores.mean(), scores.std(), label))
复制代码


软投票:
  1. x=iris.data
  2. y=iris.target
  3. x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3)
  4. clf1 = XGBClassifier(learning_rate=0.1, n_estimators=140, max_depth=1, min_child_weight=2, gamma=0, subsample=0.7,
  5.                      colsample_bytree=0.6, objective='binary:logistic', nthread=4, scale_pos_weight=1)
  6. clf2 = RandomForestClassifier(n_estimators=50, max_depth=1, min_samples_split=4,
  7.                               min_samples_leaf=54,oob_score=True)
  8. clf3 = SVC(C=0.1, probability=True)
  9. # 软投票
  10. eclf = VotingClassifier(estimators=[('xgb', clf1), ('rf', clf2), ('svc', clf3)], voting='soft', weights=[2, 1, 1])
  11. clf1.fit(x_train, y_train)
复制代码



二、Averaging
Averaging,其原理是对模型结果取平均。
处理回归问题,直接取平均值作为最终的预测值。(也可以使用加权平均)
平均法存在问题就是如果不同回归方法的预测结果波动幅度相差比较大,那么波动小的回归结果在融合时候起的作用就比较小。


三、Ranking
Ranking的思想和Averaging一致,但是因为上述平均法存在一定的问题。
所以这里采用了把排名做平均,如果有权重,则求n个模型权重比排名之和,即为最后的结果。


四、Bagging
Bagging方法的出现,可以完美地解决了决策树过拟合的问题,同时bagging的使用也会使分类器分类效果得到了显著的提高。
应用场景:对不稳定的分类器做Bagging是一个好主意。在机器学习中,如果训练数据的一个小变化导致学习中的分类器的大变化,则该算法(或学习算法)被认为是不稳定的。
Bagging就是采用有放回的方式进行抽样,用抽样的样本建立子模型,对子模型进行训练,这个过程重复多次,最后进行融合。大概分为两步:

1.重复K次
有放回地重复抽样建模
训练子模型

2.模型融合
模型融合,如果是分类问题用voting解决 。如果是回归问题用average解决。
注意:在bagging集成中,各个模型的预测不会彼此依赖。Bagging算法不用我们自己实现,随机森林就是基于Bagging算法的一个典型例子,采用的基分类器是决策树。可以直接调用。


五、Boosting
Boosting的思想是一种迭代的方法,它每次训练使用的都是同一个训练集。但是每次它会给这些分类错误的样例增加更大的权重,下一次迭代的目标就是能够更容易辨别出上一轮分类错误的样例。最终将这些弱分类器进行加权相加。
注意:Boosting下一次的迭代必须在上一次的基础上。
同样地,基于Boosting思想的有AdaBoost、GBDT等,也可以直接调用。


六、Stacking
stacking是一种分层模型集成框架。以两层为例,第一层由多个基学习器组成,其输入为原始训练集,第二层的模型则是以第一层基学习器的输出作为训练集进行再训练,从而得到完整的stacking模型。
stacking两层模型都使用了全部的训练数据。

第一层模型:
首先数据有训练集和测试集两部分
1.对训练集进行五折交叉验证,把训练集划分为A,B两部分
2.对A部分进行训练,对B部分进行预测,得到a1,五折后则为a1,a2,a3,a4,a5,对他们合并,形成n行一列的数据
3.对测试集进行预测,会得到b1,b2,b3,b4,b5,将各部分相加取平均得到m行一列的数据
4,。以上是一个模型,如果有三个模型,则可以得到A1,A2,A3,B1,B2,B3
5.在此之后,我们把A1,A2,A3并列合并得到一个n行三列的矩阵作为training data,B1,B2,B3并列合并得到一个m行三列的矩阵作为testing data。让下一层的模型,基于他们进一步训练。
代码实例:
  1. #创建训练的数据集
  2. data, target = make_blobs(n_samples=50000, centers=2, random_state=0, cluster_std=0.60)

  3. #模型融合中使用到的各个单模型
  4. clfs = [RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
  5.         RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
  6.         ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
  7.         ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
  8.         GradientBoostingClassifier(learning_rate=0.05, subsample=0.5, max_depth=6, n_estimators=5)]

  9. #切分一部分数据作为测试集
  10. X, X_predict, y, y_predict = train_test_split(data, target, test_size=0.33, random_state=2017)


  11. dataset_blend_train = np.zeros((X.shape[0], len(clfs)))
  12. dataset_blend_test = np.zeros((X_predict.shape[0], len(clfs)))

  13. #5折stacking
  14. n_folds = 5
  15. skf = list(StratifiedKFold(y, n_folds))
  16. for j, clf in enumerate(clfs):
  17.     #依次训练各个单模型
  18.     dataset_blend_test_j = np.zeros((X_predict.shape[0], len(skf)))
  19.     for i, (train, test) in enumerate(skf):
  20.         #使用第i个部分作为预测,剩余的部分来训练模型,获得其预测的输出作为第i部分的新特征。
  21.         X_train, y_train, X_test, y_test = X[train], y[train], X[test], y[test]
  22.         clf.fit(X_train, y_train)
  23.         y_submission = clf.predict_proba(X_test)[:, 1]
  24.         dataset_blend_train[test, j] = y_submission
  25.         dataset_blend_test_j[:, i] = clf.predict_proba(X_predict)[:, 1]
  26.     #对于测试集,直接用这k个模型的预测值均值作为新的特征。
  27.     dataset_blend_test[:, j] = dataset_blend_test_j.mean(1)
  28.     print("val auc Score: %f" % roc_auc_score(y_predict, dataset_blend_test[:, j]))
  29. # clf = LogisticRegression()
  30. clf = GradientBoostingClassifier(learning_rate=0.02, subsample=0.5, max_depth=6, n_estimators=30)
  31. clf.fit(dataset_blend_train, y)
  32. y_submission = clf.predict_proba(dataset_blend_test)[:, 1]

  33. print("Linear stretch of predictions to [0,1]")
  34. y_submission = (y_submission - y_submission.min()) / (y_submission.max() - y_submission.min())
  35. print("val auc Score: %f" % (roc_auc_score(y_predict, y_submission)))
复制代码

备注:此处只是一部分代码


七、Blending
Bending是一种模型融合方法,对于一般的Blending,主要思路是把原始的训练集先分成两部分,比如70%的数据作为新的训练集,剩下30%的数据作为测试集。第一层我们在这70%的数据上训练多个模型,然后去预测那30%数据的label。在第二层里,我们就直接用这30%数据在第一层预测的结果做为新特征继续训练即可。

Blending的优点在于:
1.比stacking简单(因为不用进行k次的交叉验证来获得stacker feature)
2.避开了一个信息泄露问题:generlizers和stacker使用了不一样的数据集
而缺点在于:
1.使用了很少的数据(第二阶段的blender只使用training set10%的量)
2.blender可能会过拟合
3.stacking使用多次的交叉验证会比较稳健
对于实践中的结果而言,stacking和blending的效果是差不多的,所以使用哪种方法都没什么所谓,完全取决于个人爱好。
代码实例:
  1. #创建训练的数据集
  2. data, target = make_blobs(n_samples=50000, centers=2, random_state=0, cluster_std=0.60)

  3. #模型融合中使用到的各个单模型
  4. clfs = [RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
  5.         RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
  6.         ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
  7.         ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
  8.         GradientBoostingClassifier(learning_rate=0.05, subsample=0.5, max_depth=6, n_estimators=5)]

  9. #切分一部分数据作为测试集
  10. X, X_predict, y, y_predict = train_test_split(data, target, test_size=0.33, random_state=2017)

  11. #5折stacking
  12. n_folds = 5
  13. skf = list(StratifiedKFold(y, n_folds))

  14. #切分训练数据集为d1,d2两部分
  15. X_d1, X_d2, y_d1, y_d2 = train_test_split(X, y, test_size=0.5, random_state=2017)
  16. dataset_d1 = np.zeros((X_d2.shape[0], len(clfs)))
  17. dataset_d2 = np.zeros((X_predict.shape[0], len(clfs)))

  18. for j, clf in enumerate(clfs):
  19.     #依次训练各个单模型
  20.     clf.fit(X_d1, y_d1)
  21.     y_submission = clf.predict_proba(X_d2)[:, 1]
  22.     dataset_d1[:, j] = y_submission
  23.     #对于测试集,直接用这k个模型的预测值作为新的特征。
  24.     dataset_d2[:, j] = clf.predict_proba(X_predict)[:, 1]
  25.     print("val auc Score: %f" % roc_auc_score(y_predict, dataset_d2[:, j]))

  26. #融合使用的模型
  27. clf = GradientBoostingClassifier(learning_rate=0.02, subsample=0.5, max_depth=6, n_estimators=30)
  28. clf.fit(dataset_d1, y_d2)
  29. y_submission = clf.predict_proba(dataset_d2)[:, 1]

  30. print("Linear stretch of predictions to [0,1]")
  31. y_submission = (y_submission - y_submission.min()) / (y_submission.max() - y_submission.min())
  32. print("val auc Score: %f" % (roc_auc_score(y_predict, y_submission)))
复制代码



总结:
以上的七种模型融合方法,在一定情况下可以提高模型的准确率,方法没有好坏之分,各有自己的优缺点,具体实施可针对具体场景。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

客服中心
关闭
在线时间:
周一~周五
8:30-17:30
QQ群:
653541906
联系电话:
010-85786021-8017
在线咨询
客服中心

意见反馈|网站地图|手机版|小黑屋|EPS数据狗论坛 ( 京ICP备09019565号-3 )   

Powered by BFIT! X3.4

© 2008-2028 BFIT Inc.

快速回复 返回顶部 返回列表