[TOC]
集成学习
思想:三个臭皮匠顶个诸葛亮。
集成学习有三种集成方式,分别是Bagging、Stacking、Boosting方式。
Bagging
把数据通过有放回的抽样方式,划分为多个数据集,分别训练多个模型。针对分类问题,按照少数服从多数原则进行投票,针对回归问题,求多个测试结果的平均值。
Stacking
通常是不同的模型,而且每个分类都用了全部训练数据,得到预测结果y1, y2, …, yk,然后再训练一个分类器Meta Classifier,得到最终的预测结果。
Boosting
使用的相同的弱学习器,每个新学习器都依赖于前面的模型,并按照某种确定性的策略将它们组合起来。
两个重要的Boosting算法:AdaBoost、Gradient Boosting
AdaBoost
GradientBoosting
XGBoost
1 | def model_xgb(): |