论文部分内容阅读
本文提出了一种名为DC-AdaBoost的集成算法,并通过算法组合的方式改进了SVM算法(l1+l2约束下的Ramp损失算法)。在集成学习中,前期加入训练数据聚类过程,通过聚类情况对AdaBoost算法迭代与权值取舍时进行优化;在后期测试集上,依据数据点所属聚类的不同,改变每个弱分类器的表决权值。使用该项技术可以实现局部数据最优学习弱分类器的表决融合,而非整体弱分类器的表决的融合,同时也对噪声敏感性问题给出了一种解决方案。在最终算法与LR、Adaboost以及改良后的SVM比较过程中,在综合性能和效率上都明显优于AdaBoost,比改良后的SVM表现略有提升。也可将此种方法在RF和GBDT算法中做应用,并可推广到含有Bagging和BootStrap集成思想的各个算法中。