摘要:AdaBoost是最优秀的Boosting算法之一,有着坚实的理论基础,在实践中得到了很好的推广和应用.算法能够将比随机猜测略好的弱分类器提升为分类精度高的强分类器,为学习算法的设计提供了新的思想和新的方法.本文首先介绍Boosting猜想提出以及被证实的过程,在此基础上,引出AdaBoost算法的起源与最初设计思想;接着,介绍AdaBoost算法训练误差与泛化误差分析方法,解释了算法能够提高学习精度的原因;然后,分析了AdaBoost算法的不同理论分析模型,以及从这些模型衍生出的变种算法;之后,介绍AdaBoost算法从二分类到多分类的推广.同时,介绍了AdaBoost及其变种算法在实际问题中的应用情况.本文围绕AdaBoost及其变种算法来介绍在集成学习中有着重要地位的Boosting理论,探讨Boosting理论研究的发展过程以及未来的研究方向,为相关研究人员提供一些有用的线索.最后,对今后研究进行了展望,对于推导更紧致的泛化误差界、多分类问题中的弱分类器条件、更适合多分类问题的损失函数、更精确的迭代停止条件、提高算法抗噪声能力以及从子分类器的多样性角度优化AdaBoost算法等问题值得进一步深入与完善.
关键词:集成学习 boosting adaboost 泛化误差 分类间隔
单位:西安电子科技大学计算机学院 西安710071
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社
相关期刊
网络安全和信息化 Nuclear Science and Techniques Applied Geophysics Applied Mathematics and Mechanics International Journal of Minerals Metallurgy and Materials Asian Journal of Andrology Advances in Atmospheric Sciences Journal of Iron and Steel Research Applied Mathematics:A Journal of Chinese Universities