在集成學習之Adaboost算法原理小結(jié)中,我們對Adaboost的算法原理做了一個總結(jié)。這里我們就從實用的角度對scikit-learn中Adaboost類庫的使用做一個小結(jié),重點對調(diào)參的注意事項做一個總結(jié)。

1. Adaboost類庫概述

    scikit-learn中Adaboost類庫比較直接,就是AdaBoostClassifier和AdaBoostRegressor兩個,從名字就可以看出AdaBoostClassifier用于分類,AdaBoostRegressor用于回歸。

    AdaBoostClassifier使用了兩種Adaboost分類算法的實現(xiàn),SAMME和SAMME.R。而AdaBoostRegressor則使用了我們原理篇里講到的Adaboost回歸算法的實現(xiàn),即Adaboost.R2。

    當我們對Adaboost調(diào)參時,主要要對兩部分內(nèi)容進行調(diào)參,第一部分是對我們的Adaboost的框架進行調(diào)參, 第二部分是對我們選擇的弱分類器進行調(diào)參。兩者相輔相成。下面就對Adaboost的兩個類:AdaBoostClassifier和AdaBoostRegressor從這兩部分做一個介紹。

2. AdaBoostClassifier和AdaBoostRegressor框架參數(shù)

    我們首先來看看AdaBoostClassifier和AdaBoostRegressor框架參數(shù)。兩者大部分框架參數(shù)相同,下面我們一起討論這些參數(shù),兩個類如果有不同點我們會指出。

 

延伸閱讀

學習是年輕人改變自己的最好方式-Java培訓,做最負責任的教育,學習改變命運,軟件學習,再就業(yè),大學生如何就業(yè),幫大學生找到好工作,lphotoshop培訓,電腦培訓,電腦維修培訓,移動軟件開發(fā)培訓,網(wǎng)站設(shè)計培訓,網(wǎng)站建設(shè)培訓學習是年輕人改變自己的最好方式