在Bagging與隨機森林算法原理小結(jié)中,我們對隨機森林(Random Forest, 以下簡稱RF)的原理做了總結(jié)。本文就從實踐的角度對RF做一個總結(jié)。重點講述scikit-learn中RF的調(diào)參注意事項,以及和GBDT調(diào)參的異同點。

1. scikit-learn隨機森林類庫概述

    在scikit-learn中,RF的分類類是RandomForestClassifier,回歸類是RandomForestRegressor。當(dāng)然RF的變種Extra Trees也有, 分類類ExtraTreesClassifier,回歸類ExtraTreesRegressor。由于RF和Extra Trees的區(qū)別較小,調(diào)參方法基本相同,本文只關(guān)注于RF的調(diào)參。

    和GBDT的調(diào)參類似,RF需要調(diào)參的參數(shù)也包括兩部分,第一部分是Bagging框架的參數(shù),第二部分是CART決策樹的參數(shù)。下面我們就對這些參數(shù)做一個介紹。

2.  RF框架參數(shù)

    首先我們關(guān)注于RF的Bagging框架的參數(shù)。這里可以和GBDT對比來學(xué)習(xí)。在scikit-learn 梯度提升樹(GBDT)調(diào)參小結(jié)中我們對GBDT的框架參數(shù)做了介紹。GBDT的框架參數(shù)比較多,重要的有最大迭代器個數(shù),步長和子采樣比例,調(diào)參起來比較費力。但是RF則比較簡單,這是因為bagging框架里的各個弱學(xué)習(xí)器之間是沒有依賴關(guān)系的,這減小的調(diào)參的難度。換句話說,達到同樣的調(diào)參效果,RF調(diào)參時間要比GBDT少一些。

    下面我來看看RF重要的Bagging框架的參數(shù),由于RandomForestClassifier和RandomForestRegressor參數(shù)絕大部分相同,這里會將它們一起講,不同點會指出。

延伸閱讀

學(xué)習(xí)是年輕人改變自己的最好方式-Java培訓(xùn),做最負(fù)責(zé)任的教育,學(xué)習(xí)改變命運,軟件學(xué)習(xí),再就業(yè),大學(xué)生如何就業(yè),幫大學(xué)生找到好工作,lphotoshop培訓(xùn),電腦培訓(xùn),電腦維修培訓(xùn),移動軟件開發(fā)培訓(xùn),網(wǎng)站設(shè)計培訓(xùn),網(wǎng)站建設(shè)培訓(xùn)學(xué)習(xí)是年輕人改變自己的最好方式