Machine-learning-with-python-adaboost

提供:Dev Guides
移動先:案内検索

Pythonによる機械学習-AdaBoost

これは、最も成功したブースティングアンサンブルアルゴリズムの1つです。 このアルゴリズムの主な鍵は、データセット内のインスタンスに重みを与える方法です。 このため、アルゴリズムは、後続のモデルの構築中にインスタンスにあまり注意を払う必要がありません。

次のPythonレシピでは、Pima Indians糖尿病データセットで_sklearn_の_AdaBoostClassifier_クラスを使用して、分類用のAda Boostアンサンブルモデルを構築します。

まず、次のように必要なパッケージをインポートします-

from pandas import read_csv
from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score
from sklearn.ensemble import AdaBoostClassifier

さて、前の例のようにPima糖尿病データセットをロードする必要があります-

path = r"C:\pima-indians-diabetes.csv"
headernames = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
data = read_csv(path, names = headernames)
array = data.values
X = array[:,0:8]
Y = array[:,8]

次に、次のように10倍クロス検証の入力を与えます-

seed = 5
kfold = KFold(n_splits = 10, random_state = seed)

構築するツリーの数を指定する必要があります。 ここでは、5つの特徴から選択された分割点で150本の木を構築しています-

num_trees = 50

次に、次のスクリプトの助けを借りてモデルを構築します-

model = AdaBoostClassifier(n_estimators = num_trees, random_state = seed)

次のように結果を計算して印刷します-

results = cross_val_score(model, X, Y, cv = kfold)
print(results.mean())

出力

0.7539473684210527

上記の出力は、AdaBoost分類器アンサンブルモデルの約75%の精度を得たことを示しています。