これは便利(交差検証法)
こんばんは。
よっしんです。
今日は台風のおかげで一日中家でした・・・
外に出れずムズムズする感じでしたが。
おかげ様で一つ発見です。
python sklearnライブラリにあるcross_val_score。
凄い便利です。
何が便利かというとですが。
モデルデータ、特徴量とラベルデータを渡すと、その適合精度を自動的に算出してくれるんです。
通常ならば。
1. 訓練とテストに使うデータを分割する。
2. モデルに特徴量のデータを与えて、ラベルを予測 VS 本来のラベルデータを比較して精度を算出する
という手順を踏まなくてはいけないんですが。
これは、それを自動でやってくれます。
今回はこんな感じで使っていましたね。
criterion='accuracy'
Estimator=RandomForestClassifier(n_estimators=100,random_state=0)
Estimator.fit(X,Y)
#評価関数で評価。因みに[0]が評価指数の値
result=cross_val_score(Estimator,X_ohe_selected,Y,scoring=criterion)
X:特徴量
Y:ラベル
Estimator:ランダムフォレスト(分類器)
今まで、わざわざサブルーチンを持ってきて、えいやとしてたんですが、一発で精度検証できたので、凄い楽に感じてしまいました。
詳しい使い方は以下が分かり易いです。
んんん。便利。
これ、kerasやchainerで使えるのかしら?