機械学習/Pythonで説明変数を減らす のバックアップソース(No.2)

*目次 [#he9ab66a]
#contents

*はじめに [#s17a8242]

前回、Pythonの機械学習ライブラリーscikit-learnを用いて、決定木による分類を行いました。
-[[Pythonで決定木を使う>機械学習/Pythonで決定木を使う]] - とうごろうぃき

前回はすべての説明変数を用いて予測モデルを学習しましたが、実際のデータに対する分析では、予測に不要な説明変数が含まれていることや、説明変数が多すぎて予測モデルがうまく作れないことがあります。

ここでは、特徴を選択する方法について説明します。

環境やデータは前回と同じです。


*特徴選択 [#w18e7620]

**分散が小さい特徴を削除する [#s797aea4]

分散が小さい特徴は出力に影響を与えにくいので、分散が閾値よりも小さい特徴を削除し、残った特徴を選択します。
#geshi(python){{
from sklearn.feature_selection import VarianceThreshold
fs = VarianceThreshold(threshold=1.0).
X_ = fs.fit_transform(X)
}}
ここで、fsは特徴選択器を格納するための変数であり、feature selectorの略です。


**単変量解析のスコアが低い特徴を削除する [#p454e781]

単変量解析を行って、スコアが低い特徴を削除し、残った特徴を選択します。
#geshi(python){{
from sklearn.feature_selection import SelectKBest
fs = SelectKBest(k=3)
X_ = fs.fit_transform(X, y)
}}
ここで、k は選択する特徴の数です。
回帰問題の場合は、score_func オプションに 'f_regression' を指定します。


**最も重要でない特徴を繰り返し削除する [#z2764a0a]

再帰的特徴削減 (Recursive Feature Elimination, RFE) という方法で、適切なサイズになるまで、最も重要でない特徴を一つずつ繰り返し削除し、残った特徴を選択します。
最も重要でない特徴を決めるために、学習器 estimator が必要です。
#geshi(python){{
from sklearn.feature_selection import RFE
from sklearn.svm import SVC
est = SVC()
fs = RFE(estimator=est, n_features_to_select=3)
X_ = fs.fit_transform(X, y)
}}
ここでは、SVCを estimator として使っています。
n_features_to_select は選択する特徴の数です。


**L1正則化を用いて特徴を削除する [#n10dc8f1]

特徴に対する係数の絶対値が大きくなりすぎないようにペナルティを課す方法を正則化といい、L1正則化はかなり厳しいペナルティを課すことで係数をなるべくゼロにしてしまうというものです。
係数がゼロの特徴量はなくても構わないものなので、係数がゼロ以外の特徴を選択します。
L1正則化を行う学習器 estimator が必要です。
#geshi(python){{
from sklearn.feature_selection import SelectFromModel
from sklearn.svm import LinearSVC
est = LinearSVC(penalty='l1')
fs = SelectFromModel(estimator=est)
X_ = fs.fit_transform(X, y)
}}
ここでは、線形SVCを estimator として使っています。
トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS