【SVM】rbfカーネルのハイパーパラメータをグリッドサーチとベイズ最適化で探す【irisデータセット】
学習ポイント
  • サポートベクターマシンで用いるRBFカーネルのハイパーパラメータ\(\gamma, C\)について
  • for文でグリッドサーチをしてみる.
  • ベイズ最適化による探索も試す!

こんにちは.けんゆー(@kenyu0501_)です.
前回の続きなのですが,今回はrbfカーネル(ガウスカーネル)のハイパーパラメータをグリッドサーチで探索したいと思います.
(前回:各種カーネル関数を使ってサポートベクターマシンを実装する)

ハイパーパラメータとは,SVMを設計する人が経験的かつ独自に決めるべき定数です.
扱う系によって最適な値が変わるので,分類器を構築する前に,どの程度の値が良いのかざっと調べるべき必要があります.
これらは,ヒューリスティックでありますが,いくつか求め方もあります.

ペンのすけ

ヒューリスティックとは,必ずしも正しい答えを導けるわけではないけど,ある程度のレベルで正解に近い解を得られることだよ!

RBFカーネルのハイパーパラメータ

RBFのハイパーパラメータは以上の2つです.

  • コスト関数の \(C\)
  • カーネル関数の \(\gamma\)

これらは,デフォルトで回すと以下のような値を持っています.

\(\gamma\) は’auto_deprecated’,Cは1.0を持っていますね.
これらの値をグリッドサーチにて探していきましょう!

グリッドサーチ(GS)とは!?

グリッドサーチ,名前はかっこいいですが,単なるしらみ潰し探索です.
ちょっとずつパラメータの値を変えて,汎化性能を調べていくという作業になります.

具体的には,横軸に\(\gamma\),縦軸に\(C\)をとって,各軸のグリッド線が交差する箇所のパラメータを使って汎化性能を確認する!というかなりシンプルなものです.
pythonだとライブラリが出ていますが,シンプルなものなので,for文で書きました.

ペンのすけ

ちなみに,sklearnから,GridSearchCVというライブラリが出ているので,こちらを使っても大丈夫です!

GSの結果とそのハイパーパラメータを使ったSVM

<GSの条件>

  • 各パラメータ\(\gamma,C\),0.01から10まで,100分割をした.
  • 100×100=10000回の総当たり計算をした
  • 特に,交差検証などは行っていない.

グリッドサーチ(GS)の結果を上に示します.
10000回の総当たり計算を行いました.
成績の良いものを黄色,成績の悪いものをピンクで示しました.

ペンのすけ

この時の成績とは,ハイパーパラメータを使ったSVMの汎化性能だよ!教師データ(80%)で分離境界面を作って,残りの20%でテストした結果だよ!

GSを行ったハイパーパラメータ\(\gamma,C\)はそれぞれ,0.14.4でした.
そのパラメータを使った結果を以下に示します.

 

左側が,トレーニングデータ(80%)を使ったもので,右側がテストデータ(20%)です.
データ自体が,凄く入り組んでいるので,あまりrbfカーネルの良さが生かされていないような気もしますが,,,笑

プログラムについて

グリッドサーチは,for文を2回,くるくる回しています.
for文を抜けた後には,その中で最も良かったベストなハイパーパラメータを使って,もう一度SVMを回してます.

おまけ:ベイズ最適化でハイパーパラメータを探索

グリッドサーチで探索しても良いですが,網羅的に探索する総当たり計算はあまり芸がないようにも思います.
そのため,今回はおまけとして,ベイズ最適化を使ったハイパーパラメータの探索も試みました.
以下に結果を示します.

グリッドサーチで探した範囲において,ベイズ最適化を試みたので,最良点が探しだせていることがわかります.
ただ,ハイパーパラメータの値自体は異なるので,分離平面が全く異なるという結果になりました.
(グリッドサーチの探索するサンプリング間隔にもよりますが,だいぶ細かくとりました)

ペンのすけ

\(\gamma\) の値が大きくなると,境界がものすごく複雑になることが確認できるね!教師データを使ったデータセットには上手く適合しそうだけど,未知のデータには汎化誤差が出てくるような気もするね!今回はたまたま上手くいっているけど.


ペンのすけ

\(\gamma\) の値は過学習を抑制するためにも重要なパラメータであることが分かるね!

交差検証を行っていないので,信憑性に関しては低いですが,プログラムとしては機能しているようです.
また,以下の表にベイズ最適化の過程において,選択された値を示します.

初期値が初めの5つで,20回(iteration),計算しました.
20回でも最良(汎化性能が高い点)を探索できているようです.
プログラムも載せておきますね!

ベイズ最適化によるプログラムについて

また,今度,ベイズ最適化については詳細な記事を書きます!