過学習を防ぐ2つの方法!〜統計的機械学習の基礎〜
機械学習と過学習
機械学習モデルを訓練すると、しばしば過学習に陥ります。過学習というのは訓練データに過剰に適合してしまい、未知のデータに対してうまく適合しなくなってしまう、すなわち汎化能力が低い状態を表します。過学習を防ぐためには訓練データを増やせば良い!と言われることがありますがそれは何故でしょうか?ここでは統計的機械学習の理論から過学習を防ぐ方法について考えてみようと思います。まずは、未知のデータや訓練データに対してモデルがどれほど適合しているかを表す期待損失、経験損失を定義しましょう。
期待損失
データの入力をとし、分布に従うとします。データの出力をとし、となるような関数があるとします。ここで、分布と関数は真の分布と関数であり未知であることに注意します。 さて、今ある仮説(予測モデル)を考えるとき、この仮説が真のデータ分布と関数に対してどれほど不正確であるかは予測結果が真の関数の出力と異なる確率すなわち、
で表されます。この確率を期待損失と言います(損失関数として0-1損失を選んでいます)。
経験損失
一方で、経験損失は訓練データに対して仮説が真の関数に対してどれほど不正確であるかを表します。すなわち、
で表されます。ただし、は訓練データの個数です。
経験損失最小化
さて、機械学習では訓練データからデータの背後にある真の関数を探す、すなわち訓練データではなく未知のデータへ適合するような関数を探すことが目的です。よって、期待損失を最小化したいのですが当然真の分布や関数は未知であり、直接最小化できません。そこで、期待損失の代わりに訓練データから求められる経験損失を最小化することを考えます。これによって期待損失も小さくなることが期待されるでしょう。しかし闇雲に経験損失を最小化すれば良いのかというとそうではありません。経験損失が小さくなっても期待損失が小さくならないことがあるのです!1つ例を挙げて説明しましょう。
上の図で内側の点線内は1、内側の点線と外側の実線の間は0を返す分布があるとします。青と赤の点はその分布からサンプルした点で、それぞれ青は1、赤は0を表しています。また、内側の正方形と外側の正方形の面積はそれぞれ1、2とします。 この時、以下のような仮説を考えてみます。
この仮説は、サンプルした青の点上では1、赤の点上では0、それ以外の場所では全て0を返すことを意味します。 すなわち、サンプルした点の上では必ず予測が正しいことになり経験損失は0となります。一方で期待損失は、有限のサンプルした点以外の場所では必ず0を返すことから、予測が正しくなるのは外側の正方形に対する内側の正方形の面積の比に等しく1/2となってしまいます!この予測は明らかに良い予測とは言えません。これが過学習の問題です。
有限仮説集合
前章の例で起きたような過学習を防ぐための単純なアイデアとして、考える仮説の集合を制限することが挙げられます。つまり、先ほどの例のようなサンプルした点の上でのみ必ず正しい予測を返すような極端な仮説を立てられないようにするわけです。仮説集合を制限すればするほど過学習は防げると考えられますが、一方で最小となる経験損失が大きくなってしまう可能性がありトレードオフとなります。 さて、特に仮説集合のうち仮説の個数が有限のものを有限仮説集合と言い、仮説集合の中で経験損失を最小にするような仮説を、
とします。
実現可能性
期待損失を最小化する上で、簡単のために実現可能性という仮定を考えます。実現可能性というのは仮説集合の中に、期待損失を0にするような仮説が含まれていること、すなわち
を表します。この仮定は、どのように分布からサンプルしても
となること、また、
となることを意味します。しかし、我々が興味があるのは経験損失を最小にする仮説や、その仮説に対する期待損失なのです。
有限仮説集合と実現可能性を仮定した期待損失
経験損失を最小化するような仮説を選んだ時にその仮説の期待損失がどれほどになるかを知りたいので、その仮説の期待損失がより大きくなってしまう確率、
の上限を考えることにします。ただし、であり、は個のデータを分布から独立にサンプルした時の確率を表します。ここでは、前章で述べた有限仮説集合と実現可能性を仮定することにします。まず、仮説集合の中で期待損失がより大きくなってしまう仮説を、
とします。実現可能性の仮定より、であることに注意すると、
が成り立ちます。よって、
となります。ただし、(1)式では、であることを利用しました。つまり、経験損失を最小化する仮説の期待損失がより大きくなってしまう確率は、で抑えられることがわかりました。
最後の式の右辺をとおいて、これを言い換えれば、以下のような定理が成立します。
すなわち、訓練データ数を増やすと、で期待損失は減少します。また、仮説集合の数に対してはで期待損失は増加します。
まとめ
以上のことから過学習を防ぐ、すなわち期待損失を減少させるためには
訓練データの増加
仮説集合の制限(正則化や重みの共有など)
の方法が有効と言えます。 有限仮説集合と実現可能性の仮定を取り除く方法については別の記事で紹介する予定です。
参考文献
以上の内容は基本的に「Understanding Machine Learning: From Theory to Algorithms」の2章の内容に従っています。本文中の図はそちらからの引用です。
Understanding Machine Learning: From Theory to Algorithms
- 作者: Shai Shalev-Shwartz,Shai Ben-David
- 出版社/メーカー: Cambridge University Press
- 発売日: 2014/05/19
- メディア: ハードカバー
- この商品を含むブログを見る
なお、pdf版も無料公開されています。