有限仮説集合がPAC学習可能であることの証明
以前の記事で、有限仮説集合と実現可能性を仮定した場合、十分に訓練データが多ければ経験損失最小化によって近似的に期待損失を小さくできることを示しました。今回はこれを一般化したPAC学習について述べた後、実現可能性の仮定を外すことを考えます。
PAC学習可能
仮説集合がPAC学習可能であるとは、以下の条件を満たす関数と学習アルゴリズムが存在することを言います。任意のと分布に対して、のから生成された独立なサンプルを取れば、アルゴリズムは少なくとも確率で、
を満たす仮説を返す。
すなわち、十分に多くのデータを取れば任意の確率、精度で期待損失が最小値に近い仮説を得ることができるということです。以前の記事と異なるのは、実現可能性を仮定していないため不等式の右辺の第一項が0とは限らないこと、また損失関数が
などに一般化されていることです。 この定義を用いると、以前の記事の結論から有限仮説集合は実現可能性の仮定のもとでPAC学習可能であると言えます。しかし、実現可能性を仮定しなくても実はPAC学習可能であることが示せます。以降の節ではいくつか準備をした後にこれを証明していきましょう。
一様収束
仮説集合が一様収束であるとは、以下の条件を満たす関数が存在することを言います。任意のと分布に対して、のから生成された独立なサンプルを取れば、少なくとも確率で、
である。
この式にはPAC学習の定義に出てきた期待損失から求まるが出てこないため、証明で役立ちます。
Hoeffdingの不等式
PAC学習の証明に必要なHoeffdingの不等式を述べておきます。 を独立な確率変数、、のとき、
となる。
この証明については省略します。(今後追記するかもしれません)
有限仮説集合はPAC学習可能
いよいよここからが本題です。有限仮説集合がPAC学習可能であることを示すために、
の上限を考えます。まず、一様収束
ならば、
であることから、
となります。ただし、(1)式では、Hoeffdingの不等式を利用しました。最後の式の右辺をとおけば、有限仮説集合はPAC学習可能で、
となることが分かります。
まとめ
有限仮説集合は(実現可能性の仮定に関わらず)PAC学習可能であることが分かりました。 では、逆にPAC学習可能な仮説集合は有限仮説集合だけなのでしょうか?実は無限仮説集合にもPAC学習可能なものがあります。これについてはまた別の記事で紹介したいと思います。
参考文献
以上の内容は基本的に「Understanding Machine Learning: From Theory to Algorithms」の3、4章の内容に従っています。
Understanding Machine Learning: From Theory to Algorithms
- 作者: Shai Shalev-Shwartz,Shai Ben-David
- 出版社/メーカー: Cambridge University Press
- 発売日: 2014/05/19
- メディア: ハードカバー
- この商品を含むブログを見る
なお、pdf版も無料公開されています。