深層学習第2章
引き続き、深層学習(機械学習プロフェッショナルシリーズ、岡谷貴之)の第2章のメモです。第2章のテーマは順伝播型ネットワークです。 大体はすんなり読めましたが、初めてTexを使って入力したので手間取ってしまいました。少しずつ慣れていきたいところです。
順伝播型ネットワーク(feedforward neural network)
ユニットが隣接層間でのみ結合した構造を持ち、情報が入力側から出力側に一方向にのみ伝播するニューラルネットワーク。
は重み(weight)、はバイアス(bias)、は活性化関数(activation function)。
活性化関数
ロジスティックシグモイド関数(logistic sigmoid function)
双曲線正接関数
などが多く使われる。近年これらの関数より単純で計算量が小さく、学習が速い正規化線形関数(rectified linear function)も良く使われている。
多層ネットワーク
層の出力は、層の出力から、
と計算される。なお、入力、出力、重み、バイアスはベクトル、行列表示している。
誤差関数(error function)
問題によって、活性化関数と誤差関数を使い分ける。
回帰(regression、連続値を取る関数を対象とする)
活性化関数・・・恒等写像
誤差関数・・・二乗誤差
は目標出力、はネットワークの出力。
二値分類
活性化関数・・・ロジスティック関数
誤差関数・・・
これは、のデータに対する尤度(likelihood)
を最大化することに相当する。
多クラス分類
活性化関数(出力層)・・・ソフトマックス関数(softmax function)
これは、この層の全部のユニットに依存していることに注意。また、は、入力がクラスに属する確率であると解釈する(出力の総和は1となっている)。
誤差関数・・・交差エントロピー(cross entropy)
これは、の尤度
を最大化することに相当する。また、ソフトマックス関数は、入力に一律に定数を加算しても出力が変化しない、すなわち、重みが一つに定まらない冗長性があるので、正則化によって重みを減衰させるのが良い。
- 作者: 岡谷貴之
- 出版社/メーカー: 講談社
- 発売日: 2015/04/08
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (13件) を見る