読書ノート - 深層学習
深層学習の読書ノートです。
正誤表
討議事項が正誤表に記載されていることがあります。確認してください。
- 入手元: http://www.kspub.co.jp/download/
- 2015/05/28: http://www.kspub.co.jp/download/1529021a.pdf
ノート
第1章
1.2
そもそもニューラルネットワークとは何なのか。
→ 第2章が最も単純なニューラルネットワークの解説になっているので、順を追って読み進めれば良い。
→ 第2〜3章が第一次人工知能ブーム、第4章が第二次人工知能ブーム、第5章以降が第三次人工知能ブームの内容に近いので、順を追いながら体系的な学習が期待できる。
第2章
2.1
2層にならべられたニューラルネットとあるが、図2.2はどういう2層?
→ 1層目が入力層、2層目が中間と出力をかねている。
ユニットの数、4→3はたまたま?
→ たまたま。
関数 f() は全体で1つ?
→1つ、層ごとに作ったりはあるかも。
重みはどこに所属している?
→ 神経細胞のモデルでいうと、枝についている感じ。
層のユニットの数は試行錯誤?
→ ノリで決めているところもある。誤認識を考慮して適当な数を設定する。
→ 入力と出力は、解決したい課題によって決まる。
wとbを学習で割り出すのがニューラルネットの本質?
→ まあざっくりいうとそういう感じ。
教師あり学習は、正しい値を繰り返し入力することで、新たな入力を判別できるようになる。
教師なし学習は、多数の入力をどかどかいれていくことで、同じような信号に同じような活性がおこるようになる。
図2.3の-5〜5というのはどういう意図?
→ 特に意味はない。値の変化の全体を見せようとしただけと思われる。
2.3
記号解説
x;w
セミコロン → Wikipedia
2.4
対数関数の単調性から結果は同じとは?
→ 対数化した E(w) は、L(w) と同じ結果が期待できる。
→ E(w) = -log(L(w)
記号解説
第3章
3.1
記号解説
argmin(...)
関数の値が最小になる引数 → Wikipedia凸関数
もっこりしてるやつ → Wikipedia / グラフ例 (Google)∇
ナブラδ
デルタε
イプシロン
3.6
記号解説
σ
シグマμ
ミュー
4.2
記号解説
∘
アダマール積 → Wikipedia
5.3
記号解説
φ
ファイΓ
ガンマξ
クサイ
8.4
記号解説
∝
比例 → Wikipedia
参考資料
読書会で共有した各種資料など。