いろんなものはつながっている

neural networks and deep learningを読んでみた

機械学習の入門として評判のサイトを読み始めてみた。

ニューラルネットワークの仕組み

よくみるニューラルネットワークの図。
手元にある入力と出力のサンプルデータ(正解データ)をつかって、係数を調整していくのはなんとなくわかる。

係数をちょっと動かしたときによい方向にいくか悪い方向にいくかをみながら係数を調整する、ってこともしっくりくる。だから係数の変換にしてアウトプットも連続で変換しないと都合が悪い。なので、個々の入力出力の関係をシグモイド関数という連続関数で表現する。

さて、係数をちょっと動かしたときによい方向に向かうか悪い方向に向かうかという評価をするため、評価関数というものを導入する。評価関数そのもの自体は単に差をとるだけでいいのかな。

評価関数を定義したらあとは係数を調整してゼロに近づけていけば目的の係数が得られる。ゼロに近づけていく手法としてよくあるのが最急降下法。

pythonのインストール

pythonをインストールしたいがいろんなバージョンがありよくわからない。以前うけた講習で、python3.4.3numpy1.10.1をインストールしたことがあったのでそのメモをみながらいれてみた。

でも実行してみたら、どうもコードが2.x用で3.xではだめみたいだったので、2.7.14をインストールすることにした。あと、環境変数も設定した。

2.7.14ではチャプター1のサンプルのコードを実行することができた。

ただ、アルゴリズムのコアであるbackpropagationについては次章で説明するとある。

以前から「tochastic gradient descent and backpropagation」という手法はあったが、「New Ideas」によりshallow neural networksからdeep neural networksへ飛躍し適応できる問題の幅が広がったといっている。でも、「New Ideas」が何なのかは説明がない。次章以降にあるのかな。

関連記事

コメント

  1. この記事へのコメントはありません。

  1. この記事へのトラックバックはありません。

スポンサード リンク

カテゴリー

スポンサード リンク