[[ノート/ノート]]~ 訪問者 &counter(); 最終更新 &lastmod();~ *(2015-05-09) Deep Learning Tutorialの例題をやってみた(3) [#k2873c6a] [[Deep Learning Tutorialの例題をやってみた>ノート/Deep Learning Tutorialの例題をやってみた]]~ [[Deep Learning Tutorialの例題をやってみた(2)>ノート/Deep Learning Tutorialの例題をやってみた(2)]]~ [[Deep Learning Tutorial 0.1:http://deeplearning.net/tutorial/]] **Restricted Boltzmann Machine (rbm) (2015-05-09) [#l0303fc1] [[チュートリアルにある実験>ノート/Deep Learning Tutorialの例題をやってみた#rbm]]のパラメタを変えるとどうなるか? プログラムは、[[Restricted Boltzmann Machines (rbm)のページ:http://deeplearning.net/tutorial/rbm.html#rbm]] にある通り。(プログラムのリストは[[こちら:http://deeplearning.net/tutorial/code/rbm.py]]) 教師なしであるが、MNISTのデータなので結果が0〜9の10通りの数字になることは分かっている。~ この構造情報を、rbmでの出力ノード数(隠れノード数)に使ってやってみる。つまり28x28の入力を、10個の出力にマップする変換行列W(=フィルタ)を学習させる。 学習の結果のフィルタの様子は、 | 学習の進行(epoch数) || フィルタWの画像 ||学習時のコスト| | 学習の進行(epoch数) || 10個の隠れノードに対するフィルタWの画像 ||学習時のコスト| | after epoch 0 || &ref(filters_at_epoch_0.png); || -175.465 | | after epoch 1 || &ref(filters_at_epoch_1.png); || -167.944 | | after epoch 2 || &ref(filters_at_epoch_2.png); || -157.464 | | after epoch 3 || &ref(filters_at_epoch_3.png); || -154.745 | | after epoch 4 || &ref(filters_at_epoch_4.png); || -148.361 | | after epoch 5 || &ref(filters_at_epoch_5.png); || -143.53 | | after epoch 6 || &ref(filters_at_epoch_6.png); || -152.06 | | after epoch 7 || &ref(filters_at_epoch_7.png); || -156.368 | | after epoch 8 || &ref(filters_at_epoch_8.png); || -154.891 | | after epoch 9 || &ref(filters_at_epoch_9.png); || -152.177 | | after epoch 10 || &ref(filters_at_epoch_10.png); || -141.697 | | after epoch 11 || &ref(filters_at_epoch_11.png); || -148.438 | | after epoch 12 || &ref(filters_at_epoch_12.png); || -153.84 | | after epoch 13 || &ref(filters_at_epoch_13.png); || -153.666 | | after epoch 14 || &ref(filters_at_epoch_14.png); || -150.948 | ~