ノート/ノート

訪問者数 323      最終更新 2016-08-15 (月) 16:52:17

Deep Learning/画像generationで、多層段(Convolution)の途中経過を見たい --- 2016/08/15

同じことがしたかった人たちの論文

元の論文(まずは初期版)から

In this paper, we take another step towards understanding CNNs by attempting to invert them. Such inversion allows us to see which information of the input image is preserved in the features. Moreover, applying the inverse of the feature representation to perturbed feature vectors, to interpolations between two feature vectors, or to random feature vectors yields further insight into the structure of the feature space.

CNNに対して逆変換を試みたい。逆変換によって入力画像のどの情報が、(出力の)特徴featureに保存されているかがわかる。 さらに、摂動した(乱した)特徴ベクトルや、2つの特徴ベクトルの内分補間点や、ランダムな特徴ベクトルを、逆変換に与えることによって、特徴空間の構造に関する更なる識見を得ることができる。

ここからは意訳。

逆変換を教師付き学習によって作る。(勾配計算のための)ロス関数はユークリッド距離の自乗を用いる。

この原理を、ImageNetを学習したAlexNet CNNに対して行う。


トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2016-08-15 (月) 16:52:17 (288d)