[[ノート/ノート]]~

訪問者数 &counter();      最終更新 &lastmod();~


*Deep Learning/画像generationで、多層段(Convolution)の途中経過を見たい --- 2016/08/15 [#kc685229]


***同じことがしたかった人たちの論文 [#z5a6dfee]
-Alexey Dosovitskiy, Thomas Brox: [[Inverting Visual Representations with Convolutional Networks:http://arxiv.org/pdf/1506.02753v4.pdf]]~
arxiv 1506.02753v4なので、次の論文の改良版  内容はかなり書き換わっているように思う。

-Alexey Dosovitskiy, Thomas Brox: [[Inverting Convolutional Networks with Convolutional Networks:https://www.semanticscholar.org/paper/Inverting-Convolutional-Networks-with-Dosovitskiy-Brox/993c55eef970c6a11ec367dbb1bf1f0c1d5d72a6/pdf]]~
ここにしか残っていないが、arxisv 1506.02753v1なので、上記論文の初期版なのだろう

-後者(初期版)を元にした、nextremer 古川氏による論文輪講スライド?〜
[[Inverting Convolutional Networks with Convolutional Networks:https:http://www.slideshare.net/tm_2648/ss-55634898]]
[[Inverting Convolutional Networks with Convolutional Networks:http://www.slideshare.net/tm_2648/ss-55634898]]


-元論文の中で[5](v4版では[6])として再々参照されている論文~
A. Dosovitskiy, J. T. Springenberg, and T. Brox: [[Learning to Generate Charis with Convolutional Neural Networks:http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Dosovitskiy_Learning_to_Generate_2015_CVPR_paper.pdf]]


***元の論文(まずは初期版)から [#g7a927b5]

In this paper, we take another step towards understanding CNNs by attempting to invert them. 
Such inversion allows us to see which information of the input image is preserved in the features.
Moreover, applying the inverse of the feature representation to perturbed feature vectors, to interpolations
between two feature vectors, or to random feature vectors yields further insight into the structure of
the feature space.

CNNに対して逆変換を試みたい。逆変換によって入力画像のどの情報が、(出力の)特徴featureに保存されているかがわかる。 さらに、摂動した(乱した)特徴ベクトルや、2つの特徴ベクトルの内分補間点や、ランダムな特徴ベクトルを、逆変換に与えることによって、特徴空間の構造に関する更なる識見を得ることができる。

ここからは意訳。

逆変換を教師付き学習によって作る。(勾配計算のための)ロス関数はユークリッド距離の自乗を用いる。

この原理を、ImageNetを学習したAlexNet CNNに対して行う。

トップ   編集 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS