訪問者数 6458      最終更新 2018-05-10 (木) 16:10:07

>>2016年後半の分 (このページの前)


(mkdir /mnt/usbhd)
dmesg > /tmp/aaa;     vi /tmp/aaa
モデル: I-O DATA HDPC-UT (scsi)
ディスク /dev/sdc: 1000GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt
ディスクフラグ:

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    17.4kB  1000GB  1000GB  ntfs
mount /dev/sdc1 /mnt/usbhd

終わったら
umount /mnt/usbhd

 PEZY-SC2はメニーコアのMIMD(Multiple Instruction, Multiple Data)プロセッサーで、1チップに2048の演算コアを備える。Gyoukouの性能計測では、そのうち1984のコアを使い、合計1万の同プロセッサーを利用した。1ノードは8つのPEZY-SC2と米Intel社の「Xeon D」1つから成り、Xeon Dが16コアを備えるため、システム全体のコア数は1986万コア(=1984×1万+16×1250)に達する。約2000万にも及ぶコア数は今回のTOP500の中でも異例の多さで、首位のSunway TaihuLightの1064万9600コアをも大きく上回る。「これまでのTOP500で達成された最も高い並列度のレベル」(TOP500の発表資料)という。

ですので、まずはユーザーから予測されるインテント、つまり「ユーザーは、botに何を求めるだろう?」ということを洗い出す必要があります。

      比較的わかりそうなプレゼンを追加 Semi-supervised Learning with Deep Generative Models(Yusuke Iwasawa)
      Deep Learning Lecture 14: Karol Gregor on Variational Autoencoders and Image Generation


トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2018-05-10 (木) 16:10:07 (189d)