ニューラルNW
 入力
 出力
 学習の必要条件
 多層化
 ロバスト性

 NN構成・方式
 構成・方式など
 タスク
 導入
 Sample

 用語
 ニューラルネットワーク
 ・入力データを学習し、与えられた 探索問題解決パターン を発生しようとする。
機械学習の有力な手法として発展。
訓練データを与え、入力と出力の相関(関数)を学習させる。
教師有り学習 方式のひとつ
 ・人の神経構造を模したアルゴリズム

 ・出力層で人が望む結果が出るようにパラメータ(重みとバイアス)を調整する。
最適な重みパラメータをデータから自動で学習する。
損失関数の値をできるだけ小さくするパラメータを見つける 最適化問題
(単相の)パーセプトロンは適切な重みを人の手で決める。
 ・各ノード は単純な構成
 ・参考

 入力
 ・決められた個数(図では4個)の 主に 0〜1 の範囲の実数
0〜1 の範囲で数値化できればなんでもよい
 ・画像
各ピクセルの RGB値 を個別の入力と考える。
画像 = ある個数の数値からなるベクトルと定義

 出力
 ・決められた個数(図では2個)の 主に 0〜1 の範囲の実数
画像出もよい。

 学習に必要なニューラルネットワークの条件
 ・学習の度合いの悪さを 損失(loss) として数値化できる。
損失は小さいほどよい。(損失 0 が最小)
 ・損失を表す関数( 損失関数 )が 微分可能(differentiable)
三層以上のニューラルネットワークは微分可の連続な任意関数を近似できる。
微分可能な変換を繋げて作られた計算グラフ
 ・ニューラルネットワークの学習では基本的に勾配降下法を使う。
勾配降下法では入力を少しずつ変化させながら解に近づいていく。
充分に実用的な結果が得られるまで処理を繰り返す。
完璧な解に到達できる保証はない。
 ・対象とする問題に関係なく、すべての問題を同じ流れで解ける。
勾配消失の課題をオートエンコーダの導入(2006年)で解決

 ニューラルネットワークを多層化
 ・ディープニューラルネットワークDNN
脳の仕組みを模したニューラルネットワークを多層に重ねたもの
 ・畳み込みニューラルネットワーク(CNN
層間が全結合でない順伝播型ニューラルネットワーク
 ・再帰型ニューラルネットワークRNN
時系列データを扱うことができるニューラルネットワーク
機械翻訳や音声認識に使用

 ニューラルネットワークのロバスト性
 ・入力画像に小さなノイズが乗っても出力が変わらない頑強さ
ネットワーク内のデータを劣化させても出力結果への影響が少ない。
倍精度浮動小数点数→半精度浮動小数点数でも問題ない。
GPU(32bit演算)が16ビット演算になれば、2倍の高速化