Index A I | 関数 |
活性化関数 恒等関数 ソフトマックス ステップ関数 シグモイド関数 ReLU関数 Affine関数 畳み込み im2col関数 col2im関数 NN機能・要件 NN構成・方式 構成・方式など タスク 導入 Sample 用語 |
活性化関数 ・入力信号の総和を出力信号に変換 バイアスと重み付き入力信号の総和(a = b + w1x1 + w2x2) 出力信号(y)は、(a)を活性化関数(h())で変換(y=h(a)) 出力信号は、活性化プロセスとしても明示できる。 入力信号の総和(a(これもノード)) 活性化関数(h())、入力信号の総和を出力信号に変換 出力(y(これもノード))・活性化関数 ステップ関数 シグモイド関数 ReLU関数 恒等関数 ソフトマックス関数・教師有り学習 分類問題の出力層の活性化関数は、一般的に ソフトマックス関数を使用する。 回帰問題の出力層の活性化関数は、一般的に 恒等関数を使用する。 Python scikit-learn は様々な機械学習に対応恒等関数 ・入力をそのまま出力 y = σ(x) = xソフトマックス関数(softmax function) ・出力の各ニューロンがすべての入力信号からの影響を受ける。 y_k = exp(a_k)/Σ[n,i = 1]exp(a_i)・出力の総和は「1」になる。 出力を確率と解釈できる。・この関数を適用しても各要素の大小関係は変わらない。 ニューラルネットワークのクラス分類など 出力が一番大きいクラスを認識結果とするする場合、 位置は変わらないのでNNの分類では省略できる。・オーバーフロー対策 各信号から入力信号の最大値を引く
def softmax(a)
c = np.max(a)
exp_a = np.exp(a - c)
sum_exp_a = np.sum(exp_a)
y = exp_a / sum_exp_a
return y
ステップ関数 ・閾値を境にして出力が切り替わる非線形な活性化関数 単純パーセプトロン(単層ネットワーク)で用いる。・ ステップグラフ表示例 シグモイド関数(sigmoid function) ・非線形な活性化関数 \(σ(x)\) = \( 1/ (1 + e^{-x}) \)・ シグモイド関数グラフ表示例 ReLU関数(Rectified Linear Unit) ・非線形な活性化関数 ・入力が0を超えていればそのまま出力、0以下ならば0を出力 ・ ReLU関数グラフ表示例 Affine関数(affine function) ・一次関数(「全ての入力値」から「全ての出力」への結合をもつ。) o = Wi+b (i:入力、o:出力、W:重み、b:バイアス)・ニューラルネットワークの場合は「Affine」レイヤーが「全結合層」 畳み込み(Convolution) ・Convolutionレイヤ im2col関数 ・バッチ数を含めた4次元の入力データを2次元に変換 ・フィルター(重み)を一列に展開して、行列の積を計算 input_data :データ数、 チャンネル、 高さ、 幅の4次元配列の入力データ filter_h : フィルターの高さ filter_w : フィルターの幅 stride : ストライド pad : パディング・Convolutionレイヤでの使用 (sample) col2im関数 ・im2col関数の逆の処理 ・Convolutionレイヤでの使用 (sample) |
All Rights Reserved. Copyright (C) ITCL |