Index A I | アンサンブル学習 |
アンサンブル学習 バギング ブースティング スタッキング 予測精度 NN機能・要件 NN構成・方式 構成・方式など タスク 導入 Sample 用語 |
アンサンブル学習 ・回帰や分類の機械学習のアルゴリズムの手法として 弱学習器を使用して多数決をとれる。・複数の分類器の比較など 複数の分類器の結果を真とできる。・他の機械学習アルゴリズムの学習係数を求めるときの補助など AdaBoostバギング (Bagging : Bootstrap Aggregating) ・弱学習器を独立に作成する ・弱学習器を並列に学習して組み合わせる。 学習データの情報を全て使わず一部を使用して学習し最後に結合させる。・バギングを使用した機械学習アルゴリズム ランダムフォレストブースティング ・以前に使用したデータを再利用してブーストする。 バギングのような並列処理は不可・アルゴリズム的に制限されていない。 教師有り学習を実行するための機械学習メタアルゴリズム・分布に従って弱い分類器に繰り返し学習させる。 ・学習結果を最終的な強い分類器の一部とする。 ・メタアルゴリズム 特定の計算問題に依存しないヒューリスティクス AdaBoost など・ヒューリスティクス 必ずしも正しい答えを見つけるとは限らないが ある程度のレベルで正解に近い解を得られる方法スタッキング (Stacking) ・バイアスとバリアンス両方をうまく低下させる。 第一層目の様々なモデルをバギングのように学習 次の層では第一層の出力結果からいくつか選択して利用する 第一層のどのモデルの出力結果を用いるかを学習 これを繰り返していき全体としてのモデルの精度を向上させる。予測精度 ・バイアス(予測値と実際値との誤差の平均) と バリアンス(データの散らばり具合) 弱学習器を使用して多数決をとれる。・「予測精度を高める」というのは「低バイアス低バリアンスを目指す」こと ・モデルが一つの場合、バイアスとバリアンスはトレードオフの関係 過学習 : 低バイアス高バリアンスの状態・複数のモデルで学習 多数決や平均をとることで結果的に低バイアス低バリアンスを実現 |
All Rights Reserved. Copyright (C) ITCL |