Sample 
 アンサンブル学習 
 入力データ 
 学習データ 
 タスク 


 ディープラーニング 
 NN 構成・方式 
 アルゴリズム 
 アルゴリズム分類 
 構成・方式など 
 教師無し学習 
 強化学習 
 関数_1 
 NN機能・要件 
 フレームワーク 
 機械学習(ML) 
 A  I 


 関数_2 
 モデル 
 MLPとGBDT 
 ランキング学習 
 AI導入 
 3層構造(NN)
 Affine関数 
 AIの問題処理
 AIのメリット
 AIの研究分野
B
 バイアス
 バギング
 バリアンス
 バッチ学習
 BatchNorm
 バッチサイズ
 バッチ処理
 ブースティング
 BostonHouse
 分類
 分類と回帰
C
 CART 
 CNN 
 col2im関数 
 Convolution 
 Cross Validation
D
 データ型
 データの尺度
 データセット
 データセットの分離
E
 エキスパートシステム 
 Embedding
 エポック数
 エンコーディング
G
 学習
 学習(NN)
 学習データ(LTR)
 学習係数(学習率) 
 誤差逆伝播法
 平均二乗誤差
 GBDT
H
 汎化誤差
 汎化能力
 比(例)尺度データ
 評価指標(LTR)
 Hyperparameter
 必要とする背景

I
 im2col関数 
 イテレーション数
K
 過学習
 間隔尺度データ
 回帰
 回帰問題
 各層の計算(NN)
 カテゴリ変数
 カテゴリカルデータ 
 活性化関数 
 K-Fold Cross Val・・・
 k平均法(k-means)
 k近傍法 (KNN)
 計算グラフ(NN) 
 欠損値 
 検証データ
 結合の仕方など(NN)
 決定木 
 決定木学習 
 機械学習
 恒等関数 
 訓練データ
 勾配降下法
 勾配の算出
 交差エントロピー誤差
 交差検証
 クラス分類
 強化学習
 教師
 教師有り学習
 教師無し学習
L
 LambdaMART(LTR)
 LambdaRank(LTR)
 Leaf-wise
 Learning Rate
 ListNet(LTR)
 LSTM(NN)
 LTR(AI) 
 LTR(タスク) 

M
 名義尺度データ
 ML(手書き文字) 
 ミニバッチ学習
 MNISTデータ 
 MNIST学習
 MNIST推論
 目的変数
N
 nDCG(LTR)
 NNRank(LTR)
 ノイズとバイアス
 入力データ(NN)
O
 重みの初期値
 one-hotベクトル
 One-Hotエンコーディング
 オンライン学習
 Optimizer
P
 パーセプトロン
 ペアワイズ
 Pickle
 ポイントワイズ
Q
 Queryデータ(LTR)
R
 ランダムフォレスト 
 RankNet(LTR)
 regression
 歴史など
 ReLU関数 
 連鎖率
 レイヤー(NN、layer)
 レイヤー(NN、多層)
 リストワイズ
 RNN(NN)
 ロジスティック回帰 
S
 最小二乗モデル
 最適化
 最適化(NN)
 最適化問題
 説明できるAI 
 説明変数
 SGD(確率的勾配降下法)

 シグモイド関数 
 深層の重要性(NN)
 ソフトマックス関数 
 相関係数
 損失関数
 推論
 推薦
 スタッキング
 ステップ関数 
 数値微分
 SVM
T
 多変量解析
 多次元配列積
 単純ベイズ分類器
 探索問題
 タプル型
 Target Encoding
 畳み込み 
 テストデータ
 知識とは
 特徴量
 特徴量(LTR)
 TowLayerNet(NN)
 Train Data
V
 Validation Data
 Variance
W
 WineQuality
Y
用語
用語(ハード)
用語(解析)
用語(機械学習)
用語(統計)
 予測誤差
 予測の手法
 予測精度
 要約の手法
Z
 次元削除
 人工知能
 弱学習器 
 順方向伝播(NN)
 順序エンコーディング
 順序尺度データ