3層構造(NN)
Affine関数
AIの問題処理
AIのメリット
AIの研究分野
B
バイアス
バギング
バリアンス
バッチ学習
BatchNorm
バッチサイズ
バッチ処理
ブースティング
BostonHouse
分類
分類と回帰
C
CART
CNN
col2im関数
Convolution
Cross Validation
D
データ型
データの尺度
データセット
データセットの分離
E
エキスパートシステム
Embedding
エポック数
エンコーディング
G
学習
学習(NN)
学習データ(LTR)
学習係数(学習率)
誤差逆伝播法
平均二乗誤差
GBDT
H
汎化誤差
汎化能力
比(例)尺度データ
評価指標(LTR)
Hyperparameter
必要とする背景
|
I
im2col関数
イテレーション数
K
過学習
間隔尺度データ
回帰
回帰問題
各層の計算(NN)
カテゴリ変数
カテゴリカルデータ
活性化関数
K-Fold Cross Val・・・
k平均法(k-means)
k近傍法 (KNN)
計算グラフ(NN)
欠損値
検証データ
結合の仕方など(NN)
決定木
決定木学習
機械学習
恒等関数
訓練データ
勾配降下法
勾配の算出
交差エントロピー誤差
交差検証
クラス分類
強化学習
教師
教師有り学習
教師無し学習
L
LambdaMART(LTR)
LambdaRank(LTR)
Leaf-wise
Learning Rate
ListNet(LTR)
LSTM(NN)
LTR(AI)
LTR(タスク)
|
M
名義尺度データ
ML(手書き文字)
ミニバッチ学習
MNISTデータ
MNIST学習
MNIST推論
目的変数
N
nDCG(LTR)
NNRank(LTR)
ノイズとバイアス
入力データ(NN)
O
重みの初期値
one-hotベクトル
One-Hotエンコーディング
オンライン学習
Optimizer
P
パーセプトロン
ペアワイズ
Pickle
ポイントワイズ
Q
Queryデータ(LTR)
R
ランダムフォレスト
RankNet(LTR)
regression
歴史など
ReLU関数
連鎖率
レイヤー(NN、layer)
レイヤー(NN、多層)
リストワイズ
RNN(NN)
ロジスティック回帰
S
最小二乗モデル
最適化
最適化(NN)
最適化問題
説明できるAI
説明変数
SGD(確率的勾配降下法)
|
シグモイド関数
深層の重要性(NN)
ソフトマックス関数
相関係数
損失関数
推論
推薦
スタッキング
ステップ関数
数値微分
SVM
T
多変量解析
多次元配列積
単純ベイズ分類器
探索問題
タプル型
Target Encoding
畳み込み
テストデータ
知識とは
特徴量
特徴量(LTR)
TowLayerNet(NN)
Train Data
V
Validation Data
Variance
W
WineQuality
Y
用語
用語(ハード)
用語(解析)
用語(機械学習)
用語(統計)
予測誤差
予測の手法
予測精度
要約の手法
Z
次元削除
人工知能
弱学習器
順方向伝播(NN)
順序エンコーディング
順序尺度データ
|