单位归一化1
Tomek链接2
上采样3
数据增强4
下采样5
最小-最大缩放6
独热编码7
插补法8
基于k-NN的插补法9
学习曲线10
假阳性率11
闵可夫斯基距离12
学习率13
布里尔分数14
分类15
假阴性率16
训练误差率17
曲线下面积18
F1分数19
模型复杂度对偏差和方差的影响20
没有免费午餐定理21
预处理训练集和测试集22
深度双重下降23
主成分分析24
超参数VS参数25
损失函数的最小值26
模型一致性27
模型复杂度28
特征重要性29
机器学习中的“学习”意味着什么?30
泛化31
训练集,验证集和测试集32
过拟合与欠拟合33
袋外误差34
决策树35
决策树回归36
随机森林37
随机森林中的基尼系数38
特征缩放对梯度下降的影响39
正则化40
C,正则化强度的倒数41
早停法42
弹性网络43
Dropout44
权重衰减45
HingeLoss46
均方误差47
Kullback-Leibler散度损失48
二元交叉熵损失49
分类交叉熵损失50
损失函数51
Boosting52
弱学习器53
AdaBoost54
bagging算法55
集成方法56
神经网络参数随机初始化57
深度网络的目的58
指数线性单元59
神经元60
隐藏层61
LeakyReLU62
NoisyReLU63
梯度裁剪64
反向传播65
Epoch66
梯度悬崖67
常见的输出层激活函数68
梯度下降法69
线性激活函数70
小批量71
梯度爆炸72
Sigmoid激活函数73
Tanh激活函数74
深度学习的动机75
修正线性单元76
DBSCAN77
k-NN算法78
K均值聚类79
k-NN邻域大小80
线性判别分析81
核主成分分析82
均值漂移聚类83
偏差-方差权衡84
偏差85
偏差直觉86
贝叶斯误差87
大O表示法88
混淆矩阵89
动量随机梯度下降90
随机梯度下降91
RMSprop优化器92
特征选择策略93
准确率94
分类特征95
L1范数96
L2范数97
维度灾难98
特征矩阵99
自助采样法100
MNIST数据集101
词袋102
K折交叉验证103
超参数调优104
网格搜索105
错误类型106