分类 简明机器学习教程 下的文章


撰写于    浏览:104 次  分类: 简明机器学习教程
建好模型之后,必须对它进行评价,我们经常会使用一些评价指标来比较模型的预测准确度。常用的评价指标有:预测准确率,混淆矩阵,均方根误差等。1、分类指标1.1、预测准确率简单的说,就是正确的预测所占的比例。虽然它很简单容易理解,但是我们无法通过它得知预测误差是如何产生的。1.2、混淆矩阵混淆矩阵可以进一步了解预测模型的优缺点。通过样本的采集,我们能够直[...]

撰写于    浏览:96 次  分类: 简明机器学习教程
常用指标有3个:(1){X}的支持度表示X项出现的频率,可以表示为P(X)(2){X→Y}的置信度表示当X项出现时Y项同时出现的频率,可以表示为:P(XY)/P(X)(3){X→Y}的提升度表示X项和Y项一同出现的频率,并且考虑每项各自出现的频率,可以表示为:P(XY)/P(X)P(Y)。公式看起来很容易理解,但是在实际问题中,我们常用被项集这个概[...]

撰写于    浏览:100 次  分类: 简明机器学习教程
主成分可以用已有的一个或多个变量表示。 比如,可以使用生素C这个变量来区分不同的食物。因为蔬菜含维生素C而肉类普遍缺乏,所以可以通过维生素C这个变量区分蔬菜和肉类,但是无法进步区分不同的肉类。为了进一步区分不同的肉类,可以选择把脂肪含量作为第2个变量,因为肉类含有脂肪,而大部分蔬菜则不然。由于脂肪和维生素C的计量单位不同,因此在组合之前,必须先对它[...]

撰写于    浏览:105 次  分类: 简明机器学习教程
尽管K均值聚类方法很有用,但是它有一定的局限:(1)每个数据点只能属于一个群组。然而,数据点可能恰好位于两个群组中间,无法通过k均值聚类方法确定它应该属于哪个群组(2)群组被假定是正圆形的。查找距离某个群组中心点最近的数据点,这一迭代过程类似于缩小群组的半径,因此最终得到的群组在形状上类似于正圆形。假设群组的实际形状是椭圆形,那么在应用k均值聚类方[...]

撰写于    浏览:82 次  分类: 简明机器学习教程
机器学习一般包含两类参数:超参数和参数。超参数的数目通常不多,在10以内。参数的数目可能很多,如卷积神经网络中有近千万个参数(权重)。曲线拟合中,方程的次数就是超参数,多项式的系数就是参数。这两种参数的调参方式不同,超参数取值一般是人工设定的,参数值是根据参数优化算法自动寻优的。超参数的取值对模型泛化性能有重大的影响,验证集就是用来决定最优超参数取值的。

撰写于    浏览:82 次  分类: 简明机器学习教程
计算机“看”不到图像的内容,对它而言,图像是巨大的数值,即数值矩阵,矩阵元素表示像素的颜色信息。例如,某幅图像分群率为1280 x 720,表示图像有1280 x 720个像素点,则存储为1280 x 720的矩阵。对于彩色图像,每个像素点有红、绿、蓝( RGB)3个颜色的通道值,每个值在0(黑)到255(白)之间。对于灰度图像,每个像素点有亮度1[...]

撰写于    浏览:72 次  分类: 简明机器学习教程
如果输人的数值属性具有非常大的比例差异,往往导致机器学习算法的性能表现不佳,当然也有极少数特例。案例中的房屋数据就是这样:房间总数的范围从6到39 320,而收入中位数的范围是0到15。注意,目标值通常不需要缩放。同比例缩放所有属性,常用的两种方法是:最小-最大缩放和标准化。最小-最大缩放,又叫作归一化,很简单:将值重新缩放使其最终范围归于0到1之[...]

撰写于    浏览:69 次  分类: 简明机器学习教程
解决非线性问题的另种技术是添加相似特征。这些特征经过相似函数计算得出,相似函数可以测量每个实例与一个特定地标之间的相似度。以前面提到过的一维数据集为例,在x=-2和x=1处添加两个地标。接下来,我们采用高斯径向基函数(RBF) 作为相似函数,y=0.3 高斯RBF这是一个从0 (离地标差得非常远)到1 (跟地标-样)变化的钟形函数。现在我们准备计算[...]