伍佰目录 短网址
  当前位置:海洋目录网 » 站长资讯 » 站长资讯 » 文章详细 订阅RssFeed

关于机器学习的知识点,全在这篇文章里了

来源:本站原创 浏览:86次 时间:2022-04-27

00 准备


机器学习是什么,人工智能的子类,深度学习的父类。


机器学习:使计算机改进或是适应他们的行为,从而使他们的行为更加准确。也就是通过数据中学习,从而在某项工作上做的更好。


引用王钰院士在2008年会议的一句话,假定W是给定世界的有限或者无限的所有对象的集合,Q是我们能够或得到的有限数据,Q是W的一个很小的真子集,机器学习就是根据世界的样本集来推算世界的模型,使得模型对于整体世界来说为真。


机器学习的两个驱动:神经网络,数据挖掘。


机器学习的分类:


  1. 监督学习:提供了包含正确回答的训练集,并以这个训练集为基础,算法进行泛化,直到对所有的可能输入都给出正确回答,这也称在范例中学习。

  2. 无监督学习:没有提供正确回答,算法试图鉴别出输入之间的相似,从而将同样的输入归为一类,这种方法称密度学习。

  3. 强化学习:介于监督和无监督之间,当答案不正确时,算法被告知,如何改正则不得而知,算法需要去探索,试验不同情况,直到得到正确答案,强化学习有时称为伴随评论家的学习,因为他只对答案评分,而不给出改进建议。

  4. 进化学习:将生物学的进化看成一个学习过程,我们研究如何在计算机中对这一过程进行建模,采用适应度的概念,相当于对当前解答方案好坏程度的评分。(不是所有机器学习书籍都包含进化学习)


优点:泛化,对于未曾碰到的输入也能给出合理的输出。


监督学习:回归、分类。


机器学习过程:


  • 数据的收集和准备

  • 特征选择

  • 算法选择

  • 参数和模型选择

  • 训练

  • 评估


专业术语:


  • 输入:输入向量x作为算法输入给出的数据

  • 突触:wij是节点i和节点j之间的加权连接,类似于大脑中的突触,排列成矩阵W

  • 输出:输出向量y,可以有n个维度

  • 目标:目标向量t,有n个维度,监督学习所需要等待额外数据,提供了算法正在学习的“正确答案”

  • 维度:输入向量的个数

  • 激活函数:对于神经网络,g(·)是一种数学函数,描述神经元的激发和作为对加权输入的响应

  • 误差:E是根据y和t计算网络不准确性的函数

  • 权重空间:当我们的输入数据达到200维时,人类的限制使得我们无法看见,我们最多只能看到三维投影,而对于计算机可以抽象出200个相互正交的轴的超平面进行计算,神经网络的参数是将神经元连接到输入的一组权重值,如将神经元的权重视为一组坐标,即所谓的权重空间

  • 维度灾难:随着维度的增加,单位超球面的体积也在不断增加,2d中,单位超球面为圆,3d中则为求,而更高的维度便称为超球面,Vn = (2π/n)*Vn-2,于是当n>2π时,体积开始缩小,因此可用数据减少,意味着我们需要更多的数据,当数据到达100维以上时,单位数据变得极小,进而需要更多的数据,从而造成维度灾难


维度和体积的关系:



机器学习算法测试:


算法成功程度是预测和一直目标进行比较,对此我们需要一组新的数据,测试集。


当对算法进行训练时,过度的训练将会导致过拟合,即拟合曲线与数据完美拟合,但是失去了泛化能力,为检测过拟合我们需要用测试集进行验证,称为统计中的交叉验证,它是模型选择中的一部门:为模型选择正确的参数,以便尽可能的泛化。


数据的准备,我们需要三组数据集,训练算法的训练集,跟踪算法学习效果的验证集,用于产生最终结果的测试集,数据充足情况便执行50:25:25或60:20:20的划分,数据集分配应随机处理,当数据请核实板块,则采用流出方法或多折交叉验证。


混淆矩阵是检测结果是否良好的分类,制作一个方阵,其包含水平和垂直方向上所有可能的类,在(i,j)处的矩阵元素告诉我们在目标中有多少模式被放入类i中,主对角线上任何东西都是正确答案,主对角线元素之和除以所有元素的和,从而得到的百分比便是精度。


精度指标:真正例是被正确放入类1,假正例是被错误放入类1,而真反例是被正确放入类2,假反例是被错误放入类2。


真正例(TP)

假正例(FP)

假反例(FN)

真反例(TN)


  • 敏感率=#TP/(#TP+#FN) 特异率=#TN/(#TN+#FP)
  • 查准率=#TP/(#TP+#FP) 查全率=#TP/(#TP+#FN)
  • F1 = 2*(查准率*查全率)/(查准率+查全率)


受试者工作曲线:y轴真正例率,x轴假正例率,线下区面积:AUC。


数据与概率的转换:通过贝叶斯法则处理联合概率P(C,X)和条件概率P(X|C)得出P(C|X),MAP问题是训练数据中最可能的类是什么。将所有类的最终结果考虑在内的方法称为贝叶斯最优分类。


损失矩阵:指定类Ci被分为类Cj所涉及的风险。


基本统计概念:协方差,度量两个变量的依赖程度。


Cov({xi},{yi})=E({xi} – u)E({yi} – v)


权衡偏差与方差:偏差-方差困境:更复杂的模型不一定能产生更好的结果;模型糟糕可能由于两个原因,模型不准确而与数据不匹配,或者不精确而有极大的不稳定性。第一种情况称为偏差,第二种情况称为方差。



01 神经元、神经网络和线性判别


1. 鲁棒性


鲁棒是Robust的音译,也就是健壮和强壮的意思。它是在异常和危险情况下系统生存的关键。比如说,计算机软件在输入错误、磁盘故障、网络过载或有意***情况下,能否不死机、不崩溃,就是该软件的鲁棒性。


2. 神经网络


神经网络模仿的便是生物学中的神经网络,通过输入进而判定神经元激活否。


将一系列的神经元放置在一起,假设数据存在模式。通过神经元一些已知的样例,我们希望他能够发现这种模式,并且正确预测其他样例,称为模式识别。为了让神经网络能够学习,我们需要改变神经元的权重和阈值进而得到正确的结果,历史上的第一个神经网络——感知器。


3. Hebb法则


突触连接强度的变化和两个相连神经元激活得相关性成比例,如果两个神经元始终同时激活,那么他们之间连接的强度会变大,反之,如果两个神经元从来不同时激活,那么他们之间的连接会消失。也被成为长时效增强法则和神经可塑性。


4. McCulloch和Pitts神经元


建模,一组输入加权wi相当于突触,一个加法器把输入信号相加(等价于收集电荷的细胞膜),一个激活函数,决定细胞对于当前的输入是否激活,输入乘于权重的和与阈值进行判断,大于则激活,否则抑制。局限性:现实中的神经元不给出单一的输出相应,而是给出一个点位序列,一种连续的方式给出分等级的输出。神经元不会根据电脑的时钟脉冲去顺序更新,而是随机的异步更新。


5. 感知器


▲感知器神经网络


  • 权重更新规则


Wij <- Wij – n(yi – ti)*xi


N为学习效率,过大会造成网络不稳定,过小会造成学习时间久;yi为神经元输出,ti为神经元目标,xi为神经元输入,Wij为权重。


  • 感知器学习算法


分为两部分,训练阶段和再现阶段。


初始化设置所有的权重wij为小的随机数(正或负都可)。训练对T次循环    对每一个输入向量:        利用激活函数g计算每一个神经元j的激活状态:         利用下式更新每一个权重:再现利用下式计算每一个神经元j的激活状态:


6. 线性可分性


一条直线将神经元激活的和不激活的神经元划分开来,这条直线称为决策边界,也称为判别函数,在三维空间该决策边界为平面,更高维则为超平面。


7. 感知器收敛定理


感知器以1/γ*γ为界,其中γ为分离超平面与最接近的数据点之间的距离。


只要把数据映射到正确的维度空间,那么总是可以用一个线性函数来把两个类别区分开,为了较有效率的解决这个问题,有一整类的方法称为核分类器,也是支持向量机的基础。


8. 数据项预处理


特征选择,我们每次去掉一个不同的特征,然后试着在所得的输入子集上训练分类器,看结果是否有所提高,如果去掉某一个特征能使得结果有所改进,那么久彻底去掉他,在尝试能否去掉其他的特征,这是一个测试输出与每一个特征的相关性的过于简单方法。


9. 线性回归


回归问题是用一条线去拟合数据,而分类问题是寻找一条线来划分不同类别。回归方法,引入一个指示变量,它简单的标识每一个数据点所属的类别。现在问题就变成了用数据去预测指示变量,第二种方法是进行重复的回归,每一次对其中的一个类别,指示值为1代表样本属于该类别,0代表属于其他类别。



02 维度简约


1. 降维的三种算法


  1. 特征选择法:仔细查找可见的并可以利用的特征而无论他们是否有用,把它与输出变量关联起来
  2. 特征推导法:通过应用数据迁移,即通过可以用矩阵来描述的平移和旋转来改变图标的坐标系,从而用旧的特征推导出新的特征,因为他允许联合特征,并且坚定哪一个是有用的,哪一个没用
  3. 聚类法:把相似的数据点放一起,看能不能有更少的特征


2. 特征选择方法


建设性方法:通过迭代不断加入,测试每一个阶段的错误以了解某个特征加入时是否会发生变化。破坏性方法是去掉应用在决策树上的特征。


  • 主成分分析(PCA)


主成分的概念是数据中变化最大的方向。算法首先通过减去平均值来把数据集中, 选择变化最大的方向并把它设为坐标轴,然后检查余下的变化并且找一个坐标轴使得它垂直于第一个并且覆盖尽可能多的变化。


不断重复这个方法直到找到所有可能的坐标轴。这样的结果就是所有的变量都是沿着直角坐标系的轴,并且协方差矩阵是对角的——每个新变量都与其他变量无关,而只与自己有关。一些变化非常小的轴可以去掉不影响数据的变化性。


  • 具体算法


写成N个点Xi=(X1i,X2i,... xXi)作为行向量。把这些向量写成一个矩阵X(X将是N*M阶矩阵)。通过减去每列的平均值来把数据中心化,并令变化好的矩阵为B。计算协方差阵C= 1/N *B^TB。计算C的特征向量和特征值,即V^-1CV=D,其中V由C的特征向量组成,D是由特征值组成的M*M阶对角矩阵。把D对角线上元素按降序排列,并对V的列向量做同样的排列。去掉那些小于η的特征值,剩下L维的数据。


3. 基于核的PCA算法


选择核并且把它应用于距离矩阵从而得到矩阵K。计算K的特征值和特征向量。通过特征值的平方根标准化特征向量。保留与最大特征值对应的特征向量。


4. 因素分析


观察数据是否可以被少量不相关的因素或潜在的变量解释,目的用于发现独立因素和测量每一个因素固有的误差。


5. 独立成分分析(ICA)


统计成分是独立的,即对于E[bi,bj] = E[bi]E[bj]与及bi是不相关的。


6. 局部线性嵌入算法


找出每个点的邻近点(即前k个近的点):计算每对点间的距离。找到前k个小的距离。对于其他点,令Wij=0.对每个点xi:创建一个邻近点的位置表z,计算zi=zi-xi。


根据约束条件计算令等式(6.31)最小的权矩阵W:计算局部协方差C=ZZ^T,其中Z是zi组成的矩阵。利用CW=I计算W,其中I是N*N单位矩阵。对于非邻近点,令Wij=0。


对W/∑W设置其他元素计算使得等式(6.32)最小的低维向量 yi:创建M=(I-W)T(I-W).计算M的特征值和特征向量。根据特征值的大小给特征向量排序。对应于第q小的特征值,将向量y的第q行设置为第q+1 个特征向量(忽略特征值为0)



7. 多维标度算法


计算由每对点平方相似度组成的矩阵D, Dij=|xi-xj|.计算J=IN – 1/N (IN是N*N单位矩阵,N是数据点个数)。计算B=-1/2JDJ^T.找到B的L个最大的特征值入i,,以及相对应的特征向量ei。用特征值组成对角矩阵V并且用特征向量组成矩阵P的列向量。计算嵌入x=pv^0.5


8. ISOMAP算法

  • 上一篇: 什么是机器学习?有哪些分类?到底有什么用?终于有人讲明白了
  • 下一篇: Python代码实操:详解数据清洗
  •   推荐站点

    • At-lib分类目录At-lib分类目录

      At-lib网站分类目录汇集全国所有高质量网站,是中国权威的中文网站分类目录,给站长提供免费网址目录提交收录和推荐最新最全的优秀网站大全是名站导航之家

      www.at-lib.cn
    • 中国链接目录中国链接目录

      中国链接目录简称链接目录,是收录优秀网站和淘宝网店的网站分类目录,为您提供优质的网址导航服务,也是网店进行收录推广,站长免费推广网站、加快百度收录、增加友情链接和网站外链的平台。

      www.cnlink.org
    • 35目录网35目录网

      35目录免费收录各类优秀网站,全力打造互动式网站目录,提供网站分类目录检索,关键字搜索功能。欢迎您向35目录推荐、提交优秀网站。

      www.35mulu.com
    • 就要爱网站目录就要爱网站目录

      就要爱网站目录,按主题和类别列出网站。所有提交的网站都经过人工审查,确保质量和无垃圾邮件的结果。

      www.912219.com
    • 伍佰目录伍佰目录

      伍佰网站目录免费收录各类优秀网站,全力打造互动式网站目录,提供网站分类目录检索,关键字搜索功能。欢迎您向伍佰目录推荐、提交优秀网站。

      www.wbwb.net