• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

经典机器学习系列(二)【线性判别分析LDA】

人工智能 小小何先生 2582次浏览 0个评论

线性判别分析,英文名称Linear Discriminant Analysis(LDA)是一种经典的线性学习方法。本文针对二分类问题,从直观理解,对其数学建模,之后模型求解,再拓展到多分类问题。  

大体思想

给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。  
LDA二维示意图  

数学原理

道理是这么个道理,我们现在需要在数学上对其进行分析。我们接下来先建立求解上述问题的数学模型,之后再求解。  

数学模型建立

那我们怎么从数学上去实现上述的思想呢?这里我们以二分类为例,对其展开叙述:   给定数据集
经典机器学习系列(二)【线性判别分析LDA】   类示例的集合、均值向量、协方差矩阵。   如果将样本投影到直线w上,那么样本所对应的均值和方差也将做一个线性变换,也即是投影之后的均值和方差。依据投影的数学关系,我们可以知道,原始样本的均值w ww上的投影为wTμi ;原始样本的协方差w上的投影为wTiw;由于直线在一维空间上,所以wTμ0wTμ1wT0w、wT1w均为实数。   1.让同类样本的投影点尽可能接近这句话在数学上就可以表示为,让同类样本的协方差尽可能地小。即wT0w +wT1w尽可能地小;   2.让异类样本投影点尽可能地远离,所表示的意思就是,让两类样本的均值之间的距离尽可能地大。即
经典机器学习系列(二)【线性判别分析LDA】尽可能大。   综合以上两点,组合一个最大化的目标函数J :  
经典机器学习系列(二)【线性判别分析LDA】   这个式子看起来符号有点多,我们将其化简一下,定义两个量:类内散度矩阵类间散度矩阵:  

  • 类内散度矩阵(within-class scatter matrix):

  定义类内散度矩阵Sw=0+1将其展开可得:  
经典机器学习系列(二)【线性判别分析LDA】  

  • 类间散度矩阵(between-class scatter matrix):

  定义类间散度矩阵
经典机器学习系列(二)【线性判别分析LDA】   此时,最大化的目标函数J 可重写为:
经典机器学习系列(二)【线性判别分析LDA】   把上式称为SbSw广义瑞利商(generalized rayleigh quotient)。  

数学模型求解

现在的问题就变成了,我们怎么来求这个投影方向w,使得目标函数最大。   优化目标函数J的分子和分母都是关于w的二次项,因此求解最大化Jw的长度无关,只与其方向有关。那么我们将分母约束为1,将原问题转换为带有约束的最优化问题,再利用拉格朗日乘子法对其求解即可,原问题等价为:  
经典机器学习系列(二)【线性判别分析LDA】   由拉格朗日乘子法可知,上式等价于:  
经典机器学习系列(二)【线性判别分析LDA】   其中λ \lambdaλ是拉格朗日乘子。  
经典机器学习系列(二)【线性判别分析LDA】   这里之所以可以令参数为λ,是因为整个问题我们都在求解方向,且Sbw的方向恒为μ0μ1,所以长度设置怎么好算怎么来。将  
经典机器学习系列(二)【线性判别分析LDA】   到这里投影方向w的求解就完事了。但上述解涉及到求逆矩阵,考虑数值解的稳定性,实践过程中通常将Sw进行奇异值分解。Sw=UV,这里是一个实对角矩阵,其对角线上的元素是Sw的奇异值,再求解,得出
经典机器学习系列(二)【线性判别分析LDA】  

LDA推广到多分类

LDA推广到多分类问题中,假定存在N NN类,且第i ii类示例数为mi。定义“全局散度矩阵St:  
经典机器学习系列(二)【线性判别分析LDA】   μ是所有样本的均值向量。   将类内散度矩阵Sw重定义为每个类别的散度矩阵之和:  
经典机器学习系列(二)【线性判别分析LDA】   用SbSwSt三者中的任意两者都能够构造优化目标。常见的一种构造如下所示:  
经典机器学习系列(二)【线性判别分析LDA】  
经典机器学习系列(二)【线性判别分析LDA】   W的闭式解为
经典机器学习系列(二)【线性判别分析LDA】最大广义特征值所对应的特征向量组成的矩阵,dN1。   将W视为一个投影矩阵,则多分类LDA将样本投影到d维空间,d通常小于原有属性数d 。于是,可通过这个投影来减少样本点的维数,且投影过程中使用了类别信息,因此LDA也常被视为经典的监督降维技术。   与PCA降维不同LDA降维会保留类的区分信息。在LDA二分类中,第一类的均值与第二类的均值如果重叠在一起,将会找不到投影方向。PCA与LDA并没有某一种比另外一种更好的这种说法。   本文主要参考书目,周志华机器学习。以前都没发现这书居然写地这么好。emmmm。


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明经典机器学习系列(二)【线性判别分析LDA】
喜欢 (0)

您必须 登录 才能发表评论!

加载中……