LDA线性判别分析

3019/03/30 机器学习

本文介绍LDA线性判别分析。

LDA线性判别分析

LDA线性判别分析(Linear Discriminant Analysis, 以下简称LDA)是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。PCA是不考虑样本类别输出的无监督降维技术。 投影后类内方差最小,类间方差最大

-w642

LDA原理

数据集:$D={(x_1,y_1), (x_2,y_2), …,((x_m,y_m))}$ 任意样本:$x_i$为$n$维向量,$y_i\in {0,1}$ 第$j$类样本的个数: $N_j(j=0,1)$ 第$j$类样本的均值向量: $μ_j(j=0,1)$ 第$j$类样本的协方差矩阵(严格说是缺少分母部分的协方差矩阵): $\sum_j(j=0,1)$

由于是两类数据,因此我们只需要将数据投影到一条直线上即可。 投影直线:向量$w$, 任意一个样本本: $x_i$ 投影:$w^Tx_i$ 两个类别的中心点在直线w的投影:$w^Tμ_0$和$w^Tμ_1$。

优化目标:

我们一般定义类内散度矩阵$S_w$为: 同时定义类间散度矩阵$S_b$为: 这样我们的优化目标重写为:

由于$w$的缩放不会影响最终解,可增加约束$ w^TS_ww =1$,加入拉格朗日函数后得到:

$w$为$S_w^{-1}S_b$的特征向量,求解即可得解。

进一步简化问题,简化问题,因此$S_bw=S_b = (\mu_0-\mu_1)(\mu_0-\mu_1)^T$,其方向始终为$(\mu_2-\mu_1)$ ,故可以用 $\lambda (\mu_2-\mu_1)$ 来表示,因此我们可以得到:

Search

    Table of Contents

    本站总访问量: , 您是第位访客