本文介绍LDA线性判别分析。
LDA线性判别分析
LDA线性判别分析(Linear Discriminant Analysis, 以下简称LDA)是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。PCA是不考虑样本类别输出的无监督降维技术。 投影后类内方差最小,类间方差最大
LDA原理
数据集:$D={(x_1,y_1), (x_2,y_2), …,((x_m,y_m))}$ 任意样本:$x_i$为$n$维向量,$y_i\in {0,1}$ 第$j$类样本的个数: $N_j(j=0,1)$ 第$j$类样本的均值向量: $μ_j(j=0,1)$ 第$j$类样本的协方差矩阵(严格说是缺少分母部分的协方差矩阵): $\sum_j(j=0,1)$
由于是两类数据,因此我们只需要将数据投影到一条直线上即可。 投影直线:向量$w$, 任意一个样本本: $x_i$ 投影:$w^Tx_i$ 两个类别的中心点在直线w的投影:$w^Tμ_0$和$w^Tμ_1$。
优化目标:
我们一般定义类内散度矩阵$S_w$为: 同时定义类间散度矩阵$S_b$为: 这样我们的优化目标重写为:
由于$w$的缩放不会影响最终解,可增加约束$ | w^TS_ww | =1$,加入拉格朗日函数后得到: |
$w$为$S_w^{-1}S_b$的特征向量,求解即可得解。
进一步简化问题,简化问题,因此$S_bw=S_b = (\mu_0-\mu_1)(\mu_0-\mu_1)^T$,其方向始终为$(\mu_2-\mu_1)$ ,故可以用 $\lambda (\mu_2-\mu_1)$ 来表示,因此我们可以得到: