LDA是一種無監督學習的降維技術。
思想:投影后類內方差最小,類間方差最大,即期望同類實例投影后的協方差盡可能小,異類實例的投影后的類中心距離盡量大。
給定數據集\(D=\{(x_i,y_i)\}_{i=1}^m\),令\(X_i,\mu_i,\sum_i\)分別表示第\(i\in \{0,1\}\)類實例的集合,均值,和協方差矩陣
則兩類樣本中心點在\(w\)方向直線的投影分別為\(w^Tu_0,w^Tu_1\);若將所有的樣本點都投影到\(w\)方向直線上,則兩類樣本的協方差分別是\(w^T\sum_0 w,w^T\sum_1 w\)
根據投影后類內方差最小,類間方差最大,欲最大化的目標為:
類內散度矩陣:
類間散度矩陣:
則目標重寫為\(S_w,S_b\)的廣義瑞利商
目標函數等價於
引入拉格朗日乘子法
\(S_bw\)方向恆為\((u_0-u_1)\)
奇異值分解:
從貝葉斯決策理論的角度闡釋:當兩類滿足數據同先驗,滿足高斯分布且協方差相等時,LDA達到最優
全局散度矩陣:
根據LDA思想,目標函數為:
PCA的主要思想是將n維特征映射到k維上,這k維是全新的正交特征也被稱為主成分,是在原有n維特征的基礎上重新構造出來的k維特征
信號領域:信號具有較大方差,噪音具有較大方差,信噪比越大意味着數據質量越高。所以PCA的目標就是最大化投影誤差。
第一步:將數據進行去中心化:
第二步:方差:
第三步:目標函數:
第四步:拉格朗日
投影后的方差就是投影后的協方差特征值,將特征值由大到小排列,取前d個主成分(主成分間相互正交)
由於得到協方差矩陣的特征值特征向量有兩種方法:特征值分解協方差矩陣、奇異值分解協方差矩陣,所以PCA算法有兩種實現方法:基於特征值分解協方差矩陣實現PCA算法、基於SVD分解協方差矩陣實現PCA算法
降維后的信息占比:
PCA和LDA都是經典的降維算法;
PCA和LDA都假設數據是符合高斯分布的;
PCA和LDA都利用了矩陣特征分解的思想。
PCA是無監督(訓練樣本無標簽)的,LDA是有監督(訓練樣本有標簽)的;
PCA去除原始數據集中冗余的維度,讓投影子空間的各個維度的方差盡可能大,也就是熵盡可能大。LDA是通過數據降維找到那些具有判斷力的維度,使得原始數據在這些維度上的投影,不同類別盡可能區分開來。
LDA最多可以降到k-1維(k是訓練樣本的類別數量,k-1是因為最后一維的均值可以由前面的k-1維的均值表示);而PCA沒有這個限制
LDA還可以用於分類。
LDA可能會過擬合數據。
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系我们删除。