PCA与LDA两种降维方法原理的简要对比
生活随笔
收集整理的這篇文章主要介紹了
PCA与LDA两种降维方法原理的简要对比
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1、PCA(主成分分析)
無監督的,選擇的是投影后數據方差最大的方向。因此PCA假設方差越大,代表的信息量越大,使用主成分來表示原始數據可以去除冗余的維度,達到降維的目的。
2、LDA(線性判別分析)
有監督的,選擇的是投影后類內方差小、類間方差大的方向。用到了類別標簽信息,為了找到數據中具有判別性的維度,使原始數據在這些方向上投影后,不同類別盡可能區分開來。
?
例如:語音設別中,如果想從音頻中提取某人的語音信號,可以使用PCA進行降維,來過濾掉一些固定頻率(方差相對較小)的背景噪聲。但如果需要從這段音頻中識別出聲音屬于哪個人的,就需要使用LDA對數據進行降維,使每個人的語音信號具有區分性。
總結
以上是生活随笔為你收集整理的PCA与LDA两种降维方法原理的简要对比的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python3之deepcopy在pri
- 下一篇: 【Python】Numpy库之符号函数s