關於數據降維函數sklearn-PCA的使用


1. PCA介紹

對大數據來說可能很有用
PCA是主成分分析,用來降維,用少量的變量去解釋大部分變量,使得變量維度減少,從而減少計算量。

2. 調用方法 以及 參數的簡單介紹


# 先看看PCA構造函數中的默認參數
'''
def __init__(self, n_components=None, copy=True, whiten=False,
svd_solver='auto', tol=0.0, iterated_power='auto',
random_state=None)
n_components : 通俗的說 就是將其縮小到的維度(當>=1)
copy : True 代表原來數據不變 反之 則會改變
whiten : 白化 使得每個特征有相同的方差
... 待更新 自己還在研究 等干貨
'''

# 簡單小例子 -_- 一看就懂 -_-

from sklearn.decomposition import PCA

pcaClf = PCA(n_components=3, whiten=True)
pcaClf.fit(data)
data_PCA = pcaClf.transform(data) # 用來降低維度

'''
pcaClf.components_ # 返回模型的各個特征向量
pcaClf.explained_variance_ratio_ # 返回各個成分各自的方差百分比(貢獻率)
pcaClf = PCA(n_components='mle') # 自動降低維度
pcaClf.inverse_transform(newData) # 必要時可以用inverse_transform()來復原數據
'''


注意!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系我们删除。



 
粤ICP备14056181号  © 2014-2021 ITdaan.com