目录
1 知识回顾
在介绍 PCA 的原理之前需要回顾涉及到的相关术语:• 方差• 协方差• 协方差矩阵• 特征向量和特征值
1.1 方差
方差:是各个样本和样本均值的差的平方和的均值, 用来度量一组数据的分散程度。1.2 协方差
用于 度量两个变量之间的线性相关性程度 ,若两个变量的协方差为0 ,则可认为二者线性无关。协方差矩阵则是由变量的协方差值构成的矩阵(对称阵)。1.3 特征向量和特征值
特征向量:矩阵的特征向量是描述数据集结构的非零向量,并满足如下公式:A是方阵, 𝒗是特征向量,𝝀是特征值。
2 主要成份分析
2.1 数据降维
降维就是一种对高维度特征数据预处理方法。降维是将高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。在实际的生产和应用中,降维在一定的信息损失范围内,可以为我们节省大量的时间和成本。降维也成为应用非常广泛的数据预处理方法。
降维具有如下一些优点:
1) 使得数据集更易使用。
2) 降低算法的计算开销。
3) 去除噪声。
4) 使得结果容易理解。
降维的算法有很多,比如奇异值分解(SVD)、主成分分析(PCA)、因子分析(FA)、独立成分分析(ICA)。
2.2 主成分分析原理
(1)主成分分析( Principal Component Analysis , PCA )是最常用的一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理等。(2)PCA 可以把具有相关性的高维变量合成为线性无关的低维变量,称为主成分。主成分能够尽可能保留原始数据的信息原理 :矩阵的主成分就是其协方差矩阵对应的特征向量,按照对应的特征值大小进行排序,最大的特征值就是第一主成分,其次是第二主成分,以此类推。
2.3 算法过程
3 参数说明
3.1 sklearn.decomposition.PCA
sklearn.decomposition.PCA(n_components=None, copy=True, whiten=False)
参数说明:
--------------------------------------------------
n_components:
意义:PCA算法中所要保留的主成分个数n,也即保留下来的特征个数n
类型:int 或者 string,缺省时默认为None,所有成分被保留。
赋值为int,比如n_components=1,将把原始数据降到一个维度。
赋值为string,比如n_components='mle',将自动选取特征个数n,使得满足所要求的方差百分比。
————————————————
copy:类型:bool,True或者False,缺省时默认为True。
意义:表示是否在运行算法时,将原始训练数据复制一份。若为True,则运行PCA算法后,原始训练数据的值不 会有任何改变,因为是在原始数据的副本上进行运算;若为False,则运行PCA算法后,原始训练数据的 值会改,因为是在原始数据上进行降维计算。
————————————————
whiten:类型:bool,缺省时默认为False
意义:白化,使得每个特征具有相同的方差。如果为 True,它将分量向量标准化为单位方差,这在某些情况下可用于预测模型(默认为 False)
---------------------------------------------------
svd_solver :设置特征值分解的方法,默认为‘auto’,其他可选有‘full’, ‘arpack’, ‘randomized’。对于 svd_solver=full,有两个附加选项:区间 [0, 1] 中的浮点数计算保留数据中相应方差份额所需的分量数,选项 mle 使用以下方法估计维数最大似然。
3.2 PCA对象的方法
------------------------------------------------
fit(X,y=None):
fit()可以说是scikit-learn中通用的方法,每个需要训练的算法都会有fit()方法,它其实就是算法中的“训练”这一步骤。因为PCA是无监督学习算法,此处y自然等于None。
fit(X),表示用数据X来训练PCA模型。
函数返回值:调用fit方法的对象本身。比如pca.fit(X),表示用X对pca这个对象进行训练。
————————————————
fit_transform(X):用X来训练PCA模型,同时返回降维后的数据。
newX=pca.fit_transform(X),newX就是降维后的数据。
---------------------------------------------------
transform(X):
将数据X转换成降维后的数据。当模型训练好后,对于新输入的数据,都可以用transform方法来降维。
4 案例
目标:已知鸢尾花数据是4维的,共三类样本。使用PCA实现对鸢尾花数据进行降维,实现在二维平面上的可视化。
5 Python代码实现
5.1 代码
#===========1. 建立工程,导入sklearn相关工具包:============ import matplotlib.pyplot as plt from sklearn.decomposition import PCA 加载PCA算法包 from sklearn.datasets import load_iris #加载鸢尾花数据集导入函数 #=====2. 加载数据并进行降维============================= data = load_iris() #以字典形式加载鸢尾花数据集 y = data.target #使用y表示数据集中的标签 X = data.data #使用X表示数据集中的属性数据 pca = PCA(n_components=2) #加载PCA算法,设置降维后主成分数目为2 reduced_X = pca.fit_transform(X) #对原始数据进行降维,保存在reduced_X中 #======3. 按类别对降维后的数据进行保存:================== red_x, red_y = [], [] #第一类数据点 blue_x, blue_y = [], [] #第二类数据点 green_x, green_y = [], [] #第三类数据点 for i in range(len(reduced_X)): #按照鸢尾花的类别将降维后的数据点保存在不同的列表中。 if y[i] == 0: red_x.append(reduced_X[i][0]) red_y.append(reduced_X[i][1]) elif y[i] == 1: blue_x.append(reduced_X[i][0]) blue_y.append(reduced_X[i][1]) else: green_x.append(reduced_X[i][0]) green_y.append(reduced_X[i][1]) #=======4. 降维后数据点的可视化======================= plt.scatter(red_x, red_y, c='r', marker='x') plt.scatter(blue_x, blue_y, c='b', marker='D') plt.scatter(green_x, green_y, c='g', marker='.') plt.show()
5.2 结果
今天的文章 人工智能(降维)——主成分分析(PCA)分享到此就结束了,感谢您的阅读。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ji-chu/97597.html