关于PCA covariance matrix eigenvector的问题
发布网友
发布时间:2022-04-20 19:12
我来回答
共2个回答
热心网友
时间:2023-09-13 04:15
在一维空间,数据点是有序列的。a>b就代表a在b的右边。
但在高维空间里,对数据的描述或者说比较就没有一个统一的标准。如果我们要把一个数据点从高维降下来,就需要舍弃一些信息,但同时为了表明我们的舍弃是有道理的,我们就要说,尽管我们降了,但是什么什么还被保留的最好。比如pca是保留了convariance,MDS保留了距离信息等等。
pca的原理是做SVD转换,X = UEV' (X是原数据,也就是高维空间里的那些点)
U*U'=I, 也就是U转置=U逆,E是diagonal,V是the conjugate transpose of V,这个概念如果有兴趣自己再去看,PCA里面不需要这个性质。
那么,如果E是从大到小排列的(注意E只有对角线,也就是eigenvalue)保留W最先的几个元素就代表了我们保证了
W*E*E'*W'损失最小(W,E,E’,W’都只有最大的几个)
那么这个式子代表什么呢?就是X*X',也就是convariance matrix
热心网友
时间:2023-09-13 04:15
你是说具体的求eigenvector的算法吗?这属于《数值分析》的内容,找本《数值分析》的书吧。