❶ 我用PCA做特徵降維後svm分類效果不好,為啥
K-L變換是離散變換的簡稱,又被稱為主成分變換(PCA)。它是對某一多光譜圖像X,利用K-L變換矩陣A進行線性組合,而產生一組新的多光譜圖像Y,表達式為:
Y=AX
式中,X為變換前的多光譜空間的像元矢量;
Y為變換厚德主分量空間的像元矢量;
A為變換矩陣,是X空間協方差矩陣∑x的特徵向量矩陣的轉置矩陣。
從幾何意義上看,變換後的主分量空間坐標系與變換前的多光譜空間坐標系相比旋轉了一個角度,而新坐標系的坐標軸一定指向數據信息量較大的方向。就變換後的新波段主分量而言,它們所包含的信息不同,呈現逐漸減少趨勢。
建議你看看《數字圖像處理與機器視覺》張錚、王艷平、薛桂香等人編著,第10章講得很細致。
❷ EXCEL數據降維
把列標簽拉到行標簽里就可以了
❸ 高維數據降維的目的是什麼,我說的是在處理圖像方面哪本數學數有這個知識
圖像處理方面方面,像基於matlab的圖像處理中,就是把圖像表示成多位數組的形式,有時候為了編寫循環語句的需要,可以進行降維處理。
❹ 請問怎樣把三年的數據進行降維分析
可以分開做三次,也可以取平均值做一次,也可以做面板主成分分析
❺ 特徵降維是先進行特徵選擇還是特徵抽取
特徵選擇也叫特徵子集選擇(FSS,FeatureSubsetSelection)。是指從已有的M個特徵(Feature)中選擇N個特徵使得系統的特定指標最優化,是從原始特徵中選擇出一些最有效特徵以降低數據集維度的過程,是提高學習演算法性能的一個重要手段,也是模式識別中關鍵的數據預處理步驟。對於一個學習演算法來說,好的學習樣本是訓練模型的關鍵。需要區分特徵選擇與特徵提取。特徵提取(Featureextraction)是指利用已有的特徵計算出一個抽象程度更高的特徵集,也指計算得到某個特徵的演算法。
❻ 請問當今比較流行的數據降維演算法有哪些
這個要看你的需求和數據的data distribution,找到最合適的演算法解決你的問題。
如果數據分布比較簡單,線性映射降維就夠了,比如PCA、ICA。
如果數據分布比較復雜,可能需要用到manifold learning,具體演算法比如SOM、MDS、ISOMAP、LLE,另外deep learning也可以用來做降維。
❼ 利用PCA進行降維之後,如何利用降維後的特徵值和特徵向量恢復數據矩陣
pca 降維處理在綜合分析評價中是最好的應用方法。對於你的問題就是所說的重構概念,由特徵值和其對應的特徵向量已知的情況下,是不難重構原來的線性系統矩陣數據的。
❽ 數據降維和特徵選取有什麼區別
有區別。
二者的目標都是使得特徵維數減少。但是方法不一樣。
數據降維,一般說的是維數約簡(Dimensionality rection)。它的思路是:將原始高維特徵空間里的點向一個低維空間投影,新的空間維度低於原特徵空間,所以維數減少了。在這個過程中,特徵發生了根本性的變化,原始的特徵消失了(雖然新的特徵也保持了原特徵的一些性質)。
而特徵選擇,是從 n 個特徵中選擇 d (d<n) 個出來,而其它的 n-d 個特徵舍棄。所以,新的特徵只是原來特徵的一個子集。沒有被舍棄的 d 個特徵沒有發生任何變化。這是二者的主要區別。
❾ 數據降維特徵值為負需要捨去數據嘛
經過這幾天面試後,我發現數據降維這一塊在工業界用的很多或者說必不可少,因此,這方面需要重點關注。今天,我將數據降維總結於此,包括他人成果,這里對他們的內容表示感謝。
Method
對數據降維作用有多個角度的理解。吳恩達在他的視頻中說,降維是用於數據壓縮,降低雜訊,防止運行太慢內存太小;當降到2或3維可以可視化操作,便於數據分析;不要將降維用於防止過擬合,容易去掉和標簽有關的重要特徵。但是數據為何需要壓縮,除了佔用內存以外還有沒有別的原因——「維度災難」問題:維度越高,你的數據在每個特徵維度上的分布就越稀疏,這對機器學習演算法基本都是災難性的。最後導致的可能是每個樣本都有自己的特徵,無法形成區別是正例還是負例的統一特徵。還有另外一個情況當特徵多於樣本量時,一些分類演算法(SVM)是失效的,這與分類演算法原理有關。
數據降維方法:
線性降維方法:
主成分分析(PCA)和判別分析方法(LDA)
關於PCA的理解:
1、PCA可以理解為高維數據投影到低維,並使得投影誤差最小。是一種無監督將為方法。
2、還可以理解為對坐標旋轉和平移(對應著坐標變換和去中心化),從而使得n維空間能在n-1維分析,同時去掉方差小的特徵(方差小,不確定度小,信息量小)
3、PCA的推導
4、PCA與SVD的聯系
(從矩陣分解角度理解PCA)
5、PCA降維的應用
6、PCA 的缺點:
(1)pca是線性降維方法,有時候數據之間的非線性關系是很重要的,這時候我們用pca會得到很差的結果。所有接下來我們引入核方法的pca。
(2)主成分分析法只在樣本點服從高斯分布的時候比較有效。
(3) 存在不平衡數據的降維可以採用代價敏感PCA(CSPCA)
(4)特徵根的大小決定了我們感興趣信息的多少。即小特徵根往往代表了雜訊,但實際上,向小一點的特徵根方向投影也有可能包括我們感興趣的數據;
(5)特徵向量的方向是互相正交(orthogonal)的,這種正交性使得PCA容易受到Outlier的影響
(6)難於解釋結果。例如在建立線性回歸模型(Linear Regression Model)分析因變數
❿ 數據降維是什麼意思
數據降維是將數據進行降維處理的意思。
降維,通過單幅圖像數據的高維化,將單幅圖像轉化為高維空間中的數據集合,對其進行非線性降維。尋求其高維數據流形本徵結構的一維表示向量,將其作為圖像數據的特徵表達向量。降維處理是將高維數據化為低維度數據的操作。一般來說,化學過程大都是一個多變數的變化過程,一般的化學數據也都是多變數數據。
(10)特徵降維股票數據擴展閱讀:
數據降維運用:
通過單幅圖像數據的高維化,將單幅圖像轉化為高維空間中的數據集合,對其進行非線性降維,尋求其高維數據流形本徵結構的一維表示向量,將其作為圖像數據的特徵表達向量。從而將高維圖像識別問題轉化為特徵表達向量的識別問題,大大降低了計算的復雜程度,減少了冗餘信息所造成的識別誤差,提高了識別的精度。
通過指紋圖像的實例說明,將非線性降維方法(如Laplacian Eigenmap方法)應用於圖像數據識別問題,在實際中是可行的,在計算上是簡單的,可大大改善常用方法(如K-近鄰方法)的效能,獲得更好的識別效果。此外,該方法對於圖像數據是否配準是不敏感的,可對不同大小的圖像進行識別,這大大簡化了識別的過程。