❶ 我用PCA做特征降维后svm分类效果不好,为啥
K-L变换是离散变换的简称,又被称为主成分变换(PCA)。它是对某一多光谱图像X,利用K-L变换矩阵A进行线性组合,而产生一组新的多光谱图像Y,表达式为:
Y=AX
式中,X为变换前的多光谱空间的像元矢量;
Y为变换厚德主分量空间的像元矢量;
A为变换矩阵,是X空间协方差矩阵∑x的特征向量矩阵的转置矩阵。
从几何意义上看,变换后的主分量空间坐标系与变换前的多光谱空间坐标系相比旋转了一个角度,而新坐标系的坐标轴一定指向数据信息量较大的方向。就变换后的新波段主分量而言,它们所包含的信息不同,呈现逐渐减少趋势。
建议你看看《数字图像处理与机器视觉》张铮、王艳平、薛桂香等人编著,第10章讲得很细致。
❷ EXCEL数据降维
把列标签拉到行标签里就可以了
❸ 高维数据降维的目的是什么,我说的是在处理图像方面哪本数学数有这个知识
图像处理方面方面,像基于matlab的图像处理中,就是把图像表示成多位数组的形式,有时候为了编写循环语句的需要,可以进行降维处理。
❹ 请问怎样把三年的数据进行降维分析
可以分开做三次,也可以取平均值做一次,也可以做面板主成分分析
❺ 特征降维是先进行特征选择还是特征抽取
特征选择也叫特征子集选择(FSS,FeatureSubsetSelection)。是指从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化,是从原始特征中选择出一些最有效特征以降低数据集维度的过程,是提高学习算法性能的一个重要手段,也是模式识别中关键的数据预处理步骤。对于一个学习算法来说,好的学习样本是训练模型的关键。需要区分特征选择与特征提取。特征提取(Featureextraction)是指利用已有的特征计算出一个抽象程度更高的特征集,也指计算得到某个特征的算法。
❻ 请问当今比较流行的数据降维算法有哪些
这个要看你的需求和数据的data distribution,找到最合适的算法解决你的问题。
如果数据分布比较简单,线性映射降维就够了,比如PCA、ICA。
如果数据分布比较复杂,可能需要用到manifold learning,具体算法比如SOM、MDS、ISOMAP、LLE,另外deep learning也可以用来做降维。
❼ 利用PCA进行降维之后,如何利用降维后的特征值和特征向量恢复数据矩阵
pca 降维处理在综合分析评价中是最好的应用方法。对于你的问题就是所说的重构概念,由特征值和其对应的特征向量已知的情况下,是不难重构原来的线性系统矩阵数据的。
❽ 数据降维和特征选取有什么区别
有区别。
二者的目标都是使得特征维数减少。但是方法不一样。
数据降维,一般说的是维数约简(Dimensionality rection)。它的思路是:将原始高维特征空间里的点向一个低维空间投影,新的空间维度低于原特征空间,所以维数减少了。在这个过程中,特征发生了根本性的变化,原始的特征消失了(虽然新的特征也保持了原特征的一些性质)。
而特征选择,是从 n 个特征中选择 d (d<n) 个出来,而其它的 n-d 个特征舍弃。所以,新的特征只是原来特征的一个子集。没有被舍弃的 d 个特征没有发生任何变化。这是二者的主要区别。
❾ 数据降维特征值为负需要舍去数据嘛
经过这几天面试后,我发现数据降维这一块在工业界用的很多或者说必不可少,因此,这方面需要重点关注。今天,我将数据降维总结于此,包括他人成果,这里对他们的内容表示感谢。
Method
对数据降维作用有多个角度的理解。吴恩达在他的视频中说,降维是用于数据压缩,降低噪声,防止运行太慢内存太小;当降到2或3维可以可视化操作,便于数据分析;不要将降维用于防止过拟合,容易去掉和标签有关的重要特征。但是数据为何需要压缩,除了占用内存以外还有没有别的原因——“维度灾难”问题:维度越高,你的数据在每个特征维度上的分布就越稀疏,这对机器学习算法基本都是灾难性的。最后导致的可能是每个样本都有自己的特征,无法形成区别是正例还是负例的统一特征。还有另外一个情况当特征多于样本量时,一些分类算法(SVM)是失效的,这与分类算法原理有关。
数据降维方法:
线性降维方法:
主成分分析(PCA)和判别分析方法(LDA)
关于PCA的理解:
1、PCA可以理解为高维数据投影到低维,并使得投影误差最小。是一种无监督将为方法。
2、还可以理解为对坐标旋转和平移(对应着坐标变换和去中心化),从而使得n维空间能在n-1维分析,同时去掉方差小的特征(方差小,不确定度小,信息量小)
3、PCA的推导
4、PCA与SVD的联系
(从矩阵分解角度理解PCA)
5、PCA降维的应用
6、PCA 的缺点:
(1)pca是线性降维方法,有时候数据之间的非线性关系是很重要的,这时候我们用pca会得到很差的结果。所有接下来我们引入核方法的pca。
(2)主成分分析法只在样本点服从高斯分布的时候比较有效。
(3) 存在不平衡数据的降维可以采用代价敏感PCA(CSPCA)
(4)特征根的大小决定了我们感兴趣信息的多少。即小特征根往往代表了噪声,但实际上,向小一点的特征根方向投影也有可能包括我们感兴趣的数据;
(5)特征向量的方向是互相正交(orthogonal)的,这种正交性使得PCA容易受到Outlier的影响
(6)难于解释结果。例如在建立线性回归模型(Linear Regression Model)分析因变量
❿ 数据降维是什么意思
数据降维是将数据进行降维处理的意思。
降维,通过单幅图像数据的高维化,将单幅图像转化为高维空间中的数据集合,对其进行非线性降维。寻求其高维数据流形本征结构的一维表示向量,将其作为图像数据的特征表达向量。降维处理是将高维数据化为低维度数据的操作。一般来说,化学过程大都是一个多变量的变化过程,一般的化学数据也都是多变量数据。
(10)特征降维股票数据扩展阅读:
数据降维运用:
通过单幅图像数据的高维化,将单幅图像转化为高维空间中的数据集合,对其进行非线性降维,寻求其高维数据流形本征结构的一维表示向量,将其作为图像数据的特征表达向量。从而将高维图像识别问题转化为特征表达向量的识别问题,大大降低了计算的复杂程度,减少了冗余信息所造成的识别误差,提高了识别的精度。
通过指纹图像的实例说明,将非线性降维方法(如Laplacian Eigenmap方法)应用于图像数据识别问题,在实际中是可行的,在计算上是简单的,可大大改善常用方法(如K-近邻方法)的效能,获得更好的识别效果。此外,该方法对于图像数据是否配准是不敏感的,可对不同大小的图像进行识别,这大大简化了识别的过程。