求教matlab关于pca降维的问题

问题描述

求教matlab关于pca降维的问题

我想用30*3000的一组数据经pca降维之后使用lssvm来建模,然后用11*3000的一组数据来检验这个模型。
我想问的是,经过pca降维,30*3000的矩阵变成了30*29的矩阵,但是检验的数据经过pca降维之后成为了11*10的矩阵,这样还能检验吗?

解决方案

Matlab使用PCA降维
关于matlab的PCA降维的一些资料
PCA降维

解决方案二:

已经解决了,不好意思麻烦各位了

时间: 2016-07-05

求教matlab关于pca降维的问题的相关文章

【Python数据挖掘课程】七.PCA降维操作及subplot子图绘制

        这篇文章主要介绍四个知识点,也是我那节课讲课的内容.         1.PCA降维操作:         2.Python中Sklearn的PCA扩展包:         3.Matplotlib的subplot函数绘制子图:        4.通过Kmeans对糖尿病数据集进行聚类,并绘制子图.         前文推荐:        [Python数据挖掘课程]一.安装Python及爬虫入门介绍        [Python数据挖掘课程]二.Kmeans聚类数据分析及An

较大规模数据应用PCA降维的一种方法

较大规模数据应用PCA降维的一种方法 中国地震台网中心  赵桂儒 PCA是一种常用的线性降维方法,但在实际应用中,当数据规模比较大时无法将样本数据全部读入内存进行分析计算.文章提出了一种针对较大规模数据应用PCA进行降维的方法,该方法在不借助Hadoop云计算平台的条件下解决了较大规模数据不能直接降维的问题,实际证明该方法具有很好的应用效果. 较大规模数据应用PCA降维的一种方法

比PCA降维更高级——(R/Python)t-SNE聚类算法实践指南

首发地址:https://yq.aliyun.com/articles/70733 更多深度文章,请关注:https://yq.aliyun.com/cloud 作者介绍:Saurabh.jaju2   Saurabh是一名数据科学家和软件工程师,熟练分析各种数据集和开发智能应用程序.他目前正在加州大学伯克利分校攻读信息和数据科学硕士学位,热衷于开发基于数据科学的智能资源管理系统. Linkedin:https://in.linkedin.com/in/saurabh-jaju Github: 

初识PCA数据降维

PCA要做的事降噪和去冗余,其本质就是对角化协方差矩阵. 一.预备知识 1.1 协方差分析 对于一般的分布,直接代入E(X)之类的就可以计算出来了,但真给你一个具体数值的分布,要计算协方差矩阵,根据这个公式来计算,还真不容易反应过来.网上值得参考的资料也不多,这里用一个例子说明协方差矩阵是怎么计算出来的吧. 用matlab计算这个例子 z=[1,2;3,6;4,2;5,2] cov(z) ans = 2.9167 -0.3333 -0.3333 4.0000 可以看出,matlab计算协方差过程

Machine Learning in Action – PCA和SVD

降维技术,  首先举的例子觉得很好,因为不知不觉中天天都在做着降维的工作 对于显示器显示一个图片是通过像素点0,1,比如对于分辨率1024×768的显示器,就需要1024×768个像素点的0,1来表示,这里每个像素点都是一维,即是个1024×768维的数据.而其实眼睛真正看到的只是一副二维的图片,这里眼睛其实在不知不觉中做了降维的工作,把1024×768维的数据降到2维 降维的好处,显而易见,数据更易于显示和使用,去噪音,减少计算量,更容易理解数据  主流的降维技术,包含:  主成分分析,pri

Andrew Ng机器学习公开课笔记–Principal Components Analysis (PCA)

网易公开课,第14, 15课  notes,10 之前谈到的factor analysis,用EM算法找到潜在的因子变量,以达到降维的目的 这里介绍的是另外一种降维的方法,Principal Components Analysis (PCA), 比Factor Analysis更为直接,计算也简单些 参考,A Tutorial on Principal Component Analysis, Jonathon Shlens   主成分分析基于, 在现实中,对于高维的数据,其中有很多维都是扰动噪音

考察数据科学家数据降维知识的40道题,快来测测吧(附答案)

更多深度文章,请关注:https://yq.aliyun.com/cloud 作者介绍 Ankit Gupta:数据科学家.IIIT Allahabad研究助理,热爱解决复杂的数据挖掘问题.了解更多关于数据科学和机器学习算法,目前致力于预测软件缺陷的项目. 领英:https://www.linkedin.com/in/ankit-gupta Github:https://github.com/anki1909 博客:https://www.analyticsvidhya.com/blog/aut

特征值分解与奇异值分解含义

一.特征值分解 1. 矩阵乘法 在介绍特征值与特征向量的几何意义之前,先介绍矩阵乘法的几何意义. 矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度的新向量.在这个变化过程中,原向量主要发生旋转.伸缩的变化.如果矩阵对某些向量只发生伸缩变换,不产生旋转效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值. 比如:,它对应的线性变换是下面的形式形式: 由于矩阵M是对称的,所以这个变换是一个对 x , y 轴的一个拉伸变换.[当M中元素值大于1时,是拉伸:当值小于1时,是缩短]

卷积神经网络CNN总结

从神经网络到卷积神经网络(CNN) 我们知道神经网络的结构是这样的:  那卷积神经网络跟它是什么关系呢? 其实卷积神经网络依旧是层级网络,只是层的功能和形式做了变化,可以说是传统神经网络的一个改进.比如下图中就多了许多传统神经网络没有的层次. 卷积神经网络的层级结构 数据输入层/ Input layer 卷积计算层/ CONV layer ReLU激励层 / ReLU layer 池化层 / Pooling layer 全连接层 / FC layer 1.数据输入层 该层要做的处理主要是对原始图