花费 207ms 找到570条记录
文本挖掘之降维技术之特征抽取之非负矩阵分解(NMF) 繁体
2016年03月03 - 通常的矩阵分解会把一个大的矩阵分解为多个小的矩阵,但是这些矩阵的元素有正有负。而在现实世界中,比如图像,文本等形成的矩阵中负数的存在是没有意义的,所以如果能把一个矩阵分解成全是非负元素是很有意义

PCA降维原理以及举例 繁体
2018年03月28 - 将图像读取之后,如若将每一个像素点看做特征,数据过于庞大和冗余,同时为了速度和可视化效果应先对读取进来的数据进行降维处理。 1.1 消减维度的理由: (1)大多数的模型在维度较小的情况下比较安全,多余的特征会影响或误导学习器; (2)更多的特征需要调整更多的参数,容易产生过拟合; (3)较少的维度数据集训练速度快; (4)实现数据可视化时,大多限制在两、三个维度上,更加体现降维

迭代量化方法——Iterative Quantization: A Procrustean Approach to Learning Binary Codes 繁体
2016年02月28 - 《Iterative Quantization: A Procrustean Approach to Learning Binary Codes》这篇文章发表在2011年的CVPR会议上,由Yunch

数据降维技术(2)—奇异值分解(SVD) 繁体
2017年01月15 - 上一篇文章讲了PCA的数据原理,明白了PCA主要的思想及使用PCA做数据降维的步骤,本文我们详细探讨下另一种数据降维技术—奇异值分解(SVD)。 在介绍奇异值分解前,先谈谈这个比较奇怪的名字:奇异值分解,英文全称为Singular Value Decomposition。首先我们要明白,SVD是众多的矩阵分解技术中的一种,矩阵分解方式很多,如三角分解(LU分解、LDU分解、乔列斯基分解等)、QR

数组降维--打散多维数组--扁平化多维数组 繁体
2017年04月03 - 问题? 怎么把 arr = [[1,3,4,5],[2,3,5]];变为一维呢?比如:arr = [1,3,4,5,2,3,5]; 那如果更多维度的呢?比如:arr=[2,3,3,4,[2,3,4

机器学习笔记_ 降维_2:PCA 繁体
2015年11月26 - 矩阵相关正交矩阵: Q∈Rn∗nQ \in R^{n*n}, QQT=QTQ=IQQ^T=Q^TQ=I QT=Q−1Q^T=Q^{-1}Q=[q1,...,qn]的列组成标准正交组Q

数据挖掘之降维 繁体
2016年10月22 - 自变量维度过多会给所有数据挖掘方法带来麻烦:(1)自变量过多会导致建模算法的运行速度慢。(2)自变量的维度增加时,过度拟合的可能性也会随之增大。(3)自变量维度越多,数据在整个输入空间的分布越稀疏,越

机器学习读书笔记之10 - PCA 繁体
2017年01月15 - 通常在特征提取过程中,会遇到一个很严重的问题,那就是特征维度过多,实际上这些特征对于 表示和分类的贡献度不同,那么哪些特征是重要的?哪些是次要的呢? 这时轮到PCA出场了(想必早已名声在外),PCA即主成分分析(principal component analysis),主要被用于消除样本特征之间的相关性,降低计算复杂度,通俗上称之为降维。 PCA降维

主成分分析PCA-降维的必要性-协方差矩阵-特征值-特征向量 繁体
2018年05月23 - 原文来自:博客园(华夏35度)ttp://www.cnblogs.com/zhangchaoyang/articles/2222048.html 作者:Orisun 降维的必要性 1.多重共线性--预测变量之间相互关联。多重共线性会导致解空间的不稳定,从而可能导致结果的不连贯。 2.高维空间本身具有稀疏性。一维正态分布有68%的值落于正负标准差之间,而

特征降维之SVD分解 繁体
2014年10月14 - 奇异值分解。特征值分解是一个提取矩阵特征很不错的方法,但是它只是对方阵而言的,在现实的世界中,我们看到的大部分矩阵都不是方阵,比如说有N个学生,每个学生有M科成绩


 
粤ICP备14056181号  © 2014-2021 ITdaan.com