花费 28ms 找到28059条记录
1 MIT线性代数笔记-第二十二讲
2018年03月13 - 对角化公式 假设A有n个独立的eigenvector,将它们放入矩阵S中(也叫作eigenvectors matrix) S被叫作eigenvectors matrix Λ" role="presentation"> Λ
2 机器学习实战四(Logistic Regression)
2018年01月10 - 机器学习实战四(Logistic Regression) 这一章会初次接触最优化算法,在日常生活中应用很广泛。这里我们会用到基本的梯度上升法,以及改进的随机梯度上升法。 Logistic回归 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分裂精度可能不高 原理
3 机器学习之逻辑回归--01
2018年05月09 - [randIndex] del(dataIndex[randIndex]) return weights ''' 下面为线性回归的例子: 预测疝气病症预测病马死亡率 数据集见机器学习实践 ''' def classifyVector(inX
4 白话机器学习算法(二十一)logistic回归
2015年02月13 - 有所区别。基本上对于属性连续型我们可以用回归,属性离散的可以用分类。数据挖掘,机器学习的算法非常多,但是不是拿来就用,应该首先了解算法的特性,使用范围,再看数据来源,什么特点,这个算法是否符合这种数据,再决定使用哪种模型比如聚类算法数十中,基于图的,基于概率的,基于神经网络模型的,等等,但是有的算法适合
5 机器学习实战》读书笔记6:朴素贝叶斯源码
2017年02月23 - 下面是经过我注释并添加 docstring 的朴素贝叶斯分类器源码from numpy import *def loadDataSet(): ''' () -> list of lists, list Return a list of lists which are some po
6 5——网络层各层网络的作用
2016年12月12 - Sequential是多个网络层的线性堆叠 全连接层: 该层的作用是将前项和后项的所有节点全部连接起来,该模式会带来大量的权值,主流的全连接层为Dense层 汇聚层Dropout: Dropout层的作用是随机的
7 招聘单位对机器学习工作校招的要求总结
2016年12月26 - 这两天看到学校论坛内讨论这个问题,就粘贴到这里,算是mark一下,有新发表的再更新。 (1) (2) (3) (4) (5) (6)
8 机器学习之奇异值分解之Lanczos方法
2014年05月13 - 开篇之前,我想和大家分享一个经验,一段时间以前笔者曾经进行了关于用户协同过滤推荐算法的hadoop分布式实现,由于算法间用户数量大,每个用户都需要与其他用户进行比较,或者判断不比较,导致了很严重的算法时间复杂度问题。于是笔者去优化算法,采用了两次反变换存储数据形式(自己定义的,就是一种数据
9 一些距离表示和相似度量
2014年11月27 - 信号或者多维空间里,常常需要用一些距离或者相关度量来衡量两个点或向量的距离和相似度。下面列举一些常用于不同的模型和空间的距离。1. 欧氏距离(euclidean distance) 最通常采用的距离定义,指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的
10 机器学习----xgboost学习笔记
2017年07月13 - 1、利用xgboost做特征组合 1)XGBModel.apply(self, X, ntree_limit=0) return the predicted leaf every tree for each sample X: 训练集特征,featur

 
© 2014-2019 ITdaan.com 粤ICP备14056181号