花费 423ms 找到2118444条记录
1 Coursera台大机器学习课程笔记10 -- Linear Models for Classification
2015年06月27 - 这一节讲线性模型,先将几种线性模型进行了对比,通过转换误差函数来将linear regression 和logistic regression 用于分类。 比较重要的是这种图,它解释了为何可以用Linear Regression或Logistic Regression来替代Linear
2 Coursera台大机器学习课程笔记8 -- Linear Regression
2015年06月25 - 之前一直在讲机器为什么能够学习,从这节课开始讲一些基本的机器学习算法,也就是机器如何学习。 这节课讲的是线性回归,从使Ein最小化出发来,介绍了 Hat Matrix,要理解其中的几何意义。最后对比了linear regression 和 binary classification,并说
3 Coursera台大机器学习课程笔记7
2014年04月08 - 机器学习的Cost Function即来自于这些error,也就是算法里面的迭代的目标函数,通过优化使得Error(Ein)不断变小。对于这些error,实际上和使用场景关心很大,我们知道Model的判断结果大致有4种:TP:Model预测是对的,实际也是对的,这个是好事;FP:Model预测
4 Coursera台大机器学习课程笔记4
2014年03月12 - ),可是PLA的假设是平面上的直线,不是无数个么?为什么可以正常泛化? 为解释这个问题,有了这节以及下面几节的课程 可以看到这个问题其实很重要,因为这是我们理解机器为啥能学习的关键一步,因为很多机器学习算法的假设看似都是无限的。下面这个图给出了理解机器为啥能学习的关键:即满足假设个数有限,采样数据足够大是算法
5 Coursera台大机器学习课程笔记6
2014年03月30 - 很多Noise);=〉这两点由上述不等式可以推导这样的机器学习算法有好的泛化能力,其在全集上会有和在D上一致的表现;3 如果算法选择的是小的Ein =>最终我们可以推断机器可以学习,因为其在全集数据集错误率会较低。二什么是VC Dimension 下面给出了VC Dimension的定义,它是该假设集能够
6 Coursera台大机器学习课程笔记5
2014年03月25 - 来我们梦寐已久的结果。光有这个还不行,我们要带到下面的关键不等式中才能最终得出,选取最小Ein 假设是可以的忽略错误的,只要有breaking point存在于假设。这里的证明我大致看了一下,对整体理解不是很大帮助,准备以后上完大部分课程后再看看。 总结: 本章的结论很明显,即时假设看起来是无穷
7 Coursera台大机器学习基础课程学习笔记1
2013年12月03 - 最近在跟台大的这个课程,觉得不错,想把学习笔记发出来跟大家分享下,有错误希望大家指正。一机器学习是什么? 感觉和 Tom M. Mitchell的定义几乎一致,A computer program is said to learn from experience E with respect
8 Coursera台大机器学习技法课程笔记01-linear hard SVM
2015年07月17 - 极其淡腾的一学期终于过去了,暑假打算学下台大的这门机器学习技法。 第一课是对SVM的介绍,虽然之前也学过,但听了一次感觉还是很有收获的。这位博主总结了个大概,具体细节还是 要听课:http://www.cnblogs.com/bourneli/p
9 Coursera台大机器学习基础课程学习笔记2
2013年12月09 - ,觉得很不错,有了全局观,后面就好易于理解了。 参考资料:Coursera台大机器学习基石
10 Coursera台大机器学习课程笔记5 -- Theory of Generalization
2015年06月22 - 这节课听起来非常的抽象,深感自己的智商余额不足,也说明台大的这门机器学习课程理论化程度很高。 还是看看这位博主的吧,总起的还不错,看后总算能明白点了:http://www.cnblogs.com/HappyAngel/p/3622333.html

 
© 2014-2018 ITdaan.com 粤ICP备14056181号