大家好,今天乐乐子来为大家解答以下的问题,关于berkeley入门,berkeley是什么意思这个很多人还不知道,现在让我们一起来看看吧!
栗子 发自 凹非寺
量子位 报道 | 公众号 qbitai
有一份机器学习ppt,在reddit论坛获得了墙裂欢迎,一日之间揽下400分。
这份ppt来自伯克利cs 189/289课程,从线性代数复习,到线性回归、随机森林、boosting……各种方法与其中的知识要点全面覆盖,简洁明晰。
在这些词条里,任选一个往下划,都会发现许多宝藏。
比如,下面就是高斯判别分析 (gda) 。里面讲到了生成模型,模型里的假设,以及不同方法之间的对比。
前往课程pg电子平台网站主页,就可以把课件与各种配套资料搭配食用;伯克利还把课件的源码放上了github。
那么,一起来观赏一下这份入门佳品。
作为一门友好的基础课,当然要从零开始。
introduction章节,先介绍了各式各样的机器学习任务:回归、分类、密度估计、降维......
又介绍了监督、半监督、无监督、强化学习,这些不同的学习方式。
然后,一张美好的地图在眼前展开,这是用scikit-learn玩转各种任务的路线图。
△ 回归、分类、聚类、降维
从原点出发,按图索骥,就能到达希望的终点。
比如分类任务上,可能用到支持向量机 (svm) 。
这时候,翻一下支持向量机的词条:
它会告诉你,逻辑回归解决不了问题,支持向量机或许可以。
原理,用法,以及通常拿来做怎样的任务,都在这里了。
再比如,决策树/随机森林,也是分类方法。
方法背后的理论,用到的split函数,贪心算法等等,这里都会娓娓道来。
如果感觉ppt的介绍太简约,还可以搭配168页课程笔记食用。
笔记一共有23章,课件上的每个词条,几乎都能找到相应的章节。比如,最后一个词条boosting,就对应笔记里的第24章。
打开这个章节,任意翻到一页:
文字详尽,人类易懂,插图优雅。
从权重初始化开始,adaboost的每一步都有介绍。
另外,为什么要用boosted tree,也是条分缕析:一是快,二是不用搜索超参数,三是偏差方差权衡容易做……
这样一来,刚入坑的你,也可以愉快地学习了。
除了ppt和笔记之外,课程pg电子平台网站主页上还有作业和考卷,可以用来检测你的学习成果。
那么,现在就开始学习吧。
ppt传送门:
https://csinva.github.io/pres/189/#/
cs 189/289课程笔记:
https://people.eecs.berkeley.edu/~jrs/papers/machlearn.pdf
cs 189/289课程pg电子平台网站主页:
https://people.eecs.berkeley.edu/~jrs/189/
github传送门:
https://github.com/csinva/csinva.github.io/blob/master/_notes/ref/ml_slides/slides.md
— 完 —
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入pg电子平台网站!相关细节,请在量子位公众号(qbitai)对话界面,回复“招聘”两个字。
量子位 qbitai · 头条号签约作者
վ'ᴗ' ի 追踪ai技术和产品新动态
本文到此结束,希望对大家有所帮助。