CS229 学习笔记 Part3
SVM
CS229 对于 SVM 的理论解释是我学习到的最详细也是最好的一份资料了,对比对象有周志华《机器学习》、《机器学习实战》、Coursera 上的 Machine Learning 等。相当推荐学习 CS229。
分类间隔 (Margin) 和 SVM 的优化目标『最大化分类间隔』这里就不多说了,很好理解,主要还是记录 CS229 中学到的新内容。一个数据点离分类边界 (decision boundary) 越远,则确信度越高。我们的优化目标也相当于寻找一个远离所有数据点的分类边界,当然,前提是这个分类边界得到的分类都正确。
SVM 的一些特殊定义也提及一下,
- \(y\) 的取值不是 \(\{0,1\}\) 而是 \(\{-1,1\}\)。
- 假设函数 \(h_{w,b}(x) = g(w^Tx+b)\) 中,我们把截距项单独写出来,便与后续的计算。
- 我们的分类器输出结果会直接是 1 或 -1,不像 Logistic 回归那样先输出 \(y\) 是某一类的概率。
CS229 学习笔记 Part 1
此笔记为我的 CS229 的学习笔记之一,由 Andrew Ng 的 CS229 Lecture notes 和 课堂录像整理而来。用于记录所学到的内容。记录顺序重新编排过,并非是课程原本的教学顺序,并且省略了课程中的一些推导过程,所以适合学习后整理备忘使用,不适合用于同步辅助学习。
广义线性模型 GLM (Generalized Linear Models)
广义线性模型是所学到的 Linear Regression 以及 Logistic Regression 的推广形式(更准确的说,这两种模型都属于 GLM 的特殊情况)。它有三个关键假设(Assumptions)构成:
- \(y \mid x;\theta\sim ExponentialFamily(\eta)\) :对于固定的参数 \(\theta\) 以及给定 \(x\), \(y\) 的分布服从某一指数分布族(如高斯分布、伯努利分布、Softmax分布)
- 对于给定的 \(x\) ,目标是预测 \(T(y)\) 的值。换一种说法就是,我们定义假设函数 \(h(x) = E[y\mid x]\)
- natural parameter \(\eta\) 和 输入 \(x\) 是线性相关的, \(\eta = \theta^ \mathrm{ T } x\) (其中,当输入 \(x\) 和 \(\eta\) 是向量的时候, \(\eta_i = \theta_i^ \mathrm{T}x\))
Copyright © 2016 Powered by MWeb, Theme used GitHub CSS. Modified by Yinzo.