SVM 模型概览
SVM 介绍
支持向量机是 90 年代中期发展起来的基于统计学习理论的一种有监督机器学习方法, 通过寻求结构化风险最小来提高学习器的泛化能力,实现经验风险和置信范围的最小化, 从而达到在统计样本量较少的情况下,也能获得良好的统计规律性
对于一个分类问题,给定样本集,的目的是在样本空间中找到一个划分超平面,可以将两种类别的样本分开。 事实上可能存在好几个超平面可以将正负样本分开,对于上图中不同的划分超平面, 从直观上来看应该用“中间”那个作为划分超平面,因为它距离两个类别最近的点距离差不多相等, 对于样本的局部扰动“容忍性”最高
所谓支持向量机, 顾名思义, 分为两个部分了解:
- 支持向量: 支持或支撑平面上把两类类别划分开来的超平面的向量点
- 机(machine,机器): 一个算法
SVM 优缺点
- 适用于高维数据
- 不同的核函数
SVM 理论
硬间隔
如何来确定上文提到的距离两个类别最近的点的距离?
超平面
首先先来定义一下划分超平面:
$$\mathbf{w}^{T}\mathbf{x}+b=0$$
其中:
$\mathbf{w} = (\omega_{1}, \omega_{2}, \ldots, \omega_{d})$为法向量,决定了超平面的方向$b$为偏移项,表示超平面与坐标原点之间的距离
点到超平面的距离
点到平面的距离解释:
![]()
给定平面
$Ax + By + Cz + D = 0$,求平面外一点到平面的距离$d$: 任意取平面上一点$P(x, y,z)$,连接两点$P, Q$, 过$P$做平面的法向量$\vec n=(A, B, C)$, 可以看到点$Q$到平面的距离正好是向量$\overrightarrow{PQ}$在法向量$\vec n$上的投影长度。 所以有:$$\begin{align} d &=||\overrightarrow{PQ}|| \cdot \cos \theta \\ &= \frac{||\vec{n}||}{||\vec{n}||} \cdot ||\overrightarrow{PQ}||\cdot \cos \theta \\ &= \frac{\overrightarrow{PQ}\cdot \vec{n}}{||\vec{n}||} \end{align}$$由上面的分析可知,点到平面的距离公式为向量与法向量的点积除以法向量的模
将划分超平面记为 $(\mathbf{w}, b)$,则样本空间任意点 $x$ 到超平面的距离为:
$$\gamma = \frac{|\mathbf{w}^{T}\mathbf{x} + b|}{||\mathbf{w}||}$$
超平面分类
假设超平面可以将样本正确分类,我们可以得到:
$$\begin{cases} \mathbf{w}^{T}\mathbf{x}_{i} + b \geq +1, y_{i} = +1 \\ \mathbf{w}^{T}\mathbf{x}_{i} + b \leq +1, y_{i} = -1 \\ \end{cases}$$
注意上式中的 $\geq +1$,若是超平面 $(\mathbf{w}', b')$ 可以将样本正确分类且距离超平面最近的样本距离为 $d$,
则有 $\mathbf{w} = \frac{1}{d}\mathbf{w}'$,$b=\frac{1}{d}b'$,使得:
$$\begin{cases} d\mathbf{w}^{T}\mathbf{x}_{i} + db \geq +d, y_{i} = +1 \\ d\mathbf{w}^{T}\mathbf{x}_{i} + db \leq +d, y_{i} = -1 \\ \end{cases}$$
两边约去 $d$ 总能得到上面的式子
支持向量
距离超平面最近的点使得上式中的等号成立,它们被称为“支持向量”(Support vectors), 不同种类的支持向量到超平面的距离之和称为“间隔”(Margin),有:
$$Margin = \frac{2}{||\mathbf{w}||}$$
分类的目标就是要找到这样的 $\mathbf{w}$ 使得划分超平面具有最大间隔,
可以等价于最小化 $\frac{1}{2}||\mathbf{w}||^{2}$,
于是得到需要求得的目标函数和约束条件
$$\underset{\omega, b}{min}\frac{1}{2}||\mathbf{w}||^{2}$$
$$s.t. \quad y_{i}(\mathbf{w}_{i}^{T}x_{i} + b) \geq 1, i = 1, 2, \ldots, m$$
拉格朗日函数
原始问题是一个凸二次规划问题,将这个问题一般化:
$$\underset{x \in R^{n}}{min}f(x)$$
$$s.t. \quad\begin{cases} c_{i}(x) \leq 0, i=1,2,\ldots, k \\ h_{j}(x) = 0, j = 1, 2, \ldots, l \end{cases}$$
对每条约束添加拉格朗日乘子,上式写成拉格朗日函数为:
$$L(x, \alpha, \beta) = f(x) + \sum_{i=1}^{k}\alpha_{i}c_{i} + \sum_{j=1}^{l}\beta_{j}h_{j}(x)$$
上式将对 $x$ 有限制条件的 $f(x)$ 的最优化问题转转化为对 $x$、$\alpha$、$\beta$ 没有限制条件的极值问题,
其中 $\alpha_{i}$,$\beta_{i}$ 是拉格朗日乘子,且有 $\alpha_{i} \geq 0$
对于拉格朗日函数,问题求解变为:
$$\begin{align} \theta_{p}(x) &= \underset{\alpha,\beta, \alpha_{i} \geq 0}{max}L(x, \alpha, \beta) \\ &= \underset{\alpha, \beta, \alpha_{i} \geq 0}{max}\Big(f(x) + \sum_{i=1}^{k}\alpha_{i}c_{i}(x) + \sum_{j=1}^{l}\beta_{j}h_{j}(x)\Big) \end{align}$$
我们来对这个函数深入解析:
- 如果有
$x$不满足原始约束条件,既有$c_{i}(x) \geq 0$或$h_{j} \neq 0$。 由于有$\alpha_{i} \geq 0$,可取$\alpha_{i} = +\infty$,$\beta_{j}h_{j}(x) = +\infty$,此时$\theta_{p}(x) \rightarrow +\infty$ - 如果全部都满足原始条件约束,即有
$c_{i}(x)\leq 0$、$h_{j}=0$、$\alpha_{i} \geq 0$, 此时有$\sum_{j=1}^{l}\beta_{j}h_{j}(x) = 0$,$\sum_{i=1}^{k}\alpha_{i}c_{i} \leq 0$, 要使$\theta_{p}(x)$最大,那么就有$\sum_{i=1}^{k}\alpha_{i}c_{i}(x) = 0$, 此时$\theta_{p}(x) = f(x)$。注意:$max$函数的参数是$\alpha$、$\beta$,此时把$x$看做常数, 所以$f(x)$也是常数,$max f(x)$自然就是$f(x)$本身了 - 所以原最小化问题
$\underset{\omega, b}{min}f(x)$可以变为$\underset{\omega, b}{min}\theta_{p}(x)$, 然后可以推出原问题的目标函数为
$$\underset{x}{min}\underset{\alpha, \beta, \alpha \geq 0}{max}L(x, \alpha, \beta)$$
至此,我们将 SVM 要求得最大间隔的凸二次规划问题转变成了拉格朗日函数求解问题
对偶问题
得到了上述的拉格朗日函数,就要考虑如何求解了
通常情况下我们求最小化问题比较方便,即求导为 0 即可,于是我们将上述拉格朗日函数转为求其对偶问题,
即将 $min$、$max$ 求解顺序对调,变为 $max$、$min$。有一个显而易见的结论,
即对一个序列先找极小值,然后在所有极小值中找到一个最大值 $a$;对一个序列先找极大值,
然后在所有极大值中找到一个最小值 $b$。 $a \leq b$ 是明显成立的。因此有:
$$\underset{\alpha, \beta, \alpha_{i} \geq 0}{max}\underset{x}{min}L(\mathbf{x}, \alpha, \beta) \leq \underset{x}{min}\underset{\alpha, \beta, \alpha_{i} \geq 0}{max}L(\mathbf{x}, \alpha, \beta)$$
可以看到对偶问题外层的优化目标参数是拉格朗日参数,然后通过求得的拉格朗日参数,
间接得到我们最终要求的超平面的参数 $\mathbf{x}$。而原始问题外层的优化目标参数直接是 $\mathbf{x}$,
无法直接去优化得到这个参数,因为还存在着其他未知的拉格朗日参数。
(注意:此处的参数 $\mathbf{x}$ 而非 $\mathbf{w}$,
是因为最开始将 $\frac{1}{2}||\mathbf{w}||^{2}$ 抽象成了 $f(\mathbf{x})$)
我们开始回到求解 SVM 优化目标的问题上,先最小化 $L(\mathbf{w}, b, \alpha)$:
$$L(\mathbf{w}, b, \alpha) = \frac{1}{2}||\mathbf{w}||^{2}+\sum_{i=1}^{m}\alpha_{i}(1-y_{i}(\mathbf{w}^{T}x_{i} + b))$$
此式中 $\mathbf{w}$、$\mathbf{x}$ 与线性回归中一样,为 nub_features 维的向量,
$m$ 为样本个数,对每个样本有一个 $\alpha_{i}$,
即 $\alpha=(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{m})$
令 $L(\mathbf{w}, b, \alpha)$ 对 $\mathbf{w}$ 和 $b$ 的偏导为 0,有:
$$\begin{align} \frac{\partial L(\mathbf{w}, b, \alpha)}{\partial \mathbf{w}} &= \frac{\partial}{\partial \mathbf{w}}\Bigg[\frac{1}{2}||\mathbf{w}||^{2}+\sum_{i=1}^{m}(\alpha_{i} - \alpha_{i} y_{i} \mathbf{w}^{T}\mathbf{x}_{i} + \alpha_{i}b)\Bigg] \\ &= \mathbf{w} + \sum_{i=1}^{m}(0 - \alpha_{i}y_{i}\mathbf{x}_{i} + 0) \\ &= \mathbf{w} - \sum_{i=1}^{m}\alpha_{i}y_{i}\mathbf{x}_{i} \\ &= 0 \end{align}$$
所以有:
$$\mathbf{w} = \sum_{i=1}^{m}\alpha_{i}y_{i}\mathbf{x}_{i}$$
同理对 $b$ 求偏导,可得:
$$\sum_{i=1}^{m}\alpha_{i}y_{i} = 0$$
将 $\mathbf{w}$ 代入拉格朗日函数 $L(\mathbf{w}, b, \alpha) = \frac{1}{2}||\mathbf{w}||^{2} + \sum_{i=1}^{m}\alpha_{i}(1-y_{i}(\mathbf{w}^{T}\mathbf{x}_{i} + b))$,同时利用上式,可以得到:
$$\begin{align} L(\mathbf{w}, b, \alpha) &= \frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\mathbf{x}_{i}^{T}\mathbf{x}_{j} + \sum_{i=1}^{m}\alpha_{i} - \sum_{i=1}^{m}\alpha_{i}y_{i}\Big((\sum_{j=1}^{m}\alpha_{j}y_{j}\mathbf{x}_{j})\cdot \mathbf{x}_{i} + b\Big) \\ &= \frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\mathbf{x}_{i}^{T}\mathbf{x}_{j} + \sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\mathbf{x}_{i}^{T}\mathbf{x}_{j} - b\sum_{i=1}^{m}\alpha_{i}y_{i} + \sum_{i=1}^{m}\alpha_{i}\\ &= \frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\mathbf{x}_{i}^{T}\mathbf{x}_{j} + \sum_{i=1}^{m}\alpha_{i} \end{align}$$
然后再来求此时关于 $\alpha$ 的极大值,即 $max_{\alpha, \alpha \geq 0}min_{\omega, b}L(\mathbf{w}, b, \alpha)$,故有:
$$\underset{\alpha}{max}-\frac{1}{2}\sum_{i}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\mathbf{x}_{i}^{T}\mathbf{x}_{j} + \sum_{i=1}^{m}\alpha_{i}$$
$$s.t. \quad \sum_{}^{}\alpha_{i}y_{i}=0,\\ \alpha \geq 0, i=1,2,\ldots,m$$
此式为关于 $\alpha$ 的极大值求解,当求出解 $\alpha$ 之后,求出 $\mathbf{w}$、$b$,有:
$$\begin{align} f(\mathbf{x}) &= \mathbf{w}^{T}\mathbf{x} + b \\ &=\sum_{i=1}^{m}\alpha_{i}y_{i}\mathbf{x}_{i}^{T}\mathbf{x} + b \end{align}$$
此处开始思考求解拉格朗日乘子 $\alpha$,有约束条件,实际为 KKT 条件:
$$\begin{cases} \alpha_{i} \geq 0 \\ 1-y_{i}f(\mathbf{x}_{i}) \leq 0 \\ \alpha_{i}(1-y_{i}f(\mathbf{x}_{i})) = 0 \end{cases}$$
此时,对于任意样本 $(\mathbf{x}_{i}, y_{i})$,
总有 $\alpha_{i}=0$ 或 $y_{i}f(\mathbf{x}_{i})=1$。若 $\alpha_{i} = 0$,
则该样本将不会在 $f(\mathbf{x}) = \sum_{i=1}^{m}\alpha_{i}y_{i}\mathbf{x}_{i}^{T}\mathbf{x} + b$ 中出现,
也就不会对 $f(x)$ 有任何影响;若 $\alpha_{i} \geq 0$,则必有 $y_{i}f(\mathbf{x}_{i}) = 1$,
所对应的样本点位于最大间隔边界上,是一个支持向量。这显示出支持向量的一个重要性质:
训练完成后,大部分的训练样本都不需保留,最终模型仅与支持向量有关
SMO 算法
那上面的 $\alpha$ 是如何求解得到的呢?
这里我们采用 Platt 在 1998 年专门针对 SVM 的对偶问题求解设计的算法 SMO(Sequential Minimal Optimization)。
它的主要思想是每次挑选出两个变量 $\alpha_{i}$ 和 $\alpha_{j}$,固定其他的 $\alpha$ 参数,
由此问题就变成了类似于二次方程求最大值的问题 。其大致为重复一下步骤:
- 选出
$\alpha_{i}, \alpha_{2}, \ldots, \alpha_{m}$中“最不好”的两个参数$\alpha_{i}$、$\alpha_{j}$ - 固定这两个参数以外的其他
$\alpha$, 求解$\underset{\alpha}{max}\underset{\mathbf{w},b}{min}L(\mathbf{w}, b, \alpha)$来更新$\alpha_{i}$、$\alpha_{j}$
选取的 $\alpha_{i}$、$\alpha_{j}$ 只要有一个不满足 KKT 条件,
目标函数就会在迭代会减小。而 KKT 条件的违背程度越大,则更新变量后目标函数值减小的幅度越大
那我们应该如何选取这两个参数 $\alpha_{i}$ 和 $\alpha_{j}$ 呢?
- 先选出违反 KKT 条件最严重的样本,以其参数作为第一个参数
- 采用启发式的思考方式,选择与第一个样本间隔最大的样本,其参数作为第二个参数。 直观的解释是,与对两个相似的参数进行更新相比,两个参数有很大的差别, 更新会使目标函数变化更大
软间隔
以上的推导形式都是建立在样本数据线性可分的基础上,如果样本数据中线性不可分(你中有我,我中有你), 应该如何处理呢?这里我们引入软间隔(Soft Margin),意味着,允许支持向量机在一定程度上出错
引入常量 $C > 0$ 和 “$0/1$ 损失函数” $l_{0/1}(z)$,其特性为当 $z<0$ 时函数为 1,否则函数为 0:
$$l_{0/1}(z) = \begin{cases} 1, z \leq 0 \\ 0, z \geq 0 \end{cases}$$
允许样本在一定程度上出错,即有样本不满足约束:
$$y_{i}(\mathbf{w}^{T}\mathbf{x}_{i} + b) \geq 1$$
我们的目标是在最大化间隔的同时,尽可能减小不满足约束的样本数量,此时的优化目标写为:
$$\underset{\omega, b}{min}\frac{1}{2}||\mathbf{w}||^{2}+C\sum_{i=1}^{m}l_{0/1}\big(y_{i}(\mathbf{w}^{T}\mathbf{x}_{i} + b)-1\big)$$
- 当
$C$无穷大时,迫使所有样本均满足约束,使得上式后半部分为 - 当
$C$取有限值时,允许一些样本不满足约束
但是上式的 $l_{0/1}$ 损失函数非凸、非连续,数学性质不好,用其他一些函数来代替它:
- Hinge 损失
$$l_{hinge}(z) = max(0, 1-z)$$
- 指数损失
$$l_{exp}(z) = e^{-z}$$
- 对数损失
$$l_{log}(z) = log(1+e^{-z})$$
以上四种损失函数图像如下所示:
若采用 Hinge 损失,原优化目标变为:
$$\underset{\omega, b}{min}\frac{1}{2}||\mathbf{w}||^{2} + C\sum_{i=1}^{m}max(0, 1- y_{i}(\mathbf{w}^{T}\mathbf{x}_{i}) + b)$$
引入“松弛变量”(slack variables),可将上式重写为:
$$\underset{\mathbf{w},b, \xi_{i}}{min}\frac{1}{2}||\mathbf{w}||^{w} + C\sum_{i=1}^{m}\xi_{i}$$
$$s.t. \quad y_{i}(\mathbf{w}^{T}\mathbf{x}_{i} + b) \geq 1 -\xi_{i} \\ \xi_{i} \geq 0, i=1,2,\ldots,m$$
仔细思考松弛变量 $xi$ 的作用,可以看到,原来的硬间隔要求:$y_{i}(\mathbf{w}^{T}\mathbf{x}_{i}+b) \geq 1$,
所有的样本距离划分超平面距离都要大于 $\frac{1}{||\mathbf{w}||}$;而引入松弛变量 $\xi$ 之后,
我们允许那些样本距划分超平面 $\frac{1-\xi}{||\mathbf{w}||}$ 的样本点(即离群点)存在,其中 $\xi \geq 0$。
允许离群点存在即忽略它们,不因为个别离群点改变原有的可以将绝大多数样本分离的划分超平面。可以看出,当松弛变量
$\xi$ 为 0 时即为硬间隔,不允许离群点存在;$\xi$ 越大,离群点偏离分类群越远。当 $\xi$ 为1时,
离群点在划分超平面上,当 $\xi$ 大于1时,离群点已经跑到另一个分类样本群去了,即被错误分类了
再来思考惩罚因子 $C$ 的作用,它是随松弛变量 $\xi$ 一起引入的,代表了有多重视离群点。
$C$ 越大表示越重视,越不想丢掉离群点,$C$ 为无穷大时迫使后半式 $\sum_{i=1}^{m}\xi_{i}$ 为 0,
而 $\xi_{i} \geq 0$ 所以有 $\xi_{i} = 0$,即不允许有离群点。
在实际应用中,$C$ 是需要事先设定且需要调参的数
上面得到的软间隔优化目标也是个二次规划问题,我们同样转换为拉格朗日函数:
$$L(\mathbf{w}, b, \alpha, \xi, \mu) = \frac{1}{2}||\mathbf{w}||^{2} + \sum_{i=1}^{m}\alpha_{i}(1-\xi_{i} - y_{i}(\mathbf{w}^{T}\mathbf{x}_{i} + b)) - \sum_{i=1}^{m}\mu_{i}\xi_{i}$$
其中:$\alpha_{i} \geq 0$,$\mu_{i} \geq 0$ 是拉格朗日乘子。同样地我们转换为对偶问题,将现在的:
$$\underset{\omega, b, \xi_{i}}{min}\underset{\alpha, \mu}{max}L(\mathbf{w}, b, \alpha, \xi, \mu)$$
转换为:
$$\underset{\alpha, \mu}{max}\underset{\omega, b, \xi_{i}}{min}L(\mathbf{w}, b, \alpha, \xi, \mu)$$
令 $L(\mathbf{w}, b, \alpha, \xi, \mu)$ 对 $\mathbf{w}$,$b$,$\xi_{i}$ 的偏导为 0,可得:
$$\mathbf{w} = \sum_{i=1}^{m}\alpha_{i}y_{i}\mathbf{x}_{i}$$
$$0 = \sum_{i=1}^{m}\alpha_{i}y_{i}$$
$$C = \alpha_{i} + \mu_{i}$$
将此结果代入 $L(\mathbf{w}, b, \alpha, \xi, \mu)$,就得到其最小值。然后其对偶问题转换为:
$$\underset{\alpha}{max}\sum_{i=1}^{m}\alpha_{i} - \frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\mathbf{x}_{i}^{T}\mathbf{x}_{j}$$
$$s.t. \quad \sum_{i=1}^{m}\alpha_{i}y_{i} = 0$$
$$0 \leq \alpha_{i} \leq C, i= 1,2, \ldots, m$$
对比硬间隔的对偶问题,软间隔的差别只在于对对偶变量的约束不同:
前者是 $\alpha_{i} \geq 0$,后者是 $0 \leq \alpha_{i} \leq C$
核函数
软间隔解决的实际上是允许模型忽略某些异常点来进行划分的问题,即在绝大部分样本都能被正确分类的情况下, 某几个样本无法被划分超平面分开,我们不认为应该考虑它来重新修改模型,而是认为给出的样本是被错误分类的
那如果大部分样本都线性不可分怎么办?完全的你中有我,我中有你。
此时引入核函数,简单来说就是将低维空间的样本映射到高维空间。 以“异或”问题为例,二维情况下无论如何都不能将正负样本线性分开, 但映射到三维后就可以用一个平面将样本分开
由 Cover 定理可证,同一份样本数据在越高维的空间中越有可能线性可分。
若设 $d$ 维空间中 $N$ 个点线性可分的概率为 $p(d, N)$,那么就有:
$$p(d, N)=\frac{2\sum_{i=0}^{m}C_{N-1}^{i}}{2^{N}}=\begin{cases} \frac{\sum_{i=1}^{d}C_{N-1}^{i}}{2^{N-1}}, \quad N > d + 1 \\ 1, \quad \quad \quad \quad N \leq d + 1 \end{cases}$$
即样本空间维度大于样本个数时,一定线性可分(证明略)
令 $\phi$(\mathbf{x}) 表示将 $\mathbf{x}$ 映射后的特征向量,于是在特征空间中的划分超平面为:
$$f(\mathbf{x}) = \mathbf{w}^{T}\phi(\mathbf{x}) + b$$
现在的问题就转化为了如何找到合适的 $\phi(\cdot)$ 将 $\mathbf{x}$ 映射到高维空间,使得样本线性可分。
与硬间隔 SVM 对偶问题求解相似,我们要优化的目标变为:
$$\underset{\omega, b}{min}\frac{1}{2}||\mathbf{w}||^{2}$$
$$s.t. \quad y_{i}(\mathbf{w}^{T}\phi(\mathbf{x}_{i}) + b) \geq 1, i=1, 2, \ldots, m$$
转化为对偶问题:
$$\underset{\alpha}{max}\sum_{i=1}^{m}\alpha_{i} - \frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_{i}\alpha_{j}y_{i}y_{j}\phi(\mathbf{x}_{i}^{T})\phi(\mathbf{x}_{j})$$
$$s.t. \quad \sum_{i=1}^{m}\alpha_{i}y_{i} = 0$$
$$\alpha_{j} \geq 0, i=1, 2, \ldots, m$$
上式的计算中涉及到了 $\phi(\mathbf{x}_{i})^{T}\phi(\mathbf{x}_{j})$,
这是样本 $\mathbf{x}_{i}$ 和 $\mathbf{x}_{j}$ 映射到特征空间之后的内积。
由于特征空间维度可能很高甚至是无穷维,计算困难,于是换了一条路来解决这个问题,设想一个函数:
$$\kappa(\mathbf{x}_{i}, \mathbf{x}_{j}) = \langle \phi(\mathbf{x}_{i}), \phi(\mathbf{x}_{j})\rangle = \phi(\mathbf{x}_{i})^{T}\phi(\mathbf{x}_{j})$$
其中:
$\langle \rangle$表示求两个向量的内积
我们把 $\kappa(\mathbf{x}_{i}, \mathbf{x}_{j})$ 称为核函数,它的作用显而易见,
使我们不必直接去计算 $\langle \phi(\mathbf{x}_{i}), \phi(\mathbf{x}_{j})\rangle$,
甚至不需要知道 $\phi(\cdot)$ 长什么样,直接求出 $\phi(\mathbf{x}_{i})^{T}\phi(\mathbf{x}_{j})$ 的结果。
将核函数代入后求解,得
$$\begin{align} f(\mathbf{x}) &= \mathbf{w}^{T}\phi(\mathbf{x}) + b \\ &= \sum_{i=1}^{m}\alpha_{i}y_{i}\phi(\mathbf{x}_{i})^{T}\phi(\mathbf{x}) + b \\ &= \sum_{i=1}^{m}\alpha_{i}y_{i}\kappa(\mathbf{x}, \mathbf{x}_{i}) + b \end{align}$$
上式表明,模型的最优解可以通过训练样本的核函数展开,这一展开式称为“支持向量展式”。
国外的英文文献把Kernel(核函数)叫做Kernel Function或者是Kernel Trick,从Trick这种叫法可知核函数其实是一种运算技巧而已。
可以证明,只要一个对称函数所对应的核矩阵半正定,它就能作为核函数使用。而对于一个半正定核矩阵,总能找到一个与之对应的
$\phi(\cdot)$ 。事实上,核函数的选取依然是一个未决问题,核函数选择的不合适,意味着将样本映射到了一个不合适的特征空间,可能会导致样本依然无法线性可分。
下表列出了几种常用的核函数:
可以发现,线性核函数对应着样本空间本身,即不对样本做函数映射
其他内容
线性可分性
给定一个数据集
$$T = \{(x_1,y_1),(x_2, y_2),...,(x_n, y_n)\}$$
其中:
$x_i\in R^{n}$$y_i \in \{0, 1\}$$i=1,2, ..., n$
如果存在某个超平面 $S$:
$$\omega^{T}x+b=0$$
能够将数据集的正实例($y=1$)和负实例($y=0$)完全正确地分到超平面的两侧,
即对所有的 $y_{i}=1$ 的实例 $i$,有 $\omega^{T}x+b>0$;
对所有的 $y_i=0$ 的实例 $i$,有 $\omega^{T}x+b<0$,
则称数据集 $T$ 为线性可分数据集, 否则称为线性不可分
一个二分类线性分类器就是要在 $R^n$ 特征空间中找到一个超平面 $S$,其方程可以表示为:
$$\omega^{T}x+b = 0$$
这个超平面将特征空间划分为两个部分, 位于两部分的点分别被分为两类
函数间隔与几何间隔
- 函数间隔,Function Margin
- 几何间隔,Geometric Margin
一般而言, 一个数据点距离超平面($\omega^{T}x+b =0$)的远近可以表示为分类预测的确信或准确程度
在超平面 $\omega^{T}x+b$ 确定的情况下,$|\omega^{T}x+b|$ 能够相对表示点 $x$ 距离超平面的远近;
而 $\omega^{T}x+b$ 的符号与类别标记 $y$ 的符号是否一致表示分类是否正确,
可以用指标量 $y\cdot (\omega^{T}x+b)$ 的正负性来判定或表示分类的正确性和确信度
函数间隔
Function Margin
函数间隔:
$$\hat{\gamma}=y\cdot (\omega^{T}x+b)=yf(x)$$
超平面 $\omega^{T}x+b$ 关于训练数据 $T$ 的函数间隔为超平面 $\omega^{T}x+b$
关于 $T$ 中所有样本点 $(x_i, y_i)$ 的函数间隔的最小值:
$$\hat{\gamma}=\min\hat{\gamma}_{i}, i = 1, 2,..., n$$
上面定义的函数间隔虽然可以表示分类预测的正确性和确信度,但在选择分类超平面时,只有函数间隔是不够的。
如果成比例的改变 $\omega$ 和 $b$,比如将他们改变为 $2\omega$ 和 $2b$,
虽然此时超平面没有改变, 但是函数间隔的值 $yf(x)$ 却变成了原来的 4 倍
解决防范: 可以对法向量 $\omega$ 加一些约束条件,使其表面上看起来规范化
几何间隔
Geometric Margin