2017年11月3日晚,中山大学AI科技俱乐部举办了2017年秋季学期第五次课程。本次课程是由吴华栋师兄带来的《支持向量机》,非常感谢吴华栋师兄的精心准备和细致的讲解。
简单的积分公示之后,我们的师兄带我们直入主题:
师兄介绍本次课程
一.什么是支持向量机
师兄首先给了大家一个简单的福利题作为引入,即给出已知的5个男生和女生的身高,来据此判断一个170cm的同学是男生还是女生。接着讲到分类是数据挖掘领域一项非常重要的任务,而支持向量机是一种监督式学习的方法,它广泛的应用于统计分类以及回归分析中。
支持向量机(supportvector machine)是90年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,异能获得良好统计规律的目的。
对于什么是支持向量机,师兄概括到:它是一种而分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题求解。
师兄在讲一个线性二分类器的例子
二.深入认识支持向量机
师兄同样用例子引入,通过一个一维的线性不可分的福利题,给出了我们两种解决低维线性不可分的方法:核函数和软间隔。
师兄引入核函数和软间隔
师兄谈到,对于样本空间线性不可分的问题,可以将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分。由于特征空间维数可能很高,不好算,因此引入核函数。
但是现实任务中,很难确定合适的核函数使得训练样本在特征空间中线性可分,即使找到了合适的,也不知是不是因为过拟合。
师兄接着说道,缓解该问题的方法是允许支持向量机在一些样本上出错。由此引入“软间隔”概念。
师兄在讲软间隔示意图和损失函数
三.认真推导支持向量机
师兄从样本中任意点到超平面的距离讲起,很细心的推导了公式。随后谈到我们需要找到在满足约束条件下的最大的距离之和,此时对应着最优的分类平面,问题最终建模为一个凸二次规划问题。师兄展开讲解了推导过程。
同学积极参与,上前推导公式
最后,师兄还是很全面的总结了一下课程内容,从支持向量机是什么,总结到线性不可分情况下的核函数和软间隔方法,并提醒大家核函数和软间隔可以结合起来用。
再次感谢吴华栋师兄细致认真的讲解,我们AI俱乐部的第五次课程在大家的掌声中圆满结束!