支持向量机论文.docx
《支持向量机论文.docx》由会员分享,可在线阅读,更多相关《支持向量机论文.docx(12页珍藏版)》请在优知文库上搜索。
1、任课教师:一、命题局部二、评分标准三、教师评语请根据您确定的评分标准详细评分,给定成绩,填入“成绩”局部。阅卷教师评语评阅教师签字:成绩200年月注1:本页由学生填写卷头和“任课教师”局部,其余由教师埴写。其中蓝色字体局部请教师在命题时删除。提交试卷时含本页。学生从第二页开始写作,要求见蓝色字体局部。注2:“阅卷教师评语”局部请教师用红色或黑色碳素笔填写,不可用也子版。无“评语”视为不合标准。注3:试题、评分标准、评语尽量控制在本页。注4:不符合标准试卷需修改标准后提交。支持向量机简述提要传统统计学研究的是样本数目趋于无穷大时的渐进理论,但在实际问题中,样本数往往是有限的,因此一些理论上很优秀
2、的学习方法实际表现却可能不尽如人意。针对小样本,Vapnik等人提出了统计学习理论,并以此为根底提出了支持向量机这一有力工具。本文对支持向量机进行了简单介绍,并以分类器为根底介绍了支持向量机的一些核心概念。关健字支持向量机统计学习理论-)支持向量机简介支持向量机(SupportVectorMachine)是COrteS和VaPnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中有许多特有的优势,并能推广应用到函数拟合等其他机器学习问题中1。支持向量机方法是建立在统计学习理论的VC维和结构风险最小原理根底上的,根据有限的样本信息在模型的复杂性和学习能力之间寻求最正确折衷,以期获得
3、最好的推广能力。1.1Ve维定义Ll(N(F,Z,.):设F是一个假设集,即由在XUR上取值为-1或1的假设干函数组成的集合。记Zrtt=玉,怎J为X中的m个点组成的集合。考虑当/取遍F中的所有可能的假设时产生的m维向量(/(XJf(Z),/(/)。定义N(F,ZQ)为上述m维向量中不同的向量个数。定义1.2(Z,“被F打散):设F是一个假设集,Zw=玉,勺,,ZJ为X中的m个点组成的集合。称Z,“被F打散,或F打散Z,”。定义1.3IVC维):设假设集F是一个由X上取值为-1或1的函数组成的集合.定义F的VC维为maxmN(F,ZJ=2n,.VC维反映了函数集的学习能力。一般而言,VC维越大
4、,学习机器越复杂。但目前没有通用的关于任意VC维计算的理论,只对一些特殊函数集的VC维可以计算。如何利用理论和实验的方法计算VC维是当前统计学习理论中一个待研究的问题3。1.2结构风险最小化机器学习本质上是一种对问题真实模型的逼近,由于真实世界的模型往往无法精确给出,我们给出的模型与真实模型就存在一个误差,这个与真实模型之间的误差积累就叫做风险。统计学习理论系统地研究了对于各种类型的函数集,经验风险和实际风险之间的关系,即泛化误差界。统计学习理论指出:经验风险凡“(W)和实际风险R(W)之间至少以n的概率满足如下关系RW)i)+产”/4)其中,1是样本数,h是函数集的Ve维。这一结论说明,统计
5、学习的实际风险由两局部组成:一个是经验风险,另一个是置信风险。置信风险反映了真实风险和经验风险差值的上确界,和VC维h记样本数1有关。可简单地表示为R(W)R四(W)+-)在有限的训练样本下,学习机器的复杂性越高,VC维越大,置信风险就越大,就会导致真实风险和经验风险间的差异越大。如下图函数集子集:SlUS2US3VC维:hhz1的Lagrange乘子。根据KKT条件(KarUSh-KUhn-TUCker)有:-=OnW=ZaN项f=/=1根据WOlf对偶理论,经运算将原始优化问题转为1/maxw(a)=jai-Yaiajyiyj(xixy)=1幺j,j=s.t.Zaiyi=0,ai0,i=1
6、,2,.,I.=1解此最优化问题,可确定最优超平面。且通常只有一小局部生不为0,这些非零解对应的样本就是支持向量。此时得到的最优分类函数是.f(x)=sgn(Wx)+Z?)=sgnaiyi(xix)+。i=l不难看出,式中的求和实际上只对支持向量进行。b*可由任一支持向量回代求得。此时,我们就得到了一个样本线性可分时的线性分类器。(三)核函数线性可分的问题可以由上述的线性分类器求解,当待分类样本为非线性可分时,可以通过非线性变换转化为某个高维空间中的线性问题,在变换空间求最优分类面。如图当(a,b)范围内的样本为一类,其余局部为一类时,在二维空间无法找到一个线性函数将其正确分开,但我们可以找到
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 论文