欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
计算机论文
当前位置:首页 > 计算机论文
基于近似高斯核显式描述的大规模 S VM 求解
来源:一起赢论文网     日期:2015-04-26     浏览数:3715     【 字体:

 摘   要   大规模数据集上非线性支持向量机( s u p p o r t  v e c t o r  m a c h i n e , S VM ) 的求解代价过高, 然而对于线性S VM 却存在高效求解算法. 为了应用线性S VM 高效求解算法求解非线性S VM , 并保证非线性S VM 的精确性, 提出一种基于近似高斯核显式描述的大规模S VM 求解方法. 首先, 定义近似高斯核并建立其与高斯核的关系, 推导近似高斯核与高斯核的偏差上界 . 然后给出近似高斯核对应的再生核希尔伯特空间(r e p r o d u c i n g   k e r n e l  H i l b e r t  s p a c e, R KH S ) 的显式描述, 由此可精确刻画S VM 解的结构, 增强S VM 方法的可解释性. 最后显式地构造近似高斯核对应的特征映射, 并将其作为线性S VM 的输入,从而实现了用线性S VM 算法高效求解大规模非线性S VM. 实验结果表明, 所提出的方法能提高非线性S VM 的求解效率, 并得到与标准非线性S VM 相近的精确性.

关键词   支持向量机; 线性支持向量机; 核方法; 近似高斯核; 再生核希尔伯特空间
    支持向量机( s u p p o r t  v e c t o r  m a c h i n e , S VM )[ 1 - 3 ]是重要的机器学习方法. 该方法利用核诱导的特征映射将输入空间中的数据映射到特征空间, 继而在特征空间中训练线性学习器 [2 ] .
    近年来, 大规模线性 S VM 的高效求解方法得到长足发展 . Z h a n g[ 4 ] 提出应用随机梯度下降算法来求解线性S VM ; S h a l e v - S h w a r t z等人[ 5 ] 进一步应用次梯度(s u b - g r a d i e n t ) 下降算法给出更有效的求解算法;J o a c h i m s[ 6 ] 基于截平面方法(c u t t i n g  p l a n e )提出S VM -P e r f算法; S m o l a等人 [7 ] 进一步提出丛方法 ( b u n d l e  m e t h o d ) ;L i n 等 人 [8 ] 应 用 置 信 域(t r u s t  r e g i o n ) 来求解大规模逻辑斯蒂回归( l o g i s t i cr e g r e s s i o n ) ; C h a n g 等人[ 9 ] 采用坐标下降(c o o r d i n a t ed e s c e n t ) 法来求解L 2 - S VM ; H s i e h等人[ 1 0 ] 应用对偶坐标梯度算法(d u a l  c o o r d i n a t e ) 求解线性S VM ; Y u等人 [1 1 ] 将上述方法推广到逻辑斯蒂回归上.虽然已有线性 S VM 高效求解算法, 但缺少处理非 线性 S VM 的高效 算 法 [1 2 - 1 4 ] . 
    如 何 应 用 线 性S VM 求解算法来设计非线性 S VM 求解算法得到关注 [1 2 , 1 5 - 1 7 ] .将特征映射显式地作为线性 S VM 的输入, 能将非线性 S VM 转化为特征空间中的线性S VM , 从而可应用高效线性 S VM 算法求解非线性S VM. V e d a l d i 和 Z i s s e r m a n[ 1 7 ] 研究可加核(a d d i t i v ek e r n e l  f u n c t i o n ) 特 征 映 射 的 近 似 构 造; C h a n g 等人 [1 2 ] 给出多项式核特征映射的显式构造;R a h i m i和 R e c h t[ 1 5 - 1 6 ] 基于随机特征(r a n d o m  f e a t u r e s ) 来构造平移不变核的特征映射; Y a n g 等人 [1 8 ] 应用低阶泰勒展开来近似高斯核, 并加速共轭梯度优化算法;C a o等人 [1 9 ] 同样应用低阶泰勒展开来近似高斯核,加速S VM 预测. 这些工作没有给出该近似核特征映射的显示构造, 从而无法直接应用线性 S VM 算法来求解非线性 S VM.
本文提出一种基于近似高斯核显示描述的大规模 S VM 求解方法 . 首先, 给出近似高斯核的定义,推导近似高斯核与高斯核偏差的上界. 然后显式描述近似高斯核再生核希尔伯特空间的结构, 精确描述S VM 解的空间. 最后, 显式构造近似高斯核的特征映 射, 并 将 特 征 数 据 ( m a p p e d  d a t a ) 作 为 线 性S VM 的输入, 应用线性S VM 高效求解算法来求解非线性S VM.
    1  预备知识
    本节 介 绍 再 生 核 希 尔 伯 特 空 间 (r e p r o d u c i n gk e r n e l  H i l b e r t  s p a c e , R KH S ) 与再生核( r e p r o d u c i n gk e r n e l ) 的基本概念.记 R + = { x : x ∈ R , x >0 } , N + = { x : x ∈ N , x >0 } . 对于 α = ( α 1 , …, α n )T∈ ( N + ∪ { 0 } )n和 x=(x 1 , …, x n ) , 记 | α |=∑ni =1 αi , xα =∏ni =1xα ii及 Ckα =k !∏ni =1 αi ! .设 X  Rn 为非空集合, 若存在一个希尔伯特空间 H 及映射 Φ : X → H 使得对  x , x ′ ∈ X , 都有 K(x , x ′ ) = 〈 Φ ( x ′ ) , Φ ( x ) 〉 , 则称 K 为 X 上的核函数,Φ ( • ) 为其特征映射.定义1.设 X 为非空集合, H = {f : X → R } 为函数 f 构成的希尔伯特空间.1 )若对所有 x ∈ X , D i r a c泛函 δ x : H → R ,δ x ( f ) : = f ( x )连续, 则称空间 H 为 R KH S.2 )若  x ∈ X , 有 K ( •, x ) ∈ H , 且  f ∈ H ,  x∈ X 均满足再生性:f ( x ) = 〈 f , K ( •, x ) 〉 ,则称 K 为 H 的再生核.具有再生核的希尔伯特空间一定为 R KH S. 反之亦然 .
    2  近似高斯核
本节首先定义近似高斯核, 推导近似高斯核与高斯 核 偏 差 上 界; 然 后 显 式 描 述 近 似 高 斯 核 的R KH S 、 显示构造近似高斯核的特征映射 .
    2. 1  近似高斯核定义定义 2. 近似高斯核 . 设 X  Rn 为非空集, 近似高斯核 K : X × X →RR定义如下:K ( x , y ) =e-x2 +y22 σ 0∑mk =01k !ρk ∑| α |= kCkα xαyα ,(1 )其中,α = ( α 1 , …, α n )T ∈ (N∪ { 0 } )n ,m ∈ N , σ 0 ,ρk ∈R + .下面定理说明: 近似高斯核收敛于高斯核, 近似高斯核是高斯核的近似 .定理1.若 m =∞ 且 ρk = σk0 , k =0 , 1 , …, 则近似高斯核为K ( x , y ) =e-x2 +y22 σ 0∑∞k =01k ! σk0 ∑| α |= kCkα xαyα为高斯核, 即 K ( x ,y ) =e-x - y22 σ 0.证明 . 令 δ∑∞k =01k ! σk0 ∑| α |= kCkα xαyα , 则近似高斯核可表示为e x p -x 2 +y 22 σ( )0δ . 由泰勒展开可得:e x p〈x , y 〉σ( )0=1+ 〈x , y 〉σ 0+ … +〈x , y 〉mm ! σm0+ … =∑∞k =0〈x , y 〉kk ! σk0.由于 〈x , y 〉k = (x 1 y 1 + x 2 y 2 + … + x n y n )k=∑| α |= kCkα xαyα , 易得:e x p〈x , y 〉σ( )0= ∑∞k =01k ! σk0 ∑| α |= kCkα xαyα= δ . ( 2 )   由式( 2 ) 可得:K ( x , y ) =e-x2 +y22 σ( )0 e〈 x , y 〉σ( )0 =e-x - y22 σ( )0 .证毕 .下面给出偏差 | K ( x ,y ) - K g a u s s ( x , y ) | 的上界,其中, K (x , y ) 为近似高斯核, K g a u s s ( x , y ) 为高斯核.定理2.若令 ρk = σk0 , k =0 , 1 , …, m , 则存在 ξ ∈[0 , 〈 x , y 〉 ? σ20 ] , 使得:| K ( x , y ) - K g a u s s ( x , y ) |≤1( m +1 ) !〈x , y 〉σ 0m +1eξ .证明.由于:K g a u s s ( x , y ) - K ( x , y ) =e-x2 +y22 σ 0e〈 x , y 〉σ 0- ∑mk =01k !〈x , y 〉σ( )0( )k.   由泰勒展开余项定理可知, 存在 ξ ∈ [ 0 , 〈 x , y 〉 ?σ20 ] , 使得:e x p〈x , y 〉σ( )0= ∑mk =01k !〈x , y 〉σ( )0k+ R m〈x , y 〉σ( )0,(3 )其中, R m ( 〈x , y 〉 ? σ 0 ) = ( 〈 x , y 〉 ? σ 0 )( m +1 )eξ? ( m +1 ) ! .因此, K g a u s s (x , y ) - K ( x , y ) =e-x2 +y22 σ 0×R m〈x , y 〉σ( )0.由于 -x 2 +y 22 σ 0≤0, 有 e-x2 +y22 σ 0≤1 ,可得:| K g a u s s ( x , y ) - K ( x , y ) |≤ R m〈x , y 〉σ( )0≤1( m +1 ) !〈x , y 〉σ 0m +1eξ .证毕.注1 .若 X 有界, 即  C ≥ 0 ,  x ∈ X , x ≤ C, 则| K ( x , y ) - K g a u s s ( x , y ) | ≤1( m +1 ) !x • yσ( )0m +1eξ ≤1( m +1 ) !C2σ( )0m +1eξ .因此, 当阶数 m →∞ ,| K ( x , y ) - K g a u s s ( x , y ) |→0. 这表明近似高斯核的构造是一致的 .
    2. 2  近似高斯核的 R KH S下面显示描述近似高斯核的 R KH S.定理3.设 X  Rn , 空间H K 为H K = f ( x ) =e-x22 σ 0∑mk =01k ! ∑| α |= kf α xα ,x ∈{ }X ,(4 )H K 上的内积〈 , 〉 K 定义为〈f , g 〉 K = ∑mk =0ρkk ! ∑| α |= kf α g αCkα, (5 )其中,f , g ∈ H K , 有:f =e-x22 σ 0∑mk =01k ! ∑| α |= kf α xα ,g =e-x22 σ 0∑mk =01k ! ∑| α |= kg α xα ,f α 和 g α 为刻画 f 和 g 的系数 . 则近似高斯核:K ( x , y ) =e-x2 +y22 σ 0∑mk =01k !ρk ∑| α |= kCkα xαyα为 H K 的再生核 .证明 .1 ) K ( x , • ) ∈ H K ;2 )再生性, 即对所有 f ∈ H K 和 x ∈ X , 〈 f , K( •,x ) 〉 = f ( x ) .给定 x , K ( x ,y ) 为 y 的函数, K ( x , y ) 可以表示为K ( x , • ) ( y ) =e-y22 σ 0∑mk =01k ! ∑| α |= ke-x22 σ 0Ckα xαρ kyα .   令 f α =e-x22 σ 0Ckα xα?ρk , 因此可知 K ( x , •) ∈H K . 对于  f ∈ H K, 由H K 中的内积定义可得:〈 K (x , • ) , f 〉 K =∑mk =0ρkk ! ∑| α |= k(e- x2? 2σ 0 C kα xα?ρk ) f αCkα=e-x22 σ 0∑mk =01k ! ∑| α |= kf α xα= f ( x ) .证毕.   注2.上述定理给出近似高斯 R KH S的显示描述, 精确刻画假设空间( h y p o t h e s i s  s p a c e ) 形式, 增强核方法的可解释性, 奠定近似高斯核的理论基础 .下面考虑阶数 m =∞ 的情况.推论1.设 X  Rn , 空间H K 为H K{= f ( x ) = e-x22 σ 0∑∞k =01k ! ∑| α |= kf α xα :f 2K = ∑mk =0ρkk ! ∑| α |= kf2αCkα< ∞ , x ∈}X,H K 上的内积〈 , 〉 K 定义为〈f , h 〉 K = ∑∞k =0ρkk ! ∑| α |= kf α g αCkα,其中,f , g ∈ H K , 有:f =e-x22 σ 0∑∞k =01k ! ∑| α |= kf α xα ,g =e-x22 σ 0∑∞k =01k ! ∑| α |= kg α xα ,f α 和 g α 为刻画 f 和 g 的系数. 那么:K ( x , y ) =e-x2 +y22 σ 0∑∞k =01k !ρk ∑| α |= kCkα xαyα为 H K 的再生核.证明.令 m =∞ , 基于定理3可证明该结论.注3.文献[2 0 ] 已经给出高斯核 R KH S的显式描述 . 由定理 1 可知, 当 m =∞ ,ρk = σk0 时, 近似高斯核为高斯核 . 因此本文扩展文献[ 2 0 ] 相关结论, 而且采用 W e y l 内积使证明更为简洁 .
    2. 3  近似高斯核显式特征映射下面显式构造近似高斯核的特征映射.定理 4. 设 X  Rn , 近似高斯核K ( x , y ) 的特征映射:Φ K ( x ) = [ Φ 0 ( x ) , Φ 1 ( x ) , …, Φ m ( x ) ] ,(6 )即 K ( x ,y ) = 〈 Φ K ( x ) , Φ K ( y ) 〉 , 其中,Φ i ( x ) = e-x22 σ 0Ciα ? ( i !ρi 槡) xα| α |=[ ]i(7 )为向量,i =0 , 1 , …, m .证明 . 由式( 7 ) 容易验证:e-x2 +y22 σ( )01k !ρk ∑| α |= kCkα xαyα= 〈 Φ k ( x ) , Φ k ( y ) 〉 .   因 而 有 K ( x , y ) = ∑mk =0〈Φ k ( x ) , Φ k ( y ) 〉 =〈Φ K ( x ) , Φ K ( y ) 〉 .证毕 .现举例说明上述近似高斯核的显式特征映射 .设输入空间维数 n =2 , 则2阶近似高斯核( m =2) 为K ( x , y ) =e-x2 +y22 σ 0∑2k =01k !ρk ∑| α |= kCkα xαyα=e-x2 +y22 σ(01ρ0+1ρ1 x1 y 1 +1ρ1 x2 y 2 +1ρ2 x21 y21 +2ρ2 x1 x 2 y 1 y 2 +1ρ2 x22 y2 )2,其中,x = [ x 1 , x 2 ] , y = [ y 1 , y 2 ] ∈ R2. 由式(6 ) ( 7 )可知:Φ K ( x ) =e-x22 σ[01ρ 槡0,1ρ 槡1 x1 ,1ρ 槡1 x2 ,1ρ 槡2 x21 ,2ρ 槡2 x1 x 2 ,1ρ 槡2 x2 ]2 .   容易验证 K ( x , y ) = 〈 Φ K ( x ) , Φ K ( y ) 〉 .注4.设训练数据 S = { xi , y i }i =1 , 通过近似高斯核的显式特征映射, 将{Φ K ( x i ) , y i }i =1 作为线性S VM 的输入, 从而可应用线性S VM 来求解非线性分类问题.
    3  基于近似高斯核的高效非线性 S VM
本节首先简要介绍线性 S VM 高效求解算法.然后, 基于近似高斯核的显式特征映射, 应用线性S VM 高效算法来求解非线性 S VM.
    3. 1  高效线性 S VM设训练数据为{ (x i , y i ) }i =1 , x i ∈ Rn ,y i ∈ { -1 ,+1 } , 线性 S VM 求解如下优化问题:m i n 12wT w + C ∑i =1 m a x(1- y i ( wTx i + b ) , 0 ) .   不失一般性, 可通过在输入数据中增加一维使偏置项 b 包含在 w 中, 从而将 wTx i + b 替换成 w T x i ,由此得式(8 ) 优化问题:m i n 12wT w + C ∑i =1 m a x(1- y i wTx i , 0 ) .(8 )   优化问题式( 8 ) 称为 S VM 的原始形式, 其对偶形式为m i nα  12αT Q α -eTα ,s . t .  0≤ α i ≤ C , i =1 , …,  ,(9 )其中,Qi j= xTi x j y i y j , e = [ 1 , …, 1 ]T .文献[1 0 ] 给出高效的对偶坐标下降算法求解优化问题. 该算法每次只对一个坐标方向进行优化 .若α 是当前迭代点, 则对它的第 i 个坐标方向进行优化相当于求解如下单变量的优化问题:m i n  12 Qi i d2 + (Q α - e ) i d + c o n s t a n t ,s . t .  0≤ α i + d ≤ C .(1 0 )其最优解为α i , n e w =m i n  m a x α i -y i wTx i -1Q i i,( )0 ,( )C . ( 1 1 )若 αi 为当前值, 而 α i , n e w 是更新后的值, 则:w ← w + ( α i , n e w - α i ) y i x i .(1 2 )
    3. 2  基于显式特征映射的高效非线性S VM将{Φ K ( x i ) , y i }i =1 作为线性S VM 的输入, 从而可将线性S VM 的高效求解算法应用到非线性S VM上. 这种情况下, 决策函数 f 为 f ( x ) = wT ΦK ( x ). 相应的迭代为α i , n e w =m i n  m a x α i -y i wT ΦK ( x i ) -1Q i i,( )0 ,( )C ,w ← w + ( α i , n e w - α i ) y i Φ K ( x i ) ,其中,Q i i = 〈 Φ K ( x i ) , Φ K ( x i ) 〉 y i y i .注5.假设 Φ K ( x ) 的维数为 p , 那么上述方法每次迭代需要 O (p ) 次操作 . 而标准的非线性 S VM 的复杂度为 O (3 ) , 为样本的数目. 因此对于大规模分类问题, 当特征映射 Φ K ( x ) 的维数适中时, 相比于标准非线性 S VM 算法, 本文所提出的算法求解效率将显著提高 .
    3. 3  显式特征映射的稀疏保持性由 Φ K ( x ) 的定义可知其维数为 Cn + mm, 故当原始数据的维数 n 很大或近似高斯核的阶数 m 很大时,特征映射后的数据的维数较大 . 如果原始数据本身具有一定的稀疏性, 那么映射后的数据仍会保持一定的稀疏性. 假定阶数 m =2 , 设维数为 n 维的实例x 中有 n~维的属性值为0. 由式(7 ) 可知, Φ 1 ( x ) 中为0 的特征的个数为 n~ .在 Φ 2 ( x ) 中则有 n n~ - C n~2 为 0.因此 Φ K ( x ) 有 n~ +n n~ - C n~2 维的值为 0. 如假设 n =2 0 , 当数据稠密时, 用2阶近似高斯核映射后维数为2 3 1. 若该实例中有 5 个属性为 0 , 则映射后的特征向量中将有 9 5 个值为 0. 由此可见, 显式特征映射具有稀疏保持性 . 可使特征映射的计算和 S VM 的求解简便有效.
    3. 4  预   测如果采用近似高斯核的显式特征映射, 其决策函数为 f ( x ) = wT ΦK ( x ) . 对测试样本 x 进行预测需要 O ( n^ ) 次操作,n^ 为 Φ K (x ) 中非0特征的个数. 如果采用高斯, 决策函数为 f ( x ) =∑#S Vi =1K g a u s s ( x i , x )α i , 预测复杂度为 O ( n ×#S V ) , #S V 表示支持向量的数目. 可见, 采用高斯核的非线性S VM 的预测复杂度随着支持向量的数目线性增长. 对于大规模训练数据, 支持向量的规模可能较大. 而通过选择适当的近似阶数 m , 基于近似高斯核显式映射的非线性S VM 的预测复杂度比普通高斯核的非线性S VM低很多 .
    4  实验结果与分析
本节将通过实验验证所提出的方法的精确性与有效性. 实验均是在2 . 2G B  AMD  O p t e r o n  P r o c e s s o r6 1 7 4C P U , 3 0G B  D D R 3内存的机器上运行的.本文采用与文献[1 2 ] 相同的实验设定, 并应用相同的数据集. 数据集的描述如表1所示. 其中,n是属性维数,n-是非0属性数目的平均值.  是训练数据的数目. t 为测试数据的数目. 本文实验考虑阶数 m =2 的情况, 则近似高斯核的形式为K G a u s s - 2 ( x , y ) =e- γ ( x2 +y2 ) ∑2k =02kγk? k ! ∑| α |= kCkα xαyα ,(1 3 )其中,γ =1 ? ( 2 σ ) . 以 下 实 验 将 对 比 L I N E AR[ 2 1 ] ,P O L Y - 2[ 1 2 ] ,K E R N E L[ 2 2 ] 和本文所提出 GAU S S- 2 ,详情如下:1 ) L I N E A R 、 线性 S VM. 代码为 L I B L I N E A R[ 2 1 ] .2 ) P O L Y - 2 、 构造2次多项式核 K P o l y - 2 = (γ xTy +1 )2的显式特征映射, 将数据映射到显式表示的特征 空 间, 再 采 用 高 效 线 性 S VM 求 解 算 法. 文献[1 2 ] 提供该方法的代码 . 该代码是 L I B L I N E AR的扩展, 计算 Φ ( x ) 是在训练时进行的.3 ) K E R N E L 、 普通高斯核的非线性 S VM , 即K G a u s s =e x p ( - γ x - y 2 ) , 代码为 L I B S VM [ 2 2 ] .4 ) GAU S S - 2 、本 文 提 出 的 算 法 . 调 用L I B L I N E AR. 但与 P O L Y - 2 不同的是, 训练前先计算所 有 Φ ( x 1 ) , Φ ( x 2 ) ,…, Φ ( x ) ,不 需 要 对L I B L I N E AR 代码进行修改 . 这样实现仅仅是为了简单, 尽管由于缓存 - 内存 - C P U 速度问题, 可能使效率受一定影响( 参见文献[1 2] 中3. 4 节的分析) .4 种算法中参数 C ∈ { 20 , …,21 0 } 和 γ ∈ {2-1 0 ,…,25 } 都通过5折交叉验证进行选择(L I N E AR 没有参数 γ ) .T a b l e  1 B e n c h m a r k  D a t a s e t s表 1  实验所用标准数据集D a t a s e t s   n n- ta 9 a 1 2 3   1 3. 9   3 2   5 6 1   1 6   2 8 1i j c n n 2 2 1 3. 0   4 9   9 9 0 9 1   7 0 1c o v t y p e   5 4 1 1. 9   4 6 4   8 1 0 1 1 6   2 0 2m n i s t 3 8   7 5 2 1 6 8. 2   1 1   9 8 2 1 9 8 4r e a l - s i m   2 0   9 5 8   5 1. 5   5 7   8 4 8   1 4   4 6 1w e b s p a m   2 5 4 8 5. 1   2 8 0   0 0 0 7 0   0 0 04. 1  精度与效率4种方法的测试精度和训练时间分别如表2和表3所示. 首先考虑L I N E AR和 K E R N E L的结果.从表 2 可知, 在所有 6 个数据集上, K E R N E L 的精度都高于 L I N E AR ; 而从表 3 可知, K E R N E L 的训练时间比L I N E AR长很多.然后再看 GAU S S - 2的性能. 从表2可以看出,GAU S S - 2 与 K E R N E L 的分类性能相近, 且从表 3可看出, 相比于 K E R N E L , GAU S S - 2 的计算效率显著提高 . 具体地, 在a 9 a , i j c n n , m n i s t 3 8 , r e a l- s i m 和w e b s p a m 数据集上, 本文方法的精度与 K E R N E L相差无几 . 在 c o v t y p e 数据集上, 精度不如 K E R N E L.原因是阶数 m =2对这个数据集是不够的. 实际上,当考虑 m =3时, 此时 GAU S S - 2在该数据集上的精度为8 2 . 4 8% , 提高2 . 4%. 在个别数据集上精度不如普通高斯核 S VM , 但训练时间上的优势是显著的, 因而本文所提出的方法提供了一个效率和精度之间的很好折中 .最后比较算法 GAU S S - 2 和 P O L Y - 2. 从表 2 可以看出, 在所有 6 个数据集上有 4 个 GAU S S - 2 在精度上比 P O L Y - 2 高 . 尽管前面所述本文计算特征映射的实现方式不如 P O L Y - 2 高效, 但 GAU S S - 2的训练时间在 4 ? 6 个数据集上比 P O L Y - 2 的短 . 原因是 GAU S S - 2的收敛速度往往 P O L Y - 2快, 这可以从图1得到验证. 从图1可知 GAU S S - 2的迭代次数在5 ? 6 个数据集上比 P O L Y - 2 少 .上述实验表明, 本文方法能提高非线性 S VM 的求解效率, 并保证算法的精确性 .
    5  结    语
    为了应用高效线性S VM 算法求解大规模非线性S VM 分类问题, 本文引入近似高斯核. 首先, 度量近似高斯核与高斯核的偏差上界, 从理论上说明近似高斯核的合理性. 然后, 对近似高斯核的再生核希尔伯特空间进行精确刻画, 由此能对 S VM 解的结构进行精确描述, 增强模型的可解释性, 为刻画S VM 的学习性能带来帮助. 最后, 显式构造近似高斯核的特征映射, 从而能应用线性S VM 高效算法来求解非线性S VM. 实验进一步验证所提出的方法合理性及高效性.进一步工作将研究近似高斯核在其他核方法中的应用及其泛化理论.
    参 考 文 献[ 1 ] V a p n i k  V. T h e  N a t u r e  o f  S t a t i s t i c a l  L e a r n i n g   T h e o r y [ M ] .B e r l i n : S p r i n g e r , 2 0 0 0[ 2 ] C r i s t i a n i n i  N , S h a w e - T a y l o r  J .A n  I n t r o d u c t i o n  t o  S u p p o r tV e c t o r  M a c h i n e s  a n d  O t h e r  K e r n e l - B a s e d  L e a r n i n g   M e t h o d s[ M ] . C a m b r i d g e , UK : C a m b r i d g e  U n i v e r s i t y   P r e s s , 2 0 0 0[ 3 ] Z h a n g   X u e g o n g . I n t r o d u c t i o n  t o  s t a t i s t i c a l  l e a r n i n g   t h e o r ya n d  s u p p o r t  v e c t o r  m a c h i n e [ J ] .A c t a  A u t o m a t i c a  S i n i c a ,2 0 0 0 , 2 6 ( 1 ) : 3 2 - 4 2 ( i n  C h i n e s e )( 张学工.关于统计学习理论与支持向量机[ J ] .自动化学报, 2 0 0 0 , 2 6 (1 ) : 3 2 - 4 2 )[ 4 ] Z h a n g   T o n g .S o l v i n g   l a r g e  s c a l e  l i n e a r  p r e d i c t i o n  p r o b l e m su s i n g   s t o c h a s t i c  g r a d i e n t  d e s c e n t  a l g o r i t h m s [C ] ? ? P r o c  o f  t h e2 1 s t  I n t  C o n f  o n  M a c h i n e  L e a r n i n g .S a n  F r a n c i s c o , C A :M o r g a n  K a u f m a n n , 2 0 0 4 : 1 6 - 1 2 3[ 5 ] S h a l e v - S h w a r t z  S , S i n g e  Y , S r e b r o  N , e t  a l .P e g a s o s :p r i m a l  e s t i m a t e d  s u b - g r a d i e n t  s o l v e r  f o r  S VM [ J ] .M a t h e m a t i c a l  P r o g r a mm i n g , 2 0 1 1 , 1 2 7 ( 1 ) : 3 - 3 0[ 6 ] J o a c h i m s  T. T r a i n i n g   l i n e a r  S VM s  i n  l i n e a r  t i m e [ C ] ? ? P r o co f  t h e  1 2 t h  A CM C o n f  o n  K n o w l e d g e  D i s c o v e r y   a n d  D a t aM i n i n g .N e w Y o r k : A CM : 2 0 0 6 : 2 1 7 - 2 2 6[ 7 ] S m o l a  A , V i s h w a n a t h a n  S , L e  Q.B u n d l e  m e t h o d s  f o rm a c h i n e  l e a r n i n g [ C ] ? ? A d v a n c e s  i n  N e u r a l  I n f o r m a t i o nP r o c e s s i n g   S y s t e m s  2 0. C a m b r i d g e , MA : M I T  P r e s s, 2 0 0 8 :1 3 7 7 - 1 3 8 4[ 8 ] L i n  C  J , W e n g   R  C , K e e r t h i  S. T r u s t  r e g i o n  n e w t o n  m e t h o df o r  l a r g e - s c a l e  l o g i s t i c  r e g r e s s i o n [ J ] .J o u r n a l  o f  M a c h i n eL e a r n i n g   R e s e a r c h , 2 0 0 8 , 9 : 6 2 7 - 6 5 0[ 9 ] C h a n g   K W , H s i e h  C  J , L i n  C  J . C o o r d i n a t e  d e s c e n t  m e t h o df o r  l a r g e - s c a l e  L 2 - l o s s  l i n e a r  S u p p o r t  V e c t o r  M a c h i n e s [ J ] .J o u r n a l  o f  M a c h i n e  L e a r n i n g   R e s e a r c h , 2 0 0 8 , 9 : 1 3 6 9 - 1 3 9 8[ 1 0 ] H s i e h  C  J , C h a n g   K W , L i n  C  J .A  d u a l  c o o r d i n a t e  d e s c e n tm e t h o d  f o r  L a r g e - s c a l e  l i n e a r S VM [ C ] ? ? P r o c  o f  t h e  2 5 t h  I n tC o n f  o n  M a c h i n e  L e a r n i n g .S a n  F r a n c i s c o , C A : M o r g a nK a u f m a n n , 2 0 0 8 : 4 0 8 - 4 1 5[ 1 1 ] Y u  H F , H u a n g   F  L , L i n  C  J .D u a l  c o o r d i n a t e  d e s c e n tm e t h o d s  f o r  l o g i s t i c  r e g r e s s i o n  a n d  m a x i m u m  e n t r o p y   m o d e l s[ J ] .M a c h i n e  L e a r n i n g , 2 0 1 1 , 8 5 ( 1 ? 2 ) : 4 1 - 7 5[ 1 2 ] C h a n g   Y W , H s i e h  C  J , C h a n g   K W , e t  a l .T r a i n i n g   a n dt e s t i n g   l o w - d e g r e e  p o l y n o m i a l  d a t a  m a p p i n g s  v i a  l i n e a r S VM[ J ] .J o u r n a l  o f  M a c h i n e  L e a r n i n g   R e s e a r c h , 2 0 1 0 , 1 1 :1 4 7 1 - 1 4 9 0[ 1 3 ]D i n g   L i z h o n g, L i a o  S h i z h o n g .A p p r o x i m a t e  m o d e l  s e l e c t i o no n  r e g u l a r i z a t i o n  p a t h  f o r  s u p p o r t  v e c t o r  m a c h i n e s [ J ] .J o u r n a l  o f  C o m p u t e r  R e s e a r c h  a n d  D e v e l o p m e n t , 2 0 1 2 , 4 9( 6 ) : 1 2 4 8 - 1 2 5 5 ( i n  C h i n e s e )( 丁立中,廖士中 . 基于正则化路径的支持向量机近似模型选择[ J ] . 计算机研究与发展, 2 0 1 2 ,4 9 ( 6 ) : 1 2 4 8 - 1 2 5 5 )[ 1 4 ]D i n g   L i z h o n g, L i a o  S h i z h o n g .KMA - α : A  k e r n e l  m a t r i xa p p r o x i m a t i o n  a l g o r i t h m  f o r  s u p p o r t  v e c t o r  m a c h i n e s .J o u r n a l  o f  C o m p u t e r  R e s e a r c h  a n d  D e v e l o p m e n t , 2 0 1 2 , 4 9( 4 ) : 7 4 6 - 7 5 3 ( i n  C h i n e s e( 丁立中,廖士中 .KMA - α :一个支持向量机核矩阵的近似计算算法[ J ] . 计算机研究与发展, 2 0 1 2 , 4 9 (4 ) : 7 4 6 - 7 5 3 )[ 1 5 ] R a h i m i  A , R e c h t  B.R a n d o m  f e a t u r e s  f o r  l a r g e - s c a l e  k e r n e lm a c h i n e s [ C ] ? ? A d v a n c e s  i n  N e u r a l  I n f o r m a t i o n  P r o c e s s i n gS y s t e m s  1 9. C a m b r i d g e , MA : M I T  P r e s s , 2 0 0 7 : 1 1 7 7 - 1 1 8 4[ 1 6 ] R a h i m i  A , R e c h t  B.U n i f o r m  a p p r o x i m a t i o n  o f  f u n c t i o n sw i t h  r a n d o m  b a s e s [ C ] ? ? P r o c  o f  t h e  4 6 t h  A n n u a l  A l l e r t o nC o n f  o n  C o mm u n i c a t i o n , C o n t r o l , a n d  C o m p u t i n g .L o sA l a m i t o s , C A : I E E E  C o m p u t e r  S o c i e t y , 2 0 0 8 : 5 5 5 - 5 6 1[ 1 7 ] V e d a l d i  A , Z i s s e r m a n  A.E f f i c i e n t  a d d i t i v e  k e r n e l s  v i ae x p l i c i t  f e a t u r e  m a p s [ J ] . I E E E  T r a n s  o n  P a t t e r n  A n a l y s i sa n d  M a c h i n e  I n t e l l i g e n c e , 2 0 1 2 , 3 4 ( 3 ) : 4 8 0 - 4 9 2[ 1 8 ] Y a n g   C h a n g j i a n g , D u r a i s w a m i  R , D a v i s  L.E f f i c i e n t  k e r n e lm a c h i n e s  u s i n g   t h e  i m p r o v e d  f a s t  G a u s s  t r a n s f o r m[ C ] ? ?A d v a n c e s  i n  N e u r a l  I n f o r m a t i o n  P r o c e s s i n g   S y s t e m s  1 6.C a m b r i d g e , MA : M I T  P r e s s , 2 0 0 4 : 1 5 6 1 - 1 5 6 8[ 1 9 ] C a o  H u i , N a i t o  T , N i n o m i y a  Y.A p p r o x i m a t e  R B F  k e r n e lS VM  a n d  I t s  a p p l i c a t i o n s  i n  p e d e s t r i a n  c l a s s i f i c a t i o n [ C ] ? ?P r o c  o f  t h e  1 s t  I n t  W o r k s h o p   o n  M a c h i n e  L e a r n i n g   f o rV i s i o n - b a s e d  M o t i o n  A n a l y s i s . B e r l i n : S p r i n g e r , 2 0 0 8 : 1 2 0 -1 2 9[ 2 0 ] S t e i n w a r t  I , H u s h  D , S c o v e l  C. A n  e x p l i c i t  d e s c r i p t i o n  o f  t h er e p r o d u c i n g   k e r n e l  H i l b e r t  s p a c e s  o f  G a u s s i a n  R B F  k e r n e l s[ J ] . I E E E  T r a n s  o n  I n f o r m a t i o n  T h e o r y , 2 0 0 6 , 5 2 ( 1 0 ) :4 6 3 5 - 4 6 4 3[ 2 1 ] F a n  R , C h a n g   K W , H s i e h  C  J . L I B L I N E A R : A  l i b r a r y   f o rl a r g e  l i n e a r  c l a s s i f i c a t i o n [ J ] . J o u r n a l  o f  M a c h i n e  L e a r n i n gR e s e a r c h , 2 0 0 8 , 9 : 1 8 7 1 - 1 8 7 4[ 2 2 ] C h a n g   C  C , L i n  C  J . L I B S VM : A  l i b r a r y   f o r  s u p p o r t  v e c t o rm a c h i n e s [ E B ? O L ] .2 0 0 1 [ 2 0 0 7 - 0 8 - 0 6 ] .h t t p : ? ? www. c s i e .n t u. e d u. t w ? ~c j l i n ? l i b s v m
 
[返回]
上一篇:增量和减量式标准支持向量机的分析
下一篇:权威消息发布CSCD2015-2016期刊列表