欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
EI期刊论文
当前位置:首页 > EI期刊论文
局部保持对支持向量机
来源:一起赢论文网     日期:2015-04-23     浏览数:2900     【 字体:

 摘   要   多面支持向量机( m u l t i p l e  s u r f a c e  s u p p o r t  v e c t o r  m a c h i n e , MS S VM ) 分类方法作为传统支持向量机(s u p p o r t  v e c t o r  m a c h i n e , S VM ) 的拓展在模式识别领域成为新的研究热点之一, 然而已有的MS S VM 方法并没有充分考虑到训练样本之间的局部几何结构以及所蕴含的判别信息. 因此将保局投影(l o c a l i t y  p r e s e r v i n g  p r o j e c t i o n s , L P P ) 的基本思想引入到 MS S VM 中, 提出局部保持对支持向量机(l o c a l i t y  p r e s e r v i n g   t w i n  s u p p o r t  v e c t o r  m a c h i n e, L P T S VM ) . L P T S VM 方法不但继承了 MS S VM 方法具有的异或( X O R ) 问题处理能力, 而且充分考虑样本间的局部几何结构, 体现样本间所蕴含的局部判别信息, 从而在一定程度上提高了分类精度. 主成分分析(p r i n c i p a l  c o m p o n e n t  a n a l y s i s , P C A ) 方法克服了L P T S VM 奇异性问题, 保证了L P T S VM 方法的有效性. 非线性情况下, 通过经验核映射方法构造了非线性L P T S VM. 在人造数据集和真实数据集上的测试表明L P T S VM 方法具有较好的泛化性能.

关键词   分类; 多面支持向量机; 保局投影; 主成分分析; 经验核映射
    对于二分类 问题, 传统 支 持向 量 机 ( s u p p o r tv e c t o r  m a c h i n e , S VM ) 依据大间隔原则生成单一的分类超平面 [1 ] . 存在的缺陷是计算复杂度高且没有充分考虑样本的分布 [2 ] . 近年来, 作为S VM 的拓展方向之一, 多面支持向量机( m u l t i p l e  s u r f a c e  S VM ,MS S VM ) 分类方法正逐渐成为模式识别领域新的研究热点. 该类方法的研究源于 M a n g a s a r i a n和 W i l d在 T P AM I上提出的广义特征值近似支持向量机(g e n e r a l i z e d  e i g e n v a l u e  p r o x i m a l  S VM , G E P S VM )[ 3 ] .G E P S VM 鄙弃了近似支持向量机(p r o x i m a l  S VM ,P S VM ) 中平行约束的条件, 优化目标要求超平面离本类样本尽可能的近, 离他类样本尽可能的远, 问题归结为求解2个广义特征值问题. 与S VM 相比, 除了速 度 上 的 优 势, G E P S VM 能 较 好 地 处 理 异 或( X O R ) 问题 [4 ] .
    基于 G E P S VM , 近年 发展了 许多MS S VM 分类方法, 如对支持向量机(t w i n  S VM ,T S VM )[ 5 ] 、 投影对支持向量机(p r o j e c t i o n  T S VM ,P T S VM )[ 6 ] 、 多权矢量投影对支持向量机 (m u l t i -w e i g h t  v e c t o r  p r o j e c t i o n  S VM , MV P S VM )[ 7 ]等.然而, 分析发现, 已有的 MS S VM 分类方法在学习过程中并没有充分的考虑样本之间的局部几何结构及所蕴含的鉴别信息.为了有效揭示样本内部蕴含的局部几何结构,文献[8 - 1 1 ] 分别提出了几种具有一定代表性的流行学习方法: 等距映射(i s o m e t r i c  m a p p i n g , I M ) 、 局部线性嵌入(l o c a l l y   l i n e a r  e m b e d d i n g, L L E ) 、 拉普拉斯特征映射( L a p l a c i a n  e i g e n m a p , L E ) 和局部保持投影(l o c a l i t y  p r e s e r v i n g  p r o j e c t i o n s , L P P ) . 特 别 是L P P方法不但可以保持样本间局部几何结构, 而且还可以克服其他几种方法难以在新的测试样本上获得低维的投影映射的问题, 同时容易被非线性嵌入,从而发现高维非线性流行结构 [1 2 ] . 为了充分发挥L P P方法的长处, 文献[1 3 ] 将 L P P方法与S VM 相结 合,提 出 了 拉 普 拉 斯 支 持 向 量 机 ( L a p l a c i a nS VM , L S VM ). 文献[1 4 ] 基于 L P P思想, 定义了局部保持类散度矩阵, 并在此基础上提出了最小类局部保 持 方 差 支 持 向 量 机 ( m i n i m u m  c l a s s  l o c a l i t yp r e s e r v i n g   v a r i a n c e  S VM , MC L P V S VM ). 然 而,L S VM 和 M C L P V S VM 都属于单面支持向量机范畴.
    因此, 本文将L P P思想引入到 MS S VM 分类方法中, 提出局部信息保持的对支持向量机(l o c a l i t yp r e s e r v i n g   t w i n  S VM , L P T S VM ) . 该方法具有如下优势: 继承了 MS S VM 分类方法的特色, 如线性模式下对 X O R 类数据集的分类能力; 首次将 L P P思想引入到 MS S VM 分类方法中, 充分考虑了蕴含在样本内部局部几何结构中的鉴别信息, 从而在一定程度上可以提高算法的泛化性能; 通过主成分分析(p r i n c i p a l  c o m p o n e n t  a n a l y s i s , P C A ) 降维方法可以很好地消除奇异性问题, 进而保证算法的稳定性; 采 用 经 验 核 映 射 ( e m p i r i c a l  k e r n e l  m a p p i n g ,E KM )[ 1 5 - 1 6 ] 方法,L P T S VM 可以很容易进行非线性嵌入, 得到非线性分类方法.
1 T S VM 和 P T S VM 的简单回顾
在已 有 的 MS S VM 分 类 方 法 中, T S VM 和P T S VM 在泛化性能上要优于其他分类方法 [5 - 6 ]. 因此, 本文选择这2种多面支持向量机分类方法作为比较分析对象.
1. 1 T S VM
    给定2类 n 维的 m 个训练样本点, 分别用 m 1 ×n 的矩阵 A 和 m 2 × n 的矩阵 B 表示+1类和-1类, 这里 m 1 和 m 2 分别是两类样本的数目 . T S VM的目标是在 n 维空间中寻找 2 个超平面:xT w1 + b 1 =0 ;xT w2 + b 2 =0.(1要求每个类超平面离本类样本尽可能近, 离他类样本尽可能远.第1类超平面的优化准则为m i n12A w 1 + e 1 b 12 + C1 eT2 ξ ,s . t .- ( B w 1 + e 2 b 1 ) + ξ ≥ e 2 , ξ ≥0 ,(2 )其中,• 表示 L 2 范数, C 1 是惩罚参数,ξ 为损失变量,e 1 和 e 2 是2个实体为1的列向量, A = [ x( 1 )1, …,x( 1 )m 1 ]T ,B = [ x( 2 )1, …,x( 2 )m 2 ]T ,x( i )j表示第 i 类的第 j 个样本.显然, T S VM 优化目标函数中确实没有考虑到训练样本内部局部几何结构中蕴含的鉴别信息.
1. 2 P T S VMP T S VM 的目标也是在 n 维空间中寻找2个投影轴 w 1 和 w 2 , 要求本类样本投影后尽可能聚集, 同时他类样本尽可能分散. P T S VM 对应的2个决策超平面为xT w1 + b 1 =0 ,xT w2 + b 2 =0.(3 )需要注意的是, 这里的偏置 b1 =-1m 1eT1 A w 1 , b 2 =-1m 2eT2 B w 2 .第1类超平面的优化准则为m i n12wT1 S 1 w 1 + C 1 eT2 ξ ,s . t .- B w 1 -1m 1e 2 eT1 A w( )1 + ξ ≥ e 2 , ξ ≥0 ,( 4 )其中,S 1 是第1类样本的类内方差.显然, P T S VM 的优化目标函数考虑的是样本的散度, 类内方差 S 1 反应的是样本的全局分布, 不是样本之间的局部几何结构. 因此, 该方法也没有考虑蕴含在样本之间局部鉴别信息.
    2局部保持对支持向量机(L P T S VM )
    因为 L P P方法可以有效地保持样本之间的局部几何结构和局部鉴别信息, 所以本文的 L P T S VM方法通过引入 L P P的思想以达到保持样本内在的局部几何结构是合理的.
    2. 1  线性L P T S VM定义1[ 1 4 ]. 假定X 1 = A , X 2 = B , 则第 l ( l =1 , 2 )类样本的局部保持类内散度矩阵为 Zl = XTl ( Dl -W l ) X l. 其中W l ( W li j =e x p( - xli - xlj2? t ) , t 为热核参 数 )是 第 l 类 样 本 X l 的 权 值 矩 阵, Dl( )j是对角矩阵.局部保持类内散度矩阵 Zl 是对称的正半定矩阵, 其思想源于L P P , 它反映了第 l 类样本间的内在局部几何结构 [1 4 ] .定义2.线性 L P T S VM 对应的第1类超平面优化准则为m i n12wT1 Z 1 w 1 + C 1 eT2 ξ 2 ,s . t .- B w 1 -1m 1e 2 eT1 A w( )1 + ξ 2 ≥ e 2 , ξ 2 ≥0. ( 5 )第2类超平面优化准则为m i n12wT2 Z 2 w 2 + C 2 eT1 ξ 1 ,s . t . A w 2 -1m 2e 1 eT2 B w 2 + ξ 1 ≥ e 1 , ξ 1 ≥0.(6 )定理1.线性L P T S VM 优化准则式(5 ) 对应的对偶问题为m i n12αT   B - 1m 1e 2 eT1( )A   Z -11 ×BT - 1m 1ATe 1 eT( )2 α - eT2 α ,s . t . 0≤ α ≤ C 1 e 2 .(7 )优化准则式(6 ) 对应的对偶问题为m i n12γT   A - 1m 2e 1 eT2( )B   Z -12 ×AT - 1m 2BTe 2 eT( )1 γ - eT2 γ ,s . t . 0≤ γ ≤ C 2 e 1 .(8 )证明.考虑线性 L P T S VM 的优化准则式(5 ) ,式(5 ) 对应的拉格朗日函数为L ( w 1 , α ,β , ξ 2 ) = 12wT1 Z 1 w 1 + C 1 eT2 ξ 2 -αT- B w 1 -1m 1e 2 eT1 A w( )1 + ξ 2 - e( )2 - βTξ2 , ( 9 )其中,α = ( α 1 , …, α m 2 )T ,β = ( β 1 , …, β m 2 )T是非负拉格朗日系数.根据 K a r u s h - K u h n - T u c k e r ( K K T )[ 1 7 ] 条件可得: L w 1 =0w 1 =- Z -11 BT - 1m 1ATe 1 eT( )2 α ,( 1 0 ) Lξ2 =0C 1 e 2 - α - β =0 ,(1 1 )α ≥0 , β ≥0.(1 2 )将式(1 0 ) ( 1 1 ) ( 1 2 ) 代入式( 9 ) , 得式( 7 ) 成立 .同理可证得式(8 ) 成立, 且:w 2 = Z -12 AT - 1m 2BTe 2 eT( )1 γ .(1 3 )证毕.通过求解定理1中2个对偶问题, 可以分别求得拉格朗日系数 α 和 γ , 并在此基础上求出2类样本 的 投 影 轴 w 1 和 w 2 .类 似 于 P T S VM ,线 性L P T S VM 的2个决策超平面为xT w1 + b 1 =0 ,xT w2 + b 2 =0 ,(1 4 )其中, 偏置 b1 =-1m 1eT1 A w 1 , b 2 =-1m 2eT2 B w 2 .线性L P T S VM 的决策函数为l a b e l ( x ) =a r g   m i ni =1 , 2{d i } =d 1  x ∈ 第1类样本,d 2  x ∈ 第2类样本{,(1 5 )其中,d i =| wTi x + b i | , |• | 表示绝对值.图1描述了 T S VM , P T S VM 和 L P T S VM 在人造数据集上的决策超平面. 显然, L P T S VM 明显区别于 T S VM 和 P T S VM. L P T S VM 的2个超平面反映了2类样本的内在局部流行结构; 而 T S VM与P T S VM 类似, 它们反映的都是每类样本分布的平均信息. 尽管3种算法对图1中人造数据集都可以得到1 0 0%学习精度, 但从泛化性能层面上讲,L P T S VM 明显优于其他2种算法. 图1也进一步证明了 T S VM 和P T S VM 确实没有考虑蕴含在样本间局部几何结构中的鉴别信息.
    2. 2  线性 L P T S VM 奇异性问题从2. 1节中式(1 0 ) ( 1 3 ) 可知, L P T S VM 在求解过程中需要计算局部保持类内散度矩阵 Zl ( l =1 , 2 )的逆矩阵, 而 Zl 是正半定矩阵, 因此, 该方法不是严格的凸规划问题( 强凸问题) , 特别是在小样本情况下确实存在矩阵 Zl 的奇异性 . 类似于文献[ 6 , 1 4 ] ,P C A 降维方法可以用来解决L P T S VM 奇异性.该方法的主要思想是通过 P C A 方法将原样本降维到低维空间, 使得 Zl 非奇异. 考虑 L P T S VM原始优化问题式(5 ) , 定义第1类样本的散度矩阵:S 1 =∑x ∈ A(x - m-1 ) ( x - m-1 )T ,(1 6 )其中, m-1 =1m 1 ∑x ∈ A x是第1类样本的均值. 令 S 1 的非零特征值对应特征向量张成的非零空间记为 Ψ ,零特征值对应特征向量张成的零空间记为 Π .定理2.令 w 1 = μ 1 + ν1 ( w 1 ∈Rn ,μ 1 ∈ Ψ , ν 1 ∈Π ) , 则优化问题式( 5 ) 等价于m i n12 μT1 Z 1 μ 1 + C 1 eT2 ξ 2 ,s . t .- B μ 1 -1m 1e 2 eT1 A μ( )1 + ξ 2 ≥ e 2 , ξ 2 ≥0.(1 7 )证明.因为 ν1 ∈ Π , νT1 S 1 ν 1 =0 , 所以对于第1类样本集中任意2个样本 xi , x j ( i ≠ j ) , νT1 x i = νT1 x j 成立, 即 νT1 x i = c ( c 是常数) . 又因为 Z 1 = XT1 ( D1 - W 1 )X 1 , 所以:Z 1 ν 1 = X T 1 ( D1- W1 )X 1 ν 1 =∑m 1i =1 D1i i x( 1 )i(x( 1 )i)T- ∑m 1i =1 ∑m 1j =1 W1i jx( 1 )i(x( 1 )i)( )Tν 1 =∑m 1i =1 ∑m 1i =1 W1i jx( 1 )i(x( 1 )i)Tν 1 - ∑m 1i =1 ∑m 1j =1 W1i jx( 1 )i(x( 1 )i)Tν 1 =∑m 1i =1 ∑m 1i =1 W1i jx( 1 )i - ∑m 1i =1 ∑m 1i =1 W1i jx( 1 )( ) i c =0. ( 1 8 )   令第2类样本集在 ν 1 上的投影记为 B ν 1 = τ ∈Rm 2 . 依据上述结论, 拉格朗日函数式(9 ) 变为L ( w 1 , α ,β , ξ 2 ) = 12wT1 Z 1 w 1 + C 1 eT2 ξ 2 -αT- B w 1 -1m 1e 2 eT1 A w( )1 + ξ 2 - e( )2 - βTξ2 =12 (μ 1 + ν 1 )T Z1 ( μ 1 + ν 1 ) + C 1 eT2 ξ 2 +αT   B - 1m 1e 2 eT1( )A (μ 1 + ν 1 ) - αT (ξ2 - e 2 ) - βTξ2 =12 (μT1 Z 1 μ 1 + μT1 Z 1 ν 1 + νT1 Z 1 μ 1 + νT1 Z 1 ν 1 ) +C 1 eT2 ξ 2 + αT   B - 1m 1e 2 eT1( )A μ 1 +αT   B - 1m 1e 2 eT1( )Aν 1 - αT (ξ2 - e 2 ) - βTξ2 =12 μT1 Z 1 μ 1 + C 1 eT2 ξ 2 + αT   B - 1m 1e 2 eT1( )A μ 1 +αTτ -cm 1e 2 eT1 e( )1 - αT (ξ2 - e 2 ) - βTξ2 =12 μT1 Z 1 μ 1 + C 1 eT2 ξ 2 + αT   B - 1m 1e 2 eT1( )A μ 1 +αT (τ - c e 2 ) - αT (ξ2 - e 2 ) - βTξ2 ,(1 9根据链规则, 可以很容易证明: L w1 w 1 = w *1= L μ 1 μ 1 = μ *1=0Z 1 μ * 1 + αT   B - 1m 1e 2 eT1( )A =0.(2 0 )这样, 对应于第1类样本的最优投影轴只依赖于μ 1 ∈ Ψ ( ν 1 ∈ Π 可任选) .证毕.由定理2可得, 线性 L P T S VM 原始优化问题式(5 ) 的最优解可以从约减的空间 Ψ 中寻找, 且不会丢失任何鉴别信息. 假定 S 1 有 N 个非零特征值,矩阵 P 1 的每一列为非零特征值对应的特征向量, 则根据线性几何理论,Ψ 同构于 N 维实数空间 RN, 同构映射即为转换矩阵 P 1 , 因此有:μ 1 = P 1 η 1 , μ 1 ∈ Ψ , η 1 ∈RN .(2 1 )根据式(2 1 ) , 式( 1 7 ) 可进一步转变为空间中的优化问题:m i n12ηT1 Z-1 η 1 + C 1 eT2 ξ 2 ,s . t .- B-η 1 -1m 1e 2 eT1 A-η( )1 + ξ 2 ≥ e 2 , ξ 2 ≥0.(2 2 )其中,Z-1 = PT1 Z 1 P 1 , B- =B P 1 , A-= A P 1 . 然而, 在 RN 空间中,Z-1 可能仍然奇异. 此时, 需要 P C A 方法降低到更低维空间, 直到 Z-1 非奇异为止.同理, 对于线性L P T S VM 原始优化问题式(6 )具有上述类似的P C A 降维处理过程, 以保证局部保持类内散度矩阵 Z 2 非奇异. 决 策 函 数类似 于式(1 5 ) , 只是式( 1 5) 中d i =| ηTi P i x + b i | , b 1 =-1m 1 ×eT1 A P 1 η 1 , b 2 =-1m 2eT2 B P 2 η 2 .
    2. 3  非线性L P T S VM对于非线性分类问题, 一般算法是引入非线性映射将样本从输入空间映射到高维隐形特征空间,然后利用核诡计在特征空间中执行线性算法 . 然而,类似于 P T S VM 中的类内散度矩阵 S 1 ? S 2 , L P T S VM中的局部保持类内散度矩阵 Z 1 ? Z 2 在特征空间中不易显式表示. 文献[1 5 - 1 6 ] 利用经验核映射( e m p i r i c a lk e r n e l  m a p p i n g , E KM ) 将样本从输入空间映射到经验特征空间 . 经验特征空间保持了特征空间的几何结构, 而且, 线性算法可直接在经验特征空间上运行 [1 5 - 1 6 ] . 因 此,本 文 采 用 该 方 法 构 造 非 线 性L P T S VM.首先, 构造训练样本集核矩阵 K t r a i n = [ ki j]m × m(ki j=  ( x i )T (x j ) = k ( x i , x j ) , k ( x i , x j ) 为核函数) .K t r a i n 是对称的正半定矩阵, 可分解为K t r a i n = P m × r Λ r × r P T r × m ,(2 3 )其中,r 是 K t r a i n 的秩, Λ 为对角矩阵 ( 对角元素为K t r a i n 的 r 个正特征值) , P 的每一列为正特征值对应的特征向量.然后, 使用 E KM 将训练样本从输入空间映射到经验特征空间, 公式表示为x → Λ -1 ? 2   PT (k ( x , x 1 ) , k ( x , x 2 ) , …, k ( x , x m ) )T .(2 4 )对于整个训练样本集, 则有 Xet r a i n = K t r a i n P Λ-1 ? 2 (Xet r a i n为经验特征空间中的训练样本集) . 值得注意的是,原输入空间样本的维数为 n , 而经验特征空间中样本维数为 r .最后, 以 Xet r a i n 作为新的训练样本集, 直接执行线性L P T S VM. 测试时, 用式(2 4 ) 将未知样本转换到经验特征空间后再决策.
    3  实验与分析
在人工数据集和真实数据集上分别对 T S VM ,P T S VM 与L P T S VM 进行实验. 实验环境: W i n d o w s 7操作系统,C P U 为i 3 - 2 3 5 0 M2 . 3GH z , 内存为2G B ,运行软件为 MAT L A B  7 . 1.
    3. 1  测试人造数据集人造数据集经常被用来测试算法效果 [1 3 ] , 本节分别使 用交 叉 数 据 集 和流行数 据 集 来 验 证 本 文L P T S VM 分类性能, 并与 T S VM , P T S VM 进行对比.F i g . 2 T h e  p l a n e s  g e n e r a t e d  b y   T S VM , P T S VM  a n dL P T S VM  o n “ c r o s s  p l a n e s ” d a t a s e t .图 2 T S VM , P T S VM 和 L P T S VM 在交叉数据集上产生的分类面
    3. 1. 1  测试交叉数据集相对于单面支持向量机, 线性模式下对 X O R问题的求解能力是 M S S VM 分类算法优势之一 [3 - 4 , 6 ]. 因此, 本节首先验证L P T S VM 求解X O R的能力. 图2给出类 T S VM , P T S VM 与 L P T S VM 三个分类器在交叉数据集上“c r o s s  p l a n e s ” ( X O R 的推广)[ 3 - 4 , 6 ]上的分类性能. 显然3个算法产生的分类面重合, 而且可以较好的求解 X O R问题, 并得到1 0 0%的学习精度. 这 也 进 一 步 证 明 了 本 文 L P T S VM 继 承 了MS S VM 分类算法的特色, 即线性模式下对 X O R问题的求解能力优于单面支持向量机算法.
    3. 1. 2  测试流行数据集数据集t w o - m o o n s经常被用于测试一些流行学习方法 [1 3 , 1 8 ] . 这里通过与 T S VM 和 P T S VM 方法进行比较, 测试本文方法在2种不同复杂度t w o -m o o n s数据集(t w o - m o o n s - 1 , t w o - m o o n s - 2 ) 上保持非线性局部流行结构的性能, 如图3 ( a) 、 图3(b ) 所示:实验设 计: 2 种 t w o - m o o n s 数 据 集 大 小 均 为1 0 0 , 其中正负类数据数各5 0 , 随机抽取4 0% 训练集和6 0%测试集, 重复 1 0次, 分别记录实验结果, 且将实验结果的平均值记录于表1. 参数 C 1 与 C 2 的搜索范围均为{0 . 0 0 1 , 0 . 0 1 , 0 . 1 , 1 , 1 0 , 1 0 0 , 1  0 0 0 } ,L P T S VM 中热参数 t 的搜索范围为{0 . 5 , 1 , 1 . 5 , 2 ,2 . 5 } . 核函数选用高斯核e x p ( - x i - x j2? 2σ2 ) , 核宽参数 σ 的搜索范围为{ 0 . 5 , 1 , 2 , 4 , 8 , 1 6 , 3 2 }. 采用P C A 方法将核映射后的数据集降维为1 8.从表1可以看出:1 ) L P T S VM 方法对于流行数据集的测试性能高于 T S VM 和 P T S VM , 这也进一步证明了本文方法能够更好地保持样本间非线性局部 流 行 结 构 鉴 别 信 息. 2 )对 于 t w o - m o o n s - 1 ,L P T S VM 测试精度比 T S VM 和P T S VM 平均高出1 . 5个百分点. 对于t w o - m o o n s - 2 , L P T S VM 测试精度比 T S VM 和P T S VM 平均高出3 . 9个百分点. 这表明, 当数据集的拓扑结构变得更加复杂而不规则时, 本文L P T S VM 优势更加明显.3. 2  测试真实数据集为了更全面地说明本文 L P T S VM 分类方法具有的分类性能, 在本节测试 U C I数据集, 同时与T S VM , P T S VM 进行对比, 以增加本文算法分类性能的说服力.U C I数 据 集 经 常 被 用 来 测 试 算 法 的 分 类 精度 [4 - 7 , 1 4 , 1 9 ] . 在该测试阶段, 我们抽取该数据集的1 0个 2 分 类 数 据 子 集: I o n o s p h e r e , M o n k 3 , H e a r t ,G l a s s 7 , P i m a _ i n d i a , B u p a _ l i v e r , H e p a t i t i s , V e r t e b r a l ,P a r k i n s o n s , Wd b c来分别测试 T S VM , P T S VM 和本文 L P T S VM. 对于每个数据子集, 选用5 - 折交叉验证方法 [2 0 ] . 实验结果给出了平均识别精度和训练时间. 相关参数搜索范围同3. 1. 2节实验. 表2和表3分别给出了线性模式及非线性模式下3种分类方法的测试结果. 同样,3种分类方法在非线性模式下都存在奇异性问题, 因此, 我们在实验中采用 P C A方法对经验核映射后的数据集降维. 为公平起见, 降维后的特征维数都为 m i -2 ( m i 为第 i 类训练样本数,i =1 , 2 ) .从训练时间上看: 宏观上,3种方法基本处于同样的数量级, 这主要是因为3种算法的时间复杂度主要都集中在二次规划求解上, 均为 O ( m31 + m32 ) ;微观 上,本 文 的 L P T S VM 要 略 快 于 T S VM 和P T S VM , 从实验过程上看, 这主要是因为L P T S VM二次规划求解的收敛速度略快 .从泛化性能上看: 无论是线性模式还是非线性模式, 本文的 L P T S VM 方法对未知样本的识别精度总体上均高于 T S VM 和P T S VM. 这进一步表明,考虑样本间局部结构信息确实能够一定程度上提高多面分类器的泛化性能.
    4  结    论
    本文根据已有 MS S VM 方法存在的不足, 将L P P 基本原理引入到 MS S VM 中, 提出一种全新的MS S VM 方法: 局部保持对支持向量机 L P T S VM ,该方 法 不 仅 继 承 了 MS S VM 方 法 较 好 的 异 或( X O R ) 问题的求解能力, 而且在一定程度上克服了已有 MS S VM 方法没有充分考虑训练样本间局部几何结构信息的缺陷. 在小样本情况下, P C A 方法被用来实现高维样本空间的降维处理, 从而保证了本文 L P T S VM 方法的有效性. 对于非线性分类问题, 本文采用经验核映射方法构造经验核空间, 这样,L P T S VM 方法可以直接在经验核空间中执行. 实验中选用具有代表性的 T S VM 和P T S VM 作比较, 结果表明本文L P T S VM 方法具有较好的泛化性能.
参 考 文 献[ 1 ] Y a n g   X u b i n g , C h e n  S o n g c a n.P r o x i m a l  s u p p o r t  v e c t o rm a c h i n e  b a s e d  o n  p r o t o t y p a l  m u l t i c l a s s i f i c a t i o n  h y p e r p l a n e s[ J ] . J o u r n a l  o f  C o m p u t e r  R e s e a r c h  a n d  D e v e l o p m e n t , 2 0 0 6 ,4 3 ( 1 0 ) : 1 7 0 0 - 1 7 0 5 ( i n  C h i n e s e )( 杨绪兵,陈松灿.基于原型超平面的多类最接近支持向量机[ J ] . 计算机研究与发展,2 0 0 6 , 4 3 ( 1 0 ) : 1 7 0 0 - 1 7 0 5[ 2 ] G a o  J u n , W a n g   S h i t o n g , D e n g   Z h a o h o n g .G l o b a l  a n d  l o c a lp r e s e r v i n g   b a s e d  s e m i - s u p e r v i s e d  s u p p o r t  v e c t o r  m a c h i n e[ J ] .A c t a  E l e c t r o n i c a  S i n i c a , 2 0 1 0 , 3 8 ( 7 ) : 1 6 2 6 - 1 6 3 3 ( i nC h i n e s e )( 皋军,王士同,邓赵红 . 基于全局和局部保持的半监督支持向量机[ J ] . 电子学报, 2 0 1 0 , 3 8 (7 ) : 1 6 2 6 - 1 6 3 3 )[ 3 ] M a n g a s a r i a n  O  L , W i l d  E.M u l t i s u r f a c e  p r o x i m a l  s u p p o r tv e c t o r  m a c h i n e  c l a s s i f i c a t i o n  v i a  g e n e r a l i z e d  e i g e n v a l u e s [ J ] .I E E E  T r a n s  o n  P a t t e r n  A n a l y s i s  a n d  M a c h i n e  I n t e l l i g e n c e ,2 0 0 6 , 2 8 ( 1 ) : 6 9 - 7 4[ 4 ] Y e  Q i a o l i n , Z h a o  C h u n x i a , C h e n  X i a o b o . A  f e a t u r e  s e l e c t i o nm e t h o d  f o r  TWS VM  v i a  a  r e g u l a r i z a t i o n  t e c h n i q u e [ J ] .J o u r n a l  o f  C o m p u t e r  R e s e a r c h  a n d  D e v e l o p m e n t , 2 0 1 1 , 4 8( 6 ) : 1 0 2 9 - 1 0 3 7 ( i n  C h i n e s e )( 业巧林,赵春霞,陈小波 . 基于正则化技术的对支持向量机特征选择算法[ J ] . 计算机研究与发展, 2 0 1 1 , 4 8 (6 ) : 1 0 2 9 -1 0 3 7 )[ 5 ] J a y a d e v a , K h e m c h a n d a i  R , C h a n d r a  S. T w i n  s u p p o r t  v e c t o rm a c h i n e s  f o r  p a t t e r n  c l a s s i f i c a t i o n [ J ] .I E E E  T r a n s  o nP a t t e r n  A n a l y s i s  a n d  M a c h i n e  I n t e l l i g e n c e , 2 0 0 7 , 2 9 ( 5 ) :9 0 5 - 9 1 0[ 6 ] C h e n  X  B ,Y a n g J , Y e  Q  L , e t  a l . R e c u r s i v e  p r o j e c t i o n  t w i ns u p p o r t  v e c t o r  m a c h i n e  v i a  w i t h i n - c l a s s  v a r i a n c e  m i n i m i z a t i o n[ J ] . P a t t e r n  R e c o g n i t i o n , 2 0 1 1 , 4 4 ( 1 0 ) : 2 6 4 3 - 2 6 5 5[ 7 ] Y e  Q  L , Z h a o  C  X , Y e  N , e t  a l .M u l t i - w e i g h t  v e c t o rp r o j e c t i o n  s u p p o r t  v e c t o r  m a c h i n e s [ J ] . P a t t e r n  R e c o g n i t i o nL e t t e r s , 2 0 1 0 , 3 1 ( 1 1 ) : 2 0 0 6 - 2 0 1 1[ 8 ] T e n e n b a u m  J  B , S i l v a  V D , L a n g f o r d  J  C. A  g l o b a lg e o m e t r i c  f r a m e w o r k  f o r  n o n l i n e a r  d i m e n s i o n a l i t y   r e d u c t i o n[ J ] . S c i e n c e , 2 0 0 0 , 2 9 0 ( 5 5 0 0 ) : 2 3 1 9 - 2 3 2 3[ 9 ] R o w e i s  S  T , S a u l  L  K.N o n l i n e a r  d i m e n s i o n a l i t y   r e d u c t i o nb y   l o c a l l y l i n e a r  e m b e d d i n g [ J ] . S c i e n c e , 2 0 0 0 , 2 9 0 ( 5 5 0 0 ) :2 3 2 3 - 2 3 2 6[ 1 0 ] B e l k i n  M , N i y o g i  P. L a p l a c i a n  e i g e n m a p s  f o r  d i m e n s i o n a l i t yr e d u c t i o n  a n d  d a t a  r e p r e s e n t a t i o n [ J ] .N e u r a l  C o m p u t a t i o n ,2 0 0 3 , 1 5 ( 6 ) : 1 3 7 3 - 1 3 6 9[ 1 1 ] H e  X  F , N i y o g i  P.L o c a l i t y  p r e s e r v i n g  p r o j e c t i o n [ O L ] .[ 2 0 1 2 - 0 7 - 0 8 ] . h t t p :? ? www. d o c i n. c o m ? p - 2 0 2 4 5 8 4 5 2. h t m l[ 1 2 ] C a i  D , H e  X  F , H a n  J  W.S e m i- s u p e r v i s e d  d i s c r i m i n a n ta n a l y s i s [ O L ] . [ 2 0 1 2 - 0 7 - 0 8 ] .h t t p : ? ? w e n k u. b a i d u. c o m ?v i e w ? 5 2 1 5 0 3 6 a b 8 4 a e 4 5 c 3 b 3 5 8 c 0 d . h t m l[ 1 3 ] B e l k i n  M , N i y o g i  P , S i n d h w a n i  V.M a n i f o l d  r e g u l a r i z a t i o n :A  g e o m e t r i c  f r a m e w o r k  f o r  l e a r n i n g   f r o m  l a b e l e d  a n du n l a b e l e d  e x a m p l e s [ J ] .T h e  J o u r n a l  o f  M a c h i n e  L e a r n i n gR e s e a r c h , 2 0 0 6 , 7 ( 1 1 ) : 2 3 9 9 - 2 4 3 4[ 1 4 ] W a n g   X M , C h u n g   F  L , W a n g   S  T.O n  m i n i m u m  c l a s sl o c a l i t y  p r e s e r v i n g   v a r i a n c e  s u p p o r t  v e c t o r  m a c h i n e[ J ] .P a t t e r  R e c o g n i t i o n , 2 0 1 0 , 4 3 ( 8 ) : 2 7 5 3 - 2 7 6 2[ 1 5 ] X i o n g   H L , S w a m y   M N  S , A h m a d  M O.O p t i m i z i n g   t h ek e r n e l  i n  t h e  e m p i r i c a l  f e a t u r e  s p a c e [ J ] .I E E E  T r a n s  o nN e u r a l  N e t w o r k s , 2 0 0 5 , 1 6 ( 2 ) : 4 6 0 - 4 7 4[ 1 6 ] W a n g   Y Y , C h e n  S  C , X u e  H.S u p p o r t  v e c t o r  m a c h i n ei n c o r p o r a t e d  w i t h  f e a t u r e  d i s c r i m i n a t i o n [ J ] . E x p e r t  S y s t e m sw i t h  A p p l i c a t i o n s , 2 0 1 1 , 3 8 ( 1 0 ) : 1 2 5 0 6 - 1 2 5 1 3[ 1 7 ] D e n g   N a i y a n g , T i a n  Y i n g j i e .T h e  N e w M e t h o d  o f  D a t aM i n i n g — S u p p o r t  V e c t o r  M a c h i n e[ M ] .B e i j i n g : S c i e n c eP r e s s , 2 0 0 4 ( i n  C h i n e s e )( 邓乃杨,田英杰 . 数据挖掘中的新方法—支持向量机[ M ] .北京:科学出版社, 2 0 0 4 )[ 1 8 ] H e  X  F , Y a n  S  C , H u  Y  X , e t  a l .F a c e  r e c o g n i t i o n  u s i n gL a p l a c i a n  f a c e s [ J ] . I E E E  T r a n s  o n  P a t t e r n  A n a l y s i s  a n dM a c h i n e  I n t e l l i g e n c e , 2 0 0 5 , 2 7 ( 3 ) : 3 2 8 - 3 4 0[ 1 9 ]D i n g   L i z h o n g, L i a o  S h i z h o n g .KMA - a : A  k e r n e l  m a t r i xa p p r o x i m a t i o n  a l g o r i t h m  f o r  s u p p o r t  v e c t o r  m a c h i n e s [ J ] .J o u r n a l  o f  C o m p u t e r  R e s e a r c h  a n d  D e v e l o p m e n t , 2 0 1 2 , 4 9( 4 ) : 7 4 6 - 7 5 3 ( i n  C h i n e s e )( 丁立中,廖士中.KMA - a :一个支持向量机核矩阵的近似计算算法[ J ] .计算机研究与发展, 2 0 1 2 , 4 9 (4 ) : 7 4 6 - 7 5 3 )[ 2 0 ] A b r i l  L  G , A n g u l o  C , V e l a s c o  F , e t  a l . A  n o t e  o n  t h e  b i a s  i nS VM s  f o r  m u l t i c l a s s i f i c a t i o n [ J ] .I E E E  T r a n s  o n  N e u r a lN e t w o r k s , 2 0 0 8 , 1 9 ( 4 ) : 7 2 3 - 7 2 5
 
[返回]
上一篇:改进向量投影的支持向量预选取方法
下一篇:加权光滑 CHKS 孪生支持向量机