欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
EI期刊论文
当前位置:首页 > EI期刊论文
优化样本分布的最接近支持向量机
来源:一起赢论文网     日期:2015-04-20     浏览数:3046     【 字体:

 摘   要:   当两类样本分布存在差异时, 最接近支持向量机( P r o x i m a l  S u p p o r t  V e c t o r  M a c h i n e , P S VM ) 等最小二乘类分类器分类结果将出现偏差, 不能实现最小错误率分类 . 本文在分析 P S VM 等价广义特征值分解模型基础上, 提出了一种改善原 P S VM 分类决策面的优化样本分布 P S VM , 其基本思想是通过引入最大化正确分类样本距决策面距离, 同时最小化错误分类样本距决策面距离的优化样本分布正则化项, 构造优化样本分布 P S VM 的广义特征值分解模型 . 通过人工数据集和 U C I 数据集的 1 0 个数据子集上的对比实验, 验证了该改进分类模型能够有效调整决策边界, 从而获得更好的分类效果 .

关键词:   最接近支持向量机;优化样本分布;正则化技术
1  引言   
最 接 近 支 持 向 量 机 P S VM[ 1 ]是 支 持 向 量 机S VM[ 2~4 ] 的一 类 变 体 .与 最 小 二 乘 支 持 向 量 机 ( L e a s tS q u a r e  S u p p o r t  V e c t o r  M a c h i n e , L S S VM )[ 5 ] 类似,P S VM采用等式约束, 具有求解快速的优点 . 此外, 与 L S S VM相比, P S VM 将阈值平方纳入到优化目标中, 使优化问题具有更为简洁的表达形式, 有效增强了优化模型的凸性. 由于P S VM 具有模型简单, 求解快速等优点, 得到了相关学者的重视, 在原P S VM 模型基础上, 又提出了多类P S VM[ 6 , 7 ] , 模糊 P S VM [ 8 , 9 ] 等扩展模型和其他改进模型[ 1 0 , 1 1 ] , 并在 轴 承、 齿 轮 箱 故 障 诊 断、 人 脸 识 别 等 领域[ 1 1~1 3 ] 取得了一定的应用成果.模式识别理论指出, 尽管在最小均方误差意义上P S VM 等最小二乘分类器最优逼近 B a y e s分类器, 但并不意味一定能使误分概率极小化[ 1 4 ] . 
究其原因, 主要是因为P S VM 的最优分类性能建立在两类样本分布特性相同的假设基础上. 在实际应用中, 这种假设通常并不成立, 甚至在某些应用场合, 还会出现不同类别样本分布差异较大的极端情形 . 此时, 受大方差类别样本影响,采用P S VM 学习会出现较大偏差, 分类效果退化严重.因此, 要提高实际应用中 P S VM 方法的分类性能, 则必须要消除不同类别样本分布差异对 P S VM 学习的不利影响 .为此, 本文在 P S VM 具有最优逼近 B a y e s 分类意义的主优化项基础上, 尝试将优化样本分布作为一个优化子项引入, 提出了一种优化分布 P S VM. 该优化分布 P S -VM 通过构造等价广义特征值分解模型, 优化正确、 错误分类样本分布, 有效缓解分布差异带来的决策偏差. 最后, 通过人工数据集、 U C I 数据集上的对比实验, 验证了本优化分布 P S VM 模型的有效性.
2 P S VM 及其等价模型   
对二分类问题, 设有 l 维训练样本集{ ( x i , y i ) | x i ∈Rl ×1 ,y i ∈ { ±1 } } 1≤ i ≤ N , 其 对 应 的 样 本 矩 阵 为 X ( X ∈Rl × N ) ,P S VM 模型优化准则可写为:m i n12 (wT w +b2 )+ c2ζTζs . t .   D ( XT w +e b ) + ζ = e(1 )其中,e 为全 1 的 N 维列向量, 矩阵 D 为 N × N 维对角阵, 且对角元素 D i i 为第 i 个样本的类别值 y i .首先对 P S VM 式( 1 ) 进行变形简化, 可得定理 1.   定理 1  令 珘 x i = xTi ( )1 T ,珟w = wT( )b T ,c 1 =1 / c ,珟X (珟X ∈R( l +1 ) × N ) 为新样本{珘x i } 构成的样本矩阵, 此时 P S -VM 模型等价于正则化最小二乘模型 m i n c12 珟wT 珟w +12珟XT 珟w - Y 2 , 其最优解为:珟w *= (珟X 珟 XT +c 1 I )-1 珟X Y .   证明   将 珟 w = wT( )b T ,c 1 =1 / c ,珟X (珟X ∈R( l +1 ) × N )代入式(1 ) , 整理可得如下等价模型:m i n   c12珟wT 珟w + 12ζTζs . t .   D 珟 XT 珟w + ζ = e(2 )D 满秩, 因此对任意向量 z, 有D z =0等价于 z =0. 因此,式( 2 ) 等式约束可改为 D D 珟XT 珟w + D ζ = D e .又因 D D = I , D e = Y, 令D ζ = η , 代入式( 2 ) 得式( 3 ) :m i n   c12珟wT 珟w + 12 ηTηs . t .   珟 XT 珟w + η = Y(3 )将式( 3 ) 中等式约束代入主优化式得式(4 ) :m i n   c12珟wT 珟w + 12珟XT 珟w - Y 2(4 )   显然, 式( 4 ) 就是一个正则化最小二乘优化模型, 正则化项为投影矢量2范数 珟 w T 珟 w , 其最优解为 珟 w * = ( 珟 X 珟 X T+ c 1 I )-1 珟X Y .证毕 .下面进一步分析式( 4 ) . 首先分析无正则化项基本最小二乘分类模型 m i n   X T w - Y 2 , 其最优解为 wo p t =( X X T )-1 X Y . 分析该模型可得定理2. 定理2  最小二乘分类模型 m i n XT w -Y 2与优化式( 5) 等价.m a x wT X Y Y T X T wwT X X T w(5 )   证明   式( 5 ) 对应于如下拉格朗日优化问题:m a x   wT X Y Y T X T w -λ wT X X T w其导数 0 点满足:X Y YT X T w =λ X XT w对任意列向量 w, 令YT X T w =a , 则有:a X Y = λ X XT w上式求得的最优解 w * = aλ( X X T )-1 X Y , 满足 w*∝w o p t ( w o p t = ( X XT ) -1 X Y ) , 表明式( 5 ) 最优解与最小二乘最优解一致 .进一 步 限 制 a >0 ( 若 Y T   X T   w * <0 , 则 取 w * =- w* ) , 因 λ 0 , 此时 w * 与最小二乘解同向 .对分类问题, 决策的依据是 s g n ( wT x ) , 与 w T x 值大小无关 . 因此, 最小二乘分类模型与优化模型( 5 ) 等价 .证毕 .令 X T w = Z , 还可将式( 5 ) 中的优化式改写为:wT X Y Y T X T wwT X X T w  wT X Y Y T X T wwT X X T w Y TY = (ZTYZT槡 Z   YT槡 Y)(6 )式( 6 ) 描述了最小二乘分类的等价数学意义: 对分类问题, 最小二乘等价于向量 Z 、 Y 的最优对齐 .依据定理2 , 我们可得到 P S VM 等价正则化最小二乘分类器模型的广义特征值分解模型, 见推论1.   推论1 P S VM 分类模型与优化式( 7) 等价.m a x珟wT 珟X Y YT 珟XT 珟w珟wT 珟X 珟 XT 珟w + c 1 珟 wT 珟w(7 )
3  模型优化样本分布 P S VM   
在训练样本集上用 P S VM 学习, 可得到分类器 珟 wT 珘x=0. 若 s g n (珟wT 珘x i ) = y i , 则样本 珘 x i 被正确分类, 否则被误分 . 依 分 类 结 果,可 将 样 本 集 划 分 为 正 分 样 本 集珘xi{ }正分和误分样本集 珘 xi{ }误分 . 分类示意图如图1.图1中实心样本为误分样本, 空心样本为正分样本. 误分样本以值 d 误分 = 珟 w T 珘 x 误分 分布在分类器 珟 w T 珘 x=0两边, 正分样本以值 d 正分 = 珟 w T 珘 x 正分 分布在分类器 珟 w T 珘 x=0两边.为改善分类效果, 需优化误、 正分样本分布, 即压缩决策边界两边误分样本所占区域大小, 以减少潜在错误率; 同时使正分样本远离决策边界, 获得大间隔, 提高泛化性.假设随机变量 d 误分 , d 正分 均满足0均值, 从统计学角度, 要求二阶统计量 d 误分 的方差应尽可能小, 同时要求d 正分 的方差应尽可能大, 可描述为如下优化样本分布模型:m a x珟wT 珟X 正分 珟 XT正分 珟 w珟wT 珟X 误分 珟 XT误分 珟 w(8 )其中 珟X 正分 ,珟X 误分 分别为正、 误分样本矩阵 . 进一步分析式(8 ) , 可得如下等价模型 . 定理3优化式(8 ) 与式( 9) 等价.m a x珟wT 珟X 正分 珟 XT正分 珟 w珟wT 珟X 珟 XT 珟w(9 )其中, 珟X 为所有样本组成的样本矩阵,珟X 珟 XT = 珟X 正分 珟 XT正分 +珟X 误分 珟 XT误分 .   证明   式( 8 ) 是一个广义特征值分解模型, 其最优条件为:珟X 正分 珟 XT正分 珟 w = λ珟X 误分 珟 XT误分 珟 w(1 0 )式( 1 0) 两边各加 λ 珟 X 正分 珟 X T 正分 珟 w , 经整理可写为:珟X 正分 珟 XT正分 珟 w =λ ′珟X 珟 XT 珟w(1 1 )其中λ ′=λ(1+ λ ). 式(1 1 ) 是式( 9 ) 的最优条件, 这表明优化式( 8 ) 与式(9) 等价.证毕 .考虑到实际应用中有可能出现 珟 X 珟 X T 不满秩的情况,式( 9 ) 也可引入正则化项 c1 珟 wT 珟w :m a x珟wT 珟X 正分 珟 XT正分 珟 w珟wT 珟X 珟 XT 珟w + c 1 珟 wT 珟w(1 2 )最终, 综合考虑式(7 ) 和式( 1 2 ) , 提出如下优化样本分布 P S VM 模型:m a x珟wT 珟X Y YT 珟XT 珟w + c 2 珟 wT 珟X 正分 珟 XT正分 珟 w珟wT 珟X 珟 XT 珟w + c 1 珟 wT 珟w(1 3 )其中,c 2 ( c 2 >0 ) 为优化样本分布项的正则化系数.在已知当前分类器下正分样本矩阵 珟X 正分 的前提下,优化样本分布 P S VM 式( 1 3 ) 是一个典型的广义特征值分解问题, 可取最优投影矢量 珟w*为最大特征值所对应的特征矢量. 我们通过式(1 3 ) 优化样本分布, 改善分类算法1表明, 求解优化样本分布P S VM 需在求得原始P S VM 最优解基础上, 再进一步微调优化. 
因此, 优化样本分布P S VM 相对于 P S VM , 计算复杂度有所增加.下面分析算法 1 的时间复杂度 .算法1由三步实现. 设样本矩阵 珟 X ∈RM × N , 维数M= l +1 , N 为样本数 . 第一步求 P S VM 最优解, 其时间代价主要耗费在 珟X 珟 XT 计算、 (珟X 珟 XT + c1 I )-1 求逆以及(珟X 珟 XT+ c 1 I )-1 珟X 计 算 上, 矩 阵 乘 法 计 算 时 间 复 杂 度 均 为o ( M2 N ) , 矩阵求逆为 o ( M3 ) ; 第二步求矩阵 珟X 正分 , 其时间代价主要耗费在计算一维投影 珟 w T0 珟 X 上, 时间复杂度为o ( M × N ) ; 第三步求优化样本分布 P S VM 最优解, 其时间代价主要耗费在 珟X 正分 珟 XT正分 计算以及模型式( 1 3 ) 的广义特征值分解计算上, 设正分样本数为 N + ( N + < N ) ,前者时间复杂度为 o ( M2 N + ) , 后者为 o ( M3 ).以上时间复杂度分析表明, 为改善 P S VM 分类效果, 优化样本分布 P S VM 的时间复杂度有所增加 . 但从指数大小层面看, 优化样本分布 P S VM 仍属时间复杂度为 o ( M 3 ) 的算法, 与原始 P S VM 相同 .
4  优化样本分布 K e r n e l  P S VM   
优化样本分布 K e r n e l  P S VM ( K P S VM ) 是优化样本分布P S VM 的非线性版本. 通过核映射  , 原始样本 xi被映射为  ( xi ) . 令核样本 珘  ( x i ) =  ( x i )T( )1 T , 投影矢量 珟w =珟wT( )b T , 此时优化样本分布K P S VM 对应的优化准则为:m a x珟wT 珘 ( X ) Y YT 珘 ( X )T 珟w + c 2 珟 wT 珘 ( X ) 正分 珘  ( X )T正分 珟 w珟wT 珘 ( X )珘 ( X )T 珟w + c 1 珟 wT 珟w(1 4 )其中, 珘 ( X ) 为核空间中的样本矩阵,珘 ( X ) 正分 为核空间中被分类器正确分类的样本所组成的样本矩阵 .进一步, 我们采用式(1 5 ) 将无穷维隐式核空间中的优化问题转换到有限维核内积空间中求解[ 1 5 ] :珟w = 珘  ( X ) α(1 5 )   将式( 1 5 ) 代入到优化式( 1 4 ) 中, 同时类似 P S VM 将分母项中的 c1 珟 wT 珟w 直接置换为 c 1 αTα , 整理可得:m a x αT 珟K Y YT 珟K α + c 2 αT 珟K 正分 珟 KT正分 ααT 珟K 珟 K α + c 1 αTα(1 6 )其中, 珟K = 珘  ( X )T 珘 ( X ) ,珟K 正分 = 珘  ( X )T 珘 ( X ) 正分 .需要指出的是, 原始 K P S VM 采 用 的 转 换 式 与 式(1 5 ) 不同, 为 w =  ( X ) D α[ 1 ] .总之, 通过核内积映射技巧, 无穷维隐式核空间中的优化问题被转换到维数为训练样本数 N 的核内积空间进行计算 . 此时采用算法1步骤, 求解优化样本分布K P S VM , 其时间复杂度变为 o ( N3 ) , 而基于二次规划的S VM 时间复杂度要更高一些, 为 o ( N 3. 5 )[ 1 6 ] .
5  实验结果与分析
5 . 1  人工数据集实验我们构造人工数据集以测试优化样本分布 P S VM分类效果 . 首先, 我们随机生成两类样本各 1 0 0 个( 前 5 0个用于训练, 后 5 0 个用于测试) , 一类样本服从均值列向量为 -0.( )5  0 T , 协 方 差 矩 阵 为1  0( ) 0 1的 高 斯 分布; 另一类样本服从均值列向量为 ()3 0  0 T , 协方差矩阵为2 0  0( ) 0 4 0的高斯分布 . 分别采用线性 P S VM 和优化样本分布线性 P S VM 对上述样本进行分类训练和测试, 其中线性 P S VM 的正则化系数 c 1 取 c 1=1 0-7 , 优化样本分布线性 P S VM 的正则化系数 c 取 c =1 0 0 0 , c1取c 1=1 0-7 . 实验重复5 0次, 某次分类训练和测试结果如图 2 所示 .从图 2 可以看出, 由于两类样本分布存在显著差异, 此时, P S VM 分类边界受大方差类别样本干扰, 出现明显偏差; 而优化样本分布 P S VM 分类边界相对更优 .优化样本分布P S VM 和 P S VM 5 0次分类测试的平均正确率分别为9 4 . 9 % , 8 9 . 3 % , 优化样本分布 P S VM 明显优于P S VM.进一步, 我们减小大方差类别样本的分布尺度, 改为服从均值列向量为 ()3  0 T , 协方差矩阵为2  0( ) 0 4的高斯分布; 实验重复 5 0 次, 某次分类结果如图 3 所示 .从图3可以看出, 由于两类样本分布差异相对而言不如上一组实验显著, 此时, P S VM 分类边界无明显偏差. 优化样本分布 P S VM 和 P S VM 5 0次分类测试的平均正确率分别为9 0 . 5 % , 9 0 . 3 % , 优化样本分布 P S VM分类效果无明显改善.
5 . 2 U C I 数据集
实验进一步, 我们采用 U C I 数据集[ 1 7 ] 来测试算法的分类效果. 使用6个2分类 U C I数据子集: B u p a (6维/3 4 5个样本) 、 D i a b e t e s (8维/ 7 6 8个样本) 、M o n k 1 (6维/4 3 2个样本) 、 M o n k 2 (6维/ 4 3 2个样本) 、M o n k 3 (6维/ 4 3 2个样本) 、 S o n a r (6 0维/2 0 8个样本) 和4个多分类数据子集: G l a s s (9维/ 6类别/2 1 4个样本) 、 c m c (9维/ 3类别/1 4 7 3 个样本) 、 t a e ( 5 维/ 3 类别/ 1 5 1 个样本) 、 v e h i c l e ( 1 8维/ 4 类别/8 4 6 个样本) , 分别测试线性、 高斯核 S VM, 线性、 高斯核 L S S VM , 线性、 高斯核 P S VM , 优化样本分布线性、 高斯核 P S VM. 其中, S VM 采用 S t e v e  G u n n 开源S VM MA T L A B工具箱, 其余三种分类器自编.分类器可调参数取值范围设定为: 高斯核参数 σ =2-7 ~2 1 0 ,L S S VM 、 P S VM 参数 c =2-1 2 ~2 1 2 , 优化样本分布 P S VM 参数 c1 =2-1 0 ,c 2 =2-4 ~2 1 5 .对后四个多类别数据子集使用 o n e - v e r s u s - r e s t 方式实现多分类 . 实验采用1 0重交叉验证方式, 结果见表1.在实验中, 优化样本分布P S VM 与其他三种分类器相比, 尤其在高斯核非线性分类情形下, 取得了相对更好的分类结果. 这说明优化样本分布P S VM 通过压缩误分样本所占区域, 同时使正分样本远离分类边界, 能够改善决策偏差, 从而进一步提高了分类正确率.进一步, 我们对各分类器的训练耗时进行了实验比较 . 分类器运行硬件平台为 C P U  I 7  6 4 0M2 . 8 GH z , 内存4 G B ; 软件平台为 W I N D OWS  7 , MA T L A B  R 2 0 0 8. 以下是 1 0次训练平均耗时, 见表2.从表2可以看出, 在线性、 高斯核非线性分类两种情形下, S VM 平均耗时最大. 特别在线性分类情形下,由于S VM 实际工作在与训练样本数相等的 N维线性内积空间, 远大于原始样本维数, 此时 S VM 训练平均耗时显著大于其他三类分类器 . 而优化样本分布 P S VM 相比于 L S S VM 和 P S VM , 其平均耗时有所增加, 但远小于S VM 平均耗时.
6  总结   
本文在最小二乘类分类器 P S VM 基础上, 通过引入优化样本分布正则化项对原始 P S VM 决策面进行调整,提出了一种改进 P S VM 分类模型 . 人工数据集和部分U C I 数据子集上的对比实验表明, 该改进模型能够有效改善正分样本和误分样本分布, 进一步提高了分类正确率, 证明了将优化样本分布引入 P S VM 的有效性. 进一步, 考虑到实际应用中的小样本问题, 此时样本分布统计量估计受野值干扰较大. 为此, 我们下一步将研究提高样本分布统计分析鲁棒性方法, 以提高实际应用中优化样本分布估计的稳定性和有效性.
参考文献[ 1 ] F u ng   G , M a n ga s a r i a n  O  L. P r o x i m a l  s u p p o r t  v e c t o r  m ah i n e  c l a s s i f i e r [ A ] . P r o c  o f  t h e  7 t h  A CM  S I GKDD  I n t e r -n a t i o n a l  C o f e r e n c e  o n  K n o w l e d e g   D i s c o v e ry a n d  D a t aM i n i n g [ C ] . S a n  F r a n c i s c o : A CM , 2 0 0 1. 7 7-8 2.[ 2 ] V ap n i k  V N. T h e  N a t u r e  o f  S t a t i s t i c a l  L e a r n i n g   T h e o r y[ M ] . S e c o n d  E d i t i o n. N e w Y o r k : Sp r i n g e r  P r e s s , 2 0 0 0.[ 3 ]王国胜, 钟义信 . 支持向量机的若干新进展[ J ] . 电子学报,2 0 0 1 , 2 9 ( 1 0 ) : 1 3 9 7-1 4 0 0.W a n g   G u o s h e n g , Z h o n g  y i x i n. S o m e n e w  d e v e l o p m e n t s  o ns u p p o r t  v e c t o r  m a c h i n e [ J ] .A c t a  E l e c t r o n i c a  S i n i c a ,2 0 0 1 , 2 9 ( 1 0 ) : 1 3 9 7-1 4 0 0. ( i n  C h i n e s e )[ 4 ]方景龙, 陈铄, 潘志庚, 梁荣华 . 复杂分类问题支持向量机的简化[ J ] . 电子学报,2 0 0 7 , 3 5 ( 5 ) : 8 5 8-8 6 1.F ANG  J i n g l o n g , CH E N  S h u o , P AN Z h i g e n g , L I ANGR o n g h u a . S i m p l i f i c a t i o n  t o  s u p p o r t  v e c t o r  m a c h i n e  f o rc o m p l i c a t e d  r e c o g n i t i o n  p r o b l e m [ J ] . A c t a  E l e c t r o n i c aS i n i c a , 2 0 0 7 , 3 5 ( 5 ) : 8 5 8-8 6 1. ( i n  C h i n e s e[ 5 ] S uy k e n s  J  A K , V a n d e w a l l e  J . L e a s t  s q u a r e  s u p p o r t  v e c t o rm a c h i n e  c l a s s i f i e r [ J ] . N e u r a l  P r o c e s s i n g   L e t t e r s , 1 9 9 9 , 9( 3 ) :2 9 3-3 0 0.[ 6 ]杨绪兵, 陈松灿. 基于原型超平面的多类最接近支持向量机[ J ] . 计算机研究与发展,2 0 0 6 , 4 3 ( 1 0 ) : 1 7 0 0-1 7 0 5.Y a n g   X u b i n g , C h e n  S o n g c a n. P r o x i m a l  s u p p o r t  v e c t o rm a c h i n e  b a s e d  o n  p r o t o t y p a l  m u l t i c l a s s i f i c a t i o n  h y pe r -p l a n e s [ J ] . J o u r n a l  o f  C o m p u t e r  R e s e a r c h  a n d  D e v e l o p -m e n t , 2 0 0 6 , 4 3 ( 1 0 ) : 1 7 0 0-1 7 0 5. ( i n  C h i n e s e )[ 7 ] N i u  L i ng f e n g . P a r a l l e l  a l g o r i t h m  f o r  t r a i n i n g   m u l t i c l a s sp r o x i m a l  S u p p o r t  V e c t o r  M a c h i n e s [ J ] . A p p l i e d  M a t h e -m a t i c s  a n d  C o m p u t a t i o n , 2 0 1 1 , 2 1 7 ( 1 2 ) : 5 3 2 8-5 3 3 7.[ 8 ] J ay a d e v a  K R , C h a n d r a  S . F u z zy   l i n e a r  pr o x i m a l  s u p p o r tv e c t o r  m a c h i n e s  f o r  m u l t i - c a t e g o ry d a t a  c l a s s i f i c a t i o n [ J ] .N e u r o c o m p u t i n g , 2 0 0 5 , 6 7 ( 8 ) : 4 2 6-4 3 5.[ 9 ] Y a ng   X u b i n g ,C h e n  S o n g c a n , C h e n  B i n , e t  a l . P r o x i m a ls u p p o r t  v e c t o r  m a c h i n e  u s i ng l o c a l  i n f o r m a t i o n [ J ] . N e u -r o c o m p u t i n g , 2 0 0 9 , 7 3 ( 1-3 ) : 3 5 7-3 6 5.[ 1 0 ] R e s h m a  K , J ay a d e v a , S u r e s h  C. K n o w l e d g e  b a s e d  p r o x i -m a l  s u p p o r t  v e c t o r  m a c h i n e s [ J ] . E u r o p e a n  J o u r n a l  o fO p e r a t i o n a l  R e s e a r c h , 2 0 0 9 , 1 9 5 ( 3 ) : 9 1 4-9 2 3.[ 1 1 ] R e s h m a  K , A n uj K , S u r e s h  C. G e n e r a l i z e d  e i g e n v a l u ep r o x i m a l  s u p p o r t  v e c t o r  r e g r e s s o r [ J ] . E x p e r t  S y s t e m sw i t h  A p p l i c a t i o n s , 2 0 1 1 , 3 8 ( 1 0 ) : 1 3 1 3 6-1 3 1 4 2.[ 1 2 ] S ug u m a r a n  V , M u r a l i d h a r a n  V , R a m a c h a n d r a n  K  I . F e a -t u r e  s e l e c t i o n  u s i ng d e c i s i o n  t r e e  a n d  c l a s s i f i c a t i o nt h r o u gh  pr o x i m a l  s u p p o r t  v e c t o r  m a c h i n e  f o r  f a u l t  d i a g -n o s t i c s  o f  r o l l e r  b e a r i n g [ J ] . M e c h a n i c a l  S y s t e m s  a n d  S i g -n a l  P r o c e s s i n g , 2 0 0 7 , 2 1 ( 2 ) : 9 3 0-9 4 2.[ 1 3 ] S a r a v a n a n  N , K u m a r  V N  S , R a m a c h a n d r a n  K  I . F a u l td i a g n o s i s  o f  s p u r  b e v e l  g e a r  b o x  u s i ng a r t i f i c i a l  n e u r a ln e t w o r k ( ANN ) ,a n d  pr o x i m a l  s u p p o r t  v e c t o r  m a c h i n e( P S VM ) [ J ] . A p p l i e d  S o f t  C o m p u t i ng , 2 0 1 0 , 1 0 ( 1 ) : 3 4 4-3 6 0.[ 1 4 ] D u d a  R O , H a r t  P  E , S t o r k  D G. P a t t e r n  C l a s s i f i c a t i o n[ M ] . S e c o n d  E d i t i o n. N e w Y o r k : W i l ey - I n t e r s c i e n c e ,2 0 0 0. 2 3 9-2 4 5.[ 1 5 ] S c h  l k op f  B , M i k a  S , e t  a l . I n p u t  s p a c e  v e r s u s  f e a t u r es p a c e  i n  k e r n e l  b a s e d  m e t h o d s [ J ] . I E E E  T r a n s a c t i o n s  o nN e u r a l  N e t w o r k s , 1 9 9 9 , 1 0 ( 5 ) : 1 0 0 0-1 0 1 7.[ 1 6 ] M a ng a s a r i a n  O  L , W i l d  E W. M u l t i s u r f a c e  p r o x i m a l  s u p -p o r t  v e c t o r  m a c h i n e  c l a s s i f i c a t i o n  v i a  g e n e r a l i z e d  e i g e n -v a l u e s [ J ] . I E E E  T r a n s a c t i o n s  o n  P a t t e r n  A n a l y s i s  a n dM a c h i n e  I n t e l l i g e n c e , 2 0 0 6 , 2 8 ( 1 ) : 6 9-7 4.[ 1 7 ] M u rp h y   P M , A h a  D W. UC I  m a c h i n e  l e a r n i n g r e p o s i t o -r y [ O L ] . h t t p : / / w w w. i c s . u c i . e d u / ~m l e a r n / ML R e p o s -i t o r y . h t m l , 1 9 9 2.
 

 

[返回]
上一篇:加权光滑 CHKS 孪生支持向量机
下一篇:聚类数据挖掘可视化模型方法与技术