| 基于稀疏系数矩阵重构的多标记特征选择 |
| 来源:一起赢论文网 日期:2026-04-06 浏览数:92 【 字体: 大 中 小 大 中 小 大 中 小 】 |
|
第45 卷 第9 期计 算机 学 报Vol . 45No. 92022年9月CHINESEJOURNALOFCOMPUTERSSept . 2022基于稀疏系数矩阵重构的多标记特征选择李永豪 胡 亮 高万夫( 吉林大学计算机科学与技术学院 长春 1 3001 2)( 吉林大学符号计算与知识工程教育部重点实验室 长春 1 3001 2)摘 要 处理复杂的多标记数据对于特征选择而言是一项挑战性任务. 然而, 现存的多标记特征选择方法存在三个问题未解决. 首先, 现有的多标记特征选择方法利用样例层流形正则化项保持样例的相似性结构或借助标签关联来指导特征选择, 但两者对于特征选择的指导存在互补关系. 其次, 早期方法基于样例相似性所构造的近邻矩阵来探索标签关联, 却忽略了成对标签本身的关联性. 最后, 早期方法整合多个未知变量, 导致目标函数的求解变得困难. 为解决上述问题, 本文基于最小二乘回归模型构建经验损失函数, 然后在目标函数中引人标签正则化项探索标签之间的关联, 同时利用特征矩阵与重构稀疏系数矩阵的乘积表示预测标签并保留数据本身的局部几何结构.上述各项被整合在一个联合学习框架内. 针对该学习框架,一套证明可收敛的优化方案被设计. 在1 3 个真实的多标记基准数据集上进行实验, 实验结果验证了所提方法的有效性.关键词 特征选择; 多标记学习; 流形学习; 稀疏化学习; 分类中图法分类号TP18DOl号10. 1 189 7/SP. J. 1016. 2022. 01827Multi-LabelFeatureSelectionBasedonSparseCoefficientMatrixReconstructionLIYongHaoHULi angGAOWanFu1 )( Col l egeofComput e rSc i enc eandTe chnol ogy? Ji l inUni versi ty, Changchun1 3001 2)2)( KeyLaboratoryofSymbolicCompuiaiionandKnowledgeEngineering? MinistryofEducation? Ji linUniversity? Changchun1 3001 2)AbstractDeal i ngwi thcompl i catedmul ti l abeldatai sachal l engi ngtaskforfeaturesel ecti oni npracti calappl i cati ons. However, thereexi stthreeunsol vedi ssuesi ntheexi sti ngmul ti l abelfeaturesel ecti onmethods. Fi rst ,previ ousmul ti l abelfeaturesel ecti onmethodsei therempl oyi nstance l evelmani fol dregul ari zati ontermstomai ntai nthei nstancesi mi l ari tyorexpl oi tthecorrel ati onsamongl abel stogui defeaturesel ectionprocess, however, bothtwoarecompl ementarytoeachotheri nfeaturesel ecti onprocess. Second, exi sti ngmethodsexpl orel abelcorrel ati onsbasedontheaffi ni tymatri xofi nstancesi mi l ari ty, ignori ngthepai rwi sel abelcorrel ati ons.Thi rd, previ ousmethodsi nvol veseveralunknownvari abl es, whi chmakesthesol uti onoftheobjecti vefuncti ondi ffi cul t. Totackl ethei ssuesmenti onedabove, anempi ri call ossfuncti onmodeli sconstructedbasedonthel eastsquareregressi onmodel . Andthen, wei ntroducethel abelregul ari zati ontermtoexpl oi tl abelcorrel ati ons, meanwhi l eempl oyi ngtheproductoffeaturematri xandweightcoeffi ci entmatri xtorepresentpredi ctedl abel ssothatthel ocalgeometri cstructureofdataseti sstored. Fi nal ly, wei ntegratethetermsmenti onedabovei ntoonejoi ntl earni ngframework. Aneffecti veopti mi zati onmethodwi thprovabl econvergencei sdesignedtosol veourproposedmethod. Insummary, thenovel ti esandmai ncontri buti onsofthi spapercan收稿日期: 加21 05 05; 在线发布日 期: 2022 01 24. 本课题得到国家重点研发专项( 201 7YFA0604500 ) 、 吉林省重点科技研发项目(201 80201 1 03GX) 、 吉林省科技厅联合基金项目(20201 22209JC) 资助. 李永豪, 博士研究生, 主要研究方向为多标记特征选择. Emai l:yonghaol 7@mai l s .jku edu. cn. 胡 亮, 博士, 教授, 主要研究领域为机器学习、 信息安全等. 高万夫( 通信作者) , 博士, 副教授, 主要研究方向为特征选择、 多标记学习、 信息论、 因果关系. Emai l: gaow丨 @jl u. edu. cn.1828 计 算机 学 报 2022年besummari zedasfol l ows: theproposedmethodusesthei nstance l evelmani fol dregul ari zati ontermtomai ntai nthei nstancesi mi l ari ty. Atthesameti me, theproposedmethodi ntroducesl abel l evelmani fol dregul ari zati ontermtoexpl oi tthel abelcorrel ati ons. Moreover, theproposedmethodcanstorethegeometri cstructureofl abel si ntheweightcoeffi ci entmatri xandempl oytheweightcoeffi ci entmatri xtogui defeaturesel ecti onprocess, becausethesparsecoeffi ci entmatri xcanmai ntai nthegeometri crel ati onshipbetweenthedataspaceandl abelspace, aswel lastherel ati onshipbetweenl abel s, theproposedmethodcanobtai nsuperi orcl assi fi cati onabi l i tyonthetestdatasetbyusi ngthesparsecoeffi ci entmatri xthati sl earnedbythetrai ni ngprocess.Furthermore, theproposedmethodi ntroducestheL2 ,inormthati ntegratestheadvantagesofLinormandL2normtosel ecti mportantfeaturesi neachi terati on. Fi nal ly, theproposedmethodi ntegratesal ltheabovetermsi ntoonejoi ntl earni ngframeworkanddevel opsamethodtosol vetheconstrai nedprobl em,i . e., regul ati ngregressi oncoeffi ci entmatri xbasedoni nstance si mi l ari tyandl abel si mi l ari tyformul ti l abelfeaturesel ecti onthati snamedasRMLFS, whi l eanopti malschemei sdesigned. Inaddi ti on, wecanobtainagl obal lyoptimalsol uti onbythi sl earningframeworkbecausetheobjectivefuncti ononlyincorporatesoneunknownvari abl eunl ikeotherexi sti ngmethodsthatincorporatemul tipl eunknownvari abl esthatl eadtothel ocaloptimalsol uti oni nmostcases, andtheobjecti vefuncti oni saconvexfuncti on. Thi smethodconductsmul tipl eeval uationcri teriaonthirteenbenchmarkdatasetstoshowthesuperi ori tyoftheproposedmul ti l abelfeaturesel ecti onmethod. Inordertoveri fythecl assi fi cati onsuperi ori tyoftheproposedmethod, numerousexperimentsareconductedonthi rteendifferentmul ti l abeldatasets. Eightcompeti tivemethodsincl udi ngMIFS, MDMR, SCLS, LRFS, mRMR, RALMFS, TRCFSandGMMarecomparedtotheproposedmethod. Theextensi veexperi mentalresul tsshowthatthecl assi fi cati onperformanceoftheproposedRMLFSoutperformsothercomparedmethodsi ntheseexperi ments.Keywordsfeaturesel ecti on; mul ti labell earning; manifol dl earni ng; sparsel earni ng; cl assifi cati oni 引 言高维数据的复杂性给机器学习算法带来巨大的挑战, 它不仅增加了机器学习算法的计算成本, 而且导致这些模型过拟合. 特征选择技术可以约减冗余特征数目、 改善模型分类性能[1 〃], 因此特征选择已经变成了处理高维数据至关重要的一项技术, 并且该技术已经被广泛应用于多个领域, 例如图像和视频标注[8 ̄]、 文本挖掘、 蛋白质功能预测等%1 3].通常, 特征选择方法包括过滤式模型[6]、 包裹式模型[1 ?5]以及嵌人式模型#1 7]. 不同于过滤式和包裹式两类模型[1 8], 嵌人式模型融合特征选择和学习算法在统一框架内, 以至于嵌人式模型可以借助学习算法来进一步改善模型的性能. 鉴于此, 文章聚焦于嵌人式特征选择模型. 然而对多标记数据进行特征选择处理仍然存在一些困难, 原因在于多标记数据不仅涉及高维的特征空间, 也涉及大量相互依存的标签. 为有效处理此类多标记数据, 学者提出算法适应性策略来直接处理多标记数据, 取代直接将多标记数据转化成单标签数据再处理的方案[1 9 2 2].早期的多标记特征选择方法利用样例层正则化项来保持样例的相似性结构或借助标签关联来指导特征选择. 然而在这些多标记特征选择算法中依然存在三个问题未被解决. 第一, 尽管样例层正则化和标签之间的关联对于特征选择具有重要的指导作用, 前期的方法仅关注两者中的一种, 而两者对于特征选择的指导存在互补关系; 第二, 以往的多标记特征选择方法大多是基于样例相似性来构造近邻矩阵, 借此来探索标签关联, 却忽略了成对标签间固有的关联性; 第三, 早期多标记特征选择的目标函数包含多个未知变量, 而多个变量的存在使得要优化的目标函数易于陷人局部最优解困境.为了处理上述存在的问题, 本文在利用最小二乘回归模型的基础上最小化经验损失函数, 然后引人基于标签相似性的近邻矩阵来构造标签层正则化项, 以便于挖掘标签相关性[2 3]. 与此同时, 利用特征矩阵与重构稀疏系数矩阵的乘积预测标签来拟合现李永豪等: 基于稀疏系数矩阵重构的多标记特征选择 1829 9 期存的标签, 并通过这两个矩阵的乘积和流形正则化项将局部几何结构存储于重构稀疏系数矩阵中. 此外, 我们也引人样例层流形正则化项保持样例相似性[2 4]. 最后, 上述各项被整合到一个联合学习框架中, 该框架被称为可调多标记特征选择( RMLFS) .综上, 本文的主要贡献概括如下:(1) 同时利用样例层正则化项和标签层正则化项, 借助两者的互补关系来探索样例相似性和标签之间的关联.( 2) 将重构标签的几何结构存储于稀疏系数矩阵中, 借此来指导特征选择, 同时引人 范数在每轮迭代中选择最重要的特征.( 3) 整合上述各项进人一个联合学习框架, 并设计了一套被证明可收敛的优化方案来优化该学习框架.( 4) 目标函数被设计为只包含一个未知变量的凸函数, 利用该函数可以得到全局最优解, 并在1 3个基准数据集上利用不同度量准则对目标函数进行评估来验证所提方法的优越性.本文第2 节对相关工作和基础知识进行详细描述; 第3 节对目标函数和优化方案的设计过程展开详细介绍; 第4 节描述并分析对比算法在1 3 个真实数据集上的实验结果, 以验证提出方法在分类性能方面的优越性; 最后第5 节对全文进行总结并指明后续的研究方向.2 相关工作首先, 表1 对文章采用的主要符号进行描述, 然后多标记学习、 特征选择基础知识、 代表性算法以及流形学习相关概念被总结.表1 符号描述符号 描述A 任意矩阵a 任意向量a 任意标量A. A的第f 行A.,A的第 列a的第z 行第j 列元素n 矩阵A的行数m 矩阵A的列数AT矩阵A的转置Tr( A) 矩阵A的迹, 其中A是方阵I IAIf指|A| UaX表示特征矩阵Y表示标签矩阵在多标记学习中, 每一个样例包含多个不同的类标签, 同时这些类标签之间也存在不同程度的关联, 即标签之间有强相关, 也有弱相关, 甚至不相关.因此当大量多标记问题需要被处理时, 标签关联的有效探索被认为是至关重要的. 基于标签关联关系,多标记学习通常包括一阶关联、 二阶关联以及高阶关联( 即多于两个以上的标签之间的关联) 这三种情况[2 5]. 在第一种情况下, 标签与标签之间是相互独立的, 即标签与标签之间不存在联系, 利用这一思想的代表性算法是二元关联( Bi naryRel evance, BR)[1 9].在第二种情况中, 代表性算法包括联合特征选择与分类( Joi ntFeatureSel ecti onandCl assi fi cati on,JFSC) 和学习特定于标签的特征( Learni ngLabelSpeci fi cFeatures, LLSF)[2 62 7], 即成对标签之间的关系被考虑, 以至于多标记数据被转化成多个成对标签关联问题. 在高阶关联情况下, 代表性方法包括分类器链( Cl assi fi erChai n, CC) 和公共与类属特征选择( CommonandLabel speci fi cFeatureSel ecti on,CLFS)[2 8 2 9], 即多于两个标签之间的关联被考虑?随着多标记数据的快速增长, 多标记特征选择吸引了越来越多研究人员的注意. 而且多标记数据的复杂性必然使特征选择任务比处理单标签数据任务时更复杂. 通过广泛调研相关文献[1 8 ?3 "3 3],一种直接策略就是将多标记数据转化成多个独立的单标签数据, 然后利用单标签特征选择算法来处理这些被转化的单标签数据. 经典代表性算法如最小冗余最大相关( mi ni malRedundancyMaxi malRel evance,mRMR)[7]是一种基于信息理论的单标签特征选择方法, 而且mRMR可以从特征全集中得到最优特征子集. 其中mRMR目标函数如下:I(xk )=I(xk; y)-prr(1)bces4和3^ 分别表示一个候选特征和一个类标签, S 表示已经选择的特征子集, s| 表示S 包含的特征个数,: T, 表示一个已选特征.此外研究者还提出了多种多标记特征选择方法来直接处理多标记数据, 这类方法统称算法适应性方法. 接下来, 我们回顾了几种代表性的多标记特征选择方法. 这些方法采用不同的准则, 例如基于互信息准则和基于稀疏学习准则的方法.Lee 和Knn[3 4]提出了一种大标签集的可伸缩准贝!J 法(Scal abl eCriteri onforLargeLabelSet, SCLS) .SCLS采用可扩展的相关性评价标准来评价条件相关性, 便于进行特征选择. 另外Lm等人[3 5]提出了一种基于最大依赖和最小冗余( MaxDependency1830 计 算机 学 报 2022年andMi n Redundancy, MDMR) 的方法, 即该方法同时考虑特征依赖和特征冗余.此外Ji an等人[3 6]提出一种基于稀疏化的多标记特征选择方法, 该方法被命名为多标记信息特征选择( MIFS) . MIFS方法利用标签空间的低秩潜在表示的子空间来削弱无关特征对模型造成的负面影响. 而且MIFS通过流形正则化项来保持原始标签空间和低秩潜在表示的子空间的局部几何结构一致性. MIFS具有如下形式的目标函数:mi n{I厦V| | ^+ 本VBG+W, V, B/?Tr (VTLV)+y| |W| 2 , 1}( 2)其中 表示特征矩阵 的特征选择矩阵, rer" ^表示标签矩阵. ver" xt和be分别表示潜在语义矩阵和其系数矩阵. 《,/? 和y 表示相关项的三个正则化参数, 而& 表示秩数. Cm等人[3 7]也提出了一种基于稀疏学习的特征选择方法,被称为RALMFS. RALMFS方法认为L2 , 。 范数比范数具有更稀疏的解集. 因此为有效地利用L2 , 。范数, RALMFS方法引人了增广拉格朗日乘子, 从而形成如下的函数:mi nlY XW l ^UaW, V, Bs. t.|W| |2 , 〇=a( 3)其中1 表示数值全为1 的列向量, fc 表示偏差列向量,?表示选择的特征数,I 則U。I土X|。? 另外,i 1j1Lm等人[3 8]提出了一种新的对噪声不敏感的基于迹率比准则的特征选择方法( TraceRati oCri teri onforFeatureSel ecti on, TRCFS) . TRCFS方法解决迹率比准则倾向于选择方差较小的特征的问题. 同时特征选择技术被扩展到一些新的研究领域[3 £ "4 1],例如多视图学习中, Zhang 等人[4 2]在MIFS 的基础上通过自适应分配权重将多个视图的拉普拉斯矩阵融合, 从而设计多视图特征选择方法. 在类属特征学习中, Guo 等人[4 3]利用标签特定的鉴别映射特性进行多标记学习. 在集成学习中, Guo 等人 设计的集成特征选择方法能明确地找出标签之间的相关性, 而且可以通过多标记分类器和评价指标充分利用标签关联等.另外, 近些年流形学习被广泛地研究 , 流形正则化的目的是在保持高维数据的几何结构的同时, 将高维数据投影到一个低维的数据空间, 从而在保持高维数据的几何结构的同时有效实现维数约简. 而且样例层流形正则化项的基本思想是如果两个样例相似性越高, 那么由它们所获得的低维标签空间中相应的样例标签也应该是相似的. 该正则化项被广泛应用在各种模型学习中[4 74 8]. 本文中标签层流形正则化项被引人工作方案内.3 关键实现技术3. 1 设计方法在这一节, 我们提出了一种新的多标记特征选择方法. 首先, 我们学习从特征空间到标签空间的映射. 如下优化问题被获得:mi nIXW YI^( 4)W其中we 表示特征矩阵x的系数矩阵. 该系数矩阵w可以度量矩阵x中每一个特征的贡献程度.本文利用最小二乘回归模型, 通过不断迭代特征选择矩阵w, 以此来最小化特征矩阵和标签矩阵之间的误差. 其次根据样例层流形的基本思想[4 9]为利用样例层流形的几何结构来挖掘样例间的相似性. 因此, 如下形式的正则化项被构建:^i lJ1=YjSl(CXWX.(XW),. )(CXWX.(XW),. )T=Tr((XW)T(, AXSx)(XW) )=Tt(. WtXtLxXW)(5)其中 沪被称为关于特征矩阵x的图拉普拉斯矩阵 表示近邻矩阵, Ax表示对角矩阵. 而流形学习的成功依赖于高质量的近邻矩阵[2 3]. 其中近邻矩阵通常可以通过如下几种方式来构建[4 8]:通过布尔值所获得的近邻矩阵:sf}=\或 x. e(A〇#(u( 6)U其他通过余弦距离计算两个向量之间的相似关系所获得的近邻矩阵:xlx,.I足 mu, 若Xt.(^(M')P(:Xr)或l. e(A〇#(u1〇, 其他通过热核函数?构建一个最近邻图[5 °], 即热核函数通过确定点与点之间的权重大小, 如果点z 和点_; 相连, 那么它们关系的权重通过如下公式获得:SI1 〇 , 其他( 8)① 热核函数最早源于热力学的热传导方程, 可以概括一个点周围的几何信息, 从而起到探测模型表面几何变化的功能[49].李永豪等: 基于稀疏系数矩阵重构的多标记特征选择 183 1 9 期其中(AO#(X,. ) 表示样例X,. 的f 个最近邻节点.c r表示热核函数的一个调节参数.基于上述信息, 式( 4) 和(5) 被整合重构为如式( 9) :mi n{| |XW Y| | ^+aTr (WTXTLxXW) }( 9)W其中《 是一个正则化参数, 用来调控样例层流形正则化项对损失函数的贡献度. 为了从标签层角度利用标签之间的相似性关系, 我们采用如下形式的标签层正则化项:夺交lxI ?氣咖%I ;^i 1;1=((履) aw v)((maw.,)T^i lJ1=Tr( (XW)(AYSY)(XW)T)=Tt(XWLyWtXt)(1 0)其中 浐被称为关于矩阵Y的图拉普拉斯矩阵 表示近邻矩阵, Ay表示对角矩阵. 因此, 如下函数被获得:mi n{IXW Y\ ZF+aTr(WTXTLxXW)+W^Tt (XWLyWtXt) }(1 1)其中/? 是用来控制标签层正则化项贡献度的正则化参数 可以被用来度量每一个特征的贡献度, 也就是说,I I 2 的值越大表示第Z 个特征越重要. 并且目标函数中引人 范数正则化项来保证W的行稀疏性, 由于 范数应用于W, 使得目标函数具有强鲁棒性[1 1]. 最终的目标函数被构造如下:mi n{\ \XW Y\2F+aTr(WTXTLxXW)+Wj3TT (XWLYWTXT) +r\W2 a }(1 2)其中y是用来调整目标函数稀疏度的正则化参数.接下来的小节设计了一种适用于目标函数(12) 的优化方案. 这一方案可以确保RMLFS 的收敛性, 在下一小节我们具体描述了该优化方案. 提出算法借助最小二乘回归模型可以拟合特征矩阵和标签集的映射关系, 同时联合目标函数各项通过迭代更新规则来学习系数矩阵 由于W可以保持数据与标签以及标签之间的几何结构关系, 因此利用训练所学习到的稀疏系数矩阵W, 算法可以在测试数据上得到优越的分类能力, 而分类能力通过后续的实验加以验证.3. 2 优化方案本节观察到目标函数(1 2) 关于变量W是凸的,因此本文可以得到函数(1 2) 的全局最优解. 另外, 由于目标函数包含L2 a 范数项而难于直接求解, 因此目标函数是非光滑的. 为了解决这个问题, 我们引人了一种松弛化的方法 对目标函数中的Lz a范数项求关于变量W的导数, 可以获得如下公式:9|W| |2 ,dW=2DW (1 3)其中DeRd u表示一个对角矩阵, 其第OV') 个对角元素可通过如下公式进行计算:2\ \Wt.\2 +ee—0 (1 4)其中e 表示一个正的极小常数. 它可以阻止非负性问题导致的负面干扰, 以至于|W|2 i l 可以被松弛化为2Tr (WTim〇. 因此目标函数(1 2) 可以被重构成如下形式:mi n{|XW Y| | ^+aTr (WTXTLxXW)+W[^Tr(XWLYWTXT)+2yTr (WTDW) }( 1 5 )进一步, 非负约束条件(W>0) 被整合到函数(1 5) 中, 从而一个有效的优化方案被获得. 因此目标函数变成如下的拉格朗日函数形式:£ (W)=IXW YI^+ ?Tr (WTXTLxXW)+/? Tr (XWLYWTXT )+ 2 yTr (WTDW)Xr ( WT)(1 6)其中平>0 是一个拉格朗日乘子. 为了更新W, 函数(1 7) 关于W的导数被获得:r—=2XTXW 2XTY+ 2aXTLxXW+aw2[^XTXWLY+ 2yDW'P(1 7)然后应用KKT条件也=0 得到如下关于W的公式:( 2XTXW 2XTY+ 2aXTLxXW+2[^XTXWLY+ 2yDW)°W=0(1 8)其中。表示哈达玛积. 而且 和!. 因此我们获得如下形式的更新公式:(XTY+aXTSxXW+pXTXWSY ) tlv(XTXW+ aXTAxXW+pXTXWAY+yDW) 1}(1 9)其中i 表示当前的迭代次数. 然后我们可以通过所提出的特征选择算法RMLFS来获得最优的1 个特征组成的特征子集. RMLFS 的伪代码在算法1 中被描述. 另外我们根据如下收敛性定理可证明该方案的收敛性.收敛性定理1 . 式( 1 2) 的目标函数值单调减小, 直到算法1 收敛.证明. 相关证明详见附录部分.1832 计 算机 学 报 2022年算法1 . RMLFS.输人: 特征矩阵 标签矩阵正则化超参数a ,/3, y输出: 返回排序后的前/ 个特征1. 随机初始化2. t= 〇i3. 计算A'S'A1■和浐;4. 重复迭代:5. S*D"=2|w,1|2+,;6. 更新:出L + aXTSxXW\ j3XTXWSY )Wl)^WlJ( XTXW\ aXTAxXW\i3XTXWAY\ rDW')^7. n+1;8. 直至满足收敛条件”<103;9. Ret urn矩阵W;10. 通过| | 汛.|2 , f=l, 2 ,…, A选前/ 个特征.4 实验结果及分析本节使用13 个真实的多标记基准数据集和8 个对比算法验证RMLFS算法有效性. 所有实验均在3.4GHz 的英特尔酷睿i 7 6700 且运行内存为1 6GB的计算机设备上进行.4. 1 数据集描述及实验设置本文从Mul an数据库[5 1]中获取的13个多标准数据集已经被广泛使用在多标记学习方法中[3 ’ 2 3 ’ 4 6’5 2?].我们使用这1 3 个基准数据集来验证RMLFS 的有效性. 例如, Fl ags 数据集属于图像域, 该数据集包含1 94 个样例和7 个类标签, 如红色、 绿色和蓝色等;Sci ence 数据集属于文本域, 该数据集包含5000 个样例, 每个样例表示743个特征和40个标签. Genbase数据集属于生物学领域, 包含662 个蛋白质, 其中一个蛋白质具有1 1 85 个特征. 此外, 还有27 个类别标签, 如受体和氧还原酶等. 关于这些数据集的详细信息见表2.表2 实验数据集描述编号 数据名称 样例数 特征数 标签数1 3Fl ags 1 94 1 9Ar t s 5000 462Educati on 5000 550Enter tai n 5000 640Heal th 5000 61 2Recr eati on 5000 606Reference 5000 793Sci ence 5000 743Soci ety5000 636Genbas e 662 1 1 85Medi cal 978 1 449Enr on 1 702 1 001Soci al 5000 1 0477324053为了全面验证RMLFS 的分类性能, 将其与以下的特征选择方法进行了比较: MIFSM、 MDMR[3 5]、SCLS[3 4]、 mRMR[7]、 RALMFS[3 7]、 TRCFS[3 8]、 LRFS[3 9]和GMM[4°]. 此外, 参照MIFS[3 6], 实验部分选择热核函数构造近邻矩阵, 其中设置f 和c r 分别为5. 0和1 .0. 进一■步为公平起见, 我们在相同的网格中调整各个带有正则化参数算法的参数, 该网格为{0.01, 0.1, 0.3 , 0.5, 0.7, 0.9 ,1 .0}. 然后利用正则化参数的最优值来评价分类性能. 接下来, 多标记问题通过BR模型转化为多个相互独立的单标签分类问题. 然后我们使用线性支持向量机( SVM) 和K最近邻分类器( KNN) 来学习这些相互独立的单标签分类问题, 其中SVM的参数C通过网格{1 (T4,l (r3,一,1 03,1 04} 进行调整. 另外采用考虑标签关系评测的学习器MLKNN[4 1]. 同时, 在实验中采用了五折交叉验证. 而且采用以下评估标准, 基于F1度量的Mi cro average和Macro average( Mi cro FI和 虑标签关系的Hammi ngLoss评估指标. 它们的定义公式如下:■2]2TP!Mi cr〇 Fl=,^]( 2TP!+FP!+FJV!)( 2〇)i 1Macr〇 Fl=—X)^TF—-[z( 2TP'+FP'+FN')Hammi ngLoss=T]^Y/, ?Y,, ( 21 )W, 1Z,1其中, Z表示标签的数目, 对于第Z 个标签, TP表示真阳性, PT表示假阳性, FJV表示假阴性. 十表示异或操作. Y[ 和I, 分别表示第(*,_;) 个预测标签和原始标签.4. 2 实验结果及分析提出的多标记特征选择方法RMLFS与8 个代表性的特征选择算法在1 3 个数据集上进行比较. 而且根据参考文献MIFS[3 6]给定的经验值, 即通过特征总量的前20%来计算每一个要对比方法的均值与标准差. 所选特征的数量步长设为1%( Fl ags 数据集仅有1 9 个特征, 因此使用其所有特征) . 使用两个分类器的所有方法在Mi cro FI、 Macro FI 和Hammi ngLoss 准贝!J 下的实验结果被展示在表3?表7 中. 其中, 相应数据集在9 种方法下的最优结果用加粗黑体表示. 带有下划线的字体表示相应数据下RMLFS方法所得结果为次优值. 我们也将各李永豪等: 基于稀疏系数矩阵重构的多标记特征选择 183 3 9 期方法在所有数据集下的“平均值”给出. 此外, 准则Mi cro Fl^Macro Fl 对应表中的值越大代表对应算法的分类性能越好, 而Hammi ngLoss 准则对应表中的值越小代表对应算法的分类性能越好( 其中mRMR属于单标记特征选择方法, 不适用于基于多标记学习器MLKNN的Hammi ngLoss 准则) .通过观察这些表, 我们发现所提出的方法RMLFS在“平均值”方面比其他8 种方法获得了更优异的分类结果. 在表3?表6 中, 除数据集Medi cal 和Genbase 之夕卜 , 在Mi cro FI、 Macro FI 的评价标准下, 与8 种对比方法相比, 我们的方法在1 1 个数据集上获得了最优或次优的结果. 在表7 中, 除数据集表39 种特征选择方法在SVM分类器上的Microti 结果Datasets MIFS MDMR SCLS LRFS mRMR RALMFS TRCFS GMM RMLFSFl ags 0. 7225 士 0. 049 9 0. 6 49 1 士 0. 0425 0. 6 7 46 士 0. 03 1 0. 6 6 5 9 士 0. 0405 0. 6 6 5 1 士 0. 03 22 0. 6 3 1 5 士 0. 0481 0. 6 9 5 5 士 0. 0203 0. 6 6 03 士 0. 03 21 0. 7 1 3 6 士 0. 0424Art s 0. 1 3 9 1 士 0. 07 83 0. 09 46 士 0. 05 24 0. 1 06 士 0. 046 0. 1 041 士 0. 0448 0. 2582士 0. 05 7 6 0. 1 01 8 士 0. 06 07 0. 229 士 0. 09 1 7 0. 0482 士 0. 025 9 0. 25 45 士 0. 06Educati on 0. 07 3 3 士 0. 05 87 0. 1 27 士 0. 081 1 0. 07 3 3 士 0. 05 9 3 0. 1 49 5 士 0. 0806 0. 23 5 7 士 0. 05 7 6 0. 1 9 3 4 士 0. 05 5 8 0. 21 81 士 0. 09 5 6 0. 05 6 9 士 0. 041 5 0. 276 士 0. 05 48Entertai n 0. 227 8 士 0. 1 1 21 0. 1 89 8 士 0. 086 5 0. 1 1 3 2 士 0. 07 1 7 0. 1 843 士 0. 0821 0. 3 445 士 0. 06 82 0. 21 43 士 0. 1 004 0. 3 3 1 士 0. 09 9 6 0. 1 1 6 3 士 0. 07 6 9 0. 35 士 0. 086 9Heal th 0. 46 81 士 0. 07 9 5 0. 43 46 士 0. 07 6 1 0. 3 45 1 士 0. 0441 0. 47 5 4 士 0. 03 7 0. 5 3 81 士 0. 06 82 0. 5 1 5 7 士 0. 043 9 0. 5 282 士 0. 05 8 0. 3 6 1 8 士 0. 05 5 2 0. 5594 士 0. 03 7 8Recreati on0. 25 24士0. 06 9 8 0. 03 3 1 士 0. 03 82 0. 06 44 士 0. 02 0. 03 9 2 士 0. 03 7 4 0. 27 45 士 0. 0445 0. 227 9 士 0. 07 1 1 0. 26 7 8 士 0. 0488 0. 007 士 0. 01 08 0. 2808 士 0. 047Reference 0. 3 5 9 3 士 0. 1 046 0. 3 5 5 9 士 0. 06 9 0. 26 6 1 士 0. 0829 0. 3 7 6 8 士 0. 06 6 4 0. 41 1 4 士 0. 09 1 1 0. 4042 士 0. 1 3 22 0. 43 9 1 士 0. 09 9 9 0. 3 05 士 0. 06 49 0. 4396 士 0. 09 5 7Sci ence 0. 1 286 士 0. 05 6 9 0. 1 26 9 士 0. 07 43 0. 03 6 5 士 0. 03 5 0. 1 286 士 0. 07 7 6 0. 20H 士 0. 0448 0. 09 6 9 士 0. 05 3 9 0. 2249 士 0. 06 6 2 0. 03 6 8 士 0. 03 2 0. 2338 士 0. 05 3 7Soci ety0. 3 001 士 0. 0424 0. 3 1 9 1 士 0. 01 7 2 0. 21 6 士 0. 028 0. 3 21 士 0. 01 6 0. 27 08 士 0. 05 1 1 0. 223 1 士 0. 05 9 4 0. 3 1 06 士 0. 06 45 0. 3 041 士 0. 0403 0. 3221 士 0. 045 2Genbase 0. 9 7 1 7 士 0. 1 01 0. 9 7 85 士 0. 06 7 5 0. 5 41 士 0. 01 3 7 0. 9 7 85 士 0. 06 7 6 0. 9937 士 0. 0006 0. 9 5 82 士 0. 1 3 6 5 0. 9 7 48 士 0. 087 5 0. 0000 士 0. 0000 0. 9 7 1 1 士 0. 1 05 4Medi cal 0. H49 士 0. 1 05 8 0. 7 5 5 6 士 0. 05 46 0. 3 6 9 7 士 0. 009 4 0. 7 5 6 7 士 0. 05 48 0. 7 5 7 2 士 0. 0081 0. 3 6 3 2 士 0. 1 47 4 0. 7613 士 0. 1 081 0. 0000 士 0. 0000 0. 7 3 7 2 士 0. 1 3 49Enron 0. 3 7 23 士 0. 027 4 0. 47 3 9 士 0. 049 2 0. 4884 士 0. 03 1 4 0. 445 7 士 0. 05 5 5 0. 5346 士 0. 0241 0. 3 89 1 士 0. 05 88 0. 405 1 士 0. 05 05 0. 3 85 士 0. 03 5 7 0. 5 27 4 士 0. 049Soci al 0. 27 5 6 士 0. 1 3 6 1 0. 46 5 士 0. 1 05 8 0. 3 6 3 1 士 0. 1 2 0. 46 48 士 0. 1 1 9 4 0. 5 3 1 3 士 0. 06 7 0. 1 49 士 0. 1 1 24 0. 5462士 0. 05 9 5 0. 3 843 士 0. 1 1 1 3 0. 5 45 8 士 0. 09 9 8Average 0. 3 85 1 0. 3 849 0. 281 3 0. 3 9 1 6 0. 46 3 2 0. 3 43 7 0. 45 6 3 0. 205 1 0. 4778表49 种特征选择方法在SVM分类器上的Macro^Fl 结果Datasets MIFS MDMR SCLS LRFS mRMR RALMFS TRCFS GMM RMLFSFl ags0. 5697±0. 09 9 80. 5 03 5 ±0. 05 3 50. 5 3 88±0. 0420. 5 1 06 ±0. 04420. 5 05 2±0. 049 50. 487 2±0. 043 60. 5 221 ±0. 03 9 70. 5 23 3 ±0. 03 29Art s0. 05 5 士0. 03 40. 03 9 3 士0. 021 90. 03 81 士0. 01 6 10. 043 3 士0. 01 870. 1 1 42士0. 025 20. 03 85 士0. 025 60. 1 025 士0. 03 5 90. 01 9 4士0. 01 07Educati on0. 01 9 5 士0. 01 70. 03 5 3 士0. 02490. 01 9 5 士0. 01 490. 0485 士0. 027 90. 0803士0. 02040. 05 25 士0. 01 440. 07 6 5 士0. 026 70. 01 3 2士0. 01 06Entertai n0. 09 7 1 士0. 047 40. 07 7 2士0. 03 20. 043 6 士0. 030. 07 88士0. 03 070. 1 46 5 士0. 0260. 081 5 士0. 03 840. 1 45 士0. 04050. 043 士0. 029 4Heal th0. 1 1 81 士0. 046 10. 1 226 士0. 05 1 90. 06 H士0. 03 460. 1 45 4士0. 03 7 80. 1 83 6 士0. 03 3 90. 1 5 9 2士0. 041 50. 1 875士0. 045 40. 0441 士0. 01 6 4Recreati on0. 1 3 3 6 士0. 03 3 40. 01 9 3 士0. 02270. 03 01 士0. 01 080. 023 1 士0. 02250. 1 449 士0. 02830. 1 21 6 士0. 04210. 1 45 9 士0. 029 90. 0043 士0. 006 5Reference0. 06 28士0. 023 60. 0408士0. 02050. 021 4士0. 006 80. 05 1 士0. 02070. 09 29 士0. 01 9 40. 06 28士0. 027 80. 09 4士0. 023 40. 01 86 士0. 0044Sci ence0. 03 41 士0. 01 6 40. 03 7 8士0. 02850. 007 4士0. 007 10. 03 88士0. 02870. 07 5 8士0. 01 5 10. 03 5 7 士0. 01 9 90. 0939士0. 026 50. 0087 士0. 0081Soci ety0. 05 5 4士0. 01 9 70. 049 士0. 01 5 90. 021 士0. 003 50. 049 3 士0. 01 5 50. 06 41 士0. 01 1 40. 03 1 8士0. 01 1 60. 07 88士0. 01 9 50. 03 46 士0. 008Genbase0. 6 89 4士0. 1 09 10. 7 6 42士0. 1 29 10. 241 3 士0. 02210. 7 6 3 6 士0. 1 3 040. 81 48士0. 00030. 7 3 7 5 士0. 1 5 270. 7 6 5 1 士0. 1 420. 0000士0. 0000Medi cal 0. 221 6 + 0. 04830. 3 1 5 7 +0. 07 3 60. 07 9 3 + 0. 01 270. 3 1 7 2 + 0. 07 3 50. 3 05 4 + 0. 01 1 70. 1 288 + 0. 06 290. 3358 + 0. 06 810. 0000 + 0. 0000Enron0. 07 43 士0. 01 6 90. 1 07 6 士0. 03 240. 1 1 89 士0. 03 10. 09 88士0. 03 250. 1 46 3 士0. 03 030. 07 41 士0. 026 80. 0822士0. 02890. 07 9 8士0. 023 7Soci al 0. 03 08士0. 01 6 40. 07 5 4士0. 03 1 40. 03 6 2士0. 01 430. 083 2士0. 03 1 20. 1 042士0. 01 3 10. 01 44士0. 01 20. 1 263士0. 02460. 03 49 士0. 01 1Average0. 1 6 6 30. 1 6 830. 09 7 10. 1 7 3 20. 21 3 70. 1 5 5 80. 21 20. 06 3 40. 5 6 3 8±0. 08420. 1 1 3 1 士 0. 027 50. 07 6 7 士 0. 01 6 80. 1 573 士 0. 03 70. 1 86 2 士 0. 043 40. 1 506 士 0. 02890. 0969 士 0. 01 9 80. 086 6 士 0. 0230. 0909 士 0. 01 830. 7 83 7 士 0. 1 1 6 90. 3 25 2 士 0. 081 20. 1381 士 0. 03 6 60. 1 223 士 0. 025 60. 2224表59 种特征选择方法在3NN分类器上的Micro ̄Fl 结果Datasets MIFS MDMRSCLSLRFSmRMRRALMFSTRCFS GMM RMLFSFl ags0. 6 6 1 5 ±0. 03 020. 6 1 07 ±0. 01 6 50. 6 1 22±0. 01 1 50. 6 1 5 7 ±0. 01 80. 6 07 8±0. 01 80. 6 05 7 ±0. 01 220. 6 6 04±0. 03 430. 6 1 29 ±0. 01 3 60. 6829±0. 03 5 1Art s0. 201 6 士0. 05 210. 1 89 3 士0. 03 430. 1 6 41 士0. 02430. 1 9 6 3 士0. 027 30. 23 3 2士0. 023 20. 1 824士0. 043 50. 26 1 2士0. 06 430. 1 83 8士0. 03 3 60. 2829士0. 03 23Educati on0. 1 827 士0. 05 50. 23 08士0. 04040. 1 7 6 4士0. 03 7 10. 243 1 士0. 045 50. 26 3 士0. 025 60. 26 05 士0. 05 050. 29 1 3 士0. 06 850. 2223 士0. 03 6 10. 3061 士0. 043 1Entertai n0. 27 6 4士0. 06 5 20. 283 2士0. 03 040. 23 41 士0. 03 3 40. 2807 士0. 03 3 90. 3 3 5 3 士0. 026 80. 27 3 5 士0. 06 5 10. 3 41 8士0. 081 60. 2802士0. 03 230. 3842士0. 06 49Heal th0. 43 5 士0. 07 060. 407 士0. 05 1 40. 3 48士0. 03 890. 43 6 5 士0. 02040. 4823 士0. 041 20. 47 3 9 士0. 05 870. 47 5 1 士0. 07 280. 3 9 01 士0. 04460. 4889士0. 06 5 2Recreati on0. 2824士0. 05 3 50. 1 401 士0. 025 70. 1 483 士0. 021 50. 1 406 士0. 026 40. 25 7 士0. 025 20. 27 1 7 士0. 06 3 50. 3 048士0. 046 50. 1 3 43 士0. 023 80. 31 4士0. 0482Reference0. 3 81 6 士0. 05 460. 3 7 84士0. 04430. 3 1 21 士0. 03 040. 3 85 9 士0. 045 60. 406 7 士0. 04240. 3 85 7 士0. 0890. 447 8士0. 07 230. 3 H士0. 0410. 4497士0. 0447Sci ence0. 1 7 1 1 士0. 03 6 50. 1 7 3 7 士0. 03 450. 1 1 5 4士0. 01 6 20. 1 7 6 5 士0. 03 460. 21 1 9 士0. 02030. 1 5 9 7 士0. 047 60. 25 5 6 士0. 03 7 70. 1 6 1 士0. 03 010. 2598士0. 03 42Soci ety0. 3 05 5 士0. 0430. 3 1 21 士0. 03 240. 2449 士0. 02070. 3 1 5 3 士0. 02820. 29 7 7 士0. 023 50. 25 46 士0. 049 90. 3 1 89 士0. 05 060. 3 1 1 7 士0. 029 40. 334士0. 045Genbase0. 9 6 6 5 士0. 1 03 20. 9 7 6 7 士0. 06 5 50. 5 1 7 5 士0. 01 1 80. 9 7 6 6 士0. 06 5 70. 991 5士0. 00090. 9 5 5 9 士0. 1 3 40. 9 7 24士0. 087 90. 07 21 士0. 00000. 9 6 6 2士0. 1 01 2Medi cal 0. 6 1 04士0. 09 5 30. 6 41 1 士0. 03 420. 3 5 28士0. 01 3 20. 6 427 士0. 03 490. 5 81 1 士0. 045 60. 29 3 9 士0. 1 07 70. 6 5 6 1 士0. 1 2880. 0000士0. 00000. 7008士0. 1 27 5Enron0. 41 02士0. 02430. 443 5 士0. 043 70. 43 6 5 士0. 026 50. 41 9 4士0. 0480. 5 05 士0. 009 30. 3 6 5 士0. 07 290. 3 9 23 士0. 03 470. 41 45 士0. 05 020. 4932士0. 03 86Soci al 0. 3 3 7 8士0. 081 10. 45 09 士0. 05 7 80. 3 7 6 3 士0. 05 6 90. 45 49 士0. 05 430. 49 7 8士0. 02430. 3 1 5 4士0. 05 40. 5383士0. 03 070. 429 5 士0. 05 7 80. 5 27 2士0. 07 5 7Average0. 401 70. 40290. 3 1 070. 406 50. 43 6 20. 3 6 9 10. 45 5 10. 27 5 60. 47611834 计 算机 学 报 2022年表69 种特征选择方法在3NN分类器上的Macro^l 结果Datasets MIFS MDMRSCLSLRFSmRMRRALMFSTRCFS GMM RMLFSFl ags0. 5 26 5 ±0. 07 7 60. 443 2±0. 01 7 50. 45 3 8±0. 01 3 70. 45 3 1 ±0. 0220. 45 1 3 ±0. 02270. 43 86 ±0. 01 090. 5 1 02±0. 04870. 445 2±0. 01 5 60. 5522±0. 06 5 8Art s0. 09 5 1 士0. 03 30. 09 5 2士0. 02450. 07 3 7 士0. 01 3 90. 1 006 士0. 0250. 1 1 22士0. 01 50. 07 1 4士0. 025 30. 1 434士0. 04020. 0887 士0. 02290. 1 3 82士0. 03 09Educati on0. 0426 士0. 01 7 60. 0823 士0. 01 870. 05 9 2士0. 02080. 087 士0. 02020. 09 5 6 士0. 01 240. 083 8士0. 023 40. 1 047士0. 02270. 07 9 6 士0. 01 850. 1 01 士0. 01 9 4Entertai n0. 1 3 7 9 士0. 041 80. 1 48士0. 01 820. 1 1 2士0. 02020. 1 448士0. 01 9 80. 1 7 48士0. 01 70. 1 3 05 士0. 04020. 1 81 士0. 046 20. 1 45 5 士0. 01 7 50. 1 977士0. 03 9Heal th0. 1 5 7 士0. 04070. 1 43 7 士0. 03 280. 09 85 士0. 03 050. 1 6 1 1 士0. 02250. 1 9 5 3 士0. 02010. 1 85 9 士0. 03 1 70. 2008士0. 03 5 20. 1 3 1 3 士0. 027 70. 2054士0. 03 6 8Recreati on0. 1 7 03 士0. 03 810. 09 45 士0. 021 90. 085 4士0. 01 6 10. 09 3 2士0. 021 30. 1 6 44士0. 01 80. 1 5 9 7 士0. 04470. 1 85 6 士0. 03 5 40. 09 09 士0. 02050. 1 868士0. 03 3 1Reference0. 088士0. 023 80. 0809 士0. 01 7 40. 049 7 士0. 01 5 50. 085 2士0. 01 70. 09 5 5 士0. 01 1 70. 07 6 6 士0. 025 70. 1 047 士0. 01 9 70. 07 6 3 士0. 01 7 20. 1 1 55士0. 0202Sci ence0. 06 1 8士0. 01 470. 06 7 4士0. 023 80. 03 7 2士0. 009 80. 06 7 3 士0. 023 10. 1 0H士0. 01 030. 05 6 7 士0. 021 10. 1 1 23 士0. 021 70. 06 1 1 士0. 0210. 1 1 31 士0. 026 3Soci ety0. 0888士0. 021 10. 083 9 士0. 01 3 90. 05 5 士0. 01 1 20. 0847 士0. 01 290. 07 7 7 士0. 007 70. 05 3 4士0. 01 5 60. 1 03 1 士0. 01 9 90. 083 6 士0. 01 5 20. 1 1 24士0. 01 88Genbase0. 6 6 6 1 士0. 1 07 50. 7 09 2士0. 1 03 60. 223 8士0. 01 7 80. 7 09 士0. 1 0430. 7403士0. 0020. 6 887 士0. 1 3 220. 7 023 士0. 1 23 40. 005 5 士0. 00000. 7 05 2士0. 09 27Medi cal 0. 1 6 1 士0. 02090. 1 85 6 士0. 025 70. 06 26 士0. 0060. 1 87 2士0. 026 50. 1 5 26 士0. 03 9 30. 06 9 4士0. 02870. 247 2士0. 04270. 2582士0. 05 7 50. 2582士0. 05 7 5Enron0. 087 3 士0. 01 40. 1 1 5 2士0. 02030. 1 1 06 士0. 01 260. 1 09 3 士0. 021 90. 1 45 4士0. 007 80. 0809 士0. 025 60. 09 6 8士0. 021 90. 1 03 8士0. 01 9 90. 1313士0. 01 89Soci al 0. 05 06 士0. 01 6 70. 1 06 6 士0. 03 1 90. 049 4士0. 01 3 20. 1 1 1 4士0. 026 90. 1 1 6 1 士0. 005 70. 03 82士0. 01 230. 1 528士0. 023 90. 09 5 7 士0. 029 30. 1 45 9 士0. 03 01Average0. 1 7 9 50. 1 81 20. 1 1 3 10. 1 8410. 20220. 1 6 410. 21 880. 1 2810. 2279表78 种特征选择方法在ML-KNN分类器上的HammingLoss 结果Datasets MIFS MDMR SCLS LRFS RALMFS TRCFS GMM RMLFSFl ags 0. 29 2 士 0. 0205 0. 3 1 46 士 0. 01 1 1 0. 3 227 士 0. 006 1 0. 3 1 6 9 士 0. 0087 0. 3 23 9 士 0. 0087 0. 29 42 士 0. 01 9 3 0. 3 1 81 士 0. 0082 0. 2877 士 0. 0204Arts 0. 06 3 2 士 0. 001 2 0. 06 47 士 0. 0007 0. 06 3 4 士 0. 0006 0. 06 47 士 0. 0009 0. 06 3 3 士 0. 0008 0. 06 士 0. 001 5 0. 06 48 士 0. 0007 0. 0592士 0. 0007Educati on 0. 0449 士 0. 0007 0. 0449 士 0. 001 1 0. 045 6 士 0. 0008 0. 0447 士 0. 001 1 0. 043 3 士 0. 0005 0. 0423 士 0. 001 3 0. 045 士 0. 0008 0. 041 2士 0. 0007Enter tai n 0. 06 5 3 士 0. 001 8 0. 06 5 5 士 0. 001 6 0. 06 7 7 士 0. 001 0. 06 5 7 士 0. 001 5 0. 06 3 8 士 0. 0021 0. 06 06 士 0. 002 0. 06 6 1 士 0. 001 8 0. 0585 士 0. 0022Heal th 0. 0448 士 0. 0026 0. 046 6 士 0. 0023 0. 049 7 士 0. 001 1 0. 045 4 士 0. 001 3 0. 0423 士 0. 0022 0. 041 7 士 0. 003 0. 047 6 士 0. 0021 0. 0395 士 0. 001 9Recreati on 0. 06 01 士 0. 001 7 0. 06 H 士 0. 0007 0. 06 5 4 士 0. 0007 0. 06 6 7 士 0. 0007 0. 06 05 士 0. 001 3 0. 0586 士 0. 001 2 0. 06 7 士 0. 001 0. 05 9 1 士 0. 001 6Reference 0. 03 1 3 士 0. 001 5 0. 03 25 士 0. 001 4 0. 03 3 9 士 0. 0007 0. 03 26 士 0. 001 3 0. 03 25 士 0. 001 3 0. 029 士 0. 001 4 0. 03 27 士 0. 001 7 0. 0286 士 0. 001 5Sci ence 0. 03 6 士 0. 0006 0. 03 6 3 士 0. 0005 0. 03 6 8 士 0. 0005 0. 03 6 2 士 0. 0005 0. 03 6 1 士 0. 0004 0. 03 43 士 0. 0004 0. 03 6 3 士 0. 0004 0. 0341 士 0. 0004Soci ety0. 05 82 士 0. 001 2 0. 05 85 士 0. 001 1 0. 06 03 士 0. 0004 0. 05 84 士 0. 001 0. 05 9 3 士 0. 0006 0. 05 7 3 士 0. 001 2 0. 05 86 士 0. 001 1 0. 0562士 0. 001 1Genbase 0. 0026 士 0. 005 5 0. 0027 士 0. 004 0. 03 09 士 0. 0004 0. 0027 士 0. 004 0. 003 8 士 0. 006 8 0. 003 士 0. 0047 0. 045 6 士 0. 0000 0. 003 士 0. 005 6Medi cal 0. 01 6 5 士 0. 002 0. 01 7 5 士 0. 001 0. 023 3 士 0. 0002 0. 01 7 5 士 0. 001 0. 027 士 0. 0007 0. 01 49 士 0. 002 0. 027 6 士 0. 0000 0. 0139 士 0. 003Enron 0. 05 7 4 士 0. 001 2 0. 05 3 1 士 0. 0027 |
| [返回] |