欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
SCI期刊论文
当前位置:首页 > SCI期刊论文
一种自适应混合权重的自步学习方法
来源:一起赢论文网     日期:2023-09-11     浏览数:250     【 字体:

 一种自适应混合权重的自步学习方法*李 豪1, 赵 悦1, 公茂果1, 武 越2, 刘洁怡11(西安电子科技大学 电子工程学院, 陕西 西安 710071)2(西安电子科技大学 计算机科学与技术学院, 陕西 西安 710071)通信作者: 公茂果, E-mail: gong@ieee.org摘 要: 自步学习是一种受人类和动物学习过程启发的学习机制, 它赋予训练样本不同的权重, 从而逐步将简单到更复杂的样本纳入训练集进行学习. 自步学习在目标函数中加入自步正则项控制学习过程. 目前存在多种形式的自步权重正则项, 不同的正则项可能会导致不同的学习性能. 其中, 混合权重正则项同时具有硬权重和软权重的特点, 因而被广泛应用在众多自步学习问题中. 然而, 当前的混合权重方法只结合了对数软权重, 形式较为单一. 此外,相较于软权重或硬权重方式, 混合权重方法引入了更多的参数. 提出一种自适应混合权重的自步正则方法来克服形式单一和参数难以调节的问题. 一方面, 在学习的过程中权重的表示形式能够自适应进行调整, 另一方面, 可以根据样本损失分布特点来自适应混合权重引入的自步参数, 从而减少参数对人为经验的依赖. 行为识别和多媒体事件检测上的实验结果表明提出的方法可以有效地解决权重形式和参数的自适应问题.关键词: 自步学习; 多项式混合权重; 参数自适应; 监督学习中图法分类号: TP181中文引用格式: 李豪, 赵悦, 公茂果, 武越, 刘洁怡. 一种自适应混合权重的自步学习方法. 软件学报. http://www.jos.org.cn/1000-9825/6438.htm英文引用格式: Li H, Zhao Y, Gong MG, Wu Y, Liu JY. Self-paced Learning Method with Adaptive Mixture Weighting. Ruan JianXue Bao/Journal of Software (in Chinese). http://www.jos.org.cn/1000-9825/6438.htmSelf-paced Learning Method with Adaptive Mixture WeightingLI Hao1, ZHAO Yue1, GONG Mao-Guo1, WU Yue2, LIU Jie-Yi11(School of Electronic Engineering, Xidian University, Xian 710071, China)2(School of Computer Science and Technology, Xidian University, Xian 710071, China)Abstract: Self-paced learning (SPL) is a learning regime inspired by the learning process of humans and animals that graduallyincorporates samples into training set from easy to complex by assigning a weight to each training sample. SPL incorporates a self-pacedregularizer into the objective function to control the learning process. At present, there are various forms of SP regularizers and differentregularizers may lead to distinct learning performance. Mixture weighting regularizer has the characteristics of both hard weighting andsoft weighting. Therefore, it is widely used in many SPL-based applications. However, the current mixture weighting method onlyconsiders logarithmic soft weighting, which is relatively simple. In addition, in comparison with soft weighting or hard weighting, moreparameters are introduced in the mixture weighting scheme. In this study, an adaptive mixture weighting SP regularizer is proposed toovercome the above issues. On the one hand, the representation form of weights can be adjusted adaptively during the learning process; onthe other hand, the SP parameters introduced by mixture weighting can be adapted according to the characteristics of sample lossdistribution, so as to be fully free of the empirically adjusted parameters. The experimental results on action recognition and multimediaevent detection show that the proposed method is able to adjust the weighting form and parameters adaptively.Key words: self-paced learning (SPL); polynomial mixture weighing; parameter adaptation; supervised learning* 基金项目: 国家自然科学基金(61906146, 62036006, 6210020547); 中央高校基本科研业务费专项资金(JB210210); 广东省重点领域研发计划(2020B090921001)收稿时间: 2021-05-26; 修改时间: 2021-07-22; 采用时间: 2021-09-09软件学报 ISSN 1000-9825, CODEN RUXUEW E-mail: jos@iscas.ac.cnJournal of Software [doi: 10.13328/j.cnki.jos.006438] http://www.jos.org.cn©中国科学院软件研究所版权所有. Tel: +86-10-62562563网络首发时间:2022-11-15 09:38:03网络首发地址:https://kns.cnki.net/kcms/detail/11.2560.TP.20221113.1444.051.html1 引 言自步学习(self-paced learning, SPL)[1] 是一种受人类和动物学习过程启发的机器学习机制. 自步学习最早可追溯到课程学习(curriculum learning, CL)[2], 二者都采用逐步将简单到更复杂的样本纳入训练集进行学习的策略. 在课程学习中, 课程信息作为一种先验信息需要提前指定, 之后该信息保持不变. 然而, 自步学习机制可以根据学习者已经学习的内容动态生成课程信息. 自步学习自从被提出以来, 已经被广泛应用于模式识别和计算机视觉等领域[37] , 例如, 行为识别和多媒体事件检测[4,8,9] 、矩阵分解[911] 、领域自适应[12] 、字典学习[13] . 许多研究成果表明自步学习能够避免模型陷入局部极小值, 并获得更好的泛化能力[1315] . 同时, 自步学习也能够减弱数据集中噪声和异常数据所带来的影响, 从而进行鲁棒性的学习[8,1619] .近年来, 自步学习得到了广泛的发展[2022] . Jiang 等人提出了考虑样本多样性的自步学习方法(self-pacedlearning with diversity, SPLD)[4] , 该方法通过从不同的类别中选择容易的样本, 以提升当前训练集的多样性, 从而避免了由于难易属性不同造成的样本类别不均衡问题. Gong 等人提出了基于多目标优化的自步学习方法(multiobjective self-paced learning, MOSPL)[23] , 通过引入多目标优化技术同时对损失函数和自步正则项进行优化.该方法在自步参数没有先验知识且难以得到的情况下来获取自步学习问题完整的解路径. 为了解决先验知识的问题, Jiang 等人将课程学习和自步学习进行结合, 提出了自步课程学习(self-paced curriculum learning, SPCL)[8] , 同时考虑了训练前的先验知识和学习过程中的课程信息. Liang 等人提出了主动自步学习(active self-paced learning,ASPL)[5] , 该方法通过将主动学习与自步学习相结合, 在有标记样本数据较少的情况下使得分类器具有较好的分类精度和鲁棒性. 主动自步学习在人脸识别问题上实现了弱人工标记下的增量学习. 为了解决自步学习中超参数选择的问题, 束俊等人提出基于元学习机理的自步学习方法, 该方法能使自步学习中涉及的超参数以数据驱动的方式自动习得[16] . 古楠楠等人提出了基于自步学习和稀疏自表达的半监督分类方法, 该方法提出一种新的自步学习项, 将代表数据重要程度的硬权重与软权重结合起来, 对样本进行学习[24] . 自步学习逐渐形成一套成熟的理论体系, 这种学习机制已经集成到CMU informmedia 团队开发的系统中, 并在TRECVID MED/MER 竞赛中, 在语义查询(SQ)/000Ex 任务取得了领先的性能[25] .自步学习正则项的设计近年来成为了研究人员的重点研究方向[17] . 自步学习通过给每个样本分配一个权重来体现样本的难易程度, 自步正则项则决定了样本的选择和权重的计算. 最终, 课程信息和模型通过迭代更新权重变量和模型参数的方式进行联合学习. Kumar 等人[1] 通过对目标函数引入权重变量的L1 范数作为目标函数的正则项来控制目标函数的优化过程. 权重变量只用两种取值状态“0”或“1”来表示样本是否被选取, 这是自步学习的硬权重形式. 为了在选取样本的基础上衡量样本的重要程度, Jiang 等人[17] 提出了自步学习正则项的软权重形式.线性软权重、对数软权重和混合权重等形式的正则项用以解决在不同数据和问题背景下的学习问题. 当样本损失值较小时, 相对于其他权重形式来讲, 混合权重能够给样本分配一个大的权重, 所以混合权重在一定程度上偏爱损失值小的样本, 因此得到了更为广泛的应用.然而混合权重的软权重部分形式过于单一, 仅考虑了一种软权重的形式[17] . 往往不同的问题背景和数据分布需要采用如软权重部分为线性、对数或其他不同形式的混合权重对目标函数进行惩罚[17] . 目前单一形式的混合权重难以根据特定问题和特定数据分布进行自适应的动态调整, 缺乏灵活性. 另一方面, 混合权重引入了较多的参数, 这些自步参数的取值, 特别是参数的初始化, 会对自步学习结果产生重要影响. 目前并没有统一有效的方法对这些自步参数进行设定. 自步参数的设定过多依赖于先验知识或人为经验, 得到一组合适的自步参数往往花费巨大. 针对上述问题, 本文提出一种自适应混合权重的自步学习方法(adaptive mixture weighting self-paced learning,AMSPL) 来解决形式单一和参数调节的问题.本文的贡献主要体现在3 个方面: (1) 提出了一种自适应混合权重自步学习方法, 使得不同的混合权重正则项能够具有统一且简单的表达形式, 随着参数的调整可以拟合出不同形式的混合权重, 进而能够根据不同问题或数据分布对目标进行惩罚. (2) 多项式参数的自适应能够使得权重表示形式在学习迭代过程中根据样本损失分布动态的进行调整, 从而使得学习过程不受单一权重形式限制, 提升了不同权重形式在同一学习过程中应用的灵活性.(3) 考虑到混合权重正则项含有较多的参数, 本文采用自适应的方法减少参数对人为经验的依赖.2 软件学报2 相关工作D = f(x1; y1) ; (x2; y2) ; : : : ; (xn; yn)g xi 2 Rm yiv = [v1; v2; : : : ; vn] !v 2 [0;1]n !v令表示训练数据集. 其中, 表示第i 个样本, 则表示第i 个样本所对应的标签. 自步学习使用权重变量来反映样本的难易程度, 令表示样本的权重变量, 表示模型参数, 其中, . 则自步学习通过优化由加权的损失项和自步正则项构成的目标函数(1) 实现对模型参数 和权重变量 的联合训练.min!;vE (!;v;) =Σni=1viL(yi;g(xi;!))+ f (v;) (1)L(yi;g(xi;!)) yi g(xi;!) g f (v;) ! v其中, 表示样本真实标签和预测值之间的损失函数, 表示模型的决策函数. 是自步学习的年龄参数, 用以控制学习的步长. 则表示自步正则项. 上述目标函数主要通过交替凸搜索进行优化, 即在每一轮迭代中, 一组参数被固定, 对另一组参数进行优化. 随着自步参数的递增, 模型参数和权重变量 的联合训练使得样本以自步的方式加入训练集进行训练.v近年来, 自步学习中正则项的设计成为了研究人员的重点研究方向. 不同的正则项可能会对自步学习整体的学习性能产生较大的影响. 在最初的自步学习中[1] , 通过对目标函数引入权重变量的L1 范数作为目标函数的正则项来控制目标函数的优化过程, 如公式(2). 其中, 权值向量表示了上一轮的迭代中每个样本是否被选择. 在迭代过程中要得到全局最优的, 可以通过公式(3) 计算获得:min!;vE (!;v;) =Σni=1viL(yi;g(xi;!))���Σni=1vi (2)vi ={1; L(yi;g(xi;!)) < 0; 其他(3)!   v在每一轮迭代中, 当 确定时, 若样本损失小于 时, 便认为是简单的, 于是将这些样本加入训练集中. 随着的增大, 新加入样本的复杂程度也逐渐增大. 因此, 控制着整个自步学习的进度. 当 确定时, 就可以使用被选择的简单的高置信度样本训练模型. = [(12) = (1 ���2)]1 > 2 > 0随着对自步学习深入的研究, 越来越多有效的自步正则项被提出[4,17,23]. 混合权重是一种硬权重和软权重的混合形式. 混合权重正则项的表达式如式(4) 所示, 其权重变量的求解见式(5). 其中, , :f (v;) = ���Σni=1log(vi +1i)(4)vi =8>>>>>><>>>>>>:1; Li 20; Li 1Li��� 1; 其他(5)混合权重正则项相比于其他权重形式正则项可以给损失值小的样本分配大的权重, 进而在一定程度上偏爱损失值小的样本. 由于混合权重的软权重部分形式过于单一, 本文旨在使混合权重的软权重部分能够呈现出线性或对数等其他不同形式, 进而能够针对不同的问题背景或数据特点对目标进行惩罚. 根据混合权重的软权重部分形式的不同, 混合权重可以有不同的表示形式. 但是不同形式的混合权重的数学表达式差别巨大, 缺乏统一的表示形式. 本文提出的自适应混合权重正则项能够通过控制多项式参数来拟合不同的混合权重形式, 进而将混合权重拓展到更一般的形式, 同时可以在一个学习过程中对权重形式进行动态的调整. 此外, 本文采用一种由数据驱动的阈值自适应方法减少参数对人为经验的依赖.3 本文方法近年来, 许多自步正则项被提出. 但是, 混合权重形式单一. 本节借鉴多项式拟合在机器学习中应用的思想, 提李豪 等: 一种自适应混合权重的自步学习方法3出了自适应混合权重自步正则项. 本节将详细介绍本文提出的自适应混合权重自步学习方法. 首先, 通过目标函数和正则项建立AMSPL 模型, 并证明本文提出的多项式混合权重正则项满足自步学习对于正则项的定义, 同时证明该正则项通过对多项式参数的调节能够拟合出不同的权重形式. 接着, 利用最优化最小化算法来对该模型进行优化与求解. 最后介绍一种基于迭代阈值的参数自适应方法, 使得自步参数和多项式参数能够更多的根据数据本身进行自适应的取值. 其中多项式参数的自适应使得在自步学习迭代过程中, 正则项可以自适应的进行动态调整.1 为本文方法的框架示意图. 每个样本被分配了一个权重来反映样本的难易程度, 接着利用带有多项式混合权重正则项的目标函数对模型参数和权重向量进行联合学习.样本 1样本 2样本 3样本 4样本 n1...简单复杂样本用带有权重的样本训练模型110.80.600更新样本权重权重多项式参数自适应自步参数自适应样本 n1 自适应混合权重自步学习框架3.1 自适应混合权重方法先前的混合权重方法[17] 采用了硬权重和对数软权重相结合的方式, 形式较为单一. 本文旨在将该混合权重扩展到更一般的形式, 并能够根据问题背景和数据分布自适应地选择硬权重和软权重组合形式. 为了解决上述问题,本文提出了一种自适应混合权重方法, 如公式(6) 所示.f (v;) =Σni=1( 1 ���2tvti���1vi)(6)其中, 1 > 2 > 0 , t为软权重形式的控制参数. 根据公式 (6), 可得基于自适应混合权重的自步学习目标函数如下:min!;vE (!;v;) =Σni=1viL(yi;g(xi;!))+Σni=1( 1 ���2tvti���1vi)(7)接着证明上述设计的多项式混合权重正则项满足关于自步正则项的定义[17].v = [v1; v2; : : : ; vn] L = [L1;L2; : : : ;Ln] f (v;)定义1. 表示样本的权重向量, 代表对应样本的损失值, 控制学习的进程.若满足下列3 个条件, 则被称作自步函数:f (v;) vi (1) 关于 2 [0;1]是凸函数;vi Li vi Li limLi!0vi = 1 limLi!1(2) 除 和 外, 所有的参数被固定, 则 关于 单调递减, 且有 , vi = 0 .vi  lim!0vi = 0 lim!1(3) 关于 是单调递增的, 且有 , vi = 1.f (v;) =Σni=1( 1 ���2tvti���1vi)首先证明多项式混合权重正则项满足条件1. 的海森矩阵H :H =266666666666664(1 ���2) (t���1) vt���21 0    00 (1 ���2) (t���1) vt���21   0::::::: : ::::0 0    (1 ���2) (t���1) vt���21377777777777775(8)1 ���2 > 0 t > 1 vi vi 2 [0;1] (1 ���2) (t���1) vt���2i > 0f (v;) =Σni=1( 1 ���2tvti���1vi)vi 2 [0;1]其中, , , 为第i 个样本的权重, . 因此, . 可见该矩阵为对角矩阵. 又因为对角矩阵的特征值为其主对角线元素, 明显H 的主对角线元素均大于0, 因此该海森矩阵H 是正定的. 由此, 是关于 的凸函数.4 软件学报其次, 通过设定偏导数为零, 得到了v的最优解形式如公式 (9) 所示.vi =8>>>>>>><>>>>>>>:1; Li 2(1 ��� Li1 ���2) 1t���1; 2 < Li < 10; Li 1(9)vi Li limLi!0vi = 1 limLi!1vi = 0 = 1vi 1 1 lim!0vi = 0 1lim!1vi = 1显然是随单调递减的, 且对于该混合权重显然有, . 因此满足条件(2). 这一定义表明该模型能够倾向于选择简单样本, 即该样本有较小的损失值并被赋予较高的权重. 同时, 在混合权重中, 令表示模型“年龄”, 则是随着单调递增的, 且当趋近于零时, 由公式(9) , 当趋于正无穷时, 则有. 同样满足条件(3).多项式混合权重在t 取不同值时的函数曲线如图2 所示.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0样本损失00.20.40.60.81.01.2样本权重硬权重t=1.3t=1.6t=2t=3t=42 硬权重与t=1.3, 1.6, 2, 3, 4 的多项式混合权重对比图为了进行对比, 1 列出了软权重部分为特定形式的混合权重和t=1.8, 1.4, 2 时多项式混合权重的取值对比,其中差值为多项式混合权重与线性、对数等其他对比权重形式的差. 差值为正, 表明多项式混合权重取值大于所对比的权重取值; 差值为负, 则表明多项式混合权重取值小于所对比的权重取值. 通过对比可以发现, t=2 , 多项式混合权重的软权重部分为线性形式; t=1.8 , 多项式混合权重的软权重部分近似于对数形式; t=1.4 ,多项式混合权重的软权重部分近似于标准的混合权重形式[17] . 因此, 本文所提出的多项式混合权重可以将混合权重拓展到更一般的表达形式, 有效解决了现有混合权重形式单一的问题. 研究人员可以通过选择合适的多项式参数来获得适合的混合权重形式. 结合本文后续采用的自适应方法能够在每一轮迭代中根据样本的损失情况对权重形式进行动态的调整.1 1 = 0:8, 2 = 0:2时线性部分为不同形式混合权重和 t=1.8, 1.4, 2 时多项式混合权重取值对比损失值对比1 对比2 对比3线性t=2 差值对数t=1.8 差值混合权重形式t=1.4 差值0.1 1.000 1.000 0.000 1.000 1.000 0.000 1.000 1.000 0.0000.3 0.833 0.833 0.000 0.748 0.796 0.048 0.555 0.633 0.0780.4 0.666 0.666 0.000 0.569 0.602 0.033 0.333 0.362 0.0290.5 0.500 0.500 0.000 0.430 0.420 0.010 0.200 0.177 0.0230.6 0.333 0.333 0.000 0.317 0.253 0.064 0.111 0.064 0.0470.9 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.0003.2 模型求解f (v;)最优化最小化(majorization minimization, MM) 算法可以用来对式(7) 进行优化. 该算法旨在通过交替迭代确定优化函数和最小化这两个步骤将一个复杂的优化问题转化为一个简单问题. 在给定正则项后, 可以得到李豪 等: 一种自适应混合权重的自步学习方法5v (L;) 的整合函数:F (L) =L0v (l;)dl (10)Q (!j! )作为F (L)的替代函数, Meng 等人已经证明[26] :Q(i) (!j! ) = F (Li (!))+vi (;Li (!)) (Li (!)��� Li (!)) (11)且有:Σni=1F (Li (!)) ⩽Σni=1Qi (!j! ) (12)!k是交替优化策略中第 k 轮迭代的模型参数, 那么在下一轮迭代中, 两步交替搜索可以被解释为一个标准的MM 框架:(1) 最优化Q(i)(!



!k)v (L(!k);)为了获得, 只需要解决下式所示的优化问题得到:v (Li(!k);)= minvi2[0;1]viLi(!k)+ f (vi;) (13)根据对第3.1 节自步学习定义中条件(1) 的证明可知, 关于v, 目标函数是凸函数, 因此其全局最小可以通过公式(14) 求得:@E@vi= Li +(1 ���2) vt���1i���1 = 0 (14)可得:vt���1i =1 ��� Li1 ���2(15)最终, vi的封闭最优解可以被表示为:vi =8>>>>>>><>>>>>>>:1; Li 2(1 ��� Li1 ���2) 1t���1; 2 < Li < 10; Li 1(16)(2) 最小化这一步需要计算:!k+1 = argmin!Σni=1v (Li(!k);)Li (!) (17)这里使用支持向量机(support vector machine, SVM) 作为自步学习的学习模型[27] . 结合了支持向量机的自步学习模型参数优化可以表示为以下形式:min!;b12!2 +CΣni=1vi max(0;1���yi (! xi +b)) (18)公式(18) 引入hinge loss 作为目标的损失函数, C 为惩罚参数. 引入松弛变量后, 该优化问题的最终对偶形式为:8>>>>>>>>><>>>>>>>>>:max
���12Σni=1Σnj=1
i
jyiyj(xi  xj)+Σni=1
is.t.Σni=1
iyi = 0 and 0
i Cvi; i = 1;2; : : : ;n(19)3.3 参数自适应1 2 t自步学习中的学习率等参数的取值往往是依赖于人为经验来设定的, 上述的多项式混合权重自步学习方法共包含3 类参数, , 和多项式参数 . 多个参数通常需要大量的实验由人工进行调整. 本文采用一种自适应的6 软件学报1 2阈值分割方法, 使得自步参数尽可能由数据本身的损失值分布来决定. 迭代阈值法是一种广泛应用于图像分割的自适应阈值确定方法, 数据集中样本的损失值在统计意义上也应该满足某种可分割的分布形式. 因此, 迭代阈值法能够根据数据本身的损失分布特点自适应的确定其参数取值. 对于步长参数和, 其自适应取值如公式(20) 和公式(21) 所示:g1 =8>>>><>>>>:Iteration_threshold(L0); g = 0g���11 +average(Lg)rg; g > 0(20)g2 = Iteration_threshold(Lgg1)(21)其中, g 表示自步学习进行的第 g 轮迭代, L 表示损失值小于 的样本损失组成的新的序列, average 表示对序列取平均值, r 用来调节自步学习步长的增长率, 随着迭代次数的增加, 步长的增长则越来越小, 进而保证算法的收敛性. Iteration_threshold 表示对序列使用迭代阈值法求取相应的参数值, 其算法流程见算法1 所示.算法1. 迭代阈值自适应求取参数算法.输入: 样本损失值序列L; 最大迭代次数M;输出: 自适应参数  .ll lk l0 =ll +lk21. 求出L 中的最大和最小损失值和 , 并令初始阈值为 ;2. for k=0 to M do:3. 根据阈值lkL 分成损失值小于 lk 和大于lk 的两部分, 即表示简单样本和复杂样本两部分;Nk1 Nk2 4. 分别计算出第 3 步中两部分损失值的数量 和 , 并求出这两部分的平均灰度值ld lu ;ld =ΣL(i)<lkL(i)Nk1lu =ΣL(i)>lkL(i)Nk2, :lk+1 =ld +lu25. 求出新的阈值;6. end for7. 得到最终的阈值 = lM+1 ;8. return  .对于多项式参数t, 研究人员可以根据所研究问题的需要赋予特定的值, 以得到适用于特定问题的自步正则项. 本文期望它能够在每一轮迭代中根据样本的损失情况动态的进行调整进而提升不同权重形式在同一学习过程中应用的灵活性. 在自步学习的前期, 简单的样本被选入数据集, 它们被赋予较大的权值, 因此, 这个阶段t 应有较大的取值. 在迭代的过程中, 更多复杂的样本被选入训练集, 那么t 应该有一个较小的取值. t 的取值随着迭代过程收敛的同时, 确保t 的取值始终大于1, 同时使其能够与上述步进参数相统一, 从而由样本损失值自适应确定. 其表达式如公式(22) 所示:t = tan0BBBBBBBBBB@0BBBBBBBBBB@1���len(Lgg1)2len(Lg)+11CCCCCCCCCCA 21CCCCCCCCCCA(22)其中, len(L)表示序列 L 的元素数量. 最终自适应混合权重自步学习 (AMSPL) 的总体算法描述见算法 2 所示.算法2. 自适应混合权重自步学习算法.输入: 训练集D; 最大迭代次数N;输出: 模型参数 ! .李豪 等: 一种自适应混合权重的自步学习方法71. 初始化模型参数!和自适应参数1 , 2t;2. for t=0 to N do:3.  最优化: 按照公式 (16) 更新权重变量v ;! 4. 最小化: 按照公式(17) 更新模型参数;5.  自适应更新参数1 , 2t ;6. end for! = ! 7. return .4 实验结果与分析针对不同的问题, 不同的权重形式往往导致不同的实验结果, 因此, 研究人员难以确定一个普遍适用于所有问题的权重形式. 本文采用的多项式混合权重正则项能够使得不同的混合权重具有统一的简单表达形式, 从而便于针对不同的问题和数据特点选择合适的多项式参数, 进而可以拟合出特定的权重形式. 同样, 结合了参数自适应的多项式混合权重也能够实现正则项在自步迭代过程中的自适应调整. 为了验证自适应混合权重自步学习(AMSPL)方法的有效性, 下面将在行为识别(action recognition, AR) 和多媒体事件检测(multimedia event detection, MED) 这两个实际问题上进行测试. 实验将本文提出的AMSPL 与标准形式混合权重、软权重部分为线性的混合权重、软权重部分为对数的混合权重等不同的混合权重形式自步学习方法在AR MED 3 个数据集上进行比较, 验证AMSPL 方法的性能. 实验中使用SVM 作为自步学习中的分类模型. 平均精度均值(mean average precision, MAP)用来评估本文方法和上述对比算法的性能.4.1 实验数据描述行为识别(action recognition, AR) 旨在识别视频中人的动作行为. 本文将在AR 的两个数据集上验证AMSPL的有效性. Hollywood2 数据集包括了来自69 部好莱坞电影的1 707 段视频, 这些视频包含了12 类行为. 其中, 训练集包含823 段视频, 测试集包含884 段视频[28] . Olympic Sports 数据集包含了783 段收集于YouTube 的运动员进行体育训练的视频. 其中包括16 类不同的运动行为, 649 段视频作为训练集, 134 段作为测试集[29] .多媒体事件检测(multimedia event detection, MED) 旨在根据视频内容对感兴趣的事件进行检测. 由于存在复杂的场景、摄像机运动和遮挡等原因[30,31] , 这项任务十分具有挑战性. 实验采用TRECVID MED13Test 作为MED 的数据集. 该数据集包含了32 000 段网络视频, 其中共有3 490 个视频来自20 个复杂的事件, 剩下的都是背景视频. 实验采用由NIST (National Institute of Standards and Technology) 发布的测试划分数据. 所有的特征都提取自视频内容[32] .4.2 自适应混合权重自步学习实验结果与分析1 2 = 0:212 是将本文提出的自适应混合权重自步学习与标准形式混合权重、软权重部分为线性的混合权重和软权重部分为对数的混合权重等其他自步学习方法在Hollywood 数据集上性能的比较. 其中, 对比算法的初始自步参数根据10 次实验结果取最优值, 如表2–表4 所示. 按照经验. 自步参数的取值不同对最终的分类结果会产生一定的影响, 特别是研究人员往往需要不断调整参数从而选取一个较好的结果, 这是一个费时费力的过程. 实验中使用平均精度均值(MAP×100) 评估各类方法的性能. 2 给出了自适应混合权重和对比算法在Hollywood 数据集上每个类别的AP . 3 给出了AMSPL 和其他对比算法在Hollywood 数据集上的MAP .从表2 和图3 可以看出自适应混合权重自步学习在12 个行为类别中的10 个类别达到最优的识别性能, 其中4 个类别和其他形式权重具有同样的AP , 即同时最优, 6 个类别的AP 值则高于其他3 种权重形式. MAP 67.48.3 是对本文提出的自适应混合权重自步学习与其他对比方法在Olympic 数据集上性能的比较. 从表3 可以看出自适应混合权重自步学习在16 个行为类别中的14 个类别达到最优的识别性能. 由于该数据集比较简单, 其中7 个类别的AP 值均达到了100. 通过图3 AMSPL 与其他权重形式方法在Olympic 数据集上MAP 值的比较,可以看出本文提出的自适应混合权重自步学习在Olympic 数据集上得到了最好的识别性能, MAP 94.02.8 软件学报表 2 自适应混合权重和其他形式混合权重在Hollywood 数据集上的比较动作名称混合权重线性对数AMSPLAP 1 AP 1 AP 1AnswerPhone 41.66 0.59 40.70 0.42 39.96 0.39 42.25DriverCar 96.06 0.48 95.80 0.50 95.80 0.42 95.80Eat 71.83 0.45 71.83 0.35 71.83 0.52 71.83FightPerson 82.15 0.41 82.15 0.29 82.15 0.31 82.15GetOutCar 62.27 0.45 62.27 0.42 62.27 0.53 62.27HandShake 50.90 0.48 42.93 0.36 51.25 0.39 51.25HugPerson 59.27 0.48 59.27 0.41 59.27 0.50 59.84Kiss 60.95 0.60 60.06 0.54 62.73 0.55 61.68Run 79.05 0.52 79.26 0.42 79.69 0.48 84.97SitDown 81.35 0.45 81.58 0.63 81.48 0.44 82.26SitUp 40.01 0.50 40.01 0.56 40.01 0.50 41.54StandUp 55.90 0.59 80.67 0.45 80.89 0.61 81.003 自适应混合权重和其他形式混合权重在Olympic 数据集上的比较动作名称混合权重线性对数AMSPLAP 1 AP 1 AP 1Basketball layup 100 0.48 100 0.45 100 0.38 100Bowlling 90.53 0.63 90.14 0.40 90.53 0.53 90.53Clean and jerk 100 0.48 100 0.65 100 0.44 100Discus throw 92.61 0.53 92.61 0.55 92.61 0.49 92.61Diving platform 10m 100 0.50 100 0.50 100 0.47 100Diving springboard 3m 100 0.29 100 0.44 100 0.45 100Hammer throw 98.61 0.53 100 0.46 100 0.51 100High jump 79.49 0.62 79.99 0.56 79.99 0.54 79.99Javelin throw 100 0.66 100 0.61 100 0.54 100Long jump 89.72 0.53 89.72 0.53 89.72 0.51 94.84Pole vault 98.61 0.40 98.61 0.59 98.61 0.54 98.61Shot put 91.50 0.56 94.76 0.70 94.00 0.51 94.76Snatch 94.36 0.60 92.88 0.62 92.37 0.55 98.89Tennis serve 100 0.53 100 0.52 98.21 0.49 100Triple jump 79.35 0.65 67.33 0.51 67.50 0.51 72.69Vault 80.67 0.62 82.04 0.48 79.93 0.56 81.404 是对本文提出的自适应混合权重自步学习与其他对比方法在TRECVID MED13Test 数据集上性能的比较. 从表4 可以看出自适应混合权重自步学习在20 个事件类别中的12 个类别达到最优的识别性能, 其中事件“Birthday party”“Changing a vehicle tire”“Getting a vehicle unstuck”“Repairing an appliance”和“Working on a metalcrafts project”的AP 值相比于其他对比方法均有较大的提升. 本文提出的自适应混合权重自步学习在MED 任务中得到了最好的检测性能, MAP 11.48. 从图3 可以看出, 标准形式混合权重、软权重部分为线性的混合权重和软权重部分为对数的混合权重方法在MED 实验中的MAP 值分别为9.329.59 6.98. 因此, AMSPL 在该数据集上的检测性能相比于其他权重形式自步学习方法有着较大的提升.为了对多项式参数t 在迭代过程中的取值情况进行分析, 分别对Hollywood 数据集上的行为“AnswerPhone”、Olympic 数据集上的行为“Basketball layup”和TRECVID MED13Test 数据集上的事件“Birthday party”绘制t 值随迭代次数的变化图, 如图4 所示. 可以看出, 多项式参数t 的取值随着迭代次数的增加逐渐递减, 与所设计的多项式参数更新公式(22) 期望相符. 即在自步学习的前期, 简单的样本被选入数据集, 它们被赋予较大的权值, 因此,这个阶段t 应有较大的取值. 在迭代的过程中, 更多复杂的样本被选入训练集, 那么t 应该有一个较小的取值.李豪 等: 一种自适应混合权重的自步学习方法94 自适应混合权重和其他形式混合权重在TRECVID MED13Test 数据集上的比较动作名称混合权重线性对数AMSPLAP 1 AP 1 AP 1Birthday party 6.66 0.48 5.35 0.51 6.56 0.60 9.93Changing a vehicle tire 8.25 0.55 11.34 0.43 6.53 0.70 15.85Flash mob gathering 24.45 0.73 23.34 0.48 18.93 0.36 25.46Getting a vehicle unstuck 35.53 0.49 25.13 0.42 16.82 0.45 39.44Grooming an animal 5.23 0.47 6.09 0.56 8.64 0.58 5.56Making a sandwich 10.37 0.32 11.03 0.80 6.14 0.67 10.24Parade 14.94 0.35 14.98 0.63 15.92 0.49 16.24Parkour 20.83 0.43 22.57 0.42 23.83 0.50 22.20Repairing an appliance 19.33 0.61 20.59 0.55 2.83 0.44 24.04Working on a sewing project 0.48 0.14 1.39 0.62 1.46 0.72 1.87Attempting a bike trick 7.19 0.47 6.65 0.46 4.27 0.57 8.97Cleaning an appliance 4.74 0.41 1.16 0.57 1.45 0.64 3.11Dog show 0.96 0.51 20.38 0.41 3.74 0.70 17.93Giving directions to a location 0.73 0.32 0.51 0.39 0.35 0.32 0.79Marriage proposal 0.27 0.58 0.25 0.65 0.18 0.29 0.30Renovating a home 1.47 0.55 0.72 0.42 1.46 0.52 1.25Rock climbing 5.64 0.61 3.63 0.49 3.24 0.49 5.66Town hall meeting 4.11 0.64 5.92 0.40 6.60 0.56 5.95Winning a race without a vehicle 3.52 0.61 9.89 0.59 10.09 0.60 9.70Working on a metal crafts project 1.41 0.52 0.96 0.55 0.56 0.52 5.09自适应混合权重混合权重软权重部分为线性形式的混合权重软权重部分为对数形式的混合权重10080604020MAP (×100)Hollywood Olympic TRECVID MED13Test65.12 66.38 67.28 68.0793.47 93.01 92.72 94.029.32 9.59 6.9811.483 AMSPL 与对比算法在3 个数据集上的MAP 1098765432 4 6 8 10 12 14多项式参数 t迭代次数(a) 行为 “Answer phone1086422 4 6 8 10 12 14多项式参数 t 迭代次数(b) 行为 “Basketball layup1086422 4 6 8 10多项式参数 t迭代次数(c) 事“Birthday party”图 4 多项式参数t 的取值随着迭代次数变化图5 结束语自步学习的混合权重是一种硬权重和软权重混合的形式, 但软权重部分形式单一. 本文希望存在多种混合权10 软件学报重形式, 进而对目标函数进行例如线性或对数等多种方式的惩罚. 这些不同的混合权重正则项缺乏统一且简单的表示形式. 另一方面, 混合权重具有较多的参数依赖于先验知识或人为经验. 为了解决上述问题, 本文提出一种自适应混合权重自步学习方法.该方法通过引入多项式混合权重正则项将混合权重扩展到更一般的形式. 本文的理论分析证明了多项式混合权重能够通过控制多项式参数来拟合不同的混合权重形式. 同时可以在一个学习过程中对权重形式进行自适应的动态调整, 提高了不同权重形式在同一学习过程中应用的灵活性. 考虑到多项式混合权重正则项含有较多的参数,本文采用基于迭代阈值的参数自适应方法减少参数对人为经验的依赖. 行为识别和多媒体事件检测上的实验结果表明本文方法相较于其他单一形式混合权重方法能够使得模型性能在一定程度上得到提升. 希望以后能够对多项式的动态调整以及该方法在不同场景下的应用进行更加深入的研究.References:Kumar MP, Packer B, Koller D. Self-paced learning for latent variable models. In: Proc. of the 23rd Intl Conf. on Neural InformationProcessing Systems. Vancouver: ACM, 2010. 11891197. [doi: 10.5555/2997189.2997322][1]Bengio Y, Louradour J, Collobert R, Weston J. Curriculum learning. In: Proc. of the 26th Annual Int l Conf. on Machine Learning.Montreal: ACM, 2009. 4148. [doi: 10.1145/1553374.1553380][2]Li H, Gong MG. Self-paced convolutional neural networks. In: Proc. of the 26th Intl Joint Conf. on Artificial Intelligence. Melbourne:IJCAI, 2017. 21102116. [doi: 10.24963/ijcai.2017/293][3]Jiang L, Meng DY, Yu SI, Lan ZZ, Shan SG, Hauptmann AG. Self-paced learning with diversity. In: Proc. of the 27th Intl Conf. onNeural Information Processing Systems. Montreal: NIPS, 2014. 20782086.[4]Lin L, Wang KZ, Meng DY, Zuo WM, Zhang L. Active self-paced learning for cost-effective and progressive face identification. IEEETrans. on Pattern Analysis and Machine Intelligence, 2018, 40(1): 719. [doi: 10.1109/TPAMI.2017.2652459][5]Shi CJ, Gu ZC. Semi-supervised feature selection with self-paced learning analysis. Computer Knowledge and Technology, 2020, 16(15):210, 213 (in Chinese with English abstract). [doi: 10.14004/j.cnki.ckt.2020.1808][6]Gu Y. Research on Self-paced learning and deep learning for abdominal image segmentation and enhancement [MS. Thesis]. Xi an:Xidian University, 2019 (in Chinese with English abstract). [doi: 10.27389/d.cnki.gxadu.2019.002249][7]Jiang L, Meng DY, Zhao Q, Shan SG, Hauptmann AG. Self-paced curriculum learning. In: Proc. of the 29th AAAI Conf. on ArtificialIntelligence. Austin: AAAI, 2015. 26942700. [doi: 10.5555/2886521.2886696][8]Li H, Gong MG, Meng DY, Miao QG. Multi-objective self-paced learning. In: Proc. of the 30th AAAI Conf. on Artificial Intelligence.Palo Alto: AAAI, 2016. 18021808.[9]Zhao Q, Meng DY, Jiang L, Xie Q, Xu ZB, Hauptmann AG. Self-paced learning for matrix factorization. In: Proc. of the 29th AAAIConf. on Artificial Intelligence. Austin: ACM, 2015. 31963202. [doi: 10.5555/2888116.288816][10]Wang YC. Research on POI recommendation based on self-paced learning [MS. Thesis]. Chengdu: University of Electronic Science andTechnology of China, 2020 (in Chinese with English abstract). [doi: 10.27005/d.cnki.gdzku.2020.001426][11]Tang K, Ramanathan V, Li FF, Koller D. Shifting weights: Adapting object detectors from image to video. In: Proc. of the 25th IntlConf. on Neural Information Proc. Systems. Lake Tahoe: ACM, 2012. 638646. [doi: 10.5555/2999134.2999206][12]Tang Y, Yang YB, Gao Y. Self-paced dictionary learning for image classification. In: Proc. of the 20th ACM Intl Conf. on Multimedia.Nara: ACM, 2012. 833836. [doi: 10.1145/2393347.2396324][13]Khan F, Zhu XJ, Mutlu B. How do humans teach: On curriculum learning and teaching dimension. In: Proc. of the 24th Intl Conf. onNeural Information Processing Systems. Granada: NIPS, 2011. 14491457.[14]Basu S, Christensen J. Teaching classification boundaries to humans. In: Proc. of the 27th AAAI Conf. on Artificial Intelligence.Bellevue: AAAI, 2013. 109115. [doi: 10.5555/2891460.2891476][15]Shu J, Meng DY, Xu ZB. Meta self-paced learning. SCIENTIA SINICA Informationis, 2020, 50(6): 781793 (in Chinese with Englishabstract). [doi: 10.1360/SSI-2020-0005][16]Jiang L, Meng DY, Mitamura T, Hauptmann AG. Easy samples first: Self-paced reranking for zero-example multimedia search. In: Proc.of the 22nd ACM Intl Conf. on Multimedia. Orlando: ACM, 2014. 547556. [doi: 10.1145/2647868.2654918][17]Chen YJ, Cao LW, Du YQ. Improvement of fuzzy C-Means clustering algorithm based on self-paced data reconstruction regularization.Computer and Modernization, 2020, (6): 120126 (in Chinese with English abstract). [doi: 10.3969/j.issn.1006-2475.2020.06.019][18][19] Tang YQ, Zhang WS. Robust and diverse multi-view clustering based on self-paced learning. Journal of Image and Graphics, 2019,李豪 等: 一种自适应混合权重的自步学习方法1124(8): 13381348 (in Chinese with English abstract). [doi: 10.11834/jig.180669]Zhang C, Han LX, Xu GX. Self-paced context-aware correlation filter tracking algorithm. Computer and Modernization, 2018, (11):3539, 45 (in Chinese with English abstract). [doi: 10.3969/j.issn.1006-2475.2018.11.007][20]Wang XJ, Wang WJ, Cao FL. Weighted sparse representation based on self-paced learning for face recognition. Journal of ComputerApplications, 2017, 37(11): 31453151 (in Chinese with English abstract). [doi: 10.11772/j.issn.1001-9081.2017.11.3145][21]Gan JZ, Zhong Z, Yu H, Lei C, Zhao SZ. Multi-output regression based on self-paced learning. Computer Engineering and Design, 2018,39(12): 38353839, 3852 (in Chinese with English abstract). [doi: 10.16208/j.issn1000-7024.2018.12.040][22]Gong MG, Li H, Meng DY, Miao QG, Liu J. Decomposition-based evolutionary multiobjective optimization to self-paced learning. IEEETrans. on Evolutionary Computation, 2019, 23(2): 288302. [doi: 10.1109/TEVC.2018.2850769][23]Gu NN, Sun XN, Liu W, Li LY. Semi-supervised classification based on self-paced learning and sparse self-expression. Journal ofSystems Science and Mathematical Sciences, 2020, 40(1): 191208 (in Chinese with English abstract). [doi: 10.12341/jssms13807][24]Jiang L, Yu SI, Meng DY, Mitamura T, Hauptmann AG. Bridging the ultimate semantic gap: A semantic search engine for internetvideos. In: Proc. of the 5th ACM on Intl Conf. on Multimedia Retrieval. Shanghai: ACM, 2015. 2734. [doi: 10.1145/2671188.2749399][25]Meng DY, Zhao Q, Jiang L. A theoretical understanding of self-paced learning. Information Sciences, 2017, 414: 319328. [doi: 10.1016/j.ins.2017.05.043][26]Li H. Multiobjective learning and optimization: Theory and application [Ph.D. Thesis]. Xian: Xidian University, 2018 (in Chinese withEnglish abstract).[27]Marszalek M, Laptev I, Schmid C. Actions in context. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition. Miami:IEEE, 2009. 29292936. [doi: 10.1109/CVPR.2009.5206557][28]Niebles JC, Chen CW, Li FF. Modeling temporal structure of decomposable motion segments for activity classification. In: Proc. of the11th European Conf. on Computer Vision. Heraklion: Springer, 2010. 392405. [doi: 10.1007/978-3-642-15552-9_29]][29]Jiang L, Hauptmann AG, Xiang G. Leveraging high-level and low-level features for multimedia event detection. In: Proc. of the 20thACM Intl Conf. on Multimedia. Nara: ACM, 2012. 449458. [doi: 10.1145/2393347.2393412][30]Jiang L, Mitamura T, Yu SI, Hauptmann AG. Zero-example event search using multimodal pseudo relevance feedback. In: Proc. of the2014 Intl Conf. on Multimedia Retrieval. 2014. 297304. [doi: 10.1145/2578726.2578764][31]Over P, Fiscus J, Sanders GA, Shaw B, Awad G, Michel M, Smeaton AF, Kraaij W, Quénot G. TRECVID 2013-an overview of thegoals, tasks, data, evaluation mechanisms, and metrics. In: TRECVID 2013 Workshop Participants Notebook Papers. Gaithersburg, 2016.[32]附中文参考文献:史彩娟, 谷志斌. 基于自步学习的半监督特征选择算法研究. 电脑知识与技术, 2020, 16(15): 210, 213. [doi: 10.14004/j.cnki.ckt.2020.1808][6]顾裕. 腹部图像分割与增强的自步深度学习研究[硕士学位论文]. 西安: 西安电子科技大学, 2019. [doi: 10.27389/d.cnki.gxadu.2019.002249][7]汪业成. 基于自步学习的兴趣点(POI)推荐技术研究[硕士学位论文]. 成都: 电子科技大学, 2020. [doi: 10.27005/d.cnki.gdzku.2020.001426][11][16] 束俊, 孟德宇, 徐宗本. 元自步学习. 中国科学: 信息科学, 2020, 50(6): 781793. [doi: 10.1360/SSI-2020-0005]陈怡君, 曹逻炜, 杜玉倩. 基于自步数据重构正则化的模糊C均值聚类算法改进. 计算机与现代化, 2020, (6): 120126. [doi: 10.3969/j.issn.1006-2475.2020.06.019][18][19] 唐永强, 张文生. 基于自步学习的鲁棒多样性多视角聚类. 中国图象图形学报, 2019, 24(8): 13381348. [doi: 10.11834/jig.180669]张驰, 韩立新, 徐国夏. 自步上下文感知的相关滤波跟踪算法. 计算机与现代化, 2018, (11): 3539, 45. [doi: 10.3969/j.issn.1006-2475.2018.11.007][20]王学军, 王文剑, 曹飞龙. 基于自步学习的加权稀疏表示人脸识别方法. 计算机应用, 2017, 37(11): 31453151. [doi: 10.11772/j.issn.1001-9081.2017.11.3145][21]甘江璋, 钟智, 余浩, 雷聪, 赵树之. 基于自步学习多元回归分析. 计算机工程与设计, 2018, 39(12): 38353839, 3852. [doi: 10.16208/j.issn1000-7024.2018.12.040][22]古楠楠, 孙湘南, 刘伟, 李路云. 基于自步学习与稀疏自表达的半监督分类方法. 系统科学与数学, 2020, 40(1): 191208. [doi: 10.12341/jssms13807][24][27] 李豪. 多目标学习与优化理论及应用[博士学位论文]. 西安: 西安电子科技大学, 2018.12 软件学报李豪(1990), , 博士, 副教授, 主要研究领域为计算智能, 机器学习.赵悦(1997), , 博士生, 主要研究领域为遥感影像智能解译, 计算机视觉, 机器学习.公茂果(1979), , 博士, 教授, 博士生导师,CCF 高级会员, 主要研究领域为计算智能理论与方法, 网络信息感知与隐私保护, 雷达与遥感智能系统.武越(1988), , 博士, 副教授, CCF 高级会员,主要研究领域为人工智能理论及应用, 机器学习, 深度学习, 计算机视觉.刘洁怡(1991), , 博士, 副教授, 主要研究领域为智能化信号处理, 雷达干扰对抗.李豪 等: 一种自适应混合权重的自步学习方法13

[返回]
上一篇:面向移动对象连续k近邻查询的双层索引结构
下一篇:主动自动机学习中的等价查询算法优化