欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
博士论文
当前位置:首页 > 博士论文
融合语义信息与问题关键信息的多阶段注意力答案选取模型_张仰森
来源:一起赢论文网     日期:2021-12-11     浏览数:812     【 字体:

 第44 第3 2021 年3 月计 算机 学 报CHINESEJOURNALOFCOMPUTERSVol .44No. 3Mar. 2021融合语义信息与问题关键信息的多阶段注意力答案选取模型张仰森”王 胜”魏文杰”彭媛媛2)郑 佳2)1 :)(北京信息科技大学智能信息处理研究所 北京 10 0101)2)( 中国科学院软件研究所 北京 100190)摘 要 自动问答系统可以帮助人们快速从海量文本中提取出有效信息, 而答案选取作为其中的关键一步, 在很大程度上影响着自动问答系统的性能. 针对现有答案选择模型中答案关键信息捕获不准确的问题, 本文提出了一种融合语义信息与问题关键信息的多阶段注意力答案选取模型. 该方法首先利用双向LSTM模型分别对问题和候选答案进行语义表示; 然后采用问题的关键信息, 包括问题类型和问题中心词, 利用注意力机制对候选答案集合进行信息增强, 筛选TopK个候选答案; 然后采用问题的语义信息, 再次利用注意力机制对TopK个候选答案集合进行信息增强, 筛选出最佳答案. 通过分阶段地将问题的关键信息和语义信息与候选答案的语义表示相结合, 有效提高了对候选答案关键信息的捕获能力, 从而提升了答案选取系统的性能. 在三个数据集上对本文所提出的模型进行验证, 相较已知同类最好模型, 最高性能提升达1. 95 %.关键词 答案选取; 语义信息; 关键信息; 相似度计算; 多阶段注意力机制中图法分类号TP391DOI号10. 1 189 7/SP.J. 101 6. 2021 .00491AnAnswerSelecti onModelBasedonMulti-StageAttentionMechanismwithCombinati onofSemanticInformationandKeyInformationoftheQuestionZHANGYangSen15WANGSheng1)WEIWenJi e1)PENGYuanYuan2)ZHENGJi a2)1:){ InsL iL uL e ofInL el ligenLInformationProcessing?BeijingInformationSci enceandTechnologyUniversity^Beijing100 10 1)2) { Insi i iuieofSoft ware?Chinese AcademyofSci ence?Beijing100190)AbstractWi ththerapi ddevel opmentofInternettechnology,theamountoftexti nformati oni nthenetworki ncreasesexponential l y,hencepeopl eusual l yusesomesearchengi nestoretrievetherequiredi nformati onfrommassdata. Asearchengi necanberegardedasaspecialquesti onansweri ngsystem. Whenaquestionisgi ven, thegeneralprocessingflowoftheautomaticquesti onansweri ngsystemisasfol lows:first ,thesystemanal yzesthequestiontoobtaini tstype,semanti csandotherrel evanti nformati on;then,sel ectacandi dateanswersetfromtheanswerdatabaseaccordingtotheanal ysisresul ts;fi nal l y,thesystemwil lrearrangethecandi datesetwithvari oussortingtechniquesandsel ectthebestanswerorthetextwiththebestanswertoreturntotheuser. Thefl owshowsthatthesel ecti oneffectofthebestanswerwil ldirectl yaffecttheoveral lperformanceoftheautomaticquestionansweri ngsystem. Traditi onalanswersel ecti onmodel susual l yusel exi cal orsyntacti canal ysi sandartifi ci alconstructingfeaturetosel ectanswers,whi chisdifficul ttocapturethesemanticassociationi nformationbetweenquesti onsandcandi dateanswers. Withthedevel opmentofdeepl earni ngtechnol ogy,researchersappl i edthedeep收稿日期:20 19 12 25; 在线发布日期:2020 05 26. 本课题得到国家自然科学基金(61772081) 资助. 张仰森, 博士, 教授, 中国计算机学会( CCF) 杰出会员, 主要研究领域为自然语言处理、 人工智能. Email : zhangyangsen@163. com. 王 胜, 硕士研究生, 主要研究方向为自然语言处理.魏文杰, 硕士研究生, 主要研究方向为自然语言处理.彭媛媛, 硕士, 工程师, 主要研究方向为自然语言处理.郑 佳, 硕士, 工程师, 主要研究方向为自然语言处理.492 计 算机 学 报 2021年l earni ngframeworki ntotheanswersel ecti ngtask,usetheneuralnetworkmodel toobtai nthesemanticassociati oni nformationofthequestionandthecandi dateanswer,andeval uatethematchi ngassociati ondegreebetweenthem,thensel ecttheanswerwi ththestrongestmatchi ngrelati onshipasthebestanswer.Becausethesel ectionofanswersdependsentirel yonthei nformati oncarriedi nthequesti on,researchersoftengenerateattenti onvectorfromthequesti onsemantici nformati ontoupdatethesemanti crepresentati onofthecandi dateanswers.Al thoughthi skindofattenti onmodel canstrengthenthesemanticrel ati onshipbetweenthequesti onandthecandi dateanswer,i tignorestherel ationshipofkeyi nformati onbetweenthem,therefore,theeffecti venessofsuchmodel si saffected. Fordifferenttypesofquestions,theconcernedcontenti nbestanswersisoftendi fferent.Forexampl e,whenaski ngti me rel atedquesti ons,thebestanswershoul dbemorefocusedonthekeyi nformati onoftimeorthei nformati onwi thstrongtimesemanti cassociati on;whenaski ngweather rel atedquestions, thebestanswershoul dpaymoreattenti ontothekeyi nformati onrelatedtoweather.Al so,theexistingattenti onbasedanswersel ecti onmethodsoftenestabli shthemodelofquesti onsandanswersatthesamestage,whi chi snoteasytocapturethedi fferencesbetweenthevari ouscandi dateanswers.Tosol vetheprobl emthattheanswerkeyi nformati oncaptureisnotaccurateintheexisti nganswerselecti onmodel,thispaperproposesananswersel ectionmodelbasedonamul tistageattenti onmechanismwithacombi nati onofsemantici nformati onandkeyi nformati onofthequesti on.Firstl y,thismethodusesabidi recti onalLSTMmodeltorepresentquesti onsandcandi dateanswerssemanti cal ly.Thenthekeyi nformati onofthequesti on,i ncl udingthetypeofquestionandtheheadwordofthequesti on,isusedtoenhancethei nformati onofthecandi dateanswerbyattenti onmechani sm,andtheTopKcandi dateanswersaresel ected. Fi nal ly, theattenti onmechani smwi thsemanti ci nformati onofthequesti onisusedagai ntoenhancethei nformati onoftheTopKcandi dateanswersettosel ectthebestanswer. Bycombi ni ngthekeyi nformati onandsemantici nformati onofthequesti ontoenhancethesemanti crepresentati onofthecandi dateansweri nmul ti stages,theabil i tytocapturethekeyinformati onofcandi dateanswersiseffecti vel yimproved,andtheperformanceoftheanswersel ecti onsystemi si mproved.Theexperi mentalresul tsonthreedatasetsshowthatthehighestperformanceimprovementisupto1.95%comparedwiththeotherstateoftheartmodels.Keywordsanswersel ecti on;semantici nformati on;keyinformati on;si mil aritycomputi ng;mul ti stageattenti onmechani smi 引 言随着互联网技术的快速发展, 网络中的文本信息量呈指数级增长, 成为了人们获取信息的重要来源, 因此, 利用搜索引擎从海量信息中检索出所需的信息成为了人们获取信息的主要方式. 然而, 现有搜索引擎的检索策略大多是基于字符串匹配的, 缺乏从语义角度挖掘知识的能力, 导致搜索到的结果精度差, 冗余度高[1], 还需要用户从大规模搜索结果中进一步理解和筛选才能够获取到真正需要的信息,这与用户快速准确获得信息的需求还有一定的差距. 随着文本处理与理解技术的快速发展和广泛应用, 能够更好地满足用户需要的智能问答技术也逐步成熟, 并催生了一批智能助手的问世, 例如小米公司的小爱、 苹果公司的Sru微软公司的小冰等. 这些智能助手与传统的搜索引擎相比, 更贴近用户的实际需求, 他们都力求从语义层面分析用户的问题,精准定位用户的意图, 从而快速、 有效、 准确地为用户提供所需的信息.当给定一个问题时, 自动问答系统一般的处理流程如下: 首先, 分析问题以获取问题的类型、 语义张仰森等: 融合语义信息与问题关键信息的多阶段注意力答案选取模型 49 33 期等相关信息; 然后, 依据分析结果在数据集中筛选出候选答案集合; 最后在候选集合中采用各种排序技术进行重排, 筛选出最佳答案或含有最佳答案的文本返回给用户. 因此, 最佳答案的选取效果将直接影响到自动问答系统的整体性能, 优化最佳答案的选取策略可以有效地提升自动问答系统为用户服务的能力. 本文将围绕该问题展开深人研究, 以进一步提升最佳答案的选取效果.传统的答案选取模型[ 2 ]大多利用词法或句法分析以及人工构造特征的方法来选取答案, 这类方法较难捕捉到问题与候选答案之间的语义关联信息.随着深度学习技术的发展, 研究者们将深度学习框架引人到答案选取任务中来, 利用神经网络模型获取问题和候选答案的语义关联信息, 并对它们之间的匹配关联程度进行评估, 进而选取匹配关系最强的答案作为最佳答案.由于答案的选取完全依赖于问题所传递的信息, 因此, 在基于深度学习的答案选取模型中, 研究者们往往会利用问题的语义信息生成注意力向量, 以此来更新候选答案的语义表示, 优化问题与候选答案之间匹配关系的评估效果. 这类引人注意力的模型虽然能够强化问题与候选答案之间语义关联的程度, 但是在一定程度上忽略了两者之间关键信息的联系, 从而影响其问题和答案的建模效果.因为对于不同类型的问题, 其最佳答案中关注的内容往往有所不同, 例如询问时间相关的问题时, 其最佳答案表示中应更注重于表示时间的关键信息或者与时间语义关联较强的信息; 询问天气相关的问题时, 其最佳答案应更注重于表示天气相关的关键信息或者与天气关联较强的信息. 另外, 现有的基于注意力的答案选取模型往往将问题和答案的建模放在同一阶段进行, 这对从多个候选答案中选取一个最佳答案的答案选取任务来说, 不容易捕捉到答案相互之间的差异.针对现有答案选取模型的以上问题, 本文在语义注意力的基础上, 提出了一种融合语义信息与问题关键信息的多阶段注意力答案选取模型( Mul tiStageAttenti onAnswerSel ectionModelCombi ni ngSemanticInformati onandKeyInformati onoftheQuesti on, MSAASwi thKI SI) , 分阶段地将问题的关键信息和问题的语义信息以注意力机制的方式对候选答案进行信息增强, 以增加对候选答案中的关键信息的捕获能力, 解决在问题和答案的建模过程中, 对候选答案关键信息捕获不足的问题, 以此来提升答案的选取效果.2 相关工作2. 1 答案选取相关工作答案选取是自动问答技术的关键技术之一, 其相关技术也可以用于文本理解、信息检索、智能服务等多个领域. 针对自动问答系统中的答案选取问题,以往的研究者们通常将其视为分类任务和相似度计算任务两种类型的问题进行解决. 基于分类的答案选取任务是依据问题与候选答案之间的关联关系,将候选答案分到正确或错误类别, 将正确类别中的答案作为最佳答案. 基于相似度计算的答案选取任务是通过计算问题与候选答案之间的相似度, 选取相似度最高的答案作为最佳答案. 为了能够有效提升答案选取的效果, 大多研究学者都致力于研究问题与候选答案之间相关关系的表示, 主要的研究工作可分为两个阶段: 第一阶段是基于语言学知识和特征工程的答案选取方法, 第二阶段是基于深度学习的答案选取方法.基于语言学知识和特征工程的答案选取方法主要是结合外部资源对问题、候选答案进行词法、句法分析进而选取答案. 例如Surdeanu等人[ 3 ]提取了问题与候选答案的词频、 词语之间的相似度等多种特征对候选答案进行排序, 从而选出最佳答案. Yi h 等人[4]利用WordNet 来获取问题和候选答案的语义特征, 以改进候选答案的排序效果. Tymoshenko 等人[ 5 ]对问题和答案的句法结构、语义结构进行分析,并利用YAGO、DBpedia 和WordNet 等知识库挖掘候选答案中与问题匹配的信息, 最终实现答案段落的排序. 虽然这些答案选取方法都能捕捉到问题与候选答案之间的匹配关系, 但是它们性能的好坏与提取特征的质量、采用的外部资源有很大关系, 同时在实际的运用过程中, 也需要一定的领域知识和较高的人工成本.随着深度学习的发展, 神经网络模型逐渐被引人到答案选取任务中并成为主流方法. 例如Feng等人[ 6 ]利用CNN模型分别对问题和候选答案进行语义表示, 然后采用余弦相似度、GeometricmeanofEucli deanandSigmoi dDotproduct( GESD) 和Ari thmeti cmeanofEucl i deanandSigmoi dDotproducKAESD) 三种方法对问题和候选答案的语义表示向量进行相似度计算, 最后选取相似度最高的答案作为最佳答案, 实验表明利用GESD的相似度计算方法取得了最好的效果. Guo等人[ 7]利用余弦494 计 算机 学 报 2021年相似度的计算方法对问题与候选答案中词语之间的相似度进行评估, 然后将词语之间的相似程度和词语的词向量一同输人到SklpCNN模型中, 分别获取问题和候选答案的语义表示向量, 最后将二者的语义表示向量进行拼接, 利用Softmax对候选答案进行分类以选取问题的最佳答案. Tan等人[8]采用BiLSTM对问题和候选答案进行语义编码, 然后将问题的语义作为注意力对候选答案的编码进行加权更新, 最后取相似度最高的候选答案作为最佳答案. 相比于基于语言学知识和特征工程的答案选取方法, 基于深度学习的方法减少了对领域知识和外部因素的依赖, 具有较强的通用性. 此外,这类方法能够在语义层面学习问题和候选答案之间的语义匹配关系, 使得答案选取效果有了明显的提升.在上述研究中, 虽然已有的方法将词频、词语相似度等词级别的特征引人到了候选答案的语义表示中, 但是对候选答案中的关键信息以及问题与候选答案之间的关联关系的捕捉能力有限.因此本文在语义信息的基础上, 试图融人问题关键信息, 提出了一种融合语义信息与问题关键信息的多阶段注意力答案选取模型, 提升候选答案中关键信息的捕获能力, 优化候选答案的语义表示, 从而更加全面地捕捉问题与候选答案之间的关联关系, 以此来提升答案选取的准确率.2. 2 注意力机制相关工作注意力机制[ 9 ]可以抽象为针对性地提高数据中特定位置的关注度, 注意力机制最早被应用于图像领域, 用以关注重点区域的重点信息. Bahdanau等人[ 1 °]最早将注意力机制引人到NLP任务中, 尝试在机器翻译过程中将目标端的输出与源端的输人进行对齐, 从而提升机器翻译的效果%1 2]. 随后根据不同任务提出了各种注意力机制, 例如Cheng等人[ 1 3 ]在机器阅读任务中提出了单向的自注意力机制, 用以学习当前词语与句中前面部分词语之间的相关性; Vaswam等人[1 4]对注意力机制进行了改进, 拋弃了传统的RNN结构并提出完全基于自注意力机制的Transformer 模型, 解决了数据计算无法并行化的问题, 极大地提高了计算效率; He 等人[1 5]和Yu等人 发现在推荐任务中, 注意力机制可以有效地捕捉用户长期兴趣与短期兴趣, 提高推荐系统的准确性.在问答系统以及答案选取任务中, Tan等人[ 8 ]基于Bi LSTM+CNN的架构, 采用注意力机制分别对问题和候选答案进行语义表示, 并采用余弦相似度进行融合, 证明了仅引人字级别的自注意力机制的模型就能起到很好的效果; Bachrach 等人[17]提出了一种针对答案选取任务的新注意力机制, 该方法将问题语义和候选答案词频特征相结合共同加强候选答案中关键词在语义表示中的权重, 使候选答案的语义表示向量更加准确, 从而提升了答案选取任务的性能; Xu等人[ 1 8 ]提出了一种基于门组自注意力( GatedGroupSelfAttenti on,GGSA) 的答案选取模型, 该模型很好地解决了全局注意力和局部注意力不能被很好区分的问题?现有注意力机制在答案选取任务中的运用大多采用问题的信息对答案进行注意力增强, 从而将问题和答案的建模放在同一阶段进行, 这不利于从多个维度对候选答案的关键信息进行捕获, 从而导致对于多个候选答案之间差异性的捕获能力有限. 为提升多维度信息的捕获能力, Chen等人[19]在阅读理解任务中提出了一种两阶段的通用框架, 首先使用经过tHdf 与bigram结合的检索方法找到与问题相关的文章, 其次通过特征工程对段落及问题进行编码, 构建阅读理解模型从文章段落中找到对应的答案, 最终在多任务集上使用远程监督的方法提高了计算性能. Hao等人[ 2 °]在问答任务中提出了一种基于端到端的问答网络模型, 主要利用交叉注意力机制对问题和答案进行互相关注.一方面利用答案信息强化问题的语义表示; 另一方面利用问题信息对答案进行不同的关注. 同时, 通过将外部知识库信息引人到Embeddi ng 中, 缓解了未登录词的问题, 使模型更有效地表示了问题和答案, 提高了端到端模型的实验性能.因此, 本文将问题语义信息和问题关键信息分为多个阶段对候选答案进行信息增强, 以此来加强模型对候选答案关键信息的捕获能力, 提升对类似答案之间差异的判断能力.3 方 法自动问答系统的答案选取过程可以形式化为如下形式: 给定问题Q, 在相应的候选答案集合{A:,A2 ,…, 中寻找与问题Q最匹配的答案即最佳答案{乂1^1 ^31:£ {1, 2 ,--,2;} }, 其中,2; 为候选答案的个数. 本文将答案选取任务分为两个部分: 问题与候选答案的相关度计算和最佳答案的选取. 对于问题与候选答案的相关度计算部分, 在问题语义信息关联关系的基础上引人问题关键信息, 包括问题类型寒仰麟t 難合潛爾裏与真 6!錄段灣鑛麵取儀塑 49 5 3 期和问题中心词两个维度. 构建了一种融合语义信息与问题关键 息的多阶段注意为答案选取樓塵b对于问题最!隹答案的选取<利用问题与候选笞寒之间的相关度,选出相关度最高的答寒作为壕隹窖案,其中相关度采用问题和候选笞案的语义编码向量齡余弦相似度进行计箕》3. 1 答案选取的基础模型答案选取的基础模型的主要架构如S1 所示,主要由问逮与候选答案的谞义表示鳥、语义抽象层和相关度计箕, 裏组成?QA國: I 问轉导__截_萬费眞_糢遨(1.) 语义表示: &? 利用阿题和候选答案所包含词语僖息的词向■, 分别对何题和候选答案进行语义表示, 瘍; 到问題的鼙置表示QCfSv, w%*…,I。) 和鏡潘罄纂的辕夂表拳, …,_中%事%分别为问题和候选答案的词语个数, %,,£分别为问题的第:e 个爾谙的词向量和候选笞案的第y个词语的词向童>且词向量的维度为A(2) 语义抽象&釆用Bi LSTM+Pooli ng对输人的问题和候逸答案= 语义表示的上下文进行语义编码, 分别得到问题和候途:答案的语义表示 ̄和/>.C3) 昶关度计算建* 利用余弦相似度计算何题和答案的请义表示 ̄和 之间的相似度S0A作为问题和答案的相关泰度的度量.这一基础模盡只是勝问蘧和候选答案之间"的语义信息进行相似度计算,但暴諸于问题而言,它在与候选答案进行相似度计箕时; 更政望候选答案中与问题相关的鄧分占有更高的权重i与何题不柜关部分tSsf較低前杈:鍵*3.2 基于问题语义信息注意力的信息增强模型逋过语义表示层和语义抽象层/V获问题的语义表示_:量?, 这一向量_全育地包含了问题能上下文语义像息,利用问題的语夂表示,采. 用注拿力机制. 对候选答案的语义倩息迸行增強d吏得候选答案中与问题相关度较高的部分所占权蜜更高* 以此来构建候选答案针对当前何题语义信息的袠示, 进而提升候选答寒与何题语义的相关性? 塞于问题语义猜鳥注意力的會息增强模型的框架如揭2所示.图2 基于丨'<廳键龙 法鵞 惠壇3i:框: 架:甚于问题语义信息注倉力的信息增致主裏利用问题的语义信息 ̄对候选答案的LSTM输出进行注意力加权更新? 强化候选笞■案中与问题有关的部分?在LSTM中s, 对每一时刻言点的正向输出<与反向输出 进行拼摻;>: 得到语义編礙/、, /^同时包含3前时刻的上文曾息%下文債息? 钽合LSTM各个財刻的输出* 得到问题的语义编码矩阵M〇=[\, 九《2,*. ?,&]T=[<^-,4?2,4]?S中 为LSTM梟开的时间步数w为L紅M隐藏单元个数的.2倍. 对问题的谞义編码矩阵迸行压If, 樽到问题的谮义信息 如式(1)所示.rQ=[maxCrf^^>maxCrf^)<? ■■I]f1)輝理将:霄寒的每一时刻的LStl 座 和苽_输出拼接得到每一时刻的候选答案的语义编码\,将rQ与 进行余弦相似度计算将计算结果作为rQ对 的_驗权重 算公式如'式⑵所示.利用 对LSTM每一时刻隐; 藏:单元的输出\迸行加权更新,4十算公式如式(1) 所示.h< ii ( 3)将加权后的<作为最狻每个时刻的输出,3.3 基于问题关键信息注意力的信息增强模型本文采用问題类型和中心词作为问题的关键信息. 利用注意力机制对候选答案进行信息增强.43i 计導机攀报: _1苹S.3. 1碁予何题类灣的关键信息 意力问题类型对候选答案的选取有十分重要的指导作用, 对侍同一个候选答案, 不同类型的问题对候选窖案中的关注点有所不同, 例如对T表1 所示的候选窖案,当提问&Whendoanautoinsurancepremi umgoup?”时, 候选答案中希望更加关注于“nextrenewalperiod”和“monthlyquarterlysemiannual lyannual ly”等表示时间的词语; 当提问“ Whichfactorsaffecttheautoi nsurancepremi um?”时, 候选答案会更希望关注于“acti vi tyorclai mticketandaccident”等表示实物的词语.表1候选答案示例yourautoinsurancepremiumwilltypicallynotchangeuntilyournextrenewalperi oddependingonyourpaymenttermthistypicallycanbemonthlyquarterlysemi annuallyannuallyyourpremiumbeaffectmanyfactortheprimaryfactorbeyouractivityorclaimticketandaccidentbethethingthat maycauseyourrateincreaseyourratecanalsobe affect manyotherthingasinsuranceratebetypical lydeterminetheamountofrisktheinsurancecompanybebear inthatmarket findout morecontactyourlocalagent and discussyourquestionaboutratewith themaseachstate,companyandpolicycanvarygreatly.p此, 我们对数据集中问题的类型和其最佳答案进行了分析, 总绪了7种阿题的类_以及.读.类型问题的特怔和常见时最佳答案类塑,如表2 所示表2 问题的类型、 特征及答案常见类型问题类型 问题特征 常见答案类型人物问句 以‘‘who、 whom、 whose”开头多为与人物相关的信息地点问句 以“where”开头多为与地点相关的信息时间问句 以“when”开头多为与时间相关的信息实物问句 以“what、 which” 开头多集中于表达实物类信息的部分数量问句以“howmuch、 howmany、 howlong、how old、howfar”开头多集中于表达量词信息的部分原因问句 以“why,how”开头多集中于描述原因及动作的部分其他问句 除以上六类以外多集中于陈述事实类的部分不同类_的甸癍对候选答案中关注的部分有所不同 参藤语义锫息増強的方法, 提取问题的类型,构建类葉的表示, 作齿一种注意力向量*引人到候选答案的语义信息表示申: 具体来说, 在模型初始化时, 为每一种问題类型分别锭定一个表示向量FQrs利用¥对候选答案的LSTM输出迸行注意力加权更新, 强化候选答案中与问龜类埜有关的部分? 计算流程为, 将答案的每一时刻的LSTM诋向和反向输出拼接得到每一时刻的候?选答案的语义编码 . 利用与, 式C2〉相同的方法将VqrifTi进行相似度计算,魯到%r对h的关ft秘重 ? 再歡通过与式⑶梅同的方法, 利用了^私对LS..TM每一时刻隐藏单元的输出\进行加权更新, 即可籍到最终每一时刻的输出. 随着模塑的迭代训练, 即可获得问题类塑对应的语义信息, 进而强化候选答案中与何题类型有关部分的权重_基乎甸题中心甸的关猶信鼻雜羃力当候选輕案中#在多个与何题类型相关的钵分时; 仅采用问题类型迸行信息增强很难进行3JK例如瑪间題类塑为时间疑问句財. 候选瞽案中有多个表达时间信息的部分■问题类型对于候选答案的注意力将会分散到多个与时间相关的部分上; 当问.题类型为原因疑问句或判断疑问句时, 答案往往是一段话, 只.利用问题类型无法很好地加強候选答案对问邂关键信息的捕:获能力.针对上述问题< 本文通过5丨 人问题 心诃的概: 念:,以此来觀太候豫簦棄文本中,何趨主蓮雜关的葡舉蕾占的扠重,两时_小不植关的词语所占的权重.本文将问考T中條够M映句子主養:信息的屬词: 或动词作为问题的中心Mt2 1 2 2l? 例如何句“Doesl i feinsurance: yeguire努credi tcheck?%它所:表迪酣蕾息3;S-| i["r6quire"\"l ifeinfiaran:ce'^^fl'^creditduck"MlH^Whend?anautoi naurancspremi umgoup?', 它所表达的信息爾主要由“goup,,、wautoinsurailefipremi um,,|^3il,对于问题的中心词, 利用依存句:法分析来莸取,如间匈“HowdoIapplyforMe’climre, i nTTexgs?'%通过依存句法分析,可?得到如图3 所示的结果.图3 河: #'的椒存句楼费析其中,uftPPly”为主要动词, 则提取其作为问'题的主赛參词wo_rrfY. 如果w〇r<iF 的主.或:禽费海名_或名饲: 短语, 提取主语和宾捂作为主要名爾torJaH再顧次: 提職遺憂■词的修葬成费爾 到成分中的翁词麵加到主要名: 词word#中 主要:动飼和名词构成何题的中心词, 下文用head泰示, 另外,费旬法分析无法提取其主要魂珂.. 刺寘接通过珂性>过滤停甩词后提取其中心词.因此 ,為的个数可能为多个. 如在图3 中,apply”的主语为 宾语为“Medi woe”, 因为主语“1”为人称代词,本是名飼或名寒仰麟t 難合潛爾裏与真 6!錄段灣鑛麵取儀塑 49 7 3撰坷短语, 故不将其作为主要名词^而卖语“Medicare”为名词, 故将其作为主要名词,同时"Texas”又作为名飼修饰“Medkar#, 因此,“Texs#也作为生雾翁词? 所以, 國3 轉旬中的: 中心轉_合为{apply,MedieareiXixas)s其_,中心讀爾为apply¥中』〇*名S3S. Medicare.Texas}.在得到何题的中心词后, 将中心词对应的词向量集合的向量表示作为中心词的注意力向量=(死…其中,Z 为问句中心词的个数,采用vQw对候选眷案正向LSTM的输出冗和、反向L8TM的输出X:拼接后拍输出4进行加权笼新, 具体来说,将集脅V#中的每个词向量分别和A, 进行相似度计算, 然后将其中的最大值作为问题中心鲟的注鴦力时量在 上的权重表示功, 计算方法如式⑷所示.vt—max{ cossi nC/i^?( 4)利用A, 采用类似于式(3) 的方式对心进行加权更新s 得到/ 財刻I的表示A:. 依次采用爵样的方式对候选答案每一时刻的表:示进行加权更新>即得到基于问龜中心M注意力的信息増强表示.3.4 融合语义信息与问题关键信息的多阶段注意力答案选取模型为了充分利用何题的语义價息和关键谬息对候选答案迸行信息增强, 本文构建了融合语义信慕与问题关鍵信息的'多阶段注鴦力答案选取模型? 具体来说,虫要利用问题的相关信息, 果. 用B! 意力机制>分为两个阶段对候选答案进行f息増強. 例如问题“HowdoI.applyforMedicarei nTTe絲5?”,其雜选窖案集合为 ,…, 4J? 首先使用式Cl》计算得到问题的语义表示 其次开始抽取间题的关键信息; 该问题以“ How”开头, 寅此问題类型为原因类塑!■ 苘时提取闾句的中心佩集合.! apply,isfedi care,Texas}?其中, 问题类型注意力如方模型初始化时为每种类型随机歡定的向量,问题中心鲟往意力集合为v釋=|s:, ¥sj*si、 sf、 ss分刴为'*%pp:ly’’、“ MedicaW TTexas1" '对应的齋义_量? 乘爾3.3''节所述的方法.利租注:意力机制对候选答案的语义表:示进行问題关键',息谓強, 构重候选答案针对当前?网徽类雜鲁息的费叉秦示、。 拽3问题的语义表示r0进行相关度计算* 依据相关度排摩讀ji 靡:街前々31:彳 Hi2为纖前儀选答案集合. 最后》将问題的谙义信息?作为注鴦力向量; 采甩3.2 节所述言法, 再次利用迕意力机制对筛选扭的候遍答繁集合试彳,我,…,★)■进行语义僧息增强,构建当前候选答案针对问题语义信息. 的.义_承? &=与“2,? ?*#馬》, 与_题的语义表示ra: 迸行相关度计算, 依据相关度排序后, 即得到最优的候选_案'{起mI best6:C〖i , 6? 具体的模型:框寒商姐蘭4所示.语义信息Q,0VS8〇〇?〇一^055^800,為>M〇〇〇〇I-to〇〇〇^:>^〇〇〇〇lj145〇〇一yOQ〇q#〇〇o〇lQ图4融合语义信息与问题关键信息的多阶段注意力答案选取模型498 计導机攀报: _1苹在对问题的语文表薪和候选答案的语义表示进行相关度计算时, 采用如式C2)余弦相似度的方法计?算两着;t间的枏关度答案选取模型期望达到的效果基^当'模型的输人为阿題的最佳答案时, 应该枣可能大; 当模型输人为何题猶季■樓眷蠢財sS&1 虛讓■可能小, 因此, 在对模型训练过程中, 每一轮同时输人问题2、最隹答案A+和_最佳答案A'然后分别计算问题与最儀籍案和李最德答案的相关. 獄 和茂a-,再釆用式Cfi) 所示的HingeLo涵函数作为■损失函数对模型迸行训雜.loss—max{0—(Sqa+—Sqa ̄) }( 5)眞:中,当5?+—S,;^働r 时说赠奠型餘够很好地区分最佳答案和非最佳答案, 当 5^-<施r时, 此时隹型不能很野地K分芷确答案与错误答案,需要调整模: 型参数进行迭代计算. mar 具体的取值将在4,3 节实.验参数设釐部分进行说明.对于非最佳答案A 的选取,为了提升模型的学习能力, 在训练的过程中, 选取全部何题的候选答案中除晕隹簪案A+之外的最隹答案作为 的值,具体如式(《) 所示A-=argma^<: S^.KA, ^1+.0</ <%??')(:6)其中# 为训漆数据棠合中所有间蘧候选窖案的总数.4 实验与分析4. 1 实验数据集为了验证本文提出模型的有效性, 本文选择在InauranoeQA^^sTREGQAWiki QA数据集上设计实验并分析,以验证本文模型的t效性.4.1.1InsjiranceQ入數縛舉InSuraiiCeQA数擁盡. 遍;一个来自保险领域的专业数据集, 由Feng等人[ 6 1枸建, 数据集中的所有问题都是来启现实世界寘实甩户的提问*问题的答案一般比较长. 数据集共包括四都分, 分别为训练集、验ilE集测试#1、测试集L共有17487 个问题和24 助1 个答案? 数据集的详细数量信息如_3 所示,其中. Q-A为问题的平均长度, AA为答案的平均长度? InsuranreQA数据集的评价指标采用最隹答案的准确率户@1 进行评价.表3InsunmceQA问题与答案数量分布_觀Q-AA-A.娜繼12 SS7185, ?7. 1595. 61翁爾義 撤_1测雜2USB18001800145426;1纖37. 167. 16K1,?95. 5495. 5495. 54除此之外, 本太还对数据集的间M类谨分布进行统计; 统计结果如图5 所示. 从图中可以看出, 在训练巢、验证集、 测试集1 和测试集2 中各类问题的问題类型分布基本一致, 其中占比最高的为其他问句, 实物问句的所占比例也明显较商占比最少的为地点轉想.4.1.2TRECQA 数据集TREC-QA数据集起滬于国鼠文本裣素会议fTRECI的问'答任务, 任务.面向开放领域, 且多为基于事实的小文本片段. 该数据集的训练集TRAIN为原始标驻缴据, 每年发布一版,Wang等人 靖理所有的抓练集后, 得到了TRAIN-ALL训练集, 达到了较髙的数据质營! 扁来学者对验证集与_试燊也进行了瘡■, 得到了CLEANDEV与CLEANTTESTr, _#t: ^|^,||:B:TrRAIN-ALL、 eLEANDEVifCiLEAN^CEST迸行犧型: 的训雜验SL数磨集的具体翁識、 如餐4 所示 中Questi on为丨每题个数, Pairs为飼题-嘗寒对的个数, Q-A为问顧潍警均长度 A为答案的平均长度?表4TREC-QA问题与答案数量分布Question Pai rs Q-A A-ATRAIN 94 47 18 11.3 24.6TRAIN-ALL 1229 534 17 8.327. 7CLEAN-DEV 65 1117 8. 024. 9CLEAN-TEST 68 14 42 8.6 25.6同样,本文还对该数据集的问蓮鸯盡分布进行统计分析, 统计结果如虜6所示, 从S中可以. 发满隹TfiA裏ALL、 CLEAN-DEV和'eLEANTTEST申',寒仰麟t 難合潛爾裏与真 6!錄段灣鑛麵取儀塑 49 9 議 期各獎问题的问题类型分布基本一致, 其中占比最高的为裏:物问甸,.占Ifc最少的为其他问镇=在该数捃梟中,一□个向題通常对应多个正确笞案, 繞要尽可能将疋确答案排名靠前?因此, 诙数据集的性能评价揞标采用MAP与MRi? , 其中MAP_示所有正_答案的平均得分, 如式(??所示.MAP=2amiPiq^(7:)^Quesq^Que¥_中,_示與遮_合, 风祕:翁示问蘧的藝数,P( 表示正_答案排序位萱的得分, a狹( P( g表示该间题対应所有芷确答案排序位璧的平均得分,MAP鲁分越高, Jif全部正确答案的排名越靠前、MRi?表示何题对应的第一个正确答案的平均得分, 其计算公式如式⑧所示.M勝Aq G Que s1rankq(8)其中, QM?j?康示问题覷#sJNfs??表累何题的总数,示第」-Is正确餐案的排翁, MRi? 拇身魏禽,则第一个结果越可能为正确答案.4.1.3Wi ki QA数据集Wiki-QA是一个开放域何题回答的数据集, 梁用Bing查询日志作为问题頫, 每个问题都链接到一个可能有齊案的维基百科页面,采用维塞W科页面的掎荽作为候选餐寒? 然后采用众包的方式进行数据标ft/数据集的具体債息如表5 所示, 其中Qu&rton为闻题个数, v細s谭ei?为麗案个数, QA为'问题的平均长度, AA为答案的平均长度. Wi ki QA数据集也是一个何题对应多个正确答案, 因此同样采用MAP与MRi? 作为性能评价指标.表5VWM-QA问题与答案数量分布Question Answer Q-A A-ATrain873 18 821 6.36 25.5 1Dev126 11196.72 24.59Test243 23096.42 25.33同样t本文还对数据集的问题的类型分布迸行统计, 统计M果如图7 所示, 从图中可以发规在TTram、Dey和Test 中的何題纖纖分霜碁李一截, 其中占比最高为实物阿句, 占比最办、为原因问句.4. 2实验对比模型本文的主要对比褸麵如下:Bag-〇f-Wordra?该養Sl_|f向顧和餐选眷秦筒■的IDF权重对爾语的掘: 魔量■=行加权求和, 榻建:问题和候选答案的特征向量表示?? 采用拿弦相似度计算坷题甜輕案特征商餐的相似度? 该模塑是乘用传统方式进行答案选择的代表模型.AttentionbasedBi-LSTM1 ? ? 调靈_截用BtLSTM对阿题和候选答案迸行语义编码, 将问题的语义作为注意力'对候选答案的编码进行更新, 最_使用余弦相似度:进行相似度计算? 廣模型是较早將Attention机制引人到答案选择的方法,lARNN-Gat#4 3?慘業處将德霉为,息加人到GRU故每个门涵数中, 构建了基于RNN的门控法意力单元,以此来构建问题和候选答案的特征向營表示,菜用GESD进行相似度计算.Multihop-Sequentia丨-LSTMt2 5 ]? 儀模麵乘眉:动态记忆网络(DMN. S) 对问题和答案迸行建模, 采用了多种注意: 力机制, 进行迭代的法意力操作, 构建向题和候选答案的特征向量表示, 采用余弦相似度进行相似度计算.TransformerwithHardNfegativesP6]? 该.模; 戴: 采-用TTransforiifer 对M题'和餐_进行建:律*并利用HardM:嗦aii v.热的方武途取负例#本峯用■余弦相似度进行相似度计算、BERT-Attention?] ? 渗橇塵:采 BE1T_SS: 对问题和答案进行建模>并构逢了基于问题语义的注意力机制? 来用余弦相似度进行相似度计算,HAS〔2 7]? 恢稹塾_架梅与BERTT Attenti on襄似, 但是采用了Hashi ng机制对候选答案的编码进行存储, 避免实时在线计箅., 有效降低了针算时间%500 计導机攀报: _1苹0.8200.8050.7900. 775,0. 760'0. 745上性能儀好贈 值作海_酱的取值, 具体来说.在IimuranceQA_磨寒、TTREG-QA数擠拿和WikiQA数据亀上的取懷分别为6.18VQ,1名和0?It.坩乎本文釆用的是多阶段的模型, 第一阶段的选擇个数々 对于镆_的性能有窘一萣的巌响, 在三个数据集的验证集上, 性能随&值的变化趋势如Hi. 所示.计算资源.Multi-CastAttentionNetworks^?_ 燦模處来,用參种Attention和Pt?l ing机制对间韻和候选答案进行编码和交互? 采用分类方法判断候选答案是否为雜答案,QuestionClassification-DeepLearning^2 9]. 懷權型融合问题分类、实体识别、实体强化和深度举习的方法对问龜和候选答案进#编码和.交互,?实现最隹答案的选择.RE2[ 3 °]? 该模型主要'鞭穷序列间对齐的关键特■: 的幾取. 栂虛了原始H对齐眷性、先前对齐; 特性和上下文特性, 对问题和候选答寒编码和交互, 实现最隹答案的选#.Comp-CHp+LM+LCf3 1].读犧製通过潜在聚类的方式挖掘: 文: 本中的附加詹JU实现文字中的信息: 聚合, 从面增强对问題和答案的編码效果,实现?最佳答案的选取.4. 3实验参数设置本文采用深度攀习框架P/Torch 对相关模型迸行编碍实现, 并在UbuntulU*〇4 峯统上_用GPU(;reslaP1W)进抒壤麗的训练和调试. 義書後过程中, 采用词向豐的维度大小设置为抑〇, 对宁模型中各个参数的设眘, 本文采用Hyperopt 库进行分布式参数调节* 获取模型的最优参数集合, 具体的选取敏舉为?_雇的维度为SOCUmi ni-bsteh 的大小设鸳为I6, 优化函数采用Adam, 学习率Zf 设囂为0.001.针对损失函数中war 值的选取, 在各个数据集的验证亀上性能随其取值变化如圈8所示.我们发现_r取值:过小和过大審会对標型在对候选答案的正负例的判断能力产生影响, 进商影响最终候选奪龛的选取能力, 最终我扪选取验1E集0.7300.715'M图P 性能随:《 值蜜你眞势图我们可以发现, 在不词的数据集中* 随着平均正确笞案个数的增?加4的最隹取值明显增大S其中InstmmceQA酸证集的正_答案个数为1 个,Wi ki QA验证集上平均正确答案个数为2.03,TRECQA验证集上平均正确答案个数为3.153.同样选取验证集上性能最好的& 值作为最终的取攝具体辛说*?Insxtrantj’eQA■数場 _、 Wi kiQA数据集和TEEOQA数搪集上的取後分别为4v7和11.钟对中心词的抽取策略, 本文探究了否定副饲、方位介词的抽取对性儒的參晌.數湯食中:否窠_1轉'及方位介词的分布如表6 所示1其中,PP代表何题中存:在方位介词的句子个数, N'A表示何题中参在—定副爾的旬: 子个数, Question_示间氣的藤个数. 从表中可以看出S 否:定副诃在问题中出现的次数膂遍较低, 方位介词占比则较多. 以TREC-QA数据集为例做了寒验对比, 实验效果如表7 所示其中厂SAASwithKI(he〇豪:翁单魏添加何顯中办爾注意方模趣:, SAASwithKI(hea4)+PP+NA表示在上述镆型基础上增加了方泣介词与否定副词的抽取.表6 方位介词与否定副词的数量分布PP NA QuestionInsuranceQA 22 608 17487TREC-QA 326 4 13 62Wiki-QA 2 602 1242-a- InsuranceQA-P@l- - ---aTRECQA-MAP^WikiQA-MAP/a-.—_二r ……Cfm/I@cf张仰森等: 融合语义信息与问题关键信息的多阶段注意力答案选取模型 5013 期表7 方位介词与否定副词的实验对比结果model ACC MAP MRRSAASwithKl ( head)79. 41 76. 24 86. 09SAASwithKI ( head) +PP+NA 79. 41 76. 31 85. 63由实验可知, 中心词选取过程中增加否定副词及方位介词对实验性能的影响甚微.因此, 本文将问句中能够反映句子主要信息的名词或动词作为问题的中心词.4. 4 实验结果及分析按照相关数据集的实验流程和评测指标, 本文分别对InsuranceQA数据集、 TRECQA数据集和WOnQA数据集进行了实验分析, 具体实验结果如表8、 表9 和表10 所示, 由于本文实验的数据集划分和实验流程完全按照各个数据的规范进行实验,因此, 表中显示的实验结果均来自于相关论文中报告的结果.表8InsuranceQA数据集实验对比结果mo delDevTest lBag〇f Word[6]3 1. 90 32. 10Att enti onbasedBi LSTMM 68. 90 69. 00I ARNNGat e[24 ]7 0. 0 0 70. 10Mult ihopSequent ial LSTM^25^70. 50TransformerwithHardNegatives^26 ^7 5. 7 0 75. 60BERTAt t ention^2 7^7 6. 12I I AS[2 7] 7 6. 38SAASwi thKISI7 6. 0 0 75. 28MSAASwit hKl SI ( type) 7 8. 60 78. 06MSAASwithKl SI ( head)7 8. 3 078. 33MSAASwit hKI SI (head+type)78. 70 77. 78表9TREC-QA数据集实验对比结果ModelAt tent ionbasedBi LSTM^ 8^IARNNGat e[24]MRRMult ihopSequent ial LSTM[25]Mult i CastAt t ent ionNetworks[28]QuestionClassificationDeepLearning^29^SAASwithKISIMSAASwit hKl SI (type)MSAASwit hKl SI ( head)MSAASwithKI SI ( head+type)9158,表10Wi ki-QA数据集实验对比结果ModelIARNNGat e[22]Mult ihopSequent ial LSTM[25]RE2[ 30]Comp Cl ip +LM+LC[31]BERTAtt ention^2 7^I I AS[2 7]SAASwithKISIMSAASwithKl SI (type)MSAASwit hKl SI ( head)MSAASwithKI SI ( head+type)76 90*4(TMRR其中, SAASwithKI SI 模型表示将问题的语义信息注意力和问题的关键信息注意力都添加在模型的第一阶段, 构建候选答案的三个语义表示, 然后对三个语义表示结果进行融合, 构建候选答案的语义表示与问题的语义表示, 并将二者进行交互选出最佳答案;MSAASwithKI SI 表示本文的融合问题关键信息和问题语义信息的多阶段注意力答案选取模型, 其中, MSAASwi thKI SI ( type) 表示第一阶段只采用问题类型作为问题关键信息进行信息增强, MSAASwi thKl SI( head) 表示第一阶段只采用问题中心词作为问题关键信息进行信息增强,MSAASwithKI SI( head+type) 表亦第一■阶段同时采用问题类型和问题中心词作为问题关键信息进行信息增强.在表8、 表9 和表10 中,”表亦显著性水平汐<0.05,“》”表示显著性水平f<0.01 , 本文显著性验证参考文献[32] 中的方法, 在测试集上, 采用1000 次有放回的抽样进行评估. 具体来说,InsuranceQA数据集是针对HAS 模型进行显著性检验的, TRECQA数据集是针对QuestionClassi ficati onDeepLearning模型进彳了了 显著性检验的, Wiki QA数据集是针对CompCl ip+LM+LC模型进行了显著性检验的. 从表可以看出, 相较于表中的对比模型, 本文模型的多项指标都有显著性提尚.根据表8、表9 和表10 中的结果, 从对问题和答案的编码方式来看, 可以发现Bagof Word模型远不如采用深度学习的编码方式, 这是由于Bag ofWord模型单纯地从词的角度分析, 未考虑文本的内容特征和其他关联特征. 从注意力的增加来看,添加了注意力机制的模型效果要明显优于不添加注意力机制模型的效果, 这是由于注意力机制加强了问题和答案的交互能力; 从注意力机制的添加方式来看, 采用selfattenti on 或者multi headselfattenti on的模型( Mul ti hopSequential LSTTM、TransformerwithHardNegati ves模型) 效果也要优于其他注意力添加方式; 另外, 基于BERT的模型(BERTAttenti on、HAS) , 相较于以往的模型, 取得了最佳的效果.在InsuranceQA数据集中, 相比于以往单个维度注意力的添加, 本文MSAASwi thSIKI 模型分阶段地融合了语义信息和问题关键信息两个维度的注意力, 取得了最好的效果, 证明了本文模型的有效性. 具体来说, 除了基于BERT的模型, 本文的502 计導机攀报: _1苹SAASwithKIST模型就表现出了明显的优势, 说明本文问题的语义傦息和间題关键倩息的信息谓强是有效果的; 在进一步将问题关键信息和问题语义偉息分阶段地进行倭. 息增强以Jt,MSAASwi thKI SI場型的性能也超过了基于BERT的模型,.表现出了最优的性能, 说明了:■本文构建调分阶段的信息增强方式是有效的?在TKEC-QA数据集中* 本文提出的MSAASwi thKP.SI (上e:ad+t: ype: 3__隹MRR猜标上取得的结果明显好于其他揍型, 在MAP指标上虽然浼有达到最优, 但也维持在比较. 高的性能. 同时, 在添加多阶段的往意力机制以后, 本文MSAASwithKI SI 模型的性能都是有所提升的. 也说明'了本文多阶段提型的有数性?对乎MAP指标稍微偏低的原'因可能是由f在TRECQA数据棠中', 有少■量拘麵输疋确#案个数比较多( 在训_亀1 搶備魏和测试集上, 量多的一个何题的正确答案个数分别为和均个数海和4.本文模型;在迸行分阶段筛选时, 若正确答案的个数超过了筛选的数1, 将有部分正确答案不能筛选到, 则在计算MAP指标时作为较低的#分处理* 队而导致map指标中的正确答案的平均得分普遍偏低.在Wi ki QA数■_中, 本文的M¥AASwithKI-sr(: heiid+type)模盧的性能蛊不如基于BERT的HAERAttenti on和 梟也观羅身于其他擦型, 也说明了本文樓型时有效牲. 对于本文模型性能不如文献[27]的两个模型的性能, 我们通过分析发现, 由于Wi ki QA数据集的何句采用Bing的搜素H志构_*相较于InsuranceQA数磨參和TREC-QA数据集而;言, 显得更加的随意, 其封法结构和语义结构也不够完#,由于BERT樓型采用了大规模语料进行预训练, 对于#正式语有的编码能力要比本文模型強, #致本文模型对于问题的编码不如基于BERT的模: 遒效果好, 从而在: 最终结果上要稍差一些.4.4. 1 间题语义和关键信息注意力性能分析为了验证本文模型中问题语^配意力和问题关;键信息注意力的引人对模型的性能的影响, 本文在三个数据葉上分别设量了六组对照实璩, 分别是丄1节靱述的基础瘵型(AS)、 只采用问蓮关键信息对候选答案进行第一阶段注意力增强选出梟隹答案W_(SAASwithKI) '.只茱甩问廳义侥息对候选答案进行第一阶段注意?力增强选出最佳答案的模讓fSAAS福1SD和MSAAS软ithKlrSl模麵? 其中, SAASwithKI模:塑包括SAASwitliKKt)、SAASwi thKI(;h) SlSAASwith应问題的关键?倩息单独采用问题类型、单独使用问题中心词以及同时采用问题. 类塵. 和中心词进行关键信息增强的模SL 具体的实验结果姐圈10、 图11 和爾12所:示.79787776757473727170-T1mI_缝讀1sI□ASsSA/0SA^sSAi□MSitldwwww:IththththwinpKIKIKISIthl!—1>kh)-SIvaltestltest2图11Ijiscastii aQA问题爾叉和襄_■■屬3意为性fSSf比jit,11TRS2 QA|f邏谮置賴桑職霜息■蠢为牲能对康國从画10、 圏11_圏12 可以■出 雜于三个数据集崔基础檬型上单独滚加问題?义信息和问题关键鲁息的注拿力对候选答案进行翁息增强, 相较于基础模型都有不同程度的性能提.升, 间. 题裔义信息的It意力信息增强性能提升的程度蘩大何题关俸息; 针对问题关键倩息, 添加问题平心词注賞力对性能的提升优于问题类型注意力; 词时, 在第一阶庚添加阿題关键?倩息的基础上, 在第二阶段再次添加寒仰麟t 難合潛爾裏与真 6!錄段灣鑛麵取儀塑 503 3 期问题语X信息>性能也有一定程度的提升. 这说明本文所构建的问題语义倩息和问题关键償息均对模盤性能的提升犛有帮助的.另外, 单独对比间龜类型、 问: 题中心词、 K題语义三种注意力对橼谨性能的影响(见模_SAASts'ithKI (t )jSAASwithKI( h)? SAASwithSI效果), 可以发现, 单独添加问题语义柱意力对模型效果的提升?巖为明S, 可能是问题的语义信息在一定: 程度上也包贪了问题类遨信息和问题的中心Mf息以茂一些其他f息 这也是在我们多盼段的樓型中将语义信息添加在第二阶段的原因之 ̄4.4.2 问题语义和关键儀息注意力可视化分析为了惠清楚地说明本文问題语义價息和关键信息-对午模型性能的影响, 我们从数据集: 中选取了一些问癍和'其候速答案, 输出了其各个爾语在各个阶段的权重表示*并进行了可视化分析, 如在:InSuranceQA数德: 集中, 谢于问, 顯:“Whenbethefi rstLif#Insw坪neepol i <jyi ft抑.f?'V首先进行第一阶段信息增强? 该问题为时间类型的问句》 抽取出的中轉乘'费为《first, LifeInsuraneftpol i cy#i ssxtsl1, 其最隹答案与排名第一和任一其他的非最桂輕案的语义表示. 在经过向题关键信息注意力増强后的谙义表示可视化为图■II、 5T14和圈15.the o ld li feI nsu ra ncethe res al t ersur viv ee vi de nceI n Lo nd onMr. Gybbonb eyea r pol i cyf romal d er manRi c hardMa r ti n andpas spay butaftersomelegal wr ang leMa r tinwinbefor eth etake ou t on Wi l l i amGybbo n on]Un e 8|fo r t h e c ity ofLon donh e buyae ndo f theyearatf i rstth e compa ny图13 最佳候选答案添加问题关键信息的语义表示可视化l ifeinsu ran cegoIntoyoupurchas ean ove ry quick ly asso onandmedical re corditeffectef fect afterthe f irstpremiumhavebepay andt he del ive ryrequire me nt have be si gnifex ampolicy t hecompa nymaydraf t thefirst premiuma ndthepol icymaygoIn t oeffecta sadayor2afterap pl yI fyouapp l yforapol icy t hat require e xamcant akea slonga s6mo nth thepr ocessbecomp let ea ndt he policy goint o图14 排名第一的非最佳候选答案添加问题关键信息的语义表示可视化di sa bi l i tyc la i mb ei nv estigate t h oroughly forl egiti macy orfr au dpr i ors i cknessori njury notdi sc l ose ca njeopar d i zeyou rcl ai meve ncon stitu t eo ut righ tfraudho wev erifyou rcl ai mbe l egiti mate most oft hed i sabi l itycompa ny i n t hema r ket payc lai mafterthepaper wor kan ddi s cove rype r i o dbeover_IS 襲他#翁||*爾答爾添難闻__11, : 的语_參可餐化其中? 最隹答案、排名第一的非最隹答案和任一其他非璩隹答案与阿题的柑似虔得分分别为14ESS、0?/3:_3 和一12SM.. 我们甸以食现. 廉倫翁:讀直接对问题所对应的产生时间及#景进行了阐述; 而排名第一的非最隹答案a然提到了时间倩息,但在语义方面,讲述的是保险生效时间* 与何题语义不符.同时我们还可以发现* 对于最佳候选答案, 在: 真语叉纖SK中1“ June18 , 158 3”、“1year”、**end”、“befof ^等与財同相关的词语和,? l ife’V* i nsuranc#、“policy“等与问题中心词语柑关的词1吾的权重爵弭显高f5其他■语的权重?菌对于泰最隹答案? 其枚: 篥分布相对比较分散,说明了添加问題的关键信息》对以让候. 选答案中与问题关键信息相关的词语权童加大, 蜜容易捕获候选答案中的关键情息. , 从而建立候选餐案Jf间题的联系, 证明了本文问题关键信息注倉:力的::有鱗接着. 在第一阶段关键信息增强的基础上进行第二阶段的信息增强r将?添加了问题语义信息的结果进 可视化, 其鑛^果如屬 画17 和画16 所:亦.fopwhi ch t here如surviveeviden cebetak eout onWill i amGybbonon june1 81 583i n London Mr. Gybbonb ea sal t eroffis har rdmeat fort hedty ofLondonhebuya1year pol i cyfromal dermanRi char dMart i nandpassawaybef oret h eendoft heyearal fi rst t hecompanyrefusepay butaf ter somel egal wrangleMarti nwi n图16 最佳候选答案添加问题语义信息的语义表示可视化504 计 算机 学 报 2021年图17 排名第一的非最佳候选答案添加问题语义信息的语义表示可视化disabi l it yclai mbeInvest i gatethoroughl y(orl egi t imacyor frau dpriorsickness orInjury notcon st i t ut eout right f raudhoweveri fyou rcl aimbel egit i mat emost of t hedi sabil i tyaf tert hepaper workan ddi scoveryper i odbeoverdiscl osecancompanytnjeopardizeyourI hec l aimeven_18; 霧雜孝翁 爾答爾添難问眞—夂11_语_齡可视化其中,M隹笞案、排名隼一的非最佳笞案和任一其他非最佳答案与何题的相似度得分分别为0. ?13、0.2M4 和一0.00奵. 对于最■候逸:答棄,在其涪义表示中. 与随题〗吾义相关. 的诃嵌或者句子的輕:重要明爲高于其他词语的权重, 如首句“theoldl ifei nsurant*policyfor…丨 对;宁:雜餐筆一■的非最律罄寒, 其主要权童也集: 中在与问题语义相关的开头,insurancegoi ntoefftetafttrthefirsfi ? ? ?"; M对于图18 中的非最佳答案? 其权重的分布相对比较分散, 虽然也有一些词裔校重较高, 但是也都不'是_常明M, 且与问題的语夂关联性不是太高?进一步证明了苹文问题窜夂信息注意力的有效性.4. 4.3 多阶段租意力引人性能分析为了验证模型将问题语义注篇力和关键信息注意力分多个阶段引人对模型性能的影响冰文在三个数据集4;设置T六组对藤实验》 分别是s.1 叙述的基础模 AS)sSAASwithKISI、第一、 二阶段分射采用问题语义信息和问题关键信息进行注意力增强选出. 最穩馨■的'模8KMSAASVrthSI KI:).tlMSAASwithI<I-SI::模塑*其中, MSAASwithSI-KI模靈:同-样包括MSAASwithSI-KI ( t) 、 MSAAS软ithSKKI(h)和MSAASwithSI-KICf&h), 分别对處舞蘿的关候醫息采用何巍类型s 时癍中心M、同时采用问M类盡和中心爾? 实雜猶系如爵19'、商節和幫21 所示厲.20TREe-Q:A多翁段注霉 性能对國B21Wi ki QA载脾段洼翥:力引入性能对此图从雇1§、經2〇 和經n可以詹.出 在三个数据集上相比于#闻一阶段加人多种注意力(SAASwithSIKI} 以及交换问题毎义注意力和问题关键信息注意力的添加顺序XMSAASwi thSI KI) , 本文的MSAASwithKI-SI 標型性能均迭. 到了纛优效果,说明了本文■出的分阶段注意力的方法的有效/ft*苹文的多阶段法意力机制踉人在做笞案选择任务时的思维方式是相似的, 当人在做笞案选取任务时,一般籴说会首先阅读■间題, 然后以问题中的一些关键信息. 对候选答案迸行初步地筛选邊着, 以问题中猶详细倩息与迦步筛: 选: 出来: 的答累进行进一步地对比, 从而选出最隹答案. 人类以关键.息进行初步筛途的过輕_可以看砟是MSAAS'withKI-SI:镇型张仰森等: 融合语义信息与问题关键信息的多阶段注意力答案选取模型 5053 期第一阶段以问题关键信息进行信息增强筛选答案的过程; 人类以问题中的详细信息进行进一步对比的过程就可以看作是MSAASwi thKI SI 模型第二阶段以问题语义信息进行信息增强筛选答案的过程, 因此本文的模型与人进行该任务的步骤是大致吻合.5 总 结本文提出了一种融合语义信息与问题关键信息的多阶段注意力答案选取模型, 分阶段地将问题的语义信息和关键信息通过注意力机制的方式对候选答案的语义表示进行信息增强, 加强了对候选答案中与问题相关的信息的建模能力, 增强了模型对候选答案关键信息的捕获能力, 从而有效提升了答案选取任务的性能; 同时, 在模型的训练过程中, 对于负样本的选取, 实时选取出最佳答案以外的最优答案作为负样本, 以对模型进行优化, 增强了模型的学习能力.通过在InsuranceQA、TTRECQA和Wi ki QA数据集上的相关实验, 本文的模型都表现出优越的性能,并在不使用大规模辅助语料的基础上, 在多个指标中超过了已知最好的同类模型.不过, 在以上的研究过程中, 我们主要集中在英文数据集上, 在未来的工作中我们将尝试对中文语料进行处理, 验证该模型是否具有普适性; 同时, 答案选取任务在具体的使用过程中与搜索引擎类似,一般需要进行实时在线计算, 对模型的时间性能要求较高, 在后续的工作中, 我们也将进一步优化模型的执行效率; 另外, 本文所提模型在最优答案较少的数据集(如InsuranceQA) 上的效果要明显好于有多个答案的数据集, 同时也表现在TRECQA和WUnQA数据集上的MAP性能略低, 这也是我们后期对答案选择模型进一步优化的研究重点. 另外, 随着ELM〇、Bert、GPT等预训练模型的兴起和迁移学习技术的发展, 大规模预训练+微调的方式正在成为一种新的思路[ ^4], 因此在后续的研究中,如何利用大规模数据来提升答案选取任务的效果将是我们的重点研究方向.参 考 文 献[1]ZhaoYi Ping. Comparat iveSt udyonCommonandSemanti cSearchEngines[M. S. dissert ation]. JilinUniversity?Changchun,200 9( i nChi nese)( 赵夷平. 传统搜索引擎与语义搜索引擎比较研究[硕士学位[2]HeilmanM,SmithNA. Treeedit model sf orrecognizingtext ualentailments ?paraphrases? andanswerstoquest ions//ProceedingsoftheHumanLanguageTechnologies: The20 10AnnualConf erenceoft heNort hAmericanChapt eroftheAssoci at ionforComput at ionalLinguisti cs. LosAngeles?USA, 2010; 1011 1019[3]SurdeanuM, Ciaramit aM, ZaragozaI I . LearningtorankanswerstononfactoidquestionsfromWebcollect ions.Comput at ionalLinguist ics,2 012,37(2) : 35 1 383[4]YihWT, ChangMW, MeekC, etal. Quest ionansweringusingenhancedlexicalsemant icmodel s//Proceedingsof the51stAnnualMeet ingoftheAssociationf orComput ationalLi nguist ics. Sof ia ,Bulgaria ,20 13 : 1744 1753[5]TymoshenkoK, Moschit t iA. Assessingtheimpact ofsynt act icand semanti c struct ures for answer passagesreranking//Proceedingsoft he2 4t hACMI nt ernationalonConf erenceonInf ormat ionandKnowledgeManagement . Melbourne,Aust ralia,2015: 145 1 1460[6]FengM?XiangB? GlassMR?etal. Applyingdeeplearningtoanswerselect ion: Ast udyandanopent ask//Proceedingsof the20 15IEEEWorkshoponAutomaticSpeechRecognitionandUnderst andi ng. Scot tsdale, USA,2016: 813 820[7]GuoJ?YueB, XuG? etal. Anenhancedconvolutionalneuralnet workmodelf oranswerselection//Proceedi ngsofthe26thInt ernat ionalConferenceonWorldWideWebCompanion. Perth,Aust rali a, 2017; 789790[8]TanM, SantosCD, XiangB,et al. I mprovedrepresent ationlearningforquest ionanswermat chi ng//Proceedingsofthe54thAnnualMeet ingoftheAssociationf orComput ationalLinguist ics. Berlin, Germany,2016: 464 473[9]DenilM?BazzaniL?LarochelleI I,etal. Learningwheretoat tendwit hdeeparchitecturesf orimagetracking. NeuralComput at ion, 2011 , 24 ( 8): 2151 2 184[10]BahdanauD?ChoK? BengioY. Neuralmachinetranslationbyjo int lylearningt oalignandtranslate. arXivpreprintarXiv:1409. 0473 ,2014[11]Bri tzD?Gol di eA, LuongMT?et al. Massiveexplorat ion ofneuralmachinet ranslat io narchit ect ures//Proceedi ngsoft he20 17Conf erenceonEmpiricalMet hodsinNat uralLanguageProcessing. Copenhagen,Denmark,2017: 14 42 1451[12]TangG, MullerM,RiosA, etal. Whyself att ent ion? : Atargetedevaluat ionof neuralmachinetranslationarchitect ures//Proceedi ngsoftheConferenceonEmpiricalMethodsinNat uralLanguageProcessing. Brussels ? Belgium, 2018:42 63 4272[13]ChengJ ?DongL, Lapat aM. LongShort TermMemoryNet worksf orMachineReading//Proceedingsofthe2016ConferenceonEmpiri calMet hodsinNat uralLanguageProcessing. Aust in, USA, 2016: 551 561[14]VaswaniA, ShazeerN? ParmarN?et al. At t entionisallyouneed//ProceedingsoftheAdvancesinNeuralInformationProcessingSyst ems. LosAngeles, USA, 2017; 5 998 6008 论文]. 吉林大学, 长春, 2009)506 计 算机 学 报 2021年[15]l ieX, HeZ,SongJ,etal. NAIS: Neuralattentiveitemsimilaritymodelforrecommendation. IEEETransactionsonKnowledgeandDataEngineering,2018 ,30(12): 2354-23 66[16]YuS,WangY,YangM,etal. NAIRS: Aneuralattentiveinterpretabl erecommendationsystem//Proceedingsofthe12thACMInternationalConferenceonWebSearchandDataMining. Melbourne ,Australia,2019:790-793[17]BachrachY,Zukovgregori cA,CoopeS,etal .Anattentionmechanismforneuralanswerselectionusingacombinedglobalandlocalview/ /Proceedingsofthe20 17IEEE2 9thInternationalConferenceonToolswithArtificialIntelligence.Boston,USA,2017 :425-432[18]XuD,JiJ, HuangI I,etal.Gatedgroupself-attentionforanswerselection. arXivpreprintarXiv:1905. 10720,2019[19]ChenD,FischA,WestonJ ,etal . ReadingWi kipediatoansweropen-domai nquestions//Proceedingsofthe55 thAnnualMeetingoftheAssociationforComputati onalLinguistics.Vancouver,Canada ,2017 : 1870-1879[20]I laoY, ZhangY,Li uK,etal. Anend-to-endmodelforquestionansweri ngoverknowledgebasewithcross-attentioncombiningglobalknowledge//Proceedingsofthe55 thAnnualMeetingoftheAssociationforComputationalLinguistics.Vancouver,Canada ,2017: 221-2 31[21]HuangZ,ThintM,QinZ.Questionclassificationusingheadwordsandthei rhypernyms//Proceedingsofthe20 08ConferenceonEmpiricalMethodsinNaturalLanguageProcessing.Honol ulu,USA,2008 :927-936[22]LiX, RothD. Learningquestionclassifiers:Theroleofsemanti cinformation.NaturalLanguageEngi neering,2006,12(3):229-249[23]WangM,SmithNA, MitamuraT. Whati stheJeopardymodel?Aquasi-synchronousgrammarforQA//Proceedingsofthe2007Joi ntConferenceon EmpiricalMethodsi nNaturalLanguageProcessingandComputationalNaturalLanguageLearning. Prague,CzechRepublic,2007 :22-32[24]WangB, LiuK,ZhaoJ. Innerattentionbasedrecurrentneuralnetworksforanswersel ection//Proceedingsofthe54thAnnualMeetingoftheAssociationforComputati onalLinguistics.Berlin,Germany,2016 :1288-1297[25]TranNK,NiedereeeC. Multihopattentionnetworksforquestionanswermatching//Proceedingsofthe41stInterna?ti onalACMSIGIRConferenceonResearch andDevelopmentinInformati onRetrieval. AnnArbor.Mi chigan,USA,2018 : 325-334[2 6]KumarS,MehtaK,RasiwasiaN. Improvinganswerselectionandanswertriggeringusinghardnegatives//Proceedingsofthe20 19ConferenceonEmpiricalMethodsinNaturalLanguageProcessi ngandthe9thInternationalJoi ntConferenceonNaturalLanguageProcessing. HongKong, China ,2019:5913-5919[27]XuD,LiWJ. Hashingbasedanswerselection. arXivpreprintarXiv: 1905.10718,2019[28]TayY,TuanLA,I luiSC. Mul ti-castattentionnetworksforretrieval-basedquestionansweringandresponsepredi ction//Proceedingsofthe24thACMSIGKDDInternationalConferenceon Knowl edge Discovery &- DataMi ni ng.London,UK,2018 :22 99-2308[29]MadabushiI IT,LeeM, BarndenJ. Integratingquestionclassificationanddeeplearni ngforimprovedanswerselection//Proceedingsofthe27 thInternati onalConferenceonComputationalLinguistics. SantaFe,USA,2018: 3283-3294[30]YangR, ZhangJ, GaoX,etal.Simpleandeffectivetextmatchingwithricheralignmentfeatures//Proceedi ngsofthe57thAnnualMeetingoftheAssociationforComputationalLinguistics.Florence ,Italy, 2019: 4699-4709[31]Yoon,S, DernoncourtF,KimDS,etal. Acompare-aggregatemodelwith latentclusteringforanswerselection//Proceedingsofthe28thACMInternationalConferenceonInformationandKnowledgeManagement. Beijing,China ,2019: 2093-20 96[32]KoehnP. Statisticalsignificancetestsfor machinetranslationeval uation//Proceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing.Barcelona ,Spain,2004 : 388-395[33]GargS,VuT,MoschittiA. TANDA:Transferandadaptpre-trainedtransformermodel sforanswersentenceselection.arXivpreprintarXiv: 1911. 04118,2019[34]LaiT, TranQI I, BuiT,etal . Agatedself-attentionmemorynetworkforanswerselection//Proceedingsofthe2019ConferenceonEmpiricalMethodsinNaturalLanguageProcessi ngandthe9thInternationalJoi ntConferenceonNaturalLanguageProcessing. I longKong,China,2019:5955-5961ZHANGYang-Sen,Ph.D. ,professor.Hismajorresearchinterestsincludenatural languageprocessingandartificiali ntel ligence.WANGSheng,M.S.candidate,interestisnatural l anguageprocessing.HismajorresearchWEIWen-Jie,M.S.candidate. Hismajorresearchi nterestisnatural l anguageprocessing.PENGYuan-Yuan,M.S. , engineer.Hermajorresearchinterestisnatural languageprocessing.ZHENGJia,M.S.,engineer.Hismajorresearchinterestisnatural languageprocessing.张仰森等: 融合语义信息与问题关键信息的多阶段注意力答案选取模型 5073 期BackgroundTheprobl emsstudiedinthisarticl eareveryrelevanttotheautomaticquestionansweringsystem, oneofthecurrentresearchhotspots. Inrecentyears , withthecontinuousdevelopmentofartificialintelligencetechnology, variousautomaticquesti onansweri ngsystemshavecomeoutoneafteranother. Inthesesystems,answerselecti onisakeystep, whichdirectlyaffectstheperformanceofthesesystems.Aimi ngattheproblemofi naccuratecaptureofkeyinformationintheanswer, thispaperproposesamulti stageattentionanswerselectionmodelthatcombinessemanticinformationandkeyinformationofthequestion.Bycombiningthesemantici nformationandthekeyi nformationofthequestionwiththesemanticrepresentationofthecandidateanswersinstages,thesystemperformancei simprovedeffectivel y. Aimingattheproblemthatthecandidateanswersaredifficulttosort, thispaperreferstotheprocessofhumanthinking,proposesastrategyofanswerselectionbylayers ,whichi mprovesthecorrespondingeval uati oni ndexesofanswerselectionsuchasaccuracyandmeanreciprocalrank.Theauthorsandl aboratoryofthisarticl ehavealotofresearchinthefiel dofnaturall anguageprocessing.Forexample,theyhaveproposedasemanticerrorcorrectionmodelintexterrorcorrection, andareadi ngcomprehensionmodelinsemanticunderstanding.OurworkissupportedbytheNational NaturalScienceFoundationofChi na(GrantNo. 61 77 2081 ).

[返回]
上一篇:基于注意力感知和语义感知的RGB_D室内图像语义分割算法_段立娟
下一篇:基于知识线记忆的多分类器集成算法