欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
SCI期刊论文
当前位置:首页 > SCI期刊论文
基于双通道R-FCN的图像篡改检测模型
来源:一起赢论文网     日期:2021-12-26     浏览数:885     【 字体:

 第44 第2期2021 年2 月计 算机 学 报CHINESEJOURNALOFCOMPUTERSVol .44No.2Feb. 2021基于双通道R-FCN的图像篡改检测模型田秀霞 李华强 张 琴2 )周傲英3 ) ’ 4)1 :)( 上海电力大学计算机科学与技术学院 上海 200 090)2)( 国网兰州供电公司互联网部信息通信安全实验室 兰州730050)3 )(华东师范大学数据科学与工程研究院 上海 200 062)4 )(华东师范大学软件学院上海市髙可信计算重点实验室 上海 200062)摘 要 随着大数据时代的到来和图像编辑软件的发展, 恶意篡改图片的数量出现井喷式增长, 为了确保图像的真实性, 众多学者基于深度学习和图像处理技术提出了多种图像篡改检测算法.然而, 当前提出的绝大多数方法在面对大量图片的情况下, 篡改检测速率较低且小面积篡改区域检测效果较差. 为了有效解决这些问题, 本文首次将基于区域的全卷积网络(RegionbasedFull yConvolutionalNetworks, RFCN) 引人双通道篡改检测网络, 通过彩色图像通道提取图像的表层特征, 使用隐写分析通道挖掘图像内部的统计特征, 并利用双线性池化层将两个通道的信息融合, 构建了一种面向实际应用场景的图像篡改检测模型. 其中, 利用RFCN中位置敏感得分图提高图像篡改检测效率, 使用双线性插值算法提高小面积篡改区域的检测率. 通过在国际主流的标准图像篡改数据集上进行实验, 有效地验证了该模型的图像篡改检测速率相比当前最新模型提高2. 25倍, 检测精度提升1 . 13 %到3. 21 %,本文提出的模型是一种更加高效而精准的图像篡改检测模型.关键词 图像篡改检测; 深度学习; 双通道网络; 基于区域的全卷积网络; 双线性插值中图法分类号TP7 51 ; TP183DOI号1 0.1189 7/SP.J.1 01 6.2021.0037 0Dual-ChannelR-FCNModelforImageForgeryDetecti onTTIANXi u Xi a1)LIHua Qi ang1)ZHANGQi n2)ZHOUAoYi ng3) '4)1 :)(. Col legeofComputerScienceandTechnology?ShanghaiUni versi tyofELeciri cPower?Shanghai200090)2 ){. StaleGridLanzhouPowerSupplyCompany? MinistryofIniemei ? Informat ionandCommunicaii onSecurityLaborat ory? Lanzhou730050)3 )(. Col legeofDataSci enceandEngi neering?EastChi naNormalUni versity?Shanghai200062)4 ){Shanghai KeyLaboratoryofTrust worthyComputi ng?SoftwareEngineeringInsi iiuie?EastChi naNormalUniversi ty?Shanghai 2000 62)AbstractWiththeexpl osi vegrowthofmal ici oustamperingimages,manyscholarshaveproposedmultipleimageforgerydetecti onalgorithmsbasedondeeplearni ngandi mageprocessingtechnologies.Al thoughthesealgorithmshaveachievedgoodresul ts,mostofthemhavestrongli mitati onsi npracti calappl i cati on.Inordertosol vethi sprobl em,weproposedadual channelforgerydetecti onmodelempoweredbyRegi onbasedFul lConvol uti onNetwork( RFCN),whi chwasi nspi redbythetwo streamnetwork.Themodeli ncl udedtwoparts:RGBchannelandsteganal ysischannel.Thedesignofdualchannel enabl esthemodeltocapturemorefeaturesi nthei mageandobtai nabetterdetectioneffect. Firstofal l,themodeluti l izedthepropertiesofeachchanneltoextracttheimage?sfeatures. TheRGBchannelcapturedtheboundary,col or,textureandothersurfacefeaturesofthei mage,andanal yzedthetamperi ngartifactswhi chwerel eftbyi mageforgery. Steganal ysi s收稿日期:2019 0809; 在线发布日期:2020 02 15. 本课题得到国家自然科学基金( 面上项目; 重点项目) (61772327,6153202 1)、 国网甘肃省电力公司电力科学研究院横向项目( 1 1 2019 275) 资助. 田秀霞, 博士, 教授, 中国计算机学会(CCF) 会员, 主要研究领域为数字图像篡改检测、 数据库安全、 隐私保护(大数据和云计算) 、 安全机器学习、 面向电力用户的安全计算. Emai l: xxt ian@shiep. edu. cn. 李华强, 硕士研究生, 主要研究方向为数字图像篡改检测、 深度学习、 目标检测.张 琴, 硕士, 工程师, 主要研究方向为信息安全、 信息网络、 通信技术. 周傲英, 博士, 教授, 博士生导师, 长江学者特聘教授, 国家杰出青年科学基金人选者, 中国计算机学会( CCF) 会员, 主要研究领域为数据库、 数据管理、 数字化转型、 教育科技(EduTech) 和物流科技(LogTech)等数据驱动的应用等.2 期 田秀霞等: 基于双通道RFCN的图像篡改检测模型 37 1channelusedtheSpatialRichModel( SRM)fil terl ayertoextracttheresi dualnoiseofthei mage,andanalyzedthei nconsi stencybetweentherealareaandthetamperi ngarea.Then,themodelusedtheRegi onProposalNetwork( RPN)toobtai nthecorrespondi ngRegi onofInterest( ROI)l ocati oni nformati onfromthefeaturemaps,andcombi nedthepositi onsensi ti veROIpool i ngoperati onstogetthescoremaps. Fi nal l y,themodelusedthebi l i nearpool ingl ayertofusethei nformati onofthetwochannel s,andprocessedtherel evantfeaturestoobtai nthecorrespondi ngcategoryi nformationandl ocati oni nformati on,soastol ocatedthetamperi ngarea.Ontheonehand,theproposedmodelusesthedesignoftheposi ti on sensi ti vescoremapi nRFCN,whichi ncreasesthenumberofsharedcomputi ngnetworkl ayersbychangingthel ocati onoftheROIpooli nglayer,andimprovesthedetecti onefficiency. Ontheotherhand,bili neari nterpol ati onisusedtoadjusti ngtheoutputsi zeofthefeaturemapinthefeatureextracti onnetwork,whi chal l eviatestheweakexpressi onabilityofmodelfeaturescausedbyconvol uti onoperati oni nthefeatureextractionprocess,andi mprovesthedetecti onaccuracyofthesmal l tamperingarea.Si ncetherewasnotenoughdatai nthestandarddatasettotrai ntheneural network,wepre trainedourmodelonthesyntheticdataset.Wecomparedourmodeltofourstate ofthe artmodel sonthreebenchmarkdatasets,NIST,CASIA2.0andCol umbi a.Thecompari sonmodel sweremai nl ydi vi dedi ntotwocategories:onetradi tionali mageforgerydetecti onalgori thm( CFA1)andthreedeepl earni ngi mageforgerydetecti onalgorithms(TamD,J Conv LSTMandRGBN).Wehaveconductedanumberofexperimentstoverifytheperformanceofourmodel. Theexperi mentalresul tsshowthatthedual channelstructureandbi l i nearpool i ngl ayerofthemodel i mprovethedetecti onaccuracy.Inordertoexpl orethesuperi orperformanceofthemodel ,weeval uat ethemodelwiththreeeval uati onindexes:Averageprecisi on( AP),Fl scoreandFramesPerSecond(Fps). Theeval uati onresul tsshowthatthei magetamperdetecti onrateofthismodel is2.25timeshigherthanthecurrentl atestmodel ,andthedetecti onaccuracyisi ncreasedby1.13%to3.21%,verifyi ngourproposedimageforgerydetecti onmodelismoreeffi ci entandaccurate.Keywordsimageforgerydetecti on;deepl earni ng;dual channelnetwork;regi onbasedful lconvol uti onnetwork;bili neari nterpol ati oni 引 言随着多媒体、 互联网和存储技术的快速发展, 数字图像的传播与存储成本变得越来越低, 它已经深人应用到人类的生活、 工作等各个方面. 然而,一系列图像处理和编辑软件的出现, 让图像篡改的门槛大大降低, 无需专业图像处理知识也能对图像进行编辑处理, 这对图像的真实性、 完整性构成了极大的威胁.2007 年10 月12 日, 陕西省林业厅公布了一系列“野生华南虎”照片, 但专家与网友对照片的真实性和完整性提出了质疑. 经调查发现, 证实照片上的华南虎出自一张年画. 这仅是众多图像伪造问题中的一个例子, 如果图片伪造被大面积地滥用, 将会给国内甚至全世界舆论的导向造成极大的负面影响[ 1 ]_图像篡改手段分为三种: 复制移动、 拼接和移除[ 2 ]. 复制移动是指在图像中复制部分区域, 然后将该区域粘贴到图像中与复制区域无重叠的部分, 实现图像的篡改; 拼接是从一幅图像中复制部分区域,然后将该区域粘贴到另一幅图像中; 移除是对图像中的像素进行修改, 实现目标区域的消除. 图像篡改检测技术可分为主动篡改检测技术和被动篡改检测技术( 盲检测) 两大类. 主动篡改检测技术主要以数字签名技术和数字水印技术为代表, 需要在图像建立时主动对图像进行预处理, 如对图像的哈希( Hash) 串进行计算或在图像中嵌人特征信息, 这些特征信息是具有特定意义的水印或图像等, 检验时会对嵌人信息的完整性进行验证, 从而判断图像是否发生过篡改; 被动篡改检测技术则不需要事先为图像添加任何特征信息, 仅凭借图像本身的统计信息或物理特性便可达到篡改检测目的[ 3 ].由于主动3F2 计導机攀报: _1苹篡改捡测技术的使用具有很强的局限性, 数字水印的杭攻击性也有管加强, 所以被魂霧波检测技术逐渐成为研究的热点,員前,研究人员就被动篡玫裣测技术提出了, 多种算法: I 萁代鐵性工作主聲有文献[昝5].fianehi等人^提出了一种概率模型, 来估甘JPEG图像中不同區域的离餘条:弦变换CDiscfeteGssiiieTransform,DCT) 系数和量化调子, 迸而判断出每个DCT块被篡改的概率.当面对不同类型的篡改方式时, 该模型的表现有好有'坏f鲁棒性比较差?Raa尋入[ 5 ]孝先将深度学习技术用于篡改裣测中,模型使用空间富模型(: Sp.atMRi ehModels,SRM)作为预处厲屬: , 输出藥甩支持ft量ft(S. u押ortVea:〇rMachiiiei,SVMJ 进行二分类. 但该模: 型只能判断囿像备费发生賊篡改,无法做到对篡改区域的定徨, 在S用中存在很大的靡性■本文利用双通道网络提取丰貪的图'像特征, 并引入RFCKW挺高模型的效率*针对现有图像篡改检测速攀低和小面积翁改区域裣测精度的不足的问题,提虫了一种基于获通道RFCN的?像纂攻检测韁_?本文的创新 包:猶:(1) 使用RFCN[ 6]对模型进行构建与优化.RFGN中移除了全连接层, a保筲可学习的卷积g— 这样可以进行端到端的训练, 而且全卷积网络的设计提高了共享计算的网络麗数, 相比FasterRC_、模塑的效率籍到大幅的提升;⑶提出一种塞: 于图像分辨率M螫的小两积寡改区域检测技术.为了提高图像篡:政检测中小面积_玫区域: 的翁测着度> 本文緣:用双錢性猶值_? 讀鲁怔提取网络冲'每一个堆蠱卷积层输出的特怔图尺寸进行调整f缓解在: 特征提取过售中造成的目. 标缺失向顧J_相翁3f5爲詹猶:图襻義魏捡测: 方钹r 本文方法在篡玫_像中包含细微算改痕迹时.. 可以吏好地对篡魂. 区域进行痒位, 检测效率的提升也使模型具有实用价值,本太攀2节薄釋内外在顧像被动_敗飄域的猶关工作迸行总结;第3 节对本文用到的预备知识迸行介绍; 筹4首给出本文模型_构,并对其进行详细地描述: 第5 节为实验的结果与对比分析; 第6节总结全文弁对未来的研堯工作进行, 慶望?2 相关工作S像被动篡改检测方法分为两类: 基于圈像统计信息的传统篡改检测馨法和基于神经网络的深度学习: 篡改检测'箅法. 传统图像篡改检测算法是根据图'像的特性设计人工特征, 通过计算图像残墨、邻域像素的相关系数、方差v直方虜等特征, 检测数字图像是否以某种方式发生了篡改; 深度学习篡改检测算法首先对网絡的输人数据进行相关的预处理, 随后使用卷积神錢网缕(C0nY0l uti onaIiSt邮ralCNN)[ s]对图像特征进行提取,: 最后进行篡改K域的:p|■位与聲_*突_靖到端 的网翁隹樂:讀 费樹反向會播daekpropagati on) 的方式对络参数进行更迭. 传统篡改检测算法与深度#項寡改检测算法的框架对比如图1 所示.国1 传■统*改检测算法框架( 上) 与深?度学匀篡改检师奠法框架(1?》2. 1 传统篡改检测算法为了在图像中检测篡改K域, 研究者们使用多种方法进行:尝试,目前比较热门的传统图像篡改检测方法可以分为: 基于像素的菌镩?玫检测方法.基T成像设备的_像霧政检测方法和 于组合器的图像纂改检测方法.基于像素的特性:,200#年Mahdi an等人[9]基于内插倩夸及其导数包含特窟育裣测周期的特性, 提出了一种能够找到童采样和插值痕迹的圓镩被翁篡改检测方法*同时该方法在图像安全性和身份验证等颔域都有着很强的应用价值-2〇1〇 年Stamm辱人_基于内在指纹的检测方法, 通过全局图像和局部图f象的对比度增强实现对?像的篡改裣测、 该方法可以很好地检测出餐过对比度增强操作的葛改?像.2〇1爲辱Hushmi 等入[1 1]将加.速鲁轉替■征(SpsetedU.pRobustF&aturfe%SURF):变'换和多种小波变换相结合来检测篡改图像, 与一些算法不词'., 该算法是在整张图像上提取特征<而不景将?像划分为块&域提取待征,#于成像设:备#雜性, Mia牟Hsu辱人[1 31使用相机响獻画敎(C通leraRfrSJWnSeFunctkjn, CRF)实现图像篇改?检测.使用:局部平面辐照度点( LocallyPl aiiErIrxadiaiTeePoi nts,LPIPs.)-的几何本囊童慰每田秀霞等: 基于双通道RFCN的图像篡改检测模型 37 32 期个自动分割区域进行CRF估计, 计算基于CRF的交叉拟合和局部图像特征并将其馈送到统计分类器, 最后推断图像的真实性. 由于单传感器数码相机是通过内部的色彩滤镜矩阵( Col orFi l terArray,CFA) 插值得到彩色图像, 而每个相机的CFA结构与算法不相同, 其输出图像相邻像素间的线性关系也不相同. 2012 年Ferrara 等人[1 3]利用色彩滤镜矩阵模式对检测图像进行采样后的重新插值, 并将重新插值的图像与原图像进行比较, 获得估计误差, 最后根据两类像素不同的估计误差对图像进行篡改检测.大多数传统方法仅针对某种特定篡改方式的图像进行检测, 而图像篡改的方式是多种多样的, 于是有研究者提出基于组合器的图像篡改检测方法.2014 年Gabonm等人[ 1 4]提出了一种融合三个独立检测器的图像篡改检测方法, 三个检测器分别为: 基于光响应不均勻性(PhotoResponseNonUniformity,PRNU) 的检测器、基于块匹配的检测器和图像来源检测器, 这种组合在一定程度上提高了篡改检测的精度. 2017 年U等人[ 1 5 ]提出了一种集合框架, 该框架包含一个基于统计特征的检测器和一个复制移动方式的篡改检测器, 最终通过阈值处理的方式检测图像的篡改区域. 基于组合器的图像篡改检测方法虽然提高了检测的精度, 但由于该方法集成了多种检测器, 所以提升了模型的复杂度.2. 2 深度学习篡改检测算法基于数据驱动方式的深度学习方法在众多计算机视觉与图像处理任务上表现出优异的性能, 因此很多研究者也将深度学习应用到图像篡改检测中,比较热门的几个方向有: 通过改进网络结构提高检测精度、 基于成像设备的相关性设计网络模型和利用隐写分析的特性获得更好的检测效果.通过优化网络结构可以获得更好的检测性能,2016 年Bayar 等人[ 1 6]提出了一种新的卷积层结构,来捕获图像篡改时图像中相邻像素关联性的变化,同时自适应地学习篡改特征, 并最大程度地压缩图像内容对篡改检测的影响. 2017 年Bappy 等人[ 1 7 ]提出了一种高置信度的网络模型, 该模型将卷积神经网络和长短期记忆网络( LongShort TermMemory, LSTM) 融合, 通过捕捉篡改区域与非篡改区域的边界差异, 实现图像篡改检测.同时, 深度学习方法也应用在基于成像设备的相关性上. 2016 年Baroffm等人[ 1 8 ]首次提出利用卷积神经网络实现基于相机源的图像篡改检测, 该模型可以直接从获取的图片中学习表征每个相机的特征, 进一步判断图像是否发生过篡改.2017 年Bondi等人[1 9]利用卷积神经网络, 对不同型号相机所拍摄图片上遗留的特征痕迹进行检测, 根据不同相机遗留噪声的不一致性, 实现篡改区域的定位.近年来, 研究者们使用隐写分析方法对检测框架进行完善, 通过分析图像相邻像素的局部噪声特征, 可以更好地比对篡改区域与非篡改区域的不一致性. 2017 年Cozzoli no等人[ 2 °]将卷积神经网络与SRM特征结合, 实现图像篡改区域的定位;2018 年Zhou等人?提出一种基于FasterRCNN架构的双流网络, 该网络融合了RGB流与噪声流的特征,进一步提升了图像篡改的检测精度.综上, 现有的图像篡改检测方法仍存在以下问题:( 1) 大多数传统方法由于特征设计的专一性, 在图像的篡改方式未知时, 算法的鲁棒性比较差;(2) 传统的基于组合器的图像篡改检测方法虽然提高了模型的鲁棒性, 但整体框架过于繁琐, 不够精简;( 3) 基于深度学习的篡改检测方法虽然在模型的鲁棒性和结构上都有了一定程度的优化, 但与传统方法相比, 检测的精度还需继续提升, 尤其是面对小面积篡改区域的检测时d4) 深度学习方法在检测速度上有一定的优化空间. 针对以上问题, 本文从实际应用的角度出发, 研究了高效率的图像篡改检测模型, 并提高了小面积篡改区域的检测率.3 预备知识3.1 深度学习目标检测模型目标检测可以通过对图像或视频的识别, 将要检测的目标进行分类与定位, 在视频监控、 自动驾驶、人脸识别等多个领域都有应用. 近几年, 因为计算机运算能力的指数级增长, 机器学习、 深度学习等人工智能技术迎来了新的春天, 研究者们纷纷将其应用至目标检测领域[2 2].基于深度学习的目标检测网络架构包含两个部分, 第一部分是由卷积神经网络组成的特征提取部分, 可以从输人图像中提取不同类型、不同层次的特征, 并输出特征图; 第二部分是目标检测模型的主体部分, 它会利用第一部分输出的特征图, 进行相关操作后实现目标的分类与定位.根据模型候选框生成方法的不同, 可将目标检测模型分为两类: 第一类模型将问题分为两个阶段,首先生成区域建议( Regi onal Proposal ) 候选框, 然3F4 计導机攀报: _1苹3. 2R-FCN目标检测模型Re.s.Met[ 2 a为RFGN的主干网络, 它的基本组成单粒是薄差学习模块,其.结构如图2 所示. 残差学习模块不仅可以逋过卷积意与非线性函数将慮始输入映射到卞一层, 还允许原始的输人儈息:倉接映射_后面的蒙, 通过这种连接方式实现: 残_网络结掏输入与输出的加盡v在减少计算量的同时、 缓解了网络层数的增加蠢戚的梯歲清失现象.非线性函数-输出的筛逸与徵调. 进行分类操作时, 会在. 区域建议网:络的基础上,通过卷积在整幅图像上为每类物体生成是XM图3 绪构中办=3)个位置敏朦得分图,每个位餐敏感得分图的逋: 道数为C{代表C—1 类的物体加1 个背屬5? 对于一平太小为'wz _区域候違框,:蠢将其划分为&z务 个块, 则每个块的大小为wXA/12, 雜对任意一个块 人) 执行位羞敏感池化搡作, 其中 j<々一1 . 池化公式如下所示:(工+ ?+3%1 0)raii<jI?): ■a)其:中, ^jI 遠亦: 对应第C个_别块奸w(i,;/) 的池化响龜声■: 參: 承块6m^ i)所对處的位置敏感得分图, Cr。,_v。)轰示每个区域候选桓左上角的■坐标卷积层 非线性函数图3 残墓模徵缙构麗RFCN[ 6 ]的网络结构, 如图¥ 所示, 贄先r 使甩Res.Net网絡对图像进行待征提取, 并生成特征图.之辰使. 甩K域建议网络( RegionPio: P〇S*t lNfetw?rk,RPN) 生成区、 域候选桓, 并对每个候选框迸行背景值, 0表示网络中所有可学.习的参数. 随后,对个块的池化 j1 0)迸行均值池化,繼廣使, 靖Softmsx函数获得每个类别的概率. 位置回归的流程与分类相同满个錄敏感轉_的通道数由C个变为4个, 分别表示区域候选框的4个位置参数?输入图片区域建议网络mmm背景分类卷积边界框微调4卷积 /IBB傾得分+■分类得分提取CNN特征特征图图3R-FCN网络结构位置敏感区域池化后根据提取的图像特德对候选區域迸行分类与僮置回归 代議輿FastR-GfiN[ 2 3 ]' FasterRGKM[ 7 ]、RFCN[ 6 ]' MaskR0N_#:|第二类檯纖则會書TK域建议的步骤, 直接生成物体的类别概率和位置坐标值, 通过单次检测便可得到检测结臬,典塾摟凿有YOLO[2 5 ]、SSD[ 2 6 ]等, 两种模型的性能优缺点对比如表1 所示? 考虑到RFCN对小目标的检测效果遷优亍第二类模型, 而且它?在第一类糢型中有速度上的优势, 本文便将RFQi用于图像篡改检测If络中.表1 模型优缺点对比mm 麵 麵』優 臟 缺点2015 FastR-CNN[ 23 ]否2015 FasterR-CNN[7 ]是2015 YOLO[25]是2015 SSD[2 6]是2016 R-FCN[6 ]是2017 MaskR-CNN[ 24]是可以同时完成分类与定位, 节省存储空间提出RPN层生成候选框, 实现端到端训练测试,提升了速度网络简单, 速度较快网络简单, 准确率高较FasterR-CNN大幅提升速度,精度也略微提升实例分割效果好, 检测精度更高候选框生成方法占用大部分时间模型较为复杂准确度低, 小目标与多目标检测结果不好对小目标检测结果不好模型较为复杂模型复杂卷积层tt薄窵零! 基于寧遒道:RK3N的: 图像纂魏糨测_型 37 5 2: 期3. 3空间富模型( SRM)隐写术是一种防止别人发现秘密雷息的技术s目前主要应用f对通翁内容的保密, 它将眷殊倩息隐藏在文本、 图像、 视频.班常载体中, 实现秘密信息的隐秘传播? 为了防止隐写术被不法分子利用, 给社会带来巨大损失, 研究#们在隐写分析领域上投人大量研究, 对载体中是否■含有秘密Mt息进行判断.随着庳写术的不断发展, 秘密信息的隐藏能力也在:不断提高. 为了应对吏高级的自适虛隐写术, 研究者们开始考虑更加复杂化、高雜化的特征, 其代表特征为基于对图'像邻域复杂相关性进行建模的■高阶统计量時征[ 2 S ]? 由于该类特征中包含丰賓的统计特性?因此该特征也被称为“會模型”特征.代表模型SRMt2s ]的框架, 如遛4所示,_4變间嘗眞麵權雜首先, 使用K个高通滤波器对输人面像计算残差值. 因为与整幅图像相比f?像中秘密?胥息的嵌入所引起的扰动是很小的¥而扰动租对于残:螯值却很强, 所以_使用高通滤波器对图像进行卷积获得残差值. 残爱瘡计箕的公式如下所示:R,.,—<p;.jiai ,})—c^t, j(2)其中? 尺 示图像K. j) 位置的残差值, _示图像 宣置的像素值, aw表示图像UV)位,置邻域像素的集晋,私, 表示对图像(i,j)位置邻域像素进行卷积操作. 随后, 对残差进行截断,躉化和取整. 通过截断, 可以降低特征维度, 从而避免高鐵差值K域的冗余特征对模型性能造成过多的影响4 麓化主要是针对截断操作造成的高残差值区域隐藏信息的缺失进行弥补, 关乎置化系数选择的公式如下所示:其中K由滤波器的类灌决定. 截断、 量化和取整操作的公式如下::Ri , j^tnmcri^rmmd^jjCA)其;中讀: 表农对残差償进行誓化的步长.S遠:示对残羞值进行取整?>表示对残差进行截断. 最后^将截断邐化后的残差值进行数值统计形成共生矩阵, 对称含I后获得特征向量[ 2 9 ].4 本文模型结构为了同时应对篡改区域的分: 类与定位两个任务>本文采. 用了多任务处理的网络结构实现篡改的分类与边界框的回归, 如图S 所示^ 其中, 将RGB图僳作为彩色图像通道4如屈5 上部分通道所示) 的输入; 并将经过SRM滤波器层处理的图像作为隐写分析通道:( 如图S 下部分通道.所示) 的输人. 两种通道对H像进行处理后会分别获得不同的特征信息,之后通过双线性池化层(bi l inearpool i nglayer)[3 1]融合两个通道的空间特征信息. 最后, 根据得分判断卷积层ft卷积层区域建议网络丨 背景分类丨卷积-?丨 边界框微调丨_双绍位置得分^^分类得分位置敏感区域池化〇双线性特征向量图5 双通道图像篡改检测模型3?: 6 计導机攀报: _1苹K域是否发生过篡改, 并对. 篡改区域进行标往.布该模型中, 区域建议网络■层仅采用彩色面像特征作为输人, 但位璧敏感得分图舉用彩色图像与邋写分析两种特征作为输人?4. 1 彩色图像通道大多数篆改图像与真. 实图像相比, 在视觉上有很大差异^其表现如图6 所示. 在图6U)中., 第1 行第1 幅图像中的篡改区域包含蓦玫K域夸非篡玫&域的相交边界 篡改. 区域包含,纂:改区域间的柑交边界,第1 行第2 帳图翁为籩改图像所对应的禽.值掩膜图像, 第2好第1 幅图像与第2 幅菌像分别为篡改区域与非篡改区域放大后的图像展示, 显然,包含篡珑区域的边界在视觉上裉不自然, 边界较为平滑, 商不包含葛玫K域的边界在视觉上呈现锯*状, 边界较为央珙, 颗粒感明显? 在;:图S Cb) 中., 第1行第1幅_像中的'寡玫区域包含了篡改区域^ 丨 丨 :改区域的相交;边界, 第1行第2 幅图像为篡改图像所对应的真值掩膜图像,.第2 行图像为寡政区域敗(b) 色彩差异嵐t#政_儀在辣觉上: 爵養现大后的图像展示. 从圈中可以看出, 在亩篡改区域向非篡改区域过渡时, 色彩变化明显, 边界两进区域的颜色对比较为强烈, 通过彩色图像逋道, 苛以提取图像的表层特怔,并辅助模型做出精准的判断?在使用ResN:et_对图翁特征进行提取时, 随着网络逐渐加深, 来自不词层次特征的空间表现会逐渐加强, 但. 同时特征图的空间分.辨率也在逐渐降低? 倒如, R<mNet1Q1 中 卷親麗输出的着积待征面'的_像尺寸为112/112, 而Com?S_x卷积层输出的卷积特怔图尺寸为28/2S*是Convl 输茁尺寸的1/4. 分辨.降低使图像变得模糊, 减少了图像携带的信息, 导致模型的特征表达能力变弱, 便模型.提取到的释征数■减少, 这对图像小区域篡改检测非常不利. 针对上述问题, 本模型釆用双线性插值方法, 将特征提取网络中每一个堆叠卷积层输出的特征图调整为更大尺寸, 来缓解验测中小属标信, 息缺失的问题? 在_僮过程中, 第?丨 个位:置的特征向量如下秦艰;Xi二k(5)k其中,%表示原始特征图4表示上采样后的特征图,插值权重 取决于; 和々 两个相邻特征间量的位置《此插值发生在空间域中, 图^为插值过程示意圈-嵐f 针: 对特征提:攻n谿: 餘__毪鱗置在目标检测模型中, RPN网络的作用是用来找爯有能包含检铡物体的‘K域, 赚本: 文的RPK树絡是用来找出可能翁改区域. RPN, 两络将特怔提取网络输出的特征图作为输人, 使用锚(anchors)机制■生成K域候选:棋#对不: 包會物体的K域候选枢进行鸯除, 并对韓选框的边界进行预丨周整, 从而减少后缝训练1勺时间. RPN网络的损失函数公式如下:Luigi =lg,■gf> +A—^Jg1*Lr eg(ti( 6)丄 N iegi其中d表示每个锚点祕表示每个锚中包貪篡改区域的概率预测 「 表示每个锚的真值标签4与C分别田秀霞等: 基于双通道RFCN的图像篡改检测模型 37 72 期表示每个锚边界框的四个描述值及其真值, 用来表示锚的偏移量. ■L&O) 表示两个目标(前景与背景) 的交叉熵损失, Nds 表示小批量的大小. Lreg(?) 表示用于边界框回归的smooth损失函数, N?g表示锚点位置的总数量, A 表示平衡参数, 用来平衡两种损失函数,本文将它设置为10.smooth^损失函数公式如下:f0.5a:2,|x| <C1I kl 0.5, 其他模型除了在RPN网络中对候选框进行筛选,smoothL(x):(7)还使用非极大值抑制( NonMaximumSuppressi on,NMS)算法对同一目标重复覆盖的候选框进行消除,该算法即搜索局部最大值, 抑制非极大值元素, 保留最优候选框. 基于RPN网络, 模型进行位置敏感区域池化操作, 并通过彩色图像通道实现候选区域定位.4. 2 隐写分析通道图像篡改的手段多种多样, 同时篡改者也会对图像篡改痕迹进行掩饰, 所以仅采用彩色图像通道的检测效果较差. 在关注图像表面痕迹的同时, 更应该注意到图像内部的统计信息. 隐写分析通道可以很好地利用图像内部的噪声分布, 将注意力放在篡改后被破坏的统计信息上, 帮助模型提高检测精度.与彩色图像通道不同, 原始图像首先要经过SRM滤波器层进行预处理. 根据Zhou等人[2 1]的结论, 使用30 个滤波器在性能上并不会带来显著的提升, 反而会大幅增加检测时间, 为了保证模型的效率, 本文同样保留三个滤波器, 其权重如下所示:40 12 1 002 4200 12 1 01 2 2 2122688 1268628262(8)1222 10000CT000001 2 1000000这三个滤波器是SRM滤波器层的构成, 它的输出通道大小为3.经过SRM滤波器层预处理, 得到的图像作为后面特征提取网络的输人, 特征提取网络在结构上与彩色图像通道中的特征网络是相同的. 但是, 隐写分析通道不包含区域建议网络结构, 它使用彩色图像通道中生成的候选区域进行后续操作.4. 3 双线性池化层双线性池化[3 1]最早被应用在细粒度图像分类上, 它可以融合双通道的卷积神经网络, 同时保留双通道的空间信息以提高检测精度. 本文使用压缩双线性池化层[ 3 2 ]将彩色图像通道与隐写分析通道的信息进行融合. 压缩双线性池化层的输出如下所示:x=flfs( 9)其中, 表示彩色图像通道的位置敏感图特征, /s 表示隐写分析通道的位置敏感图特征. 重组后的双线性特征向量会作为后续得分的依据, 判断区域是否发生篡改.使用交叉熵损失来评估篡改区域的分类, 使用sm〇〇thLi 损失函数来评估边界框的回归. 最后, 模型总的损失函数如下所示:L,=LR +Lc(/C , /S) +LB (/C )(10)其中, L, 表示模型总的损失, LR表示RPN网络损失函数, Lc表示最后的交叉熵分类损失, 它是由经过双线性池化层的双通道特征 与/s 共同决定的, 込表示最后的边界框回归损失, 它仅由来自彩色图像通道的特征 决定.5 实验结果及分析5. 1 参数设置及实验环境为了保证输人图像经过SRM滤波器时获得更好的处理效果, 本文将输人图像的短边调整为600像素. 在RPN网络层, 将4 个锚的尺寸分别设置为82, 162, 322, 642, 并将长宽比分别设置为1:2 , 1:1以及2:1. 将RPN中用于判断正样本( 可能为篡改区域) 的IOU阈值设置为0.7,负样本设置为0.3.非极大值抑制算法的阈值设置为〇.3. 实验运行环境如表2 所斤表2 实验运行环境类别 配置电脑类型 台式电脑显卡 NvidiaGeForceRTX2080TICPU I nt elCorei9 9900K内存大小 32GB操作系统 Ubuntu16. 04. 6LTS深度学习框架 TensorllowCUDA版本 CUDA10. 1cuDNN版本 cuDNNv7. 5. 0编程语言 Python3. 5. 6318 计導机攀报: _1苹5. 2 评估指标及数据集5.2.1 评估指fgt为:了更好地对模型进行评估. 本文采用平均糖廣AP( Averagepir ecisiem1)、 F1分数(F1-sc.ere:, ) 和餘测康率F声s〈FrarnESp&rSefiond.i作为樣M敢评'倩指标. 其中, f>s 可以通过每秒钟检测器处理图片的张数评估模型在速度上的提升.5,2,2数摒拳鉴于专业图像霉改数据集的规模较小, 不能很好地满足深度神经网络的训练荽求. 本模型使用专业的属标检测数据集, 利用数据集中不同物体的标M息, 随机地将物体区域复制粘贴到其它图片中<使用合成的数据集对模產进行预训练, 并通过专业的图像篡改数捃条对模_迸行微调? 下 对本立用到的数磨集进行介绍.(1) 预训练数据欒PASCALVOC[3 3]. 为图像识别与分类提供的一奮标准数据集=共包含人、 动物(如猫、狗等)、交通工具(如船、飞机等'>、家:具(. 如椅子、 桌子、沙发零5 在内的20个藥剃的物体? 本: 文利用PASCALVOC2012数据臬中提供的标法信息,矣现墓改数据集的创建,并成功生成11 f2S张图片甩于模型的训爾与测试,(2) 徵调数据集(a)NI¥IP. 该数据集中撵供复制移动, 拚接,移除三种篡改手段的图像, 并提供寫植掩膜酉像用于農繼餘评:估'?(b) CASIA2.0[3 4]. 诙数捃集中包含复制移动,拼接, 移除三种篡政手段的图像, 餘了对篡改区域进行过精心逸择外, 还通过预. 处理对篡改痕迹进行掩盖, 并:提供真值掩膜图像用于模型的评估?(e)Col umbia^该数据集侧熏于提供来K缩图像的拼接: 寡玫_像, 并提供寘值掩膜M像用于模型的评估.对PASCALVOP3 3 ]、. l?T\eASIAI:. 0[ 3 4]和Col umbk这4个数据集分别进行训'练集与测试集:的设计? 其中, 将前三个数据集中&〇 %的'國片用作训练集, 剩余的10%的图像用作测试集. 由于Col umbia数据集中的图像数量较少, 故将其全部设覽为测试集. 每个数据集关于训练集与测试集的划錄, 姐參3 所表3 训练集与测试集的划分数据塵 ̄含成 PASCALVOCNIST ̄MUM0 ̄Columbia到练集105674044sll1试_1185細5121SC!5. 3 模型预训练繼:塑中用宁RFCN集构的ResMet1〇1 暴在ImageNet[3 5]上,进行预训霉除,:并在PASCALV〇fw]合成数磨集上对双通道:模■进行预训练. 为了増强模fl的泛化能力, 在训练过程中, 对PASCALVOC合成数据集中的圈片迸行了平移、 旋转和缩放三种方式的数据增强? 训练中采用随机梯度下降法CStochastieGradiesiiDesesnt、: S{3D)对 缕参:数进行更蕭,选取Batchskg为, 初始擎?| 率銳为〇.〇〇1迭代4.0k然后箏 事政为CLQS01 迭代7〇k挾.如面8所示, 对预训练过程中总损失函数的变化进行绘制, 该图的横轴为模型的迭代次数, 纵轴为损失函数的值, 由于数据随机波动比较太, 对数据进行拟含处埋, 可以清楚地观察到掛失函数的变化情况.为了分析不词通道与奴线性池化层对模型積度与:敏率前攀晌丰文觀_-同的实鼢环:瘡中, 使用平均精度ap与速.对本同结构的模型进行评诂? 同时, 为了保持对比实验的公平性,. 对比模型在数据棠、参数设耸与训练过程上, 与本文摟型保待一致,各模型的差异主要体现在摸'型中不同类奮特征的输人和模遵结构上, 评估结果如表4所示? 其中,. 单彩色面像通道模型是仅使用RGB图像作为输人图像的单逋道模型, 为单个的RFCN[ 〇结构: 单隐写分析通道模型是仅使用绎过SRM滤波器层处理的_片怍为输人西像的单通道模遨*组合模型由单彩色围像通道糗型和单隐写分析通道模塑构成, 但并换有融合商个通道的特征而是通过判_别器对两个通道隹型的输出结果迸行筛选, 选取最优检测区域? 隐.写分析RPK模型是在釆用取通道模製时基础上s将隐写分析通道中特征: 辑取网络输出的特征作为RPN网络的输人| 双, 通道RPN模型是在采用双通?Nist nimbl e20 16datasets, https://www. ni st.gov/itl/iad/mig/nimble- challenge- 2017-evaluation/②NgTT,I IsuJ, ChangSF. Columbiaimagespli cingdetectionevaluationdataset, http: //www.ee.Columbia,edu/ln/dvmm/downloads/ AuthSplicedDataSet/AuthSpli ced-DataSet. htmtt薄窵零! 基于寧遒道:RK3N的: 图像纂魏糨测_型 37 9CFA1 Tarn-DRGB-N各类模型本文模型顏S 各类模麵衡F1 分数不同模型间平均精度与速率对比, 如表S所示.其中2j 列分别为模型在3个标准数据集上的精度得分5 第I 列表示模11的速率表5 不同模型间平均精度与速率对比模型 NIST/%CASIA2. 0^3 4^y:fBColumbia/%raLe/lpsGfWl[1 3]20.37 51.29 27.950.2Tam-D[ 1 9]—72.3079.121.7J-Conv-LSTM[1 7]81.9378.42 78.612. 0RGB-N[2 1]94.1 6 87.27 80.534.0本文模型 95. 29 89. 63 83.749.0不同模型何F1 分数的柱状对比图, 如虜9 所示. 其中横坐标代表不同的樓型, 纵坐标代表F1 分数, 三神颜色分别代羞在兰种不同的数据集上进行实验? 结合表6 可以猜楚地着出, 為亍释度学琴的篡改检测方法暴明显优于传统的篡改检铡方法, 如CFA1[ 1 3 ]. 这是H为传统方法采用人工设计的特征,它更加专往于_海的■改手段, 面对多样的霉改图像; 反而会限爾它的性能. 本文的模型在三个数据集上補■优于TamD[ 1 9 ]樓氣_KfeOTLSTMP7 ]繼窥更多关注纂改区域的边_會息.. 而本文榛型考虑的篡改信息更加丰窵, 这使本文模親的性能要优于JCmw-LSTTlf1 37]>:本文機龜与R(B,[ 2 1 ]律纖在傘构上相似, 但存在两点明显差异s(1)RGB^fSl ]瘼型使用FasterR-CN_a作为芏干网络, 而本文模型使用RFCM6 ]. RFCN利用位查敏感区域池化的悤想, 增加了共享参数的网络层数, 降低了衝型寒二阶段的耗时. 并去掉网络中的全连接层, 使用全局平均池化的策略, 迸一步减少了模: 塑第二盼段的耗財,提高了模型的检测速度?〇本文模型在特征提取部分, 利用'双线性插值法调整了特征图的分辦率, 减少了生成特征?时缺失的信息s 提_了小面积籑玫K域的验测揞度.? 以上两点績择使本文模S在三个数糖鐘上的表现更加出色1.0rl ̄^NI ST■CASIA2.0道模型的基础上, 将彩色图像通道与隐写舟析通道中特征提取网络输出的特征典同作为RPN网络的输人; 本文模型蕞在系用双通道模確时基础上, 梅瘳色图像通道输出的4#怔作为RPN网络的输入.表4 不同结构模型对比模型 AP/M raie/fps单彩色图像通道 63. 5912单隐写分析通道 65. 74 11组合■_* 72. 35 6隐写分析RPN 66. 529双通道RPN 82.13 7本文模型(彩色图像RPN)82. 96 9由:表4 可知* 双通道网络1盡性簾上蘩优于每个单通道网络, 原因如下t( 1.) 在篡改过涯: 中, 图片上的篡改痕迹可能会遭到籑改者的处理* 仅使用彩色團像通逋補获到的_征信息会大大减少, 这绐后续的分类与定位带来很太的难虔K2) 图像篡改时* 内部统计信息变化的区域不能完美地反映篡改区域,因为篡改者对篡改痕迹迸行掩饰时, 菌像中的非篡改区域也会爱菌影响, 这时单使用陰写分析逋道是不够的, 同时也需要图像外部的残、留痕迹辅助模3S做出更加箱准的判断.通过检测速率的对比可以.看出双通道网络与单通道网绪相比, 双通道网络的检测速度繫慢于. 单通道调络, 这是因为双通道、网絡增加了复杂度通过组合模麗与本文模型的对比, 可以看出欢线性池化层的特征融合明显提■_了模型的糖麇, 这是因为它W以同时兼顧到两个通道的特征信息, 增强了模型的一体性1? 而不是祖合模型郏样认两个通道中筛选出最优捡测&域. 在检测速度上1 组合模型比本文模型慢, 主要原因是组合模型包含两个_的通: 道象构撰遒盡体过宁眞而本文模座6§双线性池化島在一定輕度上减轻了模着末端的复杂度, 提升了模型的验测速度_ 此外, 辰三行数据表_,单独使用彩色睛像通道特征生成候选区域的模H会棄有优势, 它的效果甚M要好于使甩.双通道特征生成候选区域的樓型,5. 4 实验结果分析崔NIST、 CASIA2S0[3 4]和Csl umbi'a遂3个_准数据集上进行微调训练后, 进行了多角度的对比实验, 实验中选取的对比樓型有传统方法和探度学习方法. 其中, 传统方法为Ferwa等人[1 31基于色彩滤镜矩阵图像霉改检测方法; 深度學■习方法包括B:o: ndi 等人[1 9]_于成像设备柑鸯_的方_、 Bapiiy等人11 7 3基于玫进网络结构的方法和Zh〇U 等人》1 ]基于:琢流网络的方法、3期380 计 算机 学 报 2021年20-0i制移动mmm平均值篡改方式图放不_馨 寫下的平爾輳度:对ft从'图loW以看进, 拼接的裣测效果最好, S为在拼接过程产: 生酣篡玻区域往往与原图差别较大?边界和色彩差异比较强烈, 方便坷络的识别5 移除过程中对背景k域的修复会对a像内部的统计特征造成一定影垧, 这会干犹它的检测性能r复制移动的检测效果不是稂理想,'因为复制的K域乘启原樹中,其在NIST数据集中包含复制移动、 拼接和移除三种籑改手段的图像? 为了探究模型在本同纂改方式上的表现, 在MIST数搪集上对每种篡玫芋段的检测结杲进行了统计计算, 结果如图10 所示.对比度不会湘: 叢太大f 而且复制S域与原图中相似的统计信息也会'对隐写分析通道造成干#. 今后, 会使用相似性判别的方法, 对复制移动的区域进行相似性校对* 提升复制移动方式.检测的准确率.本文模S与当前先进模■尺〇6-祕2 1]的检测效果对比, 如顧11 所示、 其中*第1 行是对复制移动方式篡改调像的检测, 图片取自CASIAZ.0 数据集;第.2行是对拼接方式?玫圓像的检铡, 图片取自Col umbia 数据条第3 行是对移除方式篡改图像的检测,图片取自CASIA2.0 数摒集; 第4行犛针对小区域纂改围像的裣测, S片取禽COCO数据集的合成图像,COCO数据集是是宙微软公司创建的, 用于物体检测与分割的大型数据集; 第1 列到第5 列分别为真实图像、篡改图像、 真值掩膜图像、RGB,模讓,验测■.昜: 图和本文模型检测效果圈■ft麗11 可以看liu_于复潮移翁方式下的篡放区域与原函区域相似度敏高, 导致RGB#模型出现了馄淆识别* 而本文模型避免了这种情况的发生;在. 对拼接与_除方式的霉愈厲片进行摄测时* 本文模型能够对霉改区域进行较为精准时定位, 而不会出现识别错误和不准确的情况;由于本文针对小直域检铡进行了优化, 所以能够很好地对菌片中小面小区域检测图11RGB-N[2 1]与本文模型的检测效果比较田秀霞等: 基于双通道RFCN的图像篡改检测模型 3812 期积篡改区域进行检测, 而RGBN模型却不能对其进行识别.6 总结与展望图像篡改检测是检测图像真实完整的重要方法, 实现该技术在具体场景下的应用显得尤为重要.如今, 图片的数量呈指数级增长, 如何实现篡改图像的快速检测成为当下的关键问题. 本文通过对现有图像篡改检测模型的分析, 同时结合篡改检测对小面积篡改区域检测精度不高的问题. 首次提出了一种基于双通道RFCN的图像篡改检测模型, 并结合双线性插值法, 在提升模型检测速度的前提下, 提高了检测精度. 但是, 复制移动方式下的篡改区域与原图有着相似颜色、纹理特征和统计特性, 给篡改检测带来了许多困难. 针对上述问题, 下一步计划是设计一种轻量级的图像篡改检测网络模型, 并引人严格的相似性判别方案, 实现模型检测精度的进一步提升.参 考 文 献[1]LiLi Chun?ZhangXia〇I I u? Li uXiao Chun,etal . Researchoncamerameasurementof“Sout hChinaTiger”phot ograph.Science&-TechnologyReview?2008 ,26( 1): 59 67( inChinese)( 李立春, 张小虎, 刘晓春等 华南虎”照片的摄像测量研究. 科技导报, 2008 ,2 6( 1) :59 67 )[2]ZhouLin Na, WangDong Ming. Digi talI mageForensics.Beijing: BeijingUniversityo fPostsandTelecommuni cationsPress,2008(inChinese)( 周琳娜, 王东明. 数字图像取证技术. 北京: 北京邮电大学出版社,2008)[3]LuoWei Qi , HuangJi Wu, QiuGuoPing, etal. Robustregioncopyimaget amperdet ectiont echnology. Chinese JournalofComput ers, 2007, 30 (11) : 1998 2007(inChi nese)( 骆伟祺, 黄继武, 丘国平. 鲁棒的区域复制图像篡改检测技术. 计算机学报,2007,30(11) : 1998 2007)[4]BianchiT, RosaAD, PivaA. I mprovedDCTcoef f icientanalysisforforgerylocalizat ion inJPEGi mages//ProceedingsoftheIEEEInt ernat ionalConferenceonAcoust ics? SpeechandSignalProcessing( ICASSP) . Prague, CzechRepubli c,2011: 2 444 2447[5]RaoY, NiJ. Adeeplearningapproachtodet ect ionofspli cingandcopymo veforgeriesinimages//Proceedingsofthe2016IEEEInt ernat ionalWorkshoponInformationForensicsandSecuri ty( WIFS) . AbuDhabi , UAE,2016; 1 6[6]DaiJ, LiY,l ieK,etal . RFCN: Objectdetect ionviaregionbasedfullyconvolutionalnet works//ProceedingsoftheNeuralInf ormationProcessingSyst ems( NIPS) . Barcelona ?Spain,2016: 379 387[7]RenS, l i eK, Gi rshickR, et al. Fast erRCNN: Towardsrealtimeobjectdet ect ionwi thregionproposalnet works//ProceedingsoftheNeuralInformationProcessingSyst ems(NIPS). Mont real ,Canada ,20 15; 91 99[8]RumelhartDE, Hint onGE, WilliamsRJ. Learningrepresent at ionsbybackpropagat ingerrors. Nat ure , 198 6,323 ( 6088): 533 5 36[9]MahdianB, SaicS. Blindauthenticationusingperiodicpropert iesof interpolation. IEEETransact ionsonInformationForensi csandSecurity,2008 , 3 ( 3) : 529 538[10]St ammMC, LiuKJR. Forensicdet ectionof image manipulat ionusingst at ist icalint rinsicf ingerprints. IEEE TransactionsonInformationForensicsandSecurity,2 010 , 5(3) : 4 92 506[11]I lashmiMF?AnandV, KeskarAG. Acopy moveimageforgerydetect ionbasedonspeededuprobust f eat uret ransformandwavelett ransforms//Proceedingsof t heComput erandCommunicat ionTechnology( ICCCT). Narvik, Norway,2014: 147 152[12]I IsuYF, ChangSF. Cameraresponsefunct ionsforimageforensics : anautomat icalgorithmforsplicingdetect ion.IEEETransactionsonInformat ionForensicsandSecurity,20 10 ,5 ( 4): 8 16 825[13]FerraraP, Bi anchiT, DeRosaA,etal. ImageforgerylocalizationviafinegrainedanalysisofCFAart ifacts. IEEETransact ionsonInformat ionForensics&-Security,2012,7( 5 ); 1566 15 77[14]GaboriniL?Best aginiP?MilaniS,etal. Multi clueimagetamperinglocalization//ProceedingsoftheIEEEInt ernationalWorkshoponInformat io nForensicsandSecurity( WIFS) .Atl ant a , USA, 20 14: 125 130[15]LiI I, LuoW, QiuX,et al. Imagef orgerylocalizationviaintegrat ingt amperingpossibilitymaps. IEEETransact ionsonInformat ionForensicsandSecurity,2017, 12 ( 5 ): 12401252[16]BayarB? StammMC. Adeeplearningapproacht ouniversalimagemanipul at ion det ect ion usinganewconvolutionall ayer//Proceedingsoft he4t hACMWorkshoponInformationHidingandMult imediaSecurity. Vigo, Spain, 2016; 5 10[17]BappyMJI I ,RoyChowdhuryA,BunkJ,et al. Exploit ingspatialstruct ureforlocalizingmanipul at edimageregions//ProceedingsoftheInt ernat ionalConferenceonComput erVision( ICCV) . Venice,It aly,2017; 49704979[18]Barof fioL?BondiL?Best aginiP?etal. Cameraidentificationwithdeepconvolut ionalnet works. IEEESignalProcessingLet t ers ,2016,24( 3) : 259263[19]BondiL?LameriS?GueraD?etal. Tamperingdet ect ionandlocalizationthroughclust eringofcamerabasedCNNfeat ures//Proceedingsof theComputerVisionandPat ternRecognitionWorkshops. ( CVPRW) . Honolulu,USA,20 17 : 1855 18 64[20]CozzolinoD?PoggiG?VerdolivaL. Recast ingresidual basedlocaldescriptorsasconvolutionalneuralnetworks: Anappli cat iontoimagef orgerydet ect ion//Proceedingsofthe5t hACMWorkshopo nInfo rmat ionHidingandMult imediaSecurity. Phil adelphia ,USA, 2017: 15 9 164382 计 算机 学 报 2021年[21]ZhouP,I lanX, MorariuVI,etal. Learningrichfeaturesforimagemanipulationdetection//Proceedingsofthe ComputerVision&PatternRecogni tion( CVPR). SaltLakeCity,USA,2018 :1053-1061[22]ChenChao,QiFeng. Reviewondevelopmentofconvolutionalneuralnetworksanditsapplicationincomputervision.ComputerScience,2019,46(3): 63-73(inChinese)(陈超, 齐峰. 卷积神经网络的发展及其在计算机视觉领域中的应用综述. 计算机科学, 2019,46(3) :63-73)[23]Girshi ckR,DonahueJ,DarrellT,etal.Richfeaturehierar?chiesfor accurateobjectdetection andsemanti csegmentation//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition(CVPR).Oregon,USA,2013 :580-587[24]He K,GkioxariG,DollarP,et al.MaskR-CNN//ProceedingsoftheIEEEInternationalConferenceonComputerVision(ICCV).Venice,Italy,2017 : 2961-2969[25]RedmonJ ,DivvalaS,GirshickR,etal. YouOnlyLookOnce:Unified,real-timeobjectdetection//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition(CVPR). LasVegas ,USA,2016 : 779-788[26]LiuW, AnguelovD,ErhanD,etal. SSD:Singleshotmultiboxdetector//ProceedingsoftheEuropeanConferenceonComputerVision(ECCV). Amsterdam,TheNetherlands,2016 :2 1-37[27]l ieK, ZhangX, RenS,etal. Deepresiduallearningforimagerecognition//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition(CVPR). LasVegas,USA,2016 :770-778[28]YuanYa-Fei ,LuWei ,FengBing-Wen,etal.Researchandimplementationofonli nesteganographicblindanalysissystembasedonmultiplepre-trainingmodels.JournalofTIANXiu-Xia,Ph.D.,profes?sor.Hermainresearchinterestsincludedigitalimageforgerydetection,databasesecurity,privacypreserving(bigdataandcloudcomputing),securemachinel earning,securitycomputingforthebenefitofpowerusers.LIHua-Qiang, M.S.candidate,hiscurrentresearchinterestsincludedigital i mageforgerydetection,deepBackgroundInthefieldofinformationsecurity,imageforgerydetectionisahighlypractical technology,whichhasbeenwidelyappl iedinpol itics , economy, cultureandotherfi elds.Therefore,imageforgerydetectionhasalwaysbeenaresearchhotspot.Inrecentyears,thedeeplearningmethodbasedondata-drivenNetworkandInformationSecurity,2017,3(5):32-37 (inChi nese)(袁亚飞, 卢伟, 冯丙文等. 基于多预训练模型的在线隐写盲分析系统研究与实现. 网络与信息安全学报, 2017 ,3 (5) :32-37)[29]Fridri chJ ,Kodovsky J. Rich modelsforsteganalysisofdigitalimages. IEEETransactionsonInformationForensicsandSecurity,2012,7(3): 868-882[30]ZhangI lao-Jie. InformationHidingCountermeasureResearchBasedonCharacteristicAnalysisofResidualExtractionFilter.ShenzhenUniversity,Shenzhen,2017(inChinese)(张浩杰.基于残差提取滤波器特性分析的信息隐藏对抗研究. 深圳大学, 深圳,2017)[31]LinTY,RoychowdhuryA,MajiS.Bili nearCNNmodelsforfine-grai nedvisualrecognition//Proceedi ngsoftheIEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chi le,2015 :1449-1457[32]GaoY,BeijbomO,ZhangN,etal.CompactbilinearpoolingProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas ,USA,2016 :317-326[33]EveringhamM,GoolLV,WilliamsCK I,etal.ThePASCALvisualobjectclasses(VOC)chall enge.InternationalJournalofComputerVision,2010,8 8(2) : 303-338[34]DongJ , WangW, TanT.CASIAImagetamperingdetectionevaluationdatabase//ProceedingsoftheSignalandInformationProcessi ng(Chi naSIP). Beijing,China,2013 :422-426[35]Deng J, DongW,SocherR,etal.ImageNet:Alarge-scalehierarchicali magedatabase//Proceedingsofthe2009IEEEComputerSocietyConferenceonComputerVisionandPatternRecogniti on(CVPR).Miami,USA,2009:248-255l earning,targetdetection.ZHANGQin,M. S.,engineer.Hermain researchinterestsincl udeinformationsecurity,informationnetworkandcommunicationtechnology.ZHOUAo-Yi ng,Ph.D.,professor,Ph.D.supervisor.Hismainresearchinterestsincl udedatabase, datamanage?ment,digitaltransformation,data-drivenappli cationssuchasEducational Technology(EduTech)andLogisticsTechnology(LogTech).approachhasbeenappl iedinmanycomputervisionsandimageprocessingtasks.Deepl earningshowsexcell entperformance,whi chpromotesmanyresearcherstoapplyitini mageforgerydetection,incl udingtheseveralpopul ardirections:improvethedetectionaccuracybyupdatingthenetworkstructure,田秀霞等: 基于双通道RFCN的图像篡改检测模型 3832 期designnetworkmodelbasedonthecorrelationofimagingequipment, andobtai nbetterdetectionresul tsthroughthecharacteri sticsofsteganalysis. Afteranalyzingtheexi stingdeepl earni ngforgerydetectionalgorithms ,wefoundthattheefficiencyofmostalgorithmswaslowinimageforgerydetectionwhenfacedwi thal argenumberofi mages,andthedetectionaccuracyofsmal lareatamperingregionwaspoor.Tosol vetheaboveprobl ems , weproposedadual channelimageforgerydetectionmodelbasedonRegionbasedFul lConvolutionNetwork(RFCN).Firstofall ,thedesignofthedualchannelmodelall owedustominedricherimagefeaturesandmademoreaccuratejudgments. Secondly,theRFCNmodeltookgoodadvantageoftheful lconvol utionnetworkthankstothedesignofpositionsensitivescoremap, whichgreatl yreducedthecomputationofthemodelandimprovedthemodel7sdetectionefficiency. Thirdly, weusedthebilinearinterpolationmethodtoadjustthesi zeofthefeaturemapinthefeatureextractionnetwork, whichreducedthelossofinformationandimprovedthedetectionaccuracyofthesmalltamperingarea.Wepre trai nedthemodelwiththesyntheti cdataset,andconductedexperimentsonseveralinternationalmainstreamdatasets. Bycomparedourmodelwiththestateofthe artworks , wefoundthattheproposedmodelhasimprovedperformanceinmul tipl eevaluationi ndicators. Experimentalresultsshowedtheproposedimageforgerydetectionmodelismoreefficientandaccurate.Thisarticl ewaspartial lysupportedbytheNationalNaturalSci enceFoundationofChina(GeneralProgram;KeyProgram)( Nos. 6 17 72327,6 15 32021) , theElectri cPowerResearchInstituteofStateGridGansuEl ectricPowerCompanyEnterpriseProject(H201 9 275 ). Theresearchgoal softheseprojectsincludedprivacyprotectionissuesfordatausersandowners,userdatai ntegri tyaudi ts,accesscontrolmechanisms, efficientsearchtechniquesforencryptedoutsourceddatabases,andsomemethodsthatcanbeusedi nthefieldofimageforgery.

[返回]
上一篇:一种基于融合重构的子空间学习的零样本图像分类方法
下一篇:一种高级智能合约转化方法及竞买合约设计与实现