欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
SCI期刊论文
当前位置:首页 > SCI期刊论文
基于卷积神经网络的SAR图像目标识别研究.
来源:一起赢论文网     日期:2019-08-02     浏览数:1762     【 字体:

 学者根据不同的应用背景提出了多种DL模型,如深度置信网络(Deep BeliefNetwork, DBN)[6]、栈式消噪自动编码机(StackedDenoising Autoencoders, SDA)[7]和卷积神经网络(Convolutional Neural Network, CNN)[8]等。由于可以直接处理2维图像,卷积神经网络在图像识别领域取得了较多的应用,如人脸识别[9],人体行为识别[10],医学图像识别[11]等。CNN主要有以下特点:采用原始图像作为网络输入,避免了复杂的特征提取过程;局部感受域获取的特征与图像的平移、缩放和旋转无关;权值共享结构降低了网络模型的复杂度;下采样利用局部相关性原理,在有效减少数据处理量的同时保留了结构信息[12]CNN作为一种特征学习方法,通过非线性的简单模型将原始数据转化为更为抽象的表达,在特征学习过程中不需要过多的人工参与[13]。本文主要研究将CNN应用于SAR图像目标识别领域,减少特征选取中的人工操作。为了进一步增强CNN所提取特征的可分性,本文尝试将类别可分性度量引入代价函数之中。为了提高CNN对特征的分类能力,利用支持向量机对CNN模型中的Softmax分类器进行替换。实验结果表明,该方法具有良好的识别分类效果,证明了其有效性。2    卷积神经网络卷积神经网络是一种多层神经网络结构,主要由输入层、卷积层、下采样层、输出层等组成,其中卷积层和下采样层为隐含层。在卷积神经网络中,输入层用于接收原始图像;卷积层用于提取图像特征,并降低噪声的影响;下采样层利用图像局部相关性原理,减少需要处理的数据量;输出层将提取特征映射为最终所得到的标签。图像在CNN中的映射过程是一个前向传播过程,上一层的输出作为当前层的输入。为了避免线性模型表达能力不够的问题,各层在传递时需要加入非线性的激活函数。第l层的输出可以表示为:l=l l¡1+ll= f¡l¢)(1)式中,l表示层数,x为特征图,W为当前网络层的映射权值矩阵,b为当前网络的加性偏置项,f为激活函数。CNN模型常用后向传播(Back Propagation,BP)算法[14]来对参数进行迭代更新。BP算法是一种常见的监督式学习方法。该算法首先利用样本的实际输出与期望输出求得代价函数,然后将代价函数反向传播至各层,最后利用梯度下降法(GradientDescent, GD)沿着代价函数的负梯度方向调整网络中的权值和偏置等参数。首先假设输出的目标类别维数为B,即共有B类样本,网络以均方误差作为代价函数。第n个样本的代价函数E0为:E0=12BXk=1(tnk ¡ynk)2=12kn¡nk22(2)tnkynk式中, 表示第n个样本中第k个神经元所对 应 的期望值, 表示第k个神经元的实际输出值。l=@E0@l然后定义 为第l层的灵敏度,设 第L层 为 输 出 层 , 根 据 式 (1)、 式 (2)可 得 输 出 层的灵敏度为:L= f 0(L)±(n¡n) (3)±式中,“ ”表示点乘。在反向传播过程中,可由第l+1层的灵敏度dl+1和式(1)得到第l层的灵敏度为:l=l+1 l+1±f 0(l) (4)@E0@l@E0@l完成了代价函数的反向传播之后,需要利用梯度下降法根据代价函数对网络中参数的偏导数对参数进行更新,最终使代价函数达到极小值。偏导数在此处就是 和 。分别求E0Wlbl的偏导,由式(1)可得:@E0@l=@E0@l ±@l@l=l±l¡1@E0@l=@E0@l ±@l@l=l9>>>=>>>;(5)根据梯度下降法,可以得出第l层神经元权值的更新变化量为:¢l=¡´@E0@l¢l=¡´@E0@l9>>=>>;(6)式中,h为学习率。3    卷积神经网络的改进3.1  引入类别可分性度量为了使CNN模型所提取的特征具有更好的类别可分性,代价函数在式(2)的基础上,增加了样本的类别可分性度量[15],即类内距离与类间距离:E1=12knc ¡ck22(7)E2=12BXc0=1°°c¡ c0°°22(8)3 期 田壮壮等: 基于卷积神经网络的SAR图像目标识别研究 3216fanin+fanout¸13×13。激活函数采用的是sigmoid函数,偏置初始值设为0,学习率为1。各层权值的初始值在区间内随机生成[18],其中fanin为各层的输入特征图个数,fanout为输出特征图个数。式(9)中的参数设置为a=0.03, b=2。实验平台为Windows 764bit+Matlab 20104.3  3 类目标的识别结果与分析实验中,训练样本为17°俯仰角下BMP2_SN9563BTR70_C71T72_SN132SAR图像数据,测试数据为15°俯仰角下BMP2_SNC21BMP2_SN9563BMP2_SN9566BTR70T72_SN132T72_SN812T72_SNS7SAR图像数据。3类目标的识别结果如表1所示。从表1可以看出,对于相同型号目标的SAR图像,本文方法的正确识别率达到了98.97%以上。对于相同类别不同型号的变体,正确识别率也都在91.62%以上。本文方法整体的平均识别率达到了95.90%。表2中可以看出本文方法识别率优于SVMELM以及稀疏表示等方法。实验中,在相同条件下利用相同结构但未经改进的CNN模型进行了识别测试,得到的平均识别率为93.63%,说明本方法相较于改进前CNN模型也有一定提高。4.4  10类目标的识别结果与分析在10类目标的识别实验中,目标包括BRDM2BMP2(BMP2_SNC21BMP2_SN9563BMP2_SN9566)BTR60BTR70D7ZIL131ZSU234T62T72(T72_SN132T72_SN812T72_SNS7)2S110类。训练样本为 1 7 ° 俯 仰 角 下 不 包 括 变 体 ( 即 不 包 括BMP2_SNC21BMP2_SN9566T72_SN812T72_SNS7等型号)SAR图像数据,测试样本为15°俯仰角下的包含变体的各目标SAR图像数据。识别结果如表3。表 1  3MSTAR目标识别结果Tab. 1  The recognition results of three types of MSTAR targets测试目标识别结果正确识别率(%)BMP2 BTR70 T72BMP2(9563) 193 0 2 98.97BMP2(9566) 183 9 4 93.37BMP2(C21) 187 4 5 95.41BTR70 0 196 0 100T72(132) 1 0 195 99.49T72(812) 9 6 180 92.31T72(S7) 12 4 175 91.62整体识别率(%) 95.902  与其他方法的效果对比Tab. 2  The recognition performance compare withother methods方法 平均识别率(%)SVM(文献[2]) 93.54Gabor+LPM+ELM(文献[3]) 94.80字典学习+稀疏表示(文献[4]) 92.90CNN方法 93.63本文方法 95.903  10MSTAR目标识别结果Tab. 3  The recognition results of ten types of MSTAR targets测试目标识别结果 正确BMP2 T72 2S1 BRDM2 BTR60 BTR70 D7 T62 ZIL ZSU识别率(%)BMP2(9563) 193 1 0 0 1 0 0 0 0 0 98.97BMP2(9566) 173 9 1 2 4 7 0 0 0 0 88.27BMP2(C21) 168 6 3 2 9 3 1 1 3 0 85.71T72(132) 0 194 0 0 1 0 0 1 0 0 98.98T72(812) 0 154 6 0 0 5 0 25 5 0 78.97T72(S7) 4 164 2 0 1 2 0 17 1 0 85.862S1 0 4 255 3 2 4 0 5 1 0 93.07BRDM2 1 1 1 257 5 2 0 0 6 1 93.80BTR60 0 0 1 0 190 2 0 0 0 2 97.44BTR70 0 0 1 0 0 195 0 0 0 0 99.49D7 0 0 0 0 0 0 256 0 4 14 93.43T62 0 2 0 0 0 0 0 259 8 4 94.87ZIL 0 0 0 0 0 0 0 0 273 1 99.64ZSU 0 0 0 0 0 0 2 0 0 272 99.27整体识别率(%) 93.763 期 田壮壮等: 基于卷积神经网络的SAR图像目标识别研究 323类的第n个样本的实际输出值,Mc, Mc'分别为第c类和第c'类样本输出的均值。E1E2分别表示样本经过卷积神经网络后输出特征的类内距离和类间距离。为了使得网络的输出特征具有更强的可分性,在迭代中应使类内距离减小,类间距离增大。引入类内及类间距离后,代价函数修正如下:E = E0+ ®E1¡¯E2(9)式中,ab为权值参数。对代价函数进行修正的目的是在调整权值参数时,使网络向着有利于分类的方向进行调整,提高最终训练结果的可分性。为了使代价函数能够反向传播,需要求得修正后代价函数的灵敏度。对于类内距离函数E1,其输出层的灵敏度为:L1=@E1@L=@@L12knc ¡ck22= µ1¡1ncf 0¡±(nc ¡c) (10)式中,nc表示属于c类的样本个数。对于类间距离函数E2,其输出层的灵敏度为:L2=@E2@L=@@L12BXc0=1°°c¡ c0°°22=1ncf 0(L)±BXc0=1¡c¡ c0¢(11)根据式(3)、式(9)、式(10)和式(11)可以得到修正后的输出层灵敏度为:±0 =L+ ®L1 ¡¯L2= f 0(L)±(n¡n) + ® µ1¡1nc¢f 0(L)±(nc ¡c)¡¯1ncf 0(L)±BXc0=1¡c¡ c0¢(12)得到了输出层的灵敏度之后,根据式(4)即可迭代得到各层的灵敏度,再根据式(5)和式(6),可以得到各层参数的更新量。3.2  支持向量机的使用在CNN模型中,通常利用Softmax回归模型作为分类器。该分类器通过全连接方式将CNN模型所提取特征映射为最终输出标签。这种分类方法在训练时可以有效地与反向传播过程结合,方便模型中参数的更新,但是Softmax单层全连接的方式并不能很好地解决非线性分类问题。支持向量机[16]Vapnik等人于1995年首先提出的,主要利用核函数将原始特征空间中的非线性分类界面隐式地映射到更高维的变换特征空间中产生线性分类界面,达到更好的分类效果[17]SVM在解决非线性分类问题上表现优良。为解决Softmax对非线性样本特征的支持问题,本文利用SVM代替Softmax作为CNN模型的分类器,对样本通过所有隐含层后所得特征进行分类。4    实验结果4.1  实验数据集为了验证本文方法的有效性,采用美国国防研究规划局(DARPA)和空军研究实验室(AFRL)联合资助的运动和静止目标获取与识别(Moving andStationary Target Acquisition and Recognition,MSTAR)数据库进行实验。数据库中的SAR图像分辨率为0.3 m×0.3 m,目标图像大小为128×128像素。MSTAR数据库中包含了BMP2BRDM2BTR60BTR70D7T62T72ZIL131ZSU2342S110类目标的SAR图像数据。实验采用17°俯仰角下的图像作为训练样本,15°俯仰角下的图像作为测试样本。4.2  实验模型实验中用于SAR图像识别的CNN模型如图1所示。该模型包括输入层,输出层,2个卷积层和1个下采样层。由于目标在图像中仅占据较小的部分,为 了 减 少 输 入 维 数 , 我 们 选 择 截 取 图 像 中 央64×64大小的部分作为模型的输入,除裁剪外,未进行其他预处理操作。卷积层采用的卷积核大小为13×13, C1卷积层神经元个数为20个,输出特征图大小为52×52C3卷积层神经元有120个,输出特征图大小为1×1S2下采样层局部感受域的大小为4×4,神经元个数为20个,输出特征图大小为图 1  本文卷积神经网络结构示意图Fig. 1  CNN structural plan of the method322 雷  达  学  报 第 5 卷基于卷积神经网络的SAR图像目标识别研究田壮壮*      占荣辉      胡杰民      张    军(国防科学技术大学自动目标识别重点实验室    长沙    410073)摘  要:针对合成孔径雷达(Synthetic Aperture Radar, SAR)的图像目标识别应用,该文提出了一种基于卷积神经网络(Convolutional Neural Network, CNN)SAR图像目标识别方法。首先通过在误差代价函数中引入类别可分性度量,提高了卷积神经网络的类别区分能力;然后利用改进后的卷积神经网络对SAR图像进行特征提取;最后利用支持向量机(Support Vector Machine, SVM)对特征进行分类。使用美国运动和静止目标获取与识别(Moving and Stationary Target Acquisition and Recognition, MSTAR)SAR图像数据进行实验,识别结果证明了所提方法的有效性。关键词:合成孔径雷达;自动目标识别;卷积神经网络;支持向量机;BP算法中图分类号:TN957.52                      文献标识码:A                   文章编号:2095-283X(2016)03-0320-06DOI: 10.12000/JR16037引用格式:田壮壮, 占荣辉, 胡杰民, . 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3):320325. DOI: 10.12000/JR16037.Reference format: Tian Zhuangzhuang, Zhan Ronghui, Hu Jiemin, et al.. SAR ATR based on convolutionalneural network[J]. Journal of Radars, 2016, 5(3): 320325. DOI: 10.12000/JR16037.SAR ATR Based on Convolutional Neural NetworkTian Zhuangzhuang      Zhan Ronghui      Hu Jiemin      Zhang Jun(ATR Key Laboratory, National University of Defense Technology, Changsha 410073, China)Abstract: This study presents a new method of Synthetic Aperture Radar (SAR) image target recognitionbased on a convolutional neural network. First, we introduce a class separability measure into the cost functionto improve this networks ability to distinguish between categories. Then, we extract SAR image features usingthe improved convolutional neural network and classify these features using a support vector machine.Experimental results using moving and stationary target acquisition and recognition SAR datasets prove thevalidity of this method.Key words: Synthetic Aperture Radar (SAR); Automatic Target Recognition (ATR); Convolutional NeuralNetwork (CNN); Support Vector Machine (SVM); Back Propagation (BP)1    引言合成孔径雷达(Synthetic Aperture Radar,SAR)是当前对地观测的重要手段之一。由于具有全天候、全天时和一定的穿透成像能力,SAR已经被广泛应用于战场侦查和情报获取等领域。SAR图像自动目标识别(Automatic Target Recognition,ATR)技术可以有效获取目标信息,提高军队自动化水平。目前识别技术上常用的方法包括模板匹配法[1],支持向量机(Support Vector Machine,SVM)[2],文献[3]中提出的基于Gabor滤波器和局部纹理特征提取的方法,文献[4]中提出的多信息字典学习和稀疏表示相结合的方法等等。但是这些方法都需要人工凭借经验进行特征提取,具有一定的盲目性和不确定性。近年来,深度学习(Deep Learning)理论在模式识别领域掀起了一股浪潮,相关的理论和实验成果不断出现。2006年,Hinton等人[5]提出了非监督的逐层贪婪训练方法,解决了深度增加所带来的“梯度耗散”问题,使神经网络能够朝着更深的方可以看出,本文方法10类目标 分 类 结 果 仍 然 较 好 , 平 均 识 别 率 仍 能 达 到93.76%5    结论针对SAR图像目标识别问题,本文提出了一种基于卷积神经网络的目标识别方法。通过在代价函数中引入类别可分性度量以及使用支持向量机代替Softmax分类器,对卷积神经网络进行了改进。利用MSTAR图像数据对该方法进行验证。结果表明,在不需要人工进行特征提取的情况下,该方法在3类目标分类实验中,达到了95.90%的识别率,在10类目标分类实验中,平均识别率仍然能达到93.76%。实验结果说明本文方法的有效性以及卷积神经网络在SAR图像目标识别上具有一定的应用潜力。参 考 文 献Ross T D, Worrell S W, Velten V J, et al.. Standard SARATR evaluation experiments using the MSTAR publicrelease data set[C]. Aerospace/Defense Sensing andControls, International Society for Optics and Photonics,1998: 566573.[1]Tao W, Xi C, Xiangwei R, et al.. Study on SAR targetrecognition based on support vector machine[C]. 2009 2ndAsian-Pacific Conference on Synthetic Aperture Radar,2009: 856859.[2]王璐, 张帆, 李伟, . 基于 Gabor 滤波器和局部纹理特征提取的 SAR 目标识别算法[J]. 雷达学报, 2015, 4(6): 658665.DOI: 10.12000/JR15076.Wang Lu, Zhang Fan, Li Wei, et al.. A method of SARtarget recognition based on Gabor filter and local texturefeature extraction[J]. Journal of Radars, 2015, 4(6);658665. DOI: 10.12000/JR15076.[3]齐会娇, 王英华, 丁军, . 基于多信息字典学习及稀疏表示的SAR目标识别[J]. 系统工程与电子技术, 2015, 37(6):12801287.Qi Huijiao, Wang Yinghua, Ding Jun, et al.. SAR targetrecognition based on multi-information dictionary learningand sparse representation[J]. Systems Engineering andElectronics, 2015, 37(6): 12801287.[4]Hinton G E and Salakhutdinov R R. Reducing thedimensionality of data with neural networks[J]. Science,2006, 313(5786): 504507.[5]Hinton G E, Osindero S, and Teh Y W. A fast learningalgorithm for deep belief nets[J]. Neural Computation, 2006,18(7): 15271554.[6]Vincent P, Larochelle H, Lajoie I, et al.. Stackeddenoisingautoencoders: learning useful representations in adeep network with a local denoisingcriterion[J]. The Journalof Machine Learning Research, 2010, 11: 33713408.[7]Lecun Y, Bottou L, Bengio Y, et al.. Gradient-basedlearning applied to document recognition[J]. Proceedings ofthe IEEE, 1998, 86(11): 22782324.[8]Ma Y, He J, Wu L, et al.. An effective face verificationalgorithm to fuse complete features in convolutional neuralnetwork[C]. Multi Media Modeling. Springer InternationalPublishing, 2016: 3946.[9]Ijjina E P and Mohan C K. Human action recognition basedon motion capture information using fuzzy convolutionneural networks[C]. 2015 Eighth International Conferenceon Advances in Pattern Recognition (ICAPR), Kalkata,2015: 16.[10]Ciompi F, de Hoop B, van Riel S J, et al.. Automaticclassification of pulmonary peri-fissural nodules in computedtomography using an ensemble of 2D views and aconvolutional neural network out-of-the-box[J]. MedicalImage Analysis, 2015, 26(1): 195202.[11]尹宝才, 王文通, 王立春. 深度学习研究综述[J]. 北京工业大学学报, 2015, 41(1): 4859.Yin Bao-cai, Wang Wen-tong, and Wang Li-chun. Reviewof deep learning[J]. Journal of Beijing University ofTechnology, 2015, 41(1): 4859.[12]Lecun Y, Bengio Y, and Hinton G. Deep learning[J].Nature, 2015, 521(7553): 436444.[13]Rumelhart D E, Hinton G E, and Williams R J. Learningrepresentations by back-propagating errors[J]. Nature, 1986,323(6088): 533536.[14]孙艳丰, 齐光磊, 胡永利, . 基于改进 Fisher 准则的深度卷积神经网络识别算法[J]. 北京工业大学学报, 2015, 41(6):835841.Sun Yanfeng, Qi Guanglei, Hu Yongli, et al.. Deepconvolution neural network recognition algorithm based onimproved fisher criterion[J]. Journal of Beijing University ofTechnology, 2015, 41(6): 835841.[15]Cortes C and Vapnik V. Support-vector networks[J].Machine Learning, 1995, 20(3): 273297.[16]孙即祥, . 现代模式识别[M]. 北京: 高等教育出版社, 2008:624625.Sun Jixiang, et al.. Pattern Recognition[M]. Beijing: HigherEducation Press, 2008: 624625.[17]Glorot X and Bengio Y. Understanding the difficulty oftraining deep feedforward neural networks[J]. Journal ofMachine Learning Research, 2010, 9: 249256.[18] 324 雷  达  学  报 第 5 卷作 者 简 介 田壮壮(1993),男,硕士生,研究方向为雷达目标识别。E-mail: tzz14@nudt.edu.cn 占荣辉(1978),男,讲师,博士,研究方向为雷达目标识别、雷达信息处理。 胡杰民(1983),男,讲师,博士,研究方向为空间目标识别、雷达成像。 张  军(1973),男,研究员,博士,研究方向为雷达智能信号处理、制导雷达应用技术。第 3 期 田壮壮等: 基于卷积神经网络的SAR图像目标识别研究 325

[返回]
上一篇:基于链码的合成孔径声纳图像目标识别算法研究
下一篇:基于矩阵束方法的星载MEB SAR俯仰向DBF处理方法