欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
SCI期刊论文
当前位置:首页 > SCI期刊论文
基于DBN模型的遥感图像分类
来源:一起赢论文网     日期:2015-04-24     浏览数:3220     【 字体:

 摘   要   遥感图像分类是地理信息系统( g e o g r a p h i c  i n f o r m a t i o n  s y s t e m , G I S ) 的关键技术, 对城市规划与管理起到十分重要的作用. 近年来, 深度学习成为机器学习领域的一个新兴研究方向. 深度学习采用模拟人脑多层结构的方式, 对数据从低层到高层渐进地进行特征提取, 从而发掘数据在时间与空间上的规律, 进而提高分类的准确性. 深度信念网络(d e e p b e l i e f  n e t w o r k , D B N ) 是一种得到广泛研究与应用的深度学习模型, 它结合了无监督学习和有监督学习的优点, 对高维数据具有较好的分类能力 . 提出一种基于D B N模型的遥感图像分类方法, 并利用R A D AR S AT - 2卫星6 d的极化合成孔径雷达( s y n t h e t i ca p e r t u r e  r a d a r , S AR ) 图像进行了验证. 实验表明, 与支持向量机( S VM ) 及传统的神经网络( NN ) 方法相比, 基于 D B N 模型的方法可以取得更好的分类效果.

关键词   遥感图像; 合成孔径雷达; 地物分类; 深度学习; 受限玻尔兹曼机; 
    深度信念网络遥感图像分类是指把遥感图像中的每个像元划归到类别中的过程, 是模式识别技术在遥感领域的具体运用, 也是地理信息系统(g e o g r a p h i c  i n f o r m a t i o ns y s t e m , G I S ) 的关键技术. 其主要用途是根据地物电磁波辐射在遥感图像上的特征, 判读识别地面物体的类属. 分类图既可作为中间结果为目标检测与识别等其他应用提供辅助信息, 也可作为最终结果提供基础地理信息用于地图测绘、 城市规划、 资源监管、 环境保护、 救灾抢险、 军事侦察等领域.和光学成像传感器相比, 合成孔径雷达(s y n t h e t i ca p e r t u r e  r a d a r , S A R ) 不会受到光照和气候条件的影响, 具有全天时全天候工作的特点, 因此被广泛应用于遥感领域 [1 ] . 同时, 由于极化分解可以获得更多的相关信息, 极化 S AR ( p o l a r i m e t r i c  S AR , P o l S AR )被越来越多地应用于遥感图像分类 [2 ] .根据是否需要数据的先验知识, 遥感分类方法可以划分为参数化(p a r a m e t r i c ) 方法和非参数化(n o n - p a r a m e t r i c ) 方法两类. 
    参数化方法包括最小距离分类器( m i n i m u m  d i s t a n c e  c l a s s i f i e r , MD C )[ 3 ] 、极大 似 然 分 类 器 ( m a x i m u m  l i k e l i h o o d  c l a s s i f i e r ,ML C )[ 4 ] 和 期 望 最 大 (E x p e c t a t i o n - M a x i m i z a t i o n ,EM ) 算法[ 5 ] , 它们需要对数据分布有预先的假设.然而, 对于多时与多源的遥感数据, 数据分布规律往往难以知道. 因此, 非参数方法被更广泛地用于遥感图像 分 类, 包 括 人 工 神 经 网 络 ( a r t i f i c i a l  n e u r a ln e t w o r k , ANN )[ 6 ] 、 决策树 [ 7 ] 、 支持向量机(s u p p o r tv e c t o r  m a c h i n e , S VM )[ 8 - 1 0 ]等.2 0 0 6年, 多伦多大学机器学习领域的著名教授H i n t o n 和他的学生 S a l a k h u t d i n o v在国际顶尖学术期刊《 S c i e n c e 》 上发表一篇文章 [1 1 ] , 提出利用深度信念网络(d e e p b e l i e f  n e t w o r k , D B N ) 实现数据的降维及分类, 引发了深度学习(d e e p   l e a r n i n g ) 的浪潮.自此以后, 深度学习作为机器学习的一个新兴研究方向, 受到了学术界和工业界的极大关注 [1 2 - 1 9 ]. 深度神经网络采用模拟人脑多层结构的方式, 对输入数据从低层到高层渐进地进行特征提取, 最终形成适合模式分类的较理想特征, 从而提升分类或者预测的准确性. 
近几年, 深度学习技术在图像识别、 语音识别、 自然语言处理、 信息检索等领域取得了巨大成功 [1 2 , 1 7 , 1 9 ]. 文献[2 0 ] 提出用 D B N 模型对机载遥感图像中的道路进行检测, 这是深度学习方法被首次用于遥感领域. 然而, 到目前为止尚未发现有将深度学习模型应用于S AR遥感图像分类的相关工作.本文提出一种基于 D B N 模型的遥感图像分类方法, 并 利 用 多 天 的 R A D AR S AT - 2 卫 星 极 化S AR图像进行了验证. 实验结果表明, 与S VM 等方法相比, 基于 D B N 模型的方法可以取得更好的分类效果.
    1 D B N 模型简介
    深度信念网络由 H i n t o n等人 [2 1 ] 于2 0 0 6年提出, 作为一种深度学习模型受到了广泛关注, 并被成功应用在物体识别、 语音识别等领域. 从结构上看,D B N 由多层无监督的受限玻尔兹曼机(r e s t r i c t e dB o l t z m a n n  m a c h i n e , R BM ) 网络和一层有监督的反向传播(b a c k - p r o p a g a t i o n , B P ) 网络组成, 如图1所示:D B N 的训练包含“ 预训练(p r e -t r a i n i n g ) ” 和“ 微调(f i n e - t u n i n g ) ” 2个步骤. p r e - t r a i n i n g 阶段 D B N采用逐层(l a y e r w i s e ) 训练的方式对各层中的 R BM进行训练, 低一层 R BM 的隐含层输出作为上一层的 R BM 的可见层输入. f i n e - t u n i n g 阶段采用有监督学习方式对最后一层的 B P网络进行训练, 并将实际输出与预期输出的误差逐层向后传播, 对整个D B N网络的权值进行微调. R BM 网络的训练过程实际上可看成是对深层 B P网络权值的初始化, 使D B N克服了 B P网络因随机初始化权值参数而导致的训练时间长和容易陷入局部最优解的缺点.1. 1  受限玻尔兹曼机受限玻尔兹曼机是一种典型的基于能量的模型(e n e r g y - b a s e d  m o d e l, E BM ) ,它 由 一 个 可 见 层(v i s i b l e  l a y e r ) 与一个隐含层( h i d d e n  l a y e r ) 组成, 如图2所示. 其中,v 和 h 分别表示可见层与隐含层, W表示两层之间的连接权值. 对于可见层与隐含层, 其连接关系为层间神经元全连接, 而层内没有神经元相连.假设可见层与隐含层均为二值变量, 可见层与隐含层的神经元数目分别为 I 和 J , vi 和 h j 分别表示第 i 个可见层神经元与第 j 个隐含层神经元的状态. 对于一组特定的(v , h ) , R BM 作为一个系统所具备的能量定义为E ( v , h | θ ) =- ∑Ii =1a i v i - ∑Jj =1b j h j - ∑Ii =1 ∑Jj =1 wi jv i h j ,(1 )其中,θ = ( wi j,a i , b j ) 是 R BM 的参数, wi j表示可见层节点 v i 与隐含层节点 h j 之间的连接权值, ai 和b j 分别表示 v i 和 h j 的偏置值( b i a s ) . 基于该能量函数, 可得到(v , h ) 的联合概率分布:p ( v , h | θ ) =e- E ( v , h | θ )? Z ( θ ) ,(2 )其中,Z ( θ ) =∑v∑he- E ( v , h | θ ) 为归一化项( 也称配分函数) . 在实际问题中, 我们最关心的是 R BM 所定义的关于观测变量的分布( 似然函数) 即 p ( v | θ ) ,它是联合概率 p ( v , h | θ ) 的边缘分布.由于 R BM 的特殊结构( 层内神经元无连接) ,当给定可见层节点的状态时, 各个隐含层节点的激活状态之间是相互独立的. 此时, 第 j 个隐含层节点的激活概率为p ( h j =1 | v , θ ) = σb j + ∑Ii =1v i w j( )i, (3 )其中,σ ( x ) =1 ? ( 1+e- x ) 为s i g m o i d函数. 类似的,给定隐含层节点的状态, 第 i 个可见层节点的激活概率为p ( v i =1 | h , θ ) = σa i + ∑Jj =1h j w j( )i .(4 )R BM 采用迭代的方式进行训练, 训练的目标在于学习出参数 θ = ( wi j,a i , b j ) 的值, 以拟合给定的训练数据. 参数 θ 可以通过求在训练集( 设样本数目为 T ) 上的极大对数似然函数得到, 即θ* =a r g m a xθL ( θ ) =a r g   m a xθ∑Tt =1 l n p ( v( t )| θ ) .(5 )采 用 H i n t o n 提 出 的 对 比 散 度 ( c o n t r a s t i v ed i v e r g e n c e , C D ) 算法[ 2 2 ] , 可得各参数的更新规则如下:Δ wi j= ε ( 〈 v i h j 〉 d a t a - 〈 v i h j 〉 r e c o n ) ;(6 )Δ a i = ε ( 〈 v i 〉 d a t a - 〈 v i 〉 r e c o n ) ;(7 )Δ b j = ε ( 〈 h j 〉 d a t a - 〈 h j 〉 r e c o n ) ;(8 )其中,ε 为 p r e - t r a i n i n g 的学习率, 〈 •〉 d a t a 为训练数据集所定义的分布之上的数学期望, 〈 •〉r e c o n 为重构后的模型所定义的分布上的期望.1. 2 B P网络B P网络是一种有监督的分类器, 对 R BM 通过p r e -t r a i n i n g 得到的特征向量进行分类, 并且起到微调整个 D B N 网络参数的作用. B P网络的训练分为前向传播和后向传播两个主要过程.
    前向传播过程中, 输入特征向量被逐层传播到输出层, 得到预测的分类类别. 将实际得到的分类结果与期望的类别数值进行比较得到误差, 该误差被逐层向后回传从而微调 D B N 的参数. 后向传播过程中, 需要计算每一层的 δ ( 灵敏度) 数值,δ 被自顶向下传递以修正网络的权值参数.对于输出层, 假设第 i 个节点的实际输出为 oi ,期望输出为 di , 那么灵敏度 δ 的计算表达式为δ i = o i ( 1- o i ) ( d i - o i ) .(9 )对于第 l 个隐含层,δ 的计算表达式为δli = yli ( 1- yli )∑jwli jδl + 1j .(1 0 )   得到各层的 δ 之后, D B N 的网络权值根据式(1 1 ) ( 1 2 ) 进行更新:wli j= wli j+ ε f i n e - t u n i n g × yli δl +1j; (1 1 )blj = blj + ε f i n e - t u n i n g × δl +1j.(1 2 )
2  基于 D B N 的遥感图像分类方法
为更好地理解本文提出方法的处理流程, 我们给出了如图3所示的流程图. 为消除遥感图像的斑点(s p e c k l e ) 噪声, 对于一幅图像上的每一个要分类的像素, 需考虑包括其周围邻居像素点的一片区域.假设邻域窗口大小为 w i n s i z e , 可将其展开维度为w i n s i z e × w i n s i z e 的一维向量. 对于 D B N , 其输入数据 是 经 过 处 理 的 P a u l i 参 数,即 相 关 矩 阵(c o h e r e n c y   m a t r i x ) 的对角线元素(0 . 5 | HH + V V |2 ,0 . 5 | HH - V V |2和2 |H V |2 ). 这3个不同的 P a u l i参数可拼装为1 d的数据向量, 因此, 对于 m 天的数据, 输入向量的维度为 w i n s i z e × w i n s i z e ×3× m在训练过程中, 训练样本的 P a u l i参数组成的向量作为输入被送到第1层 R BM 的可见层, 随后,通过逐层训练的方式, 数据在时间和空间上的相关性被依次映射到隐含层 h( 1 ) ,h( 2 ) , …,h( n -1 ) 及 h ( n )中.为加快训练过程, 一般采用批训练(b a t c h  l e a r n i n g的方式, 即每次随机采样固定数目的训练样本作为一个 m i n i - b a t c h输入到神经网络, 每个 m i n i- b a t c h进行一次权值更新.预测过程中, 测试样本的数据用训练样本类似的数据组织方式获得, 因而具有相同的数据维度. 在已训练的网络结构基础上, 通过前向传播计算得到分类的类别.
    3  实验与分析
    3. 1  实验数据与实验设置研究区域位于加拿大的多伦多地区, 该地区土地覆盖和土地利用的主要类型包括高密度住宅区( HD ) 、 低密度住宅区( L D ) 、 工业和商业区(I n d ) 、 建设工地( C o n s ) 、 水域( W a t e r ) 、 森林(F o r e s t ) 、 草地(P a s t u r e ) 、 高 尔 夫 球 场 ( G o l f ) 以 及 2 种 农 作 物( C r o p 1 ,C r o p 2 ) .我们使用了6 d的 R A D AR S AT - 2卫星遥感图像, 其 中 4d ( 2 0 0 8 - 0 6 - 1 1 , 2 0 0 8 - 0 7 - 0 5 ,2 0 0 8 - 0 8 - 2 2 ,2 0 0 8 - 0 9 - 1 5 ) 为上升轨道图像, 2 d ( 2 0 0 8 - 0 6 - 1 9 , 2 0 0 8 -0 8 - 0 6 ) 为下降轨道的图像. 在分类方案中, 根据电磁波散射性质的不同,1 0个已定义的地表覆盖类型又被细分为共1 9个子类. 在训练过程中, 每个子类都有约1  0 0 0个训练样本. 共有4  9 5 2  0 6 5个像素点被分类,1 2 0   6 1 7个已知类别的像素点被均匀地选取用以验证分类的正确性.
    3. 2  分类精度评价分类精度分析是遥感分类技术中一个必不可少的环节, 通过精度分析可定量判断分类模型的准确性. 在遥感分类精度评价中, 最常用的方法是利用混淆矩阵进行分析. 混淆矩阵(c o n f u s i o n  m a t r i x ) 也称误差矩阵, 它反映了分类结果与地表真实类别的相关信息, 是分析总体精度和 K a p p a系数等指标的基础. 以 M 表示混淆矩阵, 其元素 mi j表示测试样本中应属于类别 j 而实际被分到类别 i 的像素总数. 混淆矩阵对角线的元素 m i i 的值越大, 分类精度越高.1 )总体精度总体精度( o v e r a l l  a c c u r a c y , OA ) 是对分类结果质量的总体评价, 等于被正确分类的像素总和除以总的像素个数 . 被正确分类的像素沿着混淆矩阵的对角线分布, 它显示了被正确分类到真实分类中的像元数. 根据混淆矩阵可得 OA 的计算式为p = ∑ci =1 mi i ? N ,(1 3 )其中,c 表示类别数目, m i i 表示混淆矩阵对角线上的元素, N =∑ci =1 ∑cj =1 mi j表示测试样本的总数.2 ) K a p p a系数K a p p a系数 [2 3 ] 采用一种多元离散分析技术, 来反映分类结果与参考数据之间的吻合程度, 它考虑了混淆矩阵的所有因子, 是一种更为客观的评价指标, 其定义为k =N ∑ci =1 mi i - ∑ci =1( m i+ m + i )N2- ∑ci =1( m i+ m + i ), (1 4 )其中, m i + ,m + i 分别表示混淆矩阵的第 i 行的总和、第 i 列的总和. K a p p a系数越大分类精度越高.
    3. 3  结果分析本节我们主要讨论两方面的内容, 一是 D B N的结构( 包括层数和隐含层节点数) 对遥感图像分类效果的影响, 二是 D B N 方法与其他两种分类方法(S VM 和传统神经网络) 的比较.在实验中, 每个像素选取的邻域窗口大小为3×3 , 因此输入数据的维度为1 6 2. 目前, 关于 D B N结构选取目前尚没有完善的理论依据, 我们通过实验方法确定较优的网络结构. 为简便起见, 我们假设各隐含层具有相同数目的节点. D B N 的层数( 不含B P层) 从{1 , 2 , 3 , 4 , 5 , 6 } 中选取, 而隐含层节点数目从{1 6 , 3 2 , 6 4 , 1 2 8 , 2 5 6 } 中选取. 根据文献[ 2 1 , 2 4] 推荐的参数范围并采用网格搜索(g r i d  s e a r c h ) 寻优的方法, 我们设置 D B N 的其他参数如下:p r e -t r a i n i n g和f i n e - t u n i n g 的学习率均为0 . 0 5, m i n i- b a t c h大小为1 0 0. 由于样本进行2 0遍迭代之后分类准确率趋于稳定, 我们将样本迭代遍数(e p o c h ) 均设置为 2 0遍. 对于层数与隐含层节点数的不同组合, 我们通过实验发现, 当 D B N 的层数为3层、 各隐含层节点数为6 4时, 总体分类精度最高. 下面, 我们采用固定其他参数而变化一种参数的方法来讨论不同网络深度以及隐含层节点数对分类效果的影响.
    1 )网络深度的影响对于深度学习模型, 网络深度对分类效果起到十分重要的作用. 一方 面, 文 献 [2 5 ] 证 明 了 增 加R BM 的层数可以增强 D B N 的建模能力, 更高层的表示有望发掘出更为抽象的特征表示, 提高分类性能. 另一方面, 文献[2 6 ] 说明了过多的层数可能导致降低D B N的泛化性能, 容易导致过拟合(o v e r f i t t i n g )现象. 因此, 合适的 D B N 层数往往与具体的应用和数据集相关.本实验中, 我们设置每个隐含层的节点数均为6 4 , 而 D B N 的层数从1变化至6 , 结果如图4所示.由图4可知, 当D B N 层数为3时, 总体精度( OA) 和K a p p a系数最大.文献[2 6 ] 指出, 当隐含层节点规模过小, 神经元之间的连接相应比较少, 可能不足以提取与分类任务的相关信息; 而神经元数目过多也同样容易导致过拟合的问题. 本实验中我们设定 D B N 层数为3层, 其他参数固定, 只改变各层中的隐含层节点数,结果如图5所示. 容易看出, 当各层隐含层节点数取值为6 4时, 总体精度( OA ) 和 K a p p a系数最大.
    3 )与其他分类方法的比较我们将基于 D B N 模型的方法与 S VM 及传统神经网络( NN ) 两种分类方法进行了对比. S VM 采用常用的开源工具L I B S VM[ 2 7 ] , 其核函数采用径向基函数(r a d i a l  b a s i s  f u n c t i o n , R B F ) , 惩罚因子 C 和核函数参数 g (g a mm a ) 采用网格搜索交叉验证进行寻优.C 的搜索范围分别为[ 2-5 ,2-3 , …,21 5 ] ,g 的搜索范围为[2-1 5 ,2-1 3 , …,23 ] , 共1 1×1 0=1 1 0种可能组合. 通过5折交叉验证(5 - f o l d  c r o s s  v a l i d a t i o n ) ,我们发现当 C =2-3 ,g =2-5 时, 可得到最高的交叉验证准确率, S VM 的训练过程即采用此数值. NN采用常用的 B P优化方式, 参数与 D B N 类似, 不同之处在于没有多层 R BM 的 p r e - t r a i n i n g过程.几种分类方法的对比实验结果如表1所示. 可以看出, 和 S VM 方法相比, D B N 在各个类别和总体分类精度上略有提升. 和 NN 方法相比, D B N 方法在 W a t e r , G o l f , HD 几个类别分类精度相当, 而P a s t u r e和I n d两个类别精度略有提高. 由于 C o n s类别与C r o p 2的混淆增加, 采用 D B N 方法的 C o n s分类精度较 N N略有下降. 但由于L D , C r o p 1 , C r o p 2 ,F o r e s t几个类的分类精度有大幅度的提高, D B N方法的总体分类精度提高了8 % , K a p p a系数提高了. 0 9 . 总的来看, D B N 方法的分类效果在三者中为最优. 表2给出了 D B N 方法分类结果的混淆矩阵.D B N 分类效果提升的原因在于, D B N 的各层R BM 通过 p r e- t r a i n i n g 的无监督学习为神经网络的权值提供了更为合适的初始值, 而不是像普通神经网络那样给权值赋以随机数 . 
    因此, D B N 结合了无监督学习和有监督学习各自的优点, 能更好地发掘遥感数据在时间上和空间上的规律性, 进而提高分类精度.图6显示了一个L D区域几种分类方法的分类结果, 可见, 与 NN 方法相比, D B N 方法减少了 L D类别被错分为 HD 类别 . 图 7 显示了一个地物种类较多的较大区域的分类结果, 与 NN 相比较, D B N方法较好地保留了地物类别的细节, 并且 F o r e s t类模型的遥感S AR 图像的分类方法. D B N 结合了无监督学习和有监督学习的学习的优点, 可自动发掘遥感数据在时间和空间上所蕴含的规律, 进而提高分类的准确性. 实验表明, 该方法可取得优于S VM及传统神经网络( NN ) 的分类效果. 在下一步工作中, 我们将更深入研究多种深度学习模型, 以进一步提高遥感图像分类的准确度.
    参 考 文 献[ 1 ] M o r e i r a  A , I r a o l a  P , Y o u n i s  M , e t  a l .A  t u t o r i a l  o ns y n t h e t i c  a p e r t u r e  r a d a r [ J ] . I E E E  G e o s c i e n c e  a n d  R e m o t eS e n s i n g   M a g a z i n e , 2 0 1 3 , 1 (1 ) : 6 - 4 3[ 2 ] L o m b a r d o  P , S c i o t t i  M , P e l l i z z e r i  T M , e t  a l .O p t i m u mm o d e l - b a s e d  s e g m e n t a t i o n  t e c h n i q u e s  f o r  m u l t i f r e q u e n c yp o l a r i m e t r i c  S A R  i m a g e s  o f  u r b a n  a r e a s [ J ] . I E E E  T r a n s  o nG e o s c i e n c e  a n d  R e m o t e  S e n s i n g , 2 0 0 3 , 4 1 ( 9 ) : 1 9 5 9 - 1 9 7 5[ 3 ] A l b e r g a  V. A  s t u d y   o f  l a n d  c o v e r  c l a s s i f i c a t i o n  u s i n gp o l a r i m e t r i c  S A R  p a r a m e t e r s [ J ] .I n t  J o u r n a l  o f  R e m o t eS e n s i n g , 2 0 0 7 , 2 8 ( 1 7 ) : 3 8 5 1 - 3 8 7 0[ 4 ] H a g n e r  O , R e e s e  H.A m e t h o d  f o r  c a l i b r a t e d  m a x i m u ml i k e l i h o o d  c l a s s i f i c a t i o n  o f  f o r e s t  t y p e s [ J ] .R e m o t e  S e n s i n go f  E n v i r o n m e n t , 2 0 0 7 , 1 1 0 ( 4 ) : 4 3 8 - 4 4 4[ 5 ] K h a n  K U ,Y a n g J , Z h a n g  W. U n s u p e r v i s e d  c l a s s i f i c a t i o n  o fp o l a r i m e t r i c  S A R  i m a g e s  b y   EM  a l g o r i t h m [ J ] . I E I C E  T r a n so n  C o mm u n i c a t i o n s , 2 0 0 7 , E 9 0 - B ( 1 2 ) : 3 6 3 2 - 3 6 4 2[ 6 ] H e e r m a n n  P , K h a z e n i e  N.C l a s s i f i c a t i o n  o f  m u l t i s p e c t r a lr e m o t e  s e n s i n g   d a t a  u s i n g   a  b a c k - p r o p a g a t i o n  n e u r a l  n e t w o r k[ J ] . I E E E  T r a n s  o n  G e o s c i e n c e  a n d  R e m o t e  S e n s i n g , 1 9 9 2 ,3 0 ( 1 ) : 8 1 - 8 8[ 7 ] P a l  M , M a t h e r  P M.A n  a s s e s s m e n t  o f  t h e  e f f e c t i v e n e s s  o fd e c i s i o n  t r e e  m e t h o d s  f o r  l a n d  c o v e r  c l a s s i f i c a t i o n [ J ] .R e m o t e  S e n s i n g   o f  E n v i r o n m e n t , 2 0 0 3 , 8 6 (4 ) : 1 1 4 5 - 1 1 6 1[ 8 ] L a r d e u x  C , F r i s o n  P , T i s o n  C , e t  a l .S u p p o r t  v e c t o rm a c h i n e  f o r  m u l t i f r e q u e n c y   S A R  p o l a r i m e t r i c  d a t ac l a s s i f i c a t i o n [ J ] .I E E E  T r a n s  o n  G e o s c i e n c e  a n d  R e m o t eS e n s i n g , 2 0 0 9 , 4 7 ( 1 2 ) : 4 1 4 3 - 4 1 5 2[ 9 ] N i u  X , B a n  Y  F.M u l t i- t e m p o r a l  RA D A R S AT - 2p o l a r i m e t r i cS A R  d a t a  f o r  u r b a n  l a n d - c o v e r  c l a s s i f i c a t i o n  u s i n g   a n  o b j e c t -b a s e d  s u p p o r t  v e c t o r  m a c h i n e  a n d  a  r u l e - b a s e d  a p p r o a c h [ J ] .I n t  J o u r n a l  o f  R e m o t e  S e n s i n g , 2 0 1 3 , 3 4 ( 1 ) : 1 - 2 6[ 1 0 ] N i u  X , B a n  Y  F.A  n o v e l  c o n t e x t u a l  c l a s s i f i c a t i o n  a l g o r i t h mf o r  m u l t i t e m p o r a l  p o l a r i m e t r i c  S A R  d a t a [ J ] . I E E EG e o s c i e n c e  a n d  R e m o t e  S e n s i n g   L e t t e r s , 2 0 1 4 , 1 1 ( 3 ) : 6 8 1 -6 8 5[ 1 1 ] H i n t o n  G  E , S a l a k h u t d i n o v  R.R e d u c i n g   t h e  d i m e n s i o n a l i t yo f  d a t a  w i t h  n e u r a l  n e t w o r k s [ J ] .S c i e n c e , 2 0 0 6 , 3 1 3( 5 7 8 6 ) : 5 0 4 - 5 0 7[ 1 2 ] Y u  D , D e n g   L.D e e p   l e a r n i n g   a n d  i t s  a p p l i c a t i o n s  t o  s i g n a la n d  i n f o r m a t i o n  p r o c e s s i n g [ J ] .I E E E  S i g n a l  P r o c e s s i n gM a g a z i n e , 2 0 1 1 , 2 8 ( 1 ) : 1 4 5 - 1 5 4[ 1 3 ] A r e l  I , R o s e  C , K a r n o w s k i  T.D e e p   m a c h i n e  l e a r n i n g — An e w  f r o n t i e r  i n  a r t i f i c i a l  i n t e l l i g e n c e[ J ] . I E E EC o m p u t a t i o n a l  I n t e l l i g e n c e  M a g a z i n e , 2 0 1 0 , 5 ( 4 ) : 1 3 - 1 8[ 1 4 ] B e n g i o  Y. L e a r n i n g d e e p a r c h i t e c t u r e s  f o r  A I [ J ] .F o u n d a t i o n  a n d  T r e n d s  i n  M a c h i n e  L e a r n i n g , 2 0 0 9 , 2 ( 1 ) : 1 -1 2 7[ 1 5 ] B e n g i o  Y , C o u r v i l l e  A , V i n c e n t  P. R e p r e s e n t a t i o n  l e a r n i n g :A  r e v i e w  a n d  n e w  p e r s p e c t i v e s [ J ] . I E E E  T r a n s  o n  P a t t e r nA n a l y s i s  a n d  M a c h i n e  I n t e l l i g e n c e , 2 0 1 3 , 3 5 ( 8 ) : 1 7 9 8 - 1 8 2 8[ 1 6 ] A n t h e s  G. D e e p   l e a r n i n g   c o m e s  o f  a g e [ J ] . C o mm u n i c a t i o n so f  t h e  A CM , 2 0 1 3 , 5 6 ( 6 ) : 1 3 - 1 5[ 1 7 ] J o n e s  N.T h e  l e a r n i n g   m a c h i n e s [ J ] .N a t u r e , 2 0 1 4 , 5 0 5( 7 4 8 2 ) : 1 4 6 - 1 4 8[ 1 8 ] H u  X i a o l i n , Z h u  J u n. D e e p   l e a r n i n g : N e w  h o t s p o t  i nm a c h i n e  l e a r n i n g [ J ] . C o mm u n i c a t i o n s  o f  t h e  C C F , 2 0 1 3 , 9( 7 ) : 6 4 - 6 9 ( i n  C h i n e s e )( 胡晓林,朱军 . 深度学习:机器学习领域的新热点[ J ] . 中国计算机学会通讯, 2 0 1 3 , 9 ( 7 ) : 6 4 - 6 9 )[ 1 9 ] Y u  K a i , J i a  L e i , C h e n  Y u q i a n g , e t  a l .D e e p   l e a r n i n g :Y e s t e r d a y , t o d a y , a n d  t o m o r r o w [J ] . J o u r n a l  o f  C o m p u t e rR e s e a r c h  a n d  D e v e l o p m e n t , 2 0 1 3 , 5 0 ( 9 ) : 1 7 9 9 - 1 8 0 4 ( i nC h i n e s e )( 余凯,贾磊,陈雨强,等.深度学习 的昨天、 今天和明天[ J ] .计算机研究与发展, 2 0 1 3 , 5 0 ( 9 ) : 1 7 9 9 - 1 8 0 4 )[ 2 0 ] M n i h  V , H i n t o n  G  E.L e a r n i n g   t o  d e t e c t  r o a d s  i n  h i g hr e s o l u t i o n  a e r i a l  i m a g e s [ C ] ? ? P r o c  o f  2 0 1 0E u r o p e a n  C o n fC o m p u t e r  V i s i o n ( E C C V 2 0 1 0 ) .P i s c a t a w a y , N J : I E E E ,2 0 1 0 : 2 1 0 - 2 2 3[ 2 1 ] H i n t o n  G  E , O s i n d e r o  S , T e h  Y.A  f a s t  l e a r n i n g   a l g o r i t h mf o r  d e e p   b e l i e f  n e t s [J ] .N e u r a l  C o m p u t a t i o n , 2 0 0 6 , 1 8 ( 7 ) :1 5 2 7 - 1 5 5 4[ 2 2 ] H i n t o n  G  E.T r a i n i n g  p r o d u c t s  o f  e x p e r t s  b y   m i n i m i z i n gc o n t r a s t i v e  d i v e r g e n c e [ J ] .N e u r a l  C o m p u t a t i o n , 2 0 0 2 , 1 4( 8 ) : 1 7 7 1 - 1 8 0 0[ 2 3 ] L u o  X i a o b o , Z h a o  C h u n h u i , P a n  J i a n p i n g , e t  a l .R e m o t eS e n s i n g   I m a g e  I n t e l l i g e n t  C l a s s i f i c a t i o n  a n d  I t s  A p p l i c a t i o n[ M ] .B e i j i n g : P u b l i s h i n g   H o u s e  o f  E l e c t r o n i c s  I n d u s t r y ,2 0 1 1 ( i n  C h i n e s e )( 罗小波,赵春晖,潘建平,等 . 遥感图像智能分类及其应用[ M ] .北京:电子工业出版社, 2 0 1 1 )[ 2 4 ] H i n t o n  G  E. A  p r a c t i c a l  g u i d e  t o  t r a i n i n g   r e s t r i c t e dB o l t z m a n n  m a c h i n e s , UTML  T R  2 0 1 0 - 0 0 3 [ R ] .T o r o n t o :D e p a r t m e n t  o f  C o m p u t e r  S c i e n c e , U n i v e r s i t y   o f  T o r o n t o ,2 0 1 0[ 2 5 ] R o u x  N , B e n g i o  Y.R e p r e s e n t a t i o n a l  p o w e r  o f  r e s t r i c t e dB o l t z m a n n  m a c h i n e s  a n d  d e e p   b e l i e f  n e t w o r k s [ J ] .N e u r a lC o m p u t a t i o n , 2 0 0 8 , 2 0 ( 7 ) : 1 6 3 1 - 1 6 4 9[ 2 6 ] L a r o c h e l l e  H , B e n g i o  Y , L o u r a d o u r  J , e t  a l .E x p l o r i n gs t r a t e g i e s  f o r  t r a i n i n g   d e e p   n e u r a l  n e t w o r k s [J ] . J o u r n a l  o fM a c h i n e  L e a r n i n g   R e s e a r c h , 2 0 0 9 , 1 0 (1 ) : 1 - 4 0[ 2 7 ] L i n  C  J .L I B S VM : A  l i b r a r y   f o r  s u p p o r t  v e c t o r  m a c h i n e s[ O L ] . [ 2 0 1 3 - 1 1 - 1 2 ] . h t t p :? ? www. c s i e . n t u. e d u. t w ? ~c j l i n ?l i b s v m ?
 
[返回]
上一篇:一种基于选择性协同学习的网络用户
下一篇:基于 SSVM 的递归统计不相关特征抽取算法