CN106355151A - 一种基于深度置信网络的三维sar图像目标识别方法 - Google Patents
一种基于深度置信网络的三维sar图像目标识别方法 Download PDFInfo
- Publication number
- CN106355151A CN106355151A CN201610777874.7A CN201610777874A CN106355151A CN 106355151 A CN106355151 A CN 106355151A CN 201610777874 A CN201610777874 A CN 201610777874A CN 106355151 A CN106355151 A CN 106355151A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- image
- array
- target
- dimensional sar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 238000004088 simulation Methods 0.000 claims abstract description 37
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims description 53
- 238000012360 testing method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 238000002790 cross-validation Methods 0.000 claims description 17
- 238000007781 pre-processing Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000002592 echocardiography Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 6
- 238000012795 verification Methods 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 91
- 238000013135 deep learning Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 241001270131 Agaricus moelleri Species 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提出了一种基于深度置信网络的三维SAR图像目标识别方法,首先建立三维SAR图像的仿真样本库,通过一副或少数的目标的三维SAR图像向不同的方位角和俯仰角投影得到多幅目标的二维SAR图像,获取的少量的三维SAR图像转化成二维图像,利用二维图像识别的方法进行识别,可以大大的节省成本,减少SAR成像的获取时间。提出了融合交叉验证法对深度置信网络进行了改进使之自动调节参数,实现参数的自优化,有效的避免过拟合学习和欠拟合学习状态的发生,能准确地学习样本数据的高级特性,使深度置信网络获得更好的识别结果省去了人工设置参数的繁琐,提高了识别效率。
Description
技术领域:
本技术发明属于雷达技术领域,它特别涉及了合成孔径雷达(SAR)成像技术领域。
背景技术:
合成孔径雷达(SAR)能够不受自然条件限制,对感兴趣的目标区域实行全天候、全天时地侦查监视,在民用和军用领域均获得了广泛的应用。
SAR图像目标识别是模式识别和人工智能在SAR系统中的应用,其过程可以分为训练样本阶段和测试样本阶段。在训练阶段,首先对训练目标的SAR图像进行预处理,包括去噪、分割、对比度增强等,然后提取SAR图像中目标稳定且具有区别性的特征,并从中找出有意义的特征,最后利用这些特征设计目标识别分类器;在测试阶段,同样首先需要对测试目标雷达图像进行预处理并提取相应目标特征,然后利用训练阶段得到的分类器对测试样本进行分类判决,最后分类器输出目标的类别属性,完成目标识别。SAR图像识别是雷达应用的一个重要研究方向,已经在海洋监控、领空防御、天气预报、自然灾害监测等领域发挥了巨大作用。
在SAR雷达图像识别领域,关于雷达的距离向高分辨一维和距离-方位向二维图像的识别已经进行了大量的研究并日趋成熟。随着SAR成像技术研究的深入,目标三维SAR图像的获取已经得以实现。传统二维SAR成像将三维空间投影到二维平面上,造成大量信息丢失,三维SAR作为一种新型的合成孔径雷达系统,具备了三维空间成像的能力,因此能获取目标更加丰富的目标信息,更有利于目标特征提取和识别。三维SAR图像识别相比于一维和二维雷达图像识别,具有以下优点:1)可以获取目标的三维轮廓信息,并且在目标发生转动机动的过程中,依然可以很好的捕获目标信息,受其影响较小;2)三维SAR图像将目标信息直接映射在三维空间上,一幅三维SAR图像可以包含多幅二维SAR图像的信息,因此采集较少的三维SAR图像样本即可获得较好的识别效果,极大地节省了成本;3)采集过程耗时少,可以进行实时的目标识别。因此三维SAR图像目标识别具有广阔的发展前景。但目前来说,如何对三维SAR图像进行目标识别仍是一个富有挑战性的难题。
目前,深度学习(Deep Learning)是目标识别领域中一个热门的研究课题。深度学习的概念是Hinton等人于2006年提出的,主要通过神经网络(Neural Network)来模拟人大脑的学习过程,根据对大脑认识事物过程研究的成果,试图利用一个个的节点来代替人脑的神经元,并通过节点的权值训练来达到重构物体的目的,其最显著的特点是特征的抽取过程尽量少地减少了人为的干预。深度学习的架构可以有很多种模型,常用的有稀疏自编码、受限玻尔兹曼机、卷积神经网络等。其中基于受限玻尔兹曼机的深度网络被称作深度置信网络(Deep Belief Networks,DBN),深度置信网络是一个由贝叶斯概率生成的模型,由一系列的受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)堆叠而成。深度置信网络相比于传统的目标识别方法(模板匹配、模型匹配、支持向量机、主成分分析等)具有以下优点:1)减少了手工设计特征的巨大工作量;2)深度置信网络可以自动地进行特征的提取和抽离;3)深度置信网络将输入变换到高维空间,对输入数据有了更加好的表达,不仅仅识别效果可以更好,而且使用起来也更方便。基于深度置信网络的优势,本发明将其应用于三维SAR图像的目标识别是可行的也是有效的。
发明内容:
针对传统的二维SAR图像识别需要采样样本量大、采集时间长、成本高等缺点,本发明提出了一种基于深度置信网络的三维SAR图像目标识别方法,结合三维SAR图像识别的优势,首先提出了一种建立三维SAR图像的仿真样本库的方法,该方法的思路是:通过一副或少数的目标的三维SAR图像向不同的方位角和俯仰角投影得到多幅目标的二维SAR图像。该方法的特点是:通过获取的少量的三维SAR图像转化成二维图像,利用二维图像识别的方法进行识别,可以大大的节省成本,减少SAR成像的获取时间。并且,在识别方法上,本发明提出了融合交叉验证法对深度置信网络进行了改进使之可以自动调节参数,实现参数的自优化,该方法的优势是:1)解决了手工式的参数设置方式效率低下,而且往往无法达到最优的参数设置的问题;2)采用交叉验证的方法可以得到较高的准确率,同时可以有效避免过拟合学习和欠拟合学习状态的发生;3)优化后的参数可以准确地学习样本数据的高级特性,使深度置信网络获得更好的识别结果。
为了方便描述本发明的内容,首先作以下术语定义:
定义1、三维合成孔径雷达(3-D SAR)
三维合成孔径雷达是一种具有三维分辨能力的新型合成孔径雷达,通过在切航迹方向上布设阵元获得切航迹向的分辨,通过平台的运动形成合成阵列获得沿航迹向的分辨,通过脉冲压缩技术获得高度向的分辨,进而实现三维SAR成像。
其中,阵列三维SAR理论的距离向分辨率为ρr=C/2B,C为光速,B为信号带宽;理论的阵列向分辨率为ρx=Rλ/2Lx,ρy=Rλ/2Ly,R为天线到目标斜距,λ为信号波长,Lx、Ly为阵列沿航迹长度和切航迹长度。
定义2、三维SAR图像目标识别
SAR图像目标识别是利用SAR成像技术获取各种目标的SAR图像特征,并选择稳定、优秀的特征,按照这些特征对目标进行分类编号,以完成目标识别的技术。在SAR图像目标识别领域的研究目前主要集中在两个方向:目标特征提取方法的研究和分类识别算法的研究,整个SAR图像目标识别流程详见附图。
三维SAR图像识别采用的思路是:先通过少量三维SAR图像转化为大量二维SAR图像,接着,采用二维图像的识别方法完成被转化的二维图像的识别,最后,得到每一类三维SAR图像转化成的大量二维SAR图像分类错误率,通过投票机制,假设这一类三维SAR图像转化的大量二维SAR图像中,有90%以上都可以正确分类,即认为该类三维SAR图像可以正确识别出来。这种处理思路是利用对同一目标的若干副三维SAR图像存在大量信息冗余这一特性,将三维识别问题先转化为二维识别然后通过错误率再转回到对三维样本的识别。
定义3、目标特征提取
在SAR目标识别流程中,特征提取是整个流程的核心环节,可以这样说:整个识别过程几乎可以看作是特征提取的过程。特征的提取与选择,直接影响着分类器设计的是否完美,也直接影响着目标的识别的正确率。
定义4、深度学习(Deep Learning)
深度学习本质上是一种贪婪算法,它是一种类神经网络的结构,不过一般来说网络层可以有多层,不像人工神经网络那样只有三层。在深度学习模型的最底层,也就是样本的输入层,可以直接将初始样本加入网络,网络可以自动的抽离特征,不需要人工的去提取特征,这是深度学习和传统模式识别最大的区别。在经过每一层的学习后,特征会越来越抽象,可以做出这样的假设,对于系统S,它有n层分别为:S1,S2,…Sn,假设它的输入表示为I,输出表示为O,整个深度学习的过程可以表示为:I=>S1=>S2=>…=>Sn=>O,在整个信息的传输过程中,每一层的损失尽量小,使得输入I可以近似的用输出O表示,那么整个系统就可以实现对输入的层级表示,详见附图。
对于包含如此多隐含层的网络,如果采用人工神经网络的训练思路,则需要耗费很长的时间,而且会产生极大的训练误差,因此不能采用全局的训练思路;如果每次只训练一层,每一层的误差就会逐层传递,这样会严重损失对输入的表达,会出现严重欠拟合。一般来说,深度学习的训练过程分为两个阶段,第一阶段是每次独立训练一层网络,第二阶段全局调优,必须要保证,每层的训练的误差都在一个很小的范围内,具体表示如下:
第一阶段:自下向上的非监督学习阶段
将无标签的样本输入加入到最底层,在第一层中包含可见层和隐含层,一般来说,输入数据进入到可见层之后,根据贝叶斯概率模型将可见层的数据通过层间的权值和阈值调整来表示隐含层。在获得隐含层的数据之后,隐含层会向下重构可见层的数据,这样原来的可见层数据和重构之后的可见层数据会存在一个重构误差。通过不断的迭代调整网络参数,会使得这个重构误差在一定的范围内,第一层训练完毕。在第二层训练时,会将第一层的隐含层的输出作为第二层可见层的输入,继续进行上述过程,知道最高一层。这样底端的特征会经过一步步的抽象,变成一个区分度很好的高级特征。
第二阶段:自顶向下的监督学习阶段
在第一个训练阶段,得到了网络的各层的权值和阈值,但是样本的标签这个信息还没有加入到网络模型中,这一阶段主要是带标签的监督学习过程,使得网络学习到样本的类别。在网络的最高层加入分类器,利用第一阶段的特征去进行分类器的设计,并输入样本的标签。类似于人工神经网络的误差后向传播,这个阶段是利用标签进行参数的微调。唯一不同的是:人工神经网络的权值阈值初始值是通过随机产生的,而深度学习模型的初始权值、阈值是在第一阶段就训练得到的,这也是深度学习模型优于神经网络的主要原因。
定义5、受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)
受限玻尔兹曼机RBM其实就是一个典型的神经网络,它是马尔科夫随机场和玻尔兹曼机结合的一种特例。一个受限玻尔兹曼机模型可以看作一个无向图模型[53-55],包含两层结构:可视层和隐含层,详见附图。
其中,V={v1,v2,…vi,…vD}为可视层,H={h1,h2,…hj,…hF}为隐含层,两层通过一个权重矩阵W={wij}相连接。假设所有的V与H均为二进制值变量,即都满足vi∈{0,1},hj∈{0,1}。对于一组给定的状态{V,H},限制玻尔兹曼机所具备的能量函数定义为:
其中,θ={W,B,A}表示模型系数,B={b1,b2,…bi,bD},C={c1,c2,…cj,…cF}为偏置项,vi表示可视层的第i个单元,hj表示隐含层的第j个单元,wij(1≤i≤D,1≤j≤F)表示可视层单元i和隐含层单元j的权值。
当参数确定时,通过能量函数可得可视层和隐含层的联合概率分布:
根据概率学的理论,可由受限玻尔兹曼机的联合概率分布得到可视层的独立分布:
训练受限玻尔兹曼机的任务是求出参数θ={W,B,A}的值,从而拟合输入的训练样本,基于上式的最大化对数似然函数,得到输入样本集的最佳拟合分布模型,表示如下:
针对公式(5-5)的最优化问题,可以采用梯度下降法对模型的参数θ={W,B,A}求导数得到:
其中,表示期望,在公式(5-6)中,运用到了如下的化简公式:
同时,有:
公式(5-6)分别对θ={W,B,A}的参数进行求导,可以得到这三个参数更新变量:
因此,可以得到受限玻尔兹曼机的参数更新规则:
wi'j=wij-αΔwij=wij+α(<vihj>data-<vihj>model) (5-15)
bi'=bi-αΔbi=bi+α(<vi>data-<vi>model) (5-16)
c'j=cj-αΔcj=cj+α(<hj>data-<hj>model) (5-17)
其中,α表示模型的学习速率,影响着参数的调节速度,<□>表示期望。
定义6、标准的深度置信网络(Deep belief Network,DBN)样本库构造方法
DBN网络是是深度学习中的一种模型,包含多个隐含层的概率模型,隐含层被训练来捕获可视层数据的高阶相关性。深度置信网络的相邻两层可以看做是一个独立的受限玻尔兹曼机,使用每一个处于低层的RBM作为输入数据来训练下一个高层的RBM,即可贪婪的学习一组RBM,因此深度置信网络可以用以下概率模型进行表示:
P(V,H1,H2,…,HN)=P(V|H1)P(H1|H2)…P(HN-2|HN-1)P(HN-1|HN)
在训练的开始部分,DBN的训练通过非监督贪婪逐层训练方法,每次只学习迭代相邻两层的RBM的网络参数,并通过这样的方式完成整个DBN的参数调优,接着通过带标签的数据对整个模型进行微调。
一个DBN网络的每一层都包含了了许多个节点,将输入样本导入可视层V,训练第一层的RBM会得到参数θ1={W1,B1,A1},接着将θ1固定,通过P(H1|V)=P(H1|V,θ1)可以得到第一层RBM隐含层节点数据H1;然后,将H1看作第二层RBM的输入数据,进而得到第二层RBM的网络参数θ2={W2,B2,A2}和第二层RBM的隐含层数据H2,以此类推,可以递归的计算出每一层的网络参数和隐含层的节点数据。
在逐层的训练完成整个RBM之后,再把原始的带有标签的训练数据导入,通过误差后向传播的BP算法,运用梯度下降法对整个DBN网络进行参数调优。
定义7、DBN网络参数
在构建DBN网络模型时,为了能够更好的进行样本数据的训练,提高学习效果,有必要对其中的一些参数的初始值等进行设置。
一般来说,DBN网络的参数有如下几种:
(1)隐含层单元的个数
深度置信网络中每一个隐含层中节点的个数。一般来说,把DBN网络表示一个样本所需要的字节数,乘以输入样本的数目,再降低一个数量级可以近似的作为该层隐含节点的数目。
(2)学习速率
在RBM参数的更新规则,表示参数更新的快慢,一般来说,学习速率设置过大,将会导致模型重构误差增大,不利于高阶特征的提取;设置过小,参数更新速度降低,训练时间增大,从而导致过拟合现象的发生。
(3)批量学习的数据大小
在DBN网络的层间连接权值和层间偏置的更新过程中,将训练样本完全导入的方式,其计算量是很大的。因此,在训练之前,常常将输入样本先分解成多个包含几十个或几百个样本数据,这种方式称为批量处理的方式,每一批量包含的样本数也同样影响着模型的训练。
(4)RBM的迭代次数
在采用对比散度算法学习RBM的过程中,常常需要进行多次迭代,才可以获得较好的RBM网络参数。
定义8、交叉验证法(Cross Validation,CV)
交叉验证方法是对分类器进行性能测试的方法,它的交叉思想体现在将样本分为测试和训练两个部分,并轮流改变测试和训练样本进行分类器的测试。一般来说,先使用训练样本学习分类器,并调节好分类器的参数,再将测试样本加入训练好的分类器中,以测试集的分类准确率作为评价分类器的性能指标。采用交叉验证的方法可以得到较合理的准确率,同时可以有效的避免过拟合学习和欠拟合学习状态的发生。
定义9、三维后向投影算法(Back Projection,BP)
三维BP成像算法同时适用曲线SAR及线阵SAR阵等多种SAR成像系统,其思想为把所有回波数据进行相干累加,然后把幅度信息反向投影到三维空间。
在三维BP成像算法中,首先计算各个散射点到线阵天线各阵元的距离历史,选择相应距离单元的数据,并进行多普勒相位补偿以及相干累加,最后得到目标的三维BP成像结果。
关于这一成像算法的步骤在别的文献中已经进行过多次论述,本发明不再列出。
定义10、电磁计算仿真方法
利用电磁计算软件FEKO实现复杂目标的电磁仿真。首先,在FEKO软件中设定散射系数测量仿真的系统参数,如频率、带宽、扫描阵列等,然后将被测目标的模型导入到FEKO软件中。根据目标大小和频率,在FEKO中可以选用不同的电磁计算方法,如物理光学法(PO)、矩量法(MoM)等,对被测目标的散射场进行计算。此时,在扫描阵列处接收到的散射场,即相当于实际测量中测量系统接收到的回波。对回波采用相应的数据处理方法,即可得到目标的散射系数。
定义11、样本图像的预处理
由于图像样本库的图像的目标大小和位置都不尽相同,为了消除图像不一带来的影响,首先对每幅图像做标准化预处理:把每幅图像先转化为二值图像,并做反色处理,然后截取二值图像中包含雷达目标的最大区域,将截取的区域转化为标准的16×16=256像素的图像。最后经过处理的SAR样本图像将会转化为像素点的灰度值为1,背景像素点灰度值为0,即标准化处理后的图像为黑底白图的图像。
本发明提供的一种基于深度置信网络的三维SAR图像的目标识别方法,它包括以下步骤:
步骤1、初始化阵列三维SAR系统参数:
初始化阵列三维SAR系统参数,包括:光在空气中传播速度,记为C;频率采样点数,记为Nr;雷达发射的基带信号形式为步进频率信号,子脉冲频率记为fi=f0+i·Δf,其中f0为信号起始频率,Δf为步进频率增量,i为子脉冲序号,i=1,2,3,...,Nr;雷达发射基带信号的信号带宽,记为B=(Nr-1)Δf;雷达工作中心频率,记为fc=f0+B/2;接收阵列中心,记为阵列阵元总数记为N=Nx·Ny,其中Nx为方位向阵元数,Ny为垂直方位向阵元数;阵元间隔记为d;阵列天线各阵元位置矢量,记做其中n为天线各阵元序号,为自然数,n=1,2,...,N,nx为方位向序列号,nx=-Nx/2,...,Nx/2,ny为垂直方位向序列号,ny=-Ny/2,...,Ny/2;成像场景中心,记为以雷达波束照射场区域地平面和垂直于该地平面向上的单位向量所构成的空间直角坐标作为线阵三维SAR的场景目标空间Ω;场景目标空间Ω中点目标的矢量坐标,记做m表示场景目标空间Ω中第m个点目标,m=1,2,…,M,M为场景目标空间Ω中点目标总数,其中和M的值由电磁仿真选择的模型决定。
步骤2、电磁仿真得到目标的表面电磁散射系数:
将步骤1中初始化的阵列三维SAR系统参数输入电磁仿真软件FEKO中,采用传统通用的电磁计算仿真方法,得到第m个点目标的表面电磁散射系数矩阵,记为:
其中,Θm是维数为Nr×N的矩阵,σmr(i,n)表示实部值,σmi(i,n)表示虚部值,其中i=1,2,…,Nr,n=1,2,…,N。散射系数记为σm(i,n)=σmr(i,n)+σmi(i,n)。
步骤3、建立回波信号,导入电磁散射系数并利用三维BP算法成像:
根据步骤1中阵列天线各阵元位置矢量采用公式 计算得到在阵列三维SAR场景目标空间Ω中第m个点目标到第n个线阵天线阵元的距离,记为其中||·||2表示向量L2范数,为步骤1中初始化得到场景目标空间Ω中第m个点目标的坐标矢量,M为初始化的场景目标空间Ω中点目标总数。采用公式n=1,2,…,N,m=1,2,…,M,计算得到阵列三维SAR场景目标空间Ω中第m个点目标到第n个线阵天线阵元的时间延时,记为τ(m,n),其中C为步骤1中初始化得到的光在空气中的传播速度。阵列三维SAR第n个线阵天线阵元的原始回波数据记为s(n),在阵列三维SAR实际观测中,s(n)可由数据接收机得到;若在仿真过程中,s(n)为场景目标空间Ω中所有单元格回波的总数,采用标准的合成孔径雷达原始回波仿真方法及电磁计算仿真方法产生得到,近似表示公式可以表示为其中Σ(·)表示求和运算符号,exp(·)表示e指数运算符号,fi为步骤1初始化得到的步进频率信号的子脉冲频率,σm(i,n)为步骤二通过电磁仿真得到的场景目标空间Ω中第m个点目标的散射系数,j为虚数单位(即-1的开根值),π为圆周率。
步骤4、利用三维BP算法成像:
采用标准的三维BP算法,对步骤3中得到的回波信号s(n)进行后向投影成像处理,得到目标空间Ω的一幅三维SAR图像。
步骤5、构造三维SAR图像仿真样本库:
对于步骤2中的经典电磁仿真软件FEKO中的K类不同的电磁仿真模型,重复步骤1到步骤4可以得到K幅不同模型的三维SAR图像。
采用标准的深度置信网络样本库构造方法,利用上述得到的K幅三维SAR图像,构造总数为Ktr的二维SAR图像的样本库,样本库中的二维SAR图像记为Pktr(X,Y),其中ktr=1,2,...,Ktr,X、Y为图像的像素点坐标。
步骤6、样本图像的预处理:
采用标准的图像预处理方法,对步骤5中得到的样本库以及样本库中的图像进行处理。具体步骤如下:
将第ktr幅训练样本库中的二维的SAR图像Pktr(X,Y)转换成反色图像即:
设置阈值记为thre,将灰度的反色图像Pktr(X,Y)转换为二值图像其中ktr=1,2,...,Ktr,即:
即将Pktr(X,Y)中灰度值超过255·thre的都变为1,灰度值低于255·thre的都变为0。查找的灰度值为1的像素所包含的横纵坐标的范围,即图像中的目标区域,去除多余的白色区域,得到图像:
其中X'、Y'为去除白色区域后目标图像的像素点坐标。将转换为16×16的图像大小,图像预处理完成。
步骤7、设置待优化深度置信网络参数的初始值:
确定深度置信网络需要进行优化设置的参数,并给出每个参数在迭代过程中的最小值、最大值和迭代的步进大小:
1)第一隐含层:第一隐含层大小的最小值记为C1min,第一隐含层大小的最大值记为C1max,第一隐含层步进大小记为C1step。
2)第二隐藏层:第二隐含层大小的最小值记为C2min,第二隐含层大小的最大值记为C2max,第二隐含层步进大小记为C2step。
3)深度置信网络的学习速率的大小:学习速率最小值记为αmin,学习速率最大值记为αmax,学习速率步进大小记为αstep。
4)深度置信网络的批量训练数据的大小:初始批量学习数据的大小的最小值记为bmin,初始批量学习数据的大小的最大值记为bmax,初始批量学习数据步进记为bstep。
5)深度置信网络的RBM迭代次数:RBM初始迭代次数的最小值记为rnmin,RBM初始迭代次数的最大值记为rnmax,RBM迭代次数步进大小记为rnstep。
所有参数的迭代同步进行,迭代次数记为steps。
步骤8、采用交叉验证方法对参数进行自适应调优,并利用深度置信网络进行识别:
按照步骤7中设置待优化深度置信网络的初始值后,采用交叉验证方法,将步骤5中构造的样本库中的Ktr幅SAR图像数据平均分为W份,记为K1,K2,...,KW,其中将K1作为测试样本集,测试样本集大小为Ktr/W,剩下W-1份作为训练样本集,训练样本集的大小为(Ktr·(W-1))/W;
采用经典的深度置信网络中的训练方法和测试样本集识别方法,进行训练并对测试样本集进行识别,得到一份测试样本集的识别正确率,记为A11;依次将K2,K3,...,KW更替作为测试样本集,并将剩下的W-1份作为训练样本集,得到W份的测试样本集的识别正确率分别记为A11,A12,...,A1W。
在步骤7中参数循环迭代下,重复上述过程,依次对这W份的样本集更替变换测试样本集,并将剩下的W-1份作为训练样本集,并进行训练并对测试样本集进行识别,得到一共steps组,每组W份的测试样本集的识别正确率,记为As1,As2,...,AsW,s=1,2,…,steps;对每一组内的识别正确率求统计平均值,记为取最大值,即为最优化的深度置信网络参数设置,交叉验证的流程详见附图4。
利用最优化后的深度置信网络进行识别,得到最优识别正确率,记为Amax。整个深度置信网络的识别流程详见附图5。
本发明的创新点在于针对传统的二维SAR图像的目标识别需要多角度多模式雷达成像才能获取大量训练样本的问题,提出了一种利用一副或几幅三维SAR图像转化为多幅二维图像的方法;针对识别方法上,本发明提出了融合交叉验证法对深度置信网络进行了改进使之可以自动调节参数,实现参数的自优化的方法。
本发明的优点在于针对识别样本库,三维SAR图像库可以通过采集较少的样本即可获得较好的识别效果,极大地节省了成本,同时采集过程耗时少,可以进行实时的目标识别,具有较好的工程应用前景;针对识别方法,自优化深度置信网络解决了手工式的参数设置方式效率低下、参数设置非最优的问题,并且可以有效的避免过拟合学习和欠拟合学习状态的发生,能准确地学习样本数据的高级特性,使深度置信网络获得更好的识别结果。
附图说明:
图1为深度学习模型图。
图2为受限玻尔兹曼机基本模型。
其中,V={v1,v2,…vi,…vD}为可视层,H={h1,h2,…hj,…hF}为隐含层,两层通过一个权重矩阵W={wij}相连接。
图3为三维BP算法方框图。
其中反映了三维BP成像算法的处理步骤:距离压缩→计算回波延时→距离向数据插值、重采样→剩余相位补偿→单散射点数据相干累加→全场景成像。
图4为交叉验证方法的流程图。
图5为深度置信网络与交叉验证融合的识别算法流程图。
图6为电磁仿真所需的三维SAR系统参数图。
图7为3种模型的在不同发射机照射角下的三维SAR图像。
具体实施方式
本发明主要采用仿真实验的方法进行验证,所有步骤、结论都在Matlab 2013a上验证正确。具体实施步骤如下:
步骤1、选择仿真所需的阵列三维SAR系统参数:
选择阵列三维SAR系统参数,包括:光在空气中传播速度C=3×108m/s;频率采样点数Nr=100;雷达发射的基带信号形式为步进频率信号,信号起始频率f0=1GHz,步进频率增量Δf=20MHz,子脉冲频率fi=f0+i·Δf=1e9+i·20e6(Hz),i为子脉冲序号,i=1,2,3,…,100;雷达发射基带信号的信号带宽B=(Nr-1)Δf=1.98GHz;雷达工作中心频率fc=f0+B/2=1.99GHz;选取41×41均匀布置的阵列天线,阵列长宽为4m×4m,天线间隔取0.1m,接收阵列中心各阵元位置矢量其中n=1,2,...,N,N=1681为线阵天线的阵元总数,nx=-Nx/2,...,Nx/2,Nx=41,ny=-Ny/2,...,Ny/2,Ny=41;成像场景中心以雷达波束照射场区域地平面和垂直于该地平面向上的单位向量所构成的空间直角坐标作为线阵三维SAR的场景目标空间Ω;场景目标空间Ω中点目标的坐标矢量,记做m表示场景目标空间Ω中第m个点目标,m=1,2,…,M,M为场景目标空间Ω中点目标总数,其中和M的值由电磁仿真选择的模型决定。
步骤2、电磁仿真得到目标的表面电磁散射系数:
将附图5中的阵列三维SAR系统参数输入电磁仿真软件FEKO中,采用传统通用的电磁计算仿真方法,得到第m个点目标的表面电磁散射系数矩阵,记为:
其中,Θm是维数为Nr×N=100×1681的矩阵,σmr(i,n)表示实部值,σmi(i,n)表示虚部值,其中i=1,2,…,N,N=100,n=1,2,…,Nr,Nr=1681。散射系数记为σm(i,n)=σmr(i,n)+σmi(i,n)。
步骤3、建立回波信号,导入电磁散射系数并利用三维BP算法成像:
根据步骤1中阵列天线各阵元位置矢量采用公式其中n=1,2,…,N,N=1681,m=1,2,…,M,计算得到在阵列三维SAR场景目标空间Ω中第m个点目标到第n个线阵天线阵元的距离,记为其中||·||2表示向量L2范数,为步骤1中初始化得到场景目标空间Ω中第m个点目标的坐标矢量,M为初始化的场景目标空间Ω中点目标总数。采用公式计算得到阵列三维SAR场景目标空间Ω中第m个点目标到第n个线阵天线阵元的时间延时,记为τ(m,n),其中C为步骤1中初始化得到的光在空气中的传播速度。阵列三维SAR第n个线阵天线阵元的原始回波数据记为s(n),在阵列三维SAR实际观测中,s(n)可由数据接收机得到;若在仿真过程中,s(n)为场景目标空间Ω中所有单元格回波的总数,采用标准的合成孔径雷达原始回波仿真方法及电磁计算仿真方法产生得到,近似表示公式可以表示为∑(·)表示求和运算符号,exp(·)表示e指数运算符号,fi为步骤1初始化得到的步进频率信号的子脉冲频率,σm(i,n)为步骤二通过电磁仿真得到的场景目标空间Ω中第m个点目标的散射系数,j为虚数单位(即-1的开根值),圆周率π=3.14。
步骤4、利用三维BP算法成像:
采用标准的三维BP算法,对步骤3中得到的回波信号s(n)进行后向投影成像处理,得到目标空间Ω的一幅三维SAR图像。
步骤5、构造三维SAR图像仿真样本库:
选择3类不同的电磁仿真模型(来源于步骤2中的电磁仿真软件FEKO),重复步骤1到步骤4可以得到3幅不同模型的三维SAR图像。
采用标准的深度置信网络样本库构造方法,利用上述得到的3幅三维SAR图像,构造总数Ktr=4320的二维SAR图像的样本库,样本库中的二维SAR图像记为Pktr(X,Y),其中ktr=1,2,...,4320,X、Y为图像的像素点坐标。
步骤6、样本图像的预处理:
采用标准的图像预处理方法,对步骤5中得到的样本库以及样本库中的图像进行处理。具体步骤如下:
将第ktr幅样本库中的二维的SAR图像Pktr(X,Y)转换成反色图像,即:
设置阈值thre=0.4,将灰度的反色图像Pktr(X,Y)转换为二值图像其中ktr=1,2,...,4320,即:
即将Pktr(X,Y)中灰度值超过255×0.4的都变为1,灰度值低于255×0.4的都变为0。查找的灰度值为1的像素所包含的横纵坐标的范围,即图像中的目标区域,去除多余的白色区域,得到图像:
其中X'、Y'为去除白色区域后目标图像的像素点坐标。将转换为16×16的图像大小,图像预处理完成。
步骤7、设置待优化深度置信网络参数的初始值:
确定深度置信网络需要进行优化设置的参数,并给出每个参数在迭代过程中的最小值、最大值和迭代的步进大小:
1)第一隐含层:第一隐含层大小的最小值C1min=100,第一隐含层大小的最大值C1max=400,第一隐含层步进大小C1step=50。
2)第二隐藏层:第二隐含层大小的最小值C2min=100,第二隐含层大小的最大值C2max=400,第二隐含层步进大小C2step=50。
3)深度置信网络的学习速率的大小:学习速率最小值αmin=0.005,学习速率最大值αmax=0.1,学习速率步进大小αstep=0.001。
4)深度置信网络的批量训练数据的大小:初始批量学习数据的大小的最小值bmin=10,初始批量学习数据的大小的最大值bmax=360,初始批量学习数据步进bstep=5。
5)深度置信网络的RBM迭代次数:RBM初始迭代次数的最小值rnmin=5,RBM初始迭代次数的最大值rnmax=40,RBM迭代次数步进大小rnstep=5。
所有参数的迭代同步进行,迭代次数记为steps。
步骤8、采用交叉验证方法对参数进行自适应调优,并利用深度置信网络进行识别:
按照步骤7中设置待优化深度置信网络的初始值后,采用交叉验证方法,将步骤5中构造的样本库中的Ktr=4320幅SAR图像数据平均分为W=5份,记为K1,K2,K3,K4,K5,其中将K1作为测试样本集,测试样本集大小为Ktr/W=864;剩下W-1=4份作为训练样本集,训练样本集的大小为(Ktr·(W-1))/W=3456。
采用经典的深度置信网络中的训练方法和测试集识别方法,进行训练并对测试样本集进行识别,得到一份测试样本集的识别正确率,记为A11;依次将K2,K3,K4,K5更替作为测试样本集,并将剩下的W-1=4份作为训练样本集,得到的5份测试样本集的识别正确率分别为A11,A12,A13,A14,A15。
在步骤7中参数循环迭代下,重复上述过程,依次对这5份的样本更替变换测试样本集,并将剩下的4份作为训练样本集,并进行训练并对测试样本集进行识别,得到一共steps组,每组5份的测试样本集的识别正确率为As1,As2,As3,As4,As5,s=1,2,...,steps;对每一组内的识别正确率求统计平均值,记为取最大值,即为最优化的深度置信网络参数设置,交叉验证的流程详见附图4。
利用最优化后的深度置信网络进行识别,得到最优识别正确率为Amax。整个深度置信网络的识别流程详见附图5。
通过本发明具体实施方式可以看出:本发明结合电磁仿真提出了一种构造三维SAR图像的仿真样本库的方法,在采集时间、样本量等方面与传统二维SAR图像的样本库相比有明显优势;并且,针对深度置信网络的参数设置常常依赖于手工式设置,不仅效率低下而且往往无法达到最优的问题,本发明并利用交叉验证方法对深度置信网络进行改进,使之可以自适应地进行参数调优,省去了人工设置参数的繁琐,提高了识别效率。
Claims (1)
1.一种基于深度置信网络的三维SAR图像的目标识别方法,其特征是它包括以下步骤:
步骤1、初始化阵列三维SAR系统参数:
初始化阵列三维SAR系统参数,包括:光在空气中传播速度,记为C;频率采样点数,记为Nr;雷达发射的基带信号形式为步进频率信号,子脉冲频率记为fi=f0+i·Δf,其中f0为信号起始频率,Δf为步进频率增量,i为子脉冲序号,i=1,2,3,…,Nr;雷达发射基带信号的信号带宽,记为B=(Nr-1)Δf;雷达工作中心频率,记为fc=f0+B/2;接收阵列中心,记为阵列阵元总数记为N=Nx·Ny,其中Nx为方位向阵元数,Ny为垂直方位向阵元数;阵元间隔记为d;阵列天线各阵元位置矢量,记做其中n为天线各阵元序号,为自然数,n=1,2,...,N,nx为方位向序列号,nx=-Nx/2,...,Nx/2,ny为垂直方位向序列号,ny=-Ny/2,...,Ny/2;成像场景中心,记为以雷达波束照射场区域地平面和垂直于该地平面向上的单位向量所构成的空间直角坐标作为线阵三维SAR的场景目标空间Ω;场景目标空间Ω中点目标的矢量坐标,记做m表示场景目标空间Ω中第m个点目标,m=1,2,…,M,M为场景目标空间Ω中点目标总数,其中和M的值由电磁仿真选择的模型决定;
步骤2、电磁仿真得到目标的表面电磁散射系数:
将步骤1中初始化的阵列三维SAR系统参数输入电磁仿真软件FEKO中,采用传统通用的电磁计算仿真方法,得到第m个点目标的表面电磁散射系数矩阵,记为:
其中,Θm是维数为Nr×N的矩阵,σmr(i,n)表示实部值,σmi(i,n)表示虚部值,其中i=1,2,…,Nr,n=1,2,…,N;散射系数记为σm(i,n)=σmr(i,n)+σmi(i,n);
步骤3、建立回波信号,导入电磁散射系数并利用三维BP算法成像:
根据步骤1中阵列天线各阵元位置矢量采用公式n=1,2,…,N,m=1,2,…,M,计算得到在阵列三维SAR场景目标空间Ω中第m个点目标到第n个线阵天线阵元的距离,记为其中||·||2表示向量L2范数,为步骤1中初始化得到场景目标空间Ω中第m个点目标的坐标矢量,M为初始化的场景目标空间Ω中点目标总数;采用公式n=1,2,…,N,m=1,2,…,M,计算得到阵列三维SAR场景目标空间Ω中第m个点目标到第n个线阵天线阵元的时间延时,记为τ(m,n),其中C为步骤1中初始化得到的光在空气中的传播速度;阵列三维SAR第n个线阵天线阵元的原始回波数据记为s(n),在阵列三维SAR实际观测中,s(n)可由数据接收机得到;若在仿真过程中,s(n)为场景目标空间Ω中所有单元格回波的总数,采用标准的合成孔径雷达原始回波仿真方法及电磁计算仿真方法产生得到,近似表示公式可以表示为其中∑(·)表示求和运算符号,exp(·)表示e指数运算符号,fi为步骤1初始化得到的步进频率信号的子脉冲频率,σm(i,n)为步骤二通过电磁仿真得到的场景目标空间Ω中第m个点目标的散射系数,j为虚数单位,即-1的开根值,π为圆周率;
步骤4、利用三维BP算法成像:
采用标准的三维BP算法,对步骤3中得到的回波信号s(n)进行后向投影成像处理,得到目标空间Ω的一幅三维SAR图像;
步骤5、构造三维SAR图像仿真样本库:
对于步骤2中的经典电磁仿真软件FEKO中的K类不同的电磁仿真模型,重复步骤1到步骤4可以得到K幅不同模型的三维SAR图像。
采用标准的深度置信网络样本库构造方法,利用上述得到的K幅三维SAR图像,构造总数为Ktr的二维SAR图像的样本库,样本库中的二维SAR图像记为Pktr(X,Y),其中ktr=1,2,...,Ktr,X、Y为图像的像素点坐标。
步骤6、样本图像的预处理:
采用标准的图像预处理方法,对步骤5中得到的样本库以及样本库中的图像进行处理。具体步骤如下:
将第ktr幅训练样本库中的二维的SAR图像Pktr(X,Y)转换成反色图像即:
设置阈值记为thre,将灰度的反色图像Pktr(X,Y)转换为二值图像其中ktr=1,2,…,Ktr,即:
即将Pktr(X,Y)中灰度值超过255·thre的都变为1,灰度值低于255·thre的都变为0。查找的灰度值为1的像素所包含的横纵坐标的范围,即图像中的目标区域,去除多余的白色区域,得到图像:
其中X'、Y'为去除白色区域后目标图像的像素点坐标。将转换为16×16的图像大小,图像预处理完成。
步骤7、设置待优化深度置信网络参数的初始值:
确定深度置信网络需要进行优化设置的参数,并给出每个参数在迭代过程中的最小值、最大值和迭代的步进大小:
1)第一隐含层:第一隐含层大小的最小值记为C1min,第一隐含层大小的最大值记为C1max,第一隐含层步进大小记为C1step。
2)第二隐藏层:第二隐含层大小的最小值记为C2min,第二隐含层大小的最大值记为C2max,第二隐含层步进大小记为C2step。
3)深度置信网络的学习速率的大小:学习速率最小值记为αmin,学习速率最大值记为αmax,学习速率步进大小记为αstep。
4)深度置信网络的批量训练数据的大小:初始批量学习数据的大小的最小值记为bmin,初始批量学习数据的大小的最大值记为bmax,初始批量学习数据步进记为bstep。
5)深度置信网络的RBM迭代次数:RBM初始迭代次数的最小值记为rnmin,RBM初始迭代次数的最大值记为rnmax,RBM迭代次数步进大小记为rnstep。
所有参数的迭代同步进行,迭代次数记为steps。
步骤8、采用交叉验证方法对参数进行自适应调优,并利用深度置信网络进行识别:
按照步骤7中设置待优化深度置信网络的初始值后,采用交叉验证方法,将步骤5中构造的样本库中的Ktr幅SAR图像数据平均分为W份,记为K1,K2,…,KW,其中将K1作为测试样本集,测试样本集大小为Ktr/W,剩下W-1份作为训练样本集,训练样本集的大小为(Ktr·(W-1))/W;
采用经典的深度置信网络中的训练方法和测试样本集识别方法,进行训练并对测试样本集进行识别,得到一份测试样本集的识别正确率,记为A11;依次将K2,K3,…,KW更替作为测试样本集,并将剩下的W-1份作为训练样本集,得到W份的测试样本集的识别正确率分别记为A11,A12,…,A1W。
在步骤7中参数循环迭代下,重复上述过程,依次对这W份的样本集更替变换测试样本集,并将剩下的W-1份作为训练样本集,并进行训练并对测试样本集进行识别,得到一共steps组,每组W份的测试样本集的识别正确率,记为As1,As2,…,AsW,s=1,2,…,steps;对每一组内的识别正确率求统计平均值,记为s=1,2,…,steps,取最大值,即为最优化的深度置信网络参数设置,交叉验证的流程详见附图4。
利用最优化后的深度置信网络进行识别,得到最优识别正确率,记为Amax。整个深度置信网络的识别流程详见附图5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610777874.7A CN106355151B (zh) | 2016-08-30 | 2016-08-30 | 一种基于深度置信网络的三维sar图像目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610777874.7A CN106355151B (zh) | 2016-08-30 | 2016-08-30 | 一种基于深度置信网络的三维sar图像目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106355151A true CN106355151A (zh) | 2017-01-25 |
CN106355151B CN106355151B (zh) | 2019-10-01 |
Family
ID=57856665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610777874.7A Expired - Fee Related CN106355151B (zh) | 2016-08-30 | 2016-08-30 | 一种基于深度置信网络的三维sar图像目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106355151B (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037429A (zh) * | 2017-04-17 | 2017-08-11 | 电子科技大学 | 基于门限梯度追踪算法的线阵sar三维成像方法 |
CN107132516A (zh) * | 2017-05-16 | 2017-09-05 | 电子科技大学 | 一种基于深度置信网络的雷达一维距离像目标识别方法 |
CN107728143A (zh) * | 2017-09-18 | 2018-02-23 | 西安电子科技大学 | 基于一维卷积神经网络的雷达高分辨距离像目标识别方法 |
CN107833180A (zh) * | 2017-10-27 | 2018-03-23 | 北京大学 | 一种利用复数域神经网络快速求解非线性电磁逆散射问题的方法 |
CN107918393A (zh) * | 2017-11-29 | 2018-04-17 | 江汉大学 | 基于深度置信网络的船舶自动舵 |
CN108269302A (zh) * | 2018-01-19 | 2018-07-10 | 浙江大学 | 一种基于简易测量服的三维人体快速重建方法 |
CN108734769A (zh) * | 2017-04-17 | 2018-11-02 | 宏达国际电子股份有限公司 | 三维模型分析方法、电子装置及非暂态电脑可读取媒体 |
CN108875762A (zh) * | 2017-05-16 | 2018-11-23 | 富士通株式会社 | 分类器训练方法、图像识别方法和图像识别设备 |
CN109270525A (zh) * | 2018-12-07 | 2019-01-25 | 电子科技大学 | 基于深度学习的穿墙雷达成像方法及系统 |
CN109507655A (zh) * | 2018-12-11 | 2019-03-22 | 西北工业大学 | 基于导向重构与范数约束dbn的sar目标识别算法 |
CN109655672A (zh) * | 2018-12-11 | 2019-04-19 | 上海无线电设备研究所 | 一种基于人工智能的电磁环境效应分析方法 |
CN109816634A (zh) * | 2018-12-29 | 2019-05-28 | 歌尔股份有限公司 | 检测方法、模型训练方法、装置及设备 |
CN110008811A (zh) * | 2019-01-21 | 2019-07-12 | 北京工业职业技术学院 | 人脸识别系统及方法 |
CN110308430A (zh) * | 2019-06-18 | 2019-10-08 | 中国人民解放军火箭军工程大学 | 一种雷达目标识别效果评价装置 |
CN110555811A (zh) * | 2019-07-02 | 2019-12-10 | 五邑大学 | 一种sar图像数据增强方法、装置及存储介质 |
CN110766084A (zh) * | 2019-10-28 | 2020-02-07 | 北京理工大学 | 基于cae与hl-cnn的小样本sar目标识别方法 |
CN110853127A (zh) * | 2018-08-20 | 2020-02-28 | 浙江宇视科技有限公司 | 图像处理方法、装置及设备 |
CN110879391A (zh) * | 2019-12-02 | 2020-03-13 | 北京航空航天大学 | 基于电磁仿真和弹载回波仿真的雷达图像数据集制作方法 |
CN111582026A (zh) * | 2020-03-31 | 2020-08-25 | 中国科学院声学研究所 | 基于稀疏驱动ale的支持向量机的水下目标检测方法及系统 |
CN111989039A (zh) * | 2018-04-19 | 2020-11-24 | 深透医疗公司 | 使用深度学习改进磁共振成像的系统和方法 |
CN111985349A (zh) * | 2020-07-30 | 2020-11-24 | 河海大学 | 一种雷达接收信号类型分类识别方法及系统 |
CN112285711A (zh) * | 2020-09-28 | 2021-01-29 | 西安航空学院 | 一种基于深度置信网络的三维sar图像目标识别方法 |
CN112837331A (zh) * | 2021-03-08 | 2021-05-25 | 电子科技大学 | 一种基于自适应形态重建模糊三维sar图像目标提取方法 |
CN113762487A (zh) * | 2021-08-17 | 2021-12-07 | 西北大学 | 基于神经架构搜索及dbn网络的脑功能网络生成方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662171A (zh) * | 2012-04-23 | 2012-09-12 | 电子科技大学 | 一种sar层析三维成像方法 |
CN103336278A (zh) * | 2013-05-13 | 2013-10-02 | 西安电子科技大学 | 多视角观测下前视三维sar成像方法 |
CN103793718A (zh) * | 2013-12-11 | 2014-05-14 | 台州学院 | 一种基于深度学习的人脸表情识别方法 |
CN105138975A (zh) * | 2015-08-13 | 2015-12-09 | 济南大学 | 一种基于深度信念网络的人体肤色区域分割方法 |
CN105809198A (zh) * | 2016-03-10 | 2016-07-27 | 西安电子科技大学 | 基于深度置信网络的sar图像目标识别方法 |
-
2016
- 2016-08-30 CN CN201610777874.7A patent/CN106355151B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662171A (zh) * | 2012-04-23 | 2012-09-12 | 电子科技大学 | 一种sar层析三维成像方法 |
CN103336278A (zh) * | 2013-05-13 | 2013-10-02 | 西安电子科技大学 | 多视角观测下前视三维sar成像方法 |
CN103793718A (zh) * | 2013-12-11 | 2014-05-14 | 台州学院 | 一种基于深度学习的人脸表情识别方法 |
CN105138975A (zh) * | 2015-08-13 | 2015-12-09 | 济南大学 | 一种基于深度信念网络的人体肤色区域分割方法 |
CN105809198A (zh) * | 2016-03-10 | 2016-07-27 | 西安电子科技大学 | 基于深度置信网络的sar图像目标识别方法 |
Non-Patent Citations (3)
Title |
---|
BIAO HOU 等: "Polarimetric SAR images classification using deep belief networks with learning features", 《2015 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM (IGARSS)》 * |
丁军 等: "相似性约束的深度置信网络在SAR图像目标识别的应用", 《电子与信息学报》 * |
史鹤欢 等: "基于深度置信网络的目标识别方法", 《计算机应用》 * |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037429A (zh) * | 2017-04-17 | 2017-08-11 | 电子科技大学 | 基于门限梯度追踪算法的线阵sar三维成像方法 |
CN107037429B (zh) * | 2017-04-17 | 2020-06-16 | 电子科技大学 | 基于门限梯度追踪算法的线阵sar三维成像方法 |
CN108734769A (zh) * | 2017-04-17 | 2018-11-02 | 宏达国际电子股份有限公司 | 三维模型分析方法、电子装置及非暂态电脑可读取媒体 |
CN107132516B (zh) * | 2017-05-16 | 2019-04-12 | 电子科技大学 | 一种基于深度置信网络的雷达一维距离像目标识别方法 |
CN108875762A (zh) * | 2017-05-16 | 2018-11-23 | 富士通株式会社 | 分类器训练方法、图像识别方法和图像识别设备 |
CN107132516A (zh) * | 2017-05-16 | 2017-09-05 | 电子科技大学 | 一种基于深度置信网络的雷达一维距离像目标识别方法 |
CN108875762B (zh) * | 2017-05-16 | 2022-03-15 | 富士通株式会社 | 分类器训练方法、图像识别方法和图像识别设备 |
CN107728143A (zh) * | 2017-09-18 | 2018-02-23 | 西安电子科技大学 | 基于一维卷积神经网络的雷达高分辨距离像目标识别方法 |
CN107833180A (zh) * | 2017-10-27 | 2018-03-23 | 北京大学 | 一种利用复数域神经网络快速求解非线性电磁逆散射问题的方法 |
CN107918393A (zh) * | 2017-11-29 | 2018-04-17 | 江汉大学 | 基于深度置信网络的船舶自动舵 |
CN107918393B (zh) * | 2017-11-29 | 2019-10-18 | 江汉大学 | 基于深度置信网络的船舶自动舵 |
CN108269302A (zh) * | 2018-01-19 | 2018-07-10 | 浙江大学 | 一种基于简易测量服的三维人体快速重建方法 |
CN111989039A (zh) * | 2018-04-19 | 2020-11-24 | 深透医疗公司 | 使用深度学习改进磁共振成像的系统和方法 |
CN110853127A (zh) * | 2018-08-20 | 2020-02-28 | 浙江宇视科技有限公司 | 图像处理方法、装置及设备 |
CN109270525A (zh) * | 2018-12-07 | 2019-01-25 | 电子科技大学 | 基于深度学习的穿墙雷达成像方法及系统 |
CN109507655A (zh) * | 2018-12-11 | 2019-03-22 | 西北工业大学 | 基于导向重构与范数约束dbn的sar目标识别算法 |
CN109655672A (zh) * | 2018-12-11 | 2019-04-19 | 上海无线电设备研究所 | 一种基于人工智能的电磁环境效应分析方法 |
CN109507655B (zh) * | 2018-12-11 | 2022-09-02 | 西北工业大学 | 基于导向重构与范数约束dbn的sar目标识别算法 |
CN109655672B (zh) * | 2018-12-11 | 2021-01-22 | 上海无线电设备研究所 | 一种基于人工智能的电磁环境效应分析方法 |
CN109816634B (zh) * | 2018-12-29 | 2023-07-11 | 歌尔股份有限公司 | 检测方法、模型训练方法、装置及设备 |
CN109816634A (zh) * | 2018-12-29 | 2019-05-28 | 歌尔股份有限公司 | 检测方法、模型训练方法、装置及设备 |
CN110008811A (zh) * | 2019-01-21 | 2019-07-12 | 北京工业职业技术学院 | 人脸识别系统及方法 |
CN110308430A (zh) * | 2019-06-18 | 2019-10-08 | 中国人民解放军火箭军工程大学 | 一种雷达目标识别效果评价装置 |
CN110308430B (zh) * | 2019-06-18 | 2020-07-21 | 中国人民解放军火箭军工程大学 | 一种雷达目标识别效果评价装置 |
CN110555811A (zh) * | 2019-07-02 | 2019-12-10 | 五邑大学 | 一种sar图像数据增强方法、装置及存储介质 |
WO2021000902A1 (zh) * | 2019-07-02 | 2021-01-07 | 五邑大学 | 一种sar图像数据增强方法、装置及存储介质 |
US11428803B2 (en) * | 2019-07-02 | 2022-08-30 | Wuyi University | Method and apparatus for SAR image data enhancement, and storage medium |
CN110766084A (zh) * | 2019-10-28 | 2020-02-07 | 北京理工大学 | 基于cae与hl-cnn的小样本sar目标识别方法 |
CN110766084B (zh) * | 2019-10-28 | 2021-06-15 | 北京理工大学 | 基于cae与hl-cnn的小样本sar目标识别方法 |
CN110879391A (zh) * | 2019-12-02 | 2020-03-13 | 北京航空航天大学 | 基于电磁仿真和弹载回波仿真的雷达图像数据集制作方法 |
CN111582026B (zh) * | 2020-03-31 | 2023-05-23 | 中国科学院声学研究所 | 基于稀疏驱动ale的支持向量机的水下目标检测方法及系统 |
CN111582026A (zh) * | 2020-03-31 | 2020-08-25 | 中国科学院声学研究所 | 基于稀疏驱动ale的支持向量机的水下目标检测方法及系统 |
CN111985349A (zh) * | 2020-07-30 | 2020-11-24 | 河海大学 | 一种雷达接收信号类型分类识别方法及系统 |
CN111985349B (zh) * | 2020-07-30 | 2024-04-05 | 河海大学 | 一种雷达接收信号类型分类识别方法及系统 |
CN112285711A (zh) * | 2020-09-28 | 2021-01-29 | 西安航空学院 | 一种基于深度置信网络的三维sar图像目标识别方法 |
CN112837331A (zh) * | 2021-03-08 | 2021-05-25 | 电子科技大学 | 一种基于自适应形态重建模糊三维sar图像目标提取方法 |
CN113762487A (zh) * | 2021-08-17 | 2021-12-07 | 西北大学 | 基于神经架构搜索及dbn网络的脑功能网络生成方法及系统 |
CN113762487B (zh) * | 2021-08-17 | 2023-11-10 | 西北大学 | 基于神经架构搜索及dbn网络的脑功能网络生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106355151B (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106355151A (zh) | 一种基于深度置信网络的三维sar图像目标识别方法 | |
CN108038445B (zh) | 一种基于多视角深度学习框架的sar自动目标识别方法 | |
CN111160176B (zh) | 基于融合特征的一维卷积神经网络地面雷达目标分类方法 | |
CN100370486C (zh) | 基于嵌入式隐马尔可夫模型与交叉熵的台风中心定位方法 | |
CN104459668B (zh) | 基于深度学习网络的雷达目标识别方法 | |
CN102800093B (zh) | 基于分解的多目标遥感图像分割方法 | |
CN100383805C (zh) | 星载微波和红外遥感融合对城区地物特征进行分类的方法 | |
CN113281048B (zh) | 一种基于关系型知识蒸馏的滚动轴承故障诊断方法和系统 | |
CN108564115A (zh) | 基于全卷积gan的半监督极化sar地物分类方法 | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN107491734B (zh) | 基于多核融合与空间Wishart LapSVM的半监督极化SAR图像分类方法 | |
CN107403434B (zh) | 基于两阶段聚类的sar图像语义分割方法 | |
CN112001270A (zh) | 基于一维卷积神经网络的地面雷达自动目标分类识别方法 | |
CN113780242A (zh) | 一种基于模型迁移学习的跨场景水声目标分类方法 | |
CN116206185A (zh) | 一种基于改进YOLOv7的轻量级小目标检测方法 | |
CN110555841A (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
CN103077408B (zh) | 基于小波神经网络的海底声纳图像转换为声学底质类别方法 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
CN114913434B (zh) | 一种基于全局关系推理的高分辨率遥感影像变化检测方法 | |
CN114926693A (zh) | 基于加权距离的sar图像小样本识别方法及装置 | |
CN110969212A (zh) | 基于空间变换三通道卷积的isar图像分类方法 | |
Yu et al. | Application of a convolutional autoencoder to half space radar hrrp recognition | |
CN109871907B (zh) | 基于sae-hmm模型的雷达目标高分辨率距离像识别方法 | |
CN114973019A (zh) | 一种基于深度学习的地理空间信息变化检测分类方法及系统 | |
CN118097261A (zh) | 基于挤压激励的小样本图像分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191001 |
|
CF01 | Termination of patent right due to non-payment of annual fee |