CN107423705A - 基于多层概率统计模型的sar图像目标识别方法 - Google Patents

基于多层概率统计模型的sar图像目标识别方法 Download PDF

Info

Publication number
CN107423705A
CN107423705A CN201710602697.3A CN201710602697A CN107423705A CN 107423705 A CN107423705 A CN 107423705A CN 201710602697 A CN201710602697 A CN 201710602697A CN 107423705 A CN107423705 A CN 107423705A
Authority
CN
China
Prior art keywords
mrow
layer
msubsup
msup
msub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710602697.3A
Other languages
English (en)
Inventor
陈渤
张梦娇
郭丹丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201710602697.3A priority Critical patent/CN107423705A/zh
Publication of CN107423705A publication Critical patent/CN107423705A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Secondary Cells (AREA)

Abstract

本发明公开了一种基于多层概率统计模型的SAR图像目标识别方法,解决现有方法在输入SAR图像数据具有非负性时,只能提取SAR图像单层非负特征的问题。实现步骤是:构建多层概率统计模型的训练集和测试集;初始多层概率统计模型参数;用联合学习的方式训练多层概率统计模型,并保存全局变量;用联合学习的方式测试多层概率统计模型,得到模型所有参数用于后续识别;利用测试得到的参数对SAR图像进行目标识别。本发明基于多层概率统计模型,采用联合学习方式对模型进行训练和测试,提取SAR图像特征和目标识别,本发明减少了模型参数复杂度,提取到SAR图像的多层非负特征,提高了SAR图像目标识别性能和稳定性,用于对SAR图像进行目标识别。

Description

基于多层概率统计模型的SAR图像目标识别方法
技术领域
本发明属于SAR图像目标识别技术领域,特别涉及SAR图像特征提取,具体是一种基于多层概率统计模型的SAR图像目标识别方法,可用于SAR图像特征提取和SAR图像目标识别。
背景技术
SAR图像目标识别具有重要的军事价值和商业价值,一直是国内外研究的热点。虽然近几年目标识别领域已经得到了极大发展,但是准确快速地完成SAR图像目标识别仍然是一项充满挑战的任务。特征提取是SAR图像目标识别中十分关键的一步,提取到特征的好坏直接影响SAR图像目标的识别性能,因此有必要对SAR图像进行有意义的特征提取,提高SAR图像目标识别性能。
现在已经有了许多针对SAR图像的特征提取方法,例如PCA(Principal ComponentAnalysis),KPCA(Kernel Principal Component Analysis),ICA(Independent ComponentAnalysis)等均可对SAR图像进行特征提取。上述提取SAR图像特征的方法很大程度上改善了SAR图像目标识别性能,但这些方法存在一个共同特点:当输入的数据具有非负性时,得到的全局变量与隐变量仍然存在负值,而SAR图像数据中不存在负的像素点,因此上述方法提取得到的特征并不能得到很好的物理解释。非负矩阵分解(Non-negative MatrixFactorization,NMF)方法将输入矩阵近似分解为字典与隐变量的非负加权组合形式,该方法可提取到SAR图像内部的非负特征,增加SAR图像目标识别性能。
虽然NMF方法可以对SAR图像进行有效特征提取,但是其作为单层特征提取方法,挖掘的信息其结构较为简单,为了提取更为丰富的数据结构特征,在深度学习的启发下,国外学者提出了泊松伽马置信网络(Poisson Gamma Belief Network,PGBN)模型。PGBN模型属于深层概率生成网络,在第一层通过泊松分布将数据表示为字典与隐变量非负加权组合的形式,然后将底层隐变量经过伽马分布的形状参数分解为高层隐变量与高层字典的乘积,使其高层字典具有更为丰富的结构信息。与传统深层网络如深度置信网络(DeepBelief Network,DBN)相比:在建模方式上,DBN模型对隐变量采用二值数据建模,而PGBN模型对隐变量采用伽马分布建模,伽马分布的存在增强了网络的非线性,提高了模型的表征能力;在参数的训练方法上,DBN模型采用贪婪逐层堆叠策略训练网络参数,而PGBN模型利用吉布斯采样的方式对各层参数联合训练,减少了对参数的调节并提高了训练效率。目前对SAR图像的特征提取和目标识别方法中,没有涉及基于多层概率统计模型的非负特征提取方法;同时PGBN模型常用于文本的分类和主题提取,而且PGBN模型是一种无监督的多层概率统计模型,训练中没有利用到类别信息,因此需要大量的样本才能得到较为可靠的结果,在样本数量较少的情况下,往往无法得到理想的效果。
发明内容
本发明针对上述现有SAR图像特征提取技术的不足,提出一种更高识别率和稳定性的基于多层概率统计模型的SAR图像目标识别方法。
本发明是一种基于多层概率统计模型的SAR图像目标识别方法,其特征在于,包括有如下步骤:
(1)构建多层概率统计模型的训练集和测试集:输入待识别的SAR图像,对待识别的SAR图像进行预处理,将原始图像P×P从中心区域切割,得到大小为P'×P'的图像,并对所得图像进行能量归一化,将全部的SAR图像数据样本分为训练集和测试集,并根据已知训练样本监督信息将训练数据按自身分类;
(2)初始多层概率统计模型参数:分别对模型全局参数,隐变量参数,以及各先验分布的超参数进行初始化,包括有Φ(l,C)(l,C),rC0 C,c0 C(l,C),p(2,C),c(3,C),a0 C,e0 C,b0 C,f0 C,Kl C,其中C表示第C类训练样本对应类别,l表示网络的第l层,Φ(l,C)是第C类训练样本第l层全局参数矩阵,η(l,C)是Φ(l,C)先验分布的第一参数,θ(l,C)是第C类训练样本第l层隐变量参数矩阵,c(3,C)是θ(2,C)先验分布的第二参数向量,p(2,C)是θ(1,C)先验分布的第二参数向量,rC是第C类训练样本的顶层全局参数向量,γ0 C是rC先验分布的第一参数,c0 C是rC先验分布的第二参数,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数,e0 C是c0 C先验分布的第一参数,f0 C是c0 C先验分布的第二参数,Kl是各类训练样本第l层的隐变量维度值,初始化完成后,初步形成多层概率统计模型;
(3)训练多层概率统计模型:输入有标签的SAR图像训练数据,采用联合学习的方式训练初始化之后的多层概率统计模型;得到全局变量并保存;
(4)测试多层概率统计模型:将训练过程得到的全局变量作为多层概率统计模型的初始值,输入类别待定的SAR图像测试数据后,采用联合学习的方式,测试多层概率统计模型,得到测试过程中多层概率统计模型所有的参数,测试完成得到测试后的多层概率统计模型;
(5)SAR图像目标识别:利用测试后的多层概率统计模型提取SAR图像的特征,并对SAR图像进行分类;
(5a)分别计算各类测试后的多层概率统计模型中测试数据对应的似然值;根据朴素贝叶斯分类准则,比较每一个测试样本对应各类测试后的多层概率统计模型中的似然值,将似然值最大的多层概率统计模型其类别作为测试样本的预测类别,并输出每一个SAR图像预测类别标签;
(5b)将输出的每一个SAR图像预测类别标签与所对应的测试集的正确类别相对比,正确标签的个数在所有测试样本的总个数中所占比例即为得到针对SAR图像目标的识别率。
本发明提出使用PGBN模型对SAR图像进行特征提取和目标识别,同时基于PGBN这一模型,提出一种基于朴素贝叶斯准则的有监督的特征提取和识别方法,充分利用了类别的信息,有利于提高识别的性能;并且本发明可以对数据的训练进行并行处理,因此处理速度更快。
与现有方法相比,本发明具有以下优点:
1)本发明基于多层概率统计模型对SAR图像进行训练,获得多层字典矩阵,提取到SAR图像的多层非负结构特征,克服了现有技术中只能提取SAR图像单层非负特征的问题。该方法所提取的多层结构信息对SAR图像具有良好表征能力,使得SAR图像目标识别性能高于其他相关模型。
2)本发明在对多层概率统计模型训练时,使用上行下行吉布斯采样方法对网络各层进行联合学习,不同于现有深层模型在训练网络时采用逐层堆叠的训练策略,该联合训练方法使得网络在训练时各层参数之间互相影响,减少网络参数复杂度,提高多层概率统计模型目标识别性能和稳定性。
附图说明
图1是本发明的实现流程图;
图2是本发明训练过程的流程示意图;
图3是本发明测试过程的流程示意图;
图4是本发明模型为三层时各层字典与其使用频率散点图;
图5是本发明模型为三层时各层字典之间的关系示例图;
图6是采用本发明为三层模型时测试的SAR图像各类目标各层字典。
具体实施方式
下面结合附图对本发明做详细描述。
实施例1
现有一些针对SAR图像特征提取的方法的共同点是当输入的数据具有非负性时,得到的全局变量与隐变量仍然存在负值,而SAR图像数据中像素点均为正值,因此这些方法提取得到的特征并不能得到很好的物理解释。
另外现有的一种将输入矩阵近似分解为字典与隐变量的非负加权组合的方法可提取到SAR图像内部的非负特征,增加SAR图像目标识别性能,但是一种单层特征提取方法,挖掘的信息其结构较为简单。
传统深层网络如深度置信网络(Deep Belief Network,DBN)在建模方式上,对隐变量采用二值数据建模,对其他形式的数据建模能力有限,在参数的训练方法上,采用贪婪逐层堆叠策略训练网络参数,模型训练效率不高。
针对上述问题,本发明经过研究与探索提出一种基于多层概率统计模型的SAR图像目标识别方法,参见图1,包括有如下步骤:
(1)构建多层概率统计模型的训练集和测试集:输入待识别的SAR图像,对待识别的SAR图像进行预处理,采用自身具有类别的SAR图像MSTAR公共数据集,为了减小计算和存储复杂度,将原始图像P×P从中心区域切割,得到大小为P'×P'的图像,并对所得图像进行能量归一化,将全部的SAR图像数据样本分为训练集和测试集,并根据已知训练样本监督信息将训练数据按自身分类;训练集中的数据样本为训练数据,测试集中的数据样本为测试数据。本发明首先对SAR图像进行预处理,将原始大小为128×128的SAR图像,切割为大小是64×64的图像,对于与本发明中所用验证数据集样本大小不同的SAR图像数据,可以根据所用SAR图像中目标所在中心区域的大小,调整切割区域,使切割区域能够包括整个目标,对切割后的图像,再用本发明实现SAR图像的特征提取和目标识别。
(2)初始化泊松伽玛置信网络参数:分别对网络全局参数也就是字典,隐变量参数,以及各先验分布的超参数进行初始化,诸如Φ(l,C)(l,C),rC0 C,c0 C(l,C),p(2,C),c(3 ,C),a0 C,e0 C,b0 C,f0 C,Kl C,其中C表示第C类训练样本对应类别,l表示网络的第l层,Φ(l,C)是第C类训练样本第l层全局参数矩阵,η(l,C)是Φ(l,C)先验分布的第一参数,θ(l,C)是第C类训练样本第l层隐变量参数矩阵,c(3,C)是θ(2,C)先验分布的第二参数向量,p(2,C)是θ(1,C)先验分布的第二参数向量,rC是第C类训练样本的顶层全局参数向量,γ0 C是rC先验分布的第一参数,c0 C是rC先验分布的第二参数,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数,e0 C是c0 C先验分布的第一参数,f0 C是c0 C先验分布的第二参数,Kl是各类训练样本第l层的隐变量维度值,初始化完成后,初步形成多层概率统计模型。
在本发明中,只有通过训练和测试过程对网络的变量和参数进行更新,才能得到最终的多层概率统计模型。
(3)训练多层概率统计模型:输入有标签的SAR图像训练数据,采用联合学习的方式训练初始化之后的多层概率统计模型;得到全局变量并保存在商用软件MATLAB工作空间,得到训练之后的多层概率统计模型,即PGBN模型,全局变量用于后续测试过程中作为多层概率统计模型的初始值。
(4)测试多层概率统计模型:输入类别待定的SAR图像测试数据后,将训练过程得到的全局变量作为多层概率统计模型的初始值,采用联合学习的方式,测试多层概率统计模型,更新测试过程中多层概率统计模型所有的参数,测试完成得到测试后的多层概率统计模型和隐变量参数。
(5)SAR图像目标识别:利用测试后的多层概率统计模型提取SAR图像的特征,并对SAR图像进行分类。
(5a)分别计算各类测试后的多层概率统计模型中测试数据对应的似然值;根据朴素贝叶斯分类准则,比较每一个测试样本对应各类测试后的多层概率统计模型中的似然值,将似然值最大的多层概率统计模型其类别作为测试样本的预测类别,并输出每一个SAR图像预测类别标签。
(5b)将输出的每一个SAR图像预测类别标签与所对应的测试集的正确类别相对比,正确标签的个数在所有测试样本的总个数中所占比例即为得到针对SAR图像目标的识别率。
本发明基于多层概率统计模型对SAR图像进行特征提取和目标识别,获得多层字典矩阵,提取到SAR图像的多层非负结构特征,克服了现有技术中只能提取SAR图像单层非负特征的问题。本发明提取的多层结构信息对SAR图像具有良好表征能力,使得SAR图像目标识别性能高于其他相关模型。
实施例2
基于多层概率统计模型的SAR图像目标识别方法同实施例1,步骤(2)中对泊松伽玛置信网络参数也就是对多层概率统计模型的参数进行初始化,初始化的变量有模型的全局参数,隐变量参数,以及各先验分布的超参数,诸如Φ(l,C)(l,C),rC0 C,c0 C(l,C),p(2 ,C),c(3,C),a0 C,e0 C,b0 C,f0 C,Kl C,超参数a0 C,b0 C,e0 C,f0 C不用更新,其余参数在模型训练和测试的过程中需要进行更新,本例中针对全局变量Φ(l,C)和隐变量θ(l,C)的初始化包括如下步骤:
对第C类目标的第l层全局变量初始化按照下式进行:
φa (l,C)~Dir(η(l,C),....,η(l,C)),
其中,φa (l,C)表示第C类目标的第l层全局变量矩阵的第a列,a=1,...,Kl,Kl是第l层隐层维度值,l=0时,K0是样本维度值,l=1时,K1=1000,l=2时,K2=500,l=3时,K3=200,Dir表示狄里克雷分布,~表示等价关系,η(l,C)是Φ(l,C)先验分布的参数;φa (l,C)服从狄利克雷函数分布。
对第C类目标的第三层隐变量第二层隐变量和第一层隐变量初始化按照下式进行:
其中,J表示样本数,表示第C类目标的第1层的第r个隐变量,表示第C类目标第2层的第p个隐变量,表示第C类目标第3层的第q个隐变量,先验分布的第二参数,先验分布的第二参数,先验分布的第二参数,~表示等价关系。
本发明考虑到伽玛分布具有很强的非线性,深度模型具有强大表征能力,将每一次的隐变量先验分布设置为伽玛分布,并且将每一层隐单元所服从伽玛分布的形状参数表示为下一层的全局变量和隐变量的乘积,形成多层概率统计模型;同时考虑到狄利克雷分布的共轭特性,为了便于推理,将全局变量的先验分布设置为狄利克雷分布。
实施例3
基于多层概率统计模型的SAR图像目标识别方法同实施例1-2,步骤3中的训练多层概率统计模型,参见图2,具体包括如下步骤:
(3a)输入各类训练样本,并设置网络层数,输入层和各隐层的维度,各类训练样本迭代次数M1
(3b)在上行吉布斯采样的过程中计算各层增广矩阵、层内增广矩阵和层间增广矩阵:采用朴素贝叶斯准则对每类训练数据分别独立训练多层概率统计模型,在各类多层概率统计模型的每次迭代中,从底层开始,由下层往上层逐层训练,并在每一层训练中计算出多层概率统计模型各层的增广矩阵、层内增广矩阵和层间增广矩阵,也就是联合学习中的上行吉布斯采样的过程。
参见图2第二列,首先输入训练数据,计算第一层的增广矩阵、层内增广矩阵和层间增广矩阵,然后利用第一层的计算结果,再计算第二层的增广矩阵、层内增广矩阵和层间增广矩阵,接着再利用第二层的计算结果,计算第三层的增广矩阵、层内增广矩阵和层间增广矩阵,依次计算到顶层。
由于吉布斯采样的推理需要满足分布的共轭特性,而计算各个增广矩阵能够将不共轭的伽玛分布转化成其他形式的共轭分布,使推理过程更方便。
(3c)在下行吉布斯采样的过程中更新网络的其他参数:计算完各层增广矩阵、层内增广矩阵、层间增广矩阵之后,从最顶层开始,由上层往下层逐层更新网络的其他参数,也就是联合学习中的下行吉布斯采样的过程。
参见图2第三列,首先从顶层开始,设顶层为T,更新模型顶层的其他参数,利用模型顶层的参数,更新模型T-1层的其他参数,然后逐层往下到第t层,更新第t层的其他参数,直至更新到模型的第一层。
(3d)利用增广矩阵由底层向顶层更新多层概率统计模型全局参数,同样也是联合学习中的上行吉布斯采样的过程。
参见图2第一列,首先同样从底层开始,输入训练数据后,更新模型第一层的全局参数,然后更新模型第二层的全局参数,直至进行到模型顶层。
从步骤(3b)到(3d)完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习。
(3e)判断迭代是否完成:完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习,然后判断多层概率统计模型的迭代次数是否达到预先设定值M1,如果达到,则结束多层概率统计模型训练过程,并将训练好的各类全局参数分别保存到商用软件MATLAB工作空间;否则,返回到步骤(3b),继续多层概率统计模型的训练过程,直至达到设定的迭代次数M1
本发明在多层概率统计模型PGBN的强大表征能力的基础上,结合上下各层联合联合学习方式使得采用该模型对SAR图像进行高效多层特征提取具有可行性。同时PGBN模型常用于文本的分类和主题提取,而在SAR图像的特征提取和目标识别领域是一种新的尝试,本发明中基于PGBN模型并利用监督信息提出一种识别和稳定性更高多层概率统计模型对SAR图像进行特征提取和识别方法。
实施例4
基于多层概率统计模型的SAR图像目标识别方法同实施例1-3,步骤(3b)在多层概率统计模型的每一次训练迭代中,对每一类数据,从底层开始,由下层往上层逐层训练,并在每一层的训练中计算增广矩阵、层内增广矩阵、层间增广矩阵,直到所有层训练完成,也就是上行吉布斯采样过程,具体包括有如下步骤:
(3b1)在每一层的训练过程中,通过下式得到增广矩阵中的向量:
其中,是第C类第l层的三维增广矩阵S(l,C)的第w行第g列位置上的向量,l表示第l层,l=1,2,3,C表示第C类,w=1,2,...,Kl-1,Kl-1表示第l-1层隐层的维度值;g=1,2,...J,J表示样本个数,g表示输入数据的第g个样本,h=1,2,...,Kl;Mult表示多项式分布,表示x(l,C)的第w行第g列位置上的元素,φwh (l,C)表示Φ(l,C)矩阵的第w行第h列位置上的元素,φw (l,C)表示Φ(l,C)矩阵的第w行行向量,θhg (l,C)表示θ(l,C)的第h行第g列位置上的元素,~表示等价关系。
(3b2)在每一层的训练过程中,通过下式得到层内增广矩阵:
其中,表示第C类的第l层与第l+1层之间二维层内增广矩阵m(l,C)(l+1,C)的第k行第j列位置上的元素,Kl-1表示第l-1层隐层维度值,v表示三维矩阵的第一维的第v个元素,v=1,...,Kl-1;j=1,...,J,l=1,2,3。
(3b3)在每一层的训练过程中,通过下式得到层间增广矩阵:
其中,表示第C类的第l层与第l+1层之间的二维层间增广矩阵x(l+1,C)的第F行第G列元素,~表示等价关系,F=1,...,Kl;G=1,...,J,l=1,2,CRT表示中国餐馆过程中的最大餐桌分布,φF (l+1,C)表示Φ(l+1,C)矩阵的第F行向量,θG (l+1,C)表示θ(l+1,C)的第G列向量。
(3b4)在顶层的训练过程中,通过下式得到顶层的层间增广矩阵:
其中,表示第C类顶层的二维层间增广矩阵x(l+1,C)的第F行第G列元素,~表示等价关系,表示顶层共享全局参数rC的第G个元素,F=1,...,Kl;G=1,...,J,l=3,CRT表示中国餐馆过程中的最大餐桌分布。
在本发明中,在每一层的训练中计算增广矩阵、层内增广矩阵、层间增广矩阵使得不共轭的分布转化为共轭分布,进而对模型的全局参数,隐变量参数以及其他参数不断进行更新,得到最终的隐变量参数和全局参数,用于SAR图像数据的特征提取和目标识别。
实施例5
基于多层概率统计模型的SAR图像目标识别方法同实施例1-4,步骤(3c)从最顶层开始,由上层往下层逐层更新网络的其他参数,也就是下行吉布斯采样过程,具体包括如下步骤:
(3c1)通过下式得到更新后的顶层共享全局参数所服从分布的第二参数
其中,Y=1,...,K3,~表示等价关系,C代表类别,表示顶层共享全局参数rC的第Y个元素,是rC先验分布的第一参数,e0 C是c0 C先验分布的第一参数,f0 C是c0 C先验分布的第二参数。
(3c2)通过下式得到更新后的顶层共享全局参数所服从分布的第一参数
其中,~表示等价关系, 表示p(4,C)的第R个元素,W=1,...,K3;R=1,...,J,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数,xWR (4,C)表示第C类的第3层与第4层之间的二维层间增广矩阵x(4,C)的第W行第R列元素。
(3c3)通过下式得到更新后的隐变量参数矩阵所服从分布的第二参数向量
其中,U=1,...,J,~表示等价关系,表示第C类第1层与第2层之间二维层内增广矩阵m(1,C)(2,C)的第U列元素和,第C类训练样本第2层隐变量参数矩阵第U列元素和。
(3c4)通过下式得到顶层更新后的隐变量参数矩阵所服从分布的第二参数向量
其中,~表示等价关系,I=1,...,J,rC表示顶层共享全局参数,表示第C类训练样本第3层隐变量参数矩阵第I列元素的和。
(3c5)通过下式得到更新后的l层隐变量参数矩阵所服从分布的第二参数向量
其中,U=1,...,J,l=2,3,~表示等价关系,cU (l+1,C)表示第C类第l层隐变量参数矩阵先验分布的第二参数向量的第U个元素,pU (l+1,C)表示p(l+1,C)的第U个元素。
(3c6)通过下式得到第二层更新后的隐变量参数矩阵所服从分布的第二参数向量
其中,~表示等价关系,I=1,...,J;l=2,表示第C类训练样本第2层隐变量参数矩阵第I列元素的和,表示第C类训练样本第3层隐变量参数矩阵第I列元素和。
(3c7)通过下式得到第一层更新后的隐变量参数矩阵所服从分布的第二参数向量
cI (l+1,C)=(1-pI (l+1,C))/pI (l+1,C)
其中,~表示等价关系,I=1,...,J,l=1,pI (l+1,C)表示第C类第l层隐变量参数矩阵所服从分布的第二参数向量。
(3c8)通过下式得到更新后的隐变量
其中,~表示等价关系,V=1,...,J,l表示第l层,C表示第C类,Φ(l+1,C)表示第l+1层全局变量,表示第l+1层的隐变量的第V列,由(3b3)得到,表示第C类第l层隐变量参数矩阵先验分布的第二参数向量,l=1,2,3,当l=3时,
实施例6
基于多层概率统计模型的SAR图像目标识别方法同实施例1-5,步骤(3d)中对多层概率统计模型的全局参数进行更新,具体包括如下步骤:
(3d1)通过下式得到更新后的第C类第l层全局变量矩阵Φ(l,C)第a列的所有元素φa (l,C)
其中,
分别对应(3a)第一步采样结果中的元素,Kl-1表示第l-1层隐层的维度值,l=1,2,3~表示等价关系,Dir表示狄利克雷分布,η(l.C)表示的是Φ(l,C)先验狄利克雷分布的参数。
(3d2)通过下式得到更新后的第C类顶层的全局参数
其中,表示顶层更新后的第C类样本参数的第k个元素,~表示等价关系符号,Gam表示伽玛分布,l表示顶层所在层数,l=3,Kl表示网络顶层的维度值, 由(3a4)得到,ln表示对数符号,pR (l+1,C)表示第C类样本第l+1层隐变量参数矩阵先验分布的第二参数向量。
本发明中计算完模型每一层的增广矩阵,层内增广矩阵和层间增广矩阵,然后用以更新网络的隐变量等其他参数以及模型的全局变量,通过不断地迭代,得到最终用以SAR图像特征提取和目标识别的隐变量和全局参数。
实施例7
基于多层概率统计模型的SAR图像目标识别方法同实施例1-6,步骤(4)中测试多层概率统计模型,参见图3,具体包括有如下步骤:
(4a)将测试集中的测试数据分别作为上述所得每类多层概率统计模型的输入数据,并设置测试训练循环次数M2
(4b)训练完成后,得到的全局变量在测试过程中保持不变,因此将上述每类训练样本经过训练后保存下来的每类全局参数分别作为测试集的全局变量。
(4c)在测试的每一次迭代中,从底层开始,由下层往上层,逐层计算出多层概率统计模型每一层中的增广矩阵、层内增广矩阵和层间增广矩阵,也就是联合学习中的下行吉布斯采样的过程。
(4d)在更新完顶层之后,由顶层向底层逐层更新多层概率统计模型的其他参数,也就是联合学习中的下行吉布斯采样的过程。
(4e)完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习,判断测试训练迭代次数是否达到预设的M2次,如果是,则测试阶段完成,保存测试时得到的所有参数用于后续SAR图像目标识别;否则,保存该次测试更新后的参数并作为下次测试的初始值,返回到步骤(4c),继续测试过程。
实施例8
基于多层概率统计模型的SAR图像目标识别方法同实施例1-7,参见图3和图4,步骤(4c)中计算多层概率统计模型的增广矩阵、层内增广矩阵和层间增广矩阵,与步骤(3b)相同,具体是在各类多层概率统计模型的每次迭代中,从底层开始,由下层往上层逐层训练,并在每一层训练中计算出多层概率统计模型各层的增广矩阵、层内增广矩阵和层间增广矩阵;步骤(4d)中更新多层概率统计模型的其他参数与步骤(3c)相同,具体是计算完各层增广矩阵、层内增广矩阵、层间增广矩阵之后,从最顶层开始,由上层往下层逐层更新多层概率统计模型的其他参数。
下面给出一个更加详细的例子,对本发明进一步说明:
实施例9
基于多层概率统计模型的SAR图像目标识别方法同实施例1-8,参见图1,针对SAR图像的目标识别过程包括有:
步骤1,构建多层概率统计模型的训练集和测试集。
采用3类MSTAR目标数据集进行验证,原本图像大小为128×128,为了减少计算量,首先对所有图像从中心区域进行切割,得到64×64的目标图像,然后将SAR图像数据离散化变为非负整数型数据,最后对每个图像样本列向量化,即将每一个图像样本变为4096×1的列向量。将MSTAR数据3类目标数据经过上述预处理并分为训练集和测试集,根据类别信息将训练样本分为3类,训练样本采用俯仰角为15°的目标图像,测试样本采用俯仰角为17°的目标图像。
步骤2,对泊松伽马置信网络全局参数、隐变量参数以及其他网络参数初始化。
(2a)泊松伽马置信网络层数设置为3,3类目标样本个数分别设置为233,233,232,迭代次数设置为1000;
(2b)依据下式对第C类目标的第l层全局变量初始化,针对全局变量Φ(l,C)初始化的过程同实施例2。
(2c)依据下式分别对第C类目标的顶层共享全局参数进行初始化:
rb C~Gam(γ0 C/K3,1/c0 C),
其中,rb C表示第C类目标的顶层共享向量的第b个元素,Gam表示伽马分布,~表示等价关系,γ0 C是rC先验分布的第一参数,c0 C是rC先验分布的第二参数;
(2d)对第C类目标的第三层隐变量第二层隐变量和第一层隐变量初始化同实施例2。
(2e)依据下式对η(l,C)初始化:
η(l,C)=0.01
(2f)依据下式对γ0 C初始化:
γ0 C~Gam(a0 C,1/b0 C),
其中,~表示等价关系,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数;
(2g)依据下式对a0 C,b0 C初始化:
a0 C=0.01,b0 C=0.01,
(2h)依据下式对c0 C初始化:
c0 C~Gam(e0 C,1/f0 C),
其中,~表示等价关系,e0 C是c0 C先验分布的第一参数,f0 C是c0 C先验分布的第二参数;
(2i)依据下述对e0 C,f0 C,初始化:
e0 C=1,f0 C=1,
其中,~表示等价关系,Beta表示贝塔分布。
步骤3,多层概率统计模型训练集训练。
(3a)输入各类训练样本,输入层每个样本为64×64=4096维列向量,网络层数为三层,并设置各类训练样本全部迭代次数M1=1000。
(3b)在多层概率统计模型的每一次训练迭代中,对每一类数据,从最底层开始,由下层往上层逐层训练,并在每一层的训练中计算增广矩阵、层内增广矩阵、层间增广矩阵,直到所有层训练完成,具体更新步骤同实施例4。
(3c)当计算完各层增广矩阵、层内增广矩阵、层间增广矩阵之后,从最顶层开始,由上层往下层逐层更新网络的其他参数,具体步骤同实施例5。
(3d)利用计算的各层增广矩阵、层内增广矩阵、层间增广矩阵,对第C类第l层全局变量矩阵Φ(l,C)第a列的所有元素φa (l,C)进行更新,具体实施步骤同实施例6。
(3e)完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习后,判断多层概率统计模型的迭代次数是否达到预先设定值M1,如果达到,则结束多层概率统计模型训练过程,并将训练好的各类全局参数分别保存到商用软件MATLAB工作空间;否则,返回到步骤(3b),继续多层概率统计模型的训练过程,直至达到设定的迭代次数M1
步骤4,多层概率统计模型测试。
(4a)分别将测试数据作为输入数据,并设置每一层的测试隐变量维度,l表示层数,l=1时,K1=1000,l=2时,K2=500,l=3时,K3=200;
(4b)将每一类训练集经过训练后保存下来的全局参数作为测试的初始值;
(4c)在每一列的多层概率统计模型的每一次测试迭代中,对全部测试数据,从最底层开始,由下层往上层逐层训练,并在每一层的测试中计算增广矩阵、层内增广矩阵、层间增广矩阵,直到所有层测试完成,具体包括有如下步骤:
(4c1)利用下式得到在第C类多层概率统计模型中,测试数据第l层的三维增广矩阵的第w行第g列位置上的向量
其中l表示第l层,l=1,2,3,C表示第C类多层概率统计模型,w=1,2,...,Kl-1,Kl-1表示第l-1层隐层的维度值;g=1,2,...J,J表示样本个数,g表示输入数据的第g个样本,h=1,2,...,Kl,Mult表示多项式分布,表示的第w行第g列位置上的元素,φwh (l,C)表示Φ(l,C)矩阵的第w行第h列位置上的元素,φw (l,C)表示Φ(l,C)矩阵的第w行行向量,表示第C类第l层的隐变量,表示的第h行第g列位置上的元素,~表示等价关系。
(4c2)利用下式得到第C类多层概率统计模型中,测试数据第l层与第l+1层之间的二维层内增广矩阵的第k行第j列位置上的元素
其中,表示第C类多层概率统计模型中,测试数据第l层与第l+1层之间的二维层内增广矩阵的第k行第j列位置上的元素,v=1,...,Kl-1;j=1,...,J,Kl-1表示第l-1层隐层维度值,l=1,2,3,v表示三维矩阵的第一维的第v个元素,由(4c1)采样得到。
(4c3)利用下式得到第C类多层概率统计模型中,测试数据第l层与第l+1层之间的二维层间增广矩阵的第F行第G列元素
其中,表示第C类多层概率统计模型中,测试数据第l层与第l+1层之间的二维层间增广矩阵的第F行第G列元素,~表示等价关系,F=1,...,Kl;G=1,...,J,l=1,2,φF (l+1,C)表示Φ(l+1,C)矩阵的第F行向量,表示的第G列位置上的元素,CRT表示中国餐馆过程中的最大餐桌分布。
(4c4)利用下式得到第C类多层概率统计模型中,测试数据顶层的二维层间增广矩阵的第F行第G列元素
其中,表示第C类多层概率统计模型中,测试数据顶层的二维层间增广矩阵的第F行第G列元素,由(4c2)采样得到,~表示等价关系,F=1,...,Kl;G=1,...,J,l=3,表示顶层共享全局参数rC的第G个元素,CRT表示中国餐馆过程中的最大餐桌分布。
(4d)在更新完顶层后,由顶层向底层逐层更新网络其他参数,具体包括有如下步骤:
(4d1)利用下式对顶层进行更新:
其中,~表示等价关系,上标中C表示第C类,即参数均为此类别下的网络参数,此时l=3,表示网络的第l+1层更新后的伽玛分布的第二参数,j表示输入数据中的第j个样本,~表示等价关系符号,Gam表示伽玛分布, 表示顶层的生成向量针对顶层维度求和的结果,KT表示模型顶层的维度值,表示当前网络顶层的隐层单元矩阵的第D行,第j列元素。
(4d2)利用下式对进行更新:
其中,U=1,...,J,~表示等价关系,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数,表示第C类的第1层与第2层之间二维层内增广矩阵的第U列元素的和,第C类第2层隐变量参数矩阵第U列元素的和。
(4d3)利用下式对进行更新:
其中,U=1,...,J,l=3,4,~表示等价关系,表示第C类第l层隐变量参数矩阵所服从分布的第二参数向量的第U个元素。
(4d4)利用下式对第二层的参数进行更新:
其中,~表示等价关系,I=1,...,J,第C类第2层隐变量参数矩阵第I列元素的和,第C类第3层隐变量参数矩阵第I列元素的和。
(4d5)利用下式对第一层的参数进行更新:
其中,~表示等价关系,I=1,...,J,l=1,pI (l+1,C)表示第C类第l层隐变量参数矩阵所服从分布的第二参数向量。
(4d6)利用下式对参数进行更新:
其中,~表示等价关系,V=1,...,J,l表示第l层,l=1,2,3,C表示第C类,Φ(l+1,C)表示第l+1层全局变量,表示第l+1层的隐变量的第V列,由(3b3)得到,表示第C类第l层隐变量参数矩阵所服从分布的第二参数向量,l=1,2,3,当l=3时,当l=3时,
(4e)完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习,判断测试训练迭代次数是否达到预设的M2次,如果是,则测试阶段完成,保存测试时得到的所有参数用于后续SAR图像目标识别;否则,保存该次测试更新后的参数并作为下次测试的初始值,返回到步骤(4c),继续测试过程。
步骤5,SAR图像目标识别:利用测试后的多层概率统计模型提取SAR图像的特征,并对SAR图像进行分类;
利用朴素贝叶斯准则对SAR图像数据分类的步骤如下:
(5a)通过下式以及测试最后得到的参数,计算第j个测试样本对应第C类字典的似然:
其中,C表示类别,t表示第t层,表示第j个测试样本,表示第C类模型中,第j个测试样本第1到第T层对应隐变量,T表示顶层的层数,表示第C类模型第1到第T层对应的全局变量,表示第j个测试样本对应第C类字典的似然,表示给定全局变量时,的联合概率,表示的后验概率,表示第j个测试样本顶层隐单元后验概率。
(5b)比较每个测试样本在不同类别多层概率统计模型下的似然值,取似然值最大的多层概率统计模型类别作为测试样本的输出类别。
(5c)对比测试集正确类别标签和朴素贝叶斯分类器输出的预测类别标签,输出多层概率统计模型的SAR图像分类正确率,完成基于多层概率统计模型的SAR图像目标识别全过程。
下面通过仿真实验和数据对本发明的技术效果再做说明:
实施例10
基于多层概率统计模型的SAR图像目标识别方法同实施例1-9。
仿真实验:
该实验数据采用MSTAR数据集,数据是由X波段聚束式SAR得到,图像大小为128×128,分辨率为0.3m×0.3m。该数据集包含了俯仰角为15°和17°的3类目标共7种型号。其中训练样本采用俯仰角为15°的目标图像,测试样本采用俯仰角为17°的目标图像,用于训练和测试的具体样本如表1所示,测试数据中存在与训练数据类型相同但型号不同的数据,该测试场景主要验证识别算法对于不同型号的同一目标的识别能力。
SAR图像数据预处理:
由于原本图像大小为128×128,为了减少计算量,首先对所有图像从中心区域进行切割,得到64×64的目标图像,然后将SAR图像数据离散化变为非负整数型数据,最后将每个图像样本进行列向量化,每一个样本变为4096×1的列向量。
仿真内容及分析:
用本发明对MSTAR数据集进行分类,由于MSTAR的3类目标数据训练样本较少,所以该网络深度设置为3,从第一层到第三层,各层隐变量维度分别为1000,500,200;实验结果将与多层RBM,DBN,SDBN,JSRC作比较。为了比较的公正性,本发明采用朴素贝叶斯准则进行分类,DBN模型用Softmax分类器进行分类,其它模型的分类结果均采用SVM分类器得到,其中SVM分类实验采用LIBSVM算法包进行求解。
图1是本发明的实现流程图;
对训练数据和测试数据进行相同的预处理。将训练阶段的得到的各类字典存储后,用于测试阶段,得到测试数据在各类字典下的隐变量,通过朴素贝叶斯分类准则,得到分类结果。
表1是本发明所采用的训练集和测试集,本发明采用MSTAR公共数据集进行验证,该数据是由X波段聚束式SAR得到。表1中,目标类别有BMP2,BTR70,T72,BMP2的型号包括snc21,sn9563和sn95666,BTR70的型号包括c71,T72的型号包括sn132,sn812,sns7,其中训练样本采用俯仰角为15°的目标图像,测试样本采用俯仰角为17°的目标图像,以测试方位敏感性对本发明识别结果的影响。
表1MSTAR 3类目标数据训练数据和测试数据
从表中可以看出,每类目标的测试数据中存在与训练数据类型相同但型号不同的数据,训练数据中BMP2只包括型号snc21,BTR70只包括型号c71,T72只包括型号sn132,而测试数据包括目标所有类别的所有型号,验证了本发明对同一类别目标的不同型号的识别能力,这些识别能力也保证了本发明的稳定性。
实施例11
基于多层概率统计模型的SAR图像目标识别方法同实施例1-9,仿真条件和内容同实施例10。
图4是本发明模型为三层时各层字典与其使用频率散点图,图4(a)为第一层字典使用频率,图4(b)为第二层字典使用频率,图4(c)为第三层字典使用频率。
从结果可以看出,随着层数的增高字典变得更为稀疏,产生这种现象的主要原因有两个:字典随着层数增加变得更加结构化,通常一个样本只需由几个不同的高层字典构成,所以相较于底层字典,高层字典系数往往很稀疏;该多层概率统计模型有能力学到稀疏的字典系数,而稀疏性正是字典学习方法的理想特性。
图5是本发明模型为三层时各层字典之间的关系示例图,根节点为训练样本图像。在给定样本图像的基础上,根节点下的第1行为选取构成该样本的主要字典,这3个字典已经分别包含了样本图像的大部分结构,并且存在着明显区别;根节点下第2行为构成根节点下第1行的主要字典,选出的字典同样具备上层字典的结构信息,但是6个字典之间的差异性已经降低;最后找出构成根节点下第2行的主要字典,第1层字典存在着很少的结构信息,大部分属于像素级别信息,这些字典之间差异性再次降低,说明底层信息简单通用。
图6是采用本发明为三层模型时测试的SAR图像各类目标各层字典,其中图6(a)为第1类目标第二层字典,图6(b)为第2类目标第二层字典,图6(c)为第3类目标第二层字典,图6(d)为第1类目标第三层字典,图6(e)为第2类目标第三层字典,图6(f)为第3类目标第三层字典。
从图中可以看出每一类样本的高层字典变得更加结构化,且随着层数的增加各类样本字典之间区别逐渐明显,反映了各类样本字典具有不同的结构信息。采用本发明提取SAR图像特征,可以得到各类样本的字典,通过比较各类字典之间的异同,有利于后期对于SAR图像的目标识别及分析,体现了本发明多层概率统计模型的优点。
实施例12
基于多层概率统计模型的SAR图像目标识别方法同实施例1-9,仿真条件和内容同实施例10。
表2是本发明网络为三层时与其他深层网络识别率的比较,多层PGBN模型训练时并未用到监督信息,因此首先将多层RBM(Restricted Boltzmann Machine)模型和多层PGBN模型做比较,在第1层时PGBN模型所得识别率已经超过多层RBM模型将近一个百分点,第2层多层RBM模型的识别率降低,而PGBN模型识别率却稳定增加,第3层时PGBN模型识别率持续增加到89.16%,优于多层RBM识别率。相比于PGBN模型,本发明有两大优势:本发明在训练时引进了监督信息,其识别率得到了提高;由于本发明对样本分类训练,训练过程中可以采用并行方式,训练效率得到提升。
SVM方法直接求得样本之间间隔最大的分离超平面,属于线性分类方法,KSVM方法利用核函数将SVM推广到非线性空间,属于非线性分类方法,这两种方法都属于MSTAR目标识别的常用方法。因此将SVM和KSVM对MSTAR 3类目标的识别率作为基准。为了比较公正性,这里将本发明得到的结果分别与SVM和KSVM方法进行比较。直接用SVM进行分类,可以得到识别率为86.73%,采用KSVM方法可以得到90.2%的识别率,然而本发明将层数设置为一层时,可以得到92.67%的识别率,因此采用本发明提取特征有利于提高目标识别性能。
DBN模型是由多层RBM堆叠而成,首先训练各层RBM,然后采用神经网络对参数进行微调,相比于多层RBM模型虽然其引进了监督信息来微调参数但其识别性能并未获得很大提高,相似性约束的深度置信网络(Similarity Deep Belief Network,SDBN)在DBN模型增加了相似性约束,属于有监督的特征提取方法,但是其仍然采用贪婪逐层堆叠策略训练参数。SDBN模型相对于DBN模型识别率得到了提高,但其在第3层的识别率降低,表明网络性能不够稳定,两者与本发明整体对比结果表明:本发明得到的目标识别结果更好,各层识别性能更加稳定。
基于独立字典联合稀疏表示的分类方法(Joint Sparse Representation withindependent dictionary based Classification,JSRC)需要分割目标与阴影,该模型对分割阈值较为敏感,并对目标与阴影进行随机降维,再分别学习目标与阴影的字典,而本发明无需上述复杂的预处理,具有较好的推广性和易实现性。
结果对比表明,本发明获得的识别效果优于上述其他方法,且本发明是从非负矩阵分解的角度出发,相比于其他方法,可以获得有物理意义的SAR图像特征,如炮管等结构。由此可以反映出本发明的建模方式,联合学习方式和伽马分布的高度非线性使其得到的特征有较好的表征能力,而本发明这种多层化的表示有利于提高目标识别性能。
表2多层概率统计模型识别率比较
本发明与现有技术在SAR图像目标识别方面相比,为了提高识别率和分类效率,提出的基于多层概率统计模型对SAR图像进行特征提取和目标识别,对目标图像字典的多角度分析表明,本发明能够提取出目标的多层结构信息;实验结果与其他特征提取方法识别率的比较,表明该发明有更好的稳定性和更高的识别率。
综上所述,本发明公开的一种基于多层概率统计模型的SAR图像目标识别方法,解决现有方法在输入SAR图像数据具有非负性时,只能提取SAR图像单层非负特征的问题。实现步骤是:构建多层概率统计模型的训练集和测试集;初始多层概率统计模型参数;用联合学习的方式训练多层概率统计模型,并保存全局变量;用联合学习的方式测试多层概率统计模型,得到模型所有参数用于后续识别;利用测试得到的参数对SAR图像进行目标识别。本发明基于多层概率统计模型,采用联合学习方式对模型进行训练和测试,提取SAR图像特征和目标识别,本发明减少了模型参数复杂度,提取到SAR图像的多层非负特征,提高了SAR图像目标识别性能和稳定性,用于对SAR图像进行目标识别。

Claims (8)

1.一种基于多层概率统计模型的SAR图像目标识别方法,其特征在于,包括有如下步骤:
(1)构建多层概率统计模型的训练集和测试集:输入待识别的SAR图像,对待识别的SAR图像进行预处理,将原始图像P×P从中心区域切割,得到大小为P'×P'的图像,并对所得图像进行能量归一化,将全部的SAR图像数据样本分为训练集和测试集,并根据已知训练样本监督信息将训练数据按自身分类;
(2)初始多层概率统计模型参数:分别对模型全局参数,隐变量参数,以及各先验分布的超参数Φ(l,C)(l,C),rC0 C,c0 C(l,C),p(2,C),c(3,C),a0 C,e0 C,b0 C,f0 C,Kl C进行初始化,其中C表示第C类训练样本对应类别,l表示网络的第l层,Φ(l,C)是第C类训练样本第l层全局参数矩阵,η(l,C)是Φ(l,C)先验分布的第一参数,θ(l,C)是第C类训练样本第l层隐变量参数矩阵,c(3,C)是θ(2,C)先验分布的第二参数向量,p(2,C)是θ(1,C)先验分布的第二参数向量,rC是第C类训练样本的顶层全局参数向量,γ0 C是rC先验分布的第一参数,c0 C是rC先验分布的第二参数,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数,e0 C是c0 C先验分布的第一参数,f0 C是c0 C先验分布的第二参数,Kl是各类训练样本第l层的隐变量维度值,初始化完成后,初步形成多层概率统计模型;
(3)训练多层概率统计模型:输入有标签的SAR图像训练数据,采用联合学习的方式训练初始化之后的多层概率统计模型;得到全局变量并保存;
(4)测试多层概率统计模型:将训练过程得到的全局变量作为多层概率统计模型的初始值,输入类别待定的SAR图像测试数据后,采用联合学习的方式,测试多层概率统计模型,得到测试过程中多层概率统计模型所有的参数,测试完成得到测试后的多层概率统计模型;
(5)SAR图像目标识别:利用测试后的多层概率统计模型提取SAR图像的特征,并对SAR图像进行分类;
(5a)分别计算各类测试后的多层概率统计模型中测试数据对应的似然值;根据朴素贝叶斯分类准则,比较每一个测试样本对应各类测试后的多层概率统计模型中的似然值,将似然值最大的多层概率统计模型其类别作为测试样本的预测类别,并输出每一个SAR图像预测类别标签;
(5b)将输出的每一个SAR图像预测类别标签与所对应的测试集的正确类别相对比,正确标签的个数在所有测试样本的总个数中所占比例即为得到针对SAR图像目标的识别率。
2.根据权利要求1所述的基于多层概率统计模型的SAR图像目标识别方法,其特征在于,步骤(2)所述的对泊松伽玛置信网络参数进行初始化,针对全局变量Φ(l,C)和隐变量θ(l,C)的初始化包括如下步骤:
对第C类目标的第l层全局变量初始化按照下式进行:
φa (l,C)~Dir(η(l,C),....,η(l,C)),
其中,φa (l,C)表示第C类目标的第l层全局变量矩阵的第a列,a=1,...,Kl,Kl是第l层隐层维度值,l=0时,K0是样本维度值,l=1时,K1=1000,l=2时,K2=500,l=3时,K3=200,Dir表示狄里克雷分布,~表示等价关系,η(l,C)是Φ(l,C)先验分布的参数;
对第C类目标的第三层隐变量
第二层隐变量和第一层隐变量初始化按照下式进行:
<mrow> <msubsup> <mi>&amp;theta;</mi> <mi>q</mi> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msup> <mi>r</mi> <mi>C</mi> </msup> <mo>,</mo> <mn>1</mn> <mo>/</mo> <msubsup> <mi>c</mi> <mi>q</mi> <mrow> <mo>(</mo> <mn>4</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>&amp;theta;</mi> <mi>p</mi> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msup> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msubsup> <mi>&amp;theta;</mi> <mi>p</mi> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <mn>1</mn> <mo>/</mo> <msubsup> <mi>c</mi> <mi>p</mi> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>&amp;theta;</mi> <mi>r</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msup> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msubsup> <mi>&amp;theta;</mi> <mi>r</mi> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>p</mi> <mi>r</mi> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>/</mo> <mo>(</mo> <mrow> <mn>1</mn> <mo>-</mo> <msubsup> <mi>p</mi> <mi>r</mi> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中,J表示样本数,表示第C类目标的第1层的第r个隐变量,表示第C类目标第2层的第p个隐变量,表示第C类目标第3层的第q个隐变量,先验分布的第二参数,先验分布的第二参数,先验分布的第二参数,~表示等价关系。
3.根据权利要求1或2所述的基于多层概率统计模型的SAR图像目标识别方法,其特征在于,步骤3中所述的训练多层概率统计模型,具体包括如下步骤:
(3a)输入各类训练样本,并设置网络层数,输入层和各隐层的维度,各类训练样本迭代次数M1
(3b)在上行吉布斯采样的过程中计算各层增广矩阵、层内增广矩阵和层间增广矩阵:采用朴素贝叶斯准则对每类训练数据分别独立训练多层概率统计模型,在各类多层概率统计模型的每次迭代中,从底层开始,由下层往上层逐层训练,并在每一层训练中计算出多层概率统计模型各层的增广矩阵、层内增广矩阵和层间增广矩阵;
(3c)在下行吉布斯采样的过程中更新网络的其他参数:计算完各层增广矩阵、层内增广矩阵、层间增广矩阵之后,从最顶层开始,由上层往下层逐层更新网络的其他参数;
(3d)利用增广矩阵由底层向顶层更新多层概率统计模型全局参数,同样也是联合学习中的上行吉布斯采样的过程;
(3e)完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习,然后判断多层概率统计模型的迭代次数是否达到预先设定值M1,如果达到,则结束多层概率统计模型训练过程,并将训练好的各类全局参数分别保存到商用软件MATLAB工作空间;否则,返回到步骤(3b),继续多层概率统计模型的训练过程。
4.根据权利要求3所述的采用联合学习的方式训练多层概率统计模型方法,其特征在于,步骤(3b)在多层概率统计模型的每一次训练迭代中,对每一类数据,从底层开始,由下层往上层逐层训练,并在每一层的训练中计算增广矩阵、层内增广矩阵、层间增广矩阵,直到所有层训练完成,具体包括有如下步骤:
(3b1)在每一层的训练过程中,通过下式得到增广矩阵中的向量:
<mrow> <mo>{</mo> <mrow> <mo>(</mo> <msup> <msub> <mi>S</mi> <mrow> <mi>w</mi> <mi>g</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <msup> <msub> <mi>S</mi> <mrow> <mi>w</mi> <mi>g</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <mn>....</mn> <mo>,</mo> <msup> <msub> <mi>S</mi> <mrow> <msub> <mi>wgK</mi> <mi>l</mi> </msub> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>}</mo> <mo>~</mo> <mi>M</mi> <mi>u</mi> <mi>l</mi> <mi>t</mi> <mrow> <mo>(</mo> <msup> <msub> <mi>x</mi> <mrow> <mi>w</mi> <mi>g</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <mfrac> <mrow> <msup> <msub> <mi>&amp;phi;</mi> <mrow> <mi>w</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msup> <msub> <mi>&amp;theta;</mi> <mrow> <mn>1</mn> <mi>g</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>h</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>K</mi> <mi>l</mi> </msub> </msubsup> <msup> <msub> <mi>&amp;phi;</mi> <mrow> <mi>w</mi> <mi>h</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msup> <msub> <mi>&amp;theta;</mi> <mrow> <mi>h</mi> <mi>g</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> </mrow> </mfrac> <mo>,</mo> <mn>....</mn> <mo>,</mo> <mfrac> <mrow> <msup> <msub> <mi>&amp;phi;</mi> <mrow> <msub> <mi>wK</mi> <mi>l</mi> </msub> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msup> <msub> <mi>&amp;theta;</mi> <mrow> <msub> <mi>K</mi> <mi>l</mi> </msub> <mi>g</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>h</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>K</mi> <mi>l</mi> </msub> </msubsup> <msup> <msub> <mi>&amp;phi;</mi> <mrow> <mi>w</mi> <mi>h</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msup> <msub> <mi>&amp;theta;</mi> <mrow> <mi>h</mi> <mi>g</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中,是第C类第l层的三维增广矩阵S(l,C)的第w行第g列位置上的向量,l表示第l层,l=1,2,3,C表示第C类,w=1,2,...,Kl-1,Kl-1表示第l-1层隐层的维度值;g=1,2,...J,J表示样本个数,g表示输入数据的第g个样本,h=1,2,...,Kl;Mult表示多项式分布,表示x(l,C)的第w行第g列位置上的元素,φwh (l,C)表示Φ(l,C)矩阵的第w行第h列位置上的元素,φw (l,C)表示Φ(l,C)矩阵的第w行行向量,θhg (l,C)表示θ(l,C)的第h行第g列位置上的元素,~表示等价关系;
(3b2)在每一层的训练过程中,通过下式得到层内增广矩阵:
<mrow> <msubsup> <mi>m</mi> <mrow> <mi>k</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>v</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>K</mi> <mrow> <mi>l</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </msubsup> <msubsup> <mi>S</mi> <mrow> <mi>v</mi> <mi>k</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> </mrow>
其中,表示第C类的第l层与第l+1层之间二维层内增广矩阵m(l,C)(l+1,C)的第k行第j列位置上的元素,Kl-1表示第l-1层隐层维度值,v表示三维矩阵的第一维的第v个元素,v=1,...,Kl-1;j=1,...,J,l=1,2,3;
(3b3)在每一层的训练过程中,通过下式得到层间增广矩阵:
<mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mrow> <mi>F</mi> <mi>G</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>|</mo> <msubsup> <mi>m</mi> <mrow> <mi>F</mi> <mi>G</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>&amp;phi;</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>&amp;theta;</mi> <mi>G</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> <mo>~</mo> <mi>C</mi> <mi>R</mi> <mi>T</mi> <mo>(</mo> <msubsup> <mi>m</mi> <mrow> <mi>F</mi> <mi>G</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>&amp;phi;</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>&amp;theta;</mi> <mi>G</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> <mo>,</mo> </mrow>
其中,表示第C类的第l层与第l+1层之间的二维层间增广矩阵x(l+1,C)的第F行第G列元素,~表示等价关系,F=1,...,Kl;G=1,...,J,l=1,2,CRT表示中国餐馆过程中的最大餐桌分布,φF (l+1,C)表示Φ(l+1,C)矩阵的第F行向量,θG (l+1,C)表示θ(l+1,C)的第G列位置上的元素;
(3b4)在顶层的训练过程中,通过下式得到顶层的层间增广矩阵:
<mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mrow> <mi>F</mi> <mi>G</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>|</mo> <msubsup> <mi>m</mi> <mrow> <mi>F</mi> <mi>G</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>G</mi> <mi>C</mi> </msubsup> <mo>)</mo> <mo>~</mo> <mi>C</mi> <mi>R</mi> <mi>T</mi> <mo>(</mo> <msubsup> <mi>m</mi> <mrow> <mi>F</mi> <mi>G</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mi>C</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>G</mi> <mi>C</mi> </msubsup> <mo>)</mo> <mo>,</mo> </mrow>
其中,表示第C类顶层的二维层间增广矩阵x(l+1,C)的第F行第G列元素,~表示等价关系,表示顶层共享全局参数rC的第G个元素,F=1,...,Kl,l=3,G=1,...,J,CRT表示中国餐馆过程中的最大餐桌分布。
5.根据权利要求3所述的采用联合学习的方式训练多层概率统计模型方法,其特征在于,步骤(3c)从最顶层开始,由上层往下层逐层更新网络的其他参数,也就是下行吉布斯采样过程,具体包括如下步骤:
(3c1)通过下式得到更新后的顶层共享全局参数所服从分布的第二参数
<mrow> <msubsup> <mi>c</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msubsup> <mi>&amp;gamma;</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msubsup> <mi>e</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>,</mo> <msup> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>f</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <munder> <mo>&amp;Sigma;</mo> <mi>Y</mi> </munder> <msubsup> <mi>r</mi> <mi>Y</mi> <mi>C</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>)</mo> </mrow> </mrow>
其中,Y=1,...,K3,~表示等价关系,C代表类别,表示顶层共享全局参数rC的第Y个元素,是rC先验分布的第一参数,e0 C是c0 C先验分布的第一参数,f0 C是c0 C先验分布的第二参数;
(3c2)通过下式得到更新后的顶层共享全局参数所服从分布的第一参数
<mrow> <msubsup> <mi>&amp;gamma;</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <munder> <mo>&amp;Sigma;</mo> <mi>W</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>R</mi> </munder> <msup> <msub> <mi>x</mi> <mrow> <mi>W</mi> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <mn>4</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>+</mo> <msubsup> <mi>a</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>,</mo> <mo>(</mo> <mrow> <mo>-</mo> <mi>l</mi> <mi>n</mi> <mrow> <mo>(</mo> <mrow> <mn>1</mn> <mo>-</mo> <msup> <mi>p</mi> <mrow> <mo>&amp;prime;</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </mrow> </msup> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>b</mi> <mn>0</mn> <mi>C</mi> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中,~表示等价关系, 表示p(4,C)的第R个元素,W=1,...,K3;R=1,...,J,a0 C是γ0 C先验分布的第一参数,b0 C是γ0 C先验分布的第二参数,xWR (4,C)表示第C类的第3层与第4层之间的二维层间增广矩阵x(4,C)的第W行第R列元素;
(3c3)通过下式得到更新后的隐变量参数矩阵所服从分布的第二参数向量
<mrow> <msubsup> <mi>p</mi> <mi>U</mi> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>B</mi> <mi>e</mi> <mi>t</mi> <mi>a</mi> <mrow> <mo>(</mo> <msubsup> <mi>a</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msubsup> <mi>m</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>U</mi> </mrow> <mrow> <mo>(</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>b</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;theta;</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>U</mi> </mrow> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow>
其中,U=1,...,J,~表示等价关系,表示第C类的第1层与第2层之间二维层内增广矩阵m(1,C)(2,C)的第U列元素的和,第C类训练样本第2层隐变量参数矩阵第U列元素的和;
(3c4)通过下式得到顶层更新后的隐变量参数矩阵所服从分布的第二参数向量
<mrow> <msubsup> <mi>c</mi> <mi>I</mi> <mrow> <mo>(</mo> <mn>4</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msubsup> <mi>e</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msup> <mi>r</mi> <mi>C</mi> </msup> <mo>,</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>f</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;theta;</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>I</mi> </mrow> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>)</mo> </mrow> </mrow>
其中,~表示等价关系,I=1,...,J,rC表示顶层共享全局参数,表示第C类训练样本第3层隐变量参数矩阵第I列元素的和;
(3c5)通过下式得到更新后的l层隐变量参数矩阵所服从分布的第二参数向量
<mrow> <msup> <msub> <mi>p</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mfrac> <mrow> <mo>-</mo> <mi>l</mi> <mi>n</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <msub> <mi>p</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&amp;lsqb;</mo> <msup> <msub> <mi>c</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mi>l</mi> <mi>n</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <msub> <mi>p</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mfrac> </mrow>
其中,U=1,...,J,l=2,3,~表示等价关系,cU (l+1,C)表示第C类第l层隐变量参数矩阵先验分布的第二参数向量的第U个元素;
(3c6)通过下式得到第二层更新后的隐变量参数矩阵所服从分布的第二参数向量
<mrow> <msubsup> <mi>c</mi> <mi>I</mi> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msubsup> <mi>e</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;theta;</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>I</mi> </mrow> <mrow> <mo>(</mo> <mn>3</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>f</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;theta;</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>I</mi> </mrow> <mrow> <mo>(</mo> <mn>2</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>)</mo> </mrow> </mrow>
其中,~表示等价关系,I=1,...,J;l=2,表示第C类训练样本第2层隐变量参数矩阵第I列元素的和,第C类训练样本第3层隐变量参数矩阵第I列元素的和;
(3c7)通过下式得到第一层更新后的隐变量参数矩阵所服从分布的第二参数向量
cI (l+1,C)=(1-pI (l+1,C))/pI (l+1,C)
其中,~表示等价关系,I=1,...,J,l=1,pI (l+1,C)表示第C类第l层隐变量参数矩阵所服从分布的第二参数向量;
(3c8)通过下式得到更新后的隐变量
<mrow> <msubsup> <mi>&amp;theta;</mi> <mi>V</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mrow> <mo>(</mo> <msup> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <msubsup> <mi>&amp;theta;</mi> <mi>V</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>m</mi> <mi>V</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>c</mi> <mi>V</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mi>l</mi> <mi>n</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>p</mi> <mi>V</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中,~表示等价关系,V=1,...,J,l表示第l层,C表示第C类,Φ(l+1,C)表示第l+1层全局变量,表示第l+1层的隐变量的第V列,由(3b3)得到,表示第C类第l层隐变量参数矩阵先验分布的第二参数向量,l=1,2,3,当l=3时,
6.根据权利要求3所述的采用联合学习的方式训练多层概率统计模型方法,其特征在于,步骤(3d)中对多层概率统计模型的全局参数进行更新,具体包括如下步骤:
(3d1)通过下式得到更新后的第C类第l层全局变量矩阵Φ(l,C)第a列的所有元素φa (l,C)
<mrow> <msup> <msub> <mi>&amp;phi;</mi> <mi>a</mi> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>~</mo> <mi>D</mi> <mi>i</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>&amp;eta;</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>+</mo> <msup> <msub> <mi>S</mi> <mrow> <mn>1</mn> <mo>&amp;CenterDot;</mo> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <msup> <mi>&amp;eta;</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>+</mo> <msup> <msub> <mi>S</mi> <mrow> <mn>2</mn> <mo>&amp;CenterDot;</mo> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <mn>....</mn> <mo>,</mo> <msup> <mi>&amp;eta;</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>+</mo> <msup> <msub> <mi>S</mi> <mrow> <msub> <mi>K</mi> <mrow> <mi>l</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>&amp;CenterDot;</mo> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> </mrow>
其中,
分别对应(3a)第一步采样结果中的元素,Kl-1表示第l-1层隐层的维度值,l=1,2,3~表示等价关系,Dir表示狄利克雷分布,η(l.C)表示的是Φ(l,C)先验狄利克雷分布的参数;
(3d2)通过下式得到更新后的第C类顶层的全局参数
<mrow> <mo>(</mo> <msubsup> <mi>r</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>C</mi> <mo>)</mo> </mrow> </msubsup> <mo>|</mo> <mo>-</mo> <mo>)</mo> <mo>~</mo> <mi>G</mi> <mi>a</mi> <mi>m</mi> <mo>(</mo> <mfrac> <msubsup> <mi>&amp;gamma;</mi> <mn>0</mn> <mi>C</mi> </msubsup> <msub> <mi>K</mi> <mi>l</mi> </msub> </mfrac> <mo>+</mo> <msup> <msub> <mi>x</mi> <mrow> <mi>k</mi> <mo>&amp;CenterDot;</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>c</mi> <mn>0</mn> <mi>C</mi> </msubsup> <mo>-</mo> <munder> <mo>&amp;Sigma;</mo> <mi>R</mi> </munder> <mi>ln</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <msub> <mi>p</mi> <mi>R</mi> </msub> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>)</mo> </mrow>
其中,表示顶层更新后的第C类样本参数的第k个元素,~表示等价关系符号,Gam表示伽玛分布,l表示顶层所在层数,l=3,Kl表示网络顶层的维度值, 由(3a)第四步采样得到,ln表示对数符号,pR (l+1,C)表示第C类样本第l+1层隐变量参数矩阵先验分布的第二参数向量。
7.根据权利要求1所述的基于多层概率统计模型的SAR图像目标识别方法,其特征在于,步骤(4)中测试多层概率统计模型,具体包括有如下步骤:
(4a)将测试集中的测试数据分别作为每类多层概率统计模型的输入数据,并设置测试训练循环次数M2
(4b)将每类训练样本经过训练后保存下来的每类全局参数分别作为测试集的全局变量;
(4c)在测试的每一次迭代中,从底层开始,由下层往上层,逐层计算出多层概率统计模型每一层中的增广矩阵、层内增广矩阵和层间增广矩阵,也就是联合学习中的下行吉布斯采样的过程;
(4d)在更新完顶层之后,由顶层向底层逐层更新多层概率统计模型的其他参数,也就是联合学习中的下行吉布斯采样的过程;
(4e)完成一次上行吉布斯采样和下行吉布斯采样的过程,也就是一次迭代中的联合学习,判断测试训练迭代次数是否达到预设的M2次,如果是,则测试阶段完成,保存测试时得到的所有参数用于后续SAR图像目标识别;否则,保存该次测试更新后的参数并作为下次测试的初始值,返回到步骤(4c),继续测试过程。
8.根据权利要求7所述的采用联合学习的方式测试多层概率统计模型方法,其特征在于,步骤(4c)中计算多层概率统计模型的增广矩阵、层内增广矩阵和层间增广矩阵,与步骤(3b)相同,具体是在各类多层概率统计模型的每次迭代中,从底层开始,由下层往上层逐层训练,并在每一层训练中计算出多层概率统计模型各层的增广矩阵、层内增广矩阵和层间增广矩阵;步骤(4d)中更新多层概率统计模型的其他参数与步骤(3c)相同,具体是计算完各层增广矩阵、层内增广矩阵、层间增广矩阵之后,从最顶层开始,由上层往下层逐层更新多层概率统计模型的其他参数。
CN201710602697.3A 2017-07-21 2017-07-21 基于多层概率统计模型的sar图像目标识别方法 Pending CN107423705A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710602697.3A CN107423705A (zh) 2017-07-21 2017-07-21 基于多层概率统计模型的sar图像目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710602697.3A CN107423705A (zh) 2017-07-21 2017-07-21 基于多层概率统计模型的sar图像目标识别方法

Publications (1)

Publication Number Publication Date
CN107423705A true CN107423705A (zh) 2017-12-01

Family

ID=60431104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710602697.3A Pending CN107423705A (zh) 2017-07-21 2017-07-21 基于多层概率统计模型的sar图像目标识别方法

Country Status (1)

Country Link
CN (1) CN107423705A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063750A (zh) * 2018-07-17 2018-12-21 西安电子科技大学 基于cnn和svm决策融合的sar目标分类方法
CN109377511A (zh) * 2018-08-30 2019-02-22 西安电子科技大学 基于样本组合和深度检测网络的运动目标跟踪方法
CN109871829A (zh) * 2019-03-15 2019-06-11 北京行易道科技有限公司 一种基于深度学习的检测模型训练方法和装置
WO2020046721A1 (en) * 2018-08-27 2020-03-05 D5Ai Llc Building a deep neural network with diverse strata
CN110895838A (zh) * 2018-09-12 2020-03-20 格力电器(武汉)有限公司 一种智能门锁控制方法、装置及智能门锁
CN111736920A (zh) * 2020-06-24 2020-10-02 深圳壹账通智能科技有限公司 基于人工智能的图像处理方法、装置、设备及存储介质
CN113537348A (zh) * 2021-07-16 2021-10-22 杭州督元信息科技有限公司 一种基于核二维非负矩阵分解的水下目标检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102144173A (zh) * 2008-05-29 2011-08-03 电视广播有限公司 合成孔径雷达成像的海域中的目标检测
CN105205450A (zh) * 2015-08-24 2015-12-30 辽宁工程技术大学 一种基于非规则标识点过程的sar图像目标提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102144173A (zh) * 2008-05-29 2011-08-03 电视广播有限公司 合成孔径雷达成像的海域中的目标检测
CN105205450A (zh) * 2015-08-24 2015-12-30 辽宁工程技术大学 一种基于非规则标识点过程的sar图像目标提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINGYUAN ZHOU等: "The Poisson Gamma Belief Network", 《NEURAL INFORMATION PROCESSING SYSTEMS》 *
郭丹丹等: "基于PGBN模型的SAR图像目标识别方法", 《电子与信息学报》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063750A (zh) * 2018-07-17 2018-12-21 西安电子科技大学 基于cnn和svm决策融合的sar目标分类方法
CN109063750B (zh) * 2018-07-17 2022-05-13 西安电子科技大学 基于cnn和svm决策融合的sar目标分类方法
WO2020046721A1 (en) * 2018-08-27 2020-03-05 D5Ai Llc Building a deep neural network with diverse strata
US11010670B2 (en) 2018-08-27 2021-05-18 D5Ai Llc Building a deep neural network with diverse strata
CN109377511A (zh) * 2018-08-30 2019-02-22 西安电子科技大学 基于样本组合和深度检测网络的运动目标跟踪方法
CN109377511B (zh) * 2018-08-30 2021-09-03 西安电子科技大学 基于样本组合和深度检测网络的运动目标跟踪方法
CN110895838A (zh) * 2018-09-12 2020-03-20 格力电器(武汉)有限公司 一种智能门锁控制方法、装置及智能门锁
CN109871829A (zh) * 2019-03-15 2019-06-11 北京行易道科技有限公司 一种基于深度学习的检测模型训练方法和装置
CN109871829B (zh) * 2019-03-15 2021-06-04 北京行易道科技有限公司 一种基于深度学习的检测模型训练方法和装置
CN111736920A (zh) * 2020-06-24 2020-10-02 深圳壹账通智能科技有限公司 基于人工智能的图像处理方法、装置、设备及存储介质
CN113537348A (zh) * 2021-07-16 2021-10-22 杭州督元信息科技有限公司 一种基于核二维非负矩阵分解的水下目标检测方法及系统
CN113537348B (zh) * 2021-07-16 2024-06-14 苏州世航智能科技有限公司 一种基于核二维非负矩阵分解的水下目标检测方法及系统

Similar Documents

Publication Publication Date Title
CN107423705A (zh) 基于多层概率统计模型的sar图像目标识别方法
Zisselman et al. Deep residual flow for out of distribution detection
CN110689086B (zh) 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN113705526B (zh) 一种高光谱遥感影像分类方法
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
WO2018010434A1 (zh) 一种图像分类方法及装置
CN111126488B (zh) 一种基于双重注意力的图像识别方法
Lee et al. Wasserstein introspective neural networks
CN104732244B (zh) 基于小波变换、多策略pso和svm集成的遥感图像分类方法
CN109063719B (zh) 一种联合结构相似性和类信息的图像分类方法
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN115564996A (zh) 一种基于注意力联合网络的高光谱遥感图像分类方法
CN102222240B (zh) 一种基于DSmT的图像目标多特征融合识别方法
CN107563430A (zh) 一种基于稀疏自动编码器和灰度关联分析法的卷积神经网络算法优化方法
CN111144500A (zh) 基于解析高斯机制的差分隐私深度学习分类方法
Lin et al. Land cover classification of RADARSAT-2 SAR data using convolutional neural network
Chen et al. Real-time traffic sign classification using combined convolutional neural networks
Al Zorgani et al. Comparative study of image classification using machine learning algorithms
CN105512675A (zh) 一种基于记忆性多点交叉引力搜索的特征选择方法
Wang et al. Prototype-based intent perception
Santos et al. A 2D Deep Boltzmann Machine for robust and fast vehicle classification
CN103246897A (zh) 一种基于AdaBoost的弱分类器内部结构调整方法
Wang et al. Kernel-based deep learning for intelligent data analysis
Akbar et al. Training neural networks using Clonal Selection Algorithm and Particle Swarm Optimization: A comparisons for 3D object recognition
Rebai et al. Deep kernel-SVM network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171201

WD01 Invention patent application deemed withdrawn after publication