CN111080674B - 一种基于混合高斯模型的多目标isar关键点提取方法 - Google Patents
一种基于混合高斯模型的多目标isar关键点提取方法 Download PDFInfo
- Publication number
- CN111080674B CN111080674B CN201911311784.9A CN201911311784A CN111080674B CN 111080674 B CN111080674 B CN 111080674B CN 201911311784 A CN201911311784 A CN 201911311784A CN 111080674 B CN111080674 B CN 111080674B
- Authority
- CN
- China
- Prior art keywords
- target
- matrix
- image
- distribution
- isar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 20
- 238000000605 extraction Methods 0.000 title claims abstract description 18
- 238000009826 distribution Methods 0.000 claims abstract description 71
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 86
- 230000009466 transformation Effects 0.000 claims description 25
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 23
- 239000013598 vector Substances 0.000 claims description 18
- 238000000354 decomposition reaction Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 15
- 230000006870 function Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于混合高斯模型的多目标ISAR关键点提取方法,该方法首先对当前ISAR图像,分离出背景和前景;随后采用在线算法更新背景;然后,利用阈值提取前景中的阴影,在前景中,将目标建模为拉普拉斯叠加高斯分布,再采用最大后验准则和EM算法估得混合分布的参数,得到图像像素的后验概率值,从而确定聚焦目标散射点;最后,采用聚类算法得到目标关键点,即ISAR像关键点。本发明同时提取ISAR图像中慢速运动目标的与快速运动目标的聚焦散射点,以及快速运动目标的散焦阴影,适用于成像场景中,存在多种目标且运动方向或径向速度相差较大的情况,可提升雷达检测能力。
Description
技术领域
本发明涉及雷达技术领域,具体涉及一种基于混合高斯模型的多目标ISAR关键点提取方法。
背景技术
近年来逆合成孔径雷达(ISAR)成像技术快速发展,ISAR技术被应用于空天探测,侦查等多个领域。随着分辨率提高,许多目标呈现为扩展目标,目标的雷达像不再适应点散射模型,而是呈现出多个强散射点。于是,目标关键点提取,通常是运用散射模型或恒虚警检测,得到多个强散射点,然后计算它们的质心,作为目标关键点。该方法在ISAR像聚焦良好时有较好的效果,而ISAR像聚焦需要经过目标运动补偿,距离徙动补偿等步骤。由于目标运动信息未知,ISAR图像通过自聚焦算法,利用等效相位中心得到聚焦的目标像,但若场景中存在速度不同的目标,为了补偿散焦目标回波相位,信号处理的复杂度将提高,不利于快速有效检测跟踪目标。
国内目前雷达目标关键点提取主要基于质心法。专利ZL 201410211693.9公开了《一种前视雷达成像海面目标关键点检测识别方法》,该专利通过对目标区域分割图像与目标区域峰值点信息融合,计算目标能量重心作为目标关键点,提高雷达成像海面目标关键点的识别正确率和定位精度,但提取的效果依赖于成像质量,因此在存在多目标或干扰时,该方法并不稳定;“基于生命探测雷达多探测点的目标搜索与定位方法”(ZL201510856335.8)基于利用微动信息,实现生命体定位的基本原理上,发明了多点探测方法,本质上是对生命体的不同部位信息进行采样,判断生命体与探测点的距离,给出搜索方向,从而实现目标的快速准确定位,该方法仍是采用了质心法的思想,并不涉及多运动状态目标的检测问题。
专利ZL 201310648787.8公开了《基于局部特征匹配的ISAR目标部件检测方法》,该专利采用尺度不变特征变换方法提取了卫星与其部件ISAR像的特征点,并利用估计的目标大小,得到目标窗口,并完成特征点匹配,抑制了虚假特征点,实现目标部件检测,涉及多运动状态目标的检测问题。
对于文献方面,《HTK反导拦截弹瞄准点的一种优化选取方法》(火力与指挥控制,2012年8月)提出了基于目标易损区边缘的瞄准点优化选取方法;《基于体目标功能毁伤的瞄准点选取方法》(弹舰与制导学报,2010年2月)对攻击体目标进行功能划分,并根据其任务与作用进行重要性系数标定,计算目标整体功能的毁伤效果,从而实现了基于体目标功能毁伤的瞄准点选择方法。
迄今为止,没有同时提取ISAR图像中慢速运动目标与快速运动目标关键点的发明专利。
发明内容
本发明的目的是同时提取ISAR图像中慢速运动目标的与快速运动目标的聚焦散射点,以及快速运动目标的散焦阴影。
为了达到上述目的,本发明提供了一种基于混合高斯模型的多目标ISAR关键点提取方法,该方法包含如下步骤:
S1:根据矩阵低秩分解理论,对前n帧的每幅图像Ii,i=1,2,…,n,图像Ii灰度为一矩阵[a1,a2,…,al2],对该矩阵提取列向量a1,a2,…,al2,依次相连以构成列向量xi=[a1 T,a2 T,…,a l2 T]T,i=1,2,…,n,然后将前n帧图像得到的列向量排成的矩阵X=[x1,x2,…,xn],该矩阵X分解为低秩矩阵和包含运动目标的残差矩阵,所述低秩矩阵记为背景,所述残差矩阵记为前景;
S2:对新输入的第n+1个图像,采用基于适应正则化参数分布学习算法的在线学习方法,更新S1中得到的背景;
S3:此时,所述前景中包含慢速运动目标、杂波噪声、快速运动目标的散焦阴影,利用阈值分割将灰度低的阴影部分提取出来,从而得到快速运动目标的散焦阴影,记为第一目标;
S4:采用“高斯-拉普拉斯”混合分布,提取得到慢速运动目标和快速运动目标的聚焦散射点,记为第二目标;
S5:利用均值聚类法将第一目标和第二目标进行聚类,从而确定所述ISAR关键点。
较佳地,当所述残差向量建模为所述“高斯-拉普拉斯”混合分布时,目标运动使得雷达成像平面变化,导致图像中目标和其他物体的几何形变,用仿射变换表示像素位置的移动,记为
的第s行第q列元素/>服从分布:
其中,x为待检测ISAR图像;us为字典U的第s行;vq为稀疏矩阵V的第q行;为拉普拉斯分布;/>为高斯分布;πk为权重参数,满足/>K为高斯分布总数;/>为方差参数,μk为均值参数,高斯分布的均值为0。
较佳地,τ为仿射变换参数,仿射变换计算式为:
其中,s’、q’为仿射变换前像素坐标,s、q为变换后该像素点的坐标,τ的前四个值是旋转、切变与伸缩有关,后两个参数分布为沿水平方向与竖直方向平移量。
较佳地,字典矩阵U与稀疏矩阵V的联合分布有:
上式假设的每个元素独立同分布,其中,p(·)为混合分布概率;Ⅱ为均值μk的集合;∑为方差参数的集合;pΠ,∑,pU,pV分别为均值与方差参数联合分布概率、字典矩阵U概率、稀疏矩阵V概率。
较佳地,所述“高斯-拉普拉斯”混合分布的参数由最大后验准则和EM算法估得。
较佳地,所述最大后验准则由贝叶斯公式得到:
其中,p(·)为混合分布概率;Θc为最大后验准则和EM算法中,所用隐变量的参数,也可称为混合模型的超参;下标c对应不同概率模型,对应慢速运动目标、快速运动目标、杂波与噪声,其中快速运动目标建模为拉普拉斯概率分布模型。
较佳地,所述最大后验准则还包含,由后验概率对图像的灰度值xsq进行标记,标记结果C:
其中,argmax指概率最大时,对应的目标类别c记为标记结果C。
较佳地,所述ISAR关键点包含快速运动目标的散焦阴影、快速运动目标的聚焦散射点以及慢速运动目标的聚焦散射点。
较佳地,杂波噪声服从高斯分布,而慢速运动目标和快速运动目标服从拉普拉斯分布。
较佳地,S2步骤中对新输入的第n+1个图像进行优化,具体为:
其中,λ为正则化参数,||·||2为向量的2范数,Ψ为输入第n+1幅图像前字典原子的协方差矩阵,为输入第n+1幅图像后,需更新的协方差矩阵/>为新输入x的第q列与用字典/>第q列的原子/>与稀疏矩阵/>重构结果的欧式距离;/>为协方差矩阵对应的正则化项,根据训练样本的各个元素大小对协方差矩阵进行调整,fKL为输入第n+1幅图像前,字典原子分布/>和输入第n+1幅图像后分布/>的相对熵,标记参数的初始化分别为仿射变换下的低秩分解字典Uopt与稀疏矩阵Vopt,/>的初始值为单位矩阵。
本发明取得的有益效果:
由于ISAR图像前景中运动目标的稀疏性,可采用拉普拉斯分布表征运动目标,但相干斑噪声在ISAR图像中呈现出的亮斑,破坏了ISAR图像的稀疏性,本发明在前、背景分离中采用“拉普拉斯分布+混合高斯模型”表示前景中的目标,弥补了这一缺陷。
本发明同时提取了ISAR图像中慢速运动目标的与快速运动目标的聚焦散射点,以及快速运动目标的散焦阴影,本发明适用于成像场景中,存在多种目标且运动方向或径向速度相差较大的情况,可提升雷达检测能力
附图说明
图1为本发明的ISAR像关键点提取的流程图。
图2为本实施例的ISAR像关键点提取的结果图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种针对ISAR序列图像的关键点提取方法,采用混合高斯模型并加入拉普拉斯模型,表征图像中的静止物体、聚焦慢速目标和散焦快速目标,具备同时检测多个目标的能力。包含低秩分解、在线学习、阈值分割与混合高斯模型参数估计。
低秩分解指为实现图像的背景消除,运用低秩分解模型对图像建模,同时引入仿射变换,建立优化目标函数,得到背景矩阵和图像残差,其中,图像残差为图像前景。在线学习指当输入新ISAR像后,在原有参数基础上,采用Kullback-Leibler距离函数,更新低秩分解模型。然后,图像前景包含聚焦慢速目标、散焦快速目标、噪声杂波,聚焦目标建模为拉普拉斯分布而散焦目标和噪声杂波建模为参数不同的高斯分布。阈值分割指将散焦快速目标的阴影提取出来。混合高斯模型参数估计指采用最大后验概率与数学期望最大(EM)算法,求解拉普拉斯分布与高斯分布的参数,并将前景分解为聚焦慢速目标、散焦快速目标与噪声杂波。最后将散焦快速目标与提取的阴影进行聚类,得到ISAR像的关键点。
本发明的成像场景中,同时有慢速运动目标与快速运动目标的情况。本发明首先对当前ISAR图像,采用低秩分解方法提取由静止物体构成的背景,抑制背景中的静态物体干扰,但考虑到背景并不完全静止,因此采用在线算法。
进一步地,本发明在前景中将目标建模为拉普拉斯叠加高斯分布,再采用最大后验准则和EM算法估得混合分布的参数,得到图像像素的后验概率值,从而确定目标散射点。最后,考虑到散焦的快速运动目标检测问题,提取前景中的阴影,采用聚类算法得到目标关键点。
本发明提供了一种基于混合高斯模型的多目标ISAR关键点提取方法,图像由包含运动目标的前景与静止物体构成的背景两部分组成,该方法具体包含如下步骤:
S1:根据矩阵低秩分解理论,对前n帧的每幅图像Ii(i=1,2,…,n)提取列向量,n为样本数,图像Ii(i=1,2,…,n)灰度为一矩阵[a1,a2,…,al2],其维度为l1×l2,对该矩阵提取列向量a1,a2,…,al2依次相连以构成列向量xi=[a1 T,a2 T,…,a l2 T]T,(·)T为转置,(i=1,2,…,n),然后将前n帧图像得到的列向量xi(i=1,2,…,n)排成的矩阵X=[x1,x2,…,xn],该矩阵X可分解为低秩矩阵(背景)和包含运动目标的残差矩阵(前景);
S2:对新输入的第n+1个图像,采用基于适应正则化参数分布学习算法的在线学习方法,更新S1中得到的背景;
S3:此时,所述前景中包含慢速运动目标、杂波噪声、快速运动目标的散焦阴影。利用阈值将灰度低的阴影部分提取出来,从而得到快速运动目标的散焦阴影,记为第一目标;
S4:由于杂波噪声可认为服从高斯分布,而目标(包含快速运动目标和慢速运动目标)服从拉普拉斯分布,于是采用高斯-拉普拉斯混合分布,从而提取快速运动目标和慢速运动目标的聚焦散射点,记为第二目标;
S5:S3和S4中分别得到的快速运动目标的散焦阴影(第一目标)与聚焦散射点(第二目标)为不连续的像素点,最后利用均值聚类法将第一目标和第二目标进行聚类,从而确定ISAR关键点。
实施例
图像由包含运动目标或感兴趣目标的前景与其他物体构成的背景两部分。ISAR图像帧流为连续的图像Ii(i=1,2,…,n),n为样本数,其维度为l1×l2,图像Ii(i=1,2,…,n)的灰度为一矩阵[a1,a2,…,al2],该矩阵的列向量依次相连得到样本xi=[a1 T,a2 T,...,al2 T]T,(·)T为转置,(i=1,2,...,n)。于是对n幅连续图像的样本xi,构成矩阵X=[x1,x2,...,xn],xi(i=1,2,...,n)为d维样本,d为图像行数乘以列数;将矩阵X进行低秩分解,则矩阵X可表示为:
X=A+E,r(A)≤rA (1)
式中,r(·)为求矩阵的秩;低秩矩阵A的秩不大于rA,rA为矩阵A的秩的上界;残差矩阵为E,其包含了运动目标信息和噪声与杂波。
如果将低秩矩阵A写作字典U与稀疏矩阵V的乘积,那么矩阵X中的第s行,第q列元素可表示为:
式中,us为字典U的第s行,vq为稀疏矩阵V的第j行,esq为残差矩阵E的第s行,第q列元素;
由于考虑将ISAR图像帧流中出现连续的场景变换看作刚体运动,设仿射变换运算符为τ,残差矩阵E的一列向量e可重写为:
式中,V为稀疏矩阵,U为字典;
目标运动使得雷达成像平面变化,导致图像中目标和其他物体的几何形变,可用仿射变换表示像素位置的移动,记为其中x为ISAR图像,τ为仿射变换参数,仿射变换计算式为:
其中,s’、q’为仿射变换前像素坐标,s、q为变换后该像素点的坐标,τ的前四个值是旋转、切变与伸缩有关,后两个参数分布为沿水平方向与竖直方向平移量。
将残差向量e建模为K个分量的高斯模型加一个拉普拉斯模型,那么像素位置的移动的第s行,第q列元素服从分布:
其中,us为字典U的第s行;vq为稀疏矩阵V的第q列;为拉普拉斯分布;/>为高斯分布;πk为权重参数,满足/>K为高斯分布总数;/>为方差参数,μk为均值参数,高斯分布的均值为0。
假设矩阵X的元素独立同分布,仿射变换τ可通过求解最大后验准则下的最优问题来确定。由于非线性变换难以直接求解,于是采用分段线性拟合的方式,用代替每一段变换后的样本,那么通过下式估计步进量Δτ
式中,Δτ为仿射变换的步进量;J为X关于τ的雅克比式;为更新仿射变换后所得图像样本,UV为图像重构;||·||F为矩阵的frobenius范数(F-范数),argmin后函数(arg即自变量argument的英文缩写;argmin就是使后面函数达到最小值时的变量的取值;argmax就是使后面函数达到最大值时的变量的取值;)为图像重构与仿射的欧式距离,argmin指交替采用最大后验准则求解参数Δτopt,与用梯度下降求解稀疏矩阵Vopt与Uopt,使得该欧式距离最小。
于是,混合模型(对应前景)和低秩子空间(对应背景)参数,字典矩阵U与稀疏矩阵V的联合分布有
上式假设的每个元素独立同分布,其中,p(·)为混合分布概率;Ⅱ为均值μk的集合;∑为方差参数的集合;pΠ,∑,pU,pV分别为均值与方差参数联合分布概率、字典矩阵U概率、稀疏矩阵V概率。
后验概率可由贝叶斯公式得到:
式中,p(·)为混合分布概率;Θc为为最大后验准则和EM算法中,所用隐变量的参数,也可称为混合模型的超参;π为概率密度模型的权值,保证概率和为1;下标c表示不同概率模型,对应慢速运动目标、快速运动目标、杂波与噪声,特别地快速运动目标建模为拉普拉斯概率分布模型。
其中,拉普拉斯分布表征的为快速运动目标和慢速运动目标,相干斑噪声对应像素的灰度值在图像中分布较均匀,由高斯分布拟合。
在采用最大后验准则和EM算法(最大期望算法)估得混合分布的参数后,由后验概率对图像灰度值xsq进行标记:
其中,argmax指概率p最大,对应的目标类别c记为结果C。
进一步地,S2中的背景更新;
如果运动目标存在长时间静止后再运动状态时,由于背景更新效率不高会导致重新运动后的目标出现在背景图像中,此时需要对背景图像进行检测(即背景更新),以实现运动目标的完整跟踪。
具体来说,针对背景缓变从而干扰图像前景中目标(包含第一目标和第二目标)的提取问题,利用当前背景样本(前n帧的背景),更新前n帧的背景模型参数,对于新输入的图像,再次重复S1步骤,得到新的图像的前景与背景分量。因仅对前n帧的背景模型参数进行了一次修正,因此实时分离ISAR图像的前景、背景,实现边成像边训练,从而有效的利用有限内存。
采用适应正则化参数分布学习算法实现在线子空间学习,设计低秩矩阵的字典服从高斯分布:
其中,为加入第n+1副ISAR图后,更新的字典矩阵的第q列;/>为前n副图像根据公式(6)训练得到的字典矩阵,Ψ为一半正定矩阵,是高斯分布的协方差参数。
那么得到的优化问题为
其中,λ为正则化参数,||·||2为向量的2范数,Ψ为输入第n+1幅图像前字典原子的协方差矩阵,为输入第n+1幅图像后,需更新的协方差矩阵/>为新输入x的第q列与用字典/>第q列的原子/>与稀疏矩阵/>重构结果的欧式距离;/>为协方差矩阵对应的正则化项,根据训练样本的各个元素大小对协方差矩阵进行调整,fKL为输入第n+1幅图像前,字典原子分布/>和输入第n+1幅图像后分布/>的相对熵,标记参数的初始化分别为仿射变换下的低秩分解字典Uopt与稀疏矩阵Vopt,/>的初始值为单位矩阵。
两个高斯分布间的相对熵有闭合形式:
那么,优化问题中与相关的偏微分为0,可以更新均值也是字典的原子/>与协方差Ψ。于是当输入新的ISAR图像样本(第n+1帧图像)时,可在线更新字典矩阵U和稀疏矩阵V,从而训练当前的背景矩阵,并得到前景的混合高斯模型。
进一步地,针对S3部分的第一目标检测;
具体来说,快速目标产生的额外多普勒会导致目标出现散焦和平移,由于能量分散在多个单元,散焦和平移的灰度值一般与背景相当。但同时多普勒平移使其在实际位置上留下阴影,阴影的灰度值明显低于其周围像素。同时,阴影包含了快速目标的运动及位置信息。所以本发明在S3步骤中利用阈值将灰度低的阴影部分提取出来,从而得到第一目标;
进一步地,阴影是雷达视线上,目标被部分遮挡,在图像上体现为灰度值很低,类似于光学上的阴影;基于幅度阈值的方法对图像中快速运动的散焦阴影进行检测,为了减少运动目标检测的漏警概率,幅度阈值设置的适当大些。
本实施例得到的验证结果如图2所示,其中(a)为ISAR图像原图,(b)为提取的背景图像,(c)为前景图像。图(a)方框中为两个散焦目标的阴影部分,在相应位置图(c)较好保留了阴影。
综上所述,本发明首先对当前ISAR图像,分离出背景和前景;由于考虑到背景并不完全静止,因此采用在线算法更新背景;然后,利用阈值提取前景中的阴影(第一目标),在前景中,将目标建模为拉普拉斯叠加高斯分布,再采用最大后验准则和EM算法估得混合分布的参数,得到图像像素的后验概率值,从而确定聚焦目标散射点(第二目标)。最后,采用聚类算法得到目标关键点,即ISAR像关键点。本发明适用于成像场景中,存在多种目标且运动方向或径向速度相差较大的情况,可提升雷达检测能力。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (7)
1.一种基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,所述ISAR关键点包含快速运动目标的散焦阴影、快速运动目标的聚焦散射点以及慢速运动目标的聚焦散射点,该方法包含如下步骤:
S1:根据矩阵低秩分解理论,对前n帧的每幅图像Ii,i=1,2,…,n,图像Ii灰度为一矩阵[a1,a2,…,al2],对该矩阵提取列向量a1,a2,…,al2,依次相连以构成列向量xi=[a1 T,a2 T,…,al2 T]T,i=1,2,…,n,然后将前n帧图像得到的列向量排成的矩阵X=[x1,x2,…,xn],该矩阵X分解为低秩矩阵和包含运动目标的残差矩阵,所述低秩矩阵记为背景,所述残差矩阵记为前景;
S2:对新输入的第n+1个图像,采用基于适应正则化参数分布学习算法的在线学习方法,更新S1中得到的背景;
S3:此时,所述前景中包含慢速运动目标、杂波噪声、快速运动目标的散焦阴影,利用阈值分割将灰度低的阴影部分提取出来,从而得到快速运动目标的散焦阴影,记为第一目标;
S4:杂波噪声服从高斯分布,慢速运动目标和快速运动目标服从拉普拉斯分布,采用“高斯-拉普拉斯”混合分布,提取得到慢速运动目标和快速运动目标的聚焦散射点,记为第二目标;
S5:利用均值聚类法将第一目标和第二目标进行聚类,从而确定所述ISAR关键点;
当残差向量建模为所述“高斯-拉普拉斯”混合分布时,目标运动使得雷达成像平面变化,导致图像中目标和其他物体的几何形变,用仿射变换表示像素位置的移动,记为的第s行第q列元素/>服从分布:
其中,x为待检测ISAR图像;τ为仿射变换参数;us为字典U的第s行;vq为稀疏矩阵V的第q行;为拉普拉斯分布;/>为高斯分布;πk为权重参数,满足/>K为高斯分布总数;/>为方差参数,μk为均值参数,高斯分布的均值为0。
2.如权利要求1所述的基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,仿射变换计算式为:
其中,s’、q’为仿射变换前像素坐标,s、q为变换后该像素点的坐标,τ的前四个值是旋转、切变与伸缩有关,后两个参数分布为沿水平方向与竖直方向平移量。
3.如权利要求1所述的基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,字典矩阵U与稀疏矩阵V的联合分布有:
上式假设的每个元素独立同分布,其中,p(·)为混合分布概率;Π为均值μk的集合;Σ为方差参数的集合;pΠ,Σ,pU,pV分别为均值与方差参数联合分布概率、字典矩阵U概率、稀疏矩阵V概率。
4.如权利要求1所述的基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,所述“高斯-拉普拉斯”混合分布的参数由最大后验准则和EM算法估得。
5.如权利要求4所述的基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,所述最大后验准则由贝叶斯公式得到:
其中,p(·)为混合分布概率;Θc为最大后验准则和EM算法中,所用隐变量的参数,也可称为混合模型的超参;πk为权重参数,满足πc为概率密度模型的权值,对应不同概率模型,对应慢速运动目标、快速运动目标、杂波与噪声,其中快速运动目标建模为拉普拉斯概率分布模型。
6.如权利要求5所述的基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,所述最大后验准则还包含,由后验概率对图像的灰度值xsq进行标记,标记结果C:
其中,argmax指概率最大时,对应的目标类别c记为标记结果C。
7.如权利要求1所述的基于混合高斯模型的多目标ISAR关键点提取方法,其特征在于,S2步骤中对新输入的第n+1个图像进行优化,具体为:
其中,λ为正则化参数;‖‖2为向量的2范数;Ψ为输入第n+1幅图像前字典原子的协方差矩阵;为输入第n+1幅图像后,需更新的协方差矩阵;/>为新输入x的第q列与用字典/>第q列的原子/>与稀疏矩阵/>重构结果的欧式距离;/>为协方差矩阵对应的正则化项;根据训练样本的各个元素大小对协方差矩阵进行调整;fKL为输入第n+1幅图像前,字典原子分布/>和输入第n+1幅图像后分布/>的相对熵;/>为初始化值分别为仿射变换下的低秩分解字典Uopt与稀疏矩阵Vopt,Ψ的初始值为单位矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911311784.9A CN111080674B (zh) | 2019-12-18 | 2019-12-18 | 一种基于混合高斯模型的多目标isar关键点提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911311784.9A CN111080674B (zh) | 2019-12-18 | 2019-12-18 | 一种基于混合高斯模型的多目标isar关键点提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080674A CN111080674A (zh) | 2020-04-28 |
CN111080674B true CN111080674B (zh) | 2023-11-14 |
Family
ID=70315567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911311784.9A Active CN111080674B (zh) | 2019-12-18 | 2019-12-18 | 一种基于混合高斯模型的多目标isar关键点提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080674B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860211B (zh) * | 2020-06-29 | 2024-04-12 | 李利明 | 餐具和参照物识别方法、装置及存储介质 |
CN112069651B (zh) * | 2020-07-23 | 2024-04-09 | 西安空间无线电技术研究所 | 一种基于isar成像的自旋稳定目标旋转轴估计方法 |
CN112150502A (zh) * | 2020-09-14 | 2020-12-29 | 燕山大学 | 缓变运动背景中运动目标检测方法 |
CN113592753B (zh) * | 2021-07-23 | 2024-05-07 | 深圳思谋信息科技有限公司 | 基于工业相机拍摄的图像的处理方法、装置和计算机设备 |
CN114638968B (zh) * | 2022-01-10 | 2024-01-30 | 中国人民解放军国防科技大学 | 一种空间目标的几何结构与关键点提取方法及装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101017573A (zh) * | 2007-02-09 | 2007-08-15 | 南京大学 | 一种基于视频监控的运动目标检测与识别方法 |
CN101329400A (zh) * | 2008-07-30 | 2008-12-24 | 电子科技大学 | 一种基于拟合优度检验的雷达目标恒虚警检测方法 |
CN101916449A (zh) * | 2010-08-21 | 2010-12-15 | 上海交通大学 | 建立图像处理中基于运动信息的背景模型的方法 |
CN102708382A (zh) * | 2012-05-11 | 2012-10-03 | 北京航空航天大学 | 一种基于变处理窗口和变坐标系的多目标跟踪方法 |
CN103605980A (zh) * | 2013-12-04 | 2014-02-26 | 西安电子科技大学 | 基于局部特征匹配的isar目标部件检测方法 |
CN103679129A (zh) * | 2012-09-21 | 2014-03-26 | 中兴通讯股份有限公司 | 一种图像中的目标物体识别方法及装置 |
ITMI20131244A1 (it) * | 2013-07-24 | 2015-01-25 | Telecom Italia Spa | Identificazione di keypoint |
CN105046683A (zh) * | 2014-12-31 | 2015-11-11 | 北京航空航天大学 | 一种参数自适应调节的高斯混合模型目标检测方法 |
CN106023249A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于局部二值相似性模式的运动目标检测方法 |
EP3239896A1 (en) * | 2016-04-28 | 2017-11-01 | Joanneum Research Forschungsgesellschaft mbH | Data structure for describing an image sequence image, and methods for extracting and matching these data structures |
CN108346160A (zh) * | 2017-12-22 | 2018-07-31 | 湖南源信光电科技股份有限公司 | 基于视差图背景差法和Meanshift结合的多运动目标跟踪方法 |
CN109932717A (zh) * | 2019-03-07 | 2019-06-25 | 西安电子科技大学 | 基于环境统计建模的isar高分辨成像方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6744933B2 (en) * | 2001-01-18 | 2004-06-01 | Siemens Corporate Research, Inc. | Method for image alignment under non-uniform illumination variations |
KR101183781B1 (ko) * | 2009-12-22 | 2012-09-17 | 삼성전자주식회사 | 실시간 카메라 모션 추정을 이용한 물체 검출/추적 방법 및 단말 |
-
2019
- 2019-12-18 CN CN201911311784.9A patent/CN111080674B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101017573A (zh) * | 2007-02-09 | 2007-08-15 | 南京大学 | 一种基于视频监控的运动目标检测与识别方法 |
CN101329400A (zh) * | 2008-07-30 | 2008-12-24 | 电子科技大学 | 一种基于拟合优度检验的雷达目标恒虚警检测方法 |
CN101916449A (zh) * | 2010-08-21 | 2010-12-15 | 上海交通大学 | 建立图像处理中基于运动信息的背景模型的方法 |
CN102708382A (zh) * | 2012-05-11 | 2012-10-03 | 北京航空航天大学 | 一种基于变处理窗口和变坐标系的多目标跟踪方法 |
CN103679129A (zh) * | 2012-09-21 | 2014-03-26 | 中兴通讯股份有限公司 | 一种图像中的目标物体识别方法及装置 |
ITMI20131244A1 (it) * | 2013-07-24 | 2015-01-25 | Telecom Italia Spa | Identificazione di keypoint |
CN103605980A (zh) * | 2013-12-04 | 2014-02-26 | 西安电子科技大学 | 基于局部特征匹配的isar目标部件检测方法 |
CN105046683A (zh) * | 2014-12-31 | 2015-11-11 | 北京航空航天大学 | 一种参数自适应调节的高斯混合模型目标检测方法 |
EP3239896A1 (en) * | 2016-04-28 | 2017-11-01 | Joanneum Research Forschungsgesellschaft mbH | Data structure for describing an image sequence image, and methods for extracting and matching these data structures |
CN106023249A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于局部二值相似性模式的运动目标检测方法 |
CN108346160A (zh) * | 2017-12-22 | 2018-07-31 | 湖南源信光电科技股份有限公司 | 基于视差图背景差法和Meanshift结合的多运动目标跟踪方法 |
CN109932717A (zh) * | 2019-03-07 | 2019-06-25 | 西安电子科技大学 | 基于环境统计建模的isar高分辨成像方法 |
Non-Patent Citations (4)
Title |
---|
Detecting keypoint sets on 3D point clouds via Histogram of Normal Orientations;Sai Manoj Prakhya等;《Pattern Recognition Letters》;42-48 * |
占荣辉等.非线性滤波-理论与目标跟踪应用.国防工业出版社,2013,96-97. * |
王一丁等.工业图像处理.西安电子科技大学出版社,2018,59-62. * |
许红等.角闪烁下基于变分贝叶斯一交互式多模型的目标跟踪.电子与信息学报.2018,第40卷(第7期),1583-1589. * |
Also Published As
Publication number | Publication date |
---|---|
CN111080674A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111080674B (zh) | 一种基于混合高斯模型的多目标isar关键点提取方法 | |
Cui et al. | Image data augmentation for SAR sensor via generative adversarial nets | |
CN108765458B (zh) | 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法 | |
CN107680120B (zh) | 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法 | |
Wang et al. | Application of deep-learning algorithms to MSTAR data | |
CN107491731B (zh) | 一种面向精确打击的地面运动目标检测与识别方法 | |
CN106338733B (zh) | 基于蛙眼视觉特性的前视声呐目标跟踪方法 | |
CN109544603B (zh) | 基于深度迁移学习的目标跟踪方法 | |
CN107609571B (zh) | 一种基于lark特征的自适应目标跟踪方法 | |
CN114897932B (zh) | 一种基于特征和灰度融合的红外目标跟踪实现方法 | |
Demir et al. | Co-difference based object tracking algorithm for infrared videos | |
CN109685830A (zh) | 目标跟踪方法、装置和设备及计算机存储介质 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
Jin et al. | Variational particle filter for multi-object tracking | |
Song et al. | Shape-robust SAR ship detection via context-preserving augmentation and deep contrastive RoI learning | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
Han et al. | Shape context based object recognition and tracking in structured underwater environment | |
Koksal et al. | Model-based object recognition using laser radar range imagery | |
Brosch et al. | Automatic target recognition on high resolution sar images with deep learning domain adaptation | |
CN106952287A (zh) | 一种基于低秩稀疏表达的视频多目标分割方法 | |
Pavlović et al. | Object Tracking in SWIR Imaging Based on Both Correlation and Robust Kalman Filters | |
CN110147747B (zh) | 一种基于累积一阶导数高置信度策略的相关滤波跟踪方法 | |
CN113628242A (zh) | 一种基于背景减除法的卫星视频目标跟踪方法及系统 | |
Ma et al. | Affine object tracking using kernel-based region covariance descriptors | |
CN112580679A (zh) | 红外目标跟踪方法、计算机设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |