CN110837801B - 基于分割图像稀疏表示的sar图像融合遮挡目标识别方法 - Google Patents
基于分割图像稀疏表示的sar图像融合遮挡目标识别方法 Download PDFInfo
- Publication number
- CN110837801B CN110837801B CN201911074876.XA CN201911074876A CN110837801B CN 110837801 B CN110837801 B CN 110837801B CN 201911074876 A CN201911074876 A CN 201911074876A CN 110837801 B CN110837801 B CN 110837801B
- Authority
- CN
- China
- Prior art keywords
- image
- weighted
- sparse
- fusion
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Abstract
本发明公开了一种基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,包括步骤:一,SAR图像裁切;二,分割图像稀疏模型参数计算;三,利用分割图像稀疏模型计算加权图像;四,选择所有参数组,重复执行步骤三;五,选择像素级融合方法或决策级融合方法处理加权测试样本并识别目标。本发明利用分割图像的稀疏表示模型来分离可能的遮挡区域并通过对可能的遮挡区域加权处理来削弱遮挡对识别的影响;采用决策级融合和像素级融合两种融合策略来回避分割图像稀疏模型中的参数最优取值问题;通过将分割图像稀疏表示模型与融合策略结合,可以判断图像中的遮挡信息并消除其产生的干扰,降低了识别方法对参数取值的依赖,提高了遮挡目标的识别性能。
Description
技术领域
本发明属于合成孔径雷达(SAR)目标识别技术领域,特别涉及一种基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法。
背景技术
合成孔径雷达由于不受天气、时间和光照等因素影响的优点,在资源勘探、海洋观测、战场监视等领域发挥着越来越重要的作用。在合成孔径雷达的这些应用领域中,合成孔径雷达自动目标识别一直是研究的热点和难点。合成孔径雷达目标识别技术可以分成基于模板的识别、基于模型的识别和基于机器学习的识别三种类型。
基于模板的识别需要构建完备的模板库,该方法虽然原理简单,但是工作量巨大。基于模型的识别需要建立目标的数学模型或三维模型,建立准确可靠的模型一直是该方法的重难点。
随着计算机技术和模式识别技术的发展,基于机器学习的目标识别方法成为当前最流行的研究热点。典型的机器学习方法包括支持向量机、稀疏表示和深度学习等。基于机器学习的合成孔径雷达目标识别方法包括线性支持向量机目标识别方法(LSVM)、核支持向量机目标识别方法(KSVM)、传统稀疏表示目标识别方法(SR)、核稀疏表示目标识别方法(KSR)、改进的稀疏表示目标识别方法(ISR)、卷积神经网络目标识别方法(CNN)、支持向量机融合目标识别方法(FSVM)和稀疏表示融合目标识别方法(FSR)等。LSVM通过训练样本来计算支持向量,从而求解分类超平面,最后利用测试样本与分类超平面的关系来识别目标。KSVM首先将训练样本和测试样本投影到高维特征空间,然后在高维特征空间中计算分类超平面,最后根据高维测试样本与分类超平面的关系来识别目标。SR利用训练样本构造字典,然后根据测试样本在字典上的稀疏重构误差来识别目标。KSR首先将训练样本和测试样本投影到高维特征空间并利用高维特征向量来构造高维特征空间字典,然后根据高维测试样本在高维特征空间字典上的稀疏重构误差来识别目标。ISR在传统稀疏表示模型中加入误差项来表征遮挡和噪声污染等情况,通过消除误差项来消除噪声和遮挡等情况对识别的影响。CNN首先构造多层卷积神经网络,然后通过训练样本来训练卷积神经网络中的超参数并学习目标的特征,最后利用训练好的网络来识别目标。FSVM通过融合LSVM和KSVM的处理结果来识别目标。FSR通过融合SR和KSR的处理结果来识别目标。
无论是支持向量机方法中计算分类超平面、稀疏表示模型中构造字典还是卷积神经网络中学习网络超参数,这些识别方法的处理对象都是完整的目标,即,当前合成孔径雷达目标识别方法主要用于识别完整的目标。
但是,在实际应用场景中,经常出现目标被建筑、树木等遮挡的情况。目标被遮挡不但会导致部分目标信息丢失,还会引入额外的干扰信息。通常情况下干扰信息与目标信息具有明显不同的特征。现有技术中,除了ISR之外,其余方法在处理过程中没有采取消除遮挡的措施,而是将遮挡导致的干扰信息与目标信息一起处理。干扰信息会影响这些方法的计算结果,从而导致对遮挡目标的错误识别。虽然ISR企图通过在稀疏表示模型中增加误差项来消除遮挡的影响,但是采用传统稀疏表示模型的求解方法会导致最终得到的误差项不能准确地反应变化多样的遮挡情况。因此相较于传统的SR方法,虽然ISR能够更好的识别遮挡目标,但是其识别性能还有很大的提升空间。
发明内容
由于现有的目标识别方法不能较好地消除遮挡信息,因而现有的目标识别方法在识别遮挡目标时的效果并不好。本发明的目的在于,针对上述现有技术的不足,提供一种基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法。针对目标被遮挡的情况,利用分割图像的稀疏表示模型来分离可能的遮挡区域并通过对可能的遮挡区域加权处理来削弱遮挡对识别的影响;采用决策级融合和像素级融合两种融合策略来回避分割图像稀疏模型中子图像尺寸、加权子图像比例和权值等参数的最优取值问题;通过将分割图像稀疏表示模型与融合策略结合,可以判断图像中的遮挡情况并消除遮挡产生的干扰信息,降低了识别方法对参数取值的依赖,大幅提高了遮挡目标的识别性能。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特点是包括以下步骤:
步骤一,对合成孔径雷达采集的测试图像A和训练图像集{Bj},j∈[1,M]进行预处理,得到形状大小相同的矩形测试图像切片A′和矩形训练图像切片集{B′j},j∈[1,M];M为训练图像的总数,Bj表示第j个训练图像,B′j表示第j个训练图像切片;其中,训练图像集包含C个类别,第c个类别的训练图像集为Mt为第t类别中训练图像的数量,并且
步骤二,设置分割图像稀疏模型的参数,其中子图像尺寸为{(l1,h1),(l2,h2),(l3,h3),…,(la,ha)},加权子图像比例为{r1,r2,r3,…,rb},权值为{w1,w2,w3,…,wg};获得分割图像稀疏模型的参数组{(lk,hk),rk,wk},k∈[1,J];其中J为参数组的个数;
步骤三,选择第k个参数组{(lk,hk),rk,wk},将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]分割成测试子图像集{A″(1),A″(2),A″(3),…,A″(S)}和训练子图像集{{B″1(1),B″2(1),B″3(1),…,B″M(1)},{B″1(2),B″2(2),B″3(2),…,B″M(2)},…,{B″1(S),B″2(S),B″3(S),…,B″M(S)}};对测试子图像集和训练子图像集进行处理,获得相应的测试子样本{y″(1),y″(2),y″(3),…,y″(S)}和子字典{D″(1),D″(2),D″(3),…,D″(S)};利用稀疏表示模型计算第s,s∈[1,S]个测试子样本y″(s)在相应的子字典D″(s)上的稀疏表示系数向量计算测试子样本y″(s)对应的重构子样本及对应的稀疏重构误差利用所述稀疏表示模型计算所有S个测试子样本的稀疏表示系数向量,最终得到S个稀疏重构误差{e″(1),e″(2),e″(3),…,e″(S)};选择S个稀疏重构误差中最大的rkS个稀疏重构误差对应的下标组成集合Φ,将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]中与集合Φ对应的每个子图像的所有像素乘以权值wk,得到第k个加权测试图像切片A″′(k)和第k组加权训练图像切片集{B″′j(k)},j∈[1,M];
步骤四,选择所有J个参数组{(lk,hk),rk,wk},k∈[1,J]并重复执行步骤三,得到J个加权测试图像切片{A″′(1),A″′(2),A″′(3),…,A″′(J)}和加权训练图像切片集{{B″′j(1),j∈[1,M]},{B″′j(2),j∈[1,M]},{B″′j(3),j∈[1,M]},…,{B″′j(J),j∈[1,M]}};分别对所有加权图像切片进行处理,得到加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}和加权字典集{D″′1,D″′2,D″′3,…,D″′J};
步骤五,选择像素级融合方法或决策级融合方法处理加权测试样本集和加权字典集并识别目标。
作为一种优选方式,所述步骤二中,采用遍历法得到分割图像稀疏模型的参数组。
作为一种优选方式,所述步骤三中,选择第k个参数组{(lk,hk),rk,wk},按照从左至右、从上到下的分割方法将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]分割成大小为(lk,hk)的测试子图像集和训练子图像集。
作为另一种优选方式,所述步骤三中,将测试图像切片和训练图像切片分割成正方形、三角形、平行四边形或任意随机形状。
作为一种优选方式,所述步骤三中,对测试子图像集和训练子图像集进行降采样、向量化和归一化处理;所述步骤四中,对得到的所有加权图像切片进行降采样、向量化和归一化处理。
所述步骤三和步骤四中,采用降采样来降低图像的数据量,还可以采用诸如小波变换等能够保持图像局部不变性特征的变换方法,与降采样的作用相同。
作为一种优选方式,所述步骤五中,采用像素级融合方法处理加权测试样本集和加权字典集并识别目标,包括:
首先,利用像素级融合方法分别融合加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}和加权字典集{D″′1,D″′2,D″′3,…,D″′J},得到融合测试样本和融合字典其中Fp()为像素级融合函数;
最后,将目标的类型判定为融合测试样本的最小稀疏重构误差所对应的类型。
作为另一种优选方式,所述步骤五中,采用决策级融合方法处理加权测试样本集和加权字典集并识别目标,包括:
首先,利用第i,i∈[1,J]个加权字典D″′i稀疏表示对应的加权测试样本y″′i,其中,加权测试样本y″′i在加权字典D″′i的第c,c∈[1,C]个加权子字典上的稀疏重构向量为y″′i在加权字典D″′i的第c个加权子字典上的重构误差为加权测试样本y″′i在加权字典D″′i的所有加权子字典上的稀疏重构误差向量为e′i=[e′i(1),e′i(2),e′i(3),…,e′i(C)]T。所有J个加权测试样本{y″′1,y″′2,y″′3,…,y″′J}的稀疏重构误差向量的组合构成稀疏重构误差向量集{e′1,e′2,e′3,…,e′J};
最后,将目标的类型判定为融合稀疏重构误差向量e(d)中最小重构误差对应的类型。
作为一种优选方式,Fp()为算术平均像素级融合函数。
作为一种优选方式,Fd()为算术平均决策级融合函数。
在遮挡条件下,遮挡物体不但破坏了目标的完整性,还引入了干扰信息。这些干扰信息会给目标识别带来负面的影响,因此提高遮挡目标识别性能的关键是剔除SAR图像中的遮挡物体图像。剔除遮挡物体图像可以通过两个步骤来实现。首先是找到遮挡物体的准确位置和大小,然后是降低这部分图像在识别中的作用。本发明方法利用图像分块的方法来分割SAR目标图像;然后通过分割图像稀疏模型来自适应地确定可能存在遮挡物体的子图像;最后通过对可能存在遮挡物体的子图像加权来降低遮挡物体图像的稀疏重构误差在整幅图像稀疏重构误差中的比例,从而减弱遮挡对识别的干扰作用。
虽然分割图像稀疏模型结合加权处理能够判断可能的遮挡区域并消除遮挡对识别的影响,但是该模型中最优参数取值是一个较难解决的问题。分割图像稀疏模型的关键参数包括子图像尺寸、加权子图像比例和权值等。子图像尺寸和加权子图像比例共同决定了SAR图像中加权区域的大小。子图像尺寸反应了模型分割遮挡区域的能力。较大的子图像尺寸不利于分割出小的遮挡区域,较小的子图像尺寸会降低稀疏表示模型对子图像的表征能力。加权子图像比例决定了加权子图像的数量。较小的加权子图像比例会导致部分遮挡区域没有被加权,较大的加权子图像比例会导致部分非遮挡区域被误加权。权值决定了模型对遮挡区域的衰减程度。当加权区域等于遮挡区域时,权值为零可以完全消除遮挡的影响。实际上加权区域不可避免的会包含部分非遮挡区域。这种情况下不能简单的将权值设置为零。较大的权值会降低模型对遮挡区域的衰减效果,较小的权值会过度衰减模型中的非遮挡区域。由上述分析可知:分割图像稀疏模型中的三个关键参数直接影响算法的识别性能。因此需要根据应用场景设置合适的值。
设置参数最优值的传统方法是建立优化模型并求解。由于分割图像稀疏模型中这些关键参数与识别结果之间的关系很复杂,建立明确的数学解析模型比较困难。此外最优参数值还与具体的遮挡情况有直接的关系,而遮挡信息往往是不可预知的。这些困难使得直接计算参数的最优值十分困难,甚至是不可能实现的。为了回避分割图像稀疏模型中涉及的参数优化问题,降低参数取值对模型识别性能的影响,发明方法采用融合策略来解决这个问题。发明方法首先设置一系列不同的参数值;然后分别利用这些参数值得到不同的加权图像;最后对这些加权图像进行像素级融合或者决策级融合并根据融合结果来判断目标的类型。发明方法使用融合策略来避免了分割图像稀疏模型中的参数优化问题,在放宽了参数取值要求的同时提高了遮挡目标的识别性能。
综上,与现有技术相比,本发明针对现有方法在识别遮挡目标时的缺点,利用分割图像稀疏模型来判断可能的遮挡区域,并通过加权处理来削弱遮挡带来的干扰信息,这是一种硬消除干扰的手段。相较于现有技术ISR中增加误差项的软消除手段,硬消除具有更好的性能。为了避免分割图像稀疏模型中参数优化问题,发明方法采用了两种融合策略来综合各种参数情况下分割图像稀疏模型的处理结果。因此,发明方法不但能够消除遮挡对识别的影响,还减弱了分割图像稀疏模型对参数的要求,从而有效提高了遮挡目标的识别性能。
附图说明
图1为遍历法计算参数组示意图。
图2为图像切片分割方法示意图。
图3为本发明算法执行流程图。
图4为实验结果对比图。
具体实施方式
基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,包括以下步骤:
(1)图像裁剪
对合成孔径雷达采集的测试图像A和训练图像集{Bj},j∈[1,M]进行预处理,得到形状大小相同的N×H的矩形测试图像切片A′和N×H的矩形训练图像切片集{B′j},j∈[1,M];M为训练图像的总数,Bj表示第j个训练图像,B′j表示第j个训练图像切片;在所有切片中,目标图像都位于切片的中心。其中,训练图像集包含C个类别,第c个类别的训练图像集为Mt为第t类别中训练图像的数量,并且
(2)分割图像稀疏模型参数计算
设置分割图像稀疏模型的参数,其中子图像尺寸为{(l1,h1),(l2,h2),(l3,h3),…,(la,ha)},加权子图像比例为{r1,r2,r3,…,rb},权值为{w1,w2,w3,…,wg};获得分割图像稀疏模型的参数组{(lk,hk),rk,wk},k∈[1,J];其中J为参数组的个数。
本实施例中,所述步骤2中,采用遍历法得到分割图像稀疏模型的参数组。遍历法是指分别从子图像尺寸、加权子图像比例和权值中选择一个值来得到分割图像稀疏模型的参数组,穷尽三个参数的所有组合方式。此时参数组的个数为J=abg。遍历法如图1所示。
所述步骤2中,除了采用遍历法计算分割图像稀疏模型的参数组外,还可以采用其他组合方法或者直接指定若干组参数组,所起的作用与本实施例中遍历法所起的作用相同。
(3)利用分割图像稀疏模型计算加权图像
选择第k个参数组{(lk,hk),rk,wk},按照从左至右、从上到下的分割方法将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]分割成测试子图像集{A″(1),A″(2),A″(3),…,A″(S)}和训练子图像集{{B″1(1),B″2(1),B″3(1),…,B″M(1)},{B″1(2),B″2(2),B″3(2),…,B″M(2)},…,{B″1(S),B″2(S),B″3(S),…,B″M(S)}};分割方法如图2所示。对测试子图像集和训练子图像集进行降采样、向量化和归一化处理,获得相应的测试子样本{y″(1),y″(2),y″(3),…,y″(S)}和子字典{D″(1),D″(2),D″(3),…,D″(S)};利用稀疏表示模型计算第s,s∈[1,S]个测试子样本y″(s)在相应的子字典D″(s)上的稀疏表示系数向量此时稀疏表示模型的目标函数为:
计算测试子样本y″(s)对应的重构子样本及对应的稀疏重构误差利用所述稀疏表示模型计算所有S个测试子样本的稀疏表示系数向量,最终得到S个稀疏重构误差{e″(1),e″(2),e″(3),…,e″(S)};选择S个稀疏重构误差中最大的rkS个稀疏重构误差对应的下标组成集合Φ,将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]中与集合Φ对应的每个子图像的所有像素乘以权值wk,得到第k个加权测试图像切片A″′(k)和第k组加权训练图像切片集{B″′j(k)},j∈[1,M];
本实施例中,所述步骤3中,将测试图像切片和训练图像切片分割成矩形。除此之外,还可以将测试图像切片和训练图像切片分割成正方形、三角形、平行四边形或任意随机形状,与分割成矩形所起的作用相同。
(4)遍历参数组得到所有加权图像切片
选择所有J个参数组{(lk,hk),rk,wk},k∈[1,J]并重复执行步骤三,得到J个加权测试图像切片{A″′(1),A″′(2),A″′(3),…,A″′(J)}和加权训练图像切片集{{B″′j(1),j∈[1,M]},{B″′j(2),j∈[1,M]},{B″′j(3),j∈[1,M]},…,{B″′j(J),j∈[1,M]}};分别对所有加权图像切片进行降采样、向量化和归一化处理,得到加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}和加权字典集{D″′1,D″′2,D″′3,…,D″′J}。
本实施例中,所述步骤3和步骤4中,采用降采样来降低图像的数据量,还可以采用诸如小波变换等能够保持图像局部不变性特征的变换方法,与降采样的作用相同。
(5)选择融合策略
选择对加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}及相应的加权字典集{D″′1,D″′2,D″′3,…,D″′J}进行像素级融合或者决策级融合,即,选择用像素级融合方法或用决策级融合方法处理加权测试样本集和加权字典集并识别目标。选择用像素级融合方法处理加权测试样本集和加权字典集并识别目标如步骤6所示,选择用决策级融合方法处理加权测试样本集和加权字典集并识别目标如步骤7所示。
(6)利用像素级融合处理加权测试样本集和加权字典集并识别目标
首先,利用像素级融合方法分别融合加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}和加权字典集{D″′1,D″′2,D″′3,…,D″′J},得到融合测试样本和融合字典其中Fp()为像素级融合函数。本实施例中,Fp()选择算术平均像素级融合函数,即融合测试样本中的元素是所有加权测试样本中对应位置的元素相加并求平均,融合字典中的元素是所有加权字典中对应位置的元素相加并求平均。
定义映射函数为选出稀疏表示系数向量中与第i类训练样本相对应的那部分系数,并将其余的系数置零。相应的融合测试样本在第c,c∈[1,C]类融合子字典上的稀疏重构向量为相应的稀疏重构误差为所有类型的稀疏重构误差组成的稀疏重构误差向量为
最后,将目标的类型判定为融合测试样本的最小稀疏重构误差所对应的类型。
(7)利用决策级融合处理加权测试样本集和加权字典集并识别目标
首先,利用第i,i∈[1,J]个加权字典D″′i稀疏表示对应的加权测试样本y″′i,此时稀疏表示模型的目标函数为
其中,加权测试样本y″′i在加权字典D″′i的第c,c∈[1,C]个加权子字典上的稀疏重构向量为y″′i在加权字典D″′i的第c个加权子字典上的重构误差为加权测试样本y″′i在加权字典D″′i的所有加权子字典上的稀疏重构误差向量为e′i=[e′i(1),e′i(2),e′i(3),…,e′i(C)]T。所有J个加权测试样本{y″′1,y″′2,y″′3,…,y″′J}的稀疏重构误差向量的组合构成稀疏重构误差向量集{e′1,e′2,e′3,…,e′J}。
然后,采用决策级融合方法处理稀疏重构误差向量集{e′1,e′2,e′3,…,e′J},得到融合稀疏重构误差向量e(d),其中Fd()为决策级融合函数。本实施例中,Fd()选择算术平均决策级融合函数,即融合稀疏重构误差向量e(d)中第c,c∈[1,C]个元素是所有稀疏重构误差向量中对应位置的元素相加并求平均。
最后,将目标的类型判定为融合稀疏重构误差向量e(d)中最小重构误差对应的类型。
本发明中,稀疏表示模型的其他目标函数表达形式与步骤3、步骤6和步骤7中稀疏表示模型的目标函数的作用相同。本实施例中,步骤6中的像素级融合方法为算术平均法,步骤7中的决策级融合方法为算术平均法。除此之外,还可以采用其他像素级融合方法或其他决策级融合方法,与本实施例中的算术平均法的作用相同。
本发明基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法的处理流程如图3所示。
下面以实验的方式说明本发明在识别合成孔径雷达遮挡目标时的优势。实验采用MSTAR数据集中的10类SAR目标图像作为实验对象。每幅图像包含一个车辆目标,其大小为128×128像素。实验采用俯仰角为17度的数据作为训练数据,俯仰角为15度的数据作为测试数据。实验涉及SAR图像数据的统计信息如表1所示。在实验中,原始图像被裁切成大小为64×64像素的图像切片,降采样间隔为(2,2),最终训练样本和测试样本的维数为1024。稀疏度K为10,子图像尺寸设置为{7,8,9},加权子图像比例设置为{1/2,1/3},权值设置为{0.0,0.1,0.2}。实验采用LSVM、KSVM、SR、KSR、ISR、CNN、FSVM和FSR作为对比方法。当SAR目标的遮挡比例从0.1增加到0.5时各种方法的识别率如图4所示。
表1实验数据统计信息
由实验结果可知:本发明方法中的像素级融合和决策级融合在各种遮挡比例时的目标识别率都高于所有对比算法在相应遮挡比例时的目标识别率。目标遮挡比例越大,本发明方法的优势越明显。在目标遮挡比例从0.1增加到0.5的过程中,本发明方法的识别率降低幅度最小。这表明,本发明方法在遮挡情况下具有最好的鲁棒性。此外,本发明方法中决策级融合和像素级融合的识别性能也有一定程度的差异,决策级融合在各种遮挡比例时的识别率都高于像素级融合的识别率。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是局限性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护范围之内。
Claims (8)
1.一种基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,包括以下步骤:
步骤一,对合成孔径雷达采集的测试图像A和训练图像集{Bj},j∈[1,M]进行预处理,得到形状大小相同的矩形测试图像切片A′和矩形训练图像切片集{B′j},j∈[1,M];M为训练图像的总数,Bj表示第j个训练图像,B′j表示第j个训练图像切片;其中,训练图像集包含C个类别,第c个类别的训练图像集为Mt为第t类别中训练图像的数量,并且
步骤二,设置分割图像稀疏模型的参数,其中子图像尺寸为{(l1,h1),(l2,h2),(l3,h3),…,(la,ha)},加权子图像比例为{r1,r2,r3,…,rb},权值为{w1,w2,w3,…,wg};获得分割图像稀疏模型的参数组{(lk,hk),rk,wk},k∈[1,J];其中J为参数组的个数;
步骤三,选择第k个参数组{(lk,hk),rk,wk},将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]分割成测试子图像集{A″(1),A″(2),A″(3),…,A″(S)}和训练子图像集{{B″1(1),B″2(1),B″3(1),…,B″M(1)},{B″1(2),B″2(2),B″3(2),…,B″M(2)},…,{B″1(S),B″2(S),B″3(S),…,B″M(S)}};对测试子图像集和训练子图像集进行处理,获得相应的测试子样本{y″(1),y″(2),y″(3),…,y″(S)}和子字典{D″(1),D″(2),D″(3),…,D″(S)};利用稀疏表示模型计算第s,s∈[1,S]个测试子样本y″(s)在相应的子字典D″(s)上的稀疏表示系数向量计算测试子样本y″(s)对应的重构子样本及对应的稀疏重构误差利用所述稀疏表示模型计算所有S个测试子样本的稀疏表示系数向量,最终得到S个稀疏重构误差{e″(1),e″(2),e″(3),…,e″(S)};选择S个稀疏重构误差中最大的rkS个稀疏重构误差对应的下标组成集合Φ,将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]中与集合Φ对应的每个子图像的所有像素乘以权值wk,得到第k个加权测试图像切片A″′(k)和第k组加权训练图像切片集{B″′j(k)},j∈[1,M];
步骤四,选择所有J个参数组{(lk,hk),rk,wk},k∈[1,J]并重复执行步骤三,得到J个加权测试图像切片{A″′(1),A″′(2),A″′(3),…,A″′(J)}和加权训练图像切片集{{B″′j(1),j∈[1,M]},{B″′j(2),j∈[1,M]},{B″′j(3),j∈[1,M]},…,{B″′j(J),j∈[1,M]}};分别对所有加权图像切片进行处理,得到加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}和加权字典集{D″′1,D″′2,D″′3,…,D″′J};
步骤五,选择像素级融合方法或决策级融合方法处理加权测试样本集和加权字典集并识别目标;
所述步骤五中,采用像素级融合方法处理加权测试样本集和加权字典集并识别目标,包括:
首先,利用像素级融合方法分别融合加权测试样本集{y″′1,y″′2,y″′3,…,y″′J}和加权字典集{D″′1,D″′2,D″′3,…,D″′J},得到融合测试样本和融合字典其中Fp()为像素级融合函数;
最后,将目标的类型判定为融合测试样本的最小稀疏重构误差所对应的类型。
2.如权利要求1所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,所述步骤二中,采用遍历法得到分割图像稀疏模型的参数组。
3.如权利要求1所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,所述步骤三中,选择第k个参数组{(lk,hk),rk,wk},按照从左至右、从上到下的分割方法将测试图像切片A′和训练图像切片集{B′j},j∈[1,M]分割成大小为(lk,hk)的测试子图像集和训练子图像集。
4.如权利要求1所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,所述步骤三中,将测试图像切片和训练图像切片分割成正方形、三角形、平行四边形或任意随机形状。
5.如权利要求1所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,所述步骤三中,对测试子图像集和训练子图像集进行降采样、向量化和归一化处理;所述步骤四中,对得到的所有加权图像切片进行降采样、向量化和归一化处理。
6.如权利要求1所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,所述步骤五中,采用决策级融合方法处理加权测试样本集和加权字典集并识别目标,包括:
首先,利用第i,i∈[1,J]个加权字典D″′i稀疏表示对应的加权测试样本y″′i,其中,加权测试样本y″′i在加权字典D″′i的第c,c∈[1,C]个加权子字典上的稀疏重构向量为y″′i在加权字典D″′i的第c个加权子字典上的重构误差为加权测试样本y″′i在加权字典D″′i的所有加权子字典上的稀疏重构误差向量为e′i=[e′i(1),e′i(2),e′i(3),…,e′i(C)]T; 所有J个加权测试样本{y″′1,y″′2,y″′3,…,y″′J}的稀疏重构误差向量的组合构成稀疏重构误差向量集{e′1,e′2,e′3,…,e′J};
最后,将目标的类型判定为融合稀疏重构误差向量e(d)中最小重构误差对应的类型。
7.如权利要求1所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,Fp()为算术平均像素级融合函数。
8.如权利要求6所述的基于分割图像稀疏表示的SAR图像融合遮挡目标识别方法,其特征在于,Fd()为算术平均决策级融合函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911074876.XA CN110837801B (zh) | 2019-11-06 | 2019-11-06 | 基于分割图像稀疏表示的sar图像融合遮挡目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911074876.XA CN110837801B (zh) | 2019-11-06 | 2019-11-06 | 基于分割图像稀疏表示的sar图像融合遮挡目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110837801A CN110837801A (zh) | 2020-02-25 |
CN110837801B true CN110837801B (zh) | 2022-08-02 |
Family
ID=69574746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911074876.XA Active CN110837801B (zh) | 2019-11-06 | 2019-11-06 | 基于分割图像稀疏表示的sar图像融合遮挡目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110837801B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984966A (zh) * | 2014-05-29 | 2014-08-13 | 西安电子科技大学 | 基于稀疏表示的sar图像目标识别方法 |
CN105913053A (zh) * | 2016-06-07 | 2016-08-31 | 合肥工业大学 | 一种基于稀疏融合的单演多特征的人脸表情识别方法 |
CN108122008A (zh) * | 2017-12-22 | 2018-06-05 | 杭州电子科技大学 | 基于稀疏表示和多特征决策级融合的sar图像识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152881B2 (en) * | 2012-09-13 | 2015-10-06 | Los Alamos National Security, Llc | Image fusion using sparse overcomplete feature dictionaries |
KR101549645B1 (ko) * | 2014-01-28 | 2015-09-03 | 영남대학교 산학협력단 | 표정 동작사전을 이용한 표정인식 방법 및 장치 |
-
2019
- 2019-11-06 CN CN201911074876.XA patent/CN110837801B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984966A (zh) * | 2014-05-29 | 2014-08-13 | 西安电子科技大学 | 基于稀疏表示的sar图像目标识别方法 |
CN105913053A (zh) * | 2016-06-07 | 2016-08-31 | 合肥工业大学 | 一种基于稀疏融合的单演多特征的人脸表情识别方法 |
CN108122008A (zh) * | 2017-12-22 | 2018-06-05 | 杭州电子科技大学 | 基于稀疏表示和多特征决策级融合的sar图像识别方法 |
Non-Patent Citations (1)
Title |
---|
"Adaptive Weighting Based on Subimage Sparse Model for SAR Occluded Target Recognition";Zhiqiang He et al.;《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》;20190831;第2976-2988页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110837801A (zh) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN110335290B (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN110287932B (zh) | 基于深度学习图像语义分割的道路阻断信息提取方法 | |
CN110728658A (zh) | 一种基于深度学习的高分辨率遥感影像弱目标检测方法 | |
CN111612817A (zh) | 基于深浅特征自适应融合与上下文信息的目标跟踪方法 | |
CN108305260B (zh) | 一种图像中角点的检测方法、装置及设备 | |
CN113052200B (zh) | 一种基于yolov3网络的声呐图像目标检测方法 | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
CN109035300B (zh) | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 | |
CN111860587B (zh) | 一种用于图片小目标的检测方法 | |
CN111984817B (zh) | 一种基于自注意力机制加权的细粒度图像检索方法 | |
CN110717480B (zh) | 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法 | |
CN113569724B (zh) | 基于注意力机制和扩张卷积的道路提取方法及系统 | |
CN110991547A (zh) | 一种基于多特征最优融合的图像显著性检测方法 | |
CN113920400A (zh) | 一种基于改进YOLOv3的金属表面缺陷检测方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN111199245A (zh) | 油菜害虫识别方法 | |
CN114764801A (zh) | 基于多视觉显著特征的弱小舰船目标融合检测方法及装置 | |
CN111640138A (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
CN112613565B (zh) | 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法 | |
CN114299383A (zh) | 基于密度图与注意力机制融合的遥感图像目标检测方法 | |
CN113610178A (zh) | 一种基于视频监控图像的内河船舶目标检测方法和装置 | |
CN116310837B (zh) | 一种sar舰船目标旋转检测方法及系统 | |
Zhong et al. | Classification for SAR scene matching areas based on convolutional neural networks | |
CN117218545A (zh) | 基于LBP特征与改进Yolov5的雷达图像检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |