CN110717480A - 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法 - Google Patents

基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法 Download PDF

Info

Publication number
CN110717480A
CN110717480A CN201911020926.6A CN201911020926A CN110717480A CN 110717480 A CN110717480 A CN 110717480A CN 201911020926 A CN201911020926 A CN 201911020926A CN 110717480 A CN110717480 A CN 110717480A
Authority
CN
China
Prior art keywords
training
image slice
synthetic aperture
image
aperture radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911020926.6A
Other languages
English (en)
Other versions
CN110717480B (zh
Inventor
肖怀铁
贺志强
高超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201911020926.6A priority Critical patent/CN110717480B/zh
Publication of CN110717480A publication Critical patent/CN110717480A/zh
Application granted granted Critical
Publication of CN110717480B publication Critical patent/CN110717480B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,包括以下步骤:对合成孔径雷达采集的测试图像A和训练图像集合{Bi}进行图像预处理,得到测试图像切片A′和训练图像切片集合{B′i};随机擦除A′和各训练图像切片中的局部区域图像,得到擦除后的测试图像切片A″和擦除后的训练图像切片集合{B″i};构造测试样本和字典;计算稀疏表示系数向量,构造稀疏重构误差向量;重复擦除,得到L个稀疏重构误差向量,融合得到融合后的稀疏重构误差向量ef;获得ef中最小的稀疏重构误差对应的子字典的类型,该子字典的类型即为测试样本的类型。本发明能够消除遮挡的影响,保证在识别遮挡目标时具有好的识别性能,有效地解决了合成孔径雷达遮挡目标识别问题。

Description

基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法
技术领域
本发明属于合成孔径雷达(SAR)目标识别技术领域,特别涉及一种基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法。
背景技术
合成孔径雷达是一种先进的微波传感器。由于其不受天气、时间和光照等因素影响的优点,在资源勘探、灾难评估和海洋监测等民用和军用领域得到广泛的应用。作为合成孔径雷达的一个重要应用方向,合成孔径雷达自动目标识别技术一直是研究的热点和重点。
传统的SAR目标识别方法分为基于模板的识别和基于模型的识别两类。
基于模板的识别通过比较测试样本和模板之间的相似度来识别目标。该类方法原理简单,但是需要构建完备的模板库。这在实际应用时是个巨大的工程,通常情况下甚至是不可能实现的。
基于模型的识别建立目标的数学模型或者三维模型,通过比较测试样本模型和训练样本模型的差异来识别目标。建立满足识别要求的模型一直是该方法的难题。
随着计算机技术和人工智能技术的发展,基于机器学习的合成孔径雷达目标识别技术已经成为该领域最受关注的方法。典型的机器学习目标识别方法包括支持向量机(SVM)、稀疏表示(SR)和深度学习(DL)等。基于深度学习的SAR目标识别方法中卷积神经网络(CNN)是应用最广的模型。在标准操作条件下,深度学习方法具有最好的识别性能,但是该方法需要大量的训练样本来训练复杂的识别网络,并且网络的专用性很强,针对不同的应用场景需要训练不同的网络。此外,深度学习方法在设计网络时缺乏必要的数学模型,人员经验在其中发挥了重要作用。支持向量机识别方法和稀疏表示识别方法在标准操作环境下的识别性能略低于深度学习方法,但是其需要的训练样本数量较小,并且有完备的数学模型。此外该方法的适用性更广,在扩展操作条件下的识别性能优于深度学习方法。
基于支持向量机的合成孔径雷达目标识别方法首先利用训练样本来计算支持向量,然后根据测试样本和支持向量的关系来判断目标的类型。基于稀疏表示的合成孔径雷达目标识别方法首先利用训练样本来构造字典,或者采用字典学习方法来学习字典,然后利用字典来稀疏表示测试样本并根据稀疏重构误差来判断目标的类型。基于深度学习的合成孔径雷达目标识别方法首先设计卷积神经网络,然后利用训练样本来训练网络中的超参数,最后利用训练好的卷积神经网络来判断目标的类型。
无论是基于支持向量机的合成孔径雷达目标识别方法、基于稀疏表示的合成孔径雷达目标识别方法,还是基于卷积神经网络的合成孔径雷达目标识别方法,在识别过程中都是用完整的目标作为处理对象,没有考虑遮挡等原因导致的目标不完整的情况,因此这些方法主要是针对完整目标图像识别。实际应用中经常会出现目标位于其他物体后面的情况。这些物体会对目标形成遮挡,此时目标是不完整的。遮挡导致部分目标图像缺失,这会导致测试样本特征和训练样本特征明显不同。由于上述识别方法都是基于完整的目标来提取特征并识别,因此传统识别方法识别遮挡目标时的识别性能会剧烈恶化。
发明内容
当目标因被遮挡而导致其图像不完整时,现有的目标识别技术的识别性能会剧烈恶化,因此现有的目标识别方法不能适应目标被遮挡情况下的识别。本发明的目的在于,针对上述现有技术的不足,提供一种基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,能够消除遮挡的影响,保证在识别遮挡目标时具有好的识别性能,有效地解决了合成孔径雷达遮挡目标识别问题。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特点是包括以下步骤:
步骤一,对合成孔径雷达采集的测试图像A和训练图像集合{Bi}进行图像预处理,得到形状大小相同的测试图像切片A′和训练图像切片集合{B′i};其中,i∈[1,M],M为训练图像的总数,Bi表示第i个训练图像,B′i表示第i个训练图像切片;
步骤二,随机擦除测试图像切片A′的局部区域图像,得到擦除后的测试图像切片A″;并擦除各训练图像切片中与该局部区域位置对应区域的图像,得到擦除后的训练图像切片集合{B″i},B″i表示第i个擦除后的训练图像切片;
步骤三,首先,对擦除后的测试图像切片A″和训练图像切片集合{B″i}进行降采样,对应得到降采样的测试图像切片A″′和降采样的训练图像切片集合{B″′i},B″′i表示第i个降采样的训练图像切片;然后,将降采样的测试图像切片A″′中的各列拼接到一起并归一化处理,得到测试样本y;将各降采样的训练图像切片中的各列拼接到一起并归一化处理,得到训练样本集合{di},di表示第i个训练样本;最后,利用训练样本集合{di}构造字典D;将字典D表示成由C个子字典构成的形式D=[D1,D2,…,Dm,…DC-1,DC],其中m∈[1,C],C为训练图像集合{Bi}中类型的总数,Dm表示第m类类型对应的子字典;
步骤四,计算测试样本y的稀疏表示系数向量
Figure BDA0002247175820000041
获得测试样本y在各个子字典上的稀疏重构误差,构造稀疏重构误差向量;
步骤五,重复执行步骤二~步骤四,得到L个稀疏重构误差向量,融合该L个稀疏重构误差向量后得到融合后的稀疏重构误差向量ef
步骤六,获得融合后的稀疏重构误差向量ef中最小的稀疏重构误差对应的子字典的类型,该子字典的类型即为测试样本的类型。
作为一种优选方式,所述步骤二中,按照设置的擦除比例ri擦除测试图像切片A′或各训练图像切片中局部区域的图像。
作为另一种优选方式,所述步骤二中,按照设置的擦除面积擦除测试图像切片A′或各训练图像切片中局部区域的图像。
作为一种优选方式,所述步骤二中,随机擦除的局部区域形状为正方形、长方形、圆形、三角形或任意随机形状。
作为一种优选方式,所述步骤三中,采用训练样本直接组合的方式构造字典D。
作为另一种优选方式,所述步骤三中,利用训练样本集合{di},基于字典学习方法得到字典D。
作为一种优选方式,所述步骤四中,采用设定的稀疏表示模型计算测试样本y的稀疏表示系数向量
作为一种优选方式,所述步骤四中,采用稀疏编码方法计算稀疏表示系数向量。
作为一种优选方式,所述步骤四中,所述稀疏编码方法为贪婪算法中的正交匹配追踪算法。
作为一种优选方式,所述步骤五中,采用算术平均融合算法作为融合方法融合L个稀疏重构误差向量。
在合成孔径雷达的视线方向上有物体位于目标前面时,就会对目标形成遮挡。遮挡不但导致部分目标信息缺失,还增加了遮挡物体形成的干扰信息。因此,在识别遮挡目标时,最直接和最有效的方法是直接从SAR图像中剔除遮挡物体的图像。要剔除遮挡物体的图像,前提是获取遮挡物体位置和尺寸的准确信息。而在实际应用中要获取这些信息通常是非常困难,甚至是不可能的。为了回避获取遮挡物体准确信息这个难题,本发明方法采用了随机擦除的方式。本发明方法随机选择图像中的部分区域并将其置零,使得该部分区域在识别中不起作用。如果擦除区域与遮挡图像完全重合,则随机擦除可以完全消除遮挡的影响。但是这种理想状态通常不会出现。实际中经常出现两种情况:一是擦除区域只包含了部分遮挡区域,二是擦除区域完全没有包含遮挡区域。这两种情况会给识别带来下列影响:一是部分遮挡区域没有被擦除,还保留在SAR图像中;二是部分未遮挡区域被错误的擦除,导致部分目标图像缺失了。为了克服随机擦除的这些缺点,本发明方法采用多次随机擦除后再融合的策略。首先对图像进行多次独立的随机擦除,然后对每次的擦除结果计算稀疏重构误差向量,最后融合这些稀疏重构误差向量并以此来识别目标。
多次随机擦除结合融合策略能够克服单次随机擦除中部分遮挡区域未被擦除的原因如下:多次随机擦除中每次擦除的区域通常是不同的。融合策略将所用擦除的区域结合到一起,从而提高了多次随机擦除中总的擦除区域完全覆盖遮挡区域的概率。此外多次随机擦除结合融合策略能够克服单次随机擦除中部分未遮挡区域被误擦除的原因如下:首先,图像中像素在识别中发挥的作用不同。一些像素在识别中发挥着关键作用,而其他像素在识别中只发挥次要作用。通常将那些对识别性能影响很小的像素称为冗余像素。错误擦除的像素中可能包括部分冗余像素。尽管这些像素被错误地擦除,但它们对识别性能的影响较小。其次,遮挡区域和未遮挡区域对识别性能的影响不同。未遮挡区域为目标识别提供正确信息,未遮挡区域被错误擦除仅仅减少了正确信息的数量。遮挡不仅消除了遮挡区域中原有的正确信息,还引入了多余的干扰信息。通常情况下干扰信息对识别的破坏比正确信息缺失对识别的影响更严重。因此擦除遮挡区域的好处可以补偿错误地擦除未遮挡区域的坏处。最后,尽管单次随机擦除可能导致部分未遮挡区域被错误地擦除。但是各次随机擦除的擦除区域都不相同,在某次随机擦除中被错误擦除的未遮挡区域可能在其它随机擦除中得到保留。融合策略使得单次随机擦除中错误擦除的区域能够被其它随机擦除补偿。
综上,与现有技术相比,本发明能够消除遮挡的影响,进而避免遮挡所带入的干扰信息对识别性能的影响,保证在识别遮挡目标时具有好的识别性能,有效地解决了合成孔径雷达遮挡目标识别问题。
附图说明
图1为擦除前后图像切片对比图。
图2为图像切片降采样示意图。
图3为字典、子字典和原子之间的关系示意图。
图4为稀疏表示模型示意图。
图5为本发明方法流程。
图6为在不同遮挡比例下各做100次实验的识别率结果图。
具体实施方式
基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法包括以下步骤:
(1)SAR图像预处理
将合成孔径雷达采集的测试图像A和训练图像集合{Bi}进行图像预处理,即将其裁切成尺寸为N×H的测试图像切片A′和训练图像切片集合{B′i}。训练图像集合{B′i}总共包括C个类型,第m类的训练图像集合为
Figure BDA0002247175820000071
Mt为第t类训练图像的个数,满足条件
Figure BDA0002247175820000081
裁切过程中保证测试图像和训练图像集合中的目标图像位于各自切片的中心。其中,i∈[1,M],M为训练图像的总数,Bi表示第i个训练图像,B′i表示第i个训练图像切片。
(2)随机擦除图像切片
设置擦除比例ri,在测试图像切片A′中随机选择某一位置的局部正方形区域(也可以为长方形、圆形、三角形或其它任意随机形状),将该大小为N×H×ri的正方形区域内的像素点的强度全部置为0,得到擦除后的测试图像切片A″。并将所有训练图像切片中与该局部正方形区域位置对应区域的像素点的强度也置为0,得到擦除后的训练图像切片集合{B″i},i∈[1,M];B″i表示第i个擦除后的训练图像切片。原始图像切片和擦除后图像切片的例子如图1所示。
本实施例中,采用擦除比例定义擦除区域的大小。除此之外,也可采用擦除面积等反映区域大小的指标来定义擦除区域的大小。
(3)构造训练样本和字典
首先,对擦除后的测试图像切片A″和训练图像切片集合{B″i}进行降采样,具体为设置图像切片两个维度上的降采样间隔(lh,lv),对擦除后的测试图像切片A″和擦除后的训练图像切片集合{B″i}进行降采样,对应得到降采样的测试图像切片A″′和降采样的训练图像切片集合{B″′i},B″′i表示第i个降采样的训练图像切片。图像降采样的例子如图2所示。图2中每个方块表示一个像素,降采样间隔为(2,2)。
然后,将降采样的测试图像切片A″′中的各列拼接到一起,构成未归一化的测试样本y′;将各降采样的训练图像切片中的各列拼接到一起,构成未归一化的训练样本集合{d′i},i∈[1,M]。接着分别将未归一化的测试样本y′和未归一化的训练样本集合{d′i},i∈[1,M]进行归一化,得到测试样本y和训练样本集合{di},i∈[1,M],di表示第i个训练样本。其中,未归一化的测试样本的归一化公式为y=y′/||y′||F,未归一化的训练样本的归一化公式与其类似,||·||F为向量的Frobenius范数。
最后,将所有训练样本组合到一起构成字典D。字典组合公式为D=[d1,d2,…,dM-1,dM]。字典D也可表示成由C个子字典构成的形式D=[D1,D2,…,Dm,…DC-1,DC],其中Dm,m∈[1,C]为第m个子字典。该子字典由第m类训练样本组合而成。字典D、子字典和字典原子之间的关系示意如图3所示。在图3中每一列表示一个字典原子,每个方块表示一个像素。本实施例中,采用训练样本直接组合的方式构造字典D。除此之外,也可采用K奇异值分解(K-SVD)等字典学习方法得到字典D。
(4)计算稀疏表示系数和稀疏重构误差向量
设置稀疏度K,采用稀疏表示模型计算测试样本y的稀疏表示系数向量
Figure BDA0002247175820000091
图4为稀疏表示模型的示意图,其中每个方块表示一个像素,方块的颜色越深表示像素的灰度值越小,黑色方块表示像素灰度值为0。稀疏表示模型的目标函数为
Figure BDA0002247175820000092
s.t.||x||0≤K
其中||·||0为向量的零范数,即向量中非零元素的个数。稀疏表示系数向量的计算方法为正交匹配追踪算法(OMP)。定义映射函数δi:
Figure BDA0002247175820000093
其功能为选择稀疏表示系数向量中与第i类训练样本对应的那些系数,而将其余的系数置零。则测试样本y在第i个子字典上的稀疏重构向量为
Figure BDA0002247175820000101
相应的稀疏重构误差为
Figure BDA0002247175820000102
分别计算测试样本在各个子字典上的稀疏重构误差ei,i∈[1,C],然后构造稀疏重构误差向量e′=[e1,e2,…,eC-1,eC]T
稀疏表示模型除了本发明实施例中给出的表达形式之外,还有其余表达形式,其实质与本发明方法相同。本实施例中采用正交匹配追踪算法(OMP)计算稀疏表示系数向量。除此之外,还可以采用诸如匹配追踪等其余贪婪算法等稀疏编码方法,作用与本发明所采用方法相同。
(5)多次随机擦除结果融合
设置擦除次数L,重复执行步骤2到步骤4,得到L个稀疏重构误差向量{e′1,e′2,…,e′L-1,e′L},其中
Figure BDA0002247175820000103
采用算术平均融合方法融合L个稀疏重构误差向量,得到融合后的稀疏重构误差向量
Figure BDA0002247175820000104
Figure BDA0002247175820000105
本实施例中,采用算术平均融合算法作为融合方法融合L个稀疏重构误差向量。除此之外,还可以采用其余决策级融合方法,所起的作用相同。
(6)测试样本识别
利用最小重构误差准则判断测试样本的类型。测试样本的类型判定为融合后的稀疏重构误差向量ef中最小的稀疏重构误差对应的子字典的类型。
Figure BDA0002247175820000111
本发明基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法流程如图5所示。
下面以实验的方式说明本发明在识别合成孔径雷达遮挡目标时的优势。实验采用MSTAR数据集中的10类SAR目标图像作为实验对象。MSTAR数据集包含了10类地面车辆目标的SAR图像。每幅图像的大小为128×128像素。每幅图像包含一个车辆目标。采用俯仰角为17度的数据作为训练数据,俯仰角为15度的数据作为测试数据。实验中所用数据的统计信息如表1所示。
表1 实验数据统计信息
在实验中,原始图像被裁切成大小为64×64像素的图像切片,降采样间隔为(2,2),最后得到的训练样本和测试样本是维数为1024的矢量。实验设置擦除次数L为20次,擦除比例ri为0.4和0.5,其中每个擦除比例的擦除次数为10次,稀疏度K为10。实验采用线性支持向量机(LSVM)、核支持向量机(KSVM)、稀疏表示(SR)、核稀疏表示(KSR)、卷积神经网络(CNN)、支持向量机融合(FSVM)和稀疏表示融合(FSR)方法作为对比方法。各种方法在SAR目标的遮挡比例从0.1增加到0.5时的识别率如表2所示。
表2 各种方法遮挡情况下识别结果
Figure BDA0002247175820000121
由表2可知:在SAR目标的各种遮挡比例处,本发明方法的识别率都高于其他方法的识别率。并且目标遮挡比例越大,本发明方法的优势越明显。
由于本发明方法中每次擦除时擦除区域是随机的,因此本发明方法的识别率有一定的随机性。为了验证本发明方法的统计特性,将实验重复100次,本发明方法每次实验的识别率和统计特性分别如图6和表3所示。图6中的各条曲线分别表示目标遮挡比例从0.1增加到0.5时的识别率。
表3 100次实验的统计特性
Figure BDA0002247175820000131
由图6和表3的结果可知:虽然本发明方法识别遮挡目标时的识别率存在一定的波动,但是识别率总体趋势是稳定的。对比表3和表2中的数据可知:本发明方法在各种遮挡比例下识别率的最小值都大于对比方法的识别率。这也证明了本发明方法在识别SAR遮挡目标时具有更好的识别性能。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是局限性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护范围之内。

Claims (10)

1.一种基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,包括以下步骤:
步骤一,对合成孔径雷达采集的测试图像A和训练图像集合{Bi}进行图像预处理,得到形状大小相同的测试图像切片A′和训练图像切片集合{B′i};其中,i∈[1,M],M为训练图像的总数,Bi表示第i个训练图像,B′i表示第i个训练图像切片;
步骤二,随机擦除测试图像切片A′的局部区域图像,得到擦除后的测试图像切片A″;并擦除各训练图像切片中与该局部区域位置对应区域的图像,得到擦除后的训练图像切片集合{B″i},B″i表示第i个擦除后的训练图像切片;
步骤三,首先,对擦除后的测试图像切片A″和训练图像切片集合{B″i}进行降采样,对应得到降采样的测试图像切片A″′和降采样的训练图像切片集合{B″′i},B″′i表示第i个降采样的训练图像切片;然后,将降采样的测试图像切片A″′中的各列拼接到一起并归一化处理,得到测试样本y;将各降采样的训练图像切片中的各列拼接到一起并归一化处理,得到训练样本集合{di},di表示第i个训练样本;最后,利用训练样本集合{di}构造字典D;将字典D表示成由C个子字典构成的形式D=[D1,D2,…,Dm,…DC-1,DC],其中m∈[1,C],C为训练图像集合{Bi}中类型的总数,Dm表示第m类类型对应的子字典;
步骤四,计算测试样本y的稀疏表示系数向量获得测试样本y在各个子字典上的稀疏重构误差,构造稀疏重构误差向量;
步骤五,重复执行步骤二~步骤四,得到L个稀疏重构误差向量,融合该L个稀疏重构误差向量后得到融合后的稀疏重构误差向量ef
步骤六,获得融合后的稀疏重构误差向量ef中最小的稀疏重构误差对应的子字典的类型,该子字典的类型即为测试样本的类型。
2.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤二中,按照设置的擦除比例ri擦除测试图像切片A′或各训练图像切片中局部区域的图像。
3.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤二中,按照设置的擦除面积擦除测试图像切片A′或各训练图像切片中局部区域的图像。
4.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤二中,随机擦除的局部区域形状为正方形、长方形、圆形、三角形或任意随机形状。
5.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤三中,采用训练样本直接组合的方式构造字典D。
6.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤三中,利用训练样本集合{di},基于字典学习方法得到字典D。
7.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤四中,采用设定的稀疏表示模型计算测试样本y的稀疏表示系数向量
Figure FDA0002247175810000021
8.如权利要求7所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤四中,采用稀疏编码方法计算稀疏表示系数向量。
9.如权利要求8所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤四中,所述稀疏编码方法为贪婪算法中的正交匹配追踪算法。
10.如权利要求1所述的基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法,其特征在于,所述步骤五中,采用算术平均融合算法作为融合方法融合L个稀疏重构误差向量。
CN201911020926.6A 2019-10-25 2019-10-25 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法 Active CN110717480B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911020926.6A CN110717480B (zh) 2019-10-25 2019-10-25 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911020926.6A CN110717480B (zh) 2019-10-25 2019-10-25 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法

Publications (2)

Publication Number Publication Date
CN110717480A true CN110717480A (zh) 2020-01-21
CN110717480B CN110717480B (zh) 2022-06-03

Family

ID=69214268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911020926.6A Active CN110717480B (zh) 2019-10-25 2019-10-25 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法

Country Status (1)

Country Link
CN (1) CN110717480B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111722195A (zh) * 2020-06-29 2020-09-29 上海蛮酷科技有限公司 一种雷达遮挡检测方法及计算机存储介质
CN111899209A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积匹配追踪字典学习的可见光红外图像融合方法
CN111899207A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于局部处理卷积字典学习的可见光与红外图像融合方法
CN112052878A (zh) * 2020-08-11 2020-12-08 浙江大华技术股份有限公司 一种雷达的遮挡识别的方法、装置及存储介质
CN117093855A (zh) * 2023-10-19 2023-11-21 中电科新型智慧城市研究院有限公司 一种特征提取方法、装置、终端设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425998A (zh) * 2013-08-23 2013-12-04 西安电子科技大学 遮挡情况下的sar目标识别方法
CN103886337A (zh) * 2014-04-10 2014-06-25 西安电子科技大学 基于多稀疏描述的最近邻子空间sar目标识别方法
US20140254875A1 (en) * 2010-05-13 2014-09-11 Ecole Polytechnique Federale De Lausanne (Epfl) Method and system for automatic objects localization
CN105590088A (zh) * 2015-09-17 2016-05-18 重庆大学 一种基于稀疏自编码和稀疏表示进行交通标志识别的方法
CN107403136A (zh) * 2017-06-23 2017-11-28 陕西师范大学 基于结构保持字典学习的sar目标型号识别方法
US10176382B1 (en) * 2015-10-01 2019-01-08 Hrl Laboratories, Llc Method and apparatus for sparse associative recognition and recall for visual media reasoning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140254875A1 (en) * 2010-05-13 2014-09-11 Ecole Polytechnique Federale De Lausanne (Epfl) Method and system for automatic objects localization
CN103425998A (zh) * 2013-08-23 2013-12-04 西安电子科技大学 遮挡情况下的sar目标识别方法
CN103886337A (zh) * 2014-04-10 2014-06-25 西安电子科技大学 基于多稀疏描述的最近邻子空间sar目标识别方法
CN105590088A (zh) * 2015-09-17 2016-05-18 重庆大学 一种基于稀疏自编码和稀疏表示进行交通标志识别的方法
US10176382B1 (en) * 2015-10-01 2019-01-08 Hrl Laboratories, Llc Method and apparatus for sparse associative recognition and recall for visual media reasoning
CN107403136A (zh) * 2017-06-23 2017-11-28 陕西师范大学 基于结构保持字典学习的sar目标型号识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
MING CHANG ET AL: "Target Recognition in SAR Images Based on", 《REMOTE SENSING》 *
ZHIQIANG HE ET AL: "Adaptive Weighting Based on Subimage Sparse", 《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》 *
ZHIQIANG HE ET AL: "Synthetic Aperture Radar Target Recognition", 《2018 3RD INTERNATIONAL CONFERENCE ON COMMUNICATION, IMAGE AND SIGNAL PROCESSING》 *
刘渠芬: "基于稀疏表达的遮挡人脸识别研究", 《中国优秀博硕士学位论文全文数据库(硕士)》 *
王蒙: "联合多重字典结合扩展稀疏表示的非约束人脸识别研究", 《中国优秀博硕士学位论文全文数据库(博士)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111722195A (zh) * 2020-06-29 2020-09-29 上海蛮酷科技有限公司 一种雷达遮挡检测方法及计算机存储介质
CN111899209A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积匹配追踪字典学习的可见光红外图像融合方法
CN111899207A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于局部处理卷积字典学习的可见光与红外图像融合方法
CN112052878A (zh) * 2020-08-11 2020-12-08 浙江大华技术股份有限公司 一种雷达的遮挡识别的方法、装置及存储介质
CN111899209B (zh) * 2020-08-11 2023-09-26 四川警察学院 基于卷积匹配追踪字典学习的可见光红外图像融合方法
CN112052878B (zh) * 2020-08-11 2024-04-16 浙江大华技术股份有限公司 一种雷达的遮挡识别的方法、装置及存储介质
CN117093855A (zh) * 2023-10-19 2023-11-21 中电科新型智慧城市研究院有限公司 一种特征提取方法、装置、终端设备及介质
CN117093855B (zh) * 2023-10-19 2024-06-07 中电科新型智慧城市研究院有限公司 一种特征提取方法、装置、终端设备及介质

Also Published As

Publication number Publication date
CN110717480B (zh) 2022-06-03

Similar Documents

Publication Publication Date Title
CN110717480B (zh) 基于随机擦除图像融合的合成孔径雷达遮挡目标识别方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
US11037010B2 (en) Compositional model for text recognition
CN107424171B (zh) 一种基于分块的抗遮挡目标跟踪方法
US7706603B2 (en) Fast object detection for augmented reality systems
EP2064652B1 (en) Method of image processing
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
US20100266175A1 (en) Image and data segmentation
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
US20220366194A1 (en) Computer Vision Systems and Methods for Blind Localization of Image Forgery
Li et al. Robust object tracking with discrete graph-based multiple experts
CN116152266A (zh) 一种穿刺针超声图像的分割方法、装置和系统
Gao et al. Sea ice change detection in SAR images based on collaborative representation
US20220188345A1 (en) Search apparatus, training apparatus, search method, training method, and program
CN114998362A (zh) 基于双分割模型的医学图像分割方法
CN116563303B (zh) 一种场景可泛化的交互式辐射场分割方法
Nyasaka et al. Learning hyperspectral feature extraction and classification with resnext network
CN109508674A (zh) 基于区域划分的机载下视异构图像匹配方法
Lee et al. Enhancement for automatic extraction of RoIs for bone age assessment based on deep neural networks
Bakır et al. Evaluating the robustness of yolo object detection algorithm in terms of detecting objects in noisy environment
Lin et al. In defense of iterated conditional mode for hyperspectral image classification
Li et al. Fingertip blood collection point localization research based on infrared finger vein image segmentation
CN114612802A (zh) 基于mbcnn的舰船目标细粒度分类系统及方法
CN114842506A (zh) 一种人体姿态估计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant