CN115393739A - 一种目标识别方法、装置、设备及存储介质 - Google Patents
一种目标识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115393739A CN115393739A CN202210637297.7A CN202210637297A CN115393739A CN 115393739 A CN115393739 A CN 115393739A CN 202210637297 A CN202210637297 A CN 202210637297A CN 115393739 A CN115393739 A CN 115393739A
- Authority
- CN
- China
- Prior art keywords
- image
- attitude angle
- training data
- model
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标识别方法、装置、设备及存储介质,方法包括:获取指定图片,指定图片中包含目标图像;根据指定图像,确定与目标图像对应的姿态角信息;根据姿态角,确定与姿态角信息对应的姿态角模型;将指定图像输入姿态角模型,获得与目标图像对应的目标信息,能够基于姿态角信息获取姿态角模型,以对指定图像进行处理,获得目标信息,提高指定图像的识别率。
Description
技术领域
本公开涉及机载雷达识别领域,尤其涉及一种目标识别方法、装置、设备及存储介质。
背景技术
机载及星载合成孔径雷达(Synthetic Aperture Radar,SAR)能够在各种气候条件下昼夜工作,并产生高分辨率图像,广泛用于各类重点场景监视。深度卷积神经网络已经被用于SAR图像目标的识别,并且利用卷积神经网络在SAR 图像目标检测中获得了较好的检测效果,但都未考虑SAR姿态角这一重要目标识别影响因素。在传统的目标识别算法中有考虑到不同姿态角下的SAR图像目标的形态各不相同,利用SAR目标的姿态角信息来提高目标识别性能。然而,最近基于深度学习的SAR-ATR算法往往利用了目标的强度信息,在SAR目标识别研究中并没有考虑到SAR目标姿态角信息的关键问题,导致识别目标的准确率不高。
发明内容
本公开提供了一种目标识别方法、装置、设备及存储介质,以至少解决现有技术中存在的以上技术问题。
根据本公开的第一方面,提供了一种目标识别方法,所述方法包括:获取指定图片,所述指定图片中包含目标图像;根据所述指定图像,确定与所述目标图像对应的姿态角信息;根据所述姿态角,确定与所述姿态角信息对应的姿态角模型;将所述指定图像输入所述姿态角模型,获得与目标图像对应的目标信息。
在一可实施方式中,根据所述指定图像,确定与所述目标图像对应的姿态角信息,包括:对所述指定图像进行切割,获得指定尺寸的第一图像;对所述第一图像进行降噪处理,获得与第一图像对应的第二图像;对所述第二图像进行对比度增强,获得与第二图像对应的第三图像;基于所述第三图像,获得与第三图像对应的姿态角信息。
在一可实施方式中,根据所述姿态角,确定与所述姿态角信息对应的姿态角模型,包括:获取与机载及星载合成孔径雷达对应的第一训练数据;基于姿态角,划分出指定数量的姿态角区间,所述指定数量大于等于2;根据所述姿态角区间,将所述第一训练数据划分为指定数量的第二训练数据;根据所述第二训练数据,训练获得指定数量的姿态角子模型;融合所述姿态角子模型,获得姿态角模型。
在一可实施方式中,根据所述第二训练数据,训练获得指定数量的姿态角子模型,包括:将所述第二训练数据等分,获得第三训练数据,第三训练数据至少为两组;根据所述第三训练数据,训练获得待选子模型;获取测试样本,根据所述测试样本对所述待选子模型进行测试,获得与待测子模型对应的准确率信息;将所述准确率信息最高的待选子模型确定为姿态角子模型。
在一可实施方式中,所述第一训练数据包括,用于表征第一俯仰角的第四训练数据,和/或,用于表征第二俯仰角的第五训练数据,其中,第一俯仰角和第二俯仰角的角度不同。
根据本公开的第二方面,提供了一种目标识别装置,所述装置包括:获取模块,用于获取指定图片,所述指定图片中包含目标图像;确定模块,用于根据所述指定图像,确定与所述目标图像对应的姿态角信息;确定模块,还用于根据所述姿态角,确定与所述姿态角信息对应的姿态角模型;输入模块,用于将所述指定图像输入所述姿态角模型,获得与目标图像对应的目标信息。
在一可实施方式中,所述确定模块,还用于对所述指定图像进行切割,获得指定尺寸的第一图像;对所述第一图像进行降噪处理,获得与第一图像对应的第二图像;对所述第二图像进行对比度增强,获得与第二图像对应的第三图像;基于所述第三图像,获得与第三图像对应的姿态角信息。
在一可实施方式中,所述确定模块,还用于获取与机载及星载合成孔径雷达对应的第一训练数据;基于姿态角,划分出指定数量的姿态角区间,所述指定数量大于等于2;根据所述姿态角区间,将所述第一训练数据划分为指定数量的第二训练数据;根据所述第二训练数据,训练获得指定数量的姿态角子模型;融合所述姿态角子模型,获得姿态角模型。
在一可实施方式中,所述确定模块,还用于将所述第二训练数据等分,获得第三训练数据,第三训练数据至少为两组;根据所述第三训练数据,训练获得待选子模型;获取测试样本,根据所述测试样本对所述待选子模型进行测试,获得与待测子模型对应的准确率信息;将所述准确率信息最高的待选子模型确定为姿态角子模型。
在一可实施方式中,所述第一训练数据包括,用于表征第一俯仰角的第四训练数据,和/或,用于表征第二俯仰角的第五训练数据,其中,第一俯仰角和第二俯仰角的角度不同。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开所述的方法。
本公开的目标识别方法、装置、设备及存储介质,通过获取指定图像,根据指定图像中的目标图像确定其的姿态角信息,根据姿态角信息确定姿态角模型后,将姿态角信息作为影响因子融入姿态角模型,将指定图像输入姿态角模型,通过姿态角模型输出与目标图像对应的目标信息,从而完成对指定图像的识别,避免因为姿态角的原因造成识别失败,从而提高对目标图像的识别率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
在附图中,相同或对应的标号表示相同或对应的部分。
图1示出了本公开实施例一种目标识别方法的实现流程示意图一;
图2示出了本公开实施例一种目标识别方法的实现流程示意图二;
图3示出了本公开实施例一种目标识别方法的实现流程示意图三;
图4示出了本公开实施例一种目标识别方法的实现流程示意图四;
图5示出了本公开实施例一种目标识别方法的实现流程示意图五;
图6示出了本公开实施例一种目标识别方法的实现流程示意图六;
图7示出了本公开实施例一种目标识别方法的实现流程示意图七;
图8示出了本公开实施例一种目标识别方法的实现流程示意图八;
图9示出了本公开实施例一种目标识别装置的结构示意图;
图10示出了本公开实施例一种电子设备的组成结构示意图。
具体实施方式
为使本公开的目的、特征、优点能够更加的明显和易懂,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而非全部实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
图1示出了本公开实施例一种目标识别方法的实现流程示意图一;图2示出了本公开实施例一种目标识别方法的实现流程示意图二;请参考图1和图2;
根据本公开的第一方面,提供了一种目标识别方法,方法包括:步骤101,获取指定图片,指定图片中包含目标图像;步骤102,根据指定图像,确定与目标图像对应的姿态角信息;步骤103,根据姿态角,确定与姿态角信息对应的姿态角模型;步骤104,将指定图像输入姿态角模型,获得与目标图像对应的目标信息。
本公开的目标识别方法、装置、设备及存储介质,通过获取指定图像,根据指定图像中的目标图像确定其的姿态角信息,根据姿态角信息确定姿态角模型后,将姿态角信息作为影响因子融入姿态角模型,将指定图像输入姿态角模型,通过姿态角模型输出与目标图像对应的目标信息,从而完成对指定图像的识别,避免因为姿态角的原因造成识别失败,从而提高对目标图像的识别率。
在步骤101中,指定图片指的可以是由机载及星载合成孔径雷达获取到的图片;指定图片中包含有目标图像,目标图像指代的是指定图像中的待识别的目标,具体的,可以为军事设备。其中,指定图像中优选只存在一个目标图像;当指定图像中存在多个目标图像时,将指定图像进行切割,以将每个目标图像进行独立,以方便后续的识别,避免识别错乱。
在步骤102中,根据指定图像确定与目标图像对应的姿态角信息,姿态角指的是目标图像在指定图像中的姿态所对应的角度。具体的,指定图像是裁剪至边长相等的正方形图像,姿态角可以是指目标图像的较短边对应的中心线与水平方向的角度。具体的,如图2所示。具体的,姿态角信息可以为0-3
60度。
在步骤103中,根据姿态角信息进行模型训练,获得与与姿态角信息对应的姿态角模型;姿态角模型是用于对指定图像进行分析,从而获得与目标图像对应的目标信息的模型,具体的,目标信息指的是目标图像对应的军事设备的信息。
在步骤104中,将指定图像输入姿态角模型,获得与目标图像对应的目标信息。进一步的,目标信息中可以包括目标图像对应的名称信息、位置信息、方位信息等。
具体的,指定图像可以是在15度的俯仰角,和/或,17°的俯仰角下拍摄获得的图像。
图3示出了本公开实施例一种目标识别方法的实现流程示意图三;请参考图3;在一可实施方式中,在步骤102,根据指定图像,确定与目标图像对应的姿态角信息,包括:步骤201,对指定图像进行切割,获得指定尺寸的第一图像;步骤202,对第一图像进行降噪处理,获得与第一图像对应的第二图像;步骤203,对第二图像进行对比度增强,获得与第二图像对应的第三图像;步骤204,基于第三图像,获得与第三图像对应的姿态角信息。
在本公开实施例中,在步骤201-204中,对指定图像进行切割,是指根据指定尺寸对指定图像进行切割,需要注意的是指定尺寸肯定是大于目标图像的尺寸。进一步,根据目标图像的中心点,根据中心点和指定尺寸切割出一个正方形的图像。以使目标图像位于第一图像的中心区域。通过对第一图像进行降噪以及图像增强,从而获得更清晰的目标图像,以方便图像识别。基于第三图像,获得与第三图像对应的姿态角信息,具体的,可以根据目标图像确定与目标图像对应的中心线,具体的,当目标图像为军事设备时,中心线可以是与较长边平行的方向,根据中心线与水平轴线的角度作为姿态角。具体的,第一训练数据包括,用于表征第一俯仰角的第四训练数据,和/或,用于表征第二俯仰角的第五训练数据。第一俯仰角和第二俯仰角的角度不同。具体的,可以包括俯仰角为15度、17度、30度、45度等。
图4示出了本公开实施例一种目标识别方法的实现流程示意图四;请参考图4;
在一可实施方式中,步骤103,根据姿态角,确定与姿态角信息对应的姿态角模型,包括:步骤301,获取与机载及星载合成孔径雷达对应的第一训练数据;步骤302,基于姿态角,划分出指定数量的姿态角区间,指定数量大于等于2;步骤303,根据姿态角区间,将第一训练数据划分为指定数量的第二训练数据;步骤304,根据第二训练数据,训练获得指定数量的姿态角子模型;步骤305,融合姿态角子模型,获得姿态角模型。
在本公开实施例中,步骤301中,机载及星载合成孔径雷达(Synthetic ApertureRadar,SAR)是指能够在各种气候条件下昼夜工作,并产生高分辨率图像的雷达,广泛用于各类重点场景监视。获取与SAR对应的第一训练数据,可以是从相关的数据公开网站中获取。
在步骤302-305中,基于姿态角,划分出指定数量的姿态角区间,具体的可以是以45度为一个区间,将姿态角划分为8个区间,也可以是以90度为一个区间,将姿态角等分为4个区间。也可以是以180度为一个区间,将姿态角划分为2个区间。根据姿态角的区间,按第一训练数据中的姿态角的数值,将第一数据划分到相应的姿态角区间中,获得指定数量的第二训练数据,即与姿态角区间对应的第二训练数据。通过第二训练数进行模型训练,获得与每个第二训练数据对应的姿态角子模型,将子模型进行融合,获得姿态角模型,从而能够在目标识别时,对不同的姿态角的目标图像由不同的姿态角子模型进行识别,从而提高了识别的准确性。
其中,根据第二训练数据,训练获得指定数量的姿态角子模型,包括:将第二训练数据等分,获得第三训练数据,第三训练数据至少为两组;根据第三训练数据,训练获得待选子模型;获取测试样本,根据测试样本对待选子模型进行测试,获得与待测子模型对应的准确率信息;将准确率信息最高的待选子模型确定为姿态角子模型。通过将第二训练数据进行等分获得多组第三训练数据,优选的,第三训练数据为三组,通过三组训练数据进行训练,获得三个待选子模型,通过测试样本进行测试,将其中准确率信息最高的作为姿态角子模型,以提高模型的训练准确性。
图5示出了本公开实施例一种目标识别方法的实现流程示意图五;图6示出了本公开实施例一种目标识别方法的实现流程示意图六;图7示出了本公开实施例一种目标识别方法的实现流程示意图七;图8示出了本公开实施例一种目标识别方法的实现流程示意图八;请参考图5、图6、图7和图8。
提供一个具体实施例,步骤1:预处理
首先对SAR图像样本进行剪裁,大小为100*100,降低了背景杂波的影响。为了更好的利于SAR图像目标识别,再对剪裁后的SAR图像样本进行标准的直方图均衡化,将SAR图像的直方图分布变成近似均匀分布,从而整体增强图像的对比度。
步骤2:划分数据集
本发明使用的是公开发布的数据集MSTAR,包含在不同条件下测量的10 种不同类型的地面军事目标,光学图像如图5所示,分别为BTR60、BTR70、 T72、T62、2S1、BRDM2、D7、BMP2、ZIL131、ZSU234,训练集采用俯仰角为17°的十类图片,共计2747张;测试集采用俯仰角为15°的十类图片,共计2425张。如表1所示的训练集和测试集类别以及对应的数量。
表1训练集和测试集
原始数据集仅仅只按照俯仰角的不同分成了训练集,即俯仰角为17°和测试集,即俯仰角为15°,得到的训练集和测试集都包含姿态角为0°~360°的 SAR图像样本。然后,本文基于不同姿态角范围建立子模型的SAR图像分类方法,将完整训练数据集分别按45°、90°或者180°的间距进行划分,得到不同的数据集组合,划分后的子数据集分别为不同姿态角区间下的SAR图像样本,且每个子数据集均包含十类目标的SAR图像训练样本。
步骤3:搭建卷积神经网络结构
本发明所搭建卷积神经网络模型如图6所示,包括卷积层、激活函数、池化层、全连接层和输出层等,其中,网络输入为单幅SAR图像样本。卷积层是卷积神经网络的核心部分,Conv.c@d×d表示该卷积层包含c个尺寸为d× d的卷积核;非线性激活函数(NonlinearActivation function)这里选择为修正线性单元(Rectified Linear Unit,Relu);而池化层的主要作用是将数据下采样,本发明选择最大池化操作,该过程可以降低特征图的空间维度,去除参考价值低的数据信息,Max pool.r×r则表示池化层的下采样窗口的尺寸大小;网络最后的部分大部分是完全连接层,其作用是把最后一层卷积层输出的特征图转化成向量的形式;对于多分类问题,网络的最后部分选择Softmax函数来实现目标类别的判定。
其基本原理是构建多层次神经网络模型,运用己有分类表示的图像数据对网络模型预先进行有监督训练,通过对网络模型参数的调整以达到准确识别未知类别图像的功能。从海量图像中自主地学习出自底层次到高层次的深层特征,避免了繁琐的特征提取过程,并将从图像中学习到的特征输入到神经网络之中,通过对网络参数的调整实现目标的有效识别。
步骤4:建立多姿态角模型
通过搭建神经网络来训练不同划分方式下的三组子数据集,得到CNN训练后的子模型分别为Model_1,…,Model_n等不同模型,其中。以45°间距划分的这组数据集可得到8个子模型;训练以90°间距划分的数据集可得到4 个子模型;训练以180°间距划分的数据集可得到2个子模型。从训练后得到的三组模型中选取分类效果最好的一组子模型,再将该组子模型融合成一种多姿态角模型,如图7所示。
获得SAR图像姿态角信息后,将其送入多姿态角SAR图像分类模型,经过卷积池化等操作后,通过Softmax分类器来实现目标类别的判定,得到分类标签。该分类器会输出每个类的后验概率,进而根据最大概率的原则对SAR图像的类别做出判断。
本发明的技术效果可以通过以下仿真结果进一步说明。为了验证本发明方法在SAR图像目标识别方法中的有效性,设计了以下几组仿真实验,将其他先进的SAR-ATR方法和本发明中多姿态角模型方法进行对比。
仿真实验1:对于原本的数据集不作任何处理,得到原始数据集下的识别效果与本发明中多姿态角模型得到的目标识别效果进行对比。
由图8可知单模型下的目标识别率平均为98.81%,图8可知本发明的多姿态角模型取得了较高的目标识别率,平均达到了99.78%。图中混淆矩阵的横轴表示预测目标类别,纵轴表示真实目标类别,对角线元素表示所有目标类别的正确识别精度,非对角元素则是误分类目标的概率。可以看出,多姿态角模型中各类目标的识别率均在99%左右,部分类别的精度达到100%。结果表明,本发明提出的多姿态角模型,即经过姿态角估计后送入指定姿态角变化较小的模型得到的分类效果比原完整数据集下的分类效果要好。
仿真实验2:为进一步分析本发明方法的性能,表2比较了本发明方法与其他SAR-ATR方法在标准实验条件下的平均识别率。由于训练样本和测试样本差异很小,仅CNN的独立识别率就达到了98.81%。另一方面,本发明方法的目标识别率取得了最高的99.78%,优于SVM和SRC等算法,表明了本发明在SAR图像目标识别分类方面的有效性。
表2各类方法的平均识别率
仿真实验3:实验结果表明,较小的俯角差别并不会引起训练样本和测试样本之间存在很大差异。然而,随着俯角的增大,相对于训练样本,测试样本则会发生变化。如表3所示,若训练集由2S1、BDRM2、T-72和ZSU234在17°俯角下的SAR图像组成,而测试样本由俯角为30°和45°两个子集的SAR图像组成。将测试样本分别用本文方法和其他对比方法进行测试,得到平均识别率如表4所示。显然,较大的俯角变化降低了各种方法的目标识别精度,对比其他三种方法,本发明方法在俯角为30°和45°的测试样本条件下的分类效果依然是最佳的。
表3俯仰角变化实验条件
表4不同俯仰角条件下的平均识别率
图9示出了本公开实施例一种目标识别装置的结构示意图;请参考图9;
根据本公开的第二方面,提供了一种目标识别装置,装置包括:获取模块 901,用于获取指定图片,指定图片中包含目标图像;确定模块902,用于根据指定图像,确定与目标图像对应的姿态角信息;确定模块,还用于根据姿态角,确定与姿态角信息对应的姿态角模型;输入模块903,用于将指定图像输入姿态角模型,获得与目标图像对应的目标信息。
在一可实施方式中,确定模块902,还用于对指定图像进行切割,获得指定尺寸的第一图像;对第一图像进行降噪处理,获得与第一图像对应的第二图像;对第二图像进行对比度增强,获得与第二图像对应的第三图像;基于第三图像,获得与第三图像对应的姿态角信息。
在一可实施方式中,确定模块902,还用于获取与机载及星载合成孔径雷达对应的第一训练数据;基于姿态角,划分出指定数量的姿态角区间,指定数量大于等于2;根据姿态角区间,将第一训练数据划分为指定数量的第二训练数据;根据第二训练数据,训练获得指定数量的姿态角子模型;融合姿态角子模型,获得姿态角模型。
在一可实施方式中,确定模块902,还用于将第二训练数据等分,获得第三训练数据,第三训练数据至少为两组;根据第三训练数据,训练获得待选子模型;获取测试样本,根据测试样本对待选子模型进行测试,获得与待测子模型对应的准确率信息;将准确率信息最高的待选子模型确定为姿态角子模型。
在一可实施方式中,第一训练数据包括,用于表征第一俯仰角的第四训练数据,和/或,用于表征第二俯仰角的第五训练数据,其中,第一俯仰角和第二俯仰角的角度不同。
根据本公开的实施例,本公开还提供了一种电子设备和一种可读存储介质。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如目标识别方法。例如,在一些实施例中,目标识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元 1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002 和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的目标识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备 (CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入) 来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本公开的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种目标识别方法,其特征在于,所述方法包括:
获取指定图片,所述指定图片中包含目标图像;
根据所述指定图像,确定与所述目标图像对应的姿态角信息;
根据所述姿态角,确定与所述姿态角信息对应的姿态角模型;
将所述指定图像输入所述姿态角模型,获得与目标图像对应的目标信息。
2.根据权利要求1所述的方法,其特征在于,根据所述指定图像,确定与所述目标图像对应的姿态角信息,包括:
对所述指定图像进行切割,获得指定尺寸的第一图像;
对所述第一图像进行降噪处理,获得与第一图像对应的第二图像;
对所述第二图像进行对比度增强,获得与第二图像对应的第三图像;
基于所述第三图像,获得与第三图像对应的姿态角信息。
3.根据权利要求1所述的方法,其特征在于,根据所述姿态角,确定与所述姿态角信息对应的姿态角模型,包括:
获取与机载及星载合成孔径雷达对应的第一训练数据;
基于姿态角,划分出指定数量的姿态角区间,所述指定数量大于等于2;
根据所述姿态角区间,将所述第一训练数据划分为指定数量的第二训练数据;
根据所述第二训练数据,训练获得指定数量的姿态角子模型;
融合所述姿态角子模型,获得姿态角模型。
4.根据权利要求3所述的方法,其特征在于,根据所述第二训练数据,训练获得指定数量的姿态角子模型,包括:
将所述第二训练数据等分,获得第三训练数据,第三训练数据至少为两组;
根据所述第三训练数据,训练获得待选子模型;
获取测试样本,根据所述测试样本对所述待选子模型进行测试,获得与待测子模型对应的准确率信息;
将所述准确率信息最高的待选子模型确定为姿态角子模型。
5.根据权利要求3所述的方法,其特征在于,所述第一训练数据包括,用于表征第一俯仰角的第四训练数据,和/或,用于表征第二俯仰角的第五训练数据,其中,第一俯仰角和第二俯仰角的角度不同。
6.一种目标识别装置,其特征在于,所述装置包括:获取模块,用于获取指定图片,所述指定图片中包含目标图像;确定模块,用于根据所述指定图像,确定与所述目标图像对应的姿态角信息;确定模块,还用于根据所述姿态角,确定与所述姿态角信息对应的姿态角模型;输入模块,用于将所述指定图像输入所述姿态角模型,获得与目标图像对应的目标信息。
7.根据权利要求6所述的装置,其特征在于,所述确定模块,还用于对所述指定图像进行切割,获得指定尺寸的第一图像;对所述第一图像进行降噪处理,获得与第一图像对应的第二图像;对所述第二图像进行对比度增强,获得与第二图像对应的第三图像;基于所述第三图像,获得与第三图像对应的姿态角信息。
8.根据权利要求7所述的装置,其特征在于,所述确定模块,还用于获取与机载及星载合成孔径雷达对应的第一训练数据;基于姿态角,划分出指定数量的姿态角区间,所述指定数量大于等于2;根据所述姿态角区间,将所述第一训练数据划分为指定数量的第二训练数据;根据所述第二训练数据,训练获得指定数量的姿态角子模型;融合所述姿态角子模型,获得姿态角模型。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行根据权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210637297.7A CN115393739A (zh) | 2022-06-07 | 2022-06-07 | 一种目标识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210637297.7A CN115393739A (zh) | 2022-06-07 | 2022-06-07 | 一种目标识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393739A true CN115393739A (zh) | 2022-11-25 |
Family
ID=84116317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210637297.7A Pending CN115393739A (zh) | 2022-06-07 | 2022-06-07 | 一种目标识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393739A (zh) |
-
2022
- 2022-06-07 CN CN202210637297.7A patent/CN115393739A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949767B (zh) | 样本图像增量、图像检测模型训练及图像检测方法 | |
CN113870334B (zh) | 深度检测方法、装置、设备以及存储介质 | |
CN113705628B (zh) | 预训练模型的确定方法、装置、电子设备以及存储介质 | |
CN114282670A (zh) | 神经网络模型的压缩方法、设备和存储介质 | |
CN113947188A (zh) | 目标检测网络的训练方法和车辆检测方法 | |
CN114881129A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN115631381A (zh) | 分类模型训练方法、图像分类方法、装置及电子设备 | |
CN116740355A (zh) | 自动驾驶图像的分割方法、装置、设备及存储介质 | |
CN113537192B (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN114677653A (zh) | 模型训练方法、车辆关键点检测方法及相应的装置 | |
CN113177497A (zh) | 视觉模型的训练方法、车辆识别方法及装置 | |
CN117372928A (zh) | 一种视频目标检测方法、装置及相关设备 | |
CN115393739A (zh) | 一种目标识别方法、装置、设备及存储介质 | |
CN113032071B (zh) | 页面元素定位方法、页面测试方法、装置、设备和介质 | |
CN115019057A (zh) | 图像特征提取模型确定方法及装置、图像识别方法及装置 | |
CN113989568A (zh) | 目标检测方法、训练方法、装置、电子设备以及存储介质 | |
CN113935482A (zh) | 一种行人再识别网络的训练方法及装置 | |
CN112784743A (zh) | 关键点的识别方法、装置及存储介质 | |
CN113052175B (zh) | 目标检测方法、装置、电子设备及可读存储介质 | |
CN115578613B (zh) | 目标再识别模型的训练方法和目标再识别方法 | |
CN114724090B (zh) | 行人再识别模型的训练方法、行人再识别方法及装置 | |
CN115456167B (zh) | 轻量级模型训练方法、图像处理方法、装置及电子设备 | |
CN114399555B (zh) | 数据在线标定方法、装置、电子设备和计算机可读介质 | |
CN117911871A (zh) | 一种目标输电设施的识别方法、装置、设备及介质 | |
CN116071741A (zh) | 检测框确定方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |