CN115294398A - 一种基于多姿态角联合学习的sar图像目标识别方法 - Google Patents
一种基于多姿态角联合学习的sar图像目标识别方法 Download PDFInfo
- Publication number
- CN115294398A CN115294398A CN202210982235.XA CN202210982235A CN115294398A CN 115294398 A CN115294398 A CN 115294398A CN 202210982235 A CN202210982235 A CN 202210982235A CN 115294398 A CN115294398 A CN 115294398A
- Authority
- CN
- China
- Prior art keywords
- layer
- attitude angle
- target recognition
- convolution
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000012360 testing method Methods 0.000 claims abstract description 34
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 27
- 238000011176 pooling Methods 0.000 claims description 24
- 230000004913 activation Effects 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000013145 classification model Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910052731 fluorine Inorganic materials 0.000 description 1
- 125000001153 fluoro group Chemical group F* 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多姿态角联合学习的SAR图像目标识别方法,属于雷达技术领域,包括如下步骤:获取样本数据集,按照俯仰角将样本数据集划分为训练样本集和测试样本集,然后按照姿态角的间隔将训练样本集划分成多个训练样本子集;搭建深度卷积神经网络模型;利用训练样本子集对深度卷积神经网络模型进行训练,得到目标识别子模型;对测试样本集根据姿态角的估计结果匹配对应角度的目标识别子模型进行目标识别,得到最终的目标类别判决。本方明的有益效果:在局部姿态角的训练样本子集上学习得到的目标识别子模型能够实现更精确的目标类别估计,同时更容易收敛,目标识别精度和效率均优于其他方法。
Description
技术领域
本发明属于雷达技术领域,具体是一种基于多姿态角联合学习的SAR图像目标识别方法。
背景技术
合成孔径雷达广泛应用于监测系统,与光学遥感不同,合成孔径雷达图像可以在全天候条件下获得,无论白天还是黑夜,因为它具有强大的穿透能力。然而,合成孔径雷达图像在采集过程中,由于电磁波的后向散射,往往会产生严重的相干斑噪声。正因为SAR图像中存在严重的相干斑噪声,往往很难直观地理解SAR图像的语义含义。因此,需要能够自动解释和分析合成孔径雷达图像的算法。
深度卷积神经网络已经被用于SAR图像目标的识别,并且已经取得了较好的结果。但是,与自然光学图像不同,由于电磁波的后向散射强度在目标姿态角变化时具有较高的敏感度,极易产生较大变化甚至突变,导致同一类别的目标SAR图像在不同的姿态角下的后向散射强度存在较大的差异,同时也存在不同类别目标在特定姿态上SAR图像极为相似的情况,这使得SAR图像的目标识别问题成为一个棘手的问题。
发明内容
本发明的目的在于提供一种基于多姿态角联合学习的SAR图像目标识别方法,在SAR图像目标识别算法中,考虑SAR图像的姿态角将会提高SAR图像目标识别分类性能的特点,利用估计的姿态角信息来提高SAR图像目标分类的识别精度和效率。
技术方案:一种基于多姿态角联合学习的SAR图像目标识别方法,其特征在于,包括如下步骤:
步骤一:获取样本数据集,样本数据集包括多类目标,每类目标包括多张SAR图像;并按照俯仰角将样本数据集划分为训练样本集和测试样本集,然后按照姿态角的间隔将训练样本集划分成多个训练样本子集;
步骤二:搭建深度卷积神经网络模型;
步骤三:利用步骤一得到的多个训练样本子集对步骤二中建立的深度卷积神经网络模型进行训练,得到多个训练好的深度卷积神经网络子模型,记为目标识别子模型;
步骤四:对于测试样本集中的测试数据,利用图像的相关性,首先估计它的姿态角,进而根据估计得到的姿态角,将测试样本集中的测试数据匹配到步骤三中对应角度的目标识别子模型中进行目标识别,得到最终的目标类别判决。
进一步的,步骤一中,将俯仰角为17°的样本数据集划分为训练样本集;将俯仰角为15°的样本数据集划分为测试样本集。
进一步的,步骤二中,所述深度卷积神经网络模型包括输入层Input、卷积层、池化层、全连接层、Dropout层以及最后的输出层Output。
进一步的,步骤二中,涉及的神经网络的结构为第一卷积层,第一池化层,第二卷积层,第二池化层,第三卷积层,第四卷积层,第三池化层,第一全连接层,第一Dropout层,第二全连接层,第二Dropout层,第三全连接层;
神经网络结构的参数设置为:
第一卷积层的卷积核大小为11,卷积核个数为96,激活函数为relu;
第二卷积层的卷积核大小为5,卷积核个数为256,激活函数为relu;
第三卷积层的卷积核大小为3,卷积核的个数为384,激活函数为relu;
第四卷积层的卷积核大小为3,卷积核的个数为256,激活函数为relu;
第一全连接层大小为1024,激活函数为relu;
第一Dropout层的比率设置为0.5;
第二全连接层的大小为512,激活函数为relu;
第二Dropout层的比率设置为0.5;
第三全连接层的大小为10,激活函数为softmax。
进一步的,步骤四中,姿态角具体的估计方法如下:
S1、根据公式(1)计算待估计样本与K类训练样本的相关系数曲线;
式中:c代表相关系数,I1和I2代表两幅SAR图像;m1和m2分别为两幅图像的像素均值;k和l分别代表像素点的横纵坐标;Δk和Δl代表模板图像沿方位向和距离向的滑动距离;
与现有技术相比,本发明的有益效果是:
基于MSTAR数据集对本发明方法进行了多方面的测试,实验结果表明,本发明的方法从利用姿态角信息提高SAR目标识别性能出发,将SAR图像的姿态角信息作为一个预处理步骤融入到目标识别中。首先利用图像的相关性去估计SAR图像的姿态角,由于SAR图像姿态角的敏感性,具有相近姿态角的SAR图像呈现较高的相关性,基于此能够准确地估计出SAR图像的姿态角;同时我们将训练样本集按照姿态角间隔划分多个训练样本子集,然后再去进一步训练多个目标识别子模型,最后根据估计的姿态角,将SAR图像送入到相应的目标识别子模型中得到最终的目标类别判决,提高了目标识别的性能,目标识别精度和效率均优于其他的目标识别算法。
附图说明
图1为本发明中深度卷积神经网络模型;
图2为本发明中基于多姿态角目标识别的流程图;
图3为本发明中十类SAR图像目标的样本图;
图4为本发明中分类结果的混淆矩阵图;
其中,图4中图(a)表示姿态角为[0°,90°]的样本子集分类模型混淆矩阵图;图4中图(b)表示姿态角为[90°,180°]的样本子集分类模型混淆矩阵图;图4中图(c)表示姿态角为[180°,270°]的样本子集分类模型混淆矩阵图;图4中图(d)表示姿态角为[270°,360°]的样本子集分类模型混淆矩阵图;图4中图(e)表示完整样本集分类模型的混淆矩阵图;图4中图(f)表示基于多姿态角联合学习模型的混淆矩阵图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本方明公开了一种基于多姿态角联合学习的SAR图像目标识别方法,包含了训练过程和测试过程两个阶段,具体包括如下步骤:
步骤一:首先准备用于训练和测试的SAR图像数据,获取样本数据集,样本数据集包括多类目标,每类目标包括多张SAR图像;
首先将俯仰角为17°的样本数据集划分为训练样本集;将俯仰角为15°的数据样本集划分为测试样本集;
然后按照姿态角90°的间隔将训练样本集划分成4个训练样本子集;
步骤二、建立深度卷积神经网络模型;
所述深度卷积神经网络模型包括输入层Input、卷积层、池化层、全连接层、Dropout层以及最后的输出层Output;具体深度卷积神经网络模型如图1所示。
神经网络的结构为第一卷积层,第一池化层,第二卷积层,第二池化层,第三卷积层,第四卷积层,第三池化层,第一全连接层,第一Dropout层,第二全连接层,第二Dropout层,第三全连接层;
神经网络结构的参数设置为:
第一卷积层的卷积核大小为11,卷积核个数为96,激活函数为relu;
第二卷积层的卷积核大小为5,卷积核个数为256,激活函数为relu;
第三卷积层的卷积核大小为3,卷积核的个数为384,激活函数为relu;
第四卷积层的卷积核大小为3,卷积核的个数为256,激活函数为relu;
第一全连接层大小为1024,激活函数为relu;
第一Dropout层的比率设置为0.5;
第二全连接层的大小为512,激活函数为relu;
第二Dropout层的比率设置为0.5;
第三全连接层的大小为10,激活函数为softmax。
卷积层是卷积神经网络的核心部分,是神经网络中计算量最大的一个网络层。通过多个卷积核在输入图像上进行滑动,生成不同的特征图,从而提取到图像中不同的特征。卷积层中的超参数包括特征映射的个数I,滤波器的大小F,步长S和填充P。图像的尺寸、步幅和卷积后得到的特征图尺寸是由如下关系的:
W2=(W1-F+2P)/S+1
H2=(H1-F+2P)/S+1
其中W1和H1分别是卷积前的图像的宽度与高度,W2和H2分别是卷积后的特征图的宽度和高度。同时卷积核的数量决定了特征层的深度,不同的滤波器能从图像中提取到不同角度的特征信息。具体的卷积操作如下:
xl=f(z)
其中:xl-1为上一层的特征图,z表示卷积操作后直接输出的特征图输出,xl为经过非线性激活函数获得的最终特征图,ki为卷积核,bi表示偏置项,“*”表示卷积操作,f(·)为非线性激活函数,这里选择为ReLu函数。
池化层的主要作用是将数据下采样,使得特征图的空间维度降低,去除不重要的、参考价值低的数据信息。常用的池化操作包括最大池化、平均池化、高斯池化和可训练池化等。我们选择最大池化操作,该过程不仅降低了输出特征的映射维数,而且引入了平移不变性,有助于构建稳健的分类特征。最大池化公式如下:
根据公式,池化操作在特征图上通过h×w的滑动窗口进行数据处理从而去除原始特征图中的冗余信息,进而提高网络的整体稳健性。
卷积神经网络最后的部分大部分都会是完全连接层,通常是接在神经网络的输入部分经过卷积和池化操作之后。整个神经网络模型中参数量最多的部分就是完全连接层,因为全连接层的每一个节点是和上一层的每一个节点相连接的从而把上一层的特征综合起来。它的作用是把最后一层卷积层输出的特征图转化成向量的形式。对于多分类问题,我们网络的最后部分都会选择Softmax函数来实现目标类别的判定。它会输出每个类的后验概率,进而根据最大概率的原则对其类别做出判断。
步骤三、利用步骤一得到的训练样本子集对步骤二中建立的深度卷积神经网络模型进行训练,得到多个训练好的深度卷积神经网络子模型,记为目标识别子模型。
步骤四、对于测试样本集中的测试数据,利用图像的相关性,首先估计它的姿态角,进而根据估计得到的姿态角,将测试样本集中的测试数据匹配到步骤三中对应角度的目标识别子模型中进行目标识别,得到最终的目标类别判决。完整分类流程如图2所示。
由于SAR图像具有姿态角敏感性,待估计样本仅与其具有相近姿态角的样本保持着较高的相关性。同类目标中,具有相近姿态角的样本之间体现很高的相关性,当姿态角差距变大时,这种相关性就逐步的减弱;不同类目标中,姿态角相近时,也表现出较高的相关性,当姿态角差距逐渐变大,这种相关性也会逐渐变小。同时,由于存在180°的模糊问题,这种相关性还呈现出180°对称性。也就是说,待估计样本与各类目标样本集的相关系数呈现出双峰值的分布特点,峰值位于接近真实姿态角的位置以及180°的对称处。同时,在接近真实姿态角的位置处体现出更高的相似性。
步骤四中,姿态角具体的估计方法如下:
S1、根据公式(1)计算待估计样本与K类训练样本的相关系数曲线;
式中:c代表相关系数,I1和I2代表两幅SAR图像;m1和m2分别为两幅图像的像素均值;k和l分别代表像素点的横纵坐标;Δk和Δl代表模板图像沿方位向和距离向的滑动距离。
实施例:
该实施例采用SAR图像数据集对本发明提出的方法进行了验证。实施例中用到的所有实验数据均来源于MSTAR数据集,所使用的MSTAR数据集包括俯仰角在15°和17°下的十类地面车辆目标:2S1、BMP2_SN_9563、BTR60、T72_SN_132、T62、BRDM2、BTR70、ZSU23/4、D7、ZIL131。在实验中,选取俯仰角为17°的数据集为训练样本集;选取俯仰角为15°的数据集为测试样本集,采用的训练样本数和测试样本数分别如表1所示。十类目标的SAR图像样本如图3所示。
表1实验中所使用的训练集和测试集:
按照步骤一将训练样本集划分成四个训练样本子集,同时按照步骤二,利用CNN搭建深度卷积神经网络,进一步按照步骤三得到四个目标识别子模型。
进一步地,对于测试样本集中的测试数据,首先利用姿态角估计的方法估计相应的姿态角,然后根据估计出的姿态角,将测试样本集中的测试数据匹配到步骤三中的对应角度的目标识别子模型中,得到最终的目标类别判决。
进一步地,为验证本文所提方法的有效性,对整个数据集仅仅只按照俯仰角的不同分成了训练集和测试集,在不划分训练样本子集的情况下,搭建模型测试该数据集。直接将测试样本输入深度卷积网络模型进行匹配分类,得到的混淆矩阵结果如图4(e)所示。结果表明,按不同角度划分数据集后,训练出的各个目标识别子模型的目标识别率均高于原完备数据集下的目标识别率,得到的混淆矩阵结果图如图4(a)、4(b)、4(c)和4(d)所示。最后,将四个不同姿态角的子模型网络融合后形成的多姿态角SAR图像识别网络,得到本文方法的分类混淆矩阵如图4(f)所示。显然,本文提出的经过姿态角估计后送入指定姿态角变化较小的目标识别子模型得到的分类效果比原完整数据集下的分类效果更精确。具体的分类混淆矩阵的结果图如图4所示。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上作出各种变化。
Claims (5)
1.一种基于多姿态角联合学习的SAR图像目标识别方法,其特征在于,包括如下步骤:
步骤一:获取样本数据集,样本数据集包括多类目标,每类目标包括多张SAR图像;并按照俯仰角将样本数据集划分为训练样本集和测试样本集,然后按照姿态角的间隔将训练样本集划分成多个训练样本子集;
步骤二:搭建深度卷积神经网络模型;
步骤三:利用步骤一得到的多个训练样本子集对步骤二中建立的深度卷积神经网络模型进行训练,得到多个训练好的深度卷积神经网络子模型,记为目标识别子模型;
步骤四:对于测试样本集中的测试数据,利用图像的相关性,首先估计它的姿态角,进而根据估计得到的姿态角,将测试样本集中的测试数据匹配到步骤三中对应角度的目标识别子模型中进行目标识别,得到最终的目标类别判决。
2.根据权利要求1所述的一种基于多姿态角联合学习的SAR图像目标识别方法,其特征在于,步骤一中,将俯仰角为17°的样本数据集划分为训练样本集;将俯仰角为15°的样本数据集划分为测试样本集。
3.根据权利要求1所述的一种基于多姿态角联合学习的SAR图像目标识别方法,其特征在于,
步骤二中,所述深度卷积神经网络模型包括输入层Input、卷积层、池化层、全连接层、Dropout层以及最后的输出层Output。
4.根据权利要求3所述的一种基于多姿态角联合学习的SAR图像目标识别方法,其特征在于,
步骤二中,涉及的神经网络的结构为第一卷积层,第一池化层,第二卷积层,第二池化层,第三卷积层,第四卷积层,第三池化层,第一全连接层,第一Dropout层,第二全连接层,第二Dropout层,第三全连接层;
神经网络结构的参数设置为:
第一卷积层的卷积核大小为11,卷积核个数为96,激活函数为relu;
第二卷积层的卷积核大小为5,卷积核个数为256,激活函数为relu;
第三卷积层的卷积核大小为3,卷积核的个数为384,激活函数为relu;
第四卷积层的卷积核大小为3,卷积核的个数为256,激活函数为relu;
第一全连接层大小为1024,激活函数为relu;
第一Dropout层的比率设置为0.5;
第二全连接层的大小为512,激活函数为relu;
第二Dropout层的比率设置为0.5;
第三全连接层的大小为10,激活函数为softmax。
5.根据权利要求1所述的一种基于多姿态角联合学习的SAR图像目标识别方法,其特征在于,
步骤四中,姿态角具体的估计方法如下:
S1、根据公式(1)计算待估计样本与K类训练样本的相关系数曲线;
式中:c代表相关系数,I1和I2代表两幅SAR图像;m1和m2分别为两幅图像的像素均值;k和l分别代表像素点的横纵坐标;Δk和Δl代表模板图像沿方位向和距离向的滑动距离;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210982235.XA CN115294398A (zh) | 2022-08-16 | 2022-08-16 | 一种基于多姿态角联合学习的sar图像目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210982235.XA CN115294398A (zh) | 2022-08-16 | 2022-08-16 | 一种基于多姿态角联合学习的sar图像目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115294398A true CN115294398A (zh) | 2022-11-04 |
Family
ID=83830187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210982235.XA Pending CN115294398A (zh) | 2022-08-16 | 2022-08-16 | 一种基于多姿态角联合学习的sar图像目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115294398A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116819489A (zh) * | 2023-08-25 | 2023-09-29 | 摩尔线程智能科技(北京)有限责任公司 | 动态物体检测方法、模型训练方法、装置、设备及介质 |
-
2022
- 2022-08-16 CN CN202210982235.XA patent/CN115294398A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116819489A (zh) * | 2023-08-25 | 2023-09-29 | 摩尔线程智能科技(北京)有限责任公司 | 动态物体检测方法、模型训练方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112766199B (zh) | 基于自适应多尺度特征提取模型的高光谱图像分类方法 | |
CN108776779B (zh) | 基于卷积循环网络的sar序列图像目标识别方法 | |
CN109492556B (zh) | 面向小样本残差学习的合成孔径雷达目标识别方法 | |
CN110097093B (zh) | 一种异源图像精确匹配方法 | |
CN108921030B (zh) | 一种sar自动目标识别方法 | |
CN106338733B (zh) | 基于蛙眼视觉特性的前视声呐目标跟踪方法 | |
CN110163275B (zh) | 基于深度卷积神经网络的sar图像目标分类方法 | |
CN111310582A (zh) | 基于边界感知和对抗学习的湍流退化图像语义分割方法 | |
CN107358203B (zh) | 一种基于深度卷积阶梯网络的高分辨sar图像分类方法 | |
CN107545279B (zh) | 基于卷积神经网络与加权核特征分析的图像识别方法 | |
CN105389799B (zh) | 基于素描图与低秩分解的sar图像目标检测方法 | |
CN101853509A (zh) | 基于Treelets和模糊C-均值聚类的SAR图像分割方法 | |
CN109712149B (zh) | 一种基于小波能量和模糊c均值的图像分割方法 | |
CN112395987A (zh) | 基于无监督域适应cnn的sar图像目标检测方法 | |
CN110991257A (zh) | 基于特征融合与svm的极化sar溢油检测方法 | |
CN110969212A (zh) | 基于空间变换三通道卷积的isar图像分类方法 | |
CN114283325A (zh) | 一种基于知识蒸馏的水下目标识别方法 | |
CN110135435B (zh) | 一种基于广度学习系统的显著性检测方法及装置 | |
CN112785636A (zh) | 一种多尺度增强式的单目深度估计方法 | |
CN115294398A (zh) | 一种基于多姿态角联合学习的sar图像目标识别方法 | |
CN114266947A (zh) | 一种基于激光点云和可见光图像融合的分类方法及装置 | |
CN108509835B (zh) | 基于DFIC超像素的PolSAR图像地物分类方法 | |
CN111368653B (zh) | 一种基于r-d图与深度神经网络的低空小目标检测方法 | |
CN113313179A (zh) | 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法 | |
CN116703932A (zh) | 一种基于卷积注意力机制的CBAM-HRNet模型小麦穗粒分割与计数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |