CN112800980B - 一种基于多层次特征的sar目标识别方法 - Google Patents
一种基于多层次特征的sar目标识别方法 Download PDFInfo
- Publication number
- CN112800980B CN112800980B CN202110133954.XA CN202110133954A CN112800980B CN 112800980 B CN112800980 B CN 112800980B CN 202110133954 A CN202110133954 A CN 202110133954A CN 112800980 B CN112800980 B CN 112800980B
- Authority
- CN
- China
- Prior art keywords
- features
- layer
- target
- feature
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于多层次特征的SAR目标识别方法,首先建立SAR目标图像特征的模式表达并进行特征提取,得到目标的特征向量及特征显著图,将提取的特征向量融合得到浅层特征;然后将原始的目标图像与提取的图像特征显著图按通道连结得到输入图,并利用深度卷积网络提取输入图的特征,提取中间卷积层输出作为中层特征,提取最后全连接层输出作为深层特征;接着将得到的浅层、中层及深层特征通过进一步自适应权值融合;最后利用训练好的机器学习分类模型对融合后的特征进行分类识别,得到最终的识别结果。本发明通过结合浅层、中层及深层特征的各自优势,充分发挥三者间的协同作用,提高了多层次特征的利用能力及目标识别的精度。
Description
技术领域
本发明属于雷达目标识别应用领域,具体涉及了一种基于多层次特征的SAR目标识别方法。
背景技术
SAR(SyntheticAperture Radar)具有全天时、全天候、高分辨、大幅宽的特点,并具有一定的地表穿透能力,因此在军事领域极具价值。SAR图像目标识别一直是SAR图像解译领域的研究热点。传统SAR图像目标识别方法主要由预处理、特征提取、识别分类等相互独立的步骤组成。特征提取过程一般需要借助SIFT、HOG、PCA、LDA等算法提取具有良好区分性的特征才能较好地实现分类,而分类器则采用SVM(SupportVector Machine)、AdaBoost(Adaptive Boosting)、SRC(Sparse Representation based Classification)等。但是基于传统特征的SAR目标识别算法严重依赖人工设计的特征,人工特征鲁棒性低,从而导致该算法在简单的环境和目标较少的情况下效果不错,在复杂多变的环境下识别效果就不是很理想。
随着大数据时代的到来以及计算能力的不断提升,基于深度卷积神经网络的目标识别算法得到了快速发展,并成为目前目标识别的主流方法。2015年,He等提出的残差网络(Residual Network,ResNet)致力于解决识别错误率随网络深度增加而升高的问题,使用152层深度网络取得了3.57%的Top 5错误率,甚至优于人眼;此外,近年来出现的DenseNet,ShuffleNet等都在不同方面提升了卷积神经网络的性能。但是随着深度卷积网络的不断加深,从而导致对浅层特征利用能力弱,而且深层特征分辨率低,对细节感知能力差,故不可避免的会丢失更多的细节信息。
本发明通过将传统特征进行初步融合得到浅层特征,来突出观察者对目标对象某些方面特性的捕捉,然后利用深度神经网络自动学习目标的中层及深层特征,其中深层特征表示了目标内在的、抽象的特征,而中层特征结合了浅层和深层的优势,最后通过发挥三者的优势、挖掘相互间的协同作用,将浅层、中层及深层特征进行带权融合,提高了对目标的多层次特征利用能力,从而解决了上述的难题。
发明内容
发明目的:为了解决现有技术存在的问题及不足,本发明提供一种基于多层次特征的SAR目标识别方法,解决SAR目标识别精度低、稳定性差的问题。
技术方案:本发明所述的一种基于多层次特征的SAR目标识别方法,包括以下步骤:
(1)建立SAR目标图像特征的模式表达并进行特征提取,得到目标的特征向量及特征显著图,通过典型相关分析将提取的特征向量融合得到浅层特征;
(2)将原始的目标图像与提取的图像特征显著图按通道连结得到输入图,并利用迁移学习将训练好的深度卷积网络模型提取输入图的特征,提取中间卷积层输出作为中层特征,提取最后全连接层输出作为深层特征;
(3)将得到的浅层、中层及深层特征通过进一步自适应权值融合,实现最优的浅层、中层与深层特征权力融合方案;
(4)利用训练好的机器学习分类模型对融合后的特征进行分类识别,得到最终的识别结果。
进一步地,步骤(1)所述的SAR目标图像特征主要包括图像边缘和纹理。
进一步地,所述步骤(1)包括以下步骤:
(11)针对边缘特征采用边缘方向直方图,利用边缘检测算子提取目标的边缘,得到目标边缘像素的梯度方向角θ(xi,xj),其中xi,xj表示图像像素点的位置坐标;均匀量化梯度方向角θ为M个小块进行直方图统计并归一化,得到图像的边缘直方图特征且保存目标边缘特征显著图;
(12)针对纹理特征采用局部二值模式的等价和混合模式算法,将目标图像分为N×N个小区域,计算半径R邻域内P个采样点的等价旋转不变LBP值,计算公式如下:
式中:
其中,gc为邻域中心像素点的灰度值,gp为对应半径为R的圆形对称邻域内采样的第p个像素点的灰度值,g0为第0个像素点的灰度值,s为符号函数;
(13)计算每个小区域的LBP直方图,串联成一个特征向量,用来表示整幅图的LBP纹理特征向量,并保存目标纹理特征显著图;
(14)对于两个随机特征x,y,其目标函数为:
进一步地,步骤(2)所述的深度卷积网络包括conv卷积模块、inception模块和全连接层模块;所述conv卷积模块包含13个卷积层和3个池化层,每个卷积层的卷积核大小均为3*3,且均采用最大池化;所述inception模块包含3个卷积层和一个池化层,卷积核大小采用1*1、3*3和5*5;所述全连接层模块包括3个全连接层,节点个数依次为4096、4096、1000。
进一步地,步骤(2)所述的深度卷积网络模型是利用公开的相同目标的数据集去训练,当模型达到收敛后,保存各网络层的权重和偏置参数,然后利用保存的参数的迁移对待检测目标进行特征提取。
进一步地,所述步骤(3)的实现过程如下:
(31)利用不同基础内核的支持向量机对不同的特征进行分类,并选择三个性能最好的内核分配给三个特征;
(32)引入多核学习训练每个由各自内核映射的特征的权重:
线性组合函数为:
其中,Ii和Ij表示估计它们相似性的两个样本,M是候选基核数,wm是mth基核的权重;
MKL问题转化为对偶优化问题如下:
(33)采用训练权值和三个选定核的线性组合核作为最终的核函数,组合核如下:
K(Ii,Ij)=w1k1(I1i,I1j)+w2k2(I2i,I2j)+w3k3(I3i,I3j)
w1+w2+w3=1
式中,w1,w2,w3是浅层、中层和深层特征的权重,I1i、I2i和I3i表示第i个样本的浅层、中层和深层的特征向量。
有益效果:与现有技术相比,本发明的有益效果:本发明通过结合浅层、中层及深层特征的各自优势,对不同层次的特征采取不同的核,然后训练每个核的权重,选出最佳核函数组合来进行分类,充分发挥三者间的协同作用,从而提高了多层次特征的利用能力和目标识别的精度,解决了SAR目标识别精度低、稳定性差的问题。
附图说明
图1为采用本发明最终识别结果图。
具体实施方式
下面结合附图对本发明做更进一步的解释。
本发明提供一种基于多层次特征的SAR目标识别方法,具体包括以下步骤:
步骤1:建立SAR目标图像边缘、纹理等特征的模式表达并进行特征提取,得到目标的特征向量及特征显著图,通过典型相关分析将提取的特征向量融合得到浅层特征。
SAR目标图像的主要特征包括边缘、纹理。首先针对边缘特征采用边缘方向直方图,利用边缘检测算子提取目标的边缘,得到目标边缘像素的梯度方向角θ(xi,xj),其中xi,xj表示图像像素点的位置坐标;均匀量化梯度方向角θ为M个小块进行直方图统计并归一化,得到图像的边缘直方图特征且保存目标边缘特征显著图;然后针对纹理特征采用局部二值模式(LBP)的等价和混合模式算法,将目标图像分为N×N个小区域,计算半径R邻域内P个采样点的等价旋转不变LBP值,计算公式如下:
式中:
的圆形对称邻域内采样的第p个像素点的灰度值,g0为第0个像素点的灰度值,s是一个符号函数;接着计算每个小区域的LBP直方图,串联成一个特征向量,用来表示整幅图的LBP纹理特征向量,并保存目标纹理特征显著图。
典型相关分析是为了寻找特征之间的最大相关性,去除冗余信息。对于两个随机特征x,y,其目标函数为:
步骤2:将原始的目标图像与提取的边缘、纹理特征显著图按通道连结得到输入图,并利用迁移学习将训练好的深度卷积网络提取输入图的特征,提取中间卷积层输出作为中层特征,提取最后全连接层输出作为深层特征。
深度卷积网络框架包括3个模块:conv卷积模块、inception模块和全连接层模块组成。conv卷积模块包含13个卷积层和3个池化层,每个卷积层的卷积核大小均为3*3,且均采用最大池化;inception模块包含3个卷积层和一个池化层,卷积核大小采用1*1、3*3和5*5;全连接层模块包括3个全连接层,全连接层上节点数分别为4096、4096、1000。
利用公开的相同目标的数据集去训练所构建好的深度卷积网络模型,当模型达到收敛后,保存各网络层的权重和偏置参数,然后利用这些参数的迁移可以对待检测目标进行特征提取。
步骤3:接着将得到的浅层、中层及深层特征通过进一步自适应权值融合,实现最优的浅层、中层与深层特征权力融合方案。
采用多核学习(MKL)来实现对浅层、中层及深层特征的最优线性融合,即通过为每个特征选择合适的核,并通过MKL训练学习的权重线性融合不同的特征和核,从而实现将不同类型的特征自适应加权融合。其中线性组合函数可定义为:
其中,Ii和Ij表示估计它们相似性的两个样本。M是候选基核数,wm是mth基核的权重。
根据上式,MKL问题转化为对偶优化问题如下:
利用不同基础内核的支持向量机对不同的特征进行分类,并选择三个性能最好的内核分配给三个特征,然后引入MKL来训练每个由各自内核映射的特征的权重,最后采用训练权值和三个选定核的线性组合核作为最终的核函数,组合核如下:
K(Ii,Ij)=w1k1(I1i,I1j)+w2k2(I2i,I2j)+w3k3(I3i,I3j)
w1+w2+w3=1
其中,w1,w2,w3是浅层、中层和深层特征的权重,I1i、I2i和I3i表示第i个样本的浅层、中层和深层的特征向量。
步骤4:利用训练好的机器学习分类模型对融合后的特征进行分类识别,得到最终的识别结果。
建立机器学习分类器采用的是支持向量机,利用构建的包含感兴趣目标的训练数据库训练模型,得到能够正确划分训练数据集并且几何间隔最大的分离超平面。
本实施例制作SAR训练及测试样本的所有数据均采用美国MSTAR计划所公布的实测SAR地面静止军事车辆目标数据。该数据集图像分辨率0.3m×0.3m,像素尺寸128×128,目标像素尺寸在30×30左右,以及不含目标的复杂场景图像,且每幅场景图像大小在1400×1700左右,所展示的场景面积大概为0.1km2。现在MSTAR数据已经成为考核SAR目标识别和分类算法的标准数据库。如表1所示,本实例所采用的样本为MSTAR十类目标切片,训练样本为俯仰角17度的目标,一共包含2746张样本切片,测试样本为俯仰角15度的目标图像,一共包含2426张样本切片。
表1 MSTAR十类目标样本分布
首先,针对边缘特征,采用边缘方向直方图,在本实施案例中利用canny边缘检测算子提取SAR车辆目标训练样本的边缘,得到目标边缘像素的梯度方向角θ(x,y),梯度方向角θ的范围为(-90°,90°),量化间隔为10°,则梯度方向角θ均匀量化为18个小块进行直方图统计并归一化,得到图像的边缘直方图特征,其维度为18,并保存目标图像边缘特征显著图。
然后,针对纹理特征采用局部二值模式算法,将目标图像分为4×4个小区域,计算半径为1邻域内8个采样点的等价旋转不变LBP值,接着计算每个小区域的LBP直方图,串联成一个特征向量,用来表示整幅图的LBP纹理特征向量,维度为144,并保存目标纹理特征显著图。
深度卷积网络模型是基于Tensorflow框架下构建的,并利用MSTAR数据集中其它三类数据集去训练构建好的深度卷积模型,当模型收敛后,保存各网络层的权重和偏置参数,利用这些参数的迁移可以对目标进行特征提取。
通过典型相关分析从提取得到的边缘、纹理特征向量中寻找两个特征之间的最大相关性,并去除冗余信息后融合得到浅层特征;然后将原始的目标图像与提取的边缘、纹理特征显著性图按通道连结得到输入图,并利用迁移学习将训练好的深度卷积网络提取输入图的特征,提取中间卷积层输出作为中层特征,提取最后全连接层输出作为深层特征;最后将得到的浅层、中层和深层特征采用多核学习(MKL)来实现最优线性融合,即通过为每个特征选择合适的核,并通过MKL训练学习的权重线性融合不同的特征和核,从而实现将不同类型的特征自适应加权融合。
利用融合后的核函数作为SVM的核函数在训练集上训练,得到最优参数后对测试集进行分类识别,得到最终的识别分类结果,如图1所示。可以看出,本发明对MSTAR十类SAR军事车辆目标的识别精度均高于95%。
Claims (5)
1.一种基于多层次特征的SAR目标识别方法,其特征在于,包括以下步骤:
(1)建立SAR目标图像特征的模式表达并进行特征提取,得到目标的特征向量及特征显著图,通过典型相关分析将提取的特征向量融合得到浅层特征;
(2)将原始的目标图像与提取的图像特征显著图按通道连结得到输入图,并利用迁移学习将训练好的深度卷积网络模型提取输入图的特征,提取中间卷积层输出作为中层特征,提取最后全连接层输出作为深层特征;
(3)将得到的浅层、中层及深层特征通过进一步自适应权值融合,实现最优的浅层、中层与深层特征权值融合方案;
(4)利用训练好的机器学习分类模型对融合后的特征进行分类识别,得到最终的识别结果;
所述步骤(3)的实现过程如下:
(31)利用不同基础内核的支持向量机对不同的特征进行分类,并选择三个性能最好的内核分配给三个特征;
(32)引入多核学习训练每个由各自内核映射的特征的权重:
线性组合函数为:
其中,Ii和Ij表示估计它们相似性的两个样本,M是候选基核数,wm是mth基核的权重;
MKL问题转化为对偶优化问题如下:
(33)采用训练权值和三个选定核的线性组合核作为最终的核函数,组合核如下:
K(Ii,Ij)=w1k1(I1i,I1j)+w2k2(I2i,I2j)+w3k3(I3i,I3j)
w1+w2+w3=1
式中,w1,w2,w3是浅层、中层和深层特征的权重,I1i、I2i和I3i表示第i个样本的浅层、中层和深层的特征向量。
2.根据权利要求1所述的基于多层次特征的SAR目标识别方法,其特征在于,步骤(1)所述的SAR目标图像特征包括图像边缘和纹理。
3.根据权利要求1所述的基于多层次特征的SAR目标识别方法,其特征在于,所述步骤(1)包括以下步骤:
(11)针对边缘特征采用边缘方向直方图,利用边缘检测算子提取目标的边缘,得到目标边缘像素的梯度方向角θ(xi,xj),其中xi,xj表示图像像素点的位置坐标;均匀量化梯度方向角θ为M个小块进行直方图统计并归一化,得到图像的边缘直方图特征且保存目标边缘特征显著图;
(12)针对纹理特征采用局部二值模式的等价和混合模式算法,将目标图像分为N×N个小区域,计算半径R邻域内P个采样点的等价旋转不变LBP值,计算公式如下:
式中:
(13)计算每个小区域的LBP直方图,串联成一个特征向量,用来表示整幅图的LBP纹理特征向量,并保存目标纹理特征显著图;
(14)对于两个随机特征x,y,其目标函数为:
4.根据权利要求1所述的基于多层次特征的SAR目标识别方法,其特征在于,步骤(2)所述的深度卷积网络包括conv卷积模块、inception模块和全连接层模块;所述conv卷积模块包含13个卷积层和3个池化层,每个卷积层的卷积核大小均为3*3,且均采用最大池化;所述inception模块包含3个卷积层和一个池化层,卷积核大小采用1*1、3*3和5*5;所述全连接层模块包括3个全连接层,节点个数依次为4096、4096、1000。
5.根据权利要求1所述的基于多层次特征的SAR目标识别方法,其特征在于,步骤(2)所述的深度卷积网络模型是利用公开的相同目标的数据集去训练,当模型达到收敛后,保存各网络层的权重和偏置参数,然后利用保存的参数的迁移对待检测目标进行特征提取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110133954.XA CN112800980B (zh) | 2021-02-01 | 2021-02-01 | 一种基于多层次特征的sar目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110133954.XA CN112800980B (zh) | 2021-02-01 | 2021-02-01 | 一种基于多层次特征的sar目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112800980A CN112800980A (zh) | 2021-05-14 |
CN112800980B true CN112800980B (zh) | 2021-12-07 |
Family
ID=75813266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110133954.XA Active CN112800980B (zh) | 2021-02-01 | 2021-02-01 | 一种基于多层次特征的sar目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800980B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298782A (zh) * | 2021-05-25 | 2021-08-24 | 中南大学 | 具有可解释性的肾脏肿瘤识别方法及成像方法 |
CN113378716A (zh) * | 2021-06-11 | 2021-09-10 | 武汉大学 | 一种基于自监督条件的深度学习sar影像舰船识别方法 |
CN114078230B (zh) * | 2021-11-19 | 2023-08-25 | 西南交通大学 | 一种自适应特征融合冗余优化的小目标检测方法 |
CN114926420B (zh) * | 2022-05-10 | 2023-05-30 | 电子科技大学 | 一种基于跨级特征增强的目标馕的识别及计数方法 |
CN117036893B (zh) * | 2023-10-08 | 2023-12-15 | 南京航空航天大学 | 一种基于局部跨阶段和快速下采样的图像融合方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239740A (zh) * | 2017-05-05 | 2017-10-10 | 电子科技大学 | 一种多源特征融合的sar图像自动目标识别方法 |
CN107895139A (zh) * | 2017-10-19 | 2018-04-10 | 金陵科技学院 | 一种基于多特征融合的sar图像目标识别方法 |
CN110414414A (zh) * | 2019-07-25 | 2019-11-05 | 合肥工业大学 | 基于多层级特征深度融合的sar图像舰船目标鉴别方法 |
CN110427981A (zh) * | 2019-07-11 | 2019-11-08 | 四川大学 | 基于深度神经网络的sar船舶检测系统及方法 |
CN110458043A (zh) * | 2019-07-20 | 2019-11-15 | 中国船舶重工集团公司第七二四研究所 | 一种基于迁移学习与全连接层输出的sar目标识别方法 |
CN110728217A (zh) * | 2019-09-29 | 2020-01-24 | 五邑大学 | Sar图像识别方法、装置、设备和存储介质 |
CN111666836A (zh) * | 2020-05-22 | 2020-09-15 | 北京工业大学 | M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法 |
CN112232232A (zh) * | 2020-10-20 | 2021-01-15 | 城云科技(中国)有限公司 | 一种目标检测方法 |
-
2021
- 2021-02-01 CN CN202110133954.XA patent/CN112800980B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239740A (zh) * | 2017-05-05 | 2017-10-10 | 电子科技大学 | 一种多源特征融合的sar图像自动目标识别方法 |
CN107895139A (zh) * | 2017-10-19 | 2018-04-10 | 金陵科技学院 | 一种基于多特征融合的sar图像目标识别方法 |
CN110427981A (zh) * | 2019-07-11 | 2019-11-08 | 四川大学 | 基于深度神经网络的sar船舶检测系统及方法 |
CN110458043A (zh) * | 2019-07-20 | 2019-11-15 | 中国船舶重工集团公司第七二四研究所 | 一种基于迁移学习与全连接层输出的sar目标识别方法 |
CN110414414A (zh) * | 2019-07-25 | 2019-11-05 | 合肥工业大学 | 基于多层级特征深度融合的sar图像舰船目标鉴别方法 |
CN110728217A (zh) * | 2019-09-29 | 2020-01-24 | 五邑大学 | Sar图像识别方法、装置、设备和存储介质 |
CN111666836A (zh) * | 2020-05-22 | 2020-09-15 | 北京工业大学 | M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法 |
CN112232232A (zh) * | 2020-10-20 | 2021-01-15 | 城云科技(中国)有限公司 | 一种目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112800980A (zh) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112800980B (zh) | 一种基于多层次特征的sar目标识别方法 | |
CN107609601B (zh) | 一种基于多层卷积神经网络的舰船目标识别方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
Wu et al. | ORSIm detector: A novel object detection framework in optical remote sensing imagery using spatial-frequency channel features | |
CN107066559B (zh) | 一种基于深度学习的三维模型检索方法 | |
CN112633382B (zh) | 一种基于互近邻的少样本图像分类方法及系统 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
WO2018052586A1 (en) | Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks | |
CN105528595A (zh) | 在无人机航拍图像中对输电线路绝缘子的识别定位方法 | |
CN106897669B (zh) | 一种基于一致迭代多视角迁移学习的行人再辨识方法 | |
CN105761238B (zh) | 一种通过灰度统计数据深度信息提取显著目标的方法 | |
CN113240047B (zh) | 基于部件解析多尺度卷积神经网络的sar目标识别方法 | |
CN109840560A (zh) | 基于胶囊网络中融入聚类的图像分类方法 | |
CN107480620A (zh) | 基于异构特征融合的遥感图像自动目标识别方法 | |
CN109344880B (zh) | 基于多特征和复合核的sar图像分类方法 | |
CN110211127B (zh) | 基于双相关性网络的图像分割方法 | |
CN103984746B (zh) | 基于半监督分类与区域距离测度的sar图像识别方法 | |
CN111414958B (zh) | 一种视觉词袋金字塔的多特征图像分类方法及系统 | |
CN114842264A (zh) | 一种基于多尺度空谱特征联合学习的高光谱图像分类方法 | |
CN111709313A (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN109376787A (zh) | 流形学习网络及基于其的计算机视觉图像集分类方法 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
Lodh et al. | Flower recognition system based on color and GIST features | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
Li et al. | Evaluation the performance of fully convolutional networks for building extraction compared with shallow models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |