CN108681999B - 基于深度卷积神经网络模型的sar图像目标形状生成方法 - Google Patents
基于深度卷积神经网络模型的sar图像目标形状生成方法 Download PDFInfo
- Publication number
- CN108681999B CN108681999B CN201810492792.7A CN201810492792A CN108681999B CN 108681999 B CN108681999 B CN 108681999B CN 201810492792 A CN201810492792 A CN 201810492792A CN 108681999 B CN108681999 B CN 108681999B
- Authority
- CN
- China
- Prior art keywords
- value
- image
- target
- size
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 18
- 238000011176 pooling Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- 241000228740 Procrustes Species 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 3
- 230000007246 mechanism Effects 0.000 abstract description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度卷积神经网络模型(DCNN)的合成孔径雷达(SAR)图像目标形状生成方法。本发明目的是为了克服SAR图像中的乘性相干斑噪声和目标强度的非同质性变化等内在性特点,以提高SAR图像目标形状生成的准确性。该方法的首先设计深度卷积神经网络算法,并制定迭代区域合并算法,以获取目标形状初始化机制,然后设计基于稀疏表示的目标形状生成算法,以获取更加精确的目标形状生成结果。本发明有效的解决了SAR图像目标性状的生成问题,提高了SAR图像目标形状生成的准确性。
Description
技术领域
本发明涉及图像处理领域,更具体的涉及一种基于深度卷积神经网络模型(DCNN)的合成孔径雷达(SAR)图像目标形状生成方法。
背景技术
图像分类是图像解译的基础,是实现系统自动目标识别的必要技术手段,同时图像分类技术也是信息技术众多领域的核心技术之一。SAR图像分类即是通过研究目标散射回波来提取目标特征,分析目标特征,对不同的类别目标加以区分。
目标形状的生成是SAR图像分割的重要研究内容,在后续的图像分析、处理及识别中占有重要地位。由于SAR图像中的乘性相干斑噪声和目标强度的非同质性变化等内在性特点,即使采用较优秀的目标形状建模方案,也仍然面临多种挑战,例如,目标形状的生成对初始位置较为敏感,在目标异质性变化区域难以生成理想的形状;基于形状先验方法的目标形状建模方案使用单一形状模板或基于固定参数的形状仿射变换,表示能力不强,对目标形状的大幅度变形不具鲁棒性。因此,设计有效的目标形状生成方案来适应SAR图像典型目标强度表征变化的复杂性,显得极为迫切。
综上所述,本发明提出了一个基于深度卷积神经网络模型和稀疏表示的SAR图像目标形状生成方法,有效地解决了SAR图像目标形状的生成问题。
发明内容
本发明目的是为了克服SAR图像中的乘性相干斑噪声和目标强度的非同质性变化等内在性特点,以提高SAR图像目标形状生成的准确性,提出了一种基于深度卷积神经网络模型的SAR图像目标形状生成方法。
本发明的主要思路是首先设计深度卷积神经网络算法,并制定迭代区域合并算法,以获取目标形状初始化机制,然后设计基于稀疏表示的目标形状生成算法,以获取更加精确的目标形状生成结果。
本发明是通过以下技术方案来实现的,基于深度卷积神经网络模型的SAR图像目标形状生成方法,包括以下具体步骤:
步骤1,加载图像数据。
步骤2,参数初始化,设置以下参数的数值:时间步长timestep、最大迭代次数iter、滤波算子窗口大小W、批次大小batch_size、基本学习率Lr。
步骤3,对图像进行二维高斯卷积操作,再进行平滑处理。
步骤4,将图像灰度值归一化到[0,255]范围内。
步骤5,通过深度学习的思想进行目标形状的初始化。
步骤6,设计迭代区域合并算法。
步骤7,应用Procrustes分析方法对初始目标形状结果进行排列对齐。
步骤8,利用k-means算法对已对齐的样本数据进行分类,并设计基于稀疏表示的目标形状生成算法,得到稀疏编码模型。
步骤9,基于步骤8得到的稀疏编码模型,使用OMP(正交匹配追踪算法)得到目标形状结果s。
进一步地,所述步骤5包括如下步骤:
步骤5-1,设计深度卷积神经网络模型(Deep Convolutional Neural Networks,DCNN);所述深度卷积神经网络由一系列成对的卷积层(Convolutional Layer)、最大池层(Max Pooling Layer)和几个充分连接层(Fully-connected Layer)组成。卷积池层用于学习局域多层特征,最大池层获取每个特征图中相邻区域的最大值,充分连接层学习更高阶特征表示,最后一层输出类别的概率分布。
步骤5-2,本发明中使用的DCNN结构主要由两个卷积层、两个最大池化层以及两个全连接层组成。输入图像块的大小为55×55。第1个卷积层的卷积核大小为6×6,卷积核滑动步长为1,卷积后得到图像尺寸为50×50。第1个最大池化层的池化窗大小为2×2,池化窗滑动步长为2,池化后得到图像尺寸为25×25。第2个卷积层的卷积核大小为4×4,卷积核滑动步长为1,卷积后得到图像尺寸为22×22。第2个最大池化层的池化窗大小为2×2,池化窗滑动步长为2,池化后得到图像尺寸为11×11。第2个最大池化层后跟着两个全连接层,两个全连接层的维度都为1024。最后为输出层,即Softmax层。
步骤5-3,DCNN训练过程:选取具有特定尺寸的目标图像块的原始像素值作为训练对象,图像块中心为像素本身,并对目标区域的几何中心进行标注;图像块的概率值的正负取决于标注区域与图像块之间的中心值距离(表示为dt),假设阈值为dt0,如果dt<dt0,概率值取正,否则取负;考虑旋转不变性的要求,对所有的正概率图像块,按照45度均值,进行共8个角度的旋转,得到的结果构成概率图P。
进一步地,所述步骤6包括如下步骤:
步骤6-1,基于生成的概率图P,首先计算距离图Dt,其中每个像素对应一个值,该值用来衡量距离背景的最短距离。
步骤6-2,基于距离图Dt,应用H-minima变换求目标最小值,其基本原理如下:通过与设定的阈值h进行比较,消除低于阈值h的局部极小值,以消除部分噪声对图像的影响。对于概率图P上的每个连接区域,基于不同的距离值,采用迭代方式来扩展各个标记值,直至所有的标记合并融合。
步骤6-3,在融合过程中,记录在下一次迭代过程中待融合的标记值。
步骤6-4,应用简单的形态学运算平滑标记值,以有效地保存区域的形状,并作为初始目标形状结果。
进一步地,所述步骤8包括如下步骤:
步骤8-1,假设n个样本数据中有k个不同目标类别,构造字典集D=[D1,D2,...,Dk],第i类样本数据对应的字典可以表示为Di=[βi,1,...,βi,n i],其中ni表示第i类样本数据的个数;根据稀疏表示理论,基于稀疏度的形状建模的目标即是获取一个紧形状字典(D)和一个稀疏系数 任何已对齐的形状(s)都可以用一些基元来表示:(ε表示残差)。
步骤8-2,在设计的稀疏模型中,通过最小化局域约束的综合平方差(IntegratedSquared Error)来建模。基于稀疏重构准则,稀疏编码目标函数可以表示为:式中,第一项构成L2E标准,对极端值具鲁棒性。第二项用来约束使用加权稀疏编码的基元的局域表征,这项约束通过使用具有相似度保持性的邻域字典基元,从而确保每个目标均得到充分表征。式中的约束用来保证平移不变性,λ是正则项参数。
步骤8-3,随机选取一组目标形状构成字典基元D。
步骤8-4,采用基于映射的梯度下降法来获取最小化以更新字典基元D。
步骤8-6,计算每次迭代前后的重构误差和综合平方差值。
附图说明
图1为本发明的实现流程图。
具体实施方式
下面结合附图对本发明实施例作详细说明。
本发明是通过以下技术方案来实现的,具体流程图参见图1。
基于深度卷积神经网络模型的SAR图像目标形状生成方法,包括以下具体步骤:
步骤1,加载图像数据。
步骤2,参数初始化,设置以下参数的数值:时间步长timestep、最大迭代次数iter。本发明中timestep设置为0.1,iter设置为400,批次大小batch_size设置为50,基本学习率Lr设置为0.01。设置滤波算子窗口大小W,本发明中滤波算子设置为二维高斯滤波算子,窗口大小设置为17。
步骤3,对图像进行二维高斯卷积操作,再进行平滑处理。
步骤4,将图像灰度值归一化到[0,255]范围内。
步骤5,通过深度学习的思想进行目标形状的初始化。
步骤5-1,设计深度卷积神经网络模型(Deep Convolutional Neural Networks,DCNN)。该神经网络由一系列成对的卷积层(Convolutional Layer)、最大池层(MaxPooling Layer)和几个充分连接层(Fully-connected Layer)组成。卷积池层用于学习局域多层特征,最大池层获取每个特征图中相邻区域的最大值,充分连接层学习更高阶特征表示,最后一层输出类别的概率分布。
步骤5-2,本发明中使用的DCNN结构如表1所示。
表1本发明中使用的DCNN结构
层数 | 层名称 | 输出图像尺寸 | 滤波器尺寸 |
1 | 输入层 | 55×55 | - |
2 | 卷积层 | 50×50 | 6×6 |
3 | 最大池化层 | 25×25 | 2×2 |
4 | 卷积层 | 22×22 | 4×4 |
5 | 最大池化层 | 11×11 | 2×2 |
6 | 全连接层 | 1024×1 | - |
7 | 全连接层 | 1024×1 | - |
8 | 输出层 | 2×1 | - |
步骤5-3,DCNN训练过程。选取具有特定尺寸(本发明选取的图像块为原始图像的0.8倍)的目标图像块的原始像素值作为训练对象,图像块中心为像素本身,并以手动方式对目标区域的几何中心进行标注。图像块的概率值的正负取决于标注区域与图像块之间的中心值距离(表示为dt),假设阈值为dt0,如果dt<dt0(本发明中dt0取值为30),概率值取正,否则取负。考虑旋转不变性的要求,对所有的正概率图像块进行多个角度的旋转,得到的结果构成概率图P。
步骤6,设计迭代区域合并算法。
步骤6-1,基于生成的概率图P,首先计算距离图Dt,其中每个像素对应一个值,该值用来衡量距离背景的最短距离。
步骤6-2,基于距离图的逆,应用H-minima变换求目标最小值,其基本原理如下:通过与设定的阈值h进行比较,消除低于阈值h的局部极小值,以消除部分噪声对图像的影响。对于概率图P上的每个连接区域,基于不同的距离值,采用迭代方式来扩展各个标记值,直至所有的标记合并融合。
步骤6-3,在融合过程中,记录在下一次迭代过程中待融合的标记值。
步骤6-4,应用简单的形态学运算平滑标记值,以有效地保存区域的形状,并作为初始形状结果。
步骤7,应用Procrustes分析方法对初始目标形状结果进行排列对齐。
步骤8,利用k-means算法对已对齐的样本数据进行分类,并设计基于稀疏表示的目标形状生成算法以获取更加精确的目标形状结果。
步骤8-1,假设n个样本数据中有k个不同目标类别,构造字典集D=[D1,D2,...,Dk],第i类样本数据对应的字典可以表示为Di=[βi,1,...,βi,n i],其中ni表示第i类样本数据的个数。根据稀疏表示理论,基于稀疏度的形状建模的目标即是获取一个紧形状字典(D)和一个稀疏系数 任何已对齐的形状(s)都可以用一些基元来表示:(ε表示残差,本发明中ε取值为10-4)。
步骤8-2,在设计的稀疏模型中,通过最小化局域约束的综合平方差(IntegratedSquared Error)来建模。基于稀疏重构准则,稀疏编码目标函数可以表示为:式中,第一项构成L2E标准,对极端值具鲁棒性。第二项用来约束使用加权稀疏编码的基元的局域表征,这项约束通过使用具有相似度保持性的邻域字典基元,从而确保每个目标均得到充分表征。式中的约束用来保证平移不变性,λ是正则项参数,本发明中λ取值为0.5。
步骤8-3,随机选取一组目标形状构成字典基元D。
步骤8-4,采用基于映射的梯度下降法来获取最小化以更新字典基元D。
步骤8-6,计算每次迭代前后的重构误差和综合平方差值。
以上对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。
Claims (2)
1.基于深度卷积神经网络模型的SAR图像目标形状生成方法,其特征在于,包括以下具体步骤:
步骤1,加载图像数据;
步骤2,参数初始化,设置以下参数的数值:时间步长timestep、最大迭代次数iter、滤波算子窗口大小W、批次大小batch_size、基本学习率Lr;
步骤3,对图像进行二维高斯卷积操作,再进行平滑处理;
步骤4,将图像灰度值归一化到[0,255]范围内;
步骤5,通过深度学习的思想进行目标形状的初始化;
步骤6,设计迭代区域合并算法;
步骤7,应用Procrustes分析方法对初始目标形状结果进行排列对齐;
步骤8,利用k-means算法对已对齐的样本数据进行分类,并设计基于稀疏表示的目标形状生成算法,得到稀疏编码模型;
步骤9,基于步骤8得到的稀疏编码模型,使用正交匹配追踪算法得到目标形状结果s;
步骤5包括如下步骤:
步骤5-1,设计深度卷积神经网络模型;所述深度卷积神经网络由一系列成对的卷积层、最大池层和几个充分连接层组成;卷积池层用于学习局域多层特征,最大池层获取每个特征图中相邻区域的最大值,充分连接层学习更高阶特征表示,最后一层输出类别的概率分布;
步骤5-2,所述深度卷积神经网络模型,主要由两个卷积层、两个最大池化层以及两个全连接层组成,输入图像块的大小为55×55,第1个卷积层的卷积核大小为6×6,卷积核滑动步长为1,卷积后得到图像尺寸为50×50,第1个最大池化层的池化窗大小为2×2,池化窗滑动步长为2,池化后得到图像尺寸为25×25,第2个卷积层的卷积核大小为4×4,卷积核滑动步长为1,卷积后得到图像尺寸为22×22;第2个最大池化层的池化窗大小为2×2,池化窗滑动步长为2,池化后得到图像尺寸为11×11,第2个最大池化层后跟着两个全连接层,两个全连接层的维度都为1024,最后为输出层,即Softmax层;
步骤5-3,DCNN训练过程:选取具有特定尺寸的目标图像块的原始像素值作为训练对象,图像块中心为像素本身,并对目标区域的几何中心进行标注;图像块的概率值的正负取决于标注区域与图像块之间的中心值距离dt,假设阈值为dt0,如果dt<dt0,概率值取正,否则取负;考虑旋转不变性的要求,对所有的正概率图像块,按照45度均值,进行共8个角度的旋转,得到的结果构成概率图P;
步骤6包括如下步骤:
步骤6-1,基于生成的概率图P,首先计算距离图Dt,其中每个像素对应一个值,该值用来衡量距离背景的最短距离;
步骤6-2,基于距离图Dt,应用H-minima变换求目标最小值,即通过与设定的阈值h进行比较,消除低于阈值h的局部极小值,以消除部分噪声对图像的影响;对于概率图P上的每个连接区域,基于不同的距离值,采用迭代方式来扩展各个标记值,直至所有的标记合并融合;
步骤6-3,在融合过程中,记录在下一次迭代过程中待融合的标记值;
步骤6-4,应用简单的形态学运算平滑标记值,以有效地保存区域的形状,并作为初始目标形状结果。
2.根据权利要求1所述的基于深度卷积神经网络模型的SAR图像目标形状生成方法,其特征在于,所述步骤8包括如下步骤:
步骤8-1,假设n个样本数据中有k个不同目标类别,构造紧形状字典D=[D1,D2,...,Dk],第i类样本数据对应的字典表示为Di=[βi,1,...,βi,n i],其中ni表示第i类样本数据的个数;基于稀疏度的形状建模的目标包括一个紧形状字典D和一个稀疏系数 已对齐的形状s表示为:ε表示残差;
步骤8-2,通过最小化局域约束的综合平方差来建模;稀疏编码目标函数表示为:式中,第一项构成L2E标准,对极端值具鲁棒性;第二项用来约束使用加权稀疏编码的基元的局域表征,这项约束通过使用具有相似度保持性的邻域字典基元;式中的约束用来保证平移不变性,λ是正则项参数;
步骤8-3,随机选取一组目标形状构成紧形状字典D;
步骤8-4,采用基于映射的梯度下降法来获取最小化以更新紧形状字典D;
步骤8-6,计算每次迭代前后的重构误差和综合平方差值;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810492792.7A CN108681999B (zh) | 2018-05-22 | 2018-05-22 | 基于深度卷积神经网络模型的sar图像目标形状生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810492792.7A CN108681999B (zh) | 2018-05-22 | 2018-05-22 | 基于深度卷积神经网络模型的sar图像目标形状生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108681999A CN108681999A (zh) | 2018-10-19 |
CN108681999B true CN108681999B (zh) | 2022-05-31 |
Family
ID=63807605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810492792.7A Active CN108681999B (zh) | 2018-05-22 | 2018-05-22 | 基于深度卷积神经网络模型的sar图像目标形状生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108681999B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726724B (zh) * | 2018-12-21 | 2023-04-18 | 浙江农林大学暨阳学院 | 一种遮挡情况下水尺图像特征加权学习识别方法 |
CN110602476B (zh) * | 2019-08-08 | 2021-08-06 | 南京航空航天大学 | 一种基于深度信息辅助的高斯混合模型的空洞填补方法 |
CN112926448B (zh) * | 2021-02-24 | 2022-06-14 | 重庆交通大学 | 一种相干斑模式起伏稳健的sar图像分类方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102122386A (zh) * | 2011-03-01 | 2011-07-13 | 西安电子科技大学 | 基于字典迁移聚类的sar图像分割方法 |
CN102760236A (zh) * | 2012-03-20 | 2012-10-31 | 苏州迪凯尔医疗科技有限公司 | 基于组合稀疏模型的先验形状建模方法 |
CN104392456A (zh) * | 2014-12-09 | 2015-03-04 | 西安电子科技大学 | 基于深度自编码器和区域图的sar图像分割方法 |
CN105608692A (zh) * | 2015-12-17 | 2016-05-25 | 西安电子科技大学 | 基于反卷积网络和稀疏分类的极化sar图像分割方法 |
CN106407986A (zh) * | 2016-08-29 | 2017-02-15 | 电子科技大学 | 一种基于深度模型的合成孔径雷达图像目标识别方法 |
CN106650629A (zh) * | 2016-11-21 | 2017-05-10 | 河海大学 | 一种基于核稀疏表示的快速遥感目标检测识别方法 |
CN107506761A (zh) * | 2017-08-30 | 2017-12-22 | 山东大学 | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9524450B2 (en) * | 2015-03-04 | 2016-12-20 | Accenture Global Services Limited | Digital image processing using convolutional neural networks |
-
2018
- 2018-05-22 CN CN201810492792.7A patent/CN108681999B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102122386A (zh) * | 2011-03-01 | 2011-07-13 | 西安电子科技大学 | 基于字典迁移聚类的sar图像分割方法 |
CN102760236A (zh) * | 2012-03-20 | 2012-10-31 | 苏州迪凯尔医疗科技有限公司 | 基于组合稀疏模型的先验形状建模方法 |
CN104392456A (zh) * | 2014-12-09 | 2015-03-04 | 西安电子科技大学 | 基于深度自编码器和区域图的sar图像分割方法 |
CN105608692A (zh) * | 2015-12-17 | 2016-05-25 | 西安电子科技大学 | 基于反卷积网络和稀疏分类的极化sar图像分割方法 |
CN106407986A (zh) * | 2016-08-29 | 2017-02-15 | 电子科技大学 | 一种基于深度模型的合成孔径雷达图像目标识别方法 |
CN106650629A (zh) * | 2016-11-21 | 2017-05-10 | 河海大学 | 一种基于核稀疏表示的快速遥感目标检测识别方法 |
CN107506761A (zh) * | 2017-08-30 | 2017-12-22 | 山东大学 | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108681999A (zh) | 2018-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191583B (zh) | 基于卷积神经网络的空间目标识别系统及方法 | |
Rong et al. | Radial lens distortion correction using convolutional neural networks trained with synthesized images | |
CN111191718B (zh) | 基于图注意力网络的小样本sar目标识别方法 | |
CN109375186B (zh) | 基于深度残差多尺度一维卷积神经网络的雷达目标识别方法 | |
CN111079847B (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
CN108681999B (zh) | 基于深度卷积神经网络模型的sar图像目标形状生成方法 | |
CN107066559A (zh) | 一种基于深度学习的三维模型检索方法 | |
CN107766893B (zh) | 基于标签多级编码神经网络的目标识别方法 | |
CN110097060B (zh) | 一种面向树干图像的开集识别方法 | |
CN102542302A (zh) | 基于分等级对象语义图的复杂目标自动识别方法 | |
CN110347857B (zh) | 基于强化学习的遥感影像的语义标注方法 | |
CN103345744B (zh) | 一种基于多图像的人体目标部件自动解析方法 | |
CN111598089A (zh) | 一种基于深度学习的车牌矫正与识别方法 | |
CN109583456B (zh) | 基于特征融合和稠密连接的红外面目标检测方法 | |
CN110334715A (zh) | 一种基于残差注意网络的sar目标识别方法 | |
Etezadifar et al. | A new sample consensus based on sparse coding for improved matching of SIFT features on remote sensing images | |
CN112581483B (zh) | 基于自学习的植物叶片叶脉分割方法和装置 | |
CN113406623A (zh) | 基于雷达高分辨距离像的目标识别方法、装置及介质 | |
CN111209813B (zh) | 基于迁移学习的遥感图像语义分割方法 | |
CN112132257A (zh) | 基于金字塔池化及长期记忆结构的神经网络模型训练方法 | |
CN117152427A (zh) | 基于扩散模型和知识蒸馏的遥感图像语义分割方法与系统 | |
CN109871907B (zh) | 基于sae-hmm模型的雷达目标高分辨率距离像识别方法 | |
CN113313179A (zh) | 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法 | |
CN111210433B (zh) | 一种基于各向异性势函数的马氏场遥感图像分割方法 | |
CN105844299B (zh) | 一种基于词袋模型的图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |