CN112766340A - 基于自适应空间模式的深度胶囊网络图像分类方法及系统 - Google Patents
基于自适应空间模式的深度胶囊网络图像分类方法及系统 Download PDFInfo
- Publication number
- CN112766340A CN112766340A CN202110032354.4A CN202110032354A CN112766340A CN 112766340 A CN112766340 A CN 112766340A CN 202110032354 A CN202110032354 A CN 202110032354A CN 112766340 A CN112766340 A CN 112766340A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- capsule network
- module
- capsule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002775 capsule Substances 0.000 title claims abstract description 95
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 78
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 239000013598 vector Substances 0.000 claims description 31
- 238000005070 sampling Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 235000009854 Cucurbita moschata Nutrition 0.000 claims description 4
- 240000001980 Cucurbita pepo Species 0.000 claims description 4
- 235000009852 Cucurbita pepo Nutrition 0.000 claims description 4
- 238000000513 principal component analysis Methods 0.000 claims description 4
- 235000020354 squash Nutrition 0.000 claims description 4
- 125000004432 carbon atom Chemical group C* 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- BHELIUBJHYAEDK-OAIUPTLZSA-N Aspoxicillin Chemical compound C1([C@H](C(=O)N[C@@H]2C(N3[C@H](C(C)(C)S[C@@H]32)C(O)=O)=O)NC(=O)[C@H](N)CC(=O)NC)=CC=C(O)C=C1 BHELIUBJHYAEDK-OAIUPTLZSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,该方法包括:对训练用图像进行图像预处理,并构建训练集;基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。该系统包括:预处理模块、训练模块和分类模块。通过使用本发明,自适应学习复杂的物结构信息,提升纹理密集区域的图像分类精度。本发明作为一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,可广泛应用于图像分类领域。
Description
技术领域
本发明涉及图像分类领域,尤其涉及一种基于自适应空间模式的深度胶囊网络图像分类方法及系统。
背景技术
传统的深度学习图像分类算法包括:堆叠自编码网络、深度置信神经网络,递归神经网络,生成对抗性神经网络以及卷积神经网络等,其中传统的基于神经网络的图像分类方法通过卷积、池化、全连接层等步骤进行图像特征提取。然而,该类方法往往网络模型训练需要大量的数据样本,且训练过程复杂,复杂的场景特征下图像关键兴趣点特征提取困难。且对于传统的神经网络方法,其卷积核中采样点的位置通常是固定不变的,其不能根据真实物体的实际空间形态分布自适应的调整学习区域。因此,当数据集结构复杂的情况下,现有的深度学习方法往往无法学习到清晰轮廓特征的图像边缘信息,因而面临无法精准高效地识别图像复杂纹理信息的问题。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,解决空间结构特征复杂的高光谱图像分类数据集分类精度不准确的问题。
本发明所采用的第一技术方案是:基于自适应空间模式的深度胶囊网络图像分类方法,包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
进一步,所述对训练用图像进行图像预处理,并构建训练集这一步骤,其具体包括:
获取训练用的高光谱图像X∈RH×W×D;
基于主成分分析算法将数据降到d维,得到图像训练块Yk∈Rm×m×d;
进一步,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征。
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
进一步,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置;
基于采样位置提取得到次高级目标图像特征。
进一步,所述自适应学习寻找采样位置的表达式如下:
进一步,所述这次高级目标图像特征的表达式如下:
进一步,所述基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征这一步骤,其具体包括:
将次高级图像特征u分成多组胶囊子图并计算所有次高级图像特征u的预测向量;
基于预测向量构建高层次特征的输入向量;
基于Squash函数对高层次特征的输入向量进行压缩处理,得到高级语义特征。
本发明所采用的第二技术方案是:基于自适应空间模式的深度胶囊网络图像分类系统,包括:
预处理模块,用于对训练用图像进行图像预处理,并构建训练集;
训练模块,用于基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
分类模块,用于获取待测图像并将待测图像输入训练完成的深度胶囊网络执行图像分类,得到分类结果。
本发明方法及系统的有益效果是:本发明通过多次引入所提自适应卷积单元于深度胶囊网络结构中,避免了传统基于粗特征胶囊网络的图像分类方法带来的弊端,能在不同场景区域都获得优异的图像分类结果,既能兼顾图像平滑去噪与图像边缘细节保留特性,还能自适应的学习噪声和光谱混合严重的情况下的图像分类特征并获得优异的分类结果。
附图说明
图1是本发明基于自适应空间模式的深度胶囊网络图像分类方法的步骤流程图;
图2是本发明基于自适应空间模式的深度胶囊网络图像分类系统的结构框图;
图3是本发明具体实施例ASPConv模块的工作示意图;
图4是本发明具体实施例ASPCaps模块的工作示意图;
图5是本发明具体实施例深度胶囊网络图像分类方法示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
本发明通过构建一组自适应卷积单元(ASP单元),在扩大感受野的基础上,形状自适应地调整卷积单元的学习区域,为复杂纹理结构的高光谱图像数据集分类提供解决方案。即该卷积单元内部仅仅通过增加少量的变换参数,可获得学习到更优异的图像细节特征。具体而言,本发明首先对原始高光谱图像数据集采用主成分分析算法进行图像降维,获得前十五维主成分图像。接下来,采用自适应空间单元卷积运算(ASPConvs模块)获得的次高级图像特征,作为后续胶囊网络运算的输入。然后,在动态路由过程采用基于自适应空间单元的卷积运算(ASPCaps模块),自适应地调整卷积核的采样位置。最后,根据全连接胶囊层确定像素的类别标签。
参照图1和图5,本发明提供了基于自适应空间模式的深度胶囊网络图像分类方法,该方法包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
参照图5,有两个ASPConvs模块。每个模块由三层组成,将ASP层,卷积层和整流线性单元(ReLU)激活功能结合在一起。在ASPConv 1模块中,对于ASP层,内核(Kernel)包含3×3个非零权重,128个滤波器(Filter),步长(Stride)为1,填充(Padding)以same形式。对于卷积层,有128个大小为1×1的滤波器内核,步长为2,填充以same形式。卷积操作后,将执行ReLU激活功能,最后通过进行填充操作以确保特征图在卷积之前和之后保持相同的大小。在ASPConv 2模块中,对于ASP层,内核包含3×3个非零权重,256个滤波器,步长为2,填充以same形式。对于卷积层,内核包含1×1个非零权重,256个滤波器,步长为2,填充以same形式。卷积操作之后,将执行ReLU激活功能和批归一化(BN)层。
参照图5,有两个ASPC模块。对于ASPCaps 1,内核包含3×3个非零权重,32×4个滤波器,步长为1和填充same。在ASPC操作之后,将执行ReLU激活功能。对于ASPCaps 2,内核包含3×3个非零权重,32×4个滤波器,步长为1,填充以same形式。
进一步作为本方法的优选实施例,所述对训练用图像进行图像预处理,并构建训练集这一步骤,其具体包括:
获取训练用的高光谱图像X∈RH×W×D;
具体地,H×W×D表示高光谱图像的长,宽,维度。
基于主成分分析算法将数据降到d维,得到图像训练块Yk∈Rm×m×d;
具体地,m×m×d表示图像训练的长,宽,维度。
具体地,Yk表示第k个样本,tk表示第k个样本的所属类别。
进一步作为本方法的优选实施例,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
具体地,传统的卷积操作尺寸大小为p×q直接在图像上滑动,进行网络卷积。然而,传统卷积方式的采样位置点为固定点,其不能根据图像的实际分布状态自适应的调整学习采样区域。此外,常规的神经网络在经过多层卷积之后,通常采用池化操作,通过保留局部区域显著特征操作以降低图像的计算维度。但是,该方式在为后续网络降低参数量的同时,会直接导致丢失大量细节信息。
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征。
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
进一步作为本方法的优选实施例,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置,即自适应卷积(adaptive conv);
具体地,ASPConvs模块的工作过程参照图3,为在扩大感受野的基础上实现采样位置自适应学习,本发明首先引入空洞卷积规则,增大图像感受野如下:
pdr=p+(p-1)(hdr-1)
qdr=q+(q-1)(hdr-1)
上式中,pdr表示卷积尺寸的长,qdr表示卷积尺寸的宽,hdr表示空洞率。
基于采样位置提取得到次高级目标图像特征。
进一步作为本方法优选实施例,所述自适应学习寻找采样位置的表达式如下:
进一步作为本方法优选实施例,所述这次高级目标图像特征的表达式如下:
进一步作为本方法优选实施例,所述基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征这一步骤,其具体包括:
将次高级图像特征u分成多组胶囊子图并计算所有次高级图像特征u的预测向量;
基于预测向量构建高层次特征的输入向量;
基于Squash函数对高层次特征的输入向量进行压缩处理,得到高级语义特征。
具体地,在已提取到的次高级图像特征基础上,通过沿用3D胶囊网络卷积形式,并加以ASPCaps模块旋转特征,以提取上下层多重胶囊网络之间的信息传递。
ASPCaps模块的工作示意图参照图4,对于次高级图像特征(即PreviousFeatures)u,将其分成多组胶囊子图u={ui,i=1,...,I},分为I组胶囊子图,下一层的高级语义特征(即Posterior Features)v分为J组胶囊子图,给定任意一个像素的空间位置为(x,y),表示上一层胶囊单元中第i个胶囊的输出信息,p和q分别表示胶囊卷积过程中卷积核的长和宽,表示特征u中第i个胶囊和特征v中第j个胶囊之间的权值共享系数,则第j个特征预测值在高层次特征v中的预测向量计算如下,
其中J是下一层的特征v的胶囊总数。在训练开始之前初始化为0,由动态路由算法进行数据更新。在动态路由算法中,系数通过计算“预测向量”和如果符合一致性原则,则表明胶囊可以很好地预测胶囊则系数将增加,反之亦然。在本发明所提网络中,一致性被量化为两个向量和之间的内积,通过该协议更新具体如下所示:
最后,输入向量被非线性函数(即Squash函数)压缩以生成胶囊的输出,具体计算如下:
基于ASPCaps获得高级语义特征v后,本发明使用完全连接的胶囊层获取数字胶囊v′,其维度大小为T×16。然后,使用欧几里得范数(即||l2||)来获得每个大小为T的测试补丁的概率向量v″,其大小为T×1,其中每个值都映射到[0,1]。最后,深度胶囊网络训练完成后,对于Yk∈Rm×m×d中的测试图像块,其中心像素的类标签可以根据最大概率确定如下:
另外,本发明使用余量损失作为损失函数,与传统的交叉熵损失相比,余量损失以提高真实分类的概率。对于最后一个胶囊层中的每个胶囊j,其损失函数Lj可以计算如下:
Lj=Tj·max(0,n+-||vj||)2+λ(1-Tj)·max(0,||vj||-n-)2
其中,当类j实际上存在时,Tj=1,否则等于0。我们分别将n+=0.9和n-=0.1设置为正确类别和错误类别的下限和上限。λ是一个超参数,它在训练时控制初始阶段的梯度反向传播的效果。模型的总损耗是最后一层所有输出胶囊的损失之和。
如图2所示,基于自适应空间模式的深度胶囊网络图像分类系统,包括:
预处理模块,用于对训练用图像进行图像预处理,并构建训练集;
训练模块,用于基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
分类模块,用于获取待测图像并将待测图像输入训练完成的深度胶囊网络执行图像分类,得到分类结果。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
3.根据权利要求2所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征;
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
4.根据权利要求3所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置;
基于采样位置提取得到次高级目标图像特征。
7.根据权利要求6所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征这一步骤,其具体包括:
将次高级图像特征u分成多组胶囊子图并计算所有次高级图像特征u的预测向量;
基于预测向量构建高层次特征的输入向量;
基于Squash函数对高层次特征的输入向量进行压缩处理,得到高级语义特征。
9.基于自适应空间模式的深度胶囊网络图像分类系统,其特征在于,包括:
预处理模块,用于对训练用图像进行图像预处理,并构建训练集;
训练模块,用于基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
分类模块,用于获取待测图像并将待测图像输入训练完成的深度胶囊网络执行图像分类,得到分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110032354.4A CN112766340B (zh) | 2021-01-11 | 2021-01-11 | 基于自适应空间模式的深度胶囊网络图像分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110032354.4A CN112766340B (zh) | 2021-01-11 | 2021-01-11 | 基于自适应空间模式的深度胶囊网络图像分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112766340A true CN112766340A (zh) | 2021-05-07 |
CN112766340B CN112766340B (zh) | 2024-06-04 |
Family
ID=75701365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110032354.4A Active CN112766340B (zh) | 2021-01-11 | 2021-01-11 | 基于自适应空间模式的深度胶囊网络图像分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766340B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408488A (zh) * | 2021-07-19 | 2021-09-17 | 中南大学 | 基于胶囊网络的火焰目标识别方法、设备及介质 |
CN114241245A (zh) * | 2021-12-23 | 2022-03-25 | 西南大学 | 一种基于残差胶囊神经网络的图像分类系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830243A (zh) * | 2018-06-22 | 2018-11-16 | 西安电子科技大学 | 基于胶囊网络的高光谱图像分类方法 |
CN108985316A (zh) * | 2018-05-24 | 2018-12-11 | 西南大学 | 一种改进重构网络的胶囊网络图像分类识别方法 |
CN109376636A (zh) * | 2018-10-15 | 2019-02-22 | 电子科技大学 | 基于胶囊网络的眼底视网膜图像分类方法 |
CN109740695A (zh) * | 2019-01-28 | 2019-05-10 | 太原理工大学 | 基于自适应全卷积注意力网络的图像识别方法 |
US20190354835A1 (en) * | 2018-05-17 | 2019-11-21 | International Business Machines Corporation | Action detection by exploiting motion in receptive fields |
CN111402226A (zh) * | 2020-03-13 | 2020-07-10 | 浙江工业大学 | 一种基于级联卷积神经网络的表面疵点检测方法 |
CN111401455A (zh) * | 2020-03-20 | 2020-07-10 | 中国科学院空天信息创新研究院 | 一种基于Capsules-Unet模型的遥感图像深度学习分类方法和系统 |
CN111460932A (zh) * | 2020-03-17 | 2020-07-28 | 哈尔滨工程大学 | 基于自适应卷积的水声信号分类识别方法 |
CN111583112A (zh) * | 2020-04-29 | 2020-08-25 | 华南理工大学 | 视频超分辨率的方法、系统、装置和存储介质 |
WO2020215236A1 (zh) * | 2019-04-24 | 2020-10-29 | 哈尔滨工业大学(深圳) | 图像语义分割方法和系统 |
CN112115900A (zh) * | 2020-09-24 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN112132258A (zh) * | 2020-08-26 | 2020-12-25 | 中国海洋大学 | 一种基于可变形卷积的多任务学习模型构建及优化方法 |
CN112200163A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 水下底栖生物检测方法及系统 |
-
2021
- 2021-01-11 CN CN202110032354.4A patent/CN112766340B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190354835A1 (en) * | 2018-05-17 | 2019-11-21 | International Business Machines Corporation | Action detection by exploiting motion in receptive fields |
CN108985316A (zh) * | 2018-05-24 | 2018-12-11 | 西南大学 | 一种改进重构网络的胶囊网络图像分类识别方法 |
CN108830243A (zh) * | 2018-06-22 | 2018-11-16 | 西安电子科技大学 | 基于胶囊网络的高光谱图像分类方法 |
CN109376636A (zh) * | 2018-10-15 | 2019-02-22 | 电子科技大学 | 基于胶囊网络的眼底视网膜图像分类方法 |
CN109740695A (zh) * | 2019-01-28 | 2019-05-10 | 太原理工大学 | 基于自适应全卷积注意力网络的图像识别方法 |
WO2020215236A1 (zh) * | 2019-04-24 | 2020-10-29 | 哈尔滨工业大学(深圳) | 图像语义分割方法和系统 |
CN111402226A (zh) * | 2020-03-13 | 2020-07-10 | 浙江工业大学 | 一种基于级联卷积神经网络的表面疵点检测方法 |
CN111460932A (zh) * | 2020-03-17 | 2020-07-28 | 哈尔滨工程大学 | 基于自适应卷积的水声信号分类识别方法 |
CN111401455A (zh) * | 2020-03-20 | 2020-07-10 | 中国科学院空天信息创新研究院 | 一种基于Capsules-Unet模型的遥感图像深度学习分类方法和系统 |
CN111583112A (zh) * | 2020-04-29 | 2020-08-25 | 华南理工大学 | 视频超分辨率的方法、系统、装置和存储介质 |
CN112132258A (zh) * | 2020-08-26 | 2020-12-25 | 中国海洋大学 | 一种基于可变形卷积的多任务学习模型构建及优化方法 |
CN112115900A (zh) * | 2020-09-24 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN112200163A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 水下底栖生物检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
JINGPING WANG ET AL.: "ASPCNet: Deep Adaptive Spatial Pattern Capsule Network for Hyperspectral Image Classification", NEUROCOMPUTING, vol. 486, pages 47 - 60 * |
KAIQIANG ZHU ET AL.: "Deep Convolutional Capsule Network for Hyperspectral Image Spectral and Spectral-Spatial Classification", REMOTE SENSING, vol. 11, no. 3, pages 1 - 27 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408488A (zh) * | 2021-07-19 | 2021-09-17 | 中南大学 | 基于胶囊网络的火焰目标识别方法、设备及介质 |
CN113408488B (zh) * | 2021-07-19 | 2022-11-25 | 中南大学 | 基于胶囊网络的火焰目标识别方法、设备及介质 |
CN114241245A (zh) * | 2021-12-23 | 2022-03-25 | 西南大学 | 一种基于残差胶囊神经网络的图像分类系统 |
CN114241245B (zh) * | 2021-12-23 | 2024-05-31 | 西南大学 | 一种基于残差胶囊神经网络的图像分类系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112766340B (zh) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639692B (zh) | 一种基于注意力机制的阴影检测方法 | |
CN111368896B (zh) | 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法 | |
CN109191382B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN107563433B (zh) | 一种基于卷积神经网络的红外小目标检测方法 | |
CN110322453B (zh) | 基于位置注意力和辅助网络的3d点云语义分割方法 | |
CN109671070B (zh) | 一种基于特征加权和特征相关性融合的目标检测方法 | |
CN111080675B (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN107808138B (zh) | 一种基于FasterR-CNN的通信信号识别方法 | |
CN107680116A (zh) | 一种监测视频图像中运动目标的方法 | |
CN109190511B (zh) | 基于局部与结构约束低秩表示的高光谱分类方法 | |
CN111046868B (zh) | 基于矩阵低秩稀疏分解的目标显著性检测方法 | |
CN110135438B (zh) | 一种基于梯度幅值预运算的改进surf算法 | |
CN111612017A (zh) | 一种基于信息增强的目标检测方法 | |
CN111368769A (zh) | 基于改进锚点框生成模型的船舶多目标检测方法 | |
CN113808180B (zh) | 一种异源图像配准方法、系统及装置 | |
CN112766340B (zh) | 基于自适应空间模式的深度胶囊网络图像分类方法及系统 | |
CN108734199A (zh) | 基于分段深度特征及低秩表示的高光谱图像鲁棒分类方法 | |
CN111798469A (zh) | 基于深度卷积神经网络的数字图像小数据集语义分割方法 | |
CN110909615A (zh) | 基于多尺度输入混合感知神经网络的目标检测方法 | |
CN114019467A (zh) | 一种基于MobileNet模型迁移学习的雷达信号识别与定位方法 | |
CN111832228A (zh) | 基于cnn-lstm的振动传递系统 | |
CN112634149A (zh) | 一种基于图卷积网络的点云去噪方法 | |
CN113297988A (zh) | 一种基于域迁移和深度补全的物体姿态估计方法 | |
CN111639697B (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
CN113298129A (zh) | 基于超像素和图卷积网络的极化sar图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |