CN112766340A - 基于自适应空间模式的深度胶囊网络图像分类方法及系统 - Google Patents

基于自适应空间模式的深度胶囊网络图像分类方法及系统 Download PDF

Info

Publication number
CN112766340A
CN112766340A CN202110032354.4A CN202110032354A CN112766340A CN 112766340 A CN112766340 A CN 112766340A CN 202110032354 A CN202110032354 A CN 202110032354A CN 112766340 A CN112766340 A CN 112766340A
Authority
CN
China
Prior art keywords
image
training
capsule network
module
capsule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110032354.4A
Other languages
English (en)
Other versions
CN112766340B (zh
Inventor
王锦萍
李军
谭晓军
黄力
陈霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huizhou Desay SV Automotive Co Ltd
Sun Yat Sen University
Original Assignee
Huizhou Desay SV Automotive Co Ltd
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huizhou Desay SV Automotive Co Ltd, Sun Yat Sen University filed Critical Huizhou Desay SV Automotive Co Ltd
Priority to CN202110032354.4A priority Critical patent/CN112766340B/zh
Publication of CN112766340A publication Critical patent/CN112766340A/zh
Application granted granted Critical
Publication of CN112766340B publication Critical patent/CN112766340B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,该方法包括:对训练用图像进行图像预处理,并构建训练集;基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。该系统包括:预处理模块、训练模块和分类模块。通过使用本发明,自适应学习复杂的物结构信息,提升纹理密集区域的图像分类精度。本发明作为一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,可广泛应用于图像分类领域。

Description

基于自适应空间模式的深度胶囊网络图像分类方法及系统
技术领域
本发明涉及图像分类领域,尤其涉及一种基于自适应空间模式的深度胶囊网络图像分类方法及系统。
背景技术
传统的深度学习图像分类算法包括:堆叠自编码网络、深度置信神经网络,递归神经网络,生成对抗性神经网络以及卷积神经网络等,其中传统的基于神经网络的图像分类方法通过卷积、池化、全连接层等步骤进行图像特征提取。然而,该类方法往往网络模型训练需要大量的数据样本,且训练过程复杂,复杂的场景特征下图像关键兴趣点特征提取困难。且对于传统的神经网络方法,其卷积核中采样点的位置通常是固定不变的,其不能根据真实物体的实际空间形态分布自适应的调整学习区域。因此,当数据集结构复杂的情况下,现有的深度学习方法往往无法学习到清晰轮廓特征的图像边缘信息,因而面临无法精准高效地识别图像复杂纹理信息的问题。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,解决空间结构特征复杂的高光谱图像分类数据集分类精度不准确的问题。
本发明所采用的第一技术方案是:基于自适应空间模式的深度胶囊网络图像分类方法,包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
进一步,所述对训练用图像进行图像预处理,并构建训练集这一步骤,其具体包括:
获取训练用的高光谱图像X∈RH×W×D
基于主成分分析算法将数据降到d维,得到图像训练块Yk∈Rm×m×d
结合图像训练块和对应的标签构建训练集
Figure BDA0002891903710000021
进一步,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征。
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
进一步,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置;
基于采样位置提取得到次高级目标图像特征。
进一步,所述自适应学习寻找采样位置的表达式如下:
Figure BDA0002891903710000022
上式中,(x,y)表示初定采样位置,
Figure BDA0002891903710000023
表示对应的采样值,Δx和Δy表示偏移场,
Figure BDA0002891903710000024
表示调整后的采样位置的采样值。
进一步,所述这次高级目标图像特征的表达式如下:
Figure BDA0002891903710000025
上式中,wi表示采用卷积核对应的权重,Δmi表示第i个采样像素位置对应的权重。
Figure BDA0002891903710000026
表示向量
Figure BDA0002891903710000027
内元素总长度,
Figure BDA0002891903710000028
表示采样位置为(xi,yi)的采样值。
进一步,所述基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征这一步骤,其具体包括:
将次高级图像特征u分成多组胶囊子图并计算所有次高级图像特征u的预测向量;
基于预测向量构建高层次特征的输入向量;
基于Squash函数对高层次特征的输入向量进行压缩处理,得到高级语义特征。
进一步,所述高层次特征的输入向量
Figure BDA0002891903710000029
的表达式如下:
Figure BDA0002891903710000031
上式中,
Figure BDA0002891903710000032
表示动态由路系数,
Figure BDA0002891903710000033
表示在采样点为(x+p)(y+q)的预测向量,
Figure BDA0002891903710000034
表示高层次特征的输入向量。
本发明所采用的第二技术方案是:基于自适应空间模式的深度胶囊网络图像分类系统,包括:
预处理模块,用于对训练用图像进行图像预处理,并构建训练集;
训练模块,用于基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
分类模块,用于获取待测图像并将待测图像输入训练完成的深度胶囊网络执行图像分类,得到分类结果。
本发明方法及系统的有益效果是:本发明通过多次引入所提自适应卷积单元于深度胶囊网络结构中,避免了传统基于粗特征胶囊网络的图像分类方法带来的弊端,能在不同场景区域都获得优异的图像分类结果,既能兼顾图像平滑去噪与图像边缘细节保留特性,还能自适应的学习噪声和光谱混合严重的情况下的图像分类特征并获得优异的分类结果。
附图说明
图1是本发明基于自适应空间模式的深度胶囊网络图像分类方法的步骤流程图;
图2是本发明基于自适应空间模式的深度胶囊网络图像分类系统的结构框图;
图3是本发明具体实施例ASPConv模块的工作示意图;
图4是本发明具体实施例ASPCaps模块的工作示意图;
图5是本发明具体实施例深度胶囊网络图像分类方法示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
本发明通过构建一组自适应卷积单元(ASP单元),在扩大感受野的基础上,形状自适应地调整卷积单元的学习区域,为复杂纹理结构的高光谱图像数据集分类提供解决方案。即该卷积单元内部仅仅通过增加少量的变换参数,可获得学习到更优异的图像细节特征。具体而言,本发明首先对原始高光谱图像数据集采用主成分分析算法进行图像降维,获得前十五维主成分图像。接下来,采用自适应空间单元卷积运算(ASPConvs模块)获得的次高级图像特征,作为后续胶囊网络运算的输入。然后,在动态路由过程采用基于自适应空间单元的卷积运算(ASPCaps模块),自适应地调整卷积核的采样位置。最后,根据全连接胶囊层确定像素的类别标签。
参照图1和图5,本发明提供了基于自适应空间模式的深度胶囊网络图像分类方法,该方法包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
参照图5,有两个ASPConvs模块。每个模块由三层组成,将ASP层,卷积层和整流线性单元(ReLU)激活功能结合在一起。在ASPConv 1模块中,对于ASP层,内核(Kernel)包含3×3个非零权重,128个滤波器(Filter),步长(Stride)为1,填充(Padding)以same形式。对于卷积层,有128个大小为1×1的滤波器内核,步长为2,填充以same形式。卷积操作后,将执行ReLU激活功能,最后通过进行填充操作以确保特征图在卷积之前和之后保持相同的大小。在ASPConv 2模块中,对于ASP层,内核包含3×3个非零权重,256个滤波器,步长为2,填充以same形式。对于卷积层,内核包含1×1个非零权重,256个滤波器,步长为2,填充以same形式。卷积操作之后,将执行ReLU激活功能和批归一化(BN)层。
参照图5,有两个ASPC模块。对于ASPCaps 1,内核包含3×3个非零权重,32×4个滤波器,步长为1和填充same。在ASPC操作之后,将执行ReLU激活功能。对于ASPCaps 2,内核包含3×3个非零权重,32×4个滤波器,步长为1,填充以same形式。
进一步作为本方法的优选实施例,所述对训练用图像进行图像预处理,并构建训练集这一步骤,其具体包括:
获取训练用的高光谱图像X∈RH×W×D
具体地,H×W×D表示高光谱图像的长,宽,维度。
基于主成分分析算法将数据降到d维,得到图像训练块Yk∈Rm×m×d
具体地,m×m×d表示图像训练的长,宽,维度。
结合图像训练块和对应的标签构建训练集
Figure BDA0002891903710000041
具体地,Yk表示第k个样本,tk表示第k个样本的所属类别。
进一步作为本方法的优选实施例,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
具体地,传统的卷积操作尺寸大小为p×q直接在图像上滑动,进行网络卷积。然而,传统卷积方式的采样位置点为固定点,其不能根据图像的实际分布状态自适应的调整学习采样区域。此外,常规的神经网络在经过多层卷积之后,通常采用池化操作,通过保留局部区域显著特征操作以降低图像的计算维度。但是,该方式在为后续网络降低参数量的同时,会直接导致丢失大量细节信息。
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征。
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
进一步作为本方法的优选实施例,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置,即自适应卷积(adaptive conv);
具体地,ASPConvs模块的工作过程参照图3,为在扩大感受野的基础上实现采样位置自适应学习,本发明首先引入空洞卷积规则,增大图像感受野如下:
pdr=p+(p-1)(hdr-1)
qdr=q+(q-1)(hdr-1)
上式中,pdr表示卷积尺寸的长,qdr表示卷积尺寸的宽,hdr表示空洞率。
基于采样位置提取得到次高级目标图像特征。
进一步作为本方法优选实施例,所述自适应学习寻找采样位置的表达式如下:
Figure BDA0002891903710000051
上式中,(x,y)表示初定采样位置,
Figure BDA0002891903710000052
表示对应的采样值,Δx和Δy表示偏移场(offset filed),
Figure BDA0002891903710000053
表示调整后的采样位置的采样值。
具体地,其中x′和y′分别代表方位分数,通过x′=min(max(0,x+Δx),p-1)和y′=min(max(0,y+Δy),p-1)计算得到。
Figure BDA0002891903710000061
利用对邻域位置样本进行线性插值得到。
进一步作为本方法优选实施例,所述这次高级目标图像特征的表达式如下:
Figure BDA0002891903710000062
上式中,wi表示采用卷积核对应的权重,Δmi表示第i个采样像素位置对应的权重。
Figure BDA0002891903710000063
表示向量
Figure BDA0002891903710000064
内元素总长度,
Figure BDA0002891903710000065
表示采样位置为(xi,yi)的采样值。
进一步作为本方法优选实施例,所述基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征这一步骤,其具体包括:
将次高级图像特征u分成多组胶囊子图并计算所有次高级图像特征u的预测向量;
基于预测向量构建高层次特征的输入向量;
基于Squash函数对高层次特征的输入向量进行压缩处理,得到高级语义特征。
具体地,在已提取到的次高级图像特征基础上,通过沿用3D胶囊网络卷积形式,并加以ASPCaps模块旋转特征,以提取上下层多重胶囊网络之间的信息传递。
ASPCaps模块的工作示意图参照图4,对于次高级图像特征(即PreviousFeatures)u,将其分成多组胶囊子图u={ui,i=1,...,I},分为I组胶囊子图,下一层的高级语义特征(即Posterior Features)v分为J组胶囊子图,给定任意一个像素的空间位置为(x,y),
Figure BDA0002891903710000066
表示上一层胶囊单元中第i个胶囊的输出信息,p和q分别表示胶囊卷积过程中卷积核的长和宽,
Figure BDA0002891903710000067
表示特征u中第i个胶囊和特征v中第j个胶囊之间的权值共享系数,则第j个特征预测值在高层次特征v中的预测向量
Figure BDA0002891903710000068
计算如下,
Figure BDA0002891903710000069
当获取到所有特征u中所有的预测向量uj∣i之后,计算(x+p)(y+q)采样点的加权求和,可获得特征v中胶囊j的输入向量
Figure BDA00028919037100000610
如下:
Figure BDA00028919037100000611
上式中,
Figure BDA00028919037100000612
表示动态由路系数,
Figure BDA00028919037100000613
表示在采样点为(x+p)(y+q)的预测向量,
Figure BDA00028919037100000614
表示高层次特征的输入向量。
Figure BDA00028919037100000615
表示动态由路系数,该系数通过softmax函数获得,并通过动态路由算法进行更新,具体计算如下:
Figure BDA0002891903710000071
其中J是下一层的特征v的胶囊总数。
Figure BDA0002891903710000072
在训练开始之前初始化为0,由动态路由算法进行数据更新。在动态路由算法中,系数
Figure BDA0002891903710000073
通过计算“预测向量”
Figure BDA0002891903710000074
Figure BDA0002891903710000075
如果符合一致性原则,则表明胶囊
Figure BDA0002891903710000076
可以很好地预测胶囊
Figure BDA0002891903710000077
则系数
Figure BDA0002891903710000078
将增加,反之亦然。在本发明所提网络中,一致性被量化为两个向量
Figure BDA0002891903710000079
Figure BDA00028919037100000710
之间的内积,通过该协议更新
Figure BDA00028919037100000711
具体如下所示:
Figure BDA00028919037100000712
最后,输入向量被非线性函数(即Squash函数)压缩以生成胶囊的输出,具体计算如下:
Figure BDA00028919037100000713
基于ASPCaps获得高级语义特征v后,本发明使用完全连接的胶囊层获取数字胶囊v′,其维度大小为T×16。然后,使用欧几里得范数(即||l2||)来获得每个大小为T的测试补丁的概率向量v″,其大小为T×1,其中每个值都映射到[0,1]。最后,深度胶囊网络训练完成后,对于Yk∈Rm×m×d中的测试图像块,其中心像素的类标签可以根据最大概率确定如下:
Figure BDA00028919037100000714
另外,本发明使用余量损失作为损失函数,与传统的交叉熵损失相比,余量损失以提高真实分类的概率。对于最后一个胶囊层中的每个胶囊j,其损失函数Lj可以计算如下:
Lj=Tj·max(0,n+-||vj||)2+λ(1-Tj)·max(0,||vj||-n-)2
其中,当类j实际上存在时,Tj=1,否则等于0。我们分别将n+=0.9和n-=0.1设置为正确类别和错误类别的下限和上限。λ是一个超参数,它在训练时控制初始阶段的梯度反向传播的效果。模型的总损耗是最后一层所有输出胶囊的损失之和。
如图2所示,基于自适应空间模式的深度胶囊网络图像分类系统,包括:
预处理模块,用于对训练用图像进行图像预处理,并构建训练集;
训练模块,用于基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
分类模块,用于获取待测图像并将待测图像输入训练完成的深度胶囊网络执行图像分类,得到分类结果。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (9)

1.基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
2.根据权利要求1所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述对训练用图像进行图像预处理,并构建训练集这一步骤,其具体包括:
获取训练用的高光谱图像X∈RH×W×D
基于主成分分析算法将数据降到d维,得到图像训练块Yk∈Rm×m×d
结合图像训练块和对应的标签构建训练集
Figure FDA0002891903700000011
3.根据权利要求2所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征;
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
4.根据权利要求3所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置;
基于采样位置提取得到次高级目标图像特征。
5.根据权利要求4所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述自适应学习寻找采样位置的表达式如下:
Figure FDA0002891903700000012
上式中,(x,y)表示初定采样位置,
Figure FDA0002891903700000013
表示对应的采样值,Δx和Δy表示偏移场,
Figure FDA0002891903700000021
表示调整后的采样位置的采样值。
6.根据权利要求5所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述次高级目标图像特征的表达式如下:
Figure FDA0002891903700000022
上式中,wi表示采用卷积核对应的权重,Δmi表示第i个采样像素位置对应的权重。
Figure FDA0002891903700000023
表示向量
Figure FDA0002891903700000024
内元素总长度,
Figure FDA0002891903700000025
表示采样位置为(xi,yi)的采样值。
7.根据权利要求6所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征这一步骤,其具体包括:
将次高级图像特征u分成多组胶囊子图并计算所有次高级图像特征u的预测向量;
基于预测向量构建高层次特征的输入向量;
基于Squash函数对高层次特征的输入向量进行压缩处理,得到高级语义特征。
8.根据权利要求7所述一种基于自适应空间模式的深度胶囊网络图像分类方法,其特征在于,所述高层次特征的输入向量
Figure FDA0002891903700000026
的表达式如下:
Figure FDA0002891903700000027
上式中,
Figure FDA0002891903700000028
表示动态由路系数,
Figure FDA0002891903700000029
表示在采样点为(x+p)(y+q)的预测向量,
Figure FDA00028919037000000210
表示高层次特征的输入向量。
9.基于自适应空间模式的深度胶囊网络图像分类系统,其特征在于,包括:
预处理模块,用于对训练用图像进行图像预处理,并构建训练集;
训练模块,用于基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
分类模块,用于获取待测图像并将待测图像输入训练完成的深度胶囊网络执行图像分类,得到分类结果。
CN202110032354.4A 2021-01-11 2021-01-11 基于自适应空间模式的深度胶囊网络图像分类方法及系统 Active CN112766340B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110032354.4A CN112766340B (zh) 2021-01-11 2021-01-11 基于自适应空间模式的深度胶囊网络图像分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110032354.4A CN112766340B (zh) 2021-01-11 2021-01-11 基于自适应空间模式的深度胶囊网络图像分类方法及系统

Publications (2)

Publication Number Publication Date
CN112766340A true CN112766340A (zh) 2021-05-07
CN112766340B CN112766340B (zh) 2024-06-04

Family

ID=75701365

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110032354.4A Active CN112766340B (zh) 2021-01-11 2021-01-11 基于自适应空间模式的深度胶囊网络图像分类方法及系统

Country Status (1)

Country Link
CN (1) CN112766340B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408488A (zh) * 2021-07-19 2021-09-17 中南大学 基于胶囊网络的火焰目标识别方法、设备及介质
CN114241245A (zh) * 2021-12-23 2022-03-25 西南大学 一种基于残差胶囊神经网络的图像分类系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830243A (zh) * 2018-06-22 2018-11-16 西安电子科技大学 基于胶囊网络的高光谱图像分类方法
CN108985316A (zh) * 2018-05-24 2018-12-11 西南大学 一种改进重构网络的胶囊网络图像分类识别方法
CN109376636A (zh) * 2018-10-15 2019-02-22 电子科技大学 基于胶囊网络的眼底视网膜图像分类方法
CN109740695A (zh) * 2019-01-28 2019-05-10 太原理工大学 基于自适应全卷积注意力网络的图像识别方法
US20190354835A1 (en) * 2018-05-17 2019-11-21 International Business Machines Corporation Action detection by exploiting motion in receptive fields
CN111402226A (zh) * 2020-03-13 2020-07-10 浙江工业大学 一种基于级联卷积神经网络的表面疵点检测方法
CN111401455A (zh) * 2020-03-20 2020-07-10 中国科学院空天信息创新研究院 一种基于Capsules-Unet模型的遥感图像深度学习分类方法和系统
CN111460932A (zh) * 2020-03-17 2020-07-28 哈尔滨工程大学 基于自适应卷积的水声信号分类识别方法
CN111583112A (zh) * 2020-04-29 2020-08-25 华南理工大学 视频超分辨率的方法、系统、装置和存储介质
WO2020215236A1 (zh) * 2019-04-24 2020-10-29 哈尔滨工业大学(深圳) 图像语义分割方法和系统
CN112115900A (zh) * 2020-09-24 2020-12-22 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112132258A (zh) * 2020-08-26 2020-12-25 中国海洋大学 一种基于可变形卷积的多任务学习模型构建及优化方法
CN112200163A (zh) * 2020-12-03 2021-01-08 中国科学院自动化研究所 水下底栖生物检测方法及系统

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190354835A1 (en) * 2018-05-17 2019-11-21 International Business Machines Corporation Action detection by exploiting motion in receptive fields
CN108985316A (zh) * 2018-05-24 2018-12-11 西南大学 一种改进重构网络的胶囊网络图像分类识别方法
CN108830243A (zh) * 2018-06-22 2018-11-16 西安电子科技大学 基于胶囊网络的高光谱图像分类方法
CN109376636A (zh) * 2018-10-15 2019-02-22 电子科技大学 基于胶囊网络的眼底视网膜图像分类方法
CN109740695A (zh) * 2019-01-28 2019-05-10 太原理工大学 基于自适应全卷积注意力网络的图像识别方法
WO2020215236A1 (zh) * 2019-04-24 2020-10-29 哈尔滨工业大学(深圳) 图像语义分割方法和系统
CN111402226A (zh) * 2020-03-13 2020-07-10 浙江工业大学 一种基于级联卷积神经网络的表面疵点检测方法
CN111460932A (zh) * 2020-03-17 2020-07-28 哈尔滨工程大学 基于自适应卷积的水声信号分类识别方法
CN111401455A (zh) * 2020-03-20 2020-07-10 中国科学院空天信息创新研究院 一种基于Capsules-Unet模型的遥感图像深度学习分类方法和系统
CN111583112A (zh) * 2020-04-29 2020-08-25 华南理工大学 视频超分辨率的方法、系统、装置和存储介质
CN112132258A (zh) * 2020-08-26 2020-12-25 中国海洋大学 一种基于可变形卷积的多任务学习模型构建及优化方法
CN112115900A (zh) * 2020-09-24 2020-12-22 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112200163A (zh) * 2020-12-03 2021-01-08 中国科学院自动化研究所 水下底栖生物检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JINGPING WANG ET AL.: "ASPCNet: Deep Adaptive Spatial Pattern Capsule Network for Hyperspectral Image Classification", NEUROCOMPUTING, vol. 486, pages 47 - 60 *
KAIQIANG ZHU ET AL.: "Deep Convolutional Capsule Network for Hyperspectral Image Spectral and Spectral-Spatial Classification", REMOTE SENSING, vol. 11, no. 3, pages 1 - 27 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408488A (zh) * 2021-07-19 2021-09-17 中南大学 基于胶囊网络的火焰目标识别方法、设备及介质
CN113408488B (zh) * 2021-07-19 2022-11-25 中南大学 基于胶囊网络的火焰目标识别方法、设备及介质
CN114241245A (zh) * 2021-12-23 2022-03-25 西南大学 一种基于残差胶囊神经网络的图像分类系统
CN114241245B (zh) * 2021-12-23 2024-05-31 西南大学 一种基于残差胶囊神经网络的图像分类系统

Also Published As

Publication number Publication date
CN112766340B (zh) 2024-06-04

Similar Documents

Publication Publication Date Title
CN111639692B (zh) 一种基于注意力机制的阴影检测方法
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN109191382B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN107563433B (zh) 一种基于卷积神经网络的红外小目标检测方法
CN110322453B (zh) 基于位置注意力和辅助网络的3d点云语义分割方法
CN109671070B (zh) 一种基于特征加权和特征相关性融合的目标检测方法
CN111080675B (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN107808138B (zh) 一种基于FasterR-CNN的通信信号识别方法
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN109190511B (zh) 基于局部与结构约束低秩表示的高光谱分类方法
CN111046868B (zh) 基于矩阵低秩稀疏分解的目标显著性检测方法
CN110135438B (zh) 一种基于梯度幅值预运算的改进surf算法
CN111612017A (zh) 一种基于信息增强的目标检测方法
CN111368769A (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN113808180B (zh) 一种异源图像配准方法、系统及装置
CN112766340B (zh) 基于自适应空间模式的深度胶囊网络图像分类方法及系统
CN108734199A (zh) 基于分段深度特征及低秩表示的高光谱图像鲁棒分类方法
CN111798469A (zh) 基于深度卷积神经网络的数字图像小数据集语义分割方法
CN110909615A (zh) 基于多尺度输入混合感知神经网络的目标检测方法
CN114019467A (zh) 一种基于MobileNet模型迁移学习的雷达信号识别与定位方法
CN111832228A (zh) 基于cnn-lstm的振动传递系统
CN112634149A (zh) 一种基于图卷积网络的点云去噪方法
CN113297988A (zh) 一种基于域迁移和深度补全的物体姿态估计方法
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN113298129A (zh) 基于超像素和图卷积网络的极化sar图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant