CN112487229A - 细粒度图像分类方法、系统及预测模型的训练方法 - Google Patents
细粒度图像分类方法、系统及预测模型的训练方法 Download PDFInfo
- Publication number
- CN112487229A CN112487229A CN202011364185.6A CN202011364185A CN112487229A CN 112487229 A CN112487229 A CN 112487229A CN 202011364185 A CN202011364185 A CN 202011364185A CN 112487229 A CN112487229 A CN 112487229A
- Authority
- CN
- China
- Prior art keywords
- layer
- network
- neural network
- fine
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本申请提供细粒度图像分类方法、系统及预测模型的训练方法,细粒度图像分类方法包括:重复如下步骤,直至更新后的第一层为神经网络的最后一层:接收神经网络的第一层的输出特征,作为可学习的非局部模块的输入特征;将非局部模块的输出特征作为神经网络的第一层的输入特征;用第二层更新第一层;并且,若更新后的第一层为神经网络的最后一层,则将神经网络的最后一层的输出特征输入分类网络中;将分类网络的输出特征作为预测结果并输出。本申请在神经网络的每两层之间插入一个可学习的非局部模块,使得每一层的神经元的感受野大小与物体部分大小匹配,可以更好的关联多层多尺度的特征,有效的提升细粒度图像分类中神经网络的性能。
Description
技术领域
本申请涉及图像处理技术领域,具体涉及细粒度图像分类方法、系统及预测模型的训练方法。
背景技术
图像分类任务是计算机视觉领域的基础任务,它一直是一个重要的研究方向。随着相关研究的不断发展,更具挑战性的细粒度图像分类任务受到了越来越多的关注。细粒度图像分类的目标是准确的区分一个大类下的多个子类别,而其特点及难点就是类间的差异小,而类内的差异大。具体来说,类间差异小是指不同子类的对象往往非常相似,需要通过一些关键的区域(以鸟类为例,如鸟嘴,翅膀,爪子等部分区域)来加以区分,而这需要一定的专家知识才能做到;类内差异大是指,即使是在同一个子类中相同对象间,由于对象的姿势,对象所处背景,拍摄角度等因素的不同导致同一类图像间的差别相对较大。早期的细粒度图像识别方法往往需要针对训练特征做大量的人工标注,获得这些额外的人工信息需要大量的人力物力,花费大量的时间和金钱。随着相关技术的发展,提出了许多如双线性CNN,多注意多类约束(Multi-Attention Multi-Class Constraint,MAMC)等的神经网络模型,只需输入图片和相应的标签便可进行训练得到很好的分类性能。
受计算机视觉中经典的非局部均值方法的启发,非局部(Non-local,NL)模块被提出,作为一个通用的模块来捕获长程依赖关系,并且通过自注意机制形成注意映射。对于每个位置,NL模块首先计算当前位置和所有位置之间的成对关系,然后通过加权和对所有位置的特征进行聚合。将聚合的特征添加到每个位置的特征中,以形成输出。作为一个可以插入到许多计算机视觉体系结构中的模块,NL模块在视频分类以及静态图像识别任务上对模型性能带来了可观的提升。有许多技术将NL模块结合其他技术应用于细粒度图像分类中,用于加强模型的全局信息感知能力。
NL模块可以在图像识别方面带来很好的改善,然而,对于细粒度图像分类任务来说,多尺度特征是至关重要的,因为对象部分在图像中的大小和形状各不相同。现有技术中每个神经网络只在某两层之间插入一个NL模块来模拟空间依赖性,但是神经元有固定大小的感受野,感受野大小与物体部分大小的不匹配可能会破坏特征提取。
在NL模块最初提出时主要针对具有时序的视频特征进行试验,而且是作为一个即插即用的模块嵌入传统神经网络中使用的,没有专门针对细粒度图像分类做出优化。现有的NL模块在细粒度图像分类中的应用主要是将一个NL模块结合其他技术结合至如深度残差网络(Deep residual network,ResNet)之类的神经网络中,使用传统方法训练网络,即训练每次输入一张图像,进行多次循环,在细粒度图像分类问题中,这种设置没有很好的考虑其类内差异大类间差异小的特点难点,无法有效提升最终的分类准确率。
发明内容
本申请的目的在于提供细粒度图像分类方法、系统及预测模型的训练方法,用于解决神经元的感受野大小与物体部分大小的不匹配破坏特征提取的技术问题。
本申请提供一种细粒度图像分类方法,包括:重复进行如下步骤,直至更新后的第一层为神经网络的最后一层:接收神经网络的第一层的输出特征,作为可学习的非局部模块的输入特征;将非局部模块的输出特征作为神经网络的第二层的输入特征;用第二层更新第一层;并且,若更新后的第一层为神经网络的最后一层,则将神经网络的最后一层的输出特征输入分类网络中;将分类网络的输出特征作为预测结果并输出。
优选地,非局部模块采用如下公式进行运算
NL(Xl)=Xl+z(f(θ(Xl),φ(Xl))g(Xl))
其中,Xl为所述第一层的输出特征图,NL(Xl)是所述非局部模块的输出特征,z为卷积符号,θ(Xl)、φ(Xl)和g(Xl)为Xl的可学习的嵌入函数,f(θ(Xl),φ(Xl))为θ(Xl)和φ(Xl)的函数。
优选地,θ(Xl)、φ(Xl)和g(Xl)为可学习的嵌入函数。
本申请还提供一种细粒度图像分类方法,包括:接收输入两个分支网络的图像;从所述神经网络中随机选取所述神经网络的中间层作为第三层;重复进行如下步骤,直至更新后的第一层为所述神经网络的最后一层:接收神经网络的第一层的输出特征,作为非局部模块的输入特征;将非局部模块的输出特征作为所述神经网络的第二层的输入特征;用第二层更新第一层;判断所述第一层是否为所述第三层;若所述更新后的第一层是所述第三层,则将两个所述分支网络的所述第三层对应的非局部模块的输出特征混合叠加,并将混合叠加后的特征输入主干网络,并用所述主干网络的第一层更新所述第一层;并且,若更新后的第一层为所述神经网络的最后一层,则将所述神经网络的最后一层的输出特征输入分类网络中;将所述分类网络的输出特征作为预测结果并输出。
优选地,采用如下公式进行混合叠加
NL(Xl)=Xl+z(f(θ(Xl),φ(Xl))g(Xl))
其中,Xl为所述第一层的输出特征图,NL(Xl)是所述非局部模块的输出特征,z为卷积符号,θ(Xl)、φ(Xl)和g(Xl)为Xl的可学习的嵌入函数,f(θ(Xl),φ(Xl))为θ(Xl)和φ(Xl)的函数,为混合叠加后的特征图,λ为超参数,为第一分支网络的第M非局部模块的输出,为第二分支网络的第M非局部模块的输出,为图像xi输入的第一分支网络的第M层的特征输出,为图像xi输入的第二分支网络的第M层的特征输出。
本申请还提供一种细粒度图像分类预测模型的训练方法,包括:循环执行上述的细粒度图像分类方法;其中,将第一层对应的两个非局部子模块的输出特征混合叠加的同时混合两个图像的标签,获得混合标签;还包括:获得预测结果后,计算预测结果和混合标签之间的损失,并进行反向传播。
优选地,采用如下公式计算混合后的标签
yij=λyi+(1-λ)yj
其中,yij表示混合后的标签,yi表示图像xi的标签,yj表示图像xj的标签。
本申请还提供一种细粒度图像分类预测模型的训练方法,包括:循环执行上述的细粒度图像分类方法;其中,将两个所述分支网络的所述第三层对应的非局部模块的输出特征混合叠加的同时混合两个图像的标签,获得混合标签;还包括:获得预测结果后,计算所述预测结果和所述混合标签之间的损失,并进行反向传播。
优选地,采用如下公式计算混合后的标签
yij=λyi+(1-λ)yj
其中,yij表示混合后的标签,yi表示图像xi的标签,yj表示图像xj的标签。
优选地,利用交叉熵计算损失
本申请还提供一种细粒度图像分类系统,包括神经网络和分类网络;其中,神经网络包括多个层,神经网络的最后一层连接分类网络,分类网络的输入是最后一层的输出,分类网络的输出作为预测结果;神经网络的每两层之间均设有一个可学习的非局部模块。
优选地,神经网络包括两个独立的分支网络和主干网络,两个分支网络包含相同的层;细粒度图像分类系统还包括混合叠加模块,两个分支网络的最后一层对应的非局部模块分别与混合叠加模块连接,混合叠加模块连接主干网络,主干网络的最后一层连接分类网络。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本申请提供的一种实施例的细粒度图像分类系统的结构图;
图2是本申请提供的与图1对应的细粒度图像分类方法的流程图;
图3是本申请提供的另一种实施例的细粒度图像分类系统的结构图;
图4是本申请提供的与图3对应的细粒度图像分类预测模型的训练方法的流程图。
具体实施方式
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
本申请提供了一种细粒度图像分类系统。图1是本申请提供的一种实施例的细粒度图像分类系统的结构图。如图1所示,细粒度图像分类系统包括深度学习的神经网络和分类网络。神经网络包括多个层,如图1的第一层、第二层……第M层……第N层(作为最后一层)。神经网络的最后一层连接分类网络,分类网络的输入是最后一层的输出,分类网络由池化层、线性分类层和归一化指数函数softmax层组成,分类网络用于得出最终的预测结果。图像输入神经网络后,经过该细粒度图像分类系统获得预测结果。
其中,神经网络的每两层之间均设有一个非局部模块,如图1中的第一非局部模块、第二非局部模块、第M非局部模块、第N-1非局部模块等。
图2是本申请提供的与图1对应的细粒度图像分类方法的流程图。如图2所示,细粒度分类方法包括如下步骤:
S210:接收图像,将图像作为神经网络的输入数据,输入神经网络的第一层。
S220:将第一层的输出特征输入其后的非局部模块,如图1中的第一层后的第一非局部模块、第M层后的第M非局部模块。
非局部模块对输入特征进行运算,获得非局部模块的输出特征。
具体地,非局部模块采用如下方法进行运算:
为了捕捉整个特征图Xl之间的长程依赖关系,非局部操作首先使用两个可学习的嵌入嵌入函数θ(·)和φ(·),将Xl投影到新的特征空间中。然后,利用特征空间中的函数f(·,·)处理θ(Xl)和φ(Xl),再经过一个归一化指数函数softmax层计算注意力映射。最后,所有位置的特征由另一个可学习的嵌入函数g(·)投影。另外,为了减少计算量,θ(·),φ(·)和g(·)会缩小输入特征的通道。卷积z是为了维持输入的特征图Xl和非局部模块的输出NL(Xl)之间的维度一致,便于后续相加。非局部模块的输出特征是所有位置嵌入特征的加权和:
NL(Xl)=Xl+z(f(θ(Xl),φ(Xl))g(Xl))(1)
作为一个实施例,每个非局部模块的θ(·),φ(·)和g(·)通常实现为1×1卷积。
具体地,公式(1)中的函数f有多种选择,可以根据实际情况选择使用的函数f。
(2)点积:f(θ(Xl),φ(Xl))=θ(Xl)Tφ(Xl),同样θ(·),φ(·)为嵌入函数,由1×1卷积实现,其中θ(·),φ(·)分别表示可学习的嵌入函数。
S230:将非局部模块的输出特征输入其后的第二层,如图1中的第一非局部模块后的第二层、第二非局部模块后的第三层。
S240:用第二层更新第一层。
S250:判断更新后的第一层是否是神经网络的最后一层。若是,则执行S260;否则,返回S220。
S260:将最后一层的输出特征输入分类网络中。
S270:将分类网络的输出特征作为预测结果并输出。
将多个非局部模块插入神经网络的每两层之间,非局部模块可以捕获图像中多个区域之间的关联,使得网络可以更好的关联多层多尺度的特征,同时联系图像中多个区域特征从而提升分类准确率。
实施例二
本申请提供了基于实施例一的另一种细粒度图像分类系统。图3是本申请提供的另一种实施例的细粒度图像分类系统的结构图。如图3所示,细粒度图像分类系统包括神经网络、混合叠加模块以及分类网络。神经网络包括多层(如图3中的N层),每两层之间均设有一个非局部模块,如图3中的第一非局部模块、第二非局部模块、第M非局部模块、第N-1非局部模块等。进一步地,神经网络包括两个独立的分支网络(如图3中的第一分支和第二分支)和主干网络,两个分支网络包含相同的层(如图3的第一层、第二层……第M层,M为随机产生的,M∈[1,N-1],即M层为中间层),用于处理不同的图像,并在分支网络的最后一层后经过混合叠加模块对这两个分支网络对应的非局部模块的输出特征进行混合叠加,获得合并后的特征,合并的特征输入的神经网络的主干网络进一步处理。主干网络的最后一层连接分类网络,分类网络由池化层、线性分类层和归一化指数函数softmax层组成,分类网络的输入是最后一层的输出,分类网络用于得出最终的预测结果。
非局部模块的运算请参考实施例一,在此不再赘述。在此基础上,假设随机选取神经网络的第M层(M∈[1,N-1],即第M层是神经网络的中间层)的特征输出进行混合叠加,则两个分支网络的第M非局部模块的输出为:
其中,表示图像xi输入的第一分支网络的第M层的特征输出,由图3可知,第M层直连第M非局部模块,为第一分支网络的第M非局部模块的输出,表示图像xj输入的第二分支网络的第M层的特征输出,为第二分支网络的第M非局部模块的输出。非局部模块中的θ(·),φ(·),g(·)函数是可学习和训练的,这意味着每个非局部模块中的这三个函数是不同的,在式中本文使用θM,i(·)表示输入图像为xi的第一分支网络的第M个非局部模块中的θ(·)函数,φM,i(·)表示输入图像为xi的第一分支网络的第M个非局部模块中的φ(·)函数,gM,i(·)表示输入图像为xi的第一分支网络的第M个非局部模块中的g(·)函数;θM,j(·)表示输入图像为xj的第二分支网络的第M非局部模块中的θ(·)函数,φM,j(·)表示输入图像为xj的第二分支网络的第M个非局部模块中的φ(·)函数,gM,j(·)表示输入图像为xj的第二分支网络的第M个非局部模块中的g(·)函数。
作为一个实施例,每个训练周期从Beta分布中采样超参数λ以执行插值:
λ~Beta(α,α)
λ=max(λ,1-λ) (5)
图4是本申请提供的与图3对应的细粒度图像分类预测模型的训练方法的流程图。如图4所示,细粒度图像分类预测模型的训练方法包括如下步骤:
预测算法主要步骤如下:
S410:网络初始化。根据图3的结构构建神经网络,加载预训练参数初始化模型,由式(5)得到超参数λ来初始化混合叠加模块,使用随机参数初始化分类网络和NL模块。
作为一个实施例,使用卷积神经网络Resnet-101,并使用加载在ImageNet上训练的预训练参数来初始化模型。
S420:随机选取数据集中的两个图像,将这两个图片分别输入两个分支网络中,分别使用独立的神经网络处理图像以得到两个图像的特征。
样本数据集为X={x1,x2,…,xN},xj表示第j个图像样本,共有N个,对应的标签集为Y={y1,y2,…,yN},yj表示第j个样本的标签,样本数据集中共有S个类别,所以yj∈{1,2,…,S}。
作为一个实施例,训练使用的样本数据集为Standford Dogs数据集,该数据集是斯坦福大学提出的细粒度数据集,也是目前细粒度分类识别研究的基准图像数据集。该数据集共有20580张狗类图像,包含120类狗类子类,每类约有120张。
S430:随机选取M,M∈[1,N-1],得到两个分支网络中的第M非局部模块的输出(如式(2)和(3)),并将这两个第M非局部模块的输出特征输入混合叠加模块中进行混合叠加(如式(4)),同时混合两个输入图像的标签。
作为一个实施例,考虑到Resnet网络都设计有5层残差块,所以令N=5,本实例中每次训练时随机选取两个分支网络的第M层的输出特征及其后续的非局部模块的输出,M∈[1,N-1]。
其中,按照如下公式进行图像标签的混合
yij=λyi+(1-λ)yj (6)
其中,yij表示混合后的标签,yi表示图像xi的标签,yj表示图像xj的标签。
S440:将混合叠加后的特征输入后续的主干网络进行训练。
S450:将主干网络最后一层的输出特征输入分类网络。
S470:计算预测结果和混合叠加后的标签之间的损失,进行反向传播训练。
作为一个实施例,根据混合模块的混合参数进行人工混合。
作为一个实施例,损失函数使用交叉熵:
S480:判断预测模型是否符合收敛条件。若是,则执行步骤S490;否则,返回S420。
S490:获得最终预测模型。
预测模型训练好之后,在进行细粒度图像分类时,执行S420-S460。
本实施例设置了两个分支网络,使得预测模型可以同时处理两个输入图像,通过混合叠加技术将两个分支网络中的随机同一层的非局部模块的输出加权合并,使得网络可以通过对比突出来强调有区分性的区域特征。
本申请的有益效果如下:
1、本申请在神经网络的每两层之间插入一个可学习的非局部模块,使得每一层的神经元的感受野大小与物体部分大小匹配,并可以更好的关联多层多尺度的特征,将其应用于细粒度图像分类中可以有效的提升神经网络的性能。
2、本申请通过每两层之间的多个非局部模块和两个分支网络的混合叠加结合,使得网络可以通过对比突出来强调有区分性的区域特征,对细粒度图像分类中类内差异大类间差异小的特点给出了针对性的解决办法。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种细粒度图像分类方法,其特征在于,包括:
重复进行如下步骤,直至更新后的第一层为所述神经网络的最后一层:
接收神经网络的第一层的输出特征,作为可学习的非局部模块的输入特征;
将非局部模块的输出特征作为所述神经网络的第二层的输入特征;
用第二层更新第一层;
并且,若更新后的第一层为所述神经网络的最后一层,则
将所述神经网络的最后一层的输出特征输入分类网络中;
将所述分类网络的输出特征作为预测结果并输出。
2.如权利要求1所述的细粒度图像分类方法,其特征在于,所述非局部模块采用如下公式进行运算
NL(Xl)=Xl+z(f(θ(Xl),φ(Xl))g(Xl))
其中,Xl为所述第一层的输出特征图,NL(Xl)是所述非局部模块的输出特征,z为卷积符号,θ(Xl)、φ(Xl)和g(Xl)为Xl的可学习的嵌入函数,f(θ(Xl),φ(Xl))为θ(Xl)和φ(Xl)的函数。
3.如权利要求2所述的细粒度图像分类方法,其特征在于,θ(Xl)、φ(Xl)和g(Xl)为可学习的嵌入函数。
4.一种细粒度图像分类方法,其特征在于,包括:
接收输入两个分支网络的图像;
从所述神经网络中随机选取所述神经网络的中间层作为第三层;
重复进行如下步骤,直至更新后的第一层为所述神经网络的最后一层:
接收神经网络的第一层的输出特征,作为非局部模块的输入特征;
将非局部模块的输出特征作为所述神经网络的第二层的输入特征;
用第二层更新第一层;
判断所述第一层是否为所述第三层;
若所述更新后的第一层是所述第三层,则将两个所述分支网络的所述第三层对应的非局部模块的输出特征混合叠加,并将混合叠加后的特征输入主干网络,并用所述主干网络的第一层更新所述第一层;
并且,若更新后的第一层为所述神经网络的最后一层,则
将所述神经网络的最后一层的输出特征输入分类网络中;
将所述分类网络的输出特征作为预测结果并输出。
6.一种细粒度图像分类预测模型的训练方法,其特征在于,包括:
循环执行权利要求4或5所述的细粒度图像分类方法;
其中,将两个所述分支网络的所述第三层对应的非局部模块的输出特征混合叠加的同时混合两个图像的标签,获得混合标签;
还包括:
获得预测结果后,计算所述预测结果和所述混合标签之间的损失,并进行反向传播。
7.如权利要求6所述的细粒度图像分类预测模型的训练方法,其特征在于,采用如下公式计算混合后的标签
yij=λyi+(1-λ)yj
其中,yij表示混合后的标签,yi表示图像xi的标签,yj表示图像xj的标签。
9.一种细粒度图像分类系统,其特征在于,包括神经网络和分类网络;
其中,神经网络包括多个层,所述神经网络的最后一层连接所述分类网络,所述分类网络的输入是所述最后一层的输出,所述分类网络的输出作为预测结果;
所述神经网络的每两层之间均设有一个可学习的非局部模块。
10.如权利要求9所述的细粒度图像分类系统,其特征在于,所述神经网络包括两个独立的分支网络和主干网络,所述两个分支网络包含相同的层;
所述细粒度图像分类系统还包括混合叠加模块,所述两个分支网络的最后一层对应的非局部模块分别与所述混合叠加模块连接,所述混合叠加模块连接所述主干网络,所述主干网络的最后一层连接所述分类网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011364185.6A CN112487229B (zh) | 2020-11-27 | 2020-11-27 | 细粒度图像分类方法、系统及预测模型的训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011364185.6A CN112487229B (zh) | 2020-11-27 | 2020-11-27 | 细粒度图像分类方法、系统及预测模型的训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112487229A true CN112487229A (zh) | 2021-03-12 |
CN112487229B CN112487229B (zh) | 2022-11-11 |
Family
ID=74936657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011364185.6A Active CN112487229B (zh) | 2020-11-27 | 2020-11-27 | 细粒度图像分类方法、系统及预测模型的训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112487229B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830402A (zh) * | 2023-02-21 | 2023-03-21 | 华东交通大学 | 一种细粒度图像识别分类模型训练方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190156210A1 (en) * | 2017-11-17 | 2019-05-23 | Facebook, Inc. | Machine-Learning Models Based on Non-local Neural Networks |
CN109919232A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于卷积神经网络和非局部连接网络的图像分类方法 |
CN110826462A (zh) * | 2019-10-31 | 2020-02-21 | 上海海事大学 | 一种非局部双流卷积神经网络模型的人体行为识别方法 |
CN111178432A (zh) * | 2019-12-30 | 2020-05-19 | 武汉科技大学 | 多分支神经网络模型的弱监督细粒度图像分类方法 |
CN111242846A (zh) * | 2020-01-07 | 2020-06-05 | 福州大学 | 基于非局部增强网络的细粒度尺度图像超分辨率方法 |
-
2020
- 2020-11-27 CN CN202011364185.6A patent/CN112487229B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190156210A1 (en) * | 2017-11-17 | 2019-05-23 | Facebook, Inc. | Machine-Learning Models Based on Non-local Neural Networks |
CN109919232A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于卷积神经网络和非局部连接网络的图像分类方法 |
CN110826462A (zh) * | 2019-10-31 | 2020-02-21 | 上海海事大学 | 一种非局部双流卷积神经网络模型的人体行为识别方法 |
CN111178432A (zh) * | 2019-12-30 | 2020-05-19 | 武汉科技大学 | 多分支神经网络模型的弱监督细粒度图像分类方法 |
CN111242846A (zh) * | 2020-01-07 | 2020-06-05 | 福州大学 | 基于非局部增强网络的细粒度尺度图像超分辨率方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830402A (zh) * | 2023-02-21 | 2023-03-21 | 华东交通大学 | 一种细粒度图像识别分类模型训练方法、装置及设备 |
CN115830402B (zh) * | 2023-02-21 | 2023-09-12 | 华东交通大学 | 一种细粒度图像识别分类模型训练方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112487229B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522942B (zh) | 一种图像分类方法、装置、终端设备和存储介质 | |
US10262218B2 (en) | Simultaneous object detection and rigid transform estimation using neural network | |
CN109086722B (zh) | 混合车牌识别方法、装置、电子设备 | |
CN111797893B (zh) | 一种神经网络的训练方法、图像分类系统及相关设备 | |
CN112559784B (zh) | 基于增量学习的图像分类方法及系统 | |
CN109817276B (zh) | 一种基于深度神经网络的蛋白质二级结构预测方法 | |
CN111612807A (zh) | 一种基于尺度和边缘信息的小目标图像分割方法 | |
CN112100387B (zh) | 用于文本分类的神经网络系统的训练方法及装置 | |
US20180247199A1 (en) | Method and apparatus for multi-dimensional sequence prediction | |
CN111967480A (zh) | 基于权重共享的多尺度自注意力目标检测方法 | |
CN110826638A (zh) | 基于重复注意力网络的零样本图像分类模型及其方法 | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
CN112561027A (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
CN109033107A (zh) | 图像检索方法和装置、计算机设备和存储介质 | |
CN111783779B (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN112418351B (zh) | 基于全局与局部上下文感知的零样本学习图像分类方法 | |
CN113743417B (zh) | 语义分割方法和语义分割装置 | |
US20220156528A1 (en) | Distance-based boundary aware semantic segmentation | |
CN110298394A (zh) | 一种图像识别方法和相关装置 | |
CN114863407B (zh) | 一种基于视觉语言深度融合的多任务冷启动目标检测方法 | |
CN111680757A (zh) | 一种基于自编码器的零样本图像识别算法及系统 | |
CN112487229B (zh) | 细粒度图像分类方法、系统及预测模型的训练方法 | |
CN116594748A (zh) | 针对任务的模型定制处理方法、装置、设备和介质 | |
Jangtjik et al. | A CNN-LSTM framework for authorship classification of paintings | |
EP3660742B1 (en) | Method and system for generating image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |