CN110598746A - 一种基于ode求解器自适应的场景分类方法 - Google Patents

一种基于ode求解器自适应的场景分类方法 Download PDF

Info

Publication number
CN110598746A
CN110598746A CN201910745244.5A CN201910745244A CN110598746A CN 110598746 A CN110598746 A CN 110598746A CN 201910745244 A CN201910745244 A CN 201910745244A CN 110598746 A CN110598746 A CN 110598746A
Authority
CN
China
Prior art keywords
layer
image
neural network
classified
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910745244.5A
Other languages
English (en)
Inventor
余磊
袁琼雯
何敬伟
罗美露
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910745244.5A priority Critical patent/CN110598746A/zh
Publication of CN110598746A publication Critical patent/CN110598746A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Abstract

本发明公开了一种基于ODE求解器自适应的场景分类方法,首先基于后向欧拉逼近的方法构造神经网络,然后对构造的神经网络进行训练获得分类器;接着将待分类图像输入分类器,通过分类器的卷积层调整维数、特征提取模块提取待分类图像的特征、池化层进行池化操作、全连接层将分布式特征映射到样本空间,最后通过softmax层求解输入的待分类图像属于不同类别的概率;最后,选择待分类图像在不同场景类别下概率最高的类别作为分类器的输出结果,从而得到待分类图像所属的场景类别。本发明的方法可以提高分类的精度,改善分类效果。

Description

一种基于ODE求解器自适应的场景分类方法
技术领域
本发明涉及计算机技术领域,具体涉及一种基于ODE求解器自适应的场景分类方法。
背景技术
图像场景分类技术涉及到模式识别、信号处理、计算机视觉等学科的交叉领域,是解决图片搜索、图像识别等问题的关键技术。
本申请发明人在实施本发明的过程中,发现现有技术的方法,至少存在如下技术问题:
现有技术中,场景分类的方法主要包括三大类。第一类是基于特征的方法;通过提取图像特征(如颜色、形状和纹理等),结合特征描述并设计使用相应的分类器实现,该类方法在背景复杂、目标密集的场景任务中表现差,仅适用于简单的自然场景。第二类是基于语义的方法;局部内容的目标语义相对于场景语义,又可称之为局部语义概念,在第二类方法中,首先对图像进行规则划分,提取各字块的局部图像描述子,建立局部描述子与语义概念之间的联系,再利用局部语义概念之间的概率分布完成场景分类。第三类是基于学习的方法;使用卷积神经网络通过“自学习”的方式来实现,也是近些年来的研究热点,该类方法的出现使人工提取特征的繁重成为过去式,可以实现对特征的自动提取与整合,但是该类方法均是经验性方法,缺乏理论依据以及可解释性,无法进行推导验证。
由此可知,现有技术中的方法存在分类效果不佳的技术问题。
发明内容
有鉴于此,本发明提供了一种基于ODE求解器自适应的场景分类方法,用以解决或者至少部分解决现有技术中的方法存在的分类效果不佳的技术问题。
本发明提供了一种基于ODE求解器自适应的场景分类方法,包括:
步骤S1:基于后向欧拉逼近的方法构造神经网络,其中,构造的神经网络包括卷积层、特征提取模块、池化层、全连接层和softmax层;
步骤S2:对构造的神经网络进行训练获得分类器;
步骤S3:将待分类图像输入分类器,通过分类器的卷积层调整维数、特征提取模块提取待分类图像的特征、池化层进行池化操作、全连接层将分布式特征映射到样本空间,最后通过softmax层求解输入的待分类图像属于不同类别的概率;
步骤S4:选择待分类图像在不同场景类别下概率最高的类别作为分类器的输出结果,输出结果为待分类图像所属的场景类别。
在一种实施方式中,步骤S1具体包括:
步骤S1.1:对常微分方程(1)进行离散化,得到公式(2)和(3)
yk+1=hf(yk+1)+yk (3)
其中,h表示步长,k表示迭代次数,f(yk+1)为隐函数;
步骤S1.2:隐函数f(yk+1)通过神经网络学习得到参数,构造神经网络,其中,yk为特征提取模块中第k次迭代的输入,yk+1为第k次迭代的输出。
在一种实施方式中,步骤S2具体包括:
步骤S2.1:获取训练数据集;
步骤S2.2:对训练数据集进行增强;
步骤S2.3:利用增强后的训练数据集对神经网络进行训练,获得训练后的神经网络,将其作为分类器。
在一种实施方式中,构造的神经网络包括三个卷积层、三个特征提取模块、两个池化层、两个全连接层和一个softmax层,步骤S3具体包括:
步骤S3.1:待分类图像首先通过第一卷积层的卷积操作后,经过第一特征提取模块提取特征后,通过第一池化层进行池化操作,并经过第二卷积层卷积后进入第二特征提取模块,然后通过第二池化层和第三卷积层;
步骤S3.2:通过第三卷积层得到的特征图进入第三特征提取模块后输入到全连接层中,经过两层全连接层之后采用softmax函数对输出值进行概率化,得到图像的类别概率值。
在一种实施方式中,经过两层全连接层之后采用softmax函数对输出值进行概率化,得到图像的类别概率值,具体包括:
将待分类图像在通过分类器的计算,经过两层全连接层之后,得到一个L维的向量Y,将Y通过softmax函数进行计算,得到图像的类别概率值,如公式(4)所示:
其中,L表示类别总数,根据公式4对Y进行计算共可得到L个概率值,表示该分类图像分属于在L类中的概率。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本发明提供的一种基于ODE求解器自适应的场景分类方法,首先基于后向欧拉逼近的方法构造神经网络,然后对构造的神经网络进行训练获得分类器;接着将待分类图像输入分类器,通过分类器的卷积层调整维数、特征提取模块提取待分类图像的特征、池化层进行池化操作、全连接层将分布式特征映射到样本空间,最后通过softmax层求解输入的待分类图像属于不同类别的概率;最后,选择待分类图像在不同场景类别下概率最高的类别作为分类器的输出结果,从而得到待分类图像所属的场景类别。
由于本发明提供的ODE求解器自适应的场景分类方法,该方法将神经网络与ODE(ODE,Ordinary Differential Equation)常微分方程问题相结合,构造神经网络,且设计了特征提取模块,使得神经网络具有可解释性,可自动提取特征,并对神经网络进行训练得到分类器,从而可以通过训练得到的分类器对图像场景进行分类,并能以更高的精度实现场景分类任务,即提高了场景类别分类的精度,改善了分类效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种基于ODE求解器自适应的场景分类方法的流程示意图;
图2为本发明构建的神经网络的结构示意图。
具体实施方式
本发明的目的在于针对现有技术中的方法存在的分类效果不佳的技术问题,提供的一种基于ODE求解器自适应的场景分类方法,该方法将神经网络与ODE结合在一起,具有可解释性,可自动提取特征,能以更高的精度实现场景分类任务。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明申请人通过大量的实践与研究发现,在场景分类系统中,仅采用人工特征不能满足对复杂场景分类的要求,而现有技术中的神经网络缺乏解释性,需要经过部分调参技术才能进行改善。从而本发明提出了一种基于ODE求解器自适应的方法,使用后向欧拉逼近的方法构造分类器,从而达到提高分类精度的目的。
本实施例提供了一种基于ODE求解器自适应的场景分类方法,请参见图1,该方法包括:
步骤S1:基于后向欧拉逼近的方法构造神经网络,其中,构造的神经网络包括卷积层、特征提取模块、池化层、全连接层和softmax层。
具体来说,ODE为Ordinary Differential Equation的缩写,表示常微分方程问题。
在一种实施方式中,步骤S1具体包括:
步骤S1.1:对常微分方程(1)进行离散化,得到公式(2)和(3)
yk+1=hf(yk+1)+yk (3)
其中,h表示步长,k表示迭代次数,f(yk+1)为隐函数;
步骤S1.2:隐函数f(yk+1)通过神经网络学习得到参数,构造神经网络,其中,yk为特征提取模块中第k次迭代的输入,yk+1为第k次迭代的输出。
具体来说,f(yk+1)可通过神经网络学习,不断对yk+1进行迭代逼近,从而构建神经网络。具体实现时,可以取步长h=1,根据公式3构造神经网络,包括特征提取模块,即图2中的F,其表示多层线性层与非线性层的叠加,本发明中可将其看作是隐函数f(yk+1),这个隐函数通过神经网络学习得到参数,yk是模块F中第k次迭代的输入,yk+1是第k次迭代的输出。图2中共循环20次,表明迭代次数为20,即k=20。
前向、后向逼近方式是对ODE问题离散化的方式,本发明根据后向欧拉逼近的理论构造神经网络进行求解,使用多层线性与非线性层搭建网络将f(yk+1)学出来,使神经网络的搭建具有一定理论指导。
步骤S2:对构造的神经网络进行训练获得分类器。
其中,步骤S2具体包括:
步骤S2.1:获取训练数据集;
步骤S2.2:对训练数据集进行增强;
步骤S2.3:利用增强后的训练数据集对神经网络进行训练,获得训练后的神经网络,将其作为分类器。
具体来说,训练数据集的数量可以根据实际情况来选取,在一种实施方式中,数据集包括训练数据5000张,共包含十类,数据增强方式包括角度旋转、尺寸缩放、颜色变换以及水平翻转等,通过数据增强方式将训练集扩充为50000张,训练100轮(每一轮表示将所有图片均计算过一次)。
步骤S3:将待分类图像输入分类器,通过分类器的卷积层调整维数、特征提取模块提取待分类图像的特征、池化层进行池化操作、全连接层将分布式特征映射到样本空间,最后通过softmax层求解输入的待分类图像属于不同类别的概率。
具体来说,构建的神经网络的结构如图2所示,下面对附图2中的标识进行说明:
Image:图片,各类场景图像。
Conv:卷积层,调整特征数据维度。
F:特征提取模块,自动提取图像特征。右边小方框表示F模块的具体结构,BN表示批量归一化(Batch Normalization),通过归一化使输入数据具有相同的均值与方差,防止梯度弥散。ReLU是线性整流函数(Rectified Linear Unit),为网络模块增加非线性成分,提高模型表达能力,避免梯度爆炸与梯度消失问题。
Pool:池化层,将F模块提取到的局部特征整合成全局特征。
FC:全连接层,将分布式特征映射到样本空间。
Softmax:求解输入图像属于不同类别的概率。
类别C:选取最大概率值所属类别C作为分类结果。
将输入F模块的特征经过一系列卷积、归一化以及池化操作后再与原始输入F中的特征融合再进行循环迭代一定次数后输出F模块。特征融合的过程是:在图2的F模块,设原始输入F中的特征为x0,经过F(x0)得到x1,再通过F(x1+x0)得到x2,F(x2+x0)得到x3,由此类推,共循环了20次。
在每一个网络模块提取到特征之后进行池化操作,去除特征冗余信息并简化网络复杂度,保留特征的粗粒度信息便于分类。使用softmax函数将网络输出映射到(0,1)区间内,可将经过softmax函数处理后的值当作概率值理解,使用该概率值与目标值的交叉熵作为损失函数训练网络模型。
其中,损失函数的形式如下:
其中,共有L类,ql表示图像属于第l类的真实概率即目标值(仅在所属类概率为1,其余类概率为0),pl表示图像属于第l类的预测概率,将两者的交叉熵作为损失函数。
在一种实施方式中,构造的神经网络包括三个卷积层、三个特征提取模块、两个池化层、两个全连接层和一个softmax层,步骤S3具体包括:
步骤S3.1:待分类图像首先通过第一卷积层的卷积操作后,经过第一特征提取模块提取特征后,通过第一池化层进行池化操作,并经过第二卷积层卷积后进入第二特征提取模块,然后通过第二池化层和第三卷积层;
步骤S3.2:通过第三卷积层得到的特征图进入第三特征提取模块后输入到全连接层中,经过两层全连接层之后采用softmax函数对输出值进行概率化,得到图像的类别概率值。
具体来说,待分类图像首先经过3*3卷积(第一卷积层),得到的特征图经过第一个F模块,将经过F模块计算的输出特征进行池化操作,并经过1*1的卷积后(第二卷积层)进入下一个F模块,再进行上述操作(池化、卷积)。在第3个F模块输出特征图后将其输入到全连接层中,在经过两层全连接层之后使用softmax函数对输出值进行概率化,得到图像的类别概率值。
具体地,经过两层全连接层之后采用softmax函数对输出值进行概率化,得到图像的类别概率值,具体包括:
将待分类图像在通过分类器的计算,经过两层全连接层之后,得到一个L维的向量Y,将Y通过softmax函数进行计算,得到图像的类别概率值,如公式(4)所示:
其中,L表示类别总数,即根据公式4对Y进行计算共可得到L个概率值,表示该分类图像分属于在L类中的概率。
具体来说,Yj表示Y向量中第j维的值,对求和表示对整个向量求和使其成为一个标量,由此得到第j维的概率值,即输入图像x属于第j类的概率,通过公式4的计算可得到L个概率值,表示图像x分别属于各个类的概率,再取概率最大值所对应的类别作为模型的最终分类结果。
在提取特征后会生成feature map(提取特征后生成的特征图,是多通道的),将特征图经过两层全连接层(图2中的FC1,FC2后得到一个L维向量(L=类别数。例如实验中共十类场景,L=10,L维向量经过Softmax函数变换后仍然是一个L维向量,但向量中数值均在0-1之间,且相加之和为1(可将softmax函数看成是将数值映射到一定区间的变换函数)。因此,L维向量中的每个数值表示该类的概率值,L的下标值即为类别(如L[0]表示输入图像x属于第0类场景的概率),目标值即为图像label(标签),在训练前,通常需要对场景类别进行一个one-hot编码操作,得到一个L维的目标值,例如实验中的十类场景,将停机坪场景图像定为第0类,则停机坪场景图像的目标值是一个下标0的位置上数值为1,其余位置数值为0的10维向量(下标为0-9),从而计算神经网络所得到预测值与目标值的交叉熵来训练网络。
步骤S4:选择待分类图像在不同场景类别下概率最高的类别作为分类器的输出结果,输出结果为待分类图像所属的场景类别。
为了更清楚地说明本发明的有益效果,下面通过一个具体示例来进行介绍。
在实验过程中共选用了十类场景图像,分别是停机坪、游乐场、滑雪场、游泳池、跑马场、实验室、图书馆、加油站、商店、街道,其中训练图像5000张,为扩充样本量提高模型表达能力,使用了数据增强方式将训练图像扩大到50000张。测试图像共1000张,各类场景测试图像数量以及每一类的分类准确率如表1所示。
表1各类场景数量
场景类型 停机坪 游乐场 滑雪场 游泳场 跑马场
数量 93 90 107 110 86
准确率 91.40% 88.89% 93.46% 95.45% 93.02%
场景类型 实验室 图书馆 加油站 商店 街道
数量 97 105 110 90 112
准确率 92.78% 90.48% 93.64% 87.78% 91.96%
本发明提供的一种ODE求解器自适应的方法,创新性地在场景分类方面使用,在相同条件下相比目前学习类方法可以得到更高的准确率。
总体来说,本发明提供的ODE求解器自适应的场景分类方法,将神经网络与ODE(ODE,Ordinary Differential Equation)常微分方程问题相结合,构造神经网络,且设计了特征提取模块,使得神经网络具有可解释性,可自动提取特征,并对神经网络进行训练得到分类器,从而可以通过训练得到的分类器对图像场景进行分类,并能以更高的精度实现场景分类任务,即提高了场景类别分类的精度,改善了分类效果。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (5)

1.一种基于ODE求解器自适应的场景分类方法,其特征在于,包括:
步骤S1:基于后向欧拉逼近的方法构造神经网络,其中,构造的神经网络包括卷积层、特征提取模块、池化层、全连接层和softmax层;
步骤S2:对构造的神经网络进行训练获得分类器;
步骤S3:将待分类图像输入分类器,通过分类器的卷积层调整维数、特征提取模块提取待分类图像的特征、池化层进行池化操作、全连接层将分布式特征映射到样本空间,最后通过softmax层求解输入的待分类图像属于不同类别的概率;
步骤S4:选择待分类图像在不同场景类别下概率最高的类别作为分类器的输出结果,输出结果为该待分类图像所属的场景类别。
2.如权利要求1所述的方法,其特征在于,步骤S1具体包括:
步骤S1.1:对常微分方程(1)进行离散化,得到公式(2)和(3)
yk+1=hf(yk+1)+yk (3)
其中,h表示步长,k表示迭代次数,f(yk+1)为隐函数;
步骤S1.2:隐函数f(yk+1)通过神经网络学习得到参数,构造神经网络,其中,yk为特征提取模块中第k次迭代的输入,yk+1为第k次迭代的输出。
3.如权利要求1所述的方法,其特征在于,步骤S2具体包括:
步骤S2.1:获取训练数据集;
步骤S2.2:对训练数据集进行增强;
步骤S2.3:利用增强后的训练数据集对神经网络进行训练,获得训练后的神经网络,将其作为分类器。
4.如权利要求1所述的方法,其特征在于,构造的神经网络包括三个卷积层、三个特征提取模块、两个池化层、两个全连接层和一个softmax层,步骤S3具体包括:
步骤S3.1:待分类图像首先通过第一卷积层的卷积操作后,经过第一特征提取模块提取特征后,通过第一池化层进行池化操作,并经过第二卷积层卷积后进入第二特征提取模块,然后通过第二池化层和第三卷积层;
步骤S3.2:通过第三卷积层得到的特征图进入第三特征提取模块后输入到全连接层中,经过两层全连接层之后采用softmax函数对输出值进行概率化,得到图像的类别概率值。
5.如权利要求4所述的方法,其特征在于,经过两层全连接层之后采用softmax函数对输出值进行概率化,得到图像的类别概率值,具体包括:
将待分类图像在通过分类器的计算,经过两层全连接层之后,得到一个L维的向量Y,将Y通过softmax函数进行计算,得到图像的类别概率值,如公式(4)所示:
其中,L表示类别总数,根据公式4对Y进行计算共可得到L个概率值,表示该分类图像分属于在L类中的概率。
CN201910745244.5A 2019-08-13 2019-08-13 一种基于ode求解器自适应的场景分类方法 Pending CN110598746A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910745244.5A CN110598746A (zh) 2019-08-13 2019-08-13 一种基于ode求解器自适应的场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910745244.5A CN110598746A (zh) 2019-08-13 2019-08-13 一种基于ode求解器自适应的场景分类方法

Publications (1)

Publication Number Publication Date
CN110598746A true CN110598746A (zh) 2019-12-20

Family

ID=68853926

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910745244.5A Pending CN110598746A (zh) 2019-08-13 2019-08-13 一种基于ode求解器自适应的场景分类方法

Country Status (1)

Country Link
CN (1) CN110598746A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347164A (zh) * 2019-08-08 2019-10-18 北京云迹科技有限公司 一种速度调节方法、装置及存储介质
CN111401155A (zh) * 2020-02-28 2020-07-10 北京大学 基于隐式欧拉跳跃连接的残差神经网络的图像识别方法
CN111667421A (zh) * 2020-05-25 2020-09-15 武汉大学 一种图像去雾方法
CN113312459A (zh) * 2021-04-30 2021-08-27 天津大学 一种基于神经ode网络的问答匹配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022285A (zh) * 2016-05-30 2016-10-12 北京智芯原动科技有限公司 一种基于卷积神经网络的车款识别方法及装置
CN106845549A (zh) * 2017-01-22 2017-06-13 珠海习悦信息技术有限公司 一种基于多任务学习的场景与目标识别的方法及装置
CN107292333A (zh) * 2017-06-05 2017-10-24 浙江工业大学 一种基于深度学习的快速图像分类方法
CN107808132A (zh) * 2017-10-23 2018-03-16 重庆邮电大学 一种融合主题模型的场景图像分类方法
CN108830242A (zh) * 2018-06-22 2018-11-16 北京航空航天大学 基于卷积神经网络的sar图像海洋目标分类检测方法
US20190114531A1 (en) * 2017-10-13 2019-04-18 Cambia Health Solutions, Inc. Differential equations network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022285A (zh) * 2016-05-30 2016-10-12 北京智芯原动科技有限公司 一种基于卷积神经网络的车款识别方法及装置
CN106845549A (zh) * 2017-01-22 2017-06-13 珠海习悦信息技术有限公司 一种基于多任务学习的场景与目标识别的方法及装置
CN107292333A (zh) * 2017-06-05 2017-10-24 浙江工业大学 一种基于深度学习的快速图像分类方法
US20190114531A1 (en) * 2017-10-13 2019-04-18 Cambia Health Solutions, Inc. Differential equations network
CN107808132A (zh) * 2017-10-23 2018-03-16 重庆邮电大学 一种融合主题模型的场景图像分类方法
CN108830242A (zh) * 2018-06-22 2018-11-16 北京航空航天大学 基于卷积神经网络的sar图像海洋目标分类检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡昌华等: "基于深度卷积神经网络的SAR图像船舰小目标检测", 《中国惯性技术学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347164A (zh) * 2019-08-08 2019-10-18 北京云迹科技有限公司 一种速度调节方法、装置及存储介质
CN111401155A (zh) * 2020-02-28 2020-07-10 北京大学 基于隐式欧拉跳跃连接的残差神经网络的图像识别方法
CN111401155B (zh) * 2020-02-28 2022-05-20 北京大学 基于隐式欧拉跳跃连接的残差神经网络的图像识别方法
CN111667421A (zh) * 2020-05-25 2020-09-15 武汉大学 一种图像去雾方法
CN111667421B (zh) * 2020-05-25 2022-07-19 武汉大学 一种图像去雾方法
CN113312459A (zh) * 2021-04-30 2021-08-27 天津大学 一种基于神经ode网络的问答匹配方法

Similar Documents

Publication Publication Date Title
CN111462126B (zh) 一种基于边缘增强的语义图像分割方法及系统
CN109993220B (zh) 基于双路注意力融合神经网络的多源遥感图像分类方法
Xu et al. Multi-scale continuous crfs as sequential deep networks for monocular depth estimation
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN111310773B (zh) 一种高效的卷积神经网络的车牌定位方法
CN111401361B (zh) 一种端到端的轻量级深度车牌识别方法
CN110598746A (zh) 一种基于ode求解器自适应的场景分类方法
CN112906720B (zh) 基于图注意力网络的多标签图像识别方法
CN111612008B (zh) 基于卷积网络的图像分割方法
CN108280397B (zh) 基于深度卷积神经网络的人体图像头发检测方法
CN111291809B (zh) 一种处理装置、方法及存储介质
CN110569738B (zh) 基于密集连接网络的自然场景文本检测方法、设备和介质
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN110222718B (zh) 图像处理的方法及装置
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN113269224B (zh) 一种场景图像分类方法、系统及存储介质
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN111401156A (zh) 基于Gabor卷积神经网络的图像识别方法
CN112364747A (zh) 一种有限样本下的目标检测方法
CN114219824A (zh) 基于深度网络的可见光-红外目标跟踪方法及系统
CN111179272B (zh) 一种面向道路场景的快速语义分割方法
CN112668662B (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
CN111291651B (zh) 用于遥感场景分类的多任务神经网络框架及分类方法
CN113822134A (zh) 一种基于视频的实例跟踪方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191220

RJ01 Rejection of invention patent application after publication