CN108734290B - 一种基于注意力机制的卷积神经网络构建方法及应用 - Google Patents

一种基于注意力机制的卷积神经网络构建方法及应用 Download PDF

Info

Publication number
CN108734290B
CN108734290B CN201810468476.6A CN201810468476A CN108734290B CN 108734290 B CN108734290 B CN 108734290B CN 201810468476 A CN201810468476 A CN 201810468476A CN 108734290 B CN108734290 B CN 108734290B
Authority
CN
China
Prior art keywords
attention mechanism
layer
neural network
pooling
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810468476.6A
Other languages
English (en)
Other versions
CN108734290A (zh
Inventor
王改华
袁国亮
吕朦
刘文洲
李涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN201810468476.6A priority Critical patent/CN108734290B/zh
Publication of CN108734290A publication Critical patent/CN108734290A/zh
Application granted granted Critical
Publication of CN108734290B publication Critical patent/CN108734290B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于注意力机制的卷积神经网络构建方法及应用,包括用于对图像进行预处理的基本卷积操作层,用于提取图像浅层显著特征的注意力机制层1,用于提取图像深层显著特征的注意力机制层2,用于提取图像最深层显著特征的注意力机制层3,用于将注意力机制层3中的2维输出数据捋平为1维的两个全连接层,以及SoftMax分类器。本发明将注意力机制融合进卷积神经网络中,有效的促进了卷积神经网络提取有效的信息从而提高网络性能,提升网络收敛效率和精度。

Description

一种基于注意力机制的卷积神经网络构建方法及应用
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于注意力机制的卷积神经网络构建方法及该卷积神经网络在图像分类方面的应用。
背景技术
视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。
现代计算机视觉的典型的框架之一卷积神经网络近年来被广泛应用于图像处理领域。其主要应用之一则是模式识别和图像分类,现阶段,如何提高卷积神经网络的效率和识别率是两个亟需解决的问题。从卷积神经网络的提出开始,很多科研工作者对其进行了研究并提出改进措施。卷积神经网络的基本结构由输入层、卷积层、池化层、全连接层及输出层。其中最核心的是与卷积层相关的卷积操作和与池化层相关的池化操作。本专利从卷积神经网络的特点出发,提出了一种改进的神经网络模型,实验结果表示,该方法较传统的卷积网络而言,具有收敛速度更快,精确度更高的优点。
发明内容
针对现有卷积神经网络在图像识别效率和识别率低的问题,本发明提出了一种基于注意力机制的卷积神经网络构建方法及其在图像识别上的应用。
本发明所采用的技术方案包括以下步骤:
步骤1,建立用于对图像进行预处理的基本卷积操作层,包括2个卷积层和2个池化层,其中卷积层和池化层相间隔;
步骤2,构造用于提取图像浅层显著特征的注意力机制层1,包括两个相互连接的包含注意力机制的神经网络模块和池化层;
步骤3,构造用于提取图像深层显著特征的注意力机制层2,包括五个相互连接的包含注意力机制的神经网络模块和池化层;
步骤4,构造用于提取图像最深层显著特征的注意力机制层3,包括两个相互连接的包含注意力机制的神经网络模块和池化层;
步骤5,建立用于将注意力机制层3中的2维输出数据捋平为1维的两个全连接层;
步骤6,选取SoftMax分类器。
进一步的,所述包含注意力机制的神经网络模块的构建方式如下,
1)输入x与n1个1X1的卷积核进行卷积得到n1个特征图(map1-n1);
2)输入x与n2个1X1的卷积核进行卷积得到n2个特征图(map1-n2),然后map1-n2与n3个3X3的卷积核进行卷积得到n3个特征图map1-n3;
3)输入x与n4个1X1的卷积核进行卷积得到n4个特征图(map1-n4),然后map1-n4与n5个3X3的卷积核进行卷积得到n5个特征图map1-n5
4)输入x以3X3的重叠池化区域进行维数不变的池化操作得到特征图(mappool),然后mappool与n6个1X1的卷积核进行卷积得到n6个特征图map1-n6
5)将1)-4)中得到的特征图(map1-n1,map1-n3,map1-n5,map1-n6)通过连接函数concatenation进行连接的,从而得到特征图(map256),连接函数concatenation的表达式为,
Figure BDA0001662703100000031
G代表各个通道的特征图,h和w分别表示特征图的高度和宽度,
Figure BDA0001662703100000032
指的是第m个输入特征图在第n个尺度上的求和叠加处理所得到的特征图;
6)特征图(map256)通过注意力机制得到新的特征图f(x),
Figure BDA0001662703100000033
Figure BDA0001662703100000034
f1(x)和f2(x)分别表示f(x)两种不同的表达形式,||xi||表示第i个特征图的范式距离,xi,c表示第i个通道的第c个特征点;
7)将特征图(map256)和通过注意力机制得到新的特征图f(x)进行融合,最终可以得到一个包含注意力机制的神经网络模块的输出M(x),
M(x)=(1+f(x))·x
上式f(x)代表注意力处理机制两种不同的表达形式。
进一步的,所述基本卷积操作层,第一个卷积层中卷积核的大小为5*5,卷积核的个数为64,卷积步长为1,第一个池化层中的池化区域大小为3*3,步长为2,第二个卷积层中卷积核的大小3*3,卷积核的个数为192,卷积步长为1,第二个池化层中池化区域大小为3*3,步长为1。
进一步的,所述注意力机制层1,两个包含注意力机制的神经网络模块中n1~n6的取值分别为64,96,128,16,32,32和128,128,192,32,96,64,池化层为最大池化,池化区域大小为3*3,步长为2。
进一步的,所述注意力机制层2,五个包含注意力机制的神经网络模块中n1~n6的取值分别为192,96,208,16,48,64;160,112,225,24,64,64;128,128,256,24,64,64;112,144,288,32,64,64和256,160,320,32,128,128;池化层为最大池化,池化区域大小为3*3,步长为2。
进一步的,所述注意力机制层3,两个包含注意力机制的神经网络模块中n1~n6的取值分别为256,160,320,32,128,128和384,192,384,48,128,128,池化层为最大池化,池化区域大小为4*4,步长为1。
本发明提供一种基于注意力机制的卷积神经网络在图像分类的应用,选取一定的训练样本对权利要求1至权利要求6任一所述的基于注意力机制的卷积神经网络进行训练,应用训练好的网络对图像进行分类。
与现有技术相比,本发明具有如下优点和有益效果:
(1)将注意力机制融合进卷积神经网络中,有效的促进了卷积神经网络提取有效的信息从而提高网络性能,提升网络收敛效率和精度;
(2)网络性能的提升可以更好的展开人工智能、人机互动等领域研究的展开。
附图说明
图1为本发明实施例中包含注意力机制的神经网络模块。
图2为本发明实施例中通过注意力机制的神经网络模块构建的卷积神经网络。
图3为本发明与一般卷积神经网络测试结果对比图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供的一种基于注意力机制的卷积神经网络构建方法及应用,包括以下步骤:
步骤1:基本的卷积操作:
建立带2个卷积层2个池化层的基本卷积操作,卷积层和池化层间隔排开,及该部分的网络结构为:卷积层(卷积核的大小为5*5,卷积核的个数为64,卷积步长为1),池化层(池化区域大小为3*3,步长为2),卷积层(卷积核的大小3*3,卷积核的个数为192,卷积步长为1),池化层(池化区域大小为3*3,步长为1);
步骤2:两个包含注意力机制的神经网络模块和池化
步骤2.1:增加包含两个注意力机制的神经网络模块,按照图1从左到右的依次顺序,在包含注意力机制的神经网络模块的卷积核的个数n1~n6分别为64,96,128,16,32,32和128,128,192,32,96,64;以第一个注意力机制的神经网络模块为例进行如下讲解:
1)输入x与64个1X1的卷积核进行卷积得到64个特征图(map1-64);
2)输入x与96个1X1的卷积核进行卷积得到96个特征图(map1-96),然后map1-96与128个3X3的卷积核进行卷积得到128个特征图map1-128;
3)输入x与16个1X1的卷积核进行卷积得到16个特征图(map1-16),然后map1-16与32个3X3的卷积核进行卷积得到32个特征图map1-32(1);
4)输入x以3X3的重叠池化区域进行维数不变的池化操作得到特征图(mappool),然后mappool与32个1X1的卷积核进行卷积得到32个特征图map1-32(2);
5)将得到的特征图(map1-64,map1-128,map1-32(1),map1-32(2))通过连接函数concatenation进行连接的,从而得到特征图(map256),连接函数concatenation的表达式为,
Figure BDA0001662703100000061
G代表各个通道的特征图,h和w分别表示特征图的高度和宽度,
Figure BDA0001662703100000062
指的是第m个输入特征图在第n个尺度上的求和叠加处理所得到的特征图,本实施例中m取4;
6)特征图(map256)通过注意力机制得到新的特征图f(x);
Figure BDA0001662703100000063
Figure BDA0001662703100000064
其中,f1(x)和f2(x)分别表示f(x)两种不同的表达形式,||xi||表示第i个特征图的范式距离,xi,c表示第i个通道(即第i个特征图)的第c个特征点;
7)将特征图(map256)和通过注意力机制得到新的特征图f(x)进行融合,最终可以得到一个包含注意力机制的神经网络模块的输出M(x),
M(x)=(1+f(x))·x
上式f(x)代表注意力处理机制两种不同的表达形式,x是指通过连接函数得到的特征图。
步骤2.2:增加最大池化操作,池化区域大小为3*3,步长为2。
步骤3:五个包含注意力机制的神经网络模块和池化;
步骤3.1:增加包含五个注意力机制的神经网络模块,按照图1从左到右的依次顺序,在包含注意力机制的神经网络模块的卷积核的个数n1~n6分别为192,96,208,16,48,64、160,112,225,24,64,64、128,128,256,24,64,64、112,144,288,32,64,64和256,160,320,32,128,128;
步骤3.2:增加最大池化操作,池化区域大小为3*3,步长为2。
步骤4:两个包含注意力机制的神经网络模块和池化
步骤4.1:增加包含两个注意力机制的神经网络模块,按照图1从左到右的依次顺序,,在包含注意力机制的神经网络模块的卷积核的个数n1~n6分别为256,160,320,32,128,128和384,192,384,48,128,128;
步骤4.2:增加最大池化操作,池化区域大小为4*4,步长为1。
步骤5:全连接层
将步骤4.2中的2维输出数据捋平为1维,这里我们使用了两个全连接层。
步骤6:SoftMax分类器
将全连接层的输出作为SoftMax分类器的特征输入。
完成前面的6个步骤,就完成了整个包含注意力机制的卷积神经网络的搭建,这是网络训练的必然要求。通过神经网络的前向传播获得目标函数的损失度,然后通过网络训练来达到参数的调整以使得目标函数的损失可以达到最小,并以此最终的分类测试效果。
本实施例首先通过一定数量的图片(使用的数据集是cifar-10)对网络进行训练,训练完毕之后再通过一定的测试样本进行测试,根据正确分类的图片比例来确定分类效果的好坏。实验结果如图3所示,横轴Iterations表示网络训练的次数,纵轴acc表示网络的测试精度,在网络训练的过程中,每训练100次就对测试数据集进行一次测试精度的采集,得到网络测试精度随训练次数的变化趋势。由图3可以看出,添加了注意力机制的卷积神经网络的测试最大精度为0.8623,对应的训练次数为8100,而一般的卷积神经网络的测试最大精度为0.8345对应的训练次数为10000,这说明在收敛速度和测试精度上,添加了注意力机制的卷积神经网络明显优于一般的卷积神经网络。
应当理解的是,本说明书未阐述的部分内容均属于现有的较为成熟的技术范畴。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于注意力机制的卷积神经网络构建方法,其特征在于,包括如下步骤:
步骤1,建立用于对图像进行预处理的基本卷积操作层,包括2个卷积层和2个池化层,其中卷积层和池化层相间隔;
步骤2,构造用于提取图像浅层显著特征的注意力机制层1,包括两个相互连接的包含注意力机制的神经网络模块和池化层;
所述包含注意力机制的神经网络模块的构建方式如下,
1)输入x与n1个1X1的卷积核进行卷积得到n1个特征图map1-n1
2)输入x与n2个1X1的卷积核进行卷积得到n2个特征图map1-n2,然后map1-n2与n3个3X3的卷积核进行卷积得到n3个特征图map1-n3
3)输入x与n4个1X1的卷积核进行卷积得到n4个特征图map1-n4,然后map1-n4与n5个3X3的卷积核进行卷积得到n5个特征图map1-n5
4)输入x以3X3的重叠池化区域进行维数不变的池化操作得到特征图mappool,然后mappool与n6个1X1的卷积核进行卷积得到n6个特征图map1-n6
5)将1)-4)中得到的特征图map1-n1,map1-n3,map1-n5,map1-n6通过连接函数concatenation进行连接的,从而得到特征图map256,连接函数concatenation的表达式为,
Figure FDA0003012643070000011
G代表各个通道的特征图,h和w分别表示特征图的高度和宽度,
Figure FDA0003012643070000012
指的是第m个输入特征图在第n个尺度上的求和叠加处理所得到的特征图;
6)特征图map256通过注意力机制得到新的特征图f(x),
Figure FDA0003012643070000021
Figure FDA0003012643070000022
f1(x)和f2(x)分别表示f(x)两种不同的表达形式,xi表示第i个特征图的范式距离,xi,c表示第i个通道的第c个特征点;
7)将特征图map256和通过注意力机制得到新的特征图f(x)进行融合,最终可以得到一个包含注意力机制的神经网络模块的输出M(x),
M(x)=(1+f(x))·x
上式f(x)代表注意力处理机制两种不同的表达形式;
步骤3,构造用于提取图像深层显著特征的注意力机制层2,包括五个相互连接的包含注意力机制的神经网络模块和池化层;
步骤4,构造用于提取图像最深层显著特征的注意力机制层3,包括两个相互连接的包含注意力机制的神经网络模块和池化层;
步骤5,建立用于将注意力机制层3中的2维输出数据捋平为1维的两个全连接层;
步骤6,选取SoftMax分类器。
2.如权利要求1所述的一种基于注意力机制的卷积神经网络构建方法,其特征在于:所述基本卷积操作层,第一个卷积层中卷积核的大小为5*5,卷积核的个数为64,卷积步长为1,第一个池化层中的池化区域大小为3*3,步长为2,第二个卷积层中卷积核的大小3*3,卷积核的个数为192,卷积步长为1,第二个池化层中池化区域大小为3*3,步长为1。
3.如权利要求1所述的一种基于注意力机制的卷积神经网络构建方法,其特征在于:所述注意力机制层1,两个包含注意力机制的神经网络模块中n1~n6的取值分别为64,96,128,16,32,32和128,128,192,32,96,64,池化层为最大池化,池化区域大小为3*3,步长为2。
4.如权利要求1所述的一种基于注意力机制的卷积神经网络构建方法,其特征在于:所述注意力机制层2,五个包含注意力机制的神经网络模块中n1~n6的取值分别为192,96,208,16,48,64;160,112,225,24,64,64;128,128,256,24,64,64;112,144,288,32,64,64和256,160,320,32,128,128;池化层为最大池化,池化区域大小为3*3,步长为2。
5.如权利要求1所述的一种基于注意力机制的卷积神经网络构建方法,其特征在于:所述注意力机制层3,两个包含注意力机制的神经网络模块中n1~n6的取值分别为256,160,320,32,128,128和384,192,384,48,128,128,池化层为最大池化,池化区域大小为4*4,步长为1。
6.一种基于注意力机制的卷积神经网络在图像分类的应用,其特征在于:选取一定的训练样本对权利要求1至权利要求5任一所述的基于注意力机制的卷积神经网络进行训练,应用训练好的网络对图像进行分类。
CN201810468476.6A 2018-05-16 2018-05-16 一种基于注意力机制的卷积神经网络构建方法及应用 Active CN108734290B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810468476.6A CN108734290B (zh) 2018-05-16 2018-05-16 一种基于注意力机制的卷积神经网络构建方法及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810468476.6A CN108734290B (zh) 2018-05-16 2018-05-16 一种基于注意力机制的卷积神经网络构建方法及应用

Publications (2)

Publication Number Publication Date
CN108734290A CN108734290A (zh) 2018-11-02
CN108734290B true CN108734290B (zh) 2021-05-18

Family

ID=63938293

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810468476.6A Active CN108734290B (zh) 2018-05-16 2018-05-16 一种基于注意力机制的卷积神经网络构建方法及应用

Country Status (1)

Country Link
CN (1) CN108734290B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020113355A1 (en) * 2018-12-03 2020-06-11 Intel Corporation A content adaptive attention model for neural network-based image and video encoders
CN109376804B (zh) * 2018-12-19 2020-10-30 中国地质大学(武汉) 基于注意力机制和卷积神经网络高光谱遥感图像分类方法
CN109754404B (zh) * 2019-01-02 2020-09-01 清华大学深圳研究生院 一种基于多注意力机制的端到端的肿瘤分割方法
CN109993269B (zh) * 2019-03-13 2022-03-29 华南理工大学 基于注意力机制的单张图像人群计数方法
CN110070489A (zh) * 2019-04-30 2019-07-30 中国人民解放军国防科技大学 一种基于视差注意力机制的双目图像超分辨方法
CN110211685B (zh) * 2019-06-10 2020-08-28 珠海上工医信科技有限公司 基于完全关注机制的糖网筛查网络结构模型
CN112101395A (zh) * 2019-06-18 2020-12-18 上海高德威智能交通系统有限公司 一种图像的识别方法及装置
CN110472730A (zh) * 2019-08-07 2019-11-19 交叉信息核心技术研究院(西安)有限公司 一种卷积神经网络的自蒸馏训练方法和可伸缩动态预测方法
US11651191B2 (en) 2019-09-03 2023-05-16 Here Global B.V. Methods, apparatuses, and computer program products using a repeated convolution-based attention module for improved neural network implementations
CN111160458B (zh) * 2019-12-29 2022-04-22 浪潮电子信息产业股份有限公司 一种图像处理系统及其卷积神经网络
CN111798921B (zh) * 2020-06-22 2022-08-05 武汉大学 一种基于多尺度注意力卷积神经网络的rna结合蛋白预测方法及装置
CN111721535B (zh) * 2020-06-23 2021-11-30 中国人民解放军战略支援部队航天工程大学 一种基于卷积多头自注意力机制的轴承故障检测方法
CN111865849B (zh) * 2020-06-30 2021-08-06 中国兵器科学研究院 一种信号调制的方法、装置和服务器
CN113627590A (zh) * 2021-07-29 2021-11-09 中汽创智科技有限公司 一种卷积神经网络的注意力模块、注意力机制及卷积神经网络

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825238A (zh) * 2016-03-30 2016-08-03 江苏大学 一种视觉显著性目标的检测方法
CN106547885A (zh) * 2016-10-27 2017-03-29 桂林电子科技大学 一种文本分类系统及方法
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN107194422A (zh) * 2017-06-19 2017-09-22 中国人民解放军国防科学技术大学 一种结合正反向实例的卷积神经网络关系分类方法
CN107203752A (zh) * 2017-05-25 2017-09-26 四川云图睿视科技有限公司 一种联合深度学习和特征二范数约束的人脸识别方法
CN107909059A (zh) * 2017-11-30 2018-04-13 中南大学 一种面向复杂城市场景中协同仿生视觉的交通标志牌检测与识别方法
CN108021916A (zh) * 2017-12-31 2018-05-11 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180053114A1 (en) * 2014-10-23 2018-02-22 Brighterion, Inc. Artificial intelligence for context classifier

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825238A (zh) * 2016-03-30 2016-08-03 江苏大学 一种视觉显著性目标的检测方法
CN106547885A (zh) * 2016-10-27 2017-03-29 桂林电子科技大学 一种文本分类系统及方法
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN107203752A (zh) * 2017-05-25 2017-09-26 四川云图睿视科技有限公司 一种联合深度学习和特征二范数约束的人脸识别方法
CN107194422A (zh) * 2017-06-19 2017-09-22 中国人民解放军国防科学技术大学 一种结合正反向实例的卷积神经网络关系分类方法
CN107909059A (zh) * 2017-11-30 2018-04-13 中南大学 一种面向复杂城市场景中协同仿生视觉的交通标志牌检测与识别方法
CN108021916A (zh) * 2017-12-31 2018-05-11 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A Survey on Deep Learning-based Fine-grained Object Classification and Semantic Segmentation;Bo Zhao et al;《International Journal of Automation and Computing》;20170430;119-135 *

Also Published As

Publication number Publication date
CN108734290A (zh) 2018-11-02

Similar Documents

Publication Publication Date Title
CN108734290B (zh) 一种基于注意力机制的卷积神经网络构建方法及应用
CN113077471B (zh) 一种基于u型网络的医学图像分割方法
CN111242288B (zh) 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法
CN113239784B (zh) 一种基于空间序列特征学习的行人重识别系统及方法
CN113240691A (zh) 一种基于u型网络的医学图像分割方法
CN111738363B (zh) 基于改进的3d cnn网络的阿尔茨海默病分类方法
WO2022001237A1 (zh) 鼻咽癌原发肿瘤图像自动识别方法及系统
Xiao et al. Enhancing multiscale representations with transformer for remote sensing image semantic segmentation
CN109635812B (zh) 图像的实例分割方法及装置
CN110135502A (zh) 一种基于强化学习策略的图像细粒度识别方法
CN111724401A (zh) 一种基于边界约束级联U-Net的图像分割方法和系统
CN112215847B (zh) 基于对抗学习多尺度特征的重叠染色体自动分割方法
CN115984172A (zh) 一种基于增强特征提取的小目标检测方法
CN110222767A (zh) 基于嵌套神经网络和栅格地图的三维点云分类方法
CN114511798B (zh) 基于transformer的驾驶员分心检测方法及装置
CN112750137A (zh) 基于深度学习的肝脏肿瘤分割方法及系统
CN109829885B (zh) 一种基于深度语义分割网络的自动识别鼻咽癌原发肿瘤方法
Yang et al. A lightweight rice disease identification network based on attention mechanism and dynamic convolution
CN117333908A (zh) 基于姿态特征对齐的跨模态行人重识别方法
CN116503593A (zh) 一种基于深度学习的视网膜oct图像积液分割方法
CN116884036A (zh) 基于YOLOv5DA的生猪姿态检测方法、装置、设备及介质
CN110992309A (zh) 基于深层信息传递网络的眼底图像分割方法
CN116385826A (zh) 一种基于深度学习的中华绒螯蟹品系识别方法
CN113192076B (zh) 联合分类预测和多尺度特征提取的mri脑肿瘤图像分割方法
CN117649610B (zh) 一种基于YOLOv5的害虫检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant