CN111191626B - 一种多类别交通工具的精细识别方法 - Google Patents

一种多类别交通工具的精细识别方法 Download PDF

Info

Publication number
CN111191626B
CN111191626B CN202010007923.5A CN202010007923A CN111191626B CN 111191626 B CN111191626 B CN 111191626B CN 202010007923 A CN202010007923 A CN 202010007923A CN 111191626 B CN111191626 B CN 111191626B
Authority
CN
China
Prior art keywords
feature
dimensional
vector
map
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010007923.5A
Other languages
English (en)
Other versions
CN111191626A (zh
Inventor
曹先彬
罗晓燕
杜文博
李晓欢
杨燕丹
胡宇韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHECC Data Co Ltd
Original Assignee
Beihang University
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University, Guilin University of Electronic Technology filed Critical Beihang University
Priority to CN202010007923.5A priority Critical patent/CN111191626B/zh
Publication of CN111191626A publication Critical patent/CN111191626A/zh
Application granted granted Critical
Publication of CN111191626B publication Critical patent/CN111191626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种多类别交通工具的精细识别方法,属于航空监视领域。首先针对某张待分类的目标图像输入VGG19网络中,输出包含网络浅层信息的特征图X,并将其加入级联注意力机制,得到重要区域的高亮显示特征图
Figure DDA0002353668860000011
然后从纵向和切向两个角度嵌入核函数,提取高亮显示特征图
Figure DDA0002353668860000012
的高维非线性特征,得到两个不同方向的高维非线性特征图X′和Y′。用平均池化将X′和Y′分别进行特征降维,得到长度为C的两个特征向量,拼接后得到长度为2C的特征向量A。最后对特征向量A使用全连接进行融合,得到特征向量B;使用softmax机制对特征向量B中各类别的置信度分数进行归一化,取分数最大值,得到对应的分类的结果。本发明达到多类别交通工具的精细识别。

Description

一种多类别交通工具的精细识别方法
技术领域
本发明属于航空监视领域,具体是一种多类别交通工具的精细识别方法。
背景技术
在交通监视任务中,目标识别是常用手段,而现实生活中目标种类具有多样性和相似性,给分类任务带来巨大挑战。对这类目标的分类可以称为精细分类,其在视觉上的细微差异通常存在于局部区域,因而精细视觉分类是一项具有挑战性的工作。通过高度非线性表达来找出具有区分度的局部区域仍然是个未解决的问题。
精细分类问题近几年逐渐受到重视,其主要任务是区分相似度很高的物体类别,比如鸟的物种、汽车的品牌以及飞机的型号等。目前,经典的卷积神经网络在精细分类任务上已经有了很大的进展,但依旧存在很多上升空间。主要的问题还是在于此类数据库的类间差距较小,类内差距较大。一方面,不同种类物体的差距往往体现在局部区域,即便是肉眼也难以区分。另一方面,同类物体间可能差异很大。
为了解决这个问题,目前已经有许多方法被提出,也有了很多进展。如:通过将整个图的各个局部特征进行二阶统计,整合后进行分类,二阶和更高阶的统计方法被应用在许多视觉方法中,已经在许多精细分类任务上达到了较好的效果。但是,这些方法通常需要高维的特征表达,带来较重的计算负担。另一方面,现有的方法也主要是在纵向方向进行编码,没有深入获取图像中空间分布上的信息。
发明内容
针对上述问题,本发明提供了一种多类别交通工具的精细识别方法,结合了核函数的非线性以及神经网络的特征提取能力,改进了特征提取机制,从而提高了网络的非线性表达能力,提升了网络精细分类的准确率,可用于复杂类别的交通工具识别,为后续的安全检测、路线规划、交通管理、情报收集等应用带来了极大的便利。
所述的多类别交通工具的精细识别方法,具体步骤如下:
步骤一、针对某张待分类的目标图像输入VGG19网络中,输出包含网络浅层信息的特征图X;
VGG19网络包括16个卷积层和3个全连接层,其中卷积层都使用的是3x3的卷积和2x2的最大池化层。将VGG19网络中除去卷积模块的部分取缔,卷积模块的输出特征图大小为C×W×H。W代表特征图的宽,H代表特征图的高,C代表特征图的通道数。
步骤二、对具有浅层信息的特征图X加入级联注意力机制,得到重要区域的高亮显示特征图
Figure BDA0002353668840000011
具体为:
首先,对于特征图X,通过1×1的卷积得到三维的注意力权重图M1(X),然后将注意力权重图M1(X)中每个权重分别与原始特征图X中各自对应的像素进行一一相乘,即
Figure BDA0002353668840000021
并借助残差方法,对逐像素相加,得到第一结果:
Figure BDA0002353668840000022
同时,采用3×3的卷积对原始特征图X进行特征提取,然后对提取结果进行边界补全,得到和原始特征图X相同尺寸的三维的注意力权重图M2(X)。
然后,将注意力权重图M2(X)中每个权重分别与第一结果中各自对应的像素进行一一相乘,最后借助残差方法,与原始特征图X逐像素相加,得到与原始特征图X尺寸相同的重要区域的高亮显示特征图
Figure BDA0002353668840000023
步骤三、从纵向和切向两个角度嵌入核函数,提取高亮显示特征图
Figure BDA0002353668840000024
的高维非线性特征,得到两个不同方向的高维非线性特征图X′和Y′。
具体是指:
首先,将特征图
Figure BDA0002353668840000025
中的每一个纵向向量看作一维特征向量xi∈RC
同时,将每一个切向向量看作二维特征向量xj∈RW×H,然后把每个二维的切向向量xj∈RW×H变形到长度为W×H的一维特征向量yj
最后,将两个一维特征向量xi和yj分别接入一个含余弦函数激活的非线性层,得到两个不同方向的高维非线性特征图X′和Y′。
含余弦函数激活的非线性层包含一层卷积层和一层余弦激活函数;
两个一维特征向量xi和yj分别与卷积层的卷积核参数W相乘,然后与卷积层的偏置参数b相加,再经过余弦激活函数得到对应位置的高维非线性特征向量X′i,Yj′,
计算公式如下:
X′i=cos(Wxi+b)
Yj′=cos(Wyj+b)
将所有切向向量输出X′i,Y′j分别组合得到非线性特征图X′,Y′。
步骤四、使用平均池化将两个高维非线性特征图X′和Y′分别进行特征降维,得到长度为C的两个特征向量,拼接后得到长度为2C的一个特征向量A。
步骤五、对长度为2C的特征向量A使用全连接进行融合,得到一个长度为类别数的特征向量B;
特征向量B中每个分量是对应类别的置信度分数;
类别包括:各种交通工具的分类,同一类交通工具的不同品牌类别,或者同一品牌类的不同型号类别等;
步骤六、使用softmax机制对特征向量B中各类别的置信度分数进行归一化,取分数最大值,得到对应的分类的结果。
本发明的优点在于:
1)、本发明一种多类别交通工具的精细识别方法,通过级联注意力机制将图像中的关键区域进行加强,让识别器将注意力更多地放在有区分度的区域。
2)、本发明一种多类别交通工具的精细识别方法,将核函数近似分解并嵌入到神经网络中,让模型具有更高的非线性。
3)、本发明一种多类别交通工具的精细识别方法,能够有效地区分类别相近的交通工具,达到多类别交通工具的精细识别。
附图说明
图1为本发明一种多类别交通工具的精细识别方法流程图;
图2为本发明提高特征图重要区域时使用的级联注意力机制示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图对本发明作进一步的详细和深入描述。
交通工具的精细识别问题,对复杂交通场景下的安全检测、路线规划、交通管理和情报收集等应用都具有重大意义。本发明使用一种基于核函数嵌入和注意力机制的编码网络,实现端到端并且具有高度非线性的特征表示,得到最终精细识别结果,效果显著。
所述的多类别交通工具的精细识别方法,如图1所示,具体步骤如下:
步骤一、针对某张待分类的目标图像进行初步处理后输入VGG19网络中,使用卷积模块作为基础特征提取包含网络浅层信息的特征图X;
在分类任务中,神经网络最浅层网络是作为基础特征提取器进行简单的特征提取,对于图像的纹理、形状、颜色等信息进行抽象表达。
目前主流方法都是采用经典的网络前半部分作为基础特征提取器,如ResNet50、VGG19等。主要将经典网络的池化层之前的所有网络层加入到分类任务的最底层,之后再进行后续操作。
VGG19网络包括16个卷积层和3个全连接层,其中卷积层都使用的是3x3的卷积和2x2的最大池化层。将VGG19网络中的卷积模块保留,而将剩下的部分取缔,为了这部分浅层卷积模块更好地初始化,预先在ImageNet数据库上对VGG19网络进行了预训练。采用浅层卷积模块对输入图像进行处理,提取浅层特征,并初步降低其空间分辨率;VGG19网络输出的特征图大小为N×C×W×H。N代表批处理的样本个数,本实施例为1;W代表特征图的宽,H代表特征图的高,C代表特征图的通道数。
步骤二、对具有浅层信息的特征图X加入级联注意力机制,利用两种尺度的卷积层提取不同尺度的特征,扩大注意力的感受野,得到重要区域的高亮显示特征图
Figure BDA0002353668840000041
注意力机制是网络的一个可嵌入模块,通过对重要特征赋予高权重,对冗余特征赋予低权重,从而对有分辨力的特征进行强调。可以帮助网络强化最重要的区域,辅助后续特征的提取,同时保持特征图的尺寸不变。
如图2所示,本方法采用一个多尺寸的卷积结构,能够在编码前精细化提取特征图。对于给定的特征图X,通过1×1和3×3两种尺度的卷积层去提取不同尺度的特征,扩大注意力的感受野;生成了两个三维的注意力权重图,分别记为M1(X)和M2(X)。三维特征图的每个像素都有对应的权重。另外借助残差方法,将提取前和提取后的特征逐像素相加。
具体为:
首先,对于特征图X,通过小尺寸1×1的卷积得到三维的注意力权重图M1(X),然后将注意力权重图M1(X)中每个权重分别与原始特征图X中各自对应的像素进行一一相乘,即并借助残差方法,对逐像素相加,得到第一结果:
Figure BDA0002353668840000043
同时,扩大注意力的感受野,采用更大尺度的3×3的卷积对原始特征图X进行特征提取,然后对提取结果进行边界补全,得到和原始特征图X相同尺寸的三维的注意力权重图M2(X)。
然后,将注意力权重图M2(X)中每个权重分别与第一结果中各自对应的像素进行一一相乘,最后借助残差方法,与原始特征图X逐像素相加,得到与原始特征图X尺寸相同的重要区域的高亮显示特征图
Figure BDA0002353668840000044
通过两种尺度的卷积层去提取不同尺度的特征区域,具有更高的适应性,残差结构使得网络更好优化,并且给特征图复赋予了含义,即正数权重代表更多注意力,负数权重代表更少注意力。
步骤三、对高亮显示特征图
Figure BDA0002353668840000045
从纵向和切向两个角度嵌入核函数,提取高维非线性特征,得到两个不同方向的高维非线性特征图X′和Y′。
核方法在机器学习当中已经有了十分广泛的应用,尤其是在学习非线性数据任务上有较好的性能。然而核方法在卷积神经网络中却没有机会发挥它的优势,本发明利用核函数的非线性表达能力,提出了将核函数嵌入到神经网络中对特征图进行编码。
本方法使用一个有方向性的核函数编码模块,分别从特征图的纵向和切向进行编码。其中一个角度是从纵向嵌入核函数,将输入的特征图
Figure BDA0002353668840000046
的每一个纵向向量看作一个一维的特征向量,记为xi∈RC;另外一个角度是从切向嵌入核函数,将输入的特征图
Figure BDA0002353668840000051
的每一个切向向量看作一个二维特征向量,记为xj∈RW×H,然后把每个二维的切向向量xj∈RW×H变形到长度为W×H的一维特征向量yj;将这两个角度的一维特征向量xi和yj分别接入一个1×1的卷积层,再分别接入一个余弦激活函数,让网络具有很高的非线性,得到两个不同方向的高维非线性特征图X′和Y′。
含余弦函数激活的非线性层包含一层卷积层和一层余弦激活函数;
两个一维特征向量xi和yj分别与卷积层的卷积核参数W相乘,然后与卷积层的偏置参数b相加,再经过余弦激活函数得到对应位置的高维非线性特征向量X′i,Yj′,
计算公式如下:
X′i=cos(Wxi+b)
Yj′=cos(Wyj+b)
将所有切向向量输出X′i,Y′j分别组合得到非线性特征图X′,Y′。
步骤四、使用平均池化将两个高维非线性特征图X′和Y′分别进行特征降维,融合特征图中的信息,得到长度为C的两个特征向量,拼接后得到长度为2C的一个特征向量A。
池化层具有很强的对特征图特征进行总结和抽象的能力,对得到的两个不同方向的高维非线性特征图进一步使用平均池化,进行特征降维和融合到低维空间,能够过滤掉冗余的噪声特征,综合不同空间位置的特征表示,并且具有很强的平移不变性,在分类网络中是常用的手段。
步骤五、对长度为2C的特征向量A使用全连接层进行特征融合,并对每个类别进行打分,得到一个长度为类别数的特征向量B;
全连接层中神经元的连接十分密集,能够充分利用每个神经元的信息,整合得出更高级的语义信息。对于分类任务,全连接层的输出维度设置成类别数,则输出的特征向量可以直接得到分类结果。
特征向量B中每个分量是对应类别的置信度分数;
类别包括:各种交通工具的分类,同一类交通工具的不同品牌类别,或者同一品牌类的不同型号类别等;
步骤六、使用softmax机制对特征向量B中各类别的置信度分数进行归一化,取分数最大值,得到对应的分类的结果。
本发明将核函数和神经网络结合在一起,同时具有核函数的非线性以及神经网络的特征提取能力,通过进一步加入了双向编码机制以及级联注意力机制,很大程度上提高了特征编码能力,实现了较高的精细分类结果,能识别相同品牌飞机不同型号的细微差别,并准确区分。

Claims (3)

1.一种多类别交通工具的精细识别方法,其特征在于,具体步骤如下:
步骤一、针对某张待分类的目标图像输入VGG19网络中,输出包含网络浅层信息的特征图X;
步骤二、对具有浅层信息的特征图X加入级联注意力机制,得到重要区域的高亮显示特征图
Figure FDA0002674200110000011
具体为:
首先,对于特征图X,通过1×1的卷积得到三维的注意力权重图M1(X),然后将注意力权重图M1(X)中每个权重分别与原始特征图X中各自对应的像素进行一一相乘,即
Figure FDA0002674200110000012
并借助残差方法,对逐像素相加,得到第一结果:
Figure FDA0002674200110000013
同时,采用3×3的卷积对原始特征图X进行特征提取,然后对提取结果进行边界补全,得到和原始特征图X相同尺寸的三维的注意力权重图M2(X);
然后,将注意力权重图M2(X)中每个权重分别与第一结果中各自对应的像素进行一一相乘,最后借助残差方法,与原始特征图X逐像素相加,得到与原始特征图X尺寸相同的重要区域的高亮显示特征图
Figure FDA0002674200110000014
步骤三、从纵向和切向两个角度嵌入核函数,提取高亮显示特征图
Figure FDA0002674200110000015
的高维非线性特征,得到两个不同方向的高维非线性特征图X′和Y′;
具体为:
首先,将特征图
Figure FDA0002674200110000016
中的每一个纵向向量看作一维特征向量xi∈RC
同时,将每一个切向向量看作二维特征向量xj∈RW×H,然后把每个二维的切向向量xj∈RW×H变形到长度为W×H的一维特征向量yj
最后,将两个一维特征向量xi和yj分别接入一个含余弦函数激活的非线性层,得到两个不同方向的高维非线性特征图X′和Y′;含余弦函数激活的非线性层包含一层卷积层和一层余弦激活函数;
具体为:
两个一维特征向量xi和yj分别与卷积层的卷积核参数W相乘,然后与卷积层的偏置参数b相加,再经过余弦激活函数得到对应位置的高维非线性特征向量X′i,Y′j
计算公式如下:
X′i=cos(Wxi+b)
Y′j=cos(Wyj+b)
将所有切向向量输出X′i,Y′j分别组合得到两个高维非线性特征图X′和Y′;
步骤四、使用平均池化将两个高维非线性特征图X′和Y′分别进行特征降维,得到长度为C的两个特征向量,拼接后得到长度为2C的一个特征向量A;
步骤五、对长度为2C的特征向量A使用全连接进行融合,得到一个长度为类别数的特征向量B;
特征向量B中每个分量是对应类别的置信度分数;
步骤六、使用softmax机制对特征向量B中各类别的置信度分数进行归一化,取分数最大值,得到对应的分类的结果。
2.如权利要求1所述的一种多类别交通工具的精细识别方法,其特征在于,所述的步骤一中,VGG19网络包括16个卷积层和3个全连接层,其中卷积层都使用的是3x3的卷积和2x2的最大池化层;将VGG19网络中除去卷积模块的部分取缔,卷积模块的输出特征图大小为C×W×H;W代表特征图的宽,H代表特征图的高,C代表特征图的通道数。
3.如权利要求1所述的一种多类别交通工具的精细识别方法,其特征在于,步骤五中所述的类别包括:各种交通工具的分类,同一类交通工具的不同品牌类别,或者同一品牌类的不同型号类别。
CN202010007923.5A 2020-01-02 2020-01-02 一种多类别交通工具的精细识别方法 Active CN111191626B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010007923.5A CN111191626B (zh) 2020-01-02 2020-01-02 一种多类别交通工具的精细识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010007923.5A CN111191626B (zh) 2020-01-02 2020-01-02 一种多类别交通工具的精细识别方法

Publications (2)

Publication Number Publication Date
CN111191626A CN111191626A (zh) 2020-05-22
CN111191626B true CN111191626B (zh) 2021-01-01

Family

ID=70709854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010007923.5A Active CN111191626B (zh) 2020-01-02 2020-01-02 一种多类别交通工具的精细识别方法

Country Status (1)

Country Link
CN (1) CN111191626B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814589A (zh) * 2020-06-18 2020-10-23 浙江大华技术股份有限公司 部位识别方法以及相关设备、装置
CN111898709B (zh) * 2020-09-30 2021-01-15 中国人民解放军国防科技大学 一种图像分类方法及设备
CN112418278A (zh) * 2020-11-05 2021-02-26 中保车服科技服务股份有限公司 一种多类物体检测方法、终端设备及存储介质
CN112966636A (zh) * 2021-03-19 2021-06-15 捻果科技(深圳)有限公司 一种用于民航机场飞行区客梯车靠接航空器的自动识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033998A (zh) * 2018-07-04 2018-12-18 北京航空航天大学 基于注意力机制卷积神经网络的遥感影像地物标注方法
CN109871777A (zh) * 2019-01-23 2019-06-11 广州智慧城市发展研究院 一种基于注意力机制的行为识别系统
CN109902563A (zh) * 2019-01-17 2019-06-18 桂林远望智能通信科技有限公司 一种多角度车型识别方法及系统
KR20190113119A (ko) * 2018-03-27 2019-10-08 삼성전자주식회사 합성곱 신경망을 위한 주의집중 값 계산 방법
CN110334715A (zh) * 2019-07-04 2019-10-15 电子科技大学 一种基于残差注意网络的sar目标识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119703B (zh) * 2019-05-07 2022-10-04 福州大学 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
CN110147763B (zh) * 2019-05-20 2023-02-24 哈尔滨工业大学 基于卷积神经网络的视频语义分割方法
CN110532961B (zh) * 2019-08-30 2022-07-12 西安交通大学 一种基于多尺度注意机制网络模型的语义交通信号灯检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190113119A (ko) * 2018-03-27 2019-10-08 삼성전자주식회사 합성곱 신경망을 위한 주의집중 값 계산 방법
CN109033998A (zh) * 2018-07-04 2018-12-18 北京航空航天大学 基于注意力机制卷积神经网络的遥感影像地物标注方法
CN109902563A (zh) * 2019-01-17 2019-06-18 桂林远望智能通信科技有限公司 一种多角度车型识别方法及系统
CN109871777A (zh) * 2019-01-23 2019-06-11 广州智慧城市发展研究院 一种基于注意力机制的行为识别系统
CN110334715A (zh) * 2019-07-04 2019-10-15 电子科技大学 一种基于残差注意网络的sar目标识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Dual Attention Network for Scene Segmentation》;Jun Fu等;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20190620;第3141-3149页 *

Also Published As

Publication number Publication date
CN111191626A (zh) 2020-05-22

Similar Documents

Publication Publication Date Title
CN111191626B (zh) 一种多类别交通工具的精细识别方法
CN107066559B (zh) 一种基于深度学习的三维模型检索方法
Bouti et al. A robust system for road sign detection and classification using LeNet architecture based on convolutional neural network
Trnovszky et al. Animal recognition system based on convolutional neural network
CN110321967B (zh) 基于卷积神经网络的图像分类改进方法
CN111274869B (zh) 基于并行注意力机制残差网进行高光谱图像分类的方法
CN106570521B (zh) 多语言场景字符识别方法及识别系统
Holder et al. From on-road to off: Transfer learning within a deep convolutional neural network for segmentation and classification of off-road scenes
CN112861785B (zh) 一种基于实例分割和图像修复的带遮挡行人重识别方法
Wang et al. Fake modern Chinese painting identification based on spectral–spatial feature fusion on hyperspectral image
Ayachi et al. To perform road signs recognition for autonomous vehicles using cascaded deep learning pipeline
CN108256557B (zh) 结合深度学习和邻域集成的高光谱图像分类方法
Sanchez-Castro et al. A lean convolutional neural network for vehicle classification
Tereikovskyi et al. The method of semantic image segmentation using neural networks
CN112966685A (zh) 用于场景文本识别的攻击网络训练方法、装置及相关设备
Barodi et al. An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement
Wang et al. Occluded vehicle detection with local connected deep model
Liu et al. Image retrieval using CNN and low-level feature fusion for crime scene investigation image database
Giraddi et al. Flower classification using deep learning models
CN109543546B (zh) 基于深度序分布回归的步态年龄估计方法
Singh et al. Multi-resolution dual-tree wavelet scattering network for signal classification
CN112686242B (zh) 一种基于多层聚焦注意力网络的细粒度图像分类方法
Rodriguez-Serrano et al. Data-driven detection of prominent objects
CN112464982A (zh) 基于改进ssd算法的目标检测模型、方法及应用
Özyurt et al. A new method for classification of images using convolutional neural network based on Dwt-Svd perceptual hash function

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Cao Xianbin

Inventor after: Luo Xiaoyan

Inventor after: Du Wenbo

Inventor after: Li Xiaohuan

Inventor after: Yang Yandan

Inventor after: Hu Yutao

Inventor before: Cao Xianbin

Inventor before: Luo Xiaoyan

Inventor before: Du Wenbo

Inventor before: Yang Yandan

Inventor before: Hu Yutao

CB03 Change of inventor or designer information
TA01 Transfer of patent application right

Effective date of registration: 20201214

Address after: 100191 No. 37, Haidian District, Beijing, Xueyuan Road

Applicant after: BEIHANG University

Applicant after: GUILIN University OF ELECTRONIC TECHNOLOGY

Address before: 100191 No. 37, Haidian District, Beijing, Xueyuan Road

Applicant before: BEIHANG University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20211229

Address after: 908, block a, floor 8, No. 116, Zizhuyuan Road, Haidian District, Beijing 100089

Patentee after: ZHONGZI DATA CO.,LTD.

Address before: 100191 No. 37, Haidian District, Beijing, Xueyuan Road

Patentee before: BEIHANG University

Patentee before: Guilin University of Electronic Technology

TR01 Transfer of patent right