CN111611879A - 一种基于空间逐点注意力机制的场景解析方法 - Google Patents

一种基于空间逐点注意力机制的场景解析方法 Download PDF

Info

Publication number
CN111611879A
CN111611879A CN202010364616.2A CN202010364616A CN111611879A CN 111611879 A CN111611879 A CN 111611879A CN 202010364616 A CN202010364616 A CN 202010364616A CN 111611879 A CN111611879 A CN 111611879A
Authority
CN
China
Prior art keywords
point
spatial
attention mechanism
attention
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010364616.2A
Other languages
English (en)
Inventor
颜成钢
张二四
杨祥宇
孙垚棋
张继勇
张勇东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010364616.2A priority Critical patent/CN111611879A/zh
Publication of CN111611879A publication Critical patent/CN111611879A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于逐点空间注意力机制的场景解析方法。本发明方法以一种自适应的方式灵活的聚合长距离的上下文信息,设计了双向信息传播路径以全面理解复杂场景,每个位置从所有其他位置收集信息,以帮助预测自身,反之亦然,每个位置的信息可以分布在全局,以帮助其他位置进行预测。最后,将双向聚合的上下文信息与局部特征融合,形成复杂场景的最终表示。本发明方法可以全自动的实现对复杂场景的精准分割,相比于以往的全卷积分割网络,空间逐点注意力网络可以同时聚合局部空间信息以及长距离的上下文信息,从而大大提升场景解析的精度。

Description

一种基于空间逐点注意力机制的场景解析方法
技术领域
本发明涉及空间逐点注意力,双向信息流,场景解析,语义分割,具体来说涉及在进行图像的语义分割时,利用空间逐点注意力机制来自适应的聚合空间中不同位置的信息,从而实现更精准的语义分割的方法。
背景技术
语义分割,是计算机视觉中一个基本的、极具挑战性的问题。它是实现视觉场景理解的关键步骤,在自动驾驶和机器人导航等应用中起着至关重要的作用。随着卷积神经网络的出现,语义分割实现了突破性的进展。但是由于卷积神经网络的感受野仅仅局限于局部区域,这使得利用全卷积网络对场景进行解析时收到了很大了限制。为了解决这个问题,膨胀卷积被提了出来。膨胀卷积在不降低图像分辨率的基础上聚合图像中不同尺寸的上下文信息,并且扩大了感受野的范围。此外,全局池化操作也可以聚合空间信息。然而,这些方法以一种非自适应的方法利用了所有图像区域的信息相关性,却忽略了局部表示的差异性以及不同类别的信息相关性,对特征图上的每个位置都一视同仁。
发明内容
针对现有技术中存在的不足,本发明提出了一种基于逐点空间注意力机制的场景解析方法,它可以以一种自适应的方式灵活的聚合长距离的上下文信息。特征图中的每个位置通过自适应预测注意力图与所有其他位置相连接,从而获取附近和远处的各种信息。此外,还设计了双向信息传播路径以全面理解复杂场景。每个位置从所有其他位置收集信息,以帮助预测自身,反之亦然,每个位置的信息可以分布在全局,以帮助其他位置进行预测。最后,将双向聚合的上下文信息与局部特征融合,形成复杂场景的最终表示。
一种基于逐点空间注意力机制的场景解析方法,步骤如下:
步骤(1)、推导空间逐点注意力机制公式。
将输入的空间特征图分成两个分支,即收集分支与分散分支,对特征提取模型公式进行推导,获得空间逐点注意力机制公式。
步骤(2)、在得到的两条分支中,每个分支通过1×1的卷积滤波器来降低通道数,以减小计算量。对每个分支的空间特征图再进行1×1的卷积滤波,用于自适应特征,得到自适应后的特征图Hc和Hd。每次使用1×1的卷积之后都进行批标准化并添加激活函数,提升网络的传播能力和表达能力。
步骤(3)、在收集分支上通过聚合注意力机制得到空间逐点注意力图Ac,在分散分支上通过分散注意力机制得到空间逐点注意力图Ad
步骤(4)、将空间逐点注意力图Ac与收集分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到空间特征图Zc。同理,将空间逐点注意力图Ad与分散分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到空间特征图Zd。将Zc和Zd在通道维度上进行拼接并通过1×1的卷积滤波得到空间特征图并与原始输入空间特征图在通道维度上进行拼接,得到大小为原始输入空间特征图两倍的输出空间特征图。
步骤(5)、根据上述步骤构建空间逐点注意力机制模型,将空间逐点注意力机制模型应用到全卷积网络的任一阶段,完成图像分割精确度的提升。
本发明的有益效果:本发明所述的方法可以全自动的实现对复杂场景的精准分割。相比于以往的全卷积分割网络,空间逐点注意力网络可以同时聚合局部空间信息以及长距离的上下文信息,从而大大提升场景解析的精度。
附图说明
图1为本发明的空间逐点注意力机制结构图;
图2为聚合注意力机制和分散注意力机制示意图;
图3为结合空间逐点注意力机制的全卷积网络结构图。
具体实施方式
以下结合附图及实施例,对本发明进行进一步的详细说明。
本发明提出了一种空间逐点注意力机制,它可以聚合周围空间点的信息,并将该点的信息分散到周围空间点,形成双向信息流。通过将该注意力机制应用到全卷积网络的任一阶段,即可提升图像分割的精确度。
本发明所述方法包括以下步骤:
步骤(1)推导空间逐点注意力机制公式,具体操作如下:
特征提取模型如下:
Figure BDA0002476145980000031
其中,zi是位置i处新聚合的特征。xi是输出特征图X在位置i处的特征表示,xi是输出特征图X在位置j处的特征表示。
Figure BDA0002476145980000032
包含了与位置i相关联的所有感兴趣的区域,Δij为位置i和j的相对位置。F(xi,xh,Δij)可以是相应操作的任意函数或学习参数,表示从j到i的信息流,随着i与j的相对位置变化而变化。N表示归一化。将方程(1)简化成如下的形式:
Figure BDA0002476145980000033
其中
Figure BDA0002476145980000034
是一组关于特定位置的函数,模拟了从位置j到位置i的信息流。特征图中的所有位置为Ω(i)。函数
Figure BDA0002476145980000035
同时接受源信息和目标信息作为输入。当特征图中有很多位置时,组合的数量(xi,xj)是非常大的。因此对公式(2)简化并作了近似。
首先,化简函数
Figure BDA0002476145980000036
为:
Figure BDA0002476145980000037
在这个近似中,从j到i的信息流只与目标位置i的语义特征以及i和j的相对位置有关。
根据方程(3),将方程(2)改写为
Figure BDA0002476145980000041
同理,简化函数
Figure BDA0002476145980000042
为:
Figure BDA0002476145980000043
其中,从j到i的信息流只与源位置j的语义特征以及i和j的相对位置有关。
最后将
Figure BDA0002476145980000044
分解和简化为双向信息传播路径。将式(3)和式(5)结合得到:
Figure BDA0002476145980000045
形式上,将这种双向信息传播建模为
Figure BDA0002476145980000046
对于
Figure BDA0002476145980000047
编码了其他位置的特征在多大程度上有助于预测,每个位置都从其他位置“收集”信息。对于
Figure BDA0002476145980000048
预测了一个位置特征对其他位置特征的重要性,每个位置都向其他位置“分发”信息。这种双向信息流能够使网络学习到更加全面的特征。
空间注意力机制通过利用卷积层
Figure BDA0002476145980000049
Figure BDA00024761459800000410
自适应的预测整个特征图上的信息流。
Figure BDA00024761459800000411
Figure BDA00024761459800000412
均可以视为集合特征xj的预测注意力值。进一步将式(7)改写为:
Figure BDA00024761459800000413
将收集分支得到的空间逐点注意力图记为Ac,将分散分支得到的空间逐点注意力图记为Ad。其中,
Figure BDA0002476145980000051
Figure BDA0002476145980000052
分别表示在空间逐点注意力图Ac和Ad的分支上的预测注意力值。
步骤(2)、如图1所示,首先将大小为C1*H*W空间特征图X作为输入。在每个分支中,通过1×1的卷积滤波器减少输入特征图X的通道数,以减少计算量。然后继续采用1×1的卷积滤波器进行特征自适应,得到自适应后的特征图Hc和Hd。其中每次使用1×1的卷积之后都进行批标准化处理并添加激活函数。
步骤(3)、在收集分支上通过聚合注意力机制得到空间逐点注意力图Ac,在分散分支上通过分散注意力机制来得到空间逐点注意力图Ad,具体如下:
在收集分支中,根据当前位置的特征预测其与其他位置之间的联系。对于Hc中第k行第l列的位置i,它对应的通道长(2H-1)×(2W-1)。将这(2H-1)×(2W-1)个像素点重新排列成行为(2H-1),列为(2W-1)的二维特征图。将该特征图以i为中心,裁剪出大小为H×W的区域作为空间逐点注意力图Ac的第i个通道的特征图。因为Hc的特征图大小为H×W,所以最终生成的Ac的大小为H×W,通道数为H×W。
在分散分支中,将当前位置的信息分配给其他位置,
Figure BDA0002476145980000053
的生成类似于
Figure BDA0002476145980000054
对于Hc中第k行第l列的j,它对应的通道长(2H-1)×(2W-1)。将这(2H-1)×(2W-1)个像素点重新排列成行为(2H-1),列为(2W-1)的二维特征图。将该特征图以j为中心,裁剪出大小为H×W的区域作为空间逐点注意力图Ad的第j个通道的特征图。
Ac和Ad以互补的方式对不同位置对之间的上下文依赖关系进行编码,从而改进了信息传播并增强了对远程上下文相互关系的利用。
图2为聚合注意力机制和分散注意力机制示意图;
步骤(4)将空间逐点注意力图Ac与收集分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到大小为C2×H×W的空间特征图,记为Zc。同理,将空间逐点注意力图Ad与分散分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到大小为C2×H×W的空间特征图,记为Zd。将Zc和Zd在通道维度上进行拼接并通过1×1的卷积滤波得到大小为C1×H×W的空间特征图。
将上述得到的空间特征图与原始输入空间特征图在通道维度上进行拼接,得到大小为2C1×H×W的输出空间特征图。
步骤(5)根据上述步骤构建空间逐点注意力机制模型,将空间逐点注意力机制模型应用到全卷积网络的任一阶段,完成图像分割精确度的提升。
首先将输入特征图进行1×1的卷积滤波,得到降维后的特征图,作为收集分支和分散分支的输入。将降维后的特征图通过1×1的卷积滤波进行特征自适应,得到Hc和Hd。将Hc通过聚合注意力机制得到空间逐点注意力图Ac,将Hd通过分散注意力机制得到空间逐点注意力图Ad。将Ac和Ad分别与降维后的输入特征图进行元素乘积,并进行1×1的卷积滤波后,得到Zc和Zd。将Zc和Zd在通道维度进行拼接后,通过一个1×1的卷积滤波器使通道数与原始输入特征图的通道数一致。最后,将该特征图与原始输入特征图在通道维度进行拼接,得到空间逐点注意力机制模型的输出。输出的特征图大小与输入特征图的大小一致,通道数是输入特征图的两倍。
将空间逐点注意力机制模型应用到全卷积网络的任一阶段。首先将图片输入到ResNet-FCN框架中,在ResNet的第五阶段后加入空间逐点注意力机制模型。除了主损失函数之外,在ResNet的第四阶段后面加入了深监督,从而引入了一个辅助损失函数。主损失函数和辅助损失函数共同对网络的参数优化起作用。主损失函数和辅助损失函数均使用Dice损失函数。设X是最终的分割图,Y是ground truth,其计算公式为
Figure BDA0002476145980000071
图3为结合空间逐点注意力机制的全卷积网络结构图。

Claims (6)

1.一种基于逐点空间注意力机制的场景解析方法,其特征在于,步骤如下:
步骤(1)、推导空间逐点注意力机制公式;
将输入的空间特征图分成两个分支,即收集分支与分散分支,对特征提取模型公式进行推导,获得空间逐点注意力机制公式;
步骤(2)、在得到的两条分支中,每个分支通过1×1的卷积滤波器来降低通道数,以减小计算量;对每个分支的空间特征图再进行1×1的卷积滤波,用于自适应特征,得到自适应后的特征图Hc和Hd;每次使用1×1的卷积之后都进行批标准化并添加激活函数,提升网络的传播能力和表达能力;
步骤(3)、在收集分支上通过聚合注意力机制得到空间逐点注意力图Ac,在分散分支上通过分散注意力机制得到空间逐点注意力图Ad
步骤(4)、将空间逐点注意力图Ac与收集分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到空间特征图Zc;同理,将空间逐点注意力图Ad与分散分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到空间特征图Zd;将Zc和Zd在通道维度上进行拼接并通过1×1的卷积滤波得到空间特征图并与原始输入空间特征图在通道维度上进行拼接,得到大小为原始输入空间特征图两倍的输出空间特征图;
步骤(5)、根据上述步骤构建空间逐点注意力机制模型,将空间逐点注意力机制模型应用到全卷积网络的任一阶段,完成图像分割精确度的提升。
2.根据权利要求1所述的一种基于逐点空间注意力机制的场景解析方法,其特征在于,步骤(1)推导空间逐点注意力机制公式,具体操作如下:
特征提取模型如下:
Figure FDA0002476145970000011
其中,zi是位置i处新聚合的特征;xi是输出特征图X在位置i处的特征表示,xj是输出特征图X在位置j处的特征表示;
Figure FDA0002476145970000021
包含了与位置i相关联的所有感兴趣的区域,Δij为位置i和j的相对位置;F(xi,xj,Δij)可以是相应操作的任意函数或学习参数,表示从j到i的信息流,随着i与j的相对位置变化而变化;N表示归一化;将方程(1)简化成如下的形式:
Figure FDA0002476145970000022
其中
Figure FDA0002476145970000023
是一组关于特定位置的函数,模拟了从位置j到位置i的信息流;特征图中的所有位置为Ω(i);函数
Figure FDA0002476145970000024
同时接受源信息和目标信息作为输入;当特征图中有很多位置时,组合的数量(xi,xj)是非常大的,因此对公式(2)简化并作了近似;
首先,化简函数
Figure FDA0002476145970000025
为:
Figure FDA0002476145970000026
在这个近似中,从j到i的信息流只与目标位置i的语义特征以及i和j的相对位置有关;
根据方程(3),将方程(2)改写为
Figure FDA0002476145970000027
同理,简化函数
Figure FDA0002476145970000028
为:
Figure FDA0002476145970000029
其中,从j到i的信息流只与源位置j的语义特征以及i和j的相对位置有关;
最后将
Figure FDA00024761459700000210
解和简化为双向信息传播路径;将式(3)和式(5)结合得到:
Figure FDA00024761459700000211
形式上,将这种双向信息传播建模为
Figure FDA0002476145970000031
对于
Figure FDA0002476145970000032
Figure FDA0002476145970000033
编码了其他位置的特征在多大程度上有助于预测,每个位置都从其他位置“收集”信息;对于
Figure FDA0002476145970000034
Figure FDA0002476145970000035
预测了一个位置特征对其他位置特征的重要性,每个位置都向其他位置“分发”信息;这种双向信息流能够使网络学习到更加全面的特征;
空间注意力机制通过利用卷积层
Figure FDA0002476145970000036
Figure FDA0002476145970000037
自适应的预测整个特征图上的信息流;
Figure FDA0002476145970000038
Figure FDA0002476145970000039
均可以视为集合特征xj的预测注意力值;进一步将式(7)改写为:
Figure FDA00024761459700000310
将收集分支得到的空间逐点注意力图记为Ac,将分散分支得到的空间逐点注意力图记为Ad;其中,
Figure FDA00024761459700000311
Figure FDA00024761459700000312
分别表示在空间逐点注意力图Ac和Ad的分支上的预测注意力值。
3.根据权利要求2所述的一种基于逐点空间注意力机制的场景解析方法,其特征在于,步骤(2)首先将大小为C1*H*W空间特征图X作为输入;在每个分支中,通过1×1的卷积滤波器减少输入特征图X的通道数,以减少计算量;然后继续采用1×1的卷积滤波器进行特征自适应,得到自适应后的特征图Hc和Hd;其中每次使用1×1的卷积之后都进行批标准化处理并添加激活函数。
4.根据权利要求3所述的一种基于逐点空间注意力机制的场景解析方法,其特征在于,步骤(3)在收集分支上通过聚合注意力机制得到空间逐点注意力图Ac,在分散分支上通过分散注意力机制来得到空间逐点注意力图Ad,具体如下:
在收集分支中,根据当前位置的特征预测其与其他位置之间的联系;对于Hc中第k行第l列的位置i,它对应的通道长(2H-1)×(2W-1);将这(2H-1)×(2W-1)个像素点重新排列成行为(2H-1),列为(2W-1)的二维特征图;将该特征图以i为中心,裁剪出大小为H×W的区域作为空间逐点注意力图Ac的第i个通道的特征图;因为Hc的特征图大小为H×W,所以最终生成的Ac的大小为H×W,通道数为H×W;
在分散分支中,将当前位置的信息分配给其他位置,
Figure FDA0002476145970000041
的生成类似于
Figure FDA0002476145970000042
对于Hc中第k行第l列的j,它对应的通道长(2H-1)×(2W-1);将这(2H-1)×(2W-1)个像素点重新排列成行为(2H-1),列为(2W-1)的二维特征图;将该特征图以j为中心,裁剪出大小为H×W的区域作为空间逐点注意力图Ad的第j个通道的特征图;
Ac和Ad以互补的方式对不同位置对之间的上下文依赖关系进行编码,从而改进了信息传播并增强了对远程上下文相互关系的利用。
5.根据权利要求4所述的一种基于逐点空间注意力机制的场景解析方法,其特征在于,步骤(4)将空间逐点注意力图Ac与收集分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到大小为C2×H×W的空间特征图,记为Zc;同理,将空间逐点注意力图Ad与分散分支的输入在通道维度上进行元素乘积,经过卷积滤波后得到大小为C2×H×W的空间特征图,记为Zd;将Zc和Zd在通道维度上进行拼接并通过1×1的卷积滤波得到大小为C1×H×W的空间特征图;
将上述得到的空间特征图与原始输入空间特征图在通道维度上进行拼接,得到大小为2C1×H×W的输出空间特征图。
6.根据权利要求5所述的一种基于逐点空间注意力机制的场景解析方法,其特征在于,步骤(5)根据上述步骤构建空间逐点注意力机制模型,将空间逐点注意力机制模型应用到全卷积网络的任一阶段,完成图像分割精确度的提升;
首先将输入特征图进行1×1的卷积滤波,得到降维后的特征图,作为收集分支和分散分支的输入;将降维后的特征图通过1×1的卷积滤波进行特征自适应,得到Hc和Hd;将Hc通过聚合注意力机制得到空间逐点注意力图Ac,将Hd通过分散注意力机制得到空间逐点注意力图Ad;将Ac和Ad分别与降维后的输入特征图进行元素乘积,并进行1×1的卷积滤波后,得到Zc和Zd;将Zc和Zd在通道维度进行拼接后,通过一个1×1的卷积滤波器使通道数与原始输入特征图的通道数一致;最后,将该特征图与原始输入特征图在通道维度进行拼接,得到空间逐点注意力机制模型的输出;输出的特征图大小与输入特征图的大小一致,通道数是输入特征图的两倍;
将空间逐点注意力机制模型应用到全卷积网络的任一阶段;首先将图片输入到ResNet-FCN框架中,在ResNet的第五阶段后加入空间逐点注意力机制模型;除了主损失函数之外,在ResNet的第四阶段后面加入了深监督,从而引入了一个辅助损失函数;主损失函数和辅助损失函数共同对网络的参数优化起作用;主损失函数和辅助损失函数均使用Dice损失函数;设X是最终的分割图,Y是ground truth,其计算公式为
Figure FDA0002476145970000051
CN202010364616.2A 2020-04-30 2020-04-30 一种基于空间逐点注意力机制的场景解析方法 Pending CN111611879A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010364616.2A CN111611879A (zh) 2020-04-30 2020-04-30 一种基于空间逐点注意力机制的场景解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010364616.2A CN111611879A (zh) 2020-04-30 2020-04-30 一种基于空间逐点注意力机制的场景解析方法

Publications (1)

Publication Number Publication Date
CN111611879A true CN111611879A (zh) 2020-09-01

Family

ID=72199405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010364616.2A Pending CN111611879A (zh) 2020-04-30 2020-04-30 一种基于空间逐点注意力机制的场景解析方法

Country Status (1)

Country Link
CN (1) CN111611879A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149526A (zh) * 2020-09-07 2020-12-29 中国科学院声学研究所南海研究站 一种基于长距离信息融合的车道线检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160055237A1 (en) * 2014-08-20 2016-02-25 Mitsubishi Electric Research Laboratories, Inc. Method for Semantically Labeling an Image of a Scene using Recursive Context Propagation
CN110147763A (zh) * 2019-05-20 2019-08-20 哈尔滨工业大学 基于卷积神经网络的视频语义分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160055237A1 (en) * 2014-08-20 2016-02-25 Mitsubishi Electric Research Laboratories, Inc. Method for Semantically Labeling an Image of a Scene using Recursive Context Propagation
CN110147763A (zh) * 2019-05-20 2019-08-20 哈尔滨工业大学 基于卷积神经网络的视频语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HENGSHUANG ZHAO ET AL.: "PSANet: Point-wise Spatial Attention Network for Scene Parsing", 《COMPUTER VISION – ECCV 2018》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149526A (zh) * 2020-09-07 2020-12-29 中国科学院声学研究所南海研究站 一种基于长距离信息融合的车道线检测方法及系统
CN112149526B (zh) * 2020-09-07 2023-11-28 中国科学院声学研究所南海研究站 一种基于长距离信息融合的车道线检测方法及系统

Similar Documents

Publication Publication Date Title
CN111062951B (zh) 一种基于语义分割类内特征差异性的知识蒸馏方法
CN110880036B (zh) 神经网络压缩方法、装置、计算机设备及存储介质
CN112101190B (zh) 一种遥感图像分类方法、存储介质及计算设备
CN106156781B (zh) 排序卷积神经网络构建方法及其图像处理方法与装置
CN110782015A (zh) 神经网络的网络结构优化器的训练方法、装置及存储介质
US11518382B2 (en) Learning to simulate
DE112017005538T5 (de) Automatisierte Erzeugung von Arbeitsabläufen
CN112990116B (zh) 基于多注意力机制融合的行为识别装置、方法和存储介质
CN111353505B (zh) 基于可联合实现语义分割和景深估计的网络模型的装置
CN111353988B (zh) Knn动态自适应的双图卷积图像分割方法和系统
CN110281949B (zh) 一种自动驾驶统一分层决策方法
Asadi et al. Real-time scene segmentation using a light deep neural network architecture for autonomous robot navigation on construction sites
CN112464718A (zh) 一种基于YOLO-Terse网络的目标检测方法及存储介质
CN113889234A (zh) 基于通道混合的编解码网络的医学图像分割方法
CN111242176B (zh) 计算机视觉任务的处理方法、装置及电子系统
CN109685805A (zh) 一种图像分割方法及装置
CN111625457A (zh) 基于改进的dqn算法的虚拟自动驾驶测试优化方法
CN111611879A (zh) 一种基于空间逐点注意力机制的场景解析方法
CN114078230B (zh) 一种自适应特征融合冗余优化的小目标检测方法
CN111507499B (zh) 预测用模型的构建方法、测试方法、装置及系统
CN116257751A (zh) 基于在线协作与特征融合的蒸馏方法与装置
CN114972429B (zh) 云边协同自适应推理路径规划的目标追踪方法和系统
CN115953330A (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质
CN114598833B (zh) 基于时空联合注意力的视频插帧方法
CN114049492A (zh) 一种多路径实时语义分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200901

RJ01 Rejection of invention patent application after publication