CN109657538A - 基于上下文信息指导的场景分割方法和系统 - Google Patents

基于上下文信息指导的场景分割方法和系统 Download PDF

Info

Publication number
CN109657538A
CN109657538A CN201811309249.5A CN201811309249A CN109657538A CN 109657538 A CN109657538 A CN 109657538A CN 201811309249 A CN201811309249 A CN 201811309249A CN 109657538 A CN109657538 A CN 109657538A
Authority
CN
China
Prior art keywords
layer
module
feature
output
instructs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811309249.5A
Other languages
English (en)
Other versions
CN109657538B (zh
Inventor
唐胜
伍天意
李锦涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN201811309249.5A priority Critical patent/CN109657538B/zh
Publication of CN109657538A publication Critical patent/CN109657538A/zh
Application granted granted Critical
Publication of CN109657538B publication Critical patent/CN109657538B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Abstract

本发明涉及一种基于上下文信息指导的场景分割方法,包括:以残差结构网络构建基于上下文信息的指导模块;以原始图像为输入,通过多个3×3卷积层输出初级特征图;以该初级特征图为输入,通过多个该指导模块输出中级特征图;以该中级特征图为输入,通过多个该指导模块输出高级特征图;以该高级特征图为输入,通过场景分割子网络,获得该原始图像的场景分割结果。本发明设计的分割网络的参数量小,并且在特征提取时,利用全局特征提取器进一步去修正局部特征和对应的周围上下文特征组合成的联合特征,这使得模型更有利于去学习分割的特征,极大的提高了现有移动端场景分割网络的性能。

Description

基于上下文信息指导的场景分割方法和系统
技术领域
本方法属于机器学习和计算机视觉领域,并特别涉及一种基于上下文信息指导的场景分割方法与系统。
背景技术
场景分割是计算机视觉领域非常重要并且极具挑战的任务,并且在生产和生活中具有广泛的应用价值,如无人驾驶、机器人导航、视频编辑等。场景分割的目标是对场景图像中的每个像素点分配其所属类别。最近,基于全卷积层的场景分割方法取得显著的进步。然而,现在的主流方法都是通过迁移分类网络过来,比如VGG、ResNet和ResNeXt通过去除最大池化层和全连接层,以及增加反卷积层和一些Decoder模块去生成分割结果。但这一类方法通常有着大量的参数和运算量,其速度非常缓慢,这个局限性也限制了这一类方法在移动端使用。目前也有少数工作再面向移动端场景分割,但他们都是采用分类原则来设计分割网络,这也是阻碍当前移动端分割网络精度的一个重要因素。分类与分割之间还是有很大区别,比如经典的分类网络会对原始输入下采样32倍,这样有助于提取到更适合用来分类的特征,但这种网络模型忽视了位置信息,相反的是,分割则需要很精准的位置信息,具体到像素级的位置信息。
发明内容
针对上述问题,本发明提出一种基于上下文信息指导的场景分割方法,包括:构建基于上下文信息的指导模块,该指导模块具有残差结构;以多个3×3卷积层为第一特征提取器,由原始图像获得初级特征图;以多个该指导模块为第二特征提取器,由该初级特征图获得中级特征图;以多个该指导模块为第三特征提取器,由该中级特征图获得高级特征图;以场景分割子网络,由该高级特征图获得该原始图像的场景分割结果。
进一步地,该指导模块的形式化表示为fglo(wglo,fjoi(wjoi,floc(wloc,x),fsur(wsur,x)));其中floc(·)为局部特征学习器,wloc为该局部特征学习器的参数,以3×3卷积层构建该局部特征学习器,通过反向传播算法对该局部特征学习器进行训练以获得wloc;fsur(·)为周围上下文特征学习器,wsur为该周围上下文特征学习器的参数,以3×3膨胀卷积层构建该周围上下文特征学习器,通过反向传播算法对该周围上下文特征学习器进行训练以获得wsur;fjoi(·)为联合特征学习器,wjoi为该联合特征学习器的参数;fglo(·)为全局特征学习器,wglo为该全局特征学习器的参数;x为该指导模块的输入。
进一步地,该第二特征提取器具有M层指导模块;以该第二特征提取器的第1层指导模块对该初级特征图进行下采样,获得该第二特征提取器的第一层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第二特征提取器的第M层指导模块的输出;以该第二特征提取器的第1层指导模块的输出和该第二特征提取器的第M层指导模块的输出组合得到该中级特征图;其中,M为正整数。
进一步地,该第三特征提取器具有N层指导模块;以该第三特征提取器的第1层指导模块对该中级特征图进行下采样,获得该第三特征提取器的第1层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第三特征提取器的第N层指导模块的输出;以该第三特征提取器的第1层指导模块的输出和该第三特征提取器的第N层指导模块的输出组合得到该高级特征图;其中,N为正整数。
本发明还公开了一种基于上下文信息指导的场景分割系统,包括:指导模块构建模块,用于构建基于上下文信息的指导模块,该指导模块具有残差结构;第一特征提取器模块,用于以多个3×3卷积层为第一特征提取器,由原始图像获得初级特征图;第二特征提取器模块,用于以多个该指导模块为第二特征提取器,由该初级特征图获得中级特征图;第三特征提取器模块,用于以多个该指导模块为第三特征提取器,由该中级特征图获得高级特征图;场景分割结果获取模块,用于以场景分割子网络,由该高级特征图获得该原始图像的场景分割结果。
进一步地,该指导模块的形式化表示为fglo(wglo,fjoi(wjoi,floc(wloc,x),fsur(wsur,x)));其中floc(·)为局部特征学习器,wloc为该局部特征学习器的参数,以3×3卷积层构建该局部特征学习器,通过反向传播算法对该局部特征学习器进行训练以获得wloc;fsur(·)为周围上下文特征学习器,wsur为该周围上下文特征学习器的参数,以3×3膨胀卷积层构建该周围上下文特征学习器,通过反向传播算法对该周围上下文特征学习器进行训练以获得wsur;fjoi(·)为联合特征学习器,wjoi为该联合特征学习器的参数;fglo(·)为全局特征学习器,wglo为该全局特征学习器的参数;x为该指导模块的输入。
进一步地,该第一特征提取器模块具体包括:以第一层3×3卷积层对该原始图像进行下采样,获得该第一层3×3卷积层的输出;以每一层3×3卷积层的输出为下一层3×3卷积层的输入,以获得最后一层3×3卷积层的输出;以该第一层3×3卷积层的输出和该最后一层3×3卷积层的输出组合得到该初级特征图。
进一步地,该第二特征提取器具有M层指导模块;以该第二特征提取器的第1层指导模块对该初级特征图进行下采样,获得该第二特征提取器的第一层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第二特征提取器的第M层指导模块的输出;以该第二特征提取器的第1层指导模块的输出和该第二特征提取器的第M层指导模块的输出组合得到该中级特征图;其中,M为正整数。
进一步地,该第三特征提取器具有N层指导模块;以该第三特征提取器的第1层指导模块对该中级特征图进行下采样,获得该第三特征提取器的第1层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第三特征提取器的第N层指导模块的输出;以该第三特征提取器的第1层指导模块的输出和该第三特征提取器的第N层指导模块的输出组合得到该高级特征图;其中,N为正整数。
本发明的基于上下文信息指导的场景分割系统,其参数量非常少,不超过0.5M,内存占用小,分割性能高。
附图说明
图1A、B、C是基于上下文信息指导的场景分割方法示意图。
图2是本发明的基于上下文信息指导的场景分割系统结构示意图。
图3A是本发明的基于上下文信息指导的场景分割方法框架图。
图3B是本发明的基于上下文信息的指导模块结构示意图。
图3C是本发明的基于上下文信息的指导模块下采样结构示意图。
图4是本发明的的基于上下文信息指导的场景分割方法与现有技术的参数量对比图。
图5本发明的的基于上下文信息指导的场景分割方法与现有技术的内存占用量对比图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明提出的基于上下文信息的场景分割方法和系统进一步详细说明。应当理解,此处所描述的具体实施方法仅仅用以解释本发明,并不用于限定本发明。
在实际的世界中,目标不可能单独的存在,它一定会与周围其他目标有或多或少的关系,这就是通常所说的上下文信息。上下文信息通常被理解为:察觉并能应用能够影响场景和图像中的对象的信息。上下文信息来源于对人类视觉系统的模拟,人类的大脑具有出色的识别性能,在目标及背景复杂的情况下人类视觉系统依然可以快速识别和分类大量的目标,对于目标成像的光照、姿态、纹理、形变和遮挡等因素均具有非常好的适应性。图1A、B、C是基于上下文信息指导的场景分割方法示意图。如图1A所示,通常情况下,当只关注最小的黑色框区域,很难去给它分类;如图1B所示,当能看到最小的黑色框区域对应的周围上下文信息时(图1B中最小的黑色框外面的对应的尺度更大些的黑色框区域),则能比较容易给最小的黑色框区域分类;如图1C所示,在全局上下文信息的帮助下(对应图1C中最大的黑色框),则可以以一个比较高的置信度去给最小的黑色框区域分类。
为了解决上述问题,本发明首先重新思考了语义分割这个任务的本质特点。语义分割涉及到像素级分类和目标定位,这就应该考虑空间依赖性。不同于分类网络学习整个图像的抽象特征,或者图像中的显著性物体。值得注意的是,人类视觉系统会捕捉上下文信息去理解场景。基于以上观察,本发明提出了以上下文信息指导模块去学习局部特征和捕捉空间依赖性。图2是本发明的基于上下文信息指导的场景分割系统结构示意图。如图2所示,本发明基于上下文信息指导模块,构建了一个新的场景分割网络。本发明提出的场景分割网络(CGNet)只有三个下采样(down-sampling),这样有助于保护空间位置信息。
图3A是本发明的基于上下文信息指导的场景分割方法框架图。如图3A所示,本发明公开了一种基于上下文信息的场景分割方法,具体包括:
步骤S1,构建具有残差结构的上下文信息指导模块;图3B是本发明的基于上下文信息的指导模块结构示意图,如图3B所示,指导模块可以形式化表示为fglo(wglo,fjoi(wjoi,floc(wloc,x),fsur(wsur,x)));其中,floc(·)为局部特征学习器,例如可通过标准的3×3卷积层(3×3Conv)构建,wloc为局部特征学习器的参数,可以通过反向传播算法对局部特征学习器进行训练而获得;fsur(·)为周围上下文特征学习器,例如可通过3×3的膨胀卷积层(3×3DConv)构建,wsur为周围上下文特征学习器的参数,可以通过反向传播算法对局部特征学习器进行训练而获得;fjoi(·)为联合特征学习器,例如可以为通道级联层(Concat),wjoi为联合特征学习器的参数;fglo(·)为全局特征学习器,例如可以为全局平均池化层(GAP)和多层感知机,wglo为全局特征学习器的参数;x为指导模块的输入;
步骤S2,在第一阶段中,将需要进行场景分割的原始RGB图像作为第一特征提取器的输入,输出低层次的特征图谱(初级特征图);第一特征提取器由多个标准的3×3卷积层构成,例如是3个标准的3×3卷积层,且第一特征提取器中的第一个3×3卷积层对原始RGB图像进行第一次下采样;
步骤S3,在第二阶段中,将第一特征提取器输出的初级特征图作为第二特征提取器的输入,输出中层次的特征图谱(中级特征图);第二特征提取器由M层指导模块构成,且由第二特征提取器的第一层指导模块对输入的初级特征图进行第二次下采样获得第二阶段的下采样特征图,图3C是本发明的基于上下文信息的指导模块下采样结构示意图,如3C所示;将每一层指导模块的输出作为下一层指导模块的输入,则以第M层指导模块的输出,与第二阶段的下采样特征图组合,得到第二阶段的中级特征图;M为正整数;
步骤S4,在第三阶段中,将第二特征提取器输出的中级特征图作为第三特征提取器的输入,输出高层次的特征图谱(高级特征图);第三特征提取器由N层指导模块构成,且由第三特征提取器的第一层指导模块对输入的中级特征图进行第三次下采样获得第三阶段的下采样特征图,第三阶段的指导模块下采样结构与第二阶段相同;将每一层指导模块的输出作为下一层指导模块的输入,则以第N层指导模块的输出,与第三阶段的下采样特征图组合,得到第三阶段的高级特征图;N为正整数;
步骤S5,以第三特征提取器输出的高级特征图为场景分割子网络的输入,通过场景分割子网络,获得该原始RGB图像的场景分割结果,并由采样函数(Upsample)进行采样;其中场景分割子网络由1×1卷积层(1×1Conv)构成。
为使场景分割网络运行在移动终端,本发明的基于上下文信息指导模块的场景分割网络,其参数量较少(不到0.5M),内存占用小,分割性能高。场景分割网络分为三个阶段,在第一阶段使用3个标准的3x3Conv,在第二阶段和第三阶段分别使用M个和N个上下文信息指导模块。对于第二阶段和第三阶段,将其前一阶段的第一个指导模块输出和最后一个指导模块输出作为当前阶段的第一个指导模块的输入,这样有助于网络内部信息流通,便于优化训练。对于整个场景分割网络,以交叉熵损失函数作为基于上下文信息指导的场景分割网络的损失函数,并只有三个下采样,最终输出的场景分割结果是原始RGB图像的八分之一。
为使本发明的上述特征和效果能阐述的更加明确,下文特列举相关实验对本发明的场景分割方法进行进一步说明。
一、数据集
本发明的相关实验采用Cityscapes数据集。Cityscapes数据集包含来自50个不同城市的街道场景。这个数据集被分成三个子集,包括训练集2975张图片,验证集500张图片,和测试集1525张图片。数据集提供高质量的19类像素集标注。性能采用所有类的交并比的平均值。
二、有效性实验验证
1、为了分析本发明提出的周围上下文特征学习器fsur(·)的有效性,以CGNet_M3N15模型进行验证;表1中的结果表明周围上下文特征学习器fsur(·)能提升Mean IoU5.1个百分点,其中M=3,N=15。
Method f<sub>sur</sub>(·) MeanIoU(%)
CGNet_M3N15 w/o 54.6
CGNet_M3N15 w 59.7
表1
2、基于局部特征学习器floc(·)和周围上下文特征学习器fsur(·)学习到的联合特征,说明全局特征学习器fglo(·)去学习一个权重向量对该联合特征进行修正。从表2中可以看到全局特征学习器能够将分割性能从58.9%提升到59.7%,其中M=3,N=15。
Method fglo(·) MeanIoU(%)
CGNet_M3N15 w/o 58.9
CGNet_M3N15 w 59.7
表2
3、输入增强机制能提升0.3个百分点,见表3,其中M=3,N=15。
Method InputInjection MeanIoU(%)
CGNet_M3N15 w/o 59.4
CGNet_M3N15 w 59.7
图3
4、PReLU激活函数能提升1.6个百分点,见表4,其中M=3,N=15。
Activation MeanIoU(%)
ReLU 59.4
PReLU 59.7
表4
5、训练提出的CGNet,通过设置不同的M和N。表5显示了模型性能与其参数量的折中。一般情况下,深度网络比浅层的网络性能更好。从表7可以发现,当固定N,分割性能并没有随着M的增加。例如,固定N=12,变化M从3到6,分割性能下降了0.2个百分点。因此,对于本发明提出的场景分割网络,设置M=3。
M N Parameters(M) MeanIoU(%)
3 9 0.34 56.5
3 12 0.38 58.1
6 12 0.39 57.9
3 15 0.41 59.7
6 15 0.41 58.4
3 18 0.45 61.1
3 21 0.49 63.5
表5
6、可以通过改变N,对性能和模型大小做进一步地的权衡,表6显示,当设置M=3,N=21可以取得63.5%mean IoU,全局残差学习性能比局部残差学习性能高出了6.3个百分点。局部残差学习(local residual learning)是图3B和图3C标记LRL连接方式,全局残差学习(global residual learning)是图3B和图3C标记的GRL的连接方式。
Residualconnections MeanIoU(%)
LRL 57.2
GRL 63.5
表6
7、之前的很多工作都会在通道级卷积之后使用一个1x1卷积去增强通道间的信息交流。当在BN+PReLU层不使用1x1卷积,表7可以看到1x1卷积性能下降了10.2个百分点。其原因是本发明提出的上下文信息指导模块中的局部特征和其对应的周围上下文特征需要保持通道间的独立性。
Methods 1×1Conv MeanIoU(%)
CGNet_M3N21 w/ 53.3
CGNet_M3N21 w/o 63.5
表7
三、与其它方法比较
接下来将进行本发明的场景分割方法与现有的其他场景分割方法的对比,包括性能、模型参数量和速度三个方面。
1、与现有的场景分割方法PSPNet_Ms、SegNet、ENet和ESPNet比较,如表8所示,可以发现在Cityscpaes数据集上,高精度的模型PSPNet_Ms测试一张图片要超过1s,本发明的场景分割方法为43fps,同时,虽然本发明的场景分割方法的速度略低于ESPNet,但精度却比ESPNet高了3.5个百分点。
Method MeanIoU(%) ms fps
PSPNet_Ms 78.4 >1000 <1
SegNet 56.1 88.0 11
ENet 58.3 61.0 16
ESPNet 60.3 18.6 49
CGNet_M3N21 63.8 23.4 43
表8
2、如图4所示,在没有利用任何的预处理、后处理和复杂的Decoder模块(比如ASPP,PPModule等)的前提下,比起同样参数量的模型ENet,本发明的场景分割方法取得了63.8%mean IoU,高出了5.3个百分点,比ESPNet高出来3.5个百分点;与PSPNet相比,它的参数量是我们方法的130倍。
3、如图5所示,本发明的场景分割方法和其他方法在内存占用方面的比较,对于输入为3×640×360的图像,本发明的场景分割方法的内存占用仅为334M,而PSPNet_Ms需要2180M。

Claims (10)

1.一种基于上下文信息指导的场景分割方法,其特征在于,包括:
构建基于上下文信息的指导模块,该指导模块具有残差结构;
以多个3×3卷积层为第一特征提取器,由原始图像获得初级特征图;
以多个该指导模块为第二特征提取器,由该初级特征图获得中级特征图;
以多个该指导模块为第三特征提取器,由该中级特征图获得高级特征图;
以场景分割子网络,由该高级特征图获得该原始图像的场景分割结果。
2.如权利要求1所述的场景分割方法,其特征在于,该指导模块的形式化表示为fglo(wglo,fjoi(wjoi,floc(wloc,x),fsur(wsur,x)));其中floc(·)为局部特征学习器,wloc为该局部特征学习器的参数,以3×3卷积层构建该局部特征学习器,通过反向传播算法对该局部特征学习器进行训练以获得wloc;fsur(·)为周围上下文特征学习器,wsur为该周围上下文特征学习器的参数,以3×3膨胀卷积层构建该周围上下文特征学习器,通过反向传播算法对该周围上下文特征学习器进行训练以获得wsur;fjoi(·)为联合特征学习器,wjoi为该联合特征学习器的参数;fglo(·)为全局特征学习器,wglo为该全局特征学习器的参数;x为该指导模块的输入。
3.如权利要求1所述的场景分割方法,其特征在于,以第一层3×3卷积层对该原始图像进行下采样,获得该第一层3×3卷积层的输出;以每一层3×3卷积层的输出为下一层3×3卷积层的输入,以获得最后一层3×3卷积层的输出;以该第一层3×3卷积层的输出和该最后一层3×3卷积层的输出组合得到该初级特征图。
4.如权利要求3所述的场景分割方法,其特征在于,该第二特征提取器具有M层指导模块;以该第二特征提取器的第1层指导模块对该初级特征图进行下采样,获得该第二特征提取器的第一层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第二特征提取器的第M层指导模块的输出;以该第二特征提取器的第1层指导模块的输出和该第二特征提取器的第M层指导模块的输出组合得到该中级特征图;其中,M为正整数。
5.如权利要求4所述的场景分割方法,其特征在于,该第三特征提取器具有N层指导模块;以该第三特征提取器的第1层指导模块对该中级特征图进行下采样,获得该第三特征提取器的第1层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第三特征提取器的第N层指导模块的输出;以该第三特征提取器的第1层指导模块的输出和该第三特征提取器的第N层指导模块的输出组合得到该高级特征图;其中,N为正整数。
6.一种基于上下文信息指导的场景分割系统,其特征在于,包括:
指导模块构建模块,用于构建基于上下文信息的指导模块,该指导模块具有残差结构;
第一特征提取器模块,用于以多个3×3卷积层为第一特征提取器,由原始图像获得初级特征图;
第二特征提取器模块,用于以多个该指导模块为第二特征提取器,由该初级特征图获得中级特征图;
第三特征提取器模块,用于以多个该指导模块为第三特征提取器,由该中级特征图获得高级特征图;
场景分割结果获取模块,用于以场景分割子网络,由该高级特征图获得该原始图像的场景分割结果。
7.如权利要求6所述的场景分割系统,其特征在于,该指导模块的形式化表示为fglo(wglo,fjoi(wjoi,floc(wloc,x),fsur(wsur,x)));其中floc(·)为局部特征学习器,wloc为该局部特征学习器的参数,以3×3卷积层构建该局部特征学习器,通过反向传播算法对该局部特征学习器进行训练以获得wloc;fsur(·)为周围上下文特征学习器,wsur为该周围上下文特征学习器的参数,以3×3膨胀卷积层构建该周围上下文特征学习器,通过反向传播算法对该周围上下文特征学习器进行训练以获得wsur;fjoi(·)为联合特征学习器,wjoi为该联合特征学习器的参数;fglo(·)为全局特征学习器,wglo为该全局特征学习器的参数;x为该指导模块的输入。
8.如权利要求7所述的场景分割系统,其特征在于,该第一特征提取器模块具体包括:以第一层3×3卷积层对该原始图像进行下采样,获得该第一层3×3卷积层的输出;以每一层3×3卷积层的输出为下一层3×3卷积层的输入,以获得最后一层3×3卷积层的输出;以该第一层3×3卷积层的输出和该最后一层3×3卷积层的输出组合得到该初级特征图。
9.如权利要求1所述的场景分割系统,其特征在于,该第二特征提取器具有M层指导模块;以该第二特征提取器的第1层指导模块对该初级特征图进行下采样,获得该第二特征提取器的第一层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第二特征提取器的第M层指导模块的输出;以该第二特征提取器的第1层指导模块的输出和该第二特征提取器的第M层指导模块的输出组合得到该中级特征图;其中,M为正整数。
10.如权利要求1所述的场景分割系统,其特征在于,该第三特征提取器具有N层指导模块;以该第三特征提取器的第1层指导模块对该中级特征图进行下采样,获得该第三特征提取器的第1层指导模块的输出;以每一层指导模块的输出为下一层指导模块的输入,以获得该第三特征提取器的第N层指导模块的输出;以该第三特征提取器的第1层指导模块的输出和该第三特征提取器的第N层指导模块的输出组合得到该高级特征图;其中,N为正整数。
CN201811309249.5A 2018-11-05 2018-11-05 基于上下文信息指导的场景分割方法和系统 Active CN109657538B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811309249.5A CN109657538B (zh) 2018-11-05 2018-11-05 基于上下文信息指导的场景分割方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811309249.5A CN109657538B (zh) 2018-11-05 2018-11-05 基于上下文信息指导的场景分割方法和系统

Publications (2)

Publication Number Publication Date
CN109657538A true CN109657538A (zh) 2019-04-19
CN109657538B CN109657538B (zh) 2021-04-27

Family

ID=66110075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811309249.5A Active CN109657538B (zh) 2018-11-05 2018-11-05 基于上下文信息指导的场景分割方法和系统

Country Status (1)

Country Link
CN (1) CN109657538B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368754A (zh) * 2020-03-08 2020-07-03 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法
CN111461130A (zh) * 2020-04-10 2020-07-28 视研智能科技(广州)有限公司 一种高精度图像语义分割算法模型及分割方法
CN112149645A (zh) * 2020-11-10 2020-12-29 西北工业大学 基于生成对抗学习和图神经网络的人体姿势关键点识别方法
CN113761976A (zh) * 2020-06-04 2021-12-07 华为技术有限公司 基于全局引导选择性上下文网络的场景语义解析方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050093894A1 (en) * 2003-10-30 2005-05-05 Tretter Daniel R. Generating an displaying spatially offset sub-frames on different types of grids
CN107155360A (zh) * 2014-08-12 2017-09-12 西门子保健有限责任公司 用于对象检测的多层聚合
CN107564007A (zh) * 2017-08-02 2018-01-09 中国科学院计算技术研究所 融合全局信息的场景分割修正方法与系统
CN107564013A (zh) * 2017-08-02 2018-01-09 中国科学院计算技术研究所 融合局部信息的场景分割修正方法与系统
US20180096226A1 (en) * 2016-10-04 2018-04-05 Magic Leap, Inc. Efficient data layouts for convolutional neural networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050093894A1 (en) * 2003-10-30 2005-05-05 Tretter Daniel R. Generating an displaying spatially offset sub-frames on different types of grids
CN107155360A (zh) * 2014-08-12 2017-09-12 西门子保健有限责任公司 用于对象检测的多层聚合
US20180096226A1 (en) * 2016-10-04 2018-04-05 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
CN107564007A (zh) * 2017-08-02 2018-01-09 中国科学院计算技术研究所 融合全局信息的场景分割修正方法与系统
CN107564013A (zh) * 2017-08-02 2018-01-09 中国科学院计算技术研究所 融合局部信息的场景分割修正方法与系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368754A (zh) * 2020-03-08 2020-07-03 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法
CN111368754B (zh) * 2020-03-08 2023-11-28 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法
CN111461130A (zh) * 2020-04-10 2020-07-28 视研智能科技(广州)有限公司 一种高精度图像语义分割算法模型及分割方法
CN113761976A (zh) * 2020-06-04 2021-12-07 华为技术有限公司 基于全局引导选择性上下文网络的场景语义解析方法
WO2021244621A1 (zh) * 2020-06-04 2021-12-09 华为技术有限公司 基于全局引导选择性上下文网络的场景语义解析方法
CN112149645A (zh) * 2020-11-10 2020-12-29 西北工业大学 基于生成对抗学习和图神经网络的人体姿势关键点识别方法

Also Published As

Publication number Publication date
CN109657538B (zh) 2021-04-27

Similar Documents

Publication Publication Date Title
CN107204010B (zh) 一种单目图像深度估计方法与系统
CN109657538A (zh) 基于上下文信息指导的场景分割方法和系统
CN106127684B (zh) 基于双向递归卷积神经网络的图像超分辨率增强方法
CN107679462B (zh) 一种基于小波的深度多特征融合分类方法
CN108537824B (zh) 基于交替反卷积与卷积的特征图增强的网络结构优化方法
CN106780543A (zh) 一种基于卷积神经网络的双框架估计深度和运动方法
CN113688836A (zh) 一种基于深度学习的实时性道路图像语义分割方法及系统
CN113822383B (zh) 一种基于多域注意力机制的无人机检测方法及系统
CN110532959B (zh) 基于双通道三维卷积神经网络的实时暴力行为检测系统
CN114462555A (zh) 基于树莓派的多尺度特征融合配电网设备识别方法
CN111832453A (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN109523558A (zh) 一种人像分割方法及系统
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN111260687B (zh) 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN115346068A (zh) 一种铁路货运列车螺栓丢失故障图像自动生成方法
CN115240020A (zh) 基于弱光补偿的MaskRCNN渗水检测方法及系统
CN114693929A (zh) 一种rgb-d双模态特征融合的语义分割方法
CN114266952A (zh) 基于深监督的实时语义分割方法
Xiong et al. Marsformer: Martian rock semantic segmentation with transformer
WO2020093210A1 (zh) 基于上下文信息指导的场景分割方法和系统
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN111553921B (zh) 一种基于通道信息共享残差模块的实时语义分割方法
CN114821438A (zh) 一种基于多路径激励的视频人体行为识别方法及系统
CN115115819A (zh) 面向装配顺序监测的图像多视角语义变化检测网络及方法
CN114494893A (zh) 基于语义重用上下文特征金字塔的遥感图像特征提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant