CN112001391A - 一种图像特征融合图像语义分割的方法 - Google Patents

一种图像特征融合图像语义分割的方法 Download PDF

Info

Publication number
CN112001391A
CN112001391A CN202010391184.4A CN202010391184A CN112001391A CN 112001391 A CN112001391 A CN 112001391A CN 202010391184 A CN202010391184 A CN 202010391184A CN 112001391 A CN112001391 A CN 112001391A
Authority
CN
China
Prior art keywords
image
pixels
label
pixel
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010391184.4A
Other languages
English (en)
Inventor
冯坤
黄伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Kunbo Zhixing Technology Co ltd
Original Assignee
Jiangsu Kunbo Zhixing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Kunbo Zhixing Technology Co ltd filed Critical Jiangsu Kunbo Zhixing Technology Co ltd
Priority to CN202010391184.4A priority Critical patent/CN112001391A/zh
Publication of CN112001391A publication Critical patent/CN112001391A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像语义分割领域,具体地说是一种图像特征融合图像语义分割的方法。一种图像特征融合图像语义分割的方法,它包括以下步骤:步骤一:构建有监督训练的全卷积神经网络;步骤二:采用多级损失函数的方式来进行训练;步骤三:利用超像素分割图对粗糙语义预测结果图进行边缘优化。本发明在像素精度和分割准确率方面都原高于以往算法,同时具有较强的鲁棒性。

Description

一种图像特征融合图像语义分割的方法
技术领域
本发明涉及图像语义分割领域,具体地说是一种图像特征融合图像语义分割的方法。
背景技术
近年来,图像语义分割已经成为计算机视觉领域中研究最为广泛的问题之一。随着场景理解、自动驾驶、医学图像处理、图像分割等计算机视觉问题研究的深入,图像语义分割作为上述研究中的基础,也变得越来越重要。随着图像数据的增长和人工智能的普及,提出一种准确而且高效的图像语义分割算法不仅能帮助计算机更好的理解图像信息,还能更加方便人们的生活。
图像语义分割的研究发展大致可以分为两个阶段。第一个阶段是传统图像语义分割方法,传统的图像语义分割方法多种多样,其中基于图划分的Normalized Cut和GrabCut算法最为常用。基于图划分的方法通常是将图像抽象成图的形式, 然后利用图理论中的算法进行图像语义分割,Shi J等人在最小分割算法的基础上进行改进,提出了一种考虑全局信息的方法N-cut。Grab Cut是Rother C等人在 2004年对Normalized Cut方法进行改进提出的一种交互式图像语义分割方法,其利用图像中的纹理和边界信息通过迭代式的方法对图像的前后背景进行有效分割。
随着深度学习的发展和图像数据的增长,传统的图像语义分割方法已经不能满足实际需求,研究者们在深度学习中找到了新的研究方向。图像语义分割研究进入了第二阶段,Long J等人提出的全卷积神经网络(FCN)开辟了深度学习在图像语义分割中的应用,FCN利用卷积层替换了卷积神经网络VGG中传统的全连接层, 并提出一种跳跃结构(skip)用来结合高层和低层信息,让预测结果图有更好的细节表现。Badrinarayanan V等人在FCN的基础上提出了一种具有对称结构的编码器 -解码器网络Segnet,Segnet利用编码器去提取图像特征,通过记住池化操作中的位置信息利用解码器通过上采样操作将特征图还原为输入图像大小。Chen L C等人在全卷积神经网络和编码器-解码器结构的基础上提出了DeepLab系列网络, DeepLab系列通过空洞卷积(Atrous convolution)[16]操作扩大感受野,再结合空洞卷积和空间金字塔池化提出空洞空间金字塔池化方法(ASPP),利用ASPP融合多尺度特征信息,最后设计了一个解码器结构去恢复空间信息得到一个清晰的边界信息。与传统方法相比,基于深度学习的图像语义分割方法在准确性和速度性能上有了很大的提高。
超像素分割能将图像中颜色、纹理等属性相似的像素集合成一个超像素,超像素分割不仅能提供丰富的图像边缘信息,还能大大提高分割算法的运行效率。目前常用的超像素分割算法有SLIC、SEEDS、GMMSP等。但是这些方法精度不算很高,而且系统比较薄弱。
发明内容
本发明旨在解决现有技术的的技术问题。提供一种图像特征融合图像语义分割的方法。本发明在像素精度和分割准确率方面都原高于以往算法,同时具有较强的鲁棒性。
本发明为解决上述技术问题所采用的技术方案是:一种图像特征融合图像语义分割的方法,包括以下步骤:
步骤一:构建有监督训练的全卷积神经网络。
网络共有10个卷积子模块,每个模块包含若干个卷积层。其中前5个卷积模块为下采样模块,利用卷积操作对图像进行特征提取,每经过一个下采样操作后图像尺寸会减小,这样能让网络提取出更高维的语义信息。下采样操作虽然能提取出高维的语义信息,但是过度下采样操作会严重损失图像的空间信息,因此在下采样模块之后设计了一个多尺度特征融合模块,在此模块中,首先联合3层特征图进行卷积操作降低维度,然后将特征图进行分块分阶段进行处理,并利用多个不同空洞因子的空洞卷积对图像特征进行多尺度提取并融合,这样可以有效提取出图像的空间信息,并扩大了感受野,降低了计算复杂度。然后是上采样操作模块,通过上采样操作逐渐增大特征图尺寸,将特征图还原到原始图像大小时,通过类别颜色对应就能得到一个粗糙的语义分割结果。为了防止在上采样过程中损失高维特征,加入了类似残差网络的跳跃连接结构,在上采样操作中除了接收上一个模块的输出以外,还接收下采样模块中与其大小对应的输出特征,这样既可以保证网络学习到充分的特征又能逐渐将特征还原到原始图像大小。
全卷积神经网络的详细结构如所示。其中每层网络所接收的特征图输入为上一层网络的输出特征图,激活函数ReLU为:
Figure RE-GDA0002734754890000031
其中N代表像素总和,Xi代表输入特征图的第i个值,Yi代表对应的输出。另外,激活函数Softmax为:
Figure RE-GDA0002734754890000032
其中变量符号与公式(1)类似。
在下采样模块之后设计了一个多尺度特征融合模块。首先对前3层特征图进行卷积降维处理并进行结合,然后对得到的特征图进行分块分阶段处理,将特征图分为两块,第一阶段利用空洞率为2,4,8的3个3x3空洞卷积对第1块特征图进行处理,这样能扩大感受野,有效地提取图像空间信息,第二阶段将第2块特征图与第一阶段得到的结果进行结合再进行卷积计算。在多尺度特征融合模块中,联合部分计算公式可以写为:
J=C[c(x3),c(x4),c(x5)] (3)
在公式(3)中,xi表示输入第i层特征图,c()表示卷积操作,C[]表示 Concat操作,J表示输出结果。
局部跨阶段部分计算公式可以写为:
O=c(C[J2,C[d2(J1),d4(J1),d8(J1)]]) (4)
在公式(4)中,di表示空洞率为i的空洞卷积操作,J1表示联合部分结果的第 1分块,J2表示第2分块,O表示结果输出,其余与公式(3)类似。
最后,在上采样模块中加入了跳跃连接结构用来结合上层卷积的结果,修复还原的图像,增强网络的精确度和鲁棒性。
步骤二:多级损失函数
采用多级损失函数的方式来进行训练,在上采样模块中设有两个损失函数。期望在第3和第4上采样模块的输出可以还原与真值图接近的语义分割图,因此第一个损失函数可以写为:
Figure RE-GDA0002734754890000041
在公式(5)中,N代表像素总和,C(3),W(3)以及H(3)分别代表着第3上采样模块输出张量的宽度、高度和通道数,(G)i,j,k表示语义分割图像像素的真实标签,
Figure RE-GDA0002734754890000042
代表第3上采样模块每个像素的预测标签,L2范数是利用距离来计算真实值与预测值之间的差别。
由于第4上采样模块最后采用的激活函数是Softmax函数,输出的结果为一个概率图,因此Loss2可以利用交叉熵作为度量,因此Loss2可以写为:
Figure RE-GDA0002734754890000043
在公式(6)中,N代表像素总和,C(4),W(4)以及H(4)分别代表着第4上采样模块输出张量的宽度、高度和通道数,(G)i,j,k表示语义分割图像像素的真实标签,
Figure RE-GDA0002734754890000044
代表第4上采样模块每个像素的预测标签。
最后将两个损失函数进行融合训练,最终损失函数为:
Figure RE-GDA0002734754890000045
其中公式(7)中ti为学习的权重,且
Figure RE-GDA0002734754890000046
卷积神经网络采用多级损失函数进行优化,不仅增加了网络的精确度,而且还提高了网络的泛化能力。
步骤三:利用超像素分割图对粗糙语义预测结果图进行边缘优化。
超像素分割能将图像中颜色、纹理等属性相似的像素集合成一个超像素,超像素分割不仅能提供丰富准确的图像边缘信息,还能大大提高分割算法的运行效率。目前常用的超像素分割算法有SLIC、SEEDS、GMMSP等。采用的是SLIC算法对图像进行超像素分割,
选择合适的参数可以利用超像素分割提取出丰富准确的边缘信息。提出利用超像素分割图对粗糙语义分割图进行边缘优化,首先选择合适的参数对原始图像进行超像素分割,然后利用超像素分割图中的每块超像素做掩膜(mask),最后通过每块掩膜对粗糙语义分割图进行边缘优化。利用掩膜进行优化时总体可以分为两种情况,即标签像素在掩膜内和不在掩膜内。当标签像素不在掩膜内可以直接忽略,当标签像素在掩膜内则可以分为两种情况,即包含单标签像素和包含多标签像素,只包含单标签像素时,可以计算标签像素的覆盖率若标签像素覆盖率大于设置参数θ则将掩膜内所有像素设置为标签像素,若小于设置参数θ,则直接忽略。包含多标签像素时,首先计算每种标签像素的覆盖率,若总覆盖率小于设置参数θ,则直接忽略,若总覆盖率大于设置参数θ,则利用覆盖率最大的标签像素填充掩膜内像素。
本发明提出了利用超像素分割对物体边缘的特殊优势作为辅助优化,对粗糙分割结果进行优化;同时在全卷积网络中利用空洞卷积设计了一个联合局部跨阶段的多尺度特征融合模块,这样能有效的利用图像的空间信息。此外还在网络的上采样模块中加入跳跃连接结构,用来增强网络的学习能力。本发明的有益效果是:提出的算法在像素精度和分割准确率方面都原高于以往算法,同时具有较强的鲁棒性。
具体实施方式
本发明一种图像特征融合图像语义分割的方法:包括以下步骤:
步骤一:构建有监督训练的全卷积神经网络。
网络共有10个卷积子模块,每个模块包含若干个卷积层。其中前5个卷积模块为下采样模块,利用卷积操作对图像进行特征提取,每经过一个下采样操作后图像尺寸会减小,这样能让网络提取出更高维的语义信息。下采样操作虽然能提取出高维的语义信息,但是过度下采样操作会严重损失图像的空间信息,因此在下采样模块之后设计了一个多尺度特征融合模块,在此模块中,首先联合3层特征图进行卷积操作降低维度,然后将特征图进行分块分阶段进行处理,并利用多个不同空洞因子的空洞卷积对图像特征进行多尺度提取并融合,这样可以有效提取出图像的空间信息,并扩大了感受野,降低了计算复杂度。然后是上采样操作模块,通过上采样操作逐渐增大特征图尺寸,将特征图还原到原始图像大小时,通过类别颜色对应就能得到一个粗糙的语义分割结果。为了防止在上采样过程中损失高维特征,加入了类似残差网络的跳跃连接结构,在上采样操作中除了接收上一个模块的输出以外,还接收下采样模块中与其大小对应的输出特征,这样既可以保证网络学习到充分的特征又能逐渐将特征还原到原始图像大小。
全卷积神经网络的详细结构中每层网络所接收的特征图输入为上一层网络的输出特征图,激活函数ReLU为:
Figure RE-GDA0002734754890000061
其中N代表像素总和,Xi代表输入特征图的第i个值,Yi代表对应的输出。另外,激活函数Softmax为:
Figure RE-GDA0002734754890000062
其中变量符号与公式(1)类似。
在下采样模块之后设计了一个多尺度特征融合模块。首先对前3层特征图进行卷积降维处理并进行结合,然后对得到的特征图进行分块分阶段处理,将特征图分为两块,第一阶段利用空洞率为2,4,8的3个3x3空洞卷积对第1块特征图进行处理,这样能扩大感受野,有效地提取图像空间信息,第二阶段将第2块特征图与第一阶段得到的结果进行结合再进行卷积计算。在多尺度特征融合模块中,联合部分计算公式可以写为:
J=C[c(x3),c(x4),c(x5)] (3)
在公式(3)中,xi表示输入第i层特征图,c()表示卷积操作,C[]表示 Concat操作,J表示输出结果。
局部跨阶段部分计算公式可以写为:
O=c(C[J2,C[d2(J1),d4(J1),d8(J1)]]) (4)
在公式(4)中,di表示空洞率为i的空洞卷积操作,J1表示联合部分结果的第 1分块,J2表示第2分块,O表示结果输出,其余与公式(3)类似。
最后,在上采样模块中加入了跳跃连接结构用来结合上层卷积的结果,修复还原的图像,增强网络的精确度和鲁棒性。
步骤二:多级损失函数
采用多级损失函数的方式来进行训练,在上采样模块中设有两个损失函数。期望在第3和第4上采样模块的输出可以还原与真值图接近的语义分割图,因此第一个损失函数可以写为:
Figure RE-GDA0002734754890000071
在公式(5)中,N代表像素总和,C(3),W(3)以及H(3)分别代表着第3上采样模块输出张量的宽度、高度和通道数,(G)i,j,k表示语义分割图像像素的真实标签,
Figure RE-GDA0002734754890000072
代表第3上采样模块每个像素的预测标签,L2范数是利用距离来计算真实值与预测值之间的差别。
由于第4上采样模块最后采用的激活函数是Softmax函数,输出的结果为一个概率图,因此Loss2可以利用交叉熵作为度量,因此Loss2可以写为:
Figure RE-GDA0002734754890000073
在公式(6)中,N代表像素总和,C(4),W(4)以及H(4)分别代表着第4上采样模块输出张量的宽度、高度和通道数,(G)i,j,k表示语义分割图像像素的真实标签,
Figure RE-GDA0002734754890000074
代表第4上采样模块每个像素的预测标签。
最后将两个损失函数进行融合训练,最终损失函数为:
Figure RE-GDA0002734754890000075
其中公式(7)中ti为学习的权重,且
Figure RE-GDA0002734754890000076
卷积神经网络采用多级损失函数进行优化,不仅增加了网络的精确度,而且还提高了网络的泛化能力。
步骤三:利用超像素分割图对粗糙语义预测结果图进行边缘优化。
超像素分割能将图像中颜色、纹理等属性相似的像素集合成一个超像素,超像素分割不仅能提供丰富准确的图像边缘信息,还能大大提高分割算法的运行效率。目前常用的超像素分割算法有SLIC、SEEDS、GMMSP等。采用的是SLIC算法对图像进行超像素分割,
选择合适的参数可以利用超像素分割提取出丰富准确的边缘信息。提出利用超像素分割图对粗糙语义分割图进行边缘优化,首先选择合适的参数对原始图像进行超像素分割,然后利用超像素分割图中的每块超像素做掩膜(mask),最后通过每块掩膜对粗糙语义分割图进行边缘优化。利用掩膜进行优化时总体可以分为两种情况,即标签像素在掩膜内和不在掩膜内。当标签像素不在掩膜内可以直接忽略,当标签像素在掩膜内则可以分为两种情况,即包含单标签像素和包含多标签像素,只包含单标签像素时,可以计算标签像素的覆盖率若标签像素覆盖率大于设置参数θ则将掩膜内所有像素设置为标签像素,若小于设置参数θ,则直接忽略。包含多标签像素时,首先计算每种标签像素的覆盖率,若总覆盖率小于设置参数θ,则直接忽略,若总覆盖率大于设置参数θ,则利用覆盖率最大的标签像素填充掩膜内像素。

Claims (7)

1.一种图像特征融合图像语义分割的方法,其特征在于,它包括以下步骤:
步骤一:构建有监督训练的全卷积神经网络;
步骤二:采用多级损失函数的方式来进行训练;
步骤三:利用超像素分割图对粗糙语义预测结果图进行边缘优化。
2.根据权利要求1所述的一种图像特征融合图像语义分割的方法,其特征在在于,所述步骤一的网络共有10个卷积子模块,每个模块包含若干个卷积层;其中前5个卷积模块为下采样模块,利用卷积操作对图像进行特征提取,在下采样模块之后设计了一个多尺度特征融合模块;上采样操作模块通过上采样操作逐渐增大特征图尺寸,将特征图还原到原始图像大小时,通过类别颜色对应就能得到一个粗糙的语义分割结果,其中加入类似残差网络的跳跃连接结构。
3.根据权利要求2所述的一种图像特征融合图像语义分割的方法,其特征在在于,每层网络所接收的特征图输入为上一层网络的输出特征图,激活函数ReLU为:
Figure FDA0002485641180000011
其中N代表像素总和,Xi代表输入特征图的第i个值,Yi代表对应的输出。另外,激活函数Softmax为:
Figure FDA0002485641180000012
其中变量符号与公式(1)类似;
在下采样模块之后设计了一个多尺度特征融合模块,首先对前3层特征图进行卷积降维处理并进行结合,然后对得到的特征图进行分块分阶段处理,将特征图分为两块,第一阶段利用空洞率为2,4,8的3个3x3空洞卷积对第1块特征图进行处理;第二阶段将第2块特征图与第一阶段得到的结果进行结合再进行卷积计算;在多尺度特征融合模块中,联合部分计算公式可以写为:
J=C[c(x3),c(x4),c(x5)] (3)
在公式(3)中,xi表示输入第i层特征图,c()表示卷积操作,C[]表示Concat操作,J表示输出结果;
局部跨阶段部分计算公式可以写为:
O=c(C[J2,C[d2(J1),d4(J1),d8(J1)]]) (4)
在公式(4)中,di表示空洞率为i的空洞卷积操作,J1表示联合部分结果的第1分块,J2表示第2分块,O表示结果输出,其余与公式(3)类似。
最后,在上采样模块中加入了跳跃连接结构用来结合上层卷积的结果,修复还原的图像。
4.根据权利要求1所述的一种图像特征融合图像语义分割的方法,其特征在于,所述步骤二包括采用多级损失函数的方式来进行训练,在上采样模块中设有两个损失函数;期望在第3和第4上采样模块的输出可以还原与真值图接近的语义分割图,因此第一个损失函数可以写为:
Figure FDA0002485641180000021
在公式(5)中,N代表像素总和,C(3),W(3)以及H(3)分别代表着第3上采样模块输出张量的宽度、高度和通道数,(G)i,j,k表示语义分割图像像素的真实标签,
Figure FDA0002485641180000022
代表第3上采样模块每个像素的预测标签,L2范数是利用距离来计算真实值与预测值之间的差别。
由于第4上采样模块最后采用的激活函数是Softmax函数,输出的结果为一个概率图,因此Loss2利用交叉熵作为度量,因此Loss2可以写为:
Figure FDA0002485641180000023
在公式(6)中,N代表像素总和,C(4),W(4)以及H(4)分别代表着第4上采样模块输出张量的宽度、高度和通道数,(G)i,j,k表示语义分割图像像素的真实标签,
Figure FDA0002485641180000024
代表第4上采样模块每个像素的预测标签;
最后将两个损失函数进行融合训练,最终损失函数为:
Figure FDA0002485641180000025
其中公式(7)中ti为学习的权重,且
Figure FDA0002485641180000026
5.根据权利要求1所述的一种图像特征融合图像语义分割的方法,其特征在于,所述步骤三包括:采用的是SLIC算法对图像进行超像素分割:
首先选择合适的参数对原始图像进行超像素分割,然后利用超像素分割图中的每块超像素做掩膜(mask),最后通过每块掩膜对粗糙语义分割图进行边缘优化。
6.根据权利要求1所述的一种图像特征融合图像语义分割的方法,其特征在于,所述利用掩膜进行优化时总体可以分为两种情况,即标签像素在掩膜内和不在掩膜内。
7.当标签像素不在掩膜内直接忽略,当标签像素在掩膜内则可以分为两种情况,即包含单标签像素和包含多标签像素,只包含单标签像素时,计算标签像素的覆盖率若标签像素覆盖率大于设置参数θ则将掩膜内所有像素设置为标签像素,若小于设置参数θ,则直接忽略;
包含多标签像素时,首先计算每种标签像素的覆盖率,若总覆盖率小于设置参数θ,则直接忽略,若总覆盖率大于设置参数θ,则利用覆盖率最大的标签像素填充掩膜内像素。
CN202010391184.4A 2020-05-11 2020-05-11 一种图像特征融合图像语义分割的方法 Pending CN112001391A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010391184.4A CN112001391A (zh) 2020-05-11 2020-05-11 一种图像特征融合图像语义分割的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010391184.4A CN112001391A (zh) 2020-05-11 2020-05-11 一种图像特征融合图像语义分割的方法

Publications (1)

Publication Number Publication Date
CN112001391A true CN112001391A (zh) 2020-11-27

Family

ID=73461769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010391184.4A Pending CN112001391A (zh) 2020-05-11 2020-05-11 一种图像特征融合图像语义分割的方法

Country Status (1)

Country Link
CN (1) CN112001391A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177502A (zh) * 2021-05-13 2021-07-27 北京罗克维尔斯科技有限公司 环视障碍物检测方法、装置、介质、车载系统以及车辆
CN113255519A (zh) * 2021-05-25 2021-08-13 江苏濠汉信息技术有限公司 一种输电线路危险车辆吊车扬臂识别系统及多目标跟踪方法
CN113449735A (zh) * 2021-07-15 2021-09-28 北京科技大学 一种超像素分割的语义分割方法及装置
CN114092364A (zh) * 2021-08-12 2022-02-25 荣耀终端有限公司 图像处理方法及其相关设备
CN114612408A (zh) * 2022-03-04 2022-06-10 拓微摹心数据科技(南京)有限公司 一种基于联邦深度学习的心脏图像处理方法
CN115019045A (zh) * 2022-06-24 2022-09-06 哈尔滨工业大学 一种基于多成分邻域的小数据甲状腺超声图像分割方法
CN115205300A (zh) * 2022-09-19 2022-10-18 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN116051416A (zh) * 2023-01-30 2023-05-02 中国科学院空天信息创新研究院 基于sar图像的海洋锋自动检测识别方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法
US20180349748A1 (en) * 2017-05-30 2018-12-06 Kabushiki Kaisha Toshiba Image analysis device, neural network device, learning device and computer program product
CN109063723A (zh) * 2018-06-11 2018-12-21 清华大学 基于迭代挖掘物体共同特征的弱监督图像语义分割方法
US20190139216A1 (en) * 2017-11-03 2019-05-09 Siemens Healthcare Gmbh Medical Image Object Detection with Dense Feature Pyramid Network Architecture in Machine Learning
US20190266731A1 (en) * 2018-02-26 2019-08-29 Abc Fintech Co., Ltd. Image segmentation method and device
CN110458172A (zh) * 2019-08-16 2019-11-15 中国农业大学 一种基于区域对比度检测的弱监督图像语义分割方法
CN110781895A (zh) * 2019-10-10 2020-02-11 湖北工业大学 一种基于卷积神经网络的图像语义分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180349748A1 (en) * 2017-05-30 2018-12-06 Kabushiki Kaisha Toshiba Image analysis device, neural network device, learning device and computer program product
US20190139216A1 (en) * 2017-11-03 2019-05-09 Siemens Healthcare Gmbh Medical Image Object Detection with Dense Feature Pyramid Network Architecture in Machine Learning
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法
US20190266731A1 (en) * 2018-02-26 2019-08-29 Abc Fintech Co., Ltd. Image segmentation method and device
CN109063723A (zh) * 2018-06-11 2018-12-21 清华大学 基于迭代挖掘物体共同特征的弱监督图像语义分割方法
CN110458172A (zh) * 2019-08-16 2019-11-15 中国农业大学 一种基于区域对比度检测的弱监督图像语义分割方法
CN110781895A (zh) * 2019-10-10 2020-02-11 湖北工业大学 一种基于卷积神经网络的图像语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伍佳等: "《顾及区域信息的卷积神经网络在影像语义分割中的应用》", 《科学技术与工程》, no. 21, 28 August 2018 (2018-08-28), pages 276 - 280 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177502A (zh) * 2021-05-13 2021-07-27 北京罗克维尔斯科技有限公司 环视障碍物检测方法、装置、介质、车载系统以及车辆
CN113177502B (zh) * 2021-05-13 2024-02-02 北京罗克维尔斯科技有限公司 环视障碍物检测方法、装置、介质、车载系统以及车辆
CN113255519A (zh) * 2021-05-25 2021-08-13 江苏濠汉信息技术有限公司 一种输电线路危险车辆吊车扬臂识别系统及多目标跟踪方法
CN113449735A (zh) * 2021-07-15 2021-09-28 北京科技大学 一种超像素分割的语义分割方法及装置
CN113449735B (zh) * 2021-07-15 2023-10-31 北京科技大学 一种超像素分割的语义分割方法及装置
CN114092364B (zh) * 2021-08-12 2023-10-03 荣耀终端有限公司 图像处理方法及其相关设备
CN114092364A (zh) * 2021-08-12 2022-02-25 荣耀终端有限公司 图像处理方法及其相关设备
CN114612408A (zh) * 2022-03-04 2022-06-10 拓微摹心数据科技(南京)有限公司 一种基于联邦深度学习的心脏图像处理方法
CN115019045A (zh) * 2022-06-24 2022-09-06 哈尔滨工业大学 一种基于多成分邻域的小数据甲状腺超声图像分割方法
CN115205300A (zh) * 2022-09-19 2022-10-18 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN115205300B (zh) * 2022-09-19 2022-12-09 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN116051416A (zh) * 2023-01-30 2023-05-02 中国科学院空天信息创新研究院 基于sar图像的海洋锋自动检测识别方法及装置
CN116051416B (zh) * 2023-01-30 2023-10-20 中国科学院空天信息创新研究院 基于sar图像的海洋锋自动检测识别方法及装置

Similar Documents

Publication Publication Date Title
CN112001391A (zh) 一种图像特征融合图像语义分割的方法
CN111563508B (zh) 一种基于空间信息融合的语义分割方法
CN112634276B (zh) 一种基于多尺度视觉特征提取的轻量级语义分割方法
CN108596330B (zh) 一种并行特征全卷积神经网络装置及其构建方法
CN112396607B (zh) 一种可变形卷积融合增强的街景图像语义分割方法
CN111563909A (zh) 一种复杂街景图像语义分割方法
CN111259828A (zh) 基于高分辨率遥感图像多特征的识别方法
CN111696110B (zh) 场景分割方法及系统
CN111832453B (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN112329801B (zh) 一种卷积神经网络非局部信息构建方法
CN113870335A (zh) 一种基于多尺度特征融合的单目深度估计方法
CN113362242B (zh) 基于多特征融合网络的图像修复方法
CN111882620A (zh) 一种基于多尺度信息道路可行驶区域分割方法
CN112465872B (zh) 一种基于可学习遮挡掩模与二次变形优化的图像序列光流估计方法
CN112989942A (zh) 一种基于交通监控视频的目标实例分割方法
CN113486956B (zh) 目标分割系统及其训练方法、目标分割方法及设备
CN114299286A (zh) 一种异常天气下基于类别分组的道路场景语义分割方法
CN115631513B (zh) 基于Transformer的多尺度行人重识别方法
CN115082928B (zh) 面向复杂场景的不对称双分支实时语义分割网络的方法
CN114092824A (zh) 结合密集注意力和并行上采样的遥感图像道路分割方法
CN111199255A (zh) 基于darknet53网络的小目标检测网络模型及检测方法
CN112906549B (zh) 一种基于时空胶囊网络的视频行为检测方法
CN113096133A (zh) 一种基于注意力机制的语义分割网络的构建方法
CN110866565A (zh) 一种基于卷积神经网络的多分支图像分类方法
CN115953743A (zh) 一种基于改进的yolo模型的车位状态识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination