CN112802039A - 一种基于全局边缘注意力的全景分割方法 - Google Patents

一种基于全局边缘注意力的全景分割方法 Download PDF

Info

Publication number
CN112802039A
CN112802039A CN202110100682.3A CN202110100682A CN112802039A CN 112802039 A CN112802039 A CN 112802039A CN 202110100682 A CN202110100682 A CN 202110100682A CN 112802039 A CN112802039 A CN 112802039A
Authority
CN
China
Prior art keywords
segmentation
edge
mask
global
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110100682.3A
Other languages
English (en)
Other versions
CN112802039B (zh
Inventor
雷晓春
汪小龙
江泽涛
卢畅
陈俊彦
翟丰硕
伍旭
谢浚霖
梁观平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202110100682.3A priority Critical patent/CN112802039B/zh
Publication of CN112802039A publication Critical patent/CN112802039A/zh
Application granted granted Critical
Publication of CN112802039B publication Critical patent/CN112802039B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于全局边缘注意力的全景分割方法,在原全景分割网络结构的基础上添加了一个全局边缘注意力模块,利用当前模型的全景分割网络对原始训练图像进行全景分割得到当前模型的全景分割掩码;利用当前模型的全局边缘注意力模块对全景分割掩码进行全局边缘注意力检测,得到当前模型的全景分割掩码边缘矩阵;利用当前模型的全局边缘注意力模块对原始训练图像进行全局边缘注意力检测,得到当前模型的边缘矩阵因子;利用边缘矩阵因子去引导全景分割网络的实例和语义的全景分割,有利于区分细节和边缘,增强分割效果,提高分割效率。

Description

一种基于全局边缘注意力的全景分割方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于全局边缘注意力的全景分割方法。
背景技术
全景分割是2018年何恺明团队提出的概念,综合了语义分割和实例分割效果。在计算机视觉领域中,图像分割指的是是根据某些规则把图片中的像素分成不同的部分(加不同的标签)。其中语义分割旨在为图像中每个像素赋予一个类别标签,但是语义分割所做的仅仅是判断类别,无法实现区分个体的功能。而实例分割任务不需要对每个像素进行标记,它只需要找到感兴趣物体的边缘轮廓,可以在实现判断个体类别的基础上,同时实现个体的区分。全景分割是语义分割和实例分割的结合,每个像素都被分为一类,如果一种类别里有多个实例,会用不同的颜色进行区分,从而实现了对图像中的物体和背景的分割。
全景分割适用于目标识别与检测、物体跟踪、自动驾驶、医学影像处理等各领域。通过深度学习的方法对图像进行全景分割,分割结果的边缘的精确度是需要考虑的重要问题。何恺明研究团队提出过类似图形学渲染的方式,在边缘部分的不确定区域增加判定步骤,使得图像不会因为尺度缩小、图像模糊,导致边缘被平滑掉而影响图像的分割效果。但是该方法采用传统图形学算法,网络缺乏一定的学习能力。采用边缘检测结果去辅助超分辨率重建也有相关应用,比如拉普拉斯金字塔在超分辨率重建方面的应用,但是由于超分辨率重建注重重建的是细节,用于辅助的边缘没有语义信息,即无法确定是边缘还是细节,所以这些边缘是没有权重概念的,而这会导致图像局部的过度分割。
发明内容
本发明所要解决的是现有全景分割方法由于边缘限制所导致的局部过度分割问题,提供一种基于全局边缘注意力的全景分割方法。
为解决上述问题,本发明是通过以下技术方案实现的:
一种基于全局边缘注意力的全景分割方法,包括步骤如下:
步骤1、在全景分割网络的基础上添加全局边缘注意力模块构造出基于全局边缘注意力的全景分割模型;
步骤2、将原始训练图像送入到步骤1所构建的基于全局边缘注意力的全景分割模型中对模型进行训练,得到训练好的最终基于全局边缘注意力的全景分割模型;其中基于全局边缘注意力的全景分割模型的每一次的迭代训练的过程如下:
步骤2.1、将上一次迭代训练所得到的基于全局边缘注意力的全景分割模型视为当前模型;
步骤2.2、利用当前模型的全景分割网络对原始训练图像进行全景分割得到当前模型的全景分割掩码;
步骤2.3、利用当前模型的全局边缘注意力模块对全景分割掩码进行全局边缘注意力检测,在进行全局边缘注意力检测的过程中,直接对全景分割掩码进行二值化,得到当前模型的全景分割掩码边缘矩阵;
步骤2.4、利用当前模型的全局边缘注意力模块对原始训练图像进行全局边缘注意力检测,在进行全局边缘注意力检测的过程中,先对原图像进行三通道分离,得到三个颜色通道矩阵;再使用当前边缘注意力权重矩阵群分别与三个颜色通道矩阵相乘,得到三个边缘矩阵;后将三个边缘矩阵相乘,得到当前模型的边缘矩阵因子;
步骤2.5、将基于步骤2.2所得的当前模型的全景分割掩码所计算的全景分割网络的损失函数L作为基础项,并将基于2.3所得的当前模型的全景分割掩码边缘矩阵和步骤2.4所得的当前模型的边缘矩阵因子所计算的全局边缘注意力模块的损失函数Ledge作为新增项,得到当前模型的损失函数L*
Figure BDA0002915756290000021
式中:L表示全景分割网络的损失函数,Ledge表示全局边缘注意力模块的损失函数,Fedge[i,j]表示全景分割掩码边缘矩阵的第i行、第j列的像素值,E[i,j]表示边缘矩阵因子的第i行、第j列的数值,i=0,1,2,...,H-1,j=0,1,2,...,W-1,H和W分别表示原始训练图像的高和宽向下取整的整数值;
步骤2.6、判断损失函数是否收敛或迭代训练次数是否达到迭代阈值:如果是,则当前模型即为最终基于全局边缘注意力的全景分割模型;否则,先通过极小化损失函数对当前模型的优化参数进行优化,再返回步骤2.1;
步骤3、将待分割的图像送入到步骤2所得的最终基于全局边缘注意力的全景分割模型中,完成待分割的图像基于全局边缘注意力的全景分割。
上述步骤2.2的具体过程如下:
首先,将输入的原始训练图像送入ResNet-FPN特征提取网络得到图像的多维度共享特征融合图;
接着,将多维度共享特征融合图分别送入实例分割分支和语义分割分支中;在实例分割分支中,先找出多维度共享特征融合图的感兴趣区域,再对感兴趣区域进行像素校正,后对像素校正的感兴趣区域使用特征金字塔框架进行预测不同的实例所属分类,得到实例分割掩码;在语义分割分支中,通过对多维度共享特征融合图的每个像素进行细粒度的推理,得到语义掩码;
最后,将实例分割掩码和语义掩码进行融合后得到全景分割掩码。
上述步骤2.5中,全景分割网络的损失函数L为:
L=Lcls+Lbox+Lmask
式中:Lcls表示预测框的分类损失项,Lbox表示预测框的回归损失项,Lmask表示掩码部分的损失项。
上述步骤2.6中,当前模型的优化参数包括全景分割网络的网络权重系数和全局边缘注意力模块的边缘注意力权重矩阵群。
与现有技术相比,本发明在原全景分割网络结构的基础上添加了一个全局边缘注意力模块,利用当前模型的全景分割网络对原始训练图像进行全景分割得到当前模型的全景分割掩码;利用当前模型的全局边缘注意力模块对全景分割掩码进行全局边缘注意力检测,得到当前模型的全景分割掩码边缘矩阵;利用当前模型的全局边缘注意力模块对原始训练图像进行全局边缘注意力检测,得到当前模型的边缘矩阵因子;利用边缘矩阵因子去引导全景分割网络的实例和语义的全景分割,有利于区分细节和边缘,增强分割效果,提高分割效率。
附图说明
图1为一种基于全局边缘注意力的全景分割方法的流程图。
图2为边缘注意力模块对原始训练图像处理的工作流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,对本发明进一步详细说明。
一种基于全局边缘注意力的全景分割方法,如图1所示,其包括步骤如下:
步骤1、在全景分割网络的基础上添加全局边缘注意力模块构造出基于全局边缘注意力的全景分割模型。
步骤2、将原始训练图像送入到步骤1所构建的基于全局边缘注意力的全景分割模型中对模型进行训练,得到训练好的最终基于全局边缘注意力的全景分割模型。
参见图2,基于全局边缘注意力的全景分割模型的每一次的迭代训练的过程如下:
步骤2.1、将上一次迭代训练所得到的基于全局边缘注意力的全景分割模型视为当前模型。
初始时,给定初始的模型优化参数,其中模型优化参数包括全景分割网络的网络权重系数和全局边缘注意力模块的边缘注意力权重矩阵群。全景分割网络的网络权重系数与传统全景分割网络的权重系数的设定相同。边缘注意力权重矩阵群设定为
Figure BDA0002915756290000031
并初始化矩阵中各元素的值为
Figure BDA0002915756290000032
i表示第i个边缘注意力权重矩阵。并基于给定的初始的模型优化参数得到基于全局边缘注意力的全景分割模型,即作为第1次迭代训练的当前模型。
从第二次迭代开始,每一次迭代利用上一次迭代训练所得到的基于更新后的模型优化参数的基于全局边缘注意力的全景分割模型,作为下一次迭代训练的当前模型。
步骤2.2、利用当前模型的全景分割网络对原始训练图像进行全景分割得到当前模型的全景分割掩码。
首先,将输入的原始训练图像送入ResNet-FPN特征提取网络得到图像的多维度共享特征融合图。接着,将多维度共享特征融合图分别送入实例分割分支和语义分割分支中。在实例分割分支中,先找出输入图像中对象的可能位置的边界框列表,即感兴趣区域,再对感兴趣区域使用双线性插值法得到固定大小的输出特征图,取ROI分类器选择的正区域为输入,将预测的掩码放大为ROI边框的尺寸以给出最终的掩码结果。在语义分割分支中,通过对多维度共享特征融合图的每个像素进行细粒度的推理,得到语义掩码。最后,将实例分割掩码和语义掩码进行融合后得到全景分割结果。
步骤2.3、利用当前模型的全局边缘注意力模块对全景分割掩码进行全局边缘注意力检测,在进行全局边缘注意力检测的过程中,直接对全景分割掩码进行二值化,得到全景分割掩码边缘矩阵。
步骤2.4、利用当前模型的全局边缘注意力模块对原始训练图像进行全局边缘注意力检测,在进行全局边缘注意力检测的过程中,先对原图像进行R、G、B三通道分离,得到三个颜色通道矩阵;再使用当前边缘注意力权重矩阵群分别与三个颜色通道矩阵相乘,得到三个边缘矩阵ER,EG,EB;后将三个边缘矩阵相乘得到边缘矩阵因子E=ER×EG×EB
边缘矩阵因子(即全局边缘注意力轮廓)与全景分割掩码边缘矩阵有同样的大小,将两个矩阵的各个元素相对应,边缘矩阵因子是一个0和1组成的矩阵,沿着所有值为1的像素坐标遍历掩码矩阵,分析以遍历路径中每一个掩码矩阵的像素点为中心的九宫格像素特征:将像素值相近的像素点归为同一个标签,9个像素点中与大部分像素值差值较大的像素点归为另外一个标签,从而达到修正的目的。
步骤2.5、将基于步骤2.2所得的当前模型的全景分割掩码所计算的全景分割网络的损失函数L作为基础项,并将基于2.3所得的当前模型的全景分割掩码边缘矩阵和步骤2.4所得的当前模型的边缘矩阵因子所计算的全局边缘注意力模块的损失函数Ledge作为新增项,得到当前模型的损失函数L*
全景分割网络的损失函数L为:
L=Lcls+Lbox+Lmask
式中:Lcls表示预测框的分类损失项,Lbox表示预测框的回归损失项,Lmask表示掩码部分的损失项。
全局边缘注意力模块的损失函数Ledge为:
Figure BDA0002915756290000041
式中:Fedge[i,j]表示全景分割掩码边缘矩阵的第i行、第j列的像素值,E[i,j]表示边缘矩阵因子的第i行、第j列的数值,i=0,1,2,...,H-1,j=0,1,2,...,W-1,H和W分别表示原始训练图像的高和宽向下取整的整数值;
当前模型的损失函数L*为:
L*=L+Ledge
步骤2.6、判断损失函数是否收敛或迭代训练次数是否达到迭代阈值:如果是,则当前模型即为最终基于全局边缘注意力的全景分割模型;否则,先通过极小化损失函数对当前模型的优化参数进行优化,再返回步骤2.1。
在通过极小化损失函数对当前模型的优化参数进行优化时,通过反向传播,并利用梯度下降方法调整全景分割网络的网络权重系数和全局边缘注意力模块的边缘注意力权重矩阵群达到极小化损失函数的目的,从而完成对当前模型的训练。
步骤3、将待分割的图像送入到步骤2所最终基于全局边缘注意力的全景分割模型中,完成待分割的图像基于全局边缘注意力的全景分割。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施方式,均视为在本发明的保护之内。

Claims (4)

1.一种基于全局边缘注意力的全景分割方法,其特征是,包括步骤如下:
步骤1、在全景分割网络的基础上添加全局边缘注意力模块构造出基于全局边缘注意力的全景分割模型;
步骤2、将原始训练图像送入到步骤1所构建的基于全局边缘注意力的全景分割模型中对模型进行训练,得到训练好的最终基于全局边缘注意力的全景分割模型;其中基于全局边缘注意力的全景分割模型的每一次的迭代训练的过程如下:
步骤2.1、将上一次迭代训练所得到的基于全局边缘注意力的全景分割模型视为当前模型;
步骤2.2、利用当前模型的全景分割网络对原始训练图像进行全景分割得到当前模型的全景分割掩码;
步骤2.3、利用当前模型的全局边缘注意力模块对全景分割掩码进行全局边缘注意力检测,在进行全局边缘注意力检测的过程中,直接对全景分割掩码进行二值化,得到当前模型的全景分割掩码边缘矩阵;
步骤2.4、利用当前模型的全局边缘注意力模块对原始训练图像进行全局边缘注意力检测,在进行全局边缘注意力检测的过程中,先对原图像进行三通道分离,得到三个颜色通道矩阵;再使用当前边缘注意力权重矩阵群分别与三个颜色通道矩阵相乘,得到三个边缘矩阵;后将三个边缘矩阵相乘,得到当前模型的边缘矩阵因子;
步骤2.5、将基于步骤2.2所得的当前模型的全景分割掩码所计算的全景分割网络的损失函数L作为基础项,并将基于2.3所得的当前模型的全景分割掩码边缘矩阵和步骤2.4所得的当前模型的边缘矩阵因子所计算的全局边缘注意力模块的损失函数Ledge作为新增项,得到当前模型的损失函数L*
Figure FDA0002915756280000011
式中:L表示全景分割网络的损失函数,Ledge表示全局边缘注意力模块的损失函数,Fedge[i,j]表示全景分割掩码边缘矩阵的第i行、第j列的像素值,E[i,j]表示边缘矩阵因子的第i行、第j列的数值,i=0,1,2,...,H-1,j=0,1,2,...,W-1,H和W分别表示原始训练图像的高和宽向下取整的整数值;
步骤2.6、判断损失函数是否收敛或迭代训练次数是否达到迭代阈值:如果是,则当前模型即为最终基于全局边缘注意力的全景分割模型;否则,先通过极小化损失函数对当前模型的优化参数进行优化,再返回步骤2.1;
步骤3、将待分割的图像送入到步骤2所得的最终基于全局边缘注意力的全景分割模型中,完成待分割的图像基于全局边缘注意力的全景分割。
2.根据权利要求1所述的一种基于全局边缘注意力的全景分割方法,其特征是,步骤2.2的具体过程如下:
首先,将输入的原始训练图像送入ResNet-FPN特征提取网络得到图像的多维度共享特征融合图;
接着,将多维度共享特征融合图分别送入实例分割分支和语义分割分支中;在实例分割分支中,先找出多维度共享特征融合图的感兴趣区域,再对感兴趣区域进行像素校正,后对像素校正的感兴趣区域使用特征金字塔框架进行预测不同的实例所属分类,得到实例分割掩码;在语义分割分支中,通过对多维度共享特征融合图的每个像素进行细粒度的推理,得到语义掩码;
最后,将实例分割掩码和语义掩码进行融合后得到全景分割掩码。
3.根据权利要求1所述的一种基于全局边缘注意力的全景分割方法,其特征是,步骤2.5中,全景分割网络的损失函数L为:
L=Lcls+Lbox+Lmask
式中:Lcls表示预测框的分类损失项,Lbox表示预测框的回归损失项,Lmask表示掩码部分的损失项。
4.根据权利要求1所述的一种基于全局边缘注意力的全景分割方法,其特征是,步骤2.6中,当前模型的优化参数包括全景分割网络的网络权重系数和全局边缘注意力模块的边缘注意力权重矩阵群。
CN202110100682.3A 2021-01-26 2021-01-26 一种基于全局边缘注意力的全景分割方法 Active CN112802039B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110100682.3A CN112802039B (zh) 2021-01-26 2021-01-26 一种基于全局边缘注意力的全景分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110100682.3A CN112802039B (zh) 2021-01-26 2021-01-26 一种基于全局边缘注意力的全景分割方法

Publications (2)

Publication Number Publication Date
CN112802039A true CN112802039A (zh) 2021-05-14
CN112802039B CN112802039B (zh) 2022-03-01

Family

ID=75811687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110100682.3A Active CN112802039B (zh) 2021-01-26 2021-01-26 一种基于全局边缘注意力的全景分割方法

Country Status (1)

Country Link
CN (1) CN112802039B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908442A (zh) * 2023-01-06 2023-04-04 山东巍然智能科技有限公司 一种无人机海洋监测用图像全景分割方法及模型搭建方法
CN116309067A (zh) * 2023-03-21 2023-06-23 安徽易刚信息技术有限公司 一种光场图像空间超分辨率方法
CN117612164A (zh) * 2024-01-19 2024-02-27 武汉互创联合科技有限公司 基于双重边缘检测的细胞分裂均衡度检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276765A (zh) * 2019-06-21 2019-09-24 北京交通大学 基于多任务学习深度神经网络的图像全景分割方法
CN111259809A (zh) * 2020-01-17 2020-06-09 五邑大学 基于DANet的无人机海岸线漂浮垃圾巡检系统
CN111428726A (zh) * 2020-06-10 2020-07-17 中山大学 基于图神经网络的全景分割方法、系统、设备及存储介质
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及系统
WO2020257812A2 (en) * 2020-09-16 2020-12-24 Google Llc Modeling dependencies with global self-attention neural networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276765A (zh) * 2019-06-21 2019-09-24 北京交通大学 基于多任务学习深度神经网络的图像全景分割方法
CN111259809A (zh) * 2020-01-17 2020-06-09 五邑大学 基于DANet的无人机海岸线漂浮垃圾巡检系统
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及系统
CN111428726A (zh) * 2020-06-10 2020-07-17 中山大学 基于图神经网络的全景分割方法、系统、设备及存储介质
WO2020257812A2 (en) * 2020-09-16 2020-12-24 Google Llc Modeling dependencies with global self-attention neural networks

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CAI W 等: "Panoptic Segmentation-Based Attention for Image Captioning", 《APPLIED SCIENCES》 *
QING ZHANG 等: "Attention and boundary guided salient object detection", 《PATTERN RECOGNITION》 *
Y. LI 等: "Attention-Guided Unified Network for Panoptic Segmentation", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
栗杰: "基于深度学习的现实交通场景下目标检测算法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅱ辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908442A (zh) * 2023-01-06 2023-04-04 山东巍然智能科技有限公司 一种无人机海洋监测用图像全景分割方法及模型搭建方法
CN116309067A (zh) * 2023-03-21 2023-06-23 安徽易刚信息技术有限公司 一种光场图像空间超分辨率方法
CN116309067B (zh) * 2023-03-21 2023-09-29 安徽易刚信息技术有限公司 一种光场图像空间超分辨率方法
CN117612164A (zh) * 2024-01-19 2024-02-27 武汉互创联合科技有限公司 基于双重边缘检测的细胞分裂均衡度检测方法
CN117612164B (zh) * 2024-01-19 2024-04-30 武汉互创联合科技有限公司 基于双重边缘检测的细胞分裂均衡度检测方法

Also Published As

Publication number Publication date
CN112802039B (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN112802039B (zh) 一种基于全局边缘注意力的全景分割方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN110956185B (zh) 一种图像显著目标的检测方法
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN110111366B (zh) 一种基于多级损失量的端到端光流估计方法
CN110276765B (zh) 基于多任务学习深度神经网络的图像全景分割方法
CN109886066B (zh) 基于多尺度和多层特征融合的快速目标检测方法
WO2020062433A1 (zh) 一种神经网络模型训练及通用接地线的检测方法
CN113627228B (zh) 一种基于关键点回归与多尺度特征融合的车道线检测方法
CN110766020A (zh) 一种面向多语种自然场景文本检测与识别的系统及方法
CN112036231B (zh) 一种基于车载视频的车道线和路面指示标志检测与识别方法
CN113673338B (zh) 自然场景文本图像字符像素弱监督自动标注方法、系统及介质
CN114048822A (zh) 一种图像的注意力机制特征融合分割方法
CN114969405A (zh) 一种跨模态图文互检方法
CN110942471A (zh) 一种基于时空约束的长时目标跟踪方法
CN113393457B (zh) 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN114898284B (zh) 一种基于特征金字塔局部差异注意力机制的人群计数方法
CN111401380A (zh) 一种基于深度特征增强和边缘优化的rgb-d图像语义分割方法
CN112200746A (zh) 一种雾天交通场景图像的去雾方法和设备
CN110866938A (zh) 一种全自动视频运动目标分割方法
CN116129291A (zh) 一种面向无人机畜牧的图像目标识别方法及其装置
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN114445620A (zh) 一种改进Mask R-CNN的目标分割方法
CN113393434A (zh) 一种基于非对称双流网络架构的rgb-d显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20210514

Assignee: Guilin Sensing Material Technology Co.,Ltd.

Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY

Contract record no.: X2023980046110

Denomination of invention: A Panoramic Segmentation Method Based on Global Edge Attention

Granted publication date: 20220301

License type: Common License

Record date: 20231107

Application publication date: 20210514

Assignee: Guilin Xingyuan Technology Co.,Ltd.

Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY

Contract record no.: X2023980045835

Denomination of invention: A Panoramic Segmentation Method Based on Global Edge Attention

Granted publication date: 20220301

License type: Common License

Record date: 20231107

Application publication date: 20210514

Assignee: Guangxi Guilin Yunchen Technology Co.,Ltd.

Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY

Contract record no.: X2023980045796

Denomination of invention: A Panoramic Segmentation Method Based on Global Edge Attention

Granted publication date: 20220301

License type: Common License

Record date: 20231108

EE01 Entry into force of recordation of patent licensing contract