CN110378911B - 基于候选区域和邻域分类器的弱监督图像语义分割方法 - Google Patents

基于候选区域和邻域分类器的弱监督图像语义分割方法 Download PDF

Info

Publication number
CN110378911B
CN110378911B CN201910627073.6A CN201910627073A CN110378911B CN 110378911 B CN110378911 B CN 110378911B CN 201910627073 A CN201910627073 A CN 201910627073A CN 110378911 B CN110378911 B CN 110378911B
Authority
CN
China
Prior art keywords
semantic
image
label
neighborhood
candidate region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910627073.6A
Other languages
English (en)
Other versions
CN110378911A (zh
Inventor
谢刚
谢新林
赵文晶
郭磊
王银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Science and Technology
Original Assignee
Taiyuan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Science and Technology filed Critical Taiyuan University of Science and Technology
Priority to CN201910627073.6A priority Critical patent/CN110378911B/zh
Publication of CN110378911A publication Critical patent/CN110378911A/zh
Application granted granted Critical
Publication of CN110378911B publication Critical patent/CN110378911B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉领域,一种基于候选区域和邻域分类器的弱监督图像语义分割方法,以候选区域为基本处理单元,将邻域分类器应用到图像语义分割,得到精度高、不易受噪声标签干扰的弱监督图像语义分割。本发明方法作为当前计算机视觉领域需要迫切解决的关键技术,可以实现测试图像中每一个像素的标签预测,能够获得比较高的弱监督图像语义分割精度。

Description

基于候选区域和邻域分类器的弱监督图像语义分割方法
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于高精度候选区域和邻域分类器的弱监督图像语义分割方法。
背景技术
图像语义分割在自动驾驶、视频监控、增强现实、无人机应用和医学影像分析等领域的应用和需求越来越广泛和迫切。虽然全监督的图像语义分割借助于深度卷积神经网络在图像分类和目标识别领域的应用取得了巨大的进步。但是,全监督的图像语义分割是一个数据饥渴的任务,其需要大量的精确到像素级标注的训练数据。与此同时,标注大量的像素水平的数据是非常费时费力的。
然而,图像级的弱监督标注不仅可以从实际的多媒体分享网站中大量的获得,而且还可以快速和高效的实现训练图像的标注。因此,基于图像级标签的高效和高精度图像语义分割成为当前图像语义分割领域的重要技术。
目前,基于图像级标注的图像语义分割方法可以分为基于候选区域的方法和基于分类网络的方法。在基于候选区域的方法中,大都以超像素作为基本处理单元进行语义标签的推断,然后结合各种分类模型对已推断的标签进行学习。基于候选区域的方法的动机在于具有相同语义标签的多个图像对应的超像素具有外观的相似性。然而,基于候选区域的方法在超像素分割的阶段会产生大量的冗余超像素,会对语义标签的推断造成干扰。基于分类网络的方法主要是借助预训练好的分类网络和图像级标签进行语义标签的推断。但是,分类网络仅能够识别一些小的有判别力的目标区域,并不能够充足的实现语义标签的推断。此外,在分类模型的学习阶段,并不是所有的特征都是同等重要的。因此,构建一个基于可判别的特征的分类模型也是弱监督图像语义分割需要解决的问题。
发明内容
本发明所要解决的技术问题是:如何针对背景技术存在的局限性和不足,提供一种基于候选区域水平的推断和预测,高效和准确的实现测试图像的标签预测。
本发明采用的技术方案是:一种基于候选区域和邻域分类器的弱监督图像语义分割方法,按照如下的步骤进行
步骤一、首先对训练图像进行线性谱聚类超像素分割获得期望的超像素,然后基于视觉特征进行超像素合并,直到合并后的超像素数等于该图像级标签包含的标签数的倍数,获得由候选区域组成的训练图像的集合;
步骤二、计算待推断语义标签的相异度,由最大相异度的语义标签开始推断,计算最大相异度的语义标签内每一个候选区域的邻域粒,由最相似邻域粒包含的候选区域组成该语义标签的推断,迭代直到所有的语义标签推断完成;
步骤三、以步骤二中的方法构建候选区域集合的特征作为条件属性,语义标签的类别作为决策属性,构建决策表,通过属性约简获得具有判别力的特征,并基于有判别力的特征进行邻域分类器的学习;
步骤四、对测试图像进行超像素分割和超像素合并,获得由候选区域组成的测试图像,并以候选区域为基本单元输入到邻域分类器进行预测,输出每一个像素的预测标签。
进一步地,步骤一中基于视觉特征进行超像素合并包括以下步骤
1)定义小超像素为
Figure BDA0002127318840000021
基于颜色和空间距离合并图像中的小超像素到与其空间距离最小的超像素内,其中,N(S(t'))指超像素包含的像素数,N指图像包含的总像素数,a=10,tr指迭代过程中的超像素数,t’指第t’个超像素,1代表是小超像素,0代表不是小超像素;
2)基于LAB颜色空间和HSV颜色空间的颜色特征提取,基于Gabor滤波器组的纹理特征提取,迭代合并超像素,直到剩余的超像素数等于图像级标签包含的标签数的倍数终止,获得由候选区域组成的训练图像的集合。
进一步的,步骤二包括以下步骤
1)构建待推断的语义标签集L=[l1,l2,...,ln]和语义标签对应的图像集I={I(t),t=1,2,...,n},n指语义标签的总数,t指第t个标签;
2)计算每一个语义标签的相异度:
Figure BDA0002127318840000022
其中,NL(t)指语义标签包含的最大标签数,Ne(t)指语义标签包含的第二大标签数;
3)从最大相异度的语义标签开始推断,由倍数和最大相异度的标签对应的图像数,确定待推断语义标签包含的候选区域数;
4)基于预训练好的AlexNet网络提取每一个候选区域的4096维R-CNN特征,并基于LAB和HSV颜色空间的各分量均值和标准差提取8维颜色特征,提取基于Gabor滤波器组均值的1维纹理特征;
5)构建信息表IS,并计算每一个候选区域的邻域粒δ(xp)={xq|xq∈U,△(xp,xq)≤δ},δ指邻域阈值,由确定的候选区域数,获得最相似的邻域粒,并由最相似的邻域粒完成该语义标签的推断、迭代,直到所有的语义标签推断完成,其中,xq指第q个候选区域,xp指第p个候选区域,U指候选区域集合,△(xp,xq)指xp和xq之间的欧氏距离。
进一步地,步骤三包括以下步骤,
1)、构建由候选区域特征作为条件属性,语义标签类别作为决策属性的决策表DT;
2)、基于邻域分类器属性约简对决策表进行属性约简,获得每一个属性的重要度SIG(a,B,D)=γB(D)-γB-a(D),γB(D)指D对B的依赖度,进而获得具有判别力的特征,γB-a(D)指D对B-a的依赖度,a是B中的某一个属性,B指条件属性集,D指决策属性集;
3)、基于有判别力的特征输入邻域分类器学习。
进一步地,步骤四包括以下步骤
1)、与训练阶段在相同的参数下对测试图像进行超像素分割和超像素合并;
2)、基于R-CNN、颜色和纹理的特征提取,获得由候选区域组成的测试图像;
3)、以候选区域为基本单元输入到邻域分类器进行预测,输出每一个像素的预测标签,获得基于有判别力的特征的测试图像标签预测。
本发明提供了一种基于候选区域和邻域分类器的弱监督图像语义分割方法,依赖于具有相同语义标签的多个候选区域之间存在外观相似性。本方法包含训练和测试阶段。在测试阶段包括三个步骤:基于超像素的高精度候选区域分割、基于最相似邻域粒的语义标签推断、基于有判别力特征的邻域分类器学习。在测试阶段包括候选区域水平的测试图像预测阶段。
本发明与现有技术相比的优点在于:
1、本发明提出的基于图像级标签包含的标签数的倍数的候选区域产生方法,解决了图像分割和超像素合并过程中无法自适应确定合并的终止条件问题。此外,以候选区域作为基本处理单元可以提高语义标签推断和预测的精度。
2、本发明提出的基于最相似邻域粒的语义标签推断方案,逐步从最大相异度的待推断语义标签开始推断,尽可能的保证了语义标签推断的准确率。此外,由图像级标签包含的标签数的倍数和语义标签对应的图像数间接的确定了待推断的语义标签包含的候选区域数,有助于语义标签的准确推断。
3、本发明提出的基于邻域分类器属性约简的有判别力的特征提取方式,可以有效的获得对目标识别具有重要作用的特征子集,有助于提高目标识别的准确率。
附图说明
图1为本发明的流程图;
图2为基于最相似邻域粒的语义标签推断流程图。
具体实施方式
图1给出了本发明的总体处理流程,下面结合图1进一步说明本发明。
本发明提供基于高精度候选区域和邻域分类器的弱监督图像语义分割方法,主要步骤介绍如下:
步骤一、首先对训练图像进行线性谱聚类超像素分割获得期望的超像素,然后基于视觉特征进行超像素合并,直到合并后的超像素数等于该图像级标签包含的标签数的倍数,获得由候选区域组成的训练图像的集合。
相比于以超像素作为基本处理单元,图像中候选区域的数量更少,对于提高语义标签推断的精度更有帮助。此外,候选区域能够很好的切合目标的边界,这可以解决图像级标签缺乏高精度边界信息的局限性。
首先对训练图像进行线性谱聚类超像素分割获得期望的超像素;
基于颜色和空间距离合并图像中的小超像素,将小超像素的定义为:
Figure BDA0002127318840000041
然后基于颜色和空间距离合并小超像素到与其空间距离最小的超像素内,
其中,N(S(t))指超像素包含的像素数,N指图像包含的总像素数,a=10,tr指迭代过程中的超像素数,t’指第t’个超像素,1代表是小超像素,0代表不是小超像素;
基于LAB颜色空间和HSV颜色空间的颜色特征提取,基于Gabor滤波器组的纹理特征提取,迭代合并超像素,直到剩余的超像素数等于图像级标签包含的标签数的倍数终止,获得由候选区域组成的训练图像的集合。
步骤二、计算待推断语义标签的相异度,由最大相异度的语义标签开始推断,计算最大相异度的语义标签内每一个候选区域的邻域粒,由最相似邻域粒包含的候选区域组成该语义标签的推断,迭代直到所有的语义标签推断完成。
语义标签的推断是弱监督图像语义分割的核心和关键,而现有的语义标签推断策略普遍缺乏鲁棒性且易受噪声标签的干扰,因此需要一种更精确的方案来完成语义标签的推断。本发明提出基于最相似邻域粒的语义标签推断方案,流程如图2所示。
首先,构建待推断的语义标签集L=[l1,l2,...,ln]和语义标签对应的图像集I={I(t),t=1,2,...,n},n指语义标签的总数,t指第t个标签;
其次,计算每一个语义标签的相异度:
Figure BDA0002127318840000051
其中,NL(t)指语义标签包含的最大标签数,Ne(t)指语义标签包含的第二大标签数;
从最大相异度的语义标签开始推断,由倍数和最大相异度的标签对应的图像数,确定待推断语义标签包含的候选区域数;
基于预训练好的AlexNet网络提取每一个候选区域的4096维R-CNN特征,并基于LAB和HSV颜色空间的各分量均值和标准差提取8维颜色特征,提取基于Gabor滤波器组均值的1维纹理特征;
构建信息表IS,并计算每一个候选区域的邻域粒δ(xp)={xq|xq∈U,△(xp,xq)≤δ},δ指邻域阈值,由确定的候选区域数,获得最相似的邻域粒,并由最相似的邻域粒完成该语义标签的推断、迭代,直到所有的语义标签推断完成,其中,xq指第q个候选区域,xp指第p个候选区域,U指候选区域集合,△(xp,xq)指xp和xq之间的欧氏距离。
步骤三、以步骤二中的方法构建候选区域集合的特征作为条件属性,语义标签的类别作为决策属性,构建决策表,通过属性约简获得具有判别力的特征,并基于有判别力的特征进行邻域分类器的学习
1)、构建由候选区域特征作为条件属性,语义标签类别作为决策属性的决策表DT;
2)、基于邻域分类器属性约简对决策表进行属性约简,获得每一个属性的重要度SIG(a,B,D)=γB(D)-γB-a(D),γB(D)指D对B的依赖度,进而获得具有判别力的特征,γB-a(D)指D对B-a的依赖度,a是B中的某一个属性,B指条件属性集,D指决策属性集;
3)、基于有判别力的特征输入邻域分类器学习。
步骤四、对测试图像进行超像素分割和超像素合并,获得由候选区域组成的测试图像,并以候选区域为基本单元输入到邻域分类器进行预测,输出每一个像素的预测标签。
1)、与训练阶段在相同的参数下对测试图像进行超像素分割和超像素合并;
2)、基于R-CNN、颜色和纹理的特征提取,获得由候选区域组成的测试图像;
3)、以候选区域为基本单元输入到邻域分类器进行预测,输出每一个像素的
预测标签,获得基于有判别力的特征的测试图像标签预测。
本发明未详细阐述的技术内容属于本领域技术人员的公知技术。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (4)

1.一种基于候选区域和邻域分类器的弱监督图像语义分割方法,其特征在于:按照如下的步骤进行
步骤一、首先对训练图像进行线性谱聚类超像素分割获得期望的超像素,然后基于视觉特征进行超像素合并,直到合并后的超像素数等于该训练图像的图像级标签包含的标签数的倍数,获得由候选区域组成的训练图像的集合;
步骤二、计算待推断语义标签的相异度,由最大相异度的语义标签开始推断,计算最大相异度的语义标签内每一个候选区域的邻域粒,由最相似邻域粒包含的候选区域组成该语义标签的推断,迭代直到所有的语义标签推断完成;步骤二包括以下步骤
1)构建待推断的语义标签集L=[l1,l2,...,ln]和语义标签对应的图像集I={I(t),t=1,2,...,n},n指语义标签的总数,t指第t个标签;
2)计算每一个语义标签的相异度:
Figure FDA0003547763040000011
其中,NL(t)指语义标签包含的最大标签数,Ne(t)指语义标签包含的第二大标签数;
3)从最大相异度的语义标签开始推断,由倍数和最大相异度的标签对应的图像数,确定待推断语义标签包含的候选区域数;
4)基于预训练好的AlexNet网络提取每一个候选区域的4096维R-CNN特征,并基于LAB和HSV颜色空间的各分量均值和标准差提取8维颜色特征,提取基于Gabor滤波器组均值的1维纹理特征;
5)构建信息表IS,并计算每一个候选区域的邻域粒δ(xp)={xq|xq∈U,Δ(xp,xq)≤δ},δ指邻域阈值,由确定的候选区域数,获得最相似的邻域粒,并由最相似的邻域粒完成该语义标签的推断、迭代,直到所有的语义标签推断完成,其中,xq指第q个候选区域,xp指第p个候选区域,U指候选区域集合,Δ(xp,xq)指xp和xq之间的欧氏距离;
步骤三、以步骤二中的方法构建候选区域集合的特征作为条件属性,语义标签的类别作为决策属性,构建决策表,通过属性约简获得具有判别力的特征,并基于有判别力的特征进行邻域分类器的学习;
步骤四、对测试图像进行超像素分割和超像素合并,获得由候选区域组成的测试图像集合,并以候选区域为基本单元输入到邻域分类器进行预测,输出每一个像素的预测标签。
2.根据权利要求1所述的一种基于候选区域和邻域分类器的弱监督图像语义分割方法,其特征在于:步骤一中基于视觉特征进行超像素合并包括以下步骤
1)定义小超像素为
Figure FDA0003547763040000021
基于颜色和空间距离合并图像中的小超像素到与其空间距离最小的超像素内,其中,N(S(t'))指超像素包含的像素数,N指图像包含的总像素数,a=10,tr指迭代过程中的超像素数,t’指第t’个超像素,1代表是小超像素,0代表不是小超像素;
2)基于LAB颜色空间和HSV颜色空间的颜色特征提取,基于Gabor滤波器组的纹理特征提取,迭代合并超像素,直到剩余的超像素数等于图像级标签包含的标签数的倍数终止,获得由候选区域组成的训练图像的集合。
3.根据权利要求1所述的一种基于候选区域和邻域分类器的弱监督图像语义分割方法,其特征在于:步骤三包括以下步骤,
1)、构建由候选区域特征作为条件属性,语义标签类别作为决策属性的决策表DT;
2)、基于邻域分类器属性约简对决策表进行属性约简,获得每一个属性的重要度SIG(a,B,D)=γB(D)-γB-a(D),γB(D)指D对B的依赖度,进而获得具有判别力的特征,γB-a(D)指D对B-a的依赖度,a是B中的某一个属性,B指条件属性集,D指决策属性集;
3)、基于有判别力的特征输入邻域分类器学习。
4.根据权利要求1所述的一种基于候选区域和邻域分类器的弱监督图像语义分割方法,其特征在于:步骤四包括以下步骤
1)、与训练阶段在相同的参数下对测试图像进行超像素分割和超像素合并;
2)、基于R-CNN、颜色和纹理的特征提取,获得由候选区域组成的测试图像;
3)、以候选区域为基本单元输入到邻域分类器进行预测,输出每一个像素的预测标签,获得基于有判别力的特征的测试图像标签预测。
CN201910627073.6A 2019-07-11 2019-07-11 基于候选区域和邻域分类器的弱监督图像语义分割方法 Active CN110378911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910627073.6A CN110378911B (zh) 2019-07-11 2019-07-11 基于候选区域和邻域分类器的弱监督图像语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910627073.6A CN110378911B (zh) 2019-07-11 2019-07-11 基于候选区域和邻域分类器的弱监督图像语义分割方法

Publications (2)

Publication Number Publication Date
CN110378911A CN110378911A (zh) 2019-10-25
CN110378911B true CN110378911B (zh) 2022-06-21

Family

ID=68252763

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910627073.6A Active CN110378911B (zh) 2019-07-11 2019-07-11 基于候选区域和邻域分类器的弱监督图像语义分割方法

Country Status (1)

Country Link
CN (1) CN110378911B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080551B (zh) * 2019-12-13 2023-05-05 太原科技大学 基于深度卷积特征和语义近邻的多标签图像补全方法
CN111259936B (zh) * 2020-01-09 2021-06-01 北京科技大学 一种基于单一像素标注的图像语义分割方法及系统
CN111723813B (zh) * 2020-06-05 2021-07-06 中国科学院自动化研究所 基于类内判别器的弱监督图像语义分割方法、系统、装置
CN113033571A (zh) * 2021-03-31 2021-06-25 太原科技大学 基于增强特征融合的交通场景图像语义分割方法
CN115457484B (zh) * 2022-11-10 2023-02-07 梁山华鲁专用汽车制造有限公司 一种用于半挂车自动卸货的控制方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2154631A2 (en) * 2008-08-14 2010-02-17 Xerox Corporation System and method for object class localization and semantic class based image segmentation
JP2013117860A (ja) * 2011-12-02 2013-06-13 Canon Inc 画像処理方法、画像処理装置、撮像装置およびプログラム
CN105678297A (zh) * 2015-12-29 2016-06-15 南京大学 一种基于标签转移及lstm模型的人像语义分析的方法及系统
CN106611427A (zh) * 2015-10-21 2017-05-03 中国人民解放军理工大学 基于候选区域融合的视频显著性检测方法
CN108229478A (zh) * 2017-06-30 2018-06-29 深圳市商汤科技有限公司 图像语义分割及训练方法和装置、电子设备、存储介质和程序
US10037610B1 (en) * 2017-10-03 2018-07-31 StradVision, Inc. Method for tracking and segmenting a target object in an image using Markov Chain, and device using the same
CN108596240A (zh) * 2018-04-20 2018-09-28 华中科技大学 一种基于判别特征网络的图像语义分割方法
CN109255790A (zh) * 2018-07-27 2019-01-22 北京工业大学 一种弱监督语义分割的自动图像标注方法
CN109684932A (zh) * 2018-11-30 2019-04-26 华南农业大学 一种基于双目视觉的托盘位姿识别方法
CN109685067A (zh) * 2018-12-26 2019-04-26 江西理工大学 一种基于区域和深度残差网络的图像语义分割方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2154631A2 (en) * 2008-08-14 2010-02-17 Xerox Corporation System and method for object class localization and semantic class based image segmentation
JP2013117860A (ja) * 2011-12-02 2013-06-13 Canon Inc 画像処理方法、画像処理装置、撮像装置およびプログラム
CN106611427A (zh) * 2015-10-21 2017-05-03 中国人民解放军理工大学 基于候选区域融合的视频显著性检测方法
CN105678297A (zh) * 2015-12-29 2016-06-15 南京大学 一种基于标签转移及lstm模型的人像语义分析的方法及系统
CN108229478A (zh) * 2017-06-30 2018-06-29 深圳市商汤科技有限公司 图像语义分割及训练方法和装置、电子设备、存储介质和程序
US10037610B1 (en) * 2017-10-03 2018-07-31 StradVision, Inc. Method for tracking and segmenting a target object in an image using Markov Chain, and device using the same
CN108596240A (zh) * 2018-04-20 2018-09-28 华中科技大学 一种基于判别特征网络的图像语义分割方法
CN109255790A (zh) * 2018-07-27 2019-01-22 北京工业大学 一种弱监督语义分割的自动图像标注方法
CN109684932A (zh) * 2018-11-30 2019-04-26 华南农业大学 一种基于双目视觉的托盘位姿识别方法
CN109685067A (zh) * 2018-12-26 2019-04-26 江西理工大学 一种基于区域和深度残差网络的图像语义分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
High precision image segmentation algorithm using SLIC and neighborhood rough set;Xinlin Xie等;《Multimedia Tools and Applications》;20180608;第12353-12371页 *
一种基于区域建议网络的图像语义分割方法;杨志尧等;《计算机与现代化》;20180215(第02期);第122-126页 *
基于支持向量机的图像语义提取研究;谢刚等;《太原理工大学学报》;20111115(第06期);第563-565页 *
基于深度卷积神经网络的弱监督图像语义分割;郑宝玉等;《南京邮电大学学报(自然科学版)》;20181113(第05期);第1-12页 *

Also Published As

Publication number Publication date
CN110378911A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
CN110378911B (zh) 基于候选区域和邻域分类器的弱监督图像语义分割方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
Tsai et al. Image co-saliency detection and co-segmentation via progressive joint optimization
Xiao et al. A weakly supervised semantic segmentation network by aggregating seed cues: the multi-object proposal generation perspective
Galleguillos et al. Context based object categorization: A critical survey
Endres et al. Category-independent object proposals with diverse ranking
Kim et al. Color–texture segmentation using unsupervised graph cuts
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
Meng et al. Weakly supervised semantic segmentation by a class-level multiple group cosegmentation and foreground fusion strategy
CN107622280B (zh) 基于场景分类的模块化处方式图像显著性检测方法
Feng et al. A color image segmentation method based on region salient color and fuzzy c-means algorithm
CN113592894B (zh) 一种基于边界框和同现特征预测的图像分割方法
CN111523421A (zh) 基于深度学习融合各种交互信息的多人行为检测方法及系统
CN115410059B (zh) 基于对比损失的遥感图像部分监督变化检测方法及设备
Wang et al. S 3 d: scalable pedestrian detection via score scale surface discrimination
CN110738672A (zh) 一种基于分层高阶条件随机场的图像分割方法
CN107657276B (zh) 一种基于寻找语义类簇的弱监督语义分割方法
Wang et al. Global manifold learning for interactive image segmentation
Nemade et al. Image segmentation using convolutional neural network for image annotation
Lei et al. Image Segmentation: Principles, Techniques, and Applications
Ullah et al. DSFMA: Deeply supervised fully convolutional neural networks based on multi-level aggregation for saliency detection
Mukherjee et al. Segmentation of natural images based on super pixel and graph merging
Martin et al. A learning approach for adaptive image segmentation
Turtinen et al. Contextual analysis of textured scene images.
Chen et al. Saliency prediction by Mahalanobis distance of topological feature on deep color components

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant