CN107256412B - 一种基于多人眼感知分组特性的图构造方法 - Google Patents

一种基于多人眼感知分组特性的图构造方法 Download PDF

Info

Publication number
CN107256412B
CN107256412B CN201710388983.4A CN201710388983A CN107256412B CN 107256412 B CN107256412 B CN 107256412B CN 201710388983 A CN201710388983 A CN 201710388983A CN 107256412 B CN107256412 B CN 107256412B
Authority
CN
China
Prior art keywords
pixel
super
color
texture
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710388983.4A
Other languages
English (en)
Other versions
CN107256412A (zh
Inventor
张金霞
魏海坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201710388983.4A priority Critical patent/CN107256412B/zh
Publication of CN107256412A publication Critical patent/CN107256412A/zh
Application granted granted Critical
Publication of CN107256412B publication Critical patent/CN107256412B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于多人眼感知分组特性的图构造方法,包括以下步骤:将待处理图像过分割成多个超像素,并将超像素定义为图的顶点;基于人眼感知分组特性中的空间邻近特性,将在图像空间中相邻的超像素相连,作为图的一部分边;基于人眼感知分组特性中的颜色相似特性,将图像中颜色特征相似的超像素相连,作为图的另一部分边;基于人眼感知分组特性的纹理相似特性,将图像中纹理特征相似的超像素相连,作为图的又一部分边;基于PRSVM算法,学习空间邻近度、颜色相似性和纹理相似性对图中边权的作用大小;将图的边权定义为相连的两个超像素之间空间邻近度、颜色相似性和纹理相似性的加权和。本发明充分考虑人眼的多种感知分组特性,有效描述图像中各区域之间的关系,有助于对图像中的目标进行检测。

Description

一种基于多人眼感知分组特性的图构造方法
技术领域
本发明属于图像处理技术,具体涉及一种基于多人眼感知分组特性的图构造方法。
背景技术
对于计算机视觉和图像处理而言,图能够直观描述图像中各区域之间的关系,是一种有效的信息表示方法。此外,图作为一个数学分支,有着深厚的数学理论背景和概括力强的优点。现有很多研究工作基于图对计算机视觉和图像进行处理,包括半监督的分类和降维方法,以及无监督的谱聚类算法等。
尽管图是基于图的算法的核心,但是对于图构造的问题确相对较少地受到研究和关注。大部分工作基于k近邻的方法对图进行构造。这些图构造方法的性能非常依赖于所选取的k值。此外,这些图构造方法认为每种特征(比如说颜色、位置和纹理特征)的作用是相同的,按这种特征作用相同的方式来计算边权使得在复杂图像中的检测效果不佳。
另外,一部分用于图像处理的方法通过连接空间相邻的图像区域来对图进行构造,这种图构造方法仅仅考虑了人眼感知分组特性中的空间邻近特性,在处理复杂图像时性能有待提高。
发明内容
发明目的:本发明的目的在于解决现有技术中存在的不足,提供一种基于多人眼感知分组特性的图构造方法。
技术方案:本发明的一种基于多人眼感知分组特性的图构造方法,依次包括以下步骤:
S1:基于现有的Simple Linear Iterative Clustering(SLIC)算法,将待处理图像过分割成多个超像素,并将超像素定义为所构造图的顶点;
S2:基于人眼感知分组特性中的空间邻近特性,将在图像空间中相邻的超像素相连,作为图的一部分边;空间邻近特性表示在空间上相近的区域很有可能被感知分组到同一个物体之内;
S3:基于人眼感知分组特性中的颜色相似特性,将图像中颜色特征相似的超像素相连,作为图的另一部分边;颜色相似特性是指具有相似颜色特征的区域更有可能被感知分组为同一物体;
S4:基于人眼感知分组特性的纹理相似特性,将图像中纹理特征相似的超像素相连,作为图的又一部分边;纹理相似特性是指具有相似纹理特征的区域更有可能被感知分组为同一物体;
S5:基于PRSVM算法,学习顶点间的空间邻近度、颜色相似度和纹理相似度对相连顶点间边权的作用大小;根据空间邻近度、颜色相似度和纹理相似度对边权的作用大小,将顶点间的不同感知分组特性进行加权求和,获得图的边权。
进一步的,所述步骤S1中,将待处理的图像过分割成300个同质的超像素,用R表示这些超像素集合,将这些超像素定义为所构造图的顶点;其中,各超像素的空间特征、颜色特征和纹理特征分别定义为对应超像素中各像素点在图像坐标位置、CIELAB颜色空间和LBP纹理空间中的平均值,每一个图像都将其各超像素的空间特征、颜色特征和纹理特征归一化到[0,1]之间。
进一步的,所述步骤S2中,将图像空间中相邻的超像素定义为在图像中存在共享轮廓线的超像素;用大小为300*300的邻接矩阵A记录两两超像素在图像中是否具有共享轮廓线,用Ri和Rj(i和j是对应超像素下标,1≤i,j≤300)代表两个超像素:如果Aij=1,那么两个超像素Ri和Rj在图像中具有共享轮廓线即边(Ri,Rj)∈E;否则,这两个超像素在图像中不具有共享轮廓线,E代表所构造图中边的集合。
进一步的,所述步骤S3中,将颜色距离Dcolor小于0.15的超像素定义为颜色特征相似的超像素,即:如果两个超像素Ri和Rj的颜色距离Dcolor(Ri,Rj)小于0.15,那么这两个超像素进行相连获得图的一条边,即边(Ri,Rj)∈E,E代表所构造图中边的集合;其中,两个超像素之间的颜色距离Dcolor是指这两个超像素颜色特征的欧几里得距离。
进一步的,所述步骤S4中,将纹理距离Dtexture小于0.15的超像素定义为纹理特征相似的超像素,即:如果两个超像素Ri和Rj的纹理距离Dtexture(Ri,Rj)小于0.15,那么将这两个超像素进行相连获得图的一条边,即边(Ri,Rj)∈E;其中,两个超像素之间的纹理距离Dtexture是指这两个超像素纹理特征的欧几里得距离。
进一步的,在所述步骤S5中:两个超像素Ri和Rj之间的空间相近度Sspace(Ri,Rj)、颜色相似度Scolor(Ri,Rj)和纹理相似度Stexture(Ri,Rj)根据高斯核函数进行计算,如下式所示:
在上式中,尺度参数σ2是控制距离对相似度影响的一个常数,设置为0.1,Dspace、Dcolor和Dtexture分别表示两个超像素之间的空间距离、颜色距离和纹理距离,分别定义为两个超像素空间位置特征、颜色特征和纹理特征的欧几里得距离。
进一步的,所述步骤S5中,将边的权重定义为两个超像素之间空间邻近度、颜色相似度和纹理相似度的加权和,如下式所示:
W(Ri,Rj)=α1Sspace(Ri,Rj)+α2Scolor(Ri,Rj)+α2Stexture(Ri,Rj)
α=[α1;α2;α3]是相似度对边权的作用大小向量,其中α1、α2和α3分别表示空间邻近度、颜色相似度和纹理相似度对边权的作用大小。
进一步的,基于PRSVM算法,学习顶点间的空间邻近度、颜色相似度和纹理相似度对相连顶点间边权的作用大小。目标是学习得到一个边权函数,使得对于任一超像素Rk,如果超像素Ri比超像素Rj更有可能与Rk感知分组到一起,那么Ri和Rk之间边的权重应该大于Rj和Rk之间边的权重。为了学习得到最终的边权,获得适用于显著目标检测问题的图像感知分组结果,在显著目标检测数据库上进行训练,而训练所需的正负样本选取方式如下所述。
将属于同一类别(显著目标或图像背景)的超像素对作为正样本,记为V+,正样本的特征X(V+)由对应超像素对的空间邻近度、颜色相似度和纹理相似度组成:X(V+)=[Sspace(V+);Scolor(V+);Stexture(V+)];将不属于同一类别(一个属于显著目标而另一个属于图像背景)的超像素对作为负样本,记为V-,负样本的特征X(V-)由对应超像素对的空间邻近度、颜色相似度和纹理相似度组成:X(V-)=[Sspace(V-);Scolor(V-);Stexture(V-)]。
通过解决如下的优化问题计算空间邻近度、颜色相似度和纹理相似度对边权的重要性;
在上式中,P中包含了所有的正负样本对,C>0是一个惩罚系数,表示对误差的宽容度。有益效果:本发明从人眼有效的感知分组认知特性出发,结合多种感知分组认知特性选取图的边,并且基于PRSVM算法解决多种感知分组认知特性的整合问题得到图的边权;充分考虑人眼有效的先验认知特性,有助于提高基于图的算法的性能;而且本发明将该图构造方法应用于图像中的显著目标检测算法研究中,能够提高显著目标检测的检测准确率(Precision)和召回率(Recall)。
附图说明
图1为实施例的整体流程示意图;
图2为本发明应用于显著目标检测问题时,与九种显著目标检测方法的视觉比较图。
具体实施方式
下面对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
如图1所示,本实施例的基于多人眼感知分组特性的图构造方法,依次包括以下步骤:
S1:基于现有的Simple Linear Iterative Clustering(SLIC)算法,将待处理图像过分割成多个超像素,并将超像素定义为所构造图的顶点。
在本实施例中,将待处理的图像过分割成300个同质的超像素(用R表示这些超像素集合),将这些超像素定义为所构造图的顶点。各超像素的空间特征、颜色特征和纹理特征分别定义为对应超像素中各像素点在图像坐标位置、CIELAB颜色空间和LBP纹理空间中的平均值。每一个图像都将其各超像素的空间特征、颜色特征和纹理特征归一化到[0,1]之间。
S2:基于人眼感知分组特性中的空间邻近特性,将在图像空间中相邻的超像素相连,作为图的一部分边。空间邻近特性表示在空间上相近的区域很有可能被感知分组到同一个物体之内。
在本实施例中,用大小为300*300的邻接矩阵A记录两两超像素在图像中是否具有共享轮廓线,用Ri和Rj(i和j是超像素下标,1≤i,j≤300)代表两个超像素:如果Aij=1,那么两个超像素Ri和Rj在图像中具有共享轮廓线;否则,这两个超像素在图像中不具有共享轮廓线。用E代表所构造图中边的集合。将图像空间中相邻的超像素定义为在图像中存在共享轮廓线的超像素。如果两个超像素Ri和Rj在图像中具有共享轮廓线(即Aij=1),那么这两个超像素进行相连获得图的一条边(即边(Ri,Rj)∈E)。
S3:基于人眼感知分组特性中的颜色相似特性,将图像中颜色特征相似的超像素相连,作为图的一部分边;颜色相似特性是指具有相似颜色特征的区域更有可能被感知分组为同一物体;
在本实施例中,将颜色距离Dcolor小于0.15的超像素定义为颜色特征相似的超像素。也就是说,如果两个超像素Ri和Rj的颜色距离Dcolor(Ri,Rj)小于0.15,那么这两个超像素进行相连获得图的一条边(即边(Ri,Rj)∈E)。其中,两个超像素之间的颜色距离Dcolor定义为这两个超像素颜色特征的欧几里得距离。
S4:基于人眼感知分组特性的纹理相似特性,将图像中纹理特征相似的超像素相连,作为图的一部分边;纹理相似特性是指具有相似纹理特征的区域更有可能被感知分组为同一物体;
在本实施例中,将纹理距离Dtexture小于0.15的超像素定义为纹理特征相似的超像素。也就是说,如果两个超像素Ri和Rj的纹理距离Dtexture(Ri,Rj)小于0.15,那么将这两个超像素进行相连获得图的一条边(即边(Ri,Rj)∈E)。其中,两个超像素之间的纹理距离Dtexture定义为这两个超像素纹理特征的欧几里得距离。
S5:将边的权重定义为两个超像素之间空间邻近度、颜色相似度和纹理相似度的加权和,如下式所示。
W(Ri,Rj)=α1Sspace(Ri,Rj)+α2Scolor(Ri,Rj)+α2Stexture(Ri,Rj)
α=[α1;α2;α3]是相似度对边权的作用大小向量。其中α1、α2和α3分别表示空间邻近度、颜色相似度和纹理相似度对边权的作用大小。两个超像素Ri和Rj之间的空间相近度Sspace(Ri,Rj)、颜色相似度Scolor(Ri,Rj)和纹理相似度Stexture(Ri,Rj)根据高斯核函数进行计算,如下式所示:
在上式中,尺度参数σ2是控制距离对相似度影响的一个常数。在本发明中设置为0.1。Dspace、Dcolor和Dtexture分别表示两个超像素之间的空间距离、颜色距离和纹理距离,分别定义为两个超像素空间位置特征、颜色特征和纹理特征的欧几里得距离。
基于PRSVM算法,学习顶点间的空间邻近度、颜色相似度和纹理相似度对相连顶点间边权的作用大小。目标是学习得到一个边权函数,使得对于任一超像素Rk,如果超像素Ri比超像素Rj更有可能与Rk感知分组到一起,那么Ri和Rk之间边的权重应该大于Rj和Rk之间边的权重。为了学习得到最终的边权,获得适用于显著目标检测问题的图像感知分组结果,在显著目标检测数据库上进行训练,而训练所需的正负样本选取方式如下所述。将属于同一类别(显著目标或图像背景)的超像素对作为正样本,记为V+。正样本的特征X(V+)由对应超像素对的空间邻近度、颜色相似度和纹理相似度组成:X(V+)=[Sspace(V+);Scolor(V+);Stexture(V+)]。将不属于同一类别(一个属于显著目标而另一个属于图像背景)的超像素对作为负样本,记为V-。负样本的特征X(V-)由对应超像素对的空间邻近度、颜色相似度和纹理相似度组成:X(V-)=[Sspace(V-);Scolor(V-);Stexture(V-)]。本发明通过解决如下的优化问题计算空间邻近度、颜色相似度和纹理相似度对边权的重要性。
在上式中,P中包含了所有的正负样本对。C>0是一个惩罚系数,表示对误差的宽容度。
为验证本发明提供的图构造方法的有效性,下面使用该方法构造图并应用于显著目标检测问题:基于所构造的图,使用下述函数对图像中的显著目标进行检测:
F*=(D-αW)-1Q
上式中,矩阵W记录了根据本发明方法所得的边权。D是一个对角矩阵,记录所构造图中各顶点的度:第i个顶点的度D(i,i)等于邻接矩阵W中第i行的所有元素之和。α是[0,1)之间的参数,表明了在计算某超像素的显著值时,与该超像素相连的其他超像素的显著值和该超像素的初始值之间的相对贡献。在实验中,将α设置为0.99。
Q是初始状态向量,表明所构造图中哪些顶点为查询顶点。实验中,首先分别使用位于图像四条边上的超像素作为背景查询顶点得到四个相应的临时结果,将这四个临时结果相乘得到初始显著图,然后使用这个初始显著图的平均值作为阈值将该图进行分割得到前景和背景,最后使用前景区域作为前景查询顶点计算得到最终的显著图。
此处,使用平均准确率mAP在MSRA10K和ECSSD数据库上进行了实验,并将基于所构造图的显著目标检测方法和9种当前最好的显著目标检测方法进行了对比。这9种方法分别是:MST方法、GP方法、CL方法、BD方法、GR方法、HM方法、CB方法、RC方法、FT方法。本发明的方法则简称为Ours。
MSRA10K数据库包含了10000幅测试图像,每张图像对应有人工的像素级的显著性标注。各种方法产生的显著图在MSRA10K数据库上的平均准确率mAP评测结果如下表所示。在比较的9种方法种,GP、CL、BD、GR和HM方法都是基于图的显著目标检测方法。从表中可见,本发明提供的图构造方法使得显著目标检测的性能优于其他基于图的方法。
表1.多种显著目标检测方法在MSRA10K数据库上的性能比较
方法名称 Ours MST GP CL BD
mAP 0.9236 0.8725 0.9122 0.8743 0.9053
方法名称 GR HM CB RC FT
mAP 0.8963 0.8757 0.8610 0.8174 0.5976
ECSSD数据库包含了1000张前景和背景均比较复杂的图像,每张图像对应有人工的像素级的显著性标注。各种方法产生的显著图在ECSSD数据库上的平均准确率mAP评测结果如下表所示。从表中可见,各种方法在该数据库上的性能都低于在MSRA10K数据库上的性能,说明复杂的自然场景图像更难检测出显著目标。本发明优于其他显著目标检测方法,说明本发明提供的图构造方法有利于在复杂自然场景图像中检测出显著目标。
表2 多种显著目标检测方法在ECSSD数据库上的性能比较
方法名称 Ours MST GP CL BD
mAP 0.8015 0.7475 0.7863 0.7568 0.7659
方法名称 GR HM CB RC FT
mAP 0.7865 0.7635 0.7514 0.6842 0.4526
为进一步说明本发明的有效性,本发明与其他九种不同显著目标检测方法的检测结果进行了视觉比较,如图2所示,第a列是输入的原图,第b列是人工标注的真值图,第c列是本发明的检测结果,其他各列是其余不同方法的检测结果。比较的第一幅图中包含了复杂的前景,其他方法只检测出了显著前景目标的一部分,而本发明能够更统一地高亮出显著前景目标。比较的第二幅图中包含了复杂的背景,其他方法容易错误地高亮背景区域,而本发明能够更好地抑制图像背景区域。可见,本发明有助于在复杂自然场景图像中检测出显著目标,使得检测结果与人工标注的真值图更加一致。

Claims (8)

1.一种基于多人眼感知分组特性的图构造方法,其特征在于:依次包括以下步骤:
S1:基于现有的Simple Linear Iterative Clustering算法,将待处理图像过分割成多个超像素,并将超像素定义为所构造图的顶点;
S2:基于人眼感知分组特性中的空间邻近特性,将在图像空间中相邻的超像素相连,作为图的一部分边;空间邻近特性表示在空间上相近的区域将被感知分组到同一个物体之内;
S3:基于人眼感知分组特性中的颜色相似特性,将图像中颜色特征相似的超像素相连,作为图的另一部分边;颜色相似特性是指具有相似颜色特征的区域将被感知分组为同一物体;
S4:基于人眼感知分组特性的纹理相似特性,将图像中纹理特征相似的超像素相连,作为图的又一部分边;纹理相似特性是指具有相似纹理特征的区域将被感知分组为同一物体;
S5:基于Primal-based Ranking Support Vector Machine算法,学习顶点间的空间邻近度、颜色相似度和纹理相似度对相连顶点间边权的作用大小;根据空间邻近度、颜色相似度和纹理相似度对边权的作用大小,将顶点间的不同感知分组特性进行加权求和,获得图的边权。
2.根据权利要求1所述的基于多人眼感知分组特性的图构造方法,其特征在于:所述步骤S1中,将待处理的图像过分割成300个同质的超像素,用R表示这些超像素集合,将这些超像素定义为所构造图的顶点;其中,各超像素的空间特征、颜色特征和纹理特征分别定义为对应超像素中各像素点在图像坐标位置、CIELAB颜色空间和LBP纹理空间中的平均值,每一个图像都将其各超像素的空间特征、颜色特征和纹理特征归一化到[0,1]之间。
3.根据权利要求1所述的基于多人眼感知分组特性的图构造方法,其特征在于:所述步骤S2中,将图像空间中相邻的超像素定义为在图像中存在共享轮廓线的超像素;用大小为300*300的邻接矩阵A记录两两超像素在图像中是否具有共享轮廓线,用Ri和Rj分别代表两个超像素,i和j是对应超像素下标,1≤i,j≤300:如果Aij=1,那么两个超像素Ri和Rj在图像中具有共享轮廓线,即边(Ri,Rj)∈E;否则,这两个超像素在图像中不具有共享轮廓线,E代表所构造图中边的集合。
4.根据权利要求1所述的基于多人眼感知分组特性的图构造方法,其特征在于:所述步骤S3中,将颜色距离Dcolor小于0.15的超像素定义为颜色特征相似的超像素,即:如果两个超像素Ri和Rj的颜色距离Dcolor(Ri,Rj)小于0.15,那么这两个超像素进行相连获得图的一条边,即边(Ri,Rj)∈E,E代表所构造图中边的集合;其中,两个超像素之间的颜色距离Dcolor是指这两个超像素颜色特征的欧几里得距离,i和j是对应超像素下标,1≤i,j≤300。
5.根据权利要求1所述的基于多人眼感知分组特性的图构造方法,其特征在于:所述步骤S4中,将纹理距离Dtexture小于0.15的超像素定义为纹理特征相似的超像素,即:如果两个超像素Ri和Rj的纹理距离Dtexture(Ri,Rj)小于0.15,那么将这两个超像素进行相连获得图的一条边,即边(Ri,Rj)∈E;其中,两个超像素之间的纹理距离Dtexture是指这两个超像素纹理特征的欧几里得距离,i和j是对应超像素下标,1≤i,j≤300。
6.根据权利要求1所述的基于多人眼感知分组特性的图构造方法,其特征在于:在所述步骤S5中:两个超像素Ri和Rj之间的空间相近度Sspace(Ri,Rj)、颜色相似度Scolor(Ri,Rj)和纹理相似度Stexture(Ri,Rj)根据高斯核函数进行计算,如下式所示:
在上式中,尺度参数σ2是控制距离对相似度影响的一个常数,设置为0.1,Dspace、Dcolor和Dtexture分别表示两个超像素之间的空间距离、颜色距离和纹理距离,分别定义为两个超像素空间位置特征、颜色特征和纹理特征的欧几里得距离,i和j是对应超像素下标,1≤i,j≤300。
7.根据权利要求6所述的基于多人眼感知分组特性的图构造方法,其特征在于:所述步骤S5中,将边的权重定义为两个超像素之间空间邻近度、颜色相似度和纹理相似度的加权和,如下式所示:
W(Ri,Rj)=α1Sspace(Ri,Rj)+α2Scolor(Ri,Rj)+α2Stexture(Ri,Rj)
α=[α1;α2;α3]是相似度对边权的作用大小向量,其中α1、α2和α3分别表示空间邻近度、颜色相似度和纹理相似度对边权的作用大小,i和j是对应超像素下标,1≤i,j≤300。
8.根据权利要求7所述的基于多人眼感知分组特性的图构造方法,其特征在于:基于PRSVM算法,为学习得到最终的边权,获得适用于显著目标检测问题的图像感知分组结果,在显著目标检测数据库上进行训练,而训练所需的正负样本选取方式如下所述:
将属于同一类别的超像素对作为正样本,记为V+,正样本的特征X(V+)由对应超像素对的空间邻近度、颜色相似度和纹理相似度组成:X(V+)=[Sspace(V+);Scolor(V+);Stexture(V+)];此处属于同一类别是指同属于一个显著目标或图像背景;
将不属于同一类别的超像素对作为负样本,记为V-,负样本的特征X(V-)由对应超像素对的空间邻近度、颜色相似度和纹理相似度组成:X(V-)=[Sspace(V-);Scolor(V-);Stexture(V-)];此处不同属于同一类别是指一个属于显著目标而另一个属于图像背景;
通过解决如下的优化问题计算空间邻近度、颜色相似度和纹理相似度对边权的重要性;
在上式中,P中包含了所有的正负样本对,C>0是一个惩罚系数,表示对误差的宽容度。
CN201710388983.4A 2017-05-26 2017-05-26 一种基于多人眼感知分组特性的图构造方法 Active CN107256412B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710388983.4A CN107256412B (zh) 2017-05-26 2017-05-26 一种基于多人眼感知分组特性的图构造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710388983.4A CN107256412B (zh) 2017-05-26 2017-05-26 一种基于多人眼感知分组特性的图构造方法

Publications (2)

Publication Number Publication Date
CN107256412A CN107256412A (zh) 2017-10-17
CN107256412B true CN107256412B (zh) 2019-07-12

Family

ID=60028225

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710388983.4A Active CN107256412B (zh) 2017-05-26 2017-05-26 一种基于多人眼感知分组特性的图构造方法

Country Status (1)

Country Link
CN (1) CN107256412B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052939A (zh) * 2017-11-30 2018-05-18 东南大学 一种基于多图优化和稀有特性的显著目标检测方法
CN108230409B (zh) * 2018-03-28 2020-04-17 南京大学 基于颜色和内容多因素综合的图像相似性定量分析方法
CN109522909B (zh) * 2018-11-26 2022-03-11 东南大学 一种基于空间、颜色和中央偏置先验的概率超图构造方法
CN109559364B (zh) * 2018-11-27 2023-05-30 东南大学 一种基于平滑约束的图构造方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103177450A (zh) * 2013-04-11 2013-06-26 北京航空航天大学 一种基于构件集采样的图像场景分割与分层联合求解方法
CN104240244A (zh) * 2014-09-10 2014-12-24 上海交通大学 一种基于传播模式和流形排序的显著性物体检测方法
CN105809672A (zh) * 2016-03-03 2016-07-27 浙江大学 一种基于超像素和结构化约束的图像多目标协同分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103177450A (zh) * 2013-04-11 2013-06-26 北京航空航天大学 一种基于构件集采样的图像场景分割与分层联合求解方法
CN104240244A (zh) * 2014-09-10 2014-12-24 上海交通大学 一种基于传播模式和流形排序的显著性物体检测方法
CN105809672A (zh) * 2016-03-03 2016-07-27 浙江大学 一种基于超像素和结构化约束的图像多目标协同分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A HYPERSPECTRAL IMAGE SPECTRAL UNMIXING METHOD INTEGRATING SLIC;Xu Sun等;《2015 7th Workshop on Hyperspectral Image and Signal Processing: Evolution in Remote Sensing (WHISPERS)》;20150605;全文
Modified versions of SLIC algorithm for generating superpixels in hyperspectral images;Athina Psalta等;《 2016 8th Workshop on Hyperspectral Image and Signal Processing: Evolution in Remote Sensing (WHISPERS)》;20160824;全文
基于图的彩色图像目标分割算法研究;朱利妍;《中国优秀硕士学位论文全文数据库信息科技辑》;20120731(第7期);全文
视觉显著性及其在自动目标识别系统中的应用;漆昇翔;《中国博士学位论文全文数据库信息科技辑》;20160731;全文

Also Published As

Publication number Publication date
CN107256412A (zh) 2017-10-17

Similar Documents

Publication Publication Date Title
CN107564025B (zh) 一种基于深度神经网络的电力设备红外图像语义分割方法
Yuan et al. Factorization-based texture segmentation
CN107256412B (zh) 一种基于多人眼感知分组特性的图构造方法
CN107103326B (zh) 基于超像素聚类的协同显著性检测方法
CN107657226B (zh) 一种基于深度学习的人数估计方法
Wang et al. Joint learning of visual attributes, object classes and visual saliency
CN108305240B (zh) 图像质量检测方法及装置
Kim et al. Color–texture segmentation using unsupervised graph cuts
CN108549891A (zh) 基于背景与目标先验的多尺度扩散显著目标检测方法
CN103208097B (zh) 图像多方向形态结构分组的主分量分析协同滤波方法
CN108846404B (zh) 一种基于相关约束图排序的图像显著性检测方法及装置
CN103996195A (zh) 一种图像显著性检测方法
CN107239777B (zh) 一种基于多视角图模型的餐具检测和识别方法
CN110569738A (zh) 基于密集连接网络的自然场景文本检测方法、设备和介质
Tzeng et al. A parallel differential box-counting algorithm applied to hyperspectral image classification
CN108764676B (zh) 一种高维多目标评价方法及系统
CN110879982A (zh) 一种人群计数系统及方法
CN104392233B (zh) 一种基于区域的图像显著图提取方法
CN105374047B (zh) 基于改进的双边滤波与聚类的sar图像变化检测方法
CN105956570B (zh) 基于唇部特征和深度学习的笑脸识别方法
CN110276363A (zh) 一种基于密度图估计的鸟类小目标检测方法
CN107392211B (zh) 基于视觉稀疏认知的显著目标检测方法
CN111091129A (zh) 一种基于多重颜色特征流形排序的图像显著区域提取方法
CN110766657A (zh) 一种激光干扰图像质量评价方法
CN111460966B (zh) 基于度量学习和近邻增强的高光谱遥感图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant