CN105976378A - 基于图模型的显著性目标检测方法 - Google Patents
基于图模型的显著性目标检测方法 Download PDFInfo
- Publication number
- CN105976378A CN105976378A CN201610303847.6A CN201610303847A CN105976378A CN 105976378 A CN105976378 A CN 105976378A CN 201610303847 A CN201610303847 A CN 201610303847A CN 105976378 A CN105976378 A CN 105976378A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- region
- represent
- limit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于图模型的显著性目标检测方法,首先,使用MRF全局势能最小化的图像平滑处理,提高六边形排列迭代聚类HAIC算法的聚类效果;利用基于改进的图模型进行图像分割时,动态设置阈值使得颜色上相似且空间连通的区域更好地分割到同一区域;使用吸引子传播聚类方法对边缘丰富的区域进行合并,改善图像边缘过分割现象。其次,根据超像素之间的流形结构,采用流形排序算法对得到的显著图进行优化,能在最终的显著图中进一步突出整个显著区域。
Description
技术领域
本发明属于计算机数据图像处理,具体涉及一种基于图模型的显著性目标检测方法。
背景技术
随着图像数据的爆炸式增长,如何快速有效地解译图像内容成为图像处理中越来越重要的部分,显著性目标检测作为计算机视觉领域用来降低计算复杂度的重要预处理步骤,可以快速地锁定图像中的目标区域,实现对图像内容的高效解析,帮助计算机合理地分配图像处理所需的资源,同时还能加深我们对人类视觉特性的认知与理解。
现有的显著性目标检测方法分为两类:一类是自底向上目标驱动的模型,通常基于底层视觉信息,因此可以有效检测细节信息,而不是全局形状信息。另一类是自顶向下任务驱动的模型,针对训练样本中有代表性的特征,检测结果可能会比较粗糙,缺少细节信息。文献“Saliency Detection via Graph-Based Manifold Ranking.2013IEEEConference on Computer Vision and Pattern Recognition.”提出了一种基于流形排序的显著性检测方法,在超像素聚类的基础上,把图像边缘的超像素看作背景进行流形排序得到初始的显著图。再利用流形排序优化初始显著图得到最终的显著图。但是该方法忽略了超像素之间的相关性,容易导致其不能完整地突出显著性目标,同一个目标中的显著值不一致等情况。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于图模型的显著性目标检测方法。
技术方案
一种基于图模型的显著性目标检测方法,其特征在于步骤如下:
步骤1:采用马尔科夫随机场MRF对需要处理的图像进行平滑处理;
步骤2:采用六边形排列迭代聚类HAIC算法平滑处理后的图像进行超像素聚类;
步骤3:利用图模型进行图像分割,使得在颜色上相似且空间联通的区域被分割到同一区域,过程如下:
步骤3a:将超像素聚类后的图像映射为带权无向图G1=(V1,E1),其中V1为无向图的顶点的集合,E1为连接边的集合;初始化每个超像素vi,i∈[1,N2]作为一个子图节点,对应超像素的标号为Id(vi)=i;每个超像素与其相邻超像素之间存在边,定义连接边的权值为:
其中||||表示欧氏距离,分别代表超像素vi,vj i,j∈[1,N2]在CIELAB颜色空间的颜色均值;
步骤3b:对每个超像素vi,用符号ti表示与vi相连的边的权值均值: 其中是与vi相连超像素的个数;
步骤3c:用符号Int(vi)表示vi内部的不相似度,初始化Int(vi)=0;
步骤3d:将图中所有边的原有权值wij按从小到大排序N3为连接边的个数。定义当前权值ε*,初始时ε*=ε1;
步骤3e:选择当前权值ε*对应的边所连接的超像素vk,vl,k,l∈[1,N2],作为候选合并的超像素;如果ε*对应两条以上的边,则以边的权值下标最小的那条边为准,称为“当前边”;
步骤3f:判断对“当前边”所连接的两个节点是否进行合并,计算子图内的最小差异性:
MInt(vk,vl)=min(Int(vk)+tk,Int(vl)+tl)
如果wkl>MInt(vk,vl),进行下一步骤;否则将vk,vl合并:Id(vl)=Id(vk),更新tk=min(tk,tl),Int(vk)=wkl;
步骤3g:更新当前权值ε*:将中下一个值赋给ε*;若已达到则结束循环,得到基于图模型的图像分割结果共N4个区域;否则返回步骤e;
步骤4:利用吸引子传播聚类算法,对过分割区域进行合并;
步骤5:根据图像的颜色独特性、空间分布紧凑性以及区域面积对显著性的影响计算显著图,过程如下:
步骤5a:以图像中心为原点,将每个像素的坐标归一化到[-1,1]之间;
步骤5b:将颜色差异性与空间位置差异性相结合计算区域Ci,i∈[1,N5]的区域独特性的显著图:
其中D(Ci,Cj)表示两个区域Ci,Cj之间的空间距离
N5为吸引子传播聚类后区域的个数,Mxi,Myi为区域Ci的平均空间坐标,σ1为空间距离在区域独特性计算中的调节系数,分别代表区域Ci,Cj在CIELAB空间的颜色均值,为区域Ci,Cj之间的欧式距离,表示区域Ci在全图中所占的面积比例;
步骤5c:分别计算区域Ci在横坐标与纵坐标上的方差。用Ix表示Ci中的某个像素点,xh,xv分别表示其横、纵坐标。横坐标的方差Vh(Ci)依下式计算:
其中sign(Ix∈Ci)为指示函数,当像素Ix∈Ci时sign(Ix∈Ci)=1,否则 sign(Ix∈Ci)=0;表示区域Ci的横坐标的均值;
同理计算Vv(Ci);
步骤5d:计算区域Ci的空间紧凑性V(Ci),其定义为区域横坐标的方差Vh(Ci)与纵坐标的方差Vv(Ci)之和:
V(Ci)=Vh(Ci)+Vv(Ci)
步骤5e:计算基于空间分布特性的显著图CSD(Ci):
其中代表区域Ci与图像中心的距离。μ1为面积期望占比系数,σ2为面积影响调节系数;
步骤5f:显著图合成,区域Ci显著值为:
Sal(Ci)=U(Ci)*exp(CSD(Ci))
步骤6:利用超像素之间的流行结构进行流行排序得到最终显著图,过程如下:
步骤6a:对得到的显著图进行二值化,提取显著区域SR;显著区域是评判每个超像素显著性的基础;
步骤6b:以步骤2中得到的N2个超像素为节点,构建闭环图模型G2=(V2,E2),其中V2为无向图的顶点的集合,E2为连接边的集合;与图模型G1=(V1,E1)不同的是,图像四个边界上的超像素之间存在互相连接的边,G2中的边权值eij定义为:
其中分别代表超像素vi,vj在CIELAB颜色空间的颜色均值,i,j∈[1,N2],N2为超像素的个数;S(vi)表示超像素vi的邻域超像素的集合,σ3是用于控制相似度的动态范围的调节系数;
步骤6c:将隶属于显著区域SR内的超像素作为已标记节点,其他超像素为非标记节点,得到标记向量该向量中的每一个元素yi依照下式计算:
步骤6d:定义权值矩阵为W={eij|i,j∈[1,N2]},定义度矩阵为
其中
步骤6e:用向量表示超像素对应的显著值,构建如下流行排序策略:
然后依据下式计算出F的最优解F*:
F*=(I-αG)-1y
其中I代表单位阵,G=D1 -1/2WD1 -1/2为权值矩阵W的拉普拉斯归一化矩阵,系数α=1/(1+μ2),其中μ2是平衡调节系数;
步骤6f:用F*中的每个元素除以F*中的最大值,将得到的最优排序结果F*归一化;由于每个超像素块对应一个归一化后的显著值,可得到最终的显著图。
有益效果
本发明提出的一种基于图模型的显著性目标检测方法,在分析了超像素间的空间关系与颜色相关性的基础上,根据超像素之间的邻域关系与颜色差异建模型图。通过吸引子传播聚类算法对过分割区域进行合并。利用全局独特性和空间分布计算显著图。 在此基础上,算法通过构建闭环图模型模拟流形结构,采用流形排序的方法对得到的显著图进行优化,从而提高显著性目标检测的准确率。
本发明的有益效果是:首先,使用MRF全局势能最小化的图像平滑处理,提高六边形排列迭代聚类HAIC算法的聚类效果;利用基于改进的图模型进行图像分割时,动态设置阈值使得颜色上相似且空间连通的区域更好地分割到同一区域;使用吸引子传播聚类方法对边缘丰富的区域进行合并,改善图像边缘过分割现象。其次,根据超像素之间的流形结构,采用流形排序算法对得到的显著图进行优化,能在最终的显著图中进一步突出整个显著区域。
附图说明
图1:是HAIC超像素聚类算法种子点排布图,其中星号为初始化的聚类中心,红色矩形表示候选聚类中心所在的范围。
图2:是本发明基于图模型的显著性目标检测方法流程图。
图3:是基于MRF全局势能最小化的图像平滑流程图。
图4:是HAIC超像素聚类流程图。
图5:是基于图模型的图像分割流程图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
实施方式如下:
步骤1:基于MRF全局势能最小化的图像平滑
a)给定输入图像Im×n,m,n代表图像的长和宽,设置迭代次数N1;
b)对于图像Im×n的每个像素点Iij,记像素点的灰度值为Pij,i∈[1,m],j∈[1,n],将该像素的八邻域看作一个基团xij。用Qi'j'表示基团xij中的每个像素点灰度值,其中 使用符号是i',j'为了表示i',j'的取值不能同时等于i,j,因为基团xij中并不包括像素点Iij。
c)记每个基团xij中的8个像素点对应的灰度值分别为Q1,Q2...Q8,依次计算每个像素点所产生的基团势能Z(k):
d)选择使得基团势能最小的像素的灰度值Qk,用Qk代替Pij,并且迭代次数加1,若迭代次数达到N1,则停止迭代,否则回到步骤b)。
(1)HAIC超像素聚类
a)将平滑后的图像Im×n转化到CIELAB颜色空间,分割成N2个矩形图像块,每个图像块的尺寸为其中把每个图像块作为一个初始聚类,在其中选取一个聚类中心,以向量Bk=[lk,ak,bk,xk,yk]T,k∈[1,N2]来表示其特征,xk,yk为聚类中心的坐标,lk,ak,bk为聚类中心在CIELAB颜色空间的颜色分量。在每个聚类中选取初始聚类中心时,服从正六边形排布,即:任意一个聚类中心与周围六个聚类中心的距离都为如附图1。
b)在梯度图像中选择每个聚类中心5×5邻域内的极小值点作为新的聚类中心;设置图像中每个像素的初始标签l(i,j)=-1,i∈[1,m],j∈[1,n],每个像素到聚类中心的初始距离阈值d(i,j)=∞,i∈[1,m],j∈[1,n]。
c)对于每个聚类中心k,k∈[1,N2]周围半径为2S的圆形闭合邻域δ内的像素点Ii'j'∈δ,定义其到聚类中心k的距离D:
其中,m为权重系数,一般取:m∈[1,40];
其中,li'j',ai'j',bi'j'表示像素点Ii'j'在CIELAB空间的颜色分量,xi'j',yi'j'表示像素点Ii'j'的空间坐标。
如果D≥d(i',j'),Ii'j'∈δ,则跳到步骤d);否则分配像素点Ii'j'到聚类中心k所在的聚类中,并重置距离阈值d(i',j')=D,标签l(i',j')=k。
d)对每个聚类内部的所有像素的[lij,aij,bij,xij,yij]T向量求平均,作为新的聚类中心特征Bk new,代替原来的Bk。
e)如果达到一定的迭代步数或连续两步之间聚类中心不再变化,停止迭代;此时聚类完成,每个聚类称为一个超像素vi,i∈[1,N2],得到的超像素聚类结果为 共有N2个超像素。在本发明中,这些超像素是整个显著性检测的基础。
如果尚未迭代完毕,则继续执行步骤c)。
(2)基于图模型的图像分割
a)将超像素聚类后的图像映射为带权无向图G1=(V1,E1),其中V1为无向图的顶点的集合,E1为连接边的集合。初始化每个超像素vi,i∈[1,N2]作为一个子图节点,对应超像素的标号为Id(vi)=i。每个超像素与其相邻超像素之间存在边,定义连接边的权值为:
其中||||表示欧氏距离,分别代表超像素vi,vj i,j∈[1,N2]在CIELAB颜色空间的颜色均值。
b)对每个超像素vi,用符号ti表示与vi相连的边的权值均值:其中是与vi相连超像素的个数。
c)用符号Int(vi)表示vi内部的不相似度,初始化Int(vi)=0。
d)将图中所有边的原有权值wij按从小到大排序N3为连接边的个数。定义当前权值ε*,初始时ε*=ε1。
e)选择当前权值ε*对应的边所连接的超像素vk,vl,k,l∈[1,N2],作为候选合并的超像素。如果ε*对应两条以上的边,则以边的权值下标最小的那条边为准,称为“当前边”。
f)判断对“当前边”所连接的两个节点是否进行合并。计算子图内的最小差异性:
MInt(vk,vl)=min(Int(vk)+tk,Int(vl)+tl)
如果wkl>MInt(vk,vl),进行下一步骤。否则将vk,vl合并:Id(vl)=Id(vk),更新tk=min(tk,tl),Int(vk)=wkl。
g)更新当前权值ε*:将中下一个值赋给ε*。若已达到则结束循环,得到基于图模型的图像分割结果共N4个区域。否则返回e)。
(3)利用吸引子传播聚类对过分割区域进行合并:
根据下式计算基于图模型分割后的区域之间的相似度矩阵,N4为基于图模型分割后的区域的个数。相似度矩阵的每个元素记作:Similarity(i,j)i,j∈[1,N4],依下式计算:
其中分别代表区域Ai,Aj在CIELAB空间的颜色均值,S(Ai)表示区域Ai相邻区域组成的集合,i,j∈[1,N4],σ是用于控制相似度的动态范围的调节系数。利用吸引子传播聚类算法得到最终的区域分割结果共N5个合并后区域。
(4)显著图计算
a)以图像中心为原点,将每个像素的坐标归一化到[-1,1]之间;
b)将颜色差异性与空间位置差异性相结合计算区域Ci,i∈[1,N5]的区域独特性的显著图:
其中D(Ci,Cj)表示两个区域Ci,Cj之间的空间距离
N5为吸引子传播聚类后区域的个数,Mxi,Myi为区域Ci的平均空间坐标,σ1为空间距离在区域独特性计算中的调节系数,分别代表区域Ci,Cj在CIELAB空间的颜色均值,为区域Ci,Cj之间的欧式距离,表示区域Ci在全图中所占的面积比例。
c)分别计算区域Ci在横坐标与纵坐标上的方差。用Ix表示Ci中的某个像素点, xh,xv分别表示其横、纵坐标。横坐标的方差Vh(Ci)依下式计算:
其中sign(Ix∈Ci)为指示函数,当像素Ix∈Ci时sign(Ix∈Ci)=1,否则sign(Ix∈Ci)=0。表示区域Ci的横坐标的均值。
同理计算Vv(Ci)。
d)计算区域Ci的空间紧凑性V(Ci),其定义为区域横坐标的方差Vh(Ci)与纵坐标的方差Vv(Ci)之和:
V(Ci)=Vh(Ci)+Vv(Ci)
e)计算基于空间分布特性的显著图CSD(Ci):
其中代表区域Ci与图像中心的距离。μ1为面积期望占比系数,σ2为面积影响调节系数。在本实施例中取μ1=0.3,σ2=0.4。
f)显著图合成,区域Ci显著值为:
Sal(Ci)=U(Ci)*exp(CSD(Ci))
(5)基于流行排序的显著图优化
a)对得到的显著图进行二值化,提取显著区域SR。显著区域是评判每个超像素显著性的基础。
b)以步骤(2)中得到的N2个超像素为节点,构建闭环图模型G2=(V2,E2),其中V2为无向图的顶点的集合,E2为连接边的集合。与图模型G1=(V1,E1)不同的是,图像四个边界上的超像素之间存在互相连接的边,G2中的边权值eij定义为:
其中分别代表超像素vi,vj在CIELAB颜色空间的颜色均值,i,j∈[1,N2],N2为超像素的个数。S(vi)表示超像素vi的邻域超像素的集合,σ3是用于控制相似度的动态范围的调节系数。
c)将隶属于显著区域SR内的超像素作为已标记节点,其他超像素为非标记节点,得到标记向量该向量中的每一个元素yi依照下式计算:
d)定义权值矩阵为W={eij|i,j∈[1,N2]},定义度矩阵为其中
e)用向量表示超像素对应的显著值,构建如下流行排序策略:
然后依据下式计算出F的最优解F*:
F*=(I-αG)-1y
其中I代表单位阵,G=D1 -1/2WD1 -1/2为权值矩阵W的拉普拉斯归一化矩阵,系数α=1/(1+μ2),其中μ2是平衡调节系数。
用F*中的每个元素除以F*中的最大值,将得到的最优排序结果F*归一化。由于每个超像素块对应一个归一化后的显著值,可得到最终的显著图。
Claims (1)
1.一种基于图模型的显著性目标检测方法,其特征在于步骤如下:
步骤1:采用马尔科夫随机场MRF对需要处理的图像进行平滑处理;
步骤2:采用六边形排列迭代聚类HAIC算法平滑处理后的图像进行超像素聚类;
步骤3:利用图模型进行图像分割,使得在颜色上相似且空间联通的区域被分割到同一区域,过程如下:
步骤3a:将超像素聚类后的图像映射为带权无向图G1=(V1,E1),其中V1为无向图的顶点的集合,E1为连接边的集合;初始化每个超像素vi,i∈[1,N2]作为一个子图节点,对应超像素的标号为Id(vi)=i;每个超像素与其相邻超像素之间存在边,定义连接边的权值为:
其中|| ||表示欧氏距离,分别代表超像素vi,vji,j∈[1,N2]在CIELAB颜色空间的颜色均值;
步骤3b:对每个超像素vi,用符号ti表示与vi相连的边的权值均值:其中是与vi相连超像素的个数;
步骤3c:用符号Int(vi)表示vi内部的不相似度,初始化Int(vi)=0;
步骤3d:将图中所有边的原有权值wij按从小到大排序N3为连接边的个数。定义当前权值ε*,初始时ε*=ε1;
步骤3e:选择当前权值ε*对应的边所连接的超像素vk,vl,k,l∈[1,N2],作为候选合并的超像素;如果ε*对应两条以上的边,则以边的权值下标最小的那条边为准,称为“当前边”;
步骤3f:判断对“当前边”所连接的两个节点是否进行合并,计算子图内的最小差异性:
MInt(vk,vl)=min(Int(vk)+tk,Int(vl)+tl)
如果wkl>MInt(vk,vl),进行下一步骤;否则将vk,vl合并:Id(vl)=Id(vk),更新tk=min(tk,tl),Int(vk)=wkl;
步骤3g:更新当前权值ε*:将中下一个值赋给ε*;若已达到则结束循环,得到基于图模型的图像分割结果共N4个区域;否则返回步骤e;
步骤4:利用吸引子传播聚类算法,对过分割区域进行合并;
步骤5:根据图像的颜色独特性、空间分布紧凑性以及区域面积对显著性的影响计算显著图,过程如下:
步骤5a:以图像中心为原点,将每个像素的坐标归一化到[-1,1]之间;
步骤5b:将颜色差异性与空间位置差异性相结合计算区域Ci,i∈[1,N5]的区域独特性的显著图:
其中D(Ci C,j表示两个区域Ci,Cj之间的空间距离i,j∈[1,N5],N5为吸引子传播聚类后区域的个数,Mxi,Myi为区域Ci的平均空间坐标,σ1为空间距离在区域独特性计算中的调节系数,分别代表区域Ci,Cj在CIELAB空间的颜色均值,为区域Ci,Cj之间的欧式距离,表示区域Ci在全图中所占的面积比例;
步骤5c:分别计算区域Ci在横坐标与纵坐标上的方差。用Ix表示Ci中的某个像素点,xh,xv分别表示其横、纵坐标。横坐标的方差Vh(Ci)依下式计算:
其中sign(Ix∈Ci)为指示函数,当像素Ix∈Ci时sign(Ix∈Ci)=1,否则sign(Ix∈Ci)=0;表示区域Ci的横坐标的均值;
同理计算Vv(Ci);
步骤5d:计算区域Ci的空间紧凑性V(Ci),其定义为区域横坐标的方差Vh(Ci)与纵坐标的方差Vv(Ci)之和:
V(Ci)=Vh(Ci)+Vv(Ci)
步骤5e:计算基于空间分布特性的显著图CSD(Ci):
其中代表区域Ci与图像中心的距离;μ1为面积期望占比系数,σ2为面积影响调节系数;
步骤5f:显著图合成,区域Ci显著值为:
Sal(Ci)=U(Ci)*exp(CSD(Ci))
步骤6:利用超像素之间的流行结构进行流行排序得到最终显著图,过程如下:
步骤6a:对得到的显著图进行二值化,提取显著区域SR;显著区域是评判每个超像素显著性的基础;
步骤6b:以步骤2中得到的N2个超像素为节点,构建闭环图模型G2=(V2,E2),其中V2为无向图的顶点的集合,E2为连接边的集合;与图模型G1=(V1,E1)不同的是,图像四个边界上的超像素之间存在互相连接的边,G2中的边权值eij定义为:
其中分别代表超像素vi,vj在CIELAB颜色空间的颜色均值,i,j∈[1,N2],N2为超像素的个数;S(vi)表示超像素vi的邻域超像素的集合,σ3是用于控制相似度的动态范围的调节系数;
步骤6c:将隶属于显著区域SR内的超像素作为已标记节点,其他超像素为非标记节点,得到标记向量该向量中的每一个元素yi依照下式计算:
步骤6d:定义权值矩阵为W={eij|i,j∈[1,N2]},定义度矩阵为:
其中
步骤6e:用向量表示超像素对应的显著值,构建如下流行排序策略:
然后依据下式计算出F的最优解F*:
F*=(I-αG)-1y
其中I代表单位阵,G=D1 -1/2WD1 -1/2为权值矩阵W的拉普拉斯归一化矩阵,系数α=1/(1+μ2),其中μ2是平衡调节系数;
步骤6f:用F*中的每个元素除以F*ww最大值,将得到的最优排序结果F*归一化;由于每个超像素块对应一个归一化后的显著值,可得到最终的显著图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610303847.6A CN105976378B (zh) | 2016-05-10 | 2016-05-10 | 基于图模型的显著性目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610303847.6A CN105976378B (zh) | 2016-05-10 | 2016-05-10 | 基于图模型的显著性目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105976378A true CN105976378A (zh) | 2016-09-28 |
CN105976378B CN105976378B (zh) | 2019-05-10 |
Family
ID=56992025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610303847.6A Active CN105976378B (zh) | 2016-05-10 | 2016-05-10 | 基于图模型的显著性目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105976378B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815843A (zh) * | 2016-11-30 | 2017-06-09 | 江苏城乡建设职业学院 | 一种基于凸包中心先验和马尔可夫吸收链的果实目标获取方法 |
CN107103608A (zh) * | 2017-04-17 | 2017-08-29 | 大连理工大学 | 一种基于区域候选样本选择的显著性检测方法 |
CN107123150A (zh) * | 2017-03-25 | 2017-09-01 | 复旦大学 | 全局颜色对比度检测和分割显著图的方法 |
CN107239777A (zh) * | 2017-05-13 | 2017-10-10 | 大连理工大学 | 一种基于多视角图模型的餐具检测和识别方法 |
CN107316037A (zh) * | 2017-03-27 | 2017-11-03 | 南京晓庄学院 | 一种基于视觉主体检测的果蔬识别预处理方法 |
CN107625834A (zh) * | 2017-09-21 | 2018-01-26 | 重庆第二师范学院 | 一种花椒有效成分的高效提取分离方法及系统 |
CN107766857A (zh) * | 2017-10-17 | 2018-03-06 | 天津大学 | 基于图模型构建与标签传播的视觉显著性检测算法 |
CN108427919A (zh) * | 2018-02-22 | 2018-08-21 | 北京航空航天大学 | 一种基于形状引导显著性模型的无监督油罐目标检测方法 |
CN108460379A (zh) * | 2018-02-06 | 2018-08-28 | 西安电子科技大学 | 基于细化空间一致性二阶段图的显著目标检测方法 |
CN109034035A (zh) * | 2018-07-18 | 2018-12-18 | 电子科技大学 | 基于显著性检测和特征融合的行人重识别方法 |
CN109389601A (zh) * | 2018-10-19 | 2019-02-26 | 山东大学 | 基于像素间相似性的彩色图像超像素分割方法 |
CN110084782A (zh) * | 2019-03-27 | 2019-08-02 | 西安电子科技大学 | 基于图像显著性检测的全参考图像质量评价方法 |
CN110097569A (zh) * | 2019-04-04 | 2019-08-06 | 北京航空航天大学 | 基于颜色马尔科夫链显著性模型的油罐目标检测方法 |
CN110298842A (zh) * | 2019-06-10 | 2019-10-01 | 上海工程技术大学 | 一种基于超像素节点排序的轨道扣件图像定位方法 |
CN110689024A (zh) * | 2019-09-10 | 2020-01-14 | 安徽三联学院 | 一种应用于雾天城市交通的目标检测方法 |
CN110910417A (zh) * | 2019-10-29 | 2020-03-24 | 西北工业大学 | 一种基于超像素邻帧特征对比的弱小运动目标检测方法 |
CN111598890A (zh) * | 2020-05-15 | 2020-08-28 | 河海大学 | 一种水下图像分割的水平集优化方法 |
CN111739047A (zh) * | 2020-06-24 | 2020-10-02 | 山东财经大学 | 基于双谱重建的舌体图像分割方法及系统 |
CN111783878A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 目标检测方法、装置、电子设备以及可读存储介质 |
CN111862100A (zh) * | 2020-06-29 | 2020-10-30 | 浪潮电子信息产业股份有限公司 | 一种图像分割方法、装置、设备及存储介质 |
CN112348013A (zh) * | 2020-10-27 | 2021-02-09 | 上海眼控科技股份有限公司 | 目标检测方法、装置、计算机设备和可读存储介质 |
CN112418218A (zh) * | 2020-11-24 | 2021-02-26 | 中国地质大学(武汉) | 目标区域检测方法、装置、设备及存储介质 |
CN112818626A (zh) * | 2021-02-26 | 2021-05-18 | 北京华大九天科技股份有限公司 | 一种基于多重掩膜版的版图布线方法 |
CN113177592A (zh) * | 2021-04-28 | 2021-07-27 | 上海硕恩网络科技股份有限公司 | 一种图像分割方法、装置、计算机设备及存储介质 |
CN114677384A (zh) * | 2022-03-13 | 2022-06-28 | 江苏神州新能源电力有限公司 | 一种太阳能电池镀膜缺陷检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270343A (zh) * | 2011-07-27 | 2011-12-07 | 宁波大学 | 一种基于Ising图模型的图像分割方法 |
CN103065298A (zh) * | 2012-12-20 | 2013-04-24 | 杭州电子科技大学 | 一种模拟视网膜滤波的视觉显著性检测方法 |
CN103093454A (zh) * | 2012-12-20 | 2013-05-08 | 杭州电子科技大学 | 一种面向视觉显著性检测的中央周围环绕优化方法 |
CN103413347A (zh) * | 2013-07-05 | 2013-11-27 | 南京邮电大学 | 基于前景背景融合的单目图像深度图提取方法 |
CN103761522A (zh) * | 2013-12-27 | 2014-04-30 | 河海大学 | 基于最小外接矩形窗河道分段模型的sar图像河道提取方法 |
CN105118051A (zh) * | 2015-07-29 | 2015-12-02 | 广东工业大学 | 一种应用于静态图像人体分割的显著性检测方法 |
-
2016
- 2016-05-10 CN CN201610303847.6A patent/CN105976378B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270343A (zh) * | 2011-07-27 | 2011-12-07 | 宁波大学 | 一种基于Ising图模型的图像分割方法 |
CN103065298A (zh) * | 2012-12-20 | 2013-04-24 | 杭州电子科技大学 | 一种模拟视网膜滤波的视觉显著性检测方法 |
CN103093454A (zh) * | 2012-12-20 | 2013-05-08 | 杭州电子科技大学 | 一种面向视觉显著性检测的中央周围环绕优化方法 |
CN103413347A (zh) * | 2013-07-05 | 2013-11-27 | 南京邮电大学 | 基于前景背景融合的单目图像深度图提取方法 |
CN103761522A (zh) * | 2013-12-27 | 2014-04-30 | 河海大学 | 基于最小外接矩形窗河道分段模型的sar图像河道提取方法 |
CN105118051A (zh) * | 2015-07-29 | 2015-12-02 | 广东工业大学 | 一种应用于静态图像人体分割的显著性检测方法 |
Non-Patent Citations (5)
Title |
---|
CHUAN YANG 等: "Saliency Detection via Graph-Based Manifold Ranking", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
LINA HUO 等: "Object-level saliency detection with color attributes", 《PATTERN RECOGNITION》 * |
MING-MING CHENG 等: "Efficient Salient Region Detection with Soft Image Abstraction", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
傅博: "基于位置先验与超像素的显著性检测", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》 * |
周雷: "基于图结构的目标检测与分割算法研究", 《中国博士学位论文全文数据库 信息科技辑(月刊)》 * |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815843A (zh) * | 2016-11-30 | 2017-06-09 | 江苏城乡建设职业学院 | 一种基于凸包中心先验和马尔可夫吸收链的果实目标获取方法 |
CN107123150A (zh) * | 2017-03-25 | 2017-09-01 | 复旦大学 | 全局颜色对比度检测和分割显著图的方法 |
CN107123150B (zh) * | 2017-03-25 | 2021-04-30 | 复旦大学 | 全局颜色对比度检测和分割显著图的方法 |
CN107316037A (zh) * | 2017-03-27 | 2017-11-03 | 南京晓庄学院 | 一种基于视觉主体检测的果蔬识别预处理方法 |
CN107316037B (zh) * | 2017-03-27 | 2020-11-13 | 南京晓庄学院 | 一种基于视觉主体检测的果蔬识别预处理方法 |
CN107103608B (zh) * | 2017-04-17 | 2019-09-27 | 大连理工大学 | 一种基于区域候选样本选择的显著性检测方法 |
CN107103608A (zh) * | 2017-04-17 | 2017-08-29 | 大连理工大学 | 一种基于区域候选样本选择的显著性检测方法 |
CN107239777A (zh) * | 2017-05-13 | 2017-10-10 | 大连理工大学 | 一种基于多视角图模型的餐具检测和识别方法 |
CN107239777B (zh) * | 2017-05-13 | 2021-06-15 | 大连理工大学 | 一种基于多视角图模型的餐具检测和识别方法 |
CN107625834A (zh) * | 2017-09-21 | 2018-01-26 | 重庆第二师范学院 | 一种花椒有效成分的高效提取分离方法及系统 |
CN107766857A (zh) * | 2017-10-17 | 2018-03-06 | 天津大学 | 基于图模型构建与标签传播的视觉显著性检测算法 |
CN107766857B (zh) * | 2017-10-17 | 2021-08-03 | 天津大学 | 基于图模型构建与标签传播的视觉显著性检测算法 |
CN108460379B (zh) * | 2018-02-06 | 2021-05-04 | 西安电子科技大学 | 基于细化空间一致性二阶段图的显著目标检测方法 |
CN108460379A (zh) * | 2018-02-06 | 2018-08-28 | 西安电子科技大学 | 基于细化空间一致性二阶段图的显著目标检测方法 |
CN108427919A (zh) * | 2018-02-22 | 2018-08-21 | 北京航空航天大学 | 一种基于形状引导显著性模型的无监督油罐目标检测方法 |
CN108427919B (zh) * | 2018-02-22 | 2021-09-28 | 北京航空航天大学 | 一种基于形状引导显著性模型的无监督油罐目标检测方法 |
CN109034035A (zh) * | 2018-07-18 | 2018-12-18 | 电子科技大学 | 基于显著性检测和特征融合的行人重识别方法 |
CN109389601A (zh) * | 2018-10-19 | 2019-02-26 | 山东大学 | 基于像素间相似性的彩色图像超像素分割方法 |
CN109389601B (zh) * | 2018-10-19 | 2019-07-16 | 山东大学 | 基于像素间相似性的彩色图像超像素分割方法 |
CN110084782B (zh) * | 2019-03-27 | 2022-02-01 | 西安电子科技大学 | 基于图像显著性检测的全参考图像质量评价方法 |
CN110084782A (zh) * | 2019-03-27 | 2019-08-02 | 西安电子科技大学 | 基于图像显著性检测的全参考图像质量评价方法 |
CN110097569A (zh) * | 2019-04-04 | 2019-08-06 | 北京航空航天大学 | 基于颜色马尔科夫链显著性模型的油罐目标检测方法 |
CN110298842A (zh) * | 2019-06-10 | 2019-10-01 | 上海工程技术大学 | 一种基于超像素节点排序的轨道扣件图像定位方法 |
CN110689024A (zh) * | 2019-09-10 | 2020-01-14 | 安徽三联学院 | 一种应用于雾天城市交通的目标检测方法 |
CN110910417A (zh) * | 2019-10-29 | 2020-03-24 | 西北工业大学 | 一种基于超像素邻帧特征对比的弱小运动目标检测方法 |
CN111598890A (zh) * | 2020-05-15 | 2020-08-28 | 河海大学 | 一种水下图像分割的水平集优化方法 |
CN111739047A (zh) * | 2020-06-24 | 2020-10-02 | 山东财经大学 | 基于双谱重建的舌体图像分割方法及系统 |
CN111862100A (zh) * | 2020-06-29 | 2020-10-30 | 浪潮电子信息产业股份有限公司 | 一种图像分割方法、装置、设备及存储介质 |
CN111783878A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 目标检测方法、装置、电子设备以及可读存储介质 |
CN111783878B (zh) * | 2020-06-29 | 2023-08-04 | 北京百度网讯科技有限公司 | 目标检测方法、装置、电子设备以及可读存储介质 |
CN112348013A (zh) * | 2020-10-27 | 2021-02-09 | 上海眼控科技股份有限公司 | 目标检测方法、装置、计算机设备和可读存储介质 |
CN112418218A (zh) * | 2020-11-24 | 2021-02-26 | 中国地质大学(武汉) | 目标区域检测方法、装置、设备及存储介质 |
CN112418218B (zh) * | 2020-11-24 | 2023-02-28 | 中国地质大学(武汉) | 目标区域检测方法、装置、设备及存储介质 |
CN112818626A (zh) * | 2021-02-26 | 2021-05-18 | 北京华大九天科技股份有限公司 | 一种基于多重掩膜版的版图布线方法 |
CN113177592A (zh) * | 2021-04-28 | 2021-07-27 | 上海硕恩网络科技股份有限公司 | 一种图像分割方法、装置、计算机设备及存储介质 |
CN113177592B (zh) * | 2021-04-28 | 2022-07-08 | 上海硕恩网络科技股份有限公司 | 一种图像分割方法、装置、计算机设备及存储介质 |
CN114677384A (zh) * | 2022-03-13 | 2022-06-28 | 江苏神州新能源电力有限公司 | 一种太阳能电池镀膜缺陷检测方法 |
CN114677384B (zh) * | 2022-03-13 | 2022-12-02 | 江苏神州新能源电力有限公司 | 一种太阳能电池镀膜缺陷检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105976378B (zh) | 2019-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105976378A (zh) | 基于图模型的显著性目标检测方法 | |
Song et al. | Richly activated graph convolutional network for action recognition with incomplete skeletons | |
Liu et al. | Matching-cnn meets knn: Quasi-parametric human parsing | |
Zhao et al. | Enhancing diversity of defocus blur detectors via cross-ensemble network | |
CN106709568B (zh) | 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法 | |
CN104732506B (zh) | 一种基于人脸语义分析的人物照片颜色风格转换方法 | |
CN109559320A (zh) | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 | |
CN106650744B (zh) | 局部形状迁移指导的图像对象共分割方法 | |
CN106611427B (zh) | 基于候选区域融合的视频显著性检测方法 | |
CN112862792B (zh) | 一种用于小样本图像数据集的小麦白粉病孢子分割方法 | |
CN107832672A (zh) | 一种利用姿态信息设计多损失函数的行人重识别方法 | |
CN103413151B (zh) | 基于图正则低秩表示维数约简的高光谱图像分类方法 | |
CN107239777B (zh) | 一种基于多视角图模型的餐具检测和识别方法 | |
CN105303152B (zh) | 一种人体再识别方法 | |
CN107944428B (zh) | 一种基于超像素集的室内场景语义标注方法 | |
CN107609552B (zh) | 基于马尔可夫吸收模型的显著性区域检测方法 | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN104715251B (zh) | 一种基于直方图线性拟合的显著目标检测方法 | |
CN105354593B (zh) | 一种基于nmf的三维模型分类方法 | |
CN108416347A (zh) | 基于边界先验和迭代优化的显著目标检测算法 | |
CN108038438B (zh) | 一种基于奇异值分解的多源人脸图像联合特征提取方法 | |
US20120299906A1 (en) | Model-Based Face Image Super-Resolution | |
CN109766822A (zh) | 基于神经网络的手势识别方法及系统 | |
CN109255382A (zh) | 用于图片匹配定位的神经网络系统,方法及装置 | |
CN111612024A (zh) | 特征提取方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20201215 Address after: 400084 3rd floor, Building 29, area C, Jianqiao Industrial Park, Dadukou District, Chongqing Patentee after: Chongqing Nostra Medical Equipment Co.,Ltd. Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an Patentee before: Northwestern Polytechnical University |
|
TR01 | Transfer of patent right |