CN107766857A - 基于图模型构建与标签传播的视觉显著性检测算法 - Google Patents

基于图模型构建与标签传播的视觉显著性检测算法 Download PDF

Info

Publication number
CN107766857A
CN107766857A CN201710964549.6A CN201710964549A CN107766857A CN 107766857 A CN107766857 A CN 107766857A CN 201710964549 A CN201710964549 A CN 201710964549A CN 107766857 A CN107766857 A CN 107766857A
Authority
CN
China
Prior art keywords
mrow
msub
pixel
super
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710964549.6A
Other languages
English (en)
Other versions
CN107766857B (zh
Inventor
周圆
张天昊
霍树伟
田宝亮
金斗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710964549.6A priority Critical patent/CN107766857B/zh
Publication of CN107766857A publication Critical patent/CN107766857A/zh
Application granted granted Critical
Publication of CN107766857B publication Critical patent/CN107766857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图模型构建与标签传播的视觉显著性检测算法,步骤1、进行输入图像的预处理:将输入图像分割为若干个超像素si(i∈1~K);步骤2、进行背景种子的标记;步骤3、构建传播所需的图模型;步骤4、完成基于背景种子的显著性标签传播。与现有技术相比,本发明在客观指标包括准确率、召回率、综合评价指标、平均绝对误差等和主观评价上都显著优于目前的方法。

Description

基于图模型构建与标签传播的视觉显著性检测算法
技术领域
本发明涉及计算机视觉领域,特别是涉及一种视觉显著性检测算法。
背景技术
视觉显著性检测,即检测给定场景中最能引起人类视觉注意的区域或目标。利用视觉显著性检测技术,计算机可以模仿人类的观察与思考机制,尽可能不失真地来保留人类所感兴趣的区域,同时对其他区域进行压缩,以达到去除冗余信息、提高传输速率的目的。目前,已有的算法取得了一定的检测效果,但在算法效率和检测精确度等方面仍大有可为之处;此外,针对显著的区域集中分布在图像边缘的问题,现有技术往往不能成功地完成检测任务。
发明内容
基于上述现有技术,本发明提出了一种基于图模型构建与标签传播的视觉显著性检测算法,在给定的一幅输入图像中模仿人类的选择性注意机制,标记出最能引起人类视觉注意的区域,并根据标记结果生成显著图。
本发明的一种基于图模型构建与标签传播的视觉显著性检测算法,包括以下流程:
步骤1、进行输入图像的预处理:将输入图像分割为若干个超像素si(i∈1~K)。其中,K为超像素的个数;
步骤2、进行背景种子的标记:
首先,计算所有超像素在图像的全局中与其它超像素的对比度Sc(si):
其中,Dc(i,j)表示超像素si与sj在CIELAB颜色空间的像素特征平均值之间的欧式距离,Dp(i,j)表示超像素si与sj的像素平均位置坐标之间的欧式距离;δp为坐标位置控制参数;
其次,采用了高斯平滑算子来拉大Sc(si)中背景区域与其他区域之间的显著值的差距:
S(si)=Sc(si)*G(si) (2)
其中,为超像素si的中心坐标,S(si)为初始估计的显著值,G(si)为高斯平滑算子,(xcenter,ycenter)为高斯平滑算子的中心坐标,Sc(si)为超像素si在图像中与其它超像素的对比度,i,j分别表示第i个超像素si与第j个超像素sj
接着,设定分割阈值T,将初始估计的显著值S(si)低于阈值T的超像素分割出来并添加到背景种子集合中,其中L即Label,表示超像素被标记为种子;B即 Background,表示超像素被标记背景种子;
步骤3、构建传播所需的图模型:
首先,构建无向图G=(V(G),E(G)),V(G)为节点集,即超像素在无向图中由节点vi表示,E(G)则表示节点之间的边集,其权重ωi,j即为两个超像素之间的特征相似度:
其中,表示两个数据节点的特征向量之间的欧式距离。
其次,使图像四边上的任何一对边界节点均相连,从而使得整幅图成为一个闭环图;
再次,对超像素进行无监督聚类,使得具有相同类标签的超像素两两相连;选出包含标记种子的类,并强制相应类之间的超像素不能通过边彼此连接;
步骤4、完成基于背景种子的显著性标签传播:
首先,将节点集V(G)划分为标记节点集{v1,v2…,vl}和未标记节点集 {vl+1,vl+2…,vl+u}。其中标记节点的标记值固定为“1”,未标记节点的标记值初始化为“0”;
其次,计算标记值从一个节点传播到另一个节点的传播概率:
其中,l为标记节点的个数,u为标记节点的个数,q表示第q个节点
接着,将节点间的传播概率归纳为矩阵形式,传播概率矩阵表示为:
其中,Puu是未标记节点与未标记节点之间的传播概率,Pul为未标记节点与标记节点之间的传播概率,Plu为标记节点的标记值被传播到未标记节点的传播概率,Pll为标记节点之间的传播概率;
最后,将节点的标记值f划分为f节(fl,fu),其中fl为标记节点的标记值并始终固定为“1”,fu为未标记节点的标记值并初始化为“0”;经多次迭代式至收敛,得到所有未标记节点的fu
fu←Puu*fu+Pul*1 (8)
所有超像素的标记值f∈[0,1],f可表示为超像素属于背景的概率,相应地,1-f则表示为超像素属于显著性区域的概率,即显著图。
与现有技术相比,本发明在客观指标包括准确率、召回率、综合评价指标、平均绝对误差等和主观评价上都显著优于目前的方法。
附图说明
图1为本发明的基于图模型构建与标签传播的视觉显著性检测算法整体流程示意图;
图2为本发明具体实施例示意图;
图3为本发明与现有算法在P、R、F指标下的比较结果示意图;
图4为本发明与现有算法在MAE指标下的比较结果示意图;
图5为本发明与现有算法在视觉角度上的比较结果示意图。
具体实施方式
下面将结合附图对本发明的实施方式作进一步的详细描述。
如图1所示,本发明的基于图模型构建与标签传播的视觉显著性检测算法整体流程包括以下处理:
步骤1、输入图像的预处理:采用了简单线性迭代聚类的算法(Simple LinearIterative Clustering,SLIC),将输入图像分割为若干个超像素si(i∈1~K)。其中,K为超像素的个数,具体算法流程见表1:
表1、简单线性迭代聚类算法的计算流程
步骤2、进行背景种子的标记:首先,计算所有超像素在图像的全局中与其它超像素的对比度Sc(si),并认为全局对比度较低的区域成为背景区域的可能性更高:
其中,Dc(i,j)表示超像素si与sj在CIELAB颜色空间的像素特征平均值之间的欧式距离,Dp(i,j)表示超像素si与sj的像素平均位置坐标之间的欧式距离。δp为坐标位置控制参数。
其次,采用了高斯平滑算子来拉大Sc(si)中背景区域与其他区域之间的显著值的差距:
S(si)=Sc(si)*G(si) (2)
其中,为超像素si的中心坐标,S(si)为初始估计的显著值,G(si)为高斯平滑算子,(xcenter,ycenter)为高斯平滑算子的中心坐标,Sc(si)为超像素si在图像中与其它超像素的对比度,i,j分别表示第i个超像素si与第j个超像素sj
接着,设定分割阈值T,将初始估计的显著值S(si)低于阈值T的超像素分割出来并添加到背景种子集合中,其中L即Label,表示超像素被标记为种子;B即 Background,表示超像素被标记背景种子;
步骤3、构建传播所需的图模型:首先,构建无向图G=(V(G),E(G)),V(G)为节点集,即超像素在无向图中由节点vi表示,E(G)则表示节点之间的边集,其权重ωi,j即为两个超像素之间的特征相似度:
其中,表示两个数据节点的特征向量之间的欧式距离。
其次,考虑到图像的对称性,使图像四边上的任何一对边界节点均相连,从而使得整幅图成为一个闭环图;
再次,对超像素进行无监督聚类,考虑到图像内容的上下文相似性,使得具有相同类标签的超像素两两相连;考虑到图像内容的上下文差异性,选出包含背景种子的类,并强制相应类之间的超像素不能通过边彼此连接;
步骤4、完成基于背景种子的显著性标签传播:
首先,将节点集V(G)划分为标记节点集{v1,v2…,vl}和未标记节点集 {vl+1,vl+2…,vl+u}。其中标记节点的标记值固定为“1”,未标记节点的标记值初始化为“0”。
其次,计算标记值从一个节点传播到另一个节点的传播概率:
其中,l为标记节点的个数,u为为标记节点的个数,q表示第q个节点
接着,将节点间的传播概率归纳为矩阵形式,调整矩阵中节点的位置,先输出未标记节点再输出标记节点,传播概率矩阵表示为:
其中Puu是未标记节点与未标记节点之间的传播概率,Pul为未标记节点与标记节点之间的传播概率,Plu为标记节点的标记值被传播到未标记节点的传播概率,Pll为标记节点之间的传播概率。
最后,将节点的标记值f划分为f节(fl,fu),其中fl为标记节点的标记值并始终固定为“1”,fu为未标记节点的标记值并初始化为“0”;经多次迭代式至收敛,得到所有未标记节点的fu
fu←Puu*fu+Pul*1 (8)
所有超像素的标记值f∈[0,1],f可表示为超像素属于背景的概率,相应地,1-f则可表示为超像素属于显著性区域的概率,即显著图。
如图2所示的本发明具体实施例:首先获取一定量的待处理图像,再利用计算机编程依次完成技术方案中所给出的每一步计算。
本发明在客观指标上和主观评价上都显著优于目前的方法。评价结果如下:
视觉显著性检测算法的客观评价指标的评价出发点主要是基于算法所得到的显著图与人工标注的Ground-Truth之间的对比,根据对比角度的不同可划分为准确率、召回率、综合评价指标、平均绝对误差等。如图2至图4所示,为评价实验的具体结果示意图。实验中采用的参数为:K=255,α=10,β=0.3。
1、准确率与召回率比较结果,如图3所示:
准确率(Precision,P)与召回率(Recall,R)是查询、检测领域中应用最广泛的两个评价指标,其定义分别为:
其中S表示基于某种分割方式将所得到的显著图进行二值分割后值为“1”的部分,G表示Ground-Truth中值为“1”的部分。
2、综合评价指标(F-measure)比较结果,如图4所示:
F-measure在计算的过程中综合考虑了Precision和Recall两方面:
其中,β为权值,用来综合衡量Precision和Recall。
3、平均绝对误差(MAE)比较结果,如图5所示:
MAE指的是图像中每个像素点的显著值与真值之间的平均绝对差值,很好的反映了算法所得到的显著图与Ground-Truth之间的相似程度:
此外,本专利的算法所得到的结果在视觉角度上也具有明显的优势。
实验结果表明,本专利提出的算法在客观指标上远远超出现有的算法,在视觉效果上,也得到了平滑的显著图,在正确的标记出显著区域的同时,很好地抑制了背景区域。

Claims (1)

1.一种基于图模型构建与标签传播的视觉显著性检测算法,其特征在于,该方法包括以下流程:
步骤1、进行输入图像的预处理:将输入图像分割为若干个超像素si(i∈1~K),其中,K为超像素的个数;
步骤2、进行背景种子的标记:
首先,计算所有超像素在图像的全局中与其它超像素的对比度Sc(si):
<mrow> <msub> <mi>S</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;NotEqual;</mo> <mi>j</mi> </mrow> </munder> <msub> <mi>D</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msub> <mi>D</mi> <mi>p</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msubsup> <mi>&amp;delta;</mi> <mi>p</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,Dc(i,j)表示超像素si与sj在CIE LAB颜色空间的像素特征平均值之间的欧式距离,Dp(i,j)表示超像素si与sj的像素平均位置坐标之间的欧式距离;δp为坐标位置控制参数;
其次,采用高斯平滑算子来拉大Sc(si)中背景区域与其他区域之间的显著值的差距:
S(si)=Sc(si)*G(si) (2)
<mrow> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mo>&amp;lsqb;</mo> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <msub> <mi>s</mi> <mi>i</mi> </msub> </msub> <mo>-</mo> <msup> <mi>x</mi> <mrow> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mi>x</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> <mo>+</mo> <mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <msub> <mi>s</mi> <mi>i</mi> </msub> </msub> <mo>-</mo> <msup> <mi>y</mi> <mrow> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mi>y</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msup> <mi>x</mi> <mrow> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msup> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <mfrac> <mrow> <msub> <mi>S</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <munder> <mo>&amp;Sigma;</mo> <mi>j</mi> </munder> <msub> <mi>S</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <msub> <mi>x</mi> <msub> <mi>s</mi> <mi>i</mi> </msub> </msub> <mo>,</mo> <msup> <mi>y</mi> <mrow> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msup> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <mfrac> <mrow> <msub> <mi>S</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <munder> <mo>&amp;Sigma;</mo> <mi>j</mi> </munder> <msub> <mi>S</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <msub> <mi>y</mi> <msub> <mi>s</mi> <mi>i</mi> </msub> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,为超像素si的中心坐标,S(si)为初始估计的显著值,G(si)为高斯平滑算子,(xcenter,ycenter)为高斯平滑算子的中心坐标,Sc(si)为超像素si在图像中与其它超像素的对比度,i,j分别表示第i个超像素si与第j个超像素sj
接着,设定分割阈值T,将初始估计的显著值S(si)低于阈值T的超像素分割出来并添加到背景种子集合中,其中L即Label,表示超像素被标记为种子;B即Background,表示超像素被标记背景种子;
步骤3、构建传播所需的图模型:
首先,构建无向图G=(V(G),E(G)),V(G)为节点集,即超像素在无向图中由节点vi表示,E(G)则表示节点之间的边集,其权重ωi,j即为两个超像素之间的特征相似度:
<mrow> <msub> <mi>&amp;omega;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow> <msup> <mi>a</mi> <mn>2</mn> </msup> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,表示两个数据节点的特征向量之间的欧式距离。
其次,使图像四边上的任何一对边界节点均相连,从而使得整幅图成为一个闭环图;
再次,对超像素进行无监督聚类,使得具有相同类标签的超像素两两相连;选出包含标记种子的类,并强制相应类之间的超像素不能通过边彼此连接;
步骤4、完成基于背景种子的显著性标签传播:
首先,将节点集V(G)划分为标记节点集{v1,v2…,vl}和未标记节点集{vl+1,vl+2…,vl+u}。其中标记节点的标记值固定为“1”,未标记节点的标记值初始化为“0”;
其次,计算标记值从一个节点传播到另一个节点的传播概率:
<mrow> <msub> <mi>P</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>&amp;RightArrow;</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msub> <mi>&amp;omega;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>q</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>l</mi> <mo>+</mo> <mi>u</mi> </mrow> </msubsup> <msub> <mi>&amp;omega;</mi> <mrow> <mi>i</mi> <mi>q</mi> </mrow> </msub> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
其中,l为标记节点的个数,u为标记节点的个数,q表示第q个节点
接着,将节点间的传播概率归纳为矩阵形式,传播概率矩阵表示为:
<mrow> <mi>P</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>P</mi> <mrow> <mi>u</mi> <mi>u</mi> </mrow> </msub> </mtd> <mtd> <msub> <mi>P</mi> <mrow> <mi>u</mi> <mi>l</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>P</mi> <mrow> <mi>l</mi> <mi>u</mi> </mrow> </msub> </mtd> <mtd> <msub> <mi>P</mi> <mrow> <mi>l</mi> <mi>l</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
其中,Puu是未标记节点与未标记节点之间的传播概率,Pul为未标记节点与标记节点之间的传播概率,Plu为标记节点的标记值被传播到未标记节点的传播概率,Pll为标记节点之间的传播概率;
最后,将节点的标记值f划分为f=(fl,fu),其中fl为标记节点的标记值并始终固定为“1”,fu为未标记节点的标记值并初始化为“0”;经多次迭代式至收敛,得到所有未标记节点的fu
fu←Puu*fu+Pul*1 (8)
所有超像素的标记值f∈[0,1],f可表示为超像素属于背景的概率,相应地,1-f则表示为超像素属于显著性区域的概率,即显著图。
CN201710964549.6A 2017-10-17 2017-10-17 基于图模型构建与标签传播的视觉显著性检测算法 Active CN107766857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710964549.6A CN107766857B (zh) 2017-10-17 2017-10-17 基于图模型构建与标签传播的视觉显著性检测算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710964549.6A CN107766857B (zh) 2017-10-17 2017-10-17 基于图模型构建与标签传播的视觉显著性检测算法

Publications (2)

Publication Number Publication Date
CN107766857A true CN107766857A (zh) 2018-03-06
CN107766857B CN107766857B (zh) 2021-08-03

Family

ID=61269675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710964549.6A Active CN107766857B (zh) 2017-10-17 2017-10-17 基于图模型构建与标签传播的视觉显著性检测算法

Country Status (1)

Country Link
CN (1) CN107766857B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6453058B1 (en) * 1999-06-07 2002-09-17 Siemens Corporate Research, Inc. Computer-assisted diagnosis method using correspondence checking and change detection of salient features in digital images
US20130182931A1 (en) * 2011-12-21 2013-07-18 Institute of Automation, Chinese Academy of Scienc Method for brain tumor segmentation in multi-parametric image based on statistical information and multi-scale struture information
CN103745468A (zh) * 2014-01-07 2014-04-23 上海交通大学 一种基于图结构和边界先验的显著性物体检测方法
CN104537355A (zh) * 2015-01-12 2015-04-22 中南大学 一种利用图像边界信息和区域连通性的显著对象检测方法
CN104680546A (zh) * 2015-03-12 2015-06-03 安徽大学 一种图像显著目标检测方法
CN105513070A (zh) * 2015-12-07 2016-04-20 天津大学 一种基于前景背景优化的rgb-d显著物体检测方法
CN105913431A (zh) * 2016-04-12 2016-08-31 绍兴文理学院 低分辨率医学图像的多图谱分割方法
CN105976378A (zh) * 2016-05-10 2016-09-28 西北工业大学 基于图模型的显著性目标检测方法
CN106203430A (zh) * 2016-07-07 2016-12-07 北京航空航天大学 一种基于前景聚集度和背景先验的显著性物体检测方法
CN106228544A (zh) * 2016-07-14 2016-12-14 郑州航空工业管理学院 一种基于稀疏表示和标签传播的显著性检测方法
CN107133558A (zh) * 2017-03-13 2017-09-05 北京航空航天大学 一种基于概率传播的红外行人显著性检测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6453058B1 (en) * 1999-06-07 2002-09-17 Siemens Corporate Research, Inc. Computer-assisted diagnosis method using correspondence checking and change detection of salient features in digital images
US20130182931A1 (en) * 2011-12-21 2013-07-18 Institute of Automation, Chinese Academy of Scienc Method for brain tumor segmentation in multi-parametric image based on statistical information and multi-scale struture information
CN103745468A (zh) * 2014-01-07 2014-04-23 上海交通大学 一种基于图结构和边界先验的显著性物体检测方法
CN104537355A (zh) * 2015-01-12 2015-04-22 中南大学 一种利用图像边界信息和区域连通性的显著对象检测方法
CN104680546A (zh) * 2015-03-12 2015-06-03 安徽大学 一种图像显著目标检测方法
CN105513070A (zh) * 2015-12-07 2016-04-20 天津大学 一种基于前景背景优化的rgb-d显著物体检测方法
CN105913431A (zh) * 2016-04-12 2016-08-31 绍兴文理学院 低分辨率医学图像的多图谱分割方法
CN105976378A (zh) * 2016-05-10 2016-09-28 西北工业大学 基于图模型的显著性目标检测方法
CN106203430A (zh) * 2016-07-07 2016-12-07 北京航空航天大学 一种基于前景聚集度和背景先验的显著性物体检测方法
CN106228544A (zh) * 2016-07-14 2016-12-14 郑州航空工业管理学院 一种基于稀疏表示和标签传播的显著性检测方法
CN107133558A (zh) * 2017-03-13 2017-09-05 北京航空航天大学 一种基于概率传播的红外行人显著性检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HUCHUAN LU 等: "Dense and Sparse Reconstruction Error Based Saliency Descriptor", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
TIANHAO ZHANG 等: "LABEL PROPAGATION BASED SALIENCY DETECTION VIA GRAPH DESIGN", 《2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 *
XIAOJIN ZHU: "Semi-Supervised Learning with Graphs", 《HTTP://PAGES.CS.WISC.EDU/~JERRYZHU/PUB/THESIS.PDF》 *
周帅骏 等: "融合背景先验与中心先验的显著性目标检测", 《中国图象图形学报》 *

Also Published As

Publication number Publication date
CN107766857B (zh) 2021-08-03

Similar Documents

Publication Publication Date Title
CN103984959B (zh) 一种基于数据与任务驱动的图像分类方法
Schuld et al. Quantum machine learning in feature hilbert spaces
CN109271522B (zh) 基于深度混合模型迁移学习的评论情感分类方法及系统
CN107358293B (zh) 一种神经网络训练方法及装置
CN108447020A (zh) 一种基于极深卷积神经网络的人脸超分辨率重建方法
Lin et al. Ru-net: Regularized unrolling network for scene graph generation
CN107729993A (zh) 利用训练样本及折中度量的3d卷积神经网络构建方法
CN107766794A (zh) 一种特征融合系数可学习的图像语义分割方法
CN107292915A (zh) 基于卷积神经网络的目标跟踪方法
CN105389584A (zh) 基于卷积神经网络与语义转移联合模型的街景语义标注方法
CN104751469B (zh) 基于核模糊c均值聚类的图像分割方法
CN103489033A (zh) 融合自组织映射与概率神经网络的增量式学习方法
CN102708370A (zh) 一种多视角图像前景目标提取方法及装置
CN105184772A (zh) 一种基于超像素的自适应彩色图像分割方法
CN105261004A (zh) 基于均值漂移和邻域信息的模糊c均值图像分割方法
CN102982544B (zh) 多前景目标图像交互式分割方法
CN103578107B (zh) 一种交互式图像分割方法
CN108564166A (zh) 基于带对称跨层连接的卷积神经网络半监督特征学习方法
WO2022062164A1 (zh) 基于偏微分算子的广义等变卷积网络模型的图像分类方法
CN106611423A (zh) 基于脊波滤波器和反卷积结构模型的sar图像分割方法
CN103020979B (zh) 基于稀疏遗传聚类的图像分割方法
CN107229945A (zh) 一种基于竞争学习的深度聚类方法
Lv Recognition of multi-fontstyle characters based on convolutional neural network
CN112149645A (zh) 基于生成对抗学习和图神经网络的人体姿势关键点识别方法
CN103413332B (zh) 基于两通道纹理分割主动轮廓模型的图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant