CN106960434A - 一种基于被包围状态和贝叶斯模型的图像显著性检测方法 - Google Patents

一种基于被包围状态和贝叶斯模型的图像显著性检测方法 Download PDF

Info

Publication number
CN106960434A
CN106960434A CN201710119498.7A CN201710119498A CN106960434A CN 106960434 A CN106960434 A CN 106960434A CN 201710119498 A CN201710119498 A CN 201710119498A CN 106960434 A CN106960434 A CN 106960434A
Authority
CN
China
Prior art keywords
pixel
super
image
calculated
notable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710119498.7A
Other languages
English (en)
Inventor
陈炳才
王西宝
丁男
余超
高振国
谭国真
姚念民
王健
卢志茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201710119498.7A priority Critical patent/CN106960434A/zh
Publication of CN106960434A publication Critical patent/CN106960434A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于被包围状态和贝叶斯模型的图像显著性检测方法,目的在于检测出图像中的显著性物体。包括:1)通过计算图像中的被包围区域预测注视区域,也就是显著物体大致区域;2)使用简单线性迭代聚类算法对原始图像处理得到图像的超像素,利用归一化割算法对超像素进行分层聚类,得到三层聚类结果;3)基于已经计算得到的注视区域和三层聚类结果,利用贝叶斯模型分别进行计算得到图像的三层显著图;4)最后融合这三层显著图得到最终的显著图。本发明能够找到图像中显著物体,同时提高了显著性检测的准确率。

Description

一种基于被包围状态和贝叶斯模型的图像显著性检测方法
技术领域
本发明属于计算机图像处理领域,涉及一种基于被包围状态和贝叶斯模型的图像显著性检测方法。
背景技术
近年来,图像的显著性检测作为计算机视觉领域的一个重要方向受到国内外研究人员的普遍关注。当前的方法主要发展为两个方向:自底向上(非监督)和自顶向下(监督)。
目前的自底向上的显著性检测方法主要有:基于超像素的聚类的显著性检测,它主要利用超像素之间的相似性进行聚类得到显著图;基于图割的多层自适应区域融合方法,在这个方法中,利用超像素对图像建立图割模型,初始化自适应参数,通过自适应参数的逐层调整得到多层初始显著图,最后融合所有的初始显著图得到最终的显著图;基于贝叶斯框架的显著性检测,它通过处理基于像素为单位每一个像素,结合凸包和贝叶斯模型计算每个像素的显著值得到显著图;基于背景先验和吸收马尔可夫链的显著性检测方法,它主要是把图像的四周边界作为背景先验,利用吸收马尔可夫链进行吸收处理得到每个超像素的显著值,从而计算得到显著图。
自底向上的显著性检测方法还有很多,分析上面提到的几种方法我们可以得出自底向上的显著性检测的几个主要特征。自底向上的显著性检测方法需要先验知识的挖掘、基于图像的图模型的建立以及对应数学模型的建立等。比如对比度先验、背景先验和贝叶斯框架的建立等。
发明内容
针对现有技术存在的问题,本发明提出一种基于被包围状态和贝叶斯模型的图像显著性检测方法,目的在于更加准确、高效、快速的检测出图像中的显著性物体。
本发明的技术方案为:
一种基于被包围状态和贝叶斯模型的图像显著性检测方法,包括以下步骤:
第一步,计算包括显著物体的注视区域
1.1)采用公式(1)计算得到一组二值图;
其中,Fφ是用于特征通道采样的先验分布函数;是用于在特征通道θ上进行阈值采样的先验分布函数;φ(I)是定义的一个特征图,φ(I)∈[0,1];Bi是产生的二值图,i=1,2,…..,16。
1.2)基于步骤1.1)得到的二值图,对二值图进行激活,激活二值图中的被包围区域;
M+(B)=M(B)∧B, (2)
二值图中包含多个连通分支,当一个像素被包含于边界连通分支中时,那么这个像素是没有被包围的。基于这一准则,以二值图的边界像素节点作为种子,利用注入填充算法(Flood Fill algorithm)高效的覆盖没有被包围的像素,从而得到激活图M(B);激活图M(B)把所有被包围的像素值设为1,没有被包围的值设为0;最后利用公式(2)和公式(3)对激活图M(B)进行处理得到两个子激活图M+(B)、M-(B)。
1.3)计算得到包括显著物体的注视区域
根据步骤1.2)得到的两个子激活图,利用公式(4)计算得到每一个二值图的初始注视图,再利用公式(5)对得到的二值图的初始注视图进行归一化处理,得到最终的注视图,所述的注视图为得到的包括显著物体的注视区域;
其中,M+(B)和M-(B)为步骤1.2)得到的子激活图;A(B)是经计算得到的初始注视图,i=1,2,…..,16;为计算得到的最终注视图。
第二步,建立超像素图的模型
2.1)利用简单线性迭代聚类(SLIC)算法对初始图像进行图像处理,得到一幅图像的超像素图。
2.2)超像素节点之间边的建立以及边的权重的计算
基于步骤2.1)得到的超像素图,以每一个超像素作为节点,在相邻超像素之间建立边的连接关系;如果不相邻的两个超像素与同一超像素连接,那么对这两个超像素建立边的连接关系。
利用公式(6)计算超像素图中连接的两个超像素节点之间的权重wi,j
其中,ci和cj表示两个超像素的特性均值;σ2是一个平衡参数,在实验中设置为0.1。
2.3)建立超像素图的模型G=(V,E);其中,V是超像素节点的集合,E是建立的边的集合。
第三步,基于Ncut对超像素进行聚类得到三层聚类结果
3.1)Ncut模型的建立
基于第二步得到的超像素图的模型G,定义W=(ωij)mm作为超像素图的模型G的邻接矩阵,其中m=200,表示超像素的数量;是超像素图的模型G的度矩阵,其中得到超像素图的模型G的拉普拉斯矩阵L=D-W。对于两个子集A和B之间割的花费定义如下:
定义为A的补集,给定m个子集,Ncut可以计算出m个子集之间割的最小值,定义如下:
由于公式(8)是一个NP问题,可以为每一个Ai定义一个指示向量,这个指示向量可以通过求D-1L的前q个最小的特征向量得到,从而可以求解公式(8),其中,q=9。
3.2)利用Ncut得到聚类信息
定义求解D-1L的前q个最小的特征向量为v1,v2,...,vq,对应的特征值为λ12,...,λq。在图G中,如果超像素Si和Sj是邻接的,利用公式(10)重新构建它们之间关系权重。
3.3)计算得到三层聚类结果
定义三个阈值t1,t2和t3,其中t1<t2<t3。对于两个不同的区域,如果区域i和区域j之间的dij≤t1,那么合并这两个区域为一个区域,经过计算可得到第一层聚类结果基于第一层聚类结果将阈值设置为t2,经计算可得到第二层聚类结果同样的方法,设置阈值为t3,经计算得到第三层聚类结果。最终,经过以上计算从而得到三层聚类结果
第四步,利用贝叶斯模型对每一层聚类结果进行处理,得到图像的三层初始显著图。
4.1)先验图的计算
对于聚类集中每个像素的先验显著性概率有如下定义
其中,cluster定义一个聚类集合,att定义第一步(1.3)计算得到的注视图区域。
4.2)观测似然度的计算
在第一步中计算出的注视区域将图像分割为不相交两部分,定义注视区域为I,其余部分为O。观测似然概率的计算有如下定义
其中,NI定义了区域I中像素的数量,NO定义了区域O中像素的数量,f(v)定义了像素v在CIELab颜色空间的呈现,NI(f(v))和NO(f(v))定义了NI包含f(v)以及NO包含f(v)的数量。
4.3)初始显著图的计算
利用贝叶斯框架,可以计算出图像中每一个像素的显著概率,从而得到初始的显著图,通过如下公式定义可计算出初始显著图
p(bk)=1-p(sal) (15)
对于三层聚类结果,经过以上步骤的计算可得到三层初始显著图
第五步,融合三层初始显著图,计算得到最终的显著图。
5.1)最终显著图的计算
通过融合以上步骤所计算出的三层初始显著图,利用公式(16)可计算出最终的显著图
本发明的有益效果为:该方法区别于已有方法的特色在于,利用被包围状态预测人眼的注视区域,检测出显著物体的大致区域。接着用Ncut对超像素进行三层聚类得到三层聚类结果。基于注视区域和三层聚类结果,利用贝叶斯模型计算出三层初始显著图,最后融合三个初始显著图得到最终的显著图。该方法的显著性检测结果更接近真值。
附图说明
图1是本发明方法的流程示意图。
图2是几种不同方法的显著性检测结果对比图。(a)待检测图片;(b)XL方法检测结果;(c)MR方法检测结果;(d)HS方法检测结果;(e)MS方法检测结果;(f)本发明的检测结果;(g)真值。
图3是本发明与其他显著性检测方法在MSRA标准数据库上的MAE(平均绝对误差)对比。
具体实施方法
下面结合附图对本发明的实施方式进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
在MSRA标准数据库上对提出的算法进行测试,其中MSRA数据库中包含了1000张图片,图片中包含了各种背景复杂场景,数据库复杂度较高,目标大小、形状、位置各异,对显著性检测具有很大的挑战性。这个数据库都有对应的人工标定的显著性目标区域图。
图1是本发明的流程示意图;图2是本发明与其他不同算法的显著性检测结果对比图;图3是本发明与其他不同显著性检测算法在MSRA标准数据库上的MAE(平均绝对误差)对比图。实现本算法的具体步骤为:
步骤1,计算显著物体的大致区域
1.1:二值图的计算如下所示
其中Fφ是用于特征通道采样的先验分布函数,是用于在特征通道θ上进行阈值采样的先验分布函数,φ(I)定义了一个特征图,φ(I)∈[0,1],Bi是产生的二值图。
1.2:激活图的计算
基于先前计算得到的二值图,对二值图进行处理激活二值图中的被包围区域。
M+(B)=M(B)∧B, (2)
二值图中包含多个连通分支,当一个像素被包含于边界连通分支中时,那么这个像素是没有被包围的。基于这一准则,以边界节点作为种子,利用注入填充算法(FloodFill algorithm)可以高效的覆盖掉没有被包围的像素,从而得到激活图M(B),它把所有被包围的像素值设为1,没有被包围的值设为0。接着利用公式(2)(3)对激活图进行处理得到两个子激活图。
1.3:计算得到显著物体的大致区域
其中,基于上一步得到的子激活图,利用公式(4)计算出每一个二值图的注视图,基于得到的每一个二值图的注视图,利用公式(5)进行归一化处理得到最终的注视图,这个注视图就是我们要得到的显著物体的大致区域。
步骤2,建立图像的图模型
2.1:计算得到初始超像素
利用简单线性迭代聚类(SLIC)算法对图像处理,得到一幅图像的超像素图。SLIC算法是基于两个像素的颜色相似性和坐标距离进行聚类得到最终的超像素。
2.2:图模型中节点和边的构建
基于2.1中得到的超像素图,以每一个超像素作为图中节点,相邻超像素之间建立连接关系。如果不相邻的两个超像素和同一超像素邻接,那么对这两个超像素建立邻接关系。
利用公式(6)可计算图中连接的两个节点之间的权重,其中ci和cj表示两个超像素的特性均值,σ2是一个平衡参数,在实验中设置为0.1。
最后,我们建立了图的模型G=(V,E),其中,V是超像素节点的集合,E是建立的边的集合。
步骤3:基于Ncut对超像素进行聚类得到三层聚类结果
3.1:归一化割模型的建立
基于步骤2得到的图G,定义W=(ωij)mm是它的邻接矩阵,其中m=200,是超像素的数量;是它的度矩阵,其中可得到图G的拉普拉斯矩阵L=D-W。对于两个子集A和B之间割的花费有如下定义
定义为A的补集,给定m个子集,Ncut可以计算出m个子集之间割的最小值。有如下定义
由于公式(8)是一个NP问题,可以为每一个Ai定义一个指示向量,这个指示向量可以通过求D-1L的前q个最小的特征向量得到,从而可以求解公式(8),其中,q=9。
3.2:利用归一化割得到聚类信息
定义求解D-1L的前q个最小的特征向量为v1,v2,...,vq,对应的特征值为λ12,...,λq。在图G中,如果超像素Si和Sj是邻接的,利用公式(10)重新构建它们之间关系权重。
3.3:计算得到三层聚类结果
定义三个阈值t1,t2和t3,它们的值分别为0.04,0.09和0.15。对于两个不同的区域,如果区域i和区域j之间的dij≤0.04,那么合并这两个区域为一个区域,经过计算可得到第一层聚类结果基于第一层聚类结果将阈值设置为0.09,经计算可得到第二层聚类结果同样的方法,设置阈值为0.15,经计算得到第三层聚类结果。最终,经过以上计算从而得到三层聚类结果
步骤4:利用贝叶斯模型对每一层聚类结果进行处理,得到图像的三层初始显著图
4.1:先验图的计算
对于聚类集中每个像素的先验显著性概率有如下定义
其中,cluster定义了一个聚类集合,att定义了第一步(1.3)计算得到的注视图区域。
4.2:观测似然度的计算
在第一步中计算出的注视区域将图像分割为不相交两部分,定义注视区域为I,其余部分为O。观测似然概率的计算有如下定义
其中,NI定义了区域I中像素的数量,NO定义了区域O中像素的数量,f(v)定义了像素v在CIELab颜色空间的呈现,NI(f(v))和NO(f(v))定义了NI包含f(v)以及NO包含f(v)的数量。
4.3:初始显著图的计算
利用贝叶斯框架,可以计算出图像中每一个像素的显著概率,从而得到初始的显著图,通过如下公式定义可计算出初始显著图
p(bk)=1-p(sal) (15)
对于三层聚类结果,经过以上的计算可得到三层初始显著图
步骤5:融合三层初始显著图,计算得到最终的显著图
5.1:最终显著图的计算
通过融合以上步骤所计算出的三层初始显著图,利用公式(16)可计算出最终的显著图

Claims (3)

1.一种基于被包围状态和贝叶斯模型的图像显著性检测方法,其特征在于以下步骤:
第一步,计算包括显著物体的注视区域;
第二步,建立超像素图的模型G=(V,E);其中,V是超像素节点的集合,E是建立的边的集合;
第三步,基于Ncut对超像素进行聚类得到三层聚类结果
3.1)建立Ncut模型
基于第二步得到的超像素图的模型G,定义W=(ωij)mm作为模型G的邻接矩阵,其中m=200,表示超像素的数量;是模型G的度矩阵,其中得到模型G的拉普拉斯矩阵L=D-W;对于两个子集A和B之间割的花费定义如下:
c u t ( A , B ) = Σ i ∈ A , j ∈ B ω i j - - - ( 7 )
定义为A的补集,给定m个子集,Ncut计算出m个子集之间割的最小值,定义如下:
N c u t ( A 1 , A 2 , ... , A m ) = Σ i = 1 m c u t ( A i , A ‾ i ) a s s o c ( A i , V ) - - - ( 8 )
a s s o c ( A i , V ) = Σ i ∈ A , j ∈ V ω i , j - - - ( 9 )
为每一个Ai定义一个指示向量,指示向量通过求D-1L的前q个最小的特征向量得到,从而求解公式(8),其中,q=9;
3.2)利用Ncut得到聚类信息
定义求解D-1L的前q个最小的特征向量为v1,v2,...,vq,对应的特征值为λ12,...,λq;在模型G中,如果超像素Si和Sj是邻接的,利用公式(10)重新构建超像素Si和Sj之间的关系权重;
d i j = Σ k = 1 q 1 λ k | v k ( S i ) - v k ( S j ) | - - - ( 10 )
3.3)计算得到三层聚类结果
定义三个阈值t1,t2和t3,其中t1<t2<t3;对于两个不同的区域,如果区域i和区域j之间的dij≤t1,则合并这两个区域为一个区域,经过计算得到第一层聚类结果基于第一层聚类结果将阈值设置为t2,经计算得到第二层聚类结果同样的方法,设置阈值为t3,经计算得到第三层聚类结果;最终,经过以上计算得到三层聚类结果
第四步,利用贝叶斯模型对每一层聚类结果进行处理,得到图像的三层初始显著图;
4.1)先验图的计算
对于聚类集中每个像素的先验显著性概率有如下定义:
p ( s a l ) = | c l u s t e r ∪ a t t | | c l u s t e r | - - - ( 11 )
其中,cluster定义一个聚类集合,att定义第一步(1.3)计算得到的注视图区域;
4.2)观测似然度的计算
在第一步中计算出的注视区域将图像分割为不相交两部分,定义注视区域为I,其余部分为O;观测似然概率的计算有如下定义:
p ( v | s a l ) = Π F ∈ { 1 , a , b } N I ( f ( v ) ) N I - - - ( 12 )
p ( v | b k ) = Π f ∈ { 1 , a , b } N 0 ( f ( v ) ) N 0 - - - ( 13 )
其中,NI定义区域I中像素的数量,NO定义区域O中像素的数量,f(v)定义像素v在CIELab颜色空间的呈现,NI(f(v))和NO(f(v))定义NI包含f(v)以及NO包含f(v)的数量;
4.3)初始显著图的计算
利用贝叶斯框架,计算图像中每一个像素的显著概率,得到初始的显著图,通过如下公式定义计算出初始显著图:
p ( s a l | v ) = p ( s a l ) p ( v | s a l ) p ( s a l ) p ( v | s a l ) + p ( b k ) p ( v | b k ) - - - ( 14 )
p(bk)=1-p(sal) (15)
对于三层聚类结果,经过以上步骤的计算得到三层初始显著图
第五步,融合三层初始显著图,计算得到最终的显著图;
5.1)计算最终显著图
融合以上步骤计算得到的三层初始显著图,利用公式(16)计算得到最终的显著图;
2.根据权利要求1所述的一种基于被包围状态和贝叶斯模型的图像显著性检测方法,其特征在于,第一步所述的计算包括显著物体的注视区域的具体步骤为:
1.1)采用公式(1)计算得到一组二值图;
B i = T H R E S H ( φ ( I ) , θ ) , φ ~ F φ , θ ~ F θ φ . - - - ( 1 )
其中,Fφ是用于特征通道采样的先验分布函数;是用于在特征通道θ上进行阈值采样的先验分布函数;φ(I)是定义的一个特征图,φ(I)∈[0,1];Bi是产生的二值图,i=1,2,…..,16;
1.2)基于步骤1.1)得到的二值图,对二值图进行激活,激活二值图中的被包围区域;
M+(B)=M(B)∧B, (2)
其中,M(B)为二值图的激活图,激活图M(B)将所有被包围的像素值设为1,没有被包围的值设为0;M+(B)、M-(B)为M(B)的两个子激活图;
1.3)计算得到包括显著物体的注视区域
根据步骤1.2)得到的两个子激活图,利用公式(4)计算得到每一个二值图的初始注视图,再利用公式(5)对得到的二值图的初始注视图进行归一化处理,得到最终的注视图,所述的注视图为得到的包括显著物体的注视区域;
A ( B ) = H + ( B ) | | H + ( B ) | | 2 + H - ( B ) | | H - ( B ) | | 2 - - - ( 4 )
A ‾ = s u m ( A i ( B ) ) / max i ( A i ( B ) ) - - - ( 5 )
其中,A(B)是经计算得到的初始注视图,i=1,2,…..,16;为计算得到的最终注视图。
3.根据权利要求1或2所述的一种基于被包围状态和贝叶斯模型的图像显著性检测方法,其特征在于,第二步所述的建立超像素图的模型的具体步骤为:
2.1)利用简单线性迭代聚类算法对初始图像进行图像处理,得到一幅图像的超像素图;
2.2)超像素节点之间边的建立以及边的权重的计算
基于步骤2.1)得到的超像素图,以每一个超像素作为节点,在相邻超像素之间建立边的连接关系;如果不相邻的两个超像素与同一超像素连接,那么对这两个超像素建立边的连接关系;
利用公式(6)计算超像素图中连接的两个超像素节点之间的权重wi,j
w i , j = exp ( - | | c i - c j | | 2 σ 2 ) , - - - ( 6 )
其中,ci和cj表示两个超像素的特性均值;σ2是一个平衡参数,设置为0.1;
2.3)建立超像素图的模型G=(V,E);其中,V是超像素节点的集合,E是建立的边的集合。
CN201710119498.7A 2017-03-03 2017-03-03 一种基于被包围状态和贝叶斯模型的图像显著性检测方法 Pending CN106960434A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710119498.7A CN106960434A (zh) 2017-03-03 2017-03-03 一种基于被包围状态和贝叶斯模型的图像显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710119498.7A CN106960434A (zh) 2017-03-03 2017-03-03 一种基于被包围状态和贝叶斯模型的图像显著性检测方法

Publications (1)

Publication Number Publication Date
CN106960434A true CN106960434A (zh) 2017-07-18

Family

ID=59470124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710119498.7A Pending CN106960434A (zh) 2017-03-03 2017-03-03 一种基于被包围状态和贝叶斯模型的图像显著性检测方法

Country Status (1)

Country Link
CN (1) CN106960434A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320281A (zh) * 2018-01-19 2018-07-24 福建师范大学 一种基于多特征扩散的图像显著性检测方法及终端
CN108416347A (zh) * 2018-01-04 2018-08-17 天津大学 基于边界先验和迭代优化的显著目标检测算法
CN109614872A (zh) * 2018-11-13 2019-04-12 中国科学院遥感与数字地球研究所 一种基于改进的bl模型建成区提取方法
CN112149688A (zh) * 2020-09-24 2020-12-29 北京汽车研究总院有限公司 图像处理方法与装置、计算机可读存储介质、计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722891A (zh) * 2012-06-12 2012-10-10 大连理工大学 一种图像显著度检测的方法
CN104217438A (zh) * 2014-09-19 2014-12-17 西安电子科技大学 基于半监督的图像显著性检测方法
CN105427314A (zh) * 2015-11-23 2016-03-23 西安电子科技大学 基于贝叶斯显著性的sar图像目标检测方法
CN106447679A (zh) * 2016-10-17 2017-02-22 大连理工大学 一种基于迭代图割和自适应聚类的显著性检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722891A (zh) * 2012-06-12 2012-10-10 大连理工大学 一种图像显著度检测的方法
CN104217438A (zh) * 2014-09-19 2014-12-17 西安电子科技大学 基于半监督的图像显著性检测方法
CN105427314A (zh) * 2015-11-23 2016-03-23 西安电子科技大学 基于贝叶斯显著性的sar图像目标检测方法
CN106447679A (zh) * 2016-10-17 2017-02-22 大连理工大学 一种基于迭代图割和自适应聚类的显著性检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIANMING ZHANG等: "Exploiting Surroundedness for Saliency Detection: A Boolean Map Approach", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
LINHUA JIANG 等: "Saliency Detection via Background Seeds Combined With Bayesian Model", 《2016 IEEE INTERNATIONAL CONFERENCE ON COMPUTER AND INFORMATION TECHNOLOGY》 *
许晓丽: "基于聚类分析的图像分割算法研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416347A (zh) * 2018-01-04 2018-08-17 天津大学 基于边界先验和迭代优化的显著目标检测算法
CN108320281A (zh) * 2018-01-19 2018-07-24 福建师范大学 一种基于多特征扩散的图像显著性检测方法及终端
CN108320281B (zh) * 2018-01-19 2021-11-09 福建师范大学 一种基于多特征扩散的图像显著性检测方法及终端
CN109614872A (zh) * 2018-11-13 2019-04-12 中国科学院遥感与数字地球研究所 一种基于改进的bl模型建成区提取方法
CN112149688A (zh) * 2020-09-24 2020-12-29 北京汽车研究总院有限公司 图像处理方法与装置、计算机可读存储介质、计算机设备

Similar Documents

Publication Publication Date Title
Kim et al. Detecting construction equipment using a region-based fully convolutional network and transfer learning
WO2019140767A1 (zh) 安检识别系统及其控制方法
Mnih et al. Learning to label aerial images from noisy data
CN107844743B (zh) 一种基于多尺度分层残差网络的图像多字幕自动生成方法
JP2022518939A (ja) 検出モデルのトレーニング方法、装置、コンピュータデバイス及びコンピュータプログラム
CN106960434A (zh) 一种基于被包围状态和贝叶斯模型的图像显著性检测方法
CN110363131B (zh) 基于人体骨架的异常行为检测方法、系统及介质
CN106803071A (zh) 一种图像中的物体检测方法及装置
CN106780430A (zh) 一种基于被包围状态和马尔可夫模型的图像显著性检测方法
Ni et al. Learning to photograph: A compositional perspective
CN106446015A (zh) 一种基于用户行为偏好的视频内容访问预测与推荐方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN116229560B (zh) 一种基于人体姿态的异常行为识别方法及系统
CN108171141A (zh) 基于注意力模型的级联多模式融合的视频目标跟踪方法
CN103942535B (zh) 多目标跟踪方法及装置
CN105447145A (zh) 一种基于项目的迁移学习推荐方法及其推荐装置
CN103605984A (zh) 基于超图学习的室内场景分类方法
CN104680193B (zh) 基于快速相似性网络融合算法的在线目标分类方法与系统
Huyan et al. Pixelwise asphalt concrete pavement crack detection via deep learning‐based semantic segmentation method
CN106056590A (zh) 基于Manifold Ranking和结合前景背景特征的显著性检测方法
CN109544837A (zh) 一种基于3dcnn的超市安防系统
CN110334719A (zh) 一种提取遥感影像中建筑物图像的方法及系统
CN107590477A (zh) 一种监控视频异常事件的检测装置及其方法
Puri COCO dataset stuff segmentation challenge
Sang et al. Small-object sensitive segmentation using across feature map attention

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170718