CN107452013A - 基于Harris角点检测和Sugeno模糊积分的显著性检测方法 - Google Patents

基于Harris角点检测和Sugeno模糊积分的显著性检测方法 Download PDF

Info

Publication number
CN107452013A
CN107452013A CN201710388325.5A CN201710388325A CN107452013A CN 107452013 A CN107452013 A CN 107452013A CN 201710388325 A CN201710388325 A CN 201710388325A CN 107452013 A CN107452013 A CN 107452013A
Authority
CN
China
Prior art keywords
mrow
msub
color
mfrac
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710388325.5A
Other languages
English (en)
Inventor
高振国
潘永菊
陈丹杰
陈炳才
卢志茂
姚念民
李培华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fine Happy Life Secure Systems Ltd Of Shenzhen
Original Assignee
Fine Happy Life Secure Systems Ltd Of Shenzhen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fine Happy Life Secure Systems Ltd Of Shenzhen filed Critical Fine Happy Life Secure Systems Ltd Of Shenzhen
Priority to CN201710388325.5A priority Critical patent/CN107452013A/zh
Publication of CN107452013A publication Critical patent/CN107452013A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Harris角点检测和Sugeno模糊积分的显著性检测方法。使用角点检测可以在一定程度上确定目标的区域范围,使后续检测工作量更具有针对性,提高算法的鲁棒性。使用模糊积分的形式将不同的颜色特征依据检测贡献的大小进行融合,将能使各个特征的优势得到更好的发挥。首先采用颜色增强的Harris检测目标显著点,并采用DBSCAN聚簇分类。使用凸包划分前景区域和背景区域。然后在初步划分的两部分区域上,分别统计各个颜色特征的颜色直方图。采用贝叶斯概率模型计算每一个超像素置信度函数和各个特征模糊测度。最后使用Sugeno模糊积分对每一超像素的各特征进行积分融合,生成最终的显著图。该发明在MSRA数据集上进行测试,能够得到较好的显著性检测结果。

Description

基于Harris角点检测和Sugeno模糊积分的显著性检测方法
技术领域
本发明属于图像处理领域,涉及一种基于Harris角点检测和Sugeno模糊 积分的显著性检测方法,采用Harris角点检测方法检测目标角点,使用凸包划 分得到大概的前景区域,在三个颜色特征上计算超像素属于前景的概率并应用 于模糊积分的模糊测度计算。模糊积分将各个特征的优势依据具体图像进行有 效的融合,属于自底向上显著性检测模型。
背景技术
一般情况下,人们只会对视觉场景中感兴趣的只是某个局部而不是视力范 围内的所有物体。显著性检测技术能够模拟人类的视觉系统,检测出图像中最 能吸引人们注意最能表现图像内容的显著部分。这部分相对于它的邻近区域突 出,比如在颜色、纹理、形状等方面与邻近区域有较明显的区别。
目前,随着人们对显著性检测的研究越来越深入,已经涌现出来很多好的 检测方法与检测模型。自底向上的显著性检测模型是图像显著性检测中运用比 较广泛的一种模型,相比于基于高层语义信息的自顶向下显著性检测模型,它 基于底层特征,能更有效的检测图像的细节信息。同时,人们发现对比度是对 检测结果影响较大的因素。对比度即两个单元在颜色、梯度、亮度、空间距离、 形状等特征上的差别程度。根据对比单元分布,对比度分为全局对比度和局部 对比度。局部对比度方法是基于周围邻近像素估计一特定区域的显著性,这类 方法能产生较清晰的显著图,但忽略了全局关系结构,而且对图像的高频部分 更为敏感。全局对比度方法在整幅图像上考察对比度关系。这类方法倾向于将 大范围的目标同周围环境分离开,检测结果通常优于会在轮廓附近产生较高显 著性的局部对比度方法,但是由于较多关注整幅图像的结构和统计特征,需要 解决复杂的整合问题。对于特征差异较明显的图像,利用对比度理论能够得到 较好的显著性检测结果,但是这种方法需要有明确的背景单元或者是前景单元 作为参照进行特征间的对比计算,从而得到像素显著性值,而且针对各个特征 对检测结果的影响,没有一个较好的融合方法。
发明内容
本发明考虑到各个特征的重要程度,提出了一种基于Harris角点检测和 Sugeno模糊积分的显著性检测方法,目的在于克服现有技术的不足。采用 Harris角点检测来提取目标显著点并使用凸包来得到大致的前景区域。针对各 个底层特征,采用贝叶斯概率模型作为积分的置信度计算函数,对每一个超像 素在各个特征上得到的前景概率值使用模糊积分进行融合,得到较好的显著性 图。
本发明的技术方案:
基于Harris角点检测和Sugeno模糊积分的显著性检测方法,步骤如下:
步骤1.依据目标角点确定显著区域:首先对输入的图像进行颜色增强,然 后采用Harris角点检测方法来检测显著目标的角点,并使用DBSCAN聚类算 法对能量值最大的角点进行分簇,消除噪音点。最后使用凸包将各个聚类区域 划分为大致前景区域,剩余部分暂定为为背景区域。
步骤2.计算置信度:基于各颜色空间的互补性,在多种颜色特征上计算像 素点成为前景的概率。在各颜色直方图上,采用贝叶斯概率模型计算像素点成 为前景的概率。本发明中采用CIELab、Ohta、HSV三种颜色空间。
步骤3.计算模糊测度:对前景区域和背景区域的超像素置信度求均值,两 均值的差值作为超像素的模糊密度函数,根据λ模糊测度定义计算λ值并求得积 分公式中各颜色特征的模糊测度。
步骤4.积分融合:对各个颜色空间上得到的像素概率进行模糊积分,得到 最终的显著图。
本发明的有益效果:本发明所提出的基于Harris角点检测和Sugeno模 糊积分的显著性检测方法,首先考虑到了由于噪声、光照变化等的影响,像素 存在错误划分的可能性,而采用模糊积分能更好的处理这种不确定性。其次, 采用颜色增强的Harris角点检测,能够获得大致的前景区域,这对后续的操 作提供了准确性的指引,减少无用工作量。模糊积分针对具体的图像,能够根 据各个颜色特征对检测结果的重要程度进行融合,检测出更为准确的前景区域, 得到较好的显著图。
附图说明
图1是本发明图像显著性检测方法的流程图
图2是本发明的实例检测流程的效果图
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
针对上述四个步骤,对每一个步骤进行以下具体说明:
步骤1:依据目标角点确定显著区域
1.1检测目标显著点:首先,对输入的图像进行颜色增强,并采用Harris 角点检测来检测目标显著点。然后计算颜色增强后的Harris角点能量函数并 选取能量值最大的角点来作为选取的目标显著点。
1.2设定前景区域和背景区域:使用DBSCAN算法将选取的角点进行分 簇,消除噪音点。采用包含所有选取的角点的多个凸包区域作为初步设定的前 景区域F,凸包外的作为初步设定的背景区域B。令N代表图像中所有超像素 个数,Nf表示在前景区域F中的超像素个数,Nb代表背景区域B超像素 个数。
步骤2:计算置信度
2.1统计各颜色直方图:本发明中采用三种颜色空间,针对每一个颜色特 征,分别统计凸包内外区域F和B的颜色直方图。
2.2设置置信度函数:本发明中,将贝叶斯概率模型作为模糊积分中的置 信度函数,函数形式表示为h(x)。针对每一超像素p,在x颜色特征上其置信度 为:
其中,表示前景区域在整幅图像中的比例,P(B)=1-P(F)表示背 景区域在整幅图像中的比例。Cp为超像素p的颜色通道向量
P(Cp|F)和P(Cp|B)计算公式如下:
其中分别表示前景区域中超像素p的每一个颜色向量值所在颜色区间在对应的颜色直方图中的值。分别表 示背景区域中超像素p的颜色向量值所在颜色区间在对应颜色直方图中的值。
根据以上方法,分别在CIELab、Ohta、HSV三个颜色空间上计算超像素 的置信度,超像素p的置信度函数分别表示为hp(x1)、hp(x2)、hp(x3)。
步骤3:计算模糊测度
3.1计算λ模糊测度的λ值:模糊测度表示积分的各元素对积分结果的重要 程度,本发明中,模糊测度表示各颜色特征对积分结果的重要程度。本发明中, 令特征集合表示为X={x1,x2,x3},x1、x2、x3分别表示CIELab、Ohta、HSV颜 色特征。在Sugeno模糊积分定义中,若模糊测度满足条件:存在常数λ,λ>-1,使得g(A∪B)=g(A)+g(B)+λg(A)g(B),则称g为λ-模糊测度。 λ可通过一下公式得到:
其中,gi=g({xi})表示模糊密度函数。
本发明中,采用各个颜色特征上前景区域与背景区域的超像素置信度的均值 差作为其模糊密度,它用于表示单个颜色特征划分前景区域和背景区域的能力。 由以下公式得到:
其中,表示在颜色特征xi上前景区域超像素属于前景的概率均值,表 示在颜色特征xi上背景区域超像素属于背景的概率均值。
由公式(4)和公式(5)可得到λ值。
3.2计算每个超像素上各特征的模糊测度:针对每个超像素p,其在特征集 合X={x1,x2,x3}上,有h:1≥hp(x1)≥hp(x2)≥hp(x3)≥0,若h无法满足这个关系,则 将集合X的元素重新排列直到满足这个关系为止。设θ为排序函数,应有 Xθ={xθ(1),xθ(2),xθ(3)}满足关系1≥hp(xθ(1))≥hp(xθ(2))≥hp(xθ(3))≥0,且当g是λ模糊测度 时,对Aθ(1)={xθ(1)},Aθ(2)={xθ(1),xθ(2)},Aθ(3)={xθ(1),xθ(2),xθ(3)}等任意集合,g(Ai)的值 可由下式计算:
g(Aθ(1))=g({Xθ(1)})=gθ(1) (6)
g(Aθ(2))=gθ(2)+g(Aθ(1))+λgθ(2)g(Aθ(1)) (7)
g(Aθ(3))=gθ(3)+g(Aθ(2))+λgθ(3)g(Aθ(2)) (8)
其中gθ(i)=g({xθ(i)}),λ由步骤3.1得到。
步骤4:积分融合
最后一步是依据步骤2和步骤3得到的置信度函数h和模糊测度函数g,采用Sugeno模糊积分函数对每一超像素p在本发明中采用的三个特征上进行积分融 合。每一个超像素在集合特征X上的关于模糊测度g的函数h的Sugeno积分可 如下计算:

Claims (14)

1.基于Harris角点检测和Sugeno模糊积分的显著性检测方法,该方法包括以下步骤:
步骤1:依据目标角点确定显著区域。
步骤2:设置积分的置信度。
步骤3:设置积分的模糊测度。
步骤4:Sugeno积分融合。
2.权利要求1所述的方法,特征在于,所述步骤1包括:
步骤1a:对图像进行颜色增强计算,并采用Harris进行目标角点检测来获取目标显著点。
步骤1b:对获取的目标显著点进行聚类分簇,消除噪音点。采用凸包将选取的目标显著点包起来形成前景区域,其余部分为背景区域。
3.根据权利要求2中所述的方法,其特征在于,在所述步骤1b中,采用的聚类方法为DBSCAN聚类算法,此聚类算法基于密度对数据点进行聚类,能消除噪音点。
4.权利要求1中步骤2中所述的积分的置信度,其特征在于统计各颜色特征分别在前景区域和背景区域两部分区域上的颜色直方图。采用贝叶斯概率模型作为计算置信度的函数。包括以下步骤:
步骤2a:统计颜色直方图,分别统计步骤1中所得到的前景区域和背景区域的颜色直方图。
步骤2b:设置置信度函数,采用贝叶斯概率模型作为计算置信度的函数。
5.根据权利要求4中所述的方法,其特征在于,所述步骤2a中,颜色特征采用CIELab、Ohta、HSV三种颜色空间。这三种颜色特征对于亮度和光照变化等比RGB颜色特征稳定。
6.根据权利要求5中所述的方法,其特征在于,所述步骤2b中,将贝叶斯概率模型作为模糊积分中的置信度函数,函数形式表示为h(x)。针对每一超像素p,在x颜色特征上其置信度为:
<mrow> <msub> <mi>h</mi> <mi>p</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>F</mi> <mo>|</mo> <msub> <mi>C</mi> <mi>p</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mi>p</mi> </msub> <mo>|</mo> <mi>F</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>F</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mi>p</mi> </msub> <mo>|</mo> <mi>F</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>F</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mi>p</mi> </msub> <mo>|</mo> <mi>B</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>B</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,表示前景区域在整幅图像中的比例,P(B)=1-P(F)表示背景区域在整幅图像中的比例。Cp为超像素p的颜色通道向量
7.根据权利要求6中所述的方法,其特征在于,P(Cp|F)和P(Cp|B)计算公式如下:
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mi>p</mi> </msub> <mo>|</mo> <mi>F</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>f</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>C</mi> <mi>p</mi> <mn>1</mn> </msubsup> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>f</mi> </msub> </mfrac> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>f</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>C</mi> <mi>p</mi> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>f</mi> </msub> </mfrac> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>f</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>C</mi> <mi>p</mi> <mn>3</mn> </msubsup> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>f</mi> </msub> </mfrac> </mrow>
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mi>p</mi> </msub> <mo>|</mo> <mi>B</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>b</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>C</mi> <mi>p</mi> <mn>1</mn> </msubsup> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>b</mi> </msub> </mfrac> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>b</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>C</mi> <mi>p</mi> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>b</mi> </msub> </mfrac> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>b</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>C</mi> <mi>p</mi> <mn>3</mn> </msubsup> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>b</mi> </msub> </mfrac> </mrow>
其中分别表示前景区域中超像素p的每一个颜色向量值所在颜色区间在对应的颜色直方图中的值。分别表示背景区域中超像素p的颜色向量值所在颜色区间在对应颜色直方图中的值。
8.根据权利要求4中所述的方法,其特征在于,所述步骤2b中,分别在CIELab、Ohta、HSV三个颜色空间上计算超像素的置信度,超像素p的置信度函数分别表示为hp(x1)、hp(x2)、hp(x3),令特征集合表示为X={x1,x2,x3},x1、x2、x3分别表示CIELab、Ohta、HSV颜色特征。
9.权利要求1步骤3中所述的设置积分的置信度,其特征在于对前景区域和背景区域的超像素置信度求均值,两均值的差值作为超像素的模糊密度函数。根据λ模糊测度定义计算λ值并求得积分公式中各颜色特征的模糊测度。包括以下步骤:
步骤3a:采用权利要求7中所求的置信度至,求模糊密度函数,并求得λ模糊测度的λ值。
步骤3b:计算每个超像素上各特征的模糊测度。
10.根据权利要求9中所述的方法,其特征在于所述步骤3a中所述的模糊密度函数的计算如下:
<mrow> <msub> <mi>g</mi> <mi>i</mi> </msub> <mo>=</mo> <msqrt> <msup> <mrow> <mo>(</mo> <mover> <msub> <mi>h</mi> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mi>f</mi> <mo>)</mo> </mrow> </mrow> </msub> <mo>&amp;OverBar;</mo> </mover> <mo>-</mo> <mover> <msub> <mi>h</mi> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mi>b</mi> <mo>)</mo> </mrow> </mrow> </msub> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mn>2</mn> </msup> </msqrt> </mrow>
其中,表示在颜色特征xi上前景区域超像素属于前景的概率均值,表示在颜色特征xi上背景区域超像素属于背景的概率均值。
11.根据权利要求9中所述的方法,其特征在于所述步骤3a中所述的λ模糊测度的λ值计算公式如下:
<mrow> <mn>1</mn> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>=</mo> <mover> <mo>&amp;Pi;</mo> <mi>n</mi> </mover> <mrow> <mo>(</mo> <mn>1</mn> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>&amp;times;</mo> <msub> <mi>g</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow>
其中,gi=g({xi})表示模糊密度函数。
12.根据权利要求9中所述的方法,其特征在于所述步骤3b中所述的计算每个超像素上各特征的模糊测度,需对每个超像素p,其在特征集合X={x1,x2,x3}上,有h:1≥hp(x1)≥hp(x2)≥hp(x3)≥0,若h无法满足这个关系,则将集合X的元素重新排列直到满足这个关系为止。设θ为排序函数,应有Xθ={xθ(1),xθ(2),xθ(3)}满足关系1≥hp(xθ(1))≥hp(xθ(2))≥hp(xθ(3))≥0。
13.根据权利要求9中所述的方法,其特征在于所述步骤3b中所述的计算每个超像素上各特征的模糊测度,其当g是λ模糊测度时,对Aθ(1)={xθ(1)},Aθ(2)={xθ(1),xθ(2)},Aθ(3)={xθ(1),xθ(2),xθ(3)}等任意集合,g(Ai)的值可由下式计算:
g(Aθ(1))=g({Xθ(1)})=gθ(1)
g(Aθ(2))=gθ(2)+g(Aθ(1))+λgθ(2)g(Aθ(1))
g(Aθ(3))=gθ(3)+g(Aθ(2))+λgθ(3)g(Aθ(2))
其中gθ(i)=g({xθ(i)}),λ由权利要求13中所述方法得到。
14.权利要求1步骤4中所述方法,特征在于,采用Sugeno积分来进行特征融合。
依据权利要求11和权利要求13得到的置信度函数h和模糊测度函数g,采用Sugeno模糊积分函数对每一超像素p在三个颜色特征上进行积分融合。每一个超像素在集合特征X上的关于模糊测度g的函数h的Sugeno积分可如下计算:
CN201710388325.5A 2017-05-27 2017-05-27 基于Harris角点检测和Sugeno模糊积分的显著性检测方法 Pending CN107452013A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710388325.5A CN107452013A (zh) 2017-05-27 2017-05-27 基于Harris角点检测和Sugeno模糊积分的显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710388325.5A CN107452013A (zh) 2017-05-27 2017-05-27 基于Harris角点检测和Sugeno模糊积分的显著性检测方法

Publications (1)

Publication Number Publication Date
CN107452013A true CN107452013A (zh) 2017-12-08

Family

ID=60486971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710388325.5A Pending CN107452013A (zh) 2017-05-27 2017-05-27 基于Harris角点检测和Sugeno模糊积分的显著性检测方法

Country Status (1)

Country Link
CN (1) CN107452013A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945202A (zh) * 2017-12-19 2018-04-20 北京奇虎科技有限公司 基于自适应阈值的图像分割方法、装置及计算设备
CN108154488A (zh) * 2017-12-27 2018-06-12 西北工业大学 一种基于显著图像块分析的图像运动模糊去除方法
CN108369731A (zh) * 2018-02-02 2018-08-03 深圳前海达闼云端智能科技有限公司 模板优化方法、装置、电子设备和计算机程序产品
CN113723424A (zh) * 2020-05-25 2021-11-30 中移(苏州)软件技术有限公司 一种目标检测方法及装置、设备、存储介质
CN113743424A (zh) * 2021-09-15 2021-12-03 昆明理工大学 一种全尾砂动态絮凝沉降图像特征点提取的dbscan聚类分析方法
CN117745563A (zh) * 2024-02-21 2024-03-22 深圳市格瑞邦科技有限公司 一种双摄像头结合的平板电脑增强显示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722891A (zh) * 2012-06-12 2012-10-10 大连理工大学 一种图像显著度检测的方法
CN104103082A (zh) * 2014-06-06 2014-10-15 华南理工大学 一种基于区域描述和先验知识的图像显著性检测方法
WO2016066038A1 (zh) * 2014-10-27 2016-05-06 阿里巴巴集团控股有限公司 一种图像主体提取方法及系统
CN106327507A (zh) * 2016-08-10 2017-01-11 南京航空航天大学 一种基于背景和前景信息的彩色图像显著性检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722891A (zh) * 2012-06-12 2012-10-10 大连理工大学 一种图像显著度检测的方法
CN104103082A (zh) * 2014-06-06 2014-10-15 华南理工大学 一种基于区域描述和先验知识的图像显著性检测方法
WO2016066038A1 (zh) * 2014-10-27 2016-05-06 阿里巴巴集团控股有限公司 一种图像主体提取方法及系统
CN106327507A (zh) * 2016-08-10 2017-01-11 南京航空航天大学 一种基于背景和前景信息的彩色图像显著性检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
侯帅,韩中庚,黄洁,于俊杰: "基于Sugeno模糊积分的多分类器融合方法在多属性决策中的应用", 《信息工程大学学报》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945202A (zh) * 2017-12-19 2018-04-20 北京奇虎科技有限公司 基于自适应阈值的图像分割方法、装置及计算设备
CN107945202B (zh) * 2017-12-19 2021-07-23 北京奇虎科技有限公司 基于自适应阈值的图像分割方法、装置及计算设备
CN108154488A (zh) * 2017-12-27 2018-06-12 西北工业大学 一种基于显著图像块分析的图像运动模糊去除方法
CN108154488B (zh) * 2017-12-27 2019-10-22 西北工业大学 一种基于显著图像块分析的图像运动模糊去除方法
CN108369731A (zh) * 2018-02-02 2018-08-03 深圳前海达闼云端智能科技有限公司 模板优化方法、装置、电子设备和计算机程序产品
CN113723424A (zh) * 2020-05-25 2021-11-30 中移(苏州)软件技术有限公司 一种目标检测方法及装置、设备、存储介质
CN113723424B (zh) * 2020-05-25 2024-08-13 中移(苏州)软件技术有限公司 一种目标检测方法及装置、设备、存储介质
CN113743424A (zh) * 2021-09-15 2021-12-03 昆明理工大学 一种全尾砂动态絮凝沉降图像特征点提取的dbscan聚类分析方法
CN117745563A (zh) * 2024-02-21 2024-03-22 深圳市格瑞邦科技有限公司 一种双摄像头结合的平板电脑增强显示方法
CN117745563B (zh) * 2024-02-21 2024-05-14 深圳市格瑞邦科技有限公司 一种双摄像头结合的平板电脑增强显示方法

Similar Documents

Publication Publication Date Title
CN107452013A (zh) 基于Harris角点检测和Sugeno模糊积分的显著性检测方法
CN106023257B (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN103632361B (zh) 一种图像分割方法和系统
CN107644429A (zh) 一种基于强目标约束视频显著性的视频分割方法
CN107133558B (zh) 一种基于概率传播的红外行人显著性检测方法
Aytekın et al. Unsupervised building detection in complex urban environments from multispectral satellite imagery
CN104103082A (zh) 一种基于区域描述和先验知识的图像显著性检测方法
CN104616308A (zh) 一种基于核模糊聚类的多尺度水平集图像分割方法
CN109919053A (zh) 一种基于监控视频的深度学习车辆停车检测方法
CN102722891A (zh) 一种图像显著度检测的方法
CN103578083B (zh) 基于联合均值漂移的单幅图像去雾方法
CN107564022A (zh) 基于贝叶斯融合的视频显著性检测方法
CN101950364A (zh) 基于邻域相似度和阈值分割的遥感图像变化检测方法
CN104680546A (zh) 一种图像显著目标检测方法
CN106778635A (zh) 一种基于视觉显著性的人体区域检测方法
CN108022244B (zh) 一种基于前景和背景种子用于显著目标检测的超图优化方法
CN108830131B (zh) 基于深度学习的交通目标检测与测距方法
CN108038856B (zh) 基于改进多尺度分形增强的红外小目标检测方法
CN103020993A (zh) 一种双通道颜色对比度融合的视觉显著性检测方法
CN107369158A (zh) 基于rgb‑d图像的室内场景布局估计及目标区域提取方法
CN106991686A (zh) 一种基于超像素光流场的水平集轮廓跟踪方法
CN102663723A (zh) 一种基于颜色样本与电场模型的图像分割方法
CN109410235B (zh) 融合边缘特征的目标跟踪方法
CN111047603A (zh) 一种基于新型马尔可夫随机场和区域合并的航拍图像混合分割算法
CN107451595A (zh) 基于混合算法的红外图像显著性区域检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171208