CN107292923B - 基于深度图挖掘的后向传播图像视觉显著性检测方法 - Google Patents

基于深度图挖掘的后向传播图像视觉显著性检测方法 Download PDF

Info

Publication number
CN107292923B
CN107292923B CN201710513077.2A CN201710513077A CN107292923B CN 107292923 B CN107292923 B CN 107292923B CN 201710513077 A CN201710513077 A CN 201710513077A CN 107292923 B CN107292923 B CN 107292923B
Authority
CN
China
Prior art keywords
depth
image
conspicuousness
region
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710513077.2A
Other languages
English (en)
Other versions
CN107292923A (zh
Inventor
李革
朱春彪
王文敏
王荣刚
黄铁军
高文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Shenzhen Graduate School
Original Assignee
Peking University Shenzhen Graduate School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Shenzhen Graduate School filed Critical Peking University Shenzhen Graduate School
Priority to CN201710513077.2A priority Critical patent/CN107292923B/zh
Publication of CN107292923A publication Critical patent/CN107292923A/zh
Priority to US16/336,737 priority patent/US11227178B2/en
Priority to PCT/CN2017/112788 priority patent/WO2019000821A1/zh
Application granted granted Critical
Publication of CN107292923B publication Critical patent/CN107292923B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公布了一种基于深度图挖掘的后向传播显著性检测方法,对于一个输入图像Io,在预处理阶段,获取图像Io的深度图像Id和四角背景去除的图像Cb;在第一处理阶段,利用得到的去四角背景图像Cb和深度图像Id,对图像的显著性区域进行定位检测,得到图像中显著性物体的初步检测结果S1;然后对深度图像Id进行多个处理阶段的深度挖掘,得到相应的显著性检测结果;再利用后向传播机制,对每个处理阶段挖掘的显著性检测结果进行优化,得到最终的显著性检测结果图。本发明提供了一种后向传播机制来优化显著性检测结果,且能够提高显著性物体检测的精准性。

Description

基于深度图挖掘的后向传播图像视觉显著性检测方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种对深度图进行深度挖掘的多阶段后向传播视觉显著性检测算法。
背景技术
在面对一个复杂场景时,人眼的注意力会迅速集中在少数几个显著的视觉对象上,并对这些对象进行优先处理,该过程被称为视觉显著性。显著性检测正是利用人眼的这种视觉生物学机制,用数学的计算方法模拟人眼对图像进行适当的处理,从而获得一张图片的显著性物体。由于我们可以通过显著性区域来优先分配图像分析与合成所需要的计算资源,所以,通过计算来检测图像的显著性区域意义重大。提取出的显著性图像可以广泛应用于许多计算机视觉领域的应用,包括对兴趣目标物体的图像分割,目标物体的检测与识别,图像压缩与编码,图像检索,内容感知图像编辑等方面。
通常来说,现有的显著性检测框架主要分为:自底向上的显著性检测方法和自顶向下的显著性检测方法。目前大多采用自底向上的显著性检测方法,它是基于数据驱动的,且独立于具体的任务;而自顶向下的显著性检测方法是受意识支配的,与具体任务相关。
现有方法中,自底向上的显著性检测方法大多使用低水平的特征信息,例如颜色特征、距离特征和一些启发式的显著性特征等。尽管这些方法有各自的优点,但是在一些特定场景下的具有挑战性的数据集上,这些方法表现的不够精确,不够健壮。为了解决这一问题,随着3D图像采集技术的出现,目前已有方法通过采用深度信息来增强显著性物体检测的精准度。尽管深度信息可以增加显著性物体检测的精准度,但是,当一个显著性物体与其背景有着低对比的深度时,还是会影响显著性检测的精准度。
综合来看,现有的图像显著性物体检测方法在检测显著性物体时精准度不高,方法健壮性不够强,容易造成误检、漏检等情况,很难得到一个精确的图像显著性检测结果,不仅造成显著性物体本身的错检,同时也会对利用显著性检测结果的应用造成一定的误差。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种对深度图进行深度挖掘的后向传播显著性检测算法,能够解决现有的显著性检测不够精确,不够健壮性的问题,使图像中的显著性区域更精准地显现出来,为后期的目标识别和分类等应用提供精准且有用的信息。
本发明提供的技术方案是:
一种基于深度图挖掘的后向传播显著性检测方法,在预处理阶段获取图像的深度图以及四角背景去除的图像,在第一处理阶段利用颜色、深度、距离信息对图像的显著性区域进行定位检测,得到图像中显著性物体的初步检测结果,再对深度图从多个层面(处理阶段)进行深度的挖掘,得到相应的显著性检测结果,再利用后向传播机制,对每层挖掘的结果进行优化,得到最终的显著性检测结果图,其实现包括如下步骤:
1)预处理阶段:对于一个输入图像Io,首先利用Kinect设备获取深度图像,定义为Id;其次利用BSCA算法去掉图像的四角背景边缘,将得到的去四角背景图像定义为Cb。其中,BSCA算法在文献(Qin Y,Lu H,Xu Y,et al.Saliency detection via Cellular Automata[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2015:110-119.)中记载。
2)第一处理阶段:利用得到的去四角背景图像Cb和深度图像Id,对输入图像Io进行初步的显著性检测,得到初步的显著性监测结果,定义为:S1
具体包括步骤11-步骤15:
步骤11、利用K-means算法将图像分成K个区域,并通过式(1)计算得到每个子区域的颜色显著值Sc(rk):
其中,rk和ri分别代表区域k和i,Dc(rk,ri)表示区域k和区域i在L*a*b颜色空间上的欧氏距离,Pi代表区域i所占图像区域的比例,Ws(rk)定义如下:
其中,Do(rk,ri)表示区域k和区域i的坐标位置距离,σ是一个参数控制着Ws(rk)的范围。
步骤12、同颜色显著性值计算方式一样,通过式(3)计算深度图的深度显著性值Sd(rk):
其中,Dd(rk,ri)是区域k和区域i在深度空间的欧氏距离。
步骤13、通常来说,显著性物体都位于中心位置,通过式(4)计算区域k的中心和深度权重Ss(rk):
其中,G(·)表示高斯归一化,||·||表示欧氏距离操作,Pk是区域k的位置坐标,Po是该图像的坐标中心,Nk是区域k的像素数量。Wd(dk)是深度权重,定义如下:
Wd(dk)=(max{d}-dk)μ (5)
其中,max{d}表示深度图的最大深度,dk表示区域k的深度值,μ是一个与计算的深度图有关的参数,定义如下:
其中,min{d}表示深度图的最小深度。
步骤14、利用式(7)得到粗糙的显著性检测结果Sfc(rk),为第一处理阶段未优化的初步的显著性检测结果;
Sfc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)) (7)
步骤15、为了优化初步的显著性检测结果,利用预处理阶段的深度图Id(dk)和去四角背景的图像Cb对式(7)的结果进行加强,如式8:
S1(rk)指的是式7的Sfc(rk)的优化结果,即第一处理阶段优化后的检测结果;
3)第二处理阶段:将深度图转化为彩色图,利用第一处理阶段计算过程和后向传播机制的优化,得到中级显著性检测结果,定义为S2
3)第三处理阶段:对深度图进行背景过滤,再将过滤后的深度图转化为彩色图,利用第二处理阶段计算过程和后向传播机制的优化,得到最后的显著性检测结果S。
与现有技术相比,本发明的有益效果是:
本发明提供了一种基于深度图挖掘的多层后向传播显著性检测算法,首先在预处理层获取图像的深度图和去四角背景图,再利用第一层的显著性检测算法基于图像颜色、空间、深度等信息计算出初步的显著性结果,然后通过第二层和第三层对深度图进行深度挖掘并用第一层的计算方式进行显著性检测,最后对二、三层的显著性检测结果应用后向传播机制的优化,得到二次显著性检测结果图和最终显著性检测结果图。
本发明能够更加精准,更加鲁棒地检测出显著性物体。与现有技术相比,本发明具有以下技术优势:
(一)由于对深度图进行多层的挖掘,本发明能够提高显著性物体检测的精准性。
(二)本发明提供了一种后向传播机制来优化各层的显著性检测结果。
附图说明
图1为本发明提供的流程框图。
图2为本发明实施例中对输入图像分别采用现有方法、采用本发明方法检测图像得到的检测结果图像,以及人工标定期望得到图像的对比图;
其中,第一列为输入图像,第二列为人工标定期望得到的图像,第三列为本发明的检测结果图像,第四列至第十列为现有其他方法得到的检测结果图像。
具体实施方式
下面结合图例,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
本发明提供了一种基于深度图挖掘的多层后向传播显著性检测算法,能够更加精准,更加鲁棒地检测出显著性物体。本发明首先在预处理层/阶段获取图像的深度图以及四角背景去除的图像,其次在第一层、第二层以及第三层,分别对深度图进行挖掘,得到相应的显著性检测结果,最后利用后向传播机制去优化各层/处理阶段的显著性检测结果,得到最后的显著性检测结果图。图1为本发明提供的显著性物体检测方法的流程框图,包括以下步骤:
步骤一、输入一张待检测的图像Io,得到去除四角背景的图像Cb和该图像的深度图Id;其中,利用文献(Qin Y,Lu H,Xu Y,et al.Saliency detection via CellularAutomata[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2015:110-119.)记载的BSCA算法得到去除四角背景的图像Cb,利用Kinect设备得到的该图像的深度图Id
算法第一层操作:(步骤二-步骤六)
步骤二、利用K-means算法将图像分成K个区域,并通过式(1)计算得到每个子区域的颜色显著值Sc(rk):
其中,rk和ri分别代表区域k和i,Dc(rk,ri)表示区域k和区域i在L*a*b颜色空间上的欧氏距离,Pi代表区域i所占图像区域的比例,Ws(rk)定义如下:
其中,Do(rk,ri)表示区域k和区域i的坐标位置距离,σ是一个参数控制着Ws(rk)的范围。
步骤三、同颜色显著性值计算方式一样,通过式(3)计算深度图的深度显著性值Sd(rk):
其中,Dd(rk,ri)是区域k和区域i在深度空间的欧氏距离。
步骤四、通常来说,显著性物体都位于中心位置,通过式(4)计算区域k的中心和深度权重Ss(rk):
其中,G(·)表示高斯归一化,||·||表示欧氏距离操作,Pk是区域k的位置坐标,Po是该图像的坐标中心,Nk是区域k的像素数量。Wd(dk)是深度权重,定义如下:
Wd(dk)=(max{d}-dk)μ (5)
其中,max{d}表示深度图的最大深度,dk表示区域k的深度值,μ是一个与计算的深度图有关的参数,定义如下:
其中,min{d}表示深度图的最小深度。
步骤五、利用式(7)得到粗糙的显著性检测结果Sfc(rk),为第一处理阶段未优化的初步的显著性检测结果;
Sfc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)) (7)
步骤六、为了优化初步的显著性检测结果,利用预处理阶段的深度图Id(dk)和去四角背景的图像Cb对式(7)的结果进行加强,如式8:
S1(rk)指的是式7的Sfc(rk)的优化结果,即第一处理阶段优化后的检测结果;
算法第二层操作:(步骤七-步骤九)
步骤七、进一步挖掘深度图,首先把深度图通过式(9)扩展成基于深度的彩色图:
Ie<R|G|B>=Io<R|G|B>×Id (9)
其中,Ie是扩展之后的基于深度的彩色图。
步骤八、将扩展后的基于深度的彩色图通过第一层的步骤二至步骤五操作,得到第二层的粗糙显著性检测结果Ssc(rk):
Ssc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)), (10)
步骤九、为了优化粗糙显著性检测结果,利用后向传播机制,用第一层的初步检测结果(式(7)计算得到的结果)对第二层的粗糙检测结果进行优化,通过式(11)实现,得到我们的中级显著性检测结果S2(rk):
算法第三层操作:(步骤十-步骤十三)
步骤十、再进一步挖掘深度图,首先利用公式(12)将深度图进行背景过滤处理,得到过滤后的深度图Idf
其中,Idf是背景过滤后的深度图。
步骤十一、将过滤后的深度图通过第二层第七步的公式(9)的操作扩展成彩色图,定义为Ief
步骤十二、将过滤深度图的彩色图Ief通过第一层的步骤二至步骤五操作,得到第三层的粗糙显著性检测结果Stc(rk):
Stc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)) (13)
步骤十三、为了优化粗糙显著性检测结果,利用后向传播机制,用第一层和第二层的初步检测结果对第三层的粗糙检测结果进行优化,通过式(14)实现,得到我们最后的显著性检测结果S(rk):
图2为对输入图像分别采用现有方法、本发明方法检测图像得到的检测结果图像,以及人工标定期望得到的图像,其中,第一列为输入图像,第二列为人工标定期望得到的图像,第三列为本发明的检测结果图像,第四列至第十列为采用现有其他方法得到的检测结果图像。通过图2的图像对比,可以看出,相对其他方法,我们的方法可以检测出的显著性物体,误差率最低,精准度最高,具有很好的鲁棒性。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (3)

1.一种基于深度图挖掘的后向传播显著性检测方法,对于一个输入图像Io
在预处理阶段,获取图像Io的深度图像Id和四角背景去除的图像Cb
在第一处理阶段,利用得到的去四角背景图像Cb和深度图像Id,对图像的显著性区域进行定位检测,得到图像中显著性物体的初步检测结果;包括步骤11-步骤15:
步骤11、利用K-means算法将图像分成K个区域,并通过式(1)计算得到每个子区域的颜色显著值Sc(rk):
其中,rk和ri分别代表区域k和i,Dc(rk,ri)表示区域k和区域i在L*a*b颜色空间上的欧氏距离,Pi代表区域i所占图像区域的比例,Ws(rk)通过式(2)得到:
其中,Do(rk,ri)表示区域k和区域i的坐标位置距离,σ是控制着Ws(rk)范围的参数;
步骤12、通过式(3)计算深度图的深度显著性值Sd(rk):
其中,Dd(rk,ri)是区域k和区域i在深度空间的欧氏距离;
步骤13、通过式(4)计算区域k的中心和深度权重Ss(rk):
其中,G(·)表示高斯归一化,||·||表示欧氏距离操作,Pk是区域k的位置坐标,Po是该图像的坐标中心,Nk是区域k的像素数量;Wd(dk)是深度权重,通过式(5)计算得到:
Wd(dk)=(max{d}-dk)μ (5)
其中,max{d}表示深度图的最大深度,dk表示区域k的深度值;μ是与计算的深度图有关的参数,通过式(6)计算得到:
其中,min{d}表示深度图的最小深度;
步骤14、利用式(7)得到粗糙的显著性检测结果Sfc(rk):
Sfc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)) (7)
显著性检测结果Sfc(rk)即为第一处理阶段得到的初步的显著性检测结果;然后对深度图像Id进行多个处理阶段的深度挖掘,得到相应的显著性检测结果;所述对深度图像Id进行多个处理阶段的深度挖掘,包括第二处理阶段和第三处理阶段的深度挖掘;
所述第二处理阶段的处理具体包括步骤21-步骤23:
步骤21、将深度图像Id通过式(9)扩展成基于深度的彩色图Ie
Ie<R|G|B>=Io<R|G|B>×Id (9)
其中,Ie是扩展之后的基于深度的彩色图;
步骤22、将扩展后的基于深度的彩色图Ie通过所述第一处理阶段对图像的显著性区域进行定位检测的方法,得到第二处理阶段的粗糙显著性检测结果Ssc(rk),表示为式(10):
Ssc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)), (10)
步骤23、利用后向传播机制,用第一处理阶段的初步检测结果对步骤22所述第二处理阶段的粗糙显著性检测结果进行优化,通过式(11)得到中级显著性检测结果S2(rk):
所述第三处理阶段的处理具体包括步骤31-步骤34:
步骤31、再进一步挖掘深度图像,利用式(12)将深度图像进行背景过滤处理,得到过滤后的深度图Idf
其中,Idf是背景过滤后的深度图;
步骤32、将过滤后的深度图通过式(9)的操作扩展成彩色图,定义为Ief
步骤33、将过滤深度图的彩色图Ief通过所述第一处理阶段对图像的显著性区域进行定位检测的方法操作,得到第三处理阶段的粗糙显著性检测结果Stc(rk),表示为式(13):
Stc(rk)=G(Sc(rk)Ss(rk)+Sd(rk)Ss(rk)) (13)
步骤34、利用后向传播机制,用第一处理阶段和第二处理阶段的初步检测结果对第三处理阶段的粗糙检测结果进行优化,通过式(14)得到显著性检测结果S(rk):
由此得到最终的显著性检测结果图。
2.如权利要求1所述基于深度图挖掘的后向传播显著性检测方法,其特征是,具体利用Kinect设备获取深度图像Id
3.如权利要求1所述基于深度图挖掘的后向传播显著性检测方法,其特征是,将第一处理阶段得到的初步的显著性检测结果进行优化,具体利用预处理阶段的深度图Id(dk)和去四角背景的图像Cb对式(7)的结果进行加强优化,如式8:
即得到第一处理阶段优化后的检测结果S1(rk)。
CN201710513077.2A 2017-06-29 2017-06-29 基于深度图挖掘的后向传播图像视觉显著性检测方法 Active CN107292923B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710513077.2A CN107292923B (zh) 2017-06-29 2017-06-29 基于深度图挖掘的后向传播图像视觉显著性检测方法
US16/336,737 US11227178B2 (en) 2017-06-29 2017-11-24 Back-propagation image visual saliency detection method based on depth image mining
PCT/CN2017/112788 WO2019000821A1 (zh) 2017-06-29 2017-11-24 基于深度图挖掘的后向传播图像视觉显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710513077.2A CN107292923B (zh) 2017-06-29 2017-06-29 基于深度图挖掘的后向传播图像视觉显著性检测方法

Publications (2)

Publication Number Publication Date
CN107292923A CN107292923A (zh) 2017-10-24
CN107292923B true CN107292923B (zh) 2019-03-01

Family

ID=60099950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710513077.2A Active CN107292923B (zh) 2017-06-29 2017-06-29 基于深度图挖掘的后向传播图像视觉显著性检测方法

Country Status (3)

Country Link
US (1) US11227178B2 (zh)
CN (1) CN107292923B (zh)
WO (1) WO2019000821A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292923B (zh) * 2017-06-29 2019-03-01 北京大学深圳研究生院 基于深度图挖掘的后向传播图像视觉显著性检测方法
CN108615040B (zh) * 2018-04-03 2019-10-29 北京联合大学 一种计算图像局部特征描述子的方法
CN110211115B (zh) * 2019-06-03 2023-04-07 大连理工大学 一种基于深度引导元胞自动机的光场显著性检测实现方法
CN110458797B (zh) * 2019-06-18 2023-05-30 南开大学 一种基于深度图过滤器的显著性物体检测方法
CN113901929A (zh) * 2021-10-13 2022-01-07 河北汉光重工有限责任公司 一种基于显著性的动态目标检测与识别的方法及装置
CN115330774B (zh) * 2022-10-12 2023-05-19 南通林多光学仪器有限公司 焊接图像熔池边缘检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145892A (zh) * 2017-05-24 2017-09-08 北京大学深圳研究生院 一种基于自适应融合机制的图像显著性物体检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140378810A1 (en) * 2013-04-18 2014-12-25 Digimarc Corporation Physiologic data acquisition and analysis
CN104050682B (zh) * 2014-07-09 2017-01-18 武汉科技大学 一种融合颜色和深度信息的图像分割方法
CN104835146A (zh) * 2015-04-14 2015-08-12 上海大学 基于深度信息和图切割的立体图像中显著对象分割方法
US9390315B1 (en) * 2015-06-25 2016-07-12 A9.Com, Inc. Image match for featureless objects
CN105761238B (zh) * 2015-12-30 2018-11-06 河南科技大学 一种通过灰度统计数据深度信息提取显著目标的方法
CN105787938A (zh) * 2016-02-25 2016-07-20 上海大学 一种基于深度图的人物分割方法
CN107292923B (zh) * 2017-06-29 2019-03-01 北京大学深圳研究生院 基于深度图挖掘的后向传播图像视觉显著性检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145892A (zh) * 2017-05-24 2017-09-08 北京大学深圳研究生院 一种基于自适应融合机制的图像显著性物体检测方法

Also Published As

Publication number Publication date
WO2019000821A1 (zh) 2019-01-03
US20210287034A1 (en) 2021-09-16
CN107292923A (zh) 2017-10-24
US11227178B2 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
CN107292923B (zh) 基于深度图挖掘的后向传播图像视觉显著性检测方法
CN107292318B (zh) 基于中心暗通道先验信息的图像显著性物体检测方法
Boyer et al. SHREC 2011: robust feature detection and description benchmark
US9619691B2 (en) Multi-view 3D object recognition from a point cloud and change detection
CN105809651B (zh) 基于边缘非相似性对比的图像显著性检测方法
CN107862698A (zh) 基于k均值聚类的光场前景分割方法及装置
CN105869120A (zh) 一种图像拼接的实时性优化方法
CN103971116A (zh) 基于Kinect的感兴趣区域检测方法
CN103679636A (zh) 基于点、线双重特征的快速图像拼接方法
CN102495998B (zh) 基于视觉选择性注意计算模型的静态目标检测方法
CN104123529A (zh) 人手检测方法及系统
CN105389774A (zh) 对齐图像的方法和装置
CN108154066B (zh) 一种基于曲率特征递归神经网络的三维目标识别方法
CN114926747A (zh) 一种基于多特征聚合与交互的遥感图像定向目标检测方法
US8970593B2 (en) Visualization and representation of data clusters and relations
Sansoni et al. Optoranger: A 3D pattern matching method for bin picking applications
Hamid et al. LSM: perceptually accurate line segment merging
CN107145892B (zh) 一种基于自适应融合机制的图像显著性物体检测方法
CN117557784B (zh) 目标检测方法、装置、电子设备及存储介质
Kallasi et al. Computer vision in underwater environments: A multiscale graph segmentation approach
CN104331711A (zh) 基于多尺度模糊测度与半监督学习的sar图像识别方法
Lee et al. Entity matching across stereo cameras for tracking construction workers
CN116883945A (zh) 一种融合目标边缘检测和尺度不变特征变换的人员识别定位方法
CN103679764A (zh) 一种图像生成方法及装置
Chen et al. independent 3D object segmentation for randomly stacked objects using optical object detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant