CN105654475A - 基于可区分边界和加权对比度的图像显著性检测方法及其装置 - Google Patents
基于可区分边界和加权对比度的图像显著性检测方法及其装置 Download PDFInfo
- Publication number
- CN105654475A CN105654475A CN201510998155.3A CN201510998155A CN105654475A CN 105654475 A CN105654475 A CN 105654475A CN 201510998155 A CN201510998155 A CN 201510998155A CN 105654475 A CN105654475 A CN 105654475A
- Authority
- CN
- China
- Prior art keywords
- super
- pixel
- background
- border
- omega
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于可区分边界和加权对比度的图像显著性检测方法及其装置,首先把输入图像分割为超像素,构造图模型;根据测地线变换和Hausdorff距离,对超像素的背景性进行估计,然后根据背景图构造加权对比度测度,形成超像素的显著值;最后对超像素的显著值进行阈值化,输出显著图。本发明利用背景概率改进了超像素的对比度计算方法,提高了显著性检测算法的性能。
Description
技术领域
本发明属于图像分析技术领域,特别是一种基于可区分边界和加权对比度的图像显著性检测算法及其装置。
背景技术
图像显著性检测用于获取图像中最容易引起人眼注意的区域,一直是计算机视觉领域中的一个研究热点,被广泛应用于图像分割、重定位、目标跟踪、视频压缩等领域。显著性检测算法通常分为自底向上和自顶向下两种模式。前者基于低级视觉特征,由数据驱动;后者基于高级视觉特征,由知识和任务驱动。其中比较有代表性的包括基于“Center-Surround”的差异模型、基于图的模型、频域模型以及基于直方图的全局对比度模型。这些模型多数是基于对比度优先或中心优先原则构造的。
自从Wei[文献1:WeiY,WenF,ZhuW,etal.Geodesicsaliencyusingbackgroundpriors.12thEuropeanConferenceonComputerVision.Florence,Italy:Springer,2012.29-42]提出利用图像边界作为背景的思路,越来越多的算法采用背景优先或边界优先原则,取得了较好的检测效果。在Yang[文献2:YangC,ZhangL,LuH,etal.Saliencydetectionviagraph-basedmanifoldranking.IEEEConferenceonComputerVisionandPatternRecognition.Portland,USA:IEEE,2013.3166–3173]的算法中,计算像素到图像边界的流形排序值定义显著性;在Li[文献3:LiX,LuH,ZhangL,etal.Saliencydetectionviadenseandsparsereconstruction.IEEEConferenceonComputerVision.Sydney,Australia:IEEE,2013.2976–2983]的算法中,将边界作为先验种子,分别利用密集重构、稀疏重构和贝叶斯融合计算显著性;而Zhu提出的鲁棒背景检测(RobustBackgroundDetection,RBD)[文献4:ZhuW,LiangS,WeiY,etal.Saliencyoptimizationfromrobustbackgrounddetection.IEEEConferenceonComputerVisionandPatternRecognition.Columbus,USA:IEEE,2014.2814–2821]算法使用边界连通度的概念来估计背景概率,然后对局部对比度进行加权,算法性能得到较大提升。
但是这些算法共同的缺点是把四个边界都作为背景来处理,没有考虑显著区域与边界直接接触的情况。另外,这些算法存在人为地将图像各边界当做先验背景的错误,不能准确判断图像各个边界的背景性,造成目标位于边界带来的误判别。尽管RBD算法可以检测部分边界目标情况,但其置信度不高,造成其后期的优化模型效果有限。
发明内容
本发明的目的在于提供一种基于可区分边界和加权对比度的图像显著性检测方法及其装置,通过对边界背景性概率的估计,提高了与边界相连的非边界区域背景性的估计精度,从而改善了算法生成的图像显著图质量。
实现本发明目的的技术解决方案为:一种基于可区分边界和加权对比度的图像显著性检测防范及其装置,实现步骤如下:
首先,把输入图像分割为超像素,构造图模型;
其次,根据测地线变换和Hausdorff距离,对超像素的背景性进行估计,即分别计算基于边界连通性的背景概率和基于可区分边界的背景概率,并对两种背景概率合成为背景图;
然后,根据背景图构造加权对比度测度,形成超像素的显著值;
最后,对超像素的显著值进行阈值化,输出显著图。
本发明与现有技术相比,其显著优点:(1)本发明充分考虑了显著目标与边界接触的情况,对该情况的误判大幅度减少。(2)由于超像素背景判别概率的增加,使得对显著区域检测的准确性有较大幅度的提升。(3)首先利用各边界之间的差异计算其背景性,然后使用测地线距离变换估计背景图,有效地解决了目标位于边界带来的误判别问题,提高了与边界相连的非边界区域背景性的估计精度,从而改善了算法生成的图像显著图质量。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于可区分边界和加权对比度的图像显著性检测方法的流程图。
图2是BC方法和BD方法的背景图和显著图实例比较:(a)原图;(b)BC背景图;(c)BC优化后显著图;(d)DB背景图;(e)仅背景加权对比度;(f)前景-背景加权对比度;(g)输出显著图;(h)真值。
图3是BC方法和BD方法在MSRA图库上的显著性检测性能对比图:(a)P-R曲线图,(b)MAE直方图。本发明在MSRA数据集上的量化分析,即SB:选择背景图;wCB:只背景加权的对比度;wCFB:前景-背景加权的对比度;wCOBC:基于BC背景加权对比度输出的显著图;wCODB:基于DB背景加权对比度输出的显著图;wCOSB:平均背景加权对比度输出的显著图。
具体实施方式
本发明基于可区分边界和加权对比度的图像显著性检测装置,包括依次连接的图模型构造模块、背景图形成模块、超像素显著值的计算模块和显著图输出模块;
所述的图模型构造模块中,把输入图像分割为超像素,构造图模型;
在背景图形成模块中,根据测地线变换和Hausdorff距离,对超像素的背景性进行估计,即分别计算基于边界连通性的背景概率和基于可区分边界的背景概率,并对两种背景概率合成为背景图;
超像素显著值的计算模块根据背景图构造加权对比度测度,形成超像素的显著值;
显著图输出模块对超像素的显著值进行阈值化,输出显著图。
结合图1,本发明基于可区分边界和加权对比度的图像显著性检测方法的具体实现步骤如下:
1、把输入图像分割为超像素,构造图模型。
首先采用SLIC算法将原图分割为N个超像素,每个超像素的特征使用该区域内所有像素CIELab空间内的颜色平均值表示。构造加权无向图G=<V,E>,V表示超像素点集,E表示相邻超像素之间的边集。这里边的权重定义为:
其中dC(pi,pj)表示超像素pi和pj在CIELab空间上平均颜色值的欧氏距离,选取CIELab颜色空间主要是由于其和人类感知更加吻合。σC用来控制权重的强度,在[5,15]之间不敏感,在本发明中取10为例进行说明。
2、根据测地线变换和Hausdorff距离,对超像素的背景性进行估计,即分别计算基于边界连通性的背景概率和基于可区分边界的背景概率,并对两种背景概率合成为背景图。
步骤1,计算基于边界连通性(BC方法)的背景概率。按照RBD算法的步骤,根据人眼直观感受和大量数据统计,用边界连通度(BoundaryConnectivity,BC)构造背景图:
其中,Area(pi)表示跟超像素pi特征相近的连通区域的面积,Lenbnd(pi)表示连通区域跟边界Bnd相交的长度。一个超像素pi的背景概率被定义为:
其中σBC用来控制影响的权重,经验性地取为1。
步骤2,计算基于可区分边界(BD方法)的背景概率。对常规的背景区域,BC法处理的效果较好,但对位于边界的显著目标检测效果较差。主要是因为该方法在计算边界背景时,把各边界都作为背景处理,导致后续计算存在较大误差。因此,需要对图像各边界的背景性进行可靠的预估计。针对显著目标与边界接触的问题,本发明设计了可区分边界的背景估计方法(BackgroundDiscriminated,BD)。
首先定义图像的四个边界为B={top,bottom,left,right},然后定义与图像各边界相交的超像素集合,分别用边界集合Bn(n=1,2,3,4)表示。使用测地线距离变换获得任意超像素p到边界集合Bn(n=1,2,3,4)的最短测地线距离D(p;Bn)。利用最短测地线距离,我们把每个图像内部的超像素pi到每个边界的相似度定义为:
σB用于控制权重的强度,在本发明中取所有测地线距离变换D(p;Bn)的标准差。但如前所述,每个边界并不一定完全就是背景,需要对每个边界是否可能存在前景区域进行估计。这里采用广义Hausdorff距离比较各边之间的差异度:
H(Bn,Bm)=max(h(Bn,Bm),h(Bm,Bn))
其中h(Bn,Bm)表示不同边界集合的Hausdorff距离。以H(Bn,Bm)为元素,构造边界超像素集合的4×4差异度矩阵H,然后将H按列相加得到每条边与其他边的差异度则每个边界的背景性被定义为:
其中为L的均值,thdL为设定的阈值,在本发明中通过实验测试取为0.5。如果某边和其他边差异度超过平均值一定阈值,则认为该边界很可能存在前景区域,且偏差越大背景概率越小。通常一条边界不可能全是前景区域,所以设定P(Bn)的下界为0.5。根据全概率公式,得出以边界Bn作为背景的所有超像素的背景概率:
上式前一项表示与高背景性的边界越相似的超像素背景概率应该越大,后一项表示与低背景性的边界差异越大的超像素背景概率应该越小。每选定一条边就可以确定全图中每个超像素的背景概率,从而形成一张背景图。最终的背景图定义为四个背景图的平均值:
为了避免超像素的背景概率值过大或过小,同时为了保证前景目标的查全率,这里使用Sigmoid函数对上述概率进行平滑和拉伸:
这里以参数b=0.6,c=15为例进行说明。
步骤3,两种背景概率的合成,结果如图2所示。根据BC法和BD法获得的背景概率,直接把它们求平均值,从而获得每个超像素pi的背景概率:
3、根据背景图构造加权对比度测度,形成超像素的显著值。
本发明定义的局部对比度能克服下列两个问题:一是对于大目标的内部区域由于其周围超像素的背景概率基本为0,导致累积对比度之和会相对较低,会产生内部空洞;二是对于目标周围的背景区域抑制不够,会保留甚至产生更大的噪声。按上述思路,本发明使用背景概率加权计算超像素的局部对比度:
其中dC(pi,pj)是超像素pi和pj在CIELab空间上平均颜色值的欧氏距离,是超像素位置空间加权距离,本发明中取σs=0.25。为超像素pj的背景概率。上式的定义,表明空间距离越近、颜色相差越大、越不是背景的超像素,它的具备对比度值越高。由于在局部对比度计算时加入了前景概率,构造出前景-背景双重加权的对比度,从而可以较好地抑制背景区域,同时加强了前景区域的显著性。
4、对超像素的显著值进行阈值化,输出显著图。
对局部对比度图进行阈值化,选择一个固定的阈值,把局部对比度图的每个像素值与阈值进行比较,完成二值化,大于阈值的像素在显著图中作为显著点输出。
本发明对算法进行了性能分析,如图3所示。首先,计算各每张图像的显著图MAE值和F-Measure值作为评判指标的真值。本发明采用P-R(精度-召回率)曲线、F-measure值、MAE(MeanAbsoluteError,平均绝对差)值进行评估。P-R曲线通过[0,255]的滑动阈值对每个显著图进行二值化,和真值进行比对求得相应的精度(Precision)和召回率(Recall),然后在整个图库上进行平均。F-measure一般采用一个自适应的阈值(如平均显著值的2倍)对图像进行二值化,然后分别求得精度和召回率:
这里一般取β2=0.3以强调精度。MAE被定义为显著图S和真值G的绝对误差的平均值:
Claims (8)
1.一种基于可区分边界和加权对比度的图像显著性检测方法,其特征在于步骤如下:
首先,把输入图像分割为超像素,构造图模型;
其次,根据测地线变换和Hausdorff距离,对超像素的背景性进行估计,即分别计算基于边界连通性的背景概率和基于可区分边界的背景概率,并对两种背景概率合成为背景图;
然后,根据背景图构造加权对比度测度,形成超像素的显著值;
最后,对超像素的显著值进行阈值化,输出显著图。
2.根据权利要求1所述的基于可区分边界和加权对比度的图像显著性检测方法,其特征在于构造图模型的过程为:
首先采用SLIC算法将原图分割为N个超像素,每个超像素的特征使用该区域内所有像素CIELab空间内的颜色平均值表示,构造加权无向图G=<V,E>,V表示超像素点集,E表示相邻超像素之间的边集,其边权重定义为:
其中dC(pi,pj)表示超像素pi和pj在CIELab空间上平均颜色值的欧氏距离,σC用来控制权重的强度。
3.根据权利要求1所述的基于可区分边界和加权对比度的图像显著性检测方法,其特征在于对超像素的背景性进行估计的具体步骤为:
步骤1,计算基于边界连通性BC方法的背景概率,按照RBD算法的步骤,形成BC方法的背景图:
其中,Area(pi)表示跟超像素pi特征相近的连通区域的面积,Lenbnd(pi)表示连通区域跟边界Bnd相交的长度,一个超像素pi的背景概率被定义为:
其中σBC用来控制影响的权重;
步骤2,计算基于可区分边界BD方法的背景概率,针对显著目标与边界接触的问题,设计可区分边界的背景估计方法BD,即:
首先定义图像的四个边界为B={top,bottom,left,right},然后定义与图像各边界相交的超像素集合,分别用边界集合Bn(n=1,2,3,4)表示,使用测地线距离变换获得任意超像素p到边界集合Bn(n=1,2,3,4)的最短测地线距离D(p;Bn);利用最短测地线距离,把每个图像内部的超像素pi到每个边界的相似度定义为:
σB用于控制权重的强度,并对每个边界是否可能存在前景区域进行估计,采用广义Hausdorff距离比较各边之间的差异度:
H(Bn,Bm)=max(h(Bn,Bm),h(Bm,Bn))
其中h(Bn,Bm)表示不同边界集合的Hausdorff距离,以H(Bn,Bm)为元素,构造边界超像素集合的4×4差异度矩阵H,然后将H按列相加得到每条边与其他边的差异度则每个边界的背景性被定义为:
其中为L的均值,thdL为设定的阈值,如果某边和其他边差异度超过平均值一定阈值,则认为该边界很可能存在前景区域,且偏差越大背景概率越小;根据全概率公式,得出以边界Bn作为背景的所有超像素的背景概率:
每选定一条边来确定全图中每个超像素的背景概率,从而形成一张背景图,最终的背景图定义为四个背景图的平均值:
为了避免超像素的背景概率值过大或过小,同时为了保证前景目标的查全率,这里使用Sigmoid函数对上述概率进行平滑和拉伸:
步骤3,两种背景概率的合成,根据BC法和BD法获得的背景概率,直接把它们求平均值,从而获得每个超像素pi的背景概率:
4.根据权利要求1所述的基于可区分边界和加权对比度的图像显著性检测方法,其特征在于使用背景概率加权计算超像素的局部对比度:
其中dC(pi,pj)是超像素pi和pj在CIELab空间上平均颜色值的欧氏距离,是超像素位置空间加权距离,为超像素pj的背景概率;上式局部对比度表明空间距离越近、颜色相差越大、越不是背景的超像素,其对比度值越高,超像素的显著值越大。
5.一种基于可区分边界和加权对比度的图像显著性检测装置,其特征在于包括依次连接的图模型构造模块、背景图形成模块、超像素显著值的计算模块和显著图输出模块,以及输入接口与图模型构造模块连接,输出接口与显著图输出模块连接;
所述的图模型构造模块中,将从输入接口输入的图像分割为超像素,构造图模型;
在背景图形成模块中,根据测地线变换和Hausdorff距离,对超像素的背景性进行估计,即分别计算基于边界连通性的背景概率和基于可区分边界的背景概率,并对两种背景概率合成为背景图;
超像素显著值的计算模块根据背景图构造加权对比度测度,形成超像素的显著值;
显著图输出模块对超像素的显著值进行阈值化,从输出接口输出显著图。
6.根据权利要求5所述的基于可区分边界和加权对比度的图像显著性检测装置,其特征在于图模型构造模块按照以下方式构造图模型,即:
首先采用SLIC算法将原图分割为N个超像素,每个超像素的特征使用该区域内所有像素CIELab空间内的颜色平均值表示,构造加权无向图G=<V,E>,V表示超像素点集,E表示相邻超像素之间的边集,其边权重定义为:
其中dC(pi,pj)表示超像素pi和pj在CIELab空间上平均颜色值的欧氏距离,σC用来控制权重的强度。
7.根据权利要求5所述的基于可区分边界和加权对比度的图像显著性检测装置,其特征在于背景图形成模块按照以下方式对超像素的背景性进行估计,即:
步骤1,计算基于边界连通性BC方法的背景概率,按照RBD算法的步骤,形成BC方法的背景图:
其中,Area(pi)表示跟超像素pi特征相近的连通区域的面积,Lenbnd(pi)表示连通区域跟边界Bnd相交的长度,一个超像素pi的背景概率被定义为:
其中σBC用来控制影响的权重;
步骤2,计算基于可区分边界BD方法的背景概率,针对显著目标与边界接触的问题,设计可区分边界的背景估计方法BD,即:
首先定义图像的四个边界为B={top,bottom,left,right},然后定义与图像各边界相交的超像素集合,分别用边界集合Bn(n=1,2,3,4)表示,使用测地线距离变换获得任意超像素p到边界集合Bn(n=1,2,3,4)的最短测地线距离D(p;Bn);利用最短测地线距离,把每个图像内部的超像素pi到每个边界的相似度定义为:
σB用于控制权重的强度,并对每个边界是否可能存在前景区域进行估计,采用广义Hausdorff距离比较各边之间的差异度:
H(Bn,Bm)=max(h(Bn,Bm),h(Bm,Bn))
其中h(Bn,Bm)表示不同边界集合的Hausdorff距离,以H(Bn,Bm)为元素,构造边界超像素集合的4×4差异度矩阵H,然后将H按列相加得到每条边与其他边的差异度则每个边界的背景性被定义为:
其中L为L的均值,thdL为设定的阈值,如果某边和其他边差异度超过平均值一定阈值,则认为该边界很可能存在前景区域,且偏差越大背景概率越小;根据全概率公式,得出以边界Bn作为背景的所有超像素的背景概率:
每选定一条边来确定全图中每个超像素的背景概率,从而形成一张背景图,最终的背景图定义为四个背景图的平均值:
为了避免超像素的背景概率值过大或过小,同时为了保证前景目标的查全率,这里使用Sigmoid函数对上述概率进行平滑和拉伸:
步骤3,两种背景概率的合成,根据BC法和BD法获得的背景概率,直接把它们求平均值,从而获得每个超像素pi的背景概率:
8.根据权利要求5所述的基于可区分边界和加权对比度的图像显著性检测装置,其特征在于超像素显著值的计算模块按照以下方式使用背景概率加权计算超像素的局部对比度,即:
其中dC(pi,pj)是超像素pi和pj在CIELab空间上平均颜色值的欧氏距离,是超像素位置空间加权距离,为超像素pj的背景概率;上式局部对比度表明空间距离越近、颜色相差越大、越不是背景的超像素,其对比度值越高,超像素的显著值越大。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510998155.3A CN105654475B (zh) | 2015-12-25 | 2015-12-25 | 基于可区分边界和加权对比度的图像显著性检测方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510998155.3A CN105654475B (zh) | 2015-12-25 | 2015-12-25 | 基于可区分边界和加权对比度的图像显著性检测方法及其装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105654475A true CN105654475A (zh) | 2016-06-08 |
CN105654475B CN105654475B (zh) | 2018-07-06 |
Family
ID=56477062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510998155.3A Active CN105654475B (zh) | 2015-12-25 | 2015-12-25 | 基于可区分边界和加权对比度的图像显著性检测方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105654475B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127744A (zh) * | 2016-06-17 | 2016-11-16 | 广州市幸福网络技术有限公司 | 图像前景和背景边界显著性评估方法及系统 |
CN106373131A (zh) * | 2016-08-25 | 2017-02-01 | 上海交通大学 | 基于边缘的图像显著性区域检测方法 |
CN107133558A (zh) * | 2017-03-13 | 2017-09-05 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN108133218A (zh) * | 2017-12-14 | 2018-06-08 | 内蒙古科技大学 | 红外目标检测方法、设备及介质 |
CN109255784A (zh) * | 2018-09-13 | 2019-01-22 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109448019A (zh) * | 2018-09-27 | 2019-03-08 | 华南理工大学 | 一种变分光流模型平滑参数的自适应方法 |
CN110009704A (zh) * | 2019-03-28 | 2019-07-12 | 武汉大学 | 一种珞珈一号夜光遥感影像的动态范围压缩方法和系统 |
CN111966857A (zh) * | 2020-08-19 | 2020-11-20 | 南京英德利汽车有限公司 | 一种检测改装车辆的方法及检测系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745468A (zh) * | 2014-01-07 | 2014-04-23 | 上海交通大学 | 一种基于图结构和边界先验的显著性物体检测方法 |
CN104463870A (zh) * | 2014-12-05 | 2015-03-25 | 中国科学院大学 | 一种图像显著区域检测方法 |
CN104537355A (zh) * | 2015-01-12 | 2015-04-22 | 中南大学 | 一种利用图像边界信息和区域连通性的显著对象检测方法 |
-
2015
- 2015-12-25 CN CN201510998155.3A patent/CN105654475B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745468A (zh) * | 2014-01-07 | 2014-04-23 | 上海交通大学 | 一种基于图结构和边界先验的显著性物体检测方法 |
CN104463870A (zh) * | 2014-12-05 | 2015-03-25 | 中国科学院大学 | 一种图像显著区域检测方法 |
CN104537355A (zh) * | 2015-01-12 | 2015-04-22 | 中南大学 | 一种利用图像边界信息和区域连通性的显著对象检测方法 |
Non-Patent Citations (3)
Title |
---|
HONG LI 等: "Robust Salient Object Detection and Segmentation", 《ICIG 2015-THE 8TH INTERNATIONAL CONFERENCE ON IMAGE AND GRAPHICS》 * |
WANGJIANG ZHU 等: "Saliency Optimization from Robust Background Detection", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
吕建勇 等: "一种基于图的流形排序的显著性目标检测改进方法", 《电子与信息学报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127744B (zh) * | 2016-06-17 | 2019-05-14 | 广州市幸福网络技术有限公司 | 图像前景和背景边界显著性评估方法及系统 |
CN106127744A (zh) * | 2016-06-17 | 2016-11-16 | 广州市幸福网络技术有限公司 | 图像前景和背景边界显著性评估方法及系统 |
CN106373131B (zh) * | 2016-08-25 | 2020-11-06 | 上海交通大学 | 基于边缘的图像显著性区域检测方法 |
CN106373131A (zh) * | 2016-08-25 | 2017-02-01 | 上海交通大学 | 基于边缘的图像显著性区域检测方法 |
CN107133558A (zh) * | 2017-03-13 | 2017-09-05 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107133558B (zh) * | 2017-03-13 | 2020-10-20 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN108133218A (zh) * | 2017-12-14 | 2018-06-08 | 内蒙古科技大学 | 红外目标检测方法、设备及介质 |
CN109255784A (zh) * | 2018-09-13 | 2019-01-22 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109255784B (zh) * | 2018-09-13 | 2021-06-25 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109448019A (zh) * | 2018-09-27 | 2019-03-08 | 华南理工大学 | 一种变分光流模型平滑参数的自适应方法 |
CN109448019B (zh) * | 2018-09-27 | 2022-02-15 | 华南理工大学 | 一种变分光流模型平滑参数的自适应方法 |
CN110009704A (zh) * | 2019-03-28 | 2019-07-12 | 武汉大学 | 一种珞珈一号夜光遥感影像的动态范围压缩方法和系统 |
CN111966857A (zh) * | 2020-08-19 | 2020-11-20 | 南京英德利汽车有限公司 | 一种检测改装车辆的方法及检测系统 |
CN111966857B (zh) * | 2020-08-19 | 2023-09-29 | 南京英德利汽车有限公司 | 一种检测改装车辆的方法及检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105654475B (zh) | 2018-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105654475A (zh) | 基于可区分边界和加权对比度的图像显著性检测方法及其装置 | |
US11551333B2 (en) | Image reconstruction method and device | |
CN106897714B (zh) | 一种基于卷积神经网络的视频动作检测方法 | |
CN110232394B (zh) | 一种多尺度图像语义分割方法 | |
WO2019232836A1 (zh) | 基于改进全卷积网络的多尺度感知行人检测方法 | |
CN110622177B (zh) | 实例分割 | |
WO2019238126A1 (zh) | 图像分割及分割网络训练方法和装置、设备、介质、产品 | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN108022244B (zh) | 一种基于前景和背景种子用于显著目标检测的超图优化方法 | |
CN103745468B (zh) | 一种基于图结构和边界先验的显著性物体检测方法 | |
CN107506792B (zh) | 一种半监督的显著对象检测方法 | |
CN104463870A (zh) | 一种图像显著区域检测方法 | |
CN107564022A (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN109146925B (zh) | 一种动态场景下显著性目标检测方法 | |
CN106997478B (zh) | 基于显著中心先验的rgb-d图像显著目标检测方法 | |
CN111144376A (zh) | 视频目标检测特征提取方法 | |
CN109858451B (zh) | 一种非配合手部检测方法 | |
CN111881915B (zh) | 一种基于多种先验信息约束的卫星视频目标智能检测方法 | |
CN116452810A (zh) | 一种多层次语义分割方法、装置、电子设备及存储介质 | |
CN103065302B (zh) | 一种基于离群数据挖掘的图像显著性检测方法 | |
CN110503049B (zh) | 基于生成对抗网络的卫星视频车辆数目估计方法 | |
CN108154188B (zh) | 基于fcm的复杂背景下人工文本提取方法 | |
CN110826563A (zh) | 基于神经网络和概率图模型的手指静脉分割方法及装置 | |
CN107766838B (zh) | 一种视频场景切换检测方法 | |
CN116310899A (zh) | 基于YOLOv5改进的目标检测方法及装置、训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |