CN110211078B - 基于各向异性扩散的显著度检测方法 - Google Patents
基于各向异性扩散的显著度检测方法 Download PDFInfo
- Publication number
- CN110211078B CN110211078B CN201910397765.6A CN201910397765A CN110211078B CN 110211078 B CN110211078 B CN 110211078B CN 201910397765 A CN201910397765 A CN 201910397765A CN 110211078 B CN110211078 B CN 110211078B
- Authority
- CN
- China
- Prior art keywords
- saliency
- saliency map
- image
- pixel
- contrast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009792 diffusion process Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000009826 distribution Methods 0.000 claims abstract description 6
- 230000011218 segmentation Effects 0.000 claims abstract description 5
- 238000012805 post-processing Methods 0.000 claims abstract description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 229920000314 poly p-methyl styrene Polymers 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000005295 random walk Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及基于各向异性扩散的显著度检测方法,属于图像处理技术领域。本发明包括:第一步基于超像素分割的无向图表达;第二步基于各向异性扩散的结构连通显著性度量;第三步外观对比显著性度量;第四步显著图融合和优化,将得到的边界连通显著图与对比度显著图以像素级的方式相融合,得到初始显著图;再分别采用中心先验准则和对比度增强两种后处理方法优化初始显著图,以增强初始显著图的图像中心的视觉效果和目标‑背景之间的对比度,生成最终显著图结果。本发明方法生成的显著图更均匀,目标边缘轮廓更清晰准确,能够有效解决复杂自然图像目标分布不均匀、尺度不一致增大检测难度的问题以及由光照变化或噪声引起的边缘不清晰问题。
Description
技术领域
本发明涉及基于各向异性扩散的显著度检测方法,属于图像处理技术领域。
背景技术
近些年来,随着大量显著度检测算法的提出,显著目标检测技术得到了飞速发展,但仍存在一定不足。复杂图像中目标尺度不一致、分布不均匀都会增大检测的难度,造成检测的不稳定性。而且当图像中存在由于光照变化或噪声引起的区域边缘模糊现象时,检测效果并不理想。
现有的基于距离度量的方法是采用距离度量图像单元之间的对比度,但通常无法有效区分不同图像区域的拓扑结构或由于噪声影响容易对图像结构信息描述不准确。基于结构信息的方法如流形排序结构、随机游走结构和马尔可夫结构等,都通过研究无向图中的流形排序或随机游走等特性来分析图像结构信息,然而排序或游走的过程容易受到光照变化或噪声干扰,从而影响对于边缘不清晰问题的检测准确性和稳定性。
发明内容
本发明旨在克服现有技术中存在的不足,针对上面的问题,提供一种基于各向异性扩散的显著度检测方法。该方法充分利用图像区域之间的拓扑结构信息,以及各项异性扩散能够自主感知区域边缘、保留重要结构并去除噪声的特性,得到图像区域的结构连通性信息。将图像的显著度定义为基于各向异性扩散的边界连通性结构信息与基于颜色差异表达的外观全局对比信息相融合的结果,有效衡量图像单元的之间的对比度,达到准确鲁棒地检测显著目标的目的。
本发明的技术方案:
基于各向异性扩散的显著度检测方法,包括以下步骤:
第一步,基于超像素分割的无向图表达;
第二步,基于各向异性扩散的边界连通显著性度量;
第三步,外观对比显著性度量;
第四步,显著图融合和优化;将得到的边界连通显著图与对比度显著图以像素级的方式相融合,得到初始显著图;再分别采用中心先验准则和对比度增强两种后处理方法优化初始显著图,以增强初始显著图的图像中心的视觉效果和目标-背景之间的对比度,生成最终显著图结果。
其中,融合的显著图中既包含了基于各向异性扩散描述的边界连通性结构信息,也包含了基于颜色差异表达的外观全局对比信息,将两者相结合,共同度量图像的显著度。
本发明原理:图像中属于同一区域内的像素点是相互连通的,不同区域之间的像素连通性大大降低,而且同区域内的像素与不同区域间的像素特征差异相比较小。因此,本发明从图像的结构连通性角度出发,采用各向异性扩散模拟图像的拓扑结构,计算图像单元的边界连通性。并将基于各向异性扩散的结构连通信息与基于颜色差异的外观对比信息融合在一起,共同衡量图像对比度,得到对自然场景图像中目标的显著度检测。
本发明的有益效果:与现有的显著度检测方法相比,该方法生成的显著图更均匀,目标边缘轮廓更清晰准确,能够有效解决复杂自然图像目标分布不均匀、尺度不一致增大检测难度的问题以及由光照变化或噪声引起的边缘不清晰问题。
附图说明
图1为本发明方法的基本流程图。
图2为各向异性扩散示意图。
图3为基于各项异性扩散的边界连通性显著图结果图:(a)为原始图像与其边界连通性显著图;(b)-(e)为不同迭代次数的各向异性扩散度量边界连通性的显著图结果。
图4为DUT-OMRON数据集上不同方法的显著图视觉比较图:其中,(a)原始图像;(b)真值图;(c)SF;(d)MR;(e)HS;(f)GR;(g)GS_SP;(h)RBD;(i)ours。
图5为ASD数据集上基于不同结构信息的显著度检测方法比较图:其中,(a)为PR曲线;(b)为MAE值。
图6为ASD数据集上与其他性能突出的显著度检测方法比较图:其中,(a)为PR曲线;(b)为MAE值。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
本发明的方法流程如图1所示,主要包括四个步骤:基于超像素分割的无向图表达、基于各向异性扩散的边界连通显著性度量、外观对比显著性度量和显著图的融合优化。
第一步:基于超像素分割的无向图表达。
(1.1)采用简单线性迭代聚类(SLIC)算法对原始图像进行分割,得到形状规则、视觉均匀、大小一致紧凑的超像素块,每个超像素块由颜色或纹理等特征相似的像素组成。
(1.2)以步骤(1.1)得到的超像素块作为无向图顶点,每个顶点都与其空间域内周围颜色特征最相似且位置最相近的近邻点之间有边连接,并将两顶点之间连接边的权重定义为特征空间中两点的特征差异,形成近邻图G(V,E)。其中,V表示顶点集合,E表示边的集合。
(1.3)在近邻图G(V,E)上通过提取和合并最小生成树(MST)构建k-边图模型。具体步骤为:将近邻图G(V,E)上的一棵MST的边移除;接着生成第二棵MST并将其边移除;以此类推,依次将生成的k个MST从近邻图G(V,E)上移除;再将k个MST进行合并得到k-边图。该k-边图的特性在于,既能够保持整幅图像连通,又能使每个超像素节点都能与其k个最近邻节点相连。
第二步:基于各向异性扩散的边界连通显著性度量。
(2.1)各向异性扩散模拟图像结构信息
在k-边图模型中,每个超像素节点有k个最近邻,即颜色相似且位置相近的节点,则每个超像素节点有k个扩散方向。对于一幅图像I(x,y)中的任意超像素节点i的各向异性扩散迭代方程如下:
其中,为t时刻稳定状态下超像素节点i的扩散值,x和y分别表示图像中超像素节点i的坐标,扩散参数▽是梯度算子,▽1I,▽2I,…,▽kI表示当前超像素节点在k个方向上的梯度,以当前超像素节点与每个方向相邻点之间的差异来近似,本发明选取k=8,以图2表示扩散方向示意图,则相邻点之间的梯度如公式(2)所示。c1,c2,…,ck分别表示k个方向的扩散传导系数,控制扩散的速率,如公式(3)所示。
其中,M为边缘灵敏度参数,且M>0。
由公式(3)可得,当扩散到区域边缘结构时,梯度值增大,扩散系数减小,扩散速率降低。保证了扩散过程主要发生在区域的内部而不影响到区域的边缘,抑制了跨边缘的扩散。因此,各向异性扩散不会随着区域边缘的分布或位置变化而影响扩散的效果,能够保持迭代过程中各向异性扩散的稳定性。
通过各向异性扩散实现自动边缘感知,在迭代的过程中平滑图像,能够去除原始图像中杂乱背景和冗余噪声,保留图像区域(如目标轮廓等)的主要边缘结构。实验中,设置k=8,M=40,λ=0.15,t=20。另外,为了方便计算后续的边界连通性,本发明将图像中位于坐标(x,y)处的超像素节点i在时刻t时的扩散值Ixt,y简化表示为It(i)。
(2.2)边界连通性度量
以分布于图像四个边界上的超像素为背景节点,超像素节点i的边界连通性BC(i)为:
其中,N表示图像中超像素节点的数量,bnd为属于图像边界的超像素节点的集合;It(i)和It(j)分别表示超像素节点i和j的扩散值,σ为BC(i)的控制参数。
由公式(4)可知,当两个超像素节点i和j属于同一区域时,特征相似度大,两点相连通;当两点属于不同区域,即存在强边缘阻碍了各向异性扩散时,两点连通性极小。如果将超像素看作单位长度的正方形,则公式(4)可理解为在图像边界上与超像素节点i相连通的点的长度,与整幅图像上与超像素节点i相连通点的面积平方根之比,为超像素节点i的边界连通性。
然后,以边界连通性的高斯函数来计算超像素节点的显著度值Sbc,使超像素节点的边界连通性越大时,其显著度值越低,得到边界连通显著图的显著度值Sbc,公式如下:
其中,σbc为Sbc的控制参数。为了保持结果的稳定性,实验中设置σ和σbc分别为0.25和1。基于各项异性扩散的边界连通显著性度量的结果如图3所示,可以看出,随着迭次数的增大,各向异性扩散能够逐渐将杂乱的背景过滤掉,显著目标的边缘轮廓越来越清晰。
第三步:外观对比显著性度量。
当图像中目标区域与图像边界接触长度过长时,容易造成结构连通度大大降低,从而导致检测结果不准确。由于观察到目标与背景在外观对比如颜色等方面往往存在很大不同,因此本发明引入外观对比度来突出目标与背景之间存在较大差异的区域。
首先定义围绕图像边界处[10,30]个像素的宽度为初始背景区域(本实施例中选取10个像素),并以此为基础计算图像外观对比的显著度。然后,在CIE-Lab颜色空间中通过k-means算法将初始背景区域的像素分为K类,实验中设置K=3以描述大部分背景区域。接着,对于每一类背景区域中的所有像素,计算CIE-Lab颜色空间中的平均颜色值和协方差矩阵分别为和QK=[qab]3×3。那么,对于图像中任意一个超像素节点,设其颜色值为μ,则其对比度定义为与每类背景像素分布之间的马氏距离,即
第四步:显著图融合和优化。
(4.1)显著图融合
本发明将每个超像素的显著度值分配给该超像素所包含的所有像素,并将得到的边界连通显著图与对比度显著图以像素级的方式相融合,得到初始显著图。初始显著图既包含了基于各向异性扩散描述的边界连通性结构信息,也包含了基于颜色差异表达的外观全局对比信息,将两者相融合,共同度量图像的显著度,初始显著图的显著度为S的计算公式如下:
S=Sbc·Sac (8)
(4.2)显著图优化
考虑到拍摄者通常会将目标物体靠近构图的中心附近而很少放在边界处,而且数据集中的图像通常也将显著目标置于图像中心附近,因此,采用中心先验准则对初始显著图S进行优化和增强处理,即
其中,W和H分别为输入的初始显著图的宽度和高度,x和y分别为像素i的水平和垂直坐标,dxy为像素i的显著性加权值。中心先验准则为靠近图像中心的像素赋予较大的权值,因此每个像素的显著度更新为S′,公式如下:
S′=Sdxy (10)
最后,采用如下优化函数来增强目标与背景的对比度,得到最终显著图结果:
其中,sgn·是阶跃函数,ε是基于Otsus二值化方法的自适应阈值,σenhance是控制对比度的预设参数,本发明设置σenhance=1。g(S)表示经过中心先验和对比度增强两种后处理优化过程后的每个像素的最终显著度值。
现从定性和定量两个方面对提出的基于各向异性扩散的显著度检测方法的实验结果进行分析。
就定性分析方面,本发明在处理不同尺度、形状和分布的显著目标检测能力上与六个性能突出的显著度检测算法比较,目前从视觉效果上进行观察。如图4所示,本发明选择在显著度检测数据集DUT-OMRON上的5166幅图像上进行验证,本发明得到的显著目标内部更均匀,对目标的边缘检测更清晰完整,表现了最好的整体性能。
就定量分析方面,主要采用精确率-召回率(Precision-Recall,PR)曲线和平均绝对误差(MAE)两个评价准则来衡量基于各向异性扩散的显著度检测的效果和整体性能。包括两部分:
(1)与基于结构信息的显著度检测模型比较。在ASD数据集的1000幅图像上对现有的几种基于结构信息的显著度检测算法(BM、MST、MR、MC、GB)与本发明的方法做以对比,并形成PR曲线和MAE结果,如图5所示。本方法在PR曲线上取得了较高的精确率、召回率,并同时取得较低的MAE值,表现了优良的总体性能。
(2)和其他显著目标检测算法的效果对比。同样在ASD数据集的1000幅图像上进行验证,选取本方法与性能突出的IT、FT、SF、RC、GS_SP和RBD方法比较,所得的PR曲线和MAE结果如图6所示。在PR曲线上本方法仅略低于RBD方法,但在MAE值上本方法取得了最低的误差值。实验结果表明,基于各向异性扩散的显著度检测方法具有更好的准确率和稳定性。
Claims (5)
1.基于各向异性扩散的显著度检测方法,其特征在于,包括以下步骤:
第一步:基于超像素分割的无向图表达
(1.1)采用线性迭代聚类SLIC算法对原始图像进行分割,得到形状规则、视觉均匀、大小一致紧凑的超像素块,每个超像素块由颜色或纹理特征相似的像素组成;
(1.2)以步骤(1.1)得到的超像素块作为无向图顶点,每个顶点都与其空间域内周围颜色特征最相似且位置最相近的近邻点之间有边连接,并将两顶点之间连接边的权重定义为特征空间中两点的特征差异,形成近邻图G(V,E);其中,V表示顶点集合,E表示边的集合;
(1.3)在近邻图G(V,E)上通过提取和合并最小生成树MST构建k-边图模型;具体步骤为:将近邻图G(V,E)上的一棵MST的边移除;接着生成第二棵MST并将其边移除;以此类推,依次将生成的k个MST从近邻图G(V,E)上移除;再将k个MST进行合并得到k-边图;
第二步:基于各向异性扩散的边界连通显著性度量
(2.1)各向异性扩散模拟图像结构信息
在k-边图模型中,每个超像素节点有k个最近邻,即颜色相似且位置相近的节点,则每个超像素节点有k个扩散方向;对于一幅图像I(x,y)中的任意超像素节点i的各向异性扩散迭代方程如下:
其中,为t时刻稳定状态下超像素节点i的扩散值,x和y分别表示图像中超像素节点i的坐标,扩散参数 是梯度算子,表示当前超像素节点在k个方向上的梯度,则相邻点之间的梯度如公式(2)所示;c1,c2,…,ck分别表示k个方向的扩散传导系数,控制扩散的速率,如公式(3)所示;
其中,M为边缘灵敏度参数,且M>0;
(2.2)边界连通性度量
以分布于图像四个边界上的超像素为背景节点,超像素节点i的边界连通性BC(i)为:
其中,N表示图像中超像素节点的数量,bnd为属于图像边界的超像素节点的集合;It(i)和It(j)分别表示超像素节点i和j的扩散值,σ为BC(i)的控制参数;
以边界连通性的高斯函数来计算超像素节点的边界连通性显著度值Sbc,使超像素节点的边界连通性越大时,其显著度值越低,得到超像素节点的边界连通性显著度值Sbc,公式如下:
其中,σbc为Sbc的控制参数;
第三步:外观对比显著性度量
首先定义围绕图像边界处[10,30]个像素的宽度为初始背景区域,并以此为基础计算图像外观对比的显著度;然后,在CIE-Lab颜色空间中通过k-means算法将初始背景区域的像素分为K类;接着,对于每一类背景区域中的所有像素,计算CIE-Lab颜色空间中的平均颜色值和协方差矩阵分别为和QK=[qab]3×3;对于图像中任意一个超像素节点,设颜色值为μ,则对比度定义为与每类背景像素分布之间的马氏距离,即
第四步:显著图融合和优化
(4.1)显著图融合
将每个超像素的显著度值分配给该超像素所包含的所有像素,并将得到的边界连通显著图与对比度显著图以像素级的方式相融合,得到初始显著图,共同度量图像的显著度;初始显著图的显著度为S的计算公式如下:
S=Sbc·Sac (8)
(4.2)显著图优化
采用中心先验准则对初始显著图S进行优化和增强处理,即
其中,W和H分别为输入的初始显著图的宽度和高度,x和y分别为像素i的水平和垂直坐标,dxy为像素i的显著性加权值;每个像素的显著度更新为S′,公式如下:
S′=S·dxy (10)
最后,采用优化函数来增强目标与背景的对比度,得到最终显著图结果:
其中,sgn(·)是阶跃函数,ε是基于Otsus二值化方法的自适应阈值,σenhance是控制对比度的预设参数;g(S′)表示经过中心先验和对比度增强两种后处理优化过程后的每个像素的最终显著度值。
2.根据权利要求1所述的基于各向异性扩散的显著度检测方法,其特征在于,所述的第二步中,设置k=8,M=40,λ=0.15,t=20,σ=0.25,σbc=1。
3.根据权利要求1或2所述的基于各向异性扩散的显著度检测方法,其特征在于,所述的第三步中,设置K=3。
4.根据权利要求1或2所述的基于各向异性扩散的显著度检测方法,其特征在于,所述的第四步中,设置σenhance=1。
5.根据权利要求3所述的基于各向异性扩散的显著度检测方法,其特征在于,所述的第四步中,设置σenhance=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910397765.6A CN110211078B (zh) | 2019-05-14 | 2019-05-14 | 基于各向异性扩散的显著度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910397765.6A CN110211078B (zh) | 2019-05-14 | 2019-05-14 | 基于各向异性扩散的显著度检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110211078A CN110211078A (zh) | 2019-09-06 |
CN110211078B true CN110211078B (zh) | 2021-01-19 |
Family
ID=67787089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910397765.6A Active CN110211078B (zh) | 2019-05-14 | 2019-05-14 | 基于各向异性扩散的显著度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110211078B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117689552B (zh) * | 2024-02-02 | 2024-04-05 | 科普云医疗软件(深圳)有限公司 | 一种心内科介入治疗用冠状动脉造影增强方法 |
CN118014991B (zh) * | 2024-04-08 | 2024-06-14 | 青岛山大齐鲁医院(山东大学齐鲁医院(青岛)) | 基于机器视觉的瘢痕轮廓快速检测方法 |
CN118194179B (zh) * | 2024-05-17 | 2024-07-30 | 中南大学 | 带噪音数据分类方法、系统及社交网络用户分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103871055A (zh) * | 2014-03-04 | 2014-06-18 | 南京理工大学 | 一种基于动态各向异性感受野的显著目标检测方法 |
CN106023184A (zh) * | 2016-05-16 | 2016-10-12 | 南京大学 | 一种基于各向异性中心环绕差异的深度显著性检测方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096921B (zh) * | 2011-01-10 | 2013-02-27 | 西安电子科技大学 | 基于邻域对数比值及各向异性扩散的sar图像变化检测方法 |
CN102609906A (zh) * | 2012-01-12 | 2012-07-25 | 北京理工大学 | 一种基于各向异性扩散的气体红外图像增强方法 |
CN104915950B (zh) * | 2015-04-29 | 2017-10-20 | 华南理工大学 | 一种基于能量约束的区域增长超声图像自动分割方法 |
US10699151B2 (en) * | 2016-06-03 | 2020-06-30 | Miovision Technologies Incorporated | System and method for performing saliency detection using deep active contours |
CN107895162B (zh) * | 2017-10-17 | 2021-08-03 | 天津大学 | 基于物体先验的图像显著性目标检测算法 |
CN109448015B (zh) * | 2018-10-30 | 2021-03-30 | 河北工业大学 | 基于显著图融合的图像协同分割方法 |
-
2019
- 2019-05-14 CN CN201910397765.6A patent/CN110211078B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103871055A (zh) * | 2014-03-04 | 2014-06-18 | 南京理工大学 | 一种基于动态各向异性感受野的显著目标检测方法 |
CN106023184A (zh) * | 2016-05-16 | 2016-10-12 | 南京大学 | 一种基于各向异性中心环绕差异的深度显著性检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110211078A (zh) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112489212B (zh) | 一种基于多源遥感数据的建筑物智能化三维测图方法 | |
Wei et al. | Toward automatic building footprint delineation from aerial images using CNN and regularization | |
WO2022088982A1 (zh) | 三维场景构建方法、装置、系统和存储介质 | |
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
CN108830931B (zh) | 一种基于动态网格k邻域搜索的激光点云精简方法 | |
CN110211078B (zh) | 基于各向异性扩散的显著度检测方法 | |
CN106023298B (zh) | 基于局部泊松曲面重建的点云刚性配准方法 | |
CN108537239B (zh) | 一种图像显著性目标检测的方法 | |
CN109685080B (zh) | 基于霍夫变换与区域生长的多尺度平面提取方法 | |
CN109325998A (zh) | 一种基于点云数据的室内3d建模方法、系统及相关装置 | |
CN103632361B (zh) | 一种图像分割方法和系统 | |
CN110992381A (zh) | 一种基于改进Vibe+算法的运动目标背景分割方法 | |
CN108305260B (zh) | 一种图像中角点的检测方法、装置及设备 | |
CN112070769A (zh) | 一种基于dbscan的分层点云分割方法 | |
CN102938161B (zh) | 一种基于Mean Shift的三维形状自动分割方法 | |
CN109712143B (zh) | 一种基于超像素多特征融合的快速图像分割方法 | |
CN112396133B (zh) | 基于多尺度空间的城市区域空地一体融合点云分类方法 | |
CN109544599A (zh) | 一种基于相机位姿估计的三维点云配准方法 | |
CN110147816B (zh) | 一种彩色深度图像的获取方法、设备、计算机存储介质 | |
CN110910421A (zh) | 基于分块表征和可变邻域聚类的弱小运动目标检测方法 | |
CN106558051A (zh) | 一种改进的从单幅图像检测道路的方法 | |
CN109754440A (zh) | 一种基于全卷积网络和均值漂移的阴影区域检测方法 | |
CN113326925B (zh) | 基于密度图回归的卷积神经网络的花量统计方法、系统、设备及介质 | |
CN109242968A (zh) | 一种基于多属性超体素图割的河道三维建模方法 | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |