CN108549891A - 基于背景与目标先验的多尺度扩散显著目标检测方法 - Google Patents
基于背景与目标先验的多尺度扩散显著目标检测方法 Download PDFInfo
- Publication number
- CN108549891A CN108549891A CN201810243956.2A CN201810243956A CN108549891A CN 108549891 A CN108549891 A CN 108549891A CN 201810243956 A CN201810243956 A CN 201810243956A CN 108549891 A CN108549891 A CN 108549891A
- Authority
- CN
- China
- Prior art keywords
- pixel
- scale
- background
- value
- superpixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009792 diffusion process Methods 0.000 title claims abstract description 19
- 238000001514 detection method Methods 0.000 title abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 40
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 3
- 101150049349 setA gene Proteins 0.000 claims description 3
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 2
- 238000012512 characterization method Methods 0.000 claims 2
- 238000005457 optimization Methods 0.000 abstract description 6
- 238000007796 conventional method Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 102100039648 Lactadherin Human genes 0.000 description 3
- 101710191666 Lactadherin Proteins 0.000 description 3
- 101100042007 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SEC12 gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 101150065142 sed2 gene Proteins 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 101150040772 CALY gene Proteins 0.000 description 1
- 101000728671 Comamonas testosteroni Bifunctional aspartate aminotransferase and L-aspartate beta-decarboxylase Proteins 0.000 description 1
- 101000925559 Homo sapiens Arylsulfatase D Proteins 0.000 description 1
- 101100366137 Mesembryanthemum crystallinum SODCC.1 gene Proteins 0.000 description 1
- 101100096142 Panax ginseng SODCC gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004020 luminiscence type Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 101150017120 sod gene Proteins 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20156—Automatic seed setting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于背景与目标先验的多尺度扩散显著目标检测方法,首先利用简单线性迭代聚类算法将图像分割为不同尺度下的超像素;然后,将图像四周作为背景先验,计算每个像素与背景超像素在CIELAB颜色空间的欧氏距离得到背景显著图;并且,同时使用目标性作为先验信息得到前景显著图;通过贝叶斯推理在每个尺度上计算每个超像素的背景显著性和目标显著性,得到融合前景和背景先验的显著图;再次,选择流形排序法将各个超像素的显著性传播到整幅图像中得到空间优化后的显著图;最后,通过不同尺度下显著性值的加权求和构造像素级显著图。实验结果表明,在四种公共基准数据集上,本发明方法相比于传统方法能够更有效地检测显著目标。
Description
技术领域
本发明涉及基于背景与目标先验的多尺度扩散显著目标检测方法,属于图像显著性目标检测技术领域。
背景技术
在处理数量庞大的输入信息时,人类视觉利用注意机制筛选出部分最有价值的数据进行优先处理。受此启发,计算机建立显著性检测模型自动选择出图像场景中最感兴趣部分来减少后续分析的复杂度和处理的计算量。早期的显著性模型倾向于人眼视觉关注点,显著性目标检测由于能够得到较为完整的整体目标,在图像分割、目标识别和图像检索等领域有着广泛的应用而得到更多的关注。
近年来,图像四周区域在多个显著性检测模型中充当了背景先验,为检测显著性提供了有效的视觉信息。因此,越来越多的自下而上的方法倾向于使用图像边界作为背景种子。Wei等人(Y.Wei,F.Wen,W.Zhu,and J.Sun,“Geodesic saliency using backgroundpriors,”in Proc.of the 12th European Conference on Computer Vision,pp.29-42,Oct.7-13,2012)提出了一种用测地线距离表示的显著度,通过计算到虚拟背景节点的最短路径的长度来测量图像块的显著性。Lu等人(H.C.Lu,X.H.Li,L.H.Zhang,X.Ruan,andM.H.Yang,“Dense and Sparse reconstruction Error Based Saliency Descriptor,”IEEE Transaction on Image Processing,vol.25,no.4,pp.1592-1603,Apr.,2016)利用图像四周超像素构建背景词典,分别计算各个图像块的稠密和稀疏重构误差得到显著图,最后使用贝叶斯公式将二者有效地结合了起来。Zhu等(Zhu W J,Liang S,Wei Y C,SunJ.Saliency optimization from robust background detection[C].Proceedings ofthe 27th International Conference on Computer Vision and PatternRecognition.Columbus,USA:IEEE Computer Society,2014:2814-2821.doi:10.1109/CVPR.2014.360)利用每个区域包含边界的比例定义边界连通性来进一步判定图像四周中的超像素是否属于背景,从而得到更鲁棒的背景先验信息完成显著性检测。但当目标出现在图像边缘时可能导致错误的检测结果,并且目标可能出现在多个尺度上,单个尺度上的检测无法充分挖掘检测性能。
此外,为了更有效地探索图像边界作为先验信息,进而构建显著性目标检测模型,基于扩散的方法表现出良好的检测效果,已经引起学者越来越多的兴趣。这些方法都将图像映射为以图像超像素为节点的图形,边缘强度与超像素相似度成正比,然后在此图上,背景种子点的显著性信息被空间传播到整个图像。例如,Yang等(Zhang L H,Yang C,Lu H C,Ruan X,Yang M H.Ranking Saliency[J].IEEE Transaction on Pattern Analysis andMachine Intelligence,2016,38(9):1-15.doi:10.1109/TPAMI.2016.2609426)将图像的四周区域作为背景种子点,根据第一阶段的显著图选择新的前景种子点再次进行流形排序扩散,最后将上述两个步骤所得的显著图结合起来作为输出。Jia等人(C.Jia,J.Q.Qi,X.H.Li,and H.C.Lu,“Saliency detection via a unified generative anddiscriminative model,”Neurocomputing,vol.173,no.P2,pp.406-417,Jan.,2016)利用图像周边超像素计算初始显著图得到背景区域训练数据集,通过词典学习得到背景词典作为流形排序的种子点。但当目标出现在图像边缘时可能导致错误的检测结果,并且目标可能出现在多个尺度上,单个尺度上的检测无法充分挖掘检测性能。
发明内容
本发明所要解决的技术问题是:提供基于背景与目标先验的多尺度扩散显著目标检测方法,解决了当目标出现在边缘时可能导致的误差和单一尺度检测不准确的问题。
本发明为解决上述技术问题采用以下技术方案:
基于背景与目标先验的多尺度扩散显著目标检测方法,包括如下步骤:
步骤1,利用简单线性迭代聚类算法将图像分割成尺度n下的超像素,且在尺度n下,超像素的数目为Rn,第i个超像素记为N为所有尺度的数目,利用Lab和RGB的色彩空间提取各超像素的平均颜色特征,根据平均颜色特征和超像素内所有像素的坐标描述各超像素,并将第i个超像素表示为RC×1为C×1的特征空间,C是特征维度;
步骤2,将图像的边界超像素作为背景超像素,若背景超像素的数目为M,则尺度n下第k个背景超像素表示为构建背景超像素集合作为稀疏表示字典,RC×M为C×M的特征空间,对第i个超像素进行稀疏表示编码,并根据重构误差计算尺度n下第i个超像素的背景显著性值
步骤3,随机选择图像中的任意像素作为窗口的中心,随机抽取图像中的10000个图像块作为10000个窗口,计算各窗口被判定为显著性目标的概率值,根据概率值计算图像中任意一个像素的显著性值,根据显著性值得到尺度n下第i个超像素的目标显著性值
步骤4,通过贝叶斯推理整合尺度n下第i个超像素的背景显著性值和目标显著性值,得到尺度n下融合背景先验和目标先验的第i个超像素的显著性值,即融合显著性值
步骤5,针对尺度n,将每个超像素作为结点构建集合V,将结点之间的连接作为边构建集合E,根据V和E构造图G(V,E),所有结点间的权值矩阵为W,其中第i个结点和第j个结点之间的权值为wji,得到度矩阵为
步骤6,针对尺度n,根据步骤4得到的融合显著性值计算该尺度下所有超像素的平均显著性值将平均显著性值作为阈值对该尺度下的所有超像素的融合显著性值进行二进制分割,得到二进制显著性值使用流形排序将二进制显著性值传播到整个图像,并根据度矩阵获得每个超像素的最终显著性值
步骤7,重复步骤2-6,计算不同尺度下所有超像素的最终显著性值,通过加权求和将不同尺度下所有超像素的最终显著性值传播到像素,得到像素级显著图Sp。
作为本发明的一种优选方案,步骤1所述简单线性迭代聚类算法的具体步骤如下:
(1)初始化种子点即聚类中心,按照设定的超像素个数K,在图像内均匀分配种子点,图像总的像素点个数为Num,每个超像素的大小为Num/K,相邻种子点的距离为DS=sqrt(Num/K);
(2)在以种子点为中心的3*3邻域内选择梯度最小的像素作为新的种子点;
(3)计算每个新的种子点与其2DS*2DS邻域内像素点的距离,将各像素点分配给与其距离最近的种子点,距离公式为:
其中,dc为颜色距离,dh为空间距离,Dist为颜色距离和归一化的空间距离的和,l,a,b为Lab色彩模型的三要素,x,y分别为像素点的横,纵坐标,下标v,u分别表示第v,u个像素点,mp表示超像素紧凑程度;
(4)根据各像素点对应的种子点重新计算聚类中心,计算当前聚类中心与之前聚类中心的误差,若误差大于指定阈值则重复步骤(2)-(4),否则转(5);
(5)将不连续的超像素或者尺寸在1~Num/K之间的超像素重新分配给邻近的超像素。
作为本发明的一种优选方案,步骤2所述背景显著性值的计算过程为:
(1)计算尺度n下第i个超像素的稀疏编码系数,公式为:
(2)根据重构误差计算尺度n下第i个超像素的背景显著性值公式为:
其中,αi表示第i个超像素的稀疏编码系数,RM为M的特征空间,M为背景超像素的数目,表示第i个超像素,B为稀疏表示字典,λ为稀疏惩罚项||αi||1的系数,||·||1表示向量的1范数,表示向量的2范数的平方。
作为本发明的一种优选方案,步骤3所述目标显著性值的计算过程为:
(1)分别计算窗口显著性S(t,θS)、颜色对比度CC(t,θCC)、边缘密度ED(t,θED)以及轮廓闭合性II(t),将S(t,θS)、CC(t,θCC)、ED(t,θED)以及II(t)进行融合得到各窗口被判定为显著性目标的概率值;
(2)根据概率值计算图像中任意一个像素的显著性值:
(3)计算尺度n下第i个超像素的目标显著性值
其中,O(p)表示像素p的显著性值,pi表示第i个超像素中像素的数量。
作为本发明的一种优选方案,步骤4所述融合显著性值的计算公式为:
其中,分别表示目标显著性值、背景显著性值。
作为本发明的一种优选方案,步骤5所述第i个结点和第j个结点之间的权值为wji,计算公式为:
其中,分别是CIELAB颜色空间中第j、i个超像素的平均颜色特征,分别表示相应的平均坐标,表示第j个超像素的空间近邻,σ为控制权重强度的常量。
作为本发明的一种优选方案,步骤6所述最终显著性值的计算过程为:
(1)设定尺度n下所有超像素的最终显著性值构成的向量为
(2)定义求解Sr的目标函数E(Sr):
(3)最小化目标函数E(Sr)的最优解为:
Sr=(D-αW)-1Sq
α=1+μ
其中,i=1,2,…,Rn,j=1,2,…,Rn,i≠j,Rn为尺度n下超像素的数目,为1×Rn的特征空间,wji为尺度n下第i个结点和第j个结点之间的权值,μ为控制参数,为二进制显著性值,D为度矩阵,W为尺度n下所有结点间的权值矩阵,Sq为构成的向量。
作为本发明的一种优选方案,步骤7所述像素级显著图Sp,其每个像素的显著性值计算公式为:
其中,Sp(p)表示像素p的显著性值,N为所有尺度的数目,Rn为尺度n下超像素的数目,为最终显著性值,Ip表示像素p的CIELAB颜色值,表示尺度n下第i个超像素内所有像素的颜色均值,ε为常数,δ(·)表示尺度n下第i个超像素的指示函数,当像素p被包含在此超像素中,函数值为1,否则为0。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明提高了基于扩散的显著性检测方法的检测精度,加强了目标出现在不同尺度上时的完整性,更加均匀和明亮地突出目标。
2、本发明解决了当目标不在中心或出现在边缘时可能导致的误差,使显著图更接近实际真值。
附图说明
图1是本发明基于背景与目标先验的多尺度扩散显著目标检测方法的流程图。
图2是在ASD数据库上本发明方法与基于对比度先验的显著性检测方法的视觉效果对比图。
图3是在ASD数据库上本发明方法与基于前景或背景先验的显著性检测的视觉效果对比图。
图4是在SED1数据库上本发明方法与基于对比度先验的显著性检测方法的视觉效果对比图。
图5是在SED1数据库上本发明方法与基于前景或背景先验的显著性检测方法的视觉效果对比图。
图6是在SED2数据库上本发明方法与基于对比度先验的显著性检测方法的视觉效果对比图。
图7是在SED2数据库上本发明方法与基于前景或背景先验的显著性检测方法的视觉效果对比图。
图8是在SOD数据库上本发明方法与基于对比度先验的显著性检测方法的视觉效果对比图。
图9是在SOD数据库上本发明方法与基于前景或背景先验的显著性检测方法的视觉效果对比图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明提出了基于背景与目标先验的多尺度扩散显著目标检测方法,在将图像四周作为背景先验的同时,使用目标性作为先验信息得到前景显著图,并将前景和背景显著图进行贝叶斯融合,然后融合的显著图进行空间优化将显著性信息扩散到整个图像,最终再将不同尺度的显著图加权融合。
如图1所示,为本发明基于背景与目标先验的多尺度扩散显著目标检测方法的流程图,具体步骤如下:
步骤1:首先使用简单线性迭代聚类算法SLIC(Simple Linear IterativeClustering)将输入的图像分割成N个不同尺度下的超像素。假设第n个尺度下超像素的数目为Rn,其中第i个超像素记为利用Lab和RGB的色彩空间提取超像素的平均颜色特征,和超像素内所有像素的坐标一起描述一个超像素,则每个超像素被表示为其中C是特征维度。
简单线性迭代聚类算法是一种利用像素的颜色相似度和图像片面空间对像素进行聚类,从而有效的生成紧凑的几乎统一化的超像素的分割方法。其步骤如下:
(1)初始化种子点(聚类中心)。按照设定的超像素个数,在图像内均匀分配种子点。其中图片总共的像素点个数为Num,预分割的相同尺寸的超像素为K,每个超像素的大小为Num/K,相邻种子点的距离近似为DS=sqrt(Num/K)。
(2)在以种子点为中心的3*3邻域内选择梯度最小的像素作为新的种子点。
(3)计算每个种子点与其2DS*2DS的领域内的像素点的距离,将每个像素点分配给与其最近的种子点,具体公式如下:
其中,dc为颜色距离,dh为空间距离,l,a,b是Lab色彩模型的三要素。l表示亮度,值域由0到100;a,b为相关颜色,a表示从洋红色至绿色的范围,b表示从黄色至蓝色的范围。x,y是像素点的位置。Dist是颜色距离和归一化的空间距离的和。公式中的变量mp为超像素紧凑程度,用来权衡颜色相似度和空间临近性的影响。mp越大,空间影响越大,超像素更紧凑;mp越小,颜色影响越大,超像素更贴合图像边缘。
(4)根据每个像素对应的种子点重新计算聚类中心,计算当前聚类中心与之前聚类中心的误差,如大于指定阈值则重复步骤(2)~(4),否则转(5)。
(5)增强连通性。将不连续的超像素、尺寸过小的超像素重新分配给邻近的超像素。
步骤2:边界超像素一般都为背景,根据此先验知识,如果背景超像素的数目是M,则第k个背景超像素表示为构建背景超像素集合作为稀疏表示字典,用来对第i个超像素进行稀疏表示编码,然后根据重构误差计算尺度n下基于背景先验信息的任意第i个超像素的显著性值具体过程如下:
(1)首先计算第i个超像素的稀疏编码系数,计算公式如下:
其中,λ为稀疏惩罚项||αi||1系数,||·||1为向量的1范数,为向量2范数的平方。
(2)然后根据重构误差计算基于背景先验信息的尺度n下第i个超像素的显著性值,计算公式如下:
步骤3:随机抽取图像中的10000个图像块,每图像块的中心随机选择图像中的任意像素p,计算每个窗口t被判定为显著性目标的概率值prob(t),然后计算图像中任意一个像素的显著性值O(p),最终得到第n个尺度下基于目标先验信息的任意第i个超像素的显著性值具体过程如下:
(1)首先,随机抽取图像中的10000个图像块,每图像块的中心随机选择图像中的任意像素p,计算每个窗口t被判定为显著性目标的概率值prob(t),计算公式如下:
①窗口显著性。首先利用任意显著性检测方法计算得到图像中每个像素的显著值I(prob),则窗口t的显著性计算公式为:
式中,θS表示待学习的显著性阈值参数。
②颜色对比度。对于窗口t,以θCC为固定倍数在上下左右四个方向将其扩展到周围区域得到某一矩形区域Surr(t,θCC),则窗口t在此区域的颜色对比度计算公式为:
CC(t,θCC)=χ2(h(t),h(Surr(t,θCC)))
式中,h(t)、h(Surr(t,θCC))分别表示窗口t与矩形区域的颜色直方图,χ2(·)表示卡方距离函数。
③边缘密度。对于窗口t,以θED为固定倍数将其收缩到内部环状区域Inn(t,θED),则此窗口t在区域Inn(t,θED)内的边缘性计算公式为:
式中,IED(p)表示使用Canny算子得到的二值图,Len(·)表示计算区域Inn(t,θED)的周长。
④轮廓闭合性。窗口t的轮廓闭合性的计算公式为:
式中,|i\t|表示超像素i位于窗口t之外的面积,而|i∩t|表示超像素i位于窗口t内部的面积。
将上述得到的窗口显著性S(t,θS)、颜色对比度CC(t,θCC)、边缘密度ED(t,θED)以及轮廓闭合性II(t)进行融合就得到每个窗口被判定为显著性目标的概率值prob(t)。
(2)然后对所有包含像素p的窗口的显著性概率求和,以计算图像中任意一个像素的显著性值O(p),公式如下:
(3)计算第n个尺度下基于目标先验信息的任意第i个超像素的显著性值公式如下:
其中,pi表示尺度n下第i个超像素中的像素的数量。
步骤4:通过贝叶斯推理整合尺度n下步骤2得到的背景显著性值和步骤3得到的目标显著性值,得到第n个尺度下融合背景先验和目标先验的任意第i个超像素的显著性值计算公式如下:
步骤5:针对任意尺度n下,将每个超像素作为结点构建集合V,以结点对之间的连接作为边E构造一个图G(V,E),所有结点间的权值矩阵为W,其中第i个结点和第j个结点间权值为wji,然后生成度矩阵
其中,和是CIELAB颜色空间中两个超像素的平均值,和分别表示其相应的平均坐标,表示第j个超像素的空间近邻,σ是控制权重强度的常量。
步骤6:针对任意尺度n下所有超像素,根据步骤4融合后的显著值计算该尺度下所有超像素的平均显著值利用此平均显著值作为阈值对该尺度下的所有超像素的融合显著值进行二进制分割,得到二进制显著值使用流形排序将二进制显著值传播到整个图像,获得每个超像素结点的最终的显著性值具体过程如下:
(1)假设尺度n下所有超像素最终的显著性值构成向量
(2)定义求解Sr的目标函数E(Sr):
其中α=1+μ,μ是一个控制参数,是权利要求1中步骤6中经过贝叶斯推理后融合背景先验和目标先验的显著值,等式右边的第一项保证空间上相邻外观上相似的超像素之间的显著性值尽可能一致,第二项保证空间优化后的显著值与优化前显著性值的误差尽可能的小,正则化系数μ控制两项的比重。
(3)最小化目标函数E(Sr)的最优解为:
Sr=(D-αW)-1Sq
α=1+μ
其中,Sq尺度n下所有超像素在权利要求1中步骤6中经过贝叶斯推理后融合背景先验和目标先验的显著值构成的向量
步骤7:重复步骤2-6,计算出不同尺度下所有超像素的最终显著值,然后通过加权求和将不同尺度的显著值传播到像素,得到最终的像素级显著图Sp,其每个像素的显著值计算如下:
其中,n表示超像素尺度的索引,i表示超像素的索引,表示第n个尺度下第i个超像素的经过流形排序将显著性传播优化之后的显著值,Ip表示像素p的CIELAB颜色值,表示第n个尺度下第i个超像素内所有像素的颜色均值,ε是一个小常数,||·||2表示计算欧几里得距离,δ(·)表示第n个尺度下第i个超像素的指示函数,当像素p被包含在此超像素中,函数值为1,否则为0。
在四种公共基准数据集(即ASD、SED1、SED2和SOD)上,对本发明方法与其他24种方法进行比较。各种显著性目标检测算法的视觉对比结果如图2、图3、图4、图5、图6、图7、图8、图9所示。由图2的(b)、图4的(b)、图6的(b)和图8的(b)可知,IT(Itti)采用下采样的方式实现多尺度显著,得到的显著图分辨率比较低。如图2的(c)(d)(e)、图4的(c)(d)(e)、图6的(c)(d)(e)和图8的(c)(d)(e)所示,由于在局部区域内计算对比度,MZ(Ma Zhang)、AC(Achanta)和CA(Context-aware)得到的显著图强调显著性目标的边界。由于在整幅图像内计算颜色对比度,如图2的(f)(g)(i)(j)的第三排图像所示,LC(Luminance-basedconstrast)、HC(Histgoram-based contrast)、RC(region-based contrast)、GC(Globalcontrast)将图像最明亮的颜色区域误检为显著性目标。PD(patch distinct)算法将模式和颜色对比度相结合,如图2的(k)、图4的(k)、图6的(k)和图8的(k)所示,显著性目标的边界清晰,但无法将显著性目标整体地凸显出来。由图3的(b)第二排,图3的(c)第一排以及图3的(d)第二排可知,CBS(context-based salinecy)、HS(Hierarchical Saliency)、MSS(Multi-Scale superpixels)将图像中心的区域误检为显著目标。由于CHB(Convex Hulland Bayesian)显著图的准确度取决于凸包所在的区域,如图9的(e)第一排所示,当图像中的背景变得复杂时,背景区域的角点相应地变多,背景区域被错误地检测为显著区域,导致检测结果会出现显著范围过大的现象。如图9的(f)(k)所示,对于背景复杂的SOD数据库,UFO(uniqueness,focusness and objectness)和GL(global and local)的检测效果不佳。由于只使用边缘假设,如图3的(g)第二排,图3的(h)第三排以及图3的(i)第二排所示,对于显著目标在边缘的图片,GS(Geodesic saliency)、DSR(Dense and Sparsereconstruction)、BL(bootstrapping learning)的检测结果准确率降低。由图3的(k)可知,RBD(robust background detection)检测到的显著性目标区域要大于真值图中所标注的区域。如图3的(l)和图9的(l)所示,BFS(background and foreground seed)只能凸显显著性目标的某一部分。如图3的(m)(n)(o)、图5的(m)(n)(o)、图7的(m)(n)(o)和图9的(m)(n)(o)所示,MAC(Markov Absorbing Chain)、MAP(Markov Absorption Probability)、GBMR(Graph based Manifold Ranking)能够凸显显著性目标的全部。如图3的(p)、图5的(p)、图7的(p)和图9的(p)所示,本发明方法也适用于检测多个目标和复杂背景的目标。总的来说,本发明方法检测的显著图更接近实际真值。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (8)
1.基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,包括如下步骤:
步骤1,利用简单线性迭代聚类算法将图像分割成尺度n下的超像素,且在尺度n下,超像素的数目为Rn,第i个超像素记为N为所有尺度的数目,利用Lab和RGB的色彩空间提取各超像素的平均颜色特征,根据平均颜色特征和超像素内所有像素的坐标描述各超像素,并将第i个超像素表示为 RC×1为C×1的特征空间,C是特征维度;
步骤2,将图像的边界超像素作为背景超像素,若背景超像素的数目为M,则尺度n下第k个背景超像素表示为构建背景超像素集合作为稀疏表示字典,RC×M为C×M的特征空间,对第i个超像素进行稀疏表示编码,并根据重构误差计算尺度n下第i个超像素的背景显著性值
步骤3,随机选择图像中的任意像素作为窗口的中心,随机抽取图像中的10000个图像块作为10000个窗口,计算各窗口被判定为显著性目标的概率值,根据概率值计算图像中任意一个像素的显著性值,根据显著性值得到尺度n下第i个超像素的目标显著性值
步骤4,通过贝叶斯推理整合尺度n下第i个超像素的背景显著性值和目标显著性值,得到尺度n下融合背景先验和目标先验的第i个超像素的显著性值,即融合显著性值
步骤5,针对尺度n,将每个超像素作为结点构建集合V,将结点之间的连接作为边构建集合E,根据V和E构造图G(V,E),所有结点间的权值矩阵为W,其中第i个结点和第j个结点之间的权值为wji,得到度矩阵为
步骤6,针对尺度n,根据步骤4得到的融合显著性值计算该尺度下所有超像素的平均显著性值将平均显著性值作为阈值对该尺度下的所有超像素的融合显著性值进行二进制分割,得到二进制显著性值使用流形排序将二进制显著性值传播到整个图像,并根据度矩阵获得每个超像素的最终显著性值
步骤7,重复步骤2-6,计算不同尺度下所有超像素的最终显著性值,通过加权求和将不同尺度下所有超像素的最终显著性值传播到像素,得到像素级显著图Sp。
2.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤1所述简单线性迭代聚类算法的具体步骤如下:
(1)初始化种子点即聚类中心,按照设定的超像素个数K,在图像内均匀分配种子点,图像总的像素点个数为Num,每个超像素的大小为Num/K,相邻种子点的距离为DS=sqrt(Num/K);
(2)在以种子点为中心的3*3邻域内选择梯度最小的像素作为新的种子点;
(3)计算每个新的种子点与其2DS*2DS邻域内像素点的距离,将各像素点分配给与其距离最近的种子点,距离公式为:
其中,dc为颜色距离,dh为空间距离,Dist为颜色距离和归一化的空间距离的和,l,a,b为Lab色彩模型的三要素,x,y分别为像素点的横,纵坐标,下标v,u分别表示第v,u个像素点,mp表示超像素紧凑程度;
(4)根据各像素点对应的种子点重新计算聚类中心,计算当前聚类中心与之前聚类中心的误差,若误差大于指定阈值则重复步骤(2)-(4),否则转(5);
(5)将不连续的超像素或者尺寸在1~Num/K之间的超像素重新分配给邻近的超像素。
3.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤2所述背景显著性值的计算过程为:
(1)计算尺度n下第i个超像素的稀疏编码系数,公式为:
(2)根据重构误差计算尺度n下第i个超像素的背景显著性值公式为:
其中,αi表示第i个超像素的稀疏编码系数,RM为M的特征空间,M为背景超像素的数目,表示第i个超像素,B为稀疏表示字典,λ为稀疏惩罚项||αi||1的系数,||·||1表示向量的1范数,表示向量的2范数的平方。
4.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤3所述目标显著性值的计算过程为:
(1)分别计算窗口显著性S(t,θS)、颜色对比度CC(t,θCC)、边缘密度ED(t,θED)以及轮廓闭合性II(t),将S(t,θS)、CC(t,θCC)、ED(t,θED)以及II(t)进行融合得到各窗口被判定为显著性目标的概率值;
(2)根据概率值计算图像中任意一个像素的显著性值:
(3)计算尺度n下第i个超像素的目标显著性值
其中,O(p)表示像素p的显著性值,pi表示第i个超像素中像素的数量。
5.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤4所述融合显著性值的计算公式为:
其中,分别表示目标显著性值、背景显著性值。
6.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤5所述第i个结点和第j个结点之间的权值为wji,计算公式为:
其中,分别是CIELAB颜色空间中第j、i个超像素的平均颜色特征,分别表示相应的平均坐标,表示第j个超像素的空间近邻,σ为控制权重强度的常量。
7.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤6所述最终显著性值的计算过程为:
(1)设定尺度n下所有超像素的最终显著性值构成的向量为
(2)定义求解Sr的目标函数E(Sr):
(3)最小化目标函数E(Sr)的最优解为:
Sr=(D-αW)-1Sq
α=1+μ
其中,i=1,2,…,Rn,j=1,2,…,Rn,i≠j,Rn为尺度n下超像素的数目,为1×Rn的特征空间,wji为尺度n下第i个结点和第j个结点之间的权值,μ为控制参数,为二进制显著性值,D为度矩阵,W为尺度n下所有结点间的权值矩阵,Sq为构成的向量。
8.根据权利要求1所述基于背景与目标先验的多尺度扩散显著目标检测方法,其特征在于,步骤7所述像素级显著图Sp,其每个像素的显著性值计算公式为:
其中,Sp(p)表示像素p的显著性值,N为所有尺度的数目,Rn为尺度n下超像素的数目,为最终显著性值,Ip表示像素p的CIELAB颜色值,表示尺度n下第i个超像素内所有像素的颜色均值,ε为常数,δ(·)表示尺度n下第i个超像素的指示函数,当像素p被包含在此超像素中,函数值为1,否则为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810243956.2A CN108549891B (zh) | 2018-03-23 | 2018-03-23 | 基于背景与目标先验的多尺度扩散显著目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810243956.2A CN108549891B (zh) | 2018-03-23 | 2018-03-23 | 基于背景与目标先验的多尺度扩散显著目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108549891A true CN108549891A (zh) | 2018-09-18 |
CN108549891B CN108549891B (zh) | 2019-10-01 |
Family
ID=63516859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810243956.2A Active CN108549891B (zh) | 2018-03-23 | 2018-03-23 | 基于背景与目标先验的多尺度扩散显著目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108549891B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214367A (zh) * | 2018-10-25 | 2019-01-15 | 东北大学 | 一种基于视觉注意机制的人脸检测方法 |
CN109446944A (zh) * | 2018-10-15 | 2019-03-08 | 西安文理学院 | 手语的视觉语义-结构化解析方法 |
CN110111338A (zh) * | 2019-04-24 | 2019-08-09 | 广东技术师范大学 | 一种基于超像素时空显著性分割的视觉跟踪方法 |
CN110310263A (zh) * | 2019-06-24 | 2019-10-08 | 北京师范大学 | 一种基于显著性分析和背景先验的sar图像居民区检测方法 |
CN110472639A (zh) * | 2019-08-05 | 2019-11-19 | 山东工商学院 | 一种基于显著性先验信息的目标提取方法 |
CN110689024A (zh) * | 2019-09-10 | 2020-01-14 | 安徽三联学院 | 一种应用于雾天城市交通的目标检测方法 |
CN110717896A (zh) * | 2019-09-24 | 2020-01-21 | 东北大学 | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 |
CN110853070A (zh) * | 2019-11-11 | 2020-02-28 | 山东科技大学 | 基于显著性与Grabcut的水下海参图像分割方法 |
CN110866523A (zh) * | 2019-10-25 | 2020-03-06 | 北京联合大学 | 一种显著图融合方法及系统 |
CN111160397A (zh) * | 2019-12-06 | 2020-05-15 | 北京联合大学 | 一种多尺度的视觉词字典生成方法及系统 |
CN111274964A (zh) * | 2020-01-20 | 2020-06-12 | 中国地质大学(武汉) | 一种基于无人机视觉显著性分析水面污染物的检测方法 |
CN111444858A (zh) * | 2020-03-30 | 2020-07-24 | 哈尔滨工程大学 | 一种移动机器人场景理解方法 |
CN111507339A (zh) * | 2020-04-16 | 2020-08-07 | 北京深测科技有限公司 | 一种基于强度图像的目标点云获取方法 |
CN111583245A (zh) * | 2020-05-11 | 2020-08-25 | 江苏迪赛司自动化工程有限公司 | 一种多特征耦合及目标探测的工业自动化监控方法 |
CN111681262A (zh) * | 2020-05-08 | 2020-09-18 | 南京莱斯电子设备有限公司 | 一种基于邻域梯度的复杂背景下红外弱小目标检测方法 |
CN111881915A (zh) * | 2020-07-15 | 2020-11-03 | 武汉大学 | 一种基于多种先验信息约束的卫星视频目标智能检测方法 |
CN112037302A (zh) * | 2020-08-31 | 2020-12-04 | 南通大学 | 一种基于大数据的扩散光层析成像智能化建模方法 |
CN112287935A (zh) * | 2020-09-03 | 2021-01-29 | 河海大学 | 一种基于显著性先验的图像语义分割方法及系统 |
CN112364730A (zh) * | 2020-10-29 | 2021-02-12 | 济南大学 | 基于稀疏子空间聚类的高光谱地物自动分类方法及系统 |
CN112434600A (zh) * | 2020-11-23 | 2021-03-02 | 国网安徽省电力有限公司淮南供电公司 | 一种无人机巡检方法及系统 |
CN112734733A (zh) * | 2021-01-12 | 2021-04-30 | 天津大学 | 基于通道重组与特征融合的无参考图像质量监测方法 |
CN113298763A (zh) * | 2021-05-09 | 2021-08-24 | 复旦大学 | 一种基于显著性窗口策略的图像质量评估方法 |
CN114327341A (zh) * | 2021-12-31 | 2022-04-12 | 江苏龙冠影视文化科技有限公司 | 远程交互式虚拟展示系统 |
CN114359244A (zh) * | 2022-01-10 | 2022-04-15 | 浙江大学 | 一种基于超像素分割与多种颜色特征的图像显著性检测方法 |
CN114782682A (zh) * | 2022-06-20 | 2022-07-22 | 西安道法数器信息科技有限公司 | 基于神经网络的农业害虫图像智能识别方法 |
CN116630651A (zh) * | 2023-05-19 | 2023-08-22 | 中国人民解放军国防科技大学 | 一种显著性目标检测方法、系统、电子设备、存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063872A (zh) * | 2014-07-04 | 2014-09-24 | 西安电子科技大学 | 基于改进视觉注意模型的序列图像显著区域检测方法 |
CN104392463A (zh) * | 2014-12-16 | 2015-03-04 | 西安电子科技大学 | 一种基于联合稀疏多尺度融合的图像显著区域检测方法 |
US20150169989A1 (en) * | 2008-11-13 | 2015-06-18 | Google Inc. | Foreground object detection from multiple images |
CN106780450A (zh) * | 2016-12-06 | 2017-05-31 | 天津大学 | 一种基于低秩多尺度融合的图像显著性检测方法 |
CN107301643A (zh) * | 2017-06-06 | 2017-10-27 | 西安电子科技大学 | 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法 |
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN107749066A (zh) * | 2017-11-10 | 2018-03-02 | 深圳市唯特视科技有限公司 | 一种基于区域的多尺度时空视觉显著性检测方法 |
-
2018
- 2018-03-23 CN CN201810243956.2A patent/CN108549891B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150169989A1 (en) * | 2008-11-13 | 2015-06-18 | Google Inc. | Foreground object detection from multiple images |
US9202137B2 (en) * | 2008-11-13 | 2015-12-01 | Google Inc. | Foreground object detection from multiple images |
CN104063872A (zh) * | 2014-07-04 | 2014-09-24 | 西安电子科技大学 | 基于改进视觉注意模型的序列图像显著区域检测方法 |
CN104392463A (zh) * | 2014-12-16 | 2015-03-04 | 西安电子科技大学 | 一种基于联合稀疏多尺度融合的图像显著区域检测方法 |
CN106780450A (zh) * | 2016-12-06 | 2017-05-31 | 天津大学 | 一种基于低秩多尺度融合的图像显著性检测方法 |
CN107301643A (zh) * | 2017-06-06 | 2017-10-27 | 西安电子科技大学 | 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法 |
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN107749066A (zh) * | 2017-11-10 | 2018-03-02 | 深圳市唯特视科技有限公司 | 一种基于区域的多尺度时空视觉显著性检测方法 |
Non-Patent Citations (9)
Title |
---|
RUI HUANG ET AL.: ""Saliency and co-saliency detection by low-rank multiscale fusion"", 《 2015 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO》 * |
TAO XI ET AL.: ""Salient Object Detection With Spatiotemporal Background Priors for Video"", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
周帅骏 等: ""融合背景先验与中心先验的显著性目标检测"", 《中国图象图形学报》 * |
张巧荣: ""利用背景先验的显著性检测算法"", 《中国图象图形学报》 * |
张晴 等: ""基于图的流行排序的显著目标检测改进算法"", 《计算机工程与应用》 * |
李文娟 等: ""多尺度分形维的星载舰船显著性检测"", 《中国图象图形学报》 * |
杨赛 等: ""一种基于多种特征融合的人脸识别算法"", 《计算机辅助设计与图像学学报》 * |
王娇娇 等: ""多尺度构图先验的显著目标检测"", 《中国图象图形学报》 * |
胡金戈: ""融合背景模型和颜色特征的多尺度视觉显著性检测"", 《信息与电脑》 * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446944A (zh) * | 2018-10-15 | 2019-03-08 | 西安文理学院 | 手语的视觉语义-结构化解析方法 |
CN109446944B (zh) * | 2018-10-15 | 2021-09-24 | 西安文理学院 | 手语的视觉语义-结构化解析方法 |
CN109214367A (zh) * | 2018-10-25 | 2019-01-15 | 东北大学 | 一种基于视觉注意机制的人脸检测方法 |
CN110111338A (zh) * | 2019-04-24 | 2019-08-09 | 广东技术师范大学 | 一种基于超像素时空显著性分割的视觉跟踪方法 |
CN110310263B (zh) * | 2019-06-24 | 2020-12-01 | 北京师范大学 | 一种基于显著性分析和背景先验的sar图像居民区检测方法 |
CN110310263A (zh) * | 2019-06-24 | 2019-10-08 | 北京师范大学 | 一种基于显著性分析和背景先验的sar图像居民区检测方法 |
CN110472639A (zh) * | 2019-08-05 | 2019-11-19 | 山东工商学院 | 一种基于显著性先验信息的目标提取方法 |
CN110472639B (zh) * | 2019-08-05 | 2023-04-18 | 山东工商学院 | 一种基于显著性先验信息的目标提取方法 |
CN110689024A (zh) * | 2019-09-10 | 2020-01-14 | 安徽三联学院 | 一种应用于雾天城市交通的目标检测方法 |
CN110717896A (zh) * | 2019-09-24 | 2020-01-21 | 东北大学 | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 |
CN110717896B (zh) * | 2019-09-24 | 2023-05-09 | 东北大学 | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 |
CN110866523A (zh) * | 2019-10-25 | 2020-03-06 | 北京联合大学 | 一种显著图融合方法及系统 |
CN110853070A (zh) * | 2019-11-11 | 2020-02-28 | 山东科技大学 | 基于显著性与Grabcut的水下海参图像分割方法 |
CN111160397A (zh) * | 2019-12-06 | 2020-05-15 | 北京联合大学 | 一种多尺度的视觉词字典生成方法及系统 |
CN111274964B (zh) * | 2020-01-20 | 2023-04-07 | 中国地质大学(武汉) | 一种基于无人机视觉显著性分析水面污染物的检测方法 |
CN111274964A (zh) * | 2020-01-20 | 2020-06-12 | 中国地质大学(武汉) | 一种基于无人机视觉显著性分析水面污染物的检测方法 |
CN111444858A (zh) * | 2020-03-30 | 2020-07-24 | 哈尔滨工程大学 | 一种移动机器人场景理解方法 |
CN111507339B (zh) * | 2020-04-16 | 2023-07-18 | 北京深测科技有限公司 | 一种基于强度图像的目标点云获取方法 |
CN111507339A (zh) * | 2020-04-16 | 2020-08-07 | 北京深测科技有限公司 | 一种基于强度图像的目标点云获取方法 |
CN111681262A (zh) * | 2020-05-08 | 2020-09-18 | 南京莱斯电子设备有限公司 | 一种基于邻域梯度的复杂背景下红外弱小目标检测方法 |
CN111681262B (zh) * | 2020-05-08 | 2021-09-03 | 南京莱斯电子设备有限公司 | 一种基于邻域梯度的复杂背景下红外弱小目标检测方法 |
CN111583245A (zh) * | 2020-05-11 | 2020-08-25 | 江苏迪赛司自动化工程有限公司 | 一种多特征耦合及目标探测的工业自动化监控方法 |
CN111881915A (zh) * | 2020-07-15 | 2020-11-03 | 武汉大学 | 一种基于多种先验信息约束的卫星视频目标智能检测方法 |
CN112037302A (zh) * | 2020-08-31 | 2020-12-04 | 南通大学 | 一种基于大数据的扩散光层析成像智能化建模方法 |
CN112287935A (zh) * | 2020-09-03 | 2021-01-29 | 河海大学 | 一种基于显著性先验的图像语义分割方法及系统 |
CN112364730B (zh) * | 2020-10-29 | 2023-01-17 | 济南大学 | 基于稀疏子空间聚类的高光谱地物自动分类方法及系统 |
CN112364730A (zh) * | 2020-10-29 | 2021-02-12 | 济南大学 | 基于稀疏子空间聚类的高光谱地物自动分类方法及系统 |
CN112434600A (zh) * | 2020-11-23 | 2021-03-02 | 国网安徽省电力有限公司淮南供电公司 | 一种无人机巡检方法及系统 |
CN112734733B (zh) * | 2021-01-12 | 2022-11-01 | 天津大学 | 基于通道重组与特征融合的无参考图像质量监测方法 |
CN112734733A (zh) * | 2021-01-12 | 2021-04-30 | 天津大学 | 基于通道重组与特征融合的无参考图像质量监测方法 |
CN113298763B (zh) * | 2021-05-09 | 2022-08-19 | 复旦大学 | 一种基于显著性窗口策略的图像质量评估方法 |
CN113298763A (zh) * | 2021-05-09 | 2021-08-24 | 复旦大学 | 一种基于显著性窗口策略的图像质量评估方法 |
CN114327341A (zh) * | 2021-12-31 | 2022-04-12 | 江苏龙冠影视文化科技有限公司 | 远程交互式虚拟展示系统 |
CN114359244A (zh) * | 2022-01-10 | 2022-04-15 | 浙江大学 | 一种基于超像素分割与多种颜色特征的图像显著性检测方法 |
CN114782682A (zh) * | 2022-06-20 | 2022-07-22 | 西安道法数器信息科技有限公司 | 基于神经网络的农业害虫图像智能识别方法 |
CN116630651A (zh) * | 2023-05-19 | 2023-08-22 | 中国人民解放军国防科技大学 | 一种显著性目标检测方法、系统、电子设备、存储介质 |
CN116630651B (zh) * | 2023-05-19 | 2024-09-10 | 中国人民解放军国防科技大学 | 一种显著性目标检测方法、系统、电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108549891B (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108549891B (zh) | 基于背景与目标先验的多尺度扩散显著目标检测方法 | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
US8401292B2 (en) | Identifying high saliency regions in digital images | |
CN108537239B (zh) | 一种图像显著性目标检测的方法 | |
JPH06150000A (ja) | 画像クラスタリング装置 | |
CN107784663A (zh) | 基于深度信息的相关滤波跟踪方法及装置 | |
CN107862702B (zh) | 一种结合边界连通性与局部对比性的显著性检测方法 | |
CN108764244B (zh) | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 | |
Feng et al. | A color image segmentation method based on region salient color and fuzzy c-means algorithm | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN108388901B (zh) | 基于空间-语义通道的协同显著目标检测方法 | |
CN106295657A (zh) | 一种视频数据结构化过程中提取人体高度特征的方法 | |
CN115937552A (zh) | 一种基于融合手工特征与深度特征的图像匹配方法 | |
Zhao et al. | Saliency detection with spaces of background-based distribution | |
Huo et al. | Semisupervised learning based on a novel iterative optimization model for saliency detection | |
CN107610136B (zh) | 基于凸包结构中心查询点排序的显著目标检测方法 | |
CN111881915A (zh) | 一种基于多种先验信息约束的卫星视频目标智能检测方法 | |
Wang et al. | Salient object detection by robust foreground and background seed selection | |
CN104766068A (zh) | 一种多规则融合的随机游走舌像提取方法 | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 | |
CN114724175B (zh) | 行人图像的检测网络、检测方法、训练方法、电子设备和介质 | |
Shen et al. | A holistic image segmentation framework for cloud detection and extraction | |
Wang et al. | Boundary detection using unbiased sparseness‐constrained colour‐opponent response and superpixel contrast | |
Albukhnefis et al. | Image Segmentation Techniques: An In-Depth Review and Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |