CN105760886A - 一种基于目标识别与显著性检测的图像场景多对象分割方法 - Google Patents
一种基于目标识别与显著性检测的图像场景多对象分割方法 Download PDFInfo
- Publication number
- CN105760886A CN105760886A CN201610099473.0A CN201610099473A CN105760886A CN 105760886 A CN105760886 A CN 105760886A CN 201610099473 A CN201610099473 A CN 201610099473A CN 105760886 A CN105760886 A CN 105760886A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- significance
- value
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于目标识别与显著性检测的图像场景多对象分割方法,包括:在图像训练集上训练语义对象的检测器,并检测输入图像中对象的位置,标定对象的包围盒;对输入的图像进行过分割处理,得到超像素集合,根据包围盒的位置和超像素的语义概率值,计算兴趣区域;在三种稠密尺度上进行场景显著性检测,得到图像的显著图;在兴趣区域内,计算超像素的邻接关系,每一个对象是一种类别;以每个超像素作为场模型的节点,超像素的邻接关系对应场模型中节点之间的连接关系,将显著性和图像特征转化为节点和边的权重值;利用图割算法,在条件随机场模型上进行优化,迭代终止时得到像素的对象标记结果,从而实现多个对象的分割。
Description
技术领域
本发明涉及计算机视觉、图像处理领域内的图像场景理解研究点,具体地说是一种基于目标识别与显著性检测的图像场景多对象分割方法。
背景技术
图像场景语义分割是计算机视觉、图像处理领域内的一个研究难点和研究热点,它涉及到很多应用行业,如智慧旅游、智能交通、公共安全、影视娱乐等。目前,大多数场景语义分割方法还处于场景类别层次的语义分割,即划分出场景中不同类别内容的区域。例如,微软剑桥研究院的Shotton等提出了语义标记的概念,并实现了集识别、分割与标记于一体的场景类别级语义分割算法;麻省理工学院的Liu等提出了一种非参数的场景解析方法,并首次将这种方法定义为语义迁移方法。加州大学默塞德分校的Yang等提出了一种关注于稀少类别的上下文驱动的场景解析方法。随着行业技术的发展,这种类别级的划分,越来越难以满足实际应用对场景内容和对象区域的需求。例如,存在这样的需求:在安全监控系统中,当场景中有多个人出现时,需要算法能够把每个人都划分出来,以便于进一步的分析。然而对于一个场景中出现多个同类别对象的情况,目前还没有较好的方法能够将这多个对象分割出来。
另一方面,在单个对象分割领域,国内外学者提出了一些较为有效的场景对象分割方法,如对象抠取算法、对象共分割算法等。例如,微软剑桥研究院的Rother等提出了对象共分割的概念,将多张图像中的相似对象同时分割出来;明尼苏达大学的Bai等提出了一系列图像和视频对象的抠取算法,通过用户交互提供潜在的对象先验信息。但是这些方法基本上围绕着图像中的视觉内容进行划分,缺少了语义信息,继而也缺少了语义所对应的先验信息,即无法识别和理解所分割对象的语义。
这种情况已经引起国内外的学者们的关注,因此目前的研究工作开始逐步的面向场景对象语义分割。例如,澳大利亚国立大学的Gould等提出一种基于样例随机场模型的图像多对象分割方法,北卡罗莱纳大学教堂山分校的Tighe等提出一种基于样例检测的区域级图像解析方法。由于对象的语义分割本身难度非常大,该方向的研究工作还处于一个初始阶段。针对上述研究现状与存在的问题,本发明提出一种基于目标识别与显著性检测的图像场景多对象分割方法,旨在能够提供准确的具有语义类别信息的多对象区域划分。
发明内容
为了实现上述目的,本发明采取了如下技术方案:
一种基于目标识别与显著性检测的图像场景多对象分割方法,包含:
步骤1、在图像训练集上训练语义对象的检测器,针对输入的测试图像,利用识别分类器给出像素点的语义概率值,利用训练好的检测器检测对象的位置,并标定对象的包围盒,确定对象的大致范围及大致数量;
步骤2、将输入的测试图像进行过分割处理,得到超像素集合,根据包围盒的位置和超像素的语义概率值,计算兴趣区域;
步骤3、对输入的测试图像在三种稠密尺度上进行场景显著性检测,得到像素级的显著图,再根据超像素与像素的对应关系,将像素级的场景显著性转化成超像素级的场景显著值;
步骤4、在兴趣区域内,计算超像素的邻接关系,形成邻接矩阵,兴趣区域外的超像素不在计算范围内;构建条件随机场模型,将多对象分割问题转化成多类别标记问题,每一个对象是一种类别;以每个超像素作为场模型的节点,超像素的邻接关系对应场模型中节点之间的连接关系,为节点和边赋予权重值;
步骤5、利用图割算法,在条件随机场模型上进行优化,迭代终止时得到像素的对象标记结果,从而实现多个对象的分割。
所述步骤1中,标定对象的包围盒时,给出多个包围盒候选。候选包围盒的选择依据是,根据包围盒的分值进行排序,选择分值最高的前5个包围盒,待分割的对象数量不超过包围盒的数量。
所述步骤2中,兴趣区域的计算方式如下:依次遍历5个包围盒,如果包围盒的分值大于设定阈值T1,则在超像素集合中确定处于该包围盒范围内的超像素子集,如果一个超像素80%以上的像素点处于该包围盒范围内,则认为该超像素处于该包围盒范围。所有分值大于T1的包围盒的超像素子集,以及语义概率值大于一定阈值T2的区域的合集构成兴趣区域。
所述步骤3中,测试图像的三种稠密尺度的显著性检测过程如下:尺度一,每隔4个像素点取一个像素点作为滑动窗的中心点;尺度二,每隔3个像素点取一个像素点作为滑动窗的中心点;尺度三,每隔2个像素点取一个像素点作为滑动窗的中心点;根据滑动窗口每个像素点的RGB值,计算块结构的RGB均值;将三个尺度上的所有块结构的颜色值进行归一化处理,然后对每个块结构,选择与它颜色最相近的前60个块结构,以此60个块结构的颜色平均值作为该块结构中心点像素的显著性值。对于未采样的像素点,根据它自身的颜色值以及它周围像素点的显著性值线性插值,得到该点的显著性值。
所述步骤4中,场模型的节点权重的计算过程如下:计算每个超像素属于每个对象的概率值,其中对象的个数由对象检测器确定。对于检测器所定位的对象包围盒,如果其分值大于设定阈值T1,则认为场景中存在一个与之对应的对象。如果超像素的显著性值大于设定阈值T3,该超像素属于每个对象的概率值由三部分构成,即该超像素的显著性值、该超像素是否属于对象的包围盒以及该包围盒的分值;否则,该超像素属于每个对象的概率值为零。
所述步骤4中,场模型的边权重的计算过程如下:边权值由该边所连接的两个节点对应的超像素之间的边界特征差异决定,特征向量的组成包括RGB颜色特征、HOG梯度特征以及形状先验,特征差异为两个超像素在特征空间的欧式距离,其中形状先验是在训练集上学习得来。没有邻接关系的两个节点,其边权值为零。
所述步骤5中,在进行图割优化时,为了准确分割多个对象,在执行时加入一个“其他”类别标记,以便于将兴趣区域中不属于对象的超像素剔除出去。超像素属于这个“其他”类别对象的概率值计算过程如下:如果超像素的显著性值小于设定阈值T3,则该超像素属于“其他”对象的概率值由它的显著性确定,否则概率值为零。当图割优化终止时,如果该超像素被标记为“其他”,则该超像素不属于任何一个对象。
对于每一个窗口内的块结构,计算R、G、B三个通道的颜色均值,作为该块结构中心点像素的特征值,如以下公式所示,其中size(P)为滑动窗口大小。
将所有块结构颜色值归一化处理,针对当前的以(i,j)为中心的窗口块结构,根据颜色距离值,在三个尺度上选择距离最近的60个块结构,以此60个块结构的颜色平均值作为该块结构中心点像素的显著性值。
对于未采样的点,它的显著性值是根据它的颜色值以及它周围像素点的显著性值线性插值得到的,计算过程如以下公式所示:
其中,N为(i,j)的邻域集,color(·)为像素点的颜色值,dis(x,y)为邻域点(x,y)到该点的距离,所有度量都进行了归一化处理。根据像素点与超像素的对应关系,将像素级显著性转化成超像素级显著性,以超像素中所有像素显著性的均值作为该超像素的显著性值。
在此基础上,在兴趣区域内构建条件随机场模型,将多对象分割问题转化成多类别标记问题,每一个对象是一种类别,兴趣区域外的图像区域默认为“其他”语义类别。超像素对应场模型的节点,邻接的超像素在场模型中对应相应的边。节点权重计算方式为:在已确定对象个数的情况下,计算每个超像素属于每个对象(包括“其他”对象)的概率值,如果超像素的显著性值大于设定阈值T3,该超像素属于每个对象的概率值由三部分构成,即该超像素的显著性值、该超像素是否属于对象的包围盒以及该包围盒的分值,否则,该超像素属于每个对象的概率值为零;如果超像素的显著性值小于设定阈值T3,则该超像素属于“其他”对象,其概率值由它的显著性确定,否则概率值为零,如以下公式所示。
其中,Uk(s)代表超像素s属于对象类别k的概率值,Uo(s)代表超像素s属于“其他”对象类别o的概率值,Smap(s)为超像素的显著性值,inBbox(s,k)代表超像素是否处于对象k的包围盒范围,V(k)为对象k的包围盒分值。
场模型边权重的计算方式如下:边权值B(r,s)由该边所连接的两个超像素之间的边界特征差异bdry(r,s)决定,Nei(r,s)代表邻接关系,特征向量的组成包括RGB颜色特征、HOG梯度特征以及形状先验,特征差异为两个超像素在特征空间的欧式距离,λ和c是调节参数。
B(r,s)=Nei(r,s)*Smooth(r,s)
Smooth(r,s)=exp(-λ*bdry(r,s))+log(bdry(r,s)+1)+c
因此,条件随机场模型的能量公式为:
E(s)=U{k,o}(s)+B(r,s)
在利用图割算法优化时,待分割的对象类别包括包围盒确定的对象个数以及一个“其他”类别,以便于将兴趣区域中不属于对象的超像素剔除出去。当图割优化终止时,每一个超像素被标记为一个对象类别。
附图说明
图1为本发明的测试图像检测对象的包围盒定位图。
图2为本发明的对象兴趣区域图(与图1相对应)。
图3为本发明的图像显著性检测图。
图4为本发明的算法流程示意图。
具体实施方式
下面对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本发明提供了一种基于目标识别与显著性检测的图像场景多对象分割方法,该方法能够在识别对象类别的基础上得到图像中多个对象的分割结果。总体流程如下:首先在图像训练集上训练识别对象类别的分类器,将训练好的分类器作用于测试图像,输出测试图像的对象识别和定位包围盒;另一方面,对测试图像进行过分割处理,得到图像的超像素集合,根据包围盒和语义概率值,计算对象的兴趣区域;然后,对测试图像进行三种稠密尺度的显著性检测,得到像素级显著图,转化成超像素的显著性值;在兴趣区域内,构建条件随机场模型,将多对象分割问题转化成多类别标记问题,兴趣区域内的超像素对应模型的节点,超像素的邻接关系对应模型的边;利用图割算法,在条件随机场模型上进行优化,迭代终止时得到像素的对象标记结果,从而实现多个对象的分割。
根据上述流程,首先需要训练用于对象识别的分类器。在已经标注好的训练图像上,采样多维度特征,利用SVM算法,训练不同类别对象的分类器。针对每一种类别的分类器,将该分类器作用于测试图像,输出多个对象包围盒。同时,利用TextonBoost算法训练多类别识别分类器,将该分类器作用于测试图像,得到测试图像的像素级语义类别概率图,即得到每一个像素点属于每一种类别的概率值。对于输出的多个对象包围盒,按照分值进行排序,选择分值最高的前5个作为候选集。待分割的对象的个数由对象检测器确定。对于检测器所定位的对象包围盒,如果其分值大于设定阈值T1,则认为场景中存在一个与之对应的对象。
利用Turbo算法,对测试图像进行过分割处理,得到超像素集合,超像素数量为一千左右的数量级。在测试图像上确定对象的兴趣区域,兴趣区域以外的区域不作为计算范围。以“马”这种类别为例,兴趣区域的确定应该满足以下条件:根据语义类别概率中“马”这种类别的概率分布,选择概率值大于一定阈值T2的区域;遍历5个包围盒,选择分值大于设定阈值T1的包围盒的超像素子集。这两种区域的合集构成了兴趣区域。其中包围盒超像素子集的计算过程如下:依次遍历5个包围盒,如果包围盒的分值大于设定阈值T1,则认为该包围盒是可靠性高的包围盒,确定处于该包围盒范围内的超像素子集。如果一个超像素80%以上的像素点处于该包围盒范围内,则认为该超像素处于该包围盒范围。其中阈值T1由数据集的先验信息确定,在训练数据集上统计得到。
针对测试图像,进行三种稠密尺度的显著性检测,三种尺度分别为:尺度一,每隔4个像素点取一个像素点作为滑动窗的中心点;尺度二,每隔3个像素点取一个像素点作为滑动窗的中心点;尺度三,每隔2个像素点取一个像素点作为滑动窗的中心点。以7*7大小的滑动窗在测试图像上进行从左至右、从上至下的检测。对于每一个窗口内的块结构,计算R、G、B三个通道的颜色均值,作为该块结构中心点像素的特征值,如以下公式所示,其中size(P)为滑动窗口大小。
将所有块结构颜色值归一化处理,针对当前的以(i,j)为中心的窗口块结构,根据颜色距离值,在三个尺度上选择距离最近的60个块结构,以此60个块结构的颜色平均值作为该块结构中心点像素的显著性值。
对于未采样的点,它的显著性值是根据它的颜色值以及它周围像素点的显著性值线性插值得到的,计算过程如以下公式所示:
其中,N为(i,j)的邻域集,color(·)为像素点的颜色值,dis(x,y)为邻域点(x,y)到该点的距离,所有度量都进行了归一化处理。根据像素点与超像素的对应关系,将像素级显著性转化成超像素级显著性,以超像素中所有像素显著性的均值作为该超像素的显著性值。
在此基础上,在兴趣区域内构建条件随机场模型,将多对象分割问题转化成多类别标记问题,每一个对象是一种类别,兴趣区域外的图像区域默认为“其他”语义类别。超像素对应场模型的节点,邻接的超像素在场模型中对应相应的边。节点权重计算方式为:在已确定对象个数的情况下,计算每个超像素属于每个对象(包括“其他”对象)的概率值,如果超像素的显著性值大于设定阈值T3,该超像素属于每个对象的概率值由三部分构成,即该超像素的显著性值、该超像素是否属于对象的包围盒以及该包围盒的分值,否则,该超像素属于每个对象的概率值为零;如果超像素的显著性值小于设定阈值T3,则该超像素属于“其他”对象,其概率值由它的显著性确定,否则概率值为零,如以下公式所示。
其中,Uk(s)代表超像素s属于对象类别k的概率值,Uo(s)代表超像素s属于“其他”对象类别o的概率值,Smap(s)为超像素的显著性值,inBbox(s,k)代表超像素是否处于对象k的包围盒范围,V(k)为对象k的包围盒分值。
场模型边权重的计算方式如下:边权值B(r,s)由该边所连接的两个超像素之间的边界特征差异bdry(r,s)决定,Nei(r,s)代表邻接关系,特征向量的组成包括RGB颜色特征、HOG梯度特征以及形状先验,特征差异为两个超像素在特征空间的欧式距离,λ和c是调节参数。
B(r,s)=Nei(r,s)*Smooth(r,s)
Smooth(r,s)=exp(-λ*bdry(r,s))+log(bdry(r,s)+1)+c
因此,条件随机场模型的能量公式为:
E(s)=U{k,o}(s)+B(r,s)
在利用图割算法优化时,待分割的对象类别包括包围盒确定的对象个数以及一个“其他”类别,以便于将兴趣区域中不属于对象的超像素剔除出去。当图割优化终止时,每一个超像素被标记为一个对象类别。
Claims (7)
1.一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:该方法包含如下步骤,
步骤1、在图像训练集上训练语义对象的检测器,针对输入的测试图像,利用识别分类器给出像素点的语义概率值,利用训练好的检测器检测对象的位置,并标定对象的包围盒,确定对象的大致范围及大致数量;
步骤2、将输入的测试图像进行过分割处理,得到超像素集合,根据包围盒的位置和超像素的语义概率值,计算兴趣区域;
步骤3、对输入的测试图像在三种稠密尺度上进行场景显著性检测,得到像素级的显著图,再根据超像素与像素的对应关系,将像素级的场景显著性转化成超像素级的场景显著值;
步骤4、在兴趣区域内,计算超像素的邻接关系,形成邻接矩阵,兴趣区域外的超像素不在计算范围内;构建条件随机场模型,将多对象分割问题转化成多类别标记问题,每一个对象是一种类别;以每个超像素作为场模型的节点,超像素的邻接关系对应场模型中节点之间的连接关系,为节点和边赋予权重值;
步骤5、利用图割算法,在条件随机场模型上进行优化,迭代终止时得到像素的对象标记结果,从而实现多个对象的分割;
对于每一个窗口内的块结构,计算R、G、B三个通道的颜色均值,作为该块结构中心点像素的特征值,如以下公式所示,其中size(P)为滑动窗口大小;
将所有块结构颜色值归一化处理,针对当前的以(i,j)为中心的窗口块结构,根据颜色距离值,在三个尺度上选择距离最近的60个块结构,以此60个块结构的颜色平均值作为该块结构中心点像素的显著性值;
对于未采样的点,它的显著性值是根据它的颜色值以及它周围像素点的显著性值线性插值得到的,计算过程如以下公式所示:
其中,N为(i,j)的邻域集,color(●)为像素点的颜色值,dis(x,y)为邻域点(x,y)到该点的距离,所有度量都进行了归一化处理;根据像素点与超像素的对应关系,将像素级显著性转化成超像素级显著性,以超像素中所有像素显著性的均值作为该超像素的显著性值;
在此基础上,在兴趣区域内构建条件随机场模型,将多对象分割问题转化成多类别标记问题,每一个对象是一种类别,兴趣区域外的图像区域默认为“其他”语义类别;超像素对应场模型的节点,邻接的超像素在场模型中对应相应的边;节点权重计算方式为:在已确定对象个数的情况下,计算每个超像素属于每个对象的概率值,每个对象中包括“其他”对象;如果超像素的显著性值大于设定阈值T3,该超像素属于每个对象的概率值由三部分构成,即该超像素的显著性值、该超像素是否属于对象的包围盒以及该包围盒的分值,否则,该超像素属于每个对象的概率值为零;如果超像素的显著性值小于设定阈值T3,则该超像素属于“其他”对象,其概率值由它的显著性确定,否则概率值为零,如以下公式所示;
其中,Uk(s)代表超像素s属于对象类别k的概率值,Uo(s)代表超像素s属于“其他”对象类别o的概率值,Smap(s)为超像素的显著性值,inBbox(s,k)代表超像素是否处于对象k的包围盒范围,V(k)为对象k的包围盒分值;
场模型边权重的计算方式如下:边权值B(r,s)由该边所连接的两个超像素之间的边界特征差异bdry(r,s)决定,Nei(r,s)代表邻接关系,特征向量的组成包括RGB颜色特征、HOG梯度特征以及形状先验,特征差异为两个超像素在特征空间的欧式距离,λ和c是调节参数;
B(r,s)=Nei(r,s)*Smooth(r,s)
Smooth(r,s)=exp(-λ*bdry(r,s))+log(bdry(r,s)+1)+c
因此,条件随机场模型的能量公式为:
E(s)=U{k,o}(s)+B(r,s)
在利用图割算法优化时,待分割的对象类别包括包围盒确定的对象个数以及一个“其他”类别,以便于将兴趣区域中不属于对象的超像素剔除出去;当图割优化终止时,每一个超像素被标记为一个对象类别。
2.根据权利要求1所述的一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:在所述步骤1中,标定对象的包围盒时,给出多个包围盒候选;候选包围盒的选择依据是,根据包围盒的分值进行排序,选择分值最高的前5个包围盒,待分割的对象数量不超过包围盒的数量。
3.根据权利要求1所述的一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:在步骤2中,兴趣区域的计算方式如下:依次遍历5个包围盒,如果包围盒的分值大于设定阈值T1,则在超像素集合中确定处于该包围盒范围内的超像素子集,如果一个超像素80%以上的像素点处于该包围盒范围内,则认为该超像素处于该包围盒范围;所有分值大于T1的包围盒的超像素子集,以及语义概率值大于一定阈值T2的区域的合集构成兴趣区域。
4.根据权利要求1所述的一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:在步骤3中,测试图像的三种稠密尺度的显著性检测过程如下:尺度一,每隔4个像素点取一个像素点作为滑动窗的中心点;尺度二,每隔3个像素点取一个像素点作为滑动窗的中心点;尺度三,每隔2个像素点取一个像素点作为滑动窗的中心点;根据滑动窗口每个像素点的RGB值,计算块结构的RGB均值;将三个尺度上的所有块结构的颜色值进行归一化处理,然后对每个块结构,选择与它颜色最相近的前60个块结构,以此60个块结构的颜色平均值作为该块结构中心点像素的显著性值;对于未采样的像素点,根据它自身的颜色值以及它周围像素点的显著性值线性插值,得到该点的显著性值。
5.根据权利要求1所述的一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:在步骤4中,场模型的节点权重的计算过程如下:计算每个超像素属于每个对象的概率值,其中对象的个数由对象检测器确定;对于检测器所定位的对象包围盒,如果其分值大于设定阈值T1,则认为场景中存在一个与之对应的对象;如果超像素的显著性值大于设定阈值T3,该超像素属于每个对象的概率值由三部分构成,即该超像素的显著性值、该超像素是否属于对象的包围盒以及该包围盒的分值;否则,该超像素属于每个对象的概率值为零。
6.根据权利要求1所述的一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:在步骤4中,场模型的边权重的计算过程如下:边权值由该边所连接的两个节点对应的超像素之间的边界特征差异决定,特征向量的组成包括RGB颜色特征、HOG梯度特征以及形状先验,特征差异为两个超像素在特征空间的欧式距离,其中形状先验是在训练集上学习得来;没有邻接关系的两个节点,其边权值为零。
7.根据权利要求1所述的一种基于目标识别与显著性检测的图像场景多对象分割方法,其特征在于:在步骤5中,在进行图割优化时,为了准确分割多个对象,在执行时加入一个“其他”类别标记,以便于将兴趣区域中不属于对象的超像素剔除出去;超像素属于这个“其他”类别对象的概率值计算过程如下:如果超像素的显著性值小于设定阈值T3,则该超像素属于“其他”对象的概率值由它的显著性确定,否则概率值为零;当图割优化终止时,如果该超像素被标记为“其他”,则该超像素不属于任何一个对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610099473.0A CN105760886B (zh) | 2016-02-23 | 2016-02-23 | 一种基于目标识别与显著性检测的图像场景多对象分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610099473.0A CN105760886B (zh) | 2016-02-23 | 2016-02-23 | 一种基于目标识别与显著性检测的图像场景多对象分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105760886A true CN105760886A (zh) | 2016-07-13 |
CN105760886B CN105760886B (zh) | 2019-04-12 |
Family
ID=56330242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610099473.0A Active CN105760886B (zh) | 2016-02-23 | 2016-02-23 | 一种基于目标识别与显著性检测的图像场景多对象分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105760886B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203399A (zh) * | 2016-07-27 | 2016-12-07 | 厦门美图之家科技有限公司 | 一种图像处理方法、装置和计算设备 |
CN106250895A (zh) * | 2016-08-15 | 2016-12-21 | 北京理工大学 | 一种光学遥感图像感兴趣区域检测方法 |
CN106611161A (zh) * | 2016-12-16 | 2017-05-03 | 清华大学 | 一种交通标志包围盒的优化方法 |
CN106951830A (zh) * | 2017-02-23 | 2017-07-14 | 北京联合大学 | 一种基于先验条件约束的图像场景多对象标记方法 |
CN106952286A (zh) * | 2017-03-21 | 2017-07-14 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
CN107153969A (zh) * | 2017-04-20 | 2017-09-12 | 温州市鹿城区中津先进科技研究院 | 基于定位标签进行面料调度指导的大数据处理方法 |
CN107169487A (zh) * | 2017-04-19 | 2017-09-15 | 西安电子科技大学 | 基于超像素分割及深度特征定位的显著性目标检测方法 |
CN107291855A (zh) * | 2017-06-09 | 2017-10-24 | 中国电子科技集团公司第五十四研究所 | 一种基于显著对象的图像检索方法及系统 |
CN107766810A (zh) * | 2017-10-10 | 2018-03-06 | 湖南省测绘科技研究所 | 一种云、影检测方法 |
CN108229316A (zh) * | 2017-11-28 | 2018-06-29 | 浙江工业大学 | 一种基于超像素分割的车辆轮廓提取方法 |
CN108305266A (zh) * | 2017-12-26 | 2018-07-20 | 浙江工业大学 | 基于条件随机场图结构学习的语义图像分割方法 |
CN108345835A (zh) * | 2018-01-15 | 2018-07-31 | 上海大学 | 一种基于仿复眼感知的目标识别方法 |
CN109215049A (zh) * | 2018-07-18 | 2019-01-15 | 中国科学院自动化研究所 | 基于多尺度三维先验信息的屋顶分割方法、系统与设备 |
CN109961444A (zh) * | 2019-03-01 | 2019-07-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN110009625A (zh) * | 2019-04-11 | 2019-07-12 | 上海科技大学 | 基于深度学习的图像处理系统、方法、终端、及介质 |
CN110088805A (zh) * | 2016-12-20 | 2019-08-02 | 柯达阿拉里斯股份有限公司 | 一种用于显著性前景检测和多对象分割的迭代法 |
CN110223341A (zh) * | 2019-06-14 | 2019-09-10 | 北京国信华源科技有限公司 | 一种基于图像识别的智能水位监测方法 |
CN110827247A (zh) * | 2019-10-28 | 2020-02-21 | 上海悦易网络信息技术有限公司 | 一种识别标签的方法及设备 |
CN110910417A (zh) * | 2019-10-29 | 2020-03-24 | 西北工业大学 | 一种基于超像素邻帧特征对比的弱小运动目标检测方法 |
CN110991547A (zh) * | 2019-12-12 | 2020-04-10 | 电子科技大学 | 一种基于多特征最优融合的图像显著性检测方法 |
CN111212222A (zh) * | 2020-01-09 | 2020-05-29 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子装置及存储介质 |
CN111369624A (zh) * | 2020-02-28 | 2020-07-03 | 北京百度网讯科技有限公司 | 定位方法和装置 |
CN111723635A (zh) * | 2019-03-20 | 2020-09-29 | 北京四维图新科技股份有限公司 | 实时场景理解系统 |
CN112016605A (zh) * | 2020-08-19 | 2020-12-01 | 浙江大学 | 一种基于边界框角点对齐和边界匹配的目标检测方法 |
US20210166146A1 (en) * | 2017-03-22 | 2021-06-03 | Ebay Inc. | Visual aspect localization presentation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040013305A1 (en) * | 2001-11-14 | 2004-01-22 | Achi Brandt | Method and apparatus for data clustering including segmentation and boundary detection |
US20100226564A1 (en) * | 2009-03-09 | 2010-09-09 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
CN104636761A (zh) * | 2015-03-12 | 2015-05-20 | 华东理工大学 | 一种基于多层分割的图像语义标注方法 |
CN104685540A (zh) * | 2013-09-27 | 2015-06-03 | 华为技术有限公司 | 图像语义分割的方法和装置 |
CN105069774A (zh) * | 2015-06-30 | 2015-11-18 | 长安大学 | 基于多示例学习与图割优化的目标分割方法 |
-
2016
- 2016-02-23 CN CN201610099473.0A patent/CN105760886B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040013305A1 (en) * | 2001-11-14 | 2004-01-22 | Achi Brandt | Method and apparatus for data clustering including segmentation and boundary detection |
US20100226564A1 (en) * | 2009-03-09 | 2010-09-09 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
CN104685540A (zh) * | 2013-09-27 | 2015-06-03 | 华为技术有限公司 | 图像语义分割的方法和装置 |
CN104636761A (zh) * | 2015-03-12 | 2015-05-20 | 华东理工大学 | 一种基于多层分割的图像语义标注方法 |
CN105069774A (zh) * | 2015-06-30 | 2015-11-18 | 长安大学 | 基于多示例学习与图割优化的目标分割方法 |
Non-Patent Citations (3)
Title |
---|
XIAO J等: "multiple view semantic segmentation for street view images", 《THE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
刘毅等: "利用视觉显著性与图割的图像分割算法", 《计算机辅助设计与图形学学报》 * |
钱生等: "基于条件随机场和图像分割的显著性检测", 《自动化学报》 * |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203399B (zh) * | 2016-07-27 | 2019-06-04 | 厦门美图之家科技有限公司 | 一种图像处理方法、装置和计算设备 |
CN106203399A (zh) * | 2016-07-27 | 2016-12-07 | 厦门美图之家科技有限公司 | 一种图像处理方法、装置和计算设备 |
CN106250895A (zh) * | 2016-08-15 | 2016-12-21 | 北京理工大学 | 一种光学遥感图像感兴趣区域检测方法 |
CN106250895B (zh) * | 2016-08-15 | 2019-07-26 | 北京理工大学 | 一种光学遥感图像感兴趣区域检测方法 |
CN106611161A (zh) * | 2016-12-16 | 2017-05-03 | 清华大学 | 一种交通标志包围盒的优化方法 |
CN106611161B (zh) * | 2016-12-16 | 2019-06-18 | 清华大学 | 一种交通标志包围盒的优化方法 |
CN110088805A (zh) * | 2016-12-20 | 2019-08-02 | 柯达阿拉里斯股份有限公司 | 一种用于显著性前景检测和多对象分割的迭代法 |
CN106951830A (zh) * | 2017-02-23 | 2017-07-14 | 北京联合大学 | 一种基于先验条件约束的图像场景多对象标记方法 |
CN106951830B (zh) * | 2017-02-23 | 2020-12-18 | 北京联合大学 | 一种基于先验条件约束的图像场景多对象标记方法 |
CN106952286A (zh) * | 2017-03-21 | 2017-07-14 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
CN106952286B (zh) * | 2017-03-21 | 2019-09-06 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
US11775844B2 (en) * | 2017-03-22 | 2023-10-03 | Ebay Inc. | Visual aspect localization presentation |
US20210166146A1 (en) * | 2017-03-22 | 2021-06-03 | Ebay Inc. | Visual aspect localization presentation |
CN107169487A (zh) * | 2017-04-19 | 2017-09-15 | 西安电子科技大学 | 基于超像素分割及深度特征定位的显著性目标检测方法 |
CN107169487B (zh) * | 2017-04-19 | 2020-02-07 | 西安电子科技大学 | 基于超像素分割及深度特征定位的显著性目标检测方法 |
CN107153969A (zh) * | 2017-04-20 | 2017-09-12 | 温州市鹿城区中津先进科技研究院 | 基于定位标签进行面料调度指导的大数据处理方法 |
CN107291855A (zh) * | 2017-06-09 | 2017-10-24 | 中国电子科技集团公司第五十四研究所 | 一种基于显著对象的图像检索方法及系统 |
CN107766810A (zh) * | 2017-10-10 | 2018-03-06 | 湖南省测绘科技研究所 | 一种云、影检测方法 |
CN107766810B (zh) * | 2017-10-10 | 2021-05-14 | 湖南省测绘科技研究所 | 一种云、影检测方法 |
CN108229316B (zh) * | 2017-11-28 | 2020-05-12 | 浙江工业大学 | 一种基于超像素分割的车辆轮廓提取方法 |
CN108229316A (zh) * | 2017-11-28 | 2018-06-29 | 浙江工业大学 | 一种基于超像素分割的车辆轮廓提取方法 |
CN108305266A (zh) * | 2017-12-26 | 2018-07-20 | 浙江工业大学 | 基于条件随机场图结构学习的语义图像分割方法 |
CN108305266B (zh) * | 2017-12-26 | 2020-08-18 | 浙江工业大学 | 基于条件随机场图结构学习的语义图像分割方法 |
CN108345835B (zh) * | 2018-01-15 | 2022-07-12 | 上海大学 | 一种基于仿复眼感知的目标识别方法 |
CN108345835A (zh) * | 2018-01-15 | 2018-07-31 | 上海大学 | 一种基于仿复眼感知的目标识别方法 |
CN109215049B (zh) * | 2018-07-18 | 2020-11-06 | 中国科学院自动化研究所 | 基于多尺度三维先验信息的屋顶分割方法、系统与设备 |
CN109215049A (zh) * | 2018-07-18 | 2019-01-15 | 中国科学院自动化研究所 | 基于多尺度三维先验信息的屋顶分割方法、系统与设备 |
CN109961444A (zh) * | 2019-03-01 | 2019-07-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN109961444B (zh) * | 2019-03-01 | 2022-12-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN111723635A (zh) * | 2019-03-20 | 2020-09-29 | 北京四维图新科技股份有限公司 | 实时场景理解系统 |
CN111723635B (zh) * | 2019-03-20 | 2023-08-18 | 北京四维图新科技股份有限公司 | 实时场景理解系统 |
CN110009625A (zh) * | 2019-04-11 | 2019-07-12 | 上海科技大学 | 基于深度学习的图像处理系统、方法、终端、及介质 |
CN110223341B (zh) * | 2019-06-14 | 2024-05-28 | 北京国信华源科技有限公司 | 一种基于图像识别的智能水位监测方法 |
CN110223341A (zh) * | 2019-06-14 | 2019-09-10 | 北京国信华源科技有限公司 | 一种基于图像识别的智能水位监测方法 |
CN110827247B (zh) * | 2019-10-28 | 2024-03-15 | 上海万物新生环保科技集团有限公司 | 一种识别标签的方法及设备 |
CN110827247A (zh) * | 2019-10-28 | 2020-02-21 | 上海悦易网络信息技术有限公司 | 一种识别标签的方法及设备 |
CN110910417A (zh) * | 2019-10-29 | 2020-03-24 | 西北工业大学 | 一种基于超像素邻帧特征对比的弱小运动目标检测方法 |
CN110991547A (zh) * | 2019-12-12 | 2020-04-10 | 电子科技大学 | 一种基于多特征最优融合的图像显著性检测方法 |
CN111212222A (zh) * | 2020-01-09 | 2020-05-29 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子装置及存储介质 |
CN111369624B (zh) * | 2020-02-28 | 2023-07-25 | 北京百度网讯科技有限公司 | 定位方法和装置 |
CN111369624A (zh) * | 2020-02-28 | 2020-07-03 | 北京百度网讯科技有限公司 | 定位方法和装置 |
CN112016605B (zh) * | 2020-08-19 | 2022-05-27 | 浙江大学 | 一种基于边界框角点对齐和边界匹配的目标检测方法 |
CN112016605A (zh) * | 2020-08-19 | 2020-12-01 | 浙江大学 | 一种基于边界框角点对齐和边界匹配的目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105760886B (zh) | 2019-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105760886A (zh) | 一种基于目标识别与显著性检测的图像场景多对象分割方法 | |
CN106951830B (zh) | 一种基于先验条件约束的图像场景多对象标记方法 | |
Roynard et al. | Paris-Lille-3D: A large and high-quality ground-truth urban point cloud dataset for automatic segmentation and classification | |
CN105046688B (zh) | 一种三维点云中的多平面自动识别方法 | |
Toshev et al. | Detecting and parsing architecture at city scale from range data | |
Hong et al. | Synthetic data generation using building information models | |
Kang et al. | A probabilistic graphical model for the classification of mobile LiDAR point clouds | |
CN111444821A (zh) | 一种城市道路标志自动识别方法 | |
CN104899883B (zh) | 一种深度图像场景的室内对象立方体检测方法 | |
CN104599275A (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
CN112016605B (zh) | 一种基于边界框角点对齐和边界匹配的目标检测方法 | |
Nemoto et al. | Building change detection via a combination of CNNs using only RGB aerial imageries | |
CN106909902A (zh) | 一种基于改进的层次化显著模型的遥感目标检测方法 | |
CN109919112B (zh) | 一种复杂场景中流动人群的分布与计数检测的方法 | |
Yu et al. | Scene parsing using graph matching on street-view data | |
CN108427919B (zh) | 一种基于形状引导显著性模型的无监督油罐目标检测方法 | |
Saleh et al. | Traffic signs recognition and distance estimation using a monocular camera | |
Kong et al. | Enhanced facade parsing for street-level images using convolutional neural networks | |
CN102509119B (zh) | 一种基于分类器的图像场景分层与对象遮挡处理方法 | |
CN110210431A (zh) | 一种基于点云语义标注和优化的点云分类方法 | |
CN108090485A (zh) | 基于多视角融合的图像前景自动提取方法 | |
Chen et al. | Urban vegetation segmentation using terrestrial LiDAR point clouds based on point non-local means network | |
Tian et al. | Object localization via evaluation multi-task learning | |
CN116071747A (zh) | 一种基于3d点云数据和2d图像数据融合匹配语义分割方法 | |
Yang et al. | Building detection in high spatial resolution remote sensing imagery with the U-Rotation Detection Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |