CN105046714A - 一种非监督的基于超像素和目标发现机制的图像分割方法 - Google Patents
一种非监督的基于超像素和目标发现机制的图像分割方法 Download PDFInfo
- Publication number
- CN105046714A CN105046714A CN201510508435.1A CN201510508435A CN105046714A CN 105046714 A CN105046714 A CN 105046714A CN 201510508435 A CN201510508435 A CN 201510508435A CN 105046714 A CN105046714 A CN 105046714A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- subtree
- segmentation
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种非监督的基于超像素和目标发现机制的图像分割方法。针对一组包含有共同物体的多幅图片数据集,该方法能够准确地分割出共同物体,不需要任何人工干预。首先,该方法对输入的图像集进行预分割操作,得到过分割后的超像素;然后,基于一种新的目标发现机制,对所有的超像素进行显著性和重复性的度量,并定义评价函数设定阈值实现前景和背景的分类;同时基于分类后的信息对前景目标进行建模,最后利用树图约束采用组合优化的算法完成对目标的精确分割。与同类算法相比,本发明通过目标发现机制对共同物体进行自动检测,实现目标的自动建模,并且通过树图的约束优化求解组合优化算法并提高分割精度,并能够适应各种复杂场景。
Description
技术领域
本发明涉及一种非监督的基于超像素和目标发现机制的图像分割方法,适用
于图片的协同分割、用户照片的感兴趣目标提取以及图片分类识别等领域。
背景技术
在计算机视觉领域,自下而上的非监督图像分割是一个基础而又经典的难题,它的解决能够对其他诸如目标识别、物体分类等众多图像处理问题起到很好的辅助作用。在实际应用中,智能监控、医疗诊断、机器人技术与智能机器、工业自动化乃至军事制导等领域都与图像分割有着紧密的联系。随着互联网浪潮的兴起,处理大批量的多媒体数据(例如图像、视频等)已成为人们迫切的需求。如何能够从大量的图像信息中提取出人们感兴趣的目标物体已经成为人们非常关心的问题。借助于互联网,人们可以非常容易获取包含有相同物体或者同一类别物体的大量图片,而如何从这类图片中自动辨别并分割出人们感兴趣的共同物体成为我们研究的主要目的。通过图像的底层信息(颜色、纹理等)可以分割出感兴趣的目标,但是仅仅依赖底层的图像数据信息并不能得到想要的分割结果,而跨图片的隐含信息则能够帮助辨别何为需要辨识的共同物体。这类利用包含相同物体或者相同类别物体的多张图片来完成对感兴趣的共同物体进行分割的研究,称之为协同分割。协同分割是近些年兴起的一个热门研究主题,目前已存在较多的关于协同分割的研究工作。然而,纵观有关协同分割领域的研究和应用可知,目前的协同分割领域研究依旧存在诸多技术难题如下:
1)在不同图片中,共同物体存在着颜色、光照条件、姿态、尺度等各种干扰因素,使得现存的分割方法难以得到较高的精度。
2)背景条件常常伴随着噪声、遮挡、信息丢失、背景混乱等,且在多张图片中,背景常常非常相似,这容易对自动处理系统造成前背景的混淆。
3)大多数分割方法仍然依赖人工给出前背景的标注信息,而不能自动辨别出前背景,这给大数据量的处理带来困难。
以上的技术难题为协同分割技术在多媒体领域的广泛应用带来了诸多困扰,开发出一套非监督的高效目标分割方法具有较高的应用价值。
发明内容
为了解决现有技术中存在的难题,本发明公开了一种非监督的基于超像素和目标发现机制的图像分割方法,该方法适用于具有复杂精细结构的共同物体的分割,目标发现机制融合了显著性特征以及重复性特征,能够快速地从大量图片集中发现共同的前景目标,并引导计算资源向目标物体分配,而迭代分割算法引入了树图的结构化约束条件,从而使得对物体的分割更为精确,且大大提高了计算效率。
本发明采用以下技术方案:一种非监督的基于超像素和目标发现机制的图像分割方法,包含以下步骤:
(1)图像预分割:对于包含共同目标物体的图像数据集I={I1,...,IN}中的每一幅图像Ii,i=1,2......,N,进行过分割处理,得到超像素集
(2)自动目标发现:基于每幅图像的超像素集统计每个超像素的显著性值和重复性值wim,并计算超像素的评价值scoreim, 将评价值小于0.6×max(scorei)的超像素设置为背景,将评价值大于等于0.6×max(scorei)的超像素设置为前景;max(scorei)为超像素集中评价值最大的超像素的评价值;
(3)目标建模:基于步骤(2)分类后的信息,对共同目标物体基于HSV颜色空间建立目标模型Ψf和背景模型Ψb。采用Hellinger距离度量方法分别计算超像素或超像素组合与目标模型之间的相似程度超像素或超像素组合与背景模型之间的相似程度
目标模型Ψf的建立方法如下:将原图像进行颜色空间的变换,得到HSV颜色空间下的图像;对HSV颜色空间下的图像用H,S,V以及“G”四个颜色分量进行均匀量化,统计目标物体在各个颜色分量上的分布,得到直方图分布,即目标模型Ψf;按照相同方法,统计背景图像在各个颜色分量上的分布,得到直方图分布,即背景模型Ψb;其中“G”分量代表饱和度低于5%的像素点的颜色量化值;
和分别为: 是的归一化值,为的归一化值,且
c为等分后的所有区间个数,hR和hf分别为归一化后的超像素或超像素组合R的颜色直方图和目标模型的颜色直方图,hR‘和hb分别为归一化后的超像素或超像素组合R’的颜色直方图和背景模型的颜色直方图。
(4)基于超像素的分割:利用目标模型Ψf和背景模型Ψb,采用组合优化的算法对超像素进行前背景的再次分类,从而得到目标物体的最终分割;并且引入树图的约束,假设每个超像素对应于一个顶点,最后的分割结果由多个超像素构成,且能够表示为邻接图的子树。通过建立邻接图εi>来推断子树的方法确定最后的分割结果;具体实现过程如下:
(4.1)构建邻接图:假设图像中的每个超像素对应于图中的一个顶点,两个相邻的超像素之间由一条边连接,由此构成邻接图εi>。对于最终的目标物体分割结果,假设其由邻接图所包含的一个子树构成;
(4.2)建立数值模型求解:建立数值模型,将目标分割的问题转换为组合优化问题的求解,如下:
当R为前景中的超像素或超像素组合时,当R′为背景中的超像素或超像素组合时,约束条件表示对于任意一个超像素R只能属于前背景中的一类。通过推导可得,若要求解分割结果,实际上可转换为求解最优子树的方法,而要求最优子树,需要先估计最大生成树;
(4.3)推导最大生成树:通过beamsearch的定向搜索方法来得到所有可能的候选子树集合基于候选子树集合通过最大似然估计的方法得到最大生成树推导如下:
表示所有潜在的生成树集合,表示数据似然概率,最终可导出,
候选子树集合,为某一子树,表示对的最大似然估计,δ(·)为指示函数,δ((x,y)∈Cq)指示边(x,y)是否属于某一子树Cq;为子树Cq与目标模型的相似程度,指示边是否属于某一子树,P(x,y)表示边(x,y)的概率,为对P(x,y)的最大似然估计。通过上式可得最大生成树的最大似然估计。
(4.4)搜索分割子树:基于最大生成树的最大似然估计求得然后通过动态规划技术在中搜索得到最优子树,即为所求分割结果。
(5)迭代分割:根据步骤4得到的分割结果更新步骤3中的目标模型,按照步骤4所述的方法,进行再分割;
(6)重复步骤5,直至最终分割结果不再变化,即得到最终的分割结果。
进一步地,所述步骤2中,超像素显著性值度量具体为:
通过显著性检测技术,对第i幅图像Ii得到原始显著性图φi,然后计算每个超像素包含的所有像素点的显著性均值作为其度量,具体计算如下:
其中第i幅图像Ii中第m个超像素Rim的平均显著性值,表示第j个像素点的显著性值,area(Rim)为超像素Rim包含的像素个数。
超像素重复性值wim度量,具体为:
度量每个超像素与其他每幅图像中所有超像素的距离最小值,得到N-1个最小距离{d(Rim,Ik)}k≠i,进一步对N-1个最小距离{d(Rim,Ik)}k≠i求平均,得到平均最小值其中距离度量d(Rim,Ik)由基于HSV颜色的矢量距离以及基于SIFT特征的词袋模型距离加权得到,具体如下:
其中cim和gim分别代表第i幅图像Ii中第m个超像素Rim的HSV颜色特征矢量和SIFT词袋模型特征矢量,ckm′和gkm′分别代表第k幅图像Ik中第m′个超像素Rkm′的HSV颜色特征矢量和SIFT词袋模型特征矢量;
由sigmoid公式计算超像素重复性度量权重wim:
其中μ和σ是控制该sigmoid函数形态的参数,μ=0.5,σ=0.1。
进一步地,步骤6具体为:
(6.1)根据最新的分割结果,更新之前的前景目标模型,使之更加接近待分割目标;
(6.2)根据更新后的目标模型,重新产生所有可能的候选子树集合并且估计最大生成树;
(6.3)根据更新后的目标模型和最大生成树,重新采用动态规划技术搜索分割子树,得到分割结果;
(6.4)判断是否满足截止条件,即最后分割结果是否不再变化。若满足,则迭代结束;若不满足,则重复(6.1)‐(6.3)。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1)基于目标自动发现机制,本发明能够在大数据量的图像集中快速检测和定位感兴趣目标并分配计算资源,极大提高人工效率并降低计算成本。
2)引入了结构化的树图约束条件,大幅提高了分割准确度,尤其针对具有复杂的精细结构的物体分割效果较好,并且为组合优化的方程求最优解提供了新的优化求解算法。
3)基于HSV颜色空间的目标模型能够更好地对目标进行建模,并且能够估计超像素或其组合与目标模型的相似程度,且比同类技术在估计准确度上效果更佳,尤其对光照变化剧烈、低饱和度的情况下效果明显。
4)在对大数据集的扩展性上以及非监督情况下的处理效果,与现有技术相比均有较大程度的提高。
附图说明
图1是本发明的整体流程图;
图2是目标颜色模型示意图;
图3是基于超像素分割的示意图;
图4是迭代分割示意图;
图5是尺度、姿态剧烈变化情况下的分割结果;
图6是具有复杂精细结构目标物体的分割结果。
具体实施方式
下面结合附图通过具体实施例,对本发明的技术方案做进一步的详细说明。
以下实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本实施例对公开的iCoseg数据集和UCSDBirds数据集中的多类图像进行处理。这些类别的图像存在着颜色、光照条件、姿态、尺度等剧烈变化,给现有的分割技术带来巨大的挑战。图1是本发明的整体流程图,本实施例包含以下步骤:
步骤1:图像预分割:对于包含共同物体的图像数据集I={I1,...,IN}中的每一幅图像Ii,i=1,2......,N,进行过分割处理,得到超像素集
步骤2:自动目标发现:基于每幅图像的超像素集计算每个超像素对应的显著性值和重复性值wim,并且定义评价函数为对每个超像素进行量化评价,然后通过设置阈值将超像素进行前背景分类。高于阈值设为前景,低于阈值设为背景;
在本实施例中,步骤2中所述的自动目标发现,其具体检测过程如下:
步骤2.1:超像素显著性值度量:
通过显著性检测技术,对任意一幅图像Ii得到原始显著性图φi,然后计算每个超像素包含的所有像素点的显著性均值作为其度量,具体计算如下:
其中为超像素m的平均显著性值,Rim代表超像素集中第m个超像素,表示超像素集中第j个像素点的显著性值,area(Rim)为超像素Rim包含的像素个数。
步骤2.2:超像素重复性值wim度量:
度量每个超像素与其他每幅图像中所有超像素的距离最小值,得到N-1个最小距离{d(Rim,Ik)}k≠i,进一步对N-1个最小距离{d(Rim,Ik)}k≠i求平均,得到平均最小值其中距离度量由基于HSV颜色的矢量距离以及基于SIFT特征的词袋模型距离加权得到,具体如下:
其中cim和gim分别代表第i幅图像Ii中第m个超像素Rim的HSV颜色特征矢量和SIFT词袋模型特征矢量,ckm′和gkm′分别代表第k幅图像Ik中第m′个超像素Rkm′的HSV颜色特征矢量和SIFT词袋模型特征矢量;最后的超像素重复性度量权重wim由如下sigmoid公式计算:
其中μ和σ是控制该sigmoid函数形态的参数,μ=0.5,σ=0.1。
步骤2.3:评价函数:通过定义评价函数来完对每个超像素的评价,并且设置阈值0.6×max(scorei)来完成对超像素前背景的分类。max(scorei)为超像素集中评价值最大的超像素的评价值;
步骤3:目标建模:基于步骤2分类后的信息,对共同目标基于HSV颜色空间进行建模。模型采用对H,S,V以及“G”这四个通道进行均匀量化得到的直方图分布来表示目标物体的颜色模型,并通过Hellinger距离来定义模型的计算函数Ψf。对于每一个超像素,通过计算函数Ψf对应的值即可得到其与目标模型的相似程度。
在本实施例中,步骤3中所述的目标建模,图2为目标颜色模型示意图,其具体实现过程如下:
步骤3.1:HSV颜色空间转换:
将原图像进行颜色空间的变换,得到HSV颜色空间下数据;
步骤3.2:对颜色分量进行均匀量化:
分别对H,S,V以及“G”四个颜色分量进行均匀量化,均匀等分为32,12,12,12个区间。其中“G”代表低饱和度下的颜色分量。然后分别统计图像在各个颜色分量上的分布,即可得到维度为68的颜色直方图,并作归一化处理。
步骤3.3:距离度量:
采用Hellinger距离度量方法对不同颜色直方图之间的距离进行定义和度量,以此来计算每个超像素或超像素组合与目标模型之间的相似程度,定义如下:,,为超像素或超像素组合与目标模型之间的相似程度,为超像素或超像素组合与背景模型之间的相似程度;为等分后的所有区间个数,和分别为归一化后的前景中的超像素的颜色直方图和目标模型的颜色直方图,和分别为归一化后的背景中的超像素的颜色直方图和背景模型的颜色直方图。
c为等分后的所有区间个数,hR和hf分别为归一化后的超像素或超像素组合R的颜色直方图和目标模型的颜色直方图,hR‘和hb分别为归一化后的超像素或超像素组合R’的颜色直方图和背景模型的颜色直方图。
步骤4:基于超像素的分割:利用目标模型Ψf和背景模型Ψb,提出采用组合优化的算法对超像素进行前背景的再次分类,通过建立方程模型并求最优解从而得到目标物体的最终分割;求解过程中引入树图的约束,假设每个超像素对应于一个顶点,最后的分割结果由多个超像素构成,且能够表示为邻接图的子树。通过建立邻接图来推断子树的方法确定最后的分割结果;
在本实施例中,步骤4中所述的基于超像素的分割,图3为基于超像素分割的流程示意图,其具体实现过程如下:
步骤4.1:构建邻接图:
假设图像中的每个超像素对应于图中的一个顶点,两个相邻的超像素之间由一条边连接,由此构成邻接图对于最终的目标物体分割结果,假设其由邻接图所包含的一个子树构成;
步骤4.2:建立数值模型求解:
建立数值模型,将目标分割的问题转换为组合优化问题的求解,如下:
当R为前景中的超像素或超像素组合时,当R′为背景中的超像素或超像素组合时,约束条件表示对于任意一个超像素R只能属于前背景中的一类。通过推导可得,若要求解分割结果,实际上可转换为求解最优子树的方法,而要求最优子树,需要先估计最大生成树;
步骤4.3:推导最大生成树:
通过beamsearch的定向搜索方法来得到所有可能的候选子树集合基于这一候选集通过最大似然估计的方法得到最大生成树推导如下:
表示所有潜在的生成树集合,数据似然概率,最终可导出,
候选子树集合,为某一子树,表示对的最大似然估计,δ(·)为指示函数,δ((x,y)∈Cq)指示边(x,y)是否属于某一子树Cq;为子树Cq与目标模型的相似程度,P(x,y)表示边(x,y)的概率,为对P(x,y)的最大似然估计。通过上式可得最大生成树的最大似然估计。
步骤4.4:搜索分割子树
基于最大生成树的最大似然估计求得然后通过动态规划技术在中搜索得到最优子树,即为所求分割结果。
步骤5:迭代分割:由步骤4得到每一次的分割结果后,根据分割结果更新之前的目标模型,然后重复迭代直至最终分割结果不再变化,即得到最终的分割结果。
在本实施例中,步骤5中所述的迭代分割,图4为迭代分割的效果图,其具体实现过程如下:
步骤5.1:更新目标模型:
根据最新的分割结果,更新之前的前景目标模型Ψf,使之更加接近待分割目标;
步骤5.2:重新估计最大生成树:
根据更新后的目标模型Ψf,重新产生所有可能的候选子树集合并且估计最大生成树
步骤5.3:重新搜索分割子树:
根据更新后的目标模型Ψf和最大生成树重新采用动态规划技术搜索分割子树,得到分割结果;
步骤5.4:判断截止条件:
判断是否满足截止条件,即最后分割结果不再变化。若满足,则迭代结束;若不满足,则重复5.1‐5.3。
实施效果:
根据上述步骤,选取iCoseg数据库和UCSDBirds中的若干图片进行目标分割。图5和图6分别展示了选自iCoseg和UCSDBirds数据集中的两组图片进行分割测试。从图5可以看出,本发明对于待分割目标存在尺度、姿态、光照等剧烈变化的情况下,依然能够得到精确的目标分割结果。从图6可以看出,对于具有复杂精细结构的物体诸如鸟类,本发明提出的分割方法依然能够准确地得到分割结果。
Claims (3)
1.一种非监督的基于超像素和目标发现机制的图像分割方法,其特征在于,包含以下步骤:
(1)图像预分割:对于包含共同目标物体的图像数据集I={I1,...,IN}中的每一幅图像Ii,i=1,2......,N,进行过分割处理,得到超像素集
(2)自动目标发现:基于每幅图像的超像素集统计每个超像素的显著性值和重复性值wim,并计算超像素的评价值scoreim, 将评价值小于0.6×max(scorei)的超像素设置为背景,将评价值大于等于0.6×max(scorei)的超像素设置为前景;max(scorei)为超像素集中评价值最大的超像素的评价值;
(3)目标建模:基于步骤(2)分类后的信息,对共同目标物体基于HSV颜色空间建立目标模型Ψf和背景模型Ψb。采用Hellinger距离度量方法分别计算超像素或超像素组合与目标模型之间的相似程度超像素或超像素组合与背景模型之间的相似程度
目标模型Ψf的建立方法如下:将原图像进行颜色空间的变换,得到HSV颜色空间下的图像;对HSV颜色空间下的图像用H,S,V以及“G”四个颜色分量进行均匀量化,统计目标物体在各个颜色分量上的分布,得到直方图分布,即目标模型Ψf;按照相同方法,统计背景图像在各个颜色分量上的分布,得到直方图分布,即背景模型Ψb;其中“G”分量代表饱和度低于5%的像素点的颜色量化值;
和分别为: 是的归一化值,为的归一化值,且
c为等分后的所有区间个数,hR和hf分别为归一化后的超像素或超像素组合R的颜色直方图和目标模型的颜色直方图,hR‘和hb分别为归一化后的超像素或超像素组合R’的颜色直方图和背景模型的颜色直方图。
(4)基于超像素的分割:利用目标模型Ψf和背景模型Ψb,采用组合优化的算法对超像素进行前背景的再次分类,从而得到目标物体的最终分割;并且引入树图的约束,假设每个超像素对应于一个顶点,最后的分割结果由多个超像素构成,且能够表示为邻接图的子树。通过建立邻接图来推断子树的方法确定最后的分割结果;具体实现过程如下:
(4.1)构建邻接图:假设图像中的每个超像素对应于图中的一个顶点,两个相邻的超像素之间由一条边连接,由此构成邻接图对于最终的目标物体分割结果,假设其由邻接图所包含的一个子树构成;
(4.2)建立数值模型求解:建立数值模型,将目标分割的问题转换为组合优化问题的求解,如下:
当R为前景中的超像素或超像素组合时,当R′为背景中的超像素或超像素组合时,约束条件表示对于任意一个超像素R只能属于前背景中的一类。通过推导可得,若要求解分割结果,实际上可转换为求解最优子树的方法,而要求最优子树,需要先估计最大生成树;
(4.3)推导最大生成树:通过beamsearch的定向搜索方法来得到所有可能的候选子树集合基于候选子树集合通过最大似然估计的方法得到最大生成树推导如下:
表示所有潜在的生成树集合,表示数据似然概率,最终可导出,
候选子树集合,为某一子树,表示对的最大似然估计,δ(·)为指示函数,δ((x,y)∈Cq)指示边(x,y)是否属于某一子树Cq; 为子树Cq与目标模型的相似程度,指示边是否属于某一子树,P(x,y)表示边(x,y)的概率,为对P(x,y)的最大似然估计。通过上式可得最大生成树的最大似然估计。
(4.4)搜索分割子树:基于最大生成树的最大似然估计求得然后通过动态规划技术在中搜索得到最优子树,即为所求分割结果。
(5)迭代分割:根据步骤4得到的分割结果更新步骤3中的目标模型,按照步骤4所述的方法,进行再分割;
(6)重复步骤5,直至最终分割结果不再变化,即得到最终的分割结果。
2.根据权利要求1所述的方法,其特征在于:所述步骤2中,超像素显著性值度量具体为:
通过显著性检测技术,对第i幅图像Ii得到原始显著性图φi,然后计算每个超像素包含的所有像素点的显著性均值作为其度量,具体计算如下:
其中第i幅图像Ii中第m个超像素Rim的平均显著性值,表示第j个像素点的显著性值,area(Rim)为超像素Rim包含的像素个数。
超像素重复性值wim度量,具体为:
度量每个超像素与其他每幅图像中所有超像素的距离最小值,得到N-1个最小距离{d(Rim,Ik)}k≠i,进一步对N-1个最小距离{d(Rim,Ik)}k≠i求平均,得到平均最小值其中距离度量d(Rim,Ik)由基于HSV颜色的矢量距离以及基于SIFT特征的词袋模型距离加权得到,具体如下:
其中cim和gim分别代表第i幅图像Ii中第m个超像素Rim的HSV颜色特征矢量和SIFT词袋模型特征矢量,ckm′和gkm′分别代表第k幅图像Ik中第m′个超像素Rkm′的HSV颜色特征矢量和SIFT词袋模型特征矢量;
由sigmoid公式计算超像素重复性度量权重wim:
其中μ和σ是控制该sigmoid函数形态的参数,μ=0.5,σ=0.1。
3.根据权利要求1所述的方法,其特征在于:步骤6具体为:
(6.1)根据最新的分割结果,更新之前的前景目标模型,使之更加接近待分割目标;
(6.2)根据更新后的目标模型,重新产生所有可能的候选子树集合并且估计最大生成树;
(6.3)根据更新后的目标模型和最大生成树,重新采用动态规划技术搜索分割子树,得到分割结果;
(6.4)判断是否满足截止条件,即最后分割结果是否不再变化。若满足,则迭代结束;若不满足,则重复(6.1)-(6.3)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510508435.1A CN105046714A (zh) | 2015-08-18 | 2015-08-18 | 一种非监督的基于超像素和目标发现机制的图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510508435.1A CN105046714A (zh) | 2015-08-18 | 2015-08-18 | 一种非监督的基于超像素和目标发现机制的图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105046714A true CN105046714A (zh) | 2015-11-11 |
Family
ID=54453232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510508435.1A Pending CN105046714A (zh) | 2015-08-18 | 2015-08-18 | 一种非监督的基于超像素和目标发现机制的图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105046714A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719295A (zh) * | 2016-01-21 | 2016-06-29 | 浙江大学 | 一种基于三维超体素的颅内出血区域分割方法及系统 |
CN105740915A (zh) * | 2016-03-04 | 2016-07-06 | 浙江大学 | 一种融合感知信息的协同分割方法 |
CN105809672A (zh) * | 2016-03-03 | 2016-07-27 | 浙江大学 | 一种基于超像素和结构化约束的图像多目标协同分割方法 |
CN105809716A (zh) * | 2016-03-07 | 2016-07-27 | 南京邮电大学 | 融合超像素与三维自组织背景减除法的前景提取方法 |
CN106295509A (zh) * | 2016-07-27 | 2017-01-04 | 浙江工业大学 | 一种面向非均匀退化视频中对象的结构化跟踪方法 |
CN106296653A (zh) * | 2016-07-25 | 2017-01-04 | 浙江大学 | 基于半监督学习的脑部ct图像出血区域分割方法及系统 |
CN106650777A (zh) * | 2016-10-14 | 2017-05-10 | 浙江大学 | 结合字典群的目标分割方法 |
CN109035267A (zh) * | 2018-06-22 | 2018-12-18 | 华东师范大学 | 一种基于深度学习的图像目标抠取方法 |
CN111949003A (zh) * | 2020-07-17 | 2020-11-17 | 浙江浙能技术研究院有限公司 | 一种基于SFA与Hellinger距离的闭环控制回路性能评价方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295226A (zh) * | 2013-04-25 | 2013-09-11 | 哈尔滨工程大学 | 一种基于mrf模型的非监督声纳图像分割方法 |
CN104299237A (zh) * | 2014-10-20 | 2015-01-21 | 上海电机学院 | 将非监督聚类转化为自监督分类的图像分割方法 |
-
2015
- 2015-08-18 CN CN201510508435.1A patent/CN105046714A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295226A (zh) * | 2013-04-25 | 2013-09-11 | 哈尔滨工程大学 | 一种基于mrf模型的非监督声纳图像分割方法 |
CN104299237A (zh) * | 2014-10-20 | 2015-01-21 | 上海电机学院 | 将非监督聚类转化为自监督分类的图像分割方法 |
Non-Patent Citations (3)
Title |
---|
ANURAG BHARDWAJ等: "Palette power: enabling visual search through colors", 《PROCEEDINGS OF THE 19TH ACM SIGKDD INTERNATIONAL CONFERENCE ONKNOWLEDGE DISCOVERY AND DATA MINING》 * |
BAIYANG等: "Unsupervised regions based segmentation using object discovery", 《JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION》 * |
SARA VICENTE等: "Cosegmentation Revisited: Models and Optimization", 《ECCV 2010: COMPUTER VISION–ECCV 2010》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719295A (zh) * | 2016-01-21 | 2016-06-29 | 浙江大学 | 一种基于三维超体素的颅内出血区域分割方法及系统 |
CN105719295B (zh) * | 2016-01-21 | 2019-07-16 | 浙江大学 | 一种基于三维超体素的颅内出血区域分割方法及系统 |
CN105809672A (zh) * | 2016-03-03 | 2016-07-27 | 浙江大学 | 一种基于超像素和结构化约束的图像多目标协同分割方法 |
CN105809672B (zh) * | 2016-03-03 | 2019-09-13 | 浙江大学 | 一种基于超像素和结构化约束的图像多目标协同分割方法 |
CN105740915A (zh) * | 2016-03-04 | 2016-07-06 | 浙江大学 | 一种融合感知信息的协同分割方法 |
CN105740915B (zh) * | 2016-03-04 | 2019-05-24 | 浙江大学 | 一种融合感知信息的协同分割方法 |
CN105809716A (zh) * | 2016-03-07 | 2016-07-27 | 南京邮电大学 | 融合超像素与三维自组织背景减除法的前景提取方法 |
CN105809716B (zh) * | 2016-03-07 | 2019-12-24 | 南京邮电大学 | 融合超像素与三维自组织背景减除法的前景提取方法 |
CN106296653B (zh) * | 2016-07-25 | 2019-02-01 | 浙江大学 | 基于半监督学习的脑部ct图像出血区域分割方法及系统 |
CN106296653A (zh) * | 2016-07-25 | 2017-01-04 | 浙江大学 | 基于半监督学习的脑部ct图像出血区域分割方法及系统 |
CN106295509B (zh) * | 2016-07-27 | 2019-11-08 | 浙江工业大学 | 一种面向非均匀退化视频中对象的结构化跟踪方法 |
CN106295509A (zh) * | 2016-07-27 | 2017-01-04 | 浙江工业大学 | 一种面向非均匀退化视频中对象的结构化跟踪方法 |
CN106650777B (zh) * | 2016-10-14 | 2019-07-05 | 浙江大学 | 结合字典群的目标分割方法 |
CN106650777A (zh) * | 2016-10-14 | 2017-05-10 | 浙江大学 | 结合字典群的目标分割方法 |
CN109035267A (zh) * | 2018-06-22 | 2018-12-18 | 华东师范大学 | 一种基于深度学习的图像目标抠取方法 |
CN111949003A (zh) * | 2020-07-17 | 2020-11-17 | 浙江浙能技术研究院有限公司 | 一种基于SFA与Hellinger距离的闭环控制回路性能评价方法 |
CN111949003B (zh) * | 2020-07-17 | 2021-09-03 | 浙江浙能技术研究院有限公司 | 一种基于SFA与Hellinger距离的闭环控制回路性能评价方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105046714A (zh) | 一种非监督的基于超像素和目标发现机制的图像分割方法 | |
Adarsh et al. | YOLO v3-Tiny: Object Detection and Recognition using one stage improved model | |
CN108960140B (zh) | 基于多区域特征提取和融合的行人再识别方法 | |
CN105809672A (zh) | 一种基于超像素和结构化约束的图像多目标协同分割方法 | |
CN111259936B (zh) | 一种基于单一像素标注的图像语义分割方法及系统 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN112132014B (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN113033520B (zh) | 一种基于深度学习的树木线虫病害木识别方法及系统 | |
CN112016605B (zh) | 一种基于边界框角点对齐和边界匹配的目标检测方法 | |
CN112668579A (zh) | 基于自适应亲和力和类别分配的弱监督语义分割方法 | |
CN107103326A (zh) | 基于超像素聚类的协同显著性检测方法 | |
CN105740915B (zh) | 一种融合感知信息的协同分割方法 | |
CN111008618B (zh) | 一种自注意力深度学习端到端的行人再识别方法 | |
CN106780639B (zh) | 基于显著性特征稀疏嵌入和极限学习机的哈希编码方法 | |
CN108846404B (zh) | 一种基于相关约束图排序的图像显著性检测方法及装置 | |
CN105930873B (zh) | 一种基于子空间的自步跨模态匹配方法 | |
CN108038435A (zh) | 一种基于卷积神经网络的特征提取与目标跟踪方法 | |
CN112528845B (zh) | 一种基于深度学习的物理电路图识别方法及其应用 | |
CN104751175B (zh) | 基于增量支持向量机的sar图像多类标场景分类方法 | |
CN106446922A (zh) | 一种人群异常行为分析方法 | |
CN104392459A (zh) | 基于改进的fcm和均值漂移的红外图像分割方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN112100435A (zh) | 一种基于边缘端交通音视频同步样本的自动标注方法 | |
CN102163285A (zh) | 一种基于主动学习的跨域视频语义概念检测方法 | |
CN114581761A (zh) | 遥感图像识别方法、装置、设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20151111 |