CN108596919B - 一种基于深度图的自动图像分割方法 - Google Patents

一种基于深度图的自动图像分割方法 Download PDF

Info

Publication number
CN108596919B
CN108596919B CN201810372310.4A CN201810372310A CN108596919B CN 108596919 B CN108596919 B CN 108596919B CN 201810372310 A CN201810372310 A CN 201810372310A CN 108596919 B CN108596919 B CN 108596919B
Authority
CN
China
Prior art keywords
pixel
depth
super
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810372310.4A
Other languages
English (en)
Other versions
CN108596919A (zh
Inventor
刘辉
石小龙
郭晖
翁小莉
董昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Information Technology Designing Co ltd
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing Information Technology Designing Co ltd
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Information Technology Designing Co ltd, Chongqing University of Post and Telecommunications filed Critical Chongqing Information Technology Designing Co ltd
Priority to CN201810372310.4A priority Critical patent/CN108596919B/zh
Publication of CN108596919A publication Critical patent/CN108596919A/zh
Application granted granted Critical
Publication of CN108596919B publication Critical patent/CN108596919B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明请求保护一种基于深度图的自动图像分割方法。针对GrabCut在图像中存在前背景颜色相近、阴影或低对比度区域时,不能有效分割图片,提出一种改进的GrabCut图像分割算法。本发明在用显著性实现GrabCut自动分割的基础上,融合了深度信息,提高了算法的分割准确度。首先,通过深度信息指导显著信息来初始化GrabCut算法,其次,将深度信息融入算法的能量公式中,最后,用改进的能量公式和超像素构建网络流图,进行最大流/最小割。相对于传统的图割方法,本发明将深度信息有效地结合到了GrabCut自动分割框架中,提高了分割算法的准确性。

Description

一种基于深度图的自动图像分割方法
技术领域
本发明属于数字图像处理技术领域,具体涉及一种基于深度图的自动图像分割方法。
背景技术
图像分割的目的是通过自动或用户交互的方式将图像分成几部分的过程,是图像处理、人机交互等领域的基本问题之一,被广泛的应用于许多领域,来简化后续操作,如对象数据集构建、图像编辑和图像检索等。在众多图像分割方法中,基于图论的分割由于考虑了全局信息、能很好的融合颜色和区域信息、只需要少量的用户交互等优势而倍受关注。传统的图割是指采用用户交互方式手动将某些像素注释为前景对象和背景,并使用Graph-cut来完成对所有像素的标记。GrabCut是这种方法的一种高级版本,它使用矩形边界框通过用户交互来表示前景对象,并采用三维高斯混合模型(GMM)来表示颜色统计的分布。虽然GrabCut通过颜色GMMs将图割延伸到了彩色图像分割领域,并提高了分割的精度,但是在前背景差别不大时,GrabCut总是不能很好的分割,因为物体不仅有颜色、纹理等底层特征,在立体上也有特征定义,比如深度信息:能很好的表示出物体距离拍摄源的远近,这能很好的处理不同物体之间颜色相似、对比度低的情况。近年来,随着强大的测距传感器的出现,RGB-D图像逐渐受到人们的关注。对深度图的研究也逐渐增多,而传统的基于深度的GrabCut分割方法一般将深度信息作为GMM输入的第四通道,或者通过重新定义深度惩罚项来改进能量公式,但这样的方法不能充分利用深度信息,且在一定程度上增加了算法的复杂度。
发明内容
本发明针对现有算法交互效率不高以及不能有效融合深度信息的问题,在GrabCut自动图像分割的基础上,通过深度信息指导显著信息来初始化GrabCut,并将深度信息通过动态加权的方式分别融合到能量公式的数据项和平滑项中。不仅减少了用户的交互时间,还提高了算法的分割精度。
本发明的技术方案如下:
一种基于深度图的自动图像分割方法,其包括以下步骤:
步骤一:获取原图及深度图,并对原图进行SLIC简单线性迭代聚类超像素分割;
步骤二:根据分割的超像素图构建单层图,利用流行排序算法来得到超像素的显著值,进而得到显著图;
步骤三:对深度图进行对应原图的SLIC超像素分割,并将处理过的深度信息与显著信息融合来初始化GrabCut算法;
步骤四:用超像素图构建GrabCut的网络流图,并在步骤三的基础上进行初始化,其中,将框外定为背景TB,框内定为未知区域TU,而此时前景为空;
步骤五:估计GMM参数:包括第h个高斯模型的均值μ(α,h)、协方差Σ(α,h)和权重π(α,h);
步骤六:将估计好的参数代入改进的能量公式中,利用改进的能量公式来计算网络流图的边的权值,进行最大流最小割,所述改进的能量公式的改进点在于:将融合深度信息的显著信息通过自适应权重结合到GrabCut算法的颜色模型中,分别用前背景GMMs的相对熵以及像素之间的相似性改进GrabCut算法能量公式中的数据项及平滑项;
步骤七:计算能量函数,判断能量函数是否收敛,若不收敛,则返回步骤五;若收敛,输出图像。
进一步的,所述步骤一中SLIC算法具体步骤如下:
1)对于一幅有N个像素点的图像,通过设定的超像素数K,来初始化聚类中心Ck,聚类中心之间的距离
Figure GDA0003008367290000021
2)将聚类中心移动到3×3空间邻域上的最小梯度的像素点上,以防止聚类中心被分到边缘上;
3)对于每个聚类中心Ck,计算其2S×2S范围内,与像素点i之间的距离,并把距离最小的聚类中心赋给i的标签;
4)新的聚类中心产生后,通过这个超像素内的像素信息,重新确定聚类中心;
5)重复3)和4),直到聚类中心的误差小于某一设定阈值。
进一步的,所述步骤二中,流行排序以超像素代替像素,分别以上、下、左、右边缘的超像素为基础来生成显著图,再以该显著图为基础生成最终的显著图,先构造单层图G=(V,E),其中V为节点,E为无向边,定义两个节点之间的权重为:
Figure GDA0003008367290000031
其中ci和cj表示两个节点的颜色值,σ为权重系数,以边界上的节点为依据,并用一个排序函数来对整张图的超像素进行排序,排序公式为:
f*=(D-βW)-1q
其中f即表示排序函数,f*表示超像素的排序矩阵,每个超像素块对应一个排序值fi;q是一个指示向量,qi=1表示第i个超像素为基础,qi=0表示第i个超像素为待排序状态;W对应超像素之间的权值矩阵;β为矩阵W的系数;D是图G的度量矩阵,D=diag{d11,...,dnn},其中
Figure GDA0003008367290000032
wij表示节点i和j之间的权重。
进一步的,所述步骤二中,以图像上侧超像素为依据,通过对其他超像素排序来得到显著图St
Figure GDA0003008367290000033
Figure GDA0003008367290000034
表示超像素的排序矩阵f*(i)的归一化向量,同理,用该公式分别计算以下、左、右边界超像素为基础的显著图Sb、Sl、Sr,整合四个显著图来得到第一步的显著图;
Sbq(i)=St(i)×Sb(i)×Sl(i)×Sr(i)
以第一步的显著图的平均显著值为阈值,通过阈值分割将其分为二值图,并以此为图像中心为依据,用同样的方法求出最终的显著图:
Figure GDA0003008367290000044
进一步的,所述步骤三对深度图的处理如下:
Figure GDA0003008367290000041
其中,d(i)是第i个超像素的深度值均值,在对深度图进行处理后,用归一化的深度信息指导的显著性来进行下一步的计算:
Ssd=S(i)*D(i)
其中Ssd(i)为第i个超像素结合深度和显著性后的信息,在得到Ssd信息后,通过阈值分割来初始化GrabCut算法,具体阈值为:
Figure GDA0003008367290000042
其中,Num为超像素的实际数目,Ssd大于T的为前景,重置为1,而小于T的为背景,重置为0。
进一步的,所述步骤四中,在得到Ssd信息阈值分割的二值图后,从上至下依次扫描像素点,通过标记第一个非0像素点来得到GrabCut的初始矩形框,将框外定为背景TB,框内定为未知区域TU,而此时前景为空。
进一步的,所述步骤五的GMMs参中,第h个高斯模型的均值μ(α,h)和协方差Σ(α,h)可通过计算其模型中包含的超像素值的均值和协方差得到,权重π(α,h)就是第h个高斯模型的大小与总体的比值。
进一步的,所述步骤六中,改进的能量公式如下:
Figure GDA0003008367290000043
其中,α表示每个超像素的不透明度,h表示超像素对应第h个高斯模型,θ表示高斯模型的参数,z表示超像素的颜色信息,d表示超像素对应的融合深度信息的显著信息,V(α,z)表示原算法的平滑项,V(α,d)表示需要融合的平滑项,ρ表示改进平滑项的自适应参数,深度数据项为:
Figure GDA0003008367290000051
其中,n表示第n个超像素,μ表示该超像素对应高斯模型的均值,αn表示第n个超像素的不透明质,dn为第n个超像素对应的融合深度信息的显著信息,其他参数与原算法相同,深度数据项对应的参数为:
Figure GDA0003008367290000052
Figure GDA0003008367290000053
Figure GDA0003008367290000054
其中,
Figure GDA0003008367290000055
表示颜色信息对应的前景高斯混合模型,
Figure GDA0003008367290000056
表示颜色信息对应的背景高斯混合模型,
Figure GDA0003008367290000057
表示融合深度的显著信息对应的前景高斯混合模型,
Figure GDA0003008367290000058
表示融合深度的显著信息对应的背景高斯混合模型,
Figure GDA0003008367290000059
前景高斯混合模型中的第h个高斯模型,
Figure GDA00030083672900000510
表示背景高斯混合模型中的第i个高斯模型,
Figure GDA00030083672900000511
Figure GDA00030083672900000512
表示前景高斯混合模型中第h个高斯模型的均值和协方差,
Figure GDA00030083672900000513
Figure GDA00030083672900000514
表示背景高斯混合模型中第i个高斯模型的均值和协方差;
深度平滑项为:
Figure GDA00030083672900000515
而深度平滑项对应的参数为:
Figure GDA00030083672900000516
进一步的,所述步骤七在计算完能量公式后,若能量没有收敛,则计算GMMs的参数,根据参数重新构建网路流图,进行最大流最小割;若能量函数收敛,则完成分割,输出图像。
本发明的优点及有益效果如下:
本发明提出了一种基于深度图的自动图像分割方法。本发明在显著性提取GrabCut矩形框的基础上,融合了深度信息。通过超像素处理来减少后续的计算,在此基础上生成显著图,并通过深度信息引导显著图来实现GrabCut的自动初始化,之后将融合的深度和显著性信息设计为动态约束项加入到能量公式中,最后进行GrabCut分割,有效地提高了算法的分割精度。
附图说明
图1是本发明提供优选实施例的具体实施流程图;
图2是原始输入图像;
图3是输入图像对应的深度图;
图4是显著图;
图5是深度图的SLIC分割图;
图6是深度信息指导的显著图;
图7是用于初始化GrabCut算法的二值图及矩形框;
图8是本发明的分割效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明的执行流程图如图1所示,其具体技术方案如下:
1、获取原图及深度图,如图2和图3所示,并对原图进行SLIC超像素分割。SLIC分割按如下步骤完成:
1)通过设定的超像素数K,来初始化聚类中心Ck,聚类中心之间的距离
Figure GDA0003008367290000071
2)将聚类中心移动到3×3空间邻域上的最小梯度的像素点上,以防止聚类中心被分到边缘上。
3)对于每个聚类中心Ck,计算其2S×2S范围内,与像素点i之间的距离,并把距离最小的聚类中心赋给i的标签。
4)新的聚类中心产生后,通过这个超像素内的像素信息,重新确定聚类中心。
5)重复3)和4),直到聚类中心的误差小于某一阈值。
2、用SLIC生成的超像素构建单层图,利用流行排序算法来得到超像素的显著值,如图4所示。其中,该流行排序以超像素代替像素,分别以上、下、左、右边缘的超像素为线索来生成显著图,再以该显著图为线索生成最终的显著图。先构造单层图G=(V,E),其中V为节点,E为无向边,定义两个节点之间的权重为:
Figure GDA0003008367290000072
其中ci和cj表示两个节点的颜色值,σ为权重系数。以边界上的节点为依据,并用一个排序函数来对整张图的超像素进行排序。排序公式为:
f*=(D-βW)-1q
其中f即表示排序函数,每个超像素块对应一个排序值fi;q是一个指示向量,qi=1表示第i个超像素为依据,qi=0表示第i个超像素为待排序状态;W对应超像素之间的权值矩阵;β为矩阵W的系数;D是图G的度量矩阵,D=diag{d11,...,dnn},其中
Figure GDA0003008367290000073
以图像上侧超像素为依据,通过对其他超像素排序来得到显著图St
Figure GDA0003008367290000074
式中后一项为归一化向量。同理,用该公式计算以下、左、右边界为基础的显著图Sb、Sl、Sr。整合四个显著图来得到第一步的显著图。
Sbq(i)=St(i)×Sb(i)×Sl(i)×Sr(i)
以第一步的显著图的平均显著值为阈值,通过阈值分割将其分为二值图,并以此为图像中心为依据,用同样的方法求出最终的显著图:
Figure GDA0003008367290000081
3、对深度图进行对应原图的超像素分割,如图5所示,并用处理过的深度信息指导显著信息来初始化GrabCut算法。其中,对深度图的处理如下:
Figure GDA0003008367290000082
其中,d(i)是第i个超像素的深度值均值,这个公式大致适合后验分布,仅仅在较近的距离上有一个小的偏差。
在对深度图进行处理后,用归一化的深度信息指导的显著性来进行下一步的计算:
Ssd=S(i)*D(i)
其中Ssd(i)为第i个超像素结合深度和显著性后的信息,如图6为深度指导的显著图。在得到Ssd信息后,通过阈值分割来初始化GrabCut算法,具体阈值为:
Figure GDA0003008367290000083
其中,Num为超像素的实际数目。则Ssd大于T的为前景,重置为1,而小于T的为背景,重置为0。图7为用于初始化GrabCut算法的二值图及矩形框。
4、用超像素图构建GrabCut的网络流图,并在步骤三的基础上进行初始化。在得到Ssd信息阈值分割的二值图后,从上至下依次扫描像素点,通过标记第一个非0像素点来得到GrabCut的初始矩形框。将框外定为背景TB,框内定为未知区域TU,而此时前景为空。
5、估计GMM参数:其中第h个高斯模型的均值μ(α,h)和协方差Σ(α,h)可通过计算其模型中包含的超像素值的均值和协方差得到,权重π(α,h)就是第h个高斯模型的大小与总体的比值。
6、利用改进的公式来计算网络流图的边的权值,进行最大流最小割。改进的能量公式如下:
Figure GDA0003008367290000091
其中,深度数据项为:
Figure GDA0003008367290000092
其中,dn为超像素对应的深度信息,其他参数与原算法相同,深度数据项对应的参数为:
Figure GDA0003008367290000093
Figure GDA0003008367290000094
Figure GDA0003008367290000095
深度平滑项为:
Figure GDA0003008367290000096
而深度平滑项对应的参数为:
Figure GDA0003008367290000097
7、计算上一步的能量函数,判断能量函数是否收敛,若不收敛,则返回第5步,重新计算GMMs的参数,根据参数重新构建网路流图,进行最大流最小割;若能量函数收敛,则完成分割,输出图像。图8即为最终输出图像
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (9)

1.一种基于深度图的自动图像分割方法,其特征在于,包括以下步骤:
步骤一:获取原图及深度图,并对原图进行SLIC简单线性迭代聚类超像素分割;
步骤二:根据分割的超像素图构建单层图,利用流行排序算法来得到超像素的显著值,进而得到显著图;
步骤三:对深度图进行对应原图的SLIC超像素分割,并将处理过的深度信息与显著信息融合来初始化GrabCut算法;
步骤四:用超像素图构建GrabCut的网络流图,并在步骤三的基础上进行初始化,其中,将框外定为背景TB,框内定为未知区域TU,而此时前景为空;
步骤五:估计GMM参数:包括第h个高斯模型的均值μ(α,h)、协方差Σ(α,h)和权重π(α,h);
步骤六:将估计好的参数代入改进的能量公式中,利用改进的能量公式来计算网络流图的边的权值,进行最大流最小割,所述改进的能量公式的改进点在于:将融合深度信息的显著信息通过自适应权重结合到GrabCut算法的颜色模型中,分别用前背景GMMs的相对熵以及像素之间的相似性改进GrabCut算法能量公式中的数据项及平滑项;
步骤七:计算能量函数,判断能量函数是否收敛,若不收敛,则返回步骤五;若收敛,输出图像。
2.根据权利要求1所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤一中SLIC算法具体步骤如下:
1)对于一幅有N个像素点的图像,通过设定的超像素数K,来初始化聚类中心Ck,聚类中心之间的距离
Figure FDA0003008367280000011
2)将聚类中心移动到3×3空间邻域上的最小梯度的像素点上,以防止聚类中心被分到边缘上;
3)对于每个聚类中心Ck,计算其2S×2S范围内,与像素点i之间的距离,并把距离最小的聚类中心赋给i的标签;
4)新的聚类中心产生后,通过这个超像素内的像素信息,重新确定聚类中心;
5)重复3)和4),直到聚类中心的误差小于某一设定阈值。
3.根据权利要求1所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤二中,流行排序以超像素代替像素,分别以上、下、左、右边缘的超像素为基础来生成显著图,再以该显著图为基础生成最终的显著图,先构造单层图G=(V,E),其中V为节点,E为无向边,定义两个节点之间的权重为:
Figure FDA0003008367280000021
其中ci和cj表示两个节点的颜色值,σ为权重系数,以边界上的节点为依据,并用一个排序函数来对整张图的超像素进行排序,排序公式为:
f*=(D-βW)-1q
其中f即表示排序函数,f*表示超像素的排序矩阵,每个超像素块对应一个排序值fi;q是一个指示向量,qi=1表示第i个超像素为基础,qi=0表示第i个超像素为待排序状态;W对应超像素之间的权值矩阵;β为矩阵W的系数;D是图G的度量矩阵,D=diag{d11,...,dnn},其中
Figure FDA0003008367280000022
wij表示节点i和j之间的权重。
4.根据权利要求3所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤二中,以图像上侧超像素为依据,通过对其他超像素排序来得到显著图St
Figure FDA0003008367280000023
Figure FDA0003008367280000024
表示超像素的排序矩阵f*(i)的归一化向量,同理,用该公式分别计算以下、左、右边界超像素为基础的显著图Sb、Sl、Sr,整合四个显著图来得到第一步的显著图;
Sbq(i)=St(i)×Sb(i)×Sl(i)×Sr(i)
以第一步的显著图的平均显著值为阈值,通过阈值分割将其分为二值图,并以此为图像中心为依据,用同样的方法求出最终的显著图:
Figure FDA0003008367280000033
5.根据权利要求1所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤三对深度图的处理如下:
Figure FDA0003008367280000031
其中,d(i)是第i个超像素的深度值均值,在对深度图进行处理后,用归一化的深度信息指导的显著性来进行下一步的计算:
Ssd=S(i)*D(i)
其中Ssd(i)为第i个超像素结合深度和显著性后的信息,在得到Ssd信息后,通过阈值分割来初始化GrabCut算法,具体阈值为:
Figure FDA0003008367280000032
其中,Num为超像素的实际数目,Ssd大于T的为前景,重置为1,而小于T的为背景,重置为0。
6.根据权利要求5所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤四中,在得到Ssd信息阈值分割的二值图后,从上至下依次扫描像素点,通过标记第一个非0像素点来得到GrabCut的初始矩形框,将框外定为背景TB,框内定为未知区域TU,而此时前景为空。
7.根据权利要求5所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤五的GMMs参中,第h个高斯模型的均值μ(α,h)和协方差Σ(α,h)可通过计算其模型中包含的超像素值的均值和协方差得到,权重π(α,h)就是第h个高斯模型的大小与总体的比值。
8.根据权利要求5所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤六中,改进的能量公式如下:
Figure FDA0003008367280000041
其中,α表示每个超像素的不透明度,h表示超像素对应第h个高斯模型,θ表示高斯模型的参数,z表示超像素的颜色信息,d表示超像素对应的融合深度信息的显著信息,V(α,z)表示原算法的平滑项,V(α,d)表示需要融合的平滑项,ρ表示改进平滑项的自适应参数,深度数据项为:
Figure FDA0003008367280000042
其中,n表示第n个超像素,μ表示该超像素对应高斯模型的均值,αn表示第n个超像素的不透明质,dn为第n个超像素对应的融合深度信息的显著信息,其他参数与原算法相同,深度数据项对应的参数为:
Figure FDA0003008367280000043
Figure FDA0003008367280000044
Figure FDA0003008367280000045
其中,
Figure FDA0003008367280000046
表示颜色信息对应的前景高斯混合模型,
Figure FDA0003008367280000047
表示颜色信息对应的背景高斯混合模型,
Figure FDA0003008367280000048
表示融合深度的显著信息对应的前景高斯混合模型,
Figure FDA0003008367280000049
表示融合深度的显著信息对应的背景高斯混合模型,
Figure FDA00030083672800000410
前景高斯混合模型中的第h个高斯模型,
Figure FDA00030083672800000411
表示背景高斯混合模型中的第i个高斯模型,
Figure FDA00030083672800000412
Figure FDA00030083672800000413
表示前景高斯混合模型中第h个高斯模型的均值和协方差,
Figure FDA00030083672800000414
Figure FDA00030083672800000415
表示背景高斯混合模型中第i个高斯模型的均值和协方差;
深度平滑项为:
Figure FDA0003008367280000051
而深度平滑项对应的参数为:
Figure FDA0003008367280000052
9.根据权利要求8所述的一种基于深度图的自动图像分割方法,其特征在于,所述步骤七在计算完能量公式后,若能量没有收敛,则计算GMMs的参数,根据参数重新构建网路流图,进行最大流最小割;若能量函数收敛,则完成分割,输出图像。
CN201810372310.4A 2018-04-24 2018-04-24 一种基于深度图的自动图像分割方法 Active CN108596919B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810372310.4A CN108596919B (zh) 2018-04-24 2018-04-24 一种基于深度图的自动图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810372310.4A CN108596919B (zh) 2018-04-24 2018-04-24 一种基于深度图的自动图像分割方法

Publications (2)

Publication Number Publication Date
CN108596919A CN108596919A (zh) 2018-09-28
CN108596919B true CN108596919B (zh) 2021-07-13

Family

ID=63614948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810372310.4A Active CN108596919B (zh) 2018-04-24 2018-04-24 一种基于深度图的自动图像分割方法

Country Status (1)

Country Link
CN (1) CN108596919B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409376B (zh) * 2018-11-05 2020-10-30 昆山紫东智能科技有限公司 针对固废对象的图像分割方法、计算机终端及存储介质
CN109934843B (zh) * 2019-01-28 2021-05-14 北京华捷艾米科技有限公司 一种实时的轮廓精细化抠像方法及存储介质
CN110211115B (zh) * 2019-06-03 2023-04-07 大连理工大学 一种基于深度引导元胞自动机的光场显著性检测实现方法
CN110189339A (zh) * 2019-06-03 2019-08-30 重庆大学 深度图辅助的主动轮廓抠图方法及系统
CN110335280A (zh) * 2019-07-05 2019-10-15 湖南联信科技有限公司 一种基于移动端的金融单据图像分割与矫正方法
CN110570436A (zh) * 2019-07-22 2019-12-13 浙江工业大学 一种基于深度感知的图像分割方法
CN110738676A (zh) * 2019-09-17 2020-01-31 湖南大学 一种结合RGBD数据的GrabCut自动分割算法
CN110853070A (zh) * 2019-11-11 2020-02-28 山东科技大学 基于显著性与Grabcut的水下海参图像分割方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750711A (zh) * 2012-06-04 2012-10-24 清华大学 一种基于图像分割和运动估计的双目视频深度图求取方法
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
CN104820990A (zh) * 2015-05-15 2015-08-05 北京理工大学 一种交互式图像抠图系统
CN104835146A (zh) * 2015-04-14 2015-08-12 上海大学 基于深度信息和图切割的立体图像中显著对象分割方法
CN105787938A (zh) * 2016-02-25 2016-07-20 上海大学 一种基于深度图的人物分割方法
CN105957078A (zh) * 2016-04-27 2016-09-21 浙江万里学院 一种基于图割的多视点视频分割方法
CN106651867A (zh) * 2017-01-04 2017-05-10 努比亚技术有限公司 一种实现交互式图像分割的方法、装置及终端

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
CN102750711A (zh) * 2012-06-04 2012-10-24 清华大学 一种基于图像分割和运动估计的双目视频深度图求取方法
CN104835146A (zh) * 2015-04-14 2015-08-12 上海大学 基于深度信息和图切割的立体图像中显著对象分割方法
CN104820990A (zh) * 2015-05-15 2015-08-05 北京理工大学 一种交互式图像抠图系统
CN105787938A (zh) * 2016-02-25 2016-07-20 上海大学 一种基于深度图的人物分割方法
CN105957078A (zh) * 2016-04-27 2016-09-21 浙江万里学院 一种基于图割的多视点视频分割方法
CN106651867A (zh) * 2017-01-04 2017-05-10 努比亚技术有限公司 一种实现交互式图像分割的方法、装置及终端

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"An improved method for pancreas segmentation using SLIC and interactive region merging ";Zhang, Liyuan等;《PROCEEDINGS OF SPIE》;20171231;第1-12页 *
"结合显著性和超像素改进的GrabCut图像分割";刘辉等;《红外技术》;20180131;第40卷(第1期);第55-61页 *

Also Published As

Publication number Publication date
CN108596919A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108596919B (zh) 一种基于深度图的自动图像分割方法
Zhao et al. FLIC: Fast linear iterative clustering with active search
Liu et al. Discrete-continuous depth estimation from a single image
CN109086777B (zh) 一种基于全局像素特征的显著图精细化方法
CN109255357B (zh) 一种rgbd图像协同显著性检测方法
CN109829353B (zh) 一种基于空间约束的人脸图像风格化方法
EP2856425A1 (en) Segmentation of a foreground object in a 3d scene
CN113705579B (zh) 一种视觉显著性驱动的图像自动标注方法
CN103093470A (zh) 一种具有尺度无关特性的快速多模态图像协同分割方法
CN114511440A (zh) 神经网络中的自适应卷积
Mücke et al. Surface Reconstruction from Multi-resolution Sample Points.
Zhao et al. A saliency detection based method for 3d surface simplification
CN115631489A (zh) 一种三维语义场景补全方法、装置、设备及介质
US20060204104A1 (en) Image processing method, image processing apparatus, program and recording medium
Kumar et al. Automatic image segmentation using wavelets
CN104952071A (zh) 一种基于灰度空间相关的最大类间方差图像分割算法
Djelouah et al. N-tuple color segmentation for multi-view silhouette extraction
Geetha et al. An improved method for segmentation of point cloud using minimum spanning tree
CN116993947B (zh) 一种三维场景可视化展示方法及系统
CN112884884A (zh) 一种候选区域生成方法及系统
Berjón et al. Fast feature matching for detailed point cloud generation
Wang Image matting with transductive inference
CN113298821A (zh) 一种基于Nystrom谱聚类的超像素抠图方法
Wicaksono et al. Improve image segmentation based on closed form matting using K-means clustering
CN113538278B (zh) 基于可变形卷积的深度图补全方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant