CN112419344B - 一种基于Chan-Vese模型的无监督图像分割方法 - Google Patents

一种基于Chan-Vese模型的无监督图像分割方法 Download PDF

Info

Publication number
CN112419344B
CN112419344B CN202011353104.2A CN202011353104A CN112419344B CN 112419344 B CN112419344 B CN 112419344B CN 202011353104 A CN202011353104 A CN 202011353104A CN 112419344 B CN112419344 B CN 112419344B
Authority
CN
China
Prior art keywords
node
super
nodes
pixel
superpixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011353104.2A
Other languages
English (en)
Other versions
CN112419344A (zh
Inventor
周悦芝
黄权伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202011353104.2A priority Critical patent/CN112419344B/zh
Publication of CN112419344A publication Critical patent/CN112419344A/zh
Priority to PCT/CN2021/117515 priority patent/WO2022110969A1/zh
Priority to US17/696,668 priority patent/US11928825B2/en
Application granted granted Critical
Publication of CN112419344B publication Critical patent/CN112419344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7635Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

本发明提出一种基于Chan‑Vese模型的无监督图像分割方法,属于计算机应用技术领域及精准医疗领域。本发明首先对原始图像进行裁剪,并对裁剪图像进行超像素分割,然后,根据超像素分割结果建立无向图,将Chan‑Vese模型的能量项用边的权重表示,通过使用马尔科夫链,可以在边的赋值过程中同时考虑超像素之间的距离和灰度的关系。最后通过重复使用最大流分割以及更新边的权重可以得到相应的分割结果。本发明可在缺少标注数据的医学领域里对图像进行自动的精准的分割,从而为后续的医学研究提供分割物体的准确信息。本发明能够在更短的时间以及更少的人工干预下准确地分割出所需目标。

Description

一种基于Chan-Vese模型的无监督图像分割方法
技术领域
本发明属于计算机应用技术领域及图像分割领域,特别涉及一种基于Chan-Vese模型的无监督图像分割方法。
背景技术
图像分割是计算视觉领域里面的一个十分重要的子任务,被广泛的应用于自动驾驶、人脸识别以及图像识别等领域。如今随着精准医疗的提出与快速发展,如何快速准确的获取到例如肿瘤等医学目标的分割结果显得至关重要。精确的医学分割结果在精准医疗中扮演着至关重要的角色,它通常应用于手术前的规划、手术中的指导以及手术后的评估。一般而言,一个精准的分割应该将图像划分成多个区域,其中每个区域具有均匀的颜色(或纹理),并且相互之间的边界应该简单而准确。但是到目前为止,图像分割在医学领域里仍然是一个极具挑战性的难题,原因至少有以下3点:
(1)医学图像中需要分割的对象远远没有自然图像中的对象清晰。因为大多数的医学成像技术都是计算机成像,它们都是间接的图像表示。比如CT使用了一系列的X射线,后续通过复杂的数学计算得到最终的图像表示。因此相比较自然图像包含了3个通道的图像信息,大多数的医学图像都是单通道的,这使得医学图像本身提供的信息就很少,不利于后续的精准分割。另外,在医学图像中,目标组织和背景之间的对比度往往也较小,特别是当边界附近的噪声较大时,即使让一个有经验的医生手动进行分割也是很有挑战的。
(2)在最近的10年里面,随着深度学习的流行以及其在诸多任务上表现出的卓越性能,使得许多研究人员都投身到医学图像的深度分割算法的研究之中。比如一个非常有用的卷积网络U-Net,该网络由一个编码器以及对应的解码器构成,在许多生物医学图像上都表现出了非常优良的性能。但是现在深度分割网络的成功是建立在拥有大量的带标签的训练数据上的,而这些训练数据一般都需要非常有经验的相关人士(如医生)来进行标注,这使得不管时间成本,还是金钱成本都是非常巨大的,因此现在在许多医学子领域里面,都难以拥有足够的训练数据,这也使得深度分割网络还不能大面积的应用于医学领域。
(3)医学领域还具有一些非常特殊的性质。一方面许多数据都涉及到伦理等问题,这使得数据本身都不便于进行标注,更难以使用需要大量标注数据的深度网络去进行处理;另外即使使用深度分割网络可以得到比较好的分割,但是由于深度网络一般是端到端的,其结果是相对固定的,这使得用户无法手动改善或调整分割结果;另外由于现在的深度网络几乎都是不可解释的,这也限制了其在一些特殊领域中的使用。
由于在医学领域难以获取到足够的监督样本以及医学图像成像的复杂性,现在的许多有监督的分割方法在医学图像都难以取得较大的进展,这显然无法满足如今精准医疗的需求。更为重要的是,即便我们拥有大量的标签数据,深度学习方法也不可避免地会对某些图像产生不正确的分割,这在实际应用中是无法接受的,因为我们无法对结果进行校正。
另一方面,无监督学习不需要任何带注释的数据,它通过自动的分析大量数据,来了解其内部的数据规律。在无监督的情况下,图像分割将用于预测更为通用的标签,例如“前景”和“背景”,特别是在没有任何先验信息的情况下。目前有许多众所周知的无监督分割技术,包括归一化切割,基于马尔可夫随机场的方法,均值平移,主动轮廓方法等等,这些算法旨在自动分割每个图像中的对象实例,而无需任何监督信息。但是由于医学图像中对象的分布非常不均匀,因此使用许多无监督方法耗时较长,并且需要进行大量后处理才能够获得比较好的效果,而这其中一般需要较多的人工干预,成本较大。
主动轮廓模型是一种被广泛使用的无监督分割方法,它通过迭代求解能量最小值获得最终的分割结果。Chan-Vese模型是一种基于区域的主动轮廓模型,它属于Mumford-Shah模型的一个特例,由于其不依赖于对象边界的梯度信息,因此被广泛地应用于医学图像领域,尤其被用于脑、心肺、血管的分割。求解Chan-Vese模型的能量最小值过程可以通过使用水平集函数,让问题的求解更加简便,但也使得在问题求解中需要时刻保持水平集函数为符号距离函数的性质。为了使模型在实际应用中获得更好的效果,DRLSE模型中提出了一种距离正则化方法,使得无需在迭代过程中重新初始化水平集函数。LBF模型引入了一个局部二值能量项,通过提取图像局部的信息来获得更加精确的分割。但是,这些方法都不能很好的权衡像素之间距离与灰度的关系,不适合于强度不均匀的目标的分割,加上它们使用梯度下降流迭代求解,耗时较长,无法满足大量数据的分割。
发明内容
本发明的目的是为克服已有技术的不足之处,提出一种基于Chan-Vese模型的无监督图像分割方法。本发明可在缺少标注数据的情况下对图像进行自动的精准的分割,得到更为准确的图像分割结果。本发明的方法相比其他的无监督方法能够在更短的时间,以及更少的人工干预下准确地分割出所需目标。
本发明提出一种基于Chan-Vese模型的无监督图像分割方法,其特征在于,包括以下步骤:
(1)获取待分割的原始图像,并对该原始图像进行裁剪,得到包含分割目标的裁剪图像;
(2)采用线性迭代聚类SLIC分割算法对步骤(1)得到的裁剪图像进行超像素分割,得到该裁剪图像对应的超像素分割结果;
其中,设置分割后得到的超像素集合的个数为K,分割完毕后,共得到K个超像素集合
(3)根据步骤(2)得到的超像素分割结果建立无向图;
其中,将无向图记为G=(V,E);V代表无向图中所有节点的集合,该无向图一共包含K+2个节点,其中K个超像素节点分别对应K个超像素集合,另外2个节点分别为虚拟前景节点s和虚拟背景节点t;将K个超像素节点组成的集合记为Vs
E表示无向图中所有边的集合;若任一超像素节点对应的超像素集合在步骤(2)的超像素分割结果中与其他节点对应的超像素集合相邻,则在无向图中该两个节点间存在连接的边,将所有相邻两个超像素集合对应的超像素节点之间的边组成的集合记为E1;计算所有相邻两个超像素集合的公共边长的长度,所述公共边的长度为该两个相邻超像素集合的相邻像素点的个数的平均值;
每个属于Vs的节点分别和虚拟前景节点s和虚拟背景节点t相连,将所有与虚拟前景节点s和虚拟背景节点t连接的边组成的集合记为E2,虚拟前景节点和虚拟背景节点互相之间不相连;
(4)根据无向图中节点之间的关系计算每条边的权重,具体步骤如下:
(4-1)对于属于E1的每条边,该边的权重的值为:eij=G(|gi-gj|)+lij,其中i,j表示该边连接的两个超像素节点,G(x)表示高斯函数,lij表示超像素节点i和j分别对应的超像素集合的公共边的长度,gi表示对应的超像素节点i的灰度值,该灰度值等于节点i对应的超像素集合内所有像素的平均灰度值;
(4-2)对所有超像素节点进行初始化;
将所有超像素节点按照对应灰度值进行降序排序,取排序后前30%的超像素节点并将其初始化为属于前景,即令该节点的标签ai=0,其它超像素节点全都初始化为属于背景,即令该节点的标签ai=1,最后得到所有超像素节点初始化的结果A0=(a1,a2,...,aK),并将A0作为所有超像素节点的当前标签集合;
(4-3)在E2中,对于与虚拟前景节点s相连的每条边,该边的当前权重定义为:esi=(gi-gt)2+ci1,其中下标i表示超像素节点i;gt表示虚拟背景节点的当前灰度值,等于当前所有属于背景的超像素节点的平均灰度值,ci1为超像素节点i与当前属于背景的超像素节点之间的加权差异;
对于与虚拟背景节点t相连的每条边,该边的当前权重定义为:
eit=(gi-gs)2+ci0
gs表示虚拟前景节点的当前灰度值,等于当前所有属于前景的超像素节点的平均灰度值;ci0为超像素节点i与当前属于前景的超像素节点之间的加权差异;
(4-4)通过使用马尔科夫链,对于属于Vs的超像素节点,首先计算得到相邻超像素节点之间的转移矩阵PK×K,该矩阵中每个元素的值为:pij=wij/di,其中wij=G(|gi-gj|),di表示超像素节点i的度,其值等于超像素节点i与所有相连的超像素节点j之间的wij之和;根据马尔科夫链的性质,马尔科夫链收敛到分布πi=di/∑jdj,其中πi表示超像素节点i的稳定分布概率;构造矩阵WK×K和IK×K,WK×K的每个行向量等于π,IK×K是单位矩阵;计算得到矩阵:Z=(I-P+W)-1
当节点i和节点j为不同超像素节点时,从节点i到节点j的期望时间为:Ei(Tj)=(Zjj-Zij)/πj,当节点i和节点j为相同超像素节点时,节点i的期望时间为:Ei(Ti)=1/πi;则该两个节点之间的期望往返时间表示为Tij=Ei(Tj)+Ej(Ti),最后将元素Tij组成期望时间矩阵按行进行归一化得到归一化后的期望时间矩阵T;最后根据得到的矩阵T计算得到ci0,ci1,具体计算公式为:
Figure BDA0002801888790000041
Figure BDA0002801888790000042
(5)利用步骤(4)的结果,得到所有超像素节点更新后的标签集合;具体方法如下:
设定最小化目标函数如下:
Figure BDA0002801888790000043
其中μ为权重因子;
通过最大流分割将步骤(3)中的无向图分割得到两部分:将和虚拟前景节点s相连的超像素节点划分为属于前景,即更新该超像素节点的ai=0;将和虚拟背景节点t相连的节点则划分为属于背景,即更新该超像素节点的ai=1;更新完毕后,得到所有超像素节点的更新后的标签集合记为A1
(6)对A1与A0进行判定:
若A1与A0相比没有变化,则转到步骤(7);否则,将A1作为新的当前标签集合,更新A0=A1,然后重新返回步骤(4-3),直至A1与A0相比没有变化则进入步骤(7);
(7)根据A1对应的每个超像素节点的标签,将对应该超像素节点的超像素集合内的所有像素都标记为该超像素节点的标签,其中标签为属于前景的全部像素组成最终的分割结果。
本发明的特点及有益效果:
本发明基于Chan-Vese模型进行改进,与其他无监督的分割方法相比,本发明方法主要具有如下不同点:(1)本发明对需要分割的图像进行了预处理。首先将需要分割的大致区域裁剪出来,减少了大量无关背景对后续分割的影响,使得最终的分割结果更加准确;(2)本发明将像素级的分割转化成超像素级别的分割。通过引入超像素,不仅可以利用超像素之间较为精准的边缘,还可以大幅的减少后续处理的基本单元的数量,使得处理时间大大的降低;(3)本发明通过将Chan-Vese模型的能量项转化成无向图的边的权重,后续通过最大流算法可以直接对Chan-Vese的能量函数进行求解,最终只需要几次迭代便可以获取到最终的分割结果,而现有其他方法利用梯度下降流的方法迭代求解的次数都非常多。
本发明采用超像素作为分割单元,基于超像素之间的距离和灰度值的相似性,通过马尔科夫链对无向图的边进行赋值,最后通过最大流算法对Chan-Vese模型的能量函数进行求解,得到分割结果,具有简单、直观、高效的特点。
本发明特别适合对强度不均匀的图片进行分割,特别是待分割目标的边缘不清晰的情况。因此本发明可以应用于如医学图像的器官,骨头以及诸如肿瘤的病灶分割,并且该方法对图片的成像方式没有特别的要求,可以应用于CT,MRI等医学图像。
附图说明
图1是本发明方法的总体流程图。
图2是本发明实施例对需要分割的大致区域进行裁剪的示意图。
图3是本发明实施例的超像素分割结果示意图。
图4是本发明实施例的无向图示意图。
图5是本发明实施例中通过最大流分割无向图的示意图。
图6是本发明实施例中最终得到的分割结果的示意图。
具体实施方式
本发明提出一种基于Chan-Vese模型的无监督图像分割方法,下面结合附图及具体实施例对本发明进一步详细说明如下。
本发明提出一种基于Chan-Vese模型的无监督图像分割方法,整体流程如图1所示,包括以下步骤:
(1)获取待分割的原始图像,并对该原始图像进行裁剪,得到包含分割目标的裁剪图像。
本发明对于原始图像无特殊要求;对于大部分需要分割的原始图像,由于分割目标只存在于原始图像中的某个局部区域,因此可以首先通过裁剪将需要分割的大致区域提取出来,裁剪后得到的图像需要保留完整的分割目标,以便减少后续无关背景的干扰,从而提高最终的分割精度。
例如在本实施例中,原始图像如图2(a)所示,该图为一张人体腰椎部位的CT切片,其中需要分割的目标如图2(b)所示(即CT切片里面的椎体),我们首先通过裁剪,将需要分割的目标所在的区域提取出来进行后续的处理。一般而言,裁剪出来的区域为包含分割目标的最小矩形向4个方向分别扩展10个像素左右得到的矩形区域,本实施例最终裁剪得到的图像如图2(c)所示。
本实施例通过裁剪把需要分割的大致区域提取出来后,需要处理的图像大小从512×512降为了103×78,无关背景的区域降低了97%,使得后续处理能更加集中于目标区域,分割结果更加精确。
(2)对步骤(1)得到的裁剪图像进行超像素分割,得到该裁剪图像对应的超像素分割结果。
本发明采用已有的简单的线性迭代聚类(SLIC)分割算法对步骤(1)的裁剪图像中的所有像素进行超像素的分割,得到一系列的超像素集合,其中每个集合内的像素在空间上是相邻的,并且在颜色纹理等特征上是相似的,而不同的超像素集合之间相互是没有重叠的。超像素能够提供比较精准的分割边缘,并且相比以像素作为基本处理单元的图像,它显著的减少了处理单元的数量,可以大大的减少后续的处理时间。
对于SLIC算法,需要输入参数K,它表示我们期望通过该算法得到的超像素集合的个数。在本发明中,我们希望最终每个超像素集合内包含大概50个像素,因此,K的取值我们设定在
Figure BDA0002801888790000061
附近,其中
Figure BDA0002801888790000062
表示向上取整,N为步骤(1)裁剪得到的图像的像素总数。在本实施例中,通过步骤(1)得到的图像的大小为103×78,因此K的取值可以为:(108×78)÷50≈160。通过SLIC算法,本实施例可以得到如图3所示的超像素的分割结果,图3中每个网格代表一个超像素集合,由于通过SLIC算法最终得到的超像素集合个数不是严格的等于输入参数K(因为算法初始化的超像素中心为均匀采样,加上算法后续可能涉及到超像素的合并,因此最终的超像素个数不一定等于K),因此为了统一,后续步骤中的K表示最终得到的超像素集合个数。
本发明将像素级的分割转化成超像素级别的分割,因为超像素相互之间的边界已经较为准确,并且在空间上连续一致,因此相比直接使用像素进行分割得到的边缘会更加准确,另外,使用超像素还可以显著的减少后续处理单元的数量,大幅减少处理时间。
(3)根据步骤(2)得到的超像素分割结果建立无向图。
本发明用G=(V,E)表示该无向图,其中V代表无向图中所有节点的集合,一共包含K+2个节点,其中K个超像素节点分别对应于K个超像素集合,另外两个节点为虚拟节点s和t,分别代表虚拟前景节点和虚拟背景节点),将K个超像素节点组成的集合记为VS;E表示无向图中所有边的集合,其中,若任一超像素节点对应的超像素集合在步骤(2)的超像素分割结果中与其他节点对应的超像素集合存在相邻关系,则在无向图中建立连接该两个节点的边,例如:对于节点i,j∈Vs,若它们对应的超像素集合在裁剪图像中是相邻的,则在节点i,j之间建立一条边;将所有相邻两个超像素集合对应的超像素节点之间的边组成的集合记为e1。同时为了后续计算的需要,需要计算所有相邻两个超像素集合的公共边长的长度lij(公共边的长度的定义为在裁剪图像上该两个相邻超像素集合的相邻像素点的个数的平均值,若节点i对应的超像素集合有m个像素与节点j对应的超像素集合相邻,同时对于节点j对应的超像素集合,它有n个像素与节点i对应的超像素集合相邻,那么lij=(m+n)/2)。
每个属于Vs的节点都会分别和虚拟前景节点s和虚拟背景节点t相连,将所有与虚拟前景节点s和虚拟背景节点t连接的边组成的集合记为E2,虚拟前景节点和虚拟背景节点互相之间不相连。
本发明中,每个超像素节点开始时都会和虚拟前景节点相连,也会和虚拟背景结点相连,在初始化的时候,对每个边进行赋值,后面根据步骤(5),E2的某些边会断掉,也就是根据这个断掉的结果,才得到对应的分割结果。
本实施例建立的无向图的示意图如图4所示。
(4)根据无向图中节点之间的关系对每条边进行赋值,具体步骤如下:
(4-1)对于属于E1的每条边,该边的权重的定义为:eij=G(|gi-gj|)+lij,其中i,j表示该边连接的两个超像素节点,G(x)表示高斯函数,lij表示节点i和j相邻的长度(相同符号请统一含义表述),gi表示对应的超像素节点i的灰度值(该值等于节点i对应的超像素集合内所有像素的平均灰度值)。
E1的每条边不会随着后续分割结果的改变而改变,因此每条边的权重只需要计算一次,这反映了相邻超像素节点之间的相似性,权重值越大,则表示两个节点越相似;
(4-2)对于所有超像素节点,首先需要进行初始化来反映该节点属于前景(分割目标)还是背景。以超像素节点i的标签ai=0表示超像素节点i属于前景,反之ai=1表示该节点属于背景。在本实施例中,我们将所有超像素节点按照其灰度值进行降序排序,取排序后前30%的节点初始化为属于前景,即令该节点的ai=0,其它超像素节点全都初始化为属于背景,即令该节点的ai=1,最后以A0=(a1,a2,...,aK)表示所有超像素节点初始化的结果并将A0作为所有超像素节点的当前标签集合;
(4-3)对于属于E2的每条边,该边的权重反映了每个超像素节点与虚拟前景节点或虚拟背景节点之间的相似性,该值越大,表示该超像素节点与虚拟前景节点或虚拟背景节点越相似。对于与虚拟前景节点s相连的每条边,该边的当前权重定义为:esi=(gi-gt)2+ci1,其中下标i表示超像素节点i;gt表示虚拟背景节点的当前灰度值,它等于当前所有属于背景的超像素节点(即当前所有ai=1的超像素节点)的平均灰度值,而ci1则反映了超像素节点i与当前属于背景的超像素节点之间的加权差异(其中这里的权重即为后续步骤(4-4)中节点之间的期望往返时间对应的高斯函数值)。
同理对于与虚拟背景节点t相连的每条边,该边的当前权重定义为:
eit=(gi-gs)2+ci0
gs表示虚拟虚拟前景节点的当前灰度值,它等于当前所有属于前景的超像素节点(即当前所有ai=0的超像素节点)的平均灰度值;而ci0则反映了超像素节点i与当前属于前景的超像素节点之间的加权差异;
(4-4)为了计算得到ci0,ci1,通过使用马尔科夫链,对于属于Vs的超像素节点,首先计算得到相邻超像素节点之间的转移矩阵PK×K,该矩阵中每个元素的值为:pij=wij/di,其中wij=G(|gi-gj|),di表示超像素节点i的度,其值等于超像素节点i与所有相连的超像素节点j的wij之和。根据马尔科夫链的性质,马尔科夫链收敛到分布πi=di/∑jdj其中πi表示超像素节点i的稳定分布概率;于是我们可以构造矩阵WK×K和IK×K,WWK×K的每个行向量等于π,IK×K是单位矩阵。由此可以通过计算得到矩阵:Z=(I-P+W)-1,根据Z可以得到超像素节点之间的期望往返时间,该值考虑了节点之间的距离与灰度值的信息,其值越小,表示两个节点越相似。当节点i和节点j为不同超像素节点时,从节点i到节点j的期望时间为:Ei(Tj)=(Zjj-Zij)/πj,当节点i和节点j为相同超像素节点时,节点i的期望时间为:Ei(Ti)=1/πi;于是两个节点之间的期望往返时间可以表示为Tij=Ei(Tj)+Ej(Ti),最后将元素Tij组成期望时间矩阵按行进行归一化得到归一化后的期望时间矩阵T。最后我们可以根据得到的矩阵T计算得到ci0,ci1,具体计算公式为:
Figure BDA0002801888790000091
Figure BDA0002801888790000092
其中ai=0表示超像素节点i属于前景,反之属于背景。ci0,ci1分别反映了节点i与当前属于前景的超像素节点和属于背景的超像素节点之间的加权差异。
本实施例中T的示例如下:
Figure BDA0002801888790000093
(5)利用步骤(4)的结果,得到所有超像素节点更新后的标签集合。
设定最小化目标函数如下:
Figure BDA0002801888790000094
其中μ为权重因子(在本实施例中,设定μ为0.01,一般u的取值范围0.1到0.001),用于调整前面两项和最后一项在目标函数中的权重关系。我们可以使用已有的最大流分割对无向图进行切割来对上述目标进行最小值的求解,通过最大流分割将步骤(3)中的无向图分割得到两部分,其中一部分超像素节点与虚拟前景节点s相连,另一部分超像素与虚拟背景节点t相连,两部分之间互不连接,如图5所示。根据最大流分割的分割结果,最后我们将和虚拟前景节点s相连的超像素节点划分为属于前景,即更新该超像素节点的ai=0,反之和虚拟背景节点t相连的节点则划分为属于背景,即更新该超像素节点的ai=1。所有超像素节点更新完毕后,用A1表示更新后的所有ai组成的标签集合。
本实施例通过最大流分割将无向图分割成两部分的结果如图5所示,其中图5(a)为与虚拟前景节点s相连的部分,图5(b)为与虚拟背景节点t相连的部分。
(6)判断比较更新后的分割结果与当前的分割结果,即判断A1与A0,如果没有变化,那么就转到步骤(7),反之,将A1作为新的当前标签集合,更新A0=A1,然后重新返回步骤(4-3),直至更新后的分割结果与上次的分割结果相比没有变化,进入步骤(7)。
(7)根据A1对应的每个超像素节点的标签,将对应该超像素节点的超像素集合内的所有像素都标记为该超像素节点的标签ai,以此得到最终像素级的分割结果,其中标记为属于前景的全部像素即构成最终的分割结果。后续可以选择是否在该结果的基础上进行略微的调整以获取到更精确的分割。本实施例最终得到的分割结果如图6所示,图中黑色轮廓包围的白色椎体记为最终的分割结果。

Claims (1)

1.一种基于Chan-Vese模型的无监督图像分割方法,其特征在于,包括以下步骤:
(1)获取待分割的原始图像,并对该原始图像进行裁剪,得到包含分割目标的裁剪图像;
(2)采用线性迭代聚类SLIC分割算法对步骤(1)得到的裁剪图像进行超像素分割,得到该裁剪图像对应的超像素分割结果;
其中,设置分割后得到的超像素集合的个数为K,分割完毕后,共得到K个超像素集合;
(3)根据步骤(2)得到的超像素分割结果建立无向图;
其中,将无向图记为G=(V,E);V代表无向图中所有节点的集合,该无向图一共包含K+2个节点,其中K个超像素节点分别对应K个超像素集合,另外2个节点分别为虚拟前景节点s和虚拟背景节点t;将K个超像素节点组成的集合记为Vs
E表示无向图中所有边的集合;若任一超像素节点对应的超像素集合在步骤(2)的超像素分割结果中与其他节点对应的超像素集合相邻,则在无向图中该两个节点间存在连接的边,将所有相邻两个超像素集合对应的超像素节点之间的边组成的集合记为E1;计算所有相邻两个超像素集合的公共边长的长度,所述公共边的长度为该两个相邻超像素集合的相邻像素点的个数的平均值;
每个属于Vs的节点分别和虚拟前景节点s和虚拟背景节点t相连,将所有与虚拟前景节点s和虚拟背景节点t连接的边组成的集合记为E2,虚拟前景节点和虚拟背景节点互相之间不相连;
(4)根据无向图中节点之间的关系计算每条边的权重,具体步骤如下:
(4-1)对于属于E1的每条边,该边的权重的值为:eij=G(|gi-gj|)+lij,其中i,j表示该边连接的两个超像素节点,G(x)表示高斯函数,lij表示超像素节点i和j分别对应的超像素集合的公共边的长度,gi表示对应的超像素节点i的灰度值,该灰度值等于节点i对应的超像素集合内所有像素的平均灰度值;
(4-2)对所有超像素节点进行初始化;
将所有超像素节点按照对应灰度值进行降序排序,取排序后前30%的超像素节点并将其初始化为属于前景,即令该节点的标签ai=0,其它超像素节点全都初始化为属于背景,即令该节点的标签ai=1,最后得到所有超像素节点初始化的结果A0=(a1,a2,...,aK),并将A0作为所有超像素节点的当前标签集合;
(4-3)在E2中,对于与虚拟前景节点s相连的每条边,该边的当前权重定义为:esi=(gi-gt)2+ci1,其中下标i表示超像素节点i;gt表示虚拟背景节点的当前灰度值,等于当前所有属于背景的超像素节点的平均灰度值,ci1为超像素节点i与当前属于背景的超像素节点之间的加权差异;
对于与虚拟背景节点t相连的每条边,该边的当前权重定义为:
eit=(gi-gs)2+ci0
gs表示虚拟前景节点的当前灰度值,等于当前所有属于前景的超像素节点的平均灰度值;ci0为超像素节点i与当前属于前景的超像素节点之间的加权差异;
(4-4)通过使用马尔科夫链,对于属于Vs的超像素节点,首先计算得到相邻超像素节点之间的转移矩阵PK×K,该矩阵中每个元素的值为:pij=wij/di,其中wij=G(|gi-gj|),di表示超像素节点i的度,其值等于超像素节点i与所有相连的超像素节点j之间的wij之和;根据马尔科夫链的性质,马尔科夫链收敛到分布πi=di/∑jdj,其中πi表示超像素节点i的稳定分布概率;构造矩阵WK×K和IK×K,WK×K的每个行向量等于π,IK×K是单位矩阵;计算得到矩阵:Z=(I-P+W)-1
当节点i和节点j为不同超像素节点时,从节点i到节点j的期望时间为:Ei(Tj)=(Zjj-Zij)/πj,当节点i和节点j为相同超像素节点时,节点i的期望时间为:Ei(Ti)=1/πi;则该两个节点之间的期望往返时间表示为Tij=Ei(Tj)+Ej(Ti),最后将元素Tij组成期望时间矩阵按行进行归一化得到归一化后的期望时间矩阵T;最后根据得到的矩阵T计算得到ci0,ci1,具体计算公式为:
Figure FDA0002801888780000021
Figure FDA0002801888780000022
(5)利用步骤(4)的结果,得到所有超像素节点更新后的标签集合;具体方法如下:
设定最小化目标函数如下:
Figure FDA0002801888780000023
其中μ为权重因子;
通过最大流分割将步骤(3)中的无向图分割得到两部分:将和虚拟前景节点s相连的超像素节点划分为属于前景,即更新该超像素节点的ai=0;将和虚拟背景节点t相连的节点则划分为属于背景,即更新该超像素节点的ai=1;更新完毕后,得到所有超像素节点的更新后的标签集合记为A1
(6)对A1与A0进行判定:
若A1与A0相比没有变化,则转到步骤(7);否则,将A1作为新的当前标签集合,更新A0=A1,然后重新返回步骤(4-3),直至A1与A0相比没有变化则进入步骤(7);
(7)根据A1对应的每个超像素节点的标签,将对应该超像素节点的超像素集合内的所有像素都标记为该超像素节点的标签,其中标签为属于前景的全部像素组成最终的分割结果。
CN202011353104.2A 2020-11-27 2020-11-27 一种基于Chan-Vese模型的无监督图像分割方法 Active CN112419344B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011353104.2A CN112419344B (zh) 2020-11-27 2020-11-27 一种基于Chan-Vese模型的无监督图像分割方法
PCT/CN2021/117515 WO2022110969A1 (zh) 2020-11-27 2021-09-09 无监督图像分割方法、电子设备和存储介质
US17/696,668 US11928825B2 (en) 2020-11-27 2022-03-16 Unsupervised image segmentation method and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011353104.2A CN112419344B (zh) 2020-11-27 2020-11-27 一种基于Chan-Vese模型的无监督图像分割方法

Publications (2)

Publication Number Publication Date
CN112419344A CN112419344A (zh) 2021-02-26
CN112419344B true CN112419344B (zh) 2022-04-08

Family

ID=74842633

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011353104.2A Active CN112419344B (zh) 2020-11-27 2020-11-27 一种基于Chan-Vese模型的无监督图像分割方法

Country Status (3)

Country Link
US (1) US11928825B2 (zh)
CN (1) CN112419344B (zh)
WO (1) WO2022110969A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419344B (zh) * 2020-11-27 2022-04-08 清华大学 一种基于Chan-Vese模型的无监督图像分割方法
CN113177592B (zh) * 2021-04-28 2022-07-08 上海硕恩网络科技股份有限公司 一种图像分割方法、装置、计算机设备及存储介质
CN115311460B (zh) * 2022-08-16 2023-05-02 哈尔滨工业大学 一种缓动背景下融合时空域信息的红外小目标检测方法
CN116993947B (zh) * 2023-09-26 2023-12-12 光谷技术有限公司 一种三维场景可视化展示方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732551A (zh) * 2015-04-08 2015-06-24 西安电子科技大学 基于超像素和图割优化的水平集图像分割方法
WO2016054285A1 (en) * 2014-10-01 2016-04-07 Lyrical Labs Video Compression Technology, LLC Method and system for unsupervised image segmentation using a trained quality metric

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995841B2 (en) * 2007-09-24 2011-08-09 Microsoft Corporation Hybrid graph model for unsupervised object segmentation
CN107273905B (zh) * 2017-06-14 2020-05-08 电子科技大学 一种结合运动信息的目标主动轮廓跟踪方法
US10733737B2 (en) * 2017-07-31 2020-08-04 University Of Louisville Research Foundation, Inc. System and method of automated segmentation of anatomical objects through learned examples
CN112419344B (zh) * 2020-11-27 2022-04-08 清华大学 一种基于Chan-Vese模型的无监督图像分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016054285A1 (en) * 2014-10-01 2016-04-07 Lyrical Labs Video Compression Technology, LLC Method and system for unsupervised image segmentation using a trained quality metric
CN104732551A (zh) * 2015-04-08 2015-06-24 西安电子科技大学 基于超像素和图割优化的水平集图像分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于梯度约束SLIC的交互式视频目标提取方法研究;汤问;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20190115(第01期);第I138-3099页 *
梯度约束SLIC的快速视频目标提取方法;桂彦 等;《计算机科学与探索》;20190228;第13卷(第2期);第285-299页 *

Also Published As

Publication number Publication date
US11928825B2 (en) 2024-03-12
CN112419344A (zh) 2021-02-26
US20220207752A1 (en) 2022-06-30
WO2022110969A1 (zh) 2022-06-02

Similar Documents

Publication Publication Date Title
CN112419344B (zh) 一种基于Chan-Vese模型的无监督图像分割方法
Xian et al. Automatic breast ultrasound image segmentation: A survey
US11593943B2 (en) RECIST assessment of tumour progression
CN110337669B (zh) 一种用于多标签分割医学图像中的解剖结构的管线方法
CN105574859B (zh) 一种基于ct图像的肝脏肿瘤分割方法及装置
US7729537B2 (en) Editing of presegemented images/volumes with the multilabel random walker or graph cut segmentations
Izadi et al. Generative adversarial networks to segment skin lesions
Badura et al. Soft computing approach to 3D lung nodule segmentation in CT
Lee et al. Optimization of local shape and appearance probabilities for segmentation of knee cartilage in 3-D MR images
Hammernik et al. Vertebrae segmentation in 3D CT images based on a variational framework
CN111798458B (zh) 一种基于不确定性引导的交互式医学图像分割方法
CN108230301A (zh) 一种基于主动轮廓模型的脊柱ct图像自动定位分割方法
CN114581451A (zh) 一种基于散射图神经网络的大脑磁共振图像分割方法
Bhimavarapu et al. Analysis and characterization of plant diseases using transfer learning
EP1750226A2 (en) Editing of presegmented images/volumes with the multilabel random walker or graph cut segmentations
CN111047559A (zh) 一种数字病理切片异常区域快速检测的方法
CN108765431B (zh) 一种图像的分割方法及其在医学领域的应用
Cao et al. Grayscale Image Colorization Using an Adaptive Weighted Average Method.
Chen et al. A modified graph cuts image segmentation algorithm with adaptive shape constraints and its application to computed tomography images
CN116883994A (zh) 基于自监督学习识别非小细胞肺癌周组织病理类型的方法、装置及存储介质
Li et al. Fast and robust active contours model for image segmentation
Hoori et al. Automatic Deep Learning Segmentation and Quantification of Epicardial Adipose Tissue in Non-Contrast Cardiac CT scans
CN112785608B (zh) 一种基于自适应参数改进snic的医学图像分割方法
CN114913185A (zh) 肺ct图像的纹理分割方法及系统
Chen et al. Segmentation of ventricles in brain CT images using gaussian mixture model method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant