CN103871066A - 超声图像Ncut分割中相似度矩阵的构造方法 - Google Patents

超声图像Ncut分割中相似度矩阵的构造方法 Download PDF

Info

Publication number
CN103871066A
CN103871066A CN201410118927.5A CN201410118927A CN103871066A CN 103871066 A CN103871066 A CN 103871066A CN 201410118927 A CN201410118927 A CN 201410118927A CN 103871066 A CN103871066 A CN 103871066A
Authority
CN
China
Prior art keywords
ncut
similarity matrix
distance
ultrasound image
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410118927.5A
Other languages
English (en)
Other versions
CN103871066B (zh
Inventor
张东
刘雨
龙群芳
徐梦龙
杨艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201410118927.5A priority Critical patent/CN103871066B/zh
Publication of CN103871066A publication Critical patent/CN103871066A/zh
Application granted granted Critical
Publication of CN103871066B publication Critical patent/CN103871066B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种超声图像Ncut分割中相似度矩阵的构造方法。包含以下步骤:对超声图像进行预处理;用简单线性迭代聚类方法对超声图像过分割产生边界不规则的匀质子区域;利用子区域的平均灰度信息作为构造Ncut相似度矩阵的一个特征,同时通过灰度共生矩阵来计算每个子区域的纹理特征,包含六个特征及其四个方向共24个纹理特征,这24个数据组成一个纹理特征向量即造Ncut相似度矩阵的另一个特征;计算所有子区域两两之间特征的距离,并将二者以一定的比例结合构造一个新的Ncut相似度矩阵计算公式。将其用于基于Ncut聚类的超声图像分割中,得到了良好的分割结果,克服了超声图像多噪声、低对比度的问题,能够有效的分离肿瘤区域和背景区域。

Description

超声图像Ncut分割中相似度矩阵的构造方法
技术领域
本发明涉及超声图像Ncut分割中相似度矩阵的构造方法,属于超声图像分割领域。
背景技术
随着高强度聚焦超声的出现,其在非侵入式治疗肿瘤上应用得越来越广泛。该治疗系统在临床中有着很大的优势如不开刀,不留疤痕,无创或微创伤,可以实时检测治疗,不受肿瘤大小限制,总费用低等。这些优势决定高强度聚焦超声治疗系统有很大的发展及应用前景。而高强度聚焦超声治疗系统中最关键的就是对病人肿瘤进行实时导航,导航过程则需要对实时超声图像中的肿瘤进行定位。将传统的手动定位方式改变为自动定位,将对该治疗系统的治疗效率和治疗准确性带来非常大的帮助。
超声图像分割在肿瘤检测、诊断和治疗中被广泛应用,其对肿瘤定位的准确性直接关系到病人的人身安全。经过长期的深入研究,已经提出的超声图像分割方法包括基于区域的方法、基于边界的方法和基于区域和边界组合的方法,不同类型的分割方法具有不同的分割特点。
Ncut方法是基于图论的一种无监督的分割方法,不需要初始化步骤,因此更容易实现超声图像的全自动分割。灰度信息是超声图像的一种基本特征,被广泛的应用于超声图像分割中。除了灰度信息之外,超声图像还富含丰富的纹理信息,这些信息也能够作为识别目标的度量,可使分割效果更加准确。现在虽然已有很多基于区域的纹理特征提取的方法,但并不是非常适用于Ncut算法。
发明内容
本发明所需解决的技术问题在于提供一种超声图像Ncut分割中相似度矩阵的构造方法,该方法融合了区域的灰度信息和纹理信息,计算方便,由该方法获取的相似度矩阵能够代表图像的特性,其通过Ncut算法用于超声图像分割中能够有效的定位肿瘤,具有很高的临床应用价值。
本发明的方法包含以下步骤:
(1)对待分割的超声图像依次进行各向异性扩散滤波、同态滤波的预处理;
(2)对(1)所得的图像用简单线性迭代聚类的方法产生超像素,即边界不规则的匀质子区域;
(3)计算(2)中所得每个子区域的平均灰度G,然后计算所有子区域两两之间G的欧氏距离Dg;同时利用灰度共生矩阵提取每个子区域的24个纹理特征,把这24个数据组成一个向量T,然后计算所有子区域两两之间T的距离Dt;灰度信息和纹理信息按照下式组合来完成对相似度矩阵的构造
w ( ri , rj ) = e - D t ( ri , rj ) ST * ST * e - D g ( ri , rj ) SG * SG
ri,rj分别为步骤(2)所得任一子区域,w(ri,rj)表示子区域ri和rj之间的相似度。
Dg(ri,rj)为ri和rj之间G的距离,Dt(ri,rj)为ri和rj之间T的距离。
(4)步骤(3)所构造的相似度矩阵用于基于Ncut聚类的超声图像分割中,分离超声图像的肿瘤区域和背景区域,验证所构造相似度矩阵的有效性。
下面进一步详细介绍本发明方法。
为了去除超声图像中的噪声等干扰,选择各向异性扩散和同态滤波作为预处理,在预处理的基础上使用简单线性迭代聚类的算法获取超像素。
本发明上述步骤(1)中的预处理方法是经过本发明实践分析后选取的、能很好适应本发明中所处理的超声图像。
各项异性扩散滤波(anisotropic diffusion)方法:
各向异性扩散首先是由Perona和Malik提出的,其原理如下:
∂ I ∂ t = div [ c ( | ▿ I | ) · ▿ I ] I ( t = 0 ) = I 0 - - - ( 1 )
其中div是散度算子,c(·)是系数因子。上述方程模拟了热扩散方程,方程中扩散系数是位置的函数,随着位置的变化而变化,不同的方向亦是如此。由于我们的目的是去除噪声,保留边缘信息,所以在边缘处方向的法线方向,扩散系数应该是一个小量,而在其它区域和边缘方向则就是一个较大量。扩散系数的通常形式为:
c(x,y,t)=g(▽I)  (2)
函数g(·)应具有以下性质
(a)在梯度为0的位置和方向,扩散系数为1,即g(0)=1;
(b)梯度值越大,相应的扩散系数越小,即g(·)具有单调递减特征;
(c)较强的边缘能阻止扩散的进行,即g(∞)=0。
所以的通常形式为
g(▽I)=exp(-(▽I/κ)2)  (3)
其中自由参量κ是传导因子,它决定了对边缘灰度信息处理的灵敏度。
各向异性扩散滤波是图像平滑滤波方法是在超声平滑去噪中应用最广泛,效果最好的一种,它不仅能有效去除噪声,而且能很好的保留图像边缘信息。
同态滤波:
同态滤波是把频率过滤和灰度变换结合起来的一种图像处理方法,通过压缩亮度范围和增强对比度来改善图像质量。对于图像f(x,y),其处理过程为:
f(x,y)→lnf→DFT→H(u,v)→(DFT)-1→exp→g(x,y)
最终得到图像g(x,y)。超声图像经过同态滤波处理后,可以消除超声图像中光照不均匀的影响,使超声图像中暗的部分变得较亮,突出细节特征。
对于步骤(2)中的简单线性迭代聚类方法,该算法相当于局部化的K-means聚类方法,在由坐标x,y及灰度值g构成三维空间中,图像中像素点的距离为见公式(4)
d g = | g k - g i | d xy = ( x k - x i ) 2 + ( y k - y i ) 2 D s = d g + m S d xy S = N / K - - - ( 4 )
Ds是灰度距离和修改的xy平面距离之和。变量m作为控制超像素的紧致度的量被引入,本发明方法中取值为2。N为图像中总的像素点个数,K为每个子区域内像素点的个数。用简单线性迭代聚类方法对图像进行处理,可以得到很多个边界不规则的匀质子区域,这些子区域即可称为超像素(Superpixel)。
对于步骤(3)中特征提取,从两个方面考虑:第一是灰度信息的提取,为了使更好的区分肿瘤区域和背景区域,对图像进行预处理后再进行灰度计算,可以避免噪声、低对比度的干扰;第二是纹理特征的提取,超声图像中的斑点噪声也可以视为其纹理信息,因此为了获得子区域完整的纹理信息,在纹理特征提取时不采用预处理。计算所有子区域两两之间灰度信息的距离Dg和纹理信息的距离Dt,可以视距离为子区域之间的非相似度。对于任何匀质子区域ri和rj,灰度信息构造的相似度见公式(5),纹理信息构造的相似度见公式(6),二者组合所构造的新的相似度见公式(7)。
w g ( ri , rj ) = e - D g ( ri , rj ) SG * SG - - - ( 5 )
w t ( ri , rj ) = e - D t ( ri , rj ) SI * SI - - - ( 6 )
w ( ri , rj ) = e - D t ( ri , rj ) ST * ST * e - D g ( ri , rj ) SG * SG - - - ( 7 )
Dg(ri,rj)为ri和rj之间灰度信息G的距离,Dt(ri,rj)为ri和rj之间纹理信息T的距离。
上述(3)中24个纹理特征包括图像0°、45°、90°、135°四个方向上的能量、熵、相关性、对比度、逆差矩以及非相似度各六个特征。
上述(3)中的向量Dt之间的距离可以为卡方距离、杰弗里散度(Jeffrey-divergence)中的一种。
上述公式(5)、(6)、(7)中控制灰度信息比例的一个常数SG取值可为25.5,控制纹理信息比例的一个常数ST取值可为5。
本发明方法结合了区域的灰度和纹理信息,在超声图像分割中具有计算速度快、分类准确、可实现自动化等优点,可以预见其与高强度聚焦超声治疗系统的结合也将使得临床治疗效率得到很大程度的提高。本发明的有益之处在于:
(1)在边界不规则的匀质子区域内的提取特征比较全面,融合了灰度信息和纹理统计信息。
(2)该方法构造的相似度矩阵用于Ncut的聚类,大大提高了超声图像分割的效率和准确性。
(3)易于实现超声图像的自动分割。
附图说明
图1为Ncut算法中基于超像素的相似度矩阵构造示意图。
图2为本发明实施例1的构造相似度矩阵进行Ncut聚类的结果图,其纹理信息用卡方距离来表示不相似度。图2(a)为待分割图像;图2(b)为各向异性滤波后结果图;图2(c)为同态滤波后结果图;图2(d)用简单线性迭代聚类方法获得的超像素结果图;图2(e)为用Ncut把超像素图聚类为两类的结果图,黑色区域为一类,白色区域为一类,肿瘤区域即包含于其中一类中;图2(f)为聚类结果图的轮廓显示图;图2(g)为最终分割结果,肿瘤边界用白色线条表示。
图3为本发明实施例2的构造相似度矩阵进行Ncut聚类的结果图,其纹理信息用杰弗里散度来表示不相似度。图3(a)为待分割图像;图3(b)为各向异性滤波后结果图;图3(c)为同态滤波后结果图;图3(d)用简单线性迭代聚类方法获得的超像素结果图;图3(e)为用Ncut把超像素图聚类为两类的结果图,黑色区域为一类,白色区域为一类,肿瘤区域即包含于其中一类中;图3(f)为聚类结果图的轮廓显示图;图3(g)为最终分割结果,肿瘤边界用白色线条表示。
具体实施方式
以下通过一些具体实施方式来更详细的说明本发明,但本发明并不限定于这些实施例。
实施例1:
图2(a)是尺寸为240x240(单位:像素)的超声图像,对其依次进行各向异性扩散和同态滤波的预处理,预处理结果分别见图2(b)和图2(c);对预处理之后的图像采用简单线性迭代聚类算法使之分为多个边界不规则的子区域,即超像素,其中每个小区域所含像素点个数K为700个,见图2(d);计算每个子区域的平均灰度值及子区域之间平均灰度值的欧氏距离;计算每个子区域的纹理特征向量并用卡方距离来表示子区域之间的不相似度,二者按照公式(7)结合获得新的相似度矩阵,接下来验证相似度矩阵的有效性,使用Ncut算法使这些子区域聚为两类,聚类结果见图2(e)和图2(f),最后可得到目标肿瘤区域,见图2(g)。
实施例2:
图3(a)是尺寸为240x240(单位:像素)的超声图像,对其依次进行各向异性扩散和同态滤波的预处理,各向异性扩散滤波结果见图3(b),同态滤波结果图见图3(c),对预处理之后的图像采用简单线性迭代聚类算法使之分为多个边界不规则的子区域,即超像素,其中每个小区域所含像素点个数K为700个,见图3(d);计算每个子区域的平均灰度值及子区域之间平均灰度值的欧氏距离;计算每个子区域的纹理特征向量并用杰弗里散度距离来表示子区域之间的不相似度,二者按照公式(7)结合获得新的相似度矩阵,接下来验证相似度矩阵的有效性,使用Ncut算法使这些子区域聚为两类,聚类结果见图3(e)和图3(f),最后可得到目标肿瘤区域,见图3(g)。
两个实施例中,当参数等过程都一样,仅纹理特征向量的距离计算公式不同时,通过实例验证所得到的结果基本没有区别,但最终都能够分割出肿瘤区域,说明本发明中纹理特征的不相似度计算公式可以选择二者中的任何一个。

Claims (3)

1.一种超声图像Ncut分割中相似度矩阵的构造方法,其特征在于,包含以下步骤:
(1)对待分割的超声图像依次进行各向异性扩散滤波、同态滤波的预处理;
(2)对(1)所得的图像用简单线性迭代聚类的方法产生超像素,即边界不规则的匀质子区域;
(3)计算(2)中所得每个子区域的平均灰度G,然后计算所有子区域两两之间G的欧氏距离Dg;同时利用灰度共生矩阵提取每个子区域的24个纹理特征,把这24个数据组成一个向量T,然后计算所有子区域两两之间T的距离Dt;灰度信息和纹理信息按照下式组合来完成对相似度矩阵的构造
w ( ri , rj ) = w t ( ri , rj ) * w g ( ri , rj ) = e - D t ( ri , rj ) ST * ST * e - D g ( ri , rj ) SG * SG
ri,rj分别为步骤(2)所得任一子区域,w(ri,rj)表示子区域ri和rj之间的相似度,
Dg(ri,rj)为ri和rj之间G的距离,Dt(ri,rj)为ri和rj之间T的距离;
(4)步骤(3)所构造的相似度矩阵用于基于Ncut聚类的超声图像分割中,分离超声图像的肿瘤区域和背景区域,验证所构造相似度矩阵的有效性。
2.如权利要求1所述的方法,其特征在于:所述24个纹理特征包括图像0°、45°、90°、135°四个方向上的能量、熵、相关性、对比度、逆差矩以及非相似度各六个特征。
3.如权利要求1或2所述的方法,其特征在于:所述的向量T之间的距离Dt为卡方距离、杰弗里散度中的一种。
CN201410118927.5A 2014-03-27 2014-03-27 超声图像Ncut分割中相似度矩阵的构造方法 Expired - Fee Related CN103871066B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410118927.5A CN103871066B (zh) 2014-03-27 2014-03-27 超声图像Ncut分割中相似度矩阵的构造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410118927.5A CN103871066B (zh) 2014-03-27 2014-03-27 超声图像Ncut分割中相似度矩阵的构造方法

Publications (2)

Publication Number Publication Date
CN103871066A true CN103871066A (zh) 2014-06-18
CN103871066B CN103871066B (zh) 2016-08-24

Family

ID=50909571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410118927.5A Expired - Fee Related CN103871066B (zh) 2014-03-27 2014-03-27 超声图像Ncut分割中相似度矩阵的构造方法

Country Status (1)

Country Link
CN (1) CN103871066B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105118049A (zh) * 2015-07-22 2015-12-02 东南大学 一种基于超像素聚类的图像分割方法
CN105335962A (zh) * 2015-08-31 2016-02-17 中国烟草总公司广东省公司 一种烟田采集图像分割方法
CN106067174A (zh) * 2016-05-30 2016-11-02 西安邮电大学 适用于低对比度含噪声图像的阈值化方法及装置
CN108681734A (zh) * 2018-05-28 2018-10-19 杭州电子科技大学 一种基于样本选择的图像相机来源鉴别方法
CN113344947A (zh) * 2021-06-01 2021-09-03 电子科技大学 一种超像素聚合分割方法
CN114092486A (zh) * 2021-10-11 2022-02-25 安庆师范大学 一种图像纹理背景自动分割方法及装置
CN114742876A (zh) * 2022-06-13 2022-07-12 菏泽市土地储备中心 一种土地视觉立体测量方法
CN116523810A (zh) * 2023-07-04 2023-08-01 深圳开立生物医疗科技股份有限公司 一种超声图像处理方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010014067A1 (en) * 2008-07-31 2010-02-04 Hewlett-Packard Development Company, L.P. Perceptual segmentation of images
CN102831600A (zh) * 2012-07-24 2012-12-19 长安大学 一种基于加权割合并的图像层次分割方法
CN102855633A (zh) * 2012-09-05 2013-01-02 山东大学 一种具有抗噪性的快速模糊聚类数字图像分割方法
CN103413307A (zh) * 2013-08-02 2013-11-27 北京理工大学 一种基于超图的图像共分割方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010014067A1 (en) * 2008-07-31 2010-02-04 Hewlett-Packard Development Company, L.P. Perceptual segmentation of images
US20120033875A1 (en) * 2008-07-31 2012-02-09 Ruth Bergman Preceptual segmentation of images
CN102831600A (zh) * 2012-07-24 2012-12-19 长安大学 一种基于加权割合并的图像层次分割方法
CN102855633A (zh) * 2012-09-05 2013-01-02 山东大学 一种具有抗噪性的快速模糊聚类数字图像分割方法
CN103413307A (zh) * 2013-08-02 2013-11-27 北京理工大学 一种基于超图的图像共分割方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105118049A (zh) * 2015-07-22 2015-12-02 东南大学 一种基于超像素聚类的图像分割方法
CN105335962A (zh) * 2015-08-31 2016-02-17 中国烟草总公司广东省公司 一种烟田采集图像分割方法
CN106067174A (zh) * 2016-05-30 2016-11-02 西安邮电大学 适用于低对比度含噪声图像的阈值化方法及装置
CN108681734A (zh) * 2018-05-28 2018-10-19 杭州电子科技大学 一种基于样本选择的图像相机来源鉴别方法
CN113344947A (zh) * 2021-06-01 2021-09-03 电子科技大学 一种超像素聚合分割方法
CN113344947B (zh) * 2021-06-01 2022-05-10 电子科技大学 一种超像素聚合分割方法
CN114092486A (zh) * 2021-10-11 2022-02-25 安庆师范大学 一种图像纹理背景自动分割方法及装置
CN114742876A (zh) * 2022-06-13 2022-07-12 菏泽市土地储备中心 一种土地视觉立体测量方法
CN116523810A (zh) * 2023-07-04 2023-08-01 深圳开立生物医疗科技股份有限公司 一种超声图像处理方法、装置、设备及介质
CN116523810B (zh) * 2023-07-04 2023-11-17 深圳开立生物医疗科技股份有限公司 一种超声图像处理方法、装置、设备及介质

Also Published As

Publication number Publication date
CN103871066B (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
CN103871066A (zh) 超声图像Ncut分割中相似度矩阵的构造方法
CN104657984B (zh) 三维超声乳腺全容积图像感兴趣区域的自动提取方法
CN108053417B (zh) 一种基于混合粗分割特征的3D U-Net网络的肺分割装置
CN104933711B (zh) 一种肿瘤病理图像自动快速分割方法
CN109191472A (zh) 基于改进U-Net网络的胸腺细胞图像分割方法
Li et al. A fully automatic computer-aided diagnosis system for hepatocellular carcinoma using convolutional neural networks
CN106462771A (zh) 一种3d图像的显著性检测方法
CN105844228A (zh) 一种基于卷积神经网络的遥感图像云检测方法
CN103778600B (zh) 图像处理系统
CN104299232B (zh) 一种基于自适应窗方向波域和改进fcm的sar图像分割方法
CN102129573A (zh) 基于字典学习和稀疏表示的sar图像分割方法
CN104835175A (zh) 一种基于视觉注意机制的核环境中目标检测方法
TWI624807B (zh) 醫學影像之迭代式分析法
CN102324045B (zh) 基于Radon变换和极谐波变换的不变矩目标识别方法
Palma et al. Detection of masses and architectural distortions in digital breast tomosynthesis images using fuzzy and a contrario approaches
CN104182755A (zh) 基于塔形pca的乳腺钼靶x线图像块特征提取方法
CN108053401A (zh) 一种b超图像处理方法及装置
CN103854265A (zh) 一种新的多聚焦图像融合技术
CN104050673B (zh) 一种基于K‑means图像分割的深度图提取方法
CN103914845A (zh) 基于主动轮廓模型的超声图像分割中获取初始轮廓的方法
CN104915961A (zh) 一种基于乳腺x线图像的肿块图像区域显示方法及系统
Fang et al. Supervoxel-based brain tumor segmentation with multimodal MRI images
CN102163343B (zh) 基于互联网图像的三维模型最佳视角自动获取方法
CN102509273B (zh) 基于同质片和模糊测度的乳腺超声图像的肿瘤分割方法
CN103679764A (zh) 一种图像生成方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160824

Termination date: 20200327