CN108765430A - 一种基于心脏ct图像和机器学习的心脏左腔区域分割方法 - Google Patents
一种基于心脏ct图像和机器学习的心脏左腔区域分割方法 Download PDFInfo
- Publication number
- CN108765430A CN108765430A CN201810510139.9A CN201810510139A CN108765430A CN 108765430 A CN108765430 A CN 108765430A CN 201810510139 A CN201810510139 A CN 201810510139A CN 108765430 A CN108765430 A CN 108765430A
- Authority
- CN
- China
- Prior art keywords
- small pieces
- left chamber
- image
- heart
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于心脏CT图像和机器学习的心脏左腔区域分割方法,主要思路是将图像分割和三维网格分割相结合,先通过基于阈值的图像分割将心脏CT图像初始分割,然后通过区域生长等算法得到心脏左腔区域,然后生成心脏左腔区域三维网格,将心脏左腔区域三维网格进行过分割成小片;通过有监督分类将心脏左腔区域三维网格分割成若干个心脏左腔区域亚结构网格;小片特征的选取和组合是本发明的一个创新点,其中,特征向量除了小片的局部特征外,还包含了小片的上下文特征,以及小片的空间信息。本发明不但适用于基于CT心脏图像的分割,帮助医生以对心脏特定的部位进行研究,而且在其他领域中也具有一定的应用价值。
Description
技术领域
本发明涉及图像分割技术领域,特别是一种基于心脏CT图像和机器学习的心脏左腔区域分割方法。
背景技术
由于CT图像具有信噪比较高、空间分辨率较高、成像速度较快、以及检查方便等优点,使得CT图像检查在心血管疾病的临床检查与诊断中非常普遍,占有非常重要的地位。CT图像对人体进行断层扫描,得到的每一幅图像是人体一个方向的一个切面。传统情况下,医生对CT图像进行诊断时,都是从二维的CT图像中观察和分析某个器官。由于心脏的解剖结构非常复杂,医生单纯从二维的CT断层图像中观察病变区域或者心脏的某一个特定的结构会非常不便。随着技术的革新和变迁,计算机辅助诊断技术也在不断的发展,从医学影像中分析得到有用的信息可以为医生提供很好的便利。将心脏CT图像三维重建后,医生通过观察三维图像,不再需要像从前那样通过连续的断层图像和空间想象能力去分析某个心脏特定结构,三维重建后的图像为医生能够直观地、细致地以及更加准确和便捷的地诊断疾病提供了便利。
要从CT影像数据中自动提取心脏结构信息,包括两个方面:一个心脏轮廓的提取,二是对心脏各亚结构的分离。左腔区域亚结构包括左心室、左心房、大血管、左心耳等,这些亚结构对于诊断心脏疾病有重要作用。从CT图像中提取心脏轮廓可以通过图像分割,而进一步分析得到亚结构需要通过三维网格分割。
图像分割在医学图像处理领域中是一项举足轻重的工作,它是为了让图像分割得到有意义的部分,从而方便后续的处理和图像分析。心脏是人体的重要器官,医学图像中关于心脏分割的研究也有很多。由于心脏的形态非常复杂,包含着多个腔室,以及周边特别繁多的血管,因此心脏三维图像分割具有独特的难度。相关研究已经成为了图像处理领域非常热门的方向,已经有非常多的研究人员投入到了这一方向的研究当中。尽管已经有了很多的心脏图像分割算法,但是它们中的很多都是半自动的,要有经验丰富的医生或经过训练的专门人员的干预才能完成分割,例如使用主动轮廓模型来做心脏分割的时候,需要事先确定轮廓线的初始位置。使用这样的算法时,如果需要处理的医学图像的数量很多,医生的工作量就会变得很大。而有一些算法需要借助很多通过手动分割的图像产生的形状模型或者灰度模型,这样的算法一方面计算方法很大,另一方面在有些情况下,并不能得到很好的分割效果。另外,每年产生大量的医学影像数据,使得大数据和机器学习的研究方法也运用到了心脏医学影像当中,然而适合处理大批量的心脏医学影像算法还不是很多。
另一方面,三维网格分割的工作也具有一定的挑战性。尽管已经有了很多网格分割算法,但是这些分割算法大多适用于非常理想化的网格模型,对现实中的实体模型的分割效果并不一定好。由于心脏形态结构的复杂性,心脏网格模型的分割更具有挑战性。目前,还有没有太多针对心脏网格模型进行分割的算法。将心脏网格模型分解成几个有意义的亚结构,可以为医生研究心脏的各个特定结构提供非常大的帮助,具有重要的意义和价值。
近年来,机器学习的研究越来越热门。将机器学习的算法和图像图形结合起来已经成为了热点研究问题。尽管已经有了一些使用机器学习的方法进行网格模型分割的算法,然而这些算法存在着很多不足,如需要大量的训练样本数据、训练分类器的时间很长、算法过于复杂等问题。因而,使用机器学习的算法对网格模型进行分割仍需要很多人去研究和改进。国内外关于心脏图像分割研究的算法有很多,它们各自有自己的优势和不足。刘杰等人提出的通过区域生长算法将心脏冠状动脉分割出来了。可变模型是由Kass等几个人提出的,通过内力外力的驱动来控制曲线的演化以达到分割图像的目的。心脏图像分割算法中有很多是基于可变模型的算法,常见有snake模型以及Chan-Vese模型等。在使用主动形状模型分割心脏图像时,先通过统计学方法求得手动分割好的好多幅图像轮廓的平均值来作为模板,然后用准备分割的图像与模板之间的差异来修改新的轮廓,逐渐逼近,最后得到分割结果。Nesrine Trabelsi等人的文章中使用主动形状模型分割得到了三维的肝脏区域。当然也有研究人员通过机器学习的方法对心脏CT图像进行了分割,如Majd Zreik等人使用卷积神经网络算法从心脏CT图像中分割得到了左心室,取得了很好的效果。
Larrey-Ruiz提出了一个从CT心脏扫描影像中自动分割心脏的方法。该方法依赖于基于统计局部和全局特征的多阈值、数学形态学、图像滤波等。但它也利用现有的先验知识,如心脏结构。在文献,心脏的初始定位是通过广义Hough变换实现的。进一步的位置计算是通过利用一个全球性的相似性变换来匹配完成的。然后通过仿射变换对心脏各解剖区域进行初始化。Zhu等人提出了一套左心室心肌自动分割系统,主要利用心脏的形状信息。该系统遵循一个粗到细的策略,通过首先定位左心室,然后通过可变形的左心室心肌表面进行细化分割。
传统的网格分割方法很多是基于聚类的,在聚类的过程中很多算法选取的网格模型的特征属性有测地线距离、网格中两个相邻三角面片之间的二面角以及凹凸性等。聚类的过程中就是先度量网格模型中的每个网格点与聚类中心的距离,通过数次的迭代,将网格点划分到与自己距离最近的聚类中心中。在迭代的过程中,可以根据某些特定的准则更新聚类中心点。
在Shymon Shlafman的文章中,先将网格模型抽象为一个对偶图,而相邻两个三角面之间的权值通过包含凹凸性和测地线距离的一个公式来定义,最后用kmeans算法进行迭代聚类。Hitoshi Yamauchi等人的文章中通过将网格模型中的法线使用mean shift算法进行聚类,其中距离是通过法线之间的欧氏距离来定义的,之后还使用了Yutaka Ohtake等人文中的滤波器对网格进行了平滑,平滑后使得算法能够不受噪声的影响。
区域生长算法在早期的网格分割方法中也很常用,通过使用不同的网格特征属性以及不同的生长合并准则产生多种不同的方法。例如在D.L.Page等人的文章中使用了两种类型的网格模型曲率特征,然后用区域生长算法分割网格模型。
网格分割将三维网格数据按照一定的标准分离成部件或曲面片,为以后的压缩、识别、检索、分类等提供基础。在三维网格模型的分割算法中,谱分析是一种应用非常多的方法,因为这种算法能够通过网格模型中局部的关系来提高网格的全局属性。网格模型的谱聚类分割算法中,通常都是先基于网格模型的局部几何特性构造一个用来度量网格点的相似性的矩阵,然后求得相似矩阵的特征值和特征向量,最后基于kmeans算法求得最终的网格聚类结果。通过谱聚类算法对网格模型进行分割的算法流程基本上都相差不大,算法之间的区别主要在于相似性的度量以及基于网格点还是基于小片。在Rong Liu等人的文章中,通过角度、曲率以及凹凸性来构造相似矩阵,最后用谱聚类得到分割结果。
Lior Shapira等人提出的基于网格点SDF(Shape Diameter Function)特征属性运用高斯混合模型和graph cut算法对网格模型进行了分割,这种算法在普林斯顿大学提供的数据集合中效果很好。如果某个网格模型的SDF特征值直方图与高斯函数特别相似,采用这种算法能够取得非常理想的效果,而很多现实生活中的三维网格模型的特征值直方图分布不太确定,因而这种方法有一定的局限性。
近年来,机器学习的算法也开始运用到网格模型分割的研究领域了,常用的有无监督的学习算法和有监督的学习算法,无监督的算法由于在网格模型的分割过程中不需要大量的训练样本而使其简单。上文中Lior Shapira等人的算法就是无监督的学习算法。
在Kalogerakis等人提出使用CRF(Conditional Random Field)条件随机场来对网格进行分割,并且取得了非常不错的效果,通过很多特征来构造条件随机场的一元能量项和二元能量项,然后用到了jointboost来选择合适的特征,最后通过graph cut算法最小化两个能量项,得到最终结果。这篇文章中的算法是有监督的学习方法,是基于网格点进行分类的,训练分类器的时间会比较长。
在无监督的学习算法中,很多研究人员通过在几个相似的网格模型中寻找关联性来达到分割网格的目的,这样的网格模型分割方法被称为协同分割方法。例如南洋理工大学Meng等人先将几个相似的网格模型过分割产生小片,然后通过小片与小片之间的相似性构造相似矩阵,接着用normalized cut算法进行初始协同分割,最后通过graph cut算法优化迭代得到结果,取得了很好的效果。
Xie等人提出的通过一系列的网格模型特征,训练极限学习机来对网隔模型进行分类,取得了很好的效果;在Kan Guo等人提出的选取一系列网格的特征向量,然后将这些特征按照一定的顺序排列成一个特征矩阵,特征矩阵与网格模型的网格点一一对应,将特征矩阵作为卷积神经网络的输入,通过卷积神经网络对网格模型进行了分类,上述这两种方法都是基于网格点进行分类的。
综述,现有基于图像分割的心脏提取分为两大类。一类算法是半自动的。使用这些算法的软件系统,要有经验丰富以及经过训练的医生的干预才能完成分割,使用这样的算法时,如果需要处理的医学图像的数量很多,医生的工作量就会变得很大。而有一些算法需要借助很多通过人手动分割的图像产生的形状模型或者灰度模型,这样的算法一方面计算方法很大,另一方面在有些情况下,并不能得到很好的分割效果。另一类是全自动算法。这类算法的缺陷是需要不少关于心脏的先验几何结构信息,而且算法比较复杂。
发明内容
本发明的目的是要提供一种相对比较简单有效的算法,是将图像分割和三维网格分割结合,从三维CT心脏图像中自动提取心脏左腔区域亚结构。心脏左腔区域亚结构包括左心室、左心房、大血管、左心耳等。
为达到上述目的,本发明是按照以下技术方案实施的:
一种基于心脏CT图像和机器学习的心脏左腔区域分割方法,包括以下步骤:
步骤一、利用基于阈值的图像分割算法将心脏CT图像进行分割,得到图像中含氧血流的区域,这包括左腔区域;
步骤二、通过区域生长算法在步骤一的结果中进行三维区域生长,得到心脏左腔图像分割结果,然后从这个结果中生成心脏左腔区域表面的三维网格;
步骤三、将心脏左腔区域三维网格进行过分割生成小片;
步骤四、对心脏左腔亚结构小片进行训练;
步骤五、对心脏左腔亚结构小片进行特征计算;
步骤六、利用基于有监督的分类将心脏左腔区域三维网格分割成若干个心脏左腔区域亚结构网格。
需要指出的是,步骤四是为步骤六中有监督分类的模型训练模型参数的。训练完后,实际分类不需要步骤四。
具体地,所述步骤一中,通过混合高斯函数拟合心脏CT图像的灰度直方图,得到分割阈值,然后对心脏CT图像进行分割,所用拟合函数的形式为:其中,a1、b1、c1分别表示第一个高斯函数的、均值以及方差的大小,另外7个高斯函数中a、b、c的含义与第一个高斯函数中参数的含义相同;最右侧的高斯函数和右侧第二个高斯函数之间的波谷的点对应的横坐标值就是我们要求的分割阈值;利用得到阈值对输入CT心脏三维图像进行阈值分割。
具体地,所述步骤二中,通过区域生长算法在步骤一的结果中进行三维区域生长,得到心脏左腔图像分割结果,然后抽取分割结果的表面生成心脏左腔区域三维网格。
具体地,所述步骤三中,使用基于蚁群优化的网格分割方法将心脏左腔区域三维网格进行过分割成若干小片。
具体地,所述步骤四中,利用交互工具对步骤三产生的小片人工进行标记,得到每个小片的正确分类标号。
具体地,所述步骤五中,选取每个小片中网格点的四个特征属性(AGD,SIHKS,SDF,GC)的直方图作为小片的局部特征。由于小片的邻域信息对于小片的识别可以起到辅助作用,本发明又添加了小片的上下文信息。对于心脏网格模型,左心室区域中包含的小片和左心耳区域包含的小片的四个特征属性的直方图分布非常相似,但是它们的空间位置不同,因而在识别的过程中,本发明添加了小片的空间信息。小片的局部特征、上下文信息和空间信息一起构建小片的输入特征向量。
具体地,所述步骤六中,使用有监督分类方法对小片进行分类有两个阶段:模型训练学习、模型的应用。模型训练学习就是对训练样本通过步骤一、二、三得到训练样本的小片,然后计算小片的局部特征、上下文信息和空间信息来构建输入特征向量。结合步骤四得到的小片的分类信息对有监督分类模型进行训练,得到模型参数。模型的应用就是对测试样本通过步骤一、二、三得到测试样本的小片,然后计算小片的局部特征、上下文信息和空间信息来构建输入特征向量。然后利用训练好的有监督分类模型对测试样本的小片进行分类。分类的结果就是小片的分类。这样,心脏三维网格的每个网格点都得到了分类,这也就是心脏左腔区域亚结构。
与现有技术相比,本发明采用了有监督学习的方法对心脏左腔区域三维网格进行分割,取得了很好的效果。我们使用有监督学习,对心脏网格过分割得到的小片进行训练和识别。小片特征的选取和组合是本实施例的创新点,其中,特征向量除了小片局部属性特征外,还包含了小片的上下文特征,以及小片的空间信息。本发明中三维网格分割方法不仅适用于通过心脏CT图像得到的心脏三维网格分割,也适合于类似应用的三维网格分割。
附图说明
图1为本发明的网格分割流程图。
图2为本发明实施例的心脏CT图像灰度直方图的拟合曲线图。
图3为本发明实施例的心脏CT图像进行阈值分割得到的分割结果的多幅图像。
图4为本发明实施例的阈值分割后重建得到的三维图像。
图5为本发明实施例的区域生长后的心脏左腔区域,(a)为区域生长后的心脏左腔三维图像,(b)为心脏左腔区域三维网格正视图,(c)为心脏左腔区域三维网格左视图,(d)心脏左腔区域三维网格右视图。
图6为本发明实施例的心脏左腔区域三维网格模型图。
图7为本发明实施例的心脏网格的高斯曲率特征效果示例,(a)左视图,(b)右视图。
图8为本发明实施例的心脏网格的尺度不变的热核特征效果示例,(a)左视图,(b)右视图。
图9为本发明实施例的心脏网格的形状直径函数特征计算示意图。
图10为本发明实施例的心脏网格的形状直径函数特征效果示例图,(a)左视图,(b)右视图。
图11为本发明实施例的心脏网格的平均测地线距离特征效果示例图,(a)左视图,(b)右视图。
图12为本发明实施例的画笔标记左心室边界。
图13为本发明实施例的matlab中标记左心室边界,(a)用两种颜色标记心脏网格,(b)用三种颜色标记心脏网格。
图14为本发明实施例的matlab中再次标记左心室边界,(a)用两种颜色标记心脏网格,(b)心脏网格中的一个小片。
图15为本发明实施例的左心室参考标准(ground truth)结果示意图,(a)正视图,(b)仰视图。
图16为本发明实施例的心脏左腔参考标准(ground truth)结果示意图。
图17为本发明实施例的左心房局部特征示例,第15个小片的局部特征,(b)第20个小片的局部特征。
图18为本发明实施例的大血管局部特征示例,(a)第7个小片的局部特征,(b)第14个小片的局部特征。
图19为本发明实施例的肺静脉上下文特征示例,(a)第98个小片的上下文特征,(b)第99个小片的上下文特征。
图20为本发明实施例的大血管上下文特征示例,(a)第7个小片的上下文特征,(b)第14个小片的上下文特征。
图21为本发明实施例的肺静脉空间信息示例,(a)第2个小片的空间信息,(b)第3个小片的空间信息。
图22为本发明实施例的左心房空间信息示例,(a)第15个小片的空间信息,(b)第20个小片的空间信息。
图23为BP(back propagation)神经网络结构示意图。
图24为本发明实施例的基于有监督分类的心脏左腔区域网格分割结果,(a)左视图,(b)右视图。
具体实施方式
下面结合具体实施例对本发明作进一步描述,但并不作为对本发明的限定。
本发明的一种基于心脏CT图像和机器学习的心脏左腔区域分割方法,包括以下步骤:
步骤一、利用基于阈值的图像分割算法将心脏CT图像进行分割,得到图像中含氧血流的区域,这包括左腔区域;
步骤二、通过区域生长算法在步骤一的结果中进行三维区域生长,得到心脏左腔图像分割结果,然后从这个结果中生成心脏左腔区域表面的三维网格;
步骤三、将心脏左腔区域三维网格进行过分割生成小片;
步骤四、对心脏左腔亚结构小片进行训练;
步骤五、对心脏左腔亚结构小片进行特征计算;
步骤六、利用基于有监督分类将心脏左腔区域三维网格分割成若干个心脏左腔区域亚结构网格。
其中,图1为网格分割的总体流程,即步骤三、四、五、六的流程图。
具体实施例为:
步骤一:基于阈值的图像分割的内容如下。
在对心脏CT图像进行三维图像分割的过程中,由于动脉血即含氧血流经心脏的整个左腔区域,左腔区域在图像中亮度较高,本实施例通过混合高斯函数拟合心脏CT图像的灰度直方图,得到分割阈值对心脏CT图像进行分割。
本实施例中使用的高斯函数的形式如式子(1)所示。
其中,a1、b1、c1分别表示第一个高斯函数的、均值以及方差的大小,另个7个高斯函数中a、b、c的含义与第一个高斯函数中参数的含义相同。
上面的式子中使用了8个高斯函数对数据进行拟合,关键的参数有a、b、c三个。进行混合高斯拟合后得到的曲线图像如图2示例。
心脏CT图像中亮度最高的区域在直方图分布上对应于最右侧的一个高斯波形。因而最右侧的波形和右侧第二个波形之间的波谷的点对应的横坐标值就是我们要求的分割阈值。利用得到的阈值对输入CT心脏三维图像进行阈值分割,得到图像中含氧血流的区域,这包括左腔区域。
图3是分割结果的示例。将多幅分割得到的左腔图像叠加起来,导入paraview软件中得到心脏左腔的三维图像如图4示例。可以看到已经分割得到了心脏的左腔区域,但分割结果中还存在一些多余的解剖区域,如胸骨、脊柱、下腔静脉等,还有一些多余的血管,仍需要进一步的处理。
进一步,步骤二:通过区域生长算法在步骤一的结果中进行三维区域生长,得到心脏左腔区域图像分割结果,然后从这个结果中生成心脏左腔区域表面的三维网格,内容如下.
由于动脉血流经心脏整个左腔区域,因此心脏的整个左腔区域在空间上是连通的,而且脊柱、下腔静脉、以及心脏周围的一些血管在解剖学上与心脏的左腔区域是不相连的,因此可以通过连通性对阈值分割后的图像进行处理。
区域生长算法是一种很常见的图像处理方法,为了实现自动化,区域生长算法的种子点可选在大动脉图像的圆圈的中心,而大动脉图像圆圈可以通过Hough变换检测得到。
将区域生长后的三维图像在paraview软件中的显示结果如图5中的(a)示例,然后抽取三维体数据的表面,生成了三维网格,如图5中的(b)、(c)、(d)所示的各个视角的效果图。
进一步,步骤三:小片过分割的内容如下
在分割的初期,如果可以将三维网格分割成小片,类似于图像分割中的超像素,就可以使后续的进一步分割过程更加简便。三维网格的过分割通过蚁群优化算法完成。
在描述过分割之前,我们把本发明要用到的几个三维网格特征描述一下。
三维网格模型是通过网格点和包含网格点的三角面片组成的,如图6中,心脏网格模型由很多包含网格点的三角面片组成。一个网格模型的数据结构中通常会包括网格点的空间三维坐标值和组成三角面片的网格点编号索引。
很多三维网格的网格分割算法都是基于网格模型的特征值的,随着三维网格分割研究的发展,涌现出多种特征描述方法。
高斯曲率(Gaussian curvature)
在三维网格模型的分割过程中,高斯曲率(Gaussian curvature)特征是一个很常用的特征,它可以用来反映曲面的弯曲程度,不同的区域部分通过高斯曲率可以进行一定的区分。在网格模型中的某个网格点上使得这一点的曲率达到最大的值,就是这一点对应的极大曲率;而与极大曲率面互相垂直的曲率被称为极小曲率;上述中极大曲率和极小曲率的乘积就是这个网格点对应的高斯曲率(Gaussiancurvature),用K表示,如式子(2)所示。
K=K1·K2 (2)
其中,K1表示网格点的极大曲率,而K2表示网格点的极小曲率。
图7中(a)和(b)是心脏网格模型的高斯曲率特征值的效果图,红色表示特征值的最大值,蓝色表示特征值的最小值,从冷色调到暖色调的变化过程表示特征值逐级增大的过程。
尺度不变的热核特征(Scale-invariant heat kernel signatures)
热核特征属于谱形状分析方法。对于形状中的每个点,HKS(Heat kernelsignatures)定义其特征向量,表示该点的几何特性。例如YiFang等人提出的通过热核特征(heat kernelsignatures)进行网格分割算法的研究,取得了很好的效果,很多网格分割算法中都用到了这个特征。
由于尺度不变的热核特征(scale-invariant heat kernel signatures)是一个与时间有关的特征,为了方便的使用它,本实施例中的尺度不变的热核特征(scale-invariant heat kernel signatures)取的是t=1时刻的值,我们简称它为SIHKS特征。图8中(a)和(b)是心脏三维网格的尺度不变的热核特征(SIHKS)的效果示意图,红色表示特征值的最大值,蓝色表示特征值的最小值,图中从冷色调到暖色调的变化表示特征值逐渐增大。
形状直径函数(shape diameter function)
形状直径函数这一特征将三维模型的体积特性映射到了网格表面上,它体现了网格模型中网格点的局部直径。在求解形状直径函数特征值的过程中,先以网格点为顶点做一个圆锥体,圆锥体的射线与网格模型相交,最后求网格内部这些射线在一定标准内的平均值,这样就得到了这个网格点的形状直径函数(shape diameter function)的值,我们简称这个特征为SDF特征。如图9中所示,在心脏网格模型中大血管处的网格点v做一个圆锥体,引出了很多黑色的射线,这些射线与心脏网格模型相交后得到的线段的长度值相对来说都很大,因而位于大血管处的网格点v的SDF特征值很大。
图10中(a)和(b)是心脏网格模型的形状直径函数特征值的一个效果图,红色表示特征值较大,蓝色表示特征值较小。可以看到这个网格特征对于和圆柱体近似的区域有着非常好的度量。
平均测地线距离(average geodesic distance)
在三维网格模型的曲面上,我们用测地线距离(geodesic distance)来度量两个网格点之间的最短距离,它有一些性质,如测地曲率为零,在局部位置上是最短的,是一种基于表面度量的网格属性特征。
而平均测地线距离(average geodesic distance)具有比测地线距离(geodesicdistance)更好的形状特点,反映了三维网格模型本质的特定属性。在计算每个网格点平均测地线距离的过程中,先计算一个网格点到其他所有网格点的测地线距离,然后求得这些测地线距离的平均值,就得到了这个网格点所对应的平均测地线距离。图11中(a)和(b)是心脏网格模型的平均测地线距离特征值的一个效果图。测地线距离的计算相当耗费时间,随着研究的深入,已经出现了一些加速计算或者近似计算测地线距离的方法。
进一步,步骤三中蚁群优化算法分割完成小片过分割过程.
蚁群优化算法分割算法详细描述在专利申请201611247939.3,下面是摘要。
在使用蚁群算法分割心脏网格的过程中,我们将心脏网格模型中的网格点当作蚁群算法中的蚂蚁,将每一个网格点划分到不同的类别中,即赋予不同的类别号。假如W是类别号的集合,n是其中的一个元素,n的值从1到q。在蚁群优化算法的迭代过程中,每个蚂蚁当前的类别号m对应的转移概率设为p(m),并且按照下面式子(5)定义:
其中τ(m)表示当前蚂蚁的类别号m所对应的残留信息浓度,η(m)表示类别号m所对应的启发信息。另外在式(5)还有两个参数α和β,用来控制残留信息浓度和启发信息的影响,当α=0时,只有启发信息被考虑;相反,当β=0时,只受到残留信息浓度的影响。
蚁群算法每一次迭代过程中,每个蚂蚁都要从W集合中选取一个类别号m,使得这个类别号对应的转移概率p(m)达到最大。在最开始时,将心脏网格模型的所有网格点赋予的类别号为0,然后在心脏网格模型上随机的选取几个网格点,如t个网格点,相当于区域生长算法中的种子点,从W集合中选取t个不同的值作为这t个网格点的类别号,这t个网格点的相邻网格点的类别号分别与这t个网格点的类别号相同。
当前蚂蚁的启发信息η(m),是通过所有与它相邻并且类别号为m的蚂蚁即网格点所对应特征值的标准差构造的,随着迭代过程的进行,当前蚂蚁的邻域蚂蚁的类别号在更新,启发信息的值也在更新。
当前蚂蚁残留信息浓度τ(m)的计算通过两个部分的和得到,一部分将上一次这个蚂蚁的残留信息浓度乘以一个系数,另一部分通过当前蚂蚁的邻域蚂蚁中达到一定条件的蚂蚁的残留信息浓度的均值计算得到。下面对需要达到的条件进行介绍。假如当前蚂蚁的类别号是k,它的邻域蚂蚁中包含类别号为j的蚂蚁,如果当前蚂蚁邻域中类别号为k和j的所有蚂蚁即网格点所对应的特征值的标准差小于一定的阈值,计算得到邻域中所有类别号为k的网格点对应特征值的均值,以及邻域中所有类别号为j的网格点对应特征值的均值,如果这两个均值的偏差小于一定的阈值,那么当前蚂蚁的邻域中类别号为j的蚂蚁就满足上述提到的条件,可以用这些蚂蚁的残留信息浓度的均值来更新当前蚂蚁的残留信息浓度。
随着蚁群优化算法迭代过程的进行,蚂蚁残留信息的浓度在更新,每一次迭代后,每个蚂蚁从类别号集合W中选取一个使得自己的转移概率达到最大的类别号,如果选中的类别号与当前的类别号相同,类别号不更新。当蚂蚁的类别号不再更新,或者已经达到了最大的迭代次数,迭代过程停止,蚁群优化算法结束,就得到了心脏网格的过分割结果。
进一步,步骤四:心脏亚结构小片训练
为了使用有监督的机器学习算法,需要对步骤三生成的小片进行手动标记。
利用一个图形标记软件,如meshlab软件,使用画笔将位于不同类别语义区域的分界线处的小片染成黑色,颜色对应数值为0,如果要对左心室区域进行标记,把位于左心室和左心房的分界线的小片染成黑色,标记后的效果如图12所示。因为在最初过分割后生成的小片的标号从1开始,所以通过搜索颜色为0的点就可以确定位于分界线上的这些小片,将这些小片标记深蓝色,其他小片标记为红色,同时记录标记为深蓝色小片的标号,得到集合M,如图13a所示。
通过区域生长算法将图13a图中颜色一致的连通小片标记为同一种颜色,这样网格中的小片共有三种类型的标签,浅蓝色、深蓝色和黄色,如上面图13b所示。将这幅图中的深蓝色区域和黄色区域的小片用红色标记,得到如下图14a图所示的结果。为了查看M集合中每个小片的具体位置,逐一将M集合中的小片标记为红色,其他小片标记为蓝色,如下图14b图显示了第33个小片的效果图,这一个小片并没有位于左心室区域,将图14b中33号小片标记为浅蓝色。如果M集合中的小片位于左心室区域内,仍将其标记为红色。逐次处理过M集合的小片后,就可以将整个左心室区域标记为红色,而其他区域的小片标记为浅蓝色。左心室标记后的效果图如图15中(a)和(b)所示。
用同样的方法可以将心脏的左心房、大血管、肺静脉、左心耳和冠状动脉这节区域标记出来,心脏参考标准(ground truth)效果图如图16所示,图中各个区域对应的类别如下面的表1所示。
表1心脏左腔参考标准(ground truth)中各区域对应类别
进一步,步骤五:对心脏左腔亚结构小片进行特征计算
特征的选取是机器学习算法的关键,样本的特征向量用于区别它到底属于哪个类,决定了分类器的效果。平均测地线距离(AGD)、尺度不变的热核特征(SIHKS)、形状直径函数(SDF)和高斯曲率(GC)这些特征都是基于每一个网格点的,是局部特征。本发明训练和识别都是基于小片进行,特征向量的选取应该充分的考虑到小片中网格点特征值的统计特性。在图像处理中,直方图是一种重要的统计特征,可以选取直方图这一统计特征作为有监督分类中输入特征向量的一部分。
图像处理算法中通常会提取某个点周围的一个小矩形中所有像素点的特征作为这个点的特征。受到图像处理中邻域信息的启发,本实施例在网格分割中也用到了小片的邻域信息,即上下文特征,实验结果显示上下文特征能够很好的提高分割的效果。
使用了上述的局部特征和上下文特征后,经过大量的实验验证,本实施例的分割算法已经取得了不错的效果。但是发现仍有不足,例如心脏的左心耳区域和心脏左心室区域的很多特征非常相似,在使用了上述特征后仍然无法很好的对左心耳和左心室进行分类。由于左心耳与左心室所处的空间位置不同,如果在特征向量中添加了每个小片的空间位置信息,就会很好的将属于这两个区域的小片区分出来。
综上所述,本实施例算法的特征向量主要包含了三方面的信息,即每个小片中局部特征、小片的上下文特征和小片的空间位置信息。下面将从这三个方面对特征向量的组成进行全面的阐释。
A)小片局部特征
属于不同类别的小片中,其网格点的特征值大小的分布不同,例如,属于心脏冠状动脉的小片每个网格点的形状直径函数(SDF)值都很小,而属于心脏左心房的小片网格点的形状直径函数(SDF)值都很大。
考虑到每个小片所包含的网格点数并不相同,在做直方图统计的时候,我们需要度量的是分布在不同区间特征值的相对多少,因此,本实施例对直方图做了进一步的处理。首先统计每个小片所有网格点对应的特征值的直方图,然后选取直方图中的最大值,让原来的直方图除以这个最大值,这样就得到了各个数值区间上网格点分布的相对大小,可以很好的区分属于不同类别的小片。
图17中(a)是属于左心房小片的局部特征示例,包括4个特征值的直方图(AGD,SIHKS,SDF,GC)。每个特征值的直方图有100个bin,总共400个bin,从左往右依次为AGD、SIHKS、SDF、GC。因此,图17中(a)是4个特征直方图的总图。图17中(b)是另外一个小片的局部特征示例。
图18中(a)和(b)分别是属于大血管两个小片的局部特征值图示例。
B)小片上下文特征
将一个网格分割为几个部分,有的小片应该分到的类与周围的几个小片的类相同,而有的小片应该分到的类与周围的几个小片的类不同,上下文信息也就是小片的邻域信息也是一个区分小片所属类别的重要特征。
三维网格模型的数据结构中有两部分,一部分是网格点的三维坐标,另一部分是三个点所组成一个三角面片的索引,根据这个信息可以得到每个网格点与它相邻的网格点。
可以发现有的小片有1个相邻小片,而有的小片有多个相邻的小片。由于分类器的特征向量的维度是确定的,本发明使用相邻小片的数量设为Nadj。对于邻接小片大于Nadj个的小片选取包含网格点数最多的Nadj个小片作为提取特征向量的小片;对于邻接小片小于Nadj个的小片选取所有的邻接小片作为提取特征向量的小片,邻接小片的个数与Nadj相差几个就从它的邻接小片中选择几个包含网格点数最多的小片作为补充。
在得到每个小片的Nadj个邻接小片后,分别计算这个Nadj个邻接小片平均测地线距离(AGD)、尺度不变的热核特征(SIHIS)、形状直径函数(SDF)、和高斯曲率(GC)这4个特征的直方图分布。如果Nadj为4,每个直方图取25个bin,这样每个小片就会对应一个100维的特征,四个邻接小片共有400个特征,与之前的400个特征组合成一个800维的特征向量。
图19中(a)和(b)分别是属于肺静脉的两个小片的上下文特征示意图。
图20中(a)和(b)分别是属于大血管的两个小片的上下文特征示意图。
C)小片空间信息
由于网格的大小不一样,不同的网格的坐标值的范围不尽相同。在使用有监督分类方法对网格的小片进行识别时,无法准确的表示各个区域的空间位置。由于在进行识别的过程中,我们更多的需要关注小片中网格点的相对位置,而不是网格点坐标的具体数值,我们在特征提取是需要对网格点的坐标值进行归一化处理,这样才能准确的识别出不同区域的小片所处的空间位置。
首先需要计算网格模型中每个网格点x、y和z坐标的最大值xmax、ymax和zmax,以及最小值xmin、ymin和zmin。然后将每个网格点的坐标归一化,如网格点的x坐标值按如下式子(6)归一化。
网格点的坐标值归一化处理后,计算每个小片中网格点x坐标值的直方图分布,直方图包含100个bin,使用同样的方法求网格点y坐标值和z坐标值的直方图分布,将x、y和z的直方图分布组成一个300维的特征向量。
图21中(a)和(b)分别是属于肺静脉的两个小片的空间信息x,y,z的直方图示意图。
图22中(a)和(b)分别是属于左心房的两个小片空间信息x,y,z的直方图示意图。
进一步,步骤六:利用基于有监督分类方法对过分割得到的小片进行分类
本实施例中的有监督分类方法通过BP(back propagation)神经网络实现(如图23所示)。BP神经网络是一种目前在各个领域中广泛使用的神经网络模型,它的理论模型已经相当成熟。它由三层感知器组成,是一种前馈神经网络。在数学上已经得到证明,三层网络模型可以对任何复杂的函数类型实现映射关系,解决分类问题。在深度学习的理论中,我们知道神经网络中的层数越多,对函数逼近和拟合的效果越好。在本实施例的算法中,选取三层网络进行训练和识别,相对于多层网络可以节约很多时间,适合于网格模型的分割处理。
本实施例中首先选取了每个小片中网格点的四个特征属性(AGD,SIHKS,SDF,GC)的直方图分布作为小片的局部特征。由于小片的邻域信息对于小片的识别可以起到辅助作用,本发明又添加了小片的上下文信息。对于心脏网格模型,左心室区域中包含的小片和左心耳区域包含的小片的四个特征属性的直方图分布非常相似,但是它们的空间位置不同,因而在识别的过程中,本发明添加了小片的空间信息。有监督的学习方法因为使用了很多的信息,在对网格的分割效果上优于无监督的学习方法。每个小片的局部特征、上下文特征和空间信息一起构成了BP神经网络的输入特征向量。
使用BP神经网络有两个阶段:模型训练学习、模型的应用。模型训练学习就是对训练样本通过步骤一、二、三得到训练样本的小片,然后计算小片的局部特征、上下文特征和空间信息来构建输入特征向量。结合步骤四得到的小片的分类信息对BP神经网络进行训练,得到BP神经网络的模型参数。
模型的应用就是对测试样本通过步骤一、二、三得到测试样本的小片,然后计算小片的局部特征、上下文特征和空间信息来构建输入特征向量。然后利用训练好的BP神经网络对测试样本的小片进行分类。分类的结果就是小片的分类。心脏三维网格的每个网格点都得到了分类,这也就是心脏左腔区域亚结构。
如图24中(a)和(b)所示的是本发明得到心脏左腔区域亚结构的分割结果。
本发明的技术方案不限于上述具体实施例的限制,凡是根据本发明的技术方案做出的技术变形,均落入本发明的保护范围之内。
Claims (7)
1.一种基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于,包括以下步骤:
步骤一、利用基于阈值的图像分割算法将心脏CT图像进行分割,得到图像中含氧血流的区域,这包括左腔区域;
步骤二、通过区域生长算法在步骤一的结果中进行三维区域生长,得到心脏左腔图像分割结果,然后从这个结果中生成心脏左腔区域表面的三维网格;
步骤三、将心脏左腔区域三维网格进行过分割生成小片;
步骤四、对心脏左腔亚结构小片进行训练;
步骤五、对心脏左腔亚结构小片进行特征计算;
步骤六、利用基于有监督分类将心脏左腔区域三维网格分割成若干个心脏左腔区域亚结构网格。
2.根据权利要求1所述的基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于:所述步骤一中,通过混合高斯函数拟合心脏CT图像的灰度直方图,得到分割阈值对心脏CT图像进行分割,所用拟合函数的形式为:其中,a1、b1、c1分别表示第一个高斯函数的、均值以及方差的大小,另外7个高斯函数中a、b、c的含义与第一个高斯函数中参数的含义相同。
3.根据权利要求2所述的基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于:所述步骤二中,通过区域生长算法在步骤一的结果中进行三维区域生长,得到心脏左腔图像分割结果,然后抽取分割结果的表面生成心脏左腔区域三维网格。
4.根据权利要求3所述的基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于:所述步骤三中,使用基于蚁群优化的网格分割方法将心脏左腔区域三维网格进行过分割成若干小片。
5.根据权利要求4所述的基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于:所述步骤四中,利用交互工具对步骤三产生的小片人工进行标记,得到每个小片的分类标号。
6.根据权利要求5所述的基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于:所述步骤五中,选取每个小片中网格点的局部特征,包括但不限于四个特征属性即平均测地线距离、尺度不变的热核特征、形状直径函数、高斯曲率的直方图作为小片的局部特征;由于小片的邻域信息对于小片的识别可以起到辅助作用,添加小片的上下文特征,上下文特征包括但不限于相邻小片的局部特征;小片空间信息包括但不限于小片中网格点三维坐标值的直方图;小片的局部特征、上下文特征和空间信息一起构建小片的输入特征向量。
7.根据权利要求6所述的基于心脏CT图像和机器学习的心脏左腔区域分割方法,其特征在于:所述步骤六中,使用有监督分类方法对小片进行分类有两个阶段:模型训练学习、模型的应用;模型训练学习是对训练样本通过步骤一、二、三得到训练样本的小片,然后计算小片的局部特征、上下文特征和空间信息来构建输入特征向量,结合步骤四得到的小片的分类信息对有监督分类模型进行训练,得到模型参数,模型的应用是对测试样本通过步骤一、二、三得到测试样本的小片,然后计算小片的局部特征、上下文特征和空间信息来构建输入特征向量;然后利用训练好的有监督分类模型对测试样本的小片进行分类,分类的结果就是小片的分类;心脏三维网格的每个网格点都得到了分类,这也就是心脏左腔区域亚结构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510139.9A CN108765430B (zh) | 2018-05-24 | 2018-05-24 | 一种基于心脏ct图像和机器学习的心脏左腔区域分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510139.9A CN108765430B (zh) | 2018-05-24 | 2018-05-24 | 一种基于心脏ct图像和机器学习的心脏左腔区域分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108765430A true CN108765430A (zh) | 2018-11-06 |
CN108765430B CN108765430B (zh) | 2022-04-08 |
Family
ID=64006113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810510139.9A Active CN108765430B (zh) | 2018-05-24 | 2018-05-24 | 一种基于心脏ct图像和机器学习的心脏左腔区域分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108765430B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109394269A (zh) * | 2018-12-08 | 2019-03-01 | 余姚市华耀工具科技有限公司 | 心脏目标高亮显示平台 |
CN109583444A (zh) * | 2018-11-22 | 2019-04-05 | 博志生物科技有限公司 | 空洞区域定位方法、装置及计算机可读存储介质 |
CN109785296A (zh) * | 2018-12-25 | 2019-05-21 | 西安电子科技大学 | 一种基于cta图像的三维球形指数测定方法 |
CN110298400A (zh) * | 2019-06-28 | 2019-10-01 | 北京奇艺世纪科技有限公司 | 一种图像分类方法、装置、设备及存储介质 |
CN110349149A (zh) * | 2019-07-12 | 2019-10-18 | 广东省人民医院(广东省医学科学院) | 基于深度神经网络和形态相似度的先心病分类系统及方法 |
CN110415246A (zh) * | 2019-08-06 | 2019-11-05 | 东北大学 | 一种腹部脂肪成分的分析方法 |
CN110738644A (zh) * | 2019-10-10 | 2020-01-31 | 清华大学 | 一种基于深度学习的汽车涂装表面缺陷检测方法及系统 |
CN111199674A (zh) * | 2020-01-21 | 2020-05-26 | 珠海赛纳三维科技有限公司 | 心脏模型、心脏模型的三维打印方法及系统 |
CN111598838A (zh) * | 2020-04-22 | 2020-08-28 | 中南民族大学 | 心脏mr图像自动分割方法、装置、电子设备和存储介质 |
CN112150477A (zh) * | 2019-11-15 | 2020-12-29 | 复旦大学 | 脑影像动脉全自动分割方法及装置 |
CN112446867A (zh) * | 2020-11-25 | 2021-03-05 | 上海联影医疗科技股份有限公司 | 血流参数的确定方法、装置、设备及存储介质 |
CN113506270A (zh) * | 2021-07-13 | 2021-10-15 | 北京建筑大学 | 一种处理下腔静脉图像的方法、系统及存储介质 |
CN113903233A (zh) * | 2021-10-26 | 2022-01-07 | 暨南大学 | 心脏模型的模拟手术指导方法、装置、设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030086603A1 (en) * | 2001-09-07 | 2003-05-08 | Distortion Graphics, Inc. | System and method for transforming graphical images |
US20070291032A1 (en) * | 2006-06-19 | 2007-12-20 | Fujitsu Limited | Image process apparatus for three-dimensional model |
CN103180878A (zh) * | 2010-10-25 | 2013-06-26 | 皇家飞利浦电子股份有限公司 | 用于医学图像的分割的系统 |
CN103700088A (zh) * | 2013-12-01 | 2014-04-02 | 北京航空航天大学 | 一种基于可变形图结构表示的图像集无监督共分割方法 |
CN106296653A (zh) * | 2016-07-25 | 2017-01-04 | 浙江大学 | 基于半监督学习的脑部ct图像出血区域分割方法及系统 |
-
2018
- 2018-05-24 CN CN201810510139.9A patent/CN108765430B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030086603A1 (en) * | 2001-09-07 | 2003-05-08 | Distortion Graphics, Inc. | System and method for transforming graphical images |
US20070291032A1 (en) * | 2006-06-19 | 2007-12-20 | Fujitsu Limited | Image process apparatus for three-dimensional model |
CN103180878A (zh) * | 2010-10-25 | 2013-06-26 | 皇家飞利浦电子股份有限公司 | 用于医学图像的分割的系统 |
CN103700088A (zh) * | 2013-12-01 | 2014-04-02 | 北京航空航天大学 | 一种基于可变形图结构表示的图像集无监督共分割方法 |
CN106296653A (zh) * | 2016-07-25 | 2017-01-04 | 浙江大学 | 基于半监督学习的脑部ct图像出血区域分割方法及系统 |
Non-Patent Citations (1)
Title |
---|
周生俊: "医学CT图像分割方法研究", 《中国博士学位论文全文数据库》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583444A (zh) * | 2018-11-22 | 2019-04-05 | 博志生物科技有限公司 | 空洞区域定位方法、装置及计算机可读存储介质 |
CN109394269B (zh) * | 2018-12-08 | 2021-12-10 | 沈阳鹏悦科技有限公司 | 心脏目标高亮显示平台 |
CN109394269A (zh) * | 2018-12-08 | 2019-03-01 | 余姚市华耀工具科技有限公司 | 心脏目标高亮显示平台 |
CN109785296A (zh) * | 2018-12-25 | 2019-05-21 | 西安电子科技大学 | 一种基于cta图像的三维球形指数测定方法 |
CN109785296B (zh) * | 2018-12-25 | 2023-07-04 | 西安电子科技大学 | 一种基于cta图像的三维球形指数测定方法 |
CN110298400A (zh) * | 2019-06-28 | 2019-10-01 | 北京奇艺世纪科技有限公司 | 一种图像分类方法、装置、设备及存储介质 |
CN110349149A (zh) * | 2019-07-12 | 2019-10-18 | 广东省人民医院(广东省医学科学院) | 基于深度神经网络和形态相似度的先心病分类系统及方法 |
CN110415246A (zh) * | 2019-08-06 | 2019-11-05 | 东北大学 | 一种腹部脂肪成分的分析方法 |
CN110738644A (zh) * | 2019-10-10 | 2020-01-31 | 清华大学 | 一种基于深度学习的汽车涂装表面缺陷检测方法及系统 |
CN112150477A (zh) * | 2019-11-15 | 2020-12-29 | 复旦大学 | 脑影像动脉全自动分割方法及装置 |
CN111199674A (zh) * | 2020-01-21 | 2020-05-26 | 珠海赛纳三维科技有限公司 | 心脏模型、心脏模型的三维打印方法及系统 |
CN111598838A (zh) * | 2020-04-22 | 2020-08-28 | 中南民族大学 | 心脏mr图像自动分割方法、装置、电子设备和存储介质 |
CN111598838B (zh) * | 2020-04-22 | 2023-04-07 | 中南民族大学 | 心脏mr图像自动分割方法、装置、电子设备和存储介质 |
CN112446867A (zh) * | 2020-11-25 | 2021-03-05 | 上海联影医疗科技股份有限公司 | 血流参数的确定方法、装置、设备及存储介质 |
CN113506270A (zh) * | 2021-07-13 | 2021-10-15 | 北京建筑大学 | 一种处理下腔静脉图像的方法、系统及存储介质 |
CN113903233A (zh) * | 2021-10-26 | 2022-01-07 | 暨南大学 | 心脏模型的模拟手术指导方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108765430B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765430A (zh) | 一种基于心脏ct图像和机器学习的心脏左腔区域分割方法 | |
CN106780460B (zh) | 一种用于胸部ct影像的肺结节自动检测系统 | |
CN107977671A (zh) | 一种基于多任务卷积神经网络的舌象分类方法 | |
CN106204555B (zh) | 一种结合Gbvs模型和相位一致性的视盘定位方法 | |
CN108257135A (zh) | 基于深度学习方法解读医学图像特征的辅助诊断系统 | |
CN109215032A (zh) | 图像分割的方法及系统 | |
CN107230206A (zh) | 一种基于多模态数据的超体素序列肺部图像的3d肺结节分割方法 | |
EP3530176B1 (en) | 3d quantitative analysis of retinal layers with deep learning | |
CN107590797A (zh) | 一种基于三维残差神经网络的ct影像肺结节检测方法 | |
CN109727253A (zh) | 基于深度卷积神经网络自动分割肺结节的辅助检测方法 | |
CN109635846A (zh) | 一种多类医学图像判断方法和系统 | |
CN109447998A (zh) | 基于PCANet深度学习模型下的自动分割方法 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN111161278B (zh) | 一种基于深层网络聚合的眼底图像病灶分割方法 | |
Liao et al. | A segmentation method for lung parenchyma image sequences based on superpixels and a self-generating neural forest | |
CN105138975B (zh) | 一种基于深度信念网络的人体肤色区域分割方法 | |
Alasadi et al. | Early detection and classification of melanoma skin cancer | |
CN103839048B (zh) | 基于低秩分解的胃部ct图像淋巴结识别系统和方法 | |
Satheesha et al. | Detection of melanoma using distinct features | |
CN107204000A (zh) | 基于Kinect深度相机的人体分割方法 | |
Kitrungrotsakul et al. | Interactive deep refinement network for medical image segmentation | |
CN114445328A (zh) | 基于改进Faster R-CNN的医学影像脑肿瘤检测方法与系统 | |
CN111986216B (zh) | 一种基于神经网络改进的rsg肝脏ct图像交互式分割算法 | |
Zhang et al. | Classification of benign and malignant pulmonary nodules based on deep learning | |
CN108765431A (zh) | 一种图像的分割方法及其在医学领域的应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |