CN102737379A - 一种基于自适应学习的ct图像分割方法 - Google Patents

一种基于自适应学习的ct图像分割方法 Download PDF

Info

Publication number
CN102737379A
CN102737379A CN2012101874649A CN201210187464A CN102737379A CN 102737379 A CN102737379 A CN 102737379A CN 2012101874649 A CN2012101874649 A CN 2012101874649A CN 201210187464 A CN201210187464 A CN 201210187464A CN 102737379 A CN102737379 A CN 102737379A
Authority
CN
China
Prior art keywords
image
model
pixel
user
adaptive learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012101874649A
Other languages
English (en)
Inventor
林倞
江波
杨巍
林梦溪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN2012101874649A priority Critical patent/CN102737379A/zh
Publication of CN102737379A publication Critical patent/CN102737379A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于自适应学习的CT图像分割方法,包括以下步骤:1)获取CT图像;2)提取CT图像特征;3)用户在CT图像上输入表明病变区与非病变区的笔触;4)以用户输入的笔触作为基础,利用提取的CT图像特征,建立图像的区域模型;采用边缘检测方法建立图像的边缘模型;5)将区域模型与边缘模型结合建立新模型,并对新模型进行求解推理,获得分割结果。采用本发明能够有效地描述CT图像病变区与非病变区的差异,适应CT图像的复杂性,解决CT图像低性噪比(高噪声)所带来的问题,高效地帮助用户实现快速精准的交互式CT图像病变区分割,从而极大地提高医疗部门的生产效率。

Description

一种基于自适应学习的CT图像分割方法
技术领域
本发明涉及医学图像的分割领域,具体涉及CT图像的分析,CT图像分割模型的建立与求解推理,在线机器学习技术,人机交互技术等。 
技术背景
随着数字化成像技术、影像处理技术的进步,医疗领域中对基于数字影像处理技术的计算机辅助诊断系统的需求量也越来越大。基于数字影像处理的计算机辅助诊断系统能够倚靠当前先进的计算机处理技术,可视化医疗问题,自动化处理医学上的许多繁杂事物,不仅为医务人员做出合理诊断提供可靠手段,为病人的生命提供保障,还大大提高了医务诊疗的效率,使医务人员能够更易于获得诊断所需的病理状态与数据,更专注于医疗的专业问题而非繁琐的其他事物。因而医学图像处理技术逐渐成为了当前世界计算机界研究的热门课题之一。 
医学图像处理技术涵盖了很多方面,如图像分割、图像配准、三维重建等。其中图像分割是医学图像处理的重要环节,它是对正常组织或病变组织进行特征提取、定量分析、三维重建、体积显示等后续操作必不可缺少的步骤。另外,图像引导手术、肿瘤放射治疗、治疗评估等应用研究的顺利进行,需要以图像被准确分割为前提,所以图像分割的效果及实时性会直接影响后续处理的质量和效率,对医生正确诊断疾病并做出合理的治疗方案起着至关重要的作用。 
医学图像分割的最终目的是把感兴趣的组织器官或病变区域从背景中提取出来,其中自动化或半自动化地对CT成像中的病变区进行分割的需求最大。CT 成像技术,其成像结果以序列的形式存在,一个部分的序列扫描图一般包括几十张或上百张的医学图像。要将这些扫描结果成功应用在临床诊断上,需要对序列中尽可能多的图像进行尽可能准确的分割。如果单纯地采用人工分割,无疑会耗费大量的人力物力。 
因此,实现CT图像的自动化或半自动化分割,将能帮助医务人员从繁重枯燥的工作中解脱出来,投入到更有意义的医疗活动与医疗研究中,从根本上提高医务体系的效率问题以及大幅降低医学图像诊断的成本问题。另外,人工分割通常对医务人员提出较高的知识与经验要求,一些模糊不清的病例分割需要医务人员具有很高的辨别水准。然而准确的自动化或半自动化病变区分割,能够在一定程度上消除医务人员人工分割的主观性,在客观层面上为医务人员辨明病例分割提高宝贵参考。因此,开发一种高效的自动化或半自动化的CT图像分割方法与系统能够在很大程度上推动医学,特别是医学影像学诊断的发展。 
CT图像的分割至今仍然是未能完美解决的问题。这主要是因为CT图像的复杂性和多样性。CT图像往往具有较丰富的细节特征,另外器官组织成像的形状变化大且不规则,在成像过程中容易引入噪声,并且某些器官组织的对比度不够强。再加之人体解剖个体的差异较大,病变种类与病变位置的繁多,使得CT图像的病变区分割异常困难。除此之外,病变区的边界往往模糊不清,如何有效精确地处理分割的边缘问题,也成为了该分割问题的一大难点。 
当前已经有相当多的工作投入到了CT图像的病变区分割研究当中,但不同的方法都有其各自的优点与缺点,能够对所有或绝大部分可能情况进行处理的稳健方法并不多见。目前CT图像的病变区分割主要还是采用半自动交互式的分割方法,这主要是因为完全自动化的分割方法目前还难以应对CT图像中复杂的变化,分割的平均效果并不能达到临床应用需求,而半自动化交互式分割方法 通过用户少量的介入操作,能够大大提高分割的准确度。 
从CT图像分割智能化所使用的方法来看,大致可以分为两大类,一类是基于区域的分割,一类是基于边缘的分割。 
从分割智能化所使用的方法来看,当前已有相当多的方法被用在了CT图像分割问题中,包括阈值分割法,区域增长法,活动轮廓分割法。近年来由于统计学理论以及计算机视觉、机器学习、神经网络、函数优化领域的快速发展,涌现了许多更复杂但更有效的处理方法,包括基于分类器与聚类的分割方法、基于马尔可夫随机场的分割方法以及综合应用许多新的理论进行分割的方法。 
阈值分割法是较简单的分割方法,用户通过设立阈值,把图像灰度大于阈值与小于阈值的部分分开。该方法的优势在于计算简单,易于实现,但其是否能够很好运作很大程度上取决于CT图像的灰度可分性,然而不幸的是大部分CT图像中病变区与许多非病变区在灰度上是难以区分的,因此该方法并不能很好地应对这些情况。 
区域增长的分割方法一般是由用户给定一个增长的种子点,种子点再依据一定的规则进行扩展,合并相邻的像素,从而逐渐增长成区域。该方法简单易于实现,但对初始种子点的选取有较高要求,不良的种子点极易引起过早的增长收敛或过度分割。另外区域增长的方法对噪声也比较敏感,在医学图像中增长容易形成空洞。再者,如果病变区与相邻的组织器官拥有相似的特性,增长的区域将难以控制,几乎不可避免地会增长到相邻相似的器官组织中。 
基于活动轮廓的分割方法要求用户在病变区的周围给出一个初始轮廓,然后根据一系列初始参数,通过最小化定义的能量函数而使得初始轮廓在迭代过程中逐渐收敛到病变区的边界。与区域增长法一样,基于活动轮廓的分割方法在很大程度上依赖于初始状态的选取。另外,活动轮廓容易陷入局部最优解, 对于边界区域模糊的病变区更是如此。 
基于分类器的区域分割方法是近年来随着机器学习技术在计算机视觉上的应用的深入,出现的采用分类学习理论进行医学图像病变区分割的方法。该方法主要是将病变区看作是正样本,非病变区看作是负样本,从样本中抽取出合适的特征后通过机器学习的策略学习得到分类器,进而使用学习得到的分类器对图像进行分割。这种方法的好处在于可以通过控制训练样本的输入以及调整分类器的惩罚函数很好地适应不同类型的医学图像,但问题在于在少样本的情况下分割的精度以及分割结果的平滑度在很多时候存在一定的缺陷。 
综上,当前的CT图像分割技术普遍存在两个问题: 
1、由于病变区与CT图像中存在的其他某些组织器官有一定的相似性,当前的分割方法容易产生误分问题,把许多与病变区相似的非病变区部分也分割进来。
2、因病变区边缘的模糊,致使分割方法在病变区的边缘上很难得到令人满意的分割结果。 
发明内容
本发明的目的在于克服现有技术中CT图像分割技术存在的两个问题,结合以上所提及的基于分类器的区域分割方法的优点,提出一种基于自适应学习的CT图像分割方法,以适应CT图像复杂的图像变化,从而解决以上两个主要问题,并实现CT图像的准确快速的分割。 
本发明的技术方案为: 
一种基于自适应学习的CT图像分割方法,包括以下步骤: 
1)获取CT图像; 
2)提取CT图像特征; 
3)用户在CT图像上输入表明病变区与非病变区的笔触; 
4)以用户输入的笔触作为基础,利用提取的CT图像特征,建立图像的区域模型;采用边缘检测方法建立图像的边缘模型; 
5)将区域模型与边缘模型结合建立新模型,并对新模型进行求解推理,获得分割结果。 
所述步骤2)提取CT图像特征包括提取CT图像每个像素局部的灰度直方图及提取CT图像每个像素局部的SIFT直方图。 
所述提取CT图像包括提取每个像素12*12领域内的灰度直方图及提取每个像素12*12领域内的SIFT直方图。 
所述步骤4)的建立图像的区域模型包括以下步骤: 
41)选取用户笔触标明的区域像素点作为训练样本点,使用Gentle Boost算法训练出分类器; 
42)使用训练出来的分类器对CT图像上的每个像素点进行分类评分,求解出区域模型; 
43)利用用户笔触的位置距离空间调整区域模型。 
所述步骤43)的位置距离空间为欧式距离。 
所述步骤5)采用Bregman迭代对新模型进行求解推理。 
本发明的有益效果:本发明采用有效的图像区域特征表达以及融合用户添加的笔触的位置距离空间信息,克服了由于病变区与部分非病变区区域相似而导致的错分问题;同时,该发明将图像的区域特征与边缘特征进行结合求解,使得分割结果在病变区的边缘上更加精确;另外,该发明要求较少的用户操作并允许用户即时地对当前的分割结果进行调整,从而实现快速的分割。综上,该分割方法将会极大地提高CT图像病变区的分割效果与分割效率。 
附图说明
图1为本发明的系统框图; 
图2为本发明局部SIFT直方图特征提取; 
图3为集成用户笔触的位置距离空间信息; 
图4为采用本发明的分割方法的CT图像分割结果。 
具体实施方案
图1为本发明的系统框图,首先用户在CT图像上的病变区与非病变区上标注笔触,然后系统从图像上提取局部灰度直方图与局部SIFT直方图作为特征向量,采用用户笔触上的像素点作为训练样本点,应用机器学习的方法训练得到分类器;接着将分类器在CT图像上的所有像素上测试得到区域项评分,使用Bregman迭代融合图像边缘信息,最终得到图像的分割图。 
在CT图像的分割问题中,目标是将CT图像中显示出来的病变区与其他的非病变区分隔开来,即将CT图像划分为两个区域。设标注病变区的区域为前景R+,标注非病变区的区域为背景R-。为了使模型能够利用上图像的边缘信息,以使分割结果更加精准,设在图像边缘上的像素属于区域B+,不在图像边缘上的像素属于区域B-。这样,就能将分割问题描述为两个部分:区域表达部分与边缘表达部分。 
在本实施例中引入一个判别式概率模型来结合这两部分, 
E = - Σ i = 1 n * m [ 1 ( pixel i ∈ R + ) log P R i ( + | I , S ) P R i ( - | I , S ) + α 1 ( pixel i ∈ B + ) log P B i ( + | I ) P B i ( - | I ) ] - - - ( 1 )
式(1)中,E为最小化能量函数;n*m是图像的像素个数,i为第i个像素;1(x)∈{1,-1}是关于布尔变量x的指示函数;α是区域项与边界项之间的权重, 
Figure BDA00001738836500062
为区域项, 
Figure BDA00001738836500063
为边缘项。 
式(1)的区域项 
Figure BDA00001738836500071
中,其后验概率 
Figure BDA00001738836500072
能够根据用户交互式输入的笔触作为正负样本,利用逻辑回归式加性模型进行拟合求解得到。为了很好地适应CT图像的分割问题,为正负样本设计新的特征,并且使用boosting算法进行求解。另外,由用户标注的笔触的空间位置对区域项的求解也有极大的利用价值,因此融合用户标注的笔触的位置距离空间信息来求解该区域项。 
式(1)的边缘项 
Figure BDA00001738836500073
能通过多种边缘检测方法求解得到,例如Canny边缘检测方法,拉普拉斯边缘检测方法,基于蛇模型的边缘检测方法,基于测地线活动轮廓的边缘检测方法以及基于统计推理的边缘检测方法。由于基于统计推理的边缘检测方法通过离线学习方法学习出边缘检测器,能够融合多个边缘检测算子(例如普通梯度滤波器,Canny边缘算子,拉普拉斯边缘算子等),相比简单单一的边缘检测方法对边缘的检测具有更好的效果;另外,该方法无需如基于轮廓模型的边缘检测方法(如蛇模型,基于测地线活动轮廓等)那样需要人工给定一系列参数,因而具有更好的自适应性。因此,在本实施例中采用了统计边缘检测方法,通过使用统计原理线下学习出一个边缘检测器后,使用该检测器获得当前CT图像的边缘项作为边缘检测器以获得CT图像的边缘项。 
求解出CT图像的区域项和边缘项后,使用Bregman迭代的方法推理出式(1)最小化能量函数E的解以得到最后的分割结果。 
以下为区域项的求解过程。 
1)利用在线判别式学习方法求解CT图像的区域项 
为实现式(1)最小化能量函数E,需要计算区域项 的后验概率 
Figure BDA00001738836500075
通过将对数-后验概率比的形式转化为线性加性模型,在本实施例中使 用Gentle Boost算法,以用户输入的笔触作为训练样本,得到一个强的分类器;然后再使用得到的强分类器,在CT图像上测试,便可以得到CT图像关于区域特征的评分值。之后再将该区域评分值与用户添加的笔触的位置空间信息融合,得到关于式(1)的区域项。 
1.1)在线判别式模型 
为了求解式(1)中的区域项 
Figure BDA00001738836500081
需要先计算出CT图像关于区域特征的评分值(即 
Figure BDA00001738836500082
)。对此采用一个加性逻辑是模型来求解,如式(2)所示: 
log P R i ( + | I ) P R i ( - | I ) = Σ m = 1 M f m ( x ) - - - ( 2 )
式(2)中,fm(x)表示各个弱分类器。用户标明病变区与非病变区的笔触后,便可以使用用户标明的笔触下的像素点作为正负样本,抽取出样本的特征,输入到boosting算法中进行分类器的训练。通过训练输入的样本特征,将一系列的弱分类器联合成为一个强的分类器。应用得到的强分类器,对CT图像的每个像素分为病变区内的像素或非病变区内的像素。如式(3)所示,其中F(x)代表通过boosting算法训练得到的强分类器: 
F ( x ) = Σ m = 1 M f m ( x ) - - - ( 3 )
在boosting算法过程中,通过优化如式(4)的能量函数求得强分类器F(x): 
J = Σ i = 1 N e - y i F ( x i ) - - - ( 4 )
式(4)中,xi表示从每个训练样本中抽取出来的特征,yi∈{-1,1}表示每个样本的标签,当yi=-1时,表示该训练样本为负样本,当yi=1时,表示该训练样本为正样本。 
boosting算法以迭代的方式生成强分类器,在每一轮迭代中,它都会将一个 新的该轮迭代训练出来的弱分类器加进已有的强分类器中。如式(5)所示,在第m轮迭代中,boosting将会把该轮训练出的弱分类器fm(x)加进第m-1轮得到的强分类器中,形成第m轮的强分类器: 
Fm(x)=Fm-1(x)+fm(x)                (5) 
通过最小化一个指数代价来得到新的fm(x)。联合式(3)和式(4),得到式(6): 
J ( F + f m ) = Σ i = 1 N e - y i ( F ( x i ) + f m ( x i ) ) - - - ( 6 )
为了保证计算的快速与有效,本实施例采用Gentle Boost算法来求得式(6)的近似解。式(6)转化为式(7)的形式: 
J ( F ) ∝ Σ i = 1 N e - y i F ( x i ) ( y i - f m ( x i ) ) 2 - - - ( 7 )
在每一轮迭代中计算加权的最小二乘矩阵的解,便可以得到弱分类器fm(x)。 
定义每个弱分类器为如下式(8)的形式: 
fm(x)=a*(x>threshold)+b            (8) 
式(8)中,a,threshold,b是需要求得的参数,通过如下步骤来求得这三个参数: 
a)对每一个像素,给定一个与该像素对应的T维向量,每一次从T维向量中抽取一维,组成一个一维的关于像素训练样本的输入集; 
b)通过回归方法最小化代价函数式(7)来计算弱分类器的参数a,threshold,b。 
c)对训练样本的每一维都如步骤a),步骤b)所描述般计算出T个弱分类器,并选取使得代价式(7)最小的那一维生成的弱分类器作为该轮迭代的弱分类器,加入到强分类器中。 
1.2)特征的设计 
要完成CT图像区域项的计算,必须为图像中的每个像素设计特征,作为分 类器训练与分类的依据。而选取或发明适于CT图像分割问题的特征是解决该问题的关键。选取或发明的特征必须能够很好地表达样本的性质,描述出正样本与负样本间的差别,即CT图像中病变区与非病变区的差别。为了达到这一目的,考虑了二组特征:像素的局部灰度直方图、像素的局部SIFT直方图。 
像素的灰度标明了像素在图像中由“黑”到“白”的变化,是图像最基本的特征,尤其对于只有单通道的CT图像更是如此。因此,把256级别的灰度重新分为12个级别,在每个像素12*12的邻域窗口内统计灰度直方图,得到该像素的一个16维的特征向量。 
在CT图像中,造影剂注射量、造影时期的不同,会对肝脏的形状、大小、位置等造成较大的影响。因此,希望能找到一种针对旋转、变换、尺度变换、视角变换、光照(图像强度)等图像变化因素保持一定的不变性的图像特征。受到SIFT及SIFTflow算法的启发,本发明使用SIFT描述符作为每个像素的特征。 
如图2,SIFT全称为尺度不变特征变换(Scale Invariant Feature Transform),由Lowe于2004年提出。SIFT是图像局部特征,对旋转、尺度变化、亮度变化保持不变性,对视角变化、仿射变换、噪声也保持一定程度的稳定性。经过优化的SIFT能够达到实时计算的要求,并且能够很方便地与其他特征进行联合。 
在本算法实现中,对每一个像素,以其为中心取一个12*12的窗口,如图2a。然后,将这个窗口进一步分割为4*4的细胞数组,在每个细胞数组中,包含一个3*3的小窗口,如图2b,使用一个8维向量来表示细胞数组的梯度信息,其中每一维代表一个梯度方向如图2c所示,箭头方向代表梯度方向,箭头长度代表梯度大小。最后获取一个4*4*8=128维的向量,该向量就是每个像素的 特征向量。将所有像素的特征向量保存在一个128维的直方图中。 
最后,把局部灰度直方图的特征向量与局部SIFT直方图的特征向量拼接起来,形成一个16+128=134维的特征向量,作为像素点最终的表达特征向量。 
2)集成用户笔触位置距离空间信息模型求解CT图像的区域项 
研究发现用户笔触强烈地反映了用户对图像区域的关注程度,这一现象反映了人类视觉、心理学层面对事物关注程度的先验知识。不仅用户标注笔触经过的像素属于对应的区域,笔触附近的像素归于对应区域的概率也很大。为了利用这一先验知识,允许用户对区域模型进行校正,如式(9)所示: 
log P R i ( + | I , S ) P R i ( - | I , S ) = log P R i ( + | I ) P R i ( - | I ) - log P R i ( + ) P R i ( - ) + log P R i ( + | S ) P R i ( - | S ) - - - ( 9 )
Figure BDA00001738836500112
由判别模型学习而来, 
Figure BDA00001738836500113
仅仅考虑了像素点属于某一类别的先验知识,通过简单地统计正负样本频率而得到,没有考虑像素是否在用户笔触周围。 
Figure BDA00001738836500114
则考虑了像素与笔触的空间距离关系,将每个像素点与笔触之间空间关系的先验知识集成到判别模型中来。 
为了定义图像像素点i与笔触之间的空间关系,本实施例引入流行的欧氏距离(Euclidean distances)概念。欧氏距离定义在欧氏空间中,点x=(x1,...,xn)和点y=(y1,...,yn)之间的欧氏距离定义为式(10): 
d ( x , y ) = ( x 1 - y 1 ) 2 + ( x 2 - y 2 ) 2 + . . . + ( x n - y n ) 2 = Σ i = 1 n ( x i - y i ) 2 - - - ( 10 )
定义d(i,S)为图像中像素i与笔触S中所有像素欧氏距离的最小距离,则能通过笔触S上与像素i存在最小欧氏距离的样本点出现的频率,定义 如式(11)所示: 
P R i ( + | S ) = f i ( + | d ( i , S + ) , d ( i , S - ) ) - - - ( 11 )
则将像素i的用户关注程度作为先验知识,集成到判别模型中(如图3)。 
使用Bregman迭代对模型进行推理 
根据求解出式(1)中的区域项及使用边缘探测器求解出式(1)中的边缘项后,本实施例采用Bregman迭代算法最小化式(1)能量函数来结合这两项。 
为了能够使用Bregman迭代进行求解,需要将能量函数转化为凸函数。放宽式(1)中对指示函数1(x)的离散化定义条件,即将式(1)中的区域项与边缘项前的1(x)修改为u(x)和v(x),定义u(x)和v(x)不只能取值{0,1},而是在[0,1]内进行取值,并且 
Figure BDA00001738836500121
从而将式(1)转化为凸函数的形式。最后的分割结果再通过设立一个阈值μ将取值为[0,1]内的μ(x)离散化而得到。 
把式(1)的求解问题转换为以下的迭代方式: 
( u k + 1 , v k + 1 ) = arg min | v | T B + u T R + β 2 | | v - ▿ u - ∈ k | | 2 2 - - - ( 12 )
∈ k + 1 = ∈ k + ▿ u k + 1 - v k + 1
式(12)中∈k表示第k轮迭代中的累积误差。 
通过式(12),可以将区域项和边界项分开求解,以达到加速求解的目的。其中区域项uk+1可以通过高斯-赛达尔迭代的近似进行求解式(13),边界项可以通过阈值过滤缩减操作来求解式(14): 
μ ▿ u = T R + μ div ( ∈ k - v k ) , u ∈ [ 0,1 ] - - - ( 13 )
v i , j k + 1 = ▿ u k + 1 + ∈ k | ▿ u k + 1 + ∈ k | max ( | ▿ u k + 1 + ∈ k | - μ - 1 T B , 0 ) - - - ( 14 )

Claims (6)

1.一种基于自适应学习的CT图像分割方法,其特征在于包括以下步骤:
1)获取CT图像;
2)提取CT图像特征;
3)用户在CT图像上输入表明病变区与非病变区的笔触;
4)以用户输入的笔触作为基础,利用提取的CT图像特征,建立图像的区域模型;采用边缘检测方法建立图像的边缘模型;
5)将区域模型与边缘模型结合建立新模型,并对新模型进行求解推理,获得分割结果。
2.根据权利要求1所述基于自适应学习的CT图像分割方法,其特征在于所述步骤2)提取CT图像特征包括提取CT图像每个像素局部的灰度直方图及提取CT图像每个像素局部的SIFT直方图。
3.根据权利要求2所述基于自适应学习的CT图像分割方法,其特征在于所述提取CT图像包括提取每个像素12*12领域内的灰度直方图及提取每个像素12*12领域内的SIFT直方图。
4.根据权利要求1所述基于自适应学习的CT图像分割方法,其特征在于所述步骤4)的建立图像的区域模型包括以下步骤:
41)选取用户笔触标明的区域像素点作为训练样本点,使用Gentle Boost算法训练出分类器;
42)使用训练出来的分类器对CT图像上的每个像素点进行分类评分,求解出区域模型;
43)利用用户笔触的位置距离空间调整区域模型。
5.根据权利要求4所述基于自适应学习的CT图像分割方法,其特征在于所述步骤43)的位置距离空间为欧式距离。
6.根据权利要求1所述基于自适应学习的CT图像分割方法,其特征在于所述步骤5)采用Bregman迭代对新模型进行求解推理。
CN2012101874649A 2012-06-07 2012-06-07 一种基于自适应学习的ct图像分割方法 Pending CN102737379A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012101874649A CN102737379A (zh) 2012-06-07 2012-06-07 一种基于自适应学习的ct图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012101874649A CN102737379A (zh) 2012-06-07 2012-06-07 一种基于自适应学习的ct图像分割方法

Publications (1)

Publication Number Publication Date
CN102737379A true CN102737379A (zh) 2012-10-17

Family

ID=46992804

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012101874649A Pending CN102737379A (zh) 2012-06-07 2012-06-07 一种基于自适应学习的ct图像分割方法

Country Status (1)

Country Link
CN (1) CN102737379A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679770A (zh) * 2013-11-14 2014-03-26 青岛安信医疗器械有限公司 一种ct成像方法
WO2014082393A1 (zh) * 2012-11-28 2014-06-05 广州医学院第一附属医院 一种基于放射性核素成像图像的分割方法及装置
TWI490790B (zh) * 2012-11-14 2015-07-01 Far Eastern Memorial Hospital Dynamic cardiac imaging analysis and cardiac function assessment system
CN104751437A (zh) * 2013-12-30 2015-07-01 蓝网科技有限公司 基于胸部ct图像的肺部自动提取方法
CN105574859A (zh) * 2015-12-14 2016-05-11 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN107230211A (zh) * 2017-05-05 2017-10-03 上海联影医疗科技有限公司 一种图像分割方法及系统
CN107582097A (zh) * 2017-07-18 2018-01-16 中山大学附属第医院 一种基于多模态超声组学的智能辅助决策系统
CN109074500A (zh) * 2016-01-21 2018-12-21 医科达有限公司 用于分割同一患者的医学图像的系统和方法
CN111052129A (zh) * 2017-07-28 2020-04-21 美国西门子医学诊断股份有限公司 深度学习体积定量方法和设备
CN111598853A (zh) * 2020-04-30 2020-08-28 科大讯飞股份有限公司 针对肺炎的ct影像评分方法、装置及设备
CN111612767A (zh) * 2020-05-21 2020-09-01 西南交通大学 一种基于视觉的精密结构件识别方法
WO2020238623A1 (zh) * 2019-05-29 2020-12-03 腾讯科技(深圳)有限公司 图像标注的方法、标注展示方法、装置、设备及存储介质
CN112102929A (zh) * 2020-09-11 2020-12-18 沈阳东软智能医疗科技研究院有限公司 医学图像标注方法、装置、存储介质及电子设备
CN112150477A (zh) * 2019-11-15 2020-12-29 复旦大学 脑影像动脉全自动分割方法及装置
CN114004817A (zh) * 2021-11-03 2022-02-01 深圳大学 一种分割网络半监督训练方法、系统、设备及存储介质
US11710241B2 (en) 2018-02-14 2023-07-25 Elekta, Inc. Atlas-based segmentation using deep-learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1943513A (zh) * 2006-11-08 2007-04-11 沈阳东软医疗系统有限公司 一种针对ct图像的处理装置、方法及系统
CN102163327A (zh) * 2011-04-22 2011-08-24 陈宇珂 一种医用的心脏ct图像分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1943513A (zh) * 2006-11-08 2007-04-11 沈阳东软医疗系统有限公司 一种针对ct图像的处理装置、方法及系统
CN102163327A (zh) * 2011-04-22 2011-08-24 陈宇珂 一种医用的心脏ct图像分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEI YANG ET AL: "《Interactive CT Image Segmentation with Online Discriminative Learning》", 《2011 18TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI490790B (zh) * 2012-11-14 2015-07-01 Far Eastern Memorial Hospital Dynamic cardiac imaging analysis and cardiac function assessment system
WO2014082393A1 (zh) * 2012-11-28 2014-06-05 广州医学院第一附属医院 一种基于放射性核素成像图像的分割方法及装置
CN103854274A (zh) * 2012-11-28 2014-06-11 广州医学院第一附属医院 一种基于放射性核素成像图像的分割方法及装置
CN103854274B (zh) * 2012-11-28 2016-12-21 广州医学院第一附属医院 一种基于放射性核素成像图像的分割方法及装置
CN103679770A (zh) * 2013-11-14 2014-03-26 青岛安信医疗器械有限公司 一种ct成像方法
CN104751437B (zh) * 2013-12-30 2017-08-25 蓝网科技股份有限公司 基于胸部ct图像的肺部自动提取方法
CN104751437A (zh) * 2013-12-30 2015-07-01 蓝网科技有限公司 基于胸部ct图像的肺部自动提取方法
CN105574859B (zh) * 2015-12-14 2018-08-21 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN105574859A (zh) * 2015-12-14 2016-05-11 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN109074500A (zh) * 2016-01-21 2018-12-21 医科达有限公司 用于分割同一患者的医学图像的系统和方法
US11386557B2 (en) 2016-01-21 2022-07-12 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
CN109074500B (zh) * 2016-01-21 2020-05-08 医科达有限公司 用于分割同一患者的医学图像的系统和方法
US10867385B2 (en) 2016-01-21 2020-12-15 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
CN107230211A (zh) * 2017-05-05 2017-10-03 上海联影医疗科技有限公司 一种图像分割方法及系统
CN107230211B (zh) * 2017-05-05 2021-07-16 上海联影医疗科技股份有限公司 一种图像分割方法及系统
CN107582097A (zh) * 2017-07-18 2018-01-16 中山大学附属第医院 一种基于多模态超声组学的智能辅助决策系统
CN111052129A (zh) * 2017-07-28 2020-04-21 美国西门子医学诊断股份有限公司 深度学习体积定量方法和设备
CN111052129B (zh) * 2017-07-28 2024-03-08 美国西门子医学诊断股份有限公司 深度学习体积定量方法和设备
US11710241B2 (en) 2018-02-14 2023-07-25 Elekta, Inc. Atlas-based segmentation using deep-learning
WO2020238623A1 (zh) * 2019-05-29 2020-12-03 腾讯科技(深圳)有限公司 图像标注的方法、标注展示方法、装置、设备及存储介质
CN112150477A (zh) * 2019-11-15 2020-12-29 复旦大学 脑影像动脉全自动分割方法及装置
CN111598853A (zh) * 2020-04-30 2020-08-28 科大讯飞股份有限公司 针对肺炎的ct影像评分方法、装置及设备
CN111598853B (zh) * 2020-04-30 2024-02-13 讯飞医疗科技股份有限公司 针对肺炎的ct影像评分方法、装置及设备
CN111612767B (zh) * 2020-05-21 2022-10-28 西南交通大学 一种基于视觉的精密结构件识别方法
CN111612767A (zh) * 2020-05-21 2020-09-01 西南交通大学 一种基于视觉的精密结构件识别方法
CN112102929A (zh) * 2020-09-11 2020-12-18 沈阳东软智能医疗科技研究院有限公司 医学图像标注方法、装置、存储介质及电子设备
CN114004817A (zh) * 2021-11-03 2022-02-01 深圳大学 一种分割网络半监督训练方法、系统、设备及存储介质
CN114004817B (zh) * 2021-11-03 2024-04-02 深圳大学 一种分割网络半监督训练方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
CN102737379A (zh) 一种基于自适应学习的ct图像分割方法
CN108364006B (zh) 基于多模式深度学习的医学图像分类装置及其构建方法
US10614573B2 (en) Method for automatically recognizing liver tumor types in ultrasound images
Gao et al. Classification of CT brain images based on deep learning networks
Lu et al. Automatic optic disc detection from retinal images by a line operator
US8538109B2 (en) Method and system for dynamic pulmonary trunk modeling and intervention planning
Shao et al. A detection approach for solitary pulmonary nodules based on CT images
CN109858540B (zh) 一种基于多模态融合的医学图像识别系统及方法
Kakar et al. Automatic segmentation and recognition of lungs and lesion from CT scans of thorax
CN102096804A (zh) 骨扫描中肿瘤骨转移的图像识别方法
CN109035160A (zh) 医学影像的融合方法及基于融合医学影像学习的图像检测方法
CN106530283A (zh) 一种基于svm的医疗图像血管识别方法
CN109493325A (zh) 基于ct影像的肿瘤异质性分析系统
CN104217213B (zh) 一种基于对称性理论的医学图像多阶段分类方法
CN111476754B (zh) 一种骨髓细胞影像人工智能辅助分级诊断系统及方法
CN106890031A (zh) 一种标记物识别及标记点定位方法及手术导航系统
CN109087296A (zh) 一种提取ct图像中人体区域的方法
Deepak et al. Visual saliency based bright lesion detection and discrimination in retinal images
CN112085113B (zh) 一种重症肿瘤影像识别系统及方法
CN112598661A (zh) 一种基于机器学习的踝骨折及韧带损伤诊断方法
CN111767952A (zh) 一种可解释的肺结节良恶性分类方法
CN102831614A (zh) 基于交互式字典迁移的序列医学图像快速分割方法
CN106169084A (zh) 一种基于高斯核参数选择的svm乳腺分类方法
CN110232396A (zh) X射线乳腺影像深度学习分类方法
CN113160120A (zh) 基于多模态融合与深度学习的肝脏血管分割方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20121017