CN112700451A - 用于自动分割3d医学图像的方法、系统和计算机可读介质 - Google Patents
用于自动分割3d医学图像的方法、系统和计算机可读介质 Download PDFInfo
- Publication number
- CN112700451A CN112700451A CN202011099705.5A CN202011099705A CN112700451A CN 112700451 A CN112700451 A CN 112700451A CN 202011099705 A CN202011099705 A CN 202011099705A CN 112700451 A CN112700451 A CN 112700451A
- Authority
- CN
- China
- Prior art keywords
- segmentation
- medical image
- bounding box
- segmented
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000010801 machine learning Methods 0.000 claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 31
- 238000011156 evaluation Methods 0.000 claims description 16
- 210000000056 organ Anatomy 0.000 description 43
- 210000004556 brain Anatomy 0.000 description 21
- 238000002595 magnetic resonance imaging Methods 0.000 description 13
- 230000004807 localization Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 210000003484 anatomy Anatomy 0.000 description 11
- 208000024827 Alzheimer disease Diseases 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 238000002790 cross-validation Methods 0.000 description 6
- 238000003709 image segmentation Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000002059 diagnostic imaging Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 206010003694 Atrophy Diseases 0.000 description 3
- 230000037444 atrophy Effects 0.000 description 3
- 210000004227 basal ganglia Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000002637 putamen Anatomy 0.000 description 2
- 238000001959 radiotherapy Methods 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 210000001103 thalamus Anatomy 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 208000024806 Brain atrophy Diseases 0.000 description 1
- 208000014644 Brain disease Diseases 0.000 description 1
- 208000003098 Ganglion Cysts Diseases 0.000 description 1
- 208000012902 Nervous system disease Diseases 0.000 description 1
- 208000025966 Neurological disease Diseases 0.000 description 1
- 208000005400 Synovial Cyst Diseases 0.000 description 1
- 210000004727 amygdala Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001353 entorhinal cortex Anatomy 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 210000001320 hippocampus Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000016273 neuron death Effects 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000920 organ at risk Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002739 subcortical effect Effects 0.000 description 1
- 238000011477 surgical intervention Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明题为“用于自动分割3D医学图像的方法、系统和计算机可读介质”。本发明公开了用于自动分割3D医学图像的方法、系统和计算机可读介质,该3D医学图像包括待分割的对象,该方法的特征在于包括:通过使用机器学习模型,以第一正交取向、第二正交取向和第三正交取向中的至少两个正交取向,对为3D医学图像的切片形式的对象进行2D分割以导出2D分割数据;基于2D分割数据确定边界框(10)在3D医学图像内的位置,该边界框(10)具有预先确定的尺寸;以及对3D医学图像的对应于边界框(10)的部分中的对象执行3D分割。
Description
技术领域
本文所公开的主题涉及使用机器学习模型自动分割3D医学图像的方法、系统和计算机可读介质。更具体地讲,本发明所公开的主题涉及图像处理,并且涉及用于具有有效且准确的三维3D图像分割能力的医学成像的系统和方法。
背景技术
解剖结构(例如,3D医学图像中的器官)的分割是肿瘤学、放射学领域以及在计划外科介入时的多个临床过程中的基本任务。3D医学图像是受检者体内沿诸如轴向、冠状、矢状或倾斜的取向的3D体积的医学图像,其中医学图像可通过2D采集、3D采集或它们的组合来采集。这些3D医学图像可被视为在3D方向中的每一个方向上的一组2D切片或层,即,在第一正交取向、第二正交取向和第三正交取向中的任一者上的一组2D轴向、冠状或矢状切片,或更一般地为一组2D切片。在本发明的上下文中,术语“第一正交取向”、“第二正交取向”和“第三正交取向”包括三维取向的所有可能的组。用于成像的示例性技术包括常规超声成像、计算机断层摄影(“CT”)成像、磁共振成像(“MR”或“MRI”)和核医学成像技术,诸如正电子发射断层显像(“PET”)和单光子发射计算机断层显像(“SPECT”)。分割用于测量解剖结构的尺寸和形状,以引导个体之间解剖结构的空间归一化以及计划医疗介入。可用分割方法的范围广泛,范围从以2D横截面手动绘制结构的轮廓到使用所谓的“配准”来找到3D图像与标记的概率图或图集之间的最佳对应关系的更先进方法。还存在将自动分割的效率和可重复性与仅来自专业技术人员的人为判断相结合的已知半自动方法。
尽管已经公开了大量全自动和半自动分割方法,但手动绘制轮廓仍然通常用作图像分割的选择技术。不愿意使用全自动方法是由于担心其在目标解剖结构可能与正常值不同的情况下可靠性不足,以及由于基于图像配准的方法的高计算要求。
在邻接的2D切片组上手动绘制轮廓然后将它们组合在一起可能是耗时且劳动密集型的。随着图像切片的数量增加,以及随着解剖感兴趣区域中器官、肿瘤等的数量和尺寸增加,时间和劳力显著增加。轮廓绘制的质量和所产生3D对象的质量取决于2D切片的分辨率和对比度,并且取决于执行重建的临床医生的知识和判断。
使用可靠的自动图像分割可节省时间和劳力,并且可通过消除临床医生的主观性来增加精度。
器官的自动图像分割面临着某些挑战。一些器官位于软组织环境中,其中相对于周围结构的分辨率具有较差的对比度,因为相邻的器官具有类似的密度值。此外,器官的形状和位置可能周期性地改变。成像机器的成像参数也不同。
分割是将标签分配给3D医学图像的数据集中的单个体素的过程。因此,自动分割意指在人体的2D或3D数字扫描中自动识别和标记人体解剖结构。
例如,磁共振成像(“MR”)由于其相对于软组织的高对比度、适当空间分辨率以及其非侵入性特征而广泛用于分析脑结构。MRI脑分析可用于评估脑部疾病,诸如阿尔茨海默病和引起组织萎缩的其它神经系统疾病(参见例如:FOX,Nick C.、FREEBOROUGH,Peter A.,Brain atrophy progression measured from registered serial MRI:validation andapplication to Alzheimer′s disease.Journal of Magnetic Resonance Imaging,1997,7.6:1069-1075(利用配准的一系列MRI测量的脑萎缩进展:验证并应用于阿尔茨海默病,《磁共振成像杂志》,1997年,第7卷第6期,第1069-1075页))。为了量化萎缩,需要对脑组织进行适当分割和测量,因为受损结构的精确检测和定位对于诊断和治疗计划而言十分重要(参见例如AKKUS,Zeynettin等人,Deep learning for brain MRI segmentation:stateof the art and future directions.Journal ofdigital imaging,2017,30.4:449-459(脑部MRI分割的深度学习:现有技术和未来方向,《数字成像杂志》,2017年,第30卷第4期,第449-459页))。MR图像分割的另一个临床应用是放射治疗计划(RTP),放射治疗计划需要对待辐照的肿瘤周围处于风险中的器官进行精确的轮廓绘制。
如上所述,目前手动轮廓绘制是针对器官分割的金标准,其需要逐个切片地绘制各种结构的轮廓,这是耗时昂贵的活动并且可能由于人为误差而不准确。对于精确分割工具的需求是毋庸置疑的。深度学习方法可弥补在一般化方面较弱的传统机器学习工具的限制,因此在医学图像分析中经常提出卷积神经网络(CNN)的使用(参见例如:DOLZ,Jose、DESROSIERS,Christian、AYED,Ismail Ben,3D fully convolutional networks forsubcortical segmentation in MRI:A large-scale study.NeuroImage,2018,170:456-470(用于MRI中皮层下分割的3D全卷积网络:大规模研究,《神经影像)》,2018年,第170期,第456-470页))。
尤其需要对大脑内部与阿尔茨海默病的评估相关的各种器官或特定解剖结构或部分(通常称为对象)进行分割(Amygdala、Caudate、Hippocampus、Putamen、Thalamus)。在经诊断患有可能的阿尔茨海默病的患者中,壳核和丘脑的体积显著减小,并且在基底神经节的器官上也可看到其它变化(参见例如:DE JONG,Laura W.等人,Strongly reducedvolumes of putamen and thalamus in Alzheimer′s disease:an MRI study.Brain,2008,131.12:3277-3285(阿尔茨海默病中的壳核和丘脑体积显著减小:MRI研究,《大脑》,2008年,第131卷第12期,第3277-3285页))。损伤初始看起来发生在海马体和内嗅皮质中,即,大脑中形成记忆所必需的部分。随着更多神经元死亡,大脑的另外部分受到影响并且开始萎缩。阿尔茨海默病逐渐导致整个大脑的神经细胞死亡和组织丧失。随着时间推移,大脑显著萎缩,从而影响其几乎所有功能。在阿尔茨海默病的较早阶段检测到适当脑部分的变化的情况下,可开始进行医学治疗,并且可减轻和减缓疾病的症状(诸如衰退的记忆、意识和认知能力)。
分割大脑内较小器官的困难在于图像分辨率以及相邻组织之间的低对比度,因此人们可能主要信任基于较大、较容易分离的器官的相对定位;例如,心室是相关的,因为基础神经节的经检查的器官位于其旁边。尤其需要准确地分割这些器官。
存在针对如上所述分割器官的现有技术解决方案,其提出借助于两步或多步过程来提高准确性和可靠性。
在Vanya V.Valindria等人的如下文献中:Small Organ Segmentation inWhole-body MRI using a Two-stage FCN and Weighting Schemes(MICCAI Workshop onMachine Learning in Medical Imaging(MLMI)2018,arXiv:1807.11368v1[cs.CV]30Jul2018)(使用两级FCN和加权方案在全身MRI中进行小器官分割,2018年关于医学成像中机器学习的MICCAI研讨会(MLMI),arXiv:1807.11368v1[cs.CV],2018年6月30日),公开了一种两级方法,根据该方法,对CNN进行粗尺度分割训练以处理多器官分割,然后将细尺度分割仅专注于对应于在粗尺度分割中所选特定器官的裁剪感兴趣区域(ROI)的3D边界框。细尺度分割由针对该特定细尺度阶段训练的单独CNN进行。该解决方案的缺点在于两个阶段均以3D方式进行,从而导致高计算需求;粗尺度分割仅是有效分割阶段的初步或准备阶段,由于其3D特性而需要相当多的计算机资源。
三步定位/分割过程方法于Haibin Chen等人的如下文献中:A RecursiveEnsemble Organ Segmentation(REOS)/Framework:Application in Brain Radiotherapy(Phys Med Biol.2019Jan 11;64(2):025015.doi:10.1088/1361-6560/aaf83c(递归集成器官分割(REOS)/框架:在脑部放射疗法中的应用,《医学和生物学物理学)》,2019年1月11日,64(2):025015.doi:10.1088/1361-6560/aaf83c))。该方法具有与上述方法相同的缺点。
这些已知方法不能解决资源效率和可靠自动分割方面的问题,尤其是对于脑部MR图像的分割,其中将出现上述困难。
因此,需要一种能够改进现有方法和系统的解决方案。需要尽可能地消除已知技术的缺点的自动分割方法、计算机程序和系统。尤其需要允许以相对较低的计算需求对感兴趣区域进行有效且可靠的定位以及随后的精细3D分割的自动分割方法。
发明内容
在一个示例性实施方案中,提供了一种用于自动分割3D医学图像的方法,该3D医学图像包括待分割的对象,该方法的特征在于包括:通过使用机器学习模型,以第一正交取向、第二正交取向和第三正交取向中的至少两个正交取向,对为3D医学图像的切片形式的对象进行2D分割以导出2D分割数据;基于2D分割数据确定边界框在3D医学图像内的位置,该边界框具有预先确定的尺寸;以及对3D医学图像的对应于边界框的部分中的对象进行3D分割。
在另一个示例性实施方案中,提供了一种用于自动分割3D医学图像的系统,该3D医学图像包括待分割的对象,该系统的特征在于包括:2D分割单元,该2D分割单元使用机器学习模型并且被配置成以第一正交取向、第二正交取向和第三正交取向中的至少两个正交取向,对为3D医学图像的切片形式的对象进行2D分割以导出2D分割数据;确定单元,该确定单元被配置成基于2D分割数据确定边界框在3D医学图像内的位置,该边界框具有预先确定的尺寸;以及3D分割单元,该3D分割单元被配置成对3D医学图像的对应于边界框的部分中的对象进行3D分割。
在另一个示例性实施方案中,提供了一种计算机可读介质,该计算机可读介质包括指令,该指令在被计算机执行时使得计算机进行上述方法。
根据本文所公开的主题的自动分割方法可减少处理时间和/或资源,并且可建立感兴趣区域的边界框的有效定位。本文所公开的自动分割被证明是准确且稳健的,不需要任何后编辑,并且成功消除了与操作者间和操作者内的可变性相关的问题。
附图说明
根据以下描述,本主题的实施方案的特性、目标和优点将变得显而易见,这些描述仅以举例的方式给出并且是非限制性的,并且将参考附图来阅读,其中
图1示出了自动分割的实施方案的第一阶段;
图2示出了自动分割的实施方案的第二阶段;
图3示出了U-Net架构的一般表示;
图4示出了该方法的实施方案的序列,也指出了该系统的实施方案的单元;并且
图5是用于进行该方法的示例性计算设备的框图。
具体实施方式
本文所公开的主题是基于机器学习模型(例如,基于深度学习技术)的方法。在下文中,描述了用于该方法的示例性图像数据集,以及示例性合适架构和训练的示例性细节。
图像数据集
收集示例性图像数据集用于阿尔茨海默病的研究。所有图像均为标准T1图像(使用短回波延迟时间和重复时间值通过MRI产生的T1加权扫描),示出了大脑和颈部的一小部分。通过可用工具预处理所有图像,这些工具将图像转化成共同的几何形状(取向、分辨率、均匀的体素尺寸)并应用图集以分割脑中的若干结构。自动分割的轮廓(用于模型训练和评估两者)未被医生验证,因此它们仅可被认为是“伪金”分割。
将另外的预处理(本文所公开的示例中的选项)应用于包括以下的图像数据集。首先,将体素尺寸归一化为几乎等于1×1×1mm(使用整数因子进行上采样或下采样)。然后,用零个体素裁剪或填充图像以得到256×256×256分辨率。最后,将最小值-最大值归一化应用于强度值,从而用属于99.9直方图百分位数的强度代替全局强度最大值。
用本文所公开的主题处理图像数据集,该主题是使用机器学习模型自动分割3D医学图像的方法。在一个实施方案中,深度学习神经网络模型用于该目的,然而其它类型的机器学习模型也是适用的。3D医学图像包括待分割的对象。对象(例如,人体的器官或特定部分或解剖结构)的图像可仅延伸到整个3D医学图像的某个部分,因此应用定位作为有效分割的准备。
因此,该方法是两阶段过程,其中第一阶段在图1中示出,第一阶段用于定位感兴趣区域,实际上是3D医学图像内的边界框10。在该第一阶段中,对图1的第一列中描绘的输入图像的轴向、冠状和矢状切片(或层)进行2D分割以用于该对象,其结果在图1的第二列中以相应的白色轮廓描绘。代替轴向、冠状和矢状取向,可使用任何合适的第一正交取向、第二正交取向和第三正交取向。
所描绘的示例包括在全部三个正交取向上的2D分割,然而,以三个正交取向中的至少两个正交取向进行2D分割也可适用于并足以进行用于准确地定位边界框10的组合评估。在后一种情况下,对于3D医学图像的每个相应体素,仅组合评估两个相应值而不是三个,其方式与下文结合所示示例详细描述的相同。两个选项均在本文所公开的主题的范围内。
2D分割导出2D分割数据,其在一个实施方案中是概率值,如稍后所详述。基于在图1的第三列中表示为对象的相应白色形状轮廓的轴向、冠状和矢状取向的2D分割数据的融合(或组合)评估,在3D医学图像内确定边界框10的位置(还可参见图2)。后者在第三列中被描绘为白色矩形,也指示了边界框10在三个正交平面中的尺寸和位置。边界框10的尺寸基于与待分割的对象(即,器官或身体部分)相关的先验信息和/或图像数据集来预先确定。
可以想到,图1可仅描绘每个特定取向的最特征性的切片或层,即,具有最大分割面积轮廓的那些。
图1的第二列和第三列指示“低分辨率全图像”,这意味着可采用相对于3D医学图像的全分辨率降低的分辨率进行2D分割。分辨率可在3D医学图像的尺寸的全部或任何子集中减小,例如通过生成分辨率降低的3D图像或通过以取向的全部或任何子集仅针对切片的子集(例如,每隔两个、每隔三个等)进行2D分割。以这种方式,2D分割的计算负荷可进一步减小,同时其组合结果为定位边界框10提供足够的准确性,如下文所详述。
上述组合定位也可被称为2.5D定位,其通过以下方式实现:在轴向、冠状和矢状平面上,或者更一般地,在第一正交取向、第二正交取向和第三正交取向的平面上训练2D模型,将它们的预测图融合在一起,并且使用融合的预测图计算对象的位置或一次计算多于一个对象的位置。另一方面,从3D图像修剪适当的身体部分(例如,具有安全裕度的脑部分)以用于3D分割,其中仅针对该较小区域训练3D模型。该方法在分割中产生显著较少的假阳性像素,并且允许显著更快的模型训练和评估过程。
数据集涉及两个子集(在单独的研究中收集)。将每个子集进一步分成分别用于训练模型、选择最佳模型和评估最佳模型的“训练”、“交叉验证”和“测试”样本。子集1(包括50例)用于训练2D定位模型(30例训练,10例交叉验证,10例测试)。应当注意,2D模型在轴向、矢状或冠状切片上运行,因此数据样本的总数超过10,000。子集2(包括176例)用于训练3D模型(111例训练,35例交叉验证,30例测试)。“训练”、“交叉验证”和“测试”样本分别用于优化模型、选择优化模型和评估优化模型。还可对2D模型的10次测试检查进行3D模型的评估,以允许直接比较。另选地,可使用单独的图像数据集来训练2D模型和3D模型。在模型训练期间,完成若干次迭代(使用训练集)。在每次迭代之后,使用交叉验证集来评估实际模型。在训练结束时,我们选择在交叉验证集上执行情况最佳的模型的版本,这在本领域中通常称为最佳模型。
2D卷积神经网络
本文所公开的主题可包括用于进行2D分割的2D卷积神经网络。在该上下文中,2D卷积神经网络意指具有输入以接收二维信息的CNN。在一个实施方案中,三个2D卷积神经网络用于2D分割,2D分割中的每一个2D分割针对第一正交取向、第二正交取向和第三正交取向中的相应一个正交取向进行训练。2D卷积神经网络中的每一个2D卷积神经网络可具有U-Net架构,并且可由具有分割的3D训练图像的相应取向的切片训练。2D U-Net模型独立地对切片上的结构进行分割,即,不使用3D信息。U-Net架构本身是已知的,例如从现有技术的讨论中提及的文档中获知;U-Net架构的一般表示在图3中示出。该网络包括收缩路径和扩展路径,这赋予其U形架构。收缩路径是典型的卷积网络,其包括重复应用卷积,每个卷积后接整流线性单元和最大池化操作。在收缩期间,空间信息减少,而特征信息增多。扩展路径通过上卷积和级联的序列将特征和空间信息与来自收缩路径的高分辨率特征组合。
根据一个示例,2D分割的输入是表示MR图像的一个切片的128×128单通道矩阵。输出是2D分割数据的128×128矩阵,包括为0和1之间的实数的预测值,其中预测值1是对应体素中存在对象(例如,器官)的最大概率,并且预测值0是最小概率。模型(即,在示例中使用的特定架构)在每个分辨率下应用2个连续卷积滤波器(具有3×3内核)。滤波器的数量在输入分辨率下为16,并且在每个池化层之后加倍。模型具有4个池化层(具有2×2池大小),因此分辨率在网络的“底部”处减小至8×8矩阵(具有256个滤波器)。随后,在每个分辨率水平下使用跳过连接将图像逐渐上采样至原始分辨率。
在一个示例性实施方案中,训练每个2D模型50个时期。在每个时期,使用100%的阳性(包括器官)样本和25%的阴性(不包括器官)样本。由于随机化,大多数阴性切片用于训练。该方法加速并稳定学习过程,并且最终模型的准确度更高。以8个批次大小和平坦(0.001)学习速率使用Adam优化器。
针对每个(轴向、冠状、矢状)取向训练单独的模型。初步评估示出每个模型的良好分割结果(80%至90%DICE)。
三个模型输出的组合评估可为定位器官提供良好的基础。在将每个模型(逐个切片)应用于3D体积之后,可融合三个预测。
因此,可通过3D医学图像的体素的三个相应2D分割生成三个相应的预测值,并且组合评估包括对体素进行以下中的任一项:
(i)针对每个体素取对应的三个预测值的平均值。
(ii)使用预先确定的阈值将预测值二值化并且确定体素,其中对应的三个二进制值中的全部表示对象的存在,例如全部三个二值化值都是“1”。预先确定的阈值可根据经验确定,并且可通常为0.5或任何其它合适的值。使用更高/更低的阈值可使得结果分割不足/过度分割。二值化将连续预测值转换为整数值0和1。
(iii)使用预先确定的阈值将预测值二值化并且确定体素,其中对应的三个二进制值中的至少两个二进制值表示对象的存在(“多数表决”)。
在2D分割仅在两个正交取向上进行的情况下,可相应地针对每个相应的体素组合地评估两个预测值,由此上述选项(ii)和(iii)将表示相同的评估方式。
通过比较图1的第二列和第三列中的白色轮廓,可以看出,2D分割的组合结果更准确地预测了待分割器官的存在与否。由于基于2D分割的过程,这通过相对低的计算负载来实现。
因此,与2D模型中的任一个2D模型相比,平均化预测值或取交集或多数表决(在二值化之后)导致更好的分割。在本上下文中,2D模型的这种组合被称为2.5D模型。
具有2.5D定位的3D卷积神经网络
由于利用所提出的2.5D模型的器官定位对于各种器官足够精确,并且2D模型比3DCNN快,因此定位信息可结合在3D模型中以加速训练过程并增加分割准确性。第一条信息是对象的尺寸,诸如器官(即,边界框10的尺寸),其可保持恒定并且可为预先确定的,即,基于全图像数据集和其它先验信息计算得出。第二条信息是对象的位置(例如,边界框10的中心),其可由训练轮廓(在模型训练期间)和2.5D模型的预测(在模型推断期间)计算得出。因此,如图2的第一列所示,确定边界框10在3D医学图像内的位置可包括基于组合评估确定其中心;以及使用基于至少一个分割的3D训练图像预先确定的其尺寸。
边界框10的中心可通过以下方式计算:将轴向、冠状、矢状分割模型应用于输入3D医学图像的全部(对应)切片,这导致3D医学图像的三个不同分割;
在对轴向、冠状、矢状分割应用阈值(使用例如0.5作为阈值)之后,使用例如多数表决或任何其它技术将它们融合到一个分割中;
获取融合分割的最大3D连接分量;以及
计算最大3D分量的边界框10并且将其中心用作中心(尺寸对于每个器官可以是固定的)。
在3D模型的训练期间,器官的边界框10被切割并馈送到CNN中,因此网络的输入显著小于(例如,100×100×100或100×30×50)初始分辨率(256×256×256)。为了模拟训练过程期间2.5D模型的不准确性,可针对训练输入中的每一个训练输入或一些训练输入,利用随机3D矢量(使用足够的安全裕度以包括器官的所有体素)使边界框10的中心移位。与2D模型训练相比,基于柱状图的强度归一化以及附加的平均值/标准归一化仅应用于3D医学图像的边界框部分。因此,也可具有U-Net架构的3D卷积神经网络由分割3D训练图像的部分训练,该部分在尺寸/维度上对应于用于该特定对象分割的边界框10。
在一个示例性实施方案中,选择用于3D分割的模型的架构以适应3D输入,即,使用3D卷积神经网络。这里,3D层用于卷积、池化和上采样。在该示例中,池化层的数量减少至3(使用2×2×2池大小)。卷积层使用3×3×3内核尺寸。滤波器的数量在输入分辨率下增加至24(并且在每个池化层之后加倍)。训练每个3D模型200个时期。在每个时期使用所有训练样本。由于网络的存储器需求增加,批次大小减小至4。将相同的(Adam)优化器和平坦(0.001)学习速率与模型选择一起使用。
在示例中的模型推断期间,自动计算边界框10的中心,而其尺寸为器官特定常数。在对应于所定位的边界框10的3D医学图像的部分中,进行对象(即,器官)的3D分割。
结果
评估框架
对于每个器官,使用对应的(2D/3D)测试集来评估模型(2D轴向、2D冠状、2D矢状、2.5D、3D)。在评估期间,应用相同的预处理,将模型应用于(每个切片或在边界框10中)图像,将预测值二值化(使用0.5阈值),并且使用3D DICE度量(用于测量两个样本的相似性的统计系数)将结果与伪金相比较。
定量评估
下表I和II示出DICE度量,其反映模型的总体准确度。分别训练和测试成对的器官(左部和右部),并且将结果取平均值。根据2D结果,轴向模型的准确性最佳并且矢状模型最差(由于在脑的另一部分中的过度分割)。值得注意的是,2.5D模型始终胜过2D模型中的任一个。基于两个测试集,3D模型在所有测试中均是突出的。
表I.
10个测试案例的2D模型结果(轴向、冠状、矢状平面)
表II.
10个和50个测试案例的2.5D模型和3D模型结果(具有2.5D定位)
定性评估
图2示出了解剖结构的3D结果。3D分割的结果显示在边界框10(第二列)和整个3D医学图像(第三列)两者中,这是自动分割方法的最终结果。所有结果显示在轴向(左)、冠状(中间)和矢状(右)视图中,具有白色轮廓,仅描绘最特征性的切片。我们的实验已经示出并且从图2的第三列可以看出,边界框聚焦的3D分割导致受检者器官的准确结果。
基于定量评估度量,3D模型的平均准确度对于所有结构均高于90%,这意味着所提出的方法可在定位成功时准确地对大脑中的各种结构进行分割。具有最大定位误差的案例从取向的角度来看是异常值,因为与数据集中的任何其它案例不同,头部明显向后倾斜。这可通过使用3D旋转作为训练数据的增强来消除。
根据本文所公开的主题的方法的平均准确度和最小准确度对于每个器官均高于90%和80%,这显著高于现有技术解决方案。
在所公开的示例中,使用U-Net架构呈现准确的脑结构分割。训练2D模型以在3DMR图像的轴向、冠状和矢状切片上分割各种结构。这些2D模型单独不能提供准确的3D分割,但其输出的组合可用于器官边界框的准确定位。在该边界框中训练的3D模型证明在准确性方面优于现有技术。所提出的方法尤其适于创建深度神经网络架构(U-Net)以分割大脑内的各种器官。
在具有32GB RAM、12核、3.6GHz CPU和GTX 1080、8GB RAM、2560CUDA核GPU的HPZ440工作站上训练并测试2D模型和3D模型。2D模型的训练花费20分钟至25分钟(每个取向),并且3D模型对于一个器官花费2小时。每个器官的平均分割时间(使用GPU)(包括三个2D模型的推断、边界框的计算和3D模型的推断)在每个案例中针对每个器官为10秒至15秒。
因此,在示例中已经开发出具有基于切片的(2D)器官定位的3D U-Net模型。所提出的方法专注于以高准确性(以DICE评分测量)、稳健性和速度(为了可用性)分割例如基础神经节的提及部分,以帮助医生识别脑部分内的变化来检测例如阿尔茨海默病。所提出的方法的公开示例首先将2D U-Net模型应用于三个平面(轴向、冠状、矢状)中的每一个平面,以粗略地分割结构。最后,将3D U-Net应用于边界框以分割结构的精确轮廓。对于所有案例,使用自动化(基于图集的)工具限定各种结构的轮廓。评估表明,可使用所提出的框架准确且有效地定位和分割各种结构。
一个示例性实施方案是用于自动分割医学图像的系统,该系统包括被配置成执行以上公开的方法的步骤的单元。图4示出了此类系统的单元,也示出了该方法的阶段。这些单元可采用完全硬件实施方案、完全软件实施方案或包括硬件元件和软件元件两者的实施方案的形式。
将为3D医学图像的输入图像输入到进行上述预处理任务的任选预处理单元11中。在一个实施方案中,预处理单元11还生成分辨率降低的3D医学图像,利用该3D医学图像可获取分辨率降低的2D切片以用于2D分割。接下来,2D分割单元12生成预测值,例如,由3D医学图像或分辨率降低的3D医学图像的每个体素的三个相应2D分割生成三个相应预测值。确定单元13基于由2D分割生成的预测值的组合评估来确定边界框10在3D医学图像内或在分辨率降低的3D医学图像内的位置。如上所述,边界框10可具有基于待分割的对象预先确定的尺寸。接下来,通过裁剪单元14裁剪3D医学图像的对应于所定位边界框10的部分,并且通过使用机器学习模型应用3D分割单元15来对3D医学图像的对应于所定位边界框10的部分中的对象进行3D分割。任选的后处理可由后处理单元16进行,例如,用于将分割置于初始尺寸的3D医学图像中,之后输出掩码可作为分割的结果输出。
另一个示例性实施方案是包括用于对医学图像进行自动分割的计算机可读程序的计算机可读介质,其中计算机可读程序在计算机上执行时使得计算机执行上文所公开的方法。
本文所公开的主题的技术优点在于,其能够自动且有效地定位和分割在较大3D医学图像的子区域中延伸的器官,其中计算需求显著低于现有技术中的计算需求。
本公开描述了一种用于图像分割的方法,该方法比现有技术方法更快且同样准确(或更准确)。其在两阶段过程中将2D CNN和3D CNN(诸如U-Net)组合以分割组织。第一遍使用2D CNN来定位和执行粗略分割。然后根据由2D分割定位的边界框来裁剪图像,并且将裁剪的图像部分发送到3D CNN以进行更准确的3D分割。该3D分割还可使用与初始2D分割相关的信息。因此,该方法使用2D CNN和3D CNN的特殊组合,其可为U-Net。益处在于2D CNN具有比3D网络更少的参数和更短的推断时间。另外,3D CNN可仅在图像的最相关部分上操作;这使得分割任务更容易,因为要识别的杂散组织更少。虽然在图1和图2中展示了MR中的基础神经节分割,该方法可扩展到其它解剖结构和成像模态。
除U-Net之外,其它类型的CNN也可应用于该方法,例如R-CNN、SegNet、VGG-16、ResNet或PSPNet。此外,可利用针对全部三个取向训练的单个2D CNN来处理2D分割。另一种可能性是将相同的CNN用于具有适当输入的所有2D分割和3D分割。例如,主要包含2D卷积(在各种方向上)和有限3D卷积的单个3D网络可解决本公开中解决的问题。除上文公开的机器学习模型之外的机器学习模型也可用于分割任务。
实施方案可以计算机实现的过程和用于实践那些过程的装置的形式来体现。图5是用于进行该方法的示例性合适计算设备100的框图。在该示例性实施方案中,计算设备100包括从用户接收至少一个输入的用户界面104。用户界面104可包括使得用户能够输入相关信息的键盘106。用户界面104还可包括例如指向设备、鼠标、触笔、触敏面板(例如,触摸板和触摸屏)、陀螺仪、加速度计、位置检测器和/或音频输入接口(例如,包括麦克风)。
此外,在该示例性实施方案中,计算设备800包括向用户呈现信息诸如输入事件和/或验证结果的呈现界面107。呈现界面107还可包括联接到至少一个显示设备110的显示适配器108。更具体地讲,在该示例性实施方案中,显示设备110可为可视显示设备,诸如阴极射线管(CRT)、液晶显示器(LCD)、发光二极管(LED)显示器和/或“电子墨水”显示器。另选地,呈现界面107可包括音频输出设备(例如,音频适配器和/或扬声器)和/或打印机。
计算设备100还包括处理器114和存储器设备118。处理器114经由系统总线120联接到用户界面104、呈现界面107和存储器设备118。在该示例性实施方案中,处理器114与用户通信,诸如通过经由呈现界面107提示用户和/或通过经由用户界面104接收用户输入。术语“处理器”通常是指任何可编程系统,包括系统和微控制器、精简指令集计算机(RISC)、复杂指令集计算机(CISC)、专用集成电路(ASIC)、可编程逻辑电路(PLC)以及能够执行本文所述功能的任何其它电路或处理器。以上示例仅是示例性的,并且因此不旨在以任何方式限制术语“控制器”的定义和/或含义。
在该示例性实施方案中,存储器设备118包括使信息诸如可执行指令和/或其它数据能够被存储和检索的一个或多个设备。此外,存储器设备118包括一个或多个计算机可读介质,诸如但不限于动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、固态磁盘和/或硬盘。在该示例性实施方案中,存储器设备118存储但不限于应用程序源代码、应用程序对象代码、配置数据、附加输入事件、应用程序状态、断言语句、验证结果和/或任何其它类型的数据。在该示例性实施方案中,计算设备100还可包括经由系统总线120联接到处理器114的通信接口130。此外,通信接口130通信地联接到数据采集设备。
在该示例性实施方案中,处理器114可通过使用一个或多个可执行指令对操作进行编码以及在存储器设备118中提供可执行指令来编程。在该示例性实施方案中,处理器114被编程为选择从数据采集设备接收的多个测量值。
在操作中,计算机执行体现在存储在一个或多个计算机可读介质上的一个或多个计算机可执行部件中的计算机可执行指令,以实现本文所述和/或所示的本发明的各方面。除非另外指明,否则本文所示和所述的本发明实施方案中的操作的执行或实施顺序不是必需的。即,除非另外指明,否则这些操作可以任何顺序执行,并且本发明的实施方案可包括比本文所公开的那些操作更多或更少的操作。例如,可以设想,在另一个操作之前、同时或之后执行或实施特定操作在本发明的各方面的范围内。
实施方案可采用完全硬件实施方案、完全软件实施方案或包括硬件元件和软件元件两者的实施方案的形式。实施方案可以软件实现,该软件包括但不限于固件、常驻软件、微码等。
此书面描述使用示例来公开主题,包括最佳模式,并且还使本领域技术人员能够实践主题,包括制造和使用任意设备或系统以及执行任何包含的方法。本专利范围由权利要求书限定,并且可以包括本领域的技术人员想到的其它示例。如果此类其它示例具有与权利要求书的字面语言没有区别的结构元件,或者如果它们包括与权利要求书的字面语言具有微小差别的等效结构元件,则此类其它示例旨在落入权利要求书的范围内。
Claims (15)
1.一种用于自动分割3D医学图像的方法,所述3D医学图像包括待分割的对象,所述方法的特征在于包括:
通过使用机器学习模型,以第一正交取向、第二正交取向和第三正交取向中的至少两个正交取向,对为所述3D医学图像的切片形式的所述对象进行2D分割以导出2D分割数据;
基于所述2D分割数据确定边界框(10)在所述3D医学图像内的位置,所述边界框(10)具有预先确定的尺寸;以及
对所述3D医学图像的对应于所述边界框(10)的部分中的所述对象进行3D分割。
2.根据权利要求1所述的方法,其特征在于针对所述2D分割的每个正交取向使用2D卷积神经网络,所述2D分割中的每一个2D分割针对所述第一正交取向、所述第二正交取向和所述第三正交取向中的相应一个正交取向进行训练。
3.根据权利要求2所述的方法,其特征在于所述2D卷积神经网络中的每一个2D卷积神经网络具有U-Net架构,并且由具有分割的3D训练图像的相应取向的切片训练。
4.根据权利要求1所述的方法,其特征在于所述2D分割数据包括表示所述对象的存在概率的预测值,并且基于所述预测值的组合评估来确定所述边界框(10)在所述3D医学图像内的位置,其中基于所述对象预先确定所述边界框(10)的尺寸。
5.根据权利要求4所述的方法,其特征在于针对所述3D医学图像的体素的所述2D分割的每个相应正交取向生成相应的预测值,并且所述组合评估包括针对所述体素进行以下中的任一项:
针对每个体素取所述对应预测值的平均值;
使用预先确定的阈值将所述预测值二值化并且确定体素,其中所述对应二进制值中的全部表示所述对象的存在;
使用预先确定的阈值将所述预测值二值化并且确定体素,其中所述对应二进制值中的至少两个二进制值表示所述对象的存在。
6.根据权利要求1所述的方法,其特征在于确定所述边界框(10)在所述3D医学图像内的位置包括:
基于所述组合评估确定所述边界框的中心;以及
使用基于至少一个分割的3D训练图像预先确定的所述边界框的尺寸。
7.根据权利要求1所述的方法,其特征在于以相对于所述3D医学图像的全分辨率减小的分辨率进行所述2D分割。
8.根据权利要求1所述的方法,其特征在于通过3D卷积神经网络进行所述3D分割。
9.根据权利要求8所述的方法,其特征在于所述3D卷积神经网络具有U-Net架构并且由分割的3D训练图像的部分训练,所述部分在尺寸上对应于所述边界框(10)。
10.一种用于自动分割3D医学图像的系统,所述3D医学图像包括待分割的对象,所述系统的特征在于包括:
2D分割单元(12),所述2D分割单元使用机器学习模型并且被配置成以第一正交取向、第二正交取向和第三正交取向中的至少两个正交取向,对为所述3D医学图像的切片形式的所述对象进行2D分割以导出2D分割数据;
确定单元(13),所述确定单元被配置成基于所述2D分割数据确定边界框(10)在所述3D医学图像内的位置,所述边界框(10)具有预先确定的尺寸;和
3D分割单元(15),所述3D分割单元被配置成对所述3D医学图像的对应于所述边界框(10)的部分中的所述对象进行3D分割。
11.根据权利要求10所述的系统,其特征在于所述2D分割单元(12)包括用于所述2D分割的每个正交取向的2D卷积神经网络,所述2D分割中的每一个2D分割针对所述第一正交取向、所述第二正交取向和所述第三正交取向中的相应一个正交取向进行训练。
12.根据权利要求11所述的系统,其特征在于所述2D卷积神经网络中的每一个2D卷积神经网络具有U-Net架构,并且由具有分割的3D训练图像的相应取向的切片训练。
13.根据权利要求10所述的系统,其特征在于所述3D分割单元(15)包括3D卷积神经网络。
14.根据权利要求13所述的系统,其特征在于所述3D卷积神经网络具有U-Net架构并且由分割的3D训练图像的部分训练,所述部分在尺寸上对应于所述边界框(10)。
15.一种包括指令的计算机可读介质,所述指令在被计算机执行时使得所述计算机进行根据权利要求1所述的方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962924864P | 2019-10-23 | 2019-10-23 | |
US62/924,864 | 2019-10-23 | ||
EP20153471.6A EP3889888A1 (en) | 2019-10-23 | 2020-01-23 | Method, system and computer readable medium for automatic segmentation of a 3d medical image |
EP20153471.6 | 2020-01-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112700451A true CN112700451A (zh) | 2021-04-23 |
Family
ID=75505838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011099705.5A Pending CN112700451A (zh) | 2019-10-23 | 2020-10-14 | 用于自动分割3d医学图像的方法、系统和计算机可读介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11581087B2 (zh) |
CN (1) | CN112700451A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113628216A (zh) * | 2021-08-11 | 2021-11-09 | 北京百度网讯科技有限公司 | 模型训练方法、图像分割方法、装置及相关产品 |
CN114332087A (zh) * | 2022-03-15 | 2022-04-12 | 杭州电子科技大学 | Octa图像的三维皮层表面分割方法及系统 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115707429A (zh) * | 2021-08-20 | 2023-02-21 | 佳能医疗系统株式会社 | 磁共振成像用脏器分割装置及其方法、磁共振成像装置 |
KR102591587B1 (ko) * | 2021-08-26 | 2023-10-18 | 서울여자대학교 산학협력단 | 의료 영상 분할 장치 및 의료 영상 분할 방법 |
US20230097224A1 (en) * | 2021-09-28 | 2023-03-30 | Varian Medical Systems, Inc. | Ai-based atlas mapping slice localizer for deep learning autosegmentation |
US12039735B2 (en) * | 2021-11-17 | 2024-07-16 | Xue Feng | Systems and methods for automatic segmentation of organs from head and neck tomographic images |
CN114299010A (zh) * | 2021-12-27 | 2022-04-08 | 深圳市联影高端医疗装备创新研究院 | 脑部肿瘤图像的分割方法、装置、计算机设备和存储介质 |
CN114792315B (zh) * | 2022-06-22 | 2022-10-11 | 浙江太美医疗科技股份有限公司 | 医学图像视觉模型训练方法和装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017210690A1 (en) * | 2016-06-03 | 2017-12-07 | Lu Le | Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans |
WO2018039380A1 (en) * | 2016-08-26 | 2018-03-01 | Elekta, Inc. | Systems and methods for image segmentation using convolutional neural network |
US20180315188A1 (en) * | 2017-04-21 | 2018-11-01 | General Electric Company | Automated organ risk segmentation machine learning methods and systems |
CN109410185A (zh) * | 2018-10-10 | 2019-03-01 | 腾讯科技(深圳)有限公司 | 一种图像分割方法、装置和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012109658A2 (en) * | 2011-02-11 | 2012-08-16 | Emory University | Systems, methods and computer readable storage mediums storing instructions for segmentation of medical images |
WO2018015414A1 (en) * | 2016-07-21 | 2018-01-25 | Siemens Healthcare Gmbh | Method and system for artificial intelligence based medical image segmentation |
US10621720B2 (en) * | 2017-04-27 | 2020-04-14 | Siemens Healthcare Gmbh | Deformable registration of magnetic resonance and ultrasound images using biomechanical models |
US20200342600A1 (en) * | 2018-01-08 | 2020-10-29 | Progenics Pharmaceuticals, Inc. | Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination |
CN109872333B (zh) * | 2019-02-20 | 2021-07-06 | 腾讯科技(深圳)有限公司 | 医学影像分割方法、装置、计算机设备和存储介质 |
-
2020
- 2020-10-07 US US17/064,680 patent/US11581087B2/en active Active
- 2020-10-14 CN CN202011099705.5A patent/CN112700451A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017210690A1 (en) * | 2016-06-03 | 2017-12-07 | Lu Le | Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans |
WO2018039380A1 (en) * | 2016-08-26 | 2018-03-01 | Elekta, Inc. | Systems and methods for image segmentation using convolutional neural network |
US20180315188A1 (en) * | 2017-04-21 | 2018-11-01 | General Electric Company | Automated organ risk segmentation machine learning methods and systems |
CN109410185A (zh) * | 2018-10-10 | 2019-03-01 | 腾讯科技(深圳)有限公司 | 一种图像分割方法、装置和存储介质 |
Non-Patent Citations (5)
Title |
---|
BOB D. DE VOS 等: "ConvNet-Based Localization of Anatomical Structures in 3D Medical Images", 《ARXIV》, 19 April 2017 (2017-04-19), pages 1 - 12 * |
CHRISTIAN PAYER 等: "Multi-label Whole Heart Segmentation Using CNNs and Anatomical Label Configurations", 《STATISTICAL ATLASES AND COMPUTATIONAL MODELS OF THE HEART ACDC AND MMWHS CHALLENGES》, 15 March 2018 (2018-03-15), pages 190 - 198, XP047465749, DOI: 10.1007/978-3-319-75541-0_20 * |
HAO LI 等: "A Model-Driven Stack-Based Fully Convolutional Network for Pancreas Segmentation", 《ARXIV》, 3 March 2019 (2019-03-03), pages 1 - 6 * |
JIAMIN LIU 等: "Cascaded Coarse-to-fine Convolutional Neural Networks for Pericardial Effusion Localization and Segmentation on CT Scans", 《2018 IEEE 15TH INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING (ISBI 2018)》, 7 April 2018 (2018-04-07), pages 1092 - 1095, XP033348339, DOI: 10.1109/ISBI.2018.8363761 * |
QIANGGUO JIN 等: "RA-UNet: A hybrid deep attention-aware network to extract liver and tumor in CT scans", 《ARXIV》, 4 November 2018 (2018-11-04), pages 1 - 13 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113628216A (zh) * | 2021-08-11 | 2021-11-09 | 北京百度网讯科技有限公司 | 模型训练方法、图像分割方法、装置及相关产品 |
CN114332087A (zh) * | 2022-03-15 | 2022-04-12 | 杭州电子科技大学 | Octa图像的三维皮层表面分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US11581087B2 (en) | 2023-02-14 |
US20210125707A1 (en) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11581087B2 (en) | Method, system and computer readable medium for automatic segmentation of a 3D medical image | |
EP3855391A1 (en) | Methods and systems for characterizing anatomical features in medical images | |
Ardekani et al. | Analysis of the MIRIAD data shows sex differences in hippocampal atrophy progression | |
US9471987B2 (en) | Automatic planning for medical imaging | |
EP2916738B1 (en) | Lung, lobe, and fissure imaging systems and methods | |
Kim et al. | Automatic hippocampal segmentation in temporal lobe epilepsy: impact of developmental abnormalities | |
US9098912B2 (en) | Method, system and computer readable medium for automatic segmentation of a medical image | |
US20080298657A1 (en) | Computer-Aided Method for Detection of Interval Changes in Successive Whole-Body Bone Scans and Related Computer Program Program Product and System | |
US8588498B2 (en) | System and method for segmenting bones on MR images | |
US20220020152A1 (en) | Apparatus for identifying regions in a brain image | |
JP6595729B2 (ja) | 医療画像における変化検出 | |
US20050063579A1 (en) | Method of automatically detecting pulmonary nodules from multi-slice computed tomographic images and recording medium in which the method is recorded | |
Stoel et al. | Automated brain computed tomographic densitometry of early ischemic changes in acute stroke | |
EP2689344B1 (en) | Knowledge-based automatic image segmentation | |
Gao et al. | A novel software tool for semi-automatic quantification of thoracic aorta dilatation on baseline and follow-up computed tomography angiography | |
EP3889888A1 (en) | Method, system and computer readable medium for automatic segmentation of a 3d medical image | |
US10702156B2 (en) | Systems and methods for improved tractography images | |
US20240188833A1 (en) | Systems, apparatus and methods for determining aneurysm and arterial wall enhancement | |
Ruskó et al. | Deep-Learning-based Segmentation of Organs-at-Risk in the Head for MR-assisted Radiation Therapy Planning. | |
Chauvie et al. | Automatic liver detection and standardised uptake value evaluation in whole-body positron emission tomography/computed tomography scans | |
Grigorios-Aris et al. | Automatic segmentation of lungs in SPECT images using active shape model trained by meshes delineated in CT images | |
Babu et al. | Comparative analysis of active contour models for brain tumor segmentation from T1w MRI images | |
Piedra et al. | Assessing variability in brain tumor segmentation to improve volumetric accuracy and characterization of change | |
KR102555996B1 (ko) | 의료 영상에 기반하여 목적 부위에 대한 질환을 결정하기 위한 장치 및 방법 | |
US11836926B2 (en) | System and method for contouring a set of medical images based on deep learning algorithm and anatomical properties |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |