CN114782371A - 一种基于人工智能的脑区自动分割方法 - Google Patents
一种基于人工智能的脑区自动分割方法 Download PDFInfo
- Publication number
- CN114782371A CN114782371A CN202210441919.9A CN202210441919A CN114782371A CN 114782371 A CN114782371 A CN 114782371A CN 202210441919 A CN202210441919 A CN 202210441919A CN 114782371 A CN114782371 A CN 114782371A
- Authority
- CN
- China
- Prior art keywords
- image data
- data
- model
- segmentation
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
一种基于人工智能的脑区自动分割方法,包括模型训练阶段及模型使用阶段;模型训练阶段包括:一、准备原始数据;二、生成训练数据;对原始图像数据进行预处理、重采样;三、模型训练;将标准模板分割图像数据和训练数据中的图像数据输入至深度神经网络模型,通过模型输出预测的标签分割图像数据,再与训练数据中的重采样后的标签分割图像数据一并计算loss损失函数;模型使用阶段包括:获得新的脑MRI扫描图像,对新原始图像数据进行预处理;然后进行重采样;获得的数据作为使用数据,与标准模板分割图像数据同时输入至训练好的模型,输出预测的标签分割图像数据。本发明脑区分割识别准确率更高,模型更稳定,分割细节更加丰富,可实时进行。
Description
技术领域
本发明涉及人工智能医学图像处理领域,具体涉及一种基于人工智能的脑区自动分割方法。
背景技术
医学影像技术是研究大脑及脑部疾病最常见的技术辅助手段。常见的影像技术主要有计算机断层扫描、正电子发射断层扫描、脑电图和磁共振成像(magnetic resonanceimaging,MRI)等。相比其他影像学技术,MRI技术因其无侵入、无辐射、分辨率高等众多优点被科研人员和临床医生青睐。大脑能够执行各样任务是由不同的脑区作用或者跨区域协同作用的,将大脑分割为不同的区域是进行脑疾病分析及研究大脑的重要步骤之一。通常情况下,手动分割是人脑图像分割的金标准。然而,这要求人工画出脑成像数据的每一张组织结构,此方式不仅昂贵、冗长乏味、过度依赖操作者,不同医生之间分割差异大,可再现性低,而且不可避免会因人工错误造成结果出现偏差,很难获得大量完整标注的、精确度高的医学图像数据集。
当前,脑区划分方法主要分为两类,传统方法以及基于深度学习的方法。传统方法又包括基于图谱的脑区分割,它把分割问题转化为配准问题,是一个综合了先验知识的较为完整的系统框架。而深度学习技术正在超越传统的经典方法,被广泛用于精确分割大脑区域。Dolz等人基于不同尺度的特征信息,使用3D卷积神经网络框架用于MRI脑结构分割,进行了端到端的有效训练;Shakeri等人基于全卷积神经网络提出一种深度学习方法用于分割2D人脑皮层下结构;Bernal等人对不同的全卷积神经网络2D和3D架构进行了定量分析,用于MRI全脑组织分割,等。
然而,大脑区域自动分割面临多个困难,如大脑功能区域众多,个体差异明显,成像设备造成的伪影和噪声,部分体积效应造成的数据边缘模糊等。
因此,基于深度学习模型和基于图谱的脑区域分割方法,我们提出了一种基于先验信息的全脑组织分割的深度学习算法。通过引入先验特征,该方法可以使分割结果更加准确、快速。这不仅为后续医学图像数据分析打好了基础,还提升了医疗AI辅助诊断的分类准确率,为术中导航、准确定位病变位置、观测病变部位变化等应用方向提供了技术支撑。
对大脑准确地进行脑区分割是后续进行脑数据分析、手术操作、病灶跟踪等重要的先决步骤之一。在过去的几年里,人们尝试使用多种技术来分割大脑以找到最准确的结果,至今这仍然是一项艰巨的任务。
因此,本发明提出了一种新的技术方案,其涉及的方法可以快速、准确的将大脑分割为不同的区域。
发明内容
本发明的目的是提供一种基于人工智能的脑区自动分割方法。
为达到上述目的,本发明采用的技术方案是:
一种基于人工智能的脑区自动分割方法,包括模型训练阶段以及模型使用阶段;其中,
所述模型训练阶段包括:
步骤一、准备原始数据
采用至少一组数据集,该组数据集为脑MRI扫描图像数据集,该数据集包含至少50位受试者的脑MRI扫描图像;
步骤二、生成训练数据
①对所述数据集中的原始图像数据进行预处理,包括:
将数据集中的各图像数据统一至同一坐标系中;
将统一坐标系之后的所述图像数据逐一与一标准模板图像数据进行线性配准;
以及,对所述图像数据进行脑部区域的提取;
②获得和预处理后的图像数据对应的标签分割图像数据,步骤包括:
首先,将预处理后的图像数据与所述标准模板图像数据进行非线性配准,并获得一变形场;
然后,将该变形场应用于所述标准模板分割图像数据,获得预处理后的图像数据对应的标签分割图像数据;
③数据重采样
将预处理后的图像数据及其对应的所述标签分割图像数据重采样至同一固定尺寸a×b×c,获得训练数据,其中a、b、c均为16的倍数;
步骤三、模型训练
将所述标准模板分割图像数据和所述训练数据中的图像数据同时输入至一深度神经网络模型,通过该神经网络模型输出一当前预测的标签分割图像数据,再与所述训练数据中的经过重采样后的标签分割图像数据一并计算loss损失函数用于该模型参数迭代,得到一当前训练模型;重复上述操作,直到loss值稳定;选取一最优训练模型,作为最终模型,实现所述深度神经网络模型的训练;
所述模型使用阶段包括:
①获得一新的脑MRI扫描图像,对所述新的脑MRI扫描图像的新原始图像数据进行所述预处理;
②对预处理后的新原始图像数据进行所述重采样;
③将重采样后的预处理后的新原始图像数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的标签分割图像数据。
上述技术方案中的有关内容解释如下:
1.上述方案中,所述预处理的目的在于将具有不同的采集参数的不同的数据进行数据的统一。
2.上述方案中,所述标准模板图像数据和所述标准模板分割图像数据属于一模板空间,该模板空间为脑部MRI标准模板图像数据空间,模板空间为公开的现有技术或数据,本领域技术人员可获得并使用。本发明使用的是BRODMANN模板。
3.上述方案中,在模型训练阶段的步骤一中,所述数据集包括ABIDE数据集和ADHD-200数据集。
4.上述方案中,在模型训练阶段的步骤一中,将所述数据集中的图像数据按7:2:1分为训练组、验证组和测试组。
5.上述方案中,将步骤一中所述数据集的图像数据经步骤二生成训练数据后,按7:2:1分为训练组、验证组和测试组。
6.上述方案中,所述训练组数据按步骤三计算所述loss损失函数后,采用反向传播算法实现模型参数迭代;所述验证组与所述测试组按步骤三计算所述loss损失函数后,将loss值作为评价指数以评估训练效果。
所述验证组是在训练过程中进行评估,所述测试组是在训练完成后进行一次评估,具体的评估区别以及评估原理为现有技术,均为本领域技术人员所熟知掌握。
7.上述方案中,在步骤三中,所述最优训练模型为经过验证组数据验证,且经过测试组数据测试后,loss值相对最小的模型。
8.上述方案中,在模型训练阶段的步骤三之后,还包括对训练完成的所述深度神经网络模型进行验证,验证的过程包括:
①对所述验证组中的原始图像数据进行所述预处理;
②对预处理后的验证组的图像数据进行所述重采样;
③将重采样后的数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的验证阶段的标签分割图像数据;
并将该验证阶段的标签分割图像数据与步骤二的②中所述预处理后的图像数据对应的标签分割图像数据进行比较,用于对模型训练过程进行评估。具体评估原理为现有技术,为本领域技术人员所熟知掌握。
9.上述方案中,还包括对训练完成的所述深度神经网络模型进行测试,测试的过程包括:
①对所述测试组中的原始图像数据进行所述预处理;
②对预处理后的测试组的图像数据进行所述重采样;
③将重采样后的数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的测试阶段的标签分割图像数据。
并将该测试阶段的标签分割图像数据与步骤二的②中所述预处理后的图像数据对应的标签分割图像数据进行比较,用于对模型训练结果进行评估。具体评估原理为现有技术,为本领域技术人员所熟知掌握。
10.上述方案中,在模型训练阶段的步骤一中,还包括第二组数据集,并将该第二组数据集作为再测试组。
11.上述方案中,所述第二组数据集包括PPMI数据集。
12.上述方案中,在模型训练阶段的步骤二中,①中的所述预处理以及②中的获得所述标签分割图像数据、③中的所述重采样均通过单独或组合使用ITK、Slicer、Freesurfer医学图像处理软件进行。
13.上述方案中,在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中;
其次,将统一坐标系之后的所述图像数据逐一与所述标准模板图像数据进行线性配准;
最后,对线性配准后的图像数据进行脑部区域的提取。
14.上述方案中,在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中,同时对各所述图像数据进行脑部区域的提取;
其次,将统一坐标系之后的所述图像数据逐一与所述标准模板图像数据进行线性配准,并得到配准变换矩阵;
最后,将线性配准后的变换矩阵应用于提取获得的脑部区域的图像数据中。
15.上述方案中,在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中;
其次,对统一坐标系之后的各所述图像数据逐一进行脑部区域的提取;
最后,将提取获得的脑部区域的图像数据逐一与所述标准模板图像数据进行线性配准。
16.上述方案中,在模型训练阶段的步骤三中,所述神经网络模型为一3D图像分割网络,包括但不限于VNet3D、UNet3D等及对应变种。
17.上述方案中,在模型训练阶段的步骤三中,采用广义骰子评价评价多类分割,广义骰子损失如下:
其中,rln表示类别l在第n个体素的标准值,而pln表示相应的预测值,ωl表示每个类别的权重。
本发明的工作原理及优点如下:
本发明提出了一种基于人工智能的脑区自动分割方法,通过引入先验特征,并基于当前流行的框架来分割大脑,获取多个标签分割区域。相较于传统图像的分割方式,本发明具有快速、精准、稳定的特点;相较于其他深度学习方法,本发明不依赖手动标定的数据集,可以快速扩增大量数据,提高深度学习模型的准确性。
通过与训练集同源的测试集以及来自新鲜样本的测试集验证可知,本发明可以直接将全脑精准地划分为多个脑区,在脑区划分上具有分割能力强、稳定性高、泛化能力强等优势。
综上,本发明的优点包括:脑区分割识别准确率更高,模型更稳定;脑区分割结果细节更加丰富;可对大脑实时进行脑区分割。
附图说明
附图1为本发明实施例模型训练阶段中生成训练数据的流程框图;
附图2为本发明实施例模型训练阶段中模型训练的流程框图;
附图3为本发明实施例模型训练后对模型进行验证或测试或再测试的流程框图;
附图4为本发明实施例模型使用阶段的流程框图;
附图5为本发明实施例模型训练阶段的步骤一中数据集的分组示意图。
具体实施方式
下面结合附图及实施例对本发明作进一步描述:
实施例:以下将以图式及详细叙述对本案进行清楚说明,任何本领域技术人员在了解本案的实施例后,当可由本案所教示的技术,加以改变及修饰,其并不脱离本案的精神与范围。
本文的用语只为描述特定实施例,而无意为本案的限制。
关于本文中所使用的“包含”、“包括”、“具有”等,均为开放性的用语,即意指包含但不限于。
关于本文中所使用的用词(terms),除有特别注明外,通常具有每个用词使用在此领域中、在本案内容中与特殊内容中的平常意义。某些用以描述本案的用词将于下或在此说明书的别处讨论,以提供本领域技术人员在有关本案描述上额外的引导。
一种基于人工智能的脑区自动分割方法,包括模型训练阶段以及模型使用阶段;其中,
所述模型训练阶段包括:
步骤一、准备原始数据
采用至少一组数据集,该组数据集可为T1加权脑MRI扫描图像数据集,该数据集包含至少50位受试者的T1加权脑MRI扫描图像;
步骤二、生成训练数据(见图1)
①对所述数据集中的原始图像数据进行预处理,包括:
将数据集中的各图像数据统一至同一坐标系中,并将坐标原点设为零点;所述坐标系可为RAI(Right,Anterior,Inferior)坐标系;
将统一坐标系之后的所述图像数据逐一与一标准模板图像数据进行线性配准;
以及,对所述图像数据进行脑部区域的提取,即MRI图像仅保留脑区域,而去除头骨、眼部等区域;
②获得和预处理后的图像数据对应的标签分割图像数据,步骤包括:
首先,将预处理后的图像数据与所述标准模板图像数据进行非线性配准,并获得一变形场;
然后,将该变形场应用于所述标准模板分割图像数据,获得预处理后的图像数据对应的标签分割图像数据;
③数据重采样
将预处理后的图像数据及其对应的所述标签分割图像数据重采样至同一固定尺寸a×b×c,获得训练数据,其中a、b、c均为16的倍数;
该步骤二针对所述数据集中的每一图像数据生成训练数据,最终形成对应所述数据集的训练数据集。
步骤三、模型训练(见图2)
将所述标准模板分割图像数据和所述训练数据中的图像数据同时输入至一深度神经网络模型,通过该神经网络模型输出一当前预测的标签分割图像数据,再与所述训练数据中的经过重采样后的标签分割图像数据一并计算loss损失函数用于该模型参数迭代;通过反向传播算法,使损失函数最小化,重复上述操作,直到loss值稳定;选取一最优训练模型,作为最终模型,实现所述深度神经网络模型的训练;
所述模型使用阶段包括(见图4):
①获得一新的脑MRI扫描图像,来自需进行脑区自动分割的当前患者,对所述新的脑MRI扫描图像的新原始图像数据进行所述预处理;(具体的预处理步骤同模型训练阶段的步骤二的①)
②对预处理后的新原始图像数据进行所述重采样;(同模型训练阶段的步骤二的③,即重采样至一固定尺寸a×b×c,其中a、b、c均为16的倍数)
③将重采样后的预处理后的新原始图像数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的标签分割图像数据,作为当前患者的脑区自动分割结果。
优选的,在模型训练阶段的步骤一中,所述数据集包括ABIDE(Autism brainImaging Data Exchange)数据集和ADHD-200(Attention-Deficit HyperactivityDisorder)数据集。
优选的,如图5所示,在模型训练阶段的步骤一中,将所述数据集中的图像数据按7:2:1分为训练组、验证组和测试组。
或者,将步骤一中所述数据集的图像数据经步骤二生成训练数据后,按7:2:1分为训练组、验证组和测试组。
其中,在模型训练阶段的步骤三之后,还包括对训练完成的所述深度神经网络模型进行验证,验证的过程包括(见图3):
①对所述验证组中的原始图像数据进行所述预处理;(同模型训练阶段的步骤二的①)
②对预处理后的验证组的图像数据进行所述重采样;(同模型训练阶段的步骤二的③,即重采样至一固定尺寸a×b×c,其中a、b、c均为16的倍数)
③将重采样后的数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的验证阶段的标签分割图像数据。
并将该验证阶段的标签分割图像数据与步骤二的②中所述预处理后的图像数据对应的标签分割图像数据进行比较,用于对模型训练过程进行评估。
优选的,还包括对训练完成的所述深度神经网络模型进行测试,测试的过程包括(见图3):
①对所述测试组中的原始图像数据进行所述预处理;(同模型训练阶段的步骤二的①)
②对预处理后的测试组的图像数据进行所述重采样;(同模型训练阶段的步骤二的③,即重采样至一固定尺寸a×b×c,其中a、b、c均为16的倍数)
③将重采样后的数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的测试阶段的标签分割图像数据。
并将该测试阶段的标签分割图像数据与步骤二的②中所述预处理后的图像数据对应的标签分割图像数据进行比较,用于对模型训练结果进行评估。
优选的,在模型训练阶段的步骤一中,还包括第二组数据集,并将该第二组数据集作为再测试组,以进一步测试训练模型的可靠性(见图3)。该再测试组的测试过程同所述测试组,为测试组的补充,用于评估训练模型的泛化能力。所述第二组数据集包括PPMI(Parkinson Progression Marker Initiative)数据集。
本发明将ABIDE和ADHD-200用于模型的训练、验证与测试,使用PPMI作为新鲜样本(指区别于训练数据)测试模型的泛化能力。其中,ABIDE、ADHD-200、PPMI均为公开可用的数据集。
优选的,在模型训练阶段的步骤二中,①中的所述预处理以及②中的获得所述标签分割图像数据、③中的所述重采样均通过单独或组合使用ITK、Slicer、Freesurfer医学图像处理软件进行,以上三种软件为举例说明,并不以此为限制。
优选的,在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中;
其次,将统一坐标系之后的所述图像数据逐一与所述标准模板图像数据进行线性配准;
最后,对线性配准后的图像数据进行脑部区域的提取。
次选的,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中,同时对各所述图像数据进行脑部区域的提取;
其次,将统一坐标系之后的所述图像数据逐一与所述标准模板图像数据进行线性配准,并得到配准变换矩阵;
最后,将线性配准后的变换矩阵应用于提取获得的脑部区域的图像数据中。
备选的,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中;
其次,对统一坐标系之后的各所述图像数据逐一进行脑部区域的提取;
最后,将提取获得的脑部区域的图像数据逐一与所述标准模板图像数据进行线性配准。
其中,在模型训练阶段的步骤三中,所述神经网络模型为一3D图像分割网络,包括但不限于VNet3D或UNet3D或其他的分割神经网络及其改进类型,以VNet3D模型为佳。
优选的,在模型训练阶段的步骤三中,采用广义骰子评价(GDS,generalized dicescore)评价多类分割,其将多个类别的骰子损失(dice loss)进行整合,实现用一个指标评价多类分割。广义骰子损失(GDL,generalized dice loss)如下:
其中,rln表示类别l在第n个体素的标准值(参考图像),而pln表示相应的预测值,ωl表示每个类别的权重。借此设计,以进一步增加训练的准确性。
以下通过图表对本发明的技术效果作出进一步说明:
本发明可使用ABIDE、ADHD-200以及PPMI三个数据库共175个受试者的T1加权像进行模型训练、验证和测试。160个受试者来自ABIDE和ADHD-200数据集,10个来自ABIDE和ADHD-200数据集,5个来自PPMI数据集。
为验证本发明的有效性,本发明与以下常用的图像分割框架进行对比:
以UNet3D、VNet3D以及VoxelMorph-2为例子,得到不同方法下的分割结果。分割结果使用dice系数作为评价标准,取值范围为0~1,该值越接近1,分割性能越好。
表1给出了UNet3D、VNet3D以及VoxelMorph-2和本发明四种方法在ABIDE和ADHD-200数据集上得到的最大dice值、最小dice值、平均dice值和标准差。
由表1可以得到以下结果:
首先,UNet3D的dice值最大值可以达到0.85,高于V-net,但最小值最低,稳定性最差。
其次,与常用的医学图像分割模型UNet3D和VNet3D相比,VoxelMorph框架的各项dice得分均优于两种方法,这也显示了VoxelMorph在大脑区域医学图像分割中的应用潜力。
本发明的性能略好于VoxelMorph-2,特别是平均dice得分提高了至少2%,具有较高的优势。
标准差值由高到低依次为:本发明<VoxelMorph-2=V-net<Unet3d。从以上结果可以看出,与其他方法相比,本发明在具有更好的分割能力同时,有更高的稳定性。
表1不同方法下在ABIDE和ADHD-200测试集下得到的dice值
方法 | 最大dice值 | 最小dice值 | 平均dice值 |
Unet3d | 0.85 | 0.50 | 0.67±0.115 |
V-net | 0.83 | 0.67 | 0.78±0.051 |
VoxelMorph-2 | 0.86 | 0.69 | 0.80±0.051 |
本发明 | 0.87 | 0.73 | 0.82±0.034 |
为了验证所提模型的泛化能力,将从ABIDE和ADHD-200数据集训练得到的模型应用于新鲜受试者上。在此选择的新鲜样本是PPMI数据集。表2显示了Unet3d、V-net、VoxelMorph-2以及本发明在PPMI数据集上的最大dice值、最小dice值、平均dice值和标准差。
表2不同方法下在PPMI测试集下得到的dice值
方法 | 最大dice值 | 最小dice值 | 平均dice值 |
Unet3d | 0.84 | 0.61 | 0.70±0.079 |
V-net | 0.78 | 0.70 | 0.74±0.024 |
VoxelMorph-2 | 0.82 | 0.73 | 0.76±0.021 |
本发明 | 0.83 | 0.76 | 0.78±0.025 |
由表2可以看出,虽然Unet3d的最大dice值在四种方法中是最高的,但其平均dice值和稳定性仍然是最低和最差的。VoxelMorph架构仍然优于Unet3d和V-net。四种脑区域分割方法的平均dice值由高到低依次为:本发明>VoxelMorph-2>V-net>Unet3d。以上结果表明,本发明不仅稳定性高,分割能力强,而且具有较高的泛化能力。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (15)
1.一种基于人工智能的脑区自动分割方法,其特征在于:
包括模型训练阶段以及模型使用阶段;其中,
所述模型训练阶段包括:
步骤一、准备原始数据
采用至少一组数据集,该组数据集为脑MRI扫描图像数据集,该数据集包含至少50位受试者的脑MRI扫描图像;
步骤二、生成训练数据
①对所述数据集中的原始图像数据进行预处理,包括:
将数据集中的各图像数据统一至同一坐标系中;
将统一坐标系之后的所述图像数据逐一与一标准模板图像数据进行线性配准;
以及,对所述图像数据进行脑部区域的提取;
②获得和预处理后的图像数据对应的标签分割图像数据,步骤包括:
首先,将预处理后的图像数据与所述标准模板图像数据进行非线性配准,并获得一变形场;
然后,将该变形场应用于所述标准模板分割图像数据,获得预处理后的图像数据对应的标签分割图像数据;
③数据重采样
将预处理后的图像数据及其对应的所述标签分割图像数据重采样至同一固定尺寸a×b×c,获得训练数据,其中a、b、c均为16的倍数;
步骤三、模型训练
将所述标准模板分割图像数据和所述训练数据中的图像数据同时输入至一深度神经网络模型,通过该神经网络模型输出一当前预测的标签分割图像数据,再与所述训练数据中的经过重采样后的标签分割图像数据一并计算loss损失函数用于该模型参数迭代,得到一当前训练模型;重复上述操作,直到loss值稳定;选取一最优训练模型,作为最终模型,实现所述深度神经网络模型的训练;
所述模型使用阶段包括:
①获得一新的脑MRI扫描图像,对所述新的脑MRI扫描图像的新原始图像数据进行所述预处理;
②对预处理后的新原始图像数据进行所述重采样;
③将重采样后的预处理后的新原始图像数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的标签分割图像数据。
2.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤一中,所述数据集包括ABIDE数据集和ADHD-200数据集。
3.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤一中,将所述数据集中的图像数据按7:2:1分为训练组、验证组和测试组。
4.根据权利要求1所述的脑区自动分割方法,其特征在于:将步骤一中所述数据集的图像数据经步骤二生成训练数据后,按7:2:1分为训练组、验证组和测试组。
5.根据权利要求3或4所述的脑区自动分割方法,其特征在于:所述训练组数据按步骤三计算所述loss损失函数后,采用反向传播算法实现模型参数迭代;所述验证组与所述测试组按步骤三计算所述loss损失函数后,将loss值作为评价指数以评估训练效果。
6.根据权利要求3或4所述的脑区自动分割方法,其特征在于:
其中,在模型训练阶段的步骤三之后,还包括对训练完成的所述深度神经网络模型进行验证,验证的过程包括:
①对所述验证组中的原始图像数据进行所述预处理;
②对预处理后的验证组的图像数据进行所述重采样;
③将重采样后的数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的验证阶段的标签分割图像数据;
并将该验证阶段的标签分割图像数据与步骤二的②中所述预处理后的图像数据对应的标签分割图像数据进行比较,用于对模型训练过程进行评估。
7.根据权利要求3或4所述的脑区自动分割方法,其特征在于:
还包括对训练完成的所述深度神经网络模型进行测试,测试的过程包括:
①对所述测试组中的原始图像数据进行所述预处理;
②对预处理后的测试组的图像数据进行所述重采样;
③将重采样后的数据作为使用数据,将所述使用数据以及所述标准模板分割图像数据同时输入至训练好的所述深度神经网络模型,通过该神经网络模型输出一预测的测试阶段的标签分割图像数据。
并将该测试阶段的标签分割图像数据与步骤二的②中所述预处理后的图像数据对应的标签分割图像数据进行比较,用于对模型训练结果进行评估。
8.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤一中,还包括第二组数据集,并将该第二组数据集作为再测试组。
9.根据权利要求8所述的脑区自动分割方法,其特征在于:所述第二组数据集包括PPMI数据集。
10.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤二中,①中的所述预处理以及②中的获得所述标签分割图像数据、③中的所述重采样均通过单独或组合使用ITK、Slicer、Freesurfer医学图像处理软件进行。
11.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中;
其次,将统一坐标系之后的所述图像数据逐一与所述标准模板图像数据进行线性配准;
最后,对线性配准后的图像数据进行脑部区域的提取。
12.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中,同时对各所述图像数据进行脑部区域的提取;
其次,将统一坐标系之后的所述图像数据逐一与所述标准模板图像数据进行线性配准,并得到配准变换矩阵;
最后,将线性配准后的变换矩阵应用于提取获得的脑部区域的图像数据中。
13.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤二中,①中的所述预处理包括:
首先,将数据集中的各图像数据统一至同一坐标系中;
其次,对统一坐标系之后的各所述图像数据逐一进行脑部区域的提取;
最后,将提取获得的脑部区域的图像数据逐一与所述标准模板图像数据进行线性配准。
14.根据权利要求1所述的脑区自动分割方法,其特征在于:在模型训练阶段的步骤三中,所述神经网络模型为一3D图像分割网络,包括但不限于VNet3D、UNet3D。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210441919.9A CN114782371A (zh) | 2022-04-25 | 2022-04-25 | 一种基于人工智能的脑区自动分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210441919.9A CN114782371A (zh) | 2022-04-25 | 2022-04-25 | 一种基于人工智能的脑区自动分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114782371A true CN114782371A (zh) | 2022-07-22 |
Family
ID=82432781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210441919.9A Pending CN114782371A (zh) | 2022-04-25 | 2022-04-25 | 一种基于人工智能的脑区自动分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782371A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115171198A (zh) * | 2022-09-02 | 2022-10-11 | 腾讯科技(深圳)有限公司 | 模型质量评估方法、装置、设备及存储介质 |
-
2022
- 2022-04-25 CN CN202210441919.9A patent/CN114782371A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115171198A (zh) * | 2022-09-02 | 2022-10-11 | 腾讯科技(深圳)有限公司 | 模型质量评估方法、装置、设备及存储介质 |
CN115171198B (zh) * | 2022-09-02 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 模型质量评估方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106056595B (zh) | 基于深度卷积神经网络自动识别甲状腺结节良恶性的辅助诊断系统 | |
CN103249358B (zh) | 医用图像处理装置 | |
CN112101451B (zh) | 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法 | |
CN113516210B (zh) | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 | |
CN104093354B (zh) | 用于评估医学图像的方法和设备 | |
CN107316334B (zh) | 个性化精准磁共振影像方法 | |
CN112529894A (zh) | 一种基于深度学习网络的甲状腺结节的诊断方法 | |
CN105205810B (zh) | 基于距离场融合的mr图像海马体分割方法 | |
CN112348785B (zh) | 一种癫痫病灶定位方法及系统 | |
CN109215040B (zh) | 一种基于多尺度加权学习的乳腺肿瘤分割方法 | |
CN111430025B (zh) | 一种基于医疗影像数据扩增的疾病诊断模型训练方法 | |
CN115359305B (zh) | 一种大脑纤维束异常区域精准定位系统 | |
CN111192248A (zh) | 一种用于核磁共振成像中的椎体定位、识别和分割的多任务关系学习方法 | |
CN117172294B (zh) | 一种稀疏脑网络的构建方法、系统、设备和存储介质 | |
CN112085113A (zh) | 一种重症肿瘤影像识别系统及方法 | |
CN113744271A (zh) | 基于神经网络的视神经自动分割和受压迫程度测算方法 | |
CN109949288A (zh) | 肿瘤类型确定系统、方法及存储介质 | |
CN114782371A (zh) | 一种基于人工智能的脑区自动分割方法 | |
Dong et al. | Supervised learning-based retinal vascular segmentation by m-unet full convolutional neural network | |
CN112200810A (zh) | 多模态的自动化脑室分割系统及其使用方法 | |
CN114419309A (zh) | 一种基于大脑T1-w磁共振影像的高维特征自动提取方法 | |
CN114358154A (zh) | 人工智能在核素心肌灌注显像中的辅助诊断系统、方法及应用 | |
CN109480842B (zh) | 用于诊断功能性消化不良的系统及设备 | |
CN115240014B (zh) | 基于残差神经网络的医学图像分类系统 | |
CN115019045B (zh) | 一种基于多成分邻域的小数据甲状腺超声图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 213, Building 5, Hexin Zhihui Science and Technology Park, No. 88 Huyang Road, Suzhou High tech Zone, Suzhou City, Jiangsu Province, 215000 Applicant after: Suzhou Xunyi Technology Co.,Ltd. Applicant after: THE AFFILIATED HOSPITAL OF QINGDAO University Address before: 629 Changzhong Road, Fengxian District, Shanghai, 201422 Applicant before: Shanghai Xunshi Technology Co.,Ltd. Applicant before: THE AFFILIATED HOSPITAL OF QINGDAO University |