CN113689419A - 一种基于人工智能的图像分割处理方法 - Google Patents
一种基于人工智能的图像分割处理方法 Download PDFInfo
- Publication number
- CN113689419A CN113689419A CN202111030782.XA CN202111030782A CN113689419A CN 113689419 A CN113689419 A CN 113689419A CN 202111030782 A CN202111030782 A CN 202111030782A CN 113689419 A CN113689419 A CN 113689419A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- image
- style
- artificial intelligence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000003709 image segmentation Methods 0.000 title claims abstract description 18
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 28
- 230000000694 effects Effects 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 238000003759 clinical diagnosis Methods 0.000 abstract description 3
- 230000006978 adaptation Effects 0.000 abstract description 2
- 238000005070 sampling Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 18
- 238000011176 pooling Methods 0.000 description 17
- 238000002474 experimental method Methods 0.000 description 9
- 230000004927 fusion Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 210000000056 organ Anatomy 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 206010008342 Cervix carcinoma Diseases 0.000 description 3
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 3
- 201000010881 cervical cancer Diseases 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 230000005284 excitation Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000004185 liver Anatomy 0.000 description 2
- 210000000664 rectum Anatomy 0.000 description 2
- 230000011157 brain segmentation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 210000000952 spleen Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明属于医疗技术领域,尤其是一种基于人工智能的图像分割处理方法,其包括以下处理方法步骤:S1:数据预处理:第一,创建N个数据文件,同时输入N个CT图像,并对N个CT图像数据进行勾画,存储到N个数据文件中;第二,对N个CT图像勾画后,进行简单的CT图像预处理;第三,将N个数据文件作为样本并归一化,最后进行数据集的划分图像数据;S2:使用基模型对归一化后的数据文件进行处理;S3:创建风格适应训练模型,风格模型创建为M个。本发明通过基模型与风格模型的结构让模型适应不同医生的勾画风格,从而当新的数据通过模型进行预测勾画时,为医生的临床诊断治疗提供便利。
Description
技术领域
本发明涉及医疗技术领域,尤其涉及一种基于人工智能的图像分割处理方法。
背景技术
目前比较主流的医疗图像勾画模型就是Unet模型,后来的大量研究都基于UNet进行改进,Dolz,Jose等人将Dense block与UNet相结合。通过给不同通道赋予不同权重值的方式来改变图像中不同位置像素的重要程度,关注对结果影响较大的像素点,达到提高精确度的结果。另外根据UNet的网络结构图,提出UNet++网络,该网络在结构上像是补全了UNet中空部分,在效果上表现得也是比UNet更加出色,在说明书中主要介绍一下Unet模型,以及在其基础上发展来H-DenseNet模型、SE-Net模型、Unet++模型和Unet3+模型。
目前没有文献或专利解决这个临床问题,临床使用中影响较大,使用具有普适性的模型勾画的结果是将忽略医生勾画的个体差异,勾画结果不能互相使用,将会造成治疗区域过大或者治疗遗漏的现象,Unet网络模型简单,但是精确度仍然有很大的提升空间。
发明内容
本发明的目的是为了对宫颈癌临床靶区及部分腹部器官进行分割,训练深度学习模型使得模型勾画的结果更适应不同医生的勾画风格,在减少模型参数的同时保证勾画的精确度,而提出的一种基于人工智能的图像分割处理方法。
为了实现上述目的,本发明采用了如下技术方案:
一种基于人工智能的图像分割处理方法,包括以下处理方法步骤:
S1:数据预处理:
第一,创建N个数据文件,同时输入N个CT图像,并对N个CT图像数据进行勾画,存储到N个数据文件中;
第二,对N个CT图像勾画后,进行简单的CT图像预处理;
第三,将N个数据文件作为样本并归一化,最后进行数据集的划分图像数据;
S2:使用基模型对归一化后的数据文件进行处理;
S3:创建风格适应训练模型,风格模型创建为M个,采用风格模型勾画风格的个体化差异;
S4:将模型训练后的数据创建P个数据文件输出。
优选的,所述S1中,CT图像数据处理采用3D图像,CT图像勾画是不同风格的医师按照自己的风格进行标注。
优选的,所述S1中,数据格式为dicom格式,N大于等于3。
优选的,所述S1中预处理的方式为:使用广泛应用的自适应直方图均衡算法进行图像增强。
优选的,所述S2中,数据集预处理后,对归一化的数据集中随机抽样40%组成一个数据集,数据集用于训练基模型的参数。
优选的,所述S2中,基模型使用不同数据对模型进行初始化,赋予模型参数基本值。
优选的,所述S3中,将归一化并抽样的数据集创建为M个模型,按照不同的风格进行个体化差异模型训练,M大于等于3,风格进行个体化差异模型训练的方式:首先使用每位标注医生的15%数据样本组成基模型的训练集,另外85%的数据用于每位医生的标注风格学习,再分别输出预测的标注部位,这样的好处是学习到医生标注的习惯,在临床诊断和治疗中能够更加得心应手。
优选的,所述S3中,个体化差异模型训练使用每个数据单独训练,模型对每个数据做出倾向性的参数修改,并贴近对应个体风格的效果。
优选的,所述S4中,创建的数据文件P的个数与模型训练M的个数对应相同。
优选的,所述基模型和风格模型阶段均采用相同的双编码Unet模型,双编码Unet模型是在Unet的基础上,在下采样过程中,增加一条下采样编码路径,使得对特征有更充分的提取,并且在下采样的过程中,使用步长为2的卷积来代替池化操作,可以减少下采样造成的特征丢失,与Unet的跳跃连接相似,新增的下采样路径与原有Unet下采样路径在同一处与上采样编码进行通道融合。
与现有技术相比,本发明的优点在于:
(1)本方案为了适应医生标注风格的特异性,我们采取基模型与风格模型的结构。首先使用每位医生勾画的40%数据样本组成基模型的训练集,另外50%的数据用于每位医生的勾画风格学习,得到每位医生各自的模型,使用每个医生各自的模型对待勾画数据进行输出预测。这样的好处是学习到医生标注的习惯,在临床诊断和治疗中能够更加得心应手;
双编码Unet网络是Unet和Unet++网络的改进版,结构是在Unet下采样编码部分增加一条编码路径。增加的编码路径使用卷积对特征图进行下采样池化,这样做的目的是将保留更多的上层特征图信息并传递到下层和对应的上采样过程中;
本发明通过基模型与风格模型的结构让模型适应不同医生的勾画风格,从而当新的数据通过模型进行预测勾画时,可以得到贴合多位医生习惯的勾画图像,为医生的临床诊断治疗提供便利;
本发明的模型由于在下采样过程中的对特征图的信息抓取更加充分,从而精确度比Unet高,模型的参数比Unet++、H-DenseUnet、Unet3+少,用更少的参数得到表现更好的模型。
附图说明
图1为本发明提出的一种基于人工智能的图像分割处理方法的双编码Unet示意图;
图2为本发明提出的一种基于人工智能的图像分割处理方法的数据集划分示意图;
图3为本发明提出的预处理和基模型连接框图;
图4为本发明提出的UNet网络结构图;
图5为本发明提出的H-DenseUnet网络结构图;
图6为本发明提出的SE-Net模型图;
图7为本发明提出的UNet++结构图;
图8为本发明提出的Unet3+全尺度跳跃连接图;
图9为本发明提出的Unet3+全尺度跳跃连接示意图;
图10为本发明提出的Unet3+分类引导模块(CGM)图;
图11为本发明提出实验一的双编码模型、Unet++、Unet训练过程训练集loss对比图;
图12为本发明提出实验二的双编码模型、Unet++、Unet训练过程验证集loss对比图;
图13为本发明提出的测试集Dice箱线图;
图14为本发明提出的H-DenseUNet的整体框架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
实施例一
参照图1-14,一种基于人工智能的图像分割处理方法,包括以下处理方法步骤:
S1:数据预处理:
第一,创建N个数据文件,同时输入N个CT图像,并对N个CT图像数据进行勾画,存储到N个数据文件中;
第二,对N个CT图像勾画后,进行简单的CT图像预处理;
第三,将N个数据文件作为样本并归一化,最后进行数据集的划分图像数据;
第四,对腹部CT图像进行宫颈癌靶区勾画、膀胱器官勾画、直肠器官勾画;
S2:使用基模型对归一化后的数据文件进行处理;
S3:创建风格适应训练模型,风格模型创建为M个,采用风格模型勾画风格的个体化差异;
S4:将模型训练后的数据创建P个数据文件输出。
本实施例中,S1中,CT图像数据处理采用3D图像。
本实施例中,S1中,数据格式为dicom格式,N大于等于3。
本实施例中,S1中预处理的方式为:使用广泛应用的自适应直方图均衡算法进行图像增强。
本实施例中,S2中,数据集预处理后,对归一化的数据集中随机抽样40%组成一个数据集,数据集用于训练基模型的参数。
本实施例中,S2中,基模型使用不同数据对模型进行初始化,赋予模型参数基本值。
本实施例中,S3中,将归一化并抽样的数据集创建为M个模型,按照不同的风格进行个体化差异模型训练,M大于等于3,风格进行个体化差异模型训练的方式:首先使用每位标注医生的15%数据样本组成基模型的训练集,另外85%的数据用于每位医生的标注风格学习,再分别输出预测的标注部位,这样的好处是学习到医生标注的习惯,在临床诊断和治疗中能够更加得心应手。
本实施例中,S3中,个体化差异模型训练使用每个数据单独训练,模型对每个数据做出倾向性的参数修改,并贴近对应个体风格的效果。
本实施例中,S4中,创建的数据文件P的个数与模型训练M的个数对应相同。
本实施例中,基模型和风格模型阶段均采用相同的双编码Unet模型,双编码Unet模型是在Unet的基础上,在下采样过程中,增加一条下采样编码路径,使得对特征有更充分的提取,并且在下采样的过程中,使用步长为2的卷积来代替池化操作,可以减少下采样造成的特征丢失,与Unet的跳跃连接相似,新增的下采样路径与原有Unet下采样路径在同一处与上采样编码进行通道融合。
实施例二
参照图1-14,一种基于人工智能的图像分割处理方法,包括以下处理方法步骤:
S1:数据预处理:
第一,对CT图像数据进行勾画,数据格式为dicom格式,对腹部CT图像进行宫颈癌靶区勾画、膀胱器官勾画、直肠器官勾画;
第二,读取CT图像数据及对CT图像勾画数据文件后,进行简单的CT图像预处理过程,使用广泛应用的自适应直方图均衡算法进行图像增强;
第三,对样本归一化,最后进行数据集的划分图像数据;
S2:风格适应训练,使用基模型和风格模型的两阶段结构适应医生勾画风格的个体化差异,基模型和风格模型阶段均采用相同的双编码Unet模型。
本实施例中,S1中,数据集预处理后,在每个医生数据集中随机抽样40%组成一个数据集,这个数据集用于训练基模型的参数,然后将每个医生剩余的50%数据集分别用于自己风格模型的训练。
本实施例中,S2中,基模型使用不同医生数据对模型进行初始化,赋予模型参数基本值,然后再使用每个医生数据单独训练,使得模型对每个医生做出倾向性的参数修改达到贴近医生风格的效果,最后每个医生剩余的10%数据数据集作为模型的测试集,图2为数据划分的示意图。
本实施例中,参照图1的conv模块和双编码Unet示意图,S2中,双编码Unet模型是在Unet的基础上改进的,在下采样阶段新增一条编码路径,保留了更多特征信息,具体实现是在Unet的第一层最大池化下采样的同时,增加一个卷积下采样模块,分别作为两条路径向下采样,在Unet的第1-2、6、3-4层下采样时均做同样操作,同时在对应的上采样过程中,将下采样每一层的结果与上采样的特征图进行通道融合,这样做相对于Unet来说提高了精确度,相对于Unet++等又减小了计算量。
本实施例中,参照图1,S2中,基模型和风格模型阶段均采用相同的双编码Unet网络结构,在Unet的基础上,下采样过程中,创新的增加一条下采样路径,使得对特征有更充分的提取,并且新的下采样路径使用步长为2的卷积来代替池化操作,池化一般使用步长为2的最大池化或者平均池化,都会造成有3/4的像素点直接舍弃,用卷积替代池化可以减少这3/4像素点的信息丢失,另外与Unet的跳跃连接相似,新增的下采样路径与上采样路径中尺寸相同的特征图层进行通道融合。
对比例一,UNet模型:
Unet体系结构包括特征提取的编码过程(下采样)和对称的扩展解码过程(上采样),其中上采样过程中,每次上采样前都与对应的下采样层池化后的特征图进行融合,添加的上采样过程和特征通道融合能够让更多的原图纹理特征信息在更高层次的layers能够传播,实现精确定位,并回归到与原始图像大小一致。
如图4所示,展示的UNet结构,输入若是572*572*1的图像,经过两次(3,3)卷积,每次卷积核数量都是64,则产生568*568*64的特征图进行下采样的池化操作。下采样池化过程是2*2*128的最大池化,则将池化结果284*284*128的特征图作为网络第二层的输入。再重复3次之前的卷积、卷积、池化,得到32*32*1024的大小特征图,进行两次卷积后得到(28,28)*1024的特征图,再进行上采样池化得到56*56*512的特征图,待用准备作为新的卷积输入。上采样过程中的卷积,将上采样56*56*512的特征图与本层对应得到的64*64*512的特征图进行融合,由与本层对应的特征图大小是64*64*512,则需要进行crop(裁剪操作),裁剪成与上采样来的图像一样大小时,进行通道融合。形成56*56*1024的特征图,再进行两次(3,3)卷积,再重复3次前面的上采样过程,最后得到388*388*64的特征图,由于需要转换成对应分类数量的特征通道数,则使用两个(1,1)卷积核,将特征图转换成388*388*2。
对比例二,H-DenseNet模型:
如图14所示,该网络主要分为四个部分:用于得到肝脏的粗糙的分割的一个简单的ResNet、用于有效的片内2D特征的提取的2DDenseUNet(f2d),用于3D上下文信息探测(片间特征)的3DDenseUNet(f3d)和用于联合优化片内特征和片间特征的混合特征融合层(HFF)。H-DenseUNet的整体框架,(a)为网络的整体结构图,(b)为3D volume变换成2Dslices函数,(c)为2D DenseUnet结构图;
如图5所示,相比于传统方法具有很大的提升,证明2D网络学习得到的特征,可以加速3D网络的学习收敛,缓解3D网络的学习负担,得到较好的分割结果,如下表,H-DenseUnet与Unet实验对比:
对比例三,SE-Net模型:
如图6所示,SE-Net可以自适应地重新校准特征图,以增强有意义的特征,同时抑制弱特征,从最近提出的挤压和激发(SE)模块中汲取灵感,用于图像分类的特征图的通道重新校准。引入了用于图像分割的三种SE模块变体:(i)空间挤压和激励通道(cSE),(ii)挤压通道和空间激励(sSE)(iii)并发空间和通道挤压和激发(scSE);
有效地将这些SE模块整合到三个不同的F-CNN状态(DenseNet,SD-Net,U-Net)中,并观察所有架构的性能的持续改进,同时最小化影响模型的复杂性。对两个具有挑战性的应用进行评估:MRI扫描的全脑分割和全身对比增强CT扫描的器官分割。
对比例四,Unet++模型:
如图7所示,(a)图中是Unet++的整体结构图,设定了每层卷积核个数为[32,64,128,256,512],在本例中原始输入为(512,512,1)的多张灰度图组成的.npy文件,在x(0,0)处,进行了standard_unit的操作,即两次卷积,得到特征图conv1_1。再进行最大池化,获得特征图pool1。具体操作使用keras框架中的Conv2DTranspose()函数。融合的通道于(a)图中的虚线部分显示,例如X(0,1)处需要融合conv1_1和up1_2,已经在(c)图中最下面部分展示出来,如X(0,4)处则需要融合conv1_1、conv1_2、conv1_3、conv1_4和up1_5,已在(b)图中展示出来。最后每一层的输出依次为conv1_2、conv1_3、conv1_4、conv1_5,将这四个输出分别利用一个(1,1)的卷积核进行一次卷积,得到512*512*1的结果,与原图大小一致。且包含标注信息。
对比例五,Unet3+模型:
如图8、图9所示,Unet3+模型是一种新的网络结构,通过引入全尺度的跳过连接,在全尺度特征映射中融合了低层细节和高层语义,充分利用了多尺度特征的同时具有更少的参数,另外通过深度监督让网络从全尺度特征中学习分割表示,提出了更优的混合损失函数以增强器官的边界。还提出分类指导模块,通过与图像分类分支联合训练的方式,减少了网络在非器官图像的过度分割(over-segmentation)。
如图10所示,最后在肝脏和脾脏数据集上进行了广泛的实验,证明了UNet 3+的有效性。
实验一
模型与风格模型预测图对比
本实验使用Unet、Unet++、DEUnet网络进行,分别对其使用40%的数据进行基模型训练,使用50%数据进行风格模型训练,下表格中是doc7的测试集在不同模型下的表现,对应风格模型是使用doc7的50%数据训练而来的风格模型,其他医生风格模型是随机选取的doc3数据训练的模型。可以看出使用不同医生的模型来预测测试集,效果有明显差异,使用其他医生的模型预测doc7的测试集还会导致精度下降,使用对应的doc7风格模型可以提高相对于基模型的准确度,doc7测试集在不同模型的Dice系数表格:
实验二
双编码Unet网络效果
下表格是本专利提出的模型与已有方案在同样数据集上的结果进行比较,可以看到本文的双编码Unet在Dice系数评估中效果比其他两种方法好,说明本发明的有效性,
模型Dice对比表格:
模型 | Dice |
Unet网络 | 0.795136 |
Unet++ | 0.788732 |
双编码UNet | 0.800574 |
图11和图12是实验一和实验二训练过程中的训练集误差及验证集误差变化,可以看到Unet++在相同数据集上表现并不好,同时本专利提出的双编码Unet比Unet在精确度上有一点提升。
图11双编码模型、Unet++、Unet训练过程训练集loss对比(a为:Unet++;c为:DEUnet;b为:Unet);
图12双编码模型、Unet++、Unet训练过程验证集loss对比(a为:Unet++;c为:DEUnet;b为:Unet);
另外测试集的箱线图(图13)中也可以看到DEUnet在测试集上的Dice系数的最大值、中位数、平均数都比Unet和Unet++有所提升。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的图像分割处理方法,其特征在于,包括以下处理方法步骤:
S1:数据预处理:
第一,创建N个数据文件,同时输入N个CT图像,并对N个CT图像数据进行勾画,存储到N个数据文件中;
第二,对N个CT图像勾画后,进行简单的CT图像预处理;
第三,将N个数据文件作为样本并归一化,最后进行数据集的划分图像数据;
S2:使用基模型对归一化后的数据文件进行处理;
S3:创建风格适应训练模型,风格模型创建为M个,采用风格模型勾画风格的个体化差异;
S4:将模型训练后的数据创建P个数据文件输出。
2.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S1中,CT图像数据处理采用3D图像,CT图像勾画通过标注的方式在CT图像上进行数据勾画。
3.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S1中,数据格式为dicom格式,N大于等于3。
4.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S1中,预处理的方式为:使用广泛应用的自适应直方图均衡算法进行图像增强。
5.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S2中,数据集预处理后,对归一化的数据集中随机抽样40%组成一个数据集,数据集用于训练基模型的参数。
6.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S2中,基模型使用不同数据对模型进行初始化,赋予模型参数基本值。
7.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S3中,将归一化并抽样的数据集创建为M个模型,按照不同的风格进行个体化差异模型训练,M大于等于3。
8.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S3中,个体化差异模型训练使用每个数据单独训练,模型对每个数据做出倾向性的参数修改,并贴近对应个体风格的效果。
9.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述S4中,创建的数据文件P的个数与模型训练M的个数对应相同。
10.根据权利要求1所述的一种基于人工智能的图像分割处理方法,其特征在于,所述基模型和风格模型阶段均采用相同的双编码Unet模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111030782.XA CN113689419A (zh) | 2021-09-03 | 2021-09-03 | 一种基于人工智能的图像分割处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111030782.XA CN113689419A (zh) | 2021-09-03 | 2021-09-03 | 一种基于人工智能的图像分割处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113689419A true CN113689419A (zh) | 2021-11-23 |
Family
ID=78585165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111030782.XA Pending CN113689419A (zh) | 2021-09-03 | 2021-09-03 | 一种基于人工智能的图像分割处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113689419A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170249A (zh) * | 2022-02-08 | 2022-03-11 | 湖南大学 | 一种基于CNUNet3+网络的图像语义分割方法 |
CN116993628A (zh) * | 2023-09-27 | 2023-11-03 | 四川大学华西医院 | 一种用于肿瘤射频消融引导的ct图像增强系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020238044A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市前海安测信息技术有限公司 | 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质 |
CN112348819A (zh) * | 2020-10-30 | 2021-02-09 | 上海商汤智能科技有限公司 | 模型训练方法、图像处理及配准方法以及相关装置、设备 |
CN112790782A (zh) * | 2021-02-02 | 2021-05-14 | 广州柏视医疗科技有限公司 | 基于深度学习的盆腔肿瘤ctv的自动勾画方法 |
CN113077445A (zh) * | 2021-04-01 | 2021-07-06 | 中科院成都信息技术股份有限公司 | 数据处理方法及装置、电子设备、可读存储介质 |
-
2021
- 2021-09-03 CN CN202111030782.XA patent/CN113689419A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020238044A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市前海安测信息技术有限公司 | 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质 |
CN112348819A (zh) * | 2020-10-30 | 2021-02-09 | 上海商汤智能科技有限公司 | 模型训练方法、图像处理及配准方法以及相关装置、设备 |
CN112790782A (zh) * | 2021-02-02 | 2021-05-14 | 广州柏视医疗科技有限公司 | 基于深度学习的盆腔肿瘤ctv的自动勾画方法 |
CN113077445A (zh) * | 2021-04-01 | 2021-07-06 | 中科院成都信息技术股份有限公司 | 数据处理方法及装置、电子设备、可读存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170249A (zh) * | 2022-02-08 | 2022-03-11 | 湖南大学 | 一种基于CNUNet3+网络的图像语义分割方法 |
CN114170249B (zh) * | 2022-02-08 | 2022-04-19 | 湖南大学 | 一种基于CNUNet3+网络的图像语义分割方法 |
CN116993628A (zh) * | 2023-09-27 | 2023-11-03 | 四川大学华西医院 | 一种用于肿瘤射频消融引导的ct图像增强系统 |
CN116993628B (zh) * | 2023-09-27 | 2023-12-08 | 四川大学华西医院 | 一种用于肿瘤射频消融引导的ct图像增强系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112365496B (zh) | 基于深度学习和多引导的多模态mr影像脑肿瘤分割方法 | |
CN110930416B (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN112927255B (zh) | 一种基于上下文注意力策略的三维肝脏影像语义分割方法 | |
CN114581662B (zh) | 一种脑肿瘤图像的分割方法、系统、装置及存储介质 | |
CN107492071A (zh) | 医学图像处理方法及设备 | |
CN109447976B (zh) | 一种基于人工智能的医学图像分割方法及系统 | |
CN110706214B (zh) | 融合条件随机与残差的三维U-Net大脑肿瘤分割方法 | |
CN110991254B (zh) | 超声图像视频分类预测方法及系统 | |
CN113689419A (zh) | 一种基于人工智能的图像分割处理方法 | |
CN113344951A (zh) | 一种边界感知双重注意力引导的肝段分割方法 | |
WO2022121100A1 (zh) | 一种基于darts网络的多模态医学图像融合方法 | |
CN116309648A (zh) | 一种基于多注意力融合的医学图像分割模型构建方法 | |
CN111583285A (zh) | 一种基于边缘关注策略的肝脏影像语义分割方法 | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN112529909A (zh) | 一种基于图像补全的肿瘤图像脑区分割方法及系统 | |
CN114723669A (zh) | 一种基于上下文信息感知的肝脏肿瘤二点五维深度学习分割算法 | |
CN114399510B (zh) | 结合图像和临床元数据的皮肤病灶分割和分类方法及系统 | |
CN114202545A (zh) | 一种基于UNet++的低级别胶质瘤图像分割方法 | |
CN112785603A (zh) | 一种基于Unet和超像素的脑组织分割方法 | |
CN112270366A (zh) | 基于自适应多特征融合的微小目标检测方法 | |
CN115457359A (zh) | 基于自适应对抗生成网络的pet-mri图像融合方法 | |
CN113744284B (zh) | 脑肿瘤图像区域分割方法、装置、神经网络及电子设备 | |
CN116258933A (zh) | 基于全局信息感知的医学图像分割装置 | |
CN117151162A (zh) | 基于自监督与专家门控的跨解剖区域器官增量分割方法 | |
CN112329867B (zh) | 一种基于任务驱动的层次注意力网络的mri图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |