CN112508827B - 一种基于深度学习的融合多场景的危及器官的分割方法 - Google Patents
一种基于深度学习的融合多场景的危及器官的分割方法 Download PDFInfo
- Publication number
- CN112508827B CN112508827B CN202011227685.5A CN202011227685A CN112508827B CN 112508827 B CN112508827 B CN 112508827B CN 202011227685 A CN202011227685 A CN 202011227685A CN 112508827 B CN112508827 B CN 112508827B
- Authority
- CN
- China
- Prior art keywords
- model
- segmentation
- organs
- deep learning
- slices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 69
- 210000000056 organ Anatomy 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013135 deep learning Methods 0.000 title claims abstract description 31
- 230000004927 fusion Effects 0.000 title description 10
- 238000012549 training Methods 0.000 claims abstract description 26
- 210000000920 organ at risk Anatomy 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 16
- 230000010354 integration Effects 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000000664 rectum Anatomy 0.000 description 4
- 210000001599 sigmoid colon Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 210000003932 urinary bladder Anatomy 0.000 description 3
- 206010008342 Cervix carcinoma Diseases 0.000 description 2
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 description 2
- 201000010881 cervical cancer Diseases 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000000338 in vitro Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 210000001215 vagina Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的融合多场景的危及器官的分割方法,本方法考虑到场景内数据的共性特征,分别对每一个数据集构建一个分割模型,获取每个数据集中的每个器官训练得到的第一最优子模型和第二最优子模型;对全部的数据集构建一个集成模型,通过全部的数据集对集成模型进行训练,同时在训练的过程中,将得到的全部第一最优子模型和第二最优子模型均作为特征提取器引入至集成模型,用于引导集成模型对不同场景下的数据的训练,使集成模型既关注分割器官的个性化特征,也关注到器官和背景间的差异,能够提高待分割器官检出率的同时,也能降低假阳的出现。
Description
技术领域
本发明涉及医学图像处理技术领域,特别涉及一种基于深度学习的融合多场景的危及器官的分割方法。
背景技术
今年来,深度学习在自然图像领域取得了巨大的成功,不断有新的模型被提出,不断的提高图像检测分类和分割的精度。深度学习在自然领域的成功,也引起了人们的思考,能否将深度学习在自然图像领域的研究方法,引入到医学影像中,辅助医生对疾病诊断。但医学图像和自然图像存在的一个最大的差异:数据量少,标注成本高,场景复杂。这也为深度学习在医学图像领域的应用提出了巨大的挑战。
在医学图像分割中,存在多场景下分割的一类任务,若对每一个场景下都训练一个模型进行分割,不仅成本高,耗时长,同时也不能有效的利用场景间各个器官之间的关联信息,提高模型的分割性能。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种基于深度学习的融合多场景的危及器官的分割方法。
本发明的第一方面,提供了一种基于深度学习的融合多场景的危及器官的分割方法,包括以下步骤:
选取两个以上不同场景的数据集,每一所述数据集均包括含有若干待分割器官的若干阳性切片以及不含待分割器官的若干阴性切片,且每一待分割器官至少存在于两个以上的数据集中,对每一数据集中的切片进行预处理;
构建基于U-Net网络的若干个分割模型,所述分割模型的数量与所述数据集的数量相同,每一所述分割模型分别用相应数据集进行训练,得到该数据集中每一待分割器官的第一最优子模型和第二最优子模型,其中第一最优子模型通过预处理后的所述数据集训练得到,第二最优子模型通过预处理后的所述数据集中相应待分割器官的阳性切片训练得到;
构建基于U-Net网络的集成模型,通过所有所述数据集对所述集成模型进行训练;将每个所述数据集中每个待分割器官对应的所述第一最优子模型和所述第二最优子模型作为特征提取器引入至所述集成模型中,训练完成的所述集成模型用于器官分割。
根据本发明的实施例,至少具有如下技术效果:
考虑到场景内数据的共性特征,分别对每一个数据集构建一个分割模型,获取每个数据集中的每个器官训练得到的第一最优子模型和第二最优子模型;对全部的数据集构建一个集成模型,通过全部的数据集对集成模型进行训练,同时在训练的过程中,将得到的全部第一最优子模型和第二最优子模型均作为特征提取器引入至集成模型,用于引导集成模型对不同场景下的数据的训练,使集成模型既关注分割器官的个性化特征,也关注到器官和背景间的差异,能够提高待分割器官检出率的同时,也能降低假阳的出现。
根据本发明的一些实施例,所述集成模型通过每个所述数据集交替迭代的方式进行训练。
根据本发明的一些实施例,所述对每一数据集中的切片进行预处理,包括步骤:
标注每个所述数据集中的切片body的mask,将切片body外的灰度置0;
基于灰度空间,对切片执行gamma调节,clahe增强,灰度直方图均衡化;
对切片执行平移、旋转、翻转和网格扭曲处理;
对切片进行基于灰度直方图均衡化,将切片归一化到固定尺寸。
根据本发明的一些实施例,在所述集成模型中引入注意力机制。
根据本发明的一些实施例,所述分割模型和所述集成模型均使用Focal Loss 和基于channel的Dice的损失函数。
根据本发明的一些实施例,将一个所述分割模型已训练完成的权重作为另一个所述分割模型的初始权重。
本发明的第二方面,提供了一种基于深度学习的融合多场景的危及器官的分割设备,包括:至少一个控制处理器和用于与所述至少一个控制处理器通信连接的存储器;所述存储器存储有可被所述至少一个控制处理器执行的指令,所述指令被所述至少一个控制处理器执行,以使所述至少一个控制处理器能够执行如本发明第一方面所述的基于深度学习的融合多场景的危及器官的分割方法。
本发明的第三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如本发明第一方面所述的基于深度学习的融合多场景的危及器官的分割方法。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例提供的基于深度学习的融合多场景的危及器官的分割方法的流程示意图;
图2为本发明实施例提供的分割模型的结构示意图;
图3为本发明实施例提供的集成模型的结构示意图;
图4为本发明实施例提供的注意力机制的结构示意图;
图5为本发明实施例提供的基于外照射数据集和后装数据集训练的集成模型的预测结果图;
图6为本发明实施例提供的于深度学习的融合多场景的危及器官的分割设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
参照图1,本发明的一个实施例,提供了一种基于深度学习的融合多场景的危及器官的分割方法,包括以下步骤:
S100、选取两个以上不同场景的数据集,每一数据集均包括含有若干待分割器官的若干阳性切片以及不含待分割器官的若干阴性切片,且每一待分割器官至少存在于两个以上的数据集中,对每一数据集中的切片进行预处理。
为了方便理解,以外照射数据集和后装数据集两个数据集为例,外照射数据集(宫颈癌后装放疗时体外拍摄的MR(磁共振)图像),其主要包括阴性切片和 Rectum(直肠)、Sigmoid(乙状结肠)的阳性切片;后装数据集(宫颈癌照射放疗时阴道的内窥镜拍摄到的MR(磁共振)图像),其主要包括阴性切片和Rectum (直肠)、Bladder(膀胱)、Sigmoid(乙状结肠)的阳性切片。
作为一种可选的实施方式,对每一数据集中的切片进行预处理,包括步骤:
(1)标注每个数据集中的切片body的mask,将切片body外的灰度置0;防止body外的信息对模型学习待分割器官(因为待分割器官不可能出现在body的 mask的区域外)造成干扰。
(2)基于灰度空间,对切片执行gamma调节,clahe增强,灰度直方图均衡化;
(3)对切片执行平移、旋转、翻转和网格扭曲处理;
(4)对切片进行基于灰度直方图均衡化,将切片归一化到固定尺寸。
S200、构建基于U-Net网络的若干个分割模型,分割模型的数量与数据集的数量相同,每一分割模型分别用相应数据集进行训练,得到该数据集中每一待分割器官的第一最优子模型和第二最优子模型,其中第一最优子模型通过预处理后的数据集训练得到,第二最优子模型通过预处理后的数据集中相应待分割器官的阳性切片训练得到。
基于上述外照射数据集和后装数据集,首先,分别获取Rectum(直肠)、Bladder(膀胱)和Sigmoid(乙状结肠)三个器官通过后装数据集训练得到的损失函数值最小时对应的第一最优子模型(三个器官对应有三个第一最优子模型),以及通过后装数据集中阳性切片训练得到的损失函数值最小时对应的第二最优子模型(三个器官对应有三个第二最优子模型)。然后,分别获取Rectum(直肠)和Sigmoid (乙状结肠)两个器官通过外照射数据集训练得到的损失函数值最小时对应的第一最优子模型,以及通过外照射数据集中阳性切片训练得到的损失函数值最小时对应的第二最优子模型。
S300、构建基于U-Net网络的集成模型,通过所有数据集对集成模型进行训练;将每个数据集中每个待分割器官对应的第一最优子模型和第二最优子模型作为特征提取器引入至集成模型中,训练完成的集成模型用于器官分割。
基于上述外照射数据集和后装数据集,本实施例提供的集成模型的结构如图 3所示,具体为:针对第一分割模型的场景,训练三个器官,针对每个器官,对应的数据集和阳性切片上分别都有一个最优子模型的权重;相应的,针对第二分割模型场景,训练两个器官,针对每个器官,对应的数据集和阳性切片上分别都有一个最优子模型的权重。去掉这些最优子模型的decoder0部分作为特征输入到集成模型中。由于每个最优子模型在原图像上提取的特征有各自的关注区域,因此集成模型能基于各个最优子模型提取的特征和自身提取的特征,共同对最终的分割结果进行预测。
为了方便理解,以分割模型为例进行解释:每个分割模型的结构均如图2所示,模型分为编码器和解码器两个部分(即图示中的encoder和decoder部分)。 encoder负责对图像信息压缩提炼,目的是为了剔除无关的信息,保留有效信息,同时随着encoder的加深,特征图的尺寸变小(encoder是一个下采样的过程),模型的感受野会变大,模型在encoder的不同的块,具有不同的感受野,保证模型能够对不同的大小的目标对象进行分割(在本实施例中,特指对器官进行分割)。 decoder部分负责对encoder的信息恢复,即从encoder提取的不同感受野信息中,恢复待分割目标的信息(在本实施例中,特指待分割的器官)。同时在encoder和 decoder对应的模块(模块的输出特征的维度一样)建立skip-connection,建立信息融合。Decoder0部分是分割模型中解码器的一个单元。分割模型的训练过程是基于梯度对模型的权重参数进行更新,抽象流程如下:(1)模型的输入(经过预处理之后的数据集);(2)通过U-Net网络计算得到的一个最终与输入切片大小相同的概率图;(3)计算该概率图和待分割器官金标(即模型学习的标准,其值为 1;其他为背景,值为0)之间的损失(基于模型损失函数计算模型输出和金标的差异),基于模型损失函数的梯度对模型的权重进行迭代更新,使得最终模型的输出和金标一致,实现分割器官。
因为基于场景内数据集上各器官的阳性切片训练得到的最优模型,更关注分割器官本身的特征,但同时会带来的问题是:将切片背景上与器官相似的特征分割进来,造成一定程度上的假阳;基于场景内数据集各个器官的所有切片分割,模型会更关注分割器官与背景的差异性,减少将背景分割引起的假阳,同时会带来一定程度的待分割器官的漏检。于是,本实施例方法将得到的全部第一最优子模型和第二最优子模型均作为特征提取器引入至集成模型,用以引导集成模型对不同场景下的数据的训练,使集成模型既关注分割器官的个性化特征,也关注到器官和背景间的差异,能够提高待分割器官检出率的同时,也能降低假阳的出现。
作为一种可选的实施方式,集成模型通过每个数据集交替迭代的方式进行训练。
基于上述外照射数据集和后装数据集,利用外照射数据集训练得到的相关信息,基于该相关信息在后装数据集下训练,能够引导集成模型学习不同场景数据集内部的特征的同时也能学习数据集间的联系,而不产生混淆,使得模型更容易收敛。在前述实施例的基础下,本实施例可设定集成模型每训练100轮(以100 轮为例,但并不仅限于100轮)交替一次数据集。
作为一种可选的实施方式,在集成模型中引入注意力机制。注意力机制网络,能够对特征的重要性进行选择,可以同时提高检出率,也能降低假阳。注意力机制,是在特征图的不同通道上给予不同的权重,使得不同的通道在最终分割的贡献不同。针对不同的输入,通过注意力模块计算赋予的各个通道的权重不一样,从而实现动态的对各个特征提取器提取的特征在最终分类的权重分配。
为了便于理解,注意力机制是在特征图的不同通道上给予不同的权重,使得不同的通道在最终分割的贡献不同。针对不同的输入,通过注意力模块计算赋予的各个通道的权重不一样,从而实现动态的对各个特征提取器提取的特征在最终分类的权重分配。如图4:注意力模块的输入特征图大小为(B,C,W,H),其中B 为batch size的大小,C为输入的特征图的通道数,W,H为特征图的宽高,经过一个Global Pooling后,特征图变为(B,C,1,1)大小,经过一个FC层(full connection 全连接层),输出特征图变为(B,C1,1,1)大小,经过第二个FC后恢复到(B,C,1,1),经过sigmoid将数值映射到[0,1]区间,经过Scale操作,将特征图缩放到(B,C,W,H) 上,基于这个结果对输入特征图加权操作。
基于上述外照射数据集和后装数据集,第一分割模型、第二分割模型和集成模型均使用Focal Loss和基于channel的Dice的损失函数。具体的:
Dice的损失函数定义如下:
Smooth在本专利中设定为1,防止在阴性切片上,计算DSC分母为0的异常的情形。
channel_dice的损失函数定义如下:
其中,DSCi为对每个输出通道的器官依式(1)计算Dice,ii的计算方法为:
依每个器官基于Dice的损失对其动态的加权。
基于Focal Loss的损失函数定义为:
FL(pt)=αt(1-pt)rlog(pt) (5)
在本实施例中αt,γ设定为0.25,2。
模型使用的权重是基于Focal Loss和channel Loss的加权和:
Loss=λFL+(1-λ)channel_dice (6)
本实施例将λ设定为0.5。
本实施例的Dice损失函数中采用对不同的通道输出进行加权的损失函数,能够加强模型对困难分割器官的关注度,提高在这些器官上的分割性能。
基于上述实施例,将第一分割模型已训练完成的权重作为第二分割模型的初始权重。因为第一分割模型和第二分割模型的模型结构相同,因此本设计运用基于迁移学习的方法,将第一分割模型训练的权重,作为第二分割模型的参数训练的初始化的模型权重,基于这个权重对第二分割模型的权重参数进行初始化,使得第二分割模型训练开始就有了一个比较优的初始值,实现更快收敛。
基于上述外照射数据集和后装数据集,得到集成模型的预测结果如图5所示,图中红,蓝,绿(深色)为医生标注的金标,浅色的为集成模型预测结果。
参照图6,基于上述系统实施例和方法实施例,本发明提供了一种基于深度学习的融合多场景的危及器官的分割设备,该设备包括:一个或多个控制处理器和存储器,图6中以一个控制处理器为例。控制处理器和存储器可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的基于深度学习的融合多场景的危及器官的分割设备对应的程序指令/模块。控制处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行上述方法实施例所述的基于深度学习的融合多场景的危及器官的分割方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于控制处理器远程设置的存储器,这些远程存储器可以通过网络连接至该基于深度学习的融合多场景的危及器官的分割设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器中,当被所述一个或者多个控制处理器执行时,执行上述方法实施例中的基于深度学习的融合多场景的危及器官的分割方法,例如,执行以上描述的图1中的方法步骤S100至S400。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器执行,例如,被图6中的一个控制处理器执行,可使得上述一个或多个控制处理器执行上述方法实施例中的基于深度学习的融合多场景的危及器官的分割方法,例如,执行以上描述的图1中的方法步骤S100至S400。
通过以上的实施方式的描述,本领域技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现。本领域技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (8)
1.一种基于深度学习的融合多场景的危及器官的分割方法,其特征在于,包括以下步骤:
选取两个以上不同场景的数据集,每一所述数据集均包括含有若干待分割器官的若干阳性切片以及不含待分割器官的若干阴性切片,且每一待分割器官至少存在于两个以上的数据集中,对每一数据集中的切片进行预处理;
构建基于U-Net网络的若干个分割模型,所述分割模型的数量与所述数据集的数量相同,每一所述分割模型分别用相应数据集进行训练,得到该数据集中每一待分割器官的第一最优子模型和第二最优子模型,其中第一最优子模型通过预处理后的所述数据集训练得到,第二最优子模型通过预处理后的所述数据集中相应待分割器官的阳性切片训练得到;
构建基于U-Net网络的集成模型,通过所有所述数据集对所述集成模型进行训练;将每个所述数据集中每个待分割器官对应的所述第一最优子模型和所述第二最优子模型作为特征提取器引入至所述集成模型中,训练完成的所述集成模型用于器官分割。
2.根据权利要求1所述的一种基于深度学习的融合多场景的危及器官的分割方法,其特征在于:所述集成模型通过每个所述数据集交替迭代的方式进行训练。
3.根据权利要求1所述的一种基于深度学习的融合多场景的危及器官的分割方法,其特征在于:所述对每一数据集中的切片进行预处理,包括步骤:
标注每个所述数据集中的切片body的mask,将切片body外的灰度置0;
基于灰度空间,对切片执行gamma调节,clahe增强,灰度直方图均衡化;
对切片执行平移、旋转、翻转和网格扭曲处理;
对切片进行基于灰度直方图均衡化,将切片归一化到固定尺寸。
4.根据权利要求1所述的一种基于深度学习的融合多场景的危及器官的分割方法,其特征在于:在所述集成模型中引入注意力机制。
5.根据权利要求1所述的一种基于深度学习的融合多场景的危及器官的分割方法,其特征在于:所述分割模型和所述集成模型均使用Focal Loss和基于channel的Dice的损失函数。
6.根据权利要求1所述的一种基于深度学习的融合多场景的危及器官的分割方法,其特征在于:将一个所述分割模型已训练完成的权重作为另一个所述分割模型的初始权重。
7.一种基于深度学习的融合多场景的危及器官的分割设备,其特征在于,包括:至少一个控制处理器和用于与所述至少一个控制处理器通信连接的存储器;所述存储器存储有可被所述至少一个控制处理器执行的指令,所述指令被所述至少一个控制处理器执行,以使所述至少一个控制处理器能够执行如权利要求1至6任一项所述的基于深度学习的融合多场景的危及器官的分割方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1至6任一项所述的基于深度学习的融合多场景的危及器官的分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011227685.5A CN112508827B (zh) | 2020-11-06 | 2020-11-06 | 一种基于深度学习的融合多场景的危及器官的分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011227685.5A CN112508827B (zh) | 2020-11-06 | 2020-11-06 | 一种基于深度学习的融合多场景的危及器官的分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112508827A CN112508827A (zh) | 2021-03-16 |
CN112508827B true CN112508827B (zh) | 2022-04-22 |
Family
ID=74955325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011227685.5A Active CN112508827B (zh) | 2020-11-06 | 2020-11-06 | 一种基于深度学习的融合多场景的危及器官的分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508827B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113409447B (zh) * | 2021-06-09 | 2023-01-24 | 广东工业大学 | 一种基于多切片组合的冠状动脉分割方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110992373A (zh) * | 2019-11-25 | 2020-04-10 | 杭州电子科技大学 | 一种基于深度学习的胸腔器官分割方法 |
CN111080639A (zh) * | 2019-12-30 | 2020-04-28 | 四川希氏异构医疗科技有限公司 | 基于人工智能的多场景消化道内镜图像识别方法及系统 |
CN111445481A (zh) * | 2020-03-23 | 2020-07-24 | 江南大学 | 一种基于尺度融合的腹部ct多器官的分割方法 |
CN111862066A (zh) * | 2020-07-28 | 2020-10-30 | 平安科技(深圳)有限公司 | 基于深度学习的脑瘤图像分割方法、装置、设备及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG11201911791RA (en) * | 2017-06-09 | 2020-01-30 | Ai Medical Service Inc | A disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein |
US10832413B2 (en) * | 2018-12-18 | 2020-11-10 | Palo Alto Research Center Incorporated | Curvilinear object segmentation with geometric priors |
-
2020
- 2020-11-06 CN CN202011227685.5A patent/CN112508827B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110992373A (zh) * | 2019-11-25 | 2020-04-10 | 杭州电子科技大学 | 一种基于深度学习的胸腔器官分割方法 |
CN111080639A (zh) * | 2019-12-30 | 2020-04-28 | 四川希氏异构医疗科技有限公司 | 基于人工智能的多场景消化道内镜图像识别方法及系统 |
CN111445481A (zh) * | 2020-03-23 | 2020-07-24 | 江南大学 | 一种基于尺度融合的腹部ct多器官的分割方法 |
CN111862066A (zh) * | 2020-07-28 | 2020-10-30 | 平安科技(深圳)有限公司 | 基于深度学习的脑瘤图像分割方法、装置、设备及介质 |
Non-Patent Citations (2)
Title |
---|
A convolutional neural network algorithm for automatic segmentation of head and neck organs at risk using deep lifelong learning;Jason W.Chan 等;《Medical Physics》;20190318;第46卷(第5期);第2204-2213页 * |
基于3D深度残差全卷积网络的头颈CT放疗危及器官自动勾画;田娟秀 等;《中国生物医学工程学报》;20190630;第257-264页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112508827A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021159774A1 (zh) | 对象检测模型训练及对象检测方法、装置、计算机设备和存储介质 | |
US11501563B2 (en) | Image processing method and system | |
CN110276745B (zh) | 一种基于生成对抗网络的病理图像检测算法 | |
EP4075374A1 (en) | Image processing method and apparatus, and image processing system | |
CN110930416A (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN112070777B (zh) | 一种基于增量学习的多场景下的危及器官分割方法及设备 | |
CN114998210B (zh) | 一种基于深度学习目标检测的早产儿视网膜病变检测系统 | |
US11704808B1 (en) | Segmentation method for tumor regions in pathological images of clear cell renal cell carcinoma based on deep learning | |
US11816870B2 (en) | Image processing method and device, neural network and training method thereof, storage medium | |
WO2021051987A1 (zh) | 神经网络模型训练的方法和装置 | |
Cao et al. | Gastric cancer diagnosis with mask R-CNN | |
CN111898324B (zh) | 基于分割任务辅助的鼻咽癌三维剂量分布预测方法 | |
CN116779091B (zh) | 一种多模态网络互联融合的胸部影像诊断报告自动生成方法 | |
CN116051574A (zh) | 一种半监督分割模型构建与图像分析方法、设备及系统 | |
CN113555087A (zh) | 一种基于卷积神经网络算法的人工智能阅片方法 | |
CN112508827B (zh) | 一种基于深度学习的融合多场景的危及器官的分割方法 | |
Peng et al. | Research on classification diagnosis model of psoriasis based on deep residual network | |
Meng et al. | Radiomics-enhanced deep multi-task learning for outcome prediction in head and neck cancer | |
CN114708172A (zh) | 图像融合方法、计算机程序产品、存储介质及电子设备 | |
Wang et al. | SERR-U-Net: squeeze-and-excitation residual and recurrent block-based U-Net for automatic vessel segmentation in retinal image | |
CN113129310A (zh) | 一种基于注意力路由的医学图像分割系统 | |
CN116433679A (zh) | 一种基于空间位置结构先验的内耳迷路多级标注伪标签生成与分割方法 | |
CN116188396A (zh) | 一种图像分割方法、装置、设备及介质 | |
CN115409847A (zh) | 一种基于ct影像的轻量化分割方法 | |
Zhang et al. | Weakly supervised learning for cell recognition in immunohistochemical cytoplasm staining images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |