CN114170193A - 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 - Google Patents
一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 Download PDFInfo
- Publication number
- CN114170193A CN114170193A CN202111505604.8A CN202111505604A CN114170193A CN 114170193 A CN114170193 A CN 114170193A CN 202111505604 A CN202111505604 A CN 202111505604A CN 114170193 A CN114170193 A CN 114170193A
- Authority
- CN
- China
- Prior art keywords
- gan network
- target area
- nasopharyngeal carcinoma
- training
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 208000002454 Nasopharyngeal Carcinoma Diseases 0.000 title claims abstract description 51
- 206010061306 Nasopharyngeal cancer Diseases 0.000 title claims abstract description 51
- 201000011216 nasopharynx carcinoma Diseases 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000012360 testing method Methods 0.000 claims abstract description 23
- 238000012795 verification Methods 0.000 claims abstract description 21
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 16
- 230000005284 excitation Effects 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000001959 radiotherapy Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 4
- 206010028980 Neoplasm Diseases 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 10
- 230000011218 segmentation Effects 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 7
- 238000003709 image segmentation Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 201000011510 cancer Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001989 nasopharynx Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000920 organ at risk Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的鼻咽癌靶区自动勾画方法及系统,其方法包括:步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集;步骤S2:构建2D‑PE‑GAN网络模型,将训练集和验证集输入2D‑PE‑GAN网络进行训练和优化,直到得到训练好的2D‑PE‑GAN网络;其中,2D‑PE‑GAN网络模型包括:生成器和鉴别器,生成器包括2D‑PE‑Block模块;步骤S3:将测试集输入训练好的2D‑PE‑GAN网络,输出对应鼻咽癌靶区的勾画结果。本发明提供的方法,通过构建全新的2D‑PE‑Block对GAN网络的生成器进行改进,充分利用图像的语义信息,提升网络的学习能力,提高鼻咽癌靶区自动勾画的准确度。
Description
技术领域
本发明涉及靶区自动勾画技术领域,具体涉及一种基于深度学习的鼻咽癌靶区自动勾画方法及系统。
背景技术
鼻咽癌(nasopharyngeal carcinoma,NPC)是指发生在鼻咽腔的恶性肿瘤,是我国高发恶性肿瘤之一。对于早期鼻咽癌患者的治疗,首要选择就是放射治疗。对于放疗来说,合理准确地勾画靶区是治疗的关键因素,其中,靶区主要包括有大体肿瘤靶区(grosstumor volume,GTV),临床靶区(clinical tumor volume,CTV)以及计划靶区(planningtumor volume,PTV)。
由于鼻咽部本身的位置特点,导致在放射治疗过程中会造成危及器官受到射线的影响,所以在实际的临床治疗中,靶区勾画的精准度对于治疗效果起着很大的作用,放疗前的计划制定和结果评估是很重要的。当前,鼻咽癌的靶区是由专业的医师手工勾画,但是会存在一些不可避免的问题:医师手动勾画会浪费大量的时间和人力;靶区勾画的结果受医师的经验影响,不同医师勾画的结果存在一定的差距。所以,需要找到一种合适的方法来使靶区勾画更高效和准确。
近年来,深度学习方法在医学图像处理上取得很大的成功,将深度学习引入图像分割领域后,使得分割区域具有更丰富的语义信息,图像分割的问题也取得了突破性的进展。
在医学图像分割领域中,卷积神经网络(Convolutional Neural Networks,CNN)成为了深度学习的代表网络之一,CNN能很好地表示出图像的层次特征,并利用图像中的语义信息,实现语义分割。医学图像的语义分割主要是针对于图像的像素进行处理,将像素进行分类考虑,也有研究者在卷积神经网络基础上,提出了全卷积神经网络(fullyconvolutional networks,FCN),Unet等一系列网络来不断提高图像分割的效果。
但是使用卷积神经网络类似于FCN,UNet等进行分割仍然具有局限性:卷积神经网络在训练时不能很好地学习到目标图像的特点,它一般会将图像中的每个像素点单独考虑,就会使得网络在像素层面分割准确性较好,但是会缺失图像的上下文信息,导致最后的分割结果不够准确。
发明内容
为了解决上述技术问题,本发明提供一种基于深度学习的鼻咽癌靶区自动勾画方法及系统。
本发明技术解决方案为:一种基于深度学习的鼻咽癌靶区自动勾画方法,包括:
步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集;
步骤S2:构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块;
步骤S3:将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果。
本发明与现有技术相比,具有以下优点:
本发明公开了一种基于深度学习的鼻咽癌靶区自动勾画方法,通过构建全新的2D-PE-Block对GAN网络的生成器进行改进,解决了传统卷积神经网络由于损失函数的影响,在图像分割中缺少图像像素点的上下文信息的问题;充分利用图像的语义信息,提升网络的学习能力,提高鼻咽癌靶区自动勾画的准确度。同时,相比较于全卷积神经网络Unet、GAN,以及加入注意力机制的GAN来说,在尽可能减少网络计算资源占有的前提下,能提高网络对鼻咽癌靶区自动勾画的精确度。
附图说明
图1为本发明实施例中一种基于深度学习的鼻咽癌靶区自动勾画方法的流程图;
图2为本发明实施例中2D-PE-GAN网络结构示意图;
图3为本发明实施例中一种基于深度学习的鼻咽癌靶区自动勾画系统的结构框图。
具体实施方式
本发明提供了一种基于深度学习的鼻咽癌靶区自动勾画方法,通过构建全新的2D-PE-Block对GAN网络的生成器进行改进,充分利用图像的语义信息,提升网络的学习能力,提高鼻咽癌靶区自动勾画的准确度。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于深度学习的鼻咽癌靶区自动勾画方法,包括下述步骤:
步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集;
步骤S2:构建2D-PE-GAN网络模型,将训练集和验证集输入2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,2D-PE-GAN网络模型包括:生成器和鉴别器,生成器包括2D-PE-Block模块;
步骤S3:将测试集输入训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果。
在一个实施例中,上述步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集,具体包括:
步骤S11:收集鼻咽癌病人的医学图像,由专业放疗医师勾画其靶区标签,并对标有鼻咽癌靶区标签的医学图像进行图像处理,提取出对应的靶区勾画标签;
本发明实施例主要针对鼻咽癌CTV靶区进行自动勾画,收集了130例鼻咽癌病人的CT图像,由专业放疗医师勾画其靶区标签,并且为了保证数据的一致性,上述130例CT图像由2个相同放疗师所勾画;对标有鼻咽癌靶区标签的DICOM医学图进行查看和读取,使用Sante DICOM View可以查看和编辑DICOM格式文件,使用python中的pydicom、numpy等包来对医学图像进行读取,得到具有鼻咽癌靶区标签的医学图像。
步骤S12:对具有鼻咽癌靶区标签的医学图像进行归一化处理,得到归一化后的医学图像;
由于CT图像的采集会受到设备设置的影响,导致图像灰度信息上存在差异,因此将CT图像的灰度值归一化到[0,1]区间。
步骤S13:对归一化后的医学图像进行裁剪,使其包括肿瘤靶区,得到裁剪后的医学图像;
收集到的CT图像是512×512大小,其中包括有背景区域以及医疗设备的区域,导致后续网络训练时会浪费较多的资源,因此需要通过图像裁剪,将图像大小缩小为256×256,使其包括目标靶区,同时又能提高计算效率。
步骤S14:对裁剪后的医学图像进行随机翻转和旋转,得到最终的数据集,并将数据集划分为训练集、验证集和测试集。
本发明实施例中为了防止网络模型出现过拟合现象,在网络训练前对输入图像使用随机翻转和旋转的方式来增强数据,其中,图像旋转主要是将图像进行±30°以内随机角度。
经过上述操作后,得到最终的数据集。随机选取其中90张图像作为训练集,19张用于验证集,剩下的21张图像作为测试集。
在一个实施例中,上述步骤S2:构建2D-PE-GAN网络模型,将训练集和验证集输入2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,2D-PE-GAN网络模型包括:生成器和鉴别器,生成器包括2D-PE-Block模块,具体包括:
步骤S21:构建2D-PE-GAN网络模型中的生成器,生成器包括:卷积操作、批归一化、ReLU激活函数、反卷积操作以及最大池化操作;
本发明实施例使用Unet作为2D-PE-GAN网络模的生成器,其中生成器包括编码器和解码器,分别具有6层卷积层和反卷积层,分别采用7×7、5×5、5×5、5×5、5×5和4×4的卷积核大小,步长分别为3、2、2、2、2和1,每一层卷积操作后面有批归一化和ReLu激活函数以及最大池化操作;生成器用来生成鼻咽癌靶区勾画图片;
如图2所示为本发明2D-PE-GAN网络结构示意图。
步骤S22:将2D-PE-Block模块加入到生成器的每一层卷积操作的最后,2D-PE-Block类似通道注意力机制,包括投影操作和激发操作;
其中,投影操作(projection)使得通道在2D上进行计算得到对应的投影向量,通过池化操作利用到更多的空间信息,具体包括:
投影操作沿着W和H两个维度进行平均池化,表示为公式(1)~(2);
激发操作(excitation)包括:卷积操作、ReLU和sigmoid函数,经过激发操作可得到每个通道的权重系数,并学习投影向量在不同通道上的相关性,具体包括:
其中,б和δ分别是sigmoid函数和ReLU激活函数;A1和A2表示两个卷积层;*和⊙分别表示卷积和点乘运算;
经过生成器,生成预测的鼻咽癌靶区的勾画图片,将其输入下述鉴别器判别真假;
步骤S23:构建2D-PE-GAN网络模型中的鉴别器,鉴别器包括:由卷积层,批归一化和ReLU激活函数;
本发明实施例中的2D-PE-GAN网络模型的鉴别器和端到端的编解码卷积神经网络中的编码器结构类似;该鉴别器用于在网络训练时判断图片是“真实的”还是“虚假的”鼻咽癌靶区的勾画图片。
步骤S24:将训练集输入2D-PE-GAN网络进行训练,并利用验证集优化生成器和鉴别器的参数,当训练结果中Dice系数连续n次没有提高时,得到训练好的2D-PE-GAN网络。
在本发明实施例中,生成器和鉴别器互相博弈,利用训练集数据进行网络训练,并利用验证集数据优化生成器和鉴别器的参数,最终以Dice系数作为网络训练结束的标准,当网络训练的结果中Dice系数连续五次没有提高的时候,停止训练网络模型,此时得到训练好的2D-PE-GAN网络。
在一个实施例中,上述步骤S3:将测试集输入训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,具体包括:
使用测试集,对训练好的2D-PE-GAN网络进行测试,使用Dice系数作为最终的评价指标,使用豪斯多夫距离(Hausdorff distance,HD)评估鼻咽癌靶区的勾画结果的精确度评估结果,如表1展示了本发明提供的方法同其他神经网络进行靶区勾画结果的评估对比,表2展示了本发明的2D-PE-GAN网络和加入注意力机制的GAN网络的参数以及训练时间对比结果。
表1不同网络对21个鼻咽癌患者靶区勾画结果的评估参数结果(Mean+SD)
表2 2D-PE-GAN和加入注意力机制的GAN网络的参数以及训练时间
GAN+Attention | 本发明2D-PE-GAN | |
时间(s) | 67 | 55 |
参数个数 | 11080680 | 11062072 |
由表1和表2可知,使用本发明提供的2D-PE-GAN网络能有效提高网络分割效率,其中,Dice系数越大,HD越小,表示样本之间的差异越小。2D-PE-GAN网络的平均Dice系数比Unet提高了19%,比GAN网络提高了14%,比加入注意力机制的GAN提高了2%,由表1可知,2D-PE-Block的分割精确度和加入注意力机制差不多,但是由表2可知,2D-PE-GAN网络的训练时间和网络参数都比GAN+Attention的要少,可知,2D-PE-GAN网络在一定程度上,既能提高网络分割性能,也能减少计算资源的使用和训练时间。
本发明公开了一种基于深度学习的鼻咽癌靶区自动勾画方法,通过构建全新的2D-PE-Block对GAN网络的生成器进行改进,解决了传统卷积神经网络由于损失函数的影响,在图像分割中缺少图像像素点的上下文信息的问题;充分利用图像的语义信息,提升网络的学习能力。同时,相比较于全卷积神经网络Unet和GAN,以及加入注意力机制的GAN来说,在尽可能减少网络计算资源占有的前提下,能提高网络对鼻咽癌靶区自动勾画的精确度。
实施例二
如图3所示,本发明实施例提供了一种基于深度学习的鼻咽癌靶区自动勾画系统,包括下述模块:
构建数据集模块,用于收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集;
训练网络模型模块,用于构建2D-PE-GAN网络模型,将训练集和验证集输入2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,2D-PE-GAN网络模型包括:生成器和鉴别器,生成器包括2D-PE-Block模块;
评估模块,用于将测试集输入训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (5)
1.一种基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,包括:
步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集;
步骤S2:构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块;
步骤S3:将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估。
2.根据权利要求1所述的基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,所述步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集,具体包括:
步骤S11:收集鼻咽癌病人的医学图像,由专业放疗医师勾画其靶区标签,并对其进行图像处理,提取出对应的靶区勾画标签,得到具有鼻咽癌靶区标签的医学图像;
步骤S12:对所述具有鼻咽癌靶区标签的医学图像进行归一化处理,得到归一化后的医学图像;
步骤S13:对所述归一化后的医学图像进行裁剪,使其包括肿瘤靶区,得到裁剪后的医学图像;
步骤S14:对所述裁剪后的医学图像进行随机翻转和旋转,得到最终的数据集,并将所述数据集划分为训练集、验证集和测试集。
3.根据权利要求1所述的基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,所述步骤S2:构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块,具体包括:
步骤S21:构建2D-PE-GAN网络模型中的生成器,所述生成器包括:卷积操作、批归一化、ReLU激活函数、反卷积操作以及最大池化操作;
步骤S22:将2D-PE-Block模块加入到所述生成器的每一层卷积操作的最后,2D-PE-Block包括:投影操作和激发操作;
其中,所述投影操作使得通道在2D上进行计算得到对应的投影向量,通过池化操作利用到更多的空间信息;具体包括:
所述投影操作沿着W和H两个维度进行平均池化,表示为公式(1)~(2);
所述激发操作包括:卷积操作、ReLU和sigmoid函数,经过所述激发操作可得到每个通道的权重系数,并学习所述投影向量在不同通道上的相关性,具体包括:
经过生成器,生成预测的鼻咽癌靶区的勾画结果,将其输入下述鉴别器判别真假;
步骤S23:构建2D-PE-GAN网络模型中的鉴别器,所述鉴别器包括:由卷积层,批归一化和ReLU激活函数;
步骤S24:将所述训练集输入所述2D-PE-GAN网络进行训练,并利用所述验证集优化所述生成器和鉴别器的参数,当训练结果中Dice系数连续n次没有提高时,得到训练好的2D-PE-GAN网络。
4.根据权利要求1所述的基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,所述步骤S3:将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估,具体包括:
使用所述测试集,对所述训练好的2D-PE-GAN网络进行测试,使用Dice系数作为最终的评价指标,使用豪斯多夫距离评估所述鼻咽癌靶区的勾画结果的精确度。
5.一种基于深度学习的鼻咽癌靶区自动勾画系统,其特征在于,包括下述模块:
构建数据集模块,用于收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集;
训练网络模型模块,用于构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块;
评估模块,用于将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111505604.8A CN114170193A (zh) | 2021-12-10 | 2021-12-10 | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 |
CN202210222446.3A CN114511554A (zh) | 2021-12-10 | 2022-03-07 | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111505604.8A CN114170193A (zh) | 2021-12-10 | 2021-12-10 | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114170193A true CN114170193A (zh) | 2022-03-11 |
Family
ID=80485300
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111505604.8A Pending CN114170193A (zh) | 2021-12-10 | 2021-12-10 | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 |
CN202210222446.3A Pending CN114511554A (zh) | 2021-12-10 | 2022-03-07 | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210222446.3A Pending CN114511554A (zh) | 2021-12-10 | 2022-03-07 | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN114170193A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612478A (zh) * | 2022-03-21 | 2022-06-10 | 华南理工大学 | 一种基于深度学习的女性盆腔mri自动勾画系统 |
CN117576127A (zh) * | 2024-01-17 | 2024-02-20 | 神州医疗科技股份有限公司 | 一种基于病理图像的肝癌区域自动勾画方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359881B (zh) * | 2022-10-19 | 2023-04-07 | 成都理工大学 | 一种基于深度学习的鼻咽癌肿瘤自动勾画方法 |
-
2021
- 2021-12-10 CN CN202111505604.8A patent/CN114170193A/zh active Pending
-
2022
- 2022-03-07 CN CN202210222446.3A patent/CN114511554A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612478A (zh) * | 2022-03-21 | 2022-06-10 | 华南理工大学 | 一种基于深度学习的女性盆腔mri自动勾画系统 |
CN114612478B (zh) * | 2022-03-21 | 2024-05-10 | 华南理工大学 | 一种基于深度学习的女性盆腔mri自动勾画系统 |
CN117576127A (zh) * | 2024-01-17 | 2024-02-20 | 神州医疗科技股份有限公司 | 一种基于病理图像的肝癌区域自动勾画方法 |
CN117576127B (zh) * | 2024-01-17 | 2024-04-19 | 神州医疗科技股份有限公司 | 一种基于病理图像的肝癌区域自动勾画方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114511554A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220309674A1 (en) | Medical image segmentation method based on u-net | |
US11170502B2 (en) | Method based on deep neural network to extract appearance and geometry features for pulmonary textures classification | |
CN114170193A (zh) | 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 | |
CN111340828A (zh) | 基于级联卷积神经网络的脑部胶质瘤分割 | |
CN108053417A (zh) | 一种基于混合粗分割特征的3DU-Net网络的肺分割装置 | |
US20240257356A1 (en) | Three-dimensional medical image segmentation method and system based on short-term and long-term memory self-attention model | |
CN110992351B (zh) | 基于多输入卷积神经网络的sMRI图像分类方法和装置 | |
CN112580515B (zh) | 一种基于高斯热图回归的轻量级人脸关键点检测方法 | |
CN112734764A (zh) | 一种基于对抗网络的无监督医学图像分割方法 | |
CN113706486B (zh) | 基于密集连接网络迁移学习的胰腺肿瘤图像分割方法 | |
CN112381846A (zh) | 一种基于非对称网络的超声甲状腺结节分割方法 | |
CN110349170A (zh) | 一种全连接crf级联fcn和k均值脑肿瘤分割算法 | |
CN117333497A (zh) | 一种基于掩码监督策略的高效建模的三维医学影像分割方法 | |
CN114821052A (zh) | 基于自调节策略的三维脑肿瘤核磁共振图像分割方法 | |
CN112862783A (zh) | 一种基于神经网络的甲状腺ct图像结节自动诊断系统 | |
CN114581474A (zh) | 一种基于宫颈癌ct影像的临床靶区自动勾画方法 | |
Wang et al. | Multi-view fusion segmentation for brain glioma on CT images | |
CN114093507A (zh) | 边缘计算网络中基于对比学习的皮肤病智能分类方法 | |
CN109934796A (zh) | 一种基于深度集成学习的器官自动勾画方法 | |
CN111798463B (zh) | 一种头颈部ct图像中多器官自动分割方法 | |
CN117474933A (zh) | 一种基于空洞卷积注意力机制的医学图像分割方法 | |
CN116681883A (zh) | 基于Swin Transformer改进的乳腺影像病灶检测方法 | |
CN114612478B (zh) | 一种基于深度学习的女性盆腔mri自动勾画系统 | |
CN111888665A (zh) | 一种基于自适应修正对抗网络的三维剂量分布预测方法 | |
CN112419348B (zh) | 基于多任务学习边缘校正网络的男性盆腔ct分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20220311 |