CN114004813A - 一种应用于宫颈癌放疗临床靶区识别方法及装置 - Google Patents

一种应用于宫颈癌放疗临床靶区识别方法及装置 Download PDF

Info

Publication number
CN114004813A
CN114004813A CN202111288119.XA CN202111288119A CN114004813A CN 114004813 A CN114004813 A CN 114004813A CN 202111288119 A CN202111288119 A CN 202111288119A CN 114004813 A CN114004813 A CN 114004813A
Authority
CN
China
Prior art keywords
target
network model
image
radiotherapy
cervical cancer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111288119.XA
Other languages
English (en)
Inventor
安虹
易会特
石军
赵敏帆
朱子琦
郝晓宇
韩文廷
王朝晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202111288119.XA priority Critical patent/CN114004813A/zh
Publication of CN114004813A publication Critical patent/CN114004813A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种应用于宫颈癌放疗临床靶区识别方法及装置,包括:获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;基于所述分割结果,确定宫颈癌目标放疗临床靶区。本发明基于目标分割网络模型实现了宫颈癌放疗临床靶区勾画,提高了宫颈癌放疗临床靶区自动勾画的效率和准确性,降低了人力成本。

Description

一种应用于宫颈癌放疗临床靶区识别方法及装置
技术领域
本发明涉及医疗影像处理技术领域,特别是涉及一种应用于宫颈癌放疗临床靶区识别方法及装置。
背景技术
宫颈癌是最常见的妇科恶性肿瘤之一,严重危害我国女性健康与生命。在宫颈癌的临床治疗中,放射治疗(简称放疗)已成为主要治疗手段。随着影像学的不断发展,现在的放疗技术由二维放疗发展到三维放疗、四维放疗技术,放疗剂量分配也由点剂量发展到体积剂量分配。放疗实施过程主要包括影像采集、靶区勾画、放疗计划制定和放疗计划实施等。其中,放疗效果好坏的关键在于能否基于获取到的影像,快速而又精准的完成靶区勾画。涉及到的靶区有大体肿瘤靶区GTV,即肿瘤的病灶区域,这部分通常可从影像中直接观察到;临床靶区CTV,不仅包括肿瘤的病灶区域还包括亚临床病灶区域,即肿瘤可能转移的区域,这部分在影像上不容易直接观察到,也是靶区勾画的重点和难点;计划靶区PTV,即放疗实际实施的区域。
在临床放疗中,肿瘤临床靶区的勾画是由住院医生手动完成的。这种人工勾画的方式存在以下问题:人工勾画过程会占据医生大量的工作时间,费时费力;依赖医生主观经验,易产生误判;部分影像中靶区尺寸较小,人眼存在局限性,可能会遗漏部分靶区,造成漏判。可见现有的基于医疗影像人工勾画肿瘤临床靶区的方式已经无法满足实际的应用需求。
发明内容
针对于上述问题,本发明提供一种应用于宫颈癌放疗临床靶区识别方法及装置,提高了宫颈癌放疗临床靶区自动勾画的效率和准确性,降低了人力成本。
为了实现上述目的,本发明提供了如下技术方案:
一种应用于宫颈癌放疗临床靶区识别方法,包括:
获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;
基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;
基于所述分割结果,确定宫颈癌目标放疗临床靶区。
可选地,所述方法还包括:
获取初始样本集,所述目标样本集为标注有放疗临床靶区的区域信息的3D宫颈癌CT影像数据集;
对所述初始样本集进行图像预处理,获得目标样本集;
确定网络模型的目标结构,所述目标结构包括编码器、解码器、上采样分支和特征融合分支;
基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,所述目标分割网络模型具有预测得到的放疗临床靶区趋于实际标注的放疗临床靶区的能力。
可选地,所述对所述初始样本集进行图像预处理,获得目标样本集,包括:
对所述初始样本集中的样本数据进行数据清洗,得到第一样本数据;
利用目标阈值分割算法对所述第一样本数据进行处理,得到第二样本数据;
对所述第二样本数据进行重采样,得到目标样本集。
可选地,所述基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,包括:
获取具有目标结构的网络模型对所述目标样本集中的3D宫颈癌CT影像识别的预测靶区结果;
基于预测靶区结果与实际标注的放疗临床靶区的区域信息进行比较,获得比较结果;
基于所述比较结果,对所述目标结构中的参数信息进行调节,获得目标分割网络模型。
可选地,所述基于所述分割结果,确定宫颈癌放疗临床靶区,包括:
将所述分割结果转换为目标数组;
根据所述目标数组,提取区域轮廓信息;
基于所述区域轮廓信息,确定宫颈癌放疗临床靶区。
一种应用于宫颈癌放疗临床靶区识别装置,包括:
获取单元,用于获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;
识别单元,用于基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;
确定单元,用于基于所述分割结果,确定宫颈癌目标放疗临床靶区。
可选地,所述装置还包括:
样本获取单元,用于获取初始样本集,所述目标样本集为标注有放疗临床靶区的区域信息的3D宫颈癌CT影像数据集;
预处理单元,用于对所述初始样本集进行图像预处理,获得目标样本集;
结构确定单元,用于确定网络模型的目标结构,所述目标结构包括编码器、解码器、上采样分支和特征融合分支;
训练单元,用于基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,所述目标分割网络模型具有预测得到的放疗临床靶区趋于实际标注的放疗临床靶区的能力。
可选地,所述预处理单元包括:
清洗子单元,用于对所述初始样本集中的样本数据进行数据清洗,得到第一样本数据;
第一处理子单元,用于利用目标阈值分割算法对所述第一样本数据进行处理,得到第二样本数据;
重采样子单元,用于对所述第二样本数据进行重采样,得到目标样本集。
可选地,所述训练单元具体用于:
获取具有目标结构的网络模型对所述目标样本集中的3D宫颈癌CT影像识别的预测靶区结果;
基于预测靶区结果与实际标注的放疗临床靶区的区域信息进行比较,获得比较结果;
基于所述比较结果,对所述目标结构中的参数信息进行调节,获得目标分割网络模型。
可选地,所述确定单元具体用于:
将所述分割结果转换为目标数组;
根据所述目标数组,提取区域轮廓信息;
基于所述区域轮廓信息,确定宫颈癌放疗临床靶区。
相较于现有技术,本发明提供了一种应用于宫颈癌放疗临床靶区识别方法及装置,包括:获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;基于所述分割结果,确定宫颈癌目标放疗临床靶区。本发明基于目标分割网络模型实现了宫颈癌放疗临床靶区自动勾画,提高了宫颈癌放疗临床靶区勾画的效率和准确性,降低了人力成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种应用于宫颈癌放疗临床靶区识别方法的流程示意图;
图2为本发明实施例提供的一种网络结构示意图;
图3为本发明实施例提供的一种多注意力模块结构图;
图4为本发明实施例提供的一种临床靶区自动勾画的效果图;
图5为本发明实施例提供的一种应用于宫颈癌放疗临床靶区识别装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有设定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在本发明实施例中提供了一种应用于宫颈癌放疗临床靶区识别方法,参见图1,该方法可以包括以下步骤:
S101、获取待识别的目标图像。
所述目标图像为3D宫颈癌CT影像。
S102、基于目标分割网络模型对所述目标图像进行识别,获得分割结果。
其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区。
S103、基于所述分割结果,确定宫颈癌目标放疗临床靶区。
由于通过目标分割网络模型得到的分割结果是候选放疗八靶区,可以作为参考辅助信息,然后由专业人员进一步确定宫颈癌目标放疗临床靶区。
本发明实施例中的目标分割网络模型是一种多级注意力机制的全卷积神经网络算法框架,用于实现宫颈癌放疗临床靶区自动勾画。本发明能够提高宫颈癌勾画的效率和准确度,从而减轻医生进行手动勾画临床靶区的工作量。
在本发明实施例的一种可能的实现方式中,还提供了生成目标分割网络模型的方法,该过程可以包括以下步骤:
获取初始样本集,所述目标样本集为标注有放疗临床靶区的区域信息的3D宫颈癌CT影像数据集;
对所述初始样本集进行图像预处理,获得目标样本集;
确定网络模型的目标结构,所述目标结构包括编码器、解码器、上采样分支和特征融合分支;
基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,所述目标分割网络模型具有预测得到的放疗临床靶区趋于实际标注的放疗临床靶区的能力。
在本发明实施例中的网络模型的目标结构是一种多级注意力机制的全卷积神经网络算法框架,具体的,该网络结构可以参见图2。宫颈癌临床靶区的自动勾画可看作临床靶区轮廓的自动提取,其本质是医疗图像语义分割,即为CT影像的每一个像素划分一个类别。宫颈癌CT影像一共包含两个类别,分别为临床靶区(前景)和无关部位(背景),因此宫颈癌临床靶区分割过程就是一个图像二元标注的过程。
本发明使用全局多注意力网络(GML-Net)作为分割网络,来完成宫颈癌临床靶区自动分割,多注意力模块如图3所示。GML-Net采用了与UNet类似的编码器解码器结构,并改进了UNet的下采样和上采样过程。下采样过程使用多级注意力卷积块来代替原始的卷积操作,多级注意力卷积块将通道注意力、空间注意力和全局注意力三者融合在一起,通过Squeeze和Excitation操作,显著提升卷积神经网络的特征提取能力。GML-Net使用了多阶段分层上采样,可以更好的对不同特征层进行融合,从而恢复出精确度更高的分割结果图像。此外,为了更好的提取宫颈癌临床靶区中的多尺度信息,GML-Net在瓶颈连接处使用了空洞空间金字塔池化结构(ASPP),空洞空间金字塔池化结构由若干个不同的大小的卷积核并行连接而成,能够增强网络对不同尺度上下文信息的敏感程度。
下面对生成目标分割网络模型的过程进行说明,对初始样本集中的样本数据进行处理,以保证能够满足后续处理的需求。具体包括:对所述初始样本集中的样本数据进行数据清洗,得到第一样本数据;利用目标阈值分割算法对所述第一样本数据进行处理,得到第二样本数据;对所述第二样本数据进行重采样,得到目标样本集。
具体的,首先进行数据采集和图像转换,采集得到的原始图像数据为dicom格式,之后对样本数据进行清洗,剔除标注不规范的样本数据;通过目标阈值分割算法(如OTSU算法)转换,调整合适的窗宽窗位以提高对比度;然后使用形态学的方法和OTSU算法完成图像去噪和背景去除;接着将宫颈癌临床靶区CT影像重采样为各向同性分辨率,填充或剪裁至固定尺寸512x512,最后将图像数据和标签数据一起存为hdf5格式,方便读取。
构建宫颈癌临床靶区分割网络:基于现有深度学习框架Pytorch构建GML-Net和数据读取模块,设计相应的损失函数用于网络的训练过程,并选择适当的评价指标用于测试网络性能。
分割网络训练:首先使用合适的软硬件环境对建好的网络进行迭代训练。在网络训练之前首先需要进行超参数初始化,合理的初始化有利于网络的训练过程。在训练过程中为了防止过拟合,使用在线数据增强,包括翻转、旋转、归一化和高斯噪声等。
分割网络测试:测试阶段将未参与训练的新样本读入到网络模型进行测试。首先,需要对输入图像执行与针对训练样本同样的数据预处理方式;然后将处理好的图像输入已训练完成的网络模型,得到分割结果,选取合适的阈值二值化图像,并使用Dice系数来对分割结果进行评估。最后,根据分割结果,勾画出宫颈癌临床靶区。
在本发明实施例的一种实施方式中,所述基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,包括:
获取具有目标结构的网络模型对所述目标样本集中的3D宫颈癌CT影像识别的预测靶区结果;
基于预测靶区结果与实际标注的放疗临床靶区的区域信息进行比较,获得比较结果;
基于所述比较结果,对所述目标结构中的参数信息进行调节,获得目标分割网络模型。
即在模型的训练过程中是一个迭代更新,不断优化的过程。因此,会基于模型当前的预测结果与实际标注信息进行比较,若相差较多,或者不满足预设的损失函数处理条件,则需要对模型结构中对应的参数或者权重进行调整,以对模型进行优化,得到满足条件的目标分割网络模型。
具体的,在对训练样本进行预处理的过程可以包括:采集并且检查数据,确保图像的完整性和图像标注的正确性,将存在问题的图像加以剔除。进行图像转换,把原始的成像数据转化为有意义的图像表示,具体的,本发明将原始CT的Dicom格式图像转换为Python的Numpy格式。原始图像中除了人体信息以外,还会包含一些冗余的背景信息,比如床板、金属支架等。使用形态学方法以及阈值分割OTSU算法清除这些无关信息。对数据进行重采样,消除由于采样不一致带来的分辨率不一致问题,设置固定的各向分辨率。填充或裁剪图像,设置为固定尺寸512x512,将图像数据和标签数据一起存为hdf5格式,方便读取。
对应的,构建宫颈癌临床靶区分割网络的过程可以包括:分割网络GML-Net,采取了编码解码设计结构,一共包含了4个编码器和10个解码器,需要进行4次下采样操作,编码器使用了全局多注意力机制,通对融合多层次注意力信息,有效的完成了图像特征提取。使用深度学习框架Pytorch提供的DataSet和DataLoader来完成训练数据的有效读取和处理。使用Dice损失函数。神经网络训练的目的是尽可能地减小网络输出标签和实际标签之间的差距,损失函数能够反映该差距的大小,用于评价网络训练的整个过程。
进一步地,分割网络训练的过程可以包括:配置合适的软硬件环境对分割网络进行多次迭代训练。使用kaiming初始化。设置训练轮数为200轮,使用AdaBelief作为神经网络训练过程的优化器,初始学习率设置为1e-4,使用余弦退火作为学习率调整策略,动态的调整学习率,加速网络收敛,训练批大小batch size大小设为4。为了防止过拟合,对训练数据读取的同时进行在线随机增强。具体的增强变换主要包括:翻转、旋转、归一化和高斯噪声。合理的数据增强能够增加训练数据的多样性,有效的提高分割结果。保存验证结果最好的权重。
对应的,分割网络测试过程可以包括:将未参与训练的新样本,按照上述中的数据预处理方式,包括数据清洗、HU值转换、HU值标准化、重采样和填充剪裁等。GML-Net导入保存的权重文件,将已处理好的图像读入至网络中进行测试。为前景和背景选取合适的阈值,当分割网络输出的特征图中的像素点值大于该阈值,则说明该点为前景,将像素值置1;当像素点的值小于该阈值,则说明该点为背景,将像素值置0,从而得到分割结果。这里选取的阈值为0.5。使用Dice系数来进一步评价分割网络的性能,Dice系数反映了两个集合的接近程度,Dice系数大小在0到1之间,分割越准确,值越接近于1。最终,在测试集上的Dice系数可达0.83,大大优于传统的UNet。
在本发明实施例的一种实现方式中,所述基于所述分割结果,确定宫颈癌放疗临床靶区,包括:将所述分割结果转换为目标数组;根据所述目标数组,提取区域轮廓信息;基于所述区域轮廓信息,确定宫颈癌放疗临床靶区。
其中,目标数组为Python的Numpy数组。具体的,将分割结果转化为Python的Numpy数组。使用openCV库来提取轮廓,在原始图像上画出网络预测出的靶区范围,完成勾画。
本发明实施例提供了一种应用于宫颈癌放疗临床靶区识别方法,使用的分割网络加强了网络下采样阶段对图像特征的提取能力,并改进了上采样阶段的特征融合方式,能够很好的抑制假阳性分割,准确度更高。将注意力机制运用到图像分割中,能够让网络关注其应当关注的信息,对亚临床病灶的分割准确度更高。引入了多尺度信息提取模块,能够准确捕获大尺度目标和小尺度目标,网络适应性强。训练过程中使用了一系列数据增强方式,减轻网络的过拟合,提升网络的泛化能力和学习速度。
下面以实际的应用场景为例,对本发明实施例进行说明。
先采集不少于100例宫颈癌临床靶区CT影像作为训练数据。对训练数据进行清洗,确保图像标签的正确性和完整性,并将原始Dicom格式的CT图像转换为Python中的Numpy格式,使用形态学及阈值分割算法消除图像中背景等不相关信息;接着进行重采样,通过填充或裁剪至固定尺寸512x512,最后将图像和标签一起保存至hdf5格式。利用Pytorch搭建图2和图3所示的全局多注意力网络(GML-Net),并且构建数据读取模块。
然后,对分割网络进行多次迭代训练,实时评估并保存表现最好的网络模型参数。具体地,首先配置好相应的软硬件环境,选取不同参数,完成模型训练。训练时可能需要对超参数进行多次调整,多次实验,以选取一组效果最好的超参数,超参数包括batch size大小,优化器参数,数据增强方式等等。
对未参与训练过程的新样本进行预测。具体地,将保存的权重载入分割网络,将新数据之前的数据预处理方式进行处理,并将其输入到分割网络,选取合适的阈值,得到最终分割结果。最后,将分割结果转化为Python的Numpy数组,使用openCV库来提取轮廓,在原始图像上画出网络预测出的临床靶区,完成勾画,最终结果如图4所示,图中黑色圈中的区域为预测的临床靶区。
基于前述实施例,在本发明实施例中还提供了一种应用于宫颈癌放疗临床靶区识别装置,参见图5,包括:
获取单元10,用于获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;
识别单元20,用于基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;
确定单元30,用于基于所述分割结果,确定宫颈癌目标放疗临床靶区。
可选地,所述装置还包括:
样本获取单元,用于获取初始样本集,所述目标样本集为标注有放疗临床靶区的区域信息的3D宫颈癌CT影像数据集;
预处理单元,用于对所述初始样本集进行图像预处理,获得目标样本集;
结构确定单元,用于确定网络模型的目标结构,所述目标结构包括编码器、解码器、上采样分支和特征融合分支;
训练单元,用于基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,所述目标分割网络模型具有预测得到的放疗临床靶区趋于实际标注的放疗临床靶区的能力。
进一步地,所述预处理单元包括:
清洗子单元,用于对所述初始样本集中的样本数据进行数据清洗,得到第一样本数据;
第一处理子单元,用于利用目标阈值分割算法对所述第一样本数据进行处理,得到第二样本数据;
重采样子单元,用于对所述第二样本数据进行重采样,得到目标样本集。
对应的,所述训练单元具体用于:
获取具有目标结构的网络模型对所述目标样本集中的3D宫颈癌CT影像识别的预测靶区结果;
基于预测靶区结果与实际标注的放疗临床靶区的区域信息进行比较,获得比较结果;
基于所述比较结果,对所述目标结构中的参数信息进行调节,获得目标分割网络模型。
进一步地,所述确定单元具体用于:
将所述分割结果转换为目标数组;
根据所述目标数组,提取区域轮廓信息;
基于所述区域轮廓信息,确定宫颈癌放疗临床靶区。
本发明实施例提供了一种应用于宫颈癌放疗临床靶区识别装置,包括:获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;基于所述分割结果,确定宫颈癌目标放疗临床靶区。本发明基于目标分割网络模型实现了宫颈癌放疗临床靶区勾画,提高了宫颈癌放疗临床靶区自动勾画的效率和准确性,降低了人力成本。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种应用于宫颈癌放疗临床靶区识别方法,其特征在于,包括:
获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;
基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;
基于所述分割结果,确定宫颈癌目标放疗临床靶区。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取初始样本集,所述目标样本集为标注有放疗临床靶区的区域信息的3D宫颈癌CT影像数据集;
对所述初始样本集进行图像预处理,获得目标样本集;
确定网络模型的目标结构,所述目标结构包括编码器、解码器、上采样分支和特征融合分支;
基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,所述目标分割网络模型具有预测得到的放疗临床靶区趋于实际标注的放疗临床靶区的能力。
3.根据权利要求2所述的方法,其特征在于,所述对所述初始样本集进行图像预处理,获得目标样本集,包括:
对所述初始样本集中的样本数据进行数据清洗,得到第一样本数据;
利用目标阈值分割算法对所述第一样本数据进行处理,得到第二样本数据;
对所述第二样本数据进行重采样,得到目标样本集。
4.根据权利要求2所述的方法,其特征在于,所述基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,包括:
获取具有目标结构的网络模型对所述目标样本集中的3D宫颈癌CT影像识别的预测靶区结果;
基于预测靶区结果与实际标注的放疗临床靶区的区域信息进行比较,获得比较结果;
基于所述比较结果,对所述目标结构中的参数信息进行调节,获得目标分割网络模型。
5.根据权利要求1所述的方法,其特征在于,所述基于所述分割结果,确定宫颈癌放疗临床靶区,包括:
将所述分割结果转换为目标数组;
根据所述目标数组,提取区域轮廓信息;
基于所述区域轮廓信息,确定宫颈癌放疗临床靶区。
6.一种应用于宫颈癌放疗临床靶区识别装置,其特征在于,包括:
获取单元,用于获取待识别的目标图像,所述目标图像为3D宫颈癌CT影像;
识别单元,用于基于目标分割网络模型对所述目标图像进行识别,获得分割结果,其中,所述目标分割网络模型为基于3D宫颈癌CT影像对应的训练样本,训练生成的神经网络模型,所述分割结果为所述目标分割网络模型识别出的待确定的放疗临床靶区;
确定单元,用于基于所述分割结果,确定宫颈癌目标放疗临床靶区。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
样本获取单元,用于获取初始样本集,所述目标样本集为标注有放疗临床靶区的区域信息的3D宫颈癌CT影像数据集;
预处理单元,用于对所述初始样本集进行图像预处理,获得目标样本集;
结构确定单元,用于确定网络模型的目标结构,所述目标结构包括编码器、解码器、上采样分支和特征融合分支;
训练单元,用于基于所述目标样本集对具有所述目标结构的网络模型进行训练,获得目标分割网络模型,所述目标分割网络模型具有预测得到的放疗临床靶区趋于实际标注的放疗临床靶区的能力。
8.根据权利要求7所述的装置,其特征在于,所述预处理单元包括:
清洗子单元,用于对所述初始样本集中的样本数据进行数据清洗,得到第一样本数据;
第一处理子单元,用于利用目标阈值分割算法对所述第一样本数据进行处理,得到第二样本数据;
重采样子单元,用于对所述第二样本数据进行重采样,得到目标样本集。
9.根据权利要求7所述的装置,其特征在于,所述训练单元具体用于:
获取具有目标结构的网络模型对所述目标样本集中的3D宫颈癌CT影像识别的预测靶区结果;
基于预测靶区结果与实际标注的放疗临床靶区的区域信息进行比较,获得比较结果;
基于所述比较结果,对所述目标结构中的参数信息进行调节,获得目标分割网络模型。
10.根据权利要求6所述的装置,其特征在于,所述确定单元具体用于:
将所述分割结果转换为目标数组;
根据所述目标数组,提取区域轮廓信息;
基于所述区域轮廓信息,确定宫颈癌放疗临床靶区。
CN202111288119.XA 2021-11-02 2021-11-02 一种应用于宫颈癌放疗临床靶区识别方法及装置 Pending CN114004813A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111288119.XA CN114004813A (zh) 2021-11-02 2021-11-02 一种应用于宫颈癌放疗临床靶区识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111288119.XA CN114004813A (zh) 2021-11-02 2021-11-02 一种应用于宫颈癌放疗临床靶区识别方法及装置

Publications (1)

Publication Number Publication Date
CN114004813A true CN114004813A (zh) 2022-02-01

Family

ID=79926441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111288119.XA Pending CN114004813A (zh) 2021-11-02 2021-11-02 一种应用于宫颈癌放疗临床靶区识别方法及装置

Country Status (1)

Country Link
CN (1) CN114004813A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071375A (zh) * 2023-03-10 2023-05-05 福建自贸试验区厦门片区Manteia数据科技有限公司 图像分割方法和装置、存储介质及电子设备
CN117152442A (zh) * 2023-10-27 2023-12-01 吉林大学 影像靶区自动勾画方法、装置、电子设备和可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071375A (zh) * 2023-03-10 2023-05-05 福建自贸试验区厦门片区Manteia数据科技有限公司 图像分割方法和装置、存储介质及电子设备
CN116071375B (zh) * 2023-03-10 2023-09-26 福建自贸试验区厦门片区Manteia数据科技有限公司 图像分割方法和装置、存储介质及电子设备
CN117152442A (zh) * 2023-10-27 2023-12-01 吉林大学 影像靶区自动勾画方法、装置、电子设备和可读存储介质
CN117152442B (zh) * 2023-10-27 2024-02-02 吉林大学 影像靶区自动勾画方法、装置、电子设备和可读存储介质

Similar Documents

Publication Publication Date Title
CN108464840B (zh) 一种乳腺肿块自动检测方法及系统
CN111553892B (zh) 基于深度学习的肺结节分割计算方法、装置及系统
CN108985345B (zh) 一种基于肺部医学图像融合分类的检测装置
CN111028206A (zh) 一种基于深度学习前列腺癌自动检测和分类系统
CN112184657A (zh) 一种肺结节自动检测方法、装置及计算机系统
CN111428709A (zh) 图像处理方法、装置、计算机设备和存储介质
CN112365973B (zh) 基于对抗网络和Faster R-CNN的肺结节辅助诊断系统
CN114004813A (zh) 一种应用于宫颈癌放疗临床靶区识别方法及装置
CN111598875A (zh) 甲状腺结节自动检测模型构建方法、系统及装置
CN114758137B (zh) 超声图像分割方法、装置及计算机可读存储介质
CN112862830A (zh) 一种多模态图像分割方法、系统、终端及可读存储介质
CN109447963A (zh) 一种脑部影像识别的方法及装置
CN111798424A (zh) 一种基于医学图像的结节检测方法、装置及电子设备
CN116758336A (zh) 一种基于人工智能的医学图像智能分析系统
CN113269799A (zh) 一种基于深度学习的宫颈细胞分割方法
CN115100494A (zh) 一种病灶图像的识别方法、装置、设备及可读存储介质
CN115018863A (zh) 基于深度学习的图像分割方法及装置
CN114693671A (zh) 基于深度学习的肺结节半自动分割方法、装置、设备及介质
CN116883341A (zh) 一种基于深度学习的肝脏肿瘤ct图像自动分割方法
Zhang et al. Mammographic mass detection by bilateral analysis based on convolution neural network
CN113870194B (zh) 深层特征和浅层lbp特征融合的乳腺肿瘤超声图像处理装置
CN113379770B (zh) 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置
CN115689993A (zh) 基于注意力与多特征融合的皮肤癌图像分割方法及系统
CN116524315A (zh) 一种基于Mask R-CNN的肺癌病理组织切片识别及分割方法
CN114565617A (zh) 基于剪枝U-Net++的乳腺肿块图像分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination