CN111862022A - 全身多部位放射治疗危及器官自动勾画方法 - Google Patents
全身多部位放射治疗危及器官自动勾画方法 Download PDFInfo
- Publication number
- CN111862022A CN111862022A CN202010671178.4A CN202010671178A CN111862022A CN 111862022 A CN111862022 A CN 111862022A CN 202010671178 A CN202010671178 A CN 202010671178A CN 111862022 A CN111862022 A CN 111862022A
- Authority
- CN
- China
- Prior art keywords
- image
- risk
- organs
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000000920 organ at risk Anatomy 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000001959 radiotherapy Methods 0.000 title claims abstract description 30
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 210000000056 organ Anatomy 0.000 claims description 26
- 230000011218 segmentation Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 206010028980 Neoplasm Diseases 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000002146 bilateral effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 238000013434 data augmentation Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000007667 floating Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 238000013136 deep learning model Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 9
- 210000003484 anatomy Anatomy 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种全身多部位放射治疗危及器官自动勾画方法,该方法采用基于点云配准方法对不同病人进行刚性配准,将大量病人的危及器官勾画结果进行配准,得到各部位危及器官的分布概率的先验知识图,并通过点云配准方法实现危及器官概率分布在待处理医学影像上的映射,得到先验概率分布,引导卷积神经网络模型的训练。使得卷积神经网络模型可以利用模型难以学习的解剖结构关联信息提高自动勾画的精度,和避免常识性的错误勾画。其中所采用的点云配准技术较传统的基于图像灰度的配准技术,具有速度更快,受噪声影响更小的优势。
Description
技术领域
本发明涉及医疗图像领域,尤其涉及一种全身多部位放射治疗危及器官自动勾画方法。
背景技术
放射治疗是目前恶性肿瘤的重要治疗之一,精准的放射治疗技术可以大大提高了癌症患者的生存率和减少病人的放疗并发症,提高病人的生存质量。而放射治疗中的轮廓勾画是精准放射治疗的基本保障,轮廓勾画的准确度直接决定了放射治疗剂量分布的可靠性,错误的勾画可能带来严重的放射治疗事故,危及患者的生命安全。目前临床上放射治疗中轮廓的勾画一般采用人工勾画获得,人工勾画效率低,可重复性差,且严重依赖于勾画医生的经验水平。高精确度的快速自动勾画方法有利于提高临床放射治疗的效率的精准度。
近年来,深度学习等人工智能技术在医学影像处理领域取得了巨大的进展,尤其是医学图像分割上,分割准确度远优于传统方法。然而,现有的深度学习方法仅考虑待分割图像灰度,没有考虑各解剖结构之间的相关性,如相对位置关系、形状特点等,从而导致在实际分割中极易出现过分割或器官交错的问题,此类分割误差会对临床放射治疗工作带来较大的干扰,且其分割错误超出正常的解剖结构关系,医生或物理师在审核过程中依然容易出现遗漏。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
针对现有技术存在的问题,本发明实施例提供一种全身多部位放射治疗危及器官自动勾画方法。
本发明实施例提供一种全身多部位放射治疗危及器官自动勾画方法,其基于先验约束深度学习模型,并包括以下步骤:
步骤(1):采集各类肿瘤患者放射治疗前的计划CT图像数据和危及器官轮廓勾画数据,并对其进行预处理;
步骤(2):提取步骤(1)中采集的计划CT图像上危及器官勾画结果,并将轮廓线以内的区域赋值为1,轮廓线以外的区域赋值为0,得到每个危及器官的二进制掩模图像;
步骤(3):对步骤(1)中采集的计划CT图像进行身体分割,将CT 值不小于-200的区域置为1,CT值大于-200的区域置为0,得到图像中的空气区域的掩模图像;保留空气区域的三维最大连通连通区域后,再将处理后的掩模图像中值为1的区域置为0,值为0的区域置为1,得到病人的身体区域的掩模图像,并将掩模图像转化为身体表面点云;
步骤(4):选择一个病人作为参考病人,采用点云刚性配准算法将其余病人的身体表面点云配准至参考病人,得到刚性配准参数;利用刚性配准参数将对应病人的危及器官勾画掩模图像刚性映射至参考病人图像坐标系,将各个危及器官按照病人进行平均,得到各个危及器官的空间分布概率图,其取值范围为0至1的浮点数;
步骤(5):利用步骤(4)中计算得到的刚性配准参数将步骤(4)中生成的危及器官空间分布概率图刚性映射至对应病人的图像坐标系,得到对应病人的危及器官分布的先验知识图;
步骤(6):构建基于金字塔结构的卷积神经网络模型,将步骤(5)中处理后的计划CT图像和对应的各危及器官先验知识图谱作为卷积神经网络模型的输入,各危及器官的掩模图像作为卷积神经网络模型的输出,对卷积神经网络模型进行训练;
步骤(7):获取测试病人的计划CT图像数据,按照步骤(1~5)获取病人的危及器官先验知识图,以验证模式输入步骤(6)中训练好的基于金字塔结构的卷积神经网络模型,输出各危及器官的激励函数预测概率,以最大预测概率取对应通道的标签,得到各危及器官的自动分割掩模图像。
进一步地,步骤(1)中对计划CT图像数据和危及器官轮廓勾画数据进行如下预处理:将CT灰度值截取在[-1024,1024]范围内,在将其归一化至[-1, 1]范围内。
进一步地,步骤(3)中通过匹配多维数据集算法将掩模图像转化为身体表面点云。
进一步地,步骤(4)中的点云刚性配准算法为最近点迭代算法。
进一步地,步骤(6)中的卷积神经网络模型的训练具体包括以下步骤:
步骤(a):建立卷积神经网络模型,该卷积神经网络模型以病人计划 CT图像和各危及器官先验知识图作为输入,以对应危及器官的二进制掩模图像作为输出;
步骤(b):将步骤(a)中定义的输入数据进行数据增广;
步骤(c):将步骤(a)中定义的原始图像及先验知识图和步骤(b)中增广后的数据进行打乱后,按批次输入建立的卷积神经网络模型,根据模型的输出和输入图像对应的危及器官二进制掩模图像,计算所有危及器官分割结果的平均Dice损失,采用反向传播方法对卷积神经网络模型的参数进行更新;
步骤(d):迭代执行步骤(c),当达到预设的模型训练迭代次数或损失函数达到预设阈值,卷积神经网络模型训练完成,保存模型参数。
进一步地,步骤(a)中还包括:对卷积神经网络的输入进行随机dropout 处理的步骤,其实现方法是对输入通道中需要进行规避处理的通道进行拆分,并在其后接入随机舍弃概率为(0,1)范围内的dropout层,在训练过程中对对应通道的输入进行随机舍弃。
进一步地,步骤(b)中的数据增广方法包括:
步骤i:对计划CT图像增加高斯噪声;
步骤ii:对先验知识图进行正负5°旋转;
步骤iii:对先验知识图进行正负5个像素内的平移;
步骤iv:对计划CT图像及先验知识图同时进行180°旋转;
步骤v:对计划CT图像及先验知识图同时进行左右对称翻转;
步骤vi:对计划CT图像及先验知识图同时进行前后对侧旋转。
本发明实施例提供的一种全身多部位放射治疗危及器官自动勾画方法具有如下优点:
1.本发明采用基于点云配准方法对不同病人进行刚性配准,将大量病人的危及器官勾画结果进行配准,得到各部位危及器官的分布概率的先验知识图,并通过点云配准方法实现危及器官概率分布在待处理医学影像上的映射,得到先验概率分布,引导卷积神经网络模型的训练,可有效利用危及器官之间的相对位置关系和解剖关联信息,避免常识性分割错误,提高分割的精确度。
2.本发明采用的点云配准技术较传统的基于图像灰度的配准技术,具有速度更快,受噪声影响更小的优势,可有效用于危及器官分布的先验信息图的生成和映射。
3.本发明使用输入通道dropout技术,在训练过程中,随机舍弃输入图像对应各个结构的先验知识图谱,避免卷积神经网络被先验知识过度影响,导致图像特征挖掘不充分,提高卷积神经网络模型的准确度。同时,可保障卷积神经网络模型在无危及器官分布的先验知识图时,本发明方法仍然可以有效实现危及器官自动勾画。
4.本发明在放射治疗计划工作流程中实施人工智能辅助的危及器官轮廓勾画方法,能有效提高医疗工作者的工作效率的勾画的一致性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的全身多部位放射治疗危及器官自动勾画方法流程图;
图2为本发明实施例提供的方法中卷积神经网络模型的训练流程图;
图3为本发明实施例提供的方法中基于点云配准的危及器官分布先验知识图计算过程图;
图4本发明实施例提供的方法所采用的对输入进行dropout的卷积神经网络模型。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
图1为本发明实施例提供的一种全身多部位放射治疗危及器官自动勾画方法流程图,如图1所示,本发明提出的一种全身多部位放射治疗危及器官自动勾画方法,包括下述步骤:
步骤(1):采集各类肿瘤患者放射治疗前的计划CT图像数据(Dicom 数据)和危及器官轮廓勾画数据(DicomRT数据),对其进行如下预处理:将CT灰度值截取在[-1024,1024]范围内,在将其归一化至[-1,1]范围内,使各个患者的图像数据更加统一;
步骤(2):提取步骤(1)中采集的计划CT图像上危及器官勾画结果,并将轮廓线以内的区域赋值为1,轮廓线以外的区域赋值为0,得到每个危及器官的二进制掩模图像;
步骤(3):对步骤(1)中采集的计划CT图像进行身体分割,将CT 值不小于-200的区域置为1,CT值大于-200的区域置为0,得到图像中的空气区域的掩模图像;保留空气区域的三维最大连通区域后,再将处理后的掩模图像中值为1的区域置为0,值为0的区域置为1,得到病人的身体区域的掩模图像,通过匹配多维数据集(matching cube)等算法将掩模图像转化为身体表面点云;
步骤(4):选择一个病人作为参考病人,如图3所示,采用点云刚性配准算法(如:最近点迭代算法(Interactive Closest Point,ICP))将其余病人的身体表面点云配准至参考病人,得到刚性配准参数;利用刚性配准参数将对应病人的危及器官勾画掩模图像刚性映射至参考病人图像坐标系,将各个危及器官按照病人进行平均,得到各个危及器官的空间分布概率图,其取值范围为0至1的浮点数;
步骤(5):利用步骤(4)中计算得到的刚性配准参数将步骤(4)中生成的危及器官空间分布概率图刚性映射至对应病人的图像坐标系,得到对应病人的危及器官分布的先验知识图;
步骤(6):构建基于金字塔结构的卷积神经网络模型,将步骤(5)中处理后的计划CT图像和对应的各危及器官先验知识图谱作为卷积神经网络模型的输入,各危及器官的掩模图像作为卷积神经网络模型的输出,对卷积神经网络模型进行训练(如图2所示);
在一实施例中,本发明实施例的步骤(6)中的卷积神经网络模型的训练具体包括以下步骤:
步骤(a):建立卷积神经网络模型,该卷积神经网络模型以病人计划 CT图像和各危及器官先验知识图作为输入,以对应危及器官的二进制掩模图像作为输出;
在一实施例中,本发明实施例的步骤(a)中还包括:对卷积神经网络的输入进行随机dropout处理的步骤,其实现方法是对输入通道中需要进行规避处理的通道进行拆分,并在其后接入随机舍弃概率为(0,1)范围内的dropout 层,在训练过程中对对应通道的输入进行随机舍弃。即在卷积神经网络模型的输入中的各危及器官先验知识图后接入一个范围为0~1的随机概率的 dropout层,在训练过程中对各危及器官的先验知识图进行舍弃。
步骤(b):将步骤(a)中定义的输入数据进行数据增广,其增广方法包括:i.对计划CT图像增加高斯噪声;ii.对先验知识图进行正负5°旋转; iii.对先验知识图进行正负5个像素内的平移;iv.对计划CT图像及先验知识图同时进行180°旋转;v.对计划CT图像及先验知识图同时进行左右对称翻转;vi.对计划CT图像及先验知识图同时进行前后对侧旋转;在训练过程中对训练数据的先验知识图进行小角度旋转和小距离的平移处理,模拟图像配准精度较差的情况,提高模型对点云配准精度偏度的适用性。
步骤(c):将步骤(a)中定义的原始图像及先验知识图和步骤(b)中增广后的数据进行打乱后,按批次输入建立的卷积神经网络模型,根据模型的输出和输入图像对应的危及器官二进制掩模图像,计算所有危及器官分割结果的平均Dice损失,采用反向传播方法对卷积神经网络模型的参数进行更新;
步骤(d):迭代执行步骤(c),当达到预设的模型训练迭代次数或损失函数达到预设阈值,卷积神经网络模型训练完成,保存模型参数。
步骤(7):获取测试病人的计划CT图像数据,按照步骤(1~5)获取病人的危及器官先验知识图,以验证模式输入步骤(6)中训练好的基于金字塔结构的卷积神经网络模型,输出各危及器官的激励函数(softmax)预测概率,以最大预测概率取对应通道的标签,得到各危及器官的自动分割掩模图像。
本发明方法在无危及器官分布的先验知识图谱时亦可使用。
综上所述,与现有技术相比,本发明采用基于点云配准方法对不同病人进行刚性配准,将大量病人的危及器官勾画结果进行配准,得到各部位危及器官的分布概率的先验知识图,并通过点云配准方法实现危及器官概率分布在待处理医学影像上的映射,得到先验概率分布,引导卷积神经网络模型的训练。使得卷积神经网络模型可以利用模型难以学习的解剖结构关联信息提高自动勾画的精度,和避免常识性的错误勾画。其中所采用的点云配准技术较传统的基于图像灰度的配准技术,具有速度更快,受噪声影像更小的优势。此外,为保障先验知识图谱使用的有效性和非依赖性,本发明使用输入通道dropout技术,在训练过程中,随机舍弃输入图像对应各个结构的先验知识图谱,避免卷积神经网络被先验知识过度影响,导致图像特征挖掘不充分,提高卷积神经网络模型的准确度,亦可使得卷积神经网络在无先验知识图谱时亦可实现危及器官的自动勾画。总的来说,本发明的目的是在放射治疗计划工作流程中实施AI辅助的危及器官轮廓勾画方法,有效提高医疗工作者的工作效率的勾画的一致性、准确度和可靠性。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种全身多部位放射治疗危及器官自动勾画方法,其特征在于,其基于先验约束深度学习模型,并包括以下步骤:
步骤(1):采集各类肿瘤患者放射治疗前的计划CT图像数据和危及器官轮廓勾画数据,并对其进行预处理;
步骤(2):提取步骤(1)中采集的计划CT图像上危及器官勾画结果,并将轮廓线以内的区域赋值为1,轮廓线以外的区域赋值为0,得到每个危及器官的二进制掩模图像;
步骤(3):对步骤(1)中采集的计划CT图像进行身体分割,将CT值不小于-200的区域置为1,CT值大于-200的区域置为0,得到图像中的空气区域的掩模图像;保留空气区域的三维最大连通区域后,再将处理后的掩模图像中值为1的区域置为0,值为0的区域置为1,得到病人的身体区域的掩模图像,并将掩模图像转化为身体表面点云;
步骤(4):选择一个病人作为参考病人,采用点云刚性配准算法将其余病人的身体表面点云配准至参考病人,得到刚性配准参数;利用刚性配准参数将对应病人的危及器官勾画掩模图像刚性映射至参考病人图像坐标系,将各个危及器官按照病人进行平均,得到各个危及器官的空间分布概率图,其取值范围为0至1的浮点数;
步骤(5):利用步骤(4)中计算得到的刚性配准参数将步骤(4)中生成的危及器官空间分布概率图刚性映射至对应病人的图像坐标系,得到对应病人的危及器官分布的先验知识图;
步骤(6):构建基于金字塔结构的卷积神经网络模型,将步骤(5)中处理后的计划CT图像和对应的各危及器官先验知识图谱作为卷积神经网络模型的输入,各危及器官的掩模图像作为卷积神经网络模型的输出,对卷积神经网络模型进行训练;
步骤(7):获取测试病人的计划CT图像数据,按照步骤(1~5)获取病人的危及器官先验知识图,以验证模式输入步骤(6)中训练好的基于金字塔结构的卷积神经网络模型,输出各危及器官的激励函数预测概率,以最大预测概率取对应通道的标签,得到各危及器官的自动分割掩模图像。
2.根据权利要求1所述的全身多部位放射治疗危及器官自动勾画方法,其特征在于,所述步骤(1)中对计划CT图像数据和危及器官轮廓勾画数据进行如下预处理:将CT灰度值截取在[-1024,1024]范围内,在将其归一化至[-1,1]范围内。
3.根据权利要求1所述的全身多部位放射治疗危及器官自动勾画方法,其特征在于,所述步骤(3)中通过匹配多维数据集算法将掩模图像转化为身体表面点云。
4.根据权利要求1所述的全身多部位放射治疗危及器官自动勾画方法,其特征在于,所述步骤(4)中的点云刚性配准算法为最近点迭代算法。
5.根据权利要求1所述的全身多部位放射治疗危及器官自动勾画方法,其特征在于,所述步骤(6)中的卷积神经网络模型的训练具体包括以下步骤:
步骤(a):建立卷积神经网络模型,该卷积神经网络模型以病人计划CT图像和各危及器官先验知识图作为输入,以对应危及器官的二进制掩模图像作为输出;
步骤(b):将步骤(a)中定义的输入数据进行数据增广;
步骤(c):将步骤(a)中定义的原始图像及先验知识图和步骤(b)中增广后的数据进行打乱后,按批次输入建立的卷积神经网络模型,根据模型的输出和输入图像对应的危及器官二进制掩模图像,计算所有危及器官分割结果的平均Dice损失,采用反向传播方法对卷积神经网络模型的参数进行更新;
步骤(d):迭代执行步骤(c),当达到预设的模型训练迭代次数或损失函数达到预设阈值,卷积神经网络模型训练完成,保存模型参数。
6.根据权利要求5所述的全身多部位放射治疗危及器官自动勾画方法,其特征在于,所述步骤(a)中还包括:对卷积神经网络的输入进行随机dropout处理的步骤,其实现方法是对输入通道中需要进行规避处理的通道进行拆分,并在其后接入随机舍弃概率为(0,1)范围内的dropout层,在训练过程中对对应通道的输入进行随机舍弃。
7.根据权利要求6所述的全身多部位放射治疗危及器官自动勾画方法,其特征在于,所述步骤(b)中的数据增广方法包括:
步骤i:对计划CT图像增加高斯噪声;
步骤ii:对先验知识图进行正负5°旋转;
步骤iii:对先验知识图进行正负5个像素内的平移;
步骤iv:对计划CT图像及先验知识图同时进行180°旋转;
步骤v:对计划CT图像及先验知识图同时进行左右对称翻转;
步骤vi:对计划CT图像及先验知识图同时进行前后对侧旋转。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010671178.4A CN111862022B (zh) | 2020-07-13 | 2020-07-13 | 全身多部位放射治疗危及器官自动勾画方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010671178.4A CN111862022B (zh) | 2020-07-13 | 2020-07-13 | 全身多部位放射治疗危及器官自动勾画方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111862022A true CN111862022A (zh) | 2020-10-30 |
CN111862022B CN111862022B (zh) | 2022-08-16 |
Family
ID=72983202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010671178.4A Active CN111862022B (zh) | 2020-07-13 | 2020-07-13 | 全身多部位放射治疗危及器官自动勾画方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111862022B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419338A (zh) * | 2020-12-08 | 2021-02-26 | 深圳大学 | 一种基于解剖先验知识的头颈部危及器官的分割方法 |
CN112466441A (zh) * | 2020-12-15 | 2021-03-09 | 海创时代(深圳)医疗科技有限公司 | 一种器官勾画方法及装置 |
CN113298855A (zh) * | 2021-05-27 | 2021-08-24 | 广州柏视医疗科技有限公司 | 基于自动勾画的图像配准方法 |
CN113450397A (zh) * | 2021-06-25 | 2021-09-28 | 广州柏视医疗科技有限公司 | 基于深度学习的图像形变配准方法 |
CN115409739A (zh) * | 2022-10-31 | 2022-11-29 | 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) | 一种危及器官自动勾画方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103977499A (zh) * | 2014-05-21 | 2014-08-13 | 北京航空航天大学 | 粒子植入治疗计划设计方法 |
CN110211166A (zh) * | 2019-06-13 | 2019-09-06 | 北京理工大学 | 磁共振图像中视神经分割方法及装置 |
CN111105424A (zh) * | 2019-12-19 | 2020-05-05 | 广州柏视医疗科技有限公司 | 淋巴结自动勾画方法及装置 |
-
2020
- 2020-07-13 CN CN202010671178.4A patent/CN111862022B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103977499A (zh) * | 2014-05-21 | 2014-08-13 | 北京航空航天大学 | 粒子植入治疗计划设计方法 |
CN110211166A (zh) * | 2019-06-13 | 2019-09-06 | 北京理工大学 | 磁共振图像中视神经分割方法及装置 |
CN111105424A (zh) * | 2019-12-19 | 2020-05-05 | 广州柏视医疗科技有限公司 | 淋巴结自动勾画方法及装置 |
Non-Patent Citations (2)
Title |
---|
YU ZHAO ET AL.: "Knowledge-Aided Convolutional Neural Network for Small Organ Segmentation", 《IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS》 * |
徐林 等: "鼻咽癌调强放疗中对危及器官勾画及计划优化改进的剂量学探讨", 《中山大学学报(医学科学版)》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419338A (zh) * | 2020-12-08 | 2021-02-26 | 深圳大学 | 一种基于解剖先验知识的头颈部危及器官的分割方法 |
CN112466441A (zh) * | 2020-12-15 | 2021-03-09 | 海创时代(深圳)医疗科技有限公司 | 一种器官勾画方法及装置 |
CN113298855A (zh) * | 2021-05-27 | 2021-08-24 | 广州柏视医疗科技有限公司 | 基于自动勾画的图像配准方法 |
CN113298855B (zh) * | 2021-05-27 | 2021-12-28 | 广州柏视医疗科技有限公司 | 基于自动勾画的图像配准方法 |
WO2022247218A1 (zh) * | 2021-05-27 | 2022-12-01 | 广州柏视医疗科技有限公司 | 基于自动勾画的图像配准方法 |
CN113450397A (zh) * | 2021-06-25 | 2021-09-28 | 广州柏视医疗科技有限公司 | 基于深度学习的图像形变配准方法 |
CN113450397B (zh) * | 2021-06-25 | 2022-04-01 | 广州柏视医疗科技有限公司 | 基于深度学习的图像形变配准方法 |
CN115409739A (zh) * | 2022-10-31 | 2022-11-29 | 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) | 一种危及器官自动勾画方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111862022B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111862022B (zh) | 全身多部位放射治疗危及器官自动勾画方法 | |
CN106920234B (zh) | 一种复合式自动放疗计划的方法 | |
AU2017209046B2 (en) | Systems and methods for segmentation of intra-patient medical images | |
WO2021088747A1 (zh) | 基于深度学习的预测消融术后肝脏肿瘤形态变化的方法 | |
CN111028914B (zh) | 人工智能引导的剂量预测方法与系统 | |
CN112508965B (zh) | 医学影像中正常器官的轮廓线自动勾画系统 | |
US11100647B2 (en) | 3-D convolutional neural networks for organ segmentation in medical images for radiotherapy planning | |
CN111105424A (zh) | 淋巴结自动勾画方法及装置 | |
CN108815721B (zh) | 一种照射剂量确定方法及系统 | |
CN108629785B (zh) | 基于自步学习的三维磁共振胰腺图像分割方法 | |
CN111862021B (zh) | 基于深度学习的头颈部淋巴结及引流区自动勾画方法 | |
CN109509193B (zh) | 一种基于高精度配准的肝脏ct图谱分割方法及系统 | |
Nouranian et al. | A multi-atlas-based segmentation framework for prostate brachytherapy | |
US9355447B2 (en) | System and method for gradient assisted non-connected automatic region (GANAR) analysis | |
CN114341936A (zh) | 用于医学成像中的图像裁剪和解剖结构分割的系统和方法 | |
CN112057751A (zh) | 一种盆腔放疗危及器官自动勾画方法 | |
CN113035334B (zh) | 鼻腔nkt细胞淋巴瘤放疗靶区自动勾画方法和装置 | |
CN114707742A (zh) | 自适应放疗策略的人工智能预测方法和系统 | |
CN117244181A (zh) | 基于放疗风险器官轮廓的剂量分析方法及装置 | |
CN110378910B (zh) | 基于图谱融合的腹腔多器官分割方法及装置 | |
CN116547699A (zh) | 一种用于放射治疗中的临床靶标勾画方法 | |
CN113129327B (zh) | 一种基于神经网络模型生成内大体靶区的方法和系统 | |
CN115762724A (zh) | 医学图像的靶区自动勾画方法、装置和系统 | |
CN112419348B (zh) | 基于多任务学习边缘校正网络的男性盆腔ct分割方法 | |
CN114155934A (zh) | 一种基于深度学习的肿瘤调强放疗剂量预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211125 Address after: 510530 room 306, phase I office building, 12 Yuyan Road, Huangpu District, Guangzhou City, Guangdong Province Applicant after: PERCEPTION VISION MEDICAL TECHNOLOGY Co.,Ltd. Address before: 510275 No. 135 West Xingang Road, Guangzhou, Guangdong, Haizhuqu District Applicant before: SUN YAT-SEN University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |