CN108447551A - 一种基于深度学习的靶区自动勾画方法、设备和存储介质 - Google Patents
一种基于深度学习的靶区自动勾画方法、设备和存储介质 Download PDFInfo
- Publication number
- CN108447551A CN108447551A CN201810134407.1A CN201810134407A CN108447551A CN 108447551 A CN108447551 A CN 108447551A CN 201810134407 A CN201810134407 A CN 201810134407A CN 108447551 A CN108447551 A CN 108447551A
- Authority
- CN
- China
- Prior art keywords
- target area
- layer
- deep learning
- image
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
Abstract
本发明属于医学影像和计算机技术领域,涉及一种基于深度学习的放射治疗计划中靶区自动勾画方法。该方法包括如下步骤:(1)将患者图像数据进行预处理;(2)将预处理的图像数据输入到训练好的卷积神经网络模型中对靶区进行预测;(3)将预测出的靶区进行边缘提取,得到自动勾画的靶区。本发明提供的基于深度学习的靶区自动勾画方法能够实现快速勾靶,并且具有很高的精确度,同样器官如果医生手工勾画需要5~10分钟,本发明提供的靶区自动勾画算法只需要15秒左右,与手工勾画相比,时间缩短了约95%,这极大地提高医生的工作效率,同时又为病人及时治疗提供宝贵的时间。
Description
技术领域
本发明属于医学影像和计算机技术领域,涉及一种基于深度学习的放射治疗计划中靶区自动勾画方法。
背景技术
在医院对病人进行放射治疗的过程中,往往涉及到目标靶区的勾画,目前医生主要是采用手工勾画的方式,手工勾画费时费力,影响医生的工作效率,且容易导致人为失误,影响病人的治疗。
深度学习是用神经网络尝试对数据做高层次的抽象,它专注于学习数据的表征,此外,对数据做高层次抽象跟人工智能很相像,也就是知识可以被表现出来并且做智能的回应。深度学习已被大量应用到图像和模式识别领域。
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法。 CNN一般有几层网络,每个层会捕获对象抽象层次中的不同级别。第一层是抽象层次的最底级,CNN一般把图片中的较小的部分识别成简单的形状,例如水平、竖直的直线,简单的色块。下一层将会上升到更高的抽象层次,一般会识别更复杂的概念,例如形状(线的组合),以此类推直至最终识别整个物体,例如小脑靶区。CNN通过自主学习,无需告诉CNN如何去寻找任何直线、曲线等等。CNN从训练集中学习并发现靶区中值得寻找的特征。
鉴于各医院中的医学影像例如CT影像或核磁影像的图像数据具有很大的差异性,若将卷积神经网络运用到医学影像自动勾靶中,必须提高CNN神经网络模型的鲁棒性和自动勾画的准确率,这正是本发明要解决的问题。
发明内容
本发明的目的在于为克服现有技术的缺陷而提供一种基于深度学习的放射治疗计划中靶区自动勾画方法。
为实现上述目的,本发明采用以下技术方案:
本发明利用卷积神经网络技术,把经过医生勾画的靶区图像数据分离出训练图像image和训练标签label,然后利用搭建的卷积神经网络进行训练,把训练好的模型和权重进行保存,然后就可以利用保存的模型和权重对一个新的靶区进行预测,对预测出来的靶区进行边缘提取,就可以得到靶区自动勾画效果。
一种基于深度学习的放射治疗计划中靶区自动勾画方法,包括如下步骤:
(1)将患者图像数据进行预处理;
(2)将预处理的图像数据输入到训练好的卷积神经网络模型中对靶区进行预测;
(3)将预测出的靶区进行边缘提取,得到自动勾画的靶区。
步骤(1)中,所述的患者图像为CT图像、核磁图像或PET图像等。
步骤(1)中,所述的预处理为对患者图像进行插值处理,优选地,待预测 (勾画)图像的分辨率与训练图片的分辨率相同。
所述的卷积神经网络包括输入层,卷积层,激活层,最大池化层,上采样层,融合层和输出层,其中卷积层,激活层,最大池化层,上采样层,融合层为隐藏层。
所述的卷积神经网络模型中,每个卷积层都包括权重初始化函数和激活函数。
进一步优选地,所述的权重初始化函数选自Lecun_normal函数、 Random_normal函数、He_normal函数或Glorot_normal函数;所述的激活函数选自SeLU函数、ReLU函数、PReLU函数或ELU函数。
所述的卷积神经网络的loss函数(损失函数)采用Dice相似度(Dice SimilarityCoefficient,DSC)作为评价分割结果的标准,其定义式为:
其中,V(A)、V(B)分别表示自动分割结果和专家手动勾画结果的体积, V(A∩B)表示自动分割结果和专家手动勾画结果重叠部分的体积,自动分割结果和手动勾画结果重合度越高,DSC的值越大,完全重合的情况下DSC值为1。
相比传统二分类交叉熵评价标准,Dice相似度更适合医学领域评价标准,可以更好的体现医生手工勾靶和模型自动勾靶的效果差异。
所述的步骤(2)中,卷积神经网络模型的训练步骤包括:
(i)将经过医生勾画完成的靶区图像作为训练数据并提取为训练图像(image)和训练标签(label);
(ii)将拆分的训练数据进行插值处理;
(iii)根据靶区器官所在的图像位置,将训练数据裁切成固定尺寸;
(iv)对裁切的训练数据进行数据增强,从而增强卷积神经网络模型的泛化能力;
(v)把数据增强后的训练数据输入到卷积神经网络模型中进行训练,得到训练好的卷积神经网络模型。
步骤(ii)中,所述的插值处理是把各训练数据图像中(z,x,y)方向统一插值为固定的大小(z0mm,x0mm,y0mm);z0mm,x0mm,y0mm不是任意自定义的值,是根据器官的特征确定的,例如z轴是考虑相邻两层小脑靶区形状变化的程度,如果变化比较快,z值需要设置的大一点,如果变化比较慢,z值需要设置的小一点。x,y轴方向同理。也参考了大部分医院选择的像素大小值,例如,小脑可以选用(z,x,y)方向分别为3mm,1mm,1mm统一插值。进行插值的原因是各家医院的CT图像这个像素值大小不统一,因此采用插值的方法把不同医院的靶区勾画图像数据插值为统一像素大小,从而利于卷积神经网络模型更好的学习各靶区的特征。
步骤(iv)中,所述的数据增强包括围绕图像中心点的旋转、x,y轴方向的平移。例如通过图像x,y轴方向的抖动,绕中心点的旋转等可以人为地创造出一些新的数据,从而增强模型的泛化能力,当模型遇到一些头部偏斜等数据时也可以很好的识别。
步骤(v)中,所述的训练包括前向传播和反向传播,一次前向传播和反向传播为一次迭代,本发明优选地,迭代次数大于5次,进一步优选地,迭代次数为10~100次,更优选地,迭代次数为20~50次。训练好的卷积神经网络模型的准确率趋于稳定。一次迭代中的前向传播和反向传播覆盖所有隐藏层。
本发明还提供了一种计算设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由一个或多个处理器执行,所述的一个或多个程序包括用于上述基于深度学习的放射治疗计划中靶区自动勾画方法的指令。
本发明还提供一种存储一个或多个程序的计算机可读存储介质,所述的一个或多个程序包括指令,所述指令适于由存储器加载并执行上述基于深度学习的放射治疗计划中靶区自动勾画方法。
本发明具有以下技术效果:
本发明提供的基于深度学习的靶区自动勾画方法能够实现快速勾靶,并且具有很高的精确度,同样器官如果医生手工勾画需要5~10分钟,本发明提供的靶区自动勾画算法只需要15秒左右,与手工勾画相比,时间缩短了约95%,这可以极大的提高医生的工作效率,同时又为病人的及时治疗提供宝贵的时间。
附图说明
图1为本发明一个优选的实施例中神经网络结构示意图。
图2(a)是本发明实施例中小脑CT训练图像。
图2(b)是本发明实施例中小脑靶区训练标签示意图。
图3(a)是本发明实施例中裁切后的小脑CT训练图像。
图3(b)是本发明实施例中裁切后的小脑靶区训练标签示意图。
图4为在一个优选的实施例中利用本发明的方法进行自动勾画的靶区与医生手动勾画的靶区对照图。
图5为本发明实施例中对测试集中10例病人数据的DSC统计示意图。
图6为本发明一个优选的实施例中基于深度学习的放射治疗计划中靶区自动勾画方法流程图。
图7为本发明一个优选的实施例中CNN神经网络的训练方法流程示意图。
具体实施方式
以下结合附图和实施例进一步说明本发明。
实施例1
一种基于深度学习的放射治疗计划中靶区自动勾画方法,适于在计算设备中执行,包括如下步骤(如图6所示):
(1)将患者图像数据进行预处理210;优选地,患者图像为CT图像、核磁图像或PET图像等;
预处理为对患者图像进行插值处理,优选地,插值处理后,待预测图像的分辨率与训练图片的分辨率相同。在本发明一个优选地实施例中,待勾画图像的分辨率为APPI(例如512*512PPI),插值处理后其分辨率变为B PPI(例如500*500 PPI),这样做的目的是使待勾画图像的像素与用作CNN神经网络训练集中的图片x,y轴的像素大小一致,从而提高预测准确率。预测的器官靶区形状是保存在label中的,最后再进行反插值处理,这样图像的分辨率从B PPI(例如500*500 PPI)又恢复到分辨率A PPI(例如512*512PPI)。
(2)将预处理的图像数据输入到训练好的卷积神经网络模型中对靶区进行预测220;
本实施例中卷积神经网络包括输入层,卷积层,激活层,最大池化层,上采样层,融合层和输出层,其中卷积层,激活层,最大池化层,上采样层,融合层为隐藏层。
其中每个卷积层都包括Lecun_normal权重初始化函数和SeLU激活函数。其中权重初始化函数选自Lecun_normal函数、Random_normal函数、He_normal 函数或Glorot_normal函数;激活函数选自SeLU函数、ReLU函数、PReLU函数或ELU函数。本实施例优选地中使用Lecun_normal函数作为初始化函数、使用SeLU函数作为激活函数仅作为一个示例性实施例,并非限定初始化函数和激活函数的范围。
其中Lecun_normal函数为:
其中i表示神经网络的第i层,
W(i)表示第i层的权重,
n(i)表示第i层神经元的数量。
激活函数SeLU激活函数为:
其中,α=1.6732632423543772848170429916717;
λ=1.0507009873554804934193349852946。
卷积神经网络的loss函数采用Dice相似度(Dice Similarity Coefficient,DSC)作为评价分割结果的标准,其定义式为:
其中,V(A)、V(B)分别表示自动分割结果和专家手动勾画结果的体积, V(A∩B)表示自动分割结果和专家手动勾画结果重叠部分的体积,自动分割结果和手动勾画结果重合度越高,DSC的值越大,完全重合的情况下DSC值为1。
相比传统二分类交叉熵评价标准,Dice相似度更适合医学领域图像识别的评价标准,可以更好的体现医生手工勾靶和模型自动勾靶的效果差异。
如图1所示,为本发明中一个优选的CNN网络的结构示意图。本领域技术人员应该了解,图1中示出的CNN网络仅为一个示出性的示例,本发明中的CNN 网络结构不限于图1所示的结构。该网络结构如下,黑色图框和虚线图框的左右宽度表示图像尺寸大小,上下深度表示每层生成的特征图数量,网络从上到下,图像尺寸先通过下采样变小,再通过上采样变大,最后输出和输入的图像尺寸一样;每层特征图数量先增多,再减少,例如,第(1,2,3)层的特征图数量是 1*A(A一般取8的倍数),第(4,5,6)层是2*A,第(7,8,9)层是3*A,第(10,11)层是4*A,第12层是2*3*A(本身的3*A加上复制了第8层的3*A),第13层是3*A,第14层是2*2*A(本身的2*A加上复制了第5层的2*A),第15层是2*A,第16层是2*1*A(本身的1*A加上复制了第2层的1*A),第17层是1*A,第18层一般设置为两个特征图,连接输出层。总结起来,数据输入后的操作依次为,卷积,卷积,下采样,卷积,卷积,下采样,卷积,卷积,下采样,卷积,卷积,上采样,复制合并(虚线框),卷积,上采样,复制合并 (虚线框),卷积,上采样,复制合并(虚线框),卷积,卷积,然后用sigmoid 函数进行二分类输出,其中每个卷积层都包括SeLU激活函数和Lecun_normal 的权重初始化,帮助网络在训练的过程中更快的找到最优解。
通过下采样提取浅层特征图,上采样提取深层特征图,这样可以结合局部“where”以及全局“what”的特征,生成更精准的图像。
其中,卷积神经网络模型的训练步骤包括(如图7所示):
(i)将经过医生勾画完成的靶区图像作为训练数据并提取为训练图像 (image)和训练标签(label)310;本实施例中优选地,训练数据集中的医生手动完成的靶区勾画图像大于1000张,优选大于2000张;深层神经网络因为其结构,所以具有相较传统模型有很强的表达能力,从而也就需要更多的数据来避免过拟合的发生,以保证训练的模型在新的数据上也能有可以接受的表现;
(ii)将拆分的训练数据进行插值处理320;本步骤中的插值处理是把各训练数据图像中(z,x,y)方向统一插值为固定的大小(z0mm,x0mm,y0mm);z0mm,x0mm,y0mm不是任意自定义的值,是根据器官的特征确定的,例如z 轴是考虑相邻两层小脑靶区形状变化的程度,如果变化比较快,z值需要设置的大一点,如果变化比较慢,z值需要设置的小一点。x,y轴方向同理。也参考了大部分医院选择的像素大小值,小脑选用的是3mm,1mm,1mm,因为各家医院的CT图像这个像素值大小不统一,所以才会用插值的方法把各家医院的数据插值为统一像素大小的。插值到统一的大小是为了让卷积神经网络模型更好的学习各靶区的特征。
(iii)根据靶区器官所在的图像位置,将训练数据裁切成固定尺寸330;优选地,裁切后保留的部分主要是感兴趣区域的图像。图2和图3分别为裁切前后的训练图像和标签。
(iv)对裁切的训练数据进行数据增强,从而增强卷积神经网络模型的泛化能力340,从而增强卷积神经网络模型的泛化能力;其中,本发明中数据增强包括围绕图像中心点的旋转、x,y轴方向的平移。例如通过图像x,y轴方向的抖动,绕中心点的旋转等可以人为地创造出一些新的数据,从而增强模型的泛化能力,当模型遇到一些头部偏斜等数据时也可以很好的识别。
(v)把数据增强后的训练数据输入到卷积神经网络模型中进行训练,得到训练好的卷积神经网络模型350。
步骤(v)中,所述的训练包括前向传播和反向传播,一次前向传播和反向传播为一次迭代,本发明优选地,迭代次数大于5次,进一步优选地,迭代次数为10~100次,更优选地,迭代次数为20~50次。训练好的卷积神经网络模型的准确率趋于稳定。一次迭代过程中前向传播和反向传播覆盖所有隐藏层。
上述CNN神经网络的训练过程中,鉴于各医院数据的差异性,这要求CNN 网络模型具有很强的鲁棒性。为此,将训练数据进行了线性插值处理,根据图像质心的裁剪操作,数据增强处理,另外,在CNN网络中使用了SeLU激活函数,利用lecun_normal进行权重初始化,对预测靶区的平滑操作,连通区域处理。
(3)将预测出的靶区进行边缘提取,得到自动勾画的靶区230。
如下图4所示,为医生手工勾画的小脑靶区与利用本发明提供的自动勾靶方法实现的靶区自动勾画图,可以看出自动勾画的靶区示意图的精确度和医生手工勾画几乎无异。采用本发明上述实施例中的靶区自动勾画方法对测试集中任选的 10例病人医学图像进行自动勾靶,如图5所示为上述10例病人医学影像中自动勾靶的DSC统计示意图。可以看到自动勾画的靶区与测试集中勾画靶区的相似度Dice值均大于0.9。
根据上述实施例可以发现,采用本发明提供的基于深度学习的靶区自动勾画方法能够实现快速勾靶的同时还具有很高的精确度,与手工勾画相比,时间缩短了约95%,精度可达到90%以上;这可以极大的提高医生的工作效率,同时又为病人的及时治疗提供宝贵的时间。
实施例2
本发明还提供了一种计算设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由一个或多个处理器执行,所述的一个或多个程序包括用于基于深度学习的放射治疗计划中靶区自动勾画方法的指令,所述方法包括步骤:
(1)将患者图像数据进行预处理;
(2)将预处理的图像数据输入到训练好的卷积神经网络模型中对靶区进行预测;
(3)将预测出的靶区进行边缘提取,得到自动勾画的靶区。
实施例3
一种存储一个或多个程序的计算机可读存储介质,所述的一个或多个程序包括指令,所述指令适于由存储器加载并执行基于深度学习的放射治疗计划中靶区自动勾画方法,该方法包括步骤:
(1)将患者图像数据进行预处理;
(2)将预处理的图像数据输入到训练好的卷积神经网络模型中对靶区进行预测;
(3)将预测出的靶区进行边缘提取,得到自动勾画的靶区。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应当理解,这里描述的各种技术可结合硬件或软件,或者它们的组合一起实现。从而,本发明的方法和设备,或者本发明的方法和设备的某些方面或部分可采取嵌入有形媒介,例如软盘、CD-ROM、硬盘驱动器或者其它任意机器可读的存储介质中的程序代码(即指令)的形式,其中当程序被载入诸如计算机之类的机器,并被该机器执行时,该机器变成实践本发明的设备。
以示例而非限制的方式,计算机可读介质包括计算机存储介质和通信介质。计算机存储介质存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息。通信介质一般以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并且包括任何信息传递介质。以上的任一种的组合也包括在计算机可读介质的范围之内。
上述的对实施例的描述是为便于该技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对这些实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于这里的实施例,本领域技术人员根据本发明的揭示,不脱离本发明范畴所做出的改进和修改都应该在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的放射治疗计划中靶区自动勾画方法,适于在计算设备中执行,其特征在于:包括如下步骤:
(1)将患者图像数据进行预处理;
(2)将预处理的图像数据输入到训练好的卷积神经网络模型中对靶区进行预测;
(3)将预测出的靶区进行边缘提取,得到自动勾画的靶区。
2.根据权利要求1所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:步骤(1)中,所述的患者图像为CT图像、核磁图像或PET图像等。
3.根据权利要求1所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:步骤(1)中,所述的预处理为对患者图像进行插值处理,优选地,待预测图像的分辨率插值为与训练图片的分辨率相同。
4.根据权利要求1所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:所述的卷积神经网络包括输入层,卷积层,激活层,最大池化层,上采样层,融合层和输出层,其中卷积层,激活层,最大池化层,上采样层,融合层为隐藏层。
5.根据权利要求4所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:所述的卷积神经网络模型中,每个卷积层都包括权重初始化函数和激活函数;
所述的权重初始化函数选自Lecun_normal函数、Random_normal函数、He_normal函数或Glorot_normal函数;所述的激活函数选自SeLU函数、ReLU函数、PReLU函数或ELU函数。
6.根据权利要求1所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:所述的卷积神经网络的loss函数采用Dice相似度作为评价分割结果的标准,其定义式为:
其中,V(A)、V(B)分别表示自动分割结果和专家手动勾画结果的体积,V(A∩B)表示自动分割结果和专家手动勾画结果重叠部分的体积。
7.根据权利要求1-6中任一所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:所述的步骤(2)中,卷积神经网络模型的训练步骤包括:
(i)将经过医生勾画完成的靶区图像作为训练数据并提取为训练图像(image)和训练标签(label);
(ii)将拆分的训练数据进行插值处理;
(iii)根据靶区器官所在的图像位置,将训练数据裁切成固定尺寸;
(iv)对裁切的训练数据进行数据增强,从而增强卷积神经网络模型的泛化能力;
(v)把数据增强后的训练数据输入到卷积神经网络模型中进行训练,得到训练好的卷积神经网络模型。
8.根据权利要求7中所述的基于深度学习的放射治疗计划中靶区自动勾画方法,其特征在于:步骤(iv)中,所述的数据增强包括围绕图像中心点的旋转、x、y轴方向的平移;
或步骤(v)中,所述的训练包括前向传播和反向传播,一次前向传播和反向传播为一次迭代,本发明优选地,CNN模型训练中的迭代次数大于5次,进一步优选地,迭代次数为10~100次,更优选地,迭代次数为20~50次。
9.一种计算设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由一个或多个处理器执行,所述的一个或多个程序包括用于上述权利要求1-8中任一所述的基于深度学习的放射治疗计划中靶区自动勾画方法的指令。
10.一种存储一个或多个程序的计算机可读存储介质,所述的一个或多个程序包括指令,所述指令适于由存储器加载并执行上述权利要求1-8中任一所述的基于深度学习的放射治疗计划中靶区自动勾画方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810134407.1A CN108447551A (zh) | 2018-02-09 | 2018-02-09 | 一种基于深度学习的靶区自动勾画方法、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810134407.1A CN108447551A (zh) | 2018-02-09 | 2018-02-09 | 一种基于深度学习的靶区自动勾画方法、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108447551A true CN108447551A (zh) | 2018-08-24 |
Family
ID=63192177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810134407.1A Pending CN108447551A (zh) | 2018-02-09 | 2018-02-09 | 一种基于深度学习的靶区自动勾画方法、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108447551A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146899A (zh) * | 2018-08-28 | 2019-01-04 | 众安信息技术服务有限公司 | Ct图像的危及器官分割方法及装置 |
CN109727235A (zh) * | 2018-12-26 | 2019-05-07 | 苏州雷泰医疗科技有限公司 | 一种基于深度学习的器官自动勾画算法 |
CN109767448A (zh) * | 2019-01-17 | 2019-05-17 | 上海长征医院 | 分割模型训练方法及装置 |
CN110070546A (zh) * | 2019-04-18 | 2019-07-30 | 山东师范大学 | 一种基于深度学习的多目标危及器官的自动分割方法、装置及系统 |
CN110120052A (zh) * | 2019-05-13 | 2019-08-13 | 上海联影医疗科技有限公司 | 一种靶区图像分割系统及装置 |
CN110599498A (zh) * | 2018-10-19 | 2019-12-20 | 北京连心医疗科技有限公司 | 一种基于神经网络对医学影像中人体器官进行分割的方法 |
CN110866935A (zh) * | 2018-08-28 | 2020-03-06 | 北京连心医疗科技有限公司 | 基于hu值分布的去除放疗结构自动分割中假阳的方法 |
CN111008984A (zh) * | 2019-12-10 | 2020-04-14 | 广州柏视医疗科技有限公司 | 医学影像中正常器官的轮廓线自动勾画方法及系统 |
CN111627032A (zh) * | 2020-05-14 | 2020-09-04 | 安徽慧软科技有限公司 | 基于U-Net网络的CT影像身体器官自动分割方法 |
CN111986254A (zh) * | 2020-08-21 | 2020-11-24 | 四川大学华西医院 | 一种靶区轮廓的分析方法、装置、存储介质及电子设备 |
CN113192053A (zh) * | 2021-05-18 | 2021-07-30 | 北京大学第三医院(北京大学第三临床医学院) | 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质 |
CN113689938A (zh) * | 2021-07-14 | 2021-11-23 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 医学影像的勾画方法、装置、存储介质及处理器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145846A (zh) * | 2017-04-26 | 2017-09-08 | 贵州电网有限责任公司输电运行检修分公司 | 一种基于深度学习的绝缘子识别方法 |
CN107240102A (zh) * | 2017-04-20 | 2017-10-10 | 合肥工业大学 | 基于深度学习算法的恶性肿瘤计算机辅助早期诊断方法 |
CN107292333A (zh) * | 2017-06-05 | 2017-10-24 | 浙江工业大学 | 一种基于深度学习的快速图像分类方法 |
CN107316307A (zh) * | 2017-06-27 | 2017-11-03 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
CN107622485A (zh) * | 2017-08-15 | 2018-01-23 | 中国科学院深圳先进技术研究院 | 一种融合深度张量神经网络的医学影像数据分析方法和系统 |
-
2018
- 2018-02-09 CN CN201810134407.1A patent/CN108447551A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107240102A (zh) * | 2017-04-20 | 2017-10-10 | 合肥工业大学 | 基于深度学习算法的恶性肿瘤计算机辅助早期诊断方法 |
CN107145846A (zh) * | 2017-04-26 | 2017-09-08 | 贵州电网有限责任公司输电运行检修分公司 | 一种基于深度学习的绝缘子识别方法 |
CN107292333A (zh) * | 2017-06-05 | 2017-10-24 | 浙江工业大学 | 一种基于深度学习的快速图像分类方法 |
CN107316307A (zh) * | 2017-06-27 | 2017-11-03 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
CN107622485A (zh) * | 2017-08-15 | 2018-01-23 | 中国科学院深圳先进技术研究院 | 一种融合深度张量神经网络的医学影像数据分析方法和系统 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866935A (zh) * | 2018-08-28 | 2020-03-06 | 北京连心医疗科技有限公司 | 基于hu值分布的去除放疗结构自动分割中假阳的方法 |
CN109146899A (zh) * | 2018-08-28 | 2019-01-04 | 众安信息技术服务有限公司 | Ct图像的危及器官分割方法及装置 |
CN110599498A (zh) * | 2018-10-19 | 2019-12-20 | 北京连心医疗科技有限公司 | 一种基于神经网络对医学影像中人体器官进行分割的方法 |
CN110599498B (zh) * | 2018-10-19 | 2023-05-05 | 北京连心医疗科技有限公司 | 一种基于神经网络对医学影像中人体器官进行分割的方法 |
CN109727235B (zh) * | 2018-12-26 | 2021-05-11 | 苏州雷泰医疗科技有限公司 | 一种基于深度学习的器官自动勾画算法 |
CN109727235A (zh) * | 2018-12-26 | 2019-05-07 | 苏州雷泰医疗科技有限公司 | 一种基于深度学习的器官自动勾画算法 |
CN109767448A (zh) * | 2019-01-17 | 2019-05-17 | 上海长征医院 | 分割模型训练方法及装置 |
CN110070546A (zh) * | 2019-04-18 | 2019-07-30 | 山东师范大学 | 一种基于深度学习的多目标危及器官的自动分割方法、装置及系统 |
CN110070546B (zh) * | 2019-04-18 | 2021-08-27 | 山东师范大学 | 一种基于深度学习的多目标危及器官的自动分割方法、装置及系统 |
CN110120052A (zh) * | 2019-05-13 | 2019-08-13 | 上海联影医疗科技有限公司 | 一种靶区图像分割系统及装置 |
WO2021115313A1 (zh) * | 2019-12-10 | 2021-06-17 | 广州柏视医疗科技有限公司 | 医学影像中正常器官的轮廓线自动勾画系统 |
CN112508965A (zh) * | 2019-12-10 | 2021-03-16 | 广州柏视医疗科技有限公司 | 医学影像中正常器官的轮廓线自动勾画系统 |
CN111008984A (zh) * | 2019-12-10 | 2020-04-14 | 广州柏视医疗科技有限公司 | 医学影像中正常器官的轮廓线自动勾画方法及系统 |
CN112508965B (zh) * | 2019-12-10 | 2023-08-22 | 广州柏视医疗科技有限公司 | 医学影像中正常器官的轮廓线自动勾画系统 |
CN111627032A (zh) * | 2020-05-14 | 2020-09-04 | 安徽慧软科技有限公司 | 基于U-Net网络的CT影像身体器官自动分割方法 |
CN111986254A (zh) * | 2020-08-21 | 2020-11-24 | 四川大学华西医院 | 一种靶区轮廓的分析方法、装置、存储介质及电子设备 |
CN113192053A (zh) * | 2021-05-18 | 2021-07-30 | 北京大学第三医院(北京大学第三临床医学院) | 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质 |
CN113689938A (zh) * | 2021-07-14 | 2021-11-23 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 医学影像的勾画方法、装置、存储介质及处理器 |
CN113689938B (zh) * | 2021-07-14 | 2024-03-05 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 医学影像的勾画方法、装置、存储介质及处理器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447551A (zh) | 一种基于深度学习的靶区自动勾画方法、设备和存储介质 | |
Mikołajczyk et al. | Data augmentation for improving deep learning in image classification problem | |
Pochet et al. | Seismic fault detection using convolutional neural networks trained on synthetic poststacked amplitude maps | |
Fazl et al. | View-invariant object category learning, recognition, and search: How spatial and object attention are coordinated using surface-based attentional shrouds | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
Liu et al. | An evolutionary autonomous agents approach to image feature extraction | |
CN110084173A (zh) | 人头检测方法及装置 | |
Neal et al. | Measuring shape | |
Yu et al. | An object-based visual attention model for robotic applications | |
CN109325504A (zh) | 一种水下海参识别方法及系统 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN106340021A (zh) | 血管提取方法 | |
CN108628657A (zh) | 弹窗处理方法、装置、计算机设备及存储介质 | |
CN110619638A (zh) | 一种基于卷积块注意模块的多模态融合显著性检测方法 | |
CN109858487A (zh) | 基于分水岭算法和图像类别标签的弱监督语义分割方法 | |
CN109508787A (zh) | 用于超声位移估计的神经网络模型训练方法及系统 | |
CN109272487A (zh) | 一种基于视频的公共区域内人群的数量统计方法 | |
Liu et al. | Automatic segmentation algorithm of ultrasound heart image based on convolutional neural network and image saliency | |
Vinoth Kumar et al. | A decennary survey on artificial intelligence methods for image segmentation | |
Zambrano-Vizuete et al. | Segmentation of medical image using novel dilated ghost deep learning model | |
Li et al. | 2D amodal instance segmentation guided by 3D shape prior | |
CN108876776A (zh) | 一种分类模型生成方法、眼底图像分类方法及装置 | |
Jiang | Detecting geological structures in seismic volumes using deep convolutional neural networks | |
CN116824485A (zh) | 一种基于深度学习的开放场景伪装人员小目标检测方法 | |
Wu | Biomedical image segmentation and object detection using deep convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180824 |
|
RJ01 | Rejection of invention patent application after publication |