CN113129327B - 一种基于神经网络模型生成内大体靶区的方法和系统 - Google Patents
一种基于神经网络模型生成内大体靶区的方法和系统 Download PDFInfo
- Publication number
- CN113129327B CN113129327B CN202110393787.2A CN202110393787A CN113129327B CN 113129327 B CN113129327 B CN 113129327B CN 202110393787 A CN202110393787 A CN 202110393787A CN 113129327 B CN113129327 B CN 113129327B
- Authority
- CN
- China
- Prior art keywords
- neural network
- target area
- general target
- network model
- binary image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明属于放射性治疗技术领域,涉及一种基于神经网络模型生成内大体靶区的方法和系统,包括以下步骤:S1根据获得的4D‑CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;S2生成代表内大体靶区的二值图像;S3将4D‑CT图像和二值图像输入卷积神经网络模型,对模型进行训练;S4将新患者的4D‑CT图像带入训练好的卷积神经网络模型,获得模型输出值;S5对模型输出值进行连通区域处理,生成最终的内大体靶区数据。其根据输入患者所有时相的4D‑CT图像数据,直接生成内大体靶区数据,解决临床勾画中耗时费力、重复性较差的问题。
Description
技术领域
本发明涉及一种基于神经网络模型生成内大体靶区的方法和系统,属于放射性治疗技术领域,特别涉及放射性治疗中的靶区范围确定。
背景技术
放射治疗作为治疗恶性肿瘤的主要手段之一,其在肿瘤治疗中的作用和地位日益突出。精确放疗的最终目标是最大限度地将放射线剂量集中到靶区内,杀灭靶区内的细胞,并使周围正常组织,尤其是关键器官少受或不受放射线照射。然而放疗过程中由于呼吸运动会引起的靶区运动,从而影响靶区的实际照射剂量,导致部分靶区没有被照射或者使关键器官被高剂量放射性照射,最终造成局部控制不足或关键器官受损。
研究表明,对于胸腹部靶区,呼吸运动导致的靶区运动幅度可以超过2厘米,成为制约精确放射治疗效果的瓶颈。为了减小呼吸运动的影响,本领域中通常利用CT医学图像生成患者的个体化的内大体靶区(internal gross tumour volume,iGTV)。iGTV定义为在肿瘤靶区(gross tumour volume,GTV)数据的基础上,外扩由于呼吸运动导致的GTV内部运动范围,该内部运动范围是通过对可见病灶的运动来评估的,因而其勾画更为简单准确。
目前,生成iGTV数据最精确的方法是使用四维(four dimensional,4D)计算机断层成像(computed tomography,CT)数据,但该方法需要医生手动勾画内部运动范围,需要花费大量的时间和精力,并且同一医生不同时间勾画的结果以及不同医生勾画的结果都存在一定的差异,限制了其临床应用。
部分研究者提出使用部分呼吸时相如呼气末期和吸气末期上的GTV轮廓来生成iGTV数据,然而4D-CT数据中的呼气末期和吸气末期不一定是靶区实际运动的呼吸末期和吸气末期,并且靶区在头脚、上下和左右方向的最大运动可能表现在不同的呼吸时相中,使用部分时相上的GTV轮廓可能会低估iGTV数据。
也有研究者提出使用最大强度投影(maximum intensity projection,MIP)图像或者平均强度图像,在该图像上勾画的靶区的轮廓即是iGTV数据。MIP和平均强度图像上每个体素的灰度值分别是该体素在所有呼吸时相上灰度值的最大值和平均值,然而研究证明对于肺内末期肿瘤患者,使用MIP图像可能会低估iGTV数据,并且,如果毗邻的正常器官的组织密度与靶区的组织密度相似或者比靶区的组织密度更高,会使在MIP图像上无法区分正常组织和靶区,故而无法进行准确勾画。而使用平均强度图像勾画靶区轮廓则会低估iGTV数据。
发明内容
针对上述问题,本发明的目的是提供用于一种基于神经网络模型生成内大体靶区的方法和系统,其根据输入患者所有时相的4D-CT图像数据,直接生成内大体靶区数据,解决临床勾画中耗时费力、重复性较差的问题。
为实现上述目的,本发明采取以下技术方案:一种基于神经网络模型生成内大体靶区的方法,包括以下步骤:S1根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;S2生成代表内大体靶区的二值图像;S3将4D-CT图像和二值图像输入卷积神经网络模型,对模型进行训练;S4将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;S5对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
进一步,步骤S1中勾画所有呼吸时相上的肿瘤靶区轮廓的方法为:由多个医生对同一患者肿瘤靶区轮廓进行勾画,然后将各个医生的勾画结果进行融合,保留各个勾画结果中相同的部分,对于不相同的部分,通过讨论投票,最终获得意见一致的勾画轮廓数据。
进一步,步骤S2中生成代表内大体靶区的二值图像的方法为:S2.1将肿瘤靶区轮廓点的坐标转换到像素坐标系;S2.2在像素坐标系中,基于不同呼吸时相上的肿瘤靶区轮廓点生成对应的二值图像矩阵;S2.3对所有呼吸时相的二值图像矩阵进行合并,得到代表内大体靶区的图像矩阵;S2.4将代表内大体靶区的二值图像矩阵转换到患者坐标系中进行保存。
进一步,二值图像矩阵将位于靶区轮廓内的像素点灰度值设为1,将位于靶区轮廓外的像素点灰度值设为0。
进一步,S3中对4D-CT图像和二值图像矩阵在输入神经网络模型前进行预处理,以加快训练速度。
进一步,预处理包括标准化处理和裁剪处理。
进一步,在卷积神经网络模型中,4D-CT图像经过编码模块和解码模块,最后通过全卷积层输出分类结果,该卷积神经网络模型输出每个体素属于靶区器官的概率。
进一步,卷积神经网络模型的损失函数为:
其中,V1代表神经网络预测得到的内大体靶区,V2代表通过医生手动勾画肿瘤靶区得到的内大体靶区,DSC是骰子相似系数。
进一步,连通区域处理的方法为:设定阈值,将卷积神经网络的输出结果进行二值化处理生成二值图像,对二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,以分离小的假阳性区域,对开运算后的二值图像进行连通区域分析,保留大的连通区域,处理掉小的区域。
本发明还公开了一种基于神经网络模型生成内大体靶区的系统,包括:轮廓获取模块,用于根据获得的4D-CT图像勾画肿瘤靶区轮廓;二值化处理模块,用于生成代表内大体靶区的二值图像矩阵;模型训练模块,用于将4D-CT图像和二值图像矩阵输入卷积神经网络模型,对模型进行训练;模型输出模块,用于将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;连通区域处理模块,用于对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
本发明由于采取以上技术方案,其具有以下优点:
1、本发明克服了常规临床上勾画内大体靶区耗时、费力并且重复性差的缺点,能够自动生成内大体靶区轮廓数据,结果更加可靠、准确、可重复性高。
2、本发明通过将患者的4D-CT数据输入训练好的神经网络,直接生成内大体靶区数据,避免了人工读取某时相单帧图像进行勾画的重复性工作和由于个人经验不足导致的误判,本发明提出的方法简单高效并且精确度高。
附图说明
图1是本发明一实施例中生成代表内大体靶区的二值图像方法的流程图;
图2是本发明一实施例中神经网络结构的示意图;
图3是本发明一实施例中对网络输出的概率图进行连通区域处理的流程图。
具体实施方式
为了使本领域技术人员更好的理解本发明的技术方向,通过具体实施例对本发明进行详细的描绘。然而应当理解,具体实施方式的提供仅为了更好地理解本发明,它们不应该理解成对本发明的限制。在本发明的描述中,需要理解的是,所用到的术语仅仅是用于描述的目的,而不能理解为指示或暗示相对重要性。
本发明涉及一种基于神经网络模型生成内大体靶区的方法和系统,其采用多个专业医生勾画肿瘤靶区轮廓,通过二值化处理,获得内大体靶区,并将该内大体靶区输入神经网络模型中进行训练,使得新患者可以直接通过经过训练的神经网络模型获得内大体靶区,而无需再由医生勾画肿瘤靶区轮廓,本发明有效的避免了由于人工操作导致的费时、费力和可重复性不高的问题,能够更加方便、快捷且精准的获得内大体靶区,能够在一定程度上提高放疗的精度。下面结合附图对本发明的方案进行详细阐述。
实施例一
本实施例公开了一种基于神经网络模型生成内大体靶区的方法,包括以下步骤:
S1根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓。
由物理师和技师对患者在自由呼吸状态下进行4D-CT扫描,获取患者的4D-CT图像数据。该4D-CT图像数据可以分为若干呼吸时相,本实施例中优选呼吸时相的数量为10个。
勾画所有呼吸时相上的肿瘤靶区轮廓的方法为:为降低不同医生勾画以及同一医生不同时间勾画的可变性,由多个医生对同一患者肿瘤靶区轮廓进行勾画,然后将各个医生的勾画结果进行融合,保留各个勾画结果中相同的部分,对于不相同的部分,通过讨论投票,最终获得意见一致的肿瘤靶区轮廓。最终的肿瘤靶区轮廓综合了所有医生的一致性意见,参考价值较强。其中,多个医生通常为三个医生,但也可以根据具体需要及经验进行选择,并不仅限于三个医生。
S2生成代表内大体靶区的二值图像矩阵。
如图1所示,步骤S2中具体方法为:
S2.1将肿瘤靶区轮廓点的坐标(即实际坐标)转换到像素坐标系;
S2.2在像素坐标系中,基于所有呼吸时相上的肿瘤靶区轮廓点生成对应的二值图像矩阵,二值图像矩阵将位于肿瘤靶区轮廓内的像素点灰度值设为1,将位于肿瘤靶区轮廓内外的像素点灰度值设为0;
S2.3对所有呼吸时相的二值图像矩阵进行合并,得到代表内大体靶区的二值图像矩阵;
S2.4将代表内大体靶区的二值图像矩阵转换到实际坐标中进行保存。
S3将4D-CT图像和代表内大体靶区的二值图像输入卷积神经网络模型,对模型进行训练。
首先,对4D-CT图像和代表内大体靶区的二值图像在输入神经网络模型前进行预处理,以加快训练速度。预处理包括对所有4D-CT图像和二值图像进行标准化处理和裁剪处理。预处理的具体过程为:使用pydicom库对所有4D-CT图像和二值图像进行读取,得到所有患者所有数据的平均值和偏差,以这两个值对所有数据进行标准化。对所有4D-CT图像和二值图像进行裁剪,确定一个包括所有图像前景的范围后,以这个范围剪切掉图像的背景元素。
使用python编程语言,tensorflow深度学习框架,keras高级深度学习框架搭建3DUnet卷积神经网络,网络结构如图2所示。该卷积神经网络输出每个体素属于靶区器官的概率。在卷积神经网络模型中,所有时相的4D-CT图像依次经过编码模块和解码模块,中间通过拼接的方式,将编码阶段获得的特征图同解码阶段获得的特征图结合在一起,最后通过一个全卷积层输出分类结果。本实施例优选网络深度为三层,其排列顺序如图2所示。但本发明中的神经网络模型并不限于图2中给出的神经网络模型,图2中神经网络模型只是一种优选方案,现有的神经网络模型只要没有和本发明中方案存在明显的矛盾,均可用于本发明的方案。该卷积神经网络的损失函数采用骰子相似系数(Dice SimilarityCoefficient,DSC)进行表示,其计算公式为:
其中,V1代表神经网络预测得到的内大体靶区,V2代表医生手动勾画的内大体靶区。
对卷积神经网络模型进行训练时,将原4D-CT图像分为训练集和验证集,训练集和验证集是从原4D-CT图像中随机选取的,且训练集和验证集的数量比为4:1,即原4D-CT图像中80%作为训练集,20%作为验证集。训练集中图像和二值图像一起输入卷积神经网络模型对模型进行训练。验证集中的图像通过简单交叉验证对训练好的模型进行验证,计算验证集中所有患者的损失函数值,若该值高于0.8,认为该网络模型精度达标。记录训练好的模型的分类准确率,并以此作为模型的性能指标。
S4将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值,其中,模型输出值为所有体素属于靶区器官的概率图。
S5对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
如图3所示,使用python编程语言对神经网络模型输出的概率图进行连通区域处理,以降低假阳性率,其具体方法为:设定阈值,如本实施例中将阈值设为0.5,将卷积神经网络的输出结果进行二值化处理生成二值图像,小于阈值的认为是背景元素,并将其灰度值设为0,其它则认为属于靶区,将其灰度值设为1。对二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,以分离小的假阳性区域。对进行过开运算的二值图像进行连通区域分析,保留大的连通区域,处理掉小的区域。需要特别说明的是本步骤的二值图像和步骤S2中的二值图像是不同的图像。本步骤是基于卷积神经网络的输出结果获得的二值图像,步骤S2中的二值图像是基于4D-CT图像勾画的肿瘤靶区轮廓获得的。
实施例二
基于相同的发明构思,本实施例公开了一种基于神经网络模型生成内大体靶区的系统,包括:
轮廓获取模块,用于根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;
二值化处理模块,用于生成代表内大体靶区的二值图像矩阵;
模型训练模块,用于将4D-CT图像和二值图像输入卷积神经网络模型,对模型进行训练;
模型输出模块,用于将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;
连通区域处理模块,用于对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。上述内容仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围。
Claims (8)
1.一种基于神经网络模型生成内大体靶区的方法,其特征在于,包括以下步骤:
S1根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;
S2生成代表内大体靶区的二值图像;
所述步骤S2中生成所述内大体靶区的二值图像的方法为:
S2.1将所述肿瘤靶区轮廓点的坐标转换到像素坐标系;
S2.2在所述像素坐标系中,基于所述轮廓点生成二值图像矩阵;
S2.3对所有呼吸时相的所述二值图像矩阵进行合并,得到代表内大体靶区数据的图像矩阵;
S2.4将代表内大体靶区的二值图像矩阵转换到患者坐标系中进行保存;
S3将所述4D-CT图像和所述二值图像输入卷积神经网络模型,对模型进行训练;
S4将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;
S5对所述模型输出值进行连通区域处理,生成最终的内大体靶区数据;
所述连通区域处理的方法为:设定阈值,将所述卷积神经网络的输出结果进行二值化处理生成二值图像,对所述二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,然后进行连通区域处理,以分离小的假阳性区域,保留大的连通区域。
2.如权利要求1所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述步骤S1中勾画所有呼吸时相上的肿瘤靶区轮廓的方法为:由多个医生对同一患者肿瘤靶区轮廓进行勾画,然后将各个医生的勾画结果进行融合,保存各个勾画结果中相同的部分,对不相同的部分,通过讨论投票获得最终的大体靶区轮廓。
3.如权利要求1所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述二值图像矩阵将位于内大体靶区轮廓内的像素点灰度值设为1,将位于所述内大体靶区轮廓外的像素点灰度值设为0。
4.如权利要求1-3任一项所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述S3中对所述4D-CT图像和二值图像在输入所述神经网络模型前进行预处理,以加快训练速度。
5.如权利要求4所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述预处理包括标准化处理和裁剪处理。
6.如权利要求1-3任一项所述的基于神经网络模型生成内大体靶区的方法,其特征在于,在所述卷积神经网络模型中,所述4D-CT图像经过编码模块和解码模块,通过全卷积层输出分类结果,所述卷积神经网络模型输出每个体素属于靶区器官的概率。
7.如权利要求6所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述卷积神经网络模型的损失函数为:
其中,V1代表神经网络预测得到的内大体靶区,V2代表通过医生手动勾画肿瘤靶区得到的内大体靶区,DSC是骰子相似系数。
8.一种基于神经网络模型生成内大体靶区的系统,其特征在于,包括:
轮廓获取模块,用于根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;
二值化处理模块,用于生成代表内大体靶区的二值图像;
生成所述内大体靶区的二值图像的方法为:
S2.1将所述肿瘤靶区轮廓点的坐标转换到像素坐标系;
S2.2在所述像素坐标系中,基于所述轮廓点生成二值图像矩阵;
S2.3对所有呼吸时相的所述二值图像矩阵进行合并,得到代表内大体靶区数据的图像矩阵;
S2.4将代表内大体靶区的二值图像矩阵转换到患者坐标系中进行保存;
模型训练模块,用于将所述4D-CT图像和所述二值图像输入卷积神经网络模型,对模型进行训练;
模型输出模块,用于将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;
连通区域处理模块,用于对所述模型输出值进行连通区域处理,生成最终的内大体靶区数据;
所述连通区域处理的方法为:设定阈值,将所述卷积神经网络的输出结果进行二值化处理生成二值图像,对所述二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,然后进行连通区域处理,以分离小的假阳性区域,保留大的连通区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110393787.2A CN113129327B (zh) | 2021-04-13 | 2021-04-13 | 一种基于神经网络模型生成内大体靶区的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110393787.2A CN113129327B (zh) | 2021-04-13 | 2021-04-13 | 一种基于神经网络模型生成内大体靶区的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129327A CN113129327A (zh) | 2021-07-16 |
CN113129327B true CN113129327B (zh) | 2023-05-02 |
Family
ID=76775982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110393787.2A Active CN113129327B (zh) | 2021-04-13 | 2021-04-13 | 一种基于神经网络模型生成内大体靶区的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129327B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581463B (zh) * | 2022-03-04 | 2024-05-17 | 中国科学院近代物理研究所 | 一种多相位4d ct图像分割方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111261296A (zh) * | 2020-01-15 | 2020-06-09 | 广州柏视医疗科技有限公司 | 基于条件随机向量场的肿瘤临床靶区自动勾画方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9342657B2 (en) * | 2003-03-24 | 2016-05-17 | Nien-Chih Wei | Methods for predicting an individual's clinical treatment outcome from sampling a group of patient's biological profiles |
KR102347496B1 (ko) * | 2019-10-08 | 2022-01-10 | 사회복지법인 삼성생명공익재단 | 방사선 치료 계획 수립을 위한 인공지능 기반의 장기 및 종양 이미지 분할 시스템 및 방법 |
CN111915594A (zh) * | 2020-08-06 | 2020-11-10 | 南通大学 | 基于端对端神经网络的乳腺癌病灶分割方法 |
CN112270660B (zh) * | 2020-09-30 | 2022-09-09 | 四川大学 | 基于深度神经网络的鼻咽癌放疗靶区自动分割方法 |
-
2021
- 2021-04-13 CN CN202110393787.2A patent/CN113129327B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111261296A (zh) * | 2020-01-15 | 2020-06-09 | 广州柏视医疗科技有限公司 | 基于条件随机向量场的肿瘤临床靶区自动勾画方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113129327A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11386557B2 (en) | Systems and methods for segmentation of intra-patient medical images | |
CN108815721B (zh) | 一种照射剂量确定方法及系统 | |
US12040070B2 (en) | Radiotherapy system, data processing method and storage medium | |
CN107545584A (zh) | 医学图像中定位感兴趣区域的方法、装置及其系统 | |
CN111028914A (zh) | 人工智能引导的剂量预测方法与系统 | |
KR102504022B1 (ko) | 뇌 mri 영상으로부터 생성된 ct 영상을 이용한 인공지능 기반의 비침습 치료 계획 장치 | |
US11854232B2 (en) | Systems and methods for patient positioning | |
US9355447B2 (en) | System and method for gradient assisted non-connected automatic region (GANAR) analysis | |
Vandewinckele et al. | Segmentation of head-and-neck organs-at-risk in longitudinal CT scans combining deformable registrations and convolutional neural networks | |
Szmul et al. | Deep learning based synthetic CT from cone beam CT generation for abdominal paediatric radiotherapy | |
CN113129327B (zh) | 一种基于神经网络模型生成内大体靶区的方法和系统 | |
US20230169668A1 (en) | Systems and methods for image registration | |
Jassim et al. | The geometric and dosimetric accuracy of kilovoltage cone beam computed tomography images for adaptive treatment: a systematic review | |
CN115797308A (zh) | 一种基于dce-mri的乳腺肿瘤分割方法 | |
He et al. | Quantitative comparisons of deep-learning-based and atlas-based auto-segmentation of the intermediate risk clinical target volume for nasopharyngeal carcinoma | |
Gacha et al. | Segmentation of mandibles in computer tomography volumes of patients with foam cells carcinoma | |
Alam et al. | Generalizable cone beam ct esophagus segmentation using in silico data augmentation | |
TWI773491B (zh) | 肺功能鑑別方法 | |
Khaleghi et al. | Neural network performance evaluation of simulated and genuine head-and-neck computed tomography images to reduce metal artifacts | |
TWI854713B (zh) | 基於人工智慧之全身電腦斷層掃描器官描繪方法 | |
Miandoab et al. | Extraction of respiratory signal based on image clustering and intensity parameters at radiotherapy with external beam: A comparative study | |
Cardozo | A Deep Learning U-Net for Detecting and Segmenting Liver Tumors | |
Zhou et al. | Deep-learning Segmentation of Small Volumes in CT images for Radiotherapy Treatment Planning | |
Cramer et al. | Full-body deep learning-based automated contouring of contrast-enhanced murine organs for small animal irradiator CBCT | |
Li et al. | SHU-Aug: Stochastic Hounsfield Unit Augmentation for Clinical Target Volume Segmentation of Glioma |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |