CN113129327A - 一种基于神经网络模型生成内大体靶区的方法和系统 - Google Patents

一种基于神经网络模型生成内大体靶区的方法和系统 Download PDF

Info

Publication number
CN113129327A
CN113129327A CN202110393787.2A CN202110393787A CN113129327A CN 113129327 A CN113129327 A CN 113129327A CN 202110393787 A CN202110393787 A CN 202110393787A CN 113129327 A CN113129327 A CN 113129327A
Authority
CN
China
Prior art keywords
neural network
network model
image
target area
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110393787.2A
Other languages
English (en)
Other versions
CN113129327B (zh
Inventor
马圆圆
戴中颖
刘新国
张晖
李强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Modern Physics of CAS
Original Assignee
Institute of Modern Physics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Modern Physics of CAS filed Critical Institute of Modern Physics of CAS
Priority to CN202110393787.2A priority Critical patent/CN113129327B/zh
Publication of CN113129327A publication Critical patent/CN113129327A/zh
Application granted granted Critical
Publication of CN113129327B publication Critical patent/CN113129327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明属于放射性治疗技术领域,涉及一种基于神经网络模型生成内大体靶区的方法和系统,包括以下步骤:S1根据获得的4D‑CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;S2生成代表内大体靶区的二值图像;S3将4D‑CT图像和二值图像输入卷积神经网络模型,对模型进行训练;S4将新患者的4D‑CT图像带入训练好的卷积神经网络模型,获得模型输出值;S5对模型输出值进行连通区域处理,生成最终的内大体靶区数据。其根据输入患者所有时相的4D‑CT图像数据,直接生成内大体靶区数据,解决临床勾画中耗时费力、重复性较差的问题。

Description

一种基于神经网络模型生成内大体靶区的方法和系统
技术领域
本发明涉及一种基于神经网络模型生成内大体靶区的方法和系统,属于放射性治疗技术领域,特别涉及放射性治疗中的靶区范围确定。
背景技术
放射治疗作为治疗恶性肿瘤的主要手段之一,其在肿瘤治疗中的作用和地位日益突出。精确放疗的最终目标是最大限度地将放射线剂量集中到靶区内,杀灭靶区内的细胞,并使周围正常组织,尤其是关键器官少受或不受放射线照射。然而放疗过程中由于呼吸运动会引起的靶区运动,从而影响靶区的实际照射剂量,导致部分靶区没有被照射或者使关键器官被高剂量放射性照射,最终造成局部控制不足或关键器官受损。
研究表明,对于胸腹部靶区,呼吸运动导致的靶区运动幅度可以超过2厘米,成为制约精确放射治疗效果的瓶颈。为了减小呼吸运动的影响,本领域中通常利用CT医学图像生成患者的个体化的内大体靶区(internal gross tumour volume,iGTV)。iGTV定义为在肿瘤靶区(gross tumour volume,GTV)数据的基础上,外扩由于呼吸运动导致的GTV内部运动范围,该内部运动范围是通过对可见病灶的运动来评估的,因而其勾画更为简单准确。
目前,生成iGTV数据最精确的方法是使用四维(four dimensional,4D)计算机断层成像(computed tomography,CT)数据,但该方法需要医生手动勾画内部运动范围,需要花费大量的时间和精力,并且同一医生不同时间勾画的结果以及不同医生勾画的结果都存在一定的差异,限制了其临床应用。
部分研究者提出使用部分呼吸时相如呼气末期和吸气末期上的GTV轮廓来生成iGTV数据,然而4D-CT数据中的呼气末期和吸气末期不一定是靶区实际运动的呼吸末期和吸气末期,并且靶区在头脚、上下和左右方向的最大运动可能表现在不同的呼吸时相中,使用部分时相上的GTV轮廓可能会低估iGTV数据。
也有研究者提出使用最大强度投影(maximum intensity projection,MIP)图像或者平均强度图像,在该图像上勾画的靶区的轮廓即是iGTV数据。MIP和平均强度图像上每个体素的灰度值分别是该体素在所有呼吸时相上灰度值的最大值和平均值,然而研究证明对于肺内末期肿瘤患者,使用MIP图像可能会低估iGTV数据,并且,如果毗邻的正常器官的组织密度与靶区的组织密度相似或者比靶区的组织密度更高,会使在MIP图像上无法区分正常组织和靶区,故而无法进行准确勾画。而使用平均强度图像勾画靶区轮廓则会低估iGTV数据。
发明内容
针对上述问题,本发明的目的是提供用于一种基于神经网络模型生成内大体靶区的方法和系统,其根据输入患者所有时相的4D-CT图像数据,直接生成内大体靶区数据,解决临床勾画中耗时费力、重复性较差的问题。
为实现上述目的,本发明采取以下技术方案:一种基于神经网络模型生成内大体靶区的方法,包括以下步骤:S1根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;S2生成代表内大体靶区的二值图像;S3将4D-CT图像和二值图像输入卷积神经网络模型,对模型进行训练;S4将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;S5对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
进一步,步骤S1中勾画所有呼吸时相上的肿瘤靶区轮廓的方法为:由多个医生对同一患者肿瘤靶区轮廓进行勾画,然后将各个医生的勾画结果进行融合,保留各个勾画结果中相同的部分,对于不相同的部分,通过讨论投票,最终获得意见一致的勾画轮廓数据。
进一步,步骤S2中生成代表内大体靶区的二值图像的方法为:S2.1将肿瘤靶区轮廓点的坐标转换到像素坐标系;S2.2在像素坐标系中,基于不同呼吸时相上的肿瘤靶区轮廓点生成对应的二值图像矩阵;S2.3对所有呼吸时相的二值图像矩阵进行合并,得到代表内大体靶区的图像矩阵;S2.4将代表内大体靶区的二值图像矩阵转换到患者坐标系中进行保存。
进一步,二值图像矩阵将位于靶区轮廓内的像素点灰度值设为1,将位于靶区轮廓外的像素点灰度值设为0。
进一步,S3中对4D-CT图像和二值图像矩阵在输入神经网络模型前进行预处理,以加快训练速度。
进一步,预处理包括标准化处理和裁剪处理。
进一步,在卷积神经网络模型中,4D-CT图像经过编码模块和解码模块,最后通过全卷积层输出分类结果,该卷积神经网络模型输出每个体素属于靶区器官的概率。
进一步,卷积神经网络模型的损失函数为:
Figure BDA0003017765900000021
其中,V1代表神经网络预测得到的内大体靶区,V2代表通过医生手动勾画肿瘤靶区得到的内大体靶区,DSC是骰子相似系数。
进一步,连通区域处理的方法为:设定阈值,将卷积神经网络的输出结果进行二值化处理生成二值图像,对二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,以分离小的假阳性区域,对开运算后的二值图像进行连通区域分析,保留大的连通区域,处理掉小的区域。
本发明还公开了一种基于神经网络模型生成内大体靶区的系统,包括:轮廓获取模块,用于根据获得的4D-CT图像勾画肿瘤靶区轮廓;二值化处理模块,用于生成代表内大体靶区的二值图像矩阵;模型训练模块,用于将4D-CT图像和二值图像矩阵输入卷积神经网络模型,对模型进行训练;模型输出模块,用于将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;连通区域处理模块,用于对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
本发明由于采取以上技术方案,其具有以下优点:
1、本发明克服了常规临床上勾画内大体靶区耗时、费力并且重复性差的缺点,能够自动生成内大体靶区轮廓数据,结果更加可靠、准确、可重复性高。
2、本发明通过将患者的4D-CT数据输入训练好的神经网络,直接生成内大体靶区数据,避免了人工读取某时相单帧图像进行勾画的重复性工作和由于个人经验不足导致的误判,本发明提出的方法简单高效并且精确度高。
附图说明
图1是本发明一实施例中生成代表内大体靶区的二值图像方法的流程图;
图2是本发明一实施例中神经网络结构的示意图;
图3是本发明一实施例中对网络输出的概率图进行连通区域处理的流程图。
具体实施方式
为了使本领域技术人员更好的理解本发明的技术方向,通过具体实施例对本发明进行详细的描绘。然而应当理解,具体实施方式的提供仅为了更好地理解本发明,它们不应该理解成对本发明的限制。在本发明的描述中,需要理解的是,所用到的术语仅仅是用于描述的目的,而不能理解为指示或暗示相对重要性。
本发明涉及一种基于神经网络模型生成内大体靶区的方法和系统,其采用多个专业医生勾画肿瘤靶区轮廓,通过二值化处理,获得内大体靶区,并将该内大体靶区输入神经网络模型中进行训练,使得新患者可以直接通过经过训练的神经网络模型获得内大体靶区,而无需再由医生勾画肿瘤靶区轮廓,本发明有效的避免了由于人工操作导致的费时、费力和可重复性不高的问题,能够更加方便、快捷且精准的获得内大体靶区,能够在一定程度上提高放疗的精度。下面结合附图对本发明的方案进行详细阐述。
实施例一
本实施例公开了一种基于神经网络模型生成内大体靶区的方法,包括以下步骤:
S1根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓。
由物理师和技师对患者在自由呼吸状态下进行4D-CT扫描,获取患者的4D-CT图像数据。该4D-CT图像数据可以分为若干呼吸时相,本实施例中优选呼吸时相的数量为10个。
勾画所有呼吸时相上的肿瘤靶区轮廓的方法为:为降低不同医生勾画以及同一医生不同时间勾画的可变性,由多个医生对同一患者肿瘤靶区轮廓进行勾画,然后将各个医生的勾画结果进行融合,保留各个勾画结果中相同的部分,对于不相同的部分,通过讨论投票,最终获得意见一致的肿瘤靶区轮廓。最终的肿瘤靶区轮廓综合了所有医生的一致性意见,参考价值较强。其中,多个医生通常为三个医生,但也可以根据具体需要及经验进行选择,并不仅限于三个医生。
S2生成代表内大体靶区的二值图像矩阵。
如图1所示,步骤S2中具体方法为:
S2.1将肿瘤靶区轮廓点的坐标(即实际坐标)转换到像素坐标系;
S2.2在像素坐标系中,基于所有呼吸时相上的肿瘤靶区轮廓点生成对应的二值图像矩阵,二值图像矩阵将位于肿瘤靶区轮廓内的像素点灰度值设为1,将位于肿瘤靶区轮廓内外的像素点灰度值设为0;
S2.3对所有呼吸时相的二值图像矩阵进行合并,得到代表内大体靶区的二值图像矩阵;
S2.4将代表内大体靶区的二值图像矩阵转换到实际坐标中进行保存。
S3将4D-CT图像和代表内大体靶区的二值图像输入卷积神经网络模型,对模型进行训练。
首先,对4D-CT图像和代表内大体靶区的二值图像在输入神经网络模型前进行预处理,以加快训练速度。预处理包括对所有4D-CT图像和二值图像进行标准化处理和裁剪处理。预处理的具体过程为:使用pydicom库对所有4D-CT图像和二值图像进行读取,得到所有患者所有数据的平均值和偏差,以这两个值对所有数据进行标准化。对所有4D-CT图像和二值图像进行裁剪,确定一个包括所有图像前景的范围后,以这个范围剪切掉图像的背景元素。
使用python编程语言,tensorflow深度学习框架,keras高级深度学习框架搭建3DUnet卷积神经网络,网络结构如图2所示。该卷积神经网络输出每个体素属于靶区器官的概率。在卷积神经网络模型中,所有时相的4D-CT图像依次经过编码模块和解码模块,中间通过拼接的方式,将编码阶段获得的特征图同解码阶段获得的特征图结合在一起,最后通过一个全卷积层输出分类结果。本实施例优选网络深度为三层,其排列顺序如图2所示。但本发明中的神经网络模型并不限于图2中给出的神经网络模型,图2中神经网络模型只是一种优选方案,现有的神经网络模型只要没有和本发明中方案存在明显的矛盾,均可用于本发明的方案。该卷积神经网络的损失函数采用骰子相似系数(Dice SimilarityCoefficient,DSC)进行表示,其计算公式为:
Figure BDA0003017765900000051
其中,V1代表神经网络预测得到的内大体靶区,V2代表医生手动勾画的内大体靶区。
对卷积神经网络模型进行训练时,将原4D-CT图像分为训练集和验证集,训练集和验证集是从原4D-CT图像中随机选取的,且训练集和验证集的数量比为4:1,即原4D-CT图像中80%作为训练集,20%作为验证集。训练集中图像和二值图像一起输入卷积神经网络模型对模型进行训练。验证集中的图像通过简单交叉验证对训练好的模型进行验证,计算验证集中所有患者的损失函数值,若该值高于0.8,认为该网络模型精度达标。记录训练好的模型的分类准确率,并以此作为模型的性能指标。
S4将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值,其中,模型输出值为所有体素属于靶区器官的概率图。
S5对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
如图3所示,使用python编程语言对神经网络模型输出的概率图进行连通区域处理,以降低假阳性率,其具体方法为:设定阈值,如本实施例中将阈值设为0.5,将卷积神经网络的输出结果进行二值化处理生成二值图像,小于阈值的认为是背景元素,并将其灰度值设为0,其它则认为属于靶区,将其灰度值设为1。对二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,以分离小的假阳性区域。对进行过开运算的二值图像进行连通区域分析,保留大的连通区域,处理掉小的区域。需要特别说明的是本步骤的二值图像和步骤S2中的二值图像是不同的图像。本步骤是基于卷积神经网络的输出结果获得的二值图像,步骤S2中的二值图像是基于4D-CT图像勾画的肿瘤靶区轮廓获得的。
实施例二
基于相同的发明构思,本实施例公开了一种基于神经网络模型生成内大体靶区的系统,包括:
轮廓获取模块,用于根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;
二值化处理模块,用于生成代表内大体靶区的二值图像矩阵;
模型训练模块,用于将4D-CT图像和二值图像输入卷积神经网络模型,对模型进行训练;
模型输出模块,用于将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;
连通区域处理模块,用于对模型输出值进行连通区域处理,生成最终的内大体靶区数据。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。上述内容仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围。

Claims (10)

1.一种基于神经网络模型生成内大体靶区的方法,其特征在于,包括以下步骤:
S1根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;
S2生成代表内大体靶区的二值图像;
S3将所述4D-CT图像和所述二值图像输入卷积神经网络模型,对模型进行训练;
S4将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;
S5对所述模型输出值进行连通区域处理,生成最终的内大体靶区数据。
2.如权利要求1所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述步骤S1中勾画所有呼吸时相上的肿瘤靶区轮廓的方法为:由多个医生对同一患者肿瘤靶区轮廓进行勾画,然后将各个医生的勾画结果进行融合,保存各个勾画结果中相同的部分,对不相同的部分,通过讨论投票获得最终的大体靶区轮廓。
3.如权利要求1所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述步骤S2中生成所述内大体靶区的二值图像的方法为:
S2.1将所述肿瘤靶区轮廓点的坐标转换到像素坐标系;
S2.2在所述像素坐标系中,基于所述轮廓点生成二值图像矩阵;
S2.3对所有呼吸时相的所述二值图像矩阵进行合并,得到代表内大体靶区数据的图像矩阵;
S2.4将代表内大体靶区的二值图像矩阵转换到患者坐标系中进行保存。
4.如权利要求3所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述二值图像矩阵将位于内大体靶区轮廓内的像素点灰度值设为1,将位于所述内大体靶区轮廓外的像素点灰度值设为0。
5.如权利要求1-4任一项所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述S3中对所述4D-CT图像和二值图像在输入所述神经网络模型前进行预处理,以加快训练速度。
6.如权利要求5所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述预处理包括标准化处理和裁剪处理。
7.如权利要求1-4任一项所述的基于神经网络模型生成内大体靶区的方法,其特征在于,在所述卷积神经网络模型中,所述4D-CT图像经过编码模块和解码模块,通过全卷积层输出分类结果,所述卷积神经网络模型输出每个体素属于靶区器官的概率。
8.如权利要求7所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述卷积神经网络模型的损失函数为:
Figure FDA0003017765890000021
其中,V1代表神经网络预测得到的内大体靶区,V2代表通过医生手动勾画肿瘤靶区得到的内大体靶区,DSC是骰子相似系数。
9.如权利要求1-4任一项所述的基于神经网络模型生成内大体靶区的方法,其特征在于,所述连通区域处理的方法为:设定阈值,将所述卷积神经网络的输出结果进行二值化处理生成二值图像,对所述二值图像进行组织形态学开运算,消除图像上的噪声,使狭窄的连接断开,然后进行连通区域处理,以分离小的假阳性区域,保留大的连通区域。
10.一种基于神经网络模型生成内大体靶区的系统,其特征在于,包括:
轮廓获取模块,用于根据获得的4D-CT图像勾画所有呼吸时相上的肿瘤靶区轮廓;
二值化处理模块,用于生成代表内大体靶区的二值图像;
模型训练模块,用于将所述4D-CT图像和所述二值图像输入卷积神经网络模型,对模型进行训练;
模型输出模块,用于将新患者的4D-CT图像带入训练好的卷积神经网络模型,获得模型输出值;
连通区域处理模块,用于对所述模型输出值进行连通区域处理,生成最终的内大体靶区数据。
CN202110393787.2A 2021-04-13 2021-04-13 一种基于神经网络模型生成内大体靶区的方法和系统 Active CN113129327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110393787.2A CN113129327B (zh) 2021-04-13 2021-04-13 一种基于神经网络模型生成内大体靶区的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110393787.2A CN113129327B (zh) 2021-04-13 2021-04-13 一种基于神经网络模型生成内大体靶区的方法和系统

Publications (2)

Publication Number Publication Date
CN113129327A true CN113129327A (zh) 2021-07-16
CN113129327B CN113129327B (zh) 2023-05-02

Family

ID=76775982

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110393787.2A Active CN113129327B (zh) 2021-04-13 2021-04-13 一种基于神经网络模型生成内大体靶区的方法和系统

Country Status (1)

Country Link
CN (1) CN113129327B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114581463A (zh) * 2022-03-04 2022-06-03 中国科学院近代物理研究所 一种多相位4d ct图像分割方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040193019A1 (en) * 2003-03-24 2004-09-30 Nien Wei Methods for predicting an individual's clinical treatment outcome from sampling a group of patient's biological profiles
CN111915594A (zh) * 2020-08-06 2020-11-10 南通大学 基于端对端神经网络的乳腺癌病灶分割方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
US20210103756A1 (en) * 2019-10-08 2021-04-08 Samsung Life Public Welfare Foundation System and method for segmenting normal organ and/or tumor structure based on artificial intelligence for radiation treatment planning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111261296A (zh) * 2020-01-15 2020-06-09 广州柏视医疗科技有限公司 基于条件随机向量场的肿瘤临床靶区自动勾画方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040193019A1 (en) * 2003-03-24 2004-09-30 Nien Wei Methods for predicting an individual's clinical treatment outcome from sampling a group of patient's biological profiles
US20210103756A1 (en) * 2019-10-08 2021-04-08 Samsung Life Public Welfare Foundation System and method for segmenting normal organ and/or tumor structure based on artificial intelligence for radiation treatment planning
CN111915594A (zh) * 2020-08-06 2020-11-10 南通大学 基于端对端神经网络的乳腺癌病灶分割方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114581463A (zh) * 2022-03-04 2022-06-03 中国科学院近代物理研究所 一种多相位4d ct图像分割方法及系统
CN114581463B (zh) * 2022-03-04 2024-05-17 中国科学院近代物理研究所 一种多相位4d ct图像分割方法及系统

Also Published As

Publication number Publication date
CN113129327B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
US11386557B2 (en) Systems and methods for segmentation of intra-patient medical images
CN108717866B (zh) 一种预测放疗计划剂量分布的方法、装置、设备及存储介质
CN108778416B (zh) 使用组织参数估计根据mr数据的伪ct生成的系统、方法和介质
CN108770373B (zh) 使用特征回归模型根据mr数据的伪ct生成
CN110310287B (zh) 基于神经网络的危及器官自动勾画方法、设备和存储介质
US11219426B2 (en) Method and system for determining irradiation dose
US20220207742A1 (en) Image segmentation method, device, equipment and storage medium
US11030747B1 (en) System and method for automatic thoracic organ segmentation from CT using a deep learning framework
Sun et al. Imaging study of pseudo-CT synthesized from cone-beam CT based on 3D CycleGAN in radiotherapy
CN111028914A (zh) 人工智能引导的剂量预测方法与系统
CN112057751B (zh) 一种盆腔放疗危及器官自动勾画方法
Liu et al. Automatic segmentation algorithm of ultrasound heart image based on convolutional neural network and image saliency
Zhou et al. Detection and semiquantitative analysis of cardiomegaly, pneumothorax, and pleural effusion on chest radiographs
CN113706486A (zh) 基于密集连接网络迁移学习的胰腺肿瘤图像分割方法
US20220301224A1 (en) Systems and methods for image segmentation
van Rooij et al. Strategies to improve deep learning-based salivary gland segmentation
CN113129327A (zh) 一种基于神经网络模型生成内大体靶区的方法和系统
Tian et al. Efficient tooth gingival margin line reconstruction via adversarial learning
CN114612478B (zh) 一种基于深度学习的女性盆腔mri自动勾画系统
CN115797308A (zh) 一种基于dce-mri的乳腺肿瘤分割方法
He et al. Quantitative Comparisons of Deep-learning-based and Atlas-based Auto-segmentation of the Intermediate Risk Clinical Target Volume for Nasopharyngeal Carcinoma
Wei et al. An improved image segmentation algorithm ct superpixel grid using active contour
Sun et al. Stepwise local synthetic pseudo-CT imaging based on anatomical semantic guidance
CN115861600B (zh) 一种spect图像的roi区域识别方法及系统
Alam et al. Generalizable cone beam ct esophagus segmentation using in silico data augmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant