CN113192053A - 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质 - Google Patents

基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质 Download PDF

Info

Publication number
CN113192053A
CN113192053A CN202110550959.2A CN202110550959A CN113192053A CN 113192053 A CN113192053 A CN 113192053A CN 202110550959 A CN202110550959 A CN 202110550959A CN 113192053 A CN113192053 A CN 113192053A
Authority
CN
China
Prior art keywords
target area
cervical tumor
training
accuracy
delineated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110550959.2A
Other languages
English (en)
Inventor
杨瑞杰
李贵
雷润宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Third Hospital Peking University Third Clinical Medical College
Original Assignee
Peking University Third Hospital Peking University Third Clinical Medical College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Third Hospital Peking University Third Clinical Medical College filed Critical Peking University Third Hospital Peking University Third Clinical Medical College
Priority to CN202110550959.2A priority Critical patent/CN113192053A/zh
Publication of CN113192053A publication Critical patent/CN113192053A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质,该方法包括:将患者的待勾画宫颈肿瘤多模态影像数据进行预处理;将待勾画宫颈肿瘤多模态影像数据输入卷积神经网络模型中,得到预测靶区;基于专家知识库确定预测靶区的准确度;若准确度小于预设准确度阈值,对患者的待勾画宫颈肿瘤多模态影像数据进行人工勾画,以得到人工勾画靶区;基于专家知识库确定人工勾画靶区的准确度,若大于等于预设准确度阈值,则人工勾画结束。本发明的基于深度学习的宫颈肿瘤靶区智能勾画方法,利用卷积神经网络自动得到预测靶区,并结合专家知识库对预测靶区进行准确性核验,可提高卷积神经网络模型的鲁棒性,并显著提高智能勾画的准确性。

Description

基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质
技术领域
本发明涉及医学影像和计算机技术领域,尤其涉及一种基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质。
背景技术
在医院对病人进行放射治疗的过程中,往往涉及到目标靶区的勾画,目前医生主要是采用手工勾画的方式,手工勾画费时费力,影响医生的工作效率,且容易导致人为失误,影响病人的治疗。
深度学习是用神经网络尝试对数据做高层次的抽象,它专注于学习数据的表征,此外,对数据做高层次抽象跟人工智能很相像,也就是知识可以被表现出来并且做智能的回应。深度学习已被大量应用到图像和模式识别领域。
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法。CNN一般有几层网络,每个层会捕获对象抽象层次中的不同级别。第一层是抽象层次的最底级,CNN一般把图片中的较小的部分识别成简单的形状,例如水平、竖直的直线,简单的色块。下一层将会上升到更高的抽象层次,一般会识别更复杂的概念,例如形状(线的组合),以此类推直至最终识别整个物体,例如小脑靶区。CNN通过自主学习,无需告诉CNN如何去寻找任何直线、曲线等等。CNN从训练集中学习并发现靶区中值得寻找的特征。
宫颈肿瘤的放疗靶区勾画中的医学影像例如CT影像或核磁影像的图像数据具有很大的差异性,而且卷积神经网络应用到宫颈肿瘤上与传统勾画有很大的不同,具有靶区小,对经验依赖性较大的问题,因此,若将卷积神经网络运用到医学影像自动勾靶中,需要提高CNN神经网络模型的鲁棒性和智能勾画的准确率,这正是本发明要解决的问题。
因此,亟需一种基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质。
发明内容
本发明的目的是提供一种基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质,以解决上述现有技术中的问题,能够提高卷积神经网络模型的鲁棒性,并显著提高智能勾画的准确性。
本发明提供了一种基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,包括:
步骤S1、将患者的待勾画宫颈肿瘤多模态影像数据进行预处理;
步骤S2、将预处理的所述待勾画宫颈肿瘤多模态影像数据输入到训练好的卷积神经网络模型中,得到预测靶区;
步骤S3、基于预先建立的专家知识库确定所述预测靶区的准确度;
步骤S4、若所述预测靶区的准确度大于等于预设准确度阈值,则智能勾画结束,若所述预测靶区的准确度小于预设准确度阈值,则执行步骤S5;
步骤S5、对患者的所述待勾画宫颈肿瘤多模态影像数据进行人工勾画,以得到人工勾画靶区;
步骤S6、基于所述专家知识库确定所述人工勾画靶区的准确度;
步骤S7、若所述人工勾画靶区的准确度大于等于预设准确度阈值,则人工勾画结束,若所述人工勾画靶区的准确度小于预设准确度阈值,则返回步骤S5和步骤S6,直到人工勾画靶区的准确度大于等于预设准确度阈值,结束人工勾画。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,所述专家知识库的建立方法包括:
预先由专业医生根据经验建立宫颈肿瘤数据集,其中,所述宫颈肿瘤数据集中包括患者的宫颈肿瘤影像和专家勾画靶区,并且所述宫颈肿瘤数据集独立于所述卷积神经网络模型的训练集。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,所述步骤S3、基于预先建立的专家知识库确定所述预测靶区的准确度,具体包括:
采用相似算法计算所述预测靶区与所述专家知识库中的专家勾画靶区的相似度;
所述步骤S6、基于所述专家知识库确定所述人工勾画靶区的准确度,具体包括:
采用相似算法计算所述人工勾画靶区与所述专家知识库中的专家勾画靶区的相似度;
所述步骤S4和所述步骤S7中的所述预设准确度阈值包括相似度阈值。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,所述步骤S5、对患者的所述待勾画宫颈肿瘤多模态影像数据进行人工勾画,以得到人工勾画靶区,具体包括:
在所述预测靶区的基础上人工修改靶区,以得到所述人工勾画靶区。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,所述步骤S1、将患者的待勾画宫颈肿瘤多模态影像数据进行预处理,具体包括:
步骤S11、判断所述待勾画宫颈肿瘤多模态影像数据是否为宫颈肿瘤患者的影像数据,若不是则跳出步骤,若是,则执行步骤S12;
步骤S12、判断所述待勾画宫颈肿瘤多模态影像数据的分辨率与所述卷积神经网络模型的训练影像数据的分辨率是否一致,若不一致则重新采样,直到所述待勾画宫颈肿瘤影像数据的分辨率与所述卷积神经网络模型的训练影像数据的分辨率一致。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,在所述步骤S2中,所述卷积神经网络模型的训练步骤包括:
步骤A1、将经过医生勾画完成的靶区影像作为训练数据,并提取为训练影像和训练标签,由多个训练数据构成训练数据集;
步骤A2、对所述训练数据进行重采样处理,以使所述训练数据的分辨率固在定预设分辨率;
步骤A3、根据靶区器官所在的影像位置,将所述训练数据裁切成固定尺寸;
步骤A4、对裁切成固定尺寸的所述训练数据进行数据增强处理;
步骤A5、将数据增强后的所述训练数据输入到所述卷积神经网络模型中进行训练,以得到训练好的卷积神经网络模型。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,所述步骤A4、对裁切成固定尺寸的所述训练数据进行数据增强处理,具体包括:
围绕影像中心点的旋转,和/或沿x轴方向的平移,和/或沿y轴方向的平移;
所述步骤A5、将数据增强后的所述训练数据输入到所述卷积神经网络模型中进行训练,具体包括:
将数据增强后的所述训练数据输入到所述卷积神经网络模型中,进行前向传播训练和反向传播训练,一次前向传播和反向传播为一次迭代。
如上所述的基于深度学习的宫颈肿瘤靶区智能勾画方法,其中,优选的是,所述待勾画宫颈肿瘤多模态影像数据包括CT影像数据、核磁影像数据和PET(Positron EmissionTomography)-CT影像数据。
本发明还提供一种宫颈肿瘤放疗靶区智能勾画设备,包括:
一个或多个处理器、存储器以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行上述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法。
本发明还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法。
本发明提供一种基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质,利用卷积神经网络自动得到预测靶区,并结合专家知识库对预测靶区进行准确性核验,可提高卷积神经网络模型的鲁棒性,并显著提高智能勾画的准确性,有利于提高医生的工作效率,同时又为病人的及时治疗提供宝贵的时间。
附图说明
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步描述,其中:
图1为本发明提供的基于深度学习的宫颈肿瘤靶区智能勾画方法的实施例的流程图;
图2为本发明提供的宫颈肿瘤靶区智能勾画结果示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。对示例性实施例的描述仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。本公开可以以许多不同的形式实现,不限于这里所述的实施例。提供这些实施例是为了使本公开透彻且完整,并且向本领域技术人员充分表达本公开的范围。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、材料的组分、数字表达式和数值应被解释为仅仅是示例性的,而不是作为限制。
本公开中使用的“第一”、“第二”:以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的部分。“包括”或者“包含”等类似的词语意指在该词前的要素涵盖在该词后列举的要素,并不排除也涵盖其他要素的可能。“上”、“下”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
在本公开中,当描述到特定部件位于第一部件和第二部件之间时,在该特定部件与第一部件或第二部件之间可以存在居间部件,也可以不存在居间部件。当描述到特定部件连接其它部件时,该特定部件可以与所述其它部件直接连接而不具有居间部件,也可以不与所述其它部件直接连接而具有居间部件。
本公开使用的所有术语(包括技术术语或者科学术语)与本公开所属领域的普通技术人员理解的含义相同,除非另外特别定义。还应当理解,在诸如通用字典中定义的术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,技术、方法和设备应当被视为说明书的一部分。
如图1所示,本实施例提供的基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质在实际执行过程中,具体包括如下步骤:
步骤S1、将患者的待勾画宫颈肿瘤多模态影像数据进行预处理。
其中,所述待勾画宫颈肿瘤多模态影像数据包括CT影像数据、核磁影像数据和PET(Positron Emission Tomography)-CT影像数据。
在本发明的基于深度学习的宫颈肿瘤靶区智能勾画方法的一种实施方式中,所述步骤S1具体可以包括:
步骤S11、判断所述待勾画宫颈肿瘤多模态影像数据是否为宫颈肿瘤患者的影像数据,若不是则跳出步骤,若是,则执行步骤S12。
步骤S12、判断所述待勾画宫颈肿瘤多模态影像数据的分辨率与所述卷积神经网络模型的训练影像数据的分辨率是否一致,若不一致则重新采样,直到所述待勾画宫颈肿瘤影像数据的分辨率与所述卷积神经网络模型的训练影像数据的分辨率一致。
步骤S2、将预处理的所述待勾画宫颈肿瘤影像数据输入到训练好的卷积神经网络模型中,得到预测靶区。
利用训练好的卷积神经网络模型可以对靶区进行预测,直接得到预测靶区。具体而言,所述卷积神经网络包括输入层、卷积层、激活层、最大池化层、上采样层、融合层和输出层,其中卷积层、激活层、最大池化层、上采样层、融合层为隐藏层。并且在所述卷积神经网络模型中,卷积层的个数不少于3个,每个卷积层都包括权重初始化函数和激活函数,其中,所述的权重初始化函数选自Lecun_normal函数、Random_normal函数、He_normal函数或Glorot_normal函数;所述激活函数选自SeLU函数、ReLU函数、PReLU函数或ELU函数。
进一步地,所述卷积神经网络的损失(loss)函数采用Dice相似度(DiceSimilariy Coefficient,DSC))作为评价分割结果的标准,其定义式为:
Figure BDA0003072218550000071
其中,V(A)表示预测靶区的体积,V(B)表示专家勾画靶区的体积,V(A∩B)表示预测靶区和专家勾画靶区重叠部分的体积,预测靶区和手动勾画结果重合度越高,DSC的值越大,完全重合的情况下DSC值为1。
进一步地,在本发明的基于深度学习的宫颈肿瘤靶区智能勾画方法的一种实施方式中,所述卷积神经网络模型的训练步骤具体可以包括:
步骤A1、将经过医生勾画完成的靶区影像作为训练数据,并提取为训练影像和训练标签,由多个训练数据构成训练数据集。
其中,所述训练标签是对训练影像中的靶区的标记。
步骤A2、对所述训练数据进行重采样处理,以使所述训练数据的分辨率固在定预设分辨率。
步骤A3、根据靶区器官所在的影像位置,将所述训练数据裁切成固定尺寸。
本发明在一种实现方式中,具体的裁切方法为根据预设的影像中心,按照预设固定尺寸,将超过固定尺寸的区域切除。
步骤A4、对裁切成固定尺寸的所述训练数据进行数据增强处理。
具体地,数据增强处理包括:围绕影像中心点的旋转,和/或沿x轴方向的平移,和/或沿y轴方向的平移。通过数据增强处理,可以人为地创造出一些新的数据,从而增强模型的泛化能力,通过人工分析数据的完备性,采用一定的规则对现有数据进行扩充,当模型遇到一些头部偏斜等数据时也可以很好的识别。
步骤A5、将数据增强后的所述训练数据输入到所述卷积神经网络模型中进行训练,以得到训练好的卷积神经网络模型。
具体地,将数据增强后的所述训练数据输入到所述卷积神经网络模型中,进行前向传播训练和反向传播训练,一次前向传播和反向传播为一次迭代。在本发明中,卷积神经网络模型训练中的迭代次数优选为100-120次。训练好的卷积神经网络模型的准确率趋于稳定。一次迭代过程中的前向传播和反向传播覆盖所有隐藏层。
步骤S3、基于预先建立的专家知识库确定所述预测靶区的准确度。
具体地,采用相似算法计算所述预测靶区与所述专家知识库中的专家勾画靶区的相似度。示例性地,所述相似算法包括欧几里得距离、皮尔逊相关系数、余弦相似度、Tanimoto系数(广义Jaccard相似系数)。需要说明的是,本发明对相似算法的类型不作具体限定。
其中,所述专家知识库用于检验预测靶区的准确度,即利用专家知识库做预测靶区的核验。具体而言,所述专家知识库的建立方法包括:
预先由专业医生根据经验建立宫颈肿瘤数据集,其中,所述宫颈肿瘤数据集中包括患者的宫颈肿瘤影像和专家勾画靶区,并且所述宫颈肿瘤数据集独立于所述卷积神经网络模型的训练集。即宫颈肿瘤数据集是不同于训练集的数据集,并且宫颈肿瘤数据集是根据专业医生经验挑选得到的,并且可以不断扩充。
本发明在一种实现方式中,可以通过ground truth来描述专家知识库,同时将其作为基准来和自动勾画的结果(即预测靶区)进行比较。
步骤S4、若所述预测靶区的准确度大于等于预设准确度阈值,则智能勾画结束,若所述预测靶区的准确度小于预设准确度阈值,则执行步骤S5。
其中,所述预设准确度阈值包括相似度阈值。
步骤S5、对患者的所述待勾画宫颈肿瘤多模态影像数据进行人工勾画,以得到人工勾画靶区。
优选地,在所述预测靶区的基础上人工修改靶区,以得到所述人工勾画靶区。
步骤S6、基于所述专家知识库确定所述人工勾画靶区的准确度。
具体地,采用相似算法计算所述人工勾画靶区与所述专家知识库中的专家勾画靶区的相似度。
步骤S7、若所述人工勾画靶区的准确度大于等于预设准确度阈值,则人工勾画结束,若所述人工勾画靶区的准确度小于预设准确度阈值,则返回步骤S5和步骤S6,直到人工勾画靶区的准确度大于等于预设准确度阈值,结束人工勾画。
其中,所述预设准确度阈值包括相似度阈值,最终得到的宫颈肿瘤靶区智能勾画结果如图2所示。
本发明实施例提供的基于深度学习的宫颈肿瘤靶区智能勾画方法,利用卷积神经网络自动得到预测靶区,并结合专家知识库对预测靶区进行准确性核验,可提高卷积神经网络模型的鲁棒性,并显著提高智能勾画的准确性,有利于提高医生的工作效率,同时又为病人的及时治疗提供宝贵的时间。
综合上述实施例及其优选方案,本领域技术人员可以理解的是,在实际操作中,本发明适用于多种实施方式,本发明以下述载体作为示意性说明:
(1)一种宫颈肿瘤放疗靶区智能勾画设备,其可以包括:
一个或多个处理器、存储器以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行前述实施例或等效实施方式的步骤/功能。
应理解,宫颈肿瘤放疗靶区智能勾画设备能够实现前述实施例提供的方法的各个过程。该设备中的各个部件的操作和/或功能,可分别为了实现上述方法实施例中的相应流程。具体可参见前文中关于方法等实施例的描述,为避免重复,此处适当省略详细描述。
应理解,宫颈肿瘤放疗靶区智能勾画设备中的处理器可以是片上系统SOC,该处理器中可以包括中央处理器(Central Processing Unit;以下简称:CPU),还可以进一步包括其它类型的处理器,例如:图像处理器(Graphics Processing Unit;以下简称:GPU)等,具体在下文中再作介绍。
总之,处理器内部的各部分处理器或处理单元可以共同配合实现之前的方法流程,且各部分处理器或处理单元相应的软件程序可存储在存储器中。
(2)一种可读存储介质,在可读存储介质上存储有计算机程序或上述装置,当计算机程序被执行时,使得计算机执行前述实施例或等效实施方式的步骤/功能。
在本发明所提供的几个实施例中,任一功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的某些技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以如下所述软件产品的形式体现出来。
(3)一种计算机程序产品(该产品可以存储于某存储介质中),该计算机程序产品在终端设备上运行时,使终端设备执行前述实施例或等效实施方式的宫颈肿瘤放疗靶区智能勾画方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,上述计算机程序产品可以包括但不限于是指APP;接续前文再做补充说明,上述设备/终端可以是一台计算机设备(例如手机、PC终端、云平台、服务器、服务器集群或者诸如媒体网关等网络通信设备等)。并且,该计算机设备的硬件结构还可以具体包括:至少一个处理器,至少一个通信接口,至少一个存储器和至少一个通信总线;处理器、通信接口、存储器均可以通过通信总线完成相互间的通信。其中,处理器可能是一个中央处理器CPU、DSP、微控制器或数字信号处理器,还可包括GPU、嵌入式神经网络处理器(Neural-network ProcessUnits;以下简称:NPU)和图像信号处理器(Image Signal Processing;以下简称:ISP),该处理器还可包括特定集成电路ASIC,或者是被配置成实施本发明实施例的一个或多个集成电路等,此外,处理器可以具有操作一个或多个软件程序的功能,软件程序可以存储在存储器等存储介质中;而前述的存储器/存储介质可以包括:非易失性存储器(non-volatilememory),例如非可移动磁盘、U盘、移动硬盘、光盘等,以及只读存储器(Read-Only Memory;以下简称:ROM)、随机存取存储器(Random Access Memory;以下简称:RAM)等。
至此,已经详细描述了本公开的各实施例。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改或者对部分技术特征进行等同替换。本公开的范围由所附权利要求来限定。

Claims (10)

1.一种基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,包括:
步骤S1、将患者的待勾画宫颈肿瘤多模态影像数据进行预处理;
步骤S2、将预处理的所述待勾画宫颈肿瘤多模态影像数据输入到训练好的卷积神经网络模型中,得到预测靶区;
步骤S3、基于预先建立的专家知识库确定所述预测靶区的准确度;
步骤S4、若所述预测靶区的准确度大于等于预设准确度阈值,则智能勾画结束,若所述预测靶区的准确度小于预设准确度阈值,则执行步骤S5;
步骤S5、对患者的所述待勾画宫颈肿瘤多模态影像数据进行人工勾画,以得到人工勾画靶区;
步骤S6、基于所述专家知识库确定所述人工勾画靶区的准确度;
步骤S7、若所述人工勾画靶区的准确度大于等于预设准确度阈值,则人工勾画结束,若所述人工勾画靶区的准确度小于预设准确度阈值,则返回步骤S5和步骤S6,直到人工勾画靶区的准确度大于等于预设准确度阈值,结束人工勾画。
2.根据权利要求1所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,所述专家知识库的建立方法包括:
预先由专业医生根据经验建立宫颈肿瘤数据集,其中,所述宫颈肿瘤数据集中包括患者的宫颈肿瘤影像和专家勾画靶区,并且所述宫颈肿瘤数据集独立于所述卷积神经网络模型的训练集。
3.根据权利要求1所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,所述步骤S3、基于预先建立的专家知识库确定所述预测靶区的准确度,具体包括:
采用相似算法计算所述预测靶区与所述专家知识库中的专家勾画靶区的相似度;
所述步骤S6、基于所述专家知识库确定所述人工勾画靶区的准确度,具体包括:
采用相似算法计算所述人工勾画靶区与所述专家知识库中的专家勾画靶区的相似度;
所述步骤S4和所述步骤S7中的所述预设准确度阈值包括相似度阈值。
4.根据权利要求1所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,所述步骤S5、对患者的所述待勾画宫颈肿瘤多模态影像数据进行人工勾画,以得到人工勾画靶区,具体包括:
在所述预测靶区的基础上人工修改靶区,以得到所述人工勾画靶区。
5.根据权利要求1所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,所述步骤S1、将患者的待勾画宫颈肿瘤多模态影像数据进行预处理,具体包括:
步骤S11、判断所述待勾画宫颈肿瘤多模态影像数据是否为宫颈肿瘤患者的影像数据,若不是则跳出步骤,若是,则执行步骤S12;
步骤S12、判断所述待勾画宫颈肿瘤多模态影像数据的分辨率与所述卷积神经网络模型的训练影像数据的分辨率是否一致,若不一致则重新采样,直到所述待勾画宫颈肿瘤影像数据的分辨率与所述卷积神经网络模型的训练影像数据的分辨率一致。
6.根据权利要求1所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,在所述步骤S2中,所述卷积神经网络模型的训练步骤包括:
步骤A1、将经过医生勾画完成的靶区影像作为训练数据,并提取为训练影像和训练标签,由多个训练数据构成训练数据集;
步骤A2、对所述训练数据进行重采样处理,以使所述训练数据的分辨率固在定预设分辨率;
步骤A3、根据靶区器官所在的影像位置,将所述训练数据裁切成固定尺寸;
步骤A4、对裁切成固定尺寸的所述训练数据进行数据增强处理;
步骤A5、将数据增强后的所述训练数据输入到所述卷积神经网络模型中进行训练,以得到训练好的卷积神经网络模型。
7.根据权利要求6所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,所述步骤A4、对裁切成固定尺寸的所述训练数据进行数据增强处理,具体包括:
围绕影像中心点的旋转,和/或沿x轴方向的平移,和/或沿y轴方向的平移;
所述步骤A5、将数据增强后的所述训练数据输入到所述卷积神经网络模型中进行训练,具体包括:
将数据增强后的所述训练数据输入到所述卷积神经网络模型中,进行前向传播训练和反向传播训练,一次前向传播和反向传播为一次迭代。
8.根据权利要求1所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法,其特征在于,所述待勾画宫颈肿瘤多模态影像数据包括CT影像数据、核磁影像数据和PET-CT影像数据。
9.一种宫颈肿瘤放疗靶区智能勾画设备,其特征在于,包括:
一个或多个处理器、存储器以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行如权利要求1~8任一项所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如权利要求1~8任一项所述的基于深度学习的宫颈肿瘤放疗靶区智能勾画方法。
CN202110550959.2A 2021-05-18 2021-05-18 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质 Pending CN113192053A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110550959.2A CN113192053A (zh) 2021-05-18 2021-05-18 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110550959.2A CN113192053A (zh) 2021-05-18 2021-05-18 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质

Publications (1)

Publication Number Publication Date
CN113192053A true CN113192053A (zh) 2021-07-30

Family

ID=76982672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110550959.2A Pending CN113192053A (zh) 2021-05-18 2021-05-18 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质

Country Status (1)

Country Link
CN (1) CN113192053A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049683A (zh) * 2022-07-12 2022-09-13 福建自贸试验区厦门片区Manteia数据科技有限公司 放疗影像靶区的勾画方法和装置、处理器及电子设备
CN116344001A (zh) * 2023-03-10 2023-06-27 中南大学湘雅三医院 一种基于人工智能的医疗信息可视化管理系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036109A (zh) * 2014-03-14 2014-09-10 上海大图医疗科技有限公司 基于图像的病例检索、勾画及治疗计划系统和方法
US20150343237A1 (en) * 2014-06-03 2015-12-03 Siemens Aktiengesellschaft Method and position determination system for determining a position of a target region of a patient to be irradiated in an irradiation device
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
CN108288496A (zh) * 2018-01-26 2018-07-17 中国人民解放军总医院 肿瘤容积智能勾画方法和装置
CN108447551A (zh) * 2018-02-09 2018-08-24 北京连心医疗科技有限公司 一种基于深度学习的靶区自动勾画方法、设备和存储介质
CN108460813A (zh) * 2018-01-02 2018-08-28 沈阳东软医疗系统有限公司 一种靶区勾画方法和装置
US20190139223A1 (en) * 2017-07-31 2019-05-09 Shanghai United Imaging Healthcare Co., Ltd. System and method for extracting a region of interest from volume data
CN110032315A (zh) * 2019-03-28 2019-07-19 广州柏视数据科技有限公司 一种放疗靶区轮廓线快速修改方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036109A (zh) * 2014-03-14 2014-09-10 上海大图医疗科技有限公司 基于图像的病例检索、勾画及治疗计划系统和方法
US20150343237A1 (en) * 2014-06-03 2015-12-03 Siemens Aktiengesellschaft Method and position determination system for determining a position of a target region of a patient to be irradiated in an irradiation device
US20190139223A1 (en) * 2017-07-31 2019-05-09 Shanghai United Imaging Healthcare Co., Ltd. System and method for extracting a region of interest from volume data
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
CN108460813A (zh) * 2018-01-02 2018-08-28 沈阳东软医疗系统有限公司 一种靶区勾画方法和装置
CN108288496A (zh) * 2018-01-26 2018-07-17 中国人民解放军总医院 肿瘤容积智能勾画方法和装置
CN108447551A (zh) * 2018-02-09 2018-08-24 北京连心医疗科技有限公司 一种基于深度学习的靶区自动勾画方法、设备和存储介质
CN110032315A (zh) * 2019-03-28 2019-07-19 广州柏视数据科技有限公司 一种放疗靶区轮廓线快速修改方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
薛旭东;郝晓宇;石军;丁轶;魏伟;安虹;: "鼻咽癌原发肿瘤放疗靶区的自动分割", 中国图象图形学报, no. 10, pages 2151 - 2158 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049683A (zh) * 2022-07-12 2022-09-13 福建自贸试验区厦门片区Manteia数据科技有限公司 放疗影像靶区的勾画方法和装置、处理器及电子设备
CN115049683B (zh) * 2022-07-12 2024-06-14 福建自贸试验区厦门片区Manteia数据科技有限公司 放疗影像靶区的勾画方法和装置、处理器及电子设备
CN116344001A (zh) * 2023-03-10 2023-06-27 中南大学湘雅三医院 一种基于人工智能的医疗信息可视化管理系统及方法
CN116344001B (zh) * 2023-03-10 2023-10-24 中南大学湘雅三医院 一种基于人工智能的医疗信息可视化管理系统及方法

Similar Documents

Publication Publication Date Title
Yang et al. Uncertainty-guided transformer reasoning for camouflaged object detection
Han et al. Occuseg: Occupancy-aware 3d instance segmentation
CN106127120B (zh) 姿势估计方法和装置、计算机系统
CN110909618B (zh) 一种宠物身份的识别方法及装置
CN112581436B (zh) 基于深度学习的肺结节识别与分割方法及系统
Shi et al. Multiscale multitask deep NetVLAD for crowd counting
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
CN101283376B (zh) 使用轨迹分段分析的双向跟踪
CN108921019B (zh) 一种基于GEI和TripletLoss-DenseNet的步态识别方法
CN110276745B (zh) 一种基于生成对抗网络的病理图像检测算法
CN110263673A (zh) 面部表情识别方法、装置、计算机设备及存储介质
Wang et al. A hybrid flower pollination algorithm based modified randomized location for multi-threshold medical image segmentation
CN111144486B (zh) 基于卷积神经网络的心脏核磁共振图像关键点检测方法
CN115018852B (zh) 一种基于半监督学习的腹部淋巴结检测方法及装置
WO2021174941A1 (zh) 人体属性识别方法、系统、计算机设备及存储介质
CN113192053A (zh) 基于深度学习的宫颈肿瘤靶区智能勾画方法、设备和介质
Zhou et al. Embedding topological features into convolutional neural network salient object detection
CN111709485A (zh) 医学影像处理方法、装置和计算机设备
Vinoth Kumar et al. A decennary survey on artificial intelligence methods for image segmentation
CN108805907A (zh) 一种行人姿势多特征智能辨识方法
CN113035334B (zh) 鼻腔nkt细胞淋巴瘤放疗靶区自动勾画方法和装置
JP2005165923A (ja) 検出装置および検出方法
CN111091560A (zh) 鼻咽癌原发肿瘤图像识别方法及系统
Sun et al. MetaSeg: A survey of meta-learning for image segmentation
CN117854155A (zh) 一种人体骨骼动作识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210730