CN111489324A - 一种融合多模态先验病理深度特征的宫颈癌病变诊断方法 - Google Patents

一种融合多模态先验病理深度特征的宫颈癌病变诊断方法 Download PDF

Info

Publication number
CN111489324A
CN111489324A CN202010506330.3A CN202010506330A CN111489324A CN 111489324 A CN111489324 A CN 111489324A CN 202010506330 A CN202010506330 A CN 202010506330A CN 111489324 A CN111489324 A CN 111489324A
Authority
CN
China
Prior art keywords
cervical
training
image
representing
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010506330.3A
Other languages
English (en)
Other versions
CN111489324B (zh
Inventor
骆炎民
林躬耕
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Gongtian Software Co ltd
Huaqiao University
Original Assignee
Fujian Gongtian Software Co ltd
Huaqiao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Gongtian Software Co ltd, Huaqiao University filed Critical Fujian Gongtian Software Co ltd
Priority to CN202010506330.3A priority Critical patent/CN111489324B/zh
Publication of CN111489324A publication Critical patent/CN111489324A/zh
Application granted granted Critical
Publication of CN111489324B publication Critical patent/CN111489324B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了医学图像处理领域的一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,包括:步骤S10、获取宫颈图像、病理确诊数据、标注信息;步骤S20、将宫颈图像以及标注信息输入深度神经网络模型训练,生成一阶段训练结果;步骤S30、基于病理确诊数据以及一阶段训练结果,采用小网络分别对宫颈图像进行编码后,二阶融合一阶段训练结果后输入深度神经网络模型训练,生成二阶段训练结果;步骤S40、确定主干网络参数,并利用主干网络参数输入深度神经网络模型对宫颈图像进行递进迁移训练,生成三阶段训练结果;步骤S50、利用三阶段训练结果对宫颈图像进行诊断分类。本发明的优点在于:极大的提升了宫颈癌病变诊断的准确性以及效率。

Description

一种融合多模态先验病理深度特征的宫颈癌病变诊断方法
技术领域
本发明涉及医学图像处理领域,特别指一种融合多模态先验病理深度特征的宫颈癌病变诊断方法。
背景技术
随着科技的发展,数据成像技术的进步为医学带来了极大的便利,越来越高质量的图像为疾病的分析与诊断提供了数据基础。数字阴道镜检查作为宫颈癌早期筛查方法的一种,目前在全世界范围内受到了高度的认可,已成为预防宫颈癌不可或缺的技术。数字阴道镜检查是一种日趋成熟的低成本技术,阴道镜主要使用光学显微镜在强光下将子宫颈放大10至40倍进行目视检测,通常由具有丰富经验的医生判断是否存在可疑癌症,以确定是否需要进一步治疗。临床的相关研究表明阴道镜检查在实际应用中有很高的应用价值,典型的异常阴道镜图像则能为宫颈癌以及宫颈上皮内瘤变的诊断提供重要参考。
由于获取的宫颈原图难以区分病变特征,目前临床上通用的操作是在宫颈转化区涂抹醋酸和碘溶液以观察病理变化确定病变类型。但是,阴道镜检查也有比较明显的缺点,随着图像数据和工作量的增加,通过人工阅片的方式容易造成误诊、漏诊且不同医师的专业水平会造成敏感性差异,这都不利于病变的筛查。
计算机辅助诊断(CAD)系统为当前医学图像处理的研究热点,许多与图像相关的医疗工作得益于CAD系统的开发和部署,使得现代医疗变得更高效、更准确。在相关的阴道镜CAD研究中,先前基于机器学习的浅层学习机在特征表达和特征提取方面存在一定的局限性,当前流行的深度学习技术越来越多的应用到阴道镜图像分析,一般用于检测和识别癌前病变。但深度学习技术通常需要大量的可用数据进行建模。目前的SOTA算法一般采用图像数据和非图像数据的融合方式(T.Xu,H.Zhang,X.Huang,S.Zhang,andD.Metaxas.Multimodal deep learning for cervical dysplasia diagnosis[C].MICCAI,2016,9901:115~123.),也有相关研究结合醋白和碘处理后的图像应用目标检测算法进行模型训练(Chen T,Ma X,Ying X,et al.Multi-Modal Fusion Learning forCervical Dysplasia Diagnosis[C].In:2019IEEE 16th International Symposium onBiomedical Imaging(ISBI2019).IEEE,2019.1505~1509),图像分割的方法也同样被应用到宫颈图像中(Zhang,X.Q.,S.G.Zhao.Cervical image classification based on imagesegmentation preprocessing and a CapsNet network model[C].In:InternationalJournal of Imaging Systems and Technology,2019,29(1):19~28.);虽然现有的这些算法取得了一定的效果,但是由于深度学习算法没有充分利用原图(无药品处理)、醋白处理图像、碘处理图像的特征相关性,使得宫颈癌病变诊断的准确性还是欠佳。
因此,如何提供一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,实现提升宫颈癌病变诊断的准确性以及效率,成为一个亟待解决的问题。
发明内容
本发明要解决的技术问题,在于提供一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,实现提升宫颈癌病变诊断的准确性以及效率。
本发明是这样实现的:一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,包括如下步骤:
步骤S10、获取若干张宫颈图像、宫颈图像对应的病理确诊数据以及标注信息;所述宫颈图像包括宫颈原图、宫颈碘图以及宫颈醋白图;
步骤S20、创建一深度神经网络模型,将所述宫颈图像以及标注信息输入深度神经网络模型进行训练,生成一阶段训练结果;
步骤S30、基于所述病理确诊数据以及一阶段训练结果,采用小网络分别对所述宫颈图像进行编码后,二阶融合所述一阶段训练结果后输入深度神经网络模型进行训练,生成二阶段训练结果;
步骤S40、基于所述一阶段训练结果以及二阶段训练结果确定宫颈图像的主干网络参数,并利用所述主干网络参数输入深度神经网络模型依次对宫颈碘图、宫颈醋白图以及宫颈原图进行递进迁移训练,生成三阶段训练结果;
步骤S50、利用所述三阶段训练结果对宫颈图像进行诊断分类。
进一步地,所述步骤S20具体包括:
步骤S21、创建一DenseNet_FPN模型,分别将所述宫颈原图、宫颈碘图以及宫颈醋白图输入DenseNet_FPN模型进行特征编码,再利用特征金字塔得到所述宫颈图像的多尺度深度特征,融合所述多尺度深度特征生成金字塔融合特征:
F=f(p2,p3,p4,p5,p6);
其中F表示金字塔融合特征;f()表示多尺度深度特征的级联操作;p2、p3、p4、p5、p6表示特征编码中不同特征尺度的输出;
步骤S22、将所述金字塔融合特征输入RPN目标候选框,根据预设的锚点以及所述RPN目标候选框进行包括目标区域的分类损失和边界框回归损失的训练,回归得到病灶检测框;
Figure BDA0002526657790000031
Figure BDA0002526657790000032
Figure BDA0002526657790000033
其中
Figure BDA0002526657790000034
表示类别为二分类交叉熵损失的分类损失;ci表示锚点预测为目标的概率;
Figure BDA0002526657790000035
表示真实预测框的类别;
Figure BDA0002526657790000036
表示边界框回归损失;Bi表示目标的预测偏移量;
Figure BDA0002526657790000037
表示目标的实际偏移量;Lrpn表示每一个RPN目标候选框的组合损失;λ表示损失系数,为一个常数;
步骤S23、通过所述标注信息结合第一训练损失函数对病灶检测框进行回归和预测,得到病灶检测和分割结果,即一阶段训练结果;
Lp1=lbbox+lcla+lseg
Figure BDA0002526657790000038
其中Lp1表示第一训练损失函数;lbbox表示边界框回归损失;lcla表示类别为多类交叉熵损失的分类损失;lseg表示目标分割损失;n表示目标框的尺寸;1k表示当第k个通道对应目标的真实类别时为1,否则为0;y表示当前位置的mask的label值,取值为0或1;x表示当前位置的输出值;sigmoid(x)表示输出x经过sigmoid函数变换后的结果。
进一步地,所述步骤S30具体包括:
步骤S31、基于所述一阶段训练结果得到宫颈图像的病灶图像基本信息、病灶图像上下文信息以及纹理信息;
步骤S32、基于所述病灶图像基本信息、病灶图像上下文信息、纹理信息以及病理确诊数据分别训练小网络,得到特征向量;
步骤S33、对所述特征向量采用元素相加的形式进行多模态数据融合训练,得到各所述宫颈图像的二阶段训练结果;
所述多模态数据融合训练采用的第二训练损失函数为:Lp2=lcla
总的训练损失函数为:Ls=Lp1+Lp2
进一步地,所述步骤S40具体为:
确定宫颈图像的主干网络参数为所述金字塔融合特征以及多模态数据融合训练的权重参数,利用所述金字塔融合特征以及权重参数输入深度神经网络模型依次对宫颈碘图、宫颈醋白图以及宫颈原图进行特征级联加强,生成三阶段训练结果:
Ms+1=X*(Msp1+Msp2)+b;
其中Ms+1表示下一训练阶段的权重模型,即三阶段训练结果;X表示数据输入;Msp1表示DenseNet_FPN模型特征编码的权重参数;Msp2表示多模态数据融合训练的权重参数;b表示神经网络训练偏差。
本发明的优点在于:
通过结合宫颈原图、宫颈碘图、宫颈醋白图以及病理确诊数据,基于深度神经网络模型,进行特征提取、病灶检测、病灶分割、二阶多模态数据融合、递进迁移训练和特征级联加强,即充分考虑了宫颈原图、宫颈碘图以及宫颈醋白图之间的特征相关性,进而极大的提升了宫颈癌病变诊断的准确性,相对于传统上人工阅片的方式,极大的提升了宫颈癌病变诊断的效率。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1是本发明一种融合多模态先验病理深度特征的宫颈癌病变诊断方法的流程图。
图2是本发明一种融合多模态先验病理深度特征的宫颈癌病变诊断方法的网络框架流程图。
图3是本发明多模态数据融合训练示意图。
图4是本发明病灶检测和分割结果加上病理确诊数据作为多模态数据融合训练的输入的示意图。
具体实施方式
本申请实施例中的技术方案,总体思路如下:结合三种病理特征图像(宫颈原图、宫颈碘图以及宫颈醋白图),采用目标检测与分割的主体框架,再利用二阶融合病理确诊数据进行多模态数据融合训练;三种病理特征图像采用三个阶段训练,并在不同阶段训练中应用递进迁移训练和特征级联加强病理之间的相关性,最终实现宫颈原图(不经药物处理)中的准确诊断。
请参照图1至图4所示,本发明一种融合多模态先验病理深度特征的宫颈癌病变诊断方法的较佳实施例,包括如下步骤:
步骤S10、获取若干张宫颈图像、宫颈图像对应的病理确诊数据以及标注信息;所述宫颈图像包括宫颈原图、宫颈碘图以及宫颈醋白图;所述宫颈图像为RGB图像;
步骤S20、创建一深度神经网络模型,将所述宫颈图像以及标注信息输入深度神经网络模型进行训练,生成一阶段训练结果;
步骤S30、基于所述病理确诊数据以及一阶段训练结果,采用小网络分别对所述宫颈图像进行编码后,二阶融合所述一阶段训练结果后输入深度神经网络模型进行训练,生成二阶段训练结果;
步骤S40、基于所述一阶段训练结果以及二阶段训练结果确定宫颈图像的主干网络参数,并利用所述主干网络参数输入深度神经网络模型依次对宫颈碘图、宫颈醋白图以及宫颈原图进行递进迁移训练,生成三阶段训练结果;
步骤S50、利用所述三阶段训练结果对宫颈图像进行诊断分类。
对于深度神经网络模型的训练方式,首先对每个阶段进行单独训练,达到一定的优化目标,然后在宫颈碘图的训练结果基础上加载设定的迁移学习对应参数,提取第一阶段的金字塔融合特征,作为第二阶段的初始权重并由此训练宫颈醋白图的网络模型,以此类推,最终结合第一阶段和第二阶段的权重和特征图优化训练第三阶段的宫颈原图,最终实现宫颈原图上的宫颈病变诊断与分类。
所述步骤S20具体包括:
步骤S21、创建一DenseNet_FPN模型,分别将所述宫颈原图、宫颈碘图以及宫颈醋白图输入DenseNet_FPN模型进行特征编码,再利用特征金字塔得到所述宫颈图像的多尺度深度特征,融合所述多尺度深度特征生成金字塔融合特征(feature map):
F=f(p2,p3,p4,p5,p6);
其中F表示金字塔融合特征;f()表示多尺度深度特征的级联操作;p2、p3、p4、p5、p6表示特征编码中不同特征尺度的输出;
步骤S22、将所述金字塔融合特征输入RPN目标候选框,根据预设的锚点(anchor)以及所述RPN目标候选框进行包括目标区域的分类损失和边界框回归损失的训练,回归得到病灶检测框;
Figure BDA0002526657790000061
Figure BDA0002526657790000062
Figure BDA0002526657790000063
其中
Figure BDA0002526657790000064
表示类别为二分类交叉熵损失的分类损失;ci表示锚点预测为目标的概率;
Figure BDA0002526657790000065
表示真实预测框的类别,当标签为前景时,
Figure BDA0002526657790000066
当标签为背景时,
Figure BDA0002526657790000067
Figure BDA0002526657790000068
表示边界框回归损失;Bi表示目标的预测偏移量;
Figure BDA0002526657790000069
表示目标的实际偏移量;Lrpn表示每一个RPN目标候选框的组合损失;λ表示损失系数,为一个常数;
步骤S23、通过所述标注信息结合第一训练损失函数对病灶检测框进行回归和预测,得到病灶检测和分割结果,即一阶段训练结果;
Lp1=lbbox+lcla+lseg
Figure BDA0002526657790000071
其中Lp1表示第一训练损失函数;lbbox表示边界框回归损失;lcla表示类别为多类交叉熵损失的分类损失;lseg表示目标分割损失;n表示目标框的尺寸;1k表示当第k个通道对应目标的真实类别时为1,否则为0;y表示当前位置的mask的label值,取值为0或1;x表示当前位置的输出值;sigmoid(x)表示输出x经过sigmoid函数变换后的结果。
所述步骤S30具体包括:
步骤S31、基于所述一阶段训练结果得到宫颈图像的病灶图像基本信息、病灶图像上下文信息以及纹理信息;
步骤S32、基于所述病灶图像基本信息、病灶图像上下文信息、纹理信息以及病理确诊数据分别训练特定的小网络结构,得到特征向量;
步骤S33、对所述特征向量采用元素相加的形式进行多模态数据融合训练,得到各所述宫颈图像的二阶段训练结果;
所述多模态数据融合训练采用的第二训练损失函数为:Lp2=lcla
总的训练损失函数为:Ls=Lp1+Lp2
所述步骤S40具体为:
确定宫颈图像的主干网络参数为所述金字塔融合特征以及多模态数据融合训练的权重参数(CNN权重参数),利用所述金字塔融合特征以及权重参数输入深度神经网络模型依次对宫颈碘图、宫颈醋白图以及宫颈原图进行特征级联加强,生成三阶段训练结果:
Ms+1=X*(Msp1+Msp2)+b;表示将上阶段训练的权重(Msp1+Msp2)作为初始权重进行这个阶段的迁移学习,实现不同病理图像特征的信息传递和交互,实现下个阶段的训练优化;
其中Ms+1表示下一训练阶段的权重模型,即三阶段训练结果;X表示数据输入;Msp1表示DenseNet_FPN模型特征编码的权重参数;Msp2表示多模态数据融合训练的权重参数;b表示神经网络训练偏差。
图2主要包含3个阶段,分别为宫颈碘图、宫颈醋白图以及宫颈原图的处理阶段,在每个阶段处理中,首先以同样的网络框架对单类图像进行处理,处理的过程包括特征编码提取、高层特征解码以及多尺度特征融合;从stage1到stage3分别为宫颈碘图、宫颈醋白图以及宫颈原图,三种病理图像的人工诊断是由易到难,对于计算机而言同理,由于三种图像是同一个人的图像,存在密切的相关性。
图3是多模态数据融合训练(Rfusion module)示意图,在图2结果的基础上,对目标检测和分割结果进行后处理,得到宫颈图像的病灶图像基本信息、病灶图像上下文信息以及纹理信息,再结合病理确诊数据分别训练特定的CNN(卷积神经网络)结构,再融合最终提取的特征向量得到最终的分类结果。
综上所述,本发明的优点在于:
通过结合宫颈原图、宫颈碘图、宫颈醋白图以及病理确诊数据,基于深度神经网络模型,进行特征提取、病灶检测、病灶分割、二阶多模态数据融合、递进迁移训练和特征级联加强,即充分考虑了宫颈原图、宫颈碘图以及宫颈醋白图之间的特征相关性,进而极大的提升了宫颈癌病变诊断的准确性,相对于传统上人工阅片的方式,极大的提升了宫颈癌病变诊断的效率。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。

Claims (4)

1.一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,其特征在于:包括如下步骤:
步骤S10、获取若干张宫颈图像、宫颈图像对应的病理确诊数据以及标注信息;所述宫颈图像包括宫颈原图、宫颈碘图以及宫颈醋白图;
步骤S20、创建一深度神经网络模型,将所述宫颈图像以及标注信息输入深度神经网络模型进行训练,生成一阶段训练结果;
步骤S30、基于所述病理确诊数据以及一阶段训练结果,采用小网络分别对所述宫颈图像进行编码后,二阶融合所述一阶段训练结果后输入深度神经网络模型进行训练,生成二阶段训练结果;
步骤S40、基于所述一阶段训练结果以及二阶段训练结果确定宫颈图像的主干网络参数,并利用所述主干网络参数输入深度神经网络模型依次对宫颈碘图、宫颈醋白图以及宫颈原图进行递进迁移训练,生成三阶段训练结果;
步骤S50、利用所述三阶段训练结果对宫颈图像进行诊断分类。
2.如权利要求1所述的一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,其特征在于:所述步骤S20具体包括:
步骤S21、创建一DenseNet_FPN模型,分别将所述宫颈原图、宫颈碘图以及宫颈醋白图输入DenseNet_FPN模型进行特征编码,再利用特征金字塔得到所述宫颈图像的多尺度深度特征,融合所述多尺度深度特征生成金字塔融合特征:
F=f(p2,p3,p4,p5,p6);
其中F表示金字塔融合特征;f()表示多尺度深度特征的级联操作;p2、p3、p4、p5、p6表示特征编码中不同特征尺度的输出;
步骤S22、将所述金字塔融合特征输入RPN目标候选框,根据预设的锚点以及所述RPN目标候选框进行包括目标区域的分类损失和边界框回归损失的训练,回归得到病灶检测框;
Figure FDA0002526657780000011
Figure FDA0002526657780000021
Figure FDA0002526657780000022
其中
Figure FDA0002526657780000023
表示类别为二分类交叉熵损失的分类损失;ci表示锚点预测为目标的概率;
Figure FDA0002526657780000024
表示真实预测框的类别;
Figure FDA0002526657780000025
表示边界框回归损失;Bi表示目标的预测偏移量;
Figure FDA0002526657780000026
表示目标的实际偏移量;Lrpn表示每一个RPN目标候选框的组合损失;λ表示损失系数,为一个常数;
步骤S23、通过所述标注信息结合第一训练损失函数对病灶检测框进行回归和预测,得到病灶检测和分割结果,即一阶段训练结果;
Lp1=lbbox+lcla+lseg
Figure FDA0002526657780000027
其中Lp1表示第一训练损失函数;lbbox表示边界框回归损失;lcla表示类别为多类交叉熵损失的分类损失;lseg表示目标分割损失;n表示目标框的尺寸;1k表示当第k个通道对应目标的真实类别时为1,否则为0;y表示当前位置的mask的label值,取值为0或1;x表示当前位置的输出值;sigmoid(x)表示输出x经过sigmoid函数变换后的结果。
3.如权利要求2所述的一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,其特征在于:所述步骤S30具体包括:
步骤S31、基于所述一阶段训练结果得到宫颈图像的病灶图像基本信息、病灶图像上下文信息以及纹理信息;
步骤S32、基于所述病灶图像基本信息、病灶图像上下文信息、纹理信息以及病理确诊数据分别训练小网络,得到特征向量;
步骤S33、对所述特征向量采用元素相加的形式进行多模态数据融合训练,得到各所述宫颈图像的二阶段训练结果;
所述多模态数据融合训练采用的第二训练损失函数为:Lp2=lcla
总的训练损失函数为:Ls=Lp1+Lp2
4.如权利要求3所述的一种融合多模态先验病理深度特征的宫颈癌病变诊断方法,其特征在于:所述步骤S40具体为:
确定宫颈图像的主干网络参数为所述金字塔融合特征以及多模态数据融合训练的权重参数,利用所述金字塔融合特征以及权重参数输入深度神经网络模型依次对宫颈碘图、宫颈醋白图以及宫颈原图进行特征级联加强,生成三阶段训练结果:
Ms+1=X*(Msp1+Msp2)+b;
其中Ms+1表示下一训练阶段的权重模型,即三阶段训练结果;X表示数据输入;Msp1表示DenseNet_FPN模型特征编码的权重参数;Msp2表示多模态数据融合训练的权重参数;b表示神经网络训练偏差。
CN202010506330.3A 2020-06-05 2020-06-05 一种融合多模态先验病理深度特征的宫颈图像分类方法 Active CN111489324B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010506330.3A CN111489324B (zh) 2020-06-05 2020-06-05 一种融合多模态先验病理深度特征的宫颈图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010506330.3A CN111489324B (zh) 2020-06-05 2020-06-05 一种融合多模态先验病理深度特征的宫颈图像分类方法

Publications (2)

Publication Number Publication Date
CN111489324A true CN111489324A (zh) 2020-08-04
CN111489324B CN111489324B (zh) 2023-03-03

Family

ID=71811411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010506330.3A Active CN111489324B (zh) 2020-06-05 2020-06-05 一种融合多模态先验病理深度特征的宫颈图像分类方法

Country Status (1)

Country Link
CN (1) CN111489324B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967405A (zh) * 2020-08-19 2020-11-20 深圳职业技术学院 一种基于晶体图结构的手指三模态融合识别方法及装置
CN112215285A (zh) * 2020-10-13 2021-01-12 电子科技大学 一种基于跨媒体特征的眼底图像自动标注方法
CN112884707A (zh) * 2021-01-15 2021-06-01 复旦大学附属妇产科医院 基于阴道镜的宫颈癌前病变检测系统、设备及介质
CN113255718A (zh) * 2021-04-01 2021-08-13 透彻影像科技(南京)有限公司 一种基于深度学习级联网络方法的宫颈细胞辅助诊断方法
WO2021189959A1 (zh) * 2020-10-22 2021-09-30 平安科技(深圳)有限公司 大脑中线识别方法、装置、计算机设备及存储介质
CN114974589A (zh) * 2022-06-10 2022-08-30 燕山大学 一种宫颈癌预测方法
CN115938561A (zh) * 2021-09-23 2023-04-07 中山大学孙逸仙纪念医院 宫颈液基薄层细胞学的辅助筛查系统、应用方法及模型
CN116452559A (zh) * 2023-04-19 2023-07-18 深圳市睿法生物科技有限公司 基于ctDNA片段化模式的肿瘤病灶的定位方法及装置
CN117695534A (zh) * 2023-12-14 2024-03-15 陕西省人民医院(陕西省临床医学研究院) 一种宫颈癌放疗精准定位与剂量控制系统
CN117695534B (zh) * 2023-12-14 2024-05-28 陕西省人民医院(陕西省临床医学研究院) 一种宫颈癌放疗精准定位与剂量控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090046905A1 (en) * 2005-02-03 2009-02-19 Holger Lange Uterine cervical cancer computer-aided-diagnosis (CAD)
CN108257129A (zh) * 2018-01-30 2018-07-06 浙江大学 基于多模态检测网络的宫颈活检区域辅助识别方法及装置
CN108281183A (zh) * 2018-01-30 2018-07-13 重庆大学 基于卷积神经网络和迁移学习的宫颈涂片图像诊断系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090046905A1 (en) * 2005-02-03 2009-02-19 Holger Lange Uterine cervical cancer computer-aided-diagnosis (CAD)
CN108257129A (zh) * 2018-01-30 2018-07-06 浙江大学 基于多模态检测网络的宫颈活检区域辅助识别方法及装置
CN108281183A (zh) * 2018-01-30 2018-07-13 重庆大学 基于卷积神经网络和迁移学习的宫颈涂片图像诊断系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋丹等: "基于卷积神经网络和胶囊神经网络的宫颈病变图像分类方法研究", 《无线互联科技》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967405A (zh) * 2020-08-19 2020-11-20 深圳职业技术学院 一种基于晶体图结构的手指三模态融合识别方法及装置
CN111967405B (zh) * 2020-08-19 2023-06-27 深圳职业技术学院 一种基于晶体图结构的手指三模态融合识别方法及装置
CN112215285B (zh) * 2020-10-13 2022-10-25 电子科技大学 一种基于跨媒体特征的眼底图像自动标注方法
CN112215285A (zh) * 2020-10-13 2021-01-12 电子科技大学 一种基于跨媒体特征的眼底图像自动标注方法
WO2021189959A1 (zh) * 2020-10-22 2021-09-30 平安科技(深圳)有限公司 大脑中线识别方法、装置、计算机设备及存储介质
CN112884707A (zh) * 2021-01-15 2021-06-01 复旦大学附属妇产科医院 基于阴道镜的宫颈癌前病变检测系统、设备及介质
CN112884707B (zh) * 2021-01-15 2023-05-05 复旦大学附属妇产科医院 基于阴道镜的宫颈癌前病变检测系统、设备及介质
CN113255718A (zh) * 2021-04-01 2021-08-13 透彻影像科技(南京)有限公司 一种基于深度学习级联网络方法的宫颈细胞辅助诊断方法
CN113255718B (zh) * 2021-04-01 2022-07-01 透彻影像科技(南京)有限公司 一种基于深度学习级联网络方法的宫颈细胞辅助诊断方法
CN115938561A (zh) * 2021-09-23 2023-04-07 中山大学孙逸仙纪念医院 宫颈液基薄层细胞学的辅助筛查系统、应用方法及模型
CN114974589A (zh) * 2022-06-10 2022-08-30 燕山大学 一种宫颈癌预测方法
CN116452559A (zh) * 2023-04-19 2023-07-18 深圳市睿法生物科技有限公司 基于ctDNA片段化模式的肿瘤病灶的定位方法及装置
CN116452559B (zh) * 2023-04-19 2024-02-20 深圳市睿法生物科技有限公司 基于ctDNA片段化模式的肿瘤病灶的定位方法及装置
CN117695534A (zh) * 2023-12-14 2024-03-15 陕西省人民医院(陕西省临床医学研究院) 一种宫颈癌放疗精准定位与剂量控制系统
CN117695534B (zh) * 2023-12-14 2024-05-28 陕西省人民医院(陕西省临床医学研究院) 一种宫颈癌放疗精准定位与剂量控制系统

Also Published As

Publication number Publication date
CN111489324B (zh) 2023-03-03

Similar Documents

Publication Publication Date Title
CN111489324B (zh) 一种融合多模态先验病理深度特征的宫颈图像分类方法
CN108268870B (zh) 基于对抗学习的多尺度特征融合超声图像语义分割方法
Lahiri et al. Generative adversarial learning for reducing manual annotation in semantic segmentation on large scale miscroscopy images: Automated vessel segmentation in retinal fundus image as test case
CN110288597B (zh) 基于注意力机制的无线胶囊内窥镜视频显著性检测方法
CN110647874B (zh) 一种端到端的血细胞识别模型构造方法及应用
CN110414631B (zh) 基于医学图像的病灶检测方法、模型训练的方法及装置
CN112464579B (zh) 基于进化神经网络结构搜索食管癌病变区域识别建模方法
CN113314205B (zh) 一种高效的医学影像标注与学习系统
Zheng et al. Stain standardization capsule for application-driven histopathological image normalization
CN112102266A (zh) 基于注意力机制的脑梗死医学影像分类模型的训练方法
Zhang et al. Dual encoder fusion u-net (defu-net) for cross-manufacturer chest x-ray segmentation
Feng et al. SSN: A stair-shape network for real-time polyp segmentation in colonoscopy images
CN114399465A (zh) 良恶性溃疡识别方法及系统
Pan et al. RANT: A cascade reverse attention segmentation framework with hybrid transformer for laryngeal endoscope images
Zhang et al. Vestibule segmentation from CT images with integration of multiple deep feature fusion strategies
CN110827963A (zh) 针对病理图像的语义分割方法和电子设备
CN114417836A (zh) 一种基于深度学习的中文电子病历文本语义分割方法
CN113643297A (zh) 一种基于神经网络的计算机辅助牙龄分析方法
CN110728660B (zh) 基于缺血性脑卒中mri检测标记进行病灶分割的方法及装置
CN113129310A (zh) 一种基于注意力路由的医学图像分割系统
Abdel-Nabi et al. A novel ensemble strategy with enhanced cross attention encoder-decoder framework for tumor segmentation in whole slide images
CN116993699A (zh) 一种眼动辅助训练下的医学图像分割方法及系统
CN114972291B (zh) 基于混合增强智能的医学影像结构化自动标注方法与系统
CN116486156A (zh) 融合多尺度特征上下文的全视野数字切片图像分类方法
Shahzad et al. Semantic segmentation of anaemic RBCs using multilevel deep convolutional encoder-decoder network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant