CN110930367B - 多模态超声影像分类方法以及乳腺癌诊断装置 - Google Patents

多模态超声影像分类方法以及乳腺癌诊断装置 Download PDF

Info

Publication number
CN110930367B
CN110930367B CN201911052675.XA CN201911052675A CN110930367B CN 110930367 B CN110930367 B CN 110930367B CN 201911052675 A CN201911052675 A CN 201911052675A CN 110930367 B CN110930367 B CN 110930367B
Authority
CN
China
Prior art keywords
image
modal
feature
shared
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911052675.XA
Other languages
English (en)
Other versions
CN110930367A (zh
Inventor
徐奕
李佳俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201911052675.XA priority Critical patent/CN110930367B/zh
Publication of CN110930367A publication Critical patent/CN110930367A/zh
Application granted granted Critical
Publication of CN110930367B publication Critical patent/CN110930367B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种多模态超声影像分类方法以及乳腺癌诊断装置,包括:S1,从原始灰阶超声‑弹性成像图像对中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到纯粹弹性成像影像;S2,利用DenseNet网络提取灰阶超声影像、弹性成像影像的单模态图像特征;S3,构建对抗性损失函数和正交性约束函数,提取灰阶超声影像与弹性成像影像之间的共享特征;S4,构建多任务学习框架,将S3得到的模态间共享特征与S2得到的单模态特征拼接后,共同输入多个分类器,分别进行良恶性分类。本发明可以同时针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类,具有准确度高,应用范围广的优良性能。

Description

多模态超声影像分类方法以及乳腺癌诊断装置
技术领域
本发明涉及的是一种图像处理方法,具体地说,涉及的是一种多模态超声影像分类方法以及应用该方法的乳腺癌诊断装置。
背景技术
癌症,因其高发病率与致死率,被认为是威胁人类健康安全的头号“杀手”。比如,乳腺癌是目前世界范围内女性群体中发病率及死亡率最高的恶性肿瘤。在国内,乳腺癌也位列全国女性恶性肿瘤发病率首位,死亡率第五位,且发病率与死亡率均逐年上升。中国女性乳腺癌防治形势十分严峻。定期进行乳腺检查是乳腺癌“早发现、早治疗”的最有效方式。目前国内,乳腺超声检查因其有效性、便捷性成为乳腺疾病首选筛查手段。近年来,一种新型超声诊断技术——超声弹性成像,作为传统二维灰阶超声的补充,正逐渐应用到乳腺相关疾病的诊断中。弹性成像客观、定量地描述了病变区域组织的机械特性,为超声医生区分良性腺瘤与恶性肿瘤提供了相对可靠的依据。计算机辅助检测(Computer-AidedDetection,CAD)系统的开发可以用来帮助超声医生对可疑的乳腺病变进行良恶性分类,为临床诊断提供客观参考,使得乳腺筛查更具成本效益。乳腺癌诊断CAD系统可以辅助降低医生主观因素对诊断结果的影响,使得乳腺筛查计划更具临床效能。现有的CAD系统主要包含病变区域影像特征提取和良恶性分类两个阶段。
乳腺病变区域的特征提取算法将很大程度上影响最终良恶性分类准确率。2013年,Moon等人在《Computer Methods and Programs in Biomedicine》(生物医学中的计算机方法和程序)上发表的“Computer-aided diagnosis of breast masses usingquantified BI-RADS findings”论文中提出一种基于BI-RADS(美国放射学会乳腺影像报告和数据系统)中所列举特征的乳腺病变诊断算法。该算法总共选取了6大类,共38种影像学特征,来对输入的灰阶超声图像进行编码。通过人工标注的方式提取输入图像的38种特征的定性、定量结果,而后通过多项式回归模型将编码后的图像特征矩阵作良恶性分类。然而,基于BI-RADS的特征提取算法极度依赖人为预先选取的特征在诊断乳腺良恶性病变上的先验有效性,其是否客观有效仍有待考证。2015年,Uniyal等人在《IEEE Transactionson Medical Imaging》(IEEE医学影像会刊)中发表的“Ultrasound RF time series forclassification of breast lesions”一文中将灰阶超声射频特征与BI-RADS影像特征结合,从射频时间序列中提取频谱特征和分形维数对射频信号进行编码并通过SVM对射频信号特征进行分类,通过Random Forests对BI-RADS影像学特征进行分类,综合考虑两类分类器的输出结果对输入灰阶影像中的病变区域进行定性。但是,超声射频信号容易受患者呼吸的影响致使不同病例间因为呼吸频率不同而引入外界噪声,限制算法性能进一步提升。
CNN可以有效地自行学习出具有高分辨性的特征表达,简化特征提取过程,且通过优化整个神经网络即可同时优化特征提取及监督分类两个阶段,以更系统的方式调整模型性能,因此成为目前乳腺超声CAD领域最主流的算法。2017年,Han等人在《Physics inMedicine&Biology》(医学与生物学中的物理)“A deep learning framework forsupporting the classification of breast lesions in ultrasound images”中借助GoogLeNet网络模型,提取灰阶图像中乳腺病变关键特征信息,证明了基于深度学习模型的乳腺超声CAD系统的有效性。在弹性超声乳腺病变分类任务研究上,2016年,Zhang等人在《Ultrasonics》(超声学)“Deep learning based classification of breast tumorswith shear-wave elastography”中使用深度置信网络模型,基于点选门控玻尔兹曼机从弹性成像图像中提取与分类任务相关的特征,滤去无关特征,并最终通过SVM分类器实现乳腺病变良恶性分类。
综上所述,现有的乳腺癌诊断CAD系统,在特征提取方面尚停留在较为传统的深度学习网络结构,所提取特征在良恶性分辨性上存在一定不足。而且现有方法仅基于某一种超声模态,忽略了两种模态之间的互补信息,劣化分类准确率。
发明内容
针对现有技术中存在的上述不足,本发明提出一种基于多模态超声集成分类的乳腺癌诊断方法,该方法是一种适应于多模态超声的乳腺癌CAD系统,基于DenseNet(DenseConvolutional Network)网络和多任务学习框架实现。
本发明是通过以下技术方案实现的。
一种基于多模态超声集成分类的乳腺癌诊断方法,包括如下:
S1,从原始灰阶超声-弹性成像图像对中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到纯粹弹性成像影像;
S2,利用DenseNet网络提取灰阶超声影像、弹性成像影像的单模态图像特征;
S3,构建对抗性损失函数和正交性约束函数,在S2得到的单模态图像特征的基础上,提取灰阶超声影像与弹性成像影像之间的共享特征;
S4,构建多任务学习框架,将S3得到的模态间共享特征与S2得到的单模态特征分别拼接后,共同输入多个分类器,分别针对S1分割后的灰阶超声图像、纯粹弹性成像图像以及灰阶超声-弹性成像图像对进行良恶性分类。
优选地,所述S1中,包括:
S11,在原始超声图像中标注病变区域,导出包含病变区域位置信息的xml文件;
S12,根据S11中标注,从原始超声图像中分割出感兴趣区域ROI图像,感兴趣区域ROI即指病变区域;
S13,将S12分割后的弹性成像感兴趣区减去对应的灰阶超声感兴趣区,得到纯粹弹性成像影像。
上述对原始超声影像进行必要的数据预处理工作,滤除了原始影像中与病变区域无关的背景信息,得到适用于本系统的预输入图像数据。
优选地,所述S2中,包括:
S21,对正样本即恶性病例,采用数据增广的方式进行数据扩充,使得增广后的恶性病例数量与良性病例数量相等;
S22,针对灰阶超声图像、弹性成像图像两种超声模态图像,各自构建一个用于特征提取的DenseNet网络,两网络模型相同但参数独立,分别用于提取灰阶超声影像、弹性成像影像的单模态图像特征。
优选地,所述S22中,DenseNet网络由3个堆叠的稠密块(Dense Block)组成,其中:
每个稠密块中包括4个内部节点,内部节点间进行的卷积操作共包括64个1x1大小卷积核和16个3x3大小卷积核,在进行下一个节点的操作前,当前卷积模块的输入特征图和卷积变换后的特征图将级联成同一个特征向量,共同传递给下一个节点,实现特征复用;
每两个稠密块之间串接一个过渡块(Transition Block),过渡块包括一个1x1的卷积操作以及一个平均池化(AvgPool)降采样操作;上一个稠密块输出的特征图数量经由1x1卷积后被“压缩”到原先的一半,同时平均池化操作整合某一小邻域内的特征点得到新的特征,滤除无用参数;
最后一个稠密块输出特征图经过全局平均池化(Global average pooling)降维,得到对输入图像的特征向量编码。
优选地,所述S3中,通过构建对抗性损失函数和正交性约束函数学习跨模态间潜在共享子空间,其中:共享子空间学习框架的主体是一个共享参数的稠密块,该共享参数的稠密块内部网络结构与上述所介绍结构一致;对于DenseNet网络提取的不同模态的单模态图像特征,共享参数的稠密块在各自模态的单模态图像特征基础上进一步提取跨模态间共享特征。
优选地,所述S3中,构建对抗性损失函数用于约束共享参数的稠密块提取跨模态间的共享特征,其中:
训练过程中,构造一个二分类器d,其优化目标为区分输入的单模态图像特征来自哪一种超声模态;共享参数的稠密块视作特征提取器f,其优化目标为针对不同模态的图像特征输入提取尽可能类似的特征向量,从而迷惑二分类器,使之无法区分单模态图像特征来自何种超声模态;
对抗性损失函数表示为:
Figure BDA0002255707550000041
其中,
Figure BDA0002255707550000042
是二分类器d的输出,表示分类器对输入图像特征向量来自于何种模态图像的判断结果;y是输入特征向量来自于何种模态图像的真实标签;θd是分类器网络的参数,θf是稠密块的参数;Ladv通过极小极大优化迫使共享参数的稠密块只编码两种模态图像间的共享特征,从而构建跨模态间的潜在共享子空间;二分类器d与稠密块特征提取器f二者相互对抗,共同约束稠密块网络;构建梯度反转层,在梯度反传过程中对计算出的梯度进行反转放缩,即改变稠密块特征提取器f的参数更新方向与二分类器网络反向,以同时满足极小极大优化。
具体共享参数的稠密块网络参数梯度更新方式表示为:
Figure BDA0002255707550000043
Figure BDA0002255707550000051
其中:
μ表示共享参数的稠密块网络参数的学习率,也是整个神经网络参数的学习率;
-λ表示构建的梯度反转层在神经网络梯度回传的过程中,对由二分类器d网络计算出的梯度进行-λ倍反转放缩后再传递给特征提取器f。
优选地,所述S3中,构建正交性约束函数用于解耦通过所述共享参数的稠密块构建的模态间潜在共享子空间以及所述S22中通过两个参数独立的DenseNet网络构建的单模态特有特征空间,最大限度减少特征冗余现象,其中:
正交性约束函数定义为:
Figure BDA0002255707550000052
其中,
Figure BDA0002255707550000053
表示Frobenius范数的平方,S和H是两个特征向量,分别对应单模态特有特征空间和模态间潜在共享子空间,Frobenius范数是一种矩阵范数,定义为矩阵中每个元素平方和的开方,数学表达式为:
Figure BDA0002255707550000054
其中,X表示一个矩阵,Xi,j中i、j分别表示矩阵的行和列;实现过程中,S,H两个特征向量均为行向量。
优选地,所述S4中,构建多任务学习框架,使模型可以同时针对单模态图像(如灰阶或弹性)和多模态图像(灰阶+弹性)作出精准分类结果。
具体的,所述构建多任务学习框架,包括:
S41,将两种单模态特有特征向量分别与跨模态共享特征向量进行拼接,增强单模态图像分类任务中的图像特征表达,得到两种超声模态分别拼接后的增强特征向量A1,A2,将得到的增强特征向量A1,A2再次拼接,得到多模态图像分类任务中的增强特征向量;
S42,利用S41得到的多模态图像分类任务中的增强特征向量,进行多个分类器训练。
所述S42中,同时训练五个二分类器,包括三个主任务分类器以及两个辅助任务分类器;具体训练方式为:
将多模态图像分类任务中的增强特征向量分别输入三个主任务分类器,通过Softmax函数输出最终分类结果,即三个主任务分类器分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类;
将两种超声模态各自的跨模态共享特征向量分别输入两个辅助任务分类器,通过交叉熵损失对共享特征进行额外约束;
二分类器的优化目标是预测分类输出结果与真实类别标签之间的交叉熵损失,具体表示为:
Figure BDA0002255707550000061
其中,
Figure BDA0002255707550000062
是分类器的预测输出,y是输入图像的真实良恶性类别标签;
在训练过程中的优化目标基于下述联合损失函数实现:
Figure BDA0002255707550000063
其中,α,β,γ是模型训练前预先指定的超参数,对于交叉熵损失Lcls,m,当m=1,2,3时,α取1;当m=4,5时,α取0.5;对于对抗性损失Ladv和正交性约束Ldiff,取β=γ=0.05。
根据本发明的第二方面,提供一种乳腺癌诊断装置,包括:
图像处理单元,该单元从原始超声图像中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到弹性成像影像;
单模态特征提取单元,该单元利用DenseNet网络提取不同超声模态的单模态图像特征;
跨模态间共享特征单元,该单元构建对抗性损失函数和正交性约束函数,在得到的单模态图像特征的基础上,提取跨模态间共享特征;
分类单元,该单元构建多任务学习框架,将跨模态间共享特征单元得到的模态间共享特征与单模态特征提取单元得到的单模态特征拼接后,共同输入多个分类器,分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类。
本发明提出了潜在共享子空间学习技术框架,通过对抗性损失和正交性约束,迫使模型学习两种模态间的互补信息,并通过拼接特征向量的方式,利用互补信息增强单模态特征表达从而提升分类准确率。
本发明提供的多模态超声集成分类方法,综合了不同的功能模块,是一种系统诊断算法。整个框架包含了单模态特征提取、模态间共享子空间学习、多任务学习三个部分。针对各个模块的功能需求,在DenseNet骨架网络的基础上,设计两类损失函数约束学习跨模态间的潜在共享子空间,并且利用模态间的互补信息增强原有单模态的特征表达,从而实现高精度的乳腺癌诊断。
与现有技术相比,本发明具有如下有益效果:
本发明在单模态特征提取上采用DenseNet网络,Dense Block的引入增强了每个block内部的层级联系,可以在增加网络深度的同时,不增加训练难度,从而提高了所提取特征在良恶性分类任务中的分辨性。
本发明采用共享子空间学习技术挖掘两种超声模态之间的互补信息。与简单地拼接两种模态神经网络中某一层的输出结果这类多模态集成方法相比,对抗性损失以及正交性约束使得构建的共享子空间中的特征向量更为“纯粹”,即理论上,共享子空间中不会存在任何单模态特有特征,且实现了单模态特征空间与共享子空间之间的特征解耦,减少特征冗余。
本发明将单模态特有特征与跨模态共享特征进行拼接,利用两种超声模态的互补信息增强现有技术主要针对的单模态超声影像的特征表达,使得分类器可以基于更全面的信息作出良恶性诊断。
本发明构建多任务学习框架,同时训练多个针对不同任务的分类器并联合各自损失函数一同训练,增强了模型的灵活性,使算法模型更加适应临床超声筛查实际需求。其中,辅助任务分类器的存在约束共享子空间中的特征向量必须在良恶性分类任务中具有分辨性,使得共享子空间学习技术更加适用于乳腺癌良恶性诊断。
本发明在不同的功能模块中都引入了深度网络进行训练,使得每个部分均到达较为理性的性能,从而使得整个系统性能优异。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明一实施例中的方法的原理图;
图2是本发明一实施例中的数据预处理流程图;
图3是本发明一实施例中乳腺病变感兴趣区域标注及裁剪流程图;
图4是本发明一实施例中DenseNet单模态特征提取模块网络结构图;
图5是本发明一实施例中DenseNet特征提取网络结构具体细节图;
图6是本发明一实施例中引入对抗性损失约束的共享子空间学习模块网络结构图;
图7是本发明一实施例中引入正交性约束的共享子空间学习模块网络结构图;
图8是本发明一实施例中多任务学习框架示意图;
图9是本发明一实施例中基于多模态超声集成分类的乳腺癌诊断系统整体架构图;
图10是一实施例中基准模型和本发明方法在良恶性分类任务中的分类性能评估图;
图11是本发明一实施例中基准模型与本发明方法在良恶性分类任务中的ROC曲线评估图;
图12是本发明一实施例中多模态集成对于改善分类效能实际示例图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
参照图1所示,为本发明一实施例多模态超声影像分类方法的原理图,其中包括:S1,数据预处理,从原始超声图像中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到弹性成像影像;S2,单模态特征提取,利用DenseNet网络提取灰阶超声影像、弹性成像影像的单模态图像特征;S3,构建对抗性损失函数和正交性约束函数,迫使共享参数的Dense Block提取跨模态间的共享特征;S4,构建多任务学习框架,将模态间共享特征与单模态特征拼接后,共同输入多个二分类器,分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类。良性、恶性图像的标注结果由实际病理检测结果确定。
根据本发明上述的多模态超声影像分类方法可应用于各种超声图像。下面以针对乳腺癌病人的超声图像为例来对本发明实施例的实现进行详细说明。
参照图2所示,是本发明一实施例中的数据预处理流程图,包括:S11,在原始超声图像中标注病变区域,导出包含病变区域位置信息的文件;S12,根据S11中标注,从原始超声图像中分割出感兴趣区域图像,感兴趣区域即指病变区域;S13,将分割后的弹性成像感兴趣区减去对应的灰阶超声影像感兴趣区(使用图像差值函数),得到纯粹弹性成像影像。
在一具体实施例中,S11,病变区域标注使用labelImg软件,从原始超声图像中标注并导出包含医生给定包含病变区域位置信息的XML文件;S12,编写python脚本,根据S11中标注结果,从原始超声图像中分割出感兴趣区域图像并保存;S13,编写python脚本,使用cv2.subtract函数,将分割后的弹性成像感兴趣区减去对应的灰阶超声影像感兴趣区,得到纯粹的弹性成像影像。具体的,参照图3所示,是本发明一实施例中乳腺病变感兴趣区域标注及裁剪流程图。使用开源图像标注工具labelImg,标注并导出包含医生给定病变区域位置信息的XML文件。对于图像标注工具labelImg,输入一组原始“灰阶超声-弹性成像图像对”,上方的弹性超声图像与下方的灰阶超声图像间隔距离一定,且两者模态间完全对齐,因此只需针对其中一种模态图像中的病变区域进行标注,另一种模态图像中的病变区域标注结果可通过上下平移获得。标注导出的XML文件可以通过Python解析,利用Python脚本自动地在原始超声图像中分割出感兴趣区域图像并保存。弹性成像影像呈半透明覆盖在对应灰阶超声影像上的显示方式,直接使用原始图像存在信息干扰。因此,使用OpenCV库中subtract函数,将分割后的弹性成像感兴趣区减去对应的灰阶影像感兴趣区,得到纯粹的弹性成像影像。
参照图4所示,是本发明一实施例中DenseNet单模态特征提取模块网络结构图,该网络用于实现单模态图像特征提取。具体的,单模态图像特征包括:S21,对正样本即恶性病例,采用数据增广的方式进行数据扩充,使得增广后的恶性病例数量与良性病例数量相等;S22,针对灰阶超声图像、弹性成像图像两种超声模态图像,各自构建一个用于特征提取的DenseNet网络,两网络模型相同但参数独立。数据增广方式主要是对原始图像进行随机翻转与平移,使得增广后的恶性病例数量与良性病例数量相等。
参照图5所示,是本发明一实施例中DenseNet特征提取网络结构具体细节图。
在一优选实施例中,为了提高模型性能,探究不同超声模态影像中的潜在关联,训练过程中包括灰阶超声影像以及弹性成像影像两种超声模态。针对两种不同模态图像,S22中,首先各自构建一个27层的DenseNet特征提取网络,两网络模型相同但参数独立。
每个网络由3个堆叠的Dense Block组成,每个Dense Block中包括4个内部节点,节点与节点间存在一系列卷积操作与级联操作确保网络任意两层节点间都直接相连。在Dense Block内部前后两个节点间进行卷积操作时,“瓶颈层”(Bottleneck Layer)被添加在3x3大小的卷积操作之前,用1x1大小的卷积操作来减少输入的特征图数量,进行降维。实际模型中,Dense Block内部节点间进行的卷积操作共包括64个1x1大小卷积核和16个3x3大小卷积核,尽可能地通过最少的参数量提取有效的图像特征。在进行下一个节点的操作前,当前卷积模块的输入特征图和卷积变换后的特征图将级联成同一个特征向量,共同传递给下一个节点,实现特征复用。每两个Dense Block之间还额外串接一个过渡块(Transition Block),过渡块包括一个1x1的卷积操作以及一个平均池化(AvgPool)降采样操作。上一个Dense Block输出的特征图数量经由1x1卷积后被“压缩”到原先的一半,同时AvgPool操作整合某一小邻域内的特征点得到新的特征,滤除无用参数。第三个DenseBlock输出特征图经过全局平均池化降维后,得到对输入图像的特征向量编码。
参照图6所示,是本发明一实施例中引入对抗性损失约束的共享子空间学习模块网络结构图。参照图7所示,是本发明一实施例中引入正交性约束的共享子空间学习模块网络结构图。
具体的,针对不同模态的图像,采用潜在共享子空间学习技术探究其潜在关联。共享子空间学习框架的主体是一个共享参数的Dense Block,Dense Block内部网络结构与S2中图5所示的结构一致。对于S2中提取的不同模态单模态超声影像特征,共享参数的DenseBlock试图在各自特征基础上进一步提取跨模态间共享特征,共包括两大部分:
a.对抗性损失函数
构建对抗性损失函数的目的是约束共享参数的Dense Block提取跨模态间的共享特征。训练过程中,构造一个二分类器d,其优化目标为区分输入的图像特征向量来自哪一种超声模态,而共享参数的Dense Block视作特征提取器f,其优化目标为针对不同模态的输入提取尽可能类似的特征向量,从而迷惑二分类器,使之无法区分图像特征向量来自何种超声模态。二分类器d与稠密块特征提取器f二者相互对抗,共同约束稠密块网络;为实现在一次神经网络梯度反向传播过程中,能够同时优化二分类器d的参数(极小优化)以及特征提取器f的参数(极大优化),需要构建梯度反转层,在梯度反传过程中对计算出的梯度进行反转放缩,即改变稠密块特征提取器f的参数更新方向与二分类器网络反向,以同时满足极小极大优化。
对抗性损失函数可以表示为:
Figure BDA0002255707550000111
其中,
Figure BDA0002255707550000112
是二分类器d的输出,表示分类器对输入图像特征向量来自于何种模态图像的判断结果;y是输入特征向量来自于何种模态图像的真实标签;θd是分类器网络的参数,θf是Dense Block模块的参数。Ladv通过极小极大优化迫使共享参数的Dense Block只编码两种模态图像间的共享特征,从而构建跨模态间的潜在共享子空间。
具体网络参数梯度更新方式可表示为:
Figure BDA0002255707550000113
Figure BDA0002255707550000114
其中μ表示网络参数的学习率,-λ表示构建的“梯度反转层”在神经网络梯度回传的过程中,对梯度进行反转放缩的程度。本实施例中λ取1,即简单梯度反转。
b.正交性约束函数
构建正交性约束函数的目的是解耦模态间潜在共享子空间以及单模态特有特征空间,最大限度减少特征冗余现象。
理想情况下,即单模态特征与跨模态特征完全解耦情况下,单模态特有特征就是单模态图像特征除去跨模态共享特征后剩下的特征。非理想状态下,也即网络实际优化过程中,单模态特征与跨模态特征难以实现完全的解耦,单模态特有特征空间和跨模态特征空间存在着少量的重叠。
单模态特有特征空间的构建是通过S22中的两个DenseNet网络以及用于解耦的正交性约束共同实现的。
正交性约束函数定义为:
Figure BDA0002255707550000115
其中,
Figure BDA0002255707550000116
表示Frobenius范数的平方,S和H是两个特征向量,分别对应单模态特征空间和模态间共享子空间。Frobenius范数是一种矩阵范数,定义为矩阵中每个元素平方和的开方,数学表达式为:
Figure BDA0002255707550000121
其中,X表示一个矩阵。
参照图8所示,是本发明一实施例中多任务学习框架示意图,通过构建多任务学习框架增强模型灵活性,延展临床适用范围,可以同时针对单模态图像(如灰阶或弹性)和多模态图像(灰阶+弹性)作出精准分类结果。
将两种单模态特有特征向量分别与跨模态共享特征向量进行拼接,增强单模态图像分类任务中的图像特征表达,得到两种超声模态分别拼接后的增强特征向量A1,A2,将得到的增强特征向量A1,A2再次拼接,得到多模态图像分类任务中的增强特征向量。
在模型输出端,同时训练五个二分类器,包括三个主任务分类器以及两个辅助任务分类器。将增强后的特征向量分别输入三个主任务分类器,通过Softmax函数输出最终分类结果。即三个主任务分类器分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类。将提取的两种超声模态各自的跨模态共享特征向量分别输入两个辅助任务分类器,通过交叉熵损失对共享特征进行额外约束。
二分类器的优化目标是预测分类输出结果与真实类别标签之间的交叉熵损失,具体可表示为:
Figure BDA0002255707550000122
其中,
Figure BDA0002255707550000123
是分类器的预测输出,y是输入图像的真实良恶性类别标签。
整个模型在训练过程中的优化目标基于下述“联合”损失函数实现:
Figure BDA0002255707550000124
其中,α,β,γ是模型训练前预先指定的超参数。本实施例中,对于交叉熵损失Lcls,m,当m=1,2,3时,α取1;当m=4,5时,α取0.5。对于对抗性损失Ladv和正交性约束Ldiff,取β=γ=0.05。
参照图9所示,是本发明一实施例中基于多模态超声集成分类的方法的整体架构图,共分为三个部分:A部分为一实施例中所用网络模型结构示意图,包括单模态特征提取模块网络、共享子空间学习模块网络以及多任务学习框架网络;B部分为DenseNet网络结构示意图;C部分为网络模型训练过程中涉及的所有损失函数示意图。
本发明在另一实施例中,还提供一种基于上述的方法的乳腺癌诊断装置,包括:
图像处理单元,该单元从原始超声图像中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到弹性成像影像;
单模态特征提取单元,该单元利用DenseNet网络提取不同超声模态的单模态图像特征;
跨模态间共享特征单元,该单元构建对抗性损失函数和正交性约束函数,使共享参数的Dense Block提取跨模态间共享特征;
分类单元,该单元构建多任务学习框架,将跨模态间共享特征单元得到的模态间共享特征与单模态特征提取单元得到的单模态特征拼接后,共同输入多个分类器,分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类。
上述各个单元中采用的技术可以参照方法对应的部分,在此不再赘述。
参照图10所示,是本一实施例中基准模型和本发明方法在良恶性分类任务中的分类性能评估图,其中:DenseNet(US)和DenseNet(SWE)分别表示一实施例中基准模型(DenseNet网络)对灰阶超声影像(US)和弹性成像影像(SWE)在良恶性分类任务中的分类性能;Ours(US),Ours(SWE)和Ours(US-SWE)分别表示本发明方法对灰阶图像,弹性图像以及灰阶-超声图像对的良恶性分类性能;Senior(4A)和Senior(4B)分别表示资深超声科医生(超过5年的乳腺超声诊断经历)以BI-RADS 4A类为良恶性划分界限或者Bi-RADS 4B类为良恶性划分界限情况下的医生诊断性能。
参照图11所示,是一实施例中基准模型与本发明方法在良恶性分类任务中的ROC曲线评估图,其中:横轴表示假阳性率,纵轴表示召回率,各曲线含义如图例所示。
参照图12所示,是本发明一实施例中多模态集成对于改善分类效能实际示例图,其中:Ground Truth中第一行图为灰阶超声影像,第二行为对应的弹性成像影像,第三行为该病灶病理检测良恶性结果;Classification中分别给出一实施例中输入不同超声模态图像,本发明发明模型对应良恶性分类结果。
下面结合具体实例对本实施例进一步描述。
实施例中采用的数据集为自行整理的上海市第一人民医院数据集,共包含525个病例,其中良性395例,恶性130例;共2967组灰阶-弹性超声图像对,其中良性2008组,恶性959组。数据集提供了所有超声图像的良恶性病例检查结果以及医生给定的感兴趣区域。感兴趣区域的宽度和高度的均值分别为367和262个像素。
数据集划分为子集1~5,每个子集分别含有总数据的20%,且每个子集中良性图像和恶性图像的比例基本一致。模型训练过程中在子集1~4上采用4折交叉验证的方式选取合适的超参数。超参数确定后,子集1~3用于最终模型训练,子集4用于训练过程中的验证,而子集5用于最终模型的测试。
为消除数据不平衡对模型性能的影响,训练过程中对正样本,即恶性病例采用数据增广的方式进行数据扩充。数据增广方式主要是对原始图像进行随机翻转与平移,使得增广后的恶性病例数量与良性病例数量相等。
实施效果
针对超声单模态图像,最终的诊断系统的良恶性分类准确率为82.6%(针对灰阶超声)、87.3%(针对弹性成像)。相同条件下,单单基于DenseNet网络的诊断系统的良恶性分类准确率为80.8%(针对灰阶超声)、86.5%(针对弹性成像)。而针对超声多模态图像,结合灰阶超声与弹性成像两种超声模态信息,最终的诊断系统的良恶性分类准确率为89.8%。
本发明上述实施例,首先利用DenseNet提取两种输入超声模态各自的单模态图像特征。而后,构造对抗性损失和正交性约束,使共享参数的Dense Block学习跨模态间潜在共享子空间。最后,利用多任务学习框架延展灵活性,使整个模型可同时针对单模态图像与多模态图像作出精准分类结果。
需要说明的是,本发明提供的所述方法中的步骤,可以利用所述装置中对应的单元等予以实现,本领域技术人员可以参照所述装置的技术方案实现所述方法的步骤流程,即,所述装置中的实施例可理解为实现所述方法的优选例,在此不予赘述。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的装置以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的装置及其各个单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的装置可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (6)

1.一种多模态超声影像分类方法,其特征在于,包括:
S1,从原始灰阶超声-弹性成像图像对中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到纯粹弹性成像影像;
S2,利用DenseNet网络提取灰阶超声影像、弹性成像影像的单模态图像特征;
S3,构建对抗性损失函数和正交性约束函数,在S2得到的单模态图像特征的基础上,提取灰阶超声影像与弹性成像影像之间的共享特征;
S4,构建多任务学习框架,将S3得到的模态间共享特征与S2得到的单模态特征拼接后,共同输入多个分类器,分别针对S1分割后的灰阶超声图像、纯粹弹性成像图像以及灰阶超声-弹性成像图像对进行良恶性分类;
所述S3中,通过构建对抗性损失函数和正交性约束函数学习跨模态间潜在共享子空间,其中:
共享子空间学习框架的主体是一个共享参数的稠密块,该共享参数的稠密块中包括4个内部节点,内部节点间进行的卷积操作共包括64个1x1大小卷积核和16个3x3大小卷积核,在进行下一个节点的操作前,当前卷积模块的输入特征图和卷积变换后的特征图将级联成同一个特征向量,共同传递给下一个节点,实现特征复用;
对于DenseNet网络提取的不同模态的单模态图像特征,共享参数的稠密块在各自模态的单模态图像特征基础上进一步提取跨模态间共享特征;
所述S3中,构建对抗性损失函数用于约束共享参数的稠密块提取跨模态间的共享特征,其中:
训练过程中,构造一个二分类器d,其优化目标为区分输入的单模态图像特征来自哪一种超声模态;共享参数的稠密块视作特征提取器f,其优化目标为针对不同模态的图像特征输入提取尽可能类似的特征向量,从而迷惑二分类器,使之无法区分单模态图像特征来自何种超声模态;二分类器d与稠密块特征提取器f二者相互对抗,共同约束稠密块网络;构建梯度反转层,在梯度反传过程中对计算出的梯度进行反转放缩,即改变稠密块特征提取器f的参数更新方向与二分类器网络反向,以同时满足极小极大优化;
对抗性损失函数表示为:
Figure FDA0003923918030000021
其中,
Figure FDA0003923918030000022
是二分类器d的输出,表示分类器对输入图像特征向量来自于何种模态图像的判断结果;y是输入特征向量来自于何种模态图像的真实标签;θd是分类器网络的参数,θf是稠密块的参数;Ladv通过极小极大优化迫使共享参数的稠密块只编码两种模态图像间的共享特征,从而构建跨模态间的潜在共享子空间;
具体共享参数的稠密块网络参数梯度更新方式表示为:
Figure FDA0003923918030000023
Figure FDA0003923918030000024
其中:
μ表示共享参数的稠密块网络参数的学习率,也是整个神经网络参数的学习率;
-λ表示构建的梯度反转层在神经网络梯度回传的过程中,对由二分类器d网络计算出的梯度进行-λ倍反转放缩后再传递给特征提取器f;
所述S3中,构建正交性约束函数用于解耦通过所述共享参数的稠密块构建的模态间潜在共享子空间以及所述S22中通过两个参数独立的DenseNet网络构建的单模态特有特征空间,最大限度减少特征冗余现象,其中:
正交性约束函数定义为:
Figure FDA0003923918030000025
其中,
Figure FDA0003923918030000026
表示Frobenius范数的平方,S和H是两个特征向量,分别对应单模态特有特征空间和模态间潜在共享子空间,Frobenius范数是一种矩阵范数,定义为矩阵中每个元素平方和的开方,数学表达式为:
Figure FDA0003923918030000027
其中,X表示一个矩阵,Xi,j中i、j分别表示矩阵的行和列;实现过程中,S,H两个特征向量均为行向量;
所述S4中,构建多任务学习框架,包括:
S41,将两种单模态特有特征向量分别与跨模态共享特征向量进行拼接,增强单模态图像分类任务中的图像特征表达,得到两种超声模态分别拼接后的增强特征向量A1,A2,将得到的增强特征向量A1,A2再次拼接,得到多模态图像分类任务中的增强特征向量;
S42,利用S41得到的多模态图像分类任务中的增强特征向量,进行多个分类器训练。
2.根据权利要求1所述的多模态超声影像分类方法,其特征在于,所述S1中,包括:
S11,在原始超声图像中标注病变区域,导出包含病变区域位置信息的xml文件;
S12,根据S11中标注,从原始超声图像中分割出感兴趣区域ROI图像,感兴趣区域ROI即指病变区域;
S13,将S12分割后的弹性成像感兴趣区减去对应的灰阶超声感兴趣区,得到纯粹弹性成像影像。
3.根据权利要求1所述的多模态超声影像分类方法,其特征在于,所述S2中,包括:
S21,对正样本即恶性病例,采用数据增广的方式进行数据扩充,使得增广后的恶性病例数量与良性病例数量相等;
S22,针对灰阶超声图像、弹性成像图像两种超声模态图像,各自构建一个用于特征提取的DenseNet网络,两网络模型相同但参数独立,分别用于提取灰阶超声影像、弹性成像影像的单模态图像特征。
4.根据权利要求3所述的多模态超声影像分类方法,其特征在于,所述S22中,DenseNet网络由3个堆叠的稠密块(Dense Block)组成,其中:
每个稠密块中包括4个内部节点,内部节点间进行的卷积操作共包括64个1x1大小卷积核和16个3x3大小卷积核,在进行下一个节点的操作前,当前卷积模块的输入特征图和卷积变换后的特征图将级联成同一个特征向量,共同传递给下一个节点,实现特征复用;
每两个稠密块之间串接一个过渡块(Transition Block),过渡块包括一个1x1的卷积操作以及一个平均池化(AvgPool)降采样操作;上一个稠密块输出的特征图数量经由1x1卷积后被“压缩”到原先的一半,同时平均池化操作整合某一小邻域内的特征点得到新的特征,滤除无用参数;
最后一个稠密块输出特征图经过全局平均池化(Global average pooling)降维,得到对输入图像的特征向量编码。
5.根据权利要求1所述的多模态超声影像分类方法,其特征在于,S42中,同时训练五个二分类器,包括三个主任务分类器以及两个辅助任务分类器;
具体训练方式为:
将多模态图像分类任务中的增强特征向量分别输入三个主任务分类器,通过Softmax函数输出最终分类结果,即三个主任务分类器分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类;
将两种超声模态各自的跨模态共享特征向量分别输入两个辅助任务分类器,通过交叉熵损失对共享特征进行额外约束;
二分类器的优化目标是预测分类输出结果与真实类别标签之间的交叉熵损失,具体表示为:
Figure FDA0003923918030000041
其中,
Figure FDA0003923918030000042
是分类器的预测输出,y是输入图像的真实良恶性类别标签;
在训练过程中的优化目标基于下述联合损失函数实现:
Figure FDA0003923918030000043
其中,α,β,γ是模型训练前预先指定的超参数,对于交叉熵损失Lcls,m,当m=1,2,3时,α取1;当m=4,5时,α取0.5;对于对抗性损失Ladv和正交性约束Ldiff,取β=γ=0.05。
6.一种多模态超声影像分类装置,其特征在于,包括:
图像处理单元,该单元从原始超声图像中分割出感兴趣区域图像,根据分割出的感兴趣区域图像得到弹性成像影像;
单模态特征提取单元,该单元利用DenseNet网络提取不同超声模态的单模态图像特征;
跨模态间共享特征单元,该单元构建对抗性损失函数和正交性约束函数,在得到的单模态图像特征的基础上,提取跨模态间共享特征;
分类单元,该单元构建多任务学习框架,将跨模态间共享特征单元得到的模态间共享特征与单模态特征提取单元得到的单模态特征拼接后,共同输入多个分类器,分别针对灰阶超声图像、弹性成像图像以及两种模态图像一同进行良恶性分类;
所述跨模态间共享特征单元,通过构建对抗性损失函数和正交性约束函数学习跨模态间潜在共享子空间,其中:
共享子空间学习框架的主体是一个共享参数的稠密块,该共享参数的稠密块中包括4个内部节点,内部节点间进行的卷积操作共包括64个1x1大小卷积核和16个3x3大小卷积核,在进行下一个节点的操作前,当前卷积模块的输入特征图和卷积变换后的特征图将级联成同一个特征向量,共同传递给下一个节点,实现特征复用;
对于DenseNet网络提取的不同模态的单模态图像特征,共享参数的稠密块在各自模态的单模态图像特征基础上进一步提取跨模态间共享特征;
所述跨模态间共享特征单元中,构建对抗性损失函数用于约束共享参数的稠密块提取跨模态间的共享特征,其中:
训练过程中,构造一个二分类器d,其优化目标为区分输入的单模态图像特征来自哪一种超声模态;共享参数的稠密块视作特征提取器f,其优化目标为针对不同模态的图像特征输入提取尽可能类似的特征向量,从而迷惑二分类器,使之无法区分单模态图像特征来自何种超声模态;二分类器d与稠密块特征提取器f二者相互对抗,共同约束稠密块网络;构建梯度反转层,在梯度反传过程中对计算出的梯度进行反转放缩,即改变稠密块特征提取器f的参数更新方向与二分类器网络反向,以同时满足极小极大优化;
对抗性损失函数表示为:
Figure FDA0003923918030000051
其中,
Figure FDA0003923918030000052
是二分类器d的输出,表示分类器对输入图像特征向量来自于何种模态图像的判断结果;y是输入特征向量来自于何种模态图像的真实标签;θd是分类器网络的参数,θf是稠密块的参数;Ladv通过极小极大优化迫使共享参数的稠密块只编码两种模态图像间的共享特征,从而构建跨模态间的潜在共享子空间;
具体共享参数的稠密块网络参数梯度更新方式表示为:
Figure FDA0003923918030000053
Figure FDA0003923918030000061
其中:
μ表示共享参数的稠密块网络参数的学习率,也是整个神经网络参数的学习率;
-λ表示构建的梯度反转层在神经网络梯度回传的过程中,对由二分类器d网络计算出的梯度进行-λ倍反转放缩后再传递给特征提取器f;
所述跨模态间共享特征单元中,构建正交性约束函数用于解耦通过所述共享参数的稠密块构建的模态间潜在共享子空间以及所述S22中通过两个参数独立的DenseNet网络构建的单模态特有特征空间,最大限度减少特征冗余现象,其中:
正交性约束函数定义为:
Figure FDA0003923918030000062
其中,
Figure FDA0003923918030000063
表示Frobenius范数的平方,S和H是两个特征向量,分别对应单模态特有特征空间和模态间潜在共享子空间,Frobenius范数是一种矩阵范数,定义为矩阵中每个元素平方和的开方,数学表达式为:
Figure FDA0003923918030000064
其中,X表示一个矩阵,Xi,j中i、j分别表示矩阵的行和列;实现过程中,S,H两个特征向量均为行向量;
所述分类单元中,构建多任务学习框架,包括:
将两种单模态特有特征向量分别与跨模态共享特征向量进行拼接,增强单模态图像分类任务中的图像特征表达,得到两种超声模态分别拼接后的增强特征向量A1,A2,将得到的增强特征向量A1,A2再次拼接,得到多模态图像分类任务中的增强特征向量;
利用得到的多模态图像分类任务中的增强特征向量,进行多个分类器训练。
CN201911052675.XA 2019-10-31 2019-10-31 多模态超声影像分类方法以及乳腺癌诊断装置 Active CN110930367B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911052675.XA CN110930367B (zh) 2019-10-31 2019-10-31 多模态超声影像分类方法以及乳腺癌诊断装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911052675.XA CN110930367B (zh) 2019-10-31 2019-10-31 多模态超声影像分类方法以及乳腺癌诊断装置

Publications (2)

Publication Number Publication Date
CN110930367A CN110930367A (zh) 2020-03-27
CN110930367B true CN110930367B (zh) 2022-12-20

Family

ID=69850045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911052675.XA Active CN110930367B (zh) 2019-10-31 2019-10-31 多模态超声影像分类方法以及乳腺癌诊断装置

Country Status (1)

Country Link
CN (1) CN110930367B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111768367B (zh) * 2020-05-20 2024-03-29 深圳迈瑞生物医疗电子股份有限公司 数据处理方法、装置和存储介质
CN112085716B (zh) * 2020-09-04 2022-06-07 厦门大学 一种基于时阈聚焦图网络的nafld超声视频分类方法
CN112016523B (zh) * 2020-09-25 2023-08-29 北京百度网讯科技有限公司 跨模态人脸识别的方法、装置、设备和存储介质
CN112287970A (zh) * 2020-09-27 2021-01-29 山东师范大学 基于多视角多模态的乳腺能谱图像分类系统、设备及介质
CN112183547B (zh) * 2020-10-19 2024-09-17 中国科学院计算技术研究所 基于多模态数据的多任务学习方法及系统
CN112288733A (zh) * 2020-11-06 2021-01-29 深圳先进技术研究院 一种肌肉超声图像检测方法、系统、终端以及存储介质
CN112348082B (zh) * 2020-11-06 2021-11-09 上海依智医疗技术有限公司 深度学习模型构建方法、影像处理方法及可读存储介质
CN112465750A (zh) * 2020-11-13 2021-03-09 北京小白世纪网络科技有限公司 一种基于乳腺癌分子分型超声多模态自动识别方法和装置
CN112741651B (zh) * 2020-12-25 2022-11-25 上海交通大学烟台信息技术研究院 一种内窥镜超声影像的处理方法及系统
CN112949712B (zh) * 2021-03-01 2024-07-02 北京小白世纪网络科技有限公司 一种基于多模态的甲状腺结节自动识别模型构建方法
CN112802013B (zh) * 2021-03-12 2022-12-02 清华大学 基于图神经网络与多任务学习的脑疾病检测方法和装置
CN113989916A (zh) * 2021-10-09 2022-01-28 北京鹰瞳科技发展股份有限公司 基于元学习对图像进行分类的分类装置、方法及相关产品
CN113689927B (zh) * 2021-10-26 2022-01-18 湖北经济学院 一种基于深度学习模型的超声图像处理方法及装置
CN114219807B (zh) * 2022-02-22 2022-07-12 成都爱迦飞诗特科技有限公司 乳腺超声检查图像分级方法、装置、设备和存储介质
CN116433595B (zh) * 2023-03-06 2024-08-16 什维新智医疗科技(上海)有限公司 基于特征向量的结节最佳切面选择方法、系统及电子设备
CN116630680B (zh) * 2023-04-06 2024-02-06 南方医科大学南方医院 一种x线摄影联合超声的双模态影像分类方法及系统
CN116416235B (zh) * 2023-04-12 2023-12-05 北京建筑大学 一种基于多模态超声数据的特征区域预测方法和装置
CN117611806B (zh) * 2024-01-24 2024-04-12 北京航空航天大学 基于影像和临床特征的前列腺癌手术切缘阳性预测系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971129A (zh) * 2014-05-27 2014-08-06 浙江大学 一种基于学习跨数据域子空间的图像内容识别的分类方法及装置
CN105930877A (zh) * 2016-05-31 2016-09-07 上海海洋大学 一种基于多模态深度学习的遥感影像分类方法
CN108197629A (zh) * 2017-12-30 2018-06-22 北京工业大学 一种基于标签相关性约束张量分解的多模态医学影像特征提取方法
CN108268897A (zh) * 2018-01-19 2018-07-10 北京工业大学 一种乳腺肿瘤多模态超声多层次计算机辅助诊断方法
CN108764340A (zh) * 2018-05-29 2018-11-06 上海大学 一种b型超声和超声弹性双模态图像的定量分析方法
CN108961207A (zh) * 2018-05-02 2018-12-07 上海大学 基于多模态超声图像的淋巴结良恶性病变辅助诊断方法
CN109544517A (zh) * 2018-11-06 2019-03-29 中山大学附属第医院 基于深度学习的多模态超声组学分析方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8475377B2 (en) * 2009-09-28 2013-07-02 First Sense Medical, Llc Multi-modality breast cancer test system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971129A (zh) * 2014-05-27 2014-08-06 浙江大学 一种基于学习跨数据域子空间的图像内容识别的分类方法及装置
CN105930877A (zh) * 2016-05-31 2016-09-07 上海海洋大学 一种基于多模态深度学习的遥感影像分类方法
CN108197629A (zh) * 2017-12-30 2018-06-22 北京工业大学 一种基于标签相关性约束张量分解的多模态医学影像特征提取方法
CN108268897A (zh) * 2018-01-19 2018-07-10 北京工业大学 一种乳腺肿瘤多模态超声多层次计算机辅助诊断方法
CN108961207A (zh) * 2018-05-02 2018-12-07 上海大学 基于多模态超声图像的淋巴结良恶性病变辅助诊断方法
CN108764340A (zh) * 2018-05-29 2018-11-06 上海大学 一种b型超声和超声弹性双模态图像的定量分析方法
CN109544517A (zh) * 2018-11-06 2019-03-29 中山大学附属第医院 基于深度学习的多模态超声组学分析方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Application of ultrasonic dual-mode artificially intelligent architecture in assisting radiologists with different diagnostic levels on breast masses classification;Chunxiao Li 等;《Diagn Interv Radiol》;20210419;第27卷(第3期);第315-322页 *
Breast lesion classification from bi modal ultrasound images by convolutional neural Network;Shamim Hussain 等;《http://lib.buet.ac.bd:8080/xmlui/handle/123456789/5296》;20190126;第1-91页 *
Dual-mode artificially-intelligent diagnosis of breast tumours in shear-wave elastography and B-mode ultrasound using deep polynomial networks;Zhang Qi 等;《Medical Engineering&Physics》;20181219;第64卷;第1-6页 *
Multi-view multi-label Learning with view-specific Information extraction;Xuan Wu 等;《Proceedings of the 28th International Joint Conference on Artificial Intelligence》;20190831;第3884-3890页 *
基于不同超声成像的甲状腺结节良恶性判别;武宽 等;《计算机应用》;20191015;第40卷(第1期);第77-82页 *

Also Published As

Publication number Publication date
CN110930367A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
CN110930367B (zh) 多模态超声影像分类方法以及乳腺癌诊断装置
Haque et al. Deep learning approaches to biomedical image segmentation
JP7143008B2 (ja) 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム
Pang et al. Semi-supervised GAN-based radiomics model for data augmentation in breast ultrasound mass classification
Cui et al. RNN-based longitudinal analysis for diagnosis of Alzheimer’s disease
Al-Masni et al. Skin lesion segmentation in dermoscopy images via deep full resolution convolutional networks
Karthik et al. A deep supervised approach for ischemic lesion segmentation from multimodal MRI using Fully Convolutional Network
Jiang et al. Medical image analysis with artificial neural networks
Kshatri et al. Convolutional neural network in medical image analysis: a review
Ganesan et al. Fuzzy-C-means clustering based segmentation and CNN-classification for accurate segmentation of lung nodules
Webb et al. Comparing deep learning-based automatic segmentation of breast masses to expert interobserver variability in ultrasound imaging
Hasan et al. A modified convolutional neural networks model for medical image segmentation
Mittapalli et al. Multiscale CNN with compound fusions for false positive reduction in lung nodule detection
KR20200082660A (ko) 머신러닝 기반 병리 진단 방법 및 장치
Rodríguez et al. Computer aided detection and diagnosis in medical imaging: a review of clinical and educational applications
Nayan et al. A deep learning approach for brain tumor detection using magnetic resonance imaging
Zhuang et al. Tumor classification in automated breast ultrasound (ABUS) based on a modified extracting feature network
Zhang et al. A comparative study of attention mechanism based deep learning methods for bladder tumor segmentation
Peña-Solórzano et al. Findings from machine learning in clinical medical imaging applications–Lessons for translation to the forensic setting
Jerbi et al. Automatic classification of ultrasound thyroids images using vision transformers and generative adversarial networks
Sille et al. A Systematic Approach for Deep Learning Based Brain Tumor Segmentation.
Jaworek-Korjakowska et al. Deep neural networks and advanced computer vision algorithms in the early diagnosis of skin diseases
Almutairi et al. An Efficient USE‐Net Deep Learning Model for Cancer Detection
Hasan et al. Lung Segmentation from Chest X-Ray Images Using Deeplabv3plus-Based CNN Model
Merati et al. A New Triplet Convolutional Neural Network for Classification of Lesions on Mammograms.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant