CN116525075A - 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统 - Google Patents

基于少样本学习的甲状腺结节计算机辅助诊断方法及系统 Download PDF

Info

Publication number
CN116525075A
CN116525075A CN202310471108.8A CN202310471108A CN116525075A CN 116525075 A CN116525075 A CN 116525075A CN 202310471108 A CN202310471108 A CN 202310471108A CN 116525075 A CN116525075 A CN 116525075A
Authority
CN
China
Prior art keywords
sample
training
thyroid
few
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310471108.8A
Other languages
English (en)
Inventor
陶鹏
冯林
张珊珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Normal University
Original Assignee
Sichuan Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Normal University filed Critical Sichuan Normal University
Priority to CN202310471108.8A priority Critical patent/CN116525075A/zh
Publication of CN116525075A publication Critical patent/CN116525075A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Pathology (AREA)

Abstract

本发明涉及基于少样本学习的甲状腺结节计算机辅助诊断方法及系统,甲状腺结节超声影像计算机辅助诊断方法通过少样本甲状腺分类模型对待诊断样本进行分类;所述少样本甲状腺分类模型的训练方法包括以下步骤:S1:以基础训练集作为源域,以甲状腺样本训练集作为目标域,分别在源域和目标域构建元训练网络与目标网络;S2:在源域对元训练网络进行元训练得到元训练网络的网络参数;S3:将元训练网络的网络参数迁移到目标网络;S4:在目标域中对目标网络进行微调得到少样本甲状腺结节分类模型。基于少样本学习的甲状腺结节计算机辅助诊断系统,用于实现上述基于少样本学习的甲状腺结节计算机辅助诊断方法,包括诊断服务器,所述诊断服务器通过少样本甲状腺分类模型对待诊断样本进行分类得到诊断结果。

Description

基于少样本学习的甲状腺结节计算机辅助诊断方法及系统
技术领域
本发明涉及图像处理和人工智能辅助诊断疾病领域,特别是基于少样本学习的甲状腺结节计算机辅助诊断方法及系统。
背景技术
专利CN112529894A公开了一种基于深度学习网络的甲状腺结节的诊断方法,属于图像处理和人工智能辅助诊断疾病领域,包括如下步骤:搜集甲状腺患者甲状腺结节的超声原始图像和病理报告,构建甲状腺结节数据库;超声图像预处理;基于Xception JFT的Deeplab v3+方法对步骤二中预处理后的超声图像进行语义分割,形成语义分割结果图;基于深度学习网络进行甲状腺结节的良恶性判别;形成甲状腺结节超声影像计算机辅助诊断信息报告。本发明采用基于Xeption JFT的Deeplab v3+算法建立甲状腺超声图像分割网络模型,通过不断改进主干网络Xception达到最优的分割效果,能够在高准确率和高鲁棒性下,自动快速识别结节信息,自动提取图像特征进行准确分割以获得更好的诊断结果,为临床诊断提供客观参考。
专利CN1 10490892A一种基于USFaster R CNN的甲状腺超声图像结节自动定位识别方法,属于人工智能和深度学习领域。该方法包括甲状腺超声图像的预处理,深度神经网络模型的搭建,网络模型训练和优化,其中深度神经网络模型包括底层卷积特征提取网络,候选框生成网络,特征图池化层、分类与候选框回归网络。利用深度学习方法,实现甲状腺超声图像特征自动提取,候选框自动生成,筛选,位置修正。实现甲状腺结节的自动定位识别功能。本发明可以有效辅助医生进行甲状腺超声图像诊断,提高诊断的客观性和准确率,有效降低医生的工作量以及小目标结节的漏检率。
深度学习因其泛化性能好,效率高和学习能力强等特点,已经广泛应用于计算机辅助诊断中,近年来深度学习在甲状腺超声图像分类领域的研究也是不断增加。Ma等人提出了一种级联的深层卷积神经网络对甲状腺超声图像进行分类,Guan等人使用了深度卷积神经网络对甲状腺超声图像进行分类。然而,在医疗图像领域,因为病例的特殊性和隐私性,采集样本的工作难度大,现如今还没有建立起大规模的甲状腺超声图像数据集。深度学习作为一种基于数据驱动的方法,因其深度卷积神经网络结构的复杂性,没有充足的训练样本来训练深度卷积神经网络,会使得深度卷积神经网络不能很好的学习到甲状腺超声图像的特征,导致特征鲁棒性较差,模型的泛化能力降低。
现有基于深度学习的方法需要大量的有标注样本训练深度学习模型,同时,对大量的样本进行标注需要花费大量的人力、物力、财力。
因涉及到患者数据隐私问题,甲状腺结节超声影像数据集公开仅300多例。300多例训练准确率高的深度学习模型,是不可能的。
如何使用少量标注样本,训练准确率高的甲状腺结节超声影像辅助诊断的模型,是目前AI+医学图像研究领域的热点。
发明内容
本发明的目的在于克服现有技术的不足,提供基于少样本学习的甲状腺结节计算机辅助诊断方法及系统。
本发明的目的是通过以下技术方案来实现的:
基于少样本学习的甲状腺结节计算机辅助诊断方法,所述甲状腺结节计算机辅助诊断方法通过少样本甲状腺分类模型对待诊断样本进行分类;
所述少样本甲状腺分类模型的训练方法包括以下步骤:
S1:以基础训练集作为源域,以甲状腺样本训练集作为目标域,分别在源域和目标域构建元训练网络与目标网络;
S2:在源域对元训练网络进行元训练得到元训练网络的网络参数;
S3:将元训练网络的网络参数迁移到目标网络;
S4:在目标域中对目标网络进行微调得到少样本甲状腺分类模型。
进一步,所述基础训练集为自然图像数据集,所述甲状腺样本训练集为甲状腺超声图像数据集;
所述步骤S2的元训练基于余弦分类器通过N-way K-shot的范式构造任务提取任务特征并基于元余弦损失进行调整;
所述步骤S4以少样本学习N-way K-shot的范式利用元余弦损失对目标网络进行微调;
所述步骤S4中针对甲状腺超声图像数据集采用2-way K-shot。
进一步,所述自然图像数据集为miniImageNet。
进一步,所述元训练网络为残差神经网络;所述残差神经网络的参数更新公式为:
式中,表示残差神经网络的参数,任务T为由基础训练集构造的所有训练任务集,xi为任务Tj的第i个查询集样本,LMCL(·)为所述元余弦损失。
进一步,所述步骤S4中对目标网络进行微调的过程中的参数更新过程为:
式中,θ为目标网络的参数,V为使用甲状腺超声图像数据集中的训练集构造的所有训练任务集,Q为任务Vi中的查询集样本,LMCL(·)为所述元余弦损失。
进一步,所述步骤S2的元训练中,对于所述任务,经过全局数据增强和局部数据增强并利用注意力机制融合得到所述任务特征。
进一步,所述局部数据增强的局部数据特征数量为4。
进一步,所述余弦分类器针对源域的每个样本进行类原型调整,所述类原型调整为对每个样本的真实类原型以外的其余类原型进行调整,调整过程计算公式为:
式中,σ为权重系数,cosθ为每个样本与真实类原型的余弦相似性,wc表示每个样本的真实类原型向量,wk为待调整类原型,wk为调整后的类原型,p为样本与wk在特征空间中的夹角。
进一步,所述类原型调整后的元余弦损失为:
式中,w′k表示wk调整后的类原型,wc表示其真实类原型,表示特征提取网络的参数,/>表示查询集样本xj在嵌入空间中的特征向量表示。
基于少样本学习的甲状腺结节计算机辅助诊断系统,用于实现上述基于少样本学习的甲状腺结节计算机辅助诊断方法,包括诊断服务器,所述诊断服务器通过少样本甲状腺分类模型对待诊断样本进行分类得到诊断结果。
本发明的有益效果是:
对于甲状腺结节少量标注样本,通过基于少样本学习的甲状腺结节计算机辅助诊断方法及系统,可以训练准确率高的少样本甲状腺分类模型,从而推动甲状腺结节超声影像计算机辅助诊断从人工走向智能。
附图说明
图1为少样本甲状腺分类模型的训练流程图;
图2为元余弦损失模型的结构图;
图3为类原型示意图;
图4为类原型调整过程图;
图5为全局数据增强示意图;
图6为局部数据增强示意图;
图7为T-SNE可视化散点图;
图8为局部数据增强数量对准确率的影响实验结果图;
图9为原始的甲状腺恶性结节和良性阶级的超声图像图。
图10为甲状腺超声图像的预处理效果图;
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
实施例一:
如图1至图10所示,基于少样本学习的甲状腺结节计算机辅助诊断方法,所述甲状腺结节超声影像计算机辅助诊断方法通过少样本甲状腺分类模型对待诊断样本进行分类;
所述少样本甲状腺分类模型的训练方法包括以下步骤:
S1:以基础训练集作为源域,以甲状腺样本训练集作为目标域,分别在源域和目标域构建元训练网络与目标网络;
S2:在源域对元训练网络进行元训练得到元训练网络的网络参数;
S3:将元训练网络的网络参数迁移到目标网络;
S4:在目标域中对目标网络进行微调得到少样本甲状腺分类模型。
所述少样本甲状腺分类模型为元余弦损失模型,即MCL模型。
所述基础训练集为自然图像数据集,所述甲状腺样本训练集为甲状腺超声图像数据集。
元训练网络与目标网络为两个由相同残差块构成的网络。
所述少样本甲状腺分类模型的训练方法使用自然图像数据集作为源域,甲状腺超声图像数据集作为目标域,分别在源域和目标域构建两个由相同残差块构成的网络,将在源域进行元学习得到的元训练网络的网络参数迁移到目标网络中,然后在目标域中构造任务微调得到MCL模型。
所述自然图像数据集为miniImageNet。
在自然图像数据集上的元训练:
所述步骤S2的元训练基于余弦分类器通过N-way K-shot的范式构造任务提取任务特征并基于元余弦损失进行调整。
在经典的少样本自然数据集miniImageNet通过N-way K-shot的范式构造任务,利用元余弦损失(MCL)对元训练网络的模型进行元训练。
元训练的目标是学习可迁移的嵌入模型,从而将该模型直接从自然图像数据集泛化到甲状腺图像数据集的分类任务中。在自然图像数据集上预先训练的模型可以为下游的甲状腺超声图像分类提取到较好的特征表示。
所述步骤S2的元训练利用所述miniImageNet中的基础训练数据集Dbase构造训练任务并通过训练任务训练元训练网络。
所述元训练网络为残差神经网络,具体为ResNet12;所述残差神经网络的参数更新公式为:
式中,表示残差神经网络的参数,任务T为由基础训练集构造的所有训练任务集,xi为任务Tj的第i个查询集样本,LMCL(·)为所述元余弦损失。
残差神经网络ResNet12为一个层数较多、性能较好的网络。
基于度量学习的少样本学习方法因其简单性,以及在解决少样本学习问题上表现出的卓越性能,得到广泛应用。度量学习方法利用度量函数在嵌入空间中计算查询集图像与支持集图像间距离进行分类,这一过程绕过了网络学习分类器时在少样本设置下的优化难题,因此基于度量学习的方法的关键往往依赖于学习到一个更丰富、更具判别性、泛化能力更好的嵌入空间。
为进一步提升基于度量学习的少样本学习方法的分类识别能力,分别从提取的特征和特征在嵌入空间中的特征分布出发进行研究。首先从数据自身特征出发将全局与局部的数据增广方法结合起来,进一步提升特征所包含信息的丰富性和可判别性。然后从样本特征在嵌入空间中的分布出发,提出一种元余弦损失(Meta-Cosine Loss,MCL)模型的泛化性能。
元余弦损失模型的实现:
基于度量学习的少样本学习方法,核心思想是引导元学习模型去学习一个嵌入函数,通过嵌入函数将图像转换到一个可判别的嵌入空间中,在该空间中可利用简单的判别函数快速准确的分辨不同的类。理想的嵌入空间是类内距小,类与类之间的间距清晰可分,这样将更助于测试样本的识别。为了扩大类间距,得到更优的嵌入空间,元余弦损失模型,旨在余弦分类器的元训练过程中利用样本与类原型之间的相似性,结合查询集真实的标签信息,利用余弦相似性的差异将样本与其他类原型间的距离拉远,提升模型的分类效果。
余弦分类器用于少样本学习中,首先通过嵌入函数将支持集样本转换为嵌入空间中的M维特征表示,然后求取同一类所有支持集样本的特征表示均值作为每一类的类原型Ck,计算过程表示为:
其中,Sk表示支持集第k类的所有样本。
对于每个按照N-way K-shot范式构造的训练任务T,可计算N个类原型,表示为C={c1,c2,…,cN}。余弦分类器中,利用求得的N个类原型进行归一化处理后,作为分类器的参数,即:
W=[w1,...,wN]=[c1/||c1||,...,cN/||cN||] (1.2)
将所有的类原型经过降维后,可视化为一个三维的嵌入空间,如图3所示表示一个4-way的分类任务。对于查询集的样本xj,将其特征表示为在嵌入空间中通过向量间的夹角进行分类。计算查询样本属于其中一类的概率表示为:
其中:
其中,令表示两个向量的夹角,如图3其值表示α。
元余弦损失
余弦分类器采用元学习的方式训练,通过余弦分类产生的损失,使嵌入空间中的同类特征聚类,不同类特征相互远离。元训练的目标是在进行元测试时,希望模型处理每个新任务,能够在嵌入空间中将同类样本聚集在一起,同时不同类的特征簇之间是具有可分性。
然而,余弦分类器进行元训练时只聚集了同类样本,没有将不同类样本进行充分拉远操作。因此,元训练的模型在测试具有相似类别的新任务时所具有的泛化能力减弱,分类识别率降低。基于余弦分类器提出的元余弦损失(Meta-Cosine Loss,MCL),可以更好的完成上述优化目标。
在元训练过程中利用余弦分类器计算每个样本与求得类原型的余弦相似性,利用样本的真实标签可查询该样本与其真实类原型间的余弦相似性,计算该样本与其他类原型的余弦相似性的差异值,利用该值作为调整权重,根据平行四边形原则调整其余类原型。
模型通过该调整过程学会在每个新任务中将不同类聚集的簇尽可能的远离,给模型更多缓冲,面对新的测试任务时能够尽可能拉远不同类簇,提升模型的泛化能力。
如图4所示,一个4-way分类任务的调整过程如下,其中xj为查询集中的一个样本,其在嵌入空间中的向量表示为wc表示该样本的真实类原型向量,wa,wb,wd则表示其他类原型向量。令/>与wc的夹角为θ,则样本与真实类原型的余弦相似性为cosθ,令/>与wa的夹角为α,则样本与a类的类原型的余弦相似性为cosα。为扩大类间距,将查询集样本与其他类原型的夹角增大,即扩大夹角α。调整过程利用平行四边形法则进行向量的加减法,调整方向如图4中箭头所示,经过归一化后得到调整后的类原型w′a
所述余弦分类器针对源域的每个样本对每个样本的真实类原型以外的其余类原型进行调整,调整过程计算公式为:
式中,σ为权重系数,cosθ为每个样本与真实类原型的余弦相似性,wc表示每个样本的真实类原型向量,wk为待调整类原型,wk∈{wa,wb,wd},w′k为调整后的类原型,ρ为样本与wk在特征空间(即嵌入空间)中的夹角。
调整类原型后,再次计算查询样本属于其中一类的概率表示为:
对于任务中的一个样本xj∈T,利用交叉熵损失,计算少样本分类损失,即所述类原型调整后的元余弦损失为:
式中,w′k表示wk调整后的类原型,wc表示其真实类原型,表示特征提取网络的参数,/>表示查询集的样本xj在嵌入空间中的特征向量表示。
所述元训练中,对于所述任务,经过全局数据增强和局部数据增强并利用注意力机制融合得到所述任务特征。
全局与局部数据增强:
传统的深度学习在训练图像分类模型时,通常提取输入图像的单个特征向量进行分类。最近的几项少样本学习的工作表明,整张图像在训练模型时,其模型提取的特征向量包含较多的背景信息。而少样本学习的设定,数据的标注样本较少,基于度量学习的少样本方法通常采用支持集中的标注样本均值作为类原型。这将导致较多的无用信息包含在类原型中,类内距变大,导致类偏差的产生,进而分类准确率降低。
自监督学习的快速发展,表明数据增强有利于模型提取到更优的特征表示。研究表明,图片的局部特征能够提供跨类别的区别性和可迁移性的信息,而这些信息对于少样本学习中的图像分类是有益的。因此,为了得到每个样本更能代表其类别的特征以及其类原型,缩小类内距,充分利用图像的数据增强,结合图像的全局和局部数据增强,利用局部信息引导模型更多关注图片的前景信息,缓解背景信息所带来的偏差。图像的全局数据增强,即在原始图像上进行图像处理的变换,将全局数据增强后的特征记为全局特征;图像的局部数据增强,即从原始图像上进行随机的多次裁剪,裁剪后的特征视为局部特征。
全局数据增强:
数据增强在自监督学习中使用广泛,因此进一步在少样本学习中引入自监督学习方法,通过实验表明,基于预测旋转角度的自监督方法相较于基于对比学习的方法更适用于少样本图形分类中。因此,所述全局数据增强使用预测旋转角度的自监督方法进行,即在进行全局数据增强时,针对原始图像进行M次旋转,通常设置为4次,将这M个旋转图像作为该样本的全局特征,变换过程如图5所示。
经数据增强后,在训练分类过程中,可计算一个基于预测旋转角度的自监督损失。对于每个任务T,可计算任务中的自监督损失如下:
式中,其中表示特征提取网络的参数,wδ表示旋转预测分类全连接层,δ为全连接层的参数,R={0,1,2,3}表示四种旋转变换,r∈R表示进行其中的一种变换。
局部数据增强:
已有的研究表面局部特征能够提供跨类别的区别性和可迁移性的信息,而这些信息对于少样本学习中的图像分类具有重要意义。因此,为得到图像的局部信息,在每张图像上进行局部随机裁剪,将裁剪得到的一部分视为局部特征,经过H个局部数据变换得到H个局部特征。其数据增强方式如图6所示。
自注意力机制:
对于每个N-way K-shot方式抽取的任务,经过提取全局和局部数据增强后,可以得到多个相同结构的任务集。为有效利用这样的多个任务集,利用自注意力机制计算全局与局部特征间的关系,利用局部信息引导网络提取更多样本中的具有代表性的信息。
给定一个任务T,可以得到该任务的扩展任务集Ta,计算特征集为Temb,其中其中lk=N*K,lq=N*q分别表示支持集和查询集样本数。任务集中的每个任务都是根据任务T进行对应的图像变换得到的新任务,为挖掘不同数据增强样本间的信息,需要对特征集进行组合,令组合后的特征为其中d为特征的维度。对于组合后的特征,采用基于自注意力机制的结构来计算集成后的特征。
首先,根据特征集F得到(F,F,F)作为输入的三元组(Q,K,V)。令Fi表示特征集F中一个样本的特征集,注意力模块的定义为:
Fi (Q),Fi (K),Fi (V)=(FiWQ,FiWK,FiWV) (1.9)
其中,dk=d表示特征维度,WQ,WK和WV表示三个全连接层的参数。
每个样本的特征集经过自注意力机制后,求特征集的均值得到每个样本的特征,计算如下:
F(att)=mean(F*) (1.11)
其中,表示该任务经过全局和局部数据增强利用注意力机制融合得到的任务特征。
损失计算:
在少样本元训练过程中,训练损失包括构建全局数据增强所带来的自监督损失以及少样本任务训练的监督损失。
所述训练损失Ltotal的计算公式为:
式中,为特征提取网络的参数,δ为全连接层的参数,ζ为自注意力机制中全连接层的网络参数,τ为加权因子;
MCL描述:
元训练后经元测试通过方可进行步骤S3。
元训练过程将使用样本与不同原型之间的相似性调整其他类原型,元测试过程则直接使用余弦相似性进行调整,元训练与元测试的流程如下。
(1)元训练算法
(2)元测试算法
实验及结果分析
为了验证上述元训练的有效性,实验分为两个部分:(1)对比实验;(2)消融实验。
实验设置
A)数据集
选用miniImageNet,tieredImagenet,Cifar100,FC100以及CUB等多个数据集对少样本学习算法进行检测,并按照传统的少样本数据集拆分方式进行训练和测试。
B)实验环境
在Ubantu20.10系统,GeForce RTX 3090(24GB)GPU,Pytorch(1.7.1)深度学习框架上进行实验.
C)参数设置
深度学习模型的实验结果很大程度上取决于网络结构模型的设计以及参数初始化。因此,为了与主流方法进行比较,在常用的ResNet12网络结构上进行实验对比。同时,在进行元训练之前,利用每个数据集的基类数据对网络结构进行简单的预训练,作为特征提取器的初始化。在训练和测试时,按照标准的元学习策略即:N-way K-shot进行数据集划分,目前主流采用5-way 1-shot以及5-way 5-shot的形式.全局数据增强数量M=4,局部数据增强数量H=4,设置权重系数σ=3。从训练基类数据中抽取8000个任务,每100个任务作为一个Epoch,采用SGD优化器,初始学习率0.0002,在第50个循环时学习率减半。
测试时从测试新类数据集中采样2000个任务,测试时不需进行微调,取全部测试任务的平均Top-1准确率作为最终准确率。
实验1:对比实验
在多个标准数据集上进行的少样本实验结果如表1.1,表1.2和表1.3所示。其中,表1.2记录了在miniImageNet和TieredImageNet标准数据集上的少样本图像分类结果;表1.1记录了在Cifar100,FC100标准数据集上的少样本分类结果;表1.3记录了在CUB标准数据集上的少样本分类结果。
表1.1 Cifar100,FC10实验数据表
表1.2 miniImageNet和tieredImageNet实验数据表
表1.3 CUB实验数据表
在miniImageNet数据集上,MCL方法已经目前最新的最先进的BML,IER-distill和Sum-min等方法达到了相当的实验结果。对比同样基于自监督的余弦分类器的少样本分类方法CC+rot,在1-shot和5-shot上分类准确率都有大幅度的提升。在TieredImageNet数据集实验中,与已有少样本分类方法Sum-min方法通过度量支持集特征集合和查询集特征集合的距离进行分类,其分类能力略优于MCL方法。在CUB数据集中,较已存在的最优方法Sum-min在1-shot和5-shot上分别提升了1.82%和0.95%。分析认为TieredImageNet数据集相较于miniImageNet和CUB数据集包含有更多的标注训练图像,训练的网络层提取特征表达能力强,使得全局与局部数据增强所带来的增益变小,而这更有利于Sum-min方法进行集合距离分类。
在FC100数据集中,MCL方法较已存在的最优方法IER-distill在1-shot和5-shot上分别提升了2.76%和2.19%;在Cifar100数据集中,MCL方法实验结果虽未达到当前的最优,略低于IER-distill方法,但其分类能力也已经达到先进水平。
从上述实验结果可以看出,MCL方法在常见的经典少样本图像数据集上的分类能力与当前最新的最优的少样本方法相当。进一步对比在所有数据集上实验结果的方差,可以发现MCL方法在测试新任务时方差都较小,这表明MCL方法的鲁棒性强。通过全局与局部数据增强获得更丰富更具判别性的特征表达;通过提出的元余弦损失在余弦分类器的基础上调整类原型,对比基于余弦分类器的CC+rot方法得到了更有利于余弦分类器进行泛化的嵌入空间。使基于余弦分类器的度量少样本学习方法的分类能力能够与当前最优的少样本学习方法相当,证明了元余弦损失结合全局与局部数据增强的有效性。
实验2:消融实验
表1.4 MCL有效性实验数据表
(1)探究提出的元余弦损失(MCL)的有效性
为了充分探究MCL所提升的模型表达能力,实验去除所有数据增强方式,即去除其余全局与局部特征对模型提升所带来的影响,只使用图像本身的特征进行对比实验。分别在原型网络,余弦分类器以及MCL上进行实验,分别在miniImagenet,CUB以及Cifar100数据集上进行实验,结果如表1.4所示。
从表中结果可以看出,在三个数据集中,MCL方法较余弦分类器具有较大提升,在1-shot上提升了3%-4%,在5-shot上提升了1%-2%。实验结果证明了MCL的有效性,表明MCL方法提出的有效性。为进一步表现MCL对少样本分类效果的提升,分别对余弦分类器和提出的元余弦损失所训练的模型,在miniImageNet数据集的一个测试任务的特征进行T-SNE降维,然后绘制降维后的散点图,实验结果如图7所示。
根据图7的可视化图可以看出,在嵌入空间中,引入MCL元训练的模型与利用余弦分类器训练的模型相比,在测试新任务时同一类样本聚集更明显,同时不同类簇之间的类间距也更加明显,这也进一步证明了MCL对少样本图像分类能力是积极的。对比表1.3中使用全局与局部数据增强后的识别能力,发现在CUB数据集上不引入额外的数据增强信息,仅仅使用图像数据自身的信息,模型的识别能力相当。分析认为,CUB数据集用于细粒度分类,其中所有类别都属于鸟类,局部数据增强产生的很多局部细节如羽毛,爪等信息区分性较小,导致可区分性降低。
(2)探究局部数据增强的数量对模型分类识别率的影响
为探究局部数据增强对少样本图像分类准确率的影响,尽可能的降低全局数据增强所带来的影响,从而反映局部数据增强所带来的分类效果提升。本实验选择每个图片的原始数据,且仅使用一张样本作为全局数据增强,然后从1-10分次递增1个局部数据增强进行消融实验,通过在FC100数据集上进行实验,探究并选择最优的局部数据增强的数量。实验结果通过不同局部数据增强的数量选择,进行元训练,测试2000个任务的均值,绘制折线图如图8所示。
根据图中的识别率变换曲线,在1-shot的状态下识别率与局部数据增强间的数量关系并不呈现线性变换,在选用4个局部数据增强时达到最好。在5-shot的实验设置下则呈现线性的关系,越多的局部数据增强其识别能力越好。然而,局部数据增强的数量越多所需要的运算资源越多,时间成本越高。因此,通过分析两种实验设置下的实验准确率,充分考虑计算成本以及得到最优的模型识别能力,最终设置的局部数据特征数量为4,其中表1.1-表1.3所测试的结果都基于此。
所述局部数据增强的局部数据特征数量为4。
(3)自注意力机制对特征融合的作用
全局与局部结合的数据增强方式,使得每个样本的特征由8个数据增强特征组成。因此,需要将这8个特征组合为一个更具代表性的特征,常使用的方法为特征拼接和求均值等。考虑到每个特征维度为640,8个特征进行拼接所产生的特征维度太大,因此本实验只考虑求均值的情况,比较使用自注意力机制前后所带来的实验效果提升。在MiniImageNet和CUB数据集上进行实验,如表1.5所示。
表1.5自注意力机制的作用
从实验结果表1.5可以看出,引入自注意力机制后,模型的识别能力较直接求均值的方式在所有设置中有1%左右的提升。分析认为,自注意力机制会引导模型将局部特征中学习的有效信息转移到全局特征中,即在全局特征中更多关注图像的前景信息,更利于少样本图像的分类。
甲状腺超声图像分类是医学图像领域的一个重要研究领方向。由于甲状腺超声图像涉及个人隐私等问题,进行大规模的收集和标注是费时和费力的,而深度学习网络使用少量的标签进行训练会导致严重的过拟合,影响模型的预测能力。通过步骤S2得到的基于元余弦损失的少样本图像分类模型在余弦分类器的基础上,通过扩大类间距提升模型的泛化能力,提升了模型在少样本状态下的分类识别能力,并通过一系列的消融实验证明了其在少样本图像分类中的有效性。
步骤S3、S4将这种少样本学习的思想应用到甲状腺超声图像中,探索少样本学习方法在医学图像中的应用。模型先在自然图像数据集上利用元学习的方式进行训练,优化模型参数,将优化后的模型参数直接迁到于甲状腺超声图像分类模型中去,利用训练集微调模型,然后用于甲状腺结节的良恶性检测。
所述步骤S3中,将在miniImageNet上训练得到的元训练网络的网络参数(即模型参数)迁移到目标网络(即甲状腺超声图像分类的主干网络fθ)上,使模型具备在甲状腺数据集上的特征提取能力。
甲状腺超声图像数据集上的少样本学习:
所述步骤S4以少样本学习的范式利用元余弦损失对目标网络进行微调,使少样本甲状腺分类模型更适用于甲状腺样本数据集,提高模型的分类准确率。
对于元训练好的元训练网络的网络参数要迁移到甲状腺超声图像数据集中,以少样本学习范式来提取具有判别性的特征空间特征和个体知识。为了能够在该数据集中使用MCL进行元训练的微调,遵循典型的少样本分类设置,甲状腺样本训练集(即甲状腺超声图像数据集)包含两个类,少样本训练集和少样本测试集,两个数据集的样本不相交。
在少样本训练集中采用常见的少样本学习范式N-way K-shot构造训练任务,针对甲状腺超声图像数据集来说为构造2-way K-shot的任务。
对于甲状腺超声图像数据集中的两个类别,每个类别抽取K个带标签的训练样本,再从剩下的图像中抽取q个样本作为测试的查询样本。即对于每个任务Ti,带标签的支持集S和无标签的查询集Q,如下所示:
/>
式中,xi为甲状腺超声图像数据的特征向量,yi为数据对应的类别属性,总共2个类别数量,K为支持集中每个类别的带标签图像数量,q为查询集中每个类别的无标签图像数量。
模型在甲状腺超声图像数据集的少样本训练集中抽取多个任务,每个任务中的网络模型的参数直接由miniImageNet数据集上元训练的模型迁移而来,通过抽取的任务对网络模型进行微调,最后通过测试集抽取任务进行测试。
所述步骤S4以少样本学习的范式利用元余弦损失对目标网络进行微调
所述步骤S4中对目标网络进行微调的过程中的参数更新过程为:
式中,θ为目标网络的参数,V为使用甲状腺超声图像数据集中的训练集构造的所有训练任务集,Q为任务Vi中的查询集样本,LMCL(·)为所述元余弦损失。
总体上看,首先将MCL模型在miniImageNet数据集上构造任务进行元训练,然后在甲状腺超声图像的训练集中构造辅助任务对训练后的MCL模型进行微调,进一步增强模型在新类数据集上的细节表现力。从而实现在少量样本的情况下对甲状腺超声图像进行有效分类。
甲状腺结节超声影像计算机辅助诊断方法效果:
为了确保实验的真实性和客观性,实验所采集的甲状腺超声图像均为专业的超声科医生的临床诊断中采集而来,总共抽取了370位甲状腺结节患者的3644幅甲状腺超声图像数据,其中包含1641张良性病例图像,2003张恶性病例图像。为了确保这3644幅甲状腺超声图像数据标签的正确无误,这370位患者都接受了临床手术或穿刺活检得出的定性结果。原始的甲状腺恶性结节和良性阶级的超声图像如图9所示,左侧影像含有恶性结节,右侧影像含有良性结节,可以从图像上观察看出恶性结节的超声图像呈边界不清晰,内部结构为实性低回声,纹理不规则呈固态分布,而良性结节的超声图像有明显规则的边界,内部有结构为囊性低回声,呈液态分布。实验数据集的具体统计如表2.1所示。
对采集的甲状腺图像进行数据划分,将3644幅甲状腺超声图像中的20%用作划分为测试集,共744幅图像;剩下的80%作为训练集,共2900幅图像。在训练集中包含有1300幅良性甲状腺结节超声图像,1600幅恶性甲状腺结节超声图像;在测试集中包含341幅良性甲状腺结节超声图像,403幅恶性甲状腺结节超声图像。实验数据集的统计结果如表2.1所示。
表2.1数据集统计
甲状腺结节超声图像预处理
从图9中可以看出,数据集中包含的图像除了中央的那一部分图像外,四周存在大量黑色背景,左右两侧还存在一些图像采集使用的文字,图标以及仪器参数等无效信息。为了防止这些无效信息对深度学习的训练过程额外干扰,对图像进行预处理操作,将良恶性结节的病灶区域作为需要提取的感兴趣区域(ROI)进行分离。
如图10所示,对甲状腺超声图像数据集中的图像进行预处理,具体地。对图像进行裁剪,将图像的四个边缘都裁剪掉一定的宽度h,裁剪后的图像即为该图像的ROI。然后将裁剪操作后得到的图像经过尺寸调整作为网络的输入。最终输出的图像大小同意设置为84*84的三通道图像,
实验设置
A)实验内容
1)为了更好的比较少样本学习在处理少量标注样本时的优势,先使用甲状腺超声图像数据集中的训练集对Resnet12网络进行2分类的训练,然后在测试集上验证模型对甲状腺超声图像的分类识别能力。
2)加载以mini-ImageNet为源数据训练的MCT少样本分类模型为初始化参数,使用甲状腺数据集中的训练集构造2-way K-shot的训练任务,进行元训练,待模型收敛后,使用测试集构造测试任务,验证少样本模型在甲状腺超声图像上的分类识别能力。
B)实验环境
在Ubantu20.10系统,GeForce RTX 3090(24GB)GPU,Pytorch(1.7.1)深度学习框架上进行实验.
C)参数设置
深度学习模型的实验结果很大程度上取决于网络结构模型的设计以及参数初始化。在进行元训练微调之前,先加载在自然数据集miniImageNet上元训练的模型参数,作为网络模型的初始化。针对甲状腺超声图像数据集,在训练和测试时,从甲状腺数据中的训练集采用2-way K-shot进行数据集划分,分别采用2-way 1-shot,2-way 5-shot,2-way 10-shot以及2-way 20-shot的形式对网络模型进行元训练微调。在元训练微调过程中抽取24000个任务,每200个任务作为一个Epoch,采用SGD优化器,初始学习率0.0004,在第50个循环时学习率减半。
测试时从测试数据集中采样600个任务,测试时不需进行微调,取全部测试任务的平均Top-1准确率作为最终准确率。
评估标准
在实际的图像诊断过程中,医生往往更关注甲状腺超声图像的良恶性分类。为了合理的验证本文实验的有效性和广泛性,设置了多个合理的指标对模型进行分析。为保证实验的客观性和专业性,选用准确性、敏感性和特异性三个指标作为甲状腺结节超声图像实验的评价指标。在甲状腺结节良恶性分类结果中,将正确分类恶性结节图像数量称为真阳性(true positive,TP),将正确分类良性结节图像数量称为真阴性(true negative,TN),将错误分类恶性结节图像数量称为假阴性(false negative,FN),将错误分类良性结节图像数量称为假阳性(false positive,FP)。
分类准确率可以直接反映模型对于甲状腺结节恶良性的分类能力,其定义为正确分类结节图像的数量与所有情况之比。分类准确率越高,则模型的整体性能越好。计算公式为:
敏感度是直接反映模型对于甲状腺恶性结节的分类能力,其定义为在判定为甲状腺恶性结节图像中正确分类恶性结节图像的比例。敏感度越高,则模型对于恶性结节的分类能力越好。计算公式为:
特异度是直接反映模型对于甲状腺良性结节的分类能力,其定义为在判定为甲状腺良性结节图像中正确分类良性结节图像的比例。特异度越高,则模型对于良性结节的分类能力越好。计算公式为:
实验:效果评估实验
实验结果如表2.2所示,利用训练集以监督学习方法进行训练,在测试集中测试的分类结果作为基准,分别验证了标签数量不同的元训练任务进行微调,对测试数据集的准确度,灵敏度,特异度的影响。通过实验结果可以发现,本实施例实验的灵敏度都较高,表面了模型对恶性结节的分类能力较强。对监督学习方式可以发现,在1-shot设置下进行的元训练模型不及监督训练,随着标签数量的增加元训练的分类结果要优于监督训练,准确度不会随着标签数据的增加而增加,可以看到20-shot的准确度是不及10-shot的。同时发现,在5-shot上的特异度最好,表明对良性结节的分类能力更优,在20-shot上的灵敏度最好,对恶性结节的分类能力更优。
所述步骤S4中针对甲状腺超声图像数据集采用5-shot、10-shot、20-shot。
表2.2不同训练方式对甲状腺超声图像的诊断结果
基于度量学习的少样本学习方法因其简单性,以及在解决少样本学习问题上表现出的卓越性能,得到广泛应用。度量学习方法利用度量函数在嵌入空间中计算查询集图像与支持集图像间距离进行分类,这一过程绕过了网络学习分类器时在少样本设置下的优化难题,因此基于度量学习的方法的关键往往依赖于学习到一个更丰富、更具判别性、泛化能力更好的嵌入空间。为进一步提升基于度量学习的少样本学习方法的分类识别能力,分别从提取的特征和特征在嵌入空间中的特征分布出发进行研究。提出一种基于元余弦损失的少样本图像分类方法,首先从数据自身特征出发将全局与局部的数据增广方法结合起来,进一步提升特征所包含信息的丰富性和可判别性。然后从样本特征在嵌入空间中的分布出发,提出一种元余弦损失(Meta-Cosine Loss,MCL)提升模型的泛化性能。
深度学习因其泛化性能好,效率高和学习能力强等特点,已经广泛应用于计算机辅助诊断中,近年来深度学习在甲状腺超声图像分类领域的研究也是不断增加。然而,在医疗图像领域,因为病例的特殊性和隐私性,采集样本的工作难度大,现如今还没有建立起大规模的甲状腺超声图像数据集。深度学习作为一种基于数据驱动的方法,因其深度卷积神经网络结构的复杂性,没有充足的训练样本来训练深度卷积神经网络,会使得深度卷积神经网络不能很好的学习到甲状腺超声图像的特征,导致特征鲁棒性较差,模型的泛化能力降低。
基于少样本学习的甲状腺结节计算机辅助诊断方法及系统首先将MCL模型在miniImageNet数据集上构造任务进行元训练,然后在甲状腺超声图像的训练集中构造辅助任务对训练后的MCL模型进行微调,进一步增强模型在甲状腺超声图像的分类能力,在少量样本的情况下对甲状腺超声图像进行有效分类。
基于少样本学习的甲状腺结节计算机辅助诊断系统,用于实现上述基于少样本学习的甲状腺结节计算机辅助诊断方法,包括诊断服务器,所述诊断服务器通过少样本甲状腺分类模型对待诊断样本进行分类得到诊断结果。
对于甲状腺结节少量标注样本,通过基于少样本学习的甲状腺结节计算机辅助诊断方法及系统,可以训练准确率高的少样本甲状腺分类模型,从而推动甲状腺结节超声影像计算机辅助诊断从人工走向智能。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:所述甲状腺结节计算机辅助诊断方法通过少样本甲状腺分类模型对待诊断样本进行分类;
所述少样本甲状腺分类模型的训练方法包括以下步骤:
S1:以基础训练集作为源域,以甲状腺样本训练集作为目标域,分别在源域和目标域构建元训练网络与目标网络;
S2:在源域对元训练网络进行元训练得到元训练网络的网络参数;
S3:将元训练网络的网络参数迁移到目标网络;
S4:在目标域中对目标网络进行微调得到少样本甲状腺分类模型。
2.根据权利要求1所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述基础训练集为自然图像数据集,所述甲状腺样本训练集为甲状腺超声图像数据集;
所述步骤S2的元训练基于余弦分类器通过N-way K-shot的范式构造任务提取任务特征并基于元余弦损失进行调整;
所述步骤S4以少样本学习N-way K-shot的范式利用元余弦损失对目标网络进行微调;
所述步骤S4中针对甲状腺超声图像数据集采用2-way K-shot。
3.根据权利要求2所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述自然图像数据集为miniImageNet。
4.根据权利要求2所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述元训练网络为残差神经网络;所述残差神经网络的参数更新公式为:
式中,表示残差神经网络的参数,任务T为由基础训练集构造的所有训练任务集,xi为任务Tj的第i个查询集样本,LMCL(·)为所述元余弦损失。
5.根据权利要求2所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述步骤S4中对目标网络进行微调的过程中的参数更新过程为:
式中,θ为目标网络的参数,任务V为使用甲状腺超声图像数据集中的训练集构造的所有训练任务集,Q为任务Vi中的查询集样本,LMCL(·)为所述元余弦损失。
6.根据权利要求2所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述步骤S2的元训练中,对于所述任务,经过全局数据增强和局部数据增强并利用注意力机制融合得到所述任务特征。
7.根据权利要求6所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述局部数据增强的局部数据特征数量为4。
8.根据权利要求2所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述余弦分类器针对源域的每个样本进行类原型调整,所述类原型调整为对每个样本的真实类原型以外的其余类原型进行调整,调整过程计算公式为:
式中,σ为权重系数,cosθ为每个样本与真实类原型的余弦相似性,wc表示每个样本的真实类原型向量,wk为待调整类原型,w′k为调整后的类原型,ρ为样本与wk在特征空间中的夹角。
9.根据权利要求8所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
所述类原型调整后的元余弦损失为:
式中,w′k表示wk调整后的类原型,wc表示其真实类原型,表示特征提取网络的参数,表示查询集样本xj在嵌入空间中的特征向量表示。
10.基于少样本学习的甲状腺结节计算机辅助诊断系统,用于实现权利要求1-9中任一权利要求所述的基于少样本学习的甲状腺结节计算机辅助诊断方法,其特征在于:
包括诊断服务器,所述诊断服务器通过少样本甲状腺分类模型对待诊断样本进行分类得到诊断结果。
CN202310471108.8A 2023-04-27 2023-04-27 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统 Pending CN116525075A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310471108.8A CN116525075A (zh) 2023-04-27 2023-04-27 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310471108.8A CN116525075A (zh) 2023-04-27 2023-04-27 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统

Publications (1)

Publication Number Publication Date
CN116525075A true CN116525075A (zh) 2023-08-01

Family

ID=87404212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310471108.8A Pending CN116525075A (zh) 2023-04-27 2023-04-27 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统

Country Status (1)

Country Link
CN (1) CN116525075A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117454940A (zh) * 2023-12-21 2024-01-26 天津市肿瘤医院(天津医科大学肿瘤医院) 训练方法和用于预测甲状腺结节转移情况的图像处理方法
CN117557840A (zh) * 2023-11-10 2024-02-13 中国矿业大学 一种基于小样本学习的眼底病变分级方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557840A (zh) * 2023-11-10 2024-02-13 中国矿业大学 一种基于小样本学习的眼底病变分级方法
CN117557840B (zh) * 2023-11-10 2024-05-24 中国矿业大学 一种基于小样本学习的眼底病变分级方法
CN117454940A (zh) * 2023-12-21 2024-01-26 天津市肿瘤医院(天津医科大学肿瘤医院) 训练方法和用于预测甲状腺结节转移情况的图像处理方法
CN117454940B (zh) * 2023-12-21 2024-04-09 天津市肿瘤医院(天津医科大学肿瘤医院) 训练方法和用于预测甲状腺结节转移情况的图像处理方法

Similar Documents

Publication Publication Date Title
Li et al. A comprehensive review of computer-aided whole-slide image analysis: from datasets to feature extraction, segmentation, classification and detection approaches
Das et al. Computer-aided histopathological image analysis techniques for automated nuclear atypia scoring of breast cancer: a review
US20120283574A1 (en) Diagnosis Support System Providing Guidance to a User by Automated Retrieval of Similar Cancer Images with User Feedback
KR101443187B1 (ko) 영상 군집화 기반의 의료 영상 검색 방법
CN116525075A (zh) 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统
Wang et al. Weakly supervised learning for whole slide lung cancer image classification
CN111985536A (zh) 一种基于弱监督学习的胃镜病理图像分类方法
Pan et al. Mitosis detection techniques in H&E stained breast cancer pathological images: A comprehensive review
Pan et al. Cell detection in pathology and microscopy images with multi-scale fully convolutional neural networks
CN111767952A (zh) 一种可解释的肺结节良恶性分类方法
Bakkouri et al. Multi-scale CNN based on region proposals for efficient breast abnormality recognition
CN112116571A (zh) 一种基于弱监督学习的x光肺部疾病自动定位方法
Dong et al. Cervical cell classification based on the CART feature selection algorithm
Jing et al. A comprehensive survey of intestine histopathological image analysis using machine vision approaches
Fazilov et al. Patch-based lesion detection using deep learning method on small mammography dataset
Sivakumar et al. Deep learning in skin lesion analysis for malignant melanoma cancer identification
Wu et al. An Effective Machine-Learning Based Feature Extraction/RecognitionModel for Fetal Heart Defect Detection from 2D Ultrasonic Imageries.
CN113902702A (zh) 一种基于计算机断层扫描的肺结节良恶性辅助诊断系统
Meng et al. Clinical applications of graph neural networks in computational histopathology: A review
CN116883768A (zh) 基于多模态特征融合的肺结节智能分级方法及系统
Peng et al. Fully convolutional neural networks for tissue histopathology image classification and segmentation
Pan et al. A review of machine learning approaches, challenges and prospects for computational tumor pathology
CN116228759A (zh) 肾细胞癌类型的计算机辅助诊断系统及设备
Kotiyal et al. Diabetic Retinopathy Binary Image Classification Using Pyspark
Dash et al. Content-based image retrieval system for HRCT lung images: assisting radiologists in self-learning and diagnosis of Interstitial Lung Diseases

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination