CN110059717A - 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统 - Google Patents

用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统 Download PDF

Info

Publication number
CN110059717A
CN110059717A CN201910189058.8A CN201910189058A CN110059717A CN 110059717 A CN110059717 A CN 110059717A CN 201910189058 A CN201910189058 A CN 201910189058A CN 110059717 A CN110059717 A CN 110059717A
Authority
CN
China
Prior art keywords
convolutional neural
network
molybdenum target
breast molybdenum
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910189058.8A
Other languages
English (en)
Inventor
刘伯强
孙辉
陈威
孙佳伟
彭苏婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201910189058.8A priority Critical patent/CN110059717A/zh
Publication of CN110059717A publication Critical patent/CN110059717A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统,在保证深度学习模型在乳腺钼靶小数据集上的精度的同时,明显降低模型参数,提高实用性。该方法包括以下步骤:在乳腺钼靶大数据集上对卷积神经大网络进行预训练;采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩,得到卷积神经小网络;在乳腺钼靶小数据集上对卷积神经小网络进行微调。

Description

用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统
技术领域
本公开涉及一种应用于乳腺钼靶小数据集上的基于注意力转移的知识蒸馏方法的深度全卷积神经网络自动分割方法及系统。
背景技术
乳腺癌是女性发病率最高的癌症,研究表明,乳腺癌占女性癌症发病率的29%和癌症死亡率的15%,乳腺癌的早期诊断对患者的生存至关重要。在多种乳腺癌早期筛查技术中,乳腺钼靶具有低剂量、灵敏度高、简单方便等优点。放射科医师在乳腺钼靶分析过程中,由于存在实体间与观察者之间的差异,经常导致癌症的误诊或者癌症的过度诊断,因此计算机辅助诊断作为疾病确诊的前期筛查方式具有十分重要的意义。同时,由于不同患者乳腺肿块大小形态具有较大的差异,给作为乳腺癌计算机辅助分析中首要步骤的肿块自动分割技术,带来了十分具大的挑战。
由于不同设备、钼靶检查方式的差异以及不同医师的诊断偏向,导致不同机构的数据集之间存在较大的领域差异,这对于目前主流的基于数据集驱动的深度学习方法的训练过程带来了很大挑战,一个鲁棒的自动分割算法,需要充分地学习各种数据源的趋同特征。往往新增数据源的数据集与原始训练数据集相比,在数据量上差距巨大,而如何在小数据量的新数据集上微调后,充分保证深度学习模型的泛化能力,就显得至关重要。此外,往往为了保证深度学习模型能够充分学习到训练数据集上的领域知识,模型的设计趋向于更多参数带来更多学习容量,但忽略了模型在实际部署以及测试过程中,参数过大导致的内存占用以及运行速度的问题,进而影响到算法落地的成本,大大降级了自动诊断算法的实用性。因此,在保证自动分割算法准确度的同时,降低模型参数具有很大的现实意义。
针对乳腺癌计算机辅助诊断系统主要借助于医学领域的先验知识,手工提取特征去构建分类系统。手工提取特征严重依赖于研究者的专业知识,受主观因素影响比较严重。2016年至今,基于编码-解码结构(如U-Net等)的全卷积神经网络在医学图像分割领域取得了十足的进展,具体是在编码阶段增加网络的感受野和在解码阶段恢复图像的分辨率。往往这些基于编码-解码结构的网络,在设计过程中遵循了U-Net的设计思路,而最近研究表明,U-Net在编码阶段和解码阶段的每个模块里,具有过参数的问题。同时,在深度神经网络实际应用过程中,往往通过模型压缩降低网络参数以提高实用性,知识蒸馏技术是常用的网络压缩技术之一,具有保留领域特征知识的特点。而在深度神经网络可视化和解释性相关的研究结果中,表明深度神经网络对于任务相关的特征具有更优先的注意力,在相同任务不同数据集上,这种注意力具有趋同现象。
目前计算机辅助诊断系统主要借助于领域内专家的经验提取手工特征来对影像数据进行分析。发明人在研发过程中发现,专家知识的熟练程度及主观偏向对于手工特征提取带来的不一致性和片面性,对系统的准确性和稳定性带来了很大的影响。随着深度学习方法在各种视觉任务中取得了目前最佳的成绩,基于深度学习方法的自动诊断系统也在不断涌现出来。但是鲁棒的深度学习模型需要大量的不同数据来源的数据充当训练集,而往往可获取的高质量的医学数据量较少,因此,深度学习模型在医学小数据上如何训练的更加鲁棒,也是目前困扰该方法落地的主要因素之一。此外,目前为了进一步压榨深度学习模型的学习能力,在模型结构设计上趋向于层数更深、参数更多,发明人在研发过程中发现,过参数的问题导致模型在测试阶段更加费时,与算法的实用性形成矛盾。
发明内容
为了克服上述现有技术的不足,本公开提供了一种应用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统,在保证深度学习模型在乳腺钼靶小数据集上的精度的同时,明显降低模型参数,提高实用性。
本公开所采用的技术方案是:
一种应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,该方法包括以下步骤:
在乳腺钼靶大数据集上对卷积神经大网络进行预训练;
采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩,得到卷积神经小网络;
在乳腺钼靶小数据集上对卷积神经小网络进行微调。
进一步的,所述在乳腺钼靶大数据集上对卷积神经大网络进行预训练的步骤包括:
构建大规模的乳腺钼靶大数据集;
选取全卷积神经大网络;
在乳腺钼靶大数据集上,利用硬标签,通过反向传播算法与梯度下降法对卷积神经大网络进行预训练。
进一步的,所述采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩的步骤包括:
利用训练好的卷积神经大网络计算软标签;
利用软标签,通过反向传播算法与梯度下降优化方法训练卷积神经小网络,将蒸馏损失函数和注意力转移损失函数的之和作为卷积神经小网络训练的损失函数。
进一步的,所述蒸馏损失函数的获取方法为:
计算软标签构成的软损失和硬标签构成的硬损失;
通过损失调节参数分别调和软损失和硬损失,得到蒸馏损失函数。
进一步的,所述注意力转移损失函数的获取方法为:
将卷积神经大网络每一层的特征图张量各通道绝对值N次幂相加,得到卷积神经大网络的空间注意力表示函数;
将卷积神经小网络每一层的特征图张量各通道绝对值N次幂相加,得到卷积神经小网络的空间注意力表示函数;
利用卷积神经大网络的空间注意力表示函数和卷积神经小网络的空间注意力表示函数行加权处理,得到注意力转移损失函数。
进一步的,所述在乳腺钼靶小数据集上对卷积神经小网络进行微调的步骤包括:
获取乳腺钼靶小数据,构建乳腺钼靶小数据集。
对卷积神经小网络的最后一个卷积层及分类层根据乳腺钼靶小数据集中数据类别进行调整;
在乳腺钼靶小数据集上,通过反向传播算法与梯度下降法,利用小学习率对卷积神经小网络进行训练。
一种应用于乳腺钼靶小数据集的卷积神经网络自动分割系统,该系统包括:
模型训练模块,用于在乳腺钼靶大数据集上对卷积神经大网络进行预训练;
模型压缩模块,用于采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩,得到卷积神经小网络;
模型微调模块,用于在乳腺钼靶小数据集上对卷积神经小网络进行微调。
进一步的,所述模型训练模块具体用于:
构建较大规模的乳腺钼靶大数据集;
选取全卷积神经大网络;
在乳腺钼靶大数据集上,利用硬标签,通过反向传播算法与梯度下降法对卷积神经大网络进行预训练。
进一步的,所述模型压缩模块具体用于:
利用训练好的卷积神经大网络计算软标签;
利用软标签,通过反向传播算法与梯度下降优化方法训练卷积神经小网络,将蒸馏损失函数和注意力转移损失函数的之和作为卷积神经小网络训练的损失函数。
进一步的,所述模型微调模块具体用于:
获取乳腺钼靶小数据,构建乳腺钼靶小数据集。
对卷积神经小网络的最后一个卷积层及分类层根据乳腺钼靶小数据集中数据类别进行调整;
在乳腺钼靶小数据集上,通过反向传播算法与梯度下降法,利用小学习率对卷积神经小网络进行训练。
通过上述的技术方案,本公开的有益效果是:
(1)本公开采用注意力转移的知识蒸馏方式对在乳腺钼靶大数据集上预训练的深度全卷积神经网络进行压缩,进而在乳腺钼靶小数据集上进行微调,由于注意力转移保留了预训练网络学习到的领域特征的相似性,保证较高的微调精度;
(2)本公开在推断过程中,利用知识蒸馏技术压缩模型,进而提高测试速度,保证精度的同时又能明显降低模型参数,提高实用性。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是本实施例一卷积神经网络自动分割方法的流程图;
图2是本实施例一全卷积神经大网络的结构图;
图3是本实施例一基于注意力转移的知识蒸馏方法的流程图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
本实施例提供了一种应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,实现深度卷积神经网络在乳腺钼靶数据集的自动分割,利用基于注意力转移的知识蒸馏方法,在保留领域内特征的同时,将大数据上训练的大模型压缩成小模型,进而在小数据集上微调,实现了保证模型在小数据集上的精度的同时大大降低了模型的参数。
请参阅附图1,本实施例提出的一种应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,包括以下步骤:
S101,选取卷积神经大网络在乳腺钼靶大数据集对其进行预训练。
具体地,所述步骤101中,选取全卷积神经大网络在乳腺钼靶大数据集进行预训练,其具体实现方式如下:
构建较大规模的乳腺钼靶大数据集;
选取全卷积神经大网络(U-Net);
在乳腺钼靶大数据集上,使用硬标签,通过反向传播算法与梯度下降法对卷积神经大网络(U-Net)进行预训练,利用预训练后的网络作为知识蒸馏方法的大网络。
经典的U-Net是一个由编码路径,解码路径以及编码解码对应阶段的跳层连接所组成的全卷积神经网络,它依赖于编码路径第一阶段64通道深度的卷积操作,并在连续的4个阶段将通道深度加倍,在最底层的阶段达到1024深度,然后在解码路径各个阶段,通道深度逐渐减半回64。
S102,采用基于注意力转移的知识蒸馏方法对预训练后的卷积神经大网络进行模型压缩,得到精简的卷积神经小网络。
在本实施例中,基于注意力转移的方法,采用知识蒸馏的方法将卷积神经大网络压缩成精简的卷积神经小网络(精简版的U-Net),实现深度卷积神经网络从大数据集到小数据集的适应。
目前使用的深度卷积神经网络往往会有大量的参数,在小数据集上训练卷积神经网络会极大地影响网络的泛化性能,通常会导致网络的过度拟合。而用大数据集训练过的神经网络,已经具备了提取浅层基础特征和深层抽象特征的能力。特别是当大数据集与小数据集比较相似时,通过在小数据集上微调预训练的深度神经网络,可以有效的减少训练时间和降低过拟合的问题。
现有的方法是将在大数据集上预训练的网络,直接在小数据集上微调,而适用于大数据集的网络对于小数据集往往过参数化,如果直接在小数据集上使用原始预训练的网络结构,一方面限制了模型学习新数据集特征的空间,另一方面模型过参数将大大增加测试时间,降低实用性。
本实施例通过知识蒸馏的方法,将预训练后的大网络的领域特征迁移到小网络上,再进一步在小数据集上微调,有效的解决了上述问题。
精简版的U-Net是保持网络整体结构、卷积通道深度在编码路径相继阶段倍增关系及在解码路径相继阶段减半关系不变的情况下,将初始的通道深度从64逐渐减成N,比如N可以为32,16,8,4等,网络名称为U-Net-N,请参阅附图2。将不同的U-Net-N网络在多个图像数据集上训练,测试集上结果表明,U-Net-8的测试损失在大多数情况下比原始U-Net更低或基本保持一致,但是U-Net-8的参数仅为原始U-Net的1.6%。
注意力转移,是将大网络的注意力信息传递给小网络。深度卷积神经网络的注意力信息一般分为两种,空间注意力和通道注意力。分割网络更强调空间信息,因此本实施例采用的是空间注意力。空间注意力,即是一种热力图,用来解码出输入图像空间区域对输出贡献大小。
考虑卷积神经网络的其中一个层及对应的激活张量(特征图)A∈RC×H×W,它由空间维度为H×W的C个特征平面组成。该层的映射函数F将上述三维特征图A作为输入,并输出二维的空间注意力图,本实施例中定义映射函数F为特征图张量各通道绝对值p次幂相加,即:
注意力转移的目的是将卷积神经大网络特定节点的空间特征图信息传递给子网络,让卷积神经小网络相对应节点的空间特征可以趋近于卷积神经大网络,从而达到知识蒸馏的目的。
则该学习过程的损失函数设计为知识蒸馏损失与注意力转移损失之和:
Ltotal=LKD+LAT
其中,知识蒸馏损失LKD为卷积神经小网络与卷积神经大网络输出分布之间的损失,注意力转移损失LAT为卷积神经小网络与卷积神经大网络对应节点损失的加权和。
让S,T分别表示卷积神经小网络和卷积神经大网络,I为大-小网络做注意力转移特征图的集合,则该学习过程总共的损失函数可以重新表示为:
其中,βj为不同阶段做注意力转移的权重,F为上述的空间注意力表示函数,即特征图张量各通道绝对值p次幂相加,实验表明p=2时,结果较好;LKD为知识蒸馏损失。
请参阅附图3,所述步骤102中,采用基于注意力转移的知识蒸馏方法对预训练后的全卷积神经大网络进行模型压缩,其具体实现方式如下:
步骤102-1:利用训练好的卷积神经大网络计算软标签。
具体地,训练好的卷积神经大网络模型经过软化softmax函数后输出软标签,所述软标签计算方式如下:
其中,qi是软化后的标签,z是卷积神经大网络经过软化函数softmax前的输出,T是温度调节参数(T>1)。
步骤102-2:利用软标签,通过反向传播算法与梯度下降优化方法训练卷积神经小网络,采用蒸馏损失函数和注意力转移损失函数作为卷积神经小网络训练的损失函数。
所述卷积神经小网络训练的损失函数为蒸馏损失函数和注意力转移损失函数之和,其表达式为:
Ltotal=LKD+LAT
其中,Ltotal为;LKD为蒸馏损失函数,是小网络与大网络输出分布之间的损失;LAT为注意力转移损失函数,是小网络与大网络对应节点损失的加权和。
在本本实施例中,所述蒸馏损失函数LKD的获取方法为:
由软标签构成的软损失Lsoft和硬标签构成的硬损失Lhard两部分损失构成,并通过损失调节参数α来调和得到蒸馏损失函数,所述蒸馏损失函数表达式为:
LKD=αLsoft+(1-α)Lhard
在本实施例中,所述注意力转移损失函数LAT的获取方法为:
将卷积神经大网络每一层的特征图张量各通道绝对值p次幂相加,得到卷积神经大网络的空间注意力表示函数
将卷积神经小网络每一层的特征图张量各通道绝对值p次幂相加,得到卷积神经小网络的空间注意力表示函数
利用卷积神经大网络的空间注意力表示函数和卷积神经小网络的空间注意力表示函数进行加权处理,得到注意力转移损失函数LAT
所述注意力转移损失函数LAT的表达式为:
其中,βj为不同阶段做注意力转移的权重。
本实施例通过注意力转移和知识蒸馏的方法,将卷积神经大网络的特征迁移到卷积神经小网络上,扩展了模型学习新数据集特征的空间,降低测试时间,提高了实用性。
S103,将卷积神经小网络在乳腺钼靶小数据集上进行微调。
在本实施例中,将得到的卷积神经小网络在标乳腺钼靶小数据上进行微调,保证卷积神经网络学习到大数据集的特征知识的同时,又很好地适应小数据的特点。
具体地,所述步骤103中,将卷积神经小网络在乳腺钼靶小数据集上进行微调,其具体实现方式如下:
步骤103-1:获取乳腺钼靶小数据,构建乳腺钼靶小数据集。
步骤103-1:对卷积神经小网络的最后一个卷积层及softmax层根据乳腺钼靶小数据集中数据类别进行调整;
步骤103-2:在乳腺钼靶小数据集上,通过反向传播算法与梯度下降法,用小的学习率对卷积神经小网络进行训练。
本实施例提出的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,采用注意力转移和知识蒸馏方法对在乳腺钼靶大数据集上预训练的深度全卷积神经网络进行压缩,进而在乳腺钼靶小数据集上进行微调,由于注意力转移保留了预训练网络学习到的领域特征的相似性,保证较高的微调精度;在推断过程中,利用知识蒸馏技术压缩模型,进而提高测试速度,保证精度的同时又能明显降低模型参数,提高实用性。
实施例二
本实施例提供一种应用于乳腺钼靶小数据集的卷积神经网络自动分割系统,该系统包括:
模型训练模块,被配置为在乳腺钼靶大数据集上对卷积神经大网络进行预训练;
模型压缩模块,被配置为采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩,得到卷积神经小网络;
模型微调模块,被配置为在乳腺钼靶小数据集上对卷积神经小网络进行微调。
在本实施例中,所述模型训练模块具体被配置为:
构建较大规模的乳腺钼靶大数据集;
选取全卷积神经大网络;
在乳腺钼靶大数据集上,利用硬标签,通过反向传播算法与梯度下降法对卷积神经大网络进行预训练。
在本实施例中,所述模型压缩模块具体被配置为:
利用训练好的卷积神经大网络计算软标签;
利用软标签,通过反向传播算法与梯度下降优化方法训练卷积神经小网络,将蒸馏损失函数和注意力转移损失函数的之和作为卷积神经小网络训练的损失函数。
在本实施例中,所述模型微调模块具体被配置为:
获取乳腺钼靶小数据,构建乳腺钼靶小数据集。
对卷积神经小网络的最后一个卷积层及分类层根据乳腺钼靶小数据集中数据类别进行调整;
在乳腺钼靶小数据集上,通过反向传播算法与梯度下降法,利用小学习率对卷积神经小网络进行训练。
本实施例提出的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,模型压缩模块采用注意力转移和知识蒸馏方法对在乳腺钼靶大数据集上预训练的深度全卷积神经网络进行压缩,进而通过模型微调模块在乳腺钼靶小数据集上进行微调,由于注意力转移保留了预训练网络学习到的领域特征的相似性,保证较高的微调精度。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,其特征是,包括以下步骤:
在乳腺钼靶大数据集上对卷积神经大网络进行预训练;
采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩,得到卷积神经小网络;
在乳腺钼靶小数据集上对卷积神经小网络进行微调。
2.根据权利要求1所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,其特征是,所述在乳腺钼靶大数据集上对卷积神经大网络进行预训练的步骤包括:
构建大规模的乳腺钼靶大数据集;
选取全卷积神经大网络;
在乳腺钼靶大数据集上,利用硬标签,通过反向传播算法与梯度下降法对卷积神经大网络进行预训练。
3.根据权利要求1所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,其特征是,所述采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩的步骤包括:
利用训练好的卷积神经大网络计算软标签;
利用软标签,通过反向传播算法与梯度下降优化方法训练卷积神经小网络,将蒸馏损失函数和注意力转移损失函数的之和作为卷积神经小网络训练的损失函数。
4.根据权利要求3所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,其特征是,所述蒸馏损失函数的获取方法为:
计算软标签构成的软损失和硬标签构成的硬损失;
通过损失调节参数分别调和软损失和硬损失,得到蒸馏损失函数。
5.根据权利要求3所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,其特征是,所述注意力转移损失函数的获取方法为:
将卷积神经大网络每一层的特征图张量各通道绝对值N次幂相加,得到卷积神经大网络的空间注意力表示函数;
将卷积神经小网络每一层的特征图张量各通道绝对值N次幂相加,得到卷积神经小网络的空间注意力表示函数;
利用卷积神经大网络的空间注意力表示函数和卷积神经小网络的空间注意力表示函数行加权处理,得到注意力转移损失函数。
6.根据权利要求3所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割方法,其特征是,所述在乳腺钼靶小数据集上对卷积神经小网络进行微调的步骤包括:
获取乳腺钼靶小数据,构建乳腺钼靶小数据集;
对卷积神经小网络的最后一个卷积层及分类层根据乳腺钼靶小数据集中数据类别进行调整;
在乳腺钼靶小数据集上,通过反向传播算法与梯度下降法,利用小学习率对卷积神经小网络进行训练。
7.一种应用于乳腺钼靶小数据集的卷积神经网络自动分割系统,其特征是,包括:
模型训练模块,用于在乳腺钼靶大数据集上对卷积神经大网络进行预训练;
模型压缩模块,用于采用注意力转移和知识蒸馏方法对训练好的卷积神经大网络进行模型压缩,得到卷积神经小网络;
模型微调模块,用于在乳腺钼靶小数据集上对卷积神经小网络进行微调。
8.根据权利要求7所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割系统,其特征是,所述模型训练模块具体用于:
构建较大规模的乳腺钼靶大数据集;
选取全卷积神经大网络;
在乳腺钼靶大数据集上,利用硬标签,通过反向传播算法与梯度下降法对卷积神经大网络进行预训练。
9.根据权利要求7所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割系统,其特征是,所述模型压缩模块具体用于:
利用训练好的卷积神经大网络计算软标签;
利用软标签,通过反向传播算法与梯度下降优化方法训练卷积神经小网络,将蒸馏损失函数和注意力转移损失函数的之和作为卷积神经小网络训练的损失函数。
10.根据权利要求7所述的应用于乳腺钼靶小数据集的卷积神经网络自动分割系统,其特征是,所述模型微调模块具体用于:
获取乳腺钼靶小数据,构建乳腺钼靶小数据集;
对卷积神经小网络的最后一个卷积层及分类层根据乳腺钼靶小数据集中数据类别进行调整;
在乳腺钼靶小数据集上,通过反向传播算法与梯度下降法,利用小学习率对卷积神经小网络进行训练。
CN201910189058.8A 2019-03-13 2019-03-13 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统 Pending CN110059717A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910189058.8A CN110059717A (zh) 2019-03-13 2019-03-13 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910189058.8A CN110059717A (zh) 2019-03-13 2019-03-13 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统

Publications (1)

Publication Number Publication Date
CN110059717A true CN110059717A (zh) 2019-07-26

Family

ID=67316883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910189058.8A Pending CN110059717A (zh) 2019-03-13 2019-03-13 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统

Country Status (1)

Country Link
CN (1) CN110059717A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028253A (zh) * 2019-11-25 2020-04-17 北京科技大学 一种铁精粉分割方法及分割装置
CN111104967A (zh) * 2019-12-02 2020-05-05 精锐视觉智能科技(上海)有限公司 图像识别网络训练方法、图像识别方法、装置及终端设备
CN111369576A (zh) * 2020-05-28 2020-07-03 腾讯科技(深圳)有限公司 图像分割模型的训练方法、图像分割方法、装置及设备
CN111401480A (zh) * 2020-04-27 2020-07-10 上海市同济医院 一种基于融合注意力机制的乳腺mri自动辅助诊断新方法
CN112215850A (zh) * 2020-08-21 2021-01-12 天津大学 一种带注意力机制的级联空洞卷积网络脑肿瘤分割方法
CN112308865A (zh) * 2020-10-29 2021-02-02 中国科学院计算技术研究所厦门数据智能研究院 一种融合UNet模型与解剖学特征的乳腺钼靶图像分割方法
WO2021042828A1 (zh) * 2019-09-04 2021-03-11 华为技术有限公司 神经网络模型压缩的方法、装置、存储介质和芯片
CN112545452A (zh) * 2020-12-07 2021-03-26 南京医科大学眼科医院 高度近视眼底病变风险预测方法
CN112785598A (zh) * 2020-11-05 2021-05-11 南京天智信科技有限公司 基于注意力增强改进u型网络的超声乳腺肿瘤自动分割方法
CN113486990A (zh) * 2021-09-06 2021-10-08 北京字节跳动网络技术有限公司 内窥镜图像分类模型的训练方法、图像分类方法和装置
CN114140465A (zh) * 2021-01-20 2022-03-04 赛维森(广州)医疗科技服务有限公司 基于宫颈细胞切片图像的自适应的学习方法和学习系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
CN108052977A (zh) * 2017-12-15 2018-05-18 福建师范大学 基于轻量级神经网络的乳腺钼靶图像深度学习分类方法
CN108764462A (zh) * 2018-05-29 2018-11-06 成都视观天下科技有限公司 一种基于知识蒸馏的卷积神经网络优化方法
CN109409500A (zh) * 2018-09-21 2019-03-01 清华大学 基于知识蒸馏与非参数卷积的模型加速方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
CN108052977A (zh) * 2017-12-15 2018-05-18 福建师范大学 基于轻量级神经网络的乳腺钼靶图像深度学习分类方法
CN108764462A (zh) * 2018-05-29 2018-11-06 成都视观天下科技有限公司 一种基于知识蒸馏的卷积神经网络优化方法
CN109409500A (zh) * 2018-09-21 2019-03-01 清华大学 基于知识蒸馏与非参数卷积的模型加速方法及装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
GEOFFREY HINTON 等: ""Distilling the Knowledge in a Neural Network"", 《ARXIV:1503.02531V1》 *
KARTTIKEYA MANGALAM 等: ""On Compressing U-net Using Knowledge Distillation"", 《ARXIV:1812.00249V1》 *
SERGEY ZAGORUYKO 等: ""Paying more attention to attention:Improving the performance of convolutional neural networks via attention transfer"", 《ARXIV:1612.03928V3》 *
大饼博士X: ""深度学习方法(十五):知识蒸馏(Distilling the Knowledge in a Neual Network),在线蒸馏"", 《HTTPS://BLOG.CSDN.NET/XBINWORLD/ARTICLE/DETAILS/83063726》 *
段萌 等: ""基于卷积神经网络的小样本图像识别方法"", 《计算机工程与设计》 *
纪荣嵘 等: ""深度神经网络压缩与加速综述"", 《计算机研究与发展》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021042828A1 (zh) * 2019-09-04 2021-03-11 华为技术有限公司 神经网络模型压缩的方法、装置、存储介质和芯片
CN111028253B (zh) * 2019-11-25 2023-05-30 北京科技大学 一种铁精粉分割方法及分割装置
CN111028253A (zh) * 2019-11-25 2020-04-17 北京科技大学 一种铁精粉分割方法及分割装置
CN111104967A (zh) * 2019-12-02 2020-05-05 精锐视觉智能科技(上海)有限公司 图像识别网络训练方法、图像识别方法、装置及终端设备
CN111104967B (zh) * 2019-12-02 2023-12-22 精锐视觉智能科技(上海)有限公司 图像识别网络训练方法、图像识别方法、装置及终端设备
CN111401480A (zh) * 2020-04-27 2020-07-10 上海市同济医院 一种基于融合注意力机制的乳腺mri自动辅助诊断新方法
CN111369576A (zh) * 2020-05-28 2020-07-03 腾讯科技(深圳)有限公司 图像分割模型的训练方法、图像分割方法、装置及设备
CN112215850A (zh) * 2020-08-21 2021-01-12 天津大学 一种带注意力机制的级联空洞卷积网络脑肿瘤分割方法
CN112308865A (zh) * 2020-10-29 2021-02-02 中国科学院计算技术研究所厦门数据智能研究院 一种融合UNet模型与解剖学特征的乳腺钼靶图像分割方法
CN112785598A (zh) * 2020-11-05 2021-05-11 南京天智信科技有限公司 基于注意力增强改进u型网络的超声乳腺肿瘤自动分割方法
CN112785598B (zh) * 2020-11-05 2022-05-13 南京天智信科技有限公司 基于注意力增强改进u型网络的超声乳腺肿瘤自动分割方法
CN112545452A (zh) * 2020-12-07 2021-03-26 南京医科大学眼科医院 高度近视眼底病变风险预测方法
CN114140465A (zh) * 2021-01-20 2022-03-04 赛维森(广州)医疗科技服务有限公司 基于宫颈细胞切片图像的自适应的学习方法和学习系统
CN114140465B (zh) * 2021-01-20 2023-01-10 赛维森(广州)医疗科技服务有限公司 基于宫颈细胞切片图像的自适应的学习方法和学习系统
CN113486990B (zh) * 2021-09-06 2021-12-21 北京字节跳动网络技术有限公司 内窥镜图像分类模型的训练方法、图像分类方法和装置
CN113486990A (zh) * 2021-09-06 2021-10-08 北京字节跳动网络技术有限公司 内窥镜图像分类模型的训练方法、图像分类方法和装置

Similar Documents

Publication Publication Date Title
CN110059717A (zh) 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统
Tan et al. Intelligent alerting for fruit-melon lesion image based on momentum deep learning
CN107657602A (zh) 基于两次迁移卷积神经网络的乳腺结构紊乱识别方法
CN108399616B (zh) 基于深度残差网络的骨科病病变分类分级方法
CN110675411B (zh) 基于深度学习的宫颈鳞状上皮内病变识别算法
CN103955707B (zh) 一种基于深度层次特征学习的海量图像分类系统
CN109376636A (zh) 基于胶囊网络的眼底视网膜图像分类方法
Wang et al. Central and peripheral vision for scene recognition: A neurocomputational modeling exploration
CN108596069A (zh) 基于深度3d残差网络的新生儿疼痛表情识别方法及系统
CN109685811A (zh) 基于双路径U-net卷积神经网络的PET/CT高代谢淋巴结分割方法
CN109685077A (zh) 一种乳腺肿块图像识别方法及装置
CN107424145A (zh) 基于三维全卷积神经网络的核磁共振图像的分割方法
CN106779064A (zh) 基于数据特征的深度神经网络自训练方法
CN109978074A (zh) 基于深度多任务学习的图像美感和情感联合分类方法及系统
CN110020639A (zh) 视频特征提取方法及相关设备
CN109086768A (zh) 卷积神经网络的语义图像分割方法
CN110309853A (zh) 基于变分自编码器的医学图像聚类方法
CN110110808A (zh) 一种对图像进行目标标注的方法、装置及计算机记录介质
CN109829018A (zh) 一种基于深度学习的移动客户超细分方法
CN108229571A (zh) 基于kpca算法与深度信念网络的苹果表面病变图像识别方法
CN106919710A (zh) 一种基于卷积神经网络的方言分类方法
CN109815478A (zh) 基于卷积神经网络的药化实体识别方法及系统
Xue et al. Automated tongue segmentation in Chinese medicine based on deep learning
Joshi et al. Progressive transfer learning approach for identifying the leaf type by optimizing network parameters
CN109359610A (zh) 构建cnn-gb模型的方法及系统、数据特征分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190726