CN112232407A - 病理图像样本的神经网络模型训练方法、装置 - Google Patents

病理图像样本的神经网络模型训练方法、装置 Download PDF

Info

Publication number
CN112232407A
CN112232407A CN202011101133.XA CN202011101133A CN112232407A CN 112232407 A CN112232407 A CN 112232407A CN 202011101133 A CN202011101133 A CN 202011101133A CN 112232407 A CN112232407 A CN 112232407A
Authority
CN
China
Prior art keywords
initial
neural network
gradient
network model
image sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011101133.XA
Other languages
English (en)
Other versions
CN112232407B (zh
Inventor
崔灿
惠文丽
杜家文
杨林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Diyingjia Technology Co ltd
Original Assignee
Hangzhou Diyingjia Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Diyingjia Technology Co ltd filed Critical Hangzhou Diyingjia Technology Co ltd
Priority to CN202011101133.XA priority Critical patent/CN112232407B/zh
Publication of CN112232407A publication Critical patent/CN112232407A/zh
Application granted granted Critical
Publication of CN112232407B publication Critical patent/CN112232407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

本发明涉及一种带有标签噪声的病理图像样本的神经网络模型训练方法、装置,该方法包括:将带有初始标签的病理图像样本输入到初始神经网络模型中,得到每个样本的初始预测概率;根据每个样本的初始标签和初始预测概率计算出初始交叉熵损失函数和初始梯度模长;使用梯度模长计算出每个样本对应梯度密度,使用梯度密度和高斯概率分布对初始交叉熵损失函数进行加权计算,调整易分样本和极度难分样本对模型训练的影响;使用梯度模长对样本的初始标签进行优化;使用梯度下降法和加权后的修正交叉熵损失函数对模型进行训练,更新模型的参数;在下一次迭代使用优化后的标签作为样本的标签求损失值,重复迭代训练数次,直到模型收敛为止,可提高模型训练效果。

Description

病理图像样本的神经网络模型训练方法、装置
技术领域
本发明属于图像处理技术领域,特别涉及一种病理图像样本的神经网络模型训练方法、装置。
背景技术
人工智能辅助病理影像分析是当前比较热门的研究领域之一,依靠人工智能辅助,可以节省大量的病理医生阅片时间,提升病理医生的工作效率并且缩小不同医生主观性判读造成的误差。目前主流的人工智能辅助病理影像分析大多基于深度学习的有监督学习方法。有监督学习首先需要人工标注大量的训练样本,然后使用这些标注的样本对模型进行训练,当模型训练完成后,即可以将需要分析的病理影像输入到模型中进行分析。
在病理影像分析中,理想情况下,使用越多标注精良的样本对模型进行训练,模型可以取得越好的效果。但是在实际研发和生产过程中,想要取得更多的标注样本,往往需要许多位医生对数据进行标注。受限于医生们的水平层次不齐且判读标准有主观性,这样标注出来的训练集往往存在不少的错误标注的样本。例如同一个病变细胞,经常会出现不同医生将其划分到不同类别的病变级别上,甚至标准较为宽松的医生会将其标注为正常细胞。这些错误的标注又被称为标签噪声,存在标签噪声的数据集会极大的降低神经网络的训练效果。这些错误标注的样本会逐渐主导模型的训练方向。强行使模型学习这些带有标签噪声的样本不仅会学习到一些错误的标签,而且也会影响模型在本已可正确分类的数据上的准确性。如何提高传统病理图像样本的神经网络模型训练的准确率是亟待解决的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够改善标签噪声样本、提高神经网络模型训练精度的病理图像样本的神经网络模型训练方法、装置。
为了实现上述目的,本发明通过以下技术方案实现:
一种病理图像样本的神经网络模型训练方法,包括:
将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集;
根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数;
对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长;
根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度;
根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数;
根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型;
根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签;
将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
在其中一个实施例中,所述根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度,包括:计算病理图像样本集中的每个所述病理图像样本的初始梯度模长的统计分布;将所述初始梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的初始梯度密度。
在其中一个实施例中,所述根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数,包括:计算所述初始梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的初始第一加权因子;根据所述病理图像样本的初始梯度模长,计算所述病理图像样本的初始第二加权因子;根据所述初始第一加权因子、初始第二加权因子、初始交叉熵损失函数和所述样本个数,构建新型损失函数。
在其中一个实施例中,在根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签之前,包括:根据所述病理图像样本的初始标签的类别,定义每个初始标签的独热标签向量。
在其中一个实施例中,所述将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型,包括:将带有所述修正标签的病理图像样本输入所述修正神经网络模型,获得所述病理图像样本的修正预测概率;其中,所述病理图像样本属于病理图像样本集;根据所述修正预测概率计算对于多分类任务的修正交叉熵损失函数;对所述修正交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到修正梯度模长;根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度;根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数;根据所述修正损失函数,采用梯度下降法对所述修正神经网络模型的参数进行更新,再次获得修正神经网络模型;根据独热标签向量、所述修正梯度模长、修正参数和所述修正预测概率,再次计算所述病理图像样本的修正标签;重复上述步骤,直到所述修正神经网络模型收敛,获得最终神经网络模型。
在其中一个实施例中,所述根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度,包括:计算病理图像样本集中的每个所述病理图像样本的修正梯度模长的统计分布;将所述修正梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的修正梯度密度。
在其中一个实施例中,所述根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数,包括:计算所述修正梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的修正第一加权因子;根据所述病理图像样本的修正梯度模长,计算所述病理图像样本的修正第二加权因子;根据所述修正第一加权因子、修正第二加权因子、修正交叉熵损失函数和所述样本个数,构建新型损失函数。
一种病理图像样本的神经网络模型训练装置,包括:
初始预测概率计算模块,用于将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集;
初始交叉熵损失函数计算模块,用于根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数;
初始梯度模长计算模块,用于对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长;
初始梯度密度计算模块,用于根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度;
新型损失函数构建模块,用于根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数;
参数更新模块,用于根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型;
修正标签计算模块,用于根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签;
模型训练模块,用于将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集;
根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数;
对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长;
根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度;
根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数;
根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型;
根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签;
将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集;
根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数;
对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长;
根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度;
根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数;
根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型;
根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签;
将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
本发明的有益效果如下:
上述病理图像样本的神经网络模型训练方法、装置、计算机设备和存储介质,通过独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,不断对病理图像样本的标签进行修正,使得噪声标签对模型的训练影响逐渐减小,保证训练的最终神经网络模型能够准确的对病理图像进行分类。
附图说明
图1为一个实施例中病理图像样本的神经网络模型训练方法的流程示意图;
图2为一个实施例中梯度模长的统计分布图;
图3为一个实施例中病理图像样本的神经网络模型训练装置的结构示意图;
图4为一个实施例中实施例中计算机设备的内部结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供的病理图像样本的神经网络模型训练方法,可以应用于带有噪声标签样本的病理图像样本训练的应用环境中。
如图1所示,该方法包括:
S110,将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集。
其中,病理图像是从人体或者其它动物身体的病变组织的图像,通过病理图像能够判断是否产生病变。病理图像样本是用于对病理图像分类的神经网络模型的样本,每个病理图像样本具有初始标签,每个不同的初始标签具有对应的值,例如,初始标签A对应的标签的值为1,初始标签B对应的标签的值为2,初始标签C对应的标签的值为3,初始标签的值可以根据具体情况进行定义。对于一个有M类初始标签的分类任务来说,首先定义带有标签噪声的病理图像样本集一个有N个病理图像样本,样本集可由
Figure RE-GDA0002807483490000061
来表示,其中,xi表示数据集中第i个病理图像样本,而yi表示第i个病理图像样本的标签,yi一共有M个类别的值,定义初始神经网络模型为f(x,Θ),将病理图像样本xi输入到初始神经网络模型得到初始预测概率
Figure RE-GDA0002807483490000062
由于涉及到多分类任务,初始预测概率可表示为
Figure RE-GDA0002807483490000063
其中, softmax函数的公式为:
Figure RE-GDA0002807483490000064
其中,aj表示初始神经网络模型的原始输出。
S120,根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数。
其中,每个初始预测概率对应一个初始交叉熵损失函数,对于多分类任务的初始交叉熵损失函数可表示为:
Figure RE-GDA0002807483490000065
其中,yi表示第i个病理图像样本的标签,
Figure RE-GDA0002807483490000066
表示初始预测概率,
Figure RE-GDA0002807483490000067
表示第k类标签的值, k∈{1,2,……,M}。
S130,对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长。
其中,深度神经网络模型函数可表示为f(xi,Θ)。初始梯度模长的取值范围为[0,1]。
S140,根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度。
其中,病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布如图2所示,在初始梯度模长的取值两端,样本所占比例高。梯度模长越小,表示该样本越是易分的,相反的,如果梯度模长约接近于1,说明该样本越可能是标签错误的样本。
S150,根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数。
其中,根据初始梯度密度计算所述病理图像样本的初始第一加权因子,通过对病理图像样本集中所有的病理图像样本,计算初始第一加权因子、初始第二加权因子和所述初始交叉熵损失函数之积的和,并求平均值,得到新型损失函数,可以表示为:
Figure RE-GDA0002807483490000071
其中,N为样本个数,αi为初始第一加权因子,βi为初始第二加权因子,lCE为初始交叉熵损失函数。
S160,根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型。
S170,根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签。
其中,独热标签向量根据初始标签的类别进行定义,例如,在M个类别的标签中,初始标签的类别为2,则独热标签为y_hoti=[0,1,…,0,0],y_hoti中有M个值,当初始标签的类别为3,则独热标签y_hoti=[0,0,1,…,0,0],y_hoti中有M个值。修正标签的计算公式可为:
Figure RE-GDA0002807483490000072
其中,y_refinei表示修正标签,gi表示梯度模长,γ为修正参数,gi γ用于控制修正的力度。对于梯度模长较大的样本,则修正力度较大,反之修正力度较小。对于g→0的样本,其修正力度约为0。使用此方法,在迭代过程中,逐步将带有标签噪声的样本拉回到了其正确的标签上。
S180,将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
理想情况下,病理图像样本xi样本集、样本标签集yi的标注越精良、准确,模型训练的效果越好。但是在实际研发和生产过程中,想要获得更多的标注样本,往往需要许多位医生对病理图像的数据进行标注,人为主观标注出来的病理图像样本集存在不少的错误标注样本,例如,将样本病理细胞的标注等级划分错误,甚至可能将错误标签样本标注为正常细胞样本。此处,将将错误标注的病理图像样本定义为噪声标签样本。例如在宫颈液基细胞(TCT)检测项目中,一张数字病理全场图中可能只存在1%的细胞为阳性病变细胞,其余99%的细胞均为阴性细胞,使用这种极度不均衡的样本来训练神经网络模型,模型的训练方向会完全被占绝大多数的阴性样本主导,即使模型将所有的细胞均预测为阴性,这样也会产生99%的准确率,然而人工智能辅助诊断的目的主要是检测阳性细胞,所以这显然不是所被希望的。
模型训练时,噪声标签样本的数据集会极大的降低神经网络的训练效果。尤其是在使用 Focal Loss的时候,Focal Loss会压低易分样本对模型的影响,使模型训练的重心在难分样本上,而这些噪声标签样本会成为极度难分样本,逐渐主导模型的训练方向。强行使模型学习这些带有标签噪声的样本不仅会学习到一些错误的标签参数,而且也会影响模型训练在本已可正确分类的样本数据上的准确性。
上述病理图像样本的神经网络模型训练方法,通过独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,不断对病理图像样本的标签进行修正,使得噪声标签对模型的训练影响逐渐减小,保证训练的最终神经网络模型能够准确的对病理图像进行分类。
在其中一个实施例中,步骤S130具体过程为:
对于多分类任务的初始交叉熵损失函数可表示为:
Figure RE-GDA0002807483490000081
其中,yi表示第i个病理图像样本的标签,
Figure RE-GDA0002807483490000082
表示初始预测概率,
Figure RE-GDA0002807483490000083
表示第k类标签的值, k∈{1,2,……,M}。
求lCE对深度神经网络模型函数f(xi,Θ)的梯度(导数)可得:
Figure RE-GDA0002807483490000084
根据
Figure RE-GDA0002807483490000085
可以推算第j个输出对第i个输入的偏导数可以定义为:
Figure RE-GDA0002807483490000086
其中当i=j时可得:
Figure RE-GDA0002807483490000091
于是有:
Figure RE-GDA0002807483490000092
而当i≠j时可得:
Figure RE-GDA0002807483490000093
于是有:
Figure RE-GDA0002807483490000094
将上述结果带入:
Figure RE-GDA0002807483490000095
由此可以定义一个初始梯度模长为
Figure RE-GDA0002807483490000096
由于
Figure RE-GDA0002807483490000097
且y=0或1,故而g∈(0,1)。
在其中一个实施例中,所述根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度,包括:计算病理图像样本集中的每个所述病理图像样本的初始梯度模长的统计分布;将所述初始梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的初始梯度密度。
其中,如图2所示,每个病理图像样本具有对应的初始梯度模长,初始梯度模长取值范围为0到1,梯度模长越小,表示该样本越是易分的,相反的,如果梯度模长约接近于1,说明该样本越可能是标签错误的样本。由图2可见,绝大多数的病理图像样本位于图标的左侧,且这些样本是易分样本,在绝对数量的优势之下,这些样本产生的梯度会对模型训练产生显著的影响;而位于图标右端也有大量的样本,这些样本的初始梯度模长较大,这些样本可能存在大量的标签噪声,本身就大的初始梯度模长在数量的加持下,会对模型训练产生非常负面的影响,基于上述观察,通过上述实施例中新型损失函数会尽量弱化样本数量对梯度的干扰且减弱初始梯度模长很小(易分样本)和初始梯度模长很大(噪声标签样本)对训练的影响。首先我们引入初始梯度密度的概念,将初始梯度模长的取值范围划分为ε个区域,接着分别统计落于各个区域内的样本个数,对于一个初始梯度模长为g的样本,它的初始梯度密度就定义为落于它的初始梯度模长所在区间的总样本数量除以区间的长度
Figure RE-GDA0002807483490000101
初始梯度密度的公式可表示为:GD(g)=Rind(g)ε。
在其中一个实施例中,所述根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数,包括:计算所述初始梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的初始第一加权因子;根据所述病理图像样本的初始梯度模长,计算所述病理图像样本的初始第二加权因子;根据所述初始第一加权因子、初始第二加权因子、初始交叉熵损失函数和所述样本个数,构建新型损失函数。
其中,初始第一加权因子的计算公式为:
Figure RE-GDA0002807483490000102
N为样本个数,GD(gi)为第i个病理图像样本对应的初始梯度密度,gi为第i个病理图像样本对应的初始梯度模长。
其中,初始第二加权因子的计算公式可为:
Figure RE-GDA0002807483490000103
其中,βi为初始第二加权因子,σ为标准差,其计算公式为
Figure RE-GDA0002807483490000104
gi为初始梯度模长,μ为梯度学习中心,N为样本个数,如果gi越接近μ,则其梯度对模型训练影响越大,相反的,如果gi越远离μ,则其对模型训练影响越小。
其中,新型损失函数的计算公式可为:
Figure RE-GDA0002807483490000105
其中,N为样本个数,αi为初始第一加权因子,βi为初始第二加权因子,lCE为初始交叉熵损失函数。
在其中一个实施例中,在根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签之前,包括:根据所述病理图像样本的初始标签的类别,定义每个初始标签的独热标签向量。
其中,独热标签向量根据初始标签的类别进行定义,例如,在M个类别的标签中,初始标签的类别为2,则独热标签为y_hoti=[0,1,…,0,0],y_hoti中有M个值,当初始标签的类别为3,则独热标签y_hoti=[0,0,1,…,0,0],y_hoti中有M个值。修正标签的计算公式可为:
Figure RE-GDA0002807483490000111
其中,y_refinei表示修正标签,gi表示梯度模长,γ为修正参数,gi γ用于控制修正的力度。对于梯度模长较大的样本,则修正力度较大,反之修正力度较小。对于g→0的样本,其修正力度约为0。使用此方法,在迭代过程中,逐步将带有标签噪声的样本拉回到了其正确的标签上。
在其中一个实施例中,所述将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型,包括:将带有所述修正标签的病理图像样本输入所述修正神经网络模型,获得所述病理图像样本的修正预测概率;其中,所述病理图像样本属于病理图像样本集;根据所述修正预测概率计算对于多分类任务的修正交叉熵损失函数;对所述修正交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到修正梯度模长;根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度;根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数;根据所述修正损失函数,采用梯度下降法对所述修正神经网络模型的参数进行更新,再次获得修正神经网络模型;根据独热标签向量、所述修正梯度模长、修正参数和所述修正预测概率,再次计算所述病理图像样本的修正标签;重复上述步骤,直到所述修正神经网络模型收敛,获得最终神经网络模型。
其中,修正交叉熵损失函数的计算过程与初始交叉熵损失函数的计算过程相同,修正梯度模长、修正梯度密度的计算方法可以参照上述实施例中初始梯度模长、初始梯度密度的计算方法,修正损失函数的构建方法可以参照上述实施例中新型损失函数的计算方法。
在其中一个实施例中,所述根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度,包括:计算病理图像样本集中的每个所述病理图像样本的修正梯度模长的统计分布;将所述修正梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的修正梯度密度。
在其中一个实施例中,所述根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数,包括:计算所述修正梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的修正第一加权因子;根据所述病理图像样本的修正梯度模长,计算所述病理图像样本的修正第二加权因子;根据所述修正第一加权因子、修正第二加权因子、修正交叉熵损失函数和所述样本个数,构建新型损失函数。
其中,修正第一加权因子的计算过程可参加上述实施例中初始第一加权因子的计算过程。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在其中一个实施例中,如图3所示,提供了一种病理图像样本的神经网络模型训练装置,包括:初始预测概率计算模块210、初始交叉熵损失函数计算模块220、初始梯度模长计算模块230、初始梯度密度计算模块240、新型损失函数构建模块250、参数更新模块260、修正标签计算模块270和模型训练模块280。
初始预测概率计算模块210,用于将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集。
初始交叉熵损失函数计算模块220,用于根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数。
初始梯度模长计算模块230,用于对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长。
初始梯度密度计算模块240,用于根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度。
新型损失函数构建模块250,用于根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数。
参数更新模块260,用于根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型。
修正标签计算模块270,用于根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签。
模型训练模块280,用于将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
在其中一个实施例中,所示初始梯度模长计算模块230包括:统计分布计算单元,用于计算病理图像样本集中的每个所述病理图像样本的初始梯度模长的统计分布;区域样本个数统计单元,用于将所述初始梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;初始梯度密度计算单元,用于计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的初始梯度密度。
在其中一个实施例中,新型损失函数构建模块250包括:初始第一加权因子计算单元,用于计算所述初始梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的初始第一加权因子;初始第二加权因子计算单元,用于根据所述病理图像样本的初始梯度模长,计算所述病理图像样本的初始第二加权因子;新型损失函数构建单元,用于根据所述初始第一加权因子、初始第二加权因子、初始交叉熵损失函数和所述样本个数,构建新型损失函数。
在其中一个实施例中,所述病理图像样本的神经网络模型训练装置,还包括:独热标签向量定义模块,用于根据所述病理图像样本的初始标签的类别,定义每个初始标签的独热标签向量。
在其中一个实施例中,所述模型训练模块280包括:修正预测概率计算单元,用于将带有所述修正标签的病理图像样本输入所述修正神经网络模型,获得所述病理图像样本的修正预测概率;其中,所述病理图像样本属于病理图像样本集;修正交叉熵损失函数计算单元,用于根据所述修正预测概率计算对于多分类任务的修正交叉熵损失函数;修正梯度模长计算单元,用于对所述修正交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到修正梯度模长;修正梯度密度计算单元,用于根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度;修正损失函数构建单元,用于根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数;所述参数更新模块,还用于根据所述修正损失函数,采用梯度下降法对所述修正神经网络模型的参数进行更新,再次获得修正神经网络模型;所述修正标签计算模块,还用于根据独热标签向量、所述修正梯度模长、修正参数和所述修正预测概率,再次计算所述病理图像样本的修正标签;循环单元,用于重复上述步骤,直到所述修正神经网络模型收敛,获得最终神经网络模型。
在其中一个实施例中,所述修正梯度密度计算单元包括:统计分布计算子单元,用于计算病理图像样本集中的每个所述病理图像样本的修正梯度模长的统计分布;区域样本个数计算子单元,用于将所述修正梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;修正梯度密度计算子单元,用于计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的修正梯度密度。
在其中一个实施例中,修正损失函数构建单元包括:修正第一加权因子计算子单元,用于计算所述修正梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的修正第一加权因子;修正第二加权因子计算子单元,用于根据所述病理图像样本的修正梯度模长,计算所述病理图像样本的修正第二加权因子;新型损失函数构建子单元,用于根据所述修正第一加权因子、修正第二加权因子、修正交叉熵损失函数和所述样本个数,构建新型损失函数。
关于病理图像样本的神经网络模型训练装置的具体限定可以参见上文中对于病理图像样本的神经网络模型训练方法的限定,在此不再赘述。上述病理图像样本的神经网络模型训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储病理图像样本数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种病理图像样本的神经网络模型训练方法。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种病理图像样本的神经网络模型训练方法,其特征在于,包括:
将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集;
根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数;
对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长;
根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度;
根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数;
根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型;
根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签;
将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度,包括:
计算病理图像样本集中的每个所述病理图像样本的初始梯度模长的统计分布;
将所述初始梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;
计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的初始梯度密度。
3.根据权利要求2所述的方法,其特征在于,所述根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数,包括:
计算所述初始梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的初始第一加权因子;
根据所述病理图像样本的初始梯度模长,计算所述病理图像样本的初始第二加权因子;
根据所述初始第一加权因子、初始第二加权因子、初始交叉熵损失函数和所述样本个数,构建新型损失函数。
4.根据权利要求1所述的方法,其特征在于,在根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签之前,包括:
根据所述病理图像样本的初始标签的类别,定义每个初始标签的独热标签向量。
5.根据权利要求1所述的方法,其特征在于,所述将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型,包括:
将带有所述修正标签的病理图像样本输入所述修正神经网络模型,获得所述病理图像样本的修正预测概率;其中,所述病理图像样本属于病理图像样本集;
根据所述修正预测概率计算对于多分类任务的修正交叉熵损失函数;
对所述修正交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到修正梯度模长;
根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度;
根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数;
根据所述修正损失函数,采用梯度下降法对所述修正神经网络模型的参数进行更新,再次获得修正神经网络模型;
根据独热标签向量、所述修正梯度模长、修正参数和所述修正预测概率,再次计算所述病理图像样本的修正标签;
重复上述步骤,直到所述修正神经网络模型收敛,获得最终神经网络模型。
6.根据权利要求5所述的方法,其特征在于,所述根据病理图像样本集中所述病理图像样本的所述修正梯度模长的统计分布,计算修正梯度密度,包括:
计算病理图像样本集中的每个所述病理图像样本的修正梯度模长的统计分布;
将所述修正梯度模长的取值均分为多个区域,并统计每个区域内的样本个数;
计算所述病理图像样本个数与所述区间的长度之比,得到所述病理图像样本在所述区间的修正梯度密度。
7.根据权利要求6所述的方法,其特征在于,所述根据所述修正梯度密度、修正第二加权因子和所述修正交叉熵损失函数,构建修正损失函数,包括:
计算所述修正梯度密度的倒数和每个所述区域的样本个数之积,得到每个所述区域的所述病理图像样本的修正第一加权因子;
根据所述病理图像样本的修正梯度模长,计算所述病理图像样本的修正第二加权因子;
根据所述修正第一加权因子、修正第二加权因子、修正交叉熵损失函数和所述样本个数,构建新型损失函数。
8.一种病理图像样本的神经网络模型训练装置,其特征在于,包括:
初始预测概率计算模块,用于将带有初始标签的病理图像样本输入初始神经网络模型,获得所述病理图像样本的初始预测概率;其中,所述病理图像样本属于病理图像样本集;
初始交叉熵损失函数计算模块,用于根据所述初始预测概率计算对于多分类任务的初始交叉熵损失函数;
初始梯度模长计算模块,用于对所述初始交叉熵损失函数求相对于深度神经网络模型函数的梯度,得到初始梯度模长;
初始梯度密度计算模块,用于根据病理图像样本集中所述病理图像样本的所述初始梯度模长的统计分布,计算初始梯度密度;
新型损失函数构建模块,用于根据所述初始梯度密度、初始第二加权因子和所述初始交叉熵损失函数,构建新型损失函数;
参数更新模块,用于根据所述新型损失函数,采用梯度下降法对所述初始神经网络模型的参数进行更新,获得修正神经网络模型;
修正标签计算模块,用于根据独热标签向量、所述初始梯度模长、修正参数和所述初始预测概率,计算所述病理图像样本的修正标签;
模型训练模块,用于将带有所述修正标签的病理图像样本输入所述修正神经网络模型,对所述修正神经网络模型进行训练,更新所述修正神经网络模型的参数,在所述修正神经网络模型收敛时,获得最终神经网络模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202011101133.XA 2020-10-15 2020-10-15 病理图像样本的神经网络模型训练方法、装置 Active CN112232407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011101133.XA CN112232407B (zh) 2020-10-15 2020-10-15 病理图像样本的神经网络模型训练方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011101133.XA CN112232407B (zh) 2020-10-15 2020-10-15 病理图像样本的神经网络模型训练方法、装置

Publications (2)

Publication Number Publication Date
CN112232407A true CN112232407A (zh) 2021-01-15
CN112232407B CN112232407B (zh) 2023-08-18

Family

ID=74113679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011101133.XA Active CN112232407B (zh) 2020-10-15 2020-10-15 病理图像样本的神经网络模型训练方法、装置

Country Status (1)

Country Link
CN (1) CN112232407B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112766493A (zh) * 2021-01-19 2021-05-07 北京市商汤科技开发有限公司 多任务神经网络的训练方法、装置、电子设备及存储介质
CN113139930A (zh) * 2021-03-17 2021-07-20 杭州迪英加科技有限公司 甲状腺切片图像分类方法、装置、计算机设备和存储介质
CN113139931A (zh) * 2021-03-17 2021-07-20 杭州迪英加科技有限公司 甲状腺切片图像分类模型训练方法、装置
CN113326767A (zh) * 2021-05-28 2021-08-31 北京百度网讯科技有限公司 视频识别模型训练方法、装置、设备以及存储介质
CN113704413A (zh) * 2021-08-31 2021-11-26 平安普惠企业管理有限公司 基于多样本的意图分类方法、装置、设备及存储介质
CN114330573A (zh) * 2021-12-30 2022-04-12 济南博观智能科技有限公司 一种目标检测方法、装置、电子设备及存储介质
CN115661549A (zh) * 2022-11-21 2023-01-31 南京码极客科技有限公司 一种基于预测置信度的细粒度分类去噪训练方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222841A (zh) * 2019-06-17 2019-09-10 苏州思必驰信息科技有限公司 基于间距损失函数的神经网络训练方法和装置
US20190311479A1 (en) * 2018-04-10 2019-10-10 Sun Yat-Sen University Cancer Center Method and device for identifying pathological picture
CN110598845A (zh) * 2019-08-13 2019-12-20 中国平安人寿保险股份有限公司 数据处理方法、装置、计算机设备和存储介质
CN111046959A (zh) * 2019-12-12 2020-04-21 上海眼控科技股份有限公司 模型训练方法、装置、设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190311479A1 (en) * 2018-04-10 2019-10-10 Sun Yat-Sen University Cancer Center Method and device for identifying pathological picture
CN110222841A (zh) * 2019-06-17 2019-09-10 苏州思必驰信息科技有限公司 基于间距损失函数的神经网络训练方法和装置
CN110598845A (zh) * 2019-08-13 2019-12-20 中国平安人寿保险股份有限公司 数据处理方法、装置、计算机设备和存储介质
CN111046959A (zh) * 2019-12-12 2020-04-21 上海眼控科技股份有限公司 模型训练方法、装置、设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨海龙;田莹;王澧冰;: "基于优化损失函数的YOLOv2目标检测器", 辽宁科技大学学报, no. 01 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112766493A (zh) * 2021-01-19 2021-05-07 北京市商汤科技开发有限公司 多任务神经网络的训练方法、装置、电子设备及存储介质
CN112766493B (zh) * 2021-01-19 2023-04-07 北京市商汤科技开发有限公司 多任务神经网络的训练方法、装置、电子设备及存储介质
CN113139930A (zh) * 2021-03-17 2021-07-20 杭州迪英加科技有限公司 甲状腺切片图像分类方法、装置、计算机设备和存储介质
CN113139931A (zh) * 2021-03-17 2021-07-20 杭州迪英加科技有限公司 甲状腺切片图像分类模型训练方法、装置
CN113139931B (zh) * 2021-03-17 2022-06-03 杭州迪英加科技有限公司 甲状腺切片图像分类模型训练方法、装置
CN113139930B (zh) * 2021-03-17 2022-07-15 杭州迪英加科技有限公司 甲状腺切片图像分类方法、装置、计算机设备和存储介质
CN113326767A (zh) * 2021-05-28 2021-08-31 北京百度网讯科技有限公司 视频识别模型训练方法、装置、设备以及存储介质
CN113704413A (zh) * 2021-08-31 2021-11-26 平安普惠企业管理有限公司 基于多样本的意图分类方法、装置、设备及存储介质
CN114330573A (zh) * 2021-12-30 2022-04-12 济南博观智能科技有限公司 一种目标检测方法、装置、电子设备及存储介质
CN115661549A (zh) * 2022-11-21 2023-01-31 南京码极客科技有限公司 一种基于预测置信度的细粒度分类去噪训练方法

Also Published As

Publication number Publication date
CN112232407B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN112232407A (zh) 病理图像样本的神经网络模型训练方法、装置
CN110689038B (zh) 神经网络模型的训练方法、装置和医学图像处理系统
US11200483B2 (en) Machine learning method and apparatus based on weakly supervised learning
CN109659033B (zh) 一种基于循环神经网络的慢性疾病病情变化事件预测装置
CN111931931B (zh) 一种针对病理全场图像的深度神经网络训练方法、装置
CN107633522B (zh) 基于局部相似性活动轮廓模型的脑部图像分割方法和系统
CN110660478A (zh) 一种基于迁移学习的癌症图像预测判别方法和系统
CN111539480B (zh) 多类别医学图像识别方法及设备
CN110859624A (zh) 一种基于结构磁共振影像的大脑年龄深度学习预测系统
CN111090764A (zh) 基于多任务学习和图卷积神经网络的影像分类方法及装置
CN114549470B (zh) 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法
CN109558889B (zh) 生猪舒适度分析方法及装置
CN108664986B (zh) 基于lp范数正则化的多任务学习图像分类方法及系统
CN117975170B (zh) 基于大数据的医疗信息处理方法及系统
CN115240843A (zh) 基于结构因果模型的公平性预测系统
Lonij et al. Open-world visual recognition using knowledge graphs
CN114155249A (zh) 一种基于深度矢量场回归的三维细胞图像实例分割方法
CN116759076A (zh) 一种基于医疗影像的无监督疾病诊断方法及系统
CN117079017A (zh) 可信的小样本图像识别分类方法
CN116883432A (zh) 病灶图像的分割方法、装置、电子设备及可读存储介质
CN116912600A (zh) 一种基于变步长admm算法极限学习机的图像分类方法
CN112086174B (zh) 一种三维知识诊断模型构建方法和系统
Jia et al. Adjacent age classification algorithm of yellow-feathered chickens based on multi-scale feature fusion
Sharma et al. Robust and Uncertainty-Aware VAE (RU-VAE) for One-Class Classification
CN111178174B (zh) 基于深度卷积神经网络的尿液有形成分图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant