CN111626989B - 针对缺失标注的病理图像的高精度检测网络训练方法 - Google Patents

针对缺失标注的病理图像的高精度检测网络训练方法 Download PDF

Info

Publication number
CN111626989B
CN111626989B CN202010373046.3A CN202010373046A CN111626989B CN 111626989 B CN111626989 B CN 111626989B CN 202010373046 A CN202010373046 A CN 202010373046A CN 111626989 B CN111626989 B CN 111626989B
Authority
CN
China
Prior art keywords
regression
detection model
target detection
loss
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010373046.3A
Other languages
English (en)
Other versions
CN111626989A (zh
Inventor
李涵生
韩鑫
亢宇鑫
崔磊
杨林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Diyingjia Technology Co ltd
Original Assignee
Hangzhou Diyingjia Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Diyingjia Technology Co ltd filed Critical Hangzhou Diyingjia Technology Co ltd
Priority to CN202010373046.3A priority Critical patent/CN111626989B/zh
Publication of CN111626989A publication Critical patent/CN111626989A/zh
Application granted granted Critical
Publication of CN111626989B publication Critical patent/CN111626989B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及针对缺失标注的病理图像的高精度检测网络训练方法,包括:获取带有部分手工标注信息的病理图像作为训练样本;将所述训练样本输入目标检测模型,通过所述目标检测模型检测出所述训练样本上可能存在检测目标的位置,用回归框标示出所述可能存在检测目标的位置;计算每个回归框的原始损失;计算每个回归框的回归框能量;根据所述回归框能量对对应回归框的原始损失进行校准;计算校准后所述目标检测模型的损失函数,采用梯度下降法更新所述目标检测模型中的参数,采用更新后的参数对所述网络进行训练。经过偏差校准的目标检测模型的召回率结果和平均精度结果都有了明显的改善和提高。

Description

针对缺失标注的病理图像的高精度检测网络训练方法
技术领域
本发明涉及神经网络训练技术领域,特别是涉及针对缺失标注的病理图像的高精度检测网络训练方法。
背景技术
目标检测即找出图像中所有感兴趣的物体,包含物体定位和物体分类两个子任务,同时确定物体的类别和位置。在现有的目标检测模型中,性能表现最好的几个模型都属于完全监督模型,完全监督模型必须确保每张训练图像中所出现的待检测类别的所有目标,都必须被标注,这样的标注方式称为穷尽标注。如果训练数据中存在大量的缺失标注(某些图像中的部分待检测目标未被标注出来),将导致模型性能受到很大影响。
病理图像的背景极度复杂,异常细胞与组织经常会分布在密集的不同形态的正常组织细胞、微生物以及异物之中,即使是经验丰富的病理科医生也难以定位出一个视野下的所有异常组织细胞。此外,病理医生的空余标注时间极其有限,面对用于进行深度学习所需的大量标注数据,难以保证标注的高质量。因此,对病理图像的训练数据进行穷尽标注基本是不可能的。而这也进一步造成,在目前现有的病理图像数据集上训练得到的目标检测模型性能受到极大限制。因此,如何使得在仅有的非穷尽标注数据集下,对目标检测模型进行充分的训练,是一个挑战。
发明内容
为了解决上述技术问题,提出了本申请。本申请提供了针对缺失标注的病理图像的高精度检测网络训练方法,用于解决非穷尽标注条件下目标检测模型性能受影响的问题。
根据本申请的一个方面,提供了针对缺失标注的病理图像的高精度检测网络训练方法,包括:获取带有部分手工标注信息的病理图像作为训练样本;
将所述训练样本输入目标检测模型,通过所述目标检测模型检测出所述训练样本上可能存在检测目标的位置,用回归框标示出所述可能存在检测目标的位置;
计算每个回归框的原始损失;
计算每个回归框的回归框能量;
根据所述回归框能量对对应回归框的原始损失进行校准;
计算校准后所述目标检测模型的损失函数,采用梯度下降法更新所述目标检测模型中的参数,采用更新后的参数对所述目标检测模型进行训练。
进一步地,在将所述训练样本输入目标检测模型前,先对所述训练样本进行数据预处理:对所述训练样本采用色彩迁移的方法进行数据扩充,再采用主成分分析标准化,使得所述训练样本每个像素的像素值服从标准正态分布。
进一步地,所述回归框能量通过回归框密度转换而来,计算每个回归框与其他回归框之间的平均距离,利用所述平均距离来衡量对应回归框周围的回归框密度,得到回归框密度函数;
所述回归框密度函数为
Figure 100002_DEST_PATH_IMAGE001
其中N是回归框的数量,D是曼哈顿街区距离,
Figure DEST_PATH_IMAGE002
Figure 100002_DEST_PATH_IMAGE003
Figure DEST_PATH_IMAGE004
表示由i索引的框的中心点的x坐标和y坐标;
所述回归框能量为
Figure 100002_DEST_PATH_IMAGE005
其中
Figure DEST_PATH_IMAGE006
表示所有回归框之间的最大距离,所述回归框能量值域为0到1。
进一步地,所述原始损失包括定位损失和分类损失:
Figure 100002_DEST_PATH_IMAGE007
其中,
Figure DEST_PATH_IMAGE008
是分类损失,
Figure 100002_DEST_PATH_IMAGE009
是定位损失;
Figure DEST_PATH_IMAGE010
是所述训练样本的类别标注,
Figure 100002_DEST_PATH_IMAGE011
是训练样本中的手工标注框,
Figure DEST_PATH_IMAGE012
是网络的预测类别概率分布,而
Figure 100002_DEST_PATH_IMAGE013
为网络预测的回归框位置。
进一步地,所述根据所述回归框能量对对应回归框的原始损失进行校准,包括分类损失校准和定位损失校准,分类损失通过
Figure DEST_PATH_IMAGE014
进行校准,其中
Figure 100002_DEST_PATH_IMAGE015
表示由k索引的回归框的标签为背景,定位损失通过
Figure DEST_PATH_IMAGE016
进行校准,
总的损失函数为
Figure 100002_DEST_PATH_IMAGE017
与现有技术相比,采用本申请公开的损失偏差校准方法对目标检测模型进行偏差校准,训练获得的目标检测模型1与相同条件下未经偏差校准的目标检测模型2进行对比,通过对完全注释数据集和稀疏注释数据集分别进行检测,检测结果表明,经过偏差校准的目标检测模型2的召回率结果和平均精度结果都有了明显的改善和提高。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。
图1是在病理核分裂像数据集上进行训练期间,回归框的密度变化;
图2是本申请发明构思的示意说明;
图3是本申请目标检测模型的训练流程图。
具体实施方式
下面,将参考附图详细描述本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
目标检测是采用目标检测模型在病理图像上直接以回归框的方式直观的定位目标图像并同时给出细分类结果,其具有两个同级输出层,以生成具有概率分布(p)的回归框(b)来定位正实例,其训练需要大量穷尽标注的训练样本,利用这些训练样本在训练过程中计算损失,并更新目标检测模型中的参数。在现有的目标检测模型中,性能表现最好的几个模型都属于完全监督模型,这些模型的性能在部分领域内已经达到了工业级应用的要求。但是,完全监督模型必须确保每张训练图像中待检测类别的所有目标,都必须被标注,这样的标注方式称为穷尽标注。如果训练数据中存在大量的缺失标注(某些图像中的部分待检测目标未被标注出来),将导致模型性能受到很大影响。目前基于伪标注技术的方法常被用于解决非穷尽标注的问题,这些方法首先通过当前可利用数据,训练出一个预模型,并生成伪标注。然后利用生成的伪标注和原有的实例级标注混合训练检测器。这种两阶段的流程给模型的训练过程带来了更多的不可控性。此外,不好的伪标注生成器会对最终的结果产生很大的影响。而且,对于如何利用伪标注,特别是对于目标检测来说,到目前为止还没有太多的共识。此外,此类方法的成功主要归功于自然图像中物体的显著特征,但对于病理图像中的细粒度特征,这类方法是不适用的。
对于病理图像而言,其背景极度复杂,异常细胞与组织经常会分布在密集的不同形态的正常组织细胞、微生物以及异物之中,即使是经验丰富的病理科医生也难以定位出一个视野下的所有异常组织细胞。此外,病理医生的空余标注时间极其有限,面对用于进行深度学习所需的大量标注数据,难以保证标注的高质量,对病理图像的训练数据进行穷尽标注基本是不可能的。
针对上述技术问题,本申请的构思是:鉴于目标检测模型训练的过程中,在待检测的目标上往往会聚集更多的建议框,而在阴性背景物体上往往只存在一些独立的建议框,如图1所示,其中,回归框显示为绿色,手工标签显示为红色。通过对这一发现的分析,我们认为目标检测模型同样会在病理图像中未被标注出的异常细胞周围出现较为密集的建议框,本发明正是基于目标检测模型在训练过程中的这一特点,提出一种“回归框密度能量”的损失校准方法,通过计算训练过程中每个建议框的“框密度能量”,给每个建议框产生的损失分配一个动态的权重,通过这样的方式,增加独立框的惩罚,并相对的减少因缺失标注产生偏差损失造成的影响,如图2所示。在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
针对缺失标注的病理图像的高精度检测网络训练方法,包括:
S10,获取带有部分手工标注信息的病理图像作为训练样本;
S20,将训练样本输入目标检测模型,通过目标检测模型检测出训练样本上可能存在检测目标的位置,用回归框标示出可能存在检测目标的位置;
其中,在将训练样本输入目标检测模型前,先对训练样本进行数据预处理:对训练样本采用色彩迁移的方法进行数据扩充,再采用主成分分析标准化,使得训练样本每个像素的像素值服从标准正态分布。
S30,计算每个回归框的原始损失;
原始损失包括定位损失和分类损失:
Figure DEST_PATH_IMAGE018
其中,
Figure 100002_DEST_PATH_IMAGE019
是分类损失,
Figure DEST_PATH_IMAGE020
是定位损失;
Figure 539822DEST_PATH_IMAGE010
是训练样本的类别标注,
Figure 129066DEST_PATH_IMAGE011
是训练样本中的手工标注框,
Figure 377645DEST_PATH_IMAGE012
是网络的预测类别概率分布,而
Figure 490963DEST_PATH_IMAGE013
为网络预测的回归框位置。
S40,计算每个回归框的回归框能量;
回归框能量通过回归框密度转换而来,计算每个回归框与其他回归框之间的平均距离,利用平均距离来衡量对应回归框周围的回归框密度,得到回归框密度函数;
回归框密度函数为
Figure DEST_PATH_IMAGE021
其中N是回归框的数量,D是曼哈顿街区距离,
Figure DEST_PATH_IMAGE022
Figure DEST_PATH_IMAGE023
Figure DEST_PATH_IMAGE024
表示由i索引的框的中心点的x坐标和y坐标;
回归框能量为
Figure DEST_PATH_IMAGE025
其中
Figure DEST_PATH_IMAGE026
表示所有回归框之间的最大距离,回归框能量值域为0到1。
S50,根据回归框能量对对应回归框的原始损失进行校准;
根据回归框能量对对应回归框的原始损失进行校准,包括分类损失校准和定位损失校准,分类损失通过
Figure DEST_PATH_IMAGE027
进行校准,其中
Figure DEST_PATH_IMAGE028
表示由k索引的回归框的标签为背景,定位损失通过
Figure DEST_PATH_IMAGE029
进行校准,
总的损失函数为
Figure DEST_PATH_IMAGE030
S60,计算校准后目标检测模型的损失函数,采用梯度下降法更新目标检测模型中的参数,采用更新后的参数对网络进行继续训练。
作为示例,利用特征金字塔网络(FPN)作为目标检测模型,训练样本选自MITOS-ATYPIA-14数据集,以有丝分裂细胞作为检测目标,对未采用本申请公开的校准方法进行训练得到的目标检测模型(记做目标检测模型1)和采用本申请公开的校准方法进行训练得到的目标检测模型(记做目标检测模型2)的模型性能进行对比验证,模型性能参数通过召回率和平均精度来体现。MITOS-ATYPIA 14——乳腺癌组织学图像数据集,之所以选自MITOSATYPIA-14,是考虑到病理学家最方便的注释过程,以及最困难的四种情况来验证本申请提出的方法。(1)每个图像仅注释一个实例。(2)仅注释关键点。(3)仅注释少量训练图像。(4)小的正实例(小于32×32像素)。采用本申请公开的校准方法进行目标检测模型训练的过程如图3所示。
1.数据集描述
1.1数据说明和参数。
MITOSATYPIA-14数据集中有393个分辨率为1663×1485像素的切片图像。病理学家尽可能用一个关键点注释每个有丝分裂,本实验中生成以所有关键点为中心的32×32边界框。
输入图像的大小调整为800×800像素,并送入FPN,训练步骤数为10k,学习率最初设置为0.001,然后在5k和7.5k的训练步数时的步长除以10,在本实验中使用了4折交叉验证。
1.2完全数据集与稀疏注释的数据集。
将原始训练数据称为完全注释数据集,将极稀疏的数据集称为稀疏注释数据集,稀疏注释数据集是通过随机删除训练数据集上的注释,直到每个训练样本上只有一个人工注释创建。仅对训练数据集进行稀疏操作,而测试数据集是完整的。
2.实验结果
2.1完全注释数据集的结果。
将完全注释数据集分别输入目标检测模型1(FPN-res50和FPN-resnet101),和采用本申请进行误差校准而训练得到的目标检测模型2(FPN-本专利-res50和FPN-本专利-res101)。表1列出了具有完全注释数据集的召回率和平均精度(AP)结果。
Figure DEST_PATH_IMAGE031
召回率结果。
FPN-res50(主干网络为resnet-50的FPN)和FPN-resnet101的平均召回率分别为89.8%和87.4%。FPN-本专利-res50(主干网络为resnet-50的使用本专利损失校准方法的FPN)和FPN-本专利-res101分别达到94.6%和94.2%,比FPN分别高出4.8%和6.8%。
平均精度结果。
与FPN相比,本专利的平均精度AP结果有所改善。FPN-本专利-res50的平均AP达到50.1%,比FPN-res50(48.5%)的平均精度AP高出1.6%,而FPN-本专利-res101的平均精度AP则提高了1.7%。
稀疏注释数据集的结果。
将稀疏注释数据集分别输入目标检测模型1(FPN-res50和FPN-resnet101),和采用本申请进行误差校准而训练得到的目标检测模型2(FPN-本专利-res50和FPN-本专利-res101)。表2列出了稀疏注释数据集的召回率和平均精度结果。
Figure DEST_PATH_IMAGE032
召回率结果。
FPN-本专利-res50的平均召回率达到91.3%,比FPN-res50(83.6%)的召回率高7.7%,而FPN-本专利-res101(88.4%)则比FPNres101(83.4%)改善了5.0%。此外,在稀疏注释数据集中,FPN-本专利的结果(91.3%/ 88.4%)甚至超过了在完整数据集上训练的FPN的结果(89.8%/ 87.4%)。
平均精度结果。
使用本专利的平均精度结果在稀疏注释数据集上也有很多改进。FPN-本专利-res50的平均精度达到44.8%,比FPN-res50(40.2%)的平均精度高出4.6%,而FPN-本专利-res101的平均精度则提高了7.2%。
由此可见,采用本申请公开的损失偏差校准方法对目标检测模型进行偏差校准,训练获得的目标检测模型1与经过相同条件未经偏差校准的目标检测模型2进行对比,通过对完全注释数据集和稀疏注释数据集分别进行检测,检测结果表明,经过偏差校准的目标检测模型2的召回率结果和平均精度结果都有了明显的改善和提高。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技 术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (2)

1.针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,包括:
获取带有部分手工标注信息的病理图像作为训练样本;
将所述训练样本输入目标检测模型,通过所述目标检测模型检测出所述训练样本上可能存在检测目标的位置,用回归框标示出所述可能存在检测目标的位置;
计算每个回归框的原始损失;
计算每个回归框的回归框能量;
根据所述回归框能量对对应回归框的原始损失进行校准;
计算校准后所述目标检测模型的损失函数,采用梯度下降法更新所述目标检测模型中的参数,采用更新后的参数对所述目标检测模型继续进行训练;
其中,所述回归框能量通过回归框密度转换而来,计算每个回归框与其他回归框之间的平均距离,利用所述平均距离来衡量对应回归框周围的回归框密度,得到回归框密度函数;
所述回归框密度函数为
Figure DEST_PATH_IMAGE001
其中N是回归框的数量,D是曼哈顿街区距离,
Figure 819481DEST_PATH_IMAGE002
Figure DEST_PATH_IMAGE003
Figure 345141DEST_PATH_IMAGE004
表示由i索引的框的中心点的x坐标和y坐标;
所述回归框能量为
Figure DEST_PATH_IMAGE005
其中
Figure 486272DEST_PATH_IMAGE006
表示所有回归框之间的最大距离,所述回归框能量值域为0到1;
所述原始损失包括定位损失和分类损失:
Figure DEST_PATH_IMAGE007
其中,
Figure 780987DEST_PATH_IMAGE008
是分类损失,
Figure DEST_PATH_IMAGE009
是定位损失;
Figure DEST_PATH_IMAGE011
是所述训练样本的类别标注,
Figure 942847DEST_PATH_IMAGE012
是训练样本中的手工标注框,
Figure DEST_PATH_IMAGE013
是网络的预测类别概率分布,而
Figure 958732DEST_PATH_IMAGE014
为网络预测的回归框位置;
所述根据所述回归框能量对对应回归框的原始损失进行校准,包括分类损失校准和定位损失校准,分类损失通过
Figure DEST_PATH_IMAGE015
进行校准,其中
Figure DEST_PATH_IMAGE017
表示由k索引的回归框的标签为背景,定位损失通过
Figure 231451DEST_PATH_IMAGE018
进行校准,
总的损失函数为
Figure DEST_PATH_IMAGE019
2.根据权利要求1所述的针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,
在将所述训练样本输入目标检测模型前,先对所述训练样本进行数据预处理:对所述训练样本采用色彩迁移的方法进行数据扩充,再采用主成分分析标准化,使得所述训练样本每个像素的像素值服从标准正态分布。
CN202010373046.3A 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法 Active CN111626989B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010373046.3A CN111626989B (zh) 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010373046.3A CN111626989B (zh) 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法

Publications (2)

Publication Number Publication Date
CN111626989A CN111626989A (zh) 2020-09-04
CN111626989B true CN111626989B (zh) 2022-07-22

Family

ID=72258913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010373046.3A Active CN111626989B (zh) 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法

Country Status (1)

Country Link
CN (1) CN111626989B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931931B (zh) * 2020-09-29 2021-03-30 杭州迪英加科技有限公司 一种针对病理全场图像的深度神经网络训练方法、装置
CN112699808B (zh) * 2020-12-31 2024-06-07 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN114842326B (zh) * 2022-03-21 2024-04-02 华南农业大学 一种免定标檀香树植株缺苗定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154043A (zh) * 2017-06-05 2017-09-12 杭州健培科技有限公司 一种基于3dcnn的肺结节假阳性样本抑制方法
WO2020014477A1 (en) * 2018-07-11 2020-01-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image analysis with deep learning to predict breast cancer classes
CN111079836A (zh) * 2019-12-16 2020-04-28 浙江大学 基于伪标签方法和弱监督学习的过程数据故障分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154043A (zh) * 2017-06-05 2017-09-12 杭州健培科技有限公司 一种基于3dcnn的肺结节假阳性样本抑制方法
WO2020014477A1 (en) * 2018-07-11 2020-01-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image analysis with deep learning to predict breast cancer classes
CN111079836A (zh) * 2019-12-16 2020-04-28 浙江大学 基于伪标签方法和弱监督学习的过程数据故障分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Robust nucleus/cell detection and segmentation in digital pathology and microscopy images: a comprehensive review》;Fuyong Xing;et al;《IEEE Reviews in Biomedical Engineering》;20161231;第9卷;第234-263页 *
《目标检测算法在乳腺病理图像分析中的应用》;何剑;《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》;20170815(第8期);第E072-362页 *

Also Published As

Publication number Publication date
CN111626989A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN111626989B (zh) 针对缺失标注的病理图像的高精度检测网络训练方法
Xu et al. Stacked sparse autoencoder (SSAE) for nuclei detection on breast cancer histopathology images
CN109919230B (zh) 基于循环特征金字塔的医学图像肺结节检测方法
CN110059697B (zh) 一种基于深度学习的肺结节自动分割方法
JP2022541199A (ja) データテーブルの画像表現に基づいて構造化されたデータベースにデータ挿入するためのシステムおよび方法。
KR101255865B1 (ko) 개선된 이미지 분할 방법
US7702157B2 (en) Pattern evaluation method, pattern matching method and computer readable medium
CN108564085B (zh) 一种自动读取指针式仪表读数的方法
CN109978035B (zh) 基于改进的k-means和损失函数的行人检测方法
CN112699876B (zh) 一种用于集气站多类型仪表自动读数方法
US20220292317A1 (en) Defect classification apparatus, method and program
CN113838009B (zh) 一种基于半监督机制的异常细胞检测假阳性抑制方法
JP2006275952A (ja) パターン評価方法、パターン位置合わせ方法およびプログラム
CN113609984A (zh) 一种指针式仪表读数识别方法、装置及电子设备
US12008750B2 (en) Generating annotation data of tissue images
Vajravelu et al. Machine learning techniques to detect bleeding frame and area in wireless capsule endoscopy video
CN110310278A (zh) 基于余量切割法的滑动窗口扫描方法
Aristoteles et al. Identification of human sperm based on morphology using the you only look once version 4 algorithm
CN113838008B (zh) 一种基于引入注意力机制的异常细胞检测方法
JP6425468B2 (ja) 教師データ作成支援方法、画像分類方法、教師データ作成支援装置および画像分類装置
WO2023124069A1 (zh) 一种校准图像的方法及装置
CN115937555A (zh) 一种基于标准化流模型的工业缺陷检测算法
CN115953371A (zh) 一种绝缘子缺陷检测方法、装置、设备和存储介质
JP2007018176A (ja) 学習装置、学習方法、学習プログラム、記録媒体、パターン認識装置およびパターン認識方法
Bello et al. Learning-based segmentation framework for tissue images containing gene expression data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant