CN116433588A - 一种基于宫颈细胞的多类别分类与置信判别方法 - Google Patents

一种基于宫颈细胞的多类别分类与置信判别方法 Download PDF

Info

Publication number
CN116433588A
CN116433588A CN202310155890.2A CN202310155890A CN116433588A CN 116433588 A CN116433588 A CN 116433588A CN 202310155890 A CN202310155890 A CN 202310155890A CN 116433588 A CN116433588 A CN 116433588A
Authority
CN
China
Prior art keywords
confidence
picture
loss
network
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310155890.2A
Other languages
English (en)
Other versions
CN116433588B (zh
Inventor
刘赟
陈自强
卢思奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Maizhi Medical Technology Co ltd
Original Assignee
Guangdong Maizhi Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Maizhi Medical Technology Co ltd filed Critical Guangdong Maizhi Medical Technology Co ltd
Priority to CN202310155890.2A priority Critical patent/CN116433588B/zh
Publication of CN116433588A publication Critical patent/CN116433588A/zh
Application granted granted Critical
Publication of CN116433588B publication Critical patent/CN116433588B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于宫颈细胞的多类别分类与置信判别方法,本案基于区域定位感知,混淆对抗与添加置信预测分支的细粒度神经网络,能够对宫颈细胞的18个类别进行分类;并能够训练置信度分支与概率分支,对于不属于宫颈细胞的涂片,或特征与宫颈细胞相似的涂片,可通过推理出的置信度值进行区分,而不是强行输出为宫颈细胞的某种类别;再通过区域对齐网络,有助于定位图像中的主要目标;最后通过混淆对抗分支,使网络的特征提取器可以得到细粒度的局部特征,对于宫颈细胞某些类别间的特征非常相似的情况,也可以很好地学习到不同类别间的细粒度特征,并且能够不受训练时随机打乱图片产生的噪声影响。由此,可实现宫颈细胞涂片的分类与置信判别。

Description

一种基于宫颈细胞的多类别分类与置信判别方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于宫颈细胞的多类别分类与置信判别方法。
背景技术
宫颈癌的筛查对于宫颈癌的防治具有非常重要意义,非常有必要根据我国具体情况进行较为准确的筛查。随着卷积神经网络的发展以其在图像任务中的有效性,结合医疗图像识别的需求,越来越多的卷积神经网络算法应用到宫颈细胞的检测中。
中国公开号公开了CN111274903B一种基于图卷积神经网络的宫颈细胞图像分类方法,其通过使用图卷积神经网络结构,结合大量标注宫颈细胞图像数据,构建了一个能够对七类宫颈细胞图像进行分类的分类模型。但是,该方法能够识别的宫颈细胞类别数不够全面,数量较少。另,由于不同的亚型的细胞由于其整体结构相似,通用的分类网络对此任务的效果并不理想。若采取对于不同亚型细胞细粒度特征进行特别的标注,如额外标注mask等信息,又会进一步增加医疗数据集及标签的获取成本;而且对于每种大类下的亚型特征相似的宫颈细胞,在经过图片打乱后会影响分类效果。此外,在模型应用到宫颈细胞检测的任务中时,如果输入到模型中的是非宫颈细胞的图片,那么模型不论将其归类到什么类别都是错误的;此类情况会造成医疗工作者对于模型的质疑,不利于人工智能技术在医疗图像处理任务中的推广;如果采取分类的方法,将非宫颈细胞的图片制作成一类,那么数据集难以包括所有的情况。
因此,克服上述存在的缺陷,已成为本领域技术人员亟待解决的重要课题。
发明内容
本发明公开了一种基于宫颈细胞的多类别分类与置信判别方法,能够在预测阶段,只采用概率与置信度的输出,能够对宫颈细胞进行多个类别的分类,并且可以得到网络对于该宫颈细胞预测结果的置信度。经过了多次实验结果表明了本发明分类的效果好,可以满足宫颈健康医疗检测的需要,并且模型的鲁棒性更好。
本发明公开了一种基于宫颈细胞的多类别分类与置信判别方法,所述方法包括以下步骤:
S1:训练18个类别的宫颈细胞的图片,然后对训练图片进行破坏处理;
S2:将已破坏处理的图片和原始图片成对输入到神经网络模型中;图片首先输入到特征提取器中,并得到对应的特征图;
S3:将S2得到的特征图分别输入到不同的全连接层中,其中一个全连接层输出类别概率值;另一个全连接层输出置信度值;
S4:将S3得到的概率值,置信度值与标签进行计算得到新的概率值,再与18个类别的标签进行交叉熵损失函数的计算;
S5:将S2得到的特征图输入到区域对齐网络并与打乱图片的位置信息进行L1loss函数的计算;
S6:在步骤S5进行的同时,将S2得到的特征图进行输入到对抗网络的全连接层中并与未打乱标签和打乱标签进行A-softmax的损失函数计算;
S7:将S4、S5、S6得到的损失函数得到的各个损失进行整合,以使所述损失函数优化为最小化;
S8:将训练好的模型进行预测,将正常图片输入模型中并输出最终结果。
作为一种可选的实施方式,步骤S2所述的对训练图片进行破坏处理包括:
将训练的原始图片分割为若干个局部小块并随时打乱,再将随机打乱后的小块进行重排成新的已打乱图片。
作为一种可选的实施方式,步骤S2所述的特征提取器为残差网络(ResNet)。
作为一种可选的实施方式,步骤S3所述的与18个类别的标签进行交叉熵损失函数的计算包括:
对分类网络的损失函数进行计算得到分类损失Lt,其计算公式为:
Figure BDA0004092419020000031
对置信网络的损失函数进行计算得到置信损失Lc,其计算公式为:Lc=-log(c)
将加权后的置信损失和分类损失相加,组成置信和分类的总损失Lcls,其计算公式为:Lcls=Lt+λLc
作为一种可选的实施方式,所述步骤S5包括:
S51:将步骤S2得到的特征图输入到形状为2048×1的卷积中,得到通道数为1的特征图;
S52:将步骤S51得到的特征图输入到tanh激活函数,经过最大池化的筛选,与打乱图片的位置信息进行L1loss函数的计算得到区域对齐损失Lloc。
作为一种可选的实施方式,所述步骤S6包括:
S61:将S2得到的特征图进行拉平操作,输入到对抗网络的全连接层中,将每一张图片标记为d∈{0,1}2,表示这个图片是否被破坏,将特征图输入到对抗网络中,与未打乱和打乱标签进行A-softmax的抗函数的计算;
S62:添加一个判别器作为一个新分支,以判断图片是否被破坏并计算判别器的损失。
作为一种可选的实施方式,所述步骤S8包括:将训练好的模型进行预测,输入图片为正常的图片,输出结果只取分类分支的结果,同时产生概率值与置信度值。
与现有技术相比,本发明的有益效果是:
1、本案首先通过步骤S1和S2的设置,对18类宫颈细胞图片进行区域打乱重排,以便于网络学习图像区域之间的关联信息,有利于更好地识别区分区域和学习局部的细粒度特征。通过步骤S3和S4的设置,一方面能够对宫颈细胞的18个类别进行分类,分类的数量更多,更全面;另一方面能够形成置信预测分支,便于通过网络预测的置信值,概率值与数据集标签计算得到新的概率值,与数据标签计算损失,以便于训练置信度分支与概率分支,对于不属于宫颈细胞的涂片,或特征与宫颈细胞相似的涂片,能通过模型推理出的置信度值进行区分,而不是强行输出为宫颈细胞的某种类别。通过步骤S5的设置,能够形成区域对齐网络分支,有助于定位图像中的主要目标,并有助于找到子区域之间的相关性。通过步骤S6的设置,能够形成混淆对抗分支,使网络的特征提取器可以得到细粒度的局部特征,对于宫颈细胞某些类别间的特征非常相似的情况,也可以很好地学习到不同类别间的细粒度特征,并且能够不受训练时随机打乱图片产生的噪声影响。通过以上设置,实现了基于区域定位感知,混淆对抗与添加置信预测分支的细粒度神经网络,使其在宫颈细胞涂片的分类与置信度判别上有着较好的表现。
附图说明
图1是本发明公开的一种基于宫颈细胞的多类别分类与置信判别方法的流程示意图。
图2是本发明公开的一种基于宫颈细胞的多类别分类与置信判别方法的整体训练网络算法结构示意图。
具体实施方式
以下通过实施例对本发明特征及其它相关特征作进一步详细说明,以便于同行业技术人员的理解:
如图1和图2所示,本案一种基于宫颈细胞的多类别分类与置信判别方法包括以下步骤:
在训练图片之前,将采集的宫颈细胞进行分类并将每个类别进行数字编码。其中,18类别分为非病变类别、病变类别以及其他类别。所述非病变类别包括:萎缩;妊娠反应;炎症反应;放化疗反应;滴虫;念珠菌;放线菌;细菌性阴道菌。所述病变类别包括:ASC-US;ASC-H;HG4/HSIL;LSIL;鳞状细胞癌、AGC-NOS;AGC-FN;腺癌;其他类别包括:疱疹病毒、少量反应性细胞。将以上18类的宫颈细胞的每种类别名称用数字1-18进行编码。
S1:训练图片统一524×524的尺寸,并随机截取428×428的尺寸。将训练的原始图片均分为49个小块,并将其随机打乱后,进行重排得到新的已打乱的图片。
S2:将原始图片和已打乱的图片成对的输入模型中;首先,将训练图片输入到ResNet的残差网络,原始图像为i,被破坏的图像/打乱重排的图像为φ(I),两种图像经过ResNet,得到通道数为2048的特征图;
S3:将通道数为2048的特征图输入分类网络中的第一全连接层,得到维度为18的分类概率p;将通道数为2048的特征图输入到置信网络中的第二全连接层,得到维度为1的置信度c。其中,分类概率p通过softmax函数获得,置信度c通过sigmoid函数获得。置信度c在[0,1]的区间内,如果网络确信它能对给定的输入产生正确的预测,它的输出应该接近1。相反,如果网络不能确信它能产生正确的预测,那么它的输出应该接近于0。
S4:将S3得到的分类概率p、置信度c与标签y进行计算得到新的概率p';其中,标签y是指目标概率分布。所述概率值p'如下公式计算得到:
p′=c·p+(1-c)·y
当模型输出的置信度c越大,p'的值越接近p,即c越趋向于1,p'越趋向于p。反之,当模型输出的置信度c越低,p'的值越接近标签y,即c越趋向于0,p'越趋向于y。
与18个类别的标签进行交叉熵损失函数的计算;
交叉熵损失函数首先对分类网络的损失函数进行计算,分类网络的损失函数计算公式为:
Figure BDA0004092419020000071
模型为了降低模型的loss,置信度c的输出会倾向0,所以还要为c添加一个激励loss,希望c越大越好,因此置信网络的损失函数为:
Lc=-log(c)
最终置信和分类总损失Lcls由置信损失和分类损失组成,再由一个权重参数λ调节,公式如下:
Lcls=Lt+λLc
其中,权重参数λ能够平衡置信损失和分类损失。
S51:将S2得到的特征图输入到形状为2048×1的卷积中,得到通道数为1的特征图;其中,区域对齐网络的输入是分类网络的一个卷积层的输出特征
Figure BDA0004092419020000072
n代表第n层,通过1×1卷积处理特征,以获得具有两个通道的输出;
S52:然后通过tanh激活函数和平均池化处理输出,以得到尺寸为2×N×N的映射,最后的区域对齐网络的输出为:
Figure BDA0004092419020000073
其中M(I)的两个通道分别对应于行和列的位置坐标,其中h是我们提出的区域对齐网络,θloc是区域对齐网络的参数。在I中预测的Rσ(i,j)和位置Mσ(i,j)(φ(I)),在I中预测的Ri,j的位置为Mi,j(I,i,j)。对应的标签为(i,j),区域对齐损失Lloc定义为预测坐标与原始坐标之间的L1距离,计算公式如下:
Figure BDA0004092419020000081
如上所述,采用tanh激活函数的设置,与常用的Sigmoid函数相比,其收敛速度更快,其输出以0为中心。
S61:将每一张图片标记为d∈{0,1}2,表示这个图片是不是被打乱。将2048张特征图输入到对抗网络中,与0(未打乱)和1(打乱)标签进行A-softmax函数的计算。
Figure BDA0004092419020000082
如上所述,通过运用A-softmax函数,与一般的Softmax函数相比,可以使得学习到的特征具有更明显的角分布。
S62:其中
Figure BDA0004092419020000083
是分类网络第m层卷积网络输出的特征向量,/>
Figure BDA0004092419020000084
是分类网络的可学习参数,θadv∈Rd×2是一个线性的映射。判别器的损失Ladv如下:
Figure BDA0004092419020000085
S7:得到三种损失函数之后,将置信和分类的总损失Lcls、区域对齐损失Lloc、对抗损失Ladv三者整合到一起,进行最小化的优化,具体公式如下:
L=αLcls+βLabc+γLloc
如此,以便于得到最小的损失,有利于提高模型的鲁棒性。
S8:训练后的模型推理,测试图片使用未打乱的图片,输入分类的模型中,结果进行softmax后,得到最终的输出,也能通过置信度c衡量输入的数据是不是分布外的样本。
如上所述,在本发明实施例中本案首先通过步骤S1和S2的设置,对18类宫颈细胞图片进行区域打乱重排,以便于网络学习图像区域之间的关联信息,有利于更好地识别区分区域和学习局部的细粒度特征。通过步骤S3和S4的设置,一方面能够对宫颈细胞的18个类别进行分类,分类的数量更多,更全面;另一方面能够形成置信预测分支,便于通过网络预测的置信值,概率值与数据集标签计算得到新的概率值,与数据标签计算损失,以便于训练置信度分支与概率分支,对于不属于宫颈细胞的涂片,或特征与宫颈细胞相似的涂片,能通过模型推理出的置信度值进行区分,而不是强行输出为宫颈细胞的某种类别。通过步骤S5的设置,能够形成区域对齐网络分支,有助于定位图像中的主要目标,并有助于找到子区域之间的相关性。通过步骤S6的设置,能够形成混淆对抗分支,使网络的特征提取器可以得到细粒度的局部特征,对于宫颈细胞某些类别间的特征非常相似的情况,也可以很好地学习到不同类别间的细粒度特征,并且能够不受训练时随机打乱图片产生的噪声影响。通过以上设置,实现了基于区域定位感知,混淆对抗与添加置信预测分支的细粒度神经网络,使其在宫颈细胞涂片的分类与置信度判别上有着较好的表现。
作为一种可选的实施方式,步骤S2所述的特征提取器为残差网络(ResNet)。如此,其能够有效解决网络层数增加产生的梯度消失、爆炸和网络退化问题。
以上对本发明实施例公开的一种基于宫颈细胞的多类别分类与置信判别方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。

Claims (7)

1.一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,包括以下步骤:
S1:训练18个类别的宫颈细胞的图片,然后对训练图片进行破坏处理;
S2:将已破坏处理的图片和原始图片成对输入到神经网络模型中;图片首先输入到特征提取器中,并得到对应的特征图;
S3:将S2得到的特征图分别输入到不同的全连接层中,其中一个全连接层输出类别概率值;另一个全连接层输出置信度值;
S4:将S3得到的概率值,置信度值与标签进行计算得到新的概率值,再与18个类别的标签进行交叉熵损失函数的计算;
S5:将S2得到的特征图输入到区域对齐网络并与打乱图片的位置信息进行L1 loss函数的计算;
S6:在步骤S5进行的同时,将S2得到的特征图进行输入到对抗网络的全连接层中并与未打乱标签和打乱标签进行A-softmax的损失函数计算;
S7:将S4、S5、S6得到的损失函数得到的各个损失进行整合,以使所述损失函数优化为最小化;
S8:将训练好的模型进行预测,将正常图片输入模型中并输出最终结果。
2.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,步骤S2所述的对训练图片进行破坏处理包括:
将训练的原始图片分割为若干个局部小块并随时打乱,再将随机打乱后的小块进行重排成新的已打乱图片。
3.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,步骤S2所述的特征提取器为残差网络(ResNet)。
4.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,步骤S3所述的与18个类别的标签进行交叉熵损失函数的计算包括:
对分类网络的损失函数进行计算得到分类损失Lt,其计算公式为:
Figure FDA0004092419010000021
对置信网络的损失函数进行计算得到置信损失Lc,其计算公式为:Lc=-log(c)
将加权后的置信损失和分类损失相加,组成置信和分类的总损失Lcls,其计算公式为:Lcls=Lt+λLc
5.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,所述步骤S5包括:
S51:将步骤S2得到的特征图输入到形状为2048×1的卷积中,得到通道数为1的特征图;
S52:将步骤S51得到的特征图输入到tanh激活函数,经过最大池化的筛选,与打乱图片的位置信息进行L1 loss函数的计算得到区域对齐损失Lloc。
6.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,所述步骤S6包括:
S61:将S2得到的特征图进行拉平操作,输入到对抗网络的全连接层中,将每一张图片标记为d∈{0,1}2,表示这个图片是否被破坏,将特征图输入到对抗网络中,与未打乱和打乱标签进行A-softmax的抗函数的计算;
S62:添加一个判别器作为一个新分支,以判断图片是否被破坏并计算判别器的损失。
7.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,所述步骤S8包括:将训练好的模型进行预测,输入图片为正常的图片,输出结果只取分类分支的结果,同时产生概率值与置信度值。
CN202310155890.2A 2023-02-21 2023-02-21 一种基于宫颈细胞的多类别分类与置信判别方法 Active CN116433588B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310155890.2A CN116433588B (zh) 2023-02-21 2023-02-21 一种基于宫颈细胞的多类别分类与置信判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310155890.2A CN116433588B (zh) 2023-02-21 2023-02-21 一种基于宫颈细胞的多类别分类与置信判别方法

Publications (2)

Publication Number Publication Date
CN116433588A true CN116433588A (zh) 2023-07-14
CN116433588B CN116433588B (zh) 2023-10-03

Family

ID=87091450

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310155890.2A Active CN116433588B (zh) 2023-02-21 2023-02-21 一种基于宫颈细胞的多类别分类与置信判别方法

Country Status (1)

Country Link
CN (1) CN116433588B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130101199A1 (en) * 2009-06-02 2013-04-25 Ge Healthcare Uk Limited Image analysis
CN111062296A (zh) * 2019-12-11 2020-04-24 武汉兰丁医学高科技有限公司 一种基于计算机的白细胞自动识别分类方法
CN111861916A (zh) * 2020-07-09 2020-10-30 中南大学湘雅二医院 病理图片的处理方法
CN111950525A (zh) * 2020-08-31 2020-11-17 福州大学 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法
CN112163465A (zh) * 2020-09-11 2021-01-01 华南理工大学 细粒度图像分类方法、系统、计算机设备及存储介质
CN112257704A (zh) * 2020-09-15 2021-01-22 深圳视见医疗科技有限公司 基于深度学习检测模型子宫颈液基细胞数字图像分类方法
CN113743353A (zh) * 2021-05-10 2021-12-03 合肥工业大学 空间、通道和尺度注意力融合学习的宫颈细胞分类方法
IT202000016054A1 (it) * 2020-07-02 2022-01-02 Univ Bologna Alma Mater Studiorum Metodo per determinare la confidenza di una mappa di disparità mediante un apprendimento auto-adattivo di una rete neurale, e relativo sistema di sensori
CN114300099A (zh) * 2021-11-24 2022-04-08 大连工业大学 一种基于YOLOv5和显微高光谱图像的异型淋巴细胞分型方法
CN114549469A (zh) * 2022-02-21 2022-05-27 中国石油大学(华东) 一种基于置信度校准的深层神经网络医疗图像诊断方法
CN114882501A (zh) * 2022-05-12 2022-08-09 上海大学 一种基于可解释深度学习算法的循环肿瘤细胞检测系统
CN115187583A (zh) * 2022-08-19 2022-10-14 南京信息工程大学 一种基于改进YOLOv5的轻量化道路缺陷检测方法
CN115359483A (zh) * 2022-08-09 2022-11-18 杭州迪英加科技有限公司 一种针对宫颈液基细胞分类的训练方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130101199A1 (en) * 2009-06-02 2013-04-25 Ge Healthcare Uk Limited Image analysis
CN111062296A (zh) * 2019-12-11 2020-04-24 武汉兰丁医学高科技有限公司 一种基于计算机的白细胞自动识别分类方法
IT202000016054A1 (it) * 2020-07-02 2022-01-02 Univ Bologna Alma Mater Studiorum Metodo per determinare la confidenza di una mappa di disparità mediante un apprendimento auto-adattivo di una rete neurale, e relativo sistema di sensori
CN111861916A (zh) * 2020-07-09 2020-10-30 中南大学湘雅二医院 病理图片的处理方法
CN111950525A (zh) * 2020-08-31 2020-11-17 福州大学 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法
CN112163465A (zh) * 2020-09-11 2021-01-01 华南理工大学 细粒度图像分类方法、系统、计算机设备及存储介质
CN112257704A (zh) * 2020-09-15 2021-01-22 深圳视见医疗科技有限公司 基于深度学习检测模型子宫颈液基细胞数字图像分类方法
CN113743353A (zh) * 2021-05-10 2021-12-03 合肥工业大学 空间、通道和尺度注意力融合学习的宫颈细胞分类方法
CN114300099A (zh) * 2021-11-24 2022-04-08 大连工业大学 一种基于YOLOv5和显微高光谱图像的异型淋巴细胞分型方法
CN114549469A (zh) * 2022-02-21 2022-05-27 中国石油大学(华东) 一种基于置信度校准的深层神经网络医疗图像诊断方法
CN114882501A (zh) * 2022-05-12 2022-08-09 上海大学 一种基于可解释深度学习算法的循环肿瘤细胞检测系统
CN115359483A (zh) * 2022-08-09 2022-11-18 杭州迪英加科技有限公司 一种针对宫颈液基细胞分类的训练方法
CN115187583A (zh) * 2022-08-19 2022-10-14 南京信息工程大学 一种基于改进YOLOv5的轻量化道路缺陷检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
SHENG WAN 等: "CONFNET: PREDICT WITH CONFIDENCE", 《2018 IEEE》, pages 2921 - 2925 *
WEN CHEN 等: "Hybrid Loss-Constrained Lightweight Convolutional Neural Networks for Cervical Cell Classification", 《SENSORS》, pages 1 - 12 *
YUE CHEN 等: "Destruction and Construction Learning for Fine-grained Image Recognition", 《PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RCOGNITION(CPVR)》, pages 5157 - 5166 *
尹莞婷: "基于YOLO网络的宫颈异常细胞检测与识别方法研究", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》, pages 068 - 57 *
赵司琦: "基于深度学习的宫颈异常细胞检测方法", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》, pages 068 - 246 *

Also Published As

Publication number Publication date
CN116433588B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN106845487B (zh) 一种端到端的车牌识别方法
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN112949572A (zh) 基于Slim-YOLOv3的口罩佩戴情况检测方法
CN110321967B (zh) 基于卷积神经网络的图像分类改进方法
CN110245613B (zh) 基于深度学习特征对比的船牌识别方法
CN108427919B (zh) 一种基于形状引导显著性模型的无监督油罐目标检测方法
CN109472733A (zh) 基于卷积神经网络的图像隐写分析方法
CN112258490A (zh) 基于光学和红外图像融合的低发射率涂层智能探损方法
Chow et al. Understanding object detection through an adversarial lens
CN116129426A (zh) 一种宫颈细胞涂片18类别的细粒度分类方法
CN107766798A (zh) 一种基于云计算存储和深度学习的遥感图像目标检测方法
CN113095263A (zh) 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置
WO2024051183A1 (zh) 一种基于决策捷径搜索的后门检测方法
CN114863091A (zh) 一种基于伪标签的目标检测训练方法
Wang et al. License plate recognition system
CN113343989A (zh) 一种基于前景选择域自适应的目标检测方法及系统
Li et al. Rejecting character recognition errors using CNN based confidence estimation
CN112528788B (zh) 一种基于域不变特征和时空特征的重识别方法
CN116433588B (zh) 一种基于宫颈细胞的多类别分类与置信判别方法
CN110909645B (zh) 一种基于半监督流形嵌入的人群计数方法
CN117011714A (zh) 基于伪标签辅助的高光谱图像分类方法
CN116824330A (zh) 一种基于深度学习的小样本跨域目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant