CN116433588B - 一种基于宫颈细胞的多类别分类与置信判别方法 - Google Patents
一种基于宫颈细胞的多类别分类与置信判别方法 Download PDFInfo
- Publication number
- CN116433588B CN116433588B CN202310155890.2A CN202310155890A CN116433588B CN 116433588 B CN116433588 B CN 116433588B CN 202310155890 A CN202310155890 A CN 202310155890A CN 116433588 B CN116433588 B CN 116433588B
- Authority
- CN
- China
- Prior art keywords
- confidence
- loss
- picture
- classification
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012850 discrimination method Methods 0.000 title claims description 8
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 230000006378 damage Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 24
- 206010008263 Cervical dysplasia Diseases 0.000 description 4
- 230000003902 lesion Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 206010008342 Cervix carcinoma Diseases 0.000 description 2
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 description 2
- 201000010881 cervical cancer Diseases 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 208000035475 disorder Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 241000186361 Actinobacteria <class> Species 0.000 description 1
- 206010003694 Atrophy Diseases 0.000 description 1
- 208000007879 Atypical Squamous Cells of the Cervix Diseases 0.000 description 1
- 241000222120 Candida <Saccharomycetales> Species 0.000 description 1
- 241000224526 Trichomonas Species 0.000 description 1
- 208000009956 adenocarcinoma Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000037444 atrophy Effects 0.000 description 1
- 230000001580 bacterial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000028709 inflammatory response Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 238000011127 radiochemotherapy Methods 0.000 description 1
- 206010041823 squamous cell carcinoma Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 241001529453 unidentified herpesvirus Species 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
- G06T2207/10061—Microscopic image from scanning electron microscope
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于宫颈细胞的多类别分类与置信判别方法,本案基于区域定位感知,混淆对抗与添加置信预测分支的细粒度神经网络,能够对宫颈细胞的18个类别进行分类;并能够训练置信度分支与概率分支,对于不属于宫颈细胞的涂片,或特征与宫颈细胞相似的涂片,可通过推理出的置信度值进行区分,而不是强行输出为宫颈细胞的某种类别;再通过区域对齐网络,有助于定位图像中的主要目标;最后通过混淆对抗分支,使网络的特征提取器可以得到细粒度的局部特征,对于宫颈细胞某些类别间的特征非常相似的情况,也可以很好地学习到不同类别间的细粒度特征,并且能够不受训练时随机打乱图片产生的噪声影响。由此,可实现宫颈细胞涂片的分类与置信判别。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于宫颈细胞的多类别分类与置信判别方法。
背景技术
宫颈癌的筛查对于宫颈癌的防治具有非常重要意义,非常有必要根据我国具体情况进行较为准确的筛查。随着卷积神经网络的发展以其在图像任务中的有效性,结合医疗图像识别的需求,越来越多的卷积神经网络算法应用到宫颈细胞的检测中。
中国公开号公开了CN111274903B一种基于图卷积神经网络的宫颈细胞图像分类方法,其通过使用图卷积神经网络结构,结合大量标注宫颈细胞图像数据,构建了一个能够对七类宫颈细胞图像进行分类的分类模型。但是,该方法能够识别的宫颈细胞类别数不够全面,数量较少。另,由于不同的亚型的细胞由于其整体结构相似,通用的分类网络对此任务的效果并不理想。若采取对于不同亚型细胞细粒度特征进行特别的标注,如额外标注mask等信息,又会进一步增加医疗数据集及标签的获取成本;而且对于每种大类下的亚型特征相似的宫颈细胞,在经过图片打乱后会影响分类效果。此外,在模型应用到宫颈细胞检测的任务中时,如果输入到模型中的是非宫颈细胞的图片,那么模型不论将其归类到什么类别都是错误的;此类情况会造成医疗工作者对于模型的质疑,不利于人工智能技术在医疗图像处理任务中的推广;如果采取分类的方法,将非宫颈细胞的图片制作成一类,那么数据集难以包括所有的情况。
因此,克服上述存在的缺陷,已成为本领域技术人员亟待解决的重要课题。
发明内容
本发明公开了一种基于宫颈细胞的多类别分类与置信判别方法,能够在预测阶段,只采用概率与置信度的输出,能够对宫颈细胞进行多个类别的分类,并且可以得到网络对于该宫颈细胞预测结果的置信度。经过了多次实验结果表明了本发明分类的效果好,可以满足宫颈健康医疗检测的需要,并且模型的鲁棒性更好。
本发明公开了一种基于宫颈细胞的多类别分类与置信判别方法,所述方法包括以下步骤:
S1:训练18个类别的宫颈细胞的图片,然后对训练图片进行破坏处理;
S2:将已破坏处理的图片和原始图片成对输入到神经网络模型中;图片首先输入到特征提取器中,并得到对应的特征图;
S3:将S2得到的特征图分别输入到不同的全连接层中,其中一个全连接层输出类别概率值;另一个全连接层输出置信度值;
S4:将S3得到的概率值,置信度值与标签进行计算得到新的概率值,再与18个类别的标签进行交叉熵损失函数的计算;
S5:将S2得到的特征图输入到区域对齐网络并与打乱图片的位置信息进行L1loss函数的计算;
S6:在步骤S5进行的同时,将S2得到的特征图进行输入到对抗网络的全连接层中并与未打乱标签和打乱标签进行A-softmax的损失函数计算;
S7:将S4、S5、S6得到的损失函数得到的各个损失进行整合,以使所述损失函数优化为最小化;
S8:将训练好的模型进行预测,将正常图片输入模型中并输出最终结果。
作为一种可选的实施方式,步骤S2所述的对训练图片进行破坏处理包括:
将训练的原始图片分割为若干个局部小块并随时打乱,再将随机打乱后的小块进行重排成新的已打乱图片。
作为一种可选的实施方式,步骤S2所述的特征提取器为残差网络(ResNet)。
作为一种可选的实施方式,步骤S3所述的与18个类别的标签进行交叉熵损失函数的计算包括:
对分类网络的损失函数进行计算得到分类损失Lt,其计算公式为:
对置信网络的损失函数进行计算得到置信损失Lc,其计算公式为:Lc=-log(c)
将加权后的置信损失和分类损失相加,组成置信和分类的总损失Lcls,其计算公式为:Lcls=Lt+λLc。
作为一种可选的实施方式,所述步骤S5包括:
S51:将步骤S2得到的特征图输入到形状为2048×1的卷积中,得到通道数为1的特征图;
S52:将步骤S51得到的特征图输入到tanh激活函数,经过最大池化的筛选,与打乱图片的位置信息进行L1loss函数的计算得到区域对齐损失Lloc。
作为一种可选的实施方式,所述步骤S6包括:
S61:将S2得到的特征图进行拉平操作,输入到对抗网络的全连接层中,将每一张图片标记为d∈{0,1}2,表示这个图片是否被破坏,将特征图输入到对抗网络中,与未打乱和打乱标签进行A-softmax的抗函数的计算;
S62:添加一个判别器作为一个新分支,以判断图片是否被破坏并计算判别器的损失。
作为一种可选的实施方式,所述步骤S8包括:将训练好的模型进行预测,输入图片为正常的图片,输出结果只取分类分支的结果,同时产生概率值与置信度值。
与现有技术相比,本发明的有益效果是:
1、本案首先通过步骤S1和S2的设置,对18类宫颈细胞图片进行区域打乱重排,以便于网络学习图像区域之间的关联信息,有利于更好地识别区分区域和学习局部的细粒度特征。通过步骤S3和S4的设置,一方面能够对宫颈细胞的18个类别进行分类,分类的数量更多,更全面;另一方面能够形成置信预测分支,便于通过网络预测的置信值,概率值与数据集标签计算得到新的概率值,与数据标签计算损失,以便于训练置信度分支与概率分支,对于不属于宫颈细胞的涂片,或特征与宫颈细胞相似的涂片,能通过模型推理出的置信度值进行区分,而不是强行输出为宫颈细胞的某种类别。通过步骤S5的设置,能够形成区域对齐网络分支,有助于定位图像中的主要目标,并有助于找到子区域之间的相关性。通过步骤S6的设置,能够形成混淆对抗分支,使网络的特征提取器可以得到细粒度的局部特征,对于宫颈细胞某些类别间的特征非常相似的情况,也可以很好地学习到不同类别间的细粒度特征,并且能够不受训练时随机打乱图片产生的噪声影响。通过以上设置,实现了基于区域定位感知,混淆对抗与添加置信预测分支的细粒度神经网络,使其在宫颈细胞涂片的分类与置信度判别上有着较好的表现。
附图说明
图1是本发明公开的一种基于宫颈细胞的多类别分类与置信判别方法的流程示意图。
图2是本发明公开的一种基于宫颈细胞的多类别分类与置信判别方法的整体训练网络算法结构示意图。
具体实施方式
以下通过实施例对本发明特征及其它相关特征作进一步详细说明,以便于同行业技术人员的理解:
如图1和图2所示,本案一种基于宫颈细胞的多类别分类与置信判别方法包括以下步骤:
在训练图片之前,将采集的宫颈细胞进行分类并将每个类别进行数字编码。其中,18类别分为非病变类别、病变类别以及其他类别。所述非病变类别包括:萎缩;妊娠反应;炎症反应;放化疗反应;滴虫;念珠菌;放线菌;细菌性阴道菌。所述病变类别包括:ASC-US;ASC-H;HG4/HSIL;LSIL;鳞状细胞癌、AGC-NOS;AGC-FN;腺癌;其他类别包括:疱疹病毒、少量反应性细胞。将以上18类的宫颈细胞的每种类别名称用数字1-18进行编码。
S1:训练图片统一524×524的尺寸,并随机截取428×428的尺寸。将训练的原始图片均分为49个小块,并将其随机打乱后,进行重排得到新的已打乱的图片。
S2:将原始图片和已打乱的图片成对的输入模型中;首先,将训练图片输入到ResNet的残差网络,原始图像为i,被破坏的图像/打乱重排的图像为φ(I),两种图像经过ResNet,得到通道数为2048的特征图;
S3:将通道数为2048的特征图输入分类网络中的第一全连接层,得到维度为18的分类概率p;将通道数为2048的特征图输入到置信网络中的第二全连接层,得到维度为1的置信度c。其中,分类概率p通过softmax函数获得,置信度c通过sigmoid函数获得。置信度c在[0,1]的区间内,如果网络确信它能对给定的输入产生正确的预测,它的输出应该接近1。相反,如果网络不能确信它能产生正确的预测,那么它的输出应该接近于0。
S4:将S3得到的分类概率p、置信度c与标签y进行计算得到新的概率p';其中,标签y是指目标概率分布。所述概率值p'如下公式计算得到:
p′=c·p+(1-c)·y
当模型输出的置信度c越大,p'的值越接近p,即c越趋向于1,p'越趋向于p。反之,当模型输出的置信度c越低,p'的值越接近标签y,即c越趋向于0,p'越趋向于y。
与18个类别的标签进行交叉熵损失函数的计算;
交叉熵损失函数首先对分类网络的损失函数进行计算,分类网络的损失函数计算公式为:
模型为了降低模型的loss,置信度c的输出会倾向0,所以还要为c添加一个激励loss,希望c越大越好,因此置信网络的损失函数为:
Lc=-log(c)
最终置信和分类总损失Lcls由置信损失和分类损失组成,再由一个权重参数λ调节,公式如下:
Lcls=Lt+λLc
其中,权重参数λ能够平衡置信损失和分类损失。
S51:将S2得到的特征图输入到形状为2048×1的卷积中,得到通道数为1的特征图;其中,区域对齐网络的输入是分类网络的一个卷积层的输出特征n代表第n层,通过1×1卷积处理特征,以获得具有两个通道的输出;
S52:然后通过tanh激活函数和平均池化处理输出,以得到尺寸为2×N×N的映射,最后的区域对齐网络的输出为:
其中M(I)的两个通道分别对应于行和列的位置坐标,其中h是我们提出的区域对齐网络,θloc是区域对齐网络的参数。在I中预测的Rσ(i,j)和位置Mσ(i,j)(φ(I)),在I中预测的Ri,j的位置为Mi,j(I,i,j)。对应的标签为(i,j),区域对齐损失Lloc定义为预测坐标与原始坐标之间的L1距离,计算公式如下:
如上所述,采用tanh激活函数的设置,与常用的Sigmoid函数相比,其收敛速度更快,其输出以0为中心。
S61:将每一张图片标记为d∈{0,1}2,表示这个图片是不是被打乱。将2048张特征图输入到对抗网络中,与0(未打乱)和1(打乱)标签进行A-softmax函数的计算。
如上所述,通过运用A-softmax函数,与一般的Softmax函数相比,可以使得学习到的特征具有更明显的角分布。
S62:其中是分类网络第m层卷积网络输出的特征向量,/>是分类网络的可学习参数,θadv∈Rd×2是一个线性的映射。判别器的损失Ladv如下:
S7:得到三种损失函数之后,将置信和分类的总损失Lcls、区域对齐损失Lloc、对抗损失Ladv三者整合到一起,进行最小化的优化,具体公式如下:
L=αLcls+βLabc+γLloc
如此,以便于得到最小的损失,有利于提高模型的鲁棒性。
S8:训练后的模型推理,测试图片使用未打乱的图片,输入分类的模型中,结果进行softmax后,得到最终的输出,也能通过置信度c衡量输入的数据是不是分布外的样本。
如上所述,在本发明实施例中本案首先通过步骤S1和S2的设置,对18类宫颈细胞图片进行区域打乱重排,以便于网络学习图像区域之间的关联信息,有利于更好地识别区分区域和学习局部的细粒度特征。通过步骤S3和S4的设置,一方面能够对宫颈细胞的18个类别进行分类,分类的数量更多,更全面;另一方面能够形成置信预测分支,便于通过网络预测的置信值,概率值与数据集标签计算得到新的概率值,与数据标签计算损失,以便于训练置信度分支与概率分支,对于不属于宫颈细胞的涂片,或特征与宫颈细胞相似的涂片,能通过模型推理出的置信度值进行区分,而不是强行输出为宫颈细胞的某种类别。通过步骤S5的设置,能够形成区域对齐网络分支,有助于定位图像中的主要目标,并有助于找到子区域之间的相关性。通过步骤S6的设置,能够形成混淆对抗分支,使网络的特征提取器可以得到细粒度的局部特征,对于宫颈细胞某些类别间的特征非常相似的情况,也可以很好地学习到不同类别间的细粒度特征,并且能够不受训练时随机打乱图片产生的噪声影响。通过以上设置,实现了基于区域定位感知,混淆对抗与添加置信预测分支的细粒度神经网络,使其在宫颈细胞涂片的分类与置信度判别上有着较好的表现。
作为一种可选的实施方式,步骤S2所述的特征提取器为残差网络(ResNet)。如此,其能够有效解决网络层数增加产生的梯度消失、爆炸和网络退化问题。
以上对本发明实施例公开的一种基于宫颈细胞的多类别分类与置信判别方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (6)
1.一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,包括以下步骤:
S1:训练18个类别的宫颈细胞的图片,然后对训练图片进行破坏处理;
S2:将已破坏处理的图片和原始图片成对输入到神经网络模型中;图片首先输入到特征提取器中,并得到对应的特征图;
S3:将S2得到的特征图分别输入到不同的全连接层中,其中一个全连接层输出类别概率值p,另一个全连接层输出置信度值c;
S4:将S3得到的概率值p,置信度值c与标签y进行计算得到新的概率值p',再与18个类别的标签进行交叉熵损失函数的计算,得到置信和分类的总损失Lcls;
其中,标签y是指目标概率分布,所述概率值p'由如下公式计算得到:
p′=c·p+(1-c)·y
S5:将S2得到的特征图输入到区域对齐网络并与打乱图片的位置信息进行L1loss函数的计算,以得到区域对齐损失Lloc;
S6:在步骤S5进行的同时,将S2得到的特征图进行输入到对抗网络的全连接层中并与未打乱标签和打乱标签进行A-softmax的损失函数计算,以得到对抗损失Ladv;
S7:将S4得到的置信和分类的总损失Lcls、S5得到的区域对齐损失Lloc、S6得到的对抗损失Ladv进行整合,以使所述损失函数优化为最小化;
S8:将训练好的模型进行预测,将正常图片输入模型中并输出最终结果;
其中,所述的与18个类别的标签进行交叉熵损失函数的计算包括:
对分类网络的损失函数进行计算得到分类损失Lt,其计算公式为:
对置信网络的损失函数进行计算得到置信损失Lc,其计算公式为:Lc=-log(c)
将加权后的置信损失和分类损失相加,组成置信和分类的总损失Lcls,其计算公式为:Lcls=Lt+λLc。
2.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,步骤S2所述的对训练图片进行破坏处理包括:
将训练的原始图片分割为若干个局部小块并随时打乱,再将随机打乱后的小块进行重排成新的已打乱图片。
3.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,步骤S2所述的特征提取器为残差网络(ResNet)。
4.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,所述步骤S5包括:
S51:将步骤S2得到的特征图输入到形状为2048×1的卷积中,得到通道数为1的特征图;
S52:将步骤S51得到的特征图输入到tanh激活函数,经过最大池化的筛选,与打乱图片的位置信息进行L1loss函数的计算得到区域对齐损失Lloc。
5.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,所述步骤S6包括:
S61:将S2得到的特征图进行拉平操作,输入到对抗网络的全连接层中,将每一张图片标记为d∈{0,1}2,表示这个图片是否被破坏,将特征图输入到对抗网络中,与未打乱和打乱标签进行A-softmax的抗函数的计算;
S62:添加一个判别器作为一个新分支,以判断图片是否被破坏并计算判别器的损失。
6.根据权利要求1所述的一种基于宫颈细胞的多类别分类与置信判别方法,其特征在于,所述步骤S8包括:将训练好的模型进行预测,输入图片为正常的图片,输出结果只取分类分支的结果,同时产生概率值与置信度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310155890.2A CN116433588B (zh) | 2023-02-21 | 2023-02-21 | 一种基于宫颈细胞的多类别分类与置信判别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310155890.2A CN116433588B (zh) | 2023-02-21 | 2023-02-21 | 一种基于宫颈细胞的多类别分类与置信判别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116433588A CN116433588A (zh) | 2023-07-14 |
CN116433588B true CN116433588B (zh) | 2023-10-03 |
Family
ID=87091450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310155890.2A Active CN116433588B (zh) | 2023-02-21 | 2023-02-21 | 一种基于宫颈细胞的多类别分类与置信判别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116433588B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062296A (zh) * | 2019-12-11 | 2020-04-24 | 武汉兰丁医学高科技有限公司 | 一种基于计算机的白细胞自动识别分类方法 |
CN111861916A (zh) * | 2020-07-09 | 2020-10-30 | 中南大学湘雅二医院 | 病理图片的处理方法 |
CN111950525A (zh) * | 2020-08-31 | 2020-11-17 | 福州大学 | 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法 |
CN112163465A (zh) * | 2020-09-11 | 2021-01-01 | 华南理工大学 | 细粒度图像分类方法、系统、计算机设备及存储介质 |
CN112257704A (zh) * | 2020-09-15 | 2021-01-22 | 深圳视见医疗科技有限公司 | 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 |
CN113743353A (zh) * | 2021-05-10 | 2021-12-03 | 合肥工业大学 | 空间、通道和尺度注意力融合学习的宫颈细胞分类方法 |
IT202000016054A1 (it) * | 2020-07-02 | 2022-01-02 | Univ Bologna Alma Mater Studiorum | Metodo per determinare la confidenza di una mappa di disparità mediante un apprendimento auto-adattivo di una rete neurale, e relativo sistema di sensori |
CN114300099A (zh) * | 2021-11-24 | 2022-04-08 | 大连工业大学 | 一种基于YOLOv5和显微高光谱图像的异型淋巴细胞分型方法 |
CN114549469A (zh) * | 2022-02-21 | 2022-05-27 | 中国石油大学(华东) | 一种基于置信度校准的深层神经网络医疗图像诊断方法 |
CN114882501A (zh) * | 2022-05-12 | 2022-08-09 | 上海大学 | 一种基于可解释深度学习算法的循环肿瘤细胞检测系统 |
CN115187583A (zh) * | 2022-08-19 | 2022-10-14 | 南京信息工程大学 | 一种基于改进YOLOv5的轻量化道路缺陷检测方法 |
CN115359483A (zh) * | 2022-08-09 | 2022-11-18 | 杭州迪英加科技有限公司 | 一种针对宫颈液基细胞分类的训练方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0909461D0 (en) * | 2009-06-02 | 2009-07-15 | Ge Healthcare Uk Ltd | Image analysis |
-
2023
- 2023-02-21 CN CN202310155890.2A patent/CN116433588B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062296A (zh) * | 2019-12-11 | 2020-04-24 | 武汉兰丁医学高科技有限公司 | 一种基于计算机的白细胞自动识别分类方法 |
IT202000016054A1 (it) * | 2020-07-02 | 2022-01-02 | Univ Bologna Alma Mater Studiorum | Metodo per determinare la confidenza di una mappa di disparità mediante un apprendimento auto-adattivo di una rete neurale, e relativo sistema di sensori |
CN111861916A (zh) * | 2020-07-09 | 2020-10-30 | 中南大学湘雅二医院 | 病理图片的处理方法 |
CN111950525A (zh) * | 2020-08-31 | 2020-11-17 | 福州大学 | 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法 |
CN112163465A (zh) * | 2020-09-11 | 2021-01-01 | 华南理工大学 | 细粒度图像分类方法、系统、计算机设备及存储介质 |
CN112257704A (zh) * | 2020-09-15 | 2021-01-22 | 深圳视见医疗科技有限公司 | 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 |
CN113743353A (zh) * | 2021-05-10 | 2021-12-03 | 合肥工业大学 | 空间、通道和尺度注意力融合学习的宫颈细胞分类方法 |
CN114300099A (zh) * | 2021-11-24 | 2022-04-08 | 大连工业大学 | 一种基于YOLOv5和显微高光谱图像的异型淋巴细胞分型方法 |
CN114549469A (zh) * | 2022-02-21 | 2022-05-27 | 中国石油大学(华东) | 一种基于置信度校准的深层神经网络医疗图像诊断方法 |
CN114882501A (zh) * | 2022-05-12 | 2022-08-09 | 上海大学 | 一种基于可解释深度学习算法的循环肿瘤细胞检测系统 |
CN115359483A (zh) * | 2022-08-09 | 2022-11-18 | 杭州迪英加科技有限公司 | 一种针对宫颈液基细胞分类的训练方法 |
CN115187583A (zh) * | 2022-08-19 | 2022-10-14 | 南京信息工程大学 | 一种基于改进YOLOv5的轻量化道路缺陷检测方法 |
Non-Patent Citations (5)
Title |
---|
CONFNET: PREDICT WITH CONFIDENCE;Sheng Wan 等;《2018 IEEE》;2921-2925 * |
Destruction and Construction Learning for Fine-grained Image Recognition;Yue Chen 等;《Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Rcognition(CPVR)》;5157-5166 * |
Hybrid Loss-Constrained Lightweight Convolutional Neural Networks for Cervical Cell Classification;Wen Chen 等;《Sensors》;1-12 * |
基于YOLO网络的宫颈异常细胞检测与识别方法研究;尹莞婷;《中国优秀硕士学位论文全文数据库 医药卫生科技辑》;E068-57 * |
基于深度学习的宫颈异常细胞检测方法;赵司琦;《中国优秀硕士学位论文全文数据库 医药卫生科技辑》;E068-246 * |
Also Published As
Publication number | Publication date |
---|---|
CN116433588A (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977918B (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN106845487B (zh) | 一种端到端的车牌识别方法 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN112949572A (zh) | 基于Slim-YOLOv3的口罩佩戴情况检测方法 | |
CN110245613B (zh) | 基于深度学习特征对比的船牌识别方法 | |
CN110321967B (zh) | 基于卷积神经网络的图像分类改进方法 | |
CN108427919B (zh) | 一种基于形状引导显著性模型的无监督油罐目标检测方法 | |
Chow et al. | Understanding object detection through an adversarial lens | |
CN109472733A (zh) | 基于卷积神经网络的图像隐写分析方法 | |
CN113343989B (zh) | 一种基于前景选择域自适应的目标检测方法及系统 | |
CN112258490A (zh) | 基于光学和红外图像融合的低发射率涂层智能探损方法 | |
CN116129426A (zh) | 一种宫颈细胞涂片18类别的细粒度分类方法 | |
CN112927266B (zh) | 基于不确定性引导训练的弱监督时域动作定位方法及系统 | |
CN113449806A (zh) | 基于层次结构的二阶段林业害虫识别与检测系统及方法 | |
CN107766798A (zh) | 一种基于云计算存储和深度学习的遥感图像目标检测方法 | |
CN114863091A (zh) | 一种基于伪标签的目标检测训练方法 | |
Wang et al. | License plate recognition system | |
CN112528788B (zh) | 一种基于域不变特征和时空特征的重识别方法 | |
CN116433588B (zh) | 一种基于宫颈细胞的多类别分类与置信判别方法 | |
CN110909645B (zh) | 一种基于半监督流形嵌入的人群计数方法 | |
CN116824330A (zh) | 一种基于深度学习的小样本跨域目标检测方法 | |
CN115294381B (zh) | 基于特征迁移和正交先验的小样本图像分类方法及装置 | |
CN112884022B (zh) | 一种基于图像平移的无监督深度表征学习方法及系统 | |
CN113822252A (zh) | 显微镜下病理图像细胞鲁棒检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |