CN111783571A - 一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法 - Google Patents
一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法 Download PDFInfo
- Publication number
- CN111783571A CN111783571A CN202010553018.XA CN202010553018A CN111783571A CN 111783571 A CN111783571 A CN 111783571A CN 202010553018 A CN202010553018 A CN 202010553018A CN 111783571 A CN111783571 A CN 111783571A
- Authority
- CN
- China
- Prior art keywords
- cervical cell
- model
- cervical
- cell image
- automatic classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013145 classification model Methods 0.000 title claims abstract description 20
- 210000004027 cell Anatomy 0.000 claims abstract description 113
- 210000002569 neuron Anatomy 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 230000003416 augmentation Effects 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 description 7
- 210000003855 cell nucleus Anatomy 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 208000009458 Carcinoma in Situ Diseases 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 201000004933 in situ carcinoma Diseases 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000007790 scraping Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010008342 Cervix carcinoma Diseases 0.000 description 1
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 description 1
- 201000010881 cervical cancer Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
本发明属于医疗图像识别领域,公开了一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法。包括:获取宫颈细胞图像并进行预处理和增广,得到宫颈细胞图像数据集;建立VGG16模型,设置VGG16模型的全连接层FC1的神经元个数为a,全连接层FC2的神经元个数为b,a,b∈[256,512,1024,2048],获得改进的VGG16模型;设置改进的VGG16模型的初始权重,然后利用宫颈细胞图像数据集对改进的VGG16模型进行训练,训练完成后,得到宫颈细胞自动分类模型。本发明对模型全连接层进行重新设计,消除了因为样本量小网络复杂而带来的过拟合以及模型训练时间长,网络不收敛的影响。重新设计后的网络更适用于宫颈细胞分类任务。
Description
技术领域
本发明属于医疗图像识别领域,具体涉及一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法。
背景技术
目前,我国的临床检测主要为宫颈刮片细胞学检查,仍为人工筛选,耗时,昂贵且准确率低。由于前期筛查是对癌变进行预防和控制的关键途径,我国人数基数大,宫颈癌的筛查工作量相比较于病例医生的数量,十分的不平衡。因此,采用AI技术进行宫颈细胞病理辅助诊断在癌前病变诊断中具有重要意义。
基于以往研究学者对宫颈细胞识别方法的研究可以得出,传统的算法都是先经过细胞分割,其次从分割后的图像中人工提取细胞图像的特征,然后设计算法进行特征降维等操作,最后选取合适的分类器进行识别。此类方法通常存在以下几个方面的问题:
1.提取细胞特征需要进行细胞图像的分割。在细胞图像分割阶段,由于细胞存在粘连,重叠等多种复杂的情况,所以难以选择有效的算法进行准确分割,而分割的准确率严重影响了特征提取的准确性,导致对最终分类结果造成影响。
2.特征提取需要人工选取有效特征。在特征提取阶段,需要依照相关医学常识进行特征选取,这就使得研究人员首先具备一定的病理知识。尽管如此,人工选取的特征也不一定具有代表性,且选取的特征存在一定的相关性,还需进行特征降维,主成分分析等相关方法简化特征维度。如果特征提取不全面,不准确,这也会导致识别效果不好。
3.宫颈细胞数据集小,标注困难。由于医学图像的特殊性,常人无法替代医生对图像进行标注。且由于病人隐私等多方面的关系,一般研究学者难以获得大量的样本。因此,大多数研究都是采用公开数据集进行研究,样本量少也为卷积神经网络的训练带来了困难。
发明内容
本发明的目的在于提供一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法,用以解决现有技术中对宫颈细胞进行分类时没有行之有效的分类方法的问题。
为了实现上述任务,本发明采用以下技术方案:
一种宫颈细胞自动分类模型建立方法,包括如下步骤:
步骤1:获取宫颈细胞图像并进行预处理和增广,得到宫颈细胞图像数据集,获取所有宫颈细胞图像中的类别信息,得到标签集;
步骤2:建立VGG16模型,设置VGG16模型的全连接层FC1的神经元个数为a,全连接层FC2的神经元个数为b,a,b∈[256,512,1024,2048],获得改进的VGG16模型;
步骤3:为步骤2得到的改进的VGG16模型设置初始权重,然后利用步骤1获得的宫颈细胞图像数据集和标签集对改进的VGG16模型进行训练,训练完成后,得到宫颈细胞自动分类模型。
进一步的,步骤2中a=1024,b=256。
进一步的,所述初始权重为采用ImageNet数据集及其包含的标签对原始的VGG16模型进行训练后,训练完成的模型的权重。
进一步的,所述预处理为对宫颈细胞图像进行细胞核区域裁剪。
进一步的,步骤1中所述增广方式为平移旋转和边缘扩展。
一种宫颈细胞自动分类方法,包括如下步骤:
步骤a:获取待分类宫颈细胞图像;
步骤b:将待分类宫颈细胞图像输入如任一种宫颈细胞自动分类模型建立方法获得的宫颈细胞自动分类模型中,获得该待分类宫颈细胞图像的类别信息。
本发明与现有技术相比具有以下技术特点:
(1)本发明的模型构建方法中对模型全连接层进行重新设计,消除了因为样本量小网络复杂而带来的过拟合以及模型训练时间长,网络不收敛的影响。重新设计后的网络更适用于宫颈细胞分类任务。
(2)本发明在分类时,可以直接使用宫颈细胞图像进行分类,无需进行细胞分割,以及复杂的特征提取等工作,消除了因细胞分割误差而带来的特征数据提取不准确的影响,同时简化了细胞分类的预处理工作。
(3)本发明在细胞预处理阶段,采用裁剪等高等宽的细胞核区域的方式来控制输入图像尺寸代替了原有的直接拉伸图像改变图像尺寸的方式,消除了细胞图像因不匹配输入网络尺寸而产生的形变,以及因为细胞形变而带来的分类结果不准确的影响。
附图说明
图1是Herlev数据集7类宫颈细胞图像;
图2是细胞图像裁剪示意图;
图3是细胞数据集扩充示意图;
图4是模型迁移学习示意图;
图5是采用改进后的VGG16模型对宫颈细胞图像进行2分类的效果图;
图6是采用改进后的VGG16模型对宫颈细胞图像进行7分类的效果图。
以下结合具体实施方式和附图对本发明进一步解释说明。
具体实施方式
以下给出本发明的具体实施例,需要说明的是本发明并不局限于以下具体实施例,凡在本申请技术方案基础上做的等同变换均落入本发明的保护范围。
首先对本发明中出现的一些技术词汇进行解释说明:
VGG16模型:VGG16是由Simonyan和Zisserman在文献《Very Deep ConvolutionalNetworks for Large Scale Image Recognition》中提出卷积神经网络模型,VGG其名称来源于作者所在的牛津大学视觉几何组(Visual Geometry Group)的缩写,16是指网络的层次有16层。该模型参加2014年的ImageNet图像分类与定位挑战赛,取得了优异成绩:在分类任务上排名第二,在定位任务上排名第一。VGG16模型的输入尺寸为224*224*3,共有13个卷积层,且每个卷积层卷积核尺寸的大小为3*3,移动步长为1;共有4个池化层,池化层的尺寸为2*2,移动步长为2,经过池化层后特征图像尺寸缩减为原来的4分之1;共有两个全连接层,全连接层的神经元个数为4096*4096。由于原始的VGG模型是用来进行1000分类的,所以最后一层的神经元个数为1000。
HerLev图像集:该图像集制作于赫列夫大学医院,是医生通过数码相机结合显微镜在统一视距下摄制,图像分辨率是0.201μm/像素。Herlev数据集的数据量较小,共有917幅图像,其中每幅图像为一个裁剪完整的子宫颈细胞。细胞图像的类别分为7类,分别为:Normal superficiel,Normal intermediate,Normal columnar,Light dysplastic,Moderate dysplastic,Severe dysplastic,Carcinoma in situ。代表着宫颈癌变7个状态下的细胞,在这7个类别中,前三个类别属于正常细胞,后四个类别属于异常细胞。每一类的数据情况如表1所示。细胞类别的标注工作由两名细胞技术人员和一名医生共同完成,这样多次验证,最大限度地提高了诊断的准确性,避免个人主观带来的误差。
ImageNet数据集:Imagenet数据集有1400多万幅图片,涵盖2万多个类别;其中有超过百万的图片有明确的类别标注和图像中物体位置的标注,具体信息如下:(1)Totalnumber of non-empty synsets:21841;(2)Total number of images:14,197,122;(3)Number of images with bounding box annotations:1,034,908;(4)Number of synsetswith SIFT features:1000;(5)Number of images with SIFT features:1.2million;Imagenet数据集是目前深度学习图像领域应用得非常多的一个领域,关于图像分类、定位、检测等研究工作大多基于此数据集展开。
在本实施例中公开了一种宫颈细胞自动分类模型建立方法,包括如下步骤:
步骤1:获取宫颈细胞图像并进行预处理和增广,得到宫颈细胞图像数据集,获取所有宫颈细胞图像中的类别信息,得到标签集;步骤2:建立VGG16模型,设置VGG16模型的全连接层FC1的神经元个数为a,全连接层FC2的神经元个数为b,a,b∈[256,512,1024,2048],获得改进的VGG16模型;
步骤3:为步骤2得到的改进的VGG16模型设置初始权重,然后利用步骤1获得的宫颈细胞图像数据集和标签集对改进的VGG16模型进行训练,训练完成后,得到宫颈细胞自动分类模型。
具体的,所述宫颈细胞图像属于HerLev数据集,所述预处理为对HerLev数据集中的宫颈细胞图像进行细胞核区域裁剪,做法为以细胞核质心为中心,裁剪出128*128大小的图像,如图2所示。
由于网络需要统一大小的图片输入尺寸,而HerLev图像集中的图像尺寸大小不一,且长宽比相差很大。若依照传统方法改变图像尺寸,会导致图像内部特征改变,从而影响分类效果且分类模型不具有普适性,因此本发明采取提取细胞核区域的方式进行适应网络尺寸。宫颈细胞不同类别的差距主要来自于细胞核的差异,医生在判别细胞异常与否也是通过对细胞核的分析来确定,因此本发明从原始图像中裁剪出固定大小的细胞核区域作为网络输入图像。
具体的,步骤1中所述增广方式为平移旋转和边缘扩展。
由于网络训练需要大量的数据集,且每一类的样本量要均衡。宫颈数据集共917张,分为7类,最少的一类有70张,最多的一类有198张。数据增广处理具体做法是通过平移旋转的方式对数据集进行扩充,将正常细胞数据量扩充为之前的20倍,异常细胞扩充为之前的10倍。由于平移旋转之后需要对图像的边缘进行填充,本发明采用边缘扩展的方式对图像进行填充。扩展后的图像如图3所示。
本实施例中,图像增广后得到的样本数据集中共11590幅宫颈细胞图像,如表1所示。
表1数据集扩展量
具体的,采用ImageNet数据集对VGG16模型进行预训练,并采用迁移学习的方法将预训练完成后VGG16模型的权重作为初始权重。其中,初始权重是指模型卷积层与层之间的参数值,即卷积层中卷积核的参数值。
在具体实施中,由于宫颈细胞数据量较小,直接训练网络花费时间较长且效果不理想,本发明采用迁移学习的方法,使用ImageNet进行网络预训练。迁移学习指的是采用现有的或者已有的知识去解释或者学习另一相关领域的知识,其可以完成知识在相关领域之间的迁移复用,在本发明中采用迁移学习的思想来进行预训练网络对新网络的参数迁移。模型思想如图4所示。
优选的,设置VGG16模型的全连接层FC1的神经元个数为1024,全连接层FC2的神经元个数为256。本发明通过实验对比,发现全连接层参数为1024-256时,分类准确率最高。
在原始VGG16模型中,共有两个全连接层,全连接层的神经元个数为4096*4096。由于原始的VGG模型是用来进行1000分类的,所以最后一层的神经元个数为1000。全连接层神经元个数分别为4096-4096-1000,全连接层FC1的权重参数量为7*7*512*4096=102760448,FC2的权重参数量为4096*4096=16777216,softmax层的权重参数量为4096*1000=4096000。如果采用原始VGG16的全连接层神经元个数来实现宫颈细胞的分类,参数量过大,容易造成过拟合,只对训练集产生较好的分类效果。因此为了适应本发明的应用,需要对网络进行修改。本发明在相同学习率,相同迭代次数的情况下,改变全连接层神经元个数,分别取2048,1024,512,256作为全连接层参数值。通过对比测试集准确率来选择最优的全连接层参数设置。
具体的,步骤2改进的VGG16模型中softmax层参数为2或7。
Softmax层的参数取决于数据集的类别数,原始VGG16网络是用来处理1000类的数据,而本发明主要用于宫颈细胞2分类和7分类,故进行2分类时将softmax层神经元个数改为2,进行7分类时将softmax层参数改为7。具体参数设计如表2所示:
表2模型参数设置
在本实施例中还公开了一种宫颈细胞自动分类方法,包括如下步骤:
步骤a:获取待分类宫颈细胞图像;
步骤b:将待分类宫颈细胞图像输入宫颈细胞自动分类模型中,获得该图像的类别信息。
其中,2分类是指正常类和异常类;7分类是指Normal superficiel,Normalintermediate,Normal columnar,Light dysplastic,Moderate dysplastic,Severedysplastic,Carcinoma in situ这7个类别。所述类别信息在对应7分类的7种类别。
具体的,在本实施例中将宫颈细胞图像数据集按照6:2:2的比例分成训练集,验证集,测试集,测试集输入经步骤3的得到的宫颈细胞自动分类模型中,统计分类结果,计算模型分类评价指标值。
对于卷积神经网络对宫颈细胞分类的有效性进行评价是非常有必要的,在分类任务中常用的评价指标有以下几项:准确率(Accuracy),精确率(Precision),召回率(Recall)和F1-score。
准确率计算公式如式1:
精确率计算公式如式2:
召回率计算公式如式3:
F1值计算公式如式4:
误识别率计算公式如式5:
以TP,FN,FP,TN分别表示分类过程中的统计值,对宫颈细胞图像分别进行7分类和2分类,宫颈细胞的二分类混淆矩阵如图5所示:
正常细胞中有38张误分类为异常细胞,异常细胞中有25张图片被分类为正常细胞,相对于测试集图片的数量,分类错误的图像是很少的,尤其是异常细胞的图像,这也说明卷积神经网络在宫颈细胞分类中的优越性。
通过对混淆矩阵的计算,得出2分类各个指标结果如表3所示:
表3宫颈细胞2分类结果
宫颈细胞7分类的混淆矩阵结果如图6所示:
通过对混淆矩阵计算,得到7分类各个评价指标的结果。如表4所示:
表4宫颈细胞7分类结果
将本发明卷积神经网络分类的方法,同其他人工提取数据特征再通过设计分类器分类的算法相比较,得出的结果如表5所示:
表5不同方法分类对比结果
从对比结果可以看出,本发明方法在细胞二分类的准确率相对较高,高出目前最好的提升树分类器算法Xgboost,Adaboost,Bagging等,这些算法均为目前机器学习领域最为常用且在数据分类任务中表现优异的集成学习分类算法。这是因为采用数据特征对细胞进行分类,其结果会受图像分割准确率的影响,且分类特征为人工选取,不具有代表性。而本发明通过卷积神经网络自动提取细胞图像的分类特征,不受人工主观影响,所以本发明方法在二分类的准确率相对较高。在七分类的准确率对比结果中可以看出:本发明方法的准确率相比集成学习分类器的准确率有所提升,尤其是7分类准确率由原来的0.64提升至0.89。因为原始数据集中每个类别的数据量不均衡,在数据分类中解决这类数据偏斜的问题,往往需要对数据进行过采样,欠采样或者调整预测概率的阈值,这样模型变得复杂,且不易得到稳定的分类模型。
Claims (6)
1.一种宫颈细胞自动分类模型建立方法,其特征在于,包括如下步骤:
步骤1:获取宫颈细胞图像并进行预处理和增广,得到宫颈细胞图像数据集,获取所有宫颈细胞图像中的类别信息,得到标签集;
步骤2:建立VGG16模型,设置VGG16模型的全连接层FC1的神经元个数为a,全连接层FC2的神经元个数为b,a,b∈[256,512,1024,2048],获得改进的VGG16模型;
步骤3:为步骤2得到的改进的VGG16模型设置初始权重,然后利用步骤1获得的宫颈细胞图像数据集和标签集对改进的VGG16模型进行训练,训练完成后,得到宫颈细胞自动分类模型。
2.如权利要求1所述的宫颈细胞自动分类模型建立方法,其特征在于,步骤2中a=1024,b=256。
3.如权利要求1所述的宫颈细胞自动分类模型建立方法,其特征在于,所述初始权重为采用ImageNet数据集及其包含的标签对原始的VGG16模型进行训练后,训练完成的模型的权重。
4.如权利要求1所述的宫颈细胞自动分类模型建立方法,其特征在于,所述预处理为对宫颈细胞图像进行细胞核区域裁剪。
5.如权利要求1所述的宫颈细胞自动分类模型建立方法,其特征在于,步骤1中所述增广方式为平移旋转和边缘扩展。
6.一种宫颈细胞自动分类方法,包括如下步骤:
步骤a:获取待分类宫颈细胞图像;
步骤b:将待分类宫颈细胞图像输入如权利要求1-5中任一种宫颈细胞自动分类模型建立方法获得的宫颈细胞自动分类模型中,获得该待分类宫颈细胞图像的类别信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010553018.XA CN111783571A (zh) | 2020-06-17 | 2020-06-17 | 一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010553018.XA CN111783571A (zh) | 2020-06-17 | 2020-06-17 | 一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111783571A true CN111783571A (zh) | 2020-10-16 |
Family
ID=72756921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010553018.XA Pending CN111783571A (zh) | 2020-06-17 | 2020-06-17 | 一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783571A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516022A (zh) * | 2021-04-23 | 2021-10-19 | 黑龙江机智通智能科技有限公司 | 一种宫颈细胞的细粒度分类系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780466A (zh) * | 2016-12-21 | 2017-05-31 | 广西师范大学 | 一种基于卷积神经网络的宫颈细胞图像识别方法 |
CN109034045A (zh) * | 2018-07-20 | 2018-12-18 | 中南大学 | 一种基于卷积神经网络的白细胞自动识别方法 |
CN109190567A (zh) * | 2018-09-10 | 2019-01-11 | 哈尔滨理工大学 | 基于深度卷积神经网络的异常宫颈细胞自动检测方法 |
CN109376777A (zh) * | 2018-10-18 | 2019-02-22 | 四川木牛流马智能科技有限公司 | 基于深度学习的宫颈癌组织病理学图像分析方法及设备 |
CN111242063A (zh) * | 2020-01-17 | 2020-06-05 | 江苏大学 | 基于迁移学习的小样本分类模型构造方法及虹膜分类应用 |
-
2020
- 2020-06-17 CN CN202010553018.XA patent/CN111783571A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780466A (zh) * | 2016-12-21 | 2017-05-31 | 广西师范大学 | 一种基于卷积神经网络的宫颈细胞图像识别方法 |
CN109034045A (zh) * | 2018-07-20 | 2018-12-18 | 中南大学 | 一种基于卷积神经网络的白细胞自动识别方法 |
CN109190567A (zh) * | 2018-09-10 | 2019-01-11 | 哈尔滨理工大学 | 基于深度卷积神经网络的异常宫颈细胞自动检测方法 |
CN109376777A (zh) * | 2018-10-18 | 2019-02-22 | 四川木牛流马智能科技有限公司 | 基于深度学习的宫颈癌组织病理学图像分析方法及设备 |
CN111242063A (zh) * | 2020-01-17 | 2020-06-05 | 江苏大学 | 基于迁移学习的小样本分类模型构造方法及虹膜分类应用 |
Non-Patent Citations (1)
Title |
---|
廖欣 等: ""基于深度卷积神经网络的宫颈细胞病理智能辅助诊断方法"", 《液晶与显示》, vol. 33, no. 6, pages 528 - 537 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516022A (zh) * | 2021-04-23 | 2021-10-19 | 黑龙江机智通智能科技有限公司 | 一种宫颈细胞的细粒度分类系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111985536B (zh) | 一种基于弱监督学习的胃镜病理图像分类方法 | |
CN110021425B (zh) | 一种比较检测器及其构建方法与宫颈癌细胞检测方法 | |
Wang et al. | Adaptive pruning of transfer learned deep convolutional neural network for classification of cervical pap smear images | |
Peng et al. | A hybrid convolutional neural network for intelligent wear particle classification | |
CN109447998B (zh) | 基于PCANet深度学习模型下的自动分割方法 | |
CN110245657B (zh) | 病理图像相似性检测方法及检测装置 | |
Wang et al. | Weakly supervised learning for whole slide lung cancer image classification | |
Pan et al. | Cell detection in pathology and microscopy images with multi-scale fully convolutional neural networks | |
Pan et al. | Mitosis detection techniques in H&E stained breast cancer pathological images: A comprehensive review | |
Dov et al. | Thyroid cancer malignancy prediction from whole slide cytopathology images | |
CN110111895A (zh) | 一种鼻咽癌远端转移预测模型的建立方法 | |
Di Ruberto et al. | A leucocytes count system from blood smear images: Segmentation and counting of white blood cells based on learning by sampling | |
CN112365471B (zh) | 基于深度学习的宫颈癌细胞智能检测方法 | |
AU2021349226C1 (en) | Critical component detection using deep learning and attention | |
WO2022109295A1 (en) | System and method for detecting and classifying abnormal cells | |
CN116525075A (zh) | 基于少样本学习的甲状腺结节计算机辅助诊断方法及系统 | |
Snigdha et al. | Hybrid feature-based invasive ductal carcinoma classification in breast histopathology images | |
El-Shafai et al. | Classification framework for COVID-19 diagnosis based on deep cnn models. | |
CN114782948A (zh) | 一种对宫颈液基细胞学涂片的全局判读方法及系统 | |
CN114140437A (zh) | 一种基于深度学习的眼底硬渗出物分割方法 | |
CN114387596A (zh) | 细胞病理涂片自动判读系统 | |
Li et al. | High-order correlation-guided slide-level histology retrieval with self-supervised hashing | |
CN112927215A (zh) | 一种消化道活检病理切片自动分析方法 | |
CN111783571A (zh) | 一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法 | |
Guo et al. | Pathological detection of micro and fuzzy gastric cancer cells based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |