CN112257704A - 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 - Google Patents
基于深度学习检测模型子宫颈液基细胞数字图像分类方法 Download PDFInfo
- Publication number
- CN112257704A CN112257704A CN202010967770.9A CN202010967770A CN112257704A CN 112257704 A CN112257704 A CN 112257704A CN 202010967770 A CN202010967770 A CN 202010967770A CN 112257704 A CN112257704 A CN 112257704A
- Authority
- CN
- China
- Prior art keywords
- cervical
- digital image
- smear
- image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000012530 fluid Substances 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 title claims abstract description 23
- 238000013135 deep learning Methods 0.000 title claims abstract description 14
- 230000002159 abnormal effect Effects 0.000 claims abstract description 56
- 244000052769 pathogen Species 0.000 claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000001717 pathogenic effect Effects 0.000 claims abstract description 23
- 238000002372 labelling Methods 0.000 claims abstract description 20
- 238000010606 normalization Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000009595 pap smear Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000002360 preparation method Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 210000004027 cell Anatomy 0.000 description 92
- 238000013527 convolutional neural network Methods 0.000 description 22
- 238000000605 extraction Methods 0.000 description 12
- 238000003745 diagnosis Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000009841 epithelial lesion Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 206010008342 Cervix carcinoma Diseases 0.000 description 4
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 description 4
- 208000009956 adenocarcinoma Diseases 0.000 description 4
- 201000010881 cervical cancer Diseases 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000005168 endometrial cell Anatomy 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 210000004940 nucleus Anatomy 0.000 description 3
- 210000004085 squamous epithelial cell Anatomy 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 231100000504 carcinogenesis Toxicity 0.000 description 2
- 210000003855 cell nucleus Anatomy 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004907 gland Anatomy 0.000 description 2
- 230000000762 glandular Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000013215 result calculation Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 241000186361 Actinobacteria <class> Species 0.000 description 1
- 241000894006 Bacteria Species 0.000 description 1
- 208000004926 Bacterial Vaginosis Diseases 0.000 description 1
- 241000222122 Candida albicans Species 0.000 description 1
- 208000005623 Carcinogenesis Diseases 0.000 description 1
- 208000036649 Dysbacteriosis Diseases 0.000 description 1
- 208000027244 Dysbiosis Diseases 0.000 description 1
- 241000233866 Fungi Species 0.000 description 1
- 208000009889 Herpes Simplex Diseases 0.000 description 1
- 241000224527 Trichomonas vaginalis Species 0.000 description 1
- 208000037009 Vaginitis bacterial Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036952 cancer formation Effects 0.000 description 1
- 229940095731 candida albicans Drugs 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002380 cytological effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007140 dysbiosis Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 201000003908 endometrial adenocarcinoma Diseases 0.000 description 1
- 208000029382 endometrium adenocarcinoma Diseases 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 244000000010 microbial pathogen Species 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 206010041823 squamous cell carcinoma Diseases 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/60—Rotation of a whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/40—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for data related to laboratory analysis, e.g. patient specimen analysis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Abstract
本发明涉及医疗技术领域,尤其是涉及基于深度学习检测模型子宫颈液基细胞数字图像分类方法,该方法包括:挑选并标注子宫颈液基涂片数字图像中异常细胞或生物性病原体的位置和类别;对子宫颈液基涂片数字图像进行数据归一化处理;将处理过后的子宫颈液基涂片数字图像作为输入,每个异常细胞或生物性病原体的标注位置和类别作为输出进行模型训练,得到训练好的Faster‑RCNN模型;将待识别图像输入至训练好的模型中,输出识别结果。本发明实施例提供的方法可实现:对子宫颈细胞学图像中的异常细胞或生物性病原体进行定位;对子宫颈细胞学图像中的异常细胞或生物性病原体进行分类;通过识别定位到的异常细胞或生物性病原体得出片级的诊断建议。
Description
技术领域
本发明涉及医疗技术领域,尤其是涉及基于深度学习检测模型子宫颈液基细胞数字图像分类方法。
背景技术
子宫颈癌是女性第四常见癌症死因。在病症早期及时发现,及时治疗可以很大程度上提高治愈率。因此,子宫颈癌的早期诊断对女性健康有重要的意义。
宫颈液基细胞学检查(TCT)是一种子宫颈细胞学诊断方法,常用于检查子宫颈癌等疾病。随着医疗数字化的发展,现代医院逐渐推进在计算机上通过检查液基细胞涂片图像进行诊断,以取代在显微镜下直接对液基细胞涂片进行观察和诊断的传统方法。数字化的图像具有易于存储管理,易于传输会诊,易于追溯回访且使用成本相对较低的优点。
在计算机上进行诊断的检查步骤如下:
1、首先,取得少量子宫颈细胞样品,制作子宫颈液基涂片;
2、然后,通过高分辨率扫描仪扫描细胞涂片,生成子宫颈液基涂片数字图像;
3、最后,医生及病理专家通过计算机阅图工具观察细胞有无异常并做出诊断。
其中,子宫颈液基涂片通常包含5000-20000个保存完整的鳞状或鳞状化生细胞。在诊断过程中,对异常细胞或生物性病原体的识别定位会对判别诊断病变细胞及减轻医生筛查负担起到非常重要的作用。因此,细胞图像自动定位识别技术对于计算机辅助筛查,辅助诊断将会有很大的帮助。
已公开的专利中针对异常细胞或生物性病原体的识别定位,记载了如下的技术方案:
专利CN108364032A,提出了一种基于卷积神经网络的宫颈癌细胞图片识别算法,该方法通过分水岭算法定位细胞核并以细胞和为中心对细胞图片进行分割;然后使用LeNet5卷积神经网络对分割出的图像进行分类得对应细胞的分类结果。该专利仅对人工指定的细胞进行分类处理,无法自动处理整个子宫颈液基涂片数字图像。
专利CN109087283A,提出了一种基于细胞团的宫颈细胞病理切片病变细胞识别方法。该方法以细胞团为处理和识别单位,通过二值化处理得出细胞团前景图像;然后通过深度卷积神经网络的分类模型,对提取的前景进行细胞团分类。
专利CN109190567A,提出了一种基于深度卷积神经网络的异常宫颈细胞自动检测方法。该方法主要针对数字图像中的阴性细胞(正常细胞)进行分类,而对阳性仅分为“阳性宫颈细胞”一个单类。该专利不对阳性细胞进行详细分类。
专利CN110163102A,提出了一种基于卷积神经网络的宫颈细胞图像分类识别方法。该方法使用图像分割出待检测的细胞核区域;然后通过利用稠密卷积网络对分割的细胞核区域进行分类得出该细胞的类别。该专利未明确叙述所采用的图像分割方法,使用的网络为分类网络而不具有定位的功能。
上述专利中记载的定位技术存在分类准确性不足,尤其是对不同制片方式难以有满意的容错性,并且在整体片级结果的判断上敏感性和特异性也有着明显的不足。
发明内容
针对上述技术问题,本发明实施例提供了基于深度学习检测模型子宫颈液基细胞数字图像分类方法,以解决传统对异常细胞或生物性病原体的识别定位不准确,容错性低的一种或者多种问题。
本发明实施例的第一方面提供基于深度学习检测模型子宫颈液基细胞数字图像分类方法,包括如下步骤:数据准备阶段:挑选并标注子宫颈液基涂片数字图像中异常细胞或生物性病原体的位置和类别;数据处理阶段:对所述子宫颈液基涂片数字图像进行数据归一化处理;模型训练阶段:将归一化处理过后的所述子宫颈液基涂片数字图像作为输入,所述子宫颈液基涂片数字图像中每个异常细胞或生物性病原体的标注位置和类别作为输出进行模型训练,得到训练好的Faster-RCNN模型;输出阶段:将待识别图像输入至训练好的所述Faster-RCNN模型中,输出识别结果。
可选地,所述标注子宫颈液基涂片数字图像中异常细胞或生物性病原体核的位置和类别具体包括:在每张子宫颈涂片数字图像中选取标注区域;对所述标注区域中的异常细胞或生物性病原体进行矩形区域标注;记录所述矩形区域标注中每个矩形的左上及右下顶点坐标位置,并存储所述矩形对应的所述异常细胞或所述生物性病原体类别。
可选地,所述矩形区域标注的轮廓完整覆盖所述异常细胞或所述生物性病原体区域。
可选地,所述对所述子宫颈液基涂片数字图像进行数据归一化处理,具体包括:读取每一张所述子宫颈液基涂片数字图像的像素参数,所述像素参数代表每个像素与其对应的子宫颈涂片的实际距离;根据所述像素参数,将所述子宫颈涂片数字图像进行放大或缩小以实现物理尺寸的归一化。
可选地,所述像素参数为0.5,将所述子宫颈涂片数字图像进行放大或缩小所使用的公式如下:目标行像素数=0.5*原行像素数;目标列像素数=0.5*原列像素数。
可选地,所述方法还包括:对挑选的所述子宫颈涂片数字图像进行翻转和/或镜像操作,扩充数据集。
可选地,所述输出结果为所述目标区域为背景,异常细胞或生物性病原体分别对应的预测概率。
可选地,在进行模型训练时,在模型训练阶段,利用反向传播算法,训练获得模型参数。
可选地,所述方法还包括:设置信度阈值,根据所述置信度及计算规则显示预测结果。
可选地,所述置信度采用如下公式计算得到:
其中,V为置信度,e为自然常数,x为分阈比,ln为以自然常数为底的对数。
本发明实施例提供的基于卷积神经网络的图像识别方法,首先,利用深度神经网络高效的特征提取能力以及多样的训练数据集,大幅度提高本发明中的识别方法对于不同制片方式的容错性;其次,通过深度卷积神经网络的目标检测模型中的区域选择网络方案,极大地提高了定位的精确度;再次,通过深度卷积神经网络的目标检测模型中的分类网络方案,有效地提升了异常细胞或生物性病原体分类的准确性;最后,运用本发明中设计的规则及公式,得出全片的诊断建议并拥有更高的敏感性和特异性。即本发明实施例提供的基于卷积神经网络的宫颈细胞图像识别方法可实现:对子宫颈细胞学图像中的异常细胞或生物性病原体进行定位;对子宫颈细胞学图像中的异常细胞或生物性病原体进行分类;通过识别定位到的异常细胞或生物性病原体得出片级的诊断建议。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例的基于深度学习检测模型子宫颈液基细胞数字图像分类方法的流程图;
图2是本发明实施例提供的符合临床标准的子宫颈液基涂片数字图像;
图3是本发明实施例提供的在标注区域内的子宫颈液基涂片数字图像。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述“连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一个或多个居中的元件。本说明书所使用的术语“上”、“下”、“内”、“外”、“底部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
深度卷积神经网络近年来在机器视觉领域的发展迅速,连续刷新了学界多项评估记录如ImageNet挑战赛和MS-COCO挑战赛,对工业界产生了深远的影响。本发明即基于定制化的深度卷积神经网络的目标检测模型Faster-RCNN,实现对子宫颈液基细胞学图像中各类细胞自动检测定位及得出图像片级诊断建议,同时,本发明下述实施例利用深度学习和有限的标注数据用数值方法获得模型,不需要人工设计特征;本发明构建的数据集还可以包含不同制片方式及扫描成像参数的数字图像,使得本发明对制片方式和成像参数具有更强的通用性和鲁棒性,以下对本发明进行详细说明。
请参阅图1,本发明实施例首先提供基于深度学习检测模型子宫颈液基细胞数字图像分类方法,如图1所示,该方法包括如下步骤:
步骤101、数据准备阶段:挑选子宫颈涂片数字图像,并标注所述子宫颈液基涂片数字图像中异常细胞或生物性病原体核的位置和类别。
本发明基于深度学习构建卷积神经网络进行图像识别,深度学习是基于大量样本,通过反向传播算法对大量样本进行特征提取和模型参数调整的技术。为了解决异常细胞或生物性病原体定位及分类问题,本发明在数据准备阶段首先构建一个包含数万张子宫颈液基涂片数字图像并对子宫颈液基涂片数字图像中异常细胞或生物性病原体核的位置和类别进行标注,具体如下:
首先,挑选符合临床标准的子宫颈液基涂片数字图像,在20倍镜分辨率下,每张图像选取数量不等的宽和高为1200像素的包含细胞的区域;
用选取的区域构成标注区域(如图2中21)。在每张图像中选取标注区域是为了使目标区域获得全标注,同时避免标注过度不感兴趣的区域,以便节省人力提高效率。
然后,对标注区域中的异常细胞或生物性病原体进行的矩形标注和记录(如图2中的22),在标注过程中需满足,矩形标注的轮廓需完整覆盖细胞或生物性病原体区域,同时需完整记录标注区域中每个矩形的左上及右下顶点坐标位置,并存储矩形对应的异常细胞或生物性病原体类别。
在本发明实施例中,需要标注的异常细胞或生物性病原体的类别如下:
鳞状细胞包括:非典型鳞状上皮细胞(低级别鳞状上皮病变,不除外高级别鳞状上皮病变)和鳞状细胞癌(高级别鳞状上皮病变);
腺细胞包括:非典型腺细胞(子宫颈管细胞、子宫内膜细胞)、子宫颈管腺细胞(倾向于肿瘤性)、子宫颈管原位腺癌、腺癌(子宫颈管腺癌、子宫内膜腺癌、子宫外腺癌);
生物性病原体包括:阴道滴虫、形态与白念珠菌符合的真菌(菌群失调,提示细菌性阴道病)、形态与放线菌符合的细菌(细胞学改变符合单纯疱疹病毒感染);
以及,子宫内膜细胞。
步骤102、数据处理阶段:对所述子宫颈液基涂片数字图像进行数据归一化处理。
由于步骤101选取的图像均采样于不同的子宫颈液基涂片数字图像,这些数字图像可能由不同的扫描仪扫描成像,因不同扫描仪的硬件属性,软件参数设置的不同,每张图像的像素代表的实际物理尺寸也会有不同,因此,此步骤需要对上述采集的图像进行归一化处理,归一化处理的目的在于尽可能保证数据集中的图像具有相近的物理尺寸。在下述深度卷积神经网络模型在部署和应用场景中,也应该对输入数据进行同样的归一化处理。
本发明实施例可以通过读取图像的附加信息获得该图像的微米每像素(micronper pixel,mpp)参数。mpp作为像素参数,代表了每个像素对应的子宫颈涂片的实际距离,mpp为1代表每个像素代表的实际横或纵距离为1微米。
通过读取mpp,可以将子宫颈涂片数字图像数据集中的图像通过双线性插值法进行放大或缩小从而实现数据物理尺寸上的归一化。
本发明将数据集mpp归一化为0.5。每张图片的目标行(列)像素数由以下公式得出:
目标行(列)像素数=0.5*原行(列)像素数/mpp。
步骤103、模型训练阶段:将归一化处理过后的子宫颈液基涂片数字图像作为输入,子宫颈液基涂片数字图像中每个异常细胞或生物性病原体的标注位置和类别作为输出对卷积神经网络进行训练,得到训练好的模型。
此步骤即对图像中每个异常细胞或生物性病原体的矩形区域标注对应的坐标及类别作为输出对Faster-RCNN深度卷积神经网络模型进行训练,得到训练好的网络模型。
在本发明实施例中,为了利用有限的训练数据使模型的泛化能力更强,可以将训练集中的子宫颈涂片数字图像进行翻转和/或镜像等操作,实现对数据集的扩充。为便于描述,以下将原始挑选的子宫颈涂片数字图像组成的数据集命名为训练集(1),以训练集(1)作为基础数据,进行数据集扩充的具体步骤如下:
镜像:对训练数据集(1)及其标注图像同时进行垂直或水平镜像,与训练数据集(1)汇总形成训练数据集(2)。
翻转:对训练数据集(2)及其标注图像同时进行顺时针翻转,翻转角度为90度、180度或270度,与训练数据集(2)汇总形成训练数据集(3)。扩充后的训练数据集(3)为训练神经网络所使用的训练数据。
将扩充后的训练数据集(3)输入本发明的Faster-RCNN深度卷积神经网络模型进行训练,训练深度卷积神经网络模型时,模型输入为1200x1200像素的子宫颈液基涂片数字图像,输出为图像中每个异常细胞或生物性病原体的标注框坐标及类别标签(如图3中的31)。需要说明的是,上述镜像再翻转只是本发明其中一种扩充训练集的实施方式,在其他实施例中还可以通过翻转再镜像或者只进行翻转、只进行镜像等方式扩充训练集。
本发明使用的训练模型为Faster-RCNN模型,Faster-RCNN模型是基于卷积神经网络的图像分割模型,该模型无须人为设计特征,利用大量标注数据,对模型进行训练即可获得很好的定位分类效果。在本发明实施例中,训练该模型共包括以下几步:
1、特征提取网络。
在训练过程中,首先将1200*1200像素的子宫颈液基涂片数字图像输入深度卷积神经网络,进行特征提取。特征提取网络由重复堆砌的卷积层,采样层及非线性激活层组成,该神经网络架构基于深度学习中的反向传播算法,用大量图像数据和图像所含物体类别标签预训练,总结提取图像抽象特征,输出图像的高维特征张量。
本发明实施例所应用的特征提取网络为修改过的Resnet-101分类网络的特征提取网络。特征提取网络的网络架构图如下表1,其中,每个循环之间无非线性激活层。特征提取网络的输入为1200*1200的图像,输出为300*300*2048、150*150*2048、75*75*2048、38*38*2048的四个高维张量。
表1
2.区域选择网络。
然后,将提取出的深度卷积特征输入区域选择网络中,区域选择网络由全连接层和非线性激活层组成,区域选取网络通过在特征提取网络输出的高维张量上进行滑窗分类和物体边界框坐标回归,分类结果为判断当前该窗口位置包含异常细胞或生物性病原体的概率及估计当前窗口所含细胞的尺寸和长宽比,当前窗口位置即对应原图像中相应坐标位置。
区域选择网络的网络架构图如表2所示。本发明实施例区域选择网络的输入是3*3*256的卷积和在对应的四个高维张量上的沿着前两个维度滑窗,中间层为256维的特征向量,分类输出层为全连接层,256维的特征向量全连接输出当前区域包含目标的类别,由向量[0,1]代表背景,向量[1,0]代表异常细胞或生物性病原体,矩形框位置回归同是全连接层,由256维向量全连接输出当前区域包含目标相对于子张量坐标中心的外接矩形框左上角坐标的橫,纵,长,宽的归一化在[0,1]之间的浮点值。
表2
3.分类网络。
最后,分类网络对区域选取网络输出的包含异常细胞或生物性病原体的位置所对应的高维特征张量进行分类,判断该区域中所包含的目标是异常细胞,生物性病原体的详细类别或是背景。分类网络由堆砌的全连接层和非线性激活层组成,分类网络的网络架构图如表3。特征提取网络由输入到输出的图像尺度缩小了32倍,所以区域选择网络所输出的橫纵长宽需要相应扩大32倍即为检测框在原图像中的大小。
表3
本申请的上述神经网络架构,非线性激活层均采用线性整流函数(RectifiedLinear Unit,ReLU),卷积层和全链接层后均跟随ReLU函数的非线性激活层。ReLU公式如下,max代表输入两数取最较大值:
ReLU(x)=max(0,x)
本发明实施例利用深度学习中的反向传播算法,训练获得模型参数。其中,分类网络及区域选择网络以目标真实类别向量和输入区域相对于输入张量坐标中心的坐标为标签,损失函数为交叉熵函数。
在本发明实施例中,特征提取网络的参数由在ImageNet分类网络预训练的网络去除全连接层的参数进行初始化,其它相关的网络参数从[0,1]之间服从截断正态分布的参数中随机初始化选择。利用随机梯度下降反向传播算法在经过增强的训练集中以0.001的学习率训练90个周期。
在完成上述训练后,然后通过得到的模型在验证集上统计分割结果,即将每张验证集中的图像的所有分割结果叠加在一起构成该图像的分割模板。最后,计算分割模板与实际标注的欧几里德距离,该欧几里德距离为单张图像的推断误差;最后,将验证集中所有图片的推断误差加在一起即得到验证集误差,本发明实施例选取训练过程中,令验证集误差最低的模型作为最终训练获得的Faster-RCNN模型。
在本发明实施例中,预测概率最高且高于阈值0.4的区域被视为模型最终输出。模型输出的全部目标通过非最大值抑制(Non-maximum suppression,NMS)算法,消除高度重叠的检测结果,视为算法的最终输出。本发明通过自适应阈值以及非最大值抑制算法可减少图像运算中的冗余计算,从而达到图像处理效率的巨幅提升。
步骤104、输出阶段:将待识别图像输入至训练好的Faster-RCNN深度卷积神经网络模型中,输出识别结果。
在应用时,分类网络的输出是该目标区域为背景,异常细胞或生物性病原体的预测概率。此步骤将需要识别的子宫颈液基细胞数字图像输入至训练好的Faster-RCNN深度卷积神经网络模型中,通过上述特征提取、区域选择网络选取和最后的分类得到数量不等的异常细胞或生物性病原体以及其对应的预测概率。
通过本发明实施例提供的基于卷积神经网络的宫颈细胞图像识别方法,输入任意子宫颈液基涂片数字图像至步骤103获得的Faster-RCNN模型均可得到目标是异常细胞,生物性病原体的详细类别或是背景。需要说明的是,本发明实施例中的模型训练方式为本领域技术人员付出创造性劳动的成果,凡是在本发明实施例基础上对本发明中数据增强方式,神经网络架构,超参数和损失函数的改变、调整或替换方案,应视为等同于本方案。
在得到目标是异常细胞,生物性病原体的详细类别或是背景的预测概率后,使用者然后可以通过设定置信度阈值来显示大于所设置信度阈值的预测结果。
本发明对置信度的计算方法如下:
首先,对于除去背景的每一类,本发明实施例选取概率最高的16个检测结果作为涂片结果计算的基础数据(如不足16个检测结果,则使用全部的检测结果作为涂片结果计算的基础数据)。
对每一分类,使用选取基础数据求其平均值得出该类的得分,并使用该得分除以对应的阈值,可以得出该类的分阈比。通过分阈比,再使用如下的公式得出片级结果的置信度:
其中,V为置信度,e为自然常数,x为分阈比,ln为以自然常数为底的对数。
在得出每个类别的置信度后,在本发明实施例中,若该类置信度超过0.5则被认为是潜在类别。
在本发明实施例中,异常细胞的潜在类别会根据如下优先级得出一个最终片级结果,若没有潜在类别则结果为阴性:
非典型腺细胞(包括子宫颈管和子宫内膜细胞)>高级别鳞状上皮病变>非典型鳞状上皮细胞(不除外高级别鳞状上皮病变)>低级别鳞状上皮病变>非典型鳞状上皮细胞(意义不明确)。
生物性病原体的潜在类别则会全部作为结果列出,若没有潜在类别则结果为阴性。
在得出各类细胞的置信度后,需要进一步将异常细胞每一类的置信度降序排列,通过两两依次不断套用下列公式可以得出涂片中阳性的置信度:
其中V1、V2为套用时输入的两个置信度。例如,现有降序排列的置信度V1、V2、V3、V4,计算置信度时将连续套用该公式3次,如下式:
在本发明实施例中,首先利用深度神经网络高效的特征提取能力以及多样的训练数据集,大幅度提高本发明中的识别方法对于不同制片方式的容错性;其次,通过深度卷积神经网络的目标检测模型中的区域选择网络(Region Proposal Network,RPN)方案,极大地提高了定位的精确度;再次,通过深度卷积神经网络的目标检测模型中的分类网络方案,有效地提升了异常细胞或生物性病原体分类的准确性;最后,运用本发明中设计的规则及公式,得出全片的诊断建议并拥有更高的敏感性和特异性。即本发明实施例提供的基于卷积神经网络的宫颈细胞图像识别方法可实现:
1、对子宫颈细胞学图像中的异常细胞或生物性病原体进行定位;
2、对子宫颈细胞学图像中的异常细胞或生物性病原体进行分类;
3、通过识别定位到的异常细胞或生物性病原体得出片级的诊断建议。
相较于专利CN108364032A,本发明不仅可以自动定位需要分类的异常细胞而且可以定位识别生物性病原体。
相较于专利CN109087283A,本发明不仅可以识别细胞团中的异常细胞及生物性病原体,而且可以对离散的细胞有高准确度的识别及定位。并且在前处理过程中更为简洁快速。
相较于专利CN109190567A,本发明可以更有效的针对阳性异常细胞及生物性病原体得出详细分类。
相较于专利CN110163102A,本发明采用了自动化有效区域分割,异常细胞及病原性微生物自动化定位,省去大量人力。
因此,对比上述四篇专利,本发明除可以实现对子宫颈液基涂片数字图像进行异常细胞或生物性病原体进行定位及分类,还可以对片级结果给出诊断建议,对临床医生起到辅助作用,减轻医生工作负担。同时,本发明给出的片级诊断建议有着较高的敏感性和特异性。需要说明的是,本发明可同样应用于医疗领域中其他病理学数字图像自动检测,例如尿液脱落细胞等的检测,本发明对其不作限制。
本领域技术人员应该还可以进一步意识到,结合本文中所公开的实施例描述的示例性的双光图像整合方法的各个步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。
本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。所述的计算机软件可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.基于深度学习检测模型子宫颈液基细胞数字图像分类方法,其特征在于,包括如下步骤:
数据准备阶段:挑选并标注子宫颈液基涂片数字图像中异常细胞或生物性病原体的位置和类别;
数据处理阶段:对所述子宫颈液基涂片数字图像进行数据归一化处理;
模型训练阶段:将归一化处理过后的所述子宫颈液基涂片数字图像作为输入,所述子宫颈液基涂片数字图像中每个异常细胞或生物性病原体的标注位置和类别作为输出进行模型训练,得到训练好的Faster-RCNN模型;
输出阶段:将待识别图像输入至训练好的所述Faster-RCNN模型中,输出识别结果。
2.根据权利要求1所述的方法,其特征在于,所述标注子宫颈液基涂片数字图像中异常细胞或生物性病原体核的位置和类别具体包括:
在每张子宫颈涂片数字图像中选取标注区域;
对所述标注区域中的异常细胞或生物性病原体进行矩形区域标注;
记录所述矩形区域标注中每个矩形的左上及右下顶点坐标位置,并存储所述矩形对应的所述异常细胞或所述生物性病原体类别。
3.根据权利要求2所述的方法,其特征在于,所述矩形区域标注的轮廓完整覆盖所述异常细胞或所述生物性病原体区域。
4.根据权利要求1所述的方法,其特征在于,所述对所述子宫颈液基涂片数字图像进行数据归一化处理,具体包括:
读取每一张所述子宫颈液基涂片数字图像的像素参数,所述像素参数代表每个像素与其对应的子宫颈涂片的实际距离;
根据所述像素参数,将所述子宫颈涂片数字图像进行放大或缩小以实现物理尺寸的归一化。
5.根据权利要求4所述的方法,其特征在于,所述像素参数为0.5,将所述子宫颈涂片数字图像进行放大或缩小所使用的公式如下:
目标行像素数=0.5*原行像素数;
目标列像素数=0.5*原列像素数。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对挑选的所述子宫颈涂片数字图像进行翻转和/或镜像操作,扩充数据集。
7.根据权利要求2所述的方法,其特征在于,所述输出结果为所述目标区域为背景,异常细胞或生物性病原体分别对应的预测概率。
8.根据权利要求1所述的方法,其特征在于,在模型训练阶段,利用反向传播算法,训练获得模型参数。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:设置信度阈值,根据所述置信度及计算规则显示预测结果。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010967770.9A CN112257704A (zh) | 2020-09-15 | 2020-09-15 | 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 |
US17/093,810 US11468693B2 (en) | 2020-09-15 | 2020-11-10 | Digital image classification method for cervical fluid-based cells based on a deep learning detection model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010967770.9A CN112257704A (zh) | 2020-09-15 | 2020-09-15 | 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112257704A true CN112257704A (zh) | 2021-01-22 |
Family
ID=74231283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010967770.9A Pending CN112257704A (zh) | 2020-09-15 | 2020-09-15 | 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11468693B2 (zh) |
CN (1) | CN112257704A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380900A (zh) * | 2020-10-10 | 2021-02-19 | 深圳视见医疗科技有限公司 | 基于深度学习的子宫颈液基细胞数字图像分类方法及系统 |
CN112990015A (zh) * | 2021-03-16 | 2021-06-18 | 北京智源人工智能研究院 | 一种病变细胞自动识别方法、装置和电子设备 |
CN113111796A (zh) * | 2021-04-19 | 2021-07-13 | 山东仕达思生物产业有限公司 | 一种芽生孢子的自动细化标注类别的检测识别方法 |
CN113256627A (zh) * | 2021-07-05 | 2021-08-13 | 深圳科亚医疗科技有限公司 | 用于宫颈图像的分析管理的装置和方法、设备及存储介质 |
CN113705318A (zh) * | 2021-04-22 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 基于图像的识别方法、装置、设备及可读存储介质 |
CN113781455A (zh) * | 2021-09-15 | 2021-12-10 | 平安科技(深圳)有限公司 | 宫颈细胞图像异常检测方法、装置、设备及介质 |
CN114495097A (zh) * | 2022-01-28 | 2022-05-13 | 陆建 | 一种基于多模型的尿液的细胞识别方法和系统 |
CN115641290A (zh) * | 2022-09-05 | 2023-01-24 | 吉林金域医学检验所有限公司 | 基于细胞分析的异常预测方法、装置、设备及介质 |
CN115938561A (zh) * | 2021-09-23 | 2023-04-07 | 中山大学孙逸仙纪念医院 | 宫颈液基薄层细胞学的辅助筛查系统、应用方法及模型 |
CN116433588A (zh) * | 2023-02-21 | 2023-07-14 | 广东劢智医疗科技有限公司 | 一种基于宫颈细胞的多类别分类与置信判别方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821046B (zh) * | 2022-03-28 | 2024-05-03 | 深思考人工智能科技(上海)有限公司 | 基于细胞图像进行细胞检测和细胞核分割的方法及系统 |
CN115100473A (zh) * | 2022-06-29 | 2022-09-23 | 武汉兰丁智能医学股份有限公司 | 基于并行神经网络的肺部细胞图像分类方法 |
CN115331220B (zh) * | 2022-07-29 | 2024-04-02 | 江苏迪赛特医疗科技有限公司 | 基于目标检测和热图回归的宫颈念珠菌感染筛查方法 |
CN115294570A (zh) * | 2022-08-11 | 2022-11-04 | 武汉希诺智能医学有限公司 | 一种基于深度学习的细胞图像识别方法 |
CN115601749B (zh) * | 2022-12-07 | 2023-03-14 | 赛维森(广州)医疗科技服务有限公司 | 基于特征峰值图谱的病理图像分类方法、图像分类装置 |
CN115791640B (zh) * | 2023-02-06 | 2023-06-02 | 杭州华得森生物技术有限公司 | 基于分光光谱的肿瘤细胞检测设备及其方法 |
CN116051949B (zh) * | 2023-03-28 | 2023-10-03 | 苏芯物联技术(南京)有限公司 | 一种融合图像检测的焊接异常实时诊断方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886179A (zh) * | 2019-02-18 | 2019-06-14 | 深圳视见医疗科技有限公司 | 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统 |
CN110110750A (zh) * | 2019-03-29 | 2019-08-09 | 广州思德医疗科技有限公司 | 一种原始图片的分类方法及装置 |
CN110648322A (zh) * | 2019-09-25 | 2020-01-03 | 杭州智团信息技术有限公司 | 一种子宫颈异常细胞检测方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10354159B2 (en) * | 2016-09-06 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in an image using a contextual multiscale fast region-based convolutional neural network |
CN108965982B (zh) * | 2018-08-28 | 2020-01-31 | 百度在线网络技术(北京)有限公司 | 视频录制方法、装置、电子设备和可读存储介质 |
WO2021102844A1 (zh) * | 2019-11-28 | 2021-06-03 | 华为技术有限公司 | 处理图像的方法、装置及系统 |
-
2020
- 2020-09-15 CN CN202010967770.9A patent/CN112257704A/zh active Pending
- 2020-11-10 US US17/093,810 patent/US11468693B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886179A (zh) * | 2019-02-18 | 2019-06-14 | 深圳视见医疗科技有限公司 | 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统 |
CN110110750A (zh) * | 2019-03-29 | 2019-08-09 | 广州思德医疗科技有限公司 | 一种原始图片的分类方法及装置 |
CN110648322A (zh) * | 2019-09-25 | 2020-01-03 | 杭州智团信息技术有限公司 | 一种子宫颈异常细胞检测方法及系统 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380900A (zh) * | 2020-10-10 | 2021-02-19 | 深圳视见医疗科技有限公司 | 基于深度学习的子宫颈液基细胞数字图像分类方法及系统 |
CN112990015A (zh) * | 2021-03-16 | 2021-06-18 | 北京智源人工智能研究院 | 一种病变细胞自动识别方法、装置和电子设备 |
CN112990015B (zh) * | 2021-03-16 | 2024-03-19 | 北京智源人工智能研究院 | 一种病变细胞自动识别方法、装置和电子设备 |
CN113111796A (zh) * | 2021-04-19 | 2021-07-13 | 山东仕达思生物产业有限公司 | 一种芽生孢子的自动细化标注类别的检测识别方法 |
CN113111796B (zh) * | 2021-04-19 | 2022-06-24 | 山东仕达思生物产业有限公司 | 一种芽生孢子的自动细化标注类别的检测识别方法 |
CN113705318B (zh) * | 2021-04-22 | 2023-04-18 | 腾讯医疗健康(深圳)有限公司 | 基于图像的识别方法、装置、设备及可读存储介质 |
CN113705318A (zh) * | 2021-04-22 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 基于图像的识别方法、装置、设备及可读存储介质 |
CN113256627A (zh) * | 2021-07-05 | 2021-08-13 | 深圳科亚医疗科技有限公司 | 用于宫颈图像的分析管理的装置和方法、设备及存储介质 |
CN113781455A (zh) * | 2021-09-15 | 2021-12-10 | 平安科技(深圳)有限公司 | 宫颈细胞图像异常检测方法、装置、设备及介质 |
CN113781455B (zh) * | 2021-09-15 | 2023-12-26 | 平安科技(深圳)有限公司 | 宫颈细胞图像异常检测方法、装置、设备及介质 |
CN115938561A (zh) * | 2021-09-23 | 2023-04-07 | 中山大学孙逸仙纪念医院 | 宫颈液基薄层细胞学的辅助筛查系统、应用方法及模型 |
CN114495097A (zh) * | 2022-01-28 | 2022-05-13 | 陆建 | 一种基于多模型的尿液的细胞识别方法和系统 |
CN115641290A (zh) * | 2022-09-05 | 2023-01-24 | 吉林金域医学检验所有限公司 | 基于细胞分析的异常预测方法、装置、设备及介质 |
CN116433588A (zh) * | 2023-02-21 | 2023-07-14 | 广东劢智医疗科技有限公司 | 一种基于宫颈细胞的多类别分类与置信判别方法 |
CN116433588B (zh) * | 2023-02-21 | 2023-10-03 | 广东劢智医疗科技有限公司 | 一种基于宫颈细胞的多类别分类与置信判别方法 |
Also Published As
Publication number | Publication date |
---|---|
US11468693B2 (en) | 2022-10-11 |
US20220083762A1 (en) | 2022-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112257704A (zh) | 基于深度学习检测模型子宫颈液基细胞数字图像分类方法 | |
CN109886179B (zh) | 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统 | |
CN111985536B (zh) | 一种基于弱监督学习的胃镜病理图像分类方法 | |
CN110428432B (zh) | 结肠腺体图像自动分割的深度神经网络算法 | |
CN111986150B (zh) | 一种数字病理图像的交互式标注精细化方法 | |
CN112380900A (zh) | 基于深度学习的子宫颈液基细胞数字图像分类方法及系统 | |
CN112101451B (zh) | 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法 | |
WO2021139258A1 (zh) | 基于图像识别的细胞识别计数方法、装置和计算机设备 | |
CN111462042B (zh) | 癌症预后分析方法及系统 | |
CN111445478A (zh) | 一种用于cta图像的颅内动脉瘤区域自动检测系统和检测方法 | |
US20090252429A1 (en) | System and method for displaying results of an image processing system that has multiple results to allow selection for subsequent image processing | |
CN111798425B (zh) | 基于深度学习的胃肠道间质瘤中核分裂象智能检测方法 | |
CN110974306B (zh) | 一种超声内镜下识别和定位胰腺神经内分泌肿瘤的系统 | |
CN111931751B (zh) | 深度学习训练方法、目标物识别方法、系统和存储介质 | |
CN112819821B (zh) | 一种细胞核图像检测方法 | |
CN112712522A (zh) | 一种病理学图像的口腔癌上皮组织区域自动分割方法 | |
Joseph et al. | Quantitative and qualitative evaluation of deep learning automatic segmentations of corneal endothelial cell images of reduced image quality obtained following cornea transplant | |
CN110796661B (zh) | 基于卷积神经网络的真菌显微图像分割检测方法及系统 | |
CN113011450B (zh) | 青光眼识别的训练方法、训练装置、识别方法及识别系统 | |
CN113160185A (zh) | 一种利用生成边界位置指导宫颈细胞分割的方法 | |
CN116978543A (zh) | 人工智能辅助骨髓肿瘤病理诊断装置 | |
CN115909006A (zh) | 基于卷积Transformer的乳腺组织图像分类方法及系统 | |
CN111986148A (zh) | 一种前列腺数字病理图像的快速Gleason评分系统 | |
CN113160175B (zh) | 一种基于级联网络的肿瘤淋巴管浸润检测方法 | |
CN114235539A (zh) | 基于深度学习的pd-l1病理切片自动判读方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |