CN116402796A - 一种融合全局和局部对比信息的宫颈细胞识别方法 - Google Patents

一种融合全局和局部对比信息的宫颈细胞识别方法 Download PDF

Info

Publication number
CN116402796A
CN116402796A CN202310375322.3A CN202310375322A CN116402796A CN 116402796 A CN116402796 A CN 116402796A CN 202310375322 A CN202310375322 A CN 202310375322A CN 116402796 A CN116402796 A CN 116402796A
Authority
CN
China
Prior art keywords
cervical
cervical cell
image
cell
normal middle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310375322.3A
Other languages
English (en)
Inventor
梁義钦
丁博
秦健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202310375322.3A priority Critical patent/CN116402796A/zh
Publication of CN116402796A publication Critical patent/CN116402796A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种融合全局和局部对比信息的宫颈细胞识别方法,本发明涉及宫颈细胞识别。为了解决病人个体差异影响宫颈细胞的类别判断,难以利用单一图像特征实现宫颈细胞的精准细粒度分类的问题。宫颈细胞病变是一个渐进的过程,各个类别间没有明确得边界,类别间相似度大,且容易受到个体差异的影响,单一图像特征难以实现宫颈细胞的精准细粒度分类。为改善这一问题,本发明提出一种融合全局和局部对比信息的宫颈细胞识别方法,将病理医生通过对比正常中层鳞状上皮宫颈细胞,观察判断异常宫颈细胞的过程转化为计算机模型推理过程。实验表明,该方法有效降低了异常宫颈细胞识别的假阳性率,提高了宫颈细胞检测准确率、敏感度和特异度,为自动阅片系统提供关键技术支撑,帮助医生更早地发现癌细胞并准确评估病变级别。本发明主要应用于宫颈细胞病理检测中异常宫颈细胞识别。

Description

一种融合全局和局部对比信息的宫颈细胞识别方法
技术领域
本发明涉及宫颈细胞识别。
背景技术
宫颈癌是全球女性健康的最大杀手之一,每两分钟就有一名女性死于宫颈癌。由于我国人口基数大、诊疗资源不足,已成为宫颈癌的高发区和重灾区。宫颈癌的潜伏期长、早期无症状,常常因发现不及时错过了最佳治疗时间,这是宫颈癌死亡率居高不下的根本原因。因此,早发现早治疗是目前应对宫颈癌的有效手段。传统的细胞病理诊断完全依赖于医生“手动操作、肉眼观察”,存在两大痛点:病理医生诊断准确率低,存在大量的误诊和漏诊。病理诊断的工作量大,癌症筛查无法大面积推广。这使得宫颈癌的早发现早治疗难以实现。病理学检查是目前具有确诊意义的检查手段,细胞病理诊断通过采集人体脱落细胞制片染色,然后由病理医生在镜下观察寻找异常细胞后做出诊断。细胞病理诊断取材简单,应用广泛,特别适合宫颈癌早期诊断和筛查,值得大面积推广。
近年来,随着图像处理和人工智能技术的发展,病理自动阅片技术应运而生。该技术采集宫颈细胞病理玻片的全景图像,然后采用图像处理和识别技术进行分析测量,最后找出异常细胞并给出分类结果,供医生复核。与传统方法相比,该技术只需要医生复核系统挑选出来的少数异常细胞,能有效降低医生的工作量,提高癌症诊断的准确率。但是,宫颈细胞病变是一个渐进的过程,各个类别间没有明确得边界,类别间相似度大,且容易受到个体差异的影响,这使得目前方法难以满足现实应用的需求。因此,本发明提出一种融合全局和局部对比信息的宫颈细胞识别方法,通过基于对比学习的预训练模型提取宫颈细胞图像的局部特征,基于Transformer的编解码结构实现同一个样本下的异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像的互相关操作,在端到端的模型中实现了两者在全局和丰富的上下文信息中的对比,提高了宫颈细胞分类的准确性和鲁棒性。
发明内容
本发明的目的是为了解决病人个体差异影响宫颈细胞的类别判断,难以利用单一图像特征实现宫颈细胞的精准细粒度分类的问题,从而提出一种融合全局和局部对比信息的宫颈细胞识别方法。
上述发明目的主要是通过以下技术方案实现的:
S1、准备异常宫颈细胞检测训练数据、正常中层鳞状上皮宫颈细胞检测训练数据和正常宫颈细胞核与细胞质分割训练数据;
首先,收集大量的宫颈细胞病理涂片,并使用扫描仪对涂片扫描,获得宫颈细胞病理涂片的全景图像。然后,邀请病理医生使用ASAP软件进行检测数据标注,对诊断为阳性的全景图像标注异常宫颈细胞,对诊断为阴性的全景图像标注正常中层鳞状上皮宫颈细胞;接着,根据病理医生的标注信息,从全景图像中随机位置裁剪一定大小的图像,并保证每张图像中标注信息完整,阳性全景图像中裁剪的图像和对应的标注信息作为异常宫颈细胞检测训练数据,阴性全景图像中裁剪的图像和对应的标注信息作为正常中层鳞状上皮宫颈细胞检测训练数据;最后,从阴性全景图像中裁剪出医生标注的宫颈细胞图像,再人工使用LabelImg软件标注出宫颈细胞图像的细胞核和细胞质轮廓,标注完成后的数据作为正常宫颈细胞核和细胞质分割训练数据。
S2、训练异常宫颈细胞检测模型、正常中层鳞状上皮宫颈细胞检测模型、正常宫颈细胞核和细胞质分割模型;
使用YOLO v5原始网络结构作为检测模型网络结构,分别将异常宫颈细胞和正常中层鳞状上皮宫颈细胞检测训练数据输入检测模型网络结构中训练,得到异常宫颈细胞和正常中层鳞状上皮宫颈细胞检测模型;使用solo v2原始网络结构作为分割模型网络结构,将正常宫颈细胞核和细胞质分割训练数据输入分割模型网络结构中训练,得到正常宫颈细胞核和细胞质分割模型。
S3、提取正常中层鳞状上皮宫颈细胞图像手工特征;
首先,将全景图像依次不重叠的裁剪为一定大小的图像,并利用正常中层鳞状上皮宫颈细胞检测模型预测已裁剪的图像,根据预测结果信息可获得该全景图像中正常中层鳞状上皮宫颈细胞图像;然后,利用分割模型预测正常中层鳞状上皮宫颈细胞图像中细胞核与细胞质轮廓信息;接着,通过轮廓信息计算正常中层鳞状上皮宫颈细胞图像手工特征,包括细胞核面积、细胞核圆度、核质比和图像清晰度,计算公式如下:
Figure BDA0004170233990000031
式中,Anu为细胞核面积,Snu为细胞核区域,pi为细胞核区域的某个像素点,细胞核面积则为细胞核区域内像素点数之和;
Figure BDA0004170233990000032
式中,Rnu为细胞核圆度,Lnu为细胞核周长,即细胞核轮廓长度;
Figure BDA0004170233990000033
式中,Nc-ratio为细胞核质比,Acy为细胞质面积,即细胞质区域内像素点数之和;
Figure BDA0004170233990000034
式中,di为图像Fi的清晰度,t为控制检测计算灵敏度的阈值,G(x,y)为图像Fi在(x,y)处的梯度值,定义如下:
Figure BDA0004170233990000035
Gx(x,y)与Gy(x,y)为图像Fi在(x,y)处的水平和垂直方向的梯度值,其计算公式如下:
Figure BDA0004170233990000036
Figure BDA0004170233990000037
S4、利用手工特征筛选正常中层鳞状上皮宫颈细胞;
根据《宫颈细胞学Bethesda报告系统》中明确定义的正常中层鳞状上皮宫颈细胞判读标准,设计正常中层鳞状上皮宫颈细胞筛选模块;首先,根据S3中所述提取正常中层鳞状上皮宫颈细胞图像手工特征,获得单张全景图像中检测出的所有正常鳞状上皮宫颈细胞图像集合和对应的手工特征;然后,由于正常中层鳞状上皮宫颈细胞核相比正常表层鳞状上皮宫颈细胞核更加圆润、染色质细腻和面积大,利用细胞核面积、细胞核圆度和核质比可筛除与中层鳞状上皮宫颈细胞相似的表层鳞状上皮宫颈细胞,通过细胞核面积由小至大将单张全景图像中的正常中层鳞状上皮宫颈细胞图像重新排列,将排列划分为N份,筛除图像集合中细胞核面积较小的n(0<n<N)份正常中层鳞状上皮宫颈细胞图像,通过细胞核圆度大于细胞核圆度阈值和核质比小于核质比阈值再次筛选剩下的正常中层鳞状上皮宫颈细胞图像;最后,使用图像清晰度由小至大将筛选后的正常中层鳞状上皮宫颈细胞图像再次重新排列,将排列划分为M份,筛除图像集合中图像清晰度较小的m(0<m<M)份正常中层鳞状上皮宫颈细胞图像,最终剩余的正常中层鳞状上皮宫颈细胞图像则成为该张全景图像中异常宫颈细胞图像的对比图像。
S5、构建并训练融合全局和局部对比信息的宫颈细胞分类模型。
首先,使用改进的SimSiam网络结构预训练宫颈细胞图像特征提取编码器,将原始的单输入方式改为多输入方式,即将同一张全景图像中同一类的两张宫颈细胞图像作为输入,使输入的两张图像作为相似实例,该批次训练数据中的其余图像作为不相似实例,再经过ResNet50作为图像特征提取编码器,两个全连接层作为映射头,将编码器输出的向量投影到单位超球面表示空间,最后利用对比损失函数训练编码器,使得相似实例在投影空间中距离较近,不相似实例在投影空间中距离较远;然后,利用已训练的改进的SimSiam模型中的图像特征提取编码器对同一张全景图像中的正常中层鳞状上皮宫颈细胞和异常宫颈细胞图像进行图像特征提取,将正常中层鳞状上皮宫颈细胞图像特征向量和随机初始化的位置编码输入到多头自注意力模块和前馈神经网络模块组成的编码器中,多头自注意力模块可以捕捉输入或输出序列中不同位置之间的关系,前馈神经网络可以对每个位置的特征进行非线性变换,在解码器部分,将异常宫颈细胞图像特征向量和随机初始化的位置编码输入到多头自注意力模块,提取异常宫颈细胞图像的自注意力特征;接着,将编码器的输出特征和异常宫颈细胞图像的自注意力特征输入到交叉注意力模块中,交叉注意力模块主要由多头自注意力模块和前馈神经网络模块组成,编码器-解码器注意机制实现了异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像的互相关操作,加强了两者在全局和丰富的上下文信息中的对比,从而提高分类的准确性;最后,解码器的输出后添加两个全连接层作为分类头,获得宫颈异常细胞分类结果,再通过每张全景图像中的正常中层鳞状上皮宫颈细胞图像和异常宫颈细胞图像数据训练得到融合全局和局部对比信息的宫颈细胞分类模型。
S6、利用已训练检测模型、分割模型和分类模型识别宫颈细胞病理全景图像下异常宫颈细胞。
首先,将待识别的宫颈细胞病理全景图像裁剪为一定大小的小图像;然后,利用异常宫颈细胞检测模型和正常中层鳞状上皮宫颈细胞检测模型分别预测已裁剪的小图像,获得该全景图像的正常中层鳞状上皮宫颈细胞图像集合和异常宫颈细胞图像集合;接着,利用正常宫颈细胞核和细胞质分割模型对正常中层鳞状上皮宫颈细胞图像集合中的每张细胞图像进行分割,获得每张细胞图像的细胞核和细胞质轮廓信息;然后,根据S3中所述提取正常中层鳞状上皮宫颈细胞图像手工特征,根据S4中所述利用手工特征筛选正常中层鳞状上皮宫颈细胞;最后,将异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像输入融合全局和局部对比信息的宫颈细胞分类模型中,预测出异常宫颈细胞图像的类别信息。
发明效果
本发明提出了一种融合全局和局部对比信息的宫颈细胞识别方法。病理医生在镜下阅片时,发现疑似的宫颈病变细胞时会调节显微镜的焦距,放大观察可疑细胞的特征,再将显微镜切回原倍数,寻找附近视野中的正常中层鳞状上皮宫颈细胞,对两者的形态细节进行对比,得出最终的诊断结果。本发明将病理医生肉眼观察判断异常细胞的过程,转化为计算机模型推理过程,首先利用目标检测模型识别与定位全景图像中正常中层鳞状上皮宫颈细胞和异常宫颈细胞,然后利用分割模型预测出正常中层鳞状上皮宫颈细胞的细胞核与细胞质轮廓信息,并利用轮廓信息提取的手工特征筛选已检测出的正常中层鳞状上皮宫颈细胞,获得该样本下的高质量正常中层鳞状上皮宫颈细胞作为基准参照细胞,最后将该样本下异常宫颈细胞和高质量正常中层鳞状上皮宫颈细胞输入分类模型,通过融合全局和局部对比信息的宫颈细胞分类模型预测出异常宫颈细胞的细粒度类别。实验表明,该方法有效降低了异常宫颈细胞识别的假阳性率,提高了宫颈细胞检测准确率、敏感度和特异度,为自动阅片系统提供关键技术支撑,帮助医生更早地发现癌细胞并准确评估病变级别。
附图说明
图1算法主要流程示意图;
图2正常中层鳞状上皮宫颈细胞核与细胞质分割效果图;
图3融合全局和局部对比信息的宫颈细胞分类模型结构图;
具体实施方法
具体实施方式一:
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明附图说明,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示为本发明提供的一种融合全局和局部对比信息的宫颈细胞识别方法,包含数据准备、模型训练和全景图像下异常宫颈细胞识别。
所述数据准备与模型训练包含如下步骤:
S1、准备异常宫颈细胞检测训练数据、正常中层鳞状上皮宫颈细胞检测训练数据和正常宫颈细胞核与细胞质分割训练数据;
S2、训练异常宫颈细胞检测模型、正常中层鳞状上皮宫颈细胞检测模型、正常宫颈细胞核和细胞质分割模型;
S3、提取正常中层鳞状上皮宫颈细胞图像手工特征;
S4、利用手工特征筛选正常中层鳞状上皮宫颈细胞;
S5、构建并训练融合全局和局部对比信息的宫颈细胞分类模型;
所述全景图像下异常宫颈细胞识别包含如下步骤:
S6、利用已训练检测模型、分割模型和分类模型识别宫颈细胞病理全景图像下宫颈异常细胞。
本发明实施例首先准备异常宫颈细胞检测、正常中层鳞状上皮宫颈细胞检测和正常宫颈细胞核与细胞质分割训练数据,构建并训练检测、分割与分类模型;然后利用检测模型识别与定位全景图像中正常中层鳞状上皮宫颈细胞和异常宫颈细胞,利用分割模型预测出正常中层鳞状上皮宫颈细胞核与细胞质的轮廓信息,并通过轮廓信息提取的手工特征筛选已检测出的正常中层鳞状上皮宫颈细胞,获得该全景图像下高质量正常中层鳞状上皮宫颈细胞作为基准参照细胞,最后将该全景图像下异常宫颈细胞和高质量正常中层鳞状上皮宫颈细胞输入分类模型,预测出异常宫颈细胞的细粒度类别。
下面对本发明实施例进行详细的说明:
数据准备与模型训练包含步骤:
S1、准备异常宫颈细胞检测训练数据、正常中层鳞状上皮宫颈细胞检测训练数据和正常宫颈细胞核与细胞质分割训练数据;
首先,收集大量的宫颈细胞病理涂片,并使用扫描仪对涂片扫描,获得宫颈细胞病理涂片的全景图像。然后,邀请病理医生使用ASAP软件进行检测数据标注,对诊断为阳性的全景图像标注异常宫颈细胞,对诊断为阴性的全景图像标注正常中层鳞状上皮宫颈细胞;接着,根据病理医生的标注信息,从全景图像中随机位置裁剪为1024×1024大小的图像,并保证每张图像中标注信息完整,阳性全景图像中裁剪的图像和对应的标注信息作为异常宫颈细胞检测训练数据,阴性全景图像中裁剪的图像和对应的标注信息作为正常中层鳞状上皮宫颈细胞检测训练数据;最后,从阴性全景图像中裁剪出医生标注的宫颈细胞图像,再人工使用LabelImg软件标注出宫颈细胞图像的细胞核和细胞质轮廓,标注完成后的数据作为正常宫颈细胞核和细胞质分割训练数据。
S2、训练异常宫颈细胞检测模型、正常中层鳞状上皮宫颈细胞检测模型、正常宫颈细胞核和细胞质分割模型;
使用YOLO v5原始网络结构作为检测模型网络结构,分别将异常宫颈细胞和正常中层鳞状上皮宫颈细胞检测训练数据输入检测模型网络结构中训练200轮,得到异常宫颈细胞和正常中层鳞状上皮宫颈细胞检测模型;使用solo v2原始网络结构作为分割模型网络结构,将正常宫颈细胞核和细胞质分割训练数据输入分割模型网络结构中训练200轮,得到正常宫颈细胞核和细胞质分割模型。
S3、提取正常中层鳞状上皮宫颈细胞图像手工特征;
首先,将全景图像依次不重叠的裁剪为1024×1024大小的图像,并利用正常中层鳞状上皮宫颈细胞检测模型预测已裁剪的图像,根据预测结果信息可获得该全景图像中正常中层鳞状上皮宫颈细胞图像;然后,利用分割模型预测正常中层鳞状上皮宫颈细胞图像中细胞核与细胞质轮廓信息,分割效果如图2所示;接着,通过轮廓信息计算正常中层鳞状上皮宫颈细胞图像手工特征,包括细胞核面积、细胞核圆度、核质比和图像清晰度,计算公式如下:
Figure BDA0004170233990000071
式中,Anu为细胞核面积,Snu为细胞核区域,pi为细胞核区域的某个像素点,细胞核面积则为细胞核区域内像素点数之和;
Figure BDA0004170233990000072
式中,Rnu为细胞核圆度,Lnu为细胞核周长,即细胞核轮廓长度;
Figure BDA0004170233990000081
式中,Nc-ratio为细胞核质比,Acy为细胞质面积,即细胞质区域内像素点数之和;
Figure BDA0004170233990000082
式中,di为图像Fi的清晰度,t为控制检测计算灵敏度的阈值,本实例中t=0.6,G(x,y)为图像Fi在(x,y)处的梯度值,定义如下:
Figure BDA0004170233990000083
Gx(x,y)与Gy(x,y)为图像Fi在(x,y)处的水平和垂直方向的梯度值,其计算公式如下:
Figure BDA0004170233990000084
Figure BDA0004170233990000085
S4、利用手工特征筛选正常中层鳞状上皮宫颈细胞;
根据《宫颈细胞学Bethesda报告系统》中明确定义的正常中层鳞状上皮宫颈细胞判读标准,设计正常中层鳞状上皮宫颈细胞筛选模块;首先,根据S3中所述提取正常中层鳞状上皮宫颈细胞图像手工特征,获得单张全景图像中检测出的所有正常鳞状上皮宫颈细胞图像集合和对应的手工特征;然后,由于正常中层鳞状上皮宫颈细胞核相比正常表层鳞状上皮宫颈细胞核更加圆润、染色质细腻和面积大,利用细胞核面积、细胞核圆度和核质比可筛除与中层鳞状上皮宫颈细胞相似的表层鳞状上皮宫颈细胞,通过细胞核面积由小至大将单张全景图像中的正常中层鳞状上皮宫颈细胞图像重新排列,将排列划分为N份,本实例中N=8,筛除图像集合中细胞核面积较小的n(0<n<N)份正常中层鳞状上皮宫颈细胞图像,本实例中n=1,通过细胞核圆度大于细胞核圆度阈值和核质比小于核质比阈值再次筛选剩下的正常中层鳞状上皮宫颈细胞图像;最后,使用图像清晰度由小至大将筛选后的正常中层鳞状上皮宫颈细胞图像再次重新排列,将排列划分为M份,本实例中M=5,筛除图像集合中图像清晰度较小的m(0<m<M)份正常中层鳞状上皮宫颈细胞图像,本实例中m=1,最终剩余的正常中层鳞状上皮宫颈细胞图像则成为该张全景图像中异常宫颈细胞图像的对比图像。
S5、构建并训练融合全局和局部对比信息的宫颈细胞分类模型;
分类模型结构如图3所示;首先,使用改进的SimSiam网络结构预训练宫颈细胞图像特征提取编码器,将原始的单输入方式改为多输入方式,即将同一张全景图像中同一类的两张宫颈细胞图像作为输入,使输入的两张图像作为相似实例,该批次训练数据中的其余图像作为不相似实例,再经过ResNet50作为图像特征提取编码器,两个全连接层作为映射头,将编码器输出的向量投影到单位超球面表示空间,最后利用对比损失函数训练编码器,使得相似实例在投影空间中距离较近,不相似实例在投影空间中距离较远;然后,利用已训练的改进的SimSiam模型中的图像特征提取编码器对同一张全景图像中的正常中层鳞状上皮宫颈细胞和异常宫颈细胞图像进行图像特征提取,将正常中层鳞状上皮宫颈细胞图像特征向量和随机初始化的位置编码输入到多头自注意力模块和前馈神经网络模块组成的编码器中,多头自注意力模块可以捕捉输入或输出序列中不同位置之间的关系,前馈神经网络可以对每个位置的特征进行非线性变换,在解码器部分,将异常宫颈细胞图像特征向量和随机初始化的位置编码输入到多头自注意力模块,提取异常宫颈细胞图像的自注意力特征;接着,将编码器的输出特征和异常宫颈细胞图像的自注意力特征输入到交叉注意力模块中,交叉注意力模块主要由多头自注意力模块和前馈神经网络模块组成,编码器-解码器注意机制实现了异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像的互相关操作,加强了两者在全局和丰富的上下文信息中的对比,从而提高分类的准确性;最后,解码器的输出后添加两个全连接层作为分类头,获得宫颈异常细胞分类结果,再通过每张全景图像中的正常中层鳞状上皮宫颈细胞图像和异常宫颈细胞图像数据训练得到融合全局和局部对比信息的宫颈细胞分类模型。
全景图像下异常宫颈细胞识别包含如下步骤:
S6、利用已训练检测模型、分割模型和分类模型识别宫颈细胞病理全景图像下宫颈异常细胞;
首先,将待识别的宫颈细胞病理全景图像裁剪为1024×1024大小的图像;然后,利用异常宫颈细胞检测模型和正常中层鳞状上皮宫颈细胞检测模型分别预测已裁剪的小图像,获得该全景图像的正常中层鳞状上皮宫颈细胞图像集合和异常宫颈细胞图像集合;接着,利用正常宫颈细胞核和细胞质分割模型对正常中层鳞状上皮宫颈细胞图像集合中的每张细胞图像进行分割,获得每张细胞图像的细胞核和细胞质轮廓信息;然后,根据S3中所述提取正常中层鳞状上皮宫颈细胞图像手工特征,根据S4中所述利用手工特征筛选正常中层鳞状上皮宫颈细胞;最后,将异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像输入融合全局和局部对比信息的宫颈细胞分类模型中,预测出异常宫颈细胞图像的类别信息。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明做出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明范围。

Claims (7)

1.一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,包含如下步骤:
S1、准备异常宫颈细胞检测训练数据、正常中层鳞状上皮宫颈细胞检测训练数据和正常宫颈细胞核与细胞质分割训练数据;
S2、训练异常宫颈细胞检测模型、正常中层鳞状上皮宫颈细胞检测模型、正常宫颈细胞核和细胞质分割模型;
S3、提取正常中层鳞状上皮宫颈细胞图像手工特征;
S4、利用手工特征筛选正常中层鳞状上皮宫颈细胞;
S5、构建并训练融合全局和局部对比信息的宫颈细胞分类模型;
S6、利用已训练检测模型、分割模型和分类模型识别宫颈细胞病理全景图像下宫颈异常细胞。
2.如权力要求1所述一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,步骤S1中准备异常宫颈细胞检测训练数据、正常中层鳞状上皮宫颈细胞检测训练数据和正常宫颈细胞核与细胞质分割训练数据,具体步骤如下:
首先,收集大量的宫颈细胞病理涂片,并使用扫描仪对涂片扫描,获得宫颈细胞病理涂片的全景图像。然后,邀请病理医生使用ASAP软件进行检测数据标注,对诊断为阳性的全景图像标注异常宫颈细胞,对诊断为阴性的全景图像标注正常中层鳞状上皮宫颈细胞;接着,根据病理医生的标注信息,从全景图像中随机位置裁剪一定大小的图像,并保证每张图像中标注信息完整,阳性全景图像中裁剪的图像和对应的标注信息作为异常宫颈细胞检测训练数据,阴性全景图像中裁剪的图像和对应的标注信息作为正常中层鳞状上皮宫颈细胞检测训练数据;最后,从阴性全景图像中裁剪出医生标注的宫颈细胞图像,再人工使用LabelImg软件标注出宫颈细胞图像的细胞核和细胞质轮廓,标注完成后的数据作为正常宫颈细胞核和细胞质分割训练数据。
3.如权力要求1所述一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,步骤S2中训练异常宫颈细胞检测模型、正常中层鳞状上皮宫颈细胞检测模型、正常宫颈细胞核和细胞质分割模型,具体步骤如下:
使用YOLO v5原始网络结构作为检测模型网络结构,分别将异常宫颈细胞和正常中层鳞状上皮宫颈细胞检测训练数据输入检测模型网络结构中训练,得到异常宫颈细胞和正常中层鳞状上皮宫颈细胞检测模型;使用solo v2原始网络结构作为分割模型网络结构,将正常宫颈细胞核和细胞质分割训练数据输入分割模型网络结构中训练,得到正常宫颈细胞核和细胞质分割模型。
4.如权利要求1所述一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,步骤S3中提取正常中层鳞状上皮宫颈细胞图像手工特征,具体步骤如下:
首先,将全景图像依次不重叠的裁剪为一定大小的图像,并利用正常中层鳞状上皮宫颈细胞检测模型预测已裁剪的图像,根据预测结果信息可获得该全景图像中正常中层鳞状上皮宫颈细胞图像;然后,利用分割模型预测正常中层鳞状上皮宫颈细胞图像中细胞核与细胞质轮廓信息;接着,通过轮廓信息计算正常中层鳞状上皮宫颈细胞图像手工特征,包括细胞核面积、细胞核圆度、核质比和图像清晰度,计算公式如下:
Figure FDA0004170233980000021
式中,Anu为细胞核面积,Snu为细胞核区域,pi为细胞核区域的某个像素点,细胞核面积则为细胞核区域内像素点数之和;
Figure FDA0004170233980000022
式中,Rnu为细胞核圆度,Lnu为细胞核周长,即细胞核轮廓长度;
Figure FDA0004170233980000023
式中,Nc-ratio为细胞核质比,Acy为细胞质面积,即细胞质区域内像素点数之和;
Figure FDA0004170233980000024
式中,di为图像Fi的清晰度,t为控制检测计算灵敏度的阈值,G(x,y)为图像Fi在(x,y)处的梯度值,定义如下:
Figure FDA0004170233980000025
Gx(x,y)与Gy(x,y)为图像Fi在(x,y)处的水平和垂直方向的梯度值,其计算公式如下:
Figure FDA0004170233980000026
Figure FDA0004170233980000031
5.如权利要求1所述一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,步骤S4中利用手工特征筛选正常中层鳞状上皮宫颈细胞,具体步骤如下:
根据《宫颈细胞学Bethesda报告系统》中明确定义的正常中层鳞状上皮宫颈细胞判读标准,设计正常中层鳞状上皮宫颈细胞筛选模块;首先,根据S3中所述提取正常中层鳞状上皮宫颈细胞图像手工特征,获得单张全景图像中检测出的所有正常鳞状上皮宫颈细胞图像集合和对应的手工特征;然后,由于正常中层鳞状上皮宫颈细胞核相比正常表层鳞状上皮宫颈细胞核更加圆润、染色质细腻和面积大,利用细胞核面积、细胞核圆度和核质比可筛除与中层鳞状上皮宫颈细胞相似的表层鳞状上皮宫颈细胞,通过细胞核面积由小至大将单张全景图像中的正常中层鳞状上皮宫颈细胞图像重新排列,将排列划分为N份,筛除图像集合中细胞核面积较小的n(0<n<N)份正常中层鳞状上皮宫颈细胞图像,通过细胞核圆度大于细胞核圆度阈值和核质比小于核质比阈值再次筛选剩下的正常中层鳞状上皮宫颈细胞图像;最后,使用图像清晰度由小至大将筛选后的正常中层鳞状上皮宫颈细胞图像再次重新排列,将排列划分为M份,筛除图像集合中图像清晰度较小的m(0<m<M)份正常中层鳞状上皮宫颈细胞图像,最终剩余的正常中层鳞状上皮宫颈细胞图像则成为该张全景图像中异常宫颈细胞图像的对比图像。
6.如权利要求1所述一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,步骤S5中构建并训练融合全局和局部对比信息的宫颈细胞分类模型,具体步骤如下:
首先,使用改进的SimSiam网络结构预训练宫颈细胞图像特征提取编码器,将原始的单输入方式改为多输入方式,即将同一张全景图像中同一类的两张宫颈细胞图像作为输入,使输入的两张图像作为相似实例,该批次训练数据中的其余图像作为不相似实例,再经过ResNet50作为图像特征提取编码器,两个全连接层作为映射头,将编码器输出的向量投影到单位超球面表示空间,最后利用对比损失函数训练编码器,使得相似实例在投影空间中距离较近,不相似实例在投影空间中距离较远;然后,利用已训练的改进的SimSiam模型中的图像特征提取编码器对同一张全景图像中的正常中层鳞状上皮宫颈细胞和异常宫颈细胞图像进行图像特征提取,将正常中层鳞状上皮宫颈细胞图像特征向量和随机初始化的位置编码输入到多头自注意力模块和前馈神经网络模块组成的编码器中,多头自注意力模块可以捕捉输入或输出序列中不同位置之间的关系,前馈神经网络可以对每个位置的特征进行非线性变换,在解码器部分,将异常宫颈细胞图像特征向量和随机初始化的位置编码输入到多头自注意力模块,提取异常宫颈细胞图像的自注意力特征;接着,将编码器的输出特征和异常宫颈细胞图像的自注意力特征输入到交叉注意力模块中,交叉注意力模块主要由多头自注意力模块和前馈神经网络模块组成,编码器-解码器注意机制实现了异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像的互相关操作,加强了两者在全局和丰富的上下文信息中的对比,从而提高分类的准确性;最后,解码器的输出后添加两个全连接层作为分类头,获得宫颈异常细胞分类结果,再通过每张全景图像中的正常中层鳞状上皮宫颈细胞图像和异常宫颈细胞图像数据训练得到融合全局和局部对比信息的宫颈细胞分类模型。
7.如权利要求1所述一种融合全局和局部对比信息的宫颈细胞识别方法,其特征在于,步骤S6中利用已训练检测模型、分割模型和分类模型识别宫颈细胞病理全景图像下异常宫颈细胞,具体步骤如下:
首先,将待识别的宫颈细胞病理全景图像裁剪为一定大小的小图像;然后,利用异常宫颈细胞检测模型和正常中层鳞状上皮宫颈细胞检测模型分别预测已裁剪的小图像,获得该全景图像的正常中层鳞状上皮宫颈细胞图像集合和异常宫颈细胞图像集合;接着,利用正常宫颈细胞核和细胞质分割模型对正常中层鳞状上皮宫颈细胞图像集合中的每张细胞图像进行分割,获得每张细胞图像的细胞核和细胞质轮廓信息;然后,根据S3中所述提取正常中层鳞状上皮宫颈细胞图像手工特征,根据S4中所述利用手工特征筛选正常中层鳞状上皮宫颈细胞;最后,将异常宫颈细胞图像和正常中层鳞状上皮宫颈细胞图像输入融合全局和局部对比信息的宫颈细胞分类模型中,预测出异常宫颈细胞图像的类别信息。
CN202310375322.3A 2023-04-10 2023-04-10 一种融合全局和局部对比信息的宫颈细胞识别方法 Pending CN116402796A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310375322.3A CN116402796A (zh) 2023-04-10 2023-04-10 一种融合全局和局部对比信息的宫颈细胞识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310375322.3A CN116402796A (zh) 2023-04-10 2023-04-10 一种融合全局和局部对比信息的宫颈细胞识别方法

Publications (1)

Publication Number Publication Date
CN116402796A true CN116402796A (zh) 2023-07-07

Family

ID=87013814

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310375322.3A Pending CN116402796A (zh) 2023-04-10 2023-04-10 一种融合全局和局部对比信息的宫颈细胞识别方法

Country Status (1)

Country Link
CN (1) CN116402796A (zh)

Similar Documents

Publication Publication Date Title
US11657503B2 (en) Computer scoring based on primary stain and immunohistochemistry images related application data
US10176579B2 (en) Tissue object-based machine learning system for automated scoring of digital whole slides
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
WO2021139258A1 (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
CN112380900A (zh) 基于深度学习的子宫颈液基细胞数字图像分类方法及系统
CN110736748A (zh) 免疫组化核浆染色切片诊断方法及系统
US20220351379A1 (en) Non-tumor segmentation to support tumor detection and analysis
CN110765855A (zh) 一种病理图像处理方法及系统
Dov et al. Thyroid cancer malignancy prediction from whole slide cytopathology images
CN115909006A (zh) 基于卷积Transformer的乳腺组织图像分类方法及系统
CN112784767A (zh) 基于白细胞显微图像的细胞实例分割算法
CN115471838A (zh) 基于深度自适应特征提取的宫颈鳞状病变细胞检测方法
JP2007516428A (ja) 分散プロット分布を用いてスライドの染色品質を決定するシステム
CN115359264A (zh) 一种密集型分布的粘连细胞深度学习识别方法
CN114387596A (zh) 细胞病理涂片自动判读系统
CN113470041B (zh) 免疫组化细胞图像细胞核分割与计数方法和系统
CN113160175B (zh) 一种基于级联网络的肿瘤淋巴管浸润检测方法
JP4897488B2 (ja) 分散プロット分布を用いてスライドを分類するシステム
Riana et al. Comparison of nucleus and inflammatory cell detection methods on Pap smear images
CN116402796A (zh) 一种融合全局和局部对比信息的宫颈细胞识别方法
CN113222928B (zh) 一种尿细胞学人工智能尿路上皮癌识别系统
CN111783571A (zh) 一种宫颈细胞自动分类模型建立及宫颈细胞自动分类方法
Das et al. A texture based approach for automatic identification of benign and malignant tumor from FNAC images
CN116705289B (zh) 基于语义分割网络的宫颈病理诊断装置
CN117496276B (zh) 肺癌细胞形态学分析、识别方法及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination