CN114708589A - 一种基于深度学习的宫颈细胞分类方法 - Google Patents

一种基于深度学习的宫颈细胞分类方法 Download PDF

Info

Publication number
CN114708589A
CN114708589A CN202210351760.1A CN202210351760A CN114708589A CN 114708589 A CN114708589 A CN 114708589A CN 202210351760 A CN202210351760 A CN 202210351760A CN 114708589 A CN114708589 A CN 114708589A
Authority
CN
China
Prior art keywords
cervical cell
cervical
image
data
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210351760.1A
Other languages
English (en)
Inventor
王琳
宿宁宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202210351760.1A priority Critical patent/CN114708589A/zh
Publication of CN114708589A publication Critical patent/CN114708589A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明一种基于深度学习的宫颈细胞分类方法,属于图像处理技术领域,该方法包括以下步骤:获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;构建基于深度学习的宫颈细胞分类网络;将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络参数;将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果,本方法在宫颈细胞图像数据上实验,四分类准确率达到99.23%,与以往技术相比有了较大提升。

Description

一种基于深度学习的宫颈细胞分类方法
技术领域
本发明属于图像处理技术领域,涉及一种基于深度学习的宫颈细胞分类方法。
背景技术
宫颈癌是当今妇科疾病中最为常见的恶性肿瘤之一,宫颈癌发病率很高,成为威胁全世界女性健康的重大隐患。宫颈癌从初早期的炎症发展到恶性癌变大约需要6至8年的时间,可分为早期、中期和晚期,只要尽早发现尽早治疗,就能达到痊愈,因此早发现早治疗至关重要。宫颈细胞学检查是确诊宫颈病变的主要检查方法之一,是宫颈筛查最重要的手段。宫颈细胞分类是宫颈细胞学检查的重要组成部分。如何提高分类的准确率,一直以来都是医学领域以及计算机领域的研究热点。
传统的宫颈细胞分类技术有很多,主要包括支持向量机[1]、决策树、K最邻近算法,贝叶斯等等。而传统算法大多数的主要思想是提取宫颈细胞的形态特征、纹理特征和颜色特征等输入到各传统算法分类器中进行分类[2]。传统方法需要手工提取特征,提取的特征是不全面的,因此,传统方法分类的准确率达到一定高度后遇到了瓶颈期。越来越多的学者将注意力转换到深度学习技术。目前深度学习[3][4][5]在细胞分类领域用的较多的方法就是迁移学习[6],迁移学习在一定程度上缓解了由于样本不足引起的过拟合问题,但迁移学习也有一定的缺点,迁移学习调用了用其他大数据集训练模型保留的模型参数和权重,用数据集训练后,引入了其它数据集的特征,对用测试数据集进行测试时造成一定影响,其分类准确率不能提升。本文提出方法,弥补了深度学习技术提取特征的不足,在一定程度上提高分类准确率。
CN110363188A基于卷积神经网络的宫颈细胞图像分类方法,该申请准备数据集并分割细胞核区域,加载到稠密卷积神经网络,该网络包括稠密连接模块和过渡层。稠密连接模块的内部采用稠密连接的方式,即每一层的输入特征都是来自前面所有层的输出,其中所述每一层都有一个复合操作包括归一化,Re LU函数激活和卷积运算。过渡层由卷积和池化层组成,卷积层包括复数个卷积单元,每个所述卷积单元的参数都是通过所述反向传播算法最佳化得到的,最后经过交叉熵损失函数反向传播,得到输出结果。该申请提出的方法在训练过程中卷积神经网络不能关注细胞关键特征信息,虽运用了稠密连接模块,但宫颈细胞特征仍有丢失。单一尺度的卷积核不能够提取多尺度特征,网络提取特征能力有限。
发明内容
为了解决上述问题,本发明提供本发明采用的技术方案是:一种基于深度学习的宫颈细胞分类方法,包括以下步骤:
获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;
提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,提取增强后的宫颈细胞图像的数据集由宫颈细胞原图像、提取的突出形态特征与纹理特征图像以及提取的颜色特征矩阵共同构成;将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;
构建基于深度学习的宫颈细胞分类网络;
将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络参数;
将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果。
进一步地:所述对宫颈细胞原图像数据进行数据增强的过程如下:
S1-1:识别出原始宫颈细胞图像中的宫颈细胞核轮廓,定位宫颈细胞核质心位置坐标;
S1-2:将原始宫颈细胞图像围绕细胞核质心位置坐标,以36度角度旋转10次,将数据集数量扩增值原数据集数量的10倍,以细胞核质心为中心,将旋转后的图像剪裁为128×128像素大小的图像,具体的如果原图像大小不足128×128则边缘填充0。
进一步地:所述提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征与纹理特征、颜色特征,步骤如下:
S2-1:对数据增强后的宫颈细胞图像提取形态特征与纹理特征,首先将宫颈细胞的彩色图像转化为灰度图像,在灰度图像上运用局部二值模式算法得到处理后的图像,处理后的图像突出宫颈细胞的形态信息与纹理信息,完成形态特征与纹理特征提取;
S2-2:对数据增强后的宫颈细胞图像提取颜色特征,首先对宫颈细胞原始图像分为N×N等份,对每一份图像求其一阶颜色矩、二阶颜色矩,将其组合为1×6维向量,然后按原来位置重新组合为N×N×6维向量,完成颜色特征提取。
进一步地:所述宫颈细胞分类网络包括4个改进的inception模块、4个最大池化层、3个输入和2个输出;
所述4个改进的inception模块包括:第一改进的inception模块、第二改进的inception模块、第三改进的inception模块和第四改进的inception模块;
所述3个输入包括:输入一、输入二和输出三;
所述输入一为增强后的原始图像,保留细胞原始特征;
所述输入二为用局部二值模式算法处理增强后的原图像后,得到纹理特征图像,用以补充宫颈细胞的形态特征与纹理特征;
所述输入三为提取增强后的宫颈细胞图像得到颜色特征矩阵,用以补充宫颈细胞颜色特征;
所述原图像与所述具有纹理与形态特征图像经过一个3×3的卷积层跳层拼接到第一个改进的inception模块中,颜色输入矩阵经过一个3×3卷积与第四个最大池化输出进行跳层拼接;
所述2个输出包括第一输出和第二输出;
所述第一个输出为宫颈细胞分类结果,在第四改进的inception模块提取特征后,经过两个3×3的卷积层操作,一个最大池化层操作,经过两个全连接层输出分类结果;
第二个输出为宫颈细胞分割结果,在第三个改进的inception模块后经过两次3×3卷积操作三次上采样操作后输出分割结果。
进一步地,所述改进的inception模块包括三个支路,三个支路通过调层拼接输出;所述三个支路包括支路一、支路二与支路三;
所述支路一包括:一个1×1卷积与一个3×3膨胀卷积;
所述支路二包括:一个1×1卷积与一个3×3卷积;
所述支路三包括:一个1×1卷积。
进一步地:所述宫颈细胞分类网络损失函数采用的是改进的交叉熵损失函数的公式如下:
Figure BDA0003580831020000041
其中,σ为sigmoid函数,Nie第i类错误样本数量,Ni第i类样本总数量。k值为一阈值,用来调节分类错误率大小对样本权重加。α值为大于0的常数,用来控制对样本权重调节的程度。
一种基于深度学习的宫颈细胞分类装置,包括:
获取模块:用于获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;
提取模块,用于提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,提取增强后的宫颈细胞图像的数据集由宫颈细胞原图像、提取的突出形态特征与纹理特征图像以及提取的颜色特征矩阵共同构成;将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;
构建模块:用于构建基于深度学习的宫颈细胞分类网络;
训练模块:用于将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络参数;
预测模块:用于将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果。
本发明提供的一种基于深度学习的宫颈细胞分类方法,本方法主要是运用深度学习技术对宫颈细胞分类,在以往的方法中存在一些不足,首先数据增强引入了大量的噪声;其次网络在训练过程中丢失了大量宫颈细胞特征;最后样本不均衡问题导致模型容易过拟合。本方法与以往方法相比,主要有以下优点:首先在图像增强方面,围绕细胞核质心旋转剪裁可以引入较少噪声,选择的裁剪尺寸可以完整保留细胞核,尽量完整的保留细胞核特征信息;宫颈细胞分类网络有三个输入两个输出,三个输入分别为原图像、经过局部二值模式算法提取的突出纹理特征与轮廓特征图像、提取的颜色特征矩阵,原图像可以更好训练宫颈细胞原有特征,其它两个输入可以在训练过程中补充宫颈细胞的颜色特征、纹理特征与轮廓特征,两个输出分别是分类与分割输出,其中细胞核分割输出可以不断修正宫颈细胞核轮廓特征;改进的inception模块可以在提取不同特征尺度的同时,可以大量减少模型参数,缓解由于样本数量不足引起的模型容易过拟合问题;改进的交叉熵损失函数在训练过程中,更加关注训练错误率大的样本,可以进一步提高分类的准确率,本方法在宫颈细胞图像数据上实验,四分类准确率达到99.23%,与以往技术相比有了较大提升。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是基于深度学习的宫颈细胞分类过程图;
图2是宫颈细胞分类网络图;
图3是改进inception模块图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合,下面将参考附图并结合实施例来详细说明本发明。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。同时,应当清楚,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员己知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任向具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
在本发明的描述中,需要理解的是,方位词如“前、后、上、下、左、右”、“横向、竖向、垂直、水平”和“顶、底”等所指示的方位或位置关系通常是基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,在未作相反说明的情况下,这些方位词并不指示和暗示所指的装置或元件必须具有特定的方位或者以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制:方位词“内、外”是指相对于各部件本身的轮廓的内外。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其位器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位(旋转90度或处于其他方位),并且对这里所使用的空间相对描述作出相应解释。
此外,需要说明的是,使用“第一”、“第二”等词语来限定零部件,仅仅是为了便于对相应零部件进行区别,如没有另行声明,上述词语并没有特殊含义,因此不能理解为对本发明保护范围的限制。
图1是基于深度学习的宫颈细胞分类过程图;
一种基于深度学习的宫颈细胞分类方法,包括以下步骤:
S1:获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;
S2:提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,提取增强后的宫颈细胞图像数据集由宫颈细胞原图像、提取的突出形态特征与纹理特征图像以及提取的颜色特征矩阵共同构成;
将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;
S3:构建基于深度学习的宫颈细胞分类网络;
S4:将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络;
S5:将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果。
进一步地:所述对宫颈细胞原图像数据进行数据增强,其过程如下:
S1-1:识别出原始宫颈细胞图像细胞核轮廓,定位细胞核质心位置坐标;
S1-2:将原始图像围绕细胞核质心位置坐标,以36度角度旋转10次,将数据集数量扩增值原数据集数量的10倍,最后以细胞核质心为中心,将旋转后的图像剪裁为128×128像素大小的图像,具体的如果原图像大小不足128×128则边缘填充0。
进一步地:所述提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,步骤如下:
S2-1:对数据增强后的宫颈细胞图像提取形态特征与纹理特征,首先将宫颈细胞的彩色图像转化为灰度图像,在灰度图像上运用局部二值模式算法得到处理后的图像,处理后的图像突出宫颈细胞的形态信息与纹理信息,完成形态特征与纹理特征提取;
S2-2:对数据增强后的宫颈细胞图像提取颜色特征,首先对宫颈细胞原始图像分为N×N等份,对每一份图像求其一阶颜色矩、二阶颜色矩,将其组合为1×6维向量,然后按原来位置重新组合为N×N×6维向量,完成颜色特征提取。
图2是宫颈细胞分类网络图;
进一步地,所述宫颈细胞分类网络包括4个改进的inception模块、4个最大池化层、3个输入和2个输出;
所述4个改进的inception模块包括:第一改进的inception模块、第二改进的inception模块、第三改进的inception模块和第四改进的inception模块;
所述3个输入包括:输入一、输入二和输出三;
所述输入一为增强后的原始图像,保留细胞原始特征;
所述输入二为用局部二值模式算法处理增强后的原图像后,得到纹理特征图像,用以补充宫颈细胞的形态特征与纹理特征;
所述输入三为提取增强后的宫颈细胞图像得到颜色特征矩阵,用以补充宫颈细胞颜色特征;
所述原图像与所述具有纹理与形态特征图像经过一个3×3的卷积层跳层拼接到第一个改进的inception模块中,颜色输入矩阵经过一个3×3卷积与第四个最大池化输出进行跳层拼接;
所述2个输出包括第一输出和第二输出;
所述第一个输出为宫颈细胞分类结果,在第四改进的inception模块提取特征后,经过两个3×3的卷积层操作,一个最大池化层操作,经过两个全连接层输出分类结果;
第二个输出为宫颈细胞分割结果,在第三个改进的inception模块后经过两次3×3卷积操作三次上采样操作后输出分割结果。
输出为宫颈细胞分类结构,用以预测宫颈细胞的类别;
输出为宫颈细胞分割信息,目的是网络在训练的过程中,不断加强宫颈细胞核形态信息,同时在网络中间引出输出可缓解梯度消失问题;
图3是改进inception模块图,所述改进的inception模块包括三个支路,三个支路通过调层拼接输出;所述三个支路包括支路一、支路二与支路三;
所述支路一包括:一个1×1卷积与一个3×3膨胀卷积;
所述支路二包括:一个1×1卷积与一个3×3卷积;
所述支路三包括:一个1×1卷积。
宫颈细胞分类网络损失函数采用的是改进的交叉熵损失函数,在每一轮训练过程中,计算其每一类细胞的分类错误率,加权到交叉熵损失函数中,使网络训练更加关注分类错误率高的样本。
原交叉熵损失函数如下:
Figure BDA0003580831020000081
其中,P=[P0,...,Pc-1],y=[y0,...,yc-1]当样本属于第i类判别时yi=1,Pi表示属于第i类的概率。提出的损失函数在训练过程中,增加分类错误率高的类别的样本权重,减少正确率高的类别的样本权重。
改进的损失函数如下:
Figure BDA0003580831020000091
其中,σ为sigmoid函数,Nie第i类错误样本数量,Ni第i类样本总数量。k值为一阈值,用来调节分类错误率大小对样本权重加。α值为大于0的常数,用来控制对样本权重调节的程度。
进一步地:所述宫颈细胞分类网络训练过程如下:
S4-1:将训练集中的原始数据运用局部二值模式算法后得到的图像与宫颈细胞图像颜色特征矩阵,输入到宫颈细胞分类网络中;
S4-2:采用与独热编码相匹配的改进的交叉熵损失函数进行反向传播以更新宫颈细胞分类网络的权重参数;
S4-3:在训练过程中保存准确率最高的宫颈细胞分类网络参数用于模型预测,直至全部数据对模型进行100次完整的训练,网络训练结束。
一种基于深度学习的宫颈细胞分类装置,包括:
获取模块:用于获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;
提取模块,用于提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,提取增强后的宫颈细胞图像的数据集由宫颈细胞原图像、提取的突出形态特征与纹理特征图像以及提取的颜色特征矩阵共同构成;将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;
构建模块:用于构建基于深度学习的宫颈细胞分类网络;
训练模块:用于将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络参数;
预测模块:用于将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
[1]B.P.Sari and Y.Jusman,"Classification System for Cervical CellImages based on Hu Moment Invariants Methods and Support Vector Machine,"2021International Conference on Intelligent Technologies(CONIT),2021,pp.1-5,doi:10.1109/CONIT51480.2021.9498353.
[2]S.Jaya and M.Latha,"Channel based Threshold Segmentation of Multi-Class Cervical Cancer using Mean and Standard Deviation on Pap Smear Images,"2020 International Conference on Electronics and Sustainable CommunicationSystems(ICESC),2020,pp.721-726,doi:10.1109/ICESC48915.2020.9156020.
[3]P.Wang,J.Wang,Y.Li,L.Li and H.Zhang,"Adaptive Pruning of TransferLearned Deep Convolutional Neural Network for Classification of Cervical PapSmear Images,"in IEEE Access,vol.8,pp.50674-50683,2020.
[4]Kurnianingsih et al.,"Segmentation and Classification of CervicalCells Using Deep Learning,"in IEEE Access,vol.7,pp.116925-116941,2019.
[5]H.Lin,Y.Hu,S.Chen,J.Yao and L.Zhang,"Fine-Grained Classificationof Cervical Cells Using Morphological and Appearance Based ConvolutionalNeural Networks,"in IEEE Access,vol.7,pp.71541-71549,2019.
[6]Zhang L,Lu L,Nogues I,et al.DeepPap:deep convolutional networksfor cervical cell classification[J].IEEE Journal of Biomedical and HealthInformatics,2017,21(6):1633-1643.

Claims (7)

1.一种基于深度学习的宫颈细胞分类方法,其特征在于:包括以下步骤:
获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;
提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,提取增强后的宫颈细胞图像的数据集由宫颈细胞原图像、提取的突出形态特征与纹理特征图像以及提取的颜色特征矩阵共同构成;将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;
构建基于深度学习的宫颈细胞分类网络;
将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络参数;
将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果。
2.根据权利要求1所述的一种基于深度学习的宫颈细胞分类方法,其特征在于:所述对宫颈细胞原图像数据进行数据增强的过程如下:
S1-1:识别出原始宫颈细胞图像中的宫颈细胞核轮廓,定位宫颈细胞核质心位置坐标;
S1-2:将原始宫颈细胞图像围绕细胞核质心位置坐标,以36度角度旋转10次,将数据集数量扩增值原数据集数量的10倍,以细胞核质心为中心,将旋转后的图像剪裁为128×128像素大小的图像,具体的如果原图像大小不足128×128则边缘填充0。
3.根据权利要求1所述的一种基于深度学习的宫颈细胞分类方法,其特征在于:所述提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征与纹理特征、颜色特征,步骤如下:
S2-1:对数据增强后的宫颈细胞图像提取形态特征与纹理特征,首先将宫颈细胞的彩色图像转化为灰度图像,在灰度图像上运用局部二值模式算法得到处理后的图像,处理后的图像突出宫颈细胞的形态信息与纹理信息,完成形态特征与纹理特征提取;
S2-2:对数据增强后的宫颈细胞图像提取颜色特征,首先对宫颈细胞原始图像分为N×N等份,对每一份图像求其一阶颜色矩、二阶颜色矩,将其组合为1×6维向量,然后按原来位置重新组合为N×N×6维向量,完成颜色特征提取。
4.根据权利要求1所述的一种基于深度学习的宫颈细胞分类方法,其特征在于:所述宫颈细胞分类网络包括4个改进的inception模块、4个最大池化层、3个输入和2个输出;
所述4个改进的inception模块包括:第一改进的inception模块、第二改进的inception模块、第三改进的inception模块和第四改进的inception模块;
所述3个输入包括:输入一、输入二和输出三;
所述输入一为增强后的原始图像,保留细胞原始特征;
所述输入二为用局部二值模式算法处理增强后的原图像后,得到纹理特征图像,用以补充宫颈细胞的形态特征与纹理特征;
所述输入三为提取增强后的宫颈细胞图像得到颜色特征矩阵,用以补充宫颈细胞颜色特征;
所述原图像与所述具有纹理与形态特征图像经过一个3×3的卷积层跳层拼接到第一个改进的inception模块中,颜色输入矩阵经过一个3×3卷积与第四个最大池化输出进行跳层拼接;
所述2个输出包括第一输出和第二输出;
所述第一个输出为宫颈细胞分类结果,在第四改进的inception模块提取特征后,经过两个3×3的卷积层操作,一个最大池化层操作,经过两个全连接层输出分类结果;
第二个输出为宫颈细胞分割结果,在第三个改进的inception模块后经过两次3×3卷积操作三次上采样操作后输出分割结果。
5.根据权利要求1所述的一种基于深度学习的宫颈细胞分类方法,其特征在于:所述改进的inception模块包括三个支路,三个支路通过调层拼接输出;所述三个支路包括支路一、支路二与支路三;
所述支路一包括:一个1×1卷积与一个3×3膨胀卷积;
所述支路二包括:一个1×1卷积与一个3×3卷积;
所述支路三包括:一个1×1卷积。
6.根据权利要求1所述的一种基于深度学习的宫颈细胞分类方法,其特征在于:所述宫颈细胞分类网络损失函数采用的是改进的交叉熵损失函数的公式如下:
Figure FDA0003580831010000031
其中,σ为sigmoid函数,Nie第i类错误样本数量,Ni第i类样本总数量。k值为一阈值,用来调节分类错误率大小对样本权重加。α值为大于0的常数,用来控制对样本权重调节的程度。
7.一种基于深度学习的宫颈细胞分类装置,其特征在于:包括
获取模块:用于获取宫颈细胞图像数据集,对宫颈细胞原图像数据进行数据增强,得到数据增强后的宫颈细胞图像数据;
提取模块,用于提取增强后的宫颈细胞图像数据中宫颈细胞的形态特征、纹理特征和颜色特征,提取增强后的宫颈细胞图像的数据集由宫颈细胞原图像、提取的突出形态特征与纹理特征图像以及提取的颜色特征矩阵共同构成;将提取增强后的宫颈细胞图像数据集按照比例划分为训练数据和测试数据;
构建模块:用于构建基于深度学习的宫颈细胞分类网络;
训练模块:用于将训练数据依次输入到宫颈细胞分类网络中对宫颈细胞分类网络进行训练,得到训练好的宫颈细胞分类网络参数;
预测模块:用于将测试数据依次输入到训练好的宫颈细胞分类网络中,与测试集标签对比,得到宫颈细胞的分类结果。
CN202210351760.1A 2022-04-02 2022-04-02 一种基于深度学习的宫颈细胞分类方法 Pending CN114708589A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210351760.1A CN114708589A (zh) 2022-04-02 2022-04-02 一种基于深度学习的宫颈细胞分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210351760.1A CN114708589A (zh) 2022-04-02 2022-04-02 一种基于深度学习的宫颈细胞分类方法

Publications (1)

Publication Number Publication Date
CN114708589A true CN114708589A (zh) 2022-07-05

Family

ID=82172974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210351760.1A Pending CN114708589A (zh) 2022-04-02 2022-04-02 一种基于深度学习的宫颈细胞分类方法

Country Status (1)

Country Link
CN (1) CN114708589A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116313115A (zh) * 2023-05-10 2023-06-23 浙江大学 基于线粒体动态表型和深度学习的药物作用机制预测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780466A (zh) * 2016-12-21 2017-05-31 广西师范大学 一种基于卷积神经网络的宫颈细胞图像识别方法
US20180211380A1 (en) * 2017-01-25 2018-07-26 Athelas Inc. Classifying biological samples using automated image analysis
CN110163102A (zh) * 2019-04-18 2019-08-23 麦克奥迪(厦门)医疗诊断系统有限公司 一种基于卷积神经网络的宫颈细胞图像分类识别方法
CN111860586A (zh) * 2020-06-12 2020-10-30 南通大学 一种细粒度宫颈细胞图像三阶段识别方法
CN112200253A (zh) * 2020-10-16 2021-01-08 武汉呵尔医疗科技发展有限公司 基于senet的宫颈细胞图像分类方法
CN114266717A (zh) * 2020-09-25 2022-04-01 天津科技大学 一种基于Inception模块的并行胶囊网络宫颈癌细胞检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780466A (zh) * 2016-12-21 2017-05-31 广西师范大学 一种基于卷积神经网络的宫颈细胞图像识别方法
US20180211380A1 (en) * 2017-01-25 2018-07-26 Athelas Inc. Classifying biological samples using automated image analysis
CN110163102A (zh) * 2019-04-18 2019-08-23 麦克奥迪(厦门)医疗诊断系统有限公司 一种基于卷积神经网络的宫颈细胞图像分类识别方法
CN110363188A (zh) * 2019-04-18 2019-10-22 麦克奥迪(厦门)医疗诊断系统有限公司 基于卷积神经网络的宫颈细胞图像分类方法
CN111860586A (zh) * 2020-06-12 2020-10-30 南通大学 一种细粒度宫颈细胞图像三阶段识别方法
CN114266717A (zh) * 2020-09-25 2022-04-01 天津科技大学 一种基于Inception模块的并行胶囊网络宫颈癌细胞检测方法
CN112200253A (zh) * 2020-10-16 2021-01-08 武汉呵尔医疗科技发展有限公司 基于senet的宫颈细胞图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
尹方平: "《新编生物特征识别与应用》", 30 April 2016, 电子科技大学出版社 *
张善文等: "《图像模式识别》", 31 May 2020, 西安电子科技大学出版社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116313115A (zh) * 2023-05-10 2023-06-23 浙江大学 基于线粒体动态表型和深度学习的药物作用机制预测方法
CN116313115B (zh) * 2023-05-10 2023-08-15 浙江大学 基于线粒体动态表型和深度学习的药物作用机制预测方法

Similar Documents

Publication Publication Date Title
CN106408562B (zh) 基于深度学习的眼底图像视网膜血管分割方法及系统
CN111191660B (zh) 一种基于多通道协同胶囊网络的结肠癌病理学图像分类方法
CN110503187B (zh) 一种用于功能核磁共振成像数据生成的生成对抗网络模型的实现方法
CN110059586B (zh) 一种基于空洞残差注意力结构的虹膜定位分割系统
CN114220124A (zh) 一种近红外-可见光跨模态双流行人重识别方法及系统
CN109145769A (zh) 融合图像分割特征的目标检测网络设计方法
CN104361313B (zh) 一种基于多核学习异构特征融合的手势识别方法
CN108985217A (zh) 一种基于深度空间网络的交通标志识别方法及系统
CN108491849A (zh) 基于三维稠密连接卷积神经网络的高光谱图像分类方法
Zhang et al. Food image recognition with convolutional neural networks
CN109446922B (zh) 一种实时鲁棒的人脸检测方法
CN108764072A (zh) 一种基于多尺度融合的血细胞亚型图像分类方法
CN108734138A (zh) 一种基于集成学习的黑色素瘤皮肤病图像分类方法
CN112163599B (zh) 一种基于多尺度多层次融合的图像分类方法
CN113096096B (zh) 一种融合形态特征的显微图像骨髓细胞计数方法与系统
CN110532946A (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN112052772A (zh) 一种人脸遮挡检测算法
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN116524226A (zh) 一种基于深度学习的乳腺癌病理图像分类装置及方法
CN114782311B (zh) 一种基于CenterNet改进的多尺度缺陷目标检测方法及系统
CN107577983A (zh) 一种循环发现关注区域识别多标签图像的方法
CN109299679A (zh) 基于狭长型条件随机场的宫颈癌组织病理图像诊断方法
CN108765374A (zh) 一种宫颈涂片图像中异常核区域筛查的方法
CN114708589A (zh) 一种基于深度学习的宫颈细胞分类方法
CN115953393A (zh) 基于多任务学习的颅内动脉瘤检测系统、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination