CN110675411A - 基于深度学习的宫颈鳞状上皮内病变识别算法 - Google Patents
基于深度学习的宫颈鳞状上皮内病变识别算法 Download PDFInfo
- Publication number
- CN110675411A CN110675411A CN201910915033.1A CN201910915033A CN110675411A CN 110675411 A CN110675411 A CN 110675411A CN 201910915033 A CN201910915033 A CN 201910915033A CN 110675411 A CN110675411 A CN 110675411A
- Authority
- CN
- China
- Prior art keywords
- image
- density
- deep learning
- pathological
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于深度学习的宫颈鳞状上皮内病变识别算法,包括以下步骤:获取预先准备好的宫颈数字病理图像;利用VGG16改进U‑net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像;采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像;结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别。有益效果:实现了细胞核的分割,以及基于细胞核密度特征的病理图像识别,使简单的CNN模型效率更高,且节省资源,同时,能够起到辅助医生提高宫颈癌变的诊断效率和准确率的效果。
Description
技术领域
本发明涉及图像识别技术领域,具体来说,涉及基于深度学习的宫颈鳞状上皮内病变识别算法。
背景技术
近年来,宫颈癌的发病率越来越趋于年轻化,特别是在农村地区。事实上,宫颈癌很容易预防,如果处于癌变早期阶段,通过低成本的检测技术,较早发现确诊便可大幅提高患者存活率。
随着图像处理技术的日趋成熟,数字病理扫描技术使显微镜载玻片进行数字化,突破了传统病理学的限制,为数字病理的图像分析带来了新机遇。但是,病理诊断结果容易受到诸多主观因素影响。病理诊断通过显微镜用肉眼观察组织和细胞病变特征肉眼来进行诊断,医生要在5-10G大小的图片上,逐个视野的检查细胞组织形态,每个视野里需要判断的细胞数量达到成百上千个,整个过程要花费大量时间和精力,效率十分低下,漏诊、误诊的情况不时会发生。并且我国病理医生资源稀缺,使问题更加凸显。
因此,通过宫颈癌变细胞的病理特征进行筛选查找以判断患者病情,借由基于形态学原理的图像识别模型与卷积神经网络深度学习算法,实现癌变病理图像的自动识别与检测,这样可以有效减少病理医生的重复工作,同时将诊断的客观性和准确率进行了提高,为广大患者提供低成本且更加先进优越的诊断技术,具有非常重要而广泛的实际意义。
发明内容
针对宫颈数字病理图像人工分析工作量大,效率低下的问题,以卷积神经网络为基础,结合U-net深度CNN网络模型和超像素聚类算法,本发明提出了一种基于深度学习的宫颈鳞状上皮内病变识别算法,以克服现有相关技术所存在的上述技术问题。
为此,本发明采用的具体技术方案如下:
基于深度学习的宫颈鳞状上皮内病变识别算法,包括以下步骤:
获取预先准备好的宫颈数字病理图像;
利用VGG16改进U-net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像;
采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像;
结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别。
进一步的,利用VGG16改进U-net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像具体包括以下步骤:
对获取的所述病理图像进行下采样处理;
对所述处理后的病理图像进行上采样处理;
输出分割结果,得到所述Mask图像。
进一步的,所述上采样由四个block组成,且所述上采样处理包括以下步骤:
通过反卷积将每个所述block在开始之前的Feature Map尺寸扩大两部,并将其个数减半;
将所述上采样的Feature Map与相对应所述下采样的Feature Map合并;
对所述下采样的Feature Map进行裁剪,使得所述下采样的Feature Map尺寸与所述上采样的Feature Map尺寸相同,并进行归一化处理。
进一步的,采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像具体包括以下步骤:
在所述病理图像上标记K个像素种子点;
以所述像素种子点为中心进行相似像素点的聚类;
将所述相似像素点划分为K个区域,得到矩阵;
将所述矩阵的超像素分割网与所述Mask图像结合,并计算出每个所述区域的细胞核密度。
进一步的,每个所述区域的形状均由所述区域边缘决定,且每个所述区域的形状各异,且所述区域的形状可以通过参数进行调整。
进一步的,结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别具体包括以下步骤:
采用三种CNN模型分别对所述病理图像、所述Mask图像和所述密度图像进行处理;
其中,三种所述CNN模型分别为病理原图输入Xception模型,Mask图像输入IncptionV3模型,密度图输入7层CNN模型。
进一步的,在采用所述三种图像输入模型之前还包括以下步骤:缩放每个所述病理图像上的每个通道以最佳的使用0到255之间的空间。
进一步的,在采用三种CNN模型分别对所述病理图像、所述Mask图像和所述密度图像进行处理过程中,优化器选择RMSprop,修改AdaGrad的梯度平方和累加为指数加权的移动平均,对损失函数在摆动幅度太大的问题进行优化,提升函数的收敛速度。
进一步的,所述RMSProp算法对权重W和偏置b的梯度使用了微分平方加权平均数,其中,假设在第t轮迭代过程中,各个公式如下所示:
sdw=βsdw+(1-β)dw2,
sdb=βsdb+(1-β)db2,
其中,sdw和sdb表示损失函数在前t-1轮迭代过程中累积的动量梯度,β是梯度累积的一个指数,一般设置值为0.9,dw和db分别是损失函数反向传播时候所求得的梯度,∈表示为数值10-8。
本发明的有益效果为:实现了细胞核的分割,以及基于细胞核密度特征的病理图像识别,提出了一种新的识别方法,使简单的CNN模型效率更高,且节省资源,同时,能够起到辅助医生提高宫颈癌变的诊断效率和准确率的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的基于深度学习的宫颈鳞状上皮内病变识别算法的流程示意图;
图2是根据本发明实施例中病理原图经过U-net处理生成Mask图像的示意图;
图3是根据本发明实施例中VGG16+U-net的原理图示意图;
图4是根据本发明实施例中U-net的分割结果示意图;
图5是根据本发明实施例中Vgg16U-net的分割结果示意图;
图6是根据本发明实施例中16x16的密度图;
图7是根据本发明实施例中超像素分割病理原图结合Mask图得到密度分割图;
图8是根据本发明实施例中集成卷积神经网络识别模型示意图;
图9是根据本发明实施例中宫颈鳞状上皮内病变特征强化识别流程图。
具体实施方式
为进一步说明各实施例,本发明提供有附图,这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理,配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点,图中的组件并未按比例绘制,而类似的组件符号通常用来表示类似的组件。
根据本发明的实施例,提供了基于深度学习的宫颈鳞状上皮内病变识别算法。
现结合附图和具体实施方式对本发明进一步说明,如图1-9所示,根据本发明实施例的基于深度学习的宫颈鳞状上皮内病变识别算法,包括以下步骤:
步骤S101,获取预先准备好的宫颈数字病理图像;
步骤S102,利用VGG16改进U-net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像;
其中,所述步骤S102通过VGG16+Unet的方法来进行病理图像细胞核分割,得到Mask图像。该方法使用VGG16在ImageNet数据集上的预训练权重,将VGG16与U-net的结合网络进行权重初始化,然后进行微调。虽然相比于Mask图像来看此方法分割仍有细胞核不完整的情况,但是对于本方案而言,并不需要特别完整的分割效果,快速的处理速度和比较完整的细胞核分割已经达到目的。
图2为病理原图经过U-net处理生成Mask图像的示意图,其中,U-net的输入为一幅图,输出为目标的分割结果,即一幅图,下采样(编码),上采样(解码),然后输出分割结果。根据结果和真实分割的差异,反向传播来训练这个分割网络。
图3为VGG16+U-net的原理图,因为U-net左侧部分是卷积层,进行了五次下采样,而VGGNet模型也是类似结构,都是通过卷积层来提取图像特征,所以U-net可以采用VGGNet的形式来实现,这样做好处是可以利用预训练的成熟模型来加速U-net的训练,要知道transfer training的效果是非常显著的。因此本方案使用了更先进的VGG16模型作为预训练编码器,采用了vggnet16+upsampling架构。
网络的右侧部分是上采样。由4个block组成,每个block开始之前通过反卷积将Feature Map的尺寸乘2,同时将其个数减半(最后一层略有不同),然后和左侧对称的下采样(convolution layers)的Feature Map合并,由于左侧压缩和右侧扩展的Feature Map的尺寸不一样,U-Net是通过将下采样的Feature Map裁剪到和上采样相同尺寸的FeatureMap进行归一化的。上采样的卷积操作依旧使用的是有效卷积操作。
反卷积就是转置卷积,也是一种卷积,可以看到上图就是转置卷积由小尺寸到大尺寸的过程。因此反卷积也可以表示为两个矩阵乘积,很显然转置卷积的反向传播就是也是可进行的。
使用训练好的VGG16来进行fine-tune,初始化网络编码器的权重,从而提高U-Net的性能。此外,预培训的网络大大缩短了训练时间,这也有助于防止过拟合。
图4为U-net分割结果图,图5为Vgg16Unet分割结果图,从图4和图5可以得知,Vgg16Unet的分割结果要比U-net模型分割出的细胞核更加圆润完整。
步骤S103,采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像;
其中,密度矩阵划分主要使用的是SLIC(超像素聚类)算法。
具体的,SLIC算法在图像上标记K个像素种子点,然后以此像素种子点为中心进行相似像素的聚类,最后划分为大概K个区域,每个区域形状各异,其由区域边缘决定。通过参数可以调整区域形状接近方形,由此可以在归一化图像上,选择划分为256个区域,就可以得到一个16x16的矩阵。将划分出的超像素分割网与Mask图像结合,最后计算出每个区域的细胞核密度,公式如下:其中,narea表示每个区域中的细胞核面积,也就是白色像素的个数;sarea表示每个区域的面积,即区域像素的个数。图6为16x16的密度矩阵保存图像。
图7为超像素分割病理原图结合Mask图得到密度分割图(712x712),由图7可以得出正常病理图像有一条明亮清晰的基底,由下到上逐渐变暗。
为了增加模型的泛化性能,分别对训练集、测试集以及正反比例使用了三种图像增强方法:1)垂直翻转、高斯噪声、暗化处理;2)180度旋转、椒盐噪声;3)水平翻转、调高亮度。
步骤S104,结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别。
其中,所述步骤S104采用三种CNN模型分别对所述病理图像、所述Mask图像和所述密度图像进行处理,具体的,三种所述CNN模型分别为病理原图输入Xception模型,Mask图像输入IncptionV3模型,密度图输入7层CNN模型。
如图8所示,病理原图像的尺寸是712x712。输入三种不同的数据集,结合成一个数组。不同的病理图像,有些具有高对比度,另一些具有低对比度,因此缩放每个图像上的每个通道以最佳地使用0到255之间的空间。这样模型输出结果更加准确。预训练权重选择了三种模型在“imagenet”数据集上训练好的参数,Imagenet数据集拥有上千万张不同图像,并且每张都标注好了各自的分类标签,是目前深度学习应用最为广泛的图像处理数据集。优化器选择了RMSprop(Root Mean Square Prop),修改了AdaGrad的梯度平方和累加为指数加权的移动平均,对损失函数在摆动幅度太大的问题进行了优化,并且函数的收敛速度也提升了很多。RMSProp算法对权重W和偏置b的梯度使用了微分平方加权平均数。其中,假设在第t轮迭代过程中,各个公式如下所示:
sdw=βsdw+(1-β)dw2,
sdb=βsdb+(1-β)db2,
其中,sdw和sdb表示损失函数在前t-1轮迭代过程中累积的动量梯度,β是梯度累积的一个指数,一般设置值为0.9,dw和db分别是损失函数反向传播时候所求得的梯度,∈表示为数值10-8。
本实施例中,使用的是扩充后的图像作为数据集,具体参数值如下表1所示。分别在6种模型下进行识别,其中密度图(16x16)使用的7层卷积网络,病理原图和Mask图两层数据集在Xception和InceptionV3的集成网络上进行识别,病理原图、Mask图和密度图(16x16)三层数据集在Xception、InceptionV3和7层CNN的集成网络上识别。
表1实验参数
本实施例的测试结果准确率如下表2所示:
表2六种模型在密度特征强化数据集识别准确率
从上面的表2中可以看到一些规律:随着网络结构越来越复杂,识别的准确率也越来越高。并且病理原图、Mask图和密度分割图随着图像细节的丢失准确率也逐级降低。其中最复杂的InceptionResNetV2模型在病理原图上的已经达到了82%的准确率。而密度图(16x16)由于只有16x16的大小,仅使用了7层网络,但是准确率却达到了84%,说明了本方案的密度特征识别方法确实有效,大大减少了计算资源,并且准确率也得到了提升。最后本发明使用集成网络结合了三种数据集使准确率达到了90%。
图9为宫颈数字病理图像密度特征强化识别流程图,本发明通过与病理专家的多次沟通交流的基础上,建立从组织到细胞团块,再到单个细胞的多尺度病理分类识别模型,并对处理后区域进行细胞密度等相关计算,依次分析该区域的细胞密度特征,生长方向病理特征,并做出病理学分级判断。结合预处理过程中模拟医生诊断过程的思路,结合原图、Mask图和密度图,三层数据,从而预测宫颈是否癌变。
综上所述,借助于本发明的上述技术方案,通过本发明的使用,实现了细胞核的分割,以及基于细胞核密度特征的病理图像识别,提出了一种新的识别方法,使简单的CNN模型效率更高,且节省资源,同时,能够起到辅助医生提高宫颈癌变的诊断效率和准确率的效果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,包括以下步骤:
获取预先准备好的宫颈数字病理图像;
利用VGG16改进U-net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像;
采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像;
结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别。
2.根据权利要求1所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,利用VGG16改进U-net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像具体包括以下步骤:
对获取的所述病理图像进行下采样处理;
对所述处理后的病理图像进行上采样处理;
输出分割结果,得到所述Mask图像。
3.根据权利要求2所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,所述上采样由四个block组成,且所述上采样处理包括以下步骤:
通过反卷积将每个所述block在开始之前的Feature Map尺寸扩大两部,并将其个数减半;
将所述上采样的Feature Map与相对应所述下采样的Feature Map合并;
对所述下采样的Feature Map进行裁剪,使得所述下采样的Feature Map尺寸与所述上采样的Feature Map尺寸相同,并进行归一化处理。
4.根据权利要求3所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像具体包括以下步骤:
在所述病理图像上标记K个像素种子点;
以所述像素种子点为中心进行相似像素点的聚类;
将所述相似像素点划分为K个区域,得到矩阵;
将所述矩阵的超像素分割网与所述Mask图像结合,并计算出每个所述区域的细胞核密度。
5.根据权利要求4所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,每个所述区域的形状均由所述区域边缘决定,且每个所述区域的形状各异,且所述区域的形状可以通过参数进行调整。
7.根据权利要求6所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别具体包括以下步骤:
采用三种CNN模型分别对所述病理图像、所述Mask图像和所述密度图像进行处理;
其中,三种所述CNN模型分别为病理原图输入Xception模型,Mask图像输入IncptionV3模型,密度图输入7层CNN模型。
8.根据权利要求7所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,在采用所述三种图像输入模型之前还包括以下步骤:缩放每个所述病理图像上的每个通道以最佳的使用0到255之间的空间。
9.根据权利要求8所述的基于深度学习的宫颈鳞状上皮内病变识别算法,其特征在于,在采用三种CNN模型分别对所述病理图像、所述Mask图像和所述密度图像进行处理过程中,优化器选择RMSprop,修改AdaGrad的梯度平方和累加为指数加权的移动平均,对损失函数在摆动幅度太大的问题进行优化,提升函数的收敛速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910915033.1A CN110675411B (zh) | 2019-09-26 | 2019-09-26 | 基于深度学习的宫颈鳞状上皮内病变识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910915033.1A CN110675411B (zh) | 2019-09-26 | 2019-09-26 | 基于深度学习的宫颈鳞状上皮内病变识别算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110675411A true CN110675411A (zh) | 2020-01-10 |
CN110675411B CN110675411B (zh) | 2023-05-16 |
Family
ID=69079046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910915033.1A Active CN110675411B (zh) | 2019-09-26 | 2019-09-26 | 基于深度学习的宫颈鳞状上皮内病变识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110675411B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444844A (zh) * | 2020-03-26 | 2020-07-24 | 苏州腾辉达网络科技有限公司 | 一种基于变分自编码器的液基细胞人工智能检测方法 |
CN111612740A (zh) * | 2020-04-16 | 2020-09-01 | 深圳大学 | 一种病理图像处理方法及装置 |
CN111797836A (zh) * | 2020-06-18 | 2020-10-20 | 中国空间技术研究院 | 一种基于深度学习的地外天体巡视器障碍物分割方法 |
CN111932507A (zh) * | 2020-07-31 | 2020-11-13 | 苏州慧维智能医疗科技有限公司 | 一种基于消化内镜实时识别病变的方法 |
CN112070722A (zh) * | 2020-08-14 | 2020-12-11 | 厦门骁科码生物科技有限公司 | 一种荧光原位杂交细胞核分割方法及系统 |
CN112257789A (zh) * | 2020-10-26 | 2021-01-22 | 西南交通大学 | 对围岩等级进行识别的方法 |
CN112365471A (zh) * | 2020-11-12 | 2021-02-12 | 哈尔滨理工大学 | 基于深度学习的宫颈癌细胞智能检测方法 |
CN113052806A (zh) * | 2021-03-15 | 2021-06-29 | 黑龙江机智通智能科技有限公司 | 一种癌变程度分级系统 |
CN113255718A (zh) * | 2021-04-01 | 2021-08-13 | 透彻影像科技(南京)有限公司 | 一种基于深度学习级联网络方法的宫颈细胞辅助诊断方法 |
CN115035074A (zh) * | 2022-06-17 | 2022-09-09 | 重庆大学 | 基于全局空间感知网络的宫颈上皮组织病理图像识别方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334860A (zh) * | 2018-03-01 | 2018-07-27 | 北京航空航天大学 | 细胞图像的处理方法和装置 |
US20180218497A1 (en) * | 2017-01-27 | 2018-08-02 | Arterys Inc. | Automated segmentation utilizing fully convolutional networks |
CN108615237A (zh) * | 2018-05-08 | 2018-10-02 | 上海商汤智能科技有限公司 | 一种肺部图像处理方法及图像处理设备 |
CN108776823A (zh) * | 2018-07-06 | 2018-11-09 | 武汉兰丁医学高科技有限公司 | 基于细胞图像识别的宫颈癌病灶分析方法 |
CN109033936A (zh) * | 2018-06-01 | 2018-12-18 | 齐鲁工业大学 | 一种宫颈脱落细胞核图像识别方法 |
CN109035252A (zh) * | 2018-06-29 | 2018-12-18 | 山东财经大学 | 一种面向医学图像分割的超像素方法 |
CN109102498A (zh) * | 2018-07-13 | 2018-12-28 | 华南理工大学 | 一种宫颈涂片图像中簇型细胞核分割的方法 |
CN109190567A (zh) * | 2018-09-10 | 2019-01-11 | 哈尔滨理工大学 | 基于深度卷积神经网络的异常宫颈细胞自动检测方法 |
CN109191471A (zh) * | 2018-08-28 | 2019-01-11 | 杭州电子科技大学 | 基于改进U-Net网络的胰腺细胞图像分割方法 |
CN109598727A (zh) * | 2018-11-28 | 2019-04-09 | 北京工业大学 | 一种基于深度神经网络的ct图像肺实质三维语义分割方法 |
CN109978826A (zh) * | 2019-02-20 | 2019-07-05 | 程俊美 | 一种宫颈癌细胞病理学排阴法智能筛查系统及方法 |
CN109977955A (zh) * | 2019-04-03 | 2019-07-05 | 南昌航空大学 | 一种基于深度学习的宫颈癌前病变识别的方法 |
CN110120033A (zh) * | 2019-04-12 | 2019-08-13 | 天津大学 | 基于改进的U-Net神经网络三维脑肿瘤图像分割方法 |
CN110148455A (zh) * | 2019-05-22 | 2019-08-20 | 柯晶 | 宫颈液基薄片图像之炎性细胞消除方法 |
US20190272638A1 (en) * | 2016-11-11 | 2019-09-05 | University Of South Florida | Automated Stereology for Determining Tissue Characteristics |
-
2019
- 2019-09-26 CN CN201910915033.1A patent/CN110675411B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190272638A1 (en) * | 2016-11-11 | 2019-09-05 | University Of South Florida | Automated Stereology for Determining Tissue Characteristics |
US20180218497A1 (en) * | 2017-01-27 | 2018-08-02 | Arterys Inc. | Automated segmentation utilizing fully convolutional networks |
CN108334860A (zh) * | 2018-03-01 | 2018-07-27 | 北京航空航天大学 | 细胞图像的处理方法和装置 |
CN108615237A (zh) * | 2018-05-08 | 2018-10-02 | 上海商汤智能科技有限公司 | 一种肺部图像处理方法及图像处理设备 |
CN109033936A (zh) * | 2018-06-01 | 2018-12-18 | 齐鲁工业大学 | 一种宫颈脱落细胞核图像识别方法 |
CN109035252A (zh) * | 2018-06-29 | 2018-12-18 | 山东财经大学 | 一种面向医学图像分割的超像素方法 |
CN108776823A (zh) * | 2018-07-06 | 2018-11-09 | 武汉兰丁医学高科技有限公司 | 基于细胞图像识别的宫颈癌病灶分析方法 |
CN109102498A (zh) * | 2018-07-13 | 2018-12-28 | 华南理工大学 | 一种宫颈涂片图像中簇型细胞核分割的方法 |
CN109191471A (zh) * | 2018-08-28 | 2019-01-11 | 杭州电子科技大学 | 基于改进U-Net网络的胰腺细胞图像分割方法 |
CN109190567A (zh) * | 2018-09-10 | 2019-01-11 | 哈尔滨理工大学 | 基于深度卷积神经网络的异常宫颈细胞自动检测方法 |
CN109598727A (zh) * | 2018-11-28 | 2019-04-09 | 北京工业大学 | 一种基于深度神经网络的ct图像肺实质三维语义分割方法 |
CN109978826A (zh) * | 2019-02-20 | 2019-07-05 | 程俊美 | 一种宫颈癌细胞病理学排阴法智能筛查系统及方法 |
CN109977955A (zh) * | 2019-04-03 | 2019-07-05 | 南昌航空大学 | 一种基于深度学习的宫颈癌前病变识别的方法 |
CN110120033A (zh) * | 2019-04-12 | 2019-08-13 | 天津大学 | 基于改进的U-Net神经网络三维脑肿瘤图像分割方法 |
CN110148455A (zh) * | 2019-05-22 | 2019-08-20 | 柯晶 | 宫颈液基薄片图像之炎性细胞消除方法 |
Non-Patent Citations (6)
Title |
---|
ANTON BÖHM等: "ISOODL: Instance segmentation of overlapping biological objects using deep learning", 《2018 IEEE 15TH INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING (ISBI 2018)》 * |
CARLOS E.CARDENAS 等: "Advances in Auto-Segmentation", 《ELSEVIER:SEMINARS IN RADIATION ONCOLOGY》 * |
左文辉: "基于高层图像语义的物体共分割", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
杨金鑫 等: "结合卷积神经网络和超像素聚类的细胞图像分割方法", 《计算机应用研究》 * |
杨金鑫: "基于深度学习的细胞图像分割与识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
陆晗: "基于深度学习和宫颈图像的癌前病变识别", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444844A (zh) * | 2020-03-26 | 2020-07-24 | 苏州腾辉达网络科技有限公司 | 一种基于变分自编码器的液基细胞人工智能检测方法 |
CN111612740B (zh) * | 2020-04-16 | 2023-07-25 | 深圳大学 | 一种病理图像处理方法及装置 |
CN111612740A (zh) * | 2020-04-16 | 2020-09-01 | 深圳大学 | 一种病理图像处理方法及装置 |
CN111797836A (zh) * | 2020-06-18 | 2020-10-20 | 中国空间技术研究院 | 一种基于深度学习的地外天体巡视器障碍物分割方法 |
CN111797836B (zh) * | 2020-06-18 | 2024-04-26 | 中国空间技术研究院 | 一种基于深度学习的地外天体巡视器障碍物分割方法 |
CN111932507A (zh) * | 2020-07-31 | 2020-11-13 | 苏州慧维智能医疗科技有限公司 | 一种基于消化内镜实时识别病变的方法 |
CN112070722A (zh) * | 2020-08-14 | 2020-12-11 | 厦门骁科码生物科技有限公司 | 一种荧光原位杂交细胞核分割方法及系统 |
CN112257789A (zh) * | 2020-10-26 | 2021-01-22 | 西南交通大学 | 对围岩等级进行识别的方法 |
CN112365471A (zh) * | 2020-11-12 | 2021-02-12 | 哈尔滨理工大学 | 基于深度学习的宫颈癌细胞智能检测方法 |
CN112365471B (zh) * | 2020-11-12 | 2022-06-24 | 哈尔滨理工大学 | 基于深度学习的宫颈癌细胞智能检测方法 |
CN113052806B (zh) * | 2021-03-15 | 2023-02-28 | 黑龙江机智通智能科技有限公司 | 一种癌变程度分级系统 |
CN113052806A (zh) * | 2021-03-15 | 2021-06-29 | 黑龙江机智通智能科技有限公司 | 一种癌变程度分级系统 |
CN113255718A (zh) * | 2021-04-01 | 2021-08-13 | 透彻影像科技(南京)有限公司 | 一种基于深度学习级联网络方法的宫颈细胞辅助诊断方法 |
CN115035074A (zh) * | 2022-06-17 | 2022-09-09 | 重庆大学 | 基于全局空间感知网络的宫颈上皮组织病理图像识别方法 |
CN115035074B (zh) * | 2022-06-17 | 2024-05-28 | 重庆大学 | 基于全局空间感知网络的宫颈上皮组织病理图像识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110675411B (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675411B (zh) | 基于深度学习的宫颈鳞状上皮内病变识别算法 | |
CN109191476B (zh) | 基于U-net网络结构的生物医学图像自动分割新方法 | |
CN110889853B (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
CN110889852B (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN108053417B (zh) | 一种基于混合粗分割特征的3D U-Net网络的肺分割装置 | |
CN112488234B (zh) | 一种基于注意力池化的端到端组织病理图像分类方法 | |
CN111145181B (zh) | 基于多视角分离卷积神经网络的骨骼ct图像三维分割方法 | |
CN111369563A (zh) | 一种基于金字塔空洞卷积网络的语义分割方法 | |
CN110599500B (zh) | 一种基于级联全卷积网络的肝脏ct图像的肿瘤区域分割方法及系统 | |
CN107506761A (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 | |
CN112508864B (zh) | 基于改进UNet++的视网膜血管图像分割方法 | |
CN107256550A (zh) | 一种基于高效cnn‑crf网络的视网膜图像分割方法 | |
CN108492271A (zh) | 一种融合多尺度信息的自动图像增强系统及方法 | |
CN109727253A (zh) | 基于深度卷积神经网络自动分割肺结节的辅助检测方法 | |
CN110930416A (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN111161273A (zh) | 一种基于深度学习的医学超声图像分割方法 | |
CN112150476A (zh) | 基于时空判别性特征学习的冠状动脉序列血管分割方法 | |
CN106157249A (zh) | 基于光流法和稀疏邻域嵌入的单图像超分辨率重建算法 | |
CN112348830B (zh) | 基于改进3D U-Net的多器官分割方法 | |
CN112785603A (zh) | 一种基于Unet和超像素的脑组织分割方法 | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN114648806A (zh) | 一种多机制自适应的眼底图像分割方法 | |
CN114972254A (zh) | 一种基于卷积神经网络的宫颈细胞图像分割方法 | |
CN109919216B (zh) | 一种用于计算机辅助诊断前列腺癌的对抗学习方法 | |
CN115471701A (zh) | 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |