CN110930369A - 一种基于群等变神经网络和条件概率场的病理切片识别方法 - Google Patents

一种基于群等变神经网络和条件概率场的病理切片识别方法 Download PDF

Info

Publication number
CN110930369A
CN110930369A CN201911060934.3A CN201911060934A CN110930369A CN 110930369 A CN110930369 A CN 110930369A CN 201911060934 A CN201911060934 A CN 201911060934A CN 110930369 A CN110930369 A CN 110930369A
Authority
CN
China
Prior art keywords
neural network
group
tissue
mask
pathological section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911060934.3A
Other languages
English (en)
Other versions
CN110930369B (zh
Inventor
王国利
董金凤
郭雪梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201911060934.3A priority Critical patent/CN110930369B/zh
Publication of CN110930369A publication Critical patent/CN110930369A/zh
Application granted granted Critical
Publication of CN110930369B publication Critical patent/CN110930369B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30081Prostate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于群等变神经网络和条件概率场的病理切片识别方法,该方法使用群等变卷积核代替传统卷积核,提高了系统对于输入切片识别的鲁棒性,对于不同角度的输入具有更加优秀的一致性,在以上改变的基础上,本专利系统还使用了条件随机场算法,减少了预测结果中的噪声,提高了预测的准确率。

Description

一种基于群等变神经网络和条件概率场的病理切片识别方法
技术领域
本发明涉及病理切片识别方法领域,更具体地,涉及一种基于群等变神经网络和条件概率场的病理切片识别方法。
背景技术
在世界范围内,前列腺癌发病率在男性所有恶性肿瘤中位居第二。在美国前列腺癌的发病率已经超过肺癌,成为第一位危害男性健康的肿瘤。根据国家癌症中心的数据,前列腺癌自2008年起成为男性泌尿系统中发病率最高的肿瘤。由于目前中国病理医生匮乏,诊断水平参差不齐,并且人工进行病理检查费时费力且对于复杂情况的病理切片的识别很容易出现错误。基于深度学习旋转神经网络和条件概率场的病理切片识别方法可以自动识别前列腺切片癌区,不需要人工参与,且识别准确率可以达到95%以上。
目前病理识别切片的主要方法是首先对病理切片进行预处理,制作训练样本集,然后用基于深度学习的网络提取病理图像块的特征并识别病理图像块是否属于癌区。对于预处理模块,目前常用的旋转和翻转图像块作为图像增强手段尽管可以改善模型的泛化性能,但它不能利用病理切片的旋转和反射对称性。由于深度学习网络只能从旋转和翻转后的数据中学习旋转反射等变性,模型需要更大的数据支持,且即使在训练数据上学习到了旋转反射等变性,也不能直接推广到测试集中。分别预测旋转和翻转后的结果取平均作为预测结果,虽然可以提高模型的泛化能力,但是需要8倍计算成本并且也不能保证等变性。对于特征提取模块,相邻图像块具有空间连续性,深度学习网络需要考虑相邻图像块的空间连续性。
发明内容
本发明提供一种提高预测的准确率基于群等变神经网络和条件概率场的病理切片识别方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于群等变神经网络和条件概率场的病理切片识别方法,包括以下步骤:
S1:收集病理切片数据,并将获取的数据分成训练集和测试集;
S2:对训练集数据进行人工标注,之后进行分割;
S3:构建基于群等变换卷积和条件随机场的端到端的深度学习神经网络,并将S2得到的数据输入到该深度学习神经网络中进行训练;
S4:将测试集数据输入到训练好的深度学习神经网络中进行测试。
进一步地,所述步骤S1的具体过程是:
将收集到的病理切片数据分成训练集和测试集,对训练集病理切片处理,生成组织区域掩膜Ma:设输入的切片图像为I,生成一个和I大小一致的掩膜Ma′,Ma′取值0或者1,0表示不含有组织区域,1表示含有组织区域;生成组织掩膜方式是将原始图像在HSV空间下提取S通道,并进行二值化操作,使用的二值化方法为OTSU算法,再把经过二值化处理的S通道进行开闭操作得到最终的组织掩膜Ma
进一步地,所述步骤S2中对训练集数据进行人工标注的过程是:
对于训练集中有癌细胞组织的切片,由医生使用标注软件对病变区域进行标注,将癌区标注为多边形,标注信息中存储了标注多边形区域的顶点坐标,然后使用多边形填充算法对于多边形内部进行填充,内部填充1,外部填充0,生成癌区掩膜Mb,最后组织掩膜减去癌区掩膜得到正常组织掩膜Mc
进一步地,所述步骤S2中对人工标注后的数据进行分割的过程是:
若切片太大,无法一次性送入模型进行处理,所以需要将大的切片图像采样成小图像块作为模型的输入,当前使用的图像块大小是256×256,每3×3个小块组成一个patch,训练模型的单次输入至少两个patch或其它偶数个patch,分别是数量相同的正样本和负样本,正样本表示只含有正常组织区域的图像块,负样本表示含有癌区的图像块,训练集中的切片有两种,分别是全部是正常组织的切片和含有异常癌区的切片,采样时,正样本从全部是正常组织的切片和含有癌区的切片中的正常组织区域获得,即从正常组织掩膜Mc采样得到;负样本从含有癌区的病变组织区域获取,即从癌区掩膜Mb采样得到。
进一步地,步骤S3中构建基于群等变换卷积和条件随机场的端到端的深度学习神经网络的过程是:
1)、替换传统卷积核为群等变换卷积核,群等变换卷积定义为:设K表示传统卷积核,将该卷积核进行旋转和镜像操作,可以得到其它卷积核K1,K2,K3…,Kn,这些卷积核组成一个新的集合S,这个集合便组成了一个基于旋转和镜像操作的群,也就是S中任何一个元素进行旋转或者镜像后得到的结果还是S中的元素;
2)、输入的patch中N×N个节点组成一张概率无向图,每个节点之间相互连接,这张图是一个条件随机场,每个节点都有自己的特征向量以及是癌变区域的概率,定义具有相同标签,特征向量相近的图片应当具有相似的概率输出,通过条件随机场的方式来完成这个任务。
进一步地,步骤S4的过程是:
输入测试集切片,不同于训练阶段的随机分块分割方法,在测试阶段使用滑动窗的方式,将测试切片划分成网格形式,依次输入到训练好的模型中,得到对应切块的是否是癌区的概率,然后拼合到一起得到整张切片的概率热图。
进一步地,对于输入的组织切片,由医生标注其中的癌变区域,然后求取两个掩膜,分别是正常组织掩膜Mc和癌变组织掩膜Mb,然后在训练集中,利用正常组织掩膜Mc随机采样正常组织样本,利用癌区掩膜Mb随机采样癌变组织样本,两者采样后的数量大致相同。
进一步地,设K表示传统卷积核,将该卷积核进行旋转和镜像操作,可以得到其它卷积核K1,K2,K3…,Kn,这些卷积核组成一个新的集合S,这个集合便组成了一个基于旋转和镜像操作的群,也就是S中任何一个元素进行旋转或者镜像后得到的结果还是S中的元素。
进一步地,条件随机场模型的参数同神经网络一起训练,通过反向传播算法完成端到端训练;对于输入的N×N的网格图片,建立了吉布斯分布模型,使得具有相似特征向量,相同标注的网格子图,输出的概率趋近于1或者0,充分利用它们之间的空间特征,提高预测的准确性。
进一步地,将要预测的切片进行划分,分辨率和patch大小同训练时的配置相同,但是要预测的区域不再是随机采样获得,而是用滑动窗的方法在整个切片上切块获得,预测后的热图再拼接到一起,得到整个切片的热图。
与现有技术相比,本发明技术方案的有益效果是:
1、本专利提出了一种前列腺病理切片分割方法,可以针对输入的前列腺病理切片进行分割,在面积巨大的切片图像中分离背景区域和组织区域,并且借助标注信息,分离癌变组织区域和其他区域,从而达到提取正常组织区域和癌变组织区域的目的;
2、提出一种切片预处理方法,可以对待识别的病理切片图片进行预处理,对于待处理图像进行一系列操作,可以过滤其中的噪声,提高预测的准确率;
3、通过本文提出了一种基于群等变换卷积和条件随机场的端到端的深度学习神经网络识别模型,可以输入经过预处理后的前列腺切片,输出一张概率图,每个像素的值表示这个像素是癌区的概率的大小。
附图说明
图1是整个系统的流程图;
图2是预处理阶段的详细流程图;
图3是群等变卷积的演示图;
图4是本系统的输入例图;
图5是本系统输入例图生成的组织掩膜图;
图6是本系统输入例图经过医生标注后癌区掩膜图;
图7是本系统输入例图生成的正常组织掩膜图;
图8是本系统训练使用的正负样本示例,是从切片图片中提取的patch图片,左侧是癌区组织的3×3小块,右侧是正常组织的3×3小块;
图9是经过整个系统生成的热图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
图1给出了本专利的操作过程,由图1可见,本专利的具体操作过程如下:
(1)对于获得的数据分成训练集和测试集,对训练集病理切片处理,生成组织区域掩膜Ma:设输入的切片图像为I,生成一个和I大小一致的掩膜Ma′,Ma′的每一个像素与I中对应位置的像素对应,取值0或者1,0表示不含有组织区域,1表示含有组织区域,生成组织掩膜方式是将原始图像分别在RGB空间和HSV空间下对于每个通道进行才才二值化,使用的二值化方法为OTSU算法,每个通道的二值化图再进行与操作,合并到一直,得到总的组织掩膜,图4展示了本系统输入的一张切片例图,图5展示了切片例图的组织掩膜;
(2)因为本识别模型是监督模型,所以对于训练数据需要人工标注。对于训练集中有癌细胞组织的切片,由医生标注软件对病变区域进行标注,将癌区标注为多边形,标注信息中存储了标注多边形区域的顶点坐标,然后使用多边形填充算法对于多边形内部进行填充,内部填充1,外部填充0,生成癌区掩膜Mb,图6展示了人工标注的癌区组织掩膜;最后组织掩膜减去癌区掩膜得到正常组织掩膜Mc,图7展示了切片示例图的正常组织掩膜;
(3)因为切片太大,无法一次性送入模型进行处理,所以需要将大的切片图像采样成小图像块作为模型的输入,本模型当前使用的图像块大小是256×256,每3×3个小块组成一个Patch,训练模型的单次输入至少两个patch或其它偶数个patch,分别是数量相同的正样本和负样本,正样本表示只含有正常组织区域的小块,负样本表示含有癌区的小块。训练集中的切片有两种,分别是全部是正常组织的切片和含有异常癌区的切片,采样时,正样本从全部是正常组织的切片和含有癌区的切片中的正常组织区域获得,即从正常组织掩膜Mc采样得到;负样本从含有癌区的病变组织区域获取,即从癌区掩膜Mb采样得到。图7展示了两个从切片图像中采样获得的正负样本例图,是从切片图片中提取的patch图片,左侧是癌区组织的3×3小块,右侧是正常组织的3×3小块;
(4)本专利提出了一种基于群等变换卷积和条件随机场的端到端的深度学习神经网络,该网络具体操作如下:
(a)本系统使用的网络具体结构要下:
Figure BDA0002257931060000051
Figure BDA0002257931060000061
(b)替换(a)传统卷积核为群等变换卷积核,群等变换卷积的定义为:设K表示传统卷积核,将该卷积核进行旋转和镜像操作,可以得到其它卷积核K1,K2,K3…,Kn,这些卷积核组成一个新的集合S,这个集合便组成了一个基于旋转和镜像操作的群,也就是S中任何一个元素进行旋转或者镜像后得到的结果还是S中的元素。具体步骤是:设p4m表示旋转翻转群等变换卷积核,旋转翻转群等变换卷积核可以在进行卷积的同时,保持卷积的旋转不变性和翻转不变性,旋转翻转群等变换卷积核由4个参数表示,分别是r,u,v,m:
Figure BDA0002257931060000062
其中,r的取值范围为0≤r≤4,(u,v)的取值范围是整数,群变换操作使用矩阵乘法针对原始卷积核进行变换,设原始卷积核为K,K(x,y,z)表示卷积核z通道,(x,y)位置的数值,卷积核变换是指将卷积核K变换到卷积核K’,K(x,y,z)和K’(x’,y’,z’)的对应关系为:
Figure BDA0002257931060000063
遍历所有的参数域(r,u,v,m),可以得到多个卷积核K1,K2,K3…,Kn,这些卷积核组成一个集合,这个集合是一个群,对于对称,旋转操作满足群的定义。
(c)设一个patch含有N张图,经过4提出的神经网络,在全连接层前可以得到N个特征向量
Figure BDA0002257931060000064
以及N个概率值,分别表示patch中每张小块的是癌变区域的概率
Figure BDA0002257931060000065
对这N×N张图,建立一张概率无向图,每一张图是无向图的一个节点,节点之间相互连接,在此之上建立吉布斯分布模型:
Figure BDA0002257931060000066
其中,E(x,y)是度量损失的能量函数,Z(x)是规一化函数,保证p(Y=y|x)是一个合理的概率分布,E(x,y)的具体表达如下:
Figure BDA0002257931060000071
公式中
Figure BDA0002257931060000072
是例Patch中第i张图的一元势,这里
Figure BDA0002257931060000073
的取值就是Yi
Figure BDA0002257931060000074
是指yi,yj之间的二元势:
Figure BDA0002257931060000075
其中
Figure BDA0002257931060000076
是保证yi,yj之间兼容性的函数,ωi,j是一个可训练的参数,用来保证同一个Patch内第i张图和第j张图的关联强度。
(d)p(Y=y|x)便是最终预测出的概率值。
通过以上数个步骤的描述,我们便得到了一个端到端的深度学习神经网络,它的具体训练过程如下:
i.输入一个Patch进入到群等变网络中,得到N张图的N个概率yi
ii.对于所有i,计算得到
Figure BDA0002257931060000077
对于所有的i,j,计算得到
Figure BDA0002257931060000078
iii.计算
Figure BDA0002257931060000079
iv.计算
Figure BDA00022579310600000710
v.将p(Y=y|x)作为输入重复步骤(b),(c),(d)迭代n次得到的最终预测值p(Y=y|x)来计算与真实标注的交叉熵损失,并用反向传播算法训练整个模型。
(5)在测试阶段,输入测试切片,作预处理(不作数据增强),不同于训练阶段的随机分块分割方法,在测试阶段使用滑动窗的方式,将测试切片划分成网格形式,依次输入到训练好的模型中,得到对应切块的是否是癌区的概率,然后拼合到一起得到整张切片的概率热图。图8显示了最终生成的概率热图例图。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,包括以下步骤:
S1:收集病理切片数据,并将获取的数据分成训练集和测试集;
S2:对训练集数据进行人工标注,之后进行分割;
S3:构建基于群等变换卷积和条件随机场的端到端的深度学习神经网络,并将S2得到的数据输入到该深度学习神经网络中进行训练;
S4:将测试集数据输入到训练好的深度学习神经网络中进行测试。
2.根据权利要求1所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,所述步骤S1的具体过程是:
将收集到的病理切片数据分成训练集和测试集,对训练集病理切片处理,生成组织区域掩膜Ma:设输入的切片图像为I,生成一个和I大小一致的掩膜Ma′,Ma′取值0或者1,0表示不含有组织区域,1表示含有组织区域;生成组织掩膜方式是将原始图像在HSV空间下提取S通道,并进行二值化操作,使用的二值化方法为OTSU算法,再把经过二值化处理的S通道进行开闭操作得到最终的组织掩膜Ma
3.根据权利要求2所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,所述步骤S2中对训练集数据进行人工标注的过程是:
对于训练集中有癌细胞组织的切片,由医生使用标注软件对病变区域进行标注,将癌区标注为多边形,标注信息中存储了标注多边形区域的顶点坐标,然后使用多边形填充算法对于多边形内部进行填充,内部填充1,外部填充0,生成癌区掩膜Mb,最后组织掩膜减去癌区掩膜得到正常组织掩膜Mc
4.根据权利要求3所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,所述步骤S2中对人工标注后的数据进行分割的过程是:
若切片太大,无法一次性送入模型进行处理,所以需要将大的切片图像采样成小图像块作为模型的输入,当前使用的图像块大小是256×256,每3×3个小块组成一个patch,训练模型的单次输入至少两个patch或其它偶数个patch,分别是数量相同的正样本和负样本,正样本表示只含有正常组织区域的图像块,负样本表示含有癌区的图像块,训练集中的切片有两种,分别是全部是正常组织的切片和含有异常癌区的切片,采样时,正样本从全部是正常组织的切片和含有癌区的切片中的正常组织区域获得,即从正常组织掩膜Mc采样得到;负样本从含有癌区的病变组织区域获取,即从癌区掩膜Mb采样得到。
5.根据权利要求4所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,步骤S3中构建基于群等变换卷积和条件随机场的端到端的深度学习神经网络的过程是:
1)、替换传统卷积核为群等变换卷积核,群等变换卷积定义为:设K表示传统卷积核,将该卷积核进行旋转和镜像操作,可以得到其它卷积核K1,K2,K3…,Kn,这些卷积核组成一个新的集合S,这个集合便组成了一个基于旋转和镜像操作的群,也就是S中任何一个元素进行旋转或者镜像后得到的结果还是S中的元素;
2)、输入的patch中N×N个节点组成一张概率无向图,每个节点之间相互连接,这张图是一个条件随机场,每个节点都有自己的特征向量以及是癌变区域的概率,定义具有相同标签,特征向量相近的图片应当具有相似的概率输出,通过条件随机场的方式来完成这个任务。
6.根据权利要求5所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,步骤S4的过程是:
输入测试集切片,不同于训练阶段的随机分块分割方法,在测试阶段使用滑动窗的方式,将测试切片划分成网格形式,依次输入到训练好的模型中,得到对应切块的是否是癌区的概率,然后拼合到一起得到整张切片的概率热图。
7.根据权利要求6所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,对于输入的组织切片,由医生标注其中的癌变区域,然后求取两个掩膜,分别是正常组织掩膜Mc和癌变组织掩膜Mb,然后在训练集中,利用正常组织掩膜Mc随机采样正常组织样本,利用癌区掩膜Mb随机采样癌变组织样本,两者采样后的数量大致相同。
8.根据权利要求7所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,设K表示传统卷积核,将该卷积核进行旋转和镜像操作,可以得到其它卷积核K1,K2,K3…,Kn,这些卷积核组成一个新的集合S,这个集合便组成了一个基于旋转和镜像操作的群,也就是S中任何一个元素进行旋转或者镜像后得到的结果还是S中的元素。
9.根据权利要求8所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,条件随机场模型的参数同神经网络一起训练,通过反向传播算法完成端到端训练;对于输入的N×N的网格图片,建立了吉布斯分布模型,使得具有相似特征向量,相同标注的网格子图,输出的概率趋近于1或者0,充分利用它们之间的空间特征,提高预测的准确性。
10.根据权利要求9所述的基于群等变神经网络和条件概率场的病理切片识别方法,其特征在于,将要预测的切片进行划分,分辨率和patch大小同训练时的配置相同,但是要预测的区域不再是随机采样获得,而是用滑动窗的方法在整个切片上切块获得,预测后的热图再拼接到一起,得到整个切片的热图。
CN201911060934.3A 2019-11-01 2019-11-01 一种基于群等变神经网络和条件概率场的病理切片识别方法 Active CN110930369B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911060934.3A CN110930369B (zh) 2019-11-01 2019-11-01 一种基于群等变神经网络和条件概率场的病理切片识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911060934.3A CN110930369B (zh) 2019-11-01 2019-11-01 一种基于群等变神经网络和条件概率场的病理切片识别方法

Publications (2)

Publication Number Publication Date
CN110930369A true CN110930369A (zh) 2020-03-27
CN110930369B CN110930369B (zh) 2023-05-05

Family

ID=69850157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911060934.3A Active CN110930369B (zh) 2019-11-01 2019-11-01 一种基于群等变神经网络和条件概率场的病理切片识别方法

Country Status (1)

Country Link
CN (1) CN110930369B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798428A (zh) * 2020-07-03 2020-10-20 南京信息工程大学 一种皮肤病理图像多种组织自动分割方法
CN114463556A (zh) * 2022-01-24 2022-05-10 北京智源人工智能研究院 等变网络训练方法和装置、图像识别方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564567A (zh) * 2018-03-15 2018-09-21 中山大学 一种超高分辨率病理图像癌变区域可视化方法
CN108765408A (zh) * 2018-05-31 2018-11-06 杭州同绘科技有限公司 构建癌症病理图像虚拟病例库的方法以及基于卷积神经网络的多尺度癌症检测系统
CN109086836A (zh) * 2018-09-03 2018-12-25 淮阴工学院 一种基于卷积神经网络的食管癌病理图像自动甄别装置及其甄别方法
CN109285162A (zh) * 2018-08-30 2019-01-29 杭州电子科技大学 一种基于局部区域条件随机场模型的图像语义分割方法
CN109741347A (zh) * 2018-12-30 2019-05-10 北京工业大学 一种基于卷积神经网络的迭代学习的图像分割方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564567A (zh) * 2018-03-15 2018-09-21 中山大学 一种超高分辨率病理图像癌变区域可视化方法
CN108765408A (zh) * 2018-05-31 2018-11-06 杭州同绘科技有限公司 构建癌症病理图像虚拟病例库的方法以及基于卷积神经网络的多尺度癌症检测系统
CN109285162A (zh) * 2018-08-30 2019-01-29 杭州电子科技大学 一种基于局部区域条件随机场模型的图像语义分割方法
CN109086836A (zh) * 2018-09-03 2018-12-25 淮阴工学院 一种基于卷积神经网络的食管癌病理图像自动甄别装置及其甄别方法
CN109741347A (zh) * 2018-12-30 2019-05-10 北京工业大学 一种基于卷积神经网络的迭代学习的图像分割方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798428A (zh) * 2020-07-03 2020-10-20 南京信息工程大学 一种皮肤病理图像多种组织自动分割方法
CN111798428B (zh) * 2020-07-03 2023-05-30 南京信息工程大学 一种皮肤病理图像多种组织自动分割方法
CN114463556A (zh) * 2022-01-24 2022-05-10 北京智源人工智能研究院 等变网络训练方法和装置、图像识别方法和装置

Also Published As

Publication number Publication date
CN110930369B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
Huang et al. Epithelium-stroma classification via convolutional neural networks and unsupervised domain adaptation in histopathological images
CN111488921B (zh) 一种全景数字病理图像智能分析系统及方法
CN108364288B (zh) 用于乳腺癌病理图像的分割方法和装置
CN110490850B (zh) 一种肿块区域检测方法、装置和医学图像处理设备
Ta et al. Graph-based tools for microscopic cellular image segmentation
CN110472676A (zh) 基于深度神经网络的胃早癌组织学图像分类系统
CN106780522B (zh) 一种基于深度学习的骨髓液细胞分割方法
Ye et al. Automatic graph cut segmentation of lesions in CT using mean shift superpixels
CN113221978A (zh) 基于弱监督学习的结直肠癌数字病理图像判别方法及系统
CN111402267A (zh) 前列腺癌病理图像中上皮细胞核的分割方法、装置和终端
Datar et al. Color and texture based segmentation of molecular pathology images using HSOMs
Jia et al. Multi-layer segmentation framework for cell nuclei using improved GVF Snake model, Watershed, and ellipse fitting
Song et al. Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images
Boucheron et al. Use of imperfectly segmented nuclei in the classification of histopathology images of breast cancer
CN112348059A (zh) 基于深度学习的多种染色病理图像分类方法及系统
CN110930369B (zh) 一种基于群等变神经网络和条件概率场的病理切片识别方法
CN114782948A (zh) 一种对宫颈液基细胞学涂片的全局判读方法及系统
CN104933723A (zh) 基于稀疏表示的舌图像分割方法
Goceri Nuclei segmentation using attention aware and adversarial networks
CN116912240B (zh) 基于半监督学习的突变tp53免疫学检测方法
WO2014006421A1 (en) Identification of mitotic cells within a tumor region
He et al. Multiphase level set model with local K-means energy for histology image segmentation
CN116468690B (zh) 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统
CN116883339A (zh) 一种基于点监督的组织病理学图像细胞核检测方法
EP3018626B1 (en) Apparatus and method for image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant