CN112308840A - 一种病理学图像的口腔癌上皮组织区域自动分割方法 - Google Patents
一种病理学图像的口腔癌上皮组织区域自动分割方法 Download PDFInfo
- Publication number
- CN112308840A CN112308840A CN202011200003.1A CN202011200003A CN112308840A CN 112308840 A CN112308840 A CN 112308840A CN 202011200003 A CN202011200003 A CN 202011200003A CN 112308840 A CN112308840 A CN 112308840A
- Authority
- CN
- China
- Prior art keywords
- layer
- convolution
- training
- convolutional
- unet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
一种病理学图像的口腔癌上皮组织区域自动分割方法,其包括如下步骤:S100:使用提取像素块patch的方法对病理学图像和病理学家的标签进行预处理;S200:选取预处理后的部分病理学图像作为训练样本形成训练集,其余作为验证样本形成验证集;S300:构建卷积神经网络UNet模型,采用步骤S200中的训练集和验证集来训练和验证该UNet模型,获取最终的UNet模型;S400:将上述最终的UNet模型应用于多中心外部测试集以自动生成上皮组织区域。该方法在头颈癌检测中没有对每个数据集分别进行了训练,验证和测试,仅使用TMA数据进行训练,在多中心的外部WSI数据集上进行测试,对未知图像更具有说服力。
Description
技术领域
本公开属于医学图像处理、机器学习技术领域,特别涉及一种病理学图像的口腔癌上皮组织区域自动分割方法。
背景技术
口腔鳞状细胞癌(0C-SCC)是世界范围内最常见的头颈部恶性肿瘤,它具有对邻近组织的高侵袭能力和对远处器官的转移潜力。因此需要更好的诊断和风险分层工具,用于OC-SCC患者的个性化治疗。
病理学家诊断和危险因素分层的方法始于确定肿瘤区域。这些区域通常由病理学家通过光学显微镜使用常规的染色组织进行分析。整个肿瘤区域由癌细胞及其支持组织基质组成。就癌而言,上皮肿瘤区域是评估最多的部分。这些隔室的组织形态学分析已经进行了数十年,通常可以可靠地鉴定出肿瘤的类型和程度。此外,已发现OC-SCC的潜在形态特征与患者预后相关。但是,由于缺乏有效的标记工具,并且标记容易遭受观察者内部和观察者之间的可变性的影响,因为它耗时且依赖于专家,病理学家无法有效地再现性地识别或量化这些组织学标志。
在过去的几年中,使用机器学习(ML),尤其是深度学习(DL)进行的各种定量数字病理图像分析已显示出能够从数字化苏木精-伊红(H&E)染色的组织切片中“解锁”肿瘤原始的亚视觉属性。在这项工作中,已经能够通过相同的DL网络体系结构A1exNet从H&E染色的图像中分类,检测或分割不同的组织学原语,包括上皮,肾小管,淋巴细胞,有丝分裂和癌。但是,当将ML/DL应用于更特定的区域时,在WSI的上皮分割中,可能会遇到诸如GroundTruth标注的耗时枯燥,染色的多变性以及基于像素块(patch)处理图像的信息难以聚集的挑战。
使用计算机辅助模式识别工具进行的先进的数字病理分析已显示出可以“解锁”亚视觉属性,并提供了肿瘤的定量特征。上皮和其他组织之间的自动区分是开发用于检测和客观表征OC-SCC的自动化方法的重要前提。
发明内容
为了解决上述问题,本公开提供了一种病理学图像的口腔癌上皮组织区域自动分割方法,其包括如下步骤:
S100:使用提取像素块patch的方法对病理学图像和病理学家的标签进行预处理;
S200:选取预处理后的部分病理学图像作为训练样本形成训练集,其余作为验证样本形成验证集;
S300:构建卷积神经网络UNet模型,采用步骤S200中的训练集和验证集来训练和验证该UNet模型,获取最终的UNet模型;
S400:将上述最终的UNet模型应用于多中心外部测试集以自动生成上皮组织区域。
通过上述技术方案,提出了一个基于UNet的深度学习框架,用于从H&E染色的组织图像中自动检测上皮组织区域。首先使用提取patch的方法对图像和标签进行预处理,对DL模型进行了训练和验证,并在不同放大倍数下利用了两类组织微阵列(TMA)图像以及详尽的人类专家标注。然后在来自不同机构的数据集中独立测试了这个锁定的模型。这些独立的数据集由全幅玻璃图像(WSI)组成,并与训练和验证阶段无关。
该方法并没有对每个数据集中分别进行训练、验证和测试。因为,如果对每个数据集都进行训练验证和测试,那么就相当于在已知的这些数据集的信息的基础上做的测试,这样的测试的结果,就对“未知的”数据的说服力差。该方法仅使用了2个中心(机构)的TMA图像,对外部3个中心(机构)的WSI图像进行测试,该方法在训练和测试使用了不同的图像类型(TMA和WSI),并在外部测试集上取得可观的效果,对未知图像更具有说服力。
附图说明
图1是本公开一个实施例中所提供的一种病理学图像的口腔癌上皮组织区域自动分割方法的流程图;
图2是本公开一个实施例中代表性的TMA和其上皮组织标注图;
图3是本公开一个实施例中代表性的WSI和其对应多边形框的标注图;
图4是本公开一个实施例中用于口腔癌的上皮组织分割的UNet模型结构图;
图5是本公开一个实施例中六个代表性的验证TMA图像结果对照图;
图6是本公开一个实施例中四个代表性的测试WSI图像结果对照图。
具体实施方式
在一个实施例中,如图1所示,公开了提供了一种病理学图像的口腔癌上皮组织区域自动分割方法,其包括如下步骤:
S100:使用提取像素块patch的方法对病理学图像和病理学家的标签进行预处理;
S200:选取预处理后的部分病理学图像作为训练样本形成训练集,其余作为验证样本形成验证集;
S300:构建卷积神经网络UNet模型,采用步骤S200中的训练集和验证集来训练和验证该UNet模型,获取最终的UNet模型;
S400:将上述最终的UNet模型应用于多中心外部测试集以自动生成上皮组织区域。
就该实施例而言,使用基于UNet的深度学习框架从两种类型的组织病理学图像中分割上皮区域:组织微阵列(TMA)和全幅玻璃图像(WSI)。在训练阶段,总共使用了来自两个不同机构的190名患者的212个带标记的TMA进行模型训练。在测试阶段,使用了来自三个不同机构的477名OC-SCC患者的478个WSI进行测试。最后,将结果与病理学家标注的WSI进行比较。
TMA类型图像的标签直接是二值图像,WSI类型图像的标签是病理学专家通过标注软件(如QuPath)对WSI图像进行标注,首先得出的是包含标注区域多边形的坐标的集合的xml文件,然后将xml文件转化为二值图像。
训练过程中的预处理,就是对TMA图像的处理,主要是大图裁成小图的过程。我们拿到的TMA图像是40x的。(40x,40乘,是在显微镜下40x放大倍率下得到的图片。)步骤如下:1.将40x的原图,下采样至10x,如原本是8000x8000像素的,下采样至2000x2000像素,(4倍关系)。2.然后在10x的图像取patch(256x256),不重合地取(non-overlapping);标签(二值图像),也是这么处理。3.这样每一个TMA图像都得到了一些patch,在划分训练和验证集的时候,是按照TMA级别划分的,也就是属于同一个TMA的patch们,不会同时出现在训练集和验证集中。
在另一个实施例中,病人选择如下:经华盛顿大学(WU)在圣路易斯人类研究保护办公室,俄亥俄州立大学(OSU),旧金山退伍军人管理局医学中心(SFVA),加利福尼亚大学旧金山分校(UCSF),范德比尔特大学医学中心(VUMC)。口腔鳞状细胞癌的患者是从人类研究保护办公室批准的放射肿瘤学和耳鼻咽喉头颈外科临床医生数据库中鉴定出来的。放射肿瘤学数据库是被许可的由一名放射肿瘤学家治疗的患者的集合。
本方法包括由五个独立且特征明确的福尔马林固定石蜡包埋(FFPE)和H&E染色的全幅玻璃图像(WSI)和组织微阵列(TMA)所组成的数据集,代表总共n=667例患者。所有WSI和TMA切片均使用Aperio Scanscope XT数字扫描仪以40倍放大率进行数字扫描,每个像素的分辨率为0.25μm。为TMA上的每个肿瘤分配了一个编码编号,以便共享,并带有仅研究病理学家已知的实际患者数据的链接。对于TMA的产生,研究病理学家选择了一种2mm中央肿瘤穿孔使用(即载玻片上代表肿瘤最多,代表最好的那些穿孔)。
这五个数据集分别由D1(来自OSU的75例患者的97个TMA),D2(来自WU的115例患者的115个TMA),D3(来自SFVA的94例患者的95个WSI),D4(来自VUMC的182例患者的182WSI)和D5(来自UCSF的201名患者的201个WSI)。来自D1,D2和D4的患者的相应临床病理和结果信息是从IRB批准的回顾性图表审查(收集数据集的各机构)获得的。数据集D1和D2用于自动上皮组织分割模型的训练,而数据集D3,D4和D5用于独立测试训练后的模型。表1总结了所有五个数据集的患者的临床和病理数据。
表1
在另一个实施例中,标注如下:数据集D1和D2由212个TMA组成,所有上皮区域均由一名研究病理学家使用内部开发的标注工具进行标注。图2显示了代表性的TMA(a,b)D1和(c,d)D2和带标注的上皮组织区域的二进制图像。由于数据集D1和D2用于模型训练,因此所有上皮区域都进行了详尽标注,我们尝试使标注尽可能精确。其中,图2中每个图像的宽度或高度为5k-7k像素;(a,b)是来自D1的TMA;(c,d)是来自D2的TMA;第三列和第四列图像是第一列和第二列中这些图像的详细缩放部分。
为了提供训练模型的准确评估,对D3,D4和D5中的n=478个WSI的所有上皮区域进行了标注了。图3显示了(a,b,c)D3和(d,e,f)D4和(g,h,i)D5的代表性WSI和带标注的上皮组织区域(多边形线段框)。由于注释的实质性工作量,某些WSI标注可能并不详尽,但是,我们尝试使标注尽可能精确。
在另一个实施例中,所述训练集是由组织微阵列TMA以及病理学家制作的标签构成。
就该实施例而言,一组212个TMA以及由病理学家制作的标注被用来训练和验证模型以识别上皮组织区域。TMA的平均大小为6000x6000像素。我们将训练数据集D1和D2分为9∶1的训练和验证集。来自同一TMA的patch将不会同时放在训练和验证集中。对模型进行了50个Epoch的训练,并在每个Epoch的末尾采用了验证集来跟踪模型收敛的程度。通过最小化验证集上的误差来选择最终模型,然后将其锁定。
在另一个实施例中,所述测试集是由全幅玻璃图像WSI构成。
就该实施例而言,将该模型应用于由WSI数据集D3,D4和D5组成的独立测试集,以自动生成上皮区域。
在另一个实施例中,评估模型在独立测试集中的性能。
就该实施例而言,在评估中,我们使用了以下指标:
像素精度:只需找到正确分类的像素数量除以像素总数即可。对于2个类别(0:负类,1:正类)。
其中pij是预测为类i并实属于类j的数量。
召回率(Recall):
阳性预测值(Positive predictive value):
Dice系数(Dice coefficient):
其中TP表示真阳性数量,FP表示假阳性数量,FN表示假阴性数量。
在另一个实施例中,所述卷积神经网络UNet模型由28层组成,每个卷积层都有一个填充操作。
就该实施例而言,用于口腔癌的上皮组织分割的UNet模型结构如图4所示。该网络由28层组成,其中包含14788929个参数。每个卷积层都有一个填充操作(padding),它将使输出的高度和宽度大小与输入的相同。
所有图像均以40倍放大倍率(0.25μm/像素)进行扫描。我们分别使用5倍,10倍和20倍放大率的图像训练和验证了模型。在准备训练样本时,基本的水平和垂直翻转操作用于数据增强。为了使我们的模型专注于学习组织形态并减少由颜色变化引起的影响,我们还通过调整图像的亮度(1,1.4),对比度(1.1.4),饱和度(1,1.4),色相(-0.5、0.5)和高斯模糊{1、2}。
在另一个实施例中,所述卷积神经网络UNet模型由卷积块,反卷积块,池化层和输出层组成。
在另一个实施例中,所述卷积块共有5组,每组卷积块均有2层卷积层,每层卷积层之后都跟有一层批归一化层、一层ReLU激活层,除第一组卷积块外,其他卷积块都有一层池化层在其头部;所述反卷积块共有4组,每一组反卷积块均有一层反卷积层和2层卷积层,并且每层卷积层之后都跟有一层批归一化层、一层ReLU激活层;所述输出层仅包含一层卷积层。
在另一个实施例中,所述卷积块及反卷积块中的卷积层的卷积核大小为3,步长为1,填充为1;所述卷积块中池化层的卷积核大小为2,步长为2,填充为0;所述反卷积块中的反卷积层的卷积核大小为2,步长为2,填充为0;所述输出层的卷积层的卷积核大小为1,步长为1,填充为0。
在另一个实施例中,所述卷积神经网络UNet模型的输出布置了一个通道,该通道的输出将输入进BCEWithLogitsLoss损失函数,得到上皮组织概率图,该概率图以0.5为分界转化为二值图,用于与专家标记进行比较。
就该实施例而言,BCEWithLogitsLoss损失函数先将网络的输出传入Sigmoid函数获得归一化的概率图,即Sigmoid函数会将网络的输出约束在0到1的范围内以表示概率,再通过交叉熵函数与专家标记的二值图进行对比。
在另一个实施例中,所述卷积神经网络UNet模型训练使用了0.01学习率和1e-8的权重衰减的RMSprop优化算法。
在另一个实施例中,在训练期间,将组织微阵列TMA和其二值标签图对应地下采样和训练。
就该实施例而言,由于我们试图比较具有不同放大倍率(即5倍,10倍和20倍)训练集的模型的性能,因此将所有TMA和其二值标签图对应地下采样和训练。
在另一个实施例中,在训练期间,将组织微阵列TMA和相关的标注裁剪为不重叠的256x256像素块。
就该实施例而言,裁剪TMA,然后将其拆分为256x 256像素的非重叠图像patch,从而产生8802个训练patch(191个TMA)和954个验证patch(21个TMA)。
在另一个实施例中,所有像素块patch从带标注的上皮组织和非上皮组织区域中提取。
就该实施例而言,所有patch从带标注的上皮组织和非上皮组织区域中提取,大小为256x256像素。
在另一个实施例中,表2表示不同放大倍率时验证集中的模型性能。表3表示不同放大倍率时测试集中的模型性能。其中,在下表结果对比中HEA被表示为是一种智能的H&E图像增色,在HistomicsTK中实现,可以添加到我们的色彩增强中。SE则表示为通过在向下采样中向每个卷积层添加SE块,是注意力加强的基本的UNet网络结构模型。在验证集上,上皮组织分割10x放大倍率下UNet模型与病理学家对地面事实的标注相比,像素精度(PA)为88.05%,召回率(R)为82.74%,阳性预测值(PPA)为86.41%,Dice系数(D)为84.53%。根据我们的其他指标,我们测试集中注释的冲突或不精确部分可能导致召回率低。
放大倍率 | 模型 | Loss | PA% | R% | PPV% | D% |
5 | UNet | 0.34 | 82.84 | 88.12 | 70.23 | 78.17 |
10 | UNet | 0.27 | 88.05 | 82.74 | 86.41 | 84.53 |
10 | UNet+HEA | 0.28 | 87.31 | 86.28 | 82.41 | 84.30 |
10 | UNet+SE | 0.30 | 86.28 | 91.79 | 77.57 | 84.08 |
20 | UNet | 0.29 | 86.71 | 81.40 | 86.24 | 83.75 |
表2
数据集 | 放大倍率 | 模型 | PA% | R% | PPV% | D% |
D3 | 5 | UNet | 82.50 | 35.70 | 59.02 | 39.42 |
D3 | 10 | UNet | 86.04 | 40.43 | 77.97 | 52.82 |
D3 | 10 | UNet+HEA | 85.57 | 50.52 | 67.72 | 57.23 |
D3 | 10 | UNet+SE | 81.40 | 53.47 | 52.55 | 54.57 |
D3 | 20 | UNet | 85.19 | 31.93 | 79.77 | 46.35 |
D4 | 5 | UNet | 80.09 | 64.50 | 46.03 | 48.71 |
D4 | 10 | UNet | 88.77 | 51.96 | 78.72 | 58.82 |
D4 | 10 | UNet+HEA | 88.43 | 46.71 | 81.39 | 55.57 |
D4 | 10 | UNet+SE | 85.38 | 59.73 | 59.56 | 54.67 |
D4 | 20 | UNet | 88.60 | 49.31 | 78.74 | 56.17 |
D5 | 5 | UNet | 86.66 | 57.55 | 85.17 | 63.55 |
D5 | 10 | UNet | 90.67 | 73.08 | 88.84 | 77.29 |
D5 | 10 | UNet+HEA | 89.02 | 65.12 | 89.54 | 73.60 |
D5 | 10 | UNet+SE | 90.28 | 78.40 | 83.02 | 75.93 |
D5 | 20 | UNet | 90.47 | 71.63 | 88.49 | 75.20 |
表3
图5中显示了六个代表性的验证TMA图像,其中第一列显示原始TMA图像,第二列显示专家制作的标注的二值图,最后一列显示的是我们的模型得出的结果。专家标注和预测结果在总体形状上非常接近,但是预测结果在小块和边缘处更容易区分。图6显示了D3-D5上WSI的四个代表性测试结果,其中第一列显示了原始WSI及其病理学家(顶部)和机器(底部)所做标注的二值图。第二列显示由上一列中的矩形框注释的原始WSI的放大细节。第三和第四列显示专家和机器制作的放大部分的二值图。最后一列显示了由我们的框架制作的放大部分的热度图。很容易在边界及内部细节上注意到机器的结果比专家的结果更精确。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下和在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。
Claims (10)
1.一种病理学图像的口腔癌上皮组织区域自动分割方法,其包括如下步骤:
S100:使用提取像素块patch的方法对病理学图像和病理学家的标签进行预处理;
S200:选取预处理后的部分病理学图像作为训练样本形成训练集,其余作为验证样本形成验证集;
S300:构建卷积神经网络UNet模型,采用步骤S200中的训练集和验证集来训练和验证该UNet模型,获取最终的UNet模型;
S400:将上述最终的UNet模型应用于多中心外部测试集以自动生成上皮组织区域。
2.根据权利要求1所述的方法,优选的,所述训练集是由组织微阵列TMA以及病理学家制作的标签构成。
3.根据权利要求1所述的方法,所述多中心外部测试集是由全幅玻璃图像WSI构成。
4.根据权利要求1所述的方法,所述卷积神经网络UNet模型由卷积块,反卷积块,池化层和输出层组成。
5.根据权利要求4所述的方法,所述卷积块共有5组,每组卷积块均有2层卷积层,每层卷积层之后都跟有一层批归一化层、一层ReLU激活层,除第一组卷积块外,其他卷积块都有一层池化层在其头部;所述反卷积块共有4组,每一组反卷积块均有一层反卷积层和2层卷积层,并且每层卷积层之后都跟有一层批归一化层、一层ReLU激活层;所述输出层仅包含一层卷积层。
6.根据权利要求5所述的方法,所述卷积块及反卷积块中的卷积层的卷积核大小为3,步长为1,填充为1;所述卷积块中池化层的卷积核大小为2,步长为2,填充为0;所述反卷积块中的反卷积层的卷积核大小为2,步长为2,填充为0;所述输出层的卷积层的卷积核大小为1,步长为1,填充为0。
7.根据权利要求1所述的方法,所述卷积神经网络UNet模型训练使用了0.01学习率和1e-8的权重衰减的RMSprop优化算法。
8.根据权利要求2所述的方法,在训练期间,将组织微阵列TMA和其二值标签图对应地下采样和训练。
9.根据权利要求2所述的方法,在训练期间,将组织微阵列TMA和其二值标签图裁剪为不重叠的256x256像素块。
10.根据权利要求1所述的方法,所有像素块patch从带标注的上皮组织和非上皮组织区域中提取,以区分彼此。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011200003.1A CN112308840A (zh) | 2020-10-30 | 2020-10-30 | 一种病理学图像的口腔癌上皮组织区域自动分割方法 |
CN202110116993.9A CN112712522A (zh) | 2020-10-30 | 2021-01-28 | 一种病理学图像的口腔癌上皮组织区域自动分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011200003.1A CN112308840A (zh) | 2020-10-30 | 2020-10-30 | 一种病理学图像的口腔癌上皮组织区域自动分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112308840A true CN112308840A (zh) | 2021-02-02 |
Family
ID=74332312
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011200003.1A Withdrawn CN112308840A (zh) | 2020-10-30 | 2020-10-30 | 一种病理学图像的口腔癌上皮组织区域自动分割方法 |
CN202110116993.9A Pending CN112712522A (zh) | 2020-10-30 | 2021-01-28 | 一种病理学图像的口腔癌上皮组织区域自动分割方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110116993.9A Pending CN112712522A (zh) | 2020-10-30 | 2021-01-28 | 一种病理学图像的口腔癌上皮组织区域自动分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN112308840A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113116305A (zh) * | 2021-04-20 | 2021-07-16 | 深圳大学 | 鼻咽内镜图像的处理方法、装置、电子设备及存储介质 |
CN114973244A (zh) * | 2022-06-12 | 2022-08-30 | 桂林电子科技大学 | 一种乳腺癌h&e染色病理图像有丝分裂自动识别系统和方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256582A (zh) * | 2021-05-21 | 2021-08-13 | 兰州兰石检测技术有限公司 | 一种基于U-net网络马氏体金相中原奥氏体晶界识别方法 |
CN113313685B (zh) * | 2021-05-28 | 2022-11-29 | 太原理工大学 | 一种基于深度学习的肾小管萎缩区域识别方法与系统 |
CN114155208B (zh) * | 2021-11-15 | 2022-07-08 | 中国科学院深圳先进技术研究院 | 一种基于深度学习的心房颤动评估方法和装置 |
CN114283136B (zh) * | 2021-12-23 | 2023-10-27 | 西安交通大学 | 基于级联网络的癌症浸润检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629768B (zh) * | 2018-04-29 | 2022-01-21 | 山东省计算中心(国家超级计算济南中心) | 一种食管病理图像中上皮组织的分割方法 |
US10957041B2 (en) * | 2018-05-14 | 2021-03-23 | Tempus Labs, Inc. | Determining biomarkers from histopathology slide images |
CN109308695A (zh) * | 2018-09-13 | 2019-02-05 | 镇江纳兰随思信息科技有限公司 | 基于改进U-net卷积神经网络模型的癌细胞识别方法 |
-
2020
- 2020-10-30 CN CN202011200003.1A patent/CN112308840A/zh not_active Withdrawn
-
2021
- 2021-01-28 CN CN202110116993.9A patent/CN112712522A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113116305A (zh) * | 2021-04-20 | 2021-07-16 | 深圳大学 | 鼻咽内镜图像的处理方法、装置、电子设备及存储介质 |
CN114973244A (zh) * | 2022-06-12 | 2022-08-30 | 桂林电子科技大学 | 一种乳腺癌h&e染色病理图像有丝分裂自动识别系统和方法 |
CN114973244B (zh) * | 2022-06-12 | 2023-04-11 | 桂林电子科技大学 | 一种乳腺癌h&e染色病理图像有丝分裂自动识别系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112712522A (zh) | 2021-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11756318B2 (en) | Convolutional neural networks for locating objects of interest in images of biological samples | |
CN112712522A (zh) | 一种病理学图像的口腔癌上皮组织区域自动分割方法 | |
JP7146886B2 (ja) | 包括的なマルチアッセイ組織分析のためのシステムおよび方法 | |
US11893732B2 (en) | Computer supported review of tumors in histology images and post operative tumor margin assessment | |
Mi et al. | Deep learning-based multi-class classification of breast digital pathology images | |
CN102388305B (zh) | 基于图像的风险分数-来自数字组织病理学的存活率和结果的预后预估 | |
Wang et al. | Weakly supervised learning for whole slide lung cancer image classification | |
Linkon et al. | Deep learning in prostate cancer diagnosis and Gleason grading in histopathology images: An extensive study | |
Veta et al. | Detecting mitotic figures in breast cancer histopathology images | |
EP3345161A1 (en) | Image processing systems and methods for displaying multiple images of a biological specimen | |
Hsiao et al. | A deep learning-based precision and automatic kidney segmentation system using efficient feature pyramid networks in computed tomography images | |
EP4046061A1 (en) | Weakly supervised multi-task learning for cell detection and segmentation | |
CN112862756A (zh) | 识别甲状腺肿瘤病理图像中病变类型及基因突变的方法 | |
Wang et al. | Automatic generation of pathological benchmark dataset from hyperspectral images of double stained tissues | |
Pourakpour et al. | Automated mitosis detection based on combination of effective textural and morphological features from breast cancer histology slide images | |
Dabass et al. | A hybrid U-Net model with attention and advanced convolutional learning modules for simultaneous gland segmentation and cancer grade prediction in colorectal histopathological images | |
Han et al. | Automatic cancer detection on digital histopathology images of mid-gland radical prostatectomy specimens | |
CN116884597A (zh) | 基于自监督预训练和多示例学习的病理图像乳腺癌分子分型方法及系统 | |
CN115690056A (zh) | 基于her2基因检测的胃癌病理图像分类方法及系统 | |
CN115274093A (zh) | 生成包含自动标注文件的基准病理数据集的方法及系统 | |
Tchikindas et al. | Segmentation of nodular medulloblastoma using random walker and hierarchical normalized cuts | |
CN112200801B (zh) | 数字病理图像的细胞核自动检测方法 | |
Khan et al. | Automatic Segmentation and Shape, Texture-based Analysis of Glioma Using Fully Convolutional Network | |
Sharma | Medical image analysis of gastric cancer in digital histopathology: methods, applications and challenges | |
Santamaria-Pang et al. | Epithelial cell segmentation via shape ranking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210202 |