CN113628197A - 一种基于对比学习的弱监督全切片组织病理图像分类方法 - Google Patents

一种基于对比学习的弱监督全切片组织病理图像分类方法 Download PDF

Info

Publication number
CN113628197A
CN113628197A CN202110948082.2A CN202110948082A CN113628197A CN 113628197 A CN113628197 A CN 113628197A CN 202110948082 A CN202110948082 A CN 202110948082A CN 113628197 A CN113628197 A CN 113628197A
Authority
CN
China
Prior art keywords
full
image
slice
model
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110948082.2A
Other languages
English (en)
Inventor
谢怡宁
侯建新
康兰兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202110948082.2A priority Critical patent/CN113628197A/zh
Publication of CN113628197A publication Critical patent/CN113628197A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

一种基于对比学习的弱监督全切片组织病理图像分类方法,本发明涉及对比学习技术和弱监督分类技术。为了解决在仅有图像级标注的情况下对全切片组织病理图像分类准确率低的问题。全切片组织图像尺寸十分巨大,基于深度神经网络的全切片病理图像分类方法效果显著。但此类方法需要专业病理医生手动标注近10亿像素的全切片图像,获取精确标注数据的成本十分高昂。因此,本发明提出了一种基于对比学习的弱监督全切片图像分类方法,用于在仅有图像级标注的情况下对全切片组织病理图像分类。实验表明,在标注不足的情况下,该方法能够对全切片组织病理图像有效分类。本发明主要应用于弱监督情况下的全切片组织病理图像分类。

Description

一种基于对比学习的弱监督全切片组织病理图像分类方法
技术领域
本发明涉及弱监督全切片组织病理图像分类。
背景技术
乳腺癌是全球发病率和死亡率最高的癌症,2018年全球女性乳腺癌发病率为24.2%,死亡率为15%。乳腺癌的治疗取决于疾病的临床分级,确定乳腺癌临床分级的一个关键步骤是通过显微镜检查乳房附近的淋巴结,以确定癌症已经扩散和转移。这一过程需要专业病理医生在显微镜下进行高强度的工作,特别是对于没有或只有小肿瘤的淋巴结,诊断十分耗时并且容易出错。利用计算机辅助诊断对全切片图像进行自动、精确的分类,可以为医生提供更加客观、准确的诊断参考,提高医生的诊断效率和诊断准确率。
近年来,深度学习方法推动计算机视觉领域取得了巨大的成功。得益于显微摄影和全切片扫描技术的发展,病理切片能以数字图像的形式保存下来,通过解决图像分类和预测等任务,使得深度卷积神经网络被广泛应用于病理诊断领域。然而,基于深度卷积神经网络的全切片图像分类方法需要专业病理医生手动标注近10亿像素的图像,获取精确标注数据的成本十分高昂。弱监督学习使用粗粒度标注来推断图像信息,如WSI级标签,组织图像中的细胞核位置,细胞核的边界矩形和癌变区域百分比等。相比精确标注数据,粗粒度标注数据更容易获得,因此更加适合组织病理学领域。
CLAM(clustering-constrained attention multiple instance learning)是一种使用聚类限制注意力的多实例学习方法,利用少量数据取得了优异的性能,具有数据利用率高,可解释性强,领域适应性强等优点。但一个关键的问题在于,由于标注信息不足,CLAM利用在自然图像数据集上预训练的ResNet(residual neural network)提取组织图像特征。
因此,本文假设相比有监督训练于自然图像数据集的模型,自监督训练于域内数据的模型提取到的特征更加适合组织病理图像领域,提出了一种基于对比学习的全切片组织病理图像分类方法。采用域内数据和自监督训练框架MoCo v2(momentum contrast)对特征提取模型进行无监督预训练,并将该模型迁移至CLAM的特征提取环节。实验表明,所提方法的分类性能超过了其他弱监督方法,同时优于部分监督方法。
发明内容
本发明的目的是为了解决在仅有图像级标注的情况下对全切片组织病理图像分类准确率低的问题。而提出的一种基于对比学习的弱监督全切片组织病理图像分类方法。
上述发明主要流程分成全切片图像处理和三个阶段:一阶段是特征提取模型预训练;二阶段是弱监督分类模型训练;三阶段是全切片图像分类。
全切片图像处理主要是通过以下技术方案实现的:
S1、将全切片图像以较小倍率读入内存,并将其转换为HSV图像。
S2、对图像S通道进行阈值分割生成二进制掩膜图像,使用形态学闭操作填充小孔洞,根据面积过滤区域并剔除大孔洞,得到组织区域。
S3、以用户指定倍率使用滑动窗口从组织区域中提取小图块以构建图块集合。
一阶段主要是通过以下技术方案实现的:
S4、使用上述全切片图像处理方法处理训练集全切片图像,做训练集图块。
S5、从训练集图块中采样,做部分图块集合。
S6、使用MoCo v2框架和部分图块集合训练特征提取模型,特征提取模型的主体结构为ResNet50。
ResNet在组成自身的残差块中加入了捷径连接,即对输入的恒等映射。使得残差块的拟合目标由最佳映射
Figure BDA0003217448810000021
转变为最佳映射与输入的残差,这一目标残差映射
Figure BDA0003217448810000022
的定义如式(1)所示:
Figure BDA0003217448810000023
其中x为当前残差块的输入。因此残差块输出被进一步转变为:
H(x)=F(x)+I(x) (2)
其中,H(x)为残差块的最终输出,F(x)为残差映射,I(x)为输入的恒等映射。
ResNet50包含1层卷积层,1层最大池化层,16个残差块,本文在特征提取模型预训练阶段使用完整的ResNet50进行训练。在弱监督分类模型训练和全切片图像分类阶段选用ResNet50浅层网络作为特征提取模型,ResNet50浅层网络包含前1层卷积层,最大池化层和前13个残差块。
MoCo v2使用数据增强方法生成样本对,包括对输入图像进行随机裁剪、随机颜色扰动、随机灰度化、随机高斯模糊和随机水平翻转。对该样本对使用查询编码器和键编码器进行编码后得到查询样本编码q和键样本编码{k+,k-},将当前小批量的样本编码作为k+,字典中的样本编码作为k-,通过对比q和{k+,k-}来优化模型,查询编码器和键样本编码器模型结构均为完整的ResNet50。MoCo v2采用InfoNCE函数作为对比损失,其定义如下:
Figure BDA0003217448810000031
其中
Figure BDA0003217448810000032
为InfoNCE,τ为温度参数,用于调节模型对困难样本的关注程度。
MoCo v2将字典当作样本队列,每编码一个小批量就将该小批量入队,字典中最早入队的小批量出队,使得字典大小与小批量大小解耦。同时为了保证字典中多个小批量样本编码的一致性,MoCo v2使用动量更新键编码器参数θk,如下所示:
θk←mθk+(1-m)θq (4)其中m为动量系数,θq为查询编码器参数,只有θq使用梯度更新。
弱监督分类模型训练主要是通过以下技术方案实现的:
S7、使用上述特征提取模型的浅层网络对训练集图块提取特征,做训练集特征。
特征提取公式如式(5)所示:
zk=avgpool(fc(x)) (5)
其中zk为特征向量,avgpool为平均池化,x为输入小图块,fc(x)为特征提取模型,fc(x)的模型参数由MoCo v2的查询编码器迁移而来。MoCo v2查询编码器如式(6)所示:
fq(x)=f2(f1(x)) (6)
其中fq(x)为完整的ResNet50,f2(x)为ResNet50的深层网络,即ResNet50的后三个残差块,f1(x)为ResNet50浅层网络,其参数为θ1。fc(x)的模型参数为θc,模型迁移过程如下所示:
θc←θ1 (7)经过迁移后θc即为θ1
S8、使用上述训练集特征和训练集图像级标签来训练CLAM模型。
CLAM是一种弱监督组织病理全切片图像分类方法。在多实例学习框架的基础上,CLAM使用注意力池化代替了最大池化,并利用实例级聚类约束和细化特征空间,使得对全切片图像的分类更加精确。
CLAM首先对特征向量降维,进而执行全切片图像分类和辅助聚类任务,最后计算损失并更新模型参数。降维公式如下所示:
Figure BDA0003217448810000041
其中Wf∈R512×1024为线性变换矩阵,k表示当前小图块在其所属全切片图像中的序号,zk为小图块特征向量,hk为zk经过降维后得到的特征向量。
全切片图像分类的计算公式如下:
Figure BDA0003217448810000042
其中sslide表示全切片图像的阳性得分,Wc∈R1×512为线性变换矩阵,hslide为经过注意力池化得到的全切片图像级特征向量。注意力池化是指:将某张全切片图像的所有小图块特征向量hk根据注意力分数sk聚合为全切片图像级特征表示,sk的计算公式如下:
sk=Wa(tanh(Vahk)⊙sigmod(Uahk)) (10)
其中Wa∈R1×256,Va∈R256×512和Ua∈R256×512均为线性变换矩阵,tanh和sigmod均为激活函数。注意力池化的定义如式(11)所示:
Figure BDA0003217448810000043
其中N为当前全切片图像包含的小图块个数,ak由sk计算所得,其计算公式如下:
Figure BDA0003217448810000051
全切片图像分类任务采用的损失函数为交叉熵。
辅助聚类任务用于细化模型学习到的阳性类别特征空间。小图块按注意分数sk降序排名,取分数最高的B个的小图块作为阳性样本,最低的B个的小图块为阴性样本,对这2B个图块分类,其中B是人为设定的取样数目。类别计算公式如下:
Figure BDA0003217448810000052
其中pinst,m表示图块被预测为阳性样本的得分,Winst∈R2×512为线性变换矩阵,m为小图块在上述2B个图块中的序号。辅助聚类损失函数为平滑支持向量机损失。
总损失计算公式如下:
Ltotal=c1Lslide+c2Lpatch (14)
其中Ltotal为总损失,Lslide为分类任务损失,Lpatch为辅助实例聚类任务损失,c1,c2两种损失在总损失中的权重。
全切片图像分类主要是通过以下技术方案实现的:
S9、使用上述全切片图像处理方法处理待测全切片图像;
S10、使用上述特征提取模型提取图块特征;
S11、使用上述已完成训练并去除辅助聚类任务的CLAM模型来聚合图块特征并对待测图像分类。
发明效果
本发明提出了基于对比学习的弱监督全切片组织病理图像分类方法,方法首先对训练集中的全切片图像进行小图块提取得到训练集图块,并对训练集图块采样得到部分小图块集合,使用MoCo v2和部分小图块集合预训练特征提取模型。然后使用经过训练的特征提取模型来提取训练集图块特征,进而训练弱监督全切片图像分类模型CLAM。最后在全切片图像分类阶段,使用上述全切片图像处理方法处理待测全切片图像,并使用上述特征提取模型提取图块特征,进而使用经过训练的CLAM来预测待测图像类别。实验表明,所提方法全切片组织病理图像分类性能优于其他弱监督全切片组织图像分类方法和部分监督方法,在仅有图像级标注的情况下,能够有效对全切片组织图像进行分类。
附图说明
图1基于对比学习的弱监督全切片组织病理图像分类方法流程示意图;
图2ResNet50网络结构及ResNet50的浅层网络示意图;
具体实施方法
为使本发明实施例的目的、技术方案和优点更加清楚,下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示本发明提供的一种基于对比学习的弱监督全切片组织病理图像分类方法,包含全切片图像处理和三个阶段:特征提取模型预训练、弱监督分类模型训练和全切片图像分类。
所述全切片图像处理包含步骤:
S1、将全切片图像以较小倍率读入内存,并将其转换为HSV图像。
S2、对图像S通道进行阈值分割生成二进制掩膜图像,使用形态学闭操作填充小孔洞,根据面积过滤区域并剔除大孔洞,得到组织区域。
S3、以用户指定倍率使用滑动窗口从组织区域中提取小图块以构建图块集合。
所述特征提取模型预训练包含步骤:
S4、使用上述全切片图像处理方法处理训练集全切片图像,做训练集图块;
S5、从训练集图块中采样,做部分图块集合;
S6、使用MoCo v2框架和部分图块集合训练特征提取模型,特征提取模型的主体结构为ResNet50;
所述弱监督分类模型训练包含:
S7、使用上述特征提取模型浅层网络对训练集图块提取特征,做训练集特征;
S8、使用上述训练集特征和训练集图像级标签来训练CLAM模型;
所述全切片图像分类包含:
S9、使用上述全切片图像处理方法处理待测全切片图像;
S10、使用上述特征提取模型提取图块特征;
S11、使用图块特征和上述去掉辅助聚类任务部分的CLAM模型对待测图像分类。
本发明实施例首先使用MoCo v2和部分小图块集合预训练一个特征提取模型。然后使用经过训练的特征提取模型来提取训练集图块特征,进而训练弱监督全切片图像分类模型CLAM。最后在全切片图像分类阶段,使用全切片图像处理方法处理待测全切片图像,并使用上述特征提取模型提取图块特征,进而使用经过训练的CLAM来预测待测图像类别。
下面对本发明实施例进行详细的说明:
本发明实施例采用399张乳腺前哨淋巴结全切片组织病理图像,其中训练集图像包含270张,测试集图像包含129张。应用本发明方法实现弱监督情况下全切片组织病理图像分类具体实现如下。
全切片图像处理包含步骤:
S1、将全切片图像以较小倍率读入内存,并将其转换为HSV图像。
S2、对图像S通道进行阈值分割生成二进制掩膜图像,使用形态学闭操作填充小孔洞,根据面积过滤区域并剔除大孔洞,得到组织区域。
S3、以用户指定倍率使用滑动窗口从组织区域中提取小图块以构建图块集合。
特征提取模型预训练包含步骤:
S4、使用上述全切片图像处理方法处理训练集全切片图像,做训练集图块,共提取了11735503个图块。
S5、从训练集图块中采样,做部分图块集合,采样图块数目为381000个图块。
S6、使用MoCo v2框架和部分图块集合训练特征提取模型,特征提取模型的主体结构为ResNet50。
ResNet在组成自身的残差块中加入了捷径连接,即对输入的恒等映射。使得残差块的拟合目标由最佳映射
Figure BDA0003217448810000071
转变为最佳映射与输入的残差,这一目标残差映射
Figure BDA0003217448810000081
的定义如式(1)所示:
Figure BDA0003217448810000082
其中x为当前残差块的输入。因此残差块输出被进一步转变为:
H(x)=F(x)+I(x) (2)
其中,H(x)为残差块的最终输出,F(x)为残差映射,I(x)为输入的恒等映射。
ResNet50包含1层卷积层,1层最大池化层,16个残差块,本文在特征提取模型预训练阶段使用完整的ResNet50进行训练。在弱监督分类模型训练和全切片图像分类阶段选用ResNet50浅层网络作为特征提取模型,ResNet50浅层网络包含前1层卷积层,最大池化层和前13个残差块,其结构如图2所示。
MoCo v2使用数据增强方法生成样本对,包括对输入图像进行随机裁剪、随机颜色扰动、随机灰度化、随机高斯模糊和随机水平翻转。对该样本对使用查询编码器和键编码器进行编码后得到查询样本编码q和键样本编码{k+,k-},将当前小批量的样本编码作为k+,字典中的样本编码作为k-,通过对比q和{k+,k-}来优化模型,查询编码器和键样本编码器模型结构均为完整的ResNet50。MoCo v2采用InfoNCE函数作为对比损失,其定义如下:
Figure BDA0003217448810000083
其中
Figure BDA0003217448810000084
为InfoNCE,τ为温度参数,取值为0.07,用于调节模型对困难样本的关注程度。
MoCo v2将字典当作样本队列,每编码一个小批量就将该小批量入队,字典中最早入队的小批量出队,使得字典大小与小批量大小解耦。同时为了保证字典中多个小批量样本编码的一致性,MoCo v2使用动量更新键编码器参数θk,如下所示:
θk←mθk+(1-m)θq (4)
其中m为动量系数,取值为0.999,θq为查询编码器参数,只有θq使用梯度更新。
训练期间的超参数如下:初始学习率为0.015,采用余弦学习率衰减,迭代轮数为40,小批量大小为128,优化方法采用随机梯度下降,字典大小为65536。
弱监督分类模型训练包含步骤:
S7、使用上述特征提取模型浅层网络对训练集图块提取特征,做训练集特征。
特征提取公式如式(5)所示:
zk=avgpool(fc(x)) (5)
其中zk为特征向量,avgpool为平均池化,x为输入小图块,fc(x)为特征提取模型,其结构为ResNet50的浅层网络,如图2所示,fc(x)的模型参数由MoCo v2的查询编码器迁移而来。MoCo v2查询编码器如式(6)所示:
fq(x)=f2(f1(x)) (6)
其中fq(x)为完整的ResNet50,f2(x)为ResNet50的深层网络,即ResNet50的后三个残差块,f1(x)为ResNet50浅层网络,其参数为θ1。fc(x)的模型参数为θc,模型迁移过程如下所示:
θc←θ1 (7)
经过迁移后θc即为θ1
S8、使用上述训练集特征和训练集图像级标签来训练CLAM模型。
CLAM是一种弱监督组织病理全切片图像分类方法。在多实例学习框架的基础上,CLAM使用注意力池化代替了最大池化,并利用实例级聚类约束和细化特征空间,使得对全切片图像的分类更加精确。
CLAM首先对特征向量降维,进而执行全切片图像分类和辅助聚类任务,最后计算损失并更新模型参数。降维公式如下所示:
Figure BDA0003217448810000091
其中Wf∈R512×1024为线性变换矩阵,k表示当前小图块在其所属全切片图像中的序号,zk为小图块特征向量,hk为zk经过降维后得到的特征向量。
全切片图像分类的计算公式如下:
Figure BDA0003217448810000101
其中sslide表示全切片图像的阳性得分,Wc∈R1×512为线性变换矩阵,hslide为经过注意力池化得到的全切片图像级特征向量。注意力池化是指:将某张全切片图像的所有小图块特征向量hk根据注意力分数sk聚合为全切片图像级特征表示,sk的计算公式如下:
sk=Wa(tanh(Vahk)⊙sigmod(Uahk)) (10)
其中Wa∈R1×256,Va∈R256×512和Ua∈R256×512均为线性变换矩阵,tanh和sigmod均为激活函数。注意力池化的定义如式(11)所示:
Figure BDA0003217448810000102
其中N为当前全切片图像包含的小图块个数,ak由sk计算所得,其计算公式如下:
Figure BDA0003217448810000103
全切片图像分类任务采用的损失函数为交叉熵。
辅助聚类任务用于细化模型学习到的阳性类别特征空间。小图块按注意分数sk降序排名,取分数最高的8个的小图块作为阳性样本,最低的8个的小图块为阴性样本,对这16个图块分类,其中B是人为设定的取样数目。类别计算公式如下:
pinst,m=Winsthm T (13)
其中pinst,m表示图块被预测为阳性样本的得分,Winst∈R2×512为线性变换矩阵,m为小图块在上述16个图块中的序号。辅助聚类损失函数为平滑支持向量机损失。
总损失计算公式如下:
Ltotal=c1Lslide+c2Lpatch (14)
其中Ltotal为总损失,Lslide为分类任务损失,Lpatch为辅助实例聚类任务损失,c1,c2两种损失在总损失中的权重,取值为0.7,0.3。
CLAM超参数设置如下:初始学习率为0.0002,采用Adam优化器。
全切片图像分类包含步骤:
S9、使用上述全切片图像处理方法处理待测全切片图像,待测图像为测试集中的129张图像;
S10、使用上述特征提取模型提取图块特征,共提取了6321394个图块的特征;
S11、使用图块特征和上述去掉辅助聚类任务部分的CLAM模型对待测图像分类。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明做出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明范围。

Claims (5)

1.一种基于对比学习的弱监督全切片组织病理图像分类方法,其特征在于,包含全切片图像处理、特征提取模型预训练、弱监督分类模型训练和全切片图像分类:
所述全切片图像处理包含步骤:
S1、将全切片图像以较小倍率读入内存,并将其转换为HSV图像;
S2、对图像S通道进行阈值分割生成二进制掩膜图像,使用形态学闭操作填充小孔洞,根据面积过滤区域并剔除大孔洞,得到组织区域;
S3、以用户指定倍率使用滑动窗口从组织区域中提取小图块以构建图块集合;
所述特征提取模型预训练包含步骤:
S4、使用上述全切片图像处理方法处理训练集全切片图像,做训练集图块;
S5、从训练集图块中采样,做部分图块集合;
S6、使用MoCo v2框架和部分图块集合训练特征提取模型,特征提取模型的主体结构为ResNet50;
所述弱监督分类模型训练包含:
S7、使用上述特征提取模型浅层网络对训练集图块提取特征,做训练集特征;
S8、使用上述训练集特征和训练集图像级标签来训练CLAM模型;
所述全切片图像分类包含:
S9、使用上述全切片图像处理方法处理待测全切片图像;
S10、使用上述特征提取模型浅层网络提取图块特征;
S11、使用上述已完成训练的CLAM模型聚合图块特征并对待测图像分类。
2.如权利要求1所述的一种基于对比学习的弱监督全切片组织病理图像分类方法,其特征在于,步骤S6、S7和S10中所述的特征提取模型定义如下:
ResNet在组成自身的残差块中加入了捷径连接,即对输入的恒等映射。使得残差块的拟合目标由最佳映射
Figure FDA0003217448800000011
转变为最佳映射与输入的残差,这一目标残差映射
Figure FDA0003217448800000012
的定义如式(1)所示:
Figure FDA0003217448800000013
其中x为当前残差块的输入。因此残差块输出被进一步转变为:
H(x)=F(x)+I(x) (2)
其中,H(x)为残差块的最终输出,F(x)为残差映射,I(x)为输入的恒等映射。
ResNet50包含1层卷积层,1层最大池化层,16个残差块,本文在特征提取模型预训练阶段使用完整的ResNet50进行训练,在弱监督分类模型训练和全切片图像分类阶段选用ResNet50浅层网络作为特征提取模型,ResNet50浅层网络包含前1层卷积层,最大池化层和前13个残差块。
3.如权利要求1所述的的一种基于对比学习的弱监督全切片组织病理图像分类方法,其特征在于,步骤S6中所述的MoCo v2框架如下:
MoCo v2使用数据增强方法生成样本对,包括对输入图像进行随机裁剪、随机颜色扰动、随机灰度化、随机高斯模糊和随机水平翻转。对该样本对使用查询编码器和键编码器进行编码后得到查询样本编码q和键样本编码{k+,k-},将当前小批量的样本编码作为k+,字典中的样本编码作为k-,通过对比q和{k+,k-}来优化模型,查询编码器和键样本编码器的模型结构均为完整的ResNet50。
MoCo v2采用InfoNCE函数作为对比损失,其定义如下:
Figure FDA0003217448800000021
其中
Figure FDA0003217448800000022
为InfoNCE,τ为温度参数,用于调节模型对困难样本的关注程度。
MoCo v2将字典当作样本队列,每编码一个小批量就将该小批量入队,字典中最早入队的小批量出队,使得字典大小与小批量大小解耦。同时为了保证字典中多个小批量样本编码的一致性,MoCo v2使用动量更新键编码器参数θk,如下所示:
θk←mθk+(1-m)θq (4)
其中m为动量系数,θq为查询编码器参数,只有θq使用梯度更新。
4.如权利要求1所述的的一种基于对比学习的弱监督全切片组织病理图像分类方法,其特征在于,步骤S7和S9中所述的特征提取过程如下:
特征提取公式如式(5)所示:
zk=avgpool(fc(x)) (5)
其中zk为特征向量,avgpool为平均池化,x为输入小图块,fc(x)为特征提取模型,fc(x)的模型参数由MoCo v2的查询编码器迁移而来。MoCo v2查询编码器如式(6)所示:
fq(x)=f2(f1(x)) (6)
其中fq(x)为完整的ResNet50,f2(x)为ResNet50的深层网络,即ResNet50的后三个残差块,f1(x)为ResNet50浅层网络,其参数为θ1。fc(x)的模型参数为θc,模型迁移过程如下所示:
θc←θ1 (7)
经过迁移后θc即为θ1
5.如权利要求1所述的的一种基于对比学习的弱监督全切片组织病理图像分类方法,其特征在于,步骤S8和S11中所述的CLAM算法如下:
CLAM是一种弱监督组织病理全切片图像分类方法。在多实例学习框架的基础上,CLAM使用注意力池化代替了最大池化,并利用实例级聚类约束和细化特征空间,使得对全切片图像的分类更加精确。
CLAM首先对特征向量降维,进而执行全切片图像分类和辅助聚类任务,最后计算损失并更新模型参数。降维公式如下所示:
Figure FDA0003217448800000031
其中Wf∈R512×1024为线性变换矩阵,k表示当前小图块在其所属全切片图像中的序号,zk为小图块特征向量,hk为zk经过降维后得到的特征向量。
全切片图像分类的计算公式如下:
Figure FDA0003217448800000032
其中sslide表示全切片图像的阳性得分,Wc∈R1×512为线性变换矩阵,hslide为经过注意力池化得到的全切片图像级特征向量。注意力池化是指:将某张全切片图像的所有小图块特征向量hk根据注意力分数sk聚合为全切片图像级特征表示,sk的计算公式如下:
sk=Wa(tanh(Vahk)⊙sigmod(Uahk)) (10)
其中Wa∈R1×256,Va∈R256×512和Ua∈R256×512均为线性变换矩阵,tanh和sigmod均为激活函数。注意力池化的定义如式(11)所示:
Figure FDA0003217448800000041
其中N为当前全切片图像包含的小图块个数,ak由sk计算所得,其计算公式如下:
Figure FDA0003217448800000042
全切片图像分类任务采用的损失函数为交叉熵。
辅助聚类任务用于细化模型学习到的阳性类别特征空间。小图块按注意分数sk降序排名,取分数最高的B个的小图块作为阳性样本,最低的B个的小图块为阴性样本,对这2B个图块分类,其中B是人为设定的取样数目。类别计算公式如下:
Figure FDA0003217448800000043
其中pinst,m表示图块被预测为阳性样本的得分,Winst∈R2×512为线性变换矩阵,m为小图块在上述2B个图块中的序号。辅助聚类损失函数为平滑支持向量机损失。
总损失计算公式如下:
Ltotal=c1Lslide+c2Lpatch (14)
其中Ltotal为总损失,Lslide为分类任务损失,Lpatch为辅助实例聚类任务损失,c1,c2两种损失在总损失中的权重。
CN202110948082.2A 2021-08-18 2021-08-18 一种基于对比学习的弱监督全切片组织病理图像分类方法 Pending CN113628197A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110948082.2A CN113628197A (zh) 2021-08-18 2021-08-18 一种基于对比学习的弱监督全切片组织病理图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110948082.2A CN113628197A (zh) 2021-08-18 2021-08-18 一种基于对比学习的弱监督全切片组织病理图像分类方法

Publications (1)

Publication Number Publication Date
CN113628197A true CN113628197A (zh) 2021-11-09

Family

ID=78386355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110948082.2A Pending CN113628197A (zh) 2021-08-18 2021-08-18 一种基于对比学习的弱监督全切片组织病理图像分类方法

Country Status (1)

Country Link
CN (1) CN113628197A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299324A (zh) * 2021-12-01 2022-04-08 万达信息股份有限公司 一种基于多尺度域对抗网络的病理图像分类方法及系统
CN114782753A (zh) * 2022-05-18 2022-07-22 合肥工业大学 基于弱监督学习和转换器的肺癌组织病理全切片分类方法
CN117038023A (zh) * 2023-10-08 2023-11-10 中国医学科学院北京协和医院 基于结直肠癌病理图像的dMMR胚系突变亚型分类方法及系统
WO2023221790A1 (zh) * 2022-05-16 2023-11-23 腾讯科技(深圳)有限公司 图像编码器的训练方法、装置、设备及介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299324A (zh) * 2021-12-01 2022-04-08 万达信息股份有限公司 一种基于多尺度域对抗网络的病理图像分类方法及系统
CN114299324B (zh) * 2021-12-01 2024-03-29 万达信息股份有限公司 一种基于多尺度域对抗网络的病理图像分类方法及系统
WO2023221790A1 (zh) * 2022-05-16 2023-11-23 腾讯科技(深圳)有限公司 图像编码器的训练方法、装置、设备及介质
CN114782753A (zh) * 2022-05-18 2022-07-22 合肥工业大学 基于弱监督学习和转换器的肺癌组织病理全切片分类方法
CN117038023A (zh) * 2023-10-08 2023-11-10 中国医学科学院北京协和医院 基于结直肠癌病理图像的dMMR胚系突变亚型分类方法及系统

Similar Documents

Publication Publication Date Title
CN108898160B (zh) 基于cnn和影像组学特征融合的乳腺癌组织病理学分级方法
Song et al. Adapting fisher vectors for histopathology image classification
CN113628197A (zh) 一种基于对比学习的弱监督全切片组织病理图像分类方法
Beevi et al. A multi-classifier system for automatic mitosis detection in breast histopathology images using deep belief networks
CN109447998B (zh) 基于PCANet深度学习模型下的自动分割方法
CN110472676A (zh) 基于深度神经网络的胃早癌组织学图像分类系统
CN112270666A (zh) 基于深度卷积神经网络的非小细胞肺癌病理切片识别方法
CN106340016A (zh) 一种基于细胞显微镜图像的dna定量分析方法
CN110705565A (zh) 淋巴结肿瘤区域识别方法与装置
CN115049952B (zh) 一种基于多尺度级联感知深度学习网络的幼鱼肢体识别方法
CN112434172A (zh) 一种病理图像预后特征权重计算方法及系统
CN115100467A (zh) 一种基于核注意力网络的病理全切片图像分类方法
CN108765374A (zh) 一种宫颈涂片图像中异常核区域筛查的方法
CN111899259A (zh) 一种基于卷积神经网络的前列腺癌组织微阵列分级方法
Priya Resnet based feature extraction with decision tree classifier for classificaton of mammogram images
CN116128855A (zh) 一种基于病理图像特征检测肿瘤蛋白标记物表达水平算法
CN115471701A (zh) 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法
CN115393631A (zh) 基于贝叶斯层图卷积神经网络的高光谱图像分类方法
CN109740669B (zh) 一种基于深度特征聚合的乳腺癌病理图像分类方法
Keyvanpour et al. WARM: a new breast masses classification method by weighting association rule mining
CN108898157B (zh) 基于卷积神经网络的数值型数据的雷达图表示的分类方法
CN116228759A (zh) 肾细胞癌类型的计算机辅助诊断系统及设备
Sun et al. Classification of mammography based on semi-supervised learning
Mulmule et al. Classification of overlapping cells in microscopic cervical images: a transfer learning approach
CN109948706B (zh) 结合深度学习与特征多尺度融合的微钙化簇检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination