CN116416615A - 一种病理图像ihc染色质量评价的装置 - Google Patents
一种病理图像ihc染色质量评价的装置 Download PDFInfo
- Publication number
- CN116416615A CN116416615A CN202310270684.6A CN202310270684A CN116416615A CN 116416615 A CN116416615 A CN 116416615A CN 202310270684 A CN202310270684 A CN 202310270684A CN 116416615 A CN116416615 A CN 116416615A
- Authority
- CN
- China
- Prior art keywords
- image
- cell
- mask
- module
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001575 pathological effect Effects 0.000 title claims abstract description 59
- 238000004043 dyeing Methods 0.000 title abstract description 17
- 238000013441 quality evaluation Methods 0.000 title abstract description 11
- 206010028980 Neoplasm Diseases 0.000 claims abstract description 177
- 201000011510 cancer Diseases 0.000 claims abstract description 163
- 238000001514 detection method Methods 0.000 claims abstract description 72
- 230000007170 pathology Effects 0.000 claims abstract description 23
- 210000004027 cell Anatomy 0.000 claims description 353
- 238000013145 classification model Methods 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 45
- 238000011532 immunohistochemical staining Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 23
- 238000005520 cutting process Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 21
- 210000004881 tumor cell Anatomy 0.000 claims description 18
- 238000010586 diagram Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 7
- 238000004040 coloring Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 12
- 238000004422 calculation algorithm Methods 0.000 description 18
- 230000011218 segmentation Effects 0.000 description 13
- 230000032823 cell division Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000010827 pathological analysis Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 241000220317 Rosa Species 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000003855 cell nucleus Anatomy 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002055 immunohistochemical effect Effects 0.000 description 2
- 238000003364 immunohistochemistry Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 102000004169 proteins and genes Human genes 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 102000004190 Enzymes Human genes 0.000 description 1
- 108090000790 Enzymes Proteins 0.000 description 1
- 239000000427 antigen Substances 0.000 description 1
- 102000036639 antigens Human genes 0.000 description 1
- 108091007433 antigens Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000001744 histochemical effect Effects 0.000 description 1
- 238000013115 immunohistochemical detection Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 238000007447 staining method Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
本发明公开了一种病理图像IHC染色质量评价的装置,该装置包括:图像获取模块,用于获取待测数字病理全片图像;癌区探测模块,用于处理数字病理全片图像生成癌区探测遮罩二值图;细胞分类模块,用于处理数字病理全片图像生成细胞二分类或三分类遮罩图;癌区遮罩叠加模块,用于将所述癌区探测遮罩二值图叠加到数字病理全片图像上,生成癌区探测图像;细胞遮罩叠加模块,用于将所述细胞二分类或三分类遮罩图叠加到数字病理全片图像上,生成细胞分类图像;细胞数量统计模块,用于将所述癌区探测图像与所述细胞分类图像融合,统计癌区\非癌区各类细胞数量和比例。通过本发明,可以对数字病理切片图像IHC染色质量评价进行精准高效的评价。
Description
技术领域
本发明涉及人工智能领域,具体而言,涉及一种病理图像IHC染色质量评价的装置。
背景技术
免疫组织化学染色技术(Immunohistochemistry,简称免疫组化,IHC)是一种广泛用于病理领域用于辅助病理诊断及指导肿瘤治疗的染色方法。其通过抗原抗体酶标显色的化学反应方法,对组织细胞中特定的蛋白质(抗原)进行染色,反映组织中的细胞形态及特定的功能蛋白分子表达情况。
在临床病理诊断中,免疫组织化学检测结果可为病理诊断提供重要信息,对于肿瘤的诊断及分类、判断预后产生了巨大影响。由于免疫组化是一个多步骤、多因素决定的一种实验方法,各实验室采用不同的标本处理方法、不同的修复方法、修复液不同的pH值、不同的检测系统,以及技术人员的操作水平等,导致染色结果有时会出现较大差异,甚至劣质染色片时有发生,对于免疫组化的室内质控(internal quality control,IQC),目前一些实验室未能规范实施,引起染色结果参差不齐,导致病理医生的误诊。所以日常病理诊断工作中免疫组化染色结果的可靠性就受到了极大的关注。
现有的技术中,造成免疫组化室间质控参与率低的原因有两个重要原因:一是需要对染色完成的实体切片进行物流运输,效率低且容易造成运输过程中的破损;二是免疫组化染色质量评价需要有经验的多名病理专家进行现场显微镜下阅片评分,现场评价的效率低。病理专家的时间精力非常有限能同时召集多名专家进行现场评价是件非常困难的事情。
发明内容
为了解决上述免疫组化的染色质量评价效率低的技术问题,本发明提供一种病理图像IHC染色质量评价的装置,通过深度学习算法模型实现数字病理全切片进行精准高效的全片分析,提高病理图片染色质量评价的效率与精准性。
具体的,本发明的技术方案如下:
第一方面,本发明公开一种病理图像IHC染色质量评价的装置,包括:
图像获取模块,用于获取待测的数字病理全片图像;
癌区探测模块,用于将所述数字病理全片图像输入训练好的癌区探测模型中进行癌区探测处理,生成癌区探测遮罩二值图;
细胞分类模块,用于将所述数字病理全片图像输入训练好的细胞分类模型中进行细胞分类处理,生成细胞二分类遮罩图或细胞三分类遮罩图;
癌区遮罩叠加模块,用于将所述癌区探测遮罩二值图,转化为三通道灰度图,对所述三通道灰度图赋色并根据其位置坐标叠加到所述数字病理全片图像上,生成癌区探测图像;
细胞遮罩叠加模块,用于将所述细胞二分类遮罩图或细胞三分类遮罩图对应各自的遮罩通道进行赋色,根据其位置坐标叠加到所述数字病理全片图像上,生成细胞分类图像;
细胞数量统计模块,用于提取所述细胞分类图像的细胞轮廓,计算出细胞质心位置,并基于所述细胞质心位置进行打点膨胀,再统计所述细胞分类图像中的全部细胞总数和各类细胞数量;
所述细胞数量统计模块,还用于将所述癌区探测图像与所述细胞分类图像融合,计算出癌区细胞个数、非癌区细胞个数、癌区各类别细胞个数、非癌区各类别细胞个数,并统计各细胞比例。
在一些实施方式中,所述癌区探测模型的模型结构包含一逐层大卷积核单元结构;所述逐层大卷积核单元结构包括依次连接的下述卷积:
用于降低输入通道维度的1*1卷积、3*3至31*31的逐层大卷积核、用于恢复通道维度的1*1卷积,以及用于使维度间信息融合的两个1*1卷积;其中,所述逐层大卷积核单元结构使用GELU函数作为激活函数。
在一些实施方式中,所述细胞分类模型的模型结构为改进的U-Net模型结构,所述改进的U-Net模型结构为在U-Net模型编码器的最后一个阶段加入池化金字塔;所述池化金字塔,用于对U-Net模型编码器提取的特征进行多尺度融合;
其中,所述池化金字塔对U-Net模型编码器提取的特征进行多尺度融合;具体包括:
通过不同窗口大小的池化采样层来得到不同尺寸的图像特征输出;
通过1*1卷积使得特征输出通道融合;
针对所述不同尺寸的图像特征,采用双线性插值方法进行上采样获取所述图像的原始特征;
通过合并操作将所述图像的原始特征与所述不同尺寸的图像特征进行合并,合并后的图像特征共同作为解码器的输入图像特征。
在一些实施方式中,所述癌区探测模型,在解码器阶段输出单元之前,会提取所述细胞分类模型同阶段的特征向量与所述癌区探测模型的特征向量进行矩阵通道相加,作为癌区探测模型解码器阶段输出单元的特征向量;
所述细胞分类模型,在解码器阶段输出单元之前,会提取所述癌区探测模型同阶段的特征向量与所述细胞分类模型的特征向量进行矩阵通道相加,作为细胞分类模型解码器阶段输出单元的特征向量。
在一些实施方式中,所述癌区探测模块,包括:
第一图像切割模块,用于将所述待测的数字病理全片图像通过滑动窗口切割为小图像;
癌区分割子模块,用于将所述小图像输入至所述癌区探测模型中,对图像中肿瘤区域进行探测划分,并生成对应的癌区探测遮罩二值图;
第一拼接模块,用于将所述生成的癌区探测遮罩二值图根据其对应的小图像块的切割位置顺序进行图像拼接,转化为完整的癌区探测遮罩二值图。
在一些实施方式中,所述细胞分类模块,包括:第二图像切割模块、第二拼接模块,以及细胞二分类子模块或细胞三分类子模块;其中:
所述第二图像切割模块,用于将所述待测的数字病理图像通过滑动窗口切割为小图像;
所述细胞二分类子模块,用于将所述小图像输入至所述细胞分类模型中,对所述小图像肿瘤细胞进行二分类,将肿瘤细胞分类为阴性细胞、阳性细胞,生成对应的细胞二分类遮罩图;
所述细胞三分类子模块,用于将所述小图像输入至所述细胞分类模型中,对所述小图像肿瘤细胞进行三分类,将肿瘤细胞分类为阴性细胞、弱阳性细胞、阳性细胞;生成对应的细胞三分类遮罩图;
所述第二拼接模块,用于将所述细胞二分类遮罩图或所述细胞三分类遮罩图根据其对应的小图像块的切割位置顺序进行图像拼接,转化为完整的细胞二分类遮罩图或细胞三分类遮罩图。
在一些实施方式中,所述一种病理图像IHC染色质量评价的装置还包括模型训练模块,具体包括:
训练集构建子模块,用于将病理切片通过图像扫描仪进行数字化扫描,生成数字病理全片图像;对所述数字病理全片图像上的特征区域进行框选,获取框选后的图像作为训练样本图像,构建训练集;
训练集标注子模块,用于对所述训练集中的训练样本图像进行癌区遮罩和细胞遮罩的标注;
模型学习子模块,用于利用标注后的所述训练样本图像对所述癌区探测模型和所述细胞分类模型进行同步训练。
与现有技术相比,本发明至少具有以下一项有益效果:
1、发明提供的病理图像IHC染色质量评价的装置,通过深度学习算法模型实现数字病理全切片进行精准高效的全片分析,提高病理图片染色质量评价的效率与精准性。
2、数据联合训练,在训练阶段中,由于对于癌区分割模型和对细胞分割分类模型的输入图片是一致的,所以内存只需要读取一次数据便可同时训练两个模型,这大大的增加了两个模型的训练效率。数据联合训练不仅能加速模型训练流程,还可以将两个模型分别提取到的特征当作另一个模型的类似于知识图谱的补充。例如癌区分割模型提取的全局语义特征对于细胞分割分类模型具有指导作用(癌区域内具有较多癌细胞,因此单个细胞分类时癌细胞的可能性会更高,同样的在非癌区域具有较多的阴性细胞,因此单个细胞分类时阴性细胞的可能性会更高)。细胞分割分类模型所学习到的局部纹理特征对于癌区分割模型也能提供补充(在癌区分割的边界处理上,细胞分类模型能够提供更好的局部纹理特征信息)。
3、在癌区探测模型的结构中,采用了逐层大卷积核提高感受野技术,由于在组织病理学中,专业病理医生依靠局部纹理并不能判断当前区域是否为癌区,而是需要大的全局视野的语义信息来提供额外辅助。算法模型针对大组织的感受野设计在癌区分割模型的过程中极为重要。传统的Unet系列模型的感受野通过一系列小卷积核3*3堆叠来提高感受野。相比直接加深卷积层数,采用单个大卷积核可以更高效地提升有效感受野。
4、我们将GELU激活函数用来代替原始的RELU激活函数,具有光滑性的GELU激活函数能够有比较好的泛化性和稳定的优化能力,更能适应医学多种类的图像任务,梯度设置也能较好的避免梯度消失和梯度爆炸。
5、在细胞分类模型中,采用了空间金字塔池化;在实际应用场景中,细胞分类需要周边大尺度的信息做出辅助判断,常规的细胞分类算法中,有效感受野很难捕捉到需要分析的细胞周边信息,忽视了细胞组织层次对细胞分类的影响,在对像素点做判断时,空间周边信息匮乏,导致细胞分类准确性较差。基于此,空间金字塔池化可以用来对编码器提取的特征进行多尺度融合,通过不同窗口大小的池化操作(比如分别为1*1,2*2,3*3,6*6)来得到不同尺寸输出,在每一个像素点附加多尺度的语义信息。有了多尺度上下文语义信息后,最终每个像素点的输出能够更加准确。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对本发明的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1为本发明一种病理图像IHC染色质量评价的装置的一个实施例的结构框图;
图2为本发明一种病理图像IHC染色质量评价的装置中癌区探测模块使用的改进的U-Net++模型中的单元结构图;
图3为本发明一种病理图像IHC染色质量评价的装置中加入的空间金字塔池化的结构示意图;
图4为本发明一种病理图像IHC染色质量评价的装置的数据联合过程示意图;
图5为本发明一种病理图像IHC染色质量评价的装置的另一个实施例的结构框图;
图6为本发明一种病理图像IHC染色质量评价的装置中模型训练模块的结构框图;
图7为本发明一种病理图像IHC染色质量评价的装置中细胞分类模型的细胞计数和比例统计的流程示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其他情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所述描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其他特征、整体、步骤、操作、元素、组件和/或集合的存在或添加。
为使图面简洁,各图中只示意性地表示出了与发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”不仅表示“仅此一个”,也可以表示“多于一个”的情形。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
在本文中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体的连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
具体实现中,本申请实施例中描述的终端设备包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机、家教机或平板计算机之类的其他便携式设备。还应当理解的是,在某些实施例中,所述终端设备并非便携式通信设备,而是具有触摸敏感表面(例如:触摸屏显示器和/或触摸板)的台式计算机。
另外,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
参考说明书附图1,本发明提供的一种病理图像IHC染色质量评价的装置的一个实施例,包括:
图像获取模块10,用于获取待测的数字病理全片图像。
具体的,待测的数字病理全片图像指的是经过免疫组织化学染色技术处理过的病理切片的数字化扫描产生的图像。
癌区探测模块20,用于将所述数字病理全片图像输入训练好的癌区探测模型中进行癌区探测处理,生成癌区探测遮罩二值图。
具体的,本示例采用以改进的U-Net++模型结构作为癌区探测的肿瘤区域分割网络。其中,模型结构可以为已有的常用深度学习模型结构,如FCN、U-Net、DeepLab等,或示例分割模型如Mask、R-CNN,也可以为在已有的语义分割模型或示例结构模型。
细胞分类模块30,用于将所述数字病理全片图像输入训练好的细胞分类模型中进行细胞分类处理,生成细胞二分类遮罩图或细胞三分类遮罩图。
具体的,本示例采用以改进的U-Net模型结构作为分割网络基础架构,模型结构可以为已有的常用语义分割模型结构,如FCN、U-Net++、DeepLab等,或示例分割模型如Mask、R-CNN,也可以为在已有的深度学习模型或示例结构模型。
癌区遮罩叠加模块40,用于将所述癌区探测遮罩二值图,转化为三通道灰度图,对所述三通道灰度图赋色并根据其位置坐标叠加到所述数字病理全片图像上,生成癌区探测图像。
具体的,使用OpenCV库处理,将癌区探测遮罩二值图转化为三通道灰度图。通过逐像素遍历遮罩图,找到标记为癌区的像素位置坐标,将癌区部分的遮罩标为红色,通过正片叠底算法,将红色的遮罩作为上层图像叠加到数字病理全片图像的原片上,生成带有癌区预测遮罩的全片图像,并由后端文件格式转化为Tif数据格式。
细胞遮罩叠加模块50,用于将所述细胞二分类遮罩图或细胞三分类遮罩图对应各自的遮罩通道进行赋色,根据其位置坐标叠加到所述数字病理全片图像上,生成细胞分类图像。
具体的,将每类细胞的对应细胞遮罩标记为不同的颜色,采用正片叠底算法,将分类好的各类细胞,对应不同颜色的遮罩像素的映射到数字病理全片图像的原片上,生成带有全片细胞遮罩的全片图像。
细胞数量统计模块60,用于提取所述细胞分类图像的细胞轮廓,计算出细胞质心位置,并基于所述细胞质心位置进行打点膨胀,再统计所述细胞分类图像中的全部细胞总数和各类细胞数量。
具体的,采用OpenCV库中的操作,对提出的每类细胞遮罩进行轮廓提取,再对提取出的轮廓的质心进行计算。根据计算得到的质心以及质心坐标,在原图像上的对应位置打上类别对应的点,根据需求膨胀对应像素。对每个类别的遮罩依次做此步骤。
所述细胞数量统计模块60,还用于将所述癌区探测图像与所述细胞分类图像融合,计算出癌区细胞个数、非癌区细胞个数、癌区各类别细胞个数、非癌区各类别细胞个数,并统计各细胞比例。
具体的,将模型生成的全片癌区探测遮罩和细胞分类预测遮罩,通过与运算进行合并,将合并后的遮罩叠加到原数字病理全片图像的原片上。通过癌区内细胞分类展示图,对癌区细胞的强阳性、弱阳性、阴性细胞的计数与占比进行统计,可以对癌细胞免疫组化染色质量进行判断,评价免疫组化染色结果的精准度。
优选的,我们可以得到:全片细胞总数、全片强阳性细胞数量、全片弱阳性细胞数量、全片阳性细胞总数、全片阴性细胞数量;也可以对癌区内细胞进行统计,得到:癌区细胞数量、癌区强阳性细胞数量、癌区弱阳性细胞数量、癌区阳性细胞总数、癌区阴性细胞数量;同时也可以对非癌区细胞进行统计,得到:非癌区细胞数量、非癌区强阳性细胞数量、非癌区弱阳性细胞数量、非癌区阳性细胞总数、非癌区阴性细胞数量。
本发明一种病理图像IHC染色质量评价的装置的另一个实施例,在上述装置的一个实施例的基础上,所述癌区探测模型的模型结构为改进的U-Net++模型结构,在U-Net++模型结构的基础上,所述癌区探测模型的模型结构包含一逐层大卷积核单元结构;所述逐层大卷积核单元结构包括依次连接的下述卷积:
用于降低输入通道维度的1*1卷积、3*3至31*31的逐层大卷积核、用于恢复通道维度的1*1卷积,以及用于使维度间信息融合的两个1*1卷积;其中,所述逐层大卷积核单元结构使用GELU函数作为激活函数。
具体的,改进后的U-Net++模型中的单元结构图如说明书附图2所示,改进后的模型单元结构使用逐层大卷积来提高模型感受野,具体是采用一系列K*K由3*3至31*31逐渐变大的卷积核来代替原始的3*3卷积核的堆叠,例如,可以用[7,13,15,17,19]代表编码器中U-Net++模型的5个阶段中深度可分离大卷积K*K的卷积核大小,用来捕捉图像上更大尺度语义信息,同时每个模块中搭配了批处理规范化操作(BatchNormalize,简称BN)和GELU激活函数。接着通过多层感知机单元,即通过两个1*1卷积层进行特征通道间的信息交流。
本发明一种病理图像IHC染色质量评价的装置的另一个实施例,在上述装置的一个实施例的基础上,所述细胞分类模型的模型结构为改进的U-Net模型结构,所述改进的U-Net模型结构为在U-Net模型编码器的最后一个阶段加入池化金字塔;所述池化金字塔,用于对U-Net模型编码器提取的特征进行多尺度融合。
其中,所述池化金字塔对U-Net模型编码器提取的特征进行多尺度融合;具体包括:
(1)通过不同窗口大小的池化采样层来得到不同尺寸的图像特征输出。
具体的,在编码器与解码器阶段之间加入的空间金字塔池化的结构如说明书附图3所示。举例来讲,编码器阶段输出的特征维度为64*64*512。接着通过特征空间池化金字塔进行多尺度语义信息的融合,其中通过不同大小的池化(POOL)采样层,窗口大小分别为1*1,2*2,3*3,6*6;后经过卷积运算(Conv)后得到多尺度特征维度分别为1*1*128,2*2*128,3*3*128,6*6*128。这样做的优点在于可以获取需要分析的细胞周边大尺度的信息,从而在细胞分类过程中通过周边大尺度的信息做出辅助判断,识别细胞组织层次,提高细胞分类的准确性。
(2)通过1*1卷积使得特征输出通道融合。
具体的,在得到不同尺寸的输出之后,接着通过1*1卷积将通道数缩小到原来的1/4。
(3)针对所述不同尺寸的图像特征,采用双线性插值方法进行上采样(Upsample)获取所述图像的原始特征。
(4)通过合并操作将所述图像的原始特征与所述不同尺寸的图像特征进行合并(Concat),合并后的图像特征共同作为解码器的输入图像特征。
本发明一种病理图像IHC染色质量评价的装置的另一个实施例,在上述装置的一个实施例的基础上,所述癌区探测模型,在解码器阶段输出单元之前,会提取所述细胞分类模型同阶段的特征向量与所述癌区探测模型的特征向量进行矩阵通道相加,作为癌区探测模型解码器阶段输出单元的特征向量。
具体的,在癌区探测模型解码器Decode阶段,我们在输出单元之前会先将两个模型的特征进行融合,即将来自细胞分割的解码器中相同阶段下的特征向量X′∈R512*512*128与本模块的X∈R512*512*128进行通道相加后X″∈R512*512*256作为最终输出单元的输入,同时我们将编码器最底层的特征进行双线性插值上采样,并且与各阶段的解码单元进行跳跃连接来加强解码器模块对于全局语义的特征关注。
在本实施例的另一实施方式中,所述细胞分类模型,在解码器阶段输出单元之前,会提取所述癌区探测模型同阶段的特征向量与所述细胞分类模型的特征向量进行矩阵通道相加,作为细胞分类模型解码器阶段输出单元的特征向量。
具体的,在细胞分类模型解码器Decoder阶段,我们在最终输出单元之前会提取膜浆阳癌区分割模型相同阶段的特征来作为细胞分割的解码器下的特征向量X′∈R512*512*128与本模块的X∈R512*512*128进行矩阵通道相加后得到X″∈R512*512*256。最终在输出单元之前会先进行1*1卷积操作来做通道融合,输出模型对全片细胞分类判断的遮罩。通道融合后数据联合过程示意图如图4所示。
本发明一种病理图像IHC染色质量评价的装置的另一个实施例,在上述装置的一个实施例中癌区探测模块20的基础上,如说明书附图5所示,包括:
第一图像切割模块21,用于将所述待测的数字病理全片图像通过滑动窗口切割为小图像。
具体的,使用1024*1024像素的滑窗进行随机裁切一个Batch数量的图片,本实例一个Batch为16个Patch。
癌区分割子模块22,用于将所述小图像输入至所述癌区探测模型中,对图像中肿瘤区域进行探测划分,并生成对应的癌区探测遮罩二值图。
示例性的,使用黑色区域代表图像中的癌区。
第一拼接模块23,用于将所述生成的癌区探测遮罩二值图根据其对应的小图像块的切割位置顺序进行图像拼接,转化为完整的癌区探测遮罩二值图。
具体的,将癌区探测后的16个Patch小图片生成的癌区探测的遮罩图按照切割的原位置进行拼接。
本发明一种病理图像IHC染色质量评价的装置的另一个实施例,如说明书附图5所示,在上述装置的一个实施例中所述细胞分类模块30的基础上,包括:第二图像切割模块、第二拼接模块,以及细胞二分类子模块或细胞三分类子模块。其中:
所述第二图像切割模块31,用于将所述待测的数字病理图像通过滑动窗口切割为小图像。
所述细胞二分类子模块32,用于将所述小图像输入至所述细胞分类模型中,对所述小图像肿瘤细胞进行二分类,将肿瘤细胞分类为阴性细胞、阳性细胞,生成对应的细胞二分类遮罩图。
具体的,在本专利中,根据肿瘤的形态,将全片区域分为阳性、阴性。其他细胞、肿瘤区域分类标准,如:细胞核形态、颜色等也应在本专利的保护范围之内。在细胞分类后在不同的遮罩通道上产生两类细胞的黑白遮罩。
所述细胞三分类子模块33,用于将所述小图像输入至所述细胞分类模型中,对所述小图像肿瘤细胞进行三分类,将肿瘤细胞分类为阴性细胞、弱阳性细胞、阳性细胞,生成对应的细胞三分类遮罩图。
具体的,在本专利中,根据肿瘤的形态,将全片区域分为阳性、弱阳性、阴性。其他细胞、肿瘤区域分类标准,如:细胞核形态、颜色等也应在本专利的保护范围之内。在细胞分类后在不同的遮罩通道上产生三类细胞的黑白遮罩。
所述第二拼接模块34,用于将所述细胞二分类遮罩图或所述细胞三分类遮罩图根据其对应的小图像块的切割位置顺序进行图像拼接,转化为完整的细胞二分类遮罩图或细胞三分类遮罩图。
本发明一种病理图像IHC染色质量评价的装置的另一个实施例,在上述装置的一个实施例的基础上,所示还包括模型训练模块,如说明书附图6,具体包括:
训练集构建子模块01,用于将病理切片通过图像扫描仪进行数字化扫描,生成数字病理全片图像;对所述数字病理全片图像上的特征区域进行框选,获取框选后的图像作为训练样本图像,构建训练集。
具体的,模型训练中,采用训练集为约100张数字病理扫描图像原始图像SVS,每张SVS的标注框Region约为7—10个,导出在训练集中被框定的ROI区域,在该区域内,使用1024像素*1024像素的滑窗进行随机裁切一个Batch数量的图片,本实例一个Batch为16个Patch。
训练集标注子模块02,用于对所述训练集中的训练样本图像进行癌区遮罩和细胞遮罩的标注。
具体的,在准备数据集的时候,对同一批的图像切片进行联合标注,即对一张图片进行癌区遮罩的mask和细胞mask的同时标注,以制作一个适用于数据联合的训练集。在训练阶段中,由于对于癌区分割模型和对细胞分割分类模型的输入图片是一致的,所以内存只需要读取一次数据便可同时训练两个模型,这大大的增加了两个模型的训练效率。示例性的,肿瘤区域标注为淡红色。细胞二分类模块中,阴性细胞为绿色、阳性细胞为正红色。细胞三分类模块中,阴性细胞为绿色、弱阳性细胞为黄色,强阳性细胞为玫红色。
模型学习子模块03,用于利用标注后的所述训练样本图像对所述癌区探测模型和所述细胞分类模型进行同步训练。
具体的,将随机切割的小图Patch与对应位置的标签文件作为训练数据,输入到模型中进行训练。
优选的,在细胞分类模型训练时,将随机切割的小图作为训练数据,与对应位置的标签文件,将细胞标签半径膨胀5像素,将标签文件按照背景、阴性、阳性分为三个文件夹,将标签设为图像的白色前景。
癌区探测模型和细胞分类模型同步训练时,设置批处理大小设为16,学习率为0.001,最大迭代次数为2000迭代轮次,损失函数为WeightedCELoss+Diceloss混合函数,采用AdamW优化算法进行模型训练。
本发明提供的一种病理图像IHC染色质量评价的装置的另一实施例,包括:
a.病理切片全片扫描模块:将待分析的病理切片通过扫描仪进行数字化扫描,生成数字病理切片全片(WSI),将生成的数字图像输入到模型中进行预测。
b.深度学习算法模块进行预测模块:通过事先训练好的深度学习算法模型,对待预测图像进行分析。本算法模块包含对癌区进行划分、切割的癌区探测模型,也包括能对肿瘤细胞进行分类的细胞分类模型。其中,细胞分类模型既包括对病理切片图像肿瘤细胞进行二分类,将肿瘤细胞分类为阴性细胞、阳性细胞。也包括对病理切片图像肿瘤细胞进行三分类,将肿瘤细胞分类为阴性、弱阳、强阳性细胞。
c.癌区分割算法模块:采用基于U-net++的语义分割深度学习模型,通过训练好的预装模型对输入的图像进行逐像素的分析,生成由模型预测生成的癌区区域判断遮罩。在生成的遮罩中,前景为预测出的癌区区域,背景为其他区域。
d.细胞分类算法模块:(1)细胞二分类模块:使用基于U-net++多分类语义分割的深度学习算法模型,对待分析的图像进行逐像素的细胞分类。将全片的肿瘤细胞分类为阴性、阳性细胞,并通过不同的两种颜色进行标记识别,通过模型预测生成的遮罩,前景为阴性、阳性的色彩标识,背景为黑色的其他区域。(2)细胞三分类模块:使用基于U-net++多分类语义分割的深度学习算法模型,对待分析的图像进行逐像素的细胞分类。将全片的肿瘤细胞判断为阴性、弱阳、强阳性细胞,并通过不同的三种颜色进行标记识别,通过模型预测生成的遮罩,前景为阴性、弱阳、强阳性细胞的色彩标识,背景为黑色的其他区域。
e.癌区遮罩算法模块预测模块:将待预测的数据输入到癌区分割算法模块中,通过训练好基于语义分割深度学习的癌区分割模块算法,将图像中肿瘤区域进行预测划分,并生成对应区域的二值图遮罩。
f.癌区遮罩展示转化模块:将癌区分割算法模块预测出的癌区遮罩单通道二值图,通过OpenCV库处理,将图像转化为三通道灰度图。通过逐像素遍历遮罩图,找到标记为癌区的像素位置坐标,采用正片叠底算法,将红色的遮罩作为上层图像,叠加到原始图像SVS上,生成了带有红色癌区标记的预测图像,并由后端文件格式转化为Tif数据格式。
g.细胞分类遮罩预测模块:将预测数据输入到细胞分类模型中,通过模型训练好的基于语义分割的细胞分类模型,将图像中不同种类的肿瘤细胞进行逐像素的分类和判别。其中,在细胞二分类中,将细胞分为阴性、阳性细胞,对应模型生成的遮罩色彩为绿色、红色。在细胞三分类中,将细胞分为阴性、弱阳性、强阳性细胞,对应模型生成的细胞遮罩色彩为绿色、黄色、玫红色。
h.细胞分类遮罩分类提取模块:将模型生成的细胞分类遮罩,通过颜色进行提取类别,按照不同的模型要求,提取出不同类别的细胞遮罩,如:在细胞二分类模型中,将模型生成的遮罩提取出阴性细胞、阳性细胞两类遮罩;在细胞三分类模型中,将模型生成的遮罩提取出阴性细胞、弱阳细胞、强阳细胞三类遮罩。每类遮罩中,提出的细胞遮罩作为前景,为白色。黑色为其他类别细胞与背景,为黑色。
i.细胞分类遮罩轮廓提取模块:采用OpenCV库中的操作,对提出的每类细胞遮罩进行轮廓提取,再对提取出的轮廓的质心进行计算。根据计算得到的质心以及质心坐标,在原图像上的对应位置打上类别对应的点,根据需求膨胀对应像素。对每个类别的遮罩依次做此步骤。
j.细胞计数模块:在步骤i中,当对不同类别的细胞提取出遮罩后,对各个类别的细胞遮罩做轮廓提取时,根据提取出的轮廓个数,确定对应类别的细胞个数。通过此步骤,我们可以计算出全片细胞个数,以及各个类别的细胞个数。
k.癌区与肿瘤区域重叠遮罩模块:在得到模型对癌区区域的预测遮罩和全片不同种类的细胞类别遮罩后,将癌区的遮罩与细胞分类的遮罩进行交集运算,将两类遮罩中前景都存在的区域设为交集,通过正片叠底算法,将交集区域内映射到原片中。在此步骤中可以得到癌区细胞个数、非癌区细胞个数、癌区各类别细胞个数、非癌区各类别细胞个数等信息。
l.细胞比例统计模块:将得到的细胞计数信息进行统计和计算,通过公式计算得到:全片强阳细胞百分比、全片弱阳细胞百分比、全片阴性细胞百分比、癌区强阳细胞百分比、癌区弱阳细胞百分比、癌区阴性细胞百分比、非癌区强阳细胞百分比、非癌区弱阳细胞百分比、非癌区阴性细胞百分比、癌区细胞阳性百分比、癌区细胞阴性细胞百分比、非癌区细胞阳性百分比、非癌区细胞阴性细胞百分比等信息。最终形成对待分析图像的肿瘤区域、细胞预测与数据分析。
具体的,关于细胞分类模型中细胞计数和比例统计的流程示意图如图7所示,在细胞分类模型生成细胞分类遮罩之后,会对不同种类的细胞遮罩进行赋色,例如,在细胞二分类模块中,阴性细胞遮罩为绿色、阳性细胞遮罩为红色;在细胞三分类模块中,阴性细胞遮罩为绿色、弱阳性细胞遮罩为黄色,强阳性细胞遮罩为红色。对细胞遮罩进行赋色之后可以更加直观的从图中看出不同种类的细胞分布情况,也可以更方便的进行细胞遮罩的轮廓提取和细胞数量统计。
指定区域中指定类别的细胞数量统计也与此类似,在此不过多阐述。
具体的,各类型的计算公式如下:
(1)全片细胞比例统计:
全片强阳性细胞百分比=全片强阳性细胞数/全片细胞总数量*100%
全片弱阳性细胞百分比=全片弱阳性细胞数/全片细胞总数量*100%
全片阳性细胞总百分比=(全片强阳性细胞数+全片弱阳性细胞数)/全片细胞总数量*100%
(2)癌区细胞比例统计:
癌区强阳性细胞百分比=癌区强阳性细胞数/癌区细胞数量*100%
癌区弱阳性细胞百分比=癌区弱阳性细胞数/癌区细胞数量*100%
癌区阳性细胞总百分比=(癌区强阳性细胞数+癌区弱阳性细胞数)/癌区细胞数量*100%
(3)非癌区细胞比例统计:
非癌区强阳性细胞百分比=非癌区强阳性细胞数/非癌区细胞数量*100%
非癌区弱阳性细胞百分比=非癌区弱阳性细胞数/非癌区细胞数量*100%
非癌区阳性细胞总百分比=(非癌区强阳性细胞数+非癌区弱阳性细胞数)/非癌区细胞数量*100%
免疫组化的性能评价指标计算方法如下:
精确率=细胞分类正确的像素数/预测的细胞总数
召回率=细胞分类正确的像素数/实际的细胞总数
F1-score=2×精确率×召回率/(精确率+召回率)
本发明是参照根据本发明实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框,以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (7)
1.一种病理图像IHC染色质量评价的装置,其特征在于,包括:
图像获取模块,用于获取待测的数字病理全片图像;
癌区探测模块,用于将所述数字病理全片图像输入训练好的癌区探测模型中进行癌区探测处理,生成癌区探测遮罩二值图;
细胞分类模块,用于将所述数字病理全片图像输入训练好的细胞分类模型中进行细胞分类处理,生成细胞二分类遮罩图或细胞三分类遮罩图;
癌区遮罩叠加模块,用于将所述癌区探测遮罩二值图,转化为三通道灰度图,对所述三通道灰度图赋色并根据其位置坐标叠加到所述数字病理全片图像上,生成癌区探测图像;
细胞遮罩叠加模块,用于将所述细胞二分类遮罩图或细胞三分类遮罩图对应各自的遮罩通道进行赋色,根据其位置坐标叠加到所述数字病理全片图像上,生成细胞分类图像;
细胞数量统计模块,用于提取所述细胞分类图像的细胞轮廓,计算出细胞质心位置,并基于所述细胞质心位置进行打点膨胀,再统计所述细胞分类图像中的全部细胞总数和各类细胞数量;
所述细胞数量统计模块,还用于将所述癌区探测图像与所述细胞分类图像融合,计算出癌区细胞个数、非癌区细胞个数、癌区各类别细胞个数、非癌区各类别细胞个数,并统计各细胞比例。
2.如权利要求1所述的一种病理图像IHC染色质量评价的装置,其特征在于:
所述癌区探测模型的模型结构包含一逐层大卷积核单元结构;所述逐层大卷积核单元结构包括依次连接的下述卷积:
用于降低输入通道维度的1*1卷积、3*3至31*31的逐层大卷积核、用于恢复通道维度的1*1卷积,以及用于使维度间信息融合的两个1*1卷积;其中,所述逐层大卷积核单元结构使用GELU函数作为激活函数。
3.如权利要求1所述的一种病理图像IHC染色质量评价的装置,其特征在于:
所述细胞分类模型的模型结构为改进的U-Net模型结构,所述改进的U-Net模型结构为在U-Net模型编码器的最后一个阶段加入池化金字塔;所述池化金字塔,用于对U-Net模型编码器提取的特征进行多尺度融合;
其中,所述池化金字塔对U-Net模型编码器提取的特征进行多尺度融合;具体包括:
通过不同窗口大小的池化采样层来得到不同尺寸的图像特征输出;
通过1*1卷积使得特征输出通道融合;
针对所述不同尺寸的图像特征,采用双线性插值方法进行上采样获取所述图像的原始特征;
通过合并操作将所述图像的原始特征与所述不同尺寸的图像特征进行合并,合并后的图像特征共同作为解码器的输入图像特征。
4.如权利要求1所述的一种病理图像IHC染色质量评价的装置,其特征在于:
所述癌区探测模型,在解码器阶段输出单元之前,会提取所述细胞分类模型同阶段的特征向量与所述癌区探测模型的特征向量进行矩阵通道相加,作为癌区探测模型解码器阶段输出单元的特征向量;
所述细胞分类模型,在解码器阶段输出单元之前,会提取所述癌区探测模型同阶段的特征向量与所述细胞分类模型的特征向量进行矩阵通道相加,作为细胞分类模型解码器阶段输出单元的特征向量。
5.如权利要求1所述的一种病理图像IHC染色质量评价的装置,其特征在于,所述癌区探测模块,包括:
第一图像切割模块,用于将所述待测的数字病理全片图像通过滑动窗口切割为小图像;
癌区分割子模块,用于将所述小图像输入至所述癌区探测模型中,对图像中肿瘤区域进行探测划分,并生成对应的癌区探测遮罩二值图;
第一拼接模块,用于将所述生成的癌区探测遮罩二值图根据其对应的小图像块的切割位置顺序进行图像拼接,转化为完整的癌区探测遮罩二值图。
6.如权利要求1所述的一种病理图像IHC染色质量评价的装置,其特征在于,所述细胞分类模块,包括:第二图像切割模块、第二拼接模块,以及细胞二分类子模块或细胞三分类子模块;其中:
所述第二图像切割模块,用于将所述待测的数字病理图像通过滑动窗口切割为小图像;
所述细胞二分类子模块,用于将所述小图像输入至所述细胞分类模型中,对所述小图像肿瘤细胞进行二分类,将肿瘤细胞分类为阴性细胞、阳性细胞,生成对应的细胞二分类遮罩图;
所述细胞三分类子模块,用于将所述小图像输入至所述细胞分类模型中,对所述小图像肿瘤细胞进行三分类,将肿瘤细胞分类为阴性细胞、弱阳性细胞、阳性细胞;生成对应的细胞三分类遮罩图;
所述第二拼接模块,用于将所述细胞二分类遮罩图或所述细胞三分类遮罩图根据其对应的小图像块的切割位置顺序进行图像拼接,转化为完整的细胞二分类遮罩图或细胞三分类遮罩图。
7.如权利要求1-6任一项所述的一种病理图像IHC染色质量评价的装置,其特征在于,还包括模型训练模块,所述模型训练模块具体包括:
训练集构建子模块,用于将病理切片通过图像扫描仪进行数字化扫描,生成数字病理全片图像;对所述数字病理全片图像上的特征区域进行框选,获取框选后的图像作为训练样本图像,构建训练集;
训练集标注子模块,用于对所述训练集中的训练样本图像进行癌区遮罩和细胞遮罩的标注;
模型学习子模块,用于利用标注后的所述训练样本图像对所述癌区探测模型和所述细胞分类模型进行同步训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310270684.6A CN116416615A (zh) | 2023-03-20 | 2023-03-20 | 一种病理图像ihc染色质量评价的装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310270684.6A CN116416615A (zh) | 2023-03-20 | 2023-03-20 | 一种病理图像ihc染色质量评价的装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116416615A true CN116416615A (zh) | 2023-07-11 |
Family
ID=87052536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310270684.6A Pending CN116416615A (zh) | 2023-03-20 | 2023-03-20 | 一种病理图像ihc染色质量评价的装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116416615A (zh) |
-
2023
- 2023-03-20 CN CN202310270684.6A patent/CN116416615A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11756318B2 (en) | Convolutional neural networks for locating objects of interest in images of biological samples | |
US11682192B2 (en) | Deep-learning systems and methods for joint cell and region classification in biological images | |
CN110023994B (zh) | 组织病理学图像分析 | |
CN111448569B (zh) | 存储和检索数字病理学分析结果的方法 | |
WO2018156133A1 (en) | Method and system for assisting pathologist identification of tumor cells in magnified tissue images | |
US10121245B2 (en) | Identification of inflammation in tissue images | |
CN113574534A (zh) | 使用基于距离的相似性标签的机器学习 | |
US11959848B2 (en) | Method of storing and retrieving digital pathology analysis results | |
CN114945941A (zh) | 用于支持肿瘤检测和分析的非肿瘤分割 | |
US20200175325A1 (en) | Systems and methods for encoding image features of high-resolution digital images of biological specimens | |
EP3440629B1 (en) | Spatial index creation for ihc image analysis | |
CN114600155A (zh) | 用于细胞检测和分割的弱监督多任务学习 | |
CN112990214A (zh) | 一种医学图像特征识别预测模型 | |
CN111489369B (zh) | 幽门螺杆菌的定位方法、装置和电子设备 | |
CN115359264A (zh) | 一种密集型分布的粘连细胞深度学习识别方法 | |
US20230411014A1 (en) | Apparatus and method for training of machine learning models using annotated image data for pathology imaging | |
Solorzano et al. | Towards automatic protein co-expression quantification in immunohistochemical TMA slides | |
CN116386037A (zh) | 一种病理图像ihc染色膜浆表达细胞分类装置和方法 | |
CN115266282B (zh) | 基于HE染色、Ki67、P16三种方法结合的病理图像自动识别方法 | |
CN116416615A (zh) | 一种病理图像ihc染色质量评价的装置 | |
CN117529750A (zh) | 使用多重免疫荧光成像的组织学染色的数字合成 | |
WO2020237185A1 (en) | Systems and methods to train a cell object detector | |
Gupta et al. | Microscopy cancer cell imaging in b-lineage acute lymphoblastic leukemia | |
US20230307132A1 (en) | Hybrid and accelerated ground-truth generation for duplex arrays | |
CN115862008A (zh) | 一种ihc核表达病理图像细胞分类装置和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |