CN111819569A - 对组织切片图像的虚拟染色 - Google Patents

对组织切片图像的虚拟染色 Download PDF

Info

Publication number
CN111819569A
CN111819569A CN201880090874.7A CN201880090874A CN111819569A CN 111819569 A CN111819569 A CN 111819569A CN 201880090874 A CN201880090874 A CN 201880090874A CN 111819569 A CN111819569 A CN 111819569A
Authority
CN
China
Prior art keywords
image
tissue
stain
stained
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880090874.7A
Other languages
English (en)
Other versions
CN111819569B (zh
Inventor
M.斯坦普
P.尼尔森
L.彭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Verily Life Sciences LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to CN202311269257.2A priority Critical patent/CN117456023A/zh
Publication of CN111819569A publication Critical patent/CN111819569A/zh
Application granted granted Critical
Publication of CN111819569B publication Critical patent/CN111819569B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/30Staining; Impregnating ; Fixation; Dehydration; Multistep processes for preparing samples of tissue, cell or nucleic acid material and the like for analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/30Staining; Impregnating ; Fixation; Dehydration; Multistep processes for preparing samples of tissue, cell or nucleic acid material and the like for analysis
    • G01N2001/302Stain compositions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

训练机器学习预测器模型以从未染色或用H&E染色的输入图像中生成用特殊染色剂(诸如IHC染色剂)染色的组织样品的显现的预测。训练数据采用成千上万精确对齐的图像对的形式,所述图像对中的一个是用H&E染色或未染色的组织样本的图像,而另一个是用特殊染色剂染色的组织样本的图像。可以训练模型以预测大量不同组织类型和特殊染色类型的特殊染色图像。在使用中,将输入图像、例如以特定放大率级别的给定组织样本的H&E图像提供给模型,并且该模型产生对组织样本的显现的预测,就好像其用特殊染色剂染色一样。预测的图像被提供给用户并显示在例如病理工作站上。

Description

对组织切片图像的虚拟染色
背景技术
本公开涉及一种从组织样本的输入图像中产生具有被(一个或多个)具体的特殊染色化学品(诸如免疫组织化学染色剂)染色的显现的组织样本的人造或虚拟图像的方法。输入图像可以是组织样本的未染色的图像,或者可以是被第一染色剂(通常是苏木精和曙红(Hematoxylin and Eosin,H&E))染色的组织样本的图像。
组织学组织图像通常用H&E染色以突出组织形态,称为“常规染色”的一种过程。存在更特定的染色剂(在本领域中称为“特殊染色剂”(例如,免疫组织化学染色剂(Immunohistochemical Stains,IHC))用以突出特定的靶标(例如,非常特定的肿瘤标志物或细胞或组织结构)。宽松地说,这可以看作是非常特定的图像重新着色。特殊染色剂的示例包括用于检测乳腺癌样本中特定基因突变标志物的HER2染色剂、用于前列腺样品的PIN4(也称为“前列腺三重染色剂”(P504S、HMW角蛋白、P63))、用于肺癌组织的Verhoeff染色剂和用于淋巴结组织的CK7和AE1/AE3混合液染色剂。
由于染色剂本身的成本(其中一些染色剂本身的成本比H&E染色剂的价格昂贵五倍)和劳动和设备的成本,因此相对昂贵来获得用特殊染色剂染色的组织样本的图像。另外,通常没有足够的组织可用于病理医生可能想获取的用于诊断的所有染色图像,通常每个染色图像都需要从一块组织中的分离的一片组织。获取其他特殊染色图像通常也需要花费大量额外时间。因此,在某些情况下,例如在肺癌中,希望获得用许多不同的IHC染色剂染色的样本的图像,但是,如果不获得进一步的活检,获得这样的图像既昂贵又可能无法实现,或者无论如何都会导致诊断的延迟。本公开的方法解决并且优选地克服了这些限制中的一个或多个。我们公开了如何从组织样本的输入图像对于一套特殊染色剂生成虚拟特殊染色的图像。输入的图像可能是未染色的,或者是用普通的H&E染色剂染色的。
该方法旨在具有应用和益处,包括以下一个或多个:(1)减少所需要的实际染色的数量,从而降低成本并消除获取额外特殊染色的图像的额外延迟,(2)为病理医生提供实际的特殊染色的图像或特殊染色的图像组的可能的显现预览,用于病理医生决定他们需要订购什么图像;以及(3)提供可视化和解释以补充其他预测(诸如针对组织样品的肿瘤检测、分类或预测)。
在本文档中,术语“特殊染色剂”定义为表示除了苏木精和曙红(H&E)以外的、用于帮助可视化和/或识别在生物样本中的结构和物质的染色剂。这些包括其中的免疫组织化学染色剂(诸如用于检测乳腺癌样本中特定基因突变标记的HER2染色剂、用于前列腺样品的PIN4和“前列腺三重染色剂”(P504S、HMW角蛋白、P63)、以及用于淋巴结组织的CK7染色剂)以及在病理学中使用的其他类型的染色剂(包括但不限于用于分枝杆菌的耐酸染色剂、用于淀粉样蛋白的刚果红、用于细菌的革兰氏染色剂(多种方法)、用于真菌的Grocott的甲基苯二胺银(Grocott’s Methenamine Silver,GMS)、用于基底膜和中膜的Jones甲基苯丙胺银、用于脱髓鞘的Luxol固蓝PAS、用于胶原蛋白和肌肉的Masson三色、高碘酸Schiff(Periodic Acid-Schiff,PAS)、用于纤维蛋白的磷钨酸苏木精(Phosphotungstic Acid-Hematoxylin,PTAH)、用于三价铁的普鲁士蓝、用于脂质和脂质染料的苏丹黑、用于弹性蛋白的Verhoeff染色剂、以及用于细菌的Warthin-Starry染色剂)。
发明内容
一般而言,我们在下面描述了一种用于生成机器学习预测器模型的系统,该模型预测组织样品的特殊染色图像。该系统包括:a)数据存储,该数据存储包含给定组织类型的组织样品的大量对齐的图像对,其中每个图像对由未染色或H&E染色(通常“第一染色”)的组织样品的第一图像和用不同于第一染色的第二染色(通常是特殊染色剂)染色的组织样品的第二图像组成;b)计算机系统,该计算机系统被配置为机器学习预测器模型,从数据存储中的大量对齐的图像对中训练所述机器学习预测器模型以输入图像中生成被特殊染色剂染色的组织样品的预测图像,所述输入图像具有图像对中的第一图像的类型(即,H&E染色的、或未染色的),并且具有给定组织类型。
请注意,用于模型的数据存储中的对齐的图像对尽可能紧密或精确地对齐;也就是说,它们具有低于阈值(诸如1或2个像素)的、在相应图像中的对齐的对应点之间的平均距离。例如,阈值可以使得用在实践中使用的对齐过程不可能进行更精确的对齐。
本公开的第一特定表达是用于生成预测组织样品的特殊染色图像的机器学习预测器模型的系统,其组合地包括:
a)数据存储,所述数据存储包含给定组织类型的组织样品的大量对齐的图像对,其中每个图像对由未染色或H&E染色的组织样品的第一图像和被特殊染色剂染色的组织样品的第二图像组成;
b)计算机系统,该计算机系统被配置为机器学习预测器模型,从数据存储中的大量对齐的图像对中训练机器学习预测器模型以输入图像中生成被特殊染色剂染色的组织样品的预测图像,该输入图像具有图像对的第一图像的类型(染色的、或未染色的),并且具有给定组织类型。
在一种配置中,特殊染色剂是本文档中提到多次的IHC染色剂的形式。它可能是HER2、PIN4或“前列腺三重染色”(P504S、HMW角蛋白、P63)、Verhoeff染色剂和CK7染色剂中的任何一个(或多个)。具体的特殊染色剂可能取决于组织类型。在一种配置中,给定组织类型是以下类型中的一个:乳房组织、前列腺组织、淋巴结组织和肺组织。
在一个可能的实施例中,数据存储包含不同组织类型和不同特殊染色剂类型的大量图像对。这样的图像数据集合既可以从一个或多个公共或私有源获取,也可以专门精选用于预测器模型的开发。该计算机系统为不同的组织类型和染色类型的每个实现不同的机器学习预测器模型。
适用于当前目的的机器学习预测器模型的示例包括生成式对抗网络、自我监督学习神经网络、卷积神经网络和用于密集分割的卷积神经网络(例如称为“U-Net”的卷积神经网络)。
在另一方面,公开了一种计算机系统,所述计算机系统包括实现一个或多个(或更优选地多个:“套”)机器学习预测器模型的一个或多个处理单元以及存储器,所述模型从代表给定组织样品的未染色的或H&E染色的输入图像的数据中,生成具有给定相应组织类型的组织样品的虚拟特殊染色的图像的显现的预测的形式的数据。
在另一方面,提供了一种用于生成被特殊染色剂染色的组织样本的虚拟图像的方法,该方法包括以下步骤:
获取输入图像;
将输入图像提供给从组织样本大量对齐的图像对中训练的机器学习预测器模型,该图像对中的一个图像包括被特殊染色剂染色的组织样本的图像,该模型经过训练以预测被特殊染色剂染色的组织样本的图像;
利用预测模型,生成被特殊染色剂染色的组织样本的预测图像,以及
将预测图像显示为虚拟图像。
在一种可能的布置中,输入图像是处于未染色状态的组织样本的图像。可替代地,输入图像是被H&E染色的组织样本的图像。特殊染色剂可以采取任何商业的IHC染色的形式。组织样本可以是包括以下多个可能的类型中的一种:乳腺组织、前列腺组织、淋巴结组织和肺组织。
在另一方面,公开了一种训练机器学习预测器模型的方法。该方法包括步骤a)获得给定组织类型的组织样品的大量对齐的图像对,其中每个图像对由未染色的或用H&E染色的组织样品的第一图像和被特殊染色剂染色的样本组织的第二图像组成;步骤b)提供大量对齐的图像对作为机器学习预测器模型的训练数据,该模型学习从输入图像中预测被特殊染色剂染色的组织样本的图像,该输入图像具有图像对的第一图形的类型(染色的,未染色的)并且具有给定组织类型。
对于以上定义的每个方法,本发明还提供了存储程序指令的相应计算机程序产品(例如,有形的机器可读记录介质,但也可以是可通过通信网络下载的软件),该程序指令在由处理器实现时使处理器执行该方法。本公开还为每个计算机程序产品提供了相应的计算机系统,该计算机系统包括处理器和存储该计算机程序产品的存储器。
附图说明
图1是用H&E染色的组织样本的低放大率完整切片图像和示出如果被IHC染色剂染色后将如何显现的组织样本的虚拟或人造图像的示意图。
图2是用H&E染色的组织样本的高放大率图像和示出如果被IHC染色剂染色后将如何显现的相同样本的虚拟图像的示意图。
图3是从组织块中获取组织部分以便生成用于训练机器学习预测器模型的训练图像的多个可能方法的示意图。
图4A-图4D是通过使用图3中所示的方法获得的图像组。
图5是组织样本的低放大率图像,显示了训练图像中可能存在的某些边缘效应。在一个实施例中,训练图像中包含组织边缘的部分在模型训练中不被使用,以避免由于这种边缘效应而对模型进行不适当的训练。
图6A-图6C是组织样本的三个不同图像:图6A是H&E染色的输入图像,图6B是图6A所示的组织样本的实际IHC染色的图像,图6C是由机器学习预测器模型预测的图6A所示的组织样本的虚拟IHC染色的图像。
图7是示出用于训练机器学习预测器模型以从输入的图像对中预测特殊染色的图像的模型训练过程的流程图。输入的图像对可以采取未染色图像+特殊染色的图像或染色的图像(通常为H&E染色的图像)+特殊染色的图像的形式。针对不同类型的特殊染色图像和不同的组织类型重复图7的过程,以建立机器学习预测器模型的套或复杂度以生成大量组织和染色类型的虚拟染色的图像。
图8是示出使用根据图7训练的机器学习预测器模型的过程的流程图。
图9是病理医生使用的工作站的示意图,该工作站具有简单的用户界面工具来选择要在工作站上查看的组织图像、并选择由机器学习预测器模型预测并随后在工作站上显示的一个或多个虚拟特殊染色图像。
图10是示出其中可以实践本公开的方法的计算环境的框图。
具体实施方式
如上所述,本公开的方法提供了从输入图像(可以是未染色的图像或者用H&E染色的样本的图像)生成示出如同被特殊染色剂(诸如IHC染色剂)染色的样本的显现的组织样本的虚拟染色的图像。
例如,图1是用H&E染色的组织样本的低放大率完整切片图像10和示出了如果被特殊染色剂(在该实例中,IHC染色剂CD3)染色将如何显现的组织样本的虚拟或人造图像12的示意图。箭头14指示如下所述的经过训练的机器学习预测器模型接收完整切片图像10作为输入并预测虚拟图像12的显现。预测的图像被显示给用户,例如在由病理医生使用工作站的显示器上。
机器学习预测器模型的训练可以在不同的放大率级别、例如低放大率(例如5或10X)、中放大率(例如20X)和高放大率(例如40X)上进行。因此,该模型可以从低、中或高放大率输入图像来预测特殊染色的图像。图2是用H&E染色的前列腺组织样本的高放大率图像20和示出了如果用IHC染色剂(在这种情况下,PIN4特殊染色剂)将如何显现的相同样本的虚拟图像22的示意图。
我们将在下面详细介绍如何预测这些虚拟染色图像的两个方面:1)生成并训练机器学习预测器模型以从输入图像中预测特殊染色的图像,以及2)在训练后使用训练后的预测器模型从输入图像生成虚拟染色的图像。
训练
我们的训练过程包括收集各种组织类型(例如前列腺、肺、乳腺等)的大量(例如数千个)相同组织样品的图像对,其中所述图像对中的一个图像是组织样品的特殊染色的图像。图像对可以是,例如
(1)未染色的图像和特殊染色的图像(例如相同的组织样本的IHC图像),和/或
(2)相同的组织样本的H&E图像和特殊染色的图像。然后将这些图像对彼此精确对齐、并将其用作训练数据以训练机器学习预测器模型以从输入图像预测特殊染色的图像。
这样的图像对可以从来自组织块的连续组织样本或从未染色的、成像的,然后再特殊染色的、成像的单个组织样本、或者被H&E染色的、去染色的,然后被特殊染色剂再染色的获得单个组织样本获得。
图3示出了福尔马林固定的石蜡包埋的组织块30,其中用超薄切片机(microtome)切割组织块的连续(相邻)部分,并如本领域常规将其置于载玻片上。在一个可能的实施例中,第一部分32用H&E染色。与第一部分32相邻的第二部分34用IHC或其他特殊染色剂染色。染色后的部分32和部分34用常规的高分辨率RGB全玻片扫描仪(whole slide scanner)以不同的放大率(诸如5X、10X、20X和40X)进行全玻片成像。该过程产生图像36和38,其中图像36是样本的10XH&E染色的图像,而图像38是样本的10XIHC染色的图像,未示出其他放大率的图像。
另一种方法是:截取部分、诸如组织块的第三部分40,用H&E对其进行染色,然后用全玻片扫描仪以不同的放大率对其进行扫描,得到图像组,其中一个图像在42处示出,然后对样本进行去染色,然后用IHC或其他特殊染色剂对样本进行再染色,并以不同的放大率生成具有IHC染色剂的样本的新图像组,其中一个图像在44处示出。PCT申请序列号PCT/US18/13353在2018年1月11日提交的描述用于对组织样本去染色、再染色和成像的方法,其描述通过引用合并于此。
虽然图3示出了用H&E染色的组织样品的初始步骤,但可以对未染色的图像执行以下所述的方法,在这种情况下,将组织块的一部分切除,在未染色的条件下以各种放大率成像,然后被特殊染色剂染色,然后以相同的放大率成像。可以对组织块的多个不同部分重复此过程,并对这些部分施加不同的特殊染色剂,以构建具有不同特殊染色剂的图像对(未染色的/染色的)的组。同样,可以重复图3的过程,以生成针对不同特殊染色剂的H&E/特殊染色剂图像对的组。图4A-图4D更详细地示出了从图3的过程生成的图像的组,其中图4A是来自第一部分32的H&E染色的样本的图像36,图4B是来自相邻的第二部分34的IHC图像38。图4C是来自部分40的H&E染色的图像42,图4D是来自部分3(40)的再染色的IHC图像44。图4A和4B的图像可以形成用于模型训练的一图像对。类似地,图4C和图4D的图像可被视为用于模型训练的另一图像对。另外,图4C和图4B的图像可被视为用于模型训练的另一图像对。
下面将结合图7使用从图3的过程生成的图像对来更详细地描述模型训练过程。应该注意,获取和对齐图像对的过程将执行很多次,也许成千上万次,以建立一个庞大的图像对的训练组。应该执行图像对的非常精确的对齐,以便在模型训练期间使用精确对齐的图像。这种对齐可以包括使图像变形以确保尽管图像之间存在潜在的组织变形,但是仍然使细胞细节对齐。通过使用单个组织样本的再染色(图3和图4C和图4D,图像42、44),只要在再染色期间基本上不干扰组织样本,就可以获得非常精确对齐的图像。
图5是组织样本的低放大率图像,其示出了某些边缘效应,该边缘效应可能存在于训练图像中,并且应该在模型训练过程中去除,即在模型训练期间不考虑。区域50示出了在图5的图像中存在的组织的边缘中的撕裂,并且该撕裂对于图5中所示的组织样本可能是唯一的,即,在相邻的组织部分中不存在。由于在将样本放置在载玻片上、对载玻片染色或在载玻片上放置盖玻片期间处理样本而导致撕裂。这种撕裂可能不会出现在来自组织块的相邻部分的图像中,因此在此区域中使用图像数据(以及来自没有撕裂的组织块的相邻部分的图像)可能会对学习或训练机器学习预测器模型产生不利影响。撕裂不是相邻部分之间唯一可能的物理边缘效应或差异。脆弱的组织样品有时可能在边缘处变形或损坏,从而导致在其他方面相似的图像之间出现局部差异。在更剧烈的情况下,这些可以是组织破裂或组织折叠的形式。即使对实验室技术人员给出指示以在分割、染色和成像样本时格外小心并最小化这些人工制品以建立训练图像数据,也会残留一些人工制品。在组织边缘处的另一潜在的不期望的人工制品是墨水,有时在实验室中使用墨水来指示应该在什么位置切割组织块。在图5中,区域52包含来自这些标记的墨水残留物。相邻部分中可能存在也可能不存在墨水残留物,但是墨水残留物不期望出现,并且墨水残留物可能会对模型训练产生不利影响。因此,在一个实施例中,在模型训练中不使用组织部分的边缘,以避免由于这种边缘效应而对模型进行不适当的训练。用于从模型训练中排除图像数据的某些部分的“边缘”的定义可以采取多个可能的形式,诸如在组织和载玻片的空白区域之间的边界之外的最小像素数。
一旦发生了根据图7的模型训练,就可以例如通过比较由模型生成的预测图像与给定组织样本的实际特殊染色的图像来评估模型的性能。例如,图6A-图6C是前列腺组织样本的三个不同图像:图6A是H&E染色的输入图像,图6B是图6A所示的组织样本的实际IHC(PIN4)染色的图像,以及图6C是由机器学习预测器模型预测的、图6A所示的输入组织样本图像的虚拟IHC染色的(PIN4)图像。尽管图6C的图像与图6B的实际IHC图像并不完全相同,但它足够接近以至于考虑图6C的病理医生可以合理估算出图6A中所示的样本的PIN4(IHC)图像如何显现,并且因此处于更知情的位置以确定是否要订购患者的组织样本的PIN4染色图像。图6C的虚拟图像还可以用于其他目的,诸如提供组织样本的可视化以及支持用于补充关于组织样本的预测,诸如组织样本的肿瘤检测、诊断或分类。
现在将结合图7描述模型训练。在本讨论中,我们将集中于用于给定类型的模型训练的大量(数千)组织图像对,诸如乳腺癌组织,其中一个图像是样本的H&E图像,另一个图像是同一样本的HER2(特殊染色的)图像。对于其他类型的图像对、例如不同组织类型、不同染色等、或其中图像对中的第一图像是未染色图像的情况,训练的过程是相同的。
在图7的模型训练过程中,我们从步骤100开始,获得给定组织类型的大量(例如,数千)图像对,诸如例如乳腺癌组织的图像。图像对可以是未染色的+特殊染色的,或者染色的(例如,H&E染色的)+特殊染色的。这种图像对可以从一个或多个私有或公共可得的预先存在的组织图像数据库中获得,或者可选地,可以从成千上万个单独的组织样本中专门为模型训练练习而精选。理想地,图像对以各种不同的放大率提供,以便训练机器学习预测器模型来预测在输入图像的不同放大率下的特殊染色的图像。在精选的图像的集合的情况下,从公共或私人组织集合中获得处于各种健康状况下的患者的给定组织类型的数千个组织样本,并对样本进行分割、染色、然后成对地成像,如结合图3和图4以不同放大率的讨论所解释的那样。
在步骤120,大量图像对相对于彼此精确对齐或配准。使图像对彼此对齐或配准的过程是已知的并且在文献中进行了描述,例如,参见D.Mueller等人的《用于数字病理学的多模式整体载玻片的实时可变形配准(Real-time deformable registration of multi-modal whole slides for digital pathology)》,电脑医学成像与计算机制图(Computerized Medical Imaging and Graphics)35卷542-556页(2011);F.El-Gamal等人,《医学图像配准和融合的当前趋势(Current trends in medical image registrationand fusion)》,《埃及信息学杂志(Egyptian Informatics Journal)》17卷99-124页(2016);J.Singla等人,《使用图像配准的系统仿射变换方法(A systematic way ofaffine transformation using image registration)》,国际信息技术与知识管理学报(International Journal of Information Technology and Knowledge Management)2012年7月至12月,卷5,第2期,第239-243页;Z.Hossein-Nejad等人,《基于SIFT特征和RANSAC变换的自适应图像配准方法(An adaptive image registration method based onSIFT features and RANSAC transform)》,计算机和电气工程(Computers andelectrical engineering),卷62,5240537页(2017年8月);美国专利8,605,972和9,785,818,其描述通过引用并入本文。由于虚拟染色模型的训练数据将是H&E与特殊染色(或未染色与特殊染色)的(几乎)相同的图像小块对,因此需要尽可能完美地对齐图像。对于具有100,000x100,000像素的完整切片图像大小以及潜在的局部组织变形,配准不是仿射变换的琐碎任务,而是更有可能还需要局部变形。一种可能的方法是经由缩略图级别上的旋转和变换执行粗略的全局匹配,然后匹配图像小块对。该方法使用现成的图像处理功能与RANSAC(随机样本共识(一种已知的图像对齐算法,请参阅https://en.wikipedia.org/wiki/Random_sample_consensus和Hossein-Nejad论文))相结合进行对齐。此外,这种方法可以处理例如无法匹配的小块的情况(例如,由于一个图像而不是另一图像中的组织损伤)。
在步骤130,对组织图像的边缘区域进行掩蔽,并且将这种掩蔽区域中的像素值归零,以出于前述原因将这些边缘区域从模型训练中去除。
在步骤140,将精确对齐的图像对作为训练数据提供给机器学习预测器模型。训练数据用于指导模型从第一或输入图像(H&E图像)预测虚拟染色的图像(在此示例中为HER2图像)。对于像显微组织图像这样的千兆像素图像,此预测器模型可能不会一次在整个图像上运行(即学习),而是一次一个地在图像的小块上学习,或者可能逐像素地在图像上学习。或者,基于形态或对比度值,预测器模型可以对单个细胞进行操作——即在输入(H&E)图像中识别单个细胞,并学习以预测细胞的相应的IHC图像。使用训练图像对执行像素到像素、细胞到细胞、或小块到小块的映射。给定两个相应的切片,任何密集的预测算法都应该能够以类似L2损失的方式执行映射。
一些非常适合本公开的机器学习预测器模型包括:
1)生成式对抗网络(GAN)。这种神经网络方法在K.Bousmalis等人的文章《使用生成式对抗网络进行无监督像素级别域自适应(Unsupervised Pixel–Level DomainAdaptation with Generative Adversarial Networks)》(https://arxiv.org/pdf/1612.05424.pdf(2017年8月))中进行了描述,其通过引用并入本文。当前的问题可以被视为域自适应算法,其中一种是尝试从源域重新映射图像以使其看起来好像来自目标域。本领域技术人员将扩大在Bousmalis等人的论文中描述的现有技术的模型以应用于更大的图像(诸如千兆像素病理图像),并将其应用于大规模数据集的语义分割。
2)自我监督学习神经网络(例如,当示出图像的其他部分时被训练以预测图像的部分的模型)。
3)卷积神经网络,用于计算机视觉问题中且在科学文献中已有很好的描述的神经网络的综合性类别。
4)用于密集分割的卷积神经网络(例如U-Net)。见论文O.Ronneberger等人,U-Net:用《于生物医学图像分割的卷积网络(Convolutional Networks for BiomedicalImage Segmentation)》,https://arxiv.org/abs/1505.04597(2015),其内容通过引用合并。
该训练利用了模型能够提取第一图像中但是人类不容易提取的细微的细节或形态特征的特性这些特性。模型的输入是RGB图像,输出是取决于所预测的各个特殊染色剂的、具有相同组织形态但不同颜色和对比模式的RGB图像。鉴于IHC与非常特定的抗原结合并且是局部蛋白表达的指示剂(例如,在ERBB2乳腺癌突变的情况下为HER2),因此,预先并不清楚H&E图像甚至包含关于IHC图像进行真实预测的信息。基本假设是组织中的形态特征与局部蛋白质表达模式之间存在因果关系或关联。有证据表明这种预测是可能的:首先,在相关工作中,本发明的受让人成功地以非常高的准确度从明场灰度图像中预测了荧光细胞显微图像,其次,病理医生证实了他们可以经常在看到相应的IHC图像后检测到H&E图像中的细微肿瘤特征——即使他们最初在看到IHC图像之前错过了H&E中的那些特征。这证实了H&E图像中存在很容易被人眼忽略的一些细微的信息。然而,本公开的模型训练编码或固定了机器学习预测器模型识别这种信息并使用它来生成虚拟染色图像的能力。
如果可得到足够大的训练数据组,则机器学习预测器模型将从给定组织样本和IHC染色剂类型(在此示例中为乳腺癌和HER2染色剂)的H&E图像来学习预测IHC图像。
在步骤150,可以对相同的组织类型但是不同的特殊染色剂类型进行训练。如果需要这种训练、以例如增加预测器模型的通用性和实用性,则该过程如160所示循环回到步骤100,并获得图像对的组,其中图像对中的一个是第二特殊染色剂类型。例如,在习惯对前列腺癌组织样品采用4种不同类型的特殊染色剂的情况下,在循环160的第一次迭代中,在步骤100中,将IHC染色剂#1用作图像对中的第二图像,在步骤100中,通过循环160的第二次迭代,将IHC染色剂#2用作图像对中的第二图像,在步骤100中,在第三次迭代中,将染色剂IHC#3用作图像对中的第二图像,并且在步骤100中,在第四次迭代中,将IHC染色剂#4用作图像对中的第二图像。如果需要训练模型从未染色图像预测特殊染色的图像,则通过步骤160指示的过程的附加循环也是可能的,在这种情况下,在步骤100的图像对中的第一图像是未染色的图像,第二图像是特殊染色的图像。如果需要针对未染色的图像的给定组织类型的不同染色剂上训练模型,则针对N种不同类型的染色剂进行经过步骤160的N个循环,其中N是大于或等于2的某个整数。
在实践中,在160处指示的循环可能会导致可用于多个特殊染色剂的单个模型(例如,通过包括针对每个相应特殊染色剂的不同2D输出阵列的输出层,从而使相同的隐藏层用于在输出层处生成多个图像)。备选地,通过循环160的每次迭代可以得到单独的模型,每个特殊染色剂类型一个模型,其中每个模型由不同的参数组、常数等来定义。
在步骤170,如果需要以不同的组织类型训练预测器模型,则过程如180所示循环回到步骤100,并且根据需要重复步骤100、120、130、140、150和160以训练预测器模型用于其他组织类型的、以及用于此类组织类型或用于如在步骤100处输入的未染色图像的可能的其他特殊染色剂,,如通过执行循环160一次或多次来指示的。例如,可能需要创建和训练一套机器学习预测器模型,其中大量组织类型的每一个组织类型一个模型。取决于根据图7训练的系统的潜在需求或用途,可能并且希望对当代病理学实践中使用的所有各种类型的组织和染色剂训练预测器模型,假设可以获得组织样本并且可以获得精确对齐的训练图像对,从而可以实现图7的方法。
一旦获得了所有组织类型并且已经根据需要执行了循环180,则在步骤170处不进行分支,然后将根据图7生成的机器学习预测器模型存储在计算机系统中。如本领域技术人员将理解的,预测器模型的精确配置、例如作为模型参数、常量、可执行代码、算法等的集合将取决于如上所述的模型类型的选择而变化。
此外,如上所述,可以在图像对的不同放大率级别(例如,10X、20X和40X)下执行模型训练。因此,在步骤100,可以针对输入图像对的不同放大率多次执行图7的过程。特别地,还可以针对图像对的第一图像和第二图像的不同放大率级别,例如在5X,10X,20X和40X时,对特殊染色剂的类型的每一个以及组织类型的每一个来执行通过图7的训练过程的附加循环。在一种可能的配置中,给定的机器学习预测器模型可以应付所有放大率级别下针对输入图像的特殊染色剂图像的预测,但是也有可能训练不同的模型,其中每一种放大率一个模型。
使用
根据图7,一旦对(一个或多个)机器学习预测器模型进行了训练,就会向该模型提供对所述模型进行训练的该类型的输入图像,并生成与输入图像对应的预测或虚拟特殊染色的图像。在该示例中,如果训练该模型以从20X的乳腺癌组织的输入H&E图像中预测乳腺癌组织的HER2图像,则模型将为20X的输入图像预测HER2图像。然后将预测的图像显示给用户。
作为一个例子,参考图8,病理医生获取乳房组织的样本,然后将其分割并用H&E染色,用全玻片扫描仪扫描,然后接收用H&E染色的组织的全玻片图像200。该图像可以与元数据、诸如患者身份、组织类型、染色剂类型、放大率级别等相关联。病理医生想要查看样本的HER2或样本的其他特殊染色的图像可能如何显现。通过工作站上的简单用户界面工具,他们将H&E图像的输入引导到经训练的机器学习预测器模型202,并且该模型返回预测的特殊染色图像204,然后将其显示在工作站上。虚拟染色的图像也可以显示为样本的H&E染色的图像上的覆盖图,例如,在用户查看H&E染色的图像并激活工作站显示器上的图标以在不同虚拟染色剂之间切换的模式下,实质上是将H&E图像重新着色为相应的染色图像。
作为另一示例,从H&E染色的肺癌组织样本和在四个不同的染色协议或方案(N=4)中的相同组织样本的相应特殊染色的图像(诸如用四个不同的特殊染色剂染色的组织样本的一套图像)中训练模型202。在使用中,考虑肺样本的H&E染色的图像200的病理医生将图像提供给模型202,并且其返回用一套四个不同特殊染色剂204染色的肺样本的四个不同的虚拟染色图像。病理医生咨询这四个虚拟染色图像204,并决定订购肺样本的特殊染色图像中的一个。可替代地,基于虚拟染色图像204的质量、以及特殊染色图像与H&E染色图像200的比较,病理医生确定样本是非癌的,并且不对肺样本订购任何特殊染色图像。虚拟染色的图像将附加到病理医生准备的诊断病理报告中。
图9示出了病理工作站的示例,其中示出了显示在工作站250显示器上的输入图像200。工具220列出了可用于查看特定样本类型的各种不同类型的虚拟染色图像。用户通过使用滚动条222导航到不同的染色类型。当他们已经导航到他们想要看到的特定染色类型时,他们激活选择图标224,并且该染色类型的虚拟染色图像被显示在显示器上。在这种情况下,已经选择了两种染色类型,并且相应的虚拟染色图像在204A和204B处示出。虚拟染色的图像可以并排显示或叠加在原始输入图像200上。该图像200可以是未染色的图像,也可以是染色的图像,例如用H&E染色的图像,这取决于如何使用图7的过程训练模型。
图10示出了可以在其中实践本公开的方法的一种可能的计算环境。计算机系统300(可以采取各种形式,包括实现机器学习预测器模型、服务器或其他子系统的经过特殊编程的GPU)与数据存储302通信,数据存储302存储组织样本的图像对以便进行模型如图7所示的训练。计算机300提供有处理器,该处理器执行用于实现机器学习模型的软件指令,包括模型参数、算法等。在使用中,经由应用编程接口,操作工作站250的用户选择来自存储器的本地输入图像或工作站本地的数据存储,并且图像与相关联的元数据(例如,指示组织类型)一起通过计算机网络304被提供给实现机器学习预测器模型的计算机系统300。然后,适用于输入图像的组织类型的经过训练的预测器模型将预测工作站用户(在元数据中指定,或经由API作为特殊指令)需要的特殊染色的图像。然后,通过网络304提供预测的虚拟特殊染色的图像,然后将其显示在工作站250上。计算机系统300可以作为收费服务或以某些其他商业模型来操作。
除了由本公开内容表示的重大科学突破之外,从H&E染色的图像预测IHC染色的能力将对临床诊断产生重大影响。特别是:
1.节省成本——每个IHC染色剂的成本目前约为50美元。仅在美国每年就使用大量的IHC染色剂,这意味着每年的总支出确实是巨大的。因此,能够实际上仅虚拟地进行几种类型的IHC染色而不是实际进行染色,将可以为医疗保健行业(和患者)节省大量资金。
2.增加访问权限——一些实验室和诊所没有执行IHC染色的能力。如果需要完成,则将它们外包,从而导致额外的延迟。
在执行H&E染色后、并且在不具备IHC功能的设施中,几乎无需等待时间即可进行虚拟染色。
3.组织的可用性——组织通常很稀少,病理医生通常必须决定要使用可用组织用于哪些IHC染色剂上。尤其是如下这种情况
用于组织非常有限的活检,例如在肺活检中。通过虚拟染色,将不会被组织的可用性限制用于案例诊断的潜在相关染色的数量。
4.实际染色剂优先排序——即使将仍然执行实际的真实染色,
预测染色可能如何显现的方式可能有助于优先排序什么染色剂将是最有价值的。
5.丰富我们的ML训练组——根据本公开内容的方法生成的虚拟染色的图像可构成用于开发分类模型的附加训练数据。
6.缩短周转时间。订购IHC图像通常会使最终的诊断时间延迟一天左右。本技术可以通过以下方式缩短该时间,(1)不需要实际的物理IHC染色的图像,或者(2)预先提供相关信息来决定是否应该订购实际的物理IHC染色的图像。
有人可能会问虚拟染色图像的有用性。可以说,如果H&E图像包含足够的信号来预测该组织上IHC染色剂将如何显现,那么我们也可以立即预测诊断并跳过虚拟IHC图像的“可视化”。然而,即使这是可能的,与仅用于诊断的H&E图像相比,生成虚拟IHC图像也具有明显的优势。
特别是:
1.由于人为失误,与未染色/H&E染色的图像相比,如果执行此操作的人员使用虚拟染色的图像,则可以提高识别存在某些条件的可靠性。
2.可解释性-几乎不能高估向病理医生示出导致诊断的染色剂的可视化的重要性。它有助于建立对本公开的方法以及虚拟染色图像所随附的任何特定预测的信任。如果我们可以将虚拟IHC与组织样本的实际的H&E图像或未染色图像叠加在一起,则此尤其强大。
3.形态学信息——肿瘤及其微环境的形态是诊断中的重要信号。诸如肿瘤大小、结构和空间的信息、或者入侵淋巴细胞的位置直接有助于诊断和考虑治疗方案。所有这些空间信息将在没有染色剂可视化的纯分类预测中丢失。
隐私注意事项
模型训练中使用的所有图像都将是去除患者标识的。从获得训练图像的每个机构都获得了道德审查和机构审查委员会豁免。如果训练图像是从组织块伦理审查中获得的,则可以从每个提供组织块的机构获得机构审查委员会豁免,并且这些块是去除患者标识的。患者数据未链接到任何Google用户数据。此外,根据法规,数据许可和/或数据使用协议,我们的系统还包括保持每个图像数据集彼此分离的沙箱基础架构。每个沙箱中的数据均已加密;所有数据访问均在单个级别上进行控制、记录和审核。

Claims (37)

1.一种用于生成预测组织样品的特殊染色图像的机器学习预测器模型的系统,组合地包括:
a)数据存储,所述数据存储包含给定组织类型的组织样品的大量对齐的图像对,其中每个图像对由组织样品的第一图像和被第二染色剂染色的组织样品的第二图像组成,所述第一图像全部未染色或全部被第一染色剂染色;
b)计算机系统,所述计算机系统被配置为机器学习预测器模型,从所述数据存储中的大量对齐的图像对中训练所述机器学习预测器模型以从输入图像生成被第二染色剂染色的组织样品的预测图像,所述输入图像具有给定组织类型,且如果所述第一图像未染色,则所述输入图像未染色;如果第一图像被第一染色剂染色,则所述输入图像被第一染色剂染色。
2.根据权利要求1所述的系统,其中,所述第一图像包括处于未染色状态的组织样本的图像。
3.根据权利要求1、2或3所述的系统,其中,所述第一染色剂是H&E。
4.根据前述权利要求中任一项所述的系统,其中,所述第二染色剂包括IHC染色剂。
5.根据前述权利要求中的任一项所述的系统,其中,所述给定组织类型是以下类型中的一个:乳房组织、前列腺组织、淋巴结组织和肺组织。
6.根据权利要求1-5中的任一项所述的系统,其中,所述数据存储包含不同组织类型和不同特殊染色类型的大量图像对,并且其中,所述计算机系统为不同组织类型和染色类型的每个实现不同的机器学习预测器模型。
7.根据权利要求1-6中任一项所述的系统,其中,所述机器学习预测器模型包括生成式对抗网络。
8.根据权利要求1-6中任一项所述的系统,其中,所述机器学习预测器模型包括自我监督学习神经网络。
9.根据权利要求1-6中任一项所述的系统,其中,所述机器学习预测器模型包括卷积神经网络。
10.根据权利要求1-9中任一项所述的系统,其中,所述机器学习预测器模型包括用于密集分割的卷积神经网络。
11.根据权利要求1-10中的任一项所述的系统,其中,所述数据存储中对齐的图像对具有边缘部分,所述边缘部分具有空像素值。
12.一种计算机系统,所述计算机系统包括实现一个或多个机器学习预测器模型的一个或多个处理单元和存储器,所述模型从代表给定组织样品的输入的未染色的或H&E染色的图像的数据中,生成具有给定相应组织类型的组织样品的虚拟特殊染色的图像的显现的预测的形式的数据。
13.根据权利要求12所述的系统,其中所述给定组织类型是以下类型中的一个:乳腺组织、前列腺组织、淋巴结组织和肺组织,并且其中所述预测的显现是用免疫组织化学染色剂染色的给定组织样品的显现。
14.一种生成被特殊染色剂染色的组织样本的虚拟图像的方法,其包括以下步骤:
获取输入图像;
将输入图像提供给从组织样本的大量对齐的图像对中训练的机器学习预测器模型,所述图像对中的一个图像包括被特殊染色剂染色的组织样本的图像,所述模型经过训练以预测被特殊染色剂染色的组织样本的图像;
利用预测器模型,生成被特殊染色剂染色的组织样本的预测图像,以及
将所述预测图像显示为虚拟图像。
15.根据权利要求14所述的方法,其中,所述输入图像包括处于未染色状态的组织样本的图像。
16.根据权利要求14所述的方法,其中,所述输入图像包括被H&E染色的组织样本的图像。
17.根据权利要求14-16中任一项所述的方法,其中,所述特殊染色剂包括IHC染色剂。
18.根据权利要求14-17中任一项所述的方法,其中,所述组织样本是以下类型中的一个:乳腺组织、前列腺组织、淋巴结组织和肺组织。
19.根据权利要求14-18中的任一项所述的方法,其中,所述机器学习预测器模型包括生成式对抗网络。
20.根据权利要求14-18中任一项所述的方法,其中,所述机器学习预测器模型包括自我监督学习神经网络。
21.根据权利要求14-18中任一项所述的方法,其中,所述机器学习预测器模型包括卷积神经网络。
22.根据权利要求14-18中任一项所述的方法,其中,所述机器学习预测器模型包括用于密集分割的卷积神经网络。
23.根据权利要求14-22中的任一项所述的方法,其中,所述对齐的图像对具有边缘部分,所述边缘部分具有空像素值。
24.一种训练机器学习预测器模型的方法,包括以下步骤:
a)获得给定组织类型的组织样品的大量对齐的图像对,其中,每个图像对由被第一染色剂染色的组织样品的第一图像和被第二不同染色剂染色的组织样品的第二图像组成;
b)提供大量对齐的图像对作为机器学习预测器模型的训练数据,所述模型学习以从输入图像中预测被第二不同染色剂染色的组织样品的图像,所述输入图像被第一染色剂染色并且具有给定组织类型。
25.根据权利要求24所述的方法,包括针对不同的组织类型重复步骤a)和b)。
26.根据权利要求24或25所述的方法,包括针对不同的第二染色剂重复步骤a)和b)。
27.根据权利要求24-26中任一项所述的方法,其中,所述第一图像包括H&E图像。
28.根据权利要求24-27中任一项所述的方法,其中,所述大量对齐的图像对处于不同的放大率级别。
29.根据权利要求24-27中的任一项所述的方法,其中,所述输入图像处于给定放大率级别,并且其中,所述机器学习预测器模型生成以所述给定放大率级别被所述第二染色剂染色的所述输入图像的预测。
30.根据权利要求24-39中的任一项所述的方法,其中,所述数据存储中的对齐的图像对具有边缘部分,所述边缘部分具有空像素值。
31.根据权利要求1所述的系统,其中,所述数据以多个不同放大率级别的每一个级别存储给定组织类型的组织样品的大量对齐的图像对。
32.一种训练机器学习预测器模型的方法,包括以下步骤:
a)获得给定组织类型的组织样品的大量对齐的图像对,其中,每个图像对由未染色的组织样品的第一图像和被特殊染色剂染色的组织样品的第二图像组成;
b)提供大量对齐的图像对作为机器学习预测器模型的训练数据,所述模型学习以从输入图像中预测被特殊染色剂染色的组织样品的图像,所述输入图像是未染色的并且具有给定组织类型。
33.根据权利要求32所述的方法,包括针对不同的组织类型重复步骤a)和b)。
34.根据权利要求32或33所述的方法,包括针对不同的特殊染色剂重复步骤a)和b)。
35.根据权利要求32-34中任一项所述的方法,其中,所述大量对齐的图像对处于不同的放大率级别。
36.根据权利要求32-35中的任一项所述的方法,其中,所述输入图像处于给定放大率级别,并且其中,所述机器学习预测器模型生成以所述给定放大率级别被所述特殊染色剂染色的所述输入图像的预测。
37.根据权利要求32-36中任一项所述的方法,其中,所述数据存储中的对齐的图像对具有边缘部分,所述边缘部分具有空像素值。
CN201880090874.7A 2018-03-07 2018-03-07 对组织切片图像的虚拟染色 Active CN111819569B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311269257.2A CN117456023A (zh) 2018-03-07 2018-03-07 对组织切片图像的虚拟染色

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2018/021278 WO2019172901A1 (en) 2018-03-07 2018-03-07 Virtual staining for tissue slide images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311269257.2A Division CN117456023A (zh) 2018-03-07 2018-03-07 对组织切片图像的虚拟染色

Publications (2)

Publication Number Publication Date
CN111819569A true CN111819569A (zh) 2020-10-23
CN111819569B CN111819569B (zh) 2023-10-17

Family

ID=61768482

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311269257.2A Pending CN117456023A (zh) 2018-03-07 2018-03-07 对组织切片图像的虚拟染色
CN201880090874.7A Active CN111819569B (zh) 2018-03-07 2018-03-07 对组织切片图像的虚拟染色

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202311269257.2A Pending CN117456023A (zh) 2018-03-07 2018-03-07 对组织切片图像的虚拟染色

Country Status (4)

Country Link
US (2) US11783603B2 (zh)
EP (1) EP3762854A1 (zh)
CN (2) CN117456023A (zh)
WO (1) WO2019172901A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515077A (zh) * 2021-04-23 2021-10-19 重庆德方信息技术有限公司 人体细胞染色过程监控系统及方法
CN114596298A (zh) * 2022-03-16 2022-06-07 华东师范大学 基于高光谱成像的精标注数字病理数据集自动生成方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10663711B2 (en) 2017-01-04 2020-05-26 Corista, LLC Virtual slide stage (VSS) method for viewing whole slide images
US11621058B2 (en) * 2018-02-08 2023-04-04 Ohio State Innovation Foundation Synthetic IHC-stained digital sides generated using artificial neural networks
CA3100642A1 (en) * 2018-05-21 2019-11-28 Corista, LLC Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
WO2020121678A1 (ja) * 2018-12-14 2020-06-18 富士フイルム株式会社 ミニバッチ学習装置とその作動プログラム、作動方法、および画像処理装置
US11633146B2 (en) 2019-01-04 2023-04-25 Regents Of The University Of Minnesota Automated co-registration of prostate MRI data
US11631171B2 (en) * 2019-01-10 2023-04-18 Regents Of The University Of Minnesota Automated detection and annotation of prostate cancer on histopathology slides
US20200381122A1 (en) * 2019-05-31 2020-12-03 PAIGE.AI, Inc. Systems and methods for processing images of slides to automatically prioritize the processed images of slides for digital pathology
US11415571B2 (en) * 2019-12-05 2022-08-16 Tempus Labs, Inc. Large scale organoid analysis
EP4097737A1 (en) 2020-01-28 2022-12-07 PAIGE.AI, Inc. Systems and methods for delivery of digital biomarkers and genomic panels
DE102020206088A1 (de) * 2020-05-14 2021-11-18 Carl Zeiss Microscopy Gmbh Bildauswertungsverfahren in der Mikroskopie
CN112001329B (zh) * 2020-08-26 2021-11-30 深圳太力生物技术有限责任公司 蛋白表达量的预测方法、装置、计算机设备和存储介质
US11430116B2 (en) 2020-10-01 2022-08-30 PAIGE.AI, Inc. Systems and methods for processing electronic images to provide localized semantic analysis of whole slide images
EP4002267A1 (en) 2020-11-19 2022-05-25 Prospective Instruments GmbH Imaging method and system for generating a digitally stained image, training method for training an artificial intelligence system, and non-transitory storage medium
US20220375604A1 (en) * 2021-04-18 2022-11-24 Mary Hitchcock Memorial Hospital, For Itself And On Behalf Of Dartmouth-Hitchcock Clinic System and method for automation of surgical pathology processes using artificial intelligence
US20220343473A1 (en) * 2021-04-27 2022-10-27 City University Of Hong Kong System and method for generating a stained image
DE102021114287A1 (de) 2021-06-02 2022-12-08 Carl Zeiss Microscopy Gmbh Mikroskopiesystem und Verfahren zum Erzeugen stilisierter Kontrastbilder
DE102021114291A1 (de) * 2021-06-02 2022-12-08 Carl Zeiss Microscopy Gmbh Mikroskopiesystem und Verfahren zum Erzeugen eines virtuell eingefärbten Bildes
CN113256617B (zh) * 2021-06-23 2024-02-20 重庆点检生物科技有限公司 一种病理切片虚拟免疫组化染色方法及系统
WO2023159170A1 (en) * 2022-02-17 2023-08-24 Agilent Technologies, Inc. Synthetic generation of immunohistochemical special stains
US20230394716A1 (en) * 2022-06-06 2023-12-07 Pictor Labs, Inc. Method of generating inference-based virtually stained image annotations
WO2024036020A1 (en) * 2022-08-10 2024-02-15 Verily Life Sciences Llc Generating images of virtually stained biological samples
CN115880262B (zh) * 2022-12-20 2023-09-05 桂林电子科技大学 基于在线噪声抑制策略的弱监督病理图像组织分割方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102667473A (zh) * 2009-10-12 2012-09-12 文塔纳医疗系统公司 用于组织的增强的病理学测定和多分析物检测的多模态对比和明场背景再现
WO2013022688A1 (en) * 2011-08-05 2013-02-14 Siemens Healthcare Diagnostics Inc. Automated detection of diagnostically relevant regions in pathology images
US20150269314A1 (en) * 2014-03-20 2015-09-24 Rudjer Boskovic Institute Method and apparatus for unsupervised segmentation of microscopic color image of unstained specimen and digital staining of segmented histological structures
EP3115766A1 (en) * 2015-07-10 2017-01-11 3Scan Inc. Spatial multiplexing of histological stains
US20170091937A1 (en) * 2014-06-10 2017-03-30 Ventana Medical Systems, Inc. Methods and systems for assessing risk of breast cancer recurrence
US20170249548A1 (en) * 2016-02-26 2017-08-31 Google Inc. Processing cell images using neural networks
CN107492090A (zh) * 2016-06-09 2017-12-19 西门子保健有限责任公司 根据合成数据利用机器学习的基于图像的肿瘤表型分析

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050136509A1 (en) * 2003-09-10 2005-06-23 Bioimagene, Inc. Method and system for quantitatively analyzing biological samples
US9697582B2 (en) 2006-11-16 2017-07-04 Visiopharm A/S Methods for obtaining and analyzing images
FR2938064B1 (fr) * 2008-10-31 2011-05-20 Novacyt Procede de preparation d'une plaque d'analyse virtuelle traitee.
US8340389B2 (en) 2008-11-26 2012-12-25 Agilent Technologies, Inc. Cellular- or sub-cellular-based visualization information using virtual stains
US9002077B2 (en) 2009-08-10 2015-04-07 Cambridge Research & Instrumentation, Inc. Visualization of stained samples
JP2014506122A (ja) 2010-12-07 2014-03-13 ライフ テクノロジーズ コーポレーション バーチャル細胞染色システム
US8639013B2 (en) 2011-08-17 2014-01-28 General Electric Company System and methods for generating a brightfield image using fluorescent images
US8605972B2 (en) 2012-03-02 2013-12-10 Sony Corporation Automatic image alignment
WO2013142366A1 (en) 2012-03-19 2013-09-26 Genetic Innovations, Inc. Devices, systems, and methods for virtual staining
US9786050B2 (en) * 2013-03-15 2017-10-10 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
US9785818B2 (en) 2014-08-11 2017-10-10 Synaptics Incorporated Systems and methods for image alignment
WO2018052587A1 (en) * 2016-09-14 2018-03-22 Konica Minolta Laboratory U.S.A., Inc. Method and system for cell image segmentation using multi-stage convolutional neural networks
WO2018075873A1 (en) * 2016-10-20 2018-04-26 Cedars-Sinai Medical Center Methods for single-cell prostate tissue classification and prediction of cancer progression
JP7226895B2 (ja) * 2017-02-21 2023-02-21 コー・ヤング・テクノロジー・インコーポレーテッド 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置
US20190025773A1 (en) * 2017-11-28 2019-01-24 Intel Corporation Deep learning-based real-time detection and correction of compromised sensors in autonomous machines
US20190258984A1 (en) * 2018-02-19 2019-08-22 Microsoft Technology Licensing, Llc Generative adversarial networks in predicting sequential data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102667473A (zh) * 2009-10-12 2012-09-12 文塔纳医疗系统公司 用于组织的增强的病理学测定和多分析物检测的多模态对比和明场背景再现
WO2013022688A1 (en) * 2011-08-05 2013-02-14 Siemens Healthcare Diagnostics Inc. Automated detection of diagnostically relevant regions in pathology images
US20150269314A1 (en) * 2014-03-20 2015-09-24 Rudjer Boskovic Institute Method and apparatus for unsupervised segmentation of microscopic color image of unstained specimen and digital staining of segmented histological structures
US20170091937A1 (en) * 2014-06-10 2017-03-30 Ventana Medical Systems, Inc. Methods and systems for assessing risk of breast cancer recurrence
EP3115766A1 (en) * 2015-07-10 2017-01-11 3Scan Inc. Spatial multiplexing of histological stains
US20170249548A1 (en) * 2016-02-26 2017-08-31 Google Inc. Processing cell images using neural networks
CN107492090A (zh) * 2016-06-09 2017-12-19 西门子保健有限责任公司 根据合成数据利用机器学习的基于图像的肿瘤表型分析

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515077A (zh) * 2021-04-23 2021-10-19 重庆德方信息技术有限公司 人体细胞染色过程监控系统及方法
CN114596298A (zh) * 2022-03-16 2022-06-07 华东师范大学 基于高光谱成像的精标注数字病理数据集自动生成方法
CN114596298B (zh) * 2022-03-16 2022-11-15 华东师范大学 基于高光谱成像的精标注数字病理数据集自动生成方法
US11763453B1 (en) 2022-03-16 2023-09-19 East China Normal University Automatic generation method of fine-labeled digital pathological data set based on hyperspectral imaging

Also Published As

Publication number Publication date
US20230419694A1 (en) 2023-12-28
US11783603B2 (en) 2023-10-10
CN117456023A (zh) 2024-01-26
WO2019172901A1 (en) 2019-09-12
CN111819569B (zh) 2023-10-17
EP3762854A1 (en) 2021-01-13
US20200394825A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
CN111819569B (zh) 对组织切片图像的虚拟染色
Ginley et al. Computational segmentation and classification of diabetic glomerulosclerosis
Oskal et al. A U-net based approach to epidermal tissue segmentation in whole slide histopathological images
CN108140249B (zh) 用于显示生物标本的多个图像的图像处理系统和方法
Husham et al. Automated nuclei segmentation of malignant using level sets
US10650221B2 (en) Systems and methods for comprehensive multi-assay tissue analysis
Samsi et al. An efficient computational framework for the analysis of whole slide images: Application to follicular lymphoma immunohistochemistry
US11176412B2 (en) Systems and methods for encoding image features of high-resolution digital images of biological specimens
WO2020142461A1 (en) Translation of images of stained biological material
WO2019139591A1 (en) Method for creating histopathological ground truth masks using slide restaining
US20200193139A1 (en) Systems and methods for automated cell segmentation and labeling in immunofluorescence microscopy
Moles Lopez et al. Registration of whole immunohistochemical slide images: an efficient way to characterize biomarker colocalization
KR20220133918A (ko) 생물학적 샘플 내의 대상의 체계적인 특징화
Held et al. Comparison of parameter‐adapted segmentation methods for fluorescence micrographs
Bajcsy et al. Three‐dimensional volume reconstruction of extracellular matrix proteins in uveal melanoma from fluorescent confocal laser scanning microscope images
US20230306606A1 (en) Methods and systems for providing training data sets for training a machine-learned segmentation algorithm for use in digital pathology
US20230162485A1 (en) Digital analysis of preanalytical factors in tissues used for histological staining
US20220358650A1 (en) Systems and methods to process electronic images to provide localized semantic analysis of whole slide images
WO2023107844A1 (en) Label-free virtual immunohistochemical staining of tissue using deep learning
Kopriva et al. Offset-sparsity decomposition for automated enhancement of color microscopic image of stained specimen in histopathology
Salvi et al. cyto‐Knet: An instance segmentation approach for multiple myeloma plasma cells using conditional kernels
Adiga Segmentation of volumetric tissue images using constrained active contour models
Sabban et al. Segmenting Glandular Biopsy Images Using the Separate Merged Objects Algorithm
Kassab et al. FFPE++: Improving the quality of formalin-fixed paraffin-embedded tissue imaging via contrastive unpaired image-to-image translation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210525

Address after: California, USA

Applicant after: Verily Life Sciences LLC

Address before: California, USA

Applicant before: GOOGLE Inc.

GR01 Patent grant
GR01 Patent grant