ES3014296T3 - Method and system for digital staining of label-free fluorescence images using deep learning - Google Patents
Method and system for digital staining of label-free fluorescence images using deep learning Download PDFInfo
- Publication number
- ES3014296T3 ES3014296T3 ES19776693T ES19776693T ES3014296T3 ES 3014296 T3 ES3014296 T3 ES 3014296T3 ES 19776693 T ES19776693 T ES 19776693T ES 19776693 T ES19776693 T ES 19776693T ES 3014296 T3 ES3014296 T3 ES 3014296T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- neural network
- sample
- images
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
- G16H70/60—ICT specially adapted for the handling or processing of medical references relating to pathologies
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Quality & Reliability (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Se describe un método y un sistema de tinción digital basados en aprendizaje profundo que permiten la creación de imágenes microscópicas teñidas digital o virtualmente a partir de muestras sin etiquetar o sin tinción, a partir de imágenes de autofluorescencia adquiridas con un microscopio de fluorescencia. El sistema y el método son especialmente útiles para la creación de imágenes de portaobjetos completos (WSI) teñidas digital o virtualmente de muestras de tejido sin etiquetar ni teñir, que son analizadas por un histopatólogo. Los métodos evitan el proceso estándar de tinción histoquímica, ahorrando tiempo y dinero. Este método se basa en aprendizaje profundo y utiliza, en una implementación, una red neuronal convolucional entrenada mediante un modelo de red generativa adversarial para transformar imágenes de fluorescencia de una muestra sin etiquetar en una imagen equivalente a la imagen de campo claro de la versión teñida químicamente de la misma muestra. Este método de tinción digital sin etiquetar elimina los engorrosos y costosos procedimientos de tinción histoquímica y simplifica significativamente la preparación de tejidos en patología e histología. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Método y sistema para la tinción digital de imágenes de fluorescencia sin marcadores usando aprendizaje profundo
Campo técnico
[0001] El campo técnico se refiere generalmente a métodos y sistemas usados para obtener imágenes de tejido sin teñir (es decir, sin marcadores). En particular, el campo técnico se refiere a métodos y sistemas de microscopía que utilizan aprendizaje de red neural profundo para teñir digital o virtualmente imágenes de tejido sin teñir o sin marcar. El aprendizaje profundo en redes neuronales, una clase de algoritmos de aprendizaje automático, se usa para teñir digitalmente imágenes de secciones de tejido sin marcar en imágenes que son equivalentes a imágenes de microscopía de las mismas muestras que se tiñen o marcan.
Antecedentes de la invención
[0002] La obtención microscópica de imágenes de muestras de tejido es una herramienta fundamental usada para el diagnóstico de diversas enfermedades y forma el caballo de batalla de la patología y las ciencias biológicas. La imagen estándar de referencia clínicamente establecida de una sección de tejido es el resultado de un proceso laborioso, que incluye que la muestra de tejido esté incrustada en parafina fijada en formalina (FFPE), seccionada en cortes delgados (normalmente -2-10 |_im), marcada/teñida y montada en un portaobjetos de vidrio, a lo que sigue su obtención de imágenes microscópicas usando, por ejemplo, un microscopio de campo claro. Todos estos pasos usan múltiples reactivos e introducen efectos irreversibles en el tejido. Se han realizado esfuerzos recientes para cambiar este flujo de trabajo usando diferentes modalidades de obtención de imágenes. Se han realizado intentos para obtener imágenes de muestras de tejido frescas no embebidas en parafina usando métodos de microscopía no lineal basados en, por ejemplo, fluorescencia de dos fotones, generación de segundo armónico, generación de tercer armónico, así como dispersión Raman. Otros intentos han usado una fuente supercontinua controlable para adquirir imágenes multimodales para el análisis químico de muestras de tejido frescas. Estos métodos requieren el uso de láseres ultrarrápidos o fuentes supercontinuas, que podrían no estar fácilmente disponibles en la mayoría de los ajustes y requerir tiempos de exploración relativamente largos debido a señales ópticas más débiles. Además de estos, también han surgido otros métodos de microscopía para obtener imágenes de muestras de tejido no seccionadas usando excitación UV en muestras teñidas, o aprovechando la emisión de fluorescencia de tejido biológico a longitudes de onda cortas.
[0003] De hecho, la señal de fluorescencia crea algunas oportunidades únicas para obtener imágenes de muestras de tejido haciendo uso de la luz fluorescente emitida por fluoróforos endógenos. Se ha demostrado que tales firmas de fluorescencia endógena llevan información útil que puede asociarse a propiedades funcionales y estructurales de la muestra biológica y, por lo tanto, se han usado ampliamente para fines de diagnóstico e investigación. Una de las principales áreas de interés de estos esfuerzos ha sido la investigación espectroscópica de la relación entre diferentes moléculas biológicas y sus propiedades estructurales en diferentes condiciones. Algunos de estos constituyentes biológicos bien caracterizados incluyen vitaminas (por ejemplo, vitamina A, riboflavina, tiamina), colágeno, coenzimas, ácidos grasos, entre otros.
[0004] Aunque algunas de las técnicas analizadas anteriormente tienen capacidades únicas para discriminar, por ejemplo, tipos celulares y componentes subcelulares en muestras de tejido usando diversos mecanismos de contraste, los patólogos, así como elsoftwarede clasificación tumoral, en general, están entrenados para examinar muestras de tejido teñidas con "estándar de referencia" para tomar decisiones de diagnóstico. Motivadas parcialmente por esto, algunas de las técnicas mencionadas anteriormente se han aumentado para crear imágenes de pseudo-hematoxilina y eosina (H&E), que se basan en una aproximación lineal que relaciona la intensidad de fluorescencia de una imagen con la concentración de colorante por volumen de tejido, usando constantes determinadas empíricamente que representan la respuesta espectral media de diversos colorantes embebidos en el tejido. Estos métodos también usaron tinción exógena para potenciar el contraste de la señal de fluorescencia con el fin de crear imágenes de H&E virtuales de muestras de tejido. El artículo de las actas de conferencia de Neslihan Bayramoglu; Kaakinen Mika; Eklund Lauri; Heikkila Janne, "Towards Virtual H&E Staining of Hiperespectral Lung Histology Images Using Conditional Generative Adversarial Network" de la conferencia internacional de talleres de visión por ordenador del IEEE (ICCVW) 2017 describe un método para teñir virtualmente especímenes sin teñir. El método utiliza reducción de dimensiones y redes generativas adversarias condicionales (cGAN) que construyen mapeos altamente no lineales entre imágenes de entrada y salida.
Resumen
[0005] En una forma de realización, se proporcionan un sistema y un método que utilizan una red neuronal profunda entrenada que se usa para la tinción digital o virtual de secciones de tejido delgadas sin marcador u otras muestras usando sus imágenes de fluorescencia obtenidas de tejido no teñido químicamente (u otras muestras). Por tejido químicamente no teñido se entiende la falta de tinciones o marcadores estándar usados en tinción histoquímica de tejido. La fluorescencia de tejido químicamente no teñido puede incluir autofluorescencia de tejido de fluoróforos naturales o endógenos u otros emisores endógenos de luz a frecuencias diferentes de la frecuencia de iluminación (es decir, luz con desplazamiento de frecuencia). La fluorescencia de tejido químicamente no teñido puede incluir además fluorescencia de tejido de marcadores fluorescentes añadidos exógenamente u otros emisores de luz exógenos. Se obtienen imágenes de las muestras con un microscopio de fluorescencia tal como un microscopio de fluorescencia de campo amplio (o un microscopio de fluorescencia estándar). El microscopio puede utilizar un conjunto de filtros de excitación/emisión de UV cercano estándar u otros conjuntos de fuente/filtros de luz de excitación/emisión que son conocidos por los expertos en la técnica. La tinción digital o virtual se realiza, en algunas formas de realización, en una única imagen de fluorescencia obtenida de la muestra usando, en una forma de realización preferida, una red neuronal profunda entrenada.
[0006] En una forma de realización, la red neuronal profunda entrenada es una red neuronal convolucional (CNN) que se entrena usando un modelo de red generativa adversarial (GAN) para coincidir con las imágenes microscópicas de campo claro correspondientes de muestras de tejido después de que se marquen con una determinada tinción histológica. En esta forma de realización, se introduce una imagen de fluorescencia de la muestra sin teñir (por ejemplo, tejido) en la red neuronal profunda entrenada para generar la imagen teñida digitalmente. Por lo tanto, en esta forma de realización, los pasos de tinción histoquímica y formación de imágenes de campo claro se reemplazan completamente por el uso de la red neuronal profunda entrenada que genera la imagen teñida digitalmente. Como se explica en el presente documento, la inferencia de red realizada por la red neuronal entrenada es rápida tardando, en algunas formas de realización, menos de un segundo usando un ordenador de escritorio estándar para un campo de visión de formación de imágenes de ~ 0,33 mm x 0,33 mm usando, por ejemplo, una lente objetivo de 40x. Utilizando un objetivo de 20x para escanear tejido, se logró un tiempo de inferencia de la red de 1,9 segundos/mm2.
[0007] El método de tinción histológica digital/virtual basado en aprendizaje profundo que usa autofluorescencia se ha demostrado obteniendo imágenes de muestras de tejido humano sin marcadores que incluyen glándula salival, tiroides, riñón, hígado, pulmón y piel, donde la salida de red neuronal profunda entrenada creó imágenes equivalentes, que coinciden sustancialmente con las imágenes de las mismas muestras que se marcaron con tres tinciones diferentes, es decir, H&E (glándula salival y tiroides), tinción de Jones (riñón) y tricrómico de Masson (hígado y pulmón). Debido a que la imagen de entrada de la red neuronal profunda entrenada es capturada por un microscopio de fluorescencia convencional con un conjunto de filtros estándar, este enfoque tiene potencial transformativo para usar muestras de tejido sin teñir para aplicaciones de patología e histología, evitando completamente el proceso de tinción histoquímica, ahorrando tiempo y los costes concomitantes. Esto incluye el coste de la mano de obra, los reactivos, el tiempo adicional implicado en los procesos de tinción y similares. Por ejemplo, para las tinciones histológicas que se aproximaron usando el proceso de tinción digital o virtual descrito en el presente documento, cada procedimiento de tinción de una sección de tejido tarda de media ~45 min (H&E) y 2-3 horas (tinción de Jones y tricrómico de Masson), con un coste estimado, incluyendo la mano de obra, de $2-5 para H&E y >$16-35 para el tricrómico de Masson y la tinción de Jones. Además, algunos de estos procesos de tinción histoquímica requieren pasos sensibles al tiempo, lo que exige al experto monitorizar el proceso bajo un microscopio, lo que hace que todo el proceso no solo sea largo y relativamente costoso, sino que también sea laborioso. El sistema y método descritos en el presente documento evitan todos estos pasos de tinción, y también permiten la conservación de secciones de tejido no marcadas para análisis posterior, tal como micromarcaje de subregiones de interés en la muestra de tejido sin teñir que pueda usarse para análisis inmunoquímico y molecular más avanzados para facilitar, por ejemplo, terapias personalizadas. Además, la eficacia de tinción de este enfoque para imágenes de portaobjetos completos (WSI) correspondientes a algunas de estas muestras fue evaluada a ciegas por un grupo de patólogos, que fueron capaces de reconocer características histopatológicas con la técnica de tinción digital/virtual, logrando un alto grado de concordancia con las imágenes histológicamente teñidas de las mismas muestras.
[0008] Además, este marco de tinción histológica digital/virtual basado en aprendizaje profundo puede aplicarse ampliamente a otras longitudes de onda de excitación o conjuntos de filtros de fluorescencia, así como a otras modalidades de microscopía (como microscopía no lineal) que utilizan mecanismos de contraste endógenos adicionales. En los experimentos, se usaron muestras de tejido seccionado y fijado para poder proporcionar comparaciones significativas con los resultados del proceso de tinción histoquímica estándar. Sin embargo, el enfoque presentado también funcionaría con muestras de tejido no fijadas y no seccionadas, haciéndolo potencialmente aplicable a su uso en salas quirúrgicas o en el sitio de una biopsia para aplicaciones de diagnóstico rápido o telepatología. Más allá de sus aplicaciones clínicas, este método podría beneficiar ampliamente al campo histológico y a sus aplicaciones en la investigación y educación de las ciencias de la vida.
[0009] En una forma de realización, un método para generar una imagen microscópica teñida digitalmente de una muestra sin marcadores incluye proporcionar una red neuronal profunda entrenada que se ejecuta usandosoftwarede procesamiento de imágenes ejecutado usando uno o más procesadores de un dispositivo informático, donde la red neuronal profunda entrenada se entrena con una pluralidad de imágenes teñidas químicamente coincidentes o parches de imagen y sus imágenes de fluorescencia correspondientes o parches de imagen de la misma muestra. La muestra sin marcador puede incluir tejidos, células, patógenos, frotis de fluidos biológicos u otros microobjetos de interés. En algunas formas de realización, la red neuronal profunda puede entrenarse usando una o más combinaciones de tipo de tejido/tipo de tinción química. Por ejemplo, esto puede incluir tejido de tipo A con tinción #1, tinción #2, tinción #3, etc. En algunas formas de realización, la red neuronal profunda puede ser entrenada usando tejido que ha sido teñido con múltiples tinciones.
[0010] Se introduce una imagen de fluorescencia de la muestra en la red neuronal profunda entrenada. La red neuronal profunda entrenada genera entonces una imagen microscópica teñida digitalmente de la muestra basándose en la imagen de fluorescencia de entrada de la muestra. En una forma de realización, la red neuronal profunda entrenada es una red neuronal convolucional (CNN). Esto puede incluir un CNN que usa un modelo de red generativa adversarial (GAN). La imagen de entrada de fluorescencia de la muestra se obtiene usando un microscopio de fluorescencia y una fuente de luz de excitación (por ejemplo, fuente de luz emisora de UV o UV cercano). En algunas formas de realización alternativas, se introducen múltiples imágenes de fluorescencia en la red neuronal profunda entrenada. Por ejemplo, se puede obtener una imagen de fluorescencia en una primera longitud de onda filtrada o intervalo de longitud de onda mientras que se puede obtener otra imagen de fluorescencia en una segunda longitud de onda filtrada o intervalo de longitud de onda. Estas dos imágenes de fluorescencia se introducen después en la red neuronal profunda entrenada para producir una única imagen teñida digital/virtualmente. En otra forma de realización, la imagen de fluorescencia obtenida puede someterse a una o más operaciones de preprocesamiento lineales o no lineales seleccionadas entre mejora de contraste, inversión de contraste, filtrado de imágenes que puedan introducirse solas o en combinación con la imagen de fluorescencia obtenida en la red neuronal profunda entrenada.
[0011] Por ejemplo, un método para generar una imagen microscópica teñida digitalmente de una muestra sin marcador incluye proporcionar una red neuronal profunda entrenada que se ejecuta mediante unsoftwarede procesamiento de imágenes usando uno o más procesadores de un dispositivo informático, donde la red neuronal profunda entrenada se entrena con una pluralidad de imágenes teñidas químicamente o parches de imagen coincidentes y sus imágenes de fluorescencia o parches de imagen correspondientes de la misma muestra. Se obtiene una primera imagen de fluorescencia de la muestra usando un microscopio de fluorescencia y donde se emite luz fluorescente a una primera longitud de onda de emisión o intervalo de longitud de onda desde fluoróforos endógenos u otros emisores endógenos de luz desplazada en frecuencia dentro de la muestra. Se obtiene una segunda imagen de fluorescencia de la muestra usando un microscopio de fluorescencia y donde se emite luz fluorescente a una segunda longitud de onda de emisión o intervalo de longitud de onda desde fluoróforos endógenos u otros emisores endógenos de luz desplazada en frecuencia dentro de la muestra. La primera y segunda imágenes de fluorescencia se pueden obtener usando diferentes combinaciones de longitud de onda de excitación/emisión. La primera y segunda imágenes de fluorescencia de la muestra se introducen a continuación en la red neuronal profunda entrenada, emitiendo la red neuronal profunda entrenada la imagen microscópica teñida digitalmente de la muestra que es sustancialmente equivalente a una imagen de campo claro correspondiente de la misma muestra que se ha teñido químicamente.
[0012] En otra forma de realización, un sistema para generar imágenes microscópicas teñidas digitalmente de una muestra no teñida químicamente incluye un dispositivo informático que tiene unsoftwarede procesamiento de imágenes ejecutado en el mismo o, por lo tanto, elsoftwarede procesamiento de imágenes que comprende una red neuronal profunda entrenada que se ejecuta usando uno o más procesadores del dispositivo informático. La red neuronal profunda entrenada se entrena con una pluralidad de imágenes teñidas químicamente coincidentes o parches de imagen y sus correspondientes imágenes de fluorescencia o parches de imagen de la misma muestra. Elsoftwarede procesamiento de imágenes está configurado para recibir una o más imágenes de fluorescencia de la muestra y generar la imagen microscópica teñida digitalmente de la muestra que sea sustancialmente equivalente a una imagen de campo claro correspondiente de la misma muestra que se ha teñido químicamente.
Breve descripción de los dibujos
[0013]
La Figura 1 ilustra esquemáticamente un sistema que se usa para generar una imagen de salida teñida digital/virtualmente de una muestra a partir de una imagen de microscopio sin teñir de la muestra según una forma de realización.
La Figura 2 ilustra una representación esquemática de las operaciones de tinción histológica digital/virtual basada en aprendizaje profundo usando una imagen de fluorescencia de tejido no teñido.
Las Figuras 3A-3H ilustran resultados de tinción digital/virtual que coinciden con las muestras de H&E teñidas químicamente. Las dos primeras (2) columnas (Figuras 3A y 3E) muestran las imágenes de autofluorescencia de secciones de tejido de glándula salival sin teñir (usadas como entrada a la red neuronal profunda), y la tercera columna (Figuras 3C y 3G) muestra los resultados de tinción digital/virtual. La última columna (Figuras 3D y 3H) muestra las imágenes de campo claro de las mismas secciones de tejido, después del proceso de tinción histoquímica. La evaluación tanto de la Figura 3C como de la Figura 3D demuestra una pequeña isla de células tumorales infiltrantes dentro del tejido fibroadiposo subcutáneo. Obsérvese que el detalle nuclear, incluyendo la distinción de nucléolos (flechas en 3C y 3D) y la textura de la cromatina, se aprecia claramente en ambos paneles. De manera similar, en las figuras 3G y 3H las tinciones con H&E demuestran carcinoma de células escamosas infiltrante. La reacción desmoplástica con cambio mixoide edematoso (asterisco en las figuras 3G y 3H) en el estroma adyacente es claramente identificable en ambas tinciones/paneles.
Las Figuras 4A-4H ilustran resultados de tinción digital/virtual para que coincidan con las muestras de Jones teñidas químicamente. Las dos primeras (2) columnas (Figuras 4A, 4E) muestran las imágenes de autofluorescencia de secciones de tejido renal sin teñir (usadas como entrada a la red neuronal profunda), y la tercera columna (Figuras 4C y 4G), muestra los resultados de tinción digital/virtual. La última columna (Figuras 4D, 4H) muestra las imágenes de campo claro de las mismas secciones de tejido, después del proceso de tinción histoquímica.
Las Figuras 5A-5P ilustran resultados de tinción digital/virtual para coincidir con la tinción tricrómica de Masson para secciones de tejido hepático y pulmonar. Las dos primeras (2) columnas muestran las imágenes de autofluorescencia de una sección de tejido hepático sin teñir (filas 1 y 2 - figuras 5A, 5B, 5E, 5F) y una sección de tejido pulmonar sin teñir (filas 3 y 4 - figuras 5I, 5J, 5M, 5N), usadas como entrada a la red neuronal profunda. La tercera columna (figuras 5C, 5G, 5K, 5O) muestra los resultados de tinción digital/virtual para estas muestras de tejido. La última columna (figuras 5D, 5H, 5L, 5P) muestra las imágenes de campo claro de las mismas secciones de tejido, después del proceso de tinción histoquímica.
La Figura 6A ilustra un gráfico de función de pérdida combinada frente al número de iteraciones para inicialización aleatoria e inicialización de aprendizaje de transferencia. La figura 6A ilustra cómo se logra convergencia superior usando aprendizaje de transferencia. Se inicializa una nueva red neuronal profunda usando los pesos y sesgos aprendidos de las secciones de tejido de glándula salival para lograr tinción virtual de tejido tiroideo con H&E. En comparación con la inicialización aleatoria, el aprendizaje de transferencia permite una convergencia mucho más rápida, logrando también un mínimo local más bajo.
La Figura 6B ilustra imágenes de salida de red en diferentes etapas del proceso de aprendizaje tanto para inicialización aleatoria como para aprendizaje de transferencia para ilustrar mejor el impacto del aprendizaje de transferencia para traducir el enfoque presentado a nuevas combinaciones de tejido/tinción.
La Figura 6C ilustra la imagen de campo claro teñida químicamente con H&E correspondiente.
La Figura 7A ilustra la tinción virtual (tinción H&E) de tejido cutáneo usando solamente el canal DAPI.
La Figura 7B ilustra la tinción virtual (tinción H&E) de tejido cutáneo usando los canales DAPI y Cy5. Por Cy5 se entiende un colorante de cianina marcado fluorescente de rojo lejano usado para marcar biomoléculas. La Figura 7C ilustra el tejido correspondiente teñido histológicamente (es decir, teñido químicamente con H&E).
La Figura 8 ilustra el proceso de coincidencia y registro del campo de visión de las imágenes de autofluorescencia de muestras de tejido sin teñir con respecto a las imágenes de campo claro de las mismas muestras, después del proceso de tinción química.
La Figura 9 ilustra esquemáticamente el proceso de entrenamiento de la red de tinción virtual mediante una GAN.
La Figura 10 ilustra la arquitectura de red generativa adversarial (GAN) para el generador y discriminador según una forma de realización.
Descripción detallada de las formas de realización ilustradas
[0014] La figura 1 ilustra esquemáticamente una forma de realización de un sistema 2 para emitir imágenes teñidas digitalmente 40 desde una imagen de microscopio de entrada 20 de una muestra 22. Como se explica en el presente documento, la imagen de entrada 20 es una imagen de fluorescencia 20 de una muestra 22 (como tejido en una forma de realización) que no está teñida o marcada con un tinte o marcador fluorescente. Es decir, la imagen de entrada 20 es una imagen de autofluorescencia 20 de la muestra 22 en la que la luz fluorescente que se emite por la muestra 22 es el resultado de uno o más fluoróforos endógenos u otros emisores endógenos de luz desplazada en frecuencia contenidos en la misma. La luz desplazada en frecuencia es luz que se emite a una frecuencia (o longitud de onda) diferente que difiere de la frecuencia (o longitud de onda) incidente. Los fluoróforos endógenos o emisores endógenos de luz desplazada en frecuencia pueden incluir moléculas, compuestos, complejos, especies moleculares, biomoléculas, pigmentos, tejidos y similares. En algunas formas de realización, la imagen de entrada 20 (por ejemplo, la imagen fluorescente en bruto) se somete a una o más operaciones de preprocesamiento lineales o no lineales seleccionadas de mejora de contraste, inversión de contraste, filtrado de imagen. El sistema incluye un dispositivo informático 100 que contiene uno o más procesadores 102 en el mismo ysoftwarede procesamiento de imágenes 104 que incorpora la red neuronal profunda entrenada 10 (por ejemplo, una red neuronal convolucional como se explica en el presente documento en una o más formas de realización). El dispositivo informático 100 puede incluir, como se explica en el presente documento, un ordenador personal, un ordenador portátil, un dispositivo informático móvil, un servidor remoto o similares, aunque pueden usarse otros dispositivos informáticos (por ejemplo, dispositivos que incorporan una o más unidades de procesamiento gráfico (GPU)) u otros circuitos integrados de aplicación específica (ASIC). Las GPU o ASIC se pueden usar para acelerar el entrenamiento, así como la salida de imagen final. El dispositivo informático 100 puede estar asociado con o conectado a un monitor o pantalla 106 que se usa para mostrar las imágenes teñidas digitalmente 40. La pantalla 106 puede usarse para mostrar una interfaz gráfica de usuario (GUI) que usa el usuario para mostrar y ver las imágenes teñidas digitalmente 40. En una forma de realización, el usuario puede ser capaz de activar o conmutar manualmente entre múltiples tinciones digitales/virtuales diferentes para una muestra 22 particular usando, por ejemplo, la GUI. Alternativamente, la activación o conmutación entre diferentes tinciones puede realizarse automáticamente por el dispositivo informático 100. En una forma de realización preferida, la red neuronal profunda entrenada 10 es una red neuronal convolucional (CNN).
[0015] Por ejemplo, en una forma de realización preferida como se describe en el presente documento, la red neuronal profunda entrenada 10 se entrena usando un modelo GAN. En una red neuronal profunda entrenada con GAN 10, se usan dos modelos para entrenar. Se usa un modelo generativo que captura la distribución de datos mientras que un segundo modelo estima la probabilidad de que una muestra provenga de los datos de entrenamiento en lugar del modelo generativo. Los detalles con respecto a GAN pueden encontrarse en Goodfellowet al.,Generative Adversarial Nets., Advances in Neural Information Processing Systems, 27, págs.
2672-2680 (2014), que se incorpora por referencia en el presente documento. El entrenamiento de red de la red neuronal profunda 10 (por ejemplo, GAN) puede realizarse en el mismo o diferente dispositivo informático 100. Por ejemplo, en una forma de realización, se puede usar un ordenador personal para entrenar la GAN, aunque tal entrenamiento puede llevar una cantidad considerable de tiempo. Para acelerar este proceso de entrenamiento, se pueden usar una o más GPU dedicadas para el entrenamiento. Como se explica en el presente documento, tal entrenamiento y prueba se realizó en GPU obtenidas de una tarjeta gráfica disponible comercialmente. Una vez que la red neuronal profunda 10 se ha entrenado, la red neuronal profunda 10 puede usarse o ejecutarse en un dispositivo informático diferente 110 que puede incluir uno con menos recursos computacionales usados para el proceso de entrenamiento (aunque las GPU también pueden integrarse en la ejecución de la red neuronal profunda entrenada 10).
[0016] Elsoftwarede procesamiento de imágenes 104 puede implementarse usando Python y TensorFlow, aunque pueden usarse otros paquetes y plataformas desoftware.La red neuronal profunda entrenada 10 no se limita a una plataforma desoftwareo lenguaje de programación particular y la red neuronal profunda entrenada 10 puede ejecutarse usando cualquier número de lenguajes o plataformas desoftwaredisponibles comercialmente. Elsoftwarede procesamiento de imágenes 104 que incorpora o se ejecuta en coordinación con la red neuronal profunda entrenada 10 puede ejecutarse en un entorno local o un entorno de tipo nube. En algunas formas de realización, alguna funcionalidad delsoftwarede procesamiento de imágenes 104 puede ejecutarse en un lenguaje o plataforma particular (por ejemplo, normalización de imágenes) mientras que la red neuronal profunda entrenada 10 puede ejecutarse en otro lenguaje o plataforma particular. No obstante, ambas operaciones son llevadas a cabo por elsoftwarede procesamiento de imágenes 104.
[0017] Como se ve en la Figura 1, en una forma de realización, la red neuronal profunda entrenada 10 recibe una única imagen de fluorescencia 20 de una muestra no marcada 22. En otras formas de realización, por ejemplo, cuando se usan múltiples canales de excitación(véasela discusión de melanina en el presente documento), puede haber múltiples imágenes de fluorescencia 20 de la muestra no marcada 22 que se introducen en la red neuronal profunda entrenada 10 (por ejemplo, una imagen por canal). Las imágenes de fluorescencia 20 pueden incluir una imagen de fluorescencia de campo amplio 20 de una muestra de tejido no marcado 22. Por campo amplio se entiende que se obtiene un campo de visión amplio (FOV) escaneando un FOV más pequeño, estando el FOV amplio en el intervalo de tamaño de 10-2,000 mm2. Por ejemplo, los FOV más pequeños pueden obtenerse mediante un microscopio de fluorescencia de barrido 110 que usasoftwarede procesamiento de imágenes 104 para coser digitalmente los FOV más pequeños entre sí para crear un FOV más amplio. Se pueden usar<f>O<v>amplios, por ejemplo, para obtener imágenes de portaobjetos completos (WSI) de la muestra 22. La imagen de fluorescencia se obtiene usando un dispositivo de formación de imágenes 110. Para las formas de realización de fluorescencia descritas en el presente documento, esto puede incluir un microscopio de fluorescencia 110. El microscopio de fluorescencia 110 incluye una fuente de luz de excitación que ilumina la muestra 22 así como uno o más sensores de imagen (por ejemplo, sensores de imagen CMOS) para capturar luz fluorescente que es emitida por fluoróforos u otros emisores endógenos de luz desplazada en frecuencia contenida en la muestra 22. El microscopio de fluorescencia 110 puede, en algunas formas de realización, incluir la capacidad de iluminar la muestra 22 con luz de excitación a múltiples longitudes de onda diferentes o intervalos/bandas de longitud de onda. Esto puede conseguirse usando múltiples fuentes de luz diferentes y/o diferentes conjuntos de filtros (por ejemplo, conjuntos de filtros de excitación/emisión de UV o UV cercano estándar). Además, el microscopio de fluorescencia 110 puede incluir, en algunas formas de realización, múltiples conjuntos de filtros que pueden filtrar diferentes bandas de emisión. Por ejemplo, en algunas formas de realización, se pueden capturar múltiples imágenes de fluorescencia 20, cada una capturada en una banda de emisión diferente usando un conjunto de filtros diferente.
[0018] La muestra 22 puede incluir, en algunas formas de realización, una porción de tejido que está dispuesta sobre o en un sustrato 23. El sustrato 23 puede incluir un sustrato ópticamente transparente en algunas formas de realización (por ejemplo, un portaobjeto de vidrio o plástico o similar). La muestra 22 puede incluir secciones de tejido que se cortan en secciones finas usando un dispositivo de micrótomo o similar. Las secciones delgadas de tejido 22 pueden considerarse un objeto de fase de dispersión débil, que tiene modulación de contraste de amplitud limitada bajo iluminación de campo claro. La muestra 22 puede visualizarse con o sin una cubierta de cristal/cubreobjetos. La muestra puede implicar secciones congeladas o secciones de parafina (cera). La muestra de tejido 22 puede fijarse (por ejemplo, usando formalina) o no fijarse. La muestra de tejido 22 puede incluir tejido de mamífero (por ejemplo, humano o animal) o tejido vegetal. La muestra 22 también puede incluir otras muestras biológicas, muestras ambientales y similares. Los ejemplos incluyen partículas, células, orgánulos celulares, patógenos u otros objetos de interés a microescala (aquellos con dimensiones de tamaño micrométrico o más pequeños). La muestra 22 puede incluir frotis de fluidos o tejidos biológicos. Entre ellos se cuentan, por ejemplo, frotis de sangre, frotis de Papanicolaou o de Pap. Como se explica en el presente documento, para las formas de realización basadas en fluorescencia, la muestra 22 incluye uno o más fluoróforos de origen natural o endógenos que tienen fluorescencia y son capturados por el dispositivo de microscopio de fluorescencia 110. La mayoría de los tejidos vegetales y animales muestran algo de autofluorescencia cuando se excitan con luz ultravioleta o ultravioleta cercana. Los fluoróforos endógenos pueden incluir a modo de ilustración proteínas tales como colágeno, elastina, ácidos grasos, vitaminas, flavinas, porfirinas, lipofuscinas, coenzimas (por ejemplo, NAD(P)H). En algunas formas de realización opcionales, también se pueden añadir marcadores fluorescentes añadidos exógenamente u otros emisores de luz exógenos. Como se explica en el presente documento, la muestra 22 también puede contener otros emisores endógenos de luz desplazada en frecuencia.
[0019] La red neuronal profunda entrenada 10 en respuesta a la imagen de entrada 20 produce o genera una imagen de salida marcada o teñida digitalmente 40. La imagen de salida teñida digitalmente 40 tiene "tinción" que se ha integrado digitalmente en la imagen de salida teñida 40 usando la red neuronal profunda entrenada 10. En algunas formas de realización, como las que implican secciones de tejido, la red neuronal profunda entrenada 10 parece a un observador experto (por ejemplo, un histopatólogo entrenado) sustancialmente equivalente a una imagen de campo claro correspondiente de la misma muestra de sección de tejido 22 que se ha teñido químicamente. De hecho, como se explica en el presente documento, los resultados experimentales obtenidos usando la red neuronal profunda entrenada 10 muestran que los patólogos entrenados fueron capaces de reconocer características histopatológicas tanto con técnicas de tinción (teñidas químicamente frente a teñidas digital/virtualmente) como con un alto grado de acuerdo entre las técnicas, sin una técnica de tinción clara preferible (virtual frente a histológica). Esta tinción digital o virtual de la muestra de la sección de tejido 22 aparece como si la muestra de la sección de tejido 22 hubiera sido sometida a tinción histoquímica aunque no se hubiera realizado tal operación de tinción.
[0020] La figura 2 ilustra esquemáticamente las operaciones implicadas en una forma de realización típica basada en fluorescencia. Como se observa en la figura 2, se obtiene una muestra 22 tal como una sección de tejido sin teñir. Esto puede obtenerse a partir de tejido vivo, tal como a través de una biopsia B o similar. La muestra de la sección de tejido 22 sin teñir se somete entonces a formación de imágenes fluorescentes usando un microscopio de fluorescencia 110 y genera una imagen de fluorescencia 20. Esta imagen de fluorescencia 20 se introduce a continuación en una red neuronal profunda entrenada 10 que emite rápidamente una imagen teñida digitalmente 40 de la muestra de sección de tejido 22. Esta imagen teñida digitalmente 40 se asemeja mucho a la apariencia de una imagen de campo claro de la misma muestra de sección de tejido 22 que tenía la muestra de sección de tejido real 22 sujeta a tinción histoquímica. La figura 2 ilustra (usando flechas discontinuas) el proceso convencional por el cual la muestra de la sección de tejido 22 se somete a tinción histoquímica 44 seguido de formación de imágenes microscópicas de campo claro 46 convencionales para generar una imagen de campo claro 48 convencional de la muestra de la sección de tejido teñida 22. Como se ve en la figura 2, la imagen teñida digitalmente 40 se asemeja mucho a la imagen teñida químicamente 48 real. Se obtienen perfiles de resolución y color similares usando la plataforma de tinción digital descrita en el presente documento. Esta imagen teñida digitalmente 40 puede, como se ilustra en la figura 1, mostrarse o visualizarse en un monitor de ordenador 106, pero debe apreciarse que la imagen teñida digitalmente 40 puede mostrarse en cualquier pantalla adecuada (por ejemplo, monitor de ordenador, tableta, dispositivo informático móvil, teléfono móvil, etc.). Se puede visualizar una GUI en el monitor de ordenador 106 de modo que el usuario pueda ver y opcionalmente interactuar con la imagen teñida digitalmente 40 (por ejemplo, zoom, corte, resalte, marca, ajuste de la exposición y similares).
Experimental - Tinción digital de tejido sin marcador usando autofluorescencia
Tinción virtual de muestras de tejido
[0021] El sistema 2 y los métodos descritos en el presente documento se probaron y demostraron usando diferentes combinaciones de muestras de secciones de tejido 22 y tinciones. Después del entrenamiento de una red neural profunda basada en CNN 10, su inferencia se probó ciegamente alimentándola con las imágenes de autofluorescencia 20 de secciones de tejido sin marcador 22 que no se solaparon con las imágenes que se usaron en los conjuntos de entrenamiento o validación. Las figuras 4A-4H ilustran los resultados para una sección de tejido de glándula salival, que se tiñó digital/virtualmente para coincidir con imágenes de campo brillante teñidas 48 con H&E (es decir, imágenes reales) de la misma muestra 22. Estos resultados demuestran la capacidad del sistema 2 para transformar una imagen de fluorescencia 20 de una sección de tejido sin marcador 22 en una imagen equivalente de campo claro 40, que muestra el esquema de color correcto que se espera de un tejido teñido con H&E, que contiene diversos constituyentes tales como células epitelioides, núcleos celulares, nucléolos, estroma y colágeno. La evaluación tanto de la figura 3C como de la 3D muestra que las tinciones con H&E demuestran una pequeña isla de células tumorales infiltrantes dentro del tejido fibroadiposo subcutáneo. Obsérvese que el detalle nuclear, incluyendo la distinción de nucléolos (flecha) y la textura de la cromatina, se aprecia claramente en ambos paneles. De manera similar, en las figuras 3G y 3H, las tinciones con H&E demuestran la infiltración de un carcinoma de células escamosas. La reacción desmoplástica con cambio mixoide edematoso (asterisco) en el estroma adyacente es claramente identificable en ambas tinciones.
[0022] A continuación, la red profunda 10 se entrenó para teñir digital/virtualmente otros tipos de tejidos con dos tinciones diferentes, es decir, la tinción de plata con metenamina de Jones (riñón) y la tinción tricrómica de Masson (hígado y pulmón). Las figuras 4A-4H y 5A-5P resumen los resultados para la tinción digital/virtual basada en aprendizaje profundo de estas secciones de tejido 22, que coinciden muy bien con las imágenes de campo claro 48 de las mismas muestras 22, capturadas después del proceso de tinción histoquímica. Estos resultados ilustran que la red neuronal profunda entrenada 10 es capaz de inferir los patrones de tinción de diferentes tipos de tinciones histológicas usadas para diferentes tipos de tejidos, a partir de una única imagen de fluorescencia 20 de una muestra sin marcador (es decir, sin ninguna tinción histoquímica). Con la misma conclusión global que en las figuras 3A-3H, también fue confirmado por un patólogo que las imágenes de salida de red neuronal de las figuras 4C y 5G revelan correctamente las características histológicas correspondientes a hepatocitos, espacios sinusoidales, colágeno y gotitas de grasa (figura 5G), consecuente con la manera en que aparecen en las imágenes de campo claro 48 de las mismas muestras de tejido 22, capturadas después de la tinción química (figuras 5D y 5H). De manera similar, también fue confirmado por el mismo experto que las imágenes de salida de red neuronal profunda 40 proporcionadas en las figuras 5K y 5O (pulmón) revelan características histológicas teñidas de manera consistente correspondientes a vasos, colágeno y espacios alveolares tal como aparecen en las imágenes de campo claro 48 de la misma muestra de tejido 22 de la que se forman imágenes después de la tinción química (figuras 6L y 6P).
[0023] Las imágenes de salida teñidas digital/virtualmente 40 de la red neuronal profunda entrenada 10 se compararon con las imágenes de tinción histoquímica estándar 48 para diagnosticar múltiples tipos de afecciones en múltiples tipos de tejidos, que eran secciones embebidas en parafina y fijadas en formalina (FFPE) o congeladas. Los resultados se resumen en la Tabla 1 a continuación. El análisis de quince (15) secciones de tejido por cuatro patólogos certificados (que no conocían la técnica de tinción virtual) demostró una discordancia no mayor del 100 %, definida como ninguna diferencia clínicamente significativa en el diagnóstico entre observadores profesionales. El "tiempo para el diagnóstico" varió considerablemente entre los observadores, desde un promedio de 10 segundos por imagen para el observador 2 a 276 segundos por imagen para el observador 3. Sin embargo, la variabilidad intra-observador fue muy pequeña y tendía hacia un tiempo más corto para diagnosticar con las imágenes de portaobjetos teñidas virtualmente 40 para todos los observadores excepto el observador 2 que fue igual, es decir, ~10 segundos por imagen tanto para la imagen de portaobjetos virtual 40 como para la imagen de portaobjetos teñida histológicamente 48. Estos indican una utilidad diagnóstica muy similar entre las dos modalidades de imagen.
Tabla 1
(continuada)
(continuada)
Evaluación ciega de la eficacia de tinción para imágenes de portaobjetos completos (WSI)
[0024] Después de evaluar las diferencias en la sección de tejido y las tinciones, se probó la capacidad del sistema de tinción virtual 2 en el flujo de trabajo de histología de tinción especializada. En particular, se obtuvieron imágenes de la distribución de autofluorescencia de 15 muestras sin marcador de secciones de tejido hepático y 13 secciones de tejido sin marcador de riñón con una lente objetivo de 20*/0,75NA. Todas las secciones de tejido hepático y renal se obtuvieron de diferentes pacientes e incluían biopsias pequeñas y resecciones más grandes. Todas las secciones de tejido se obtuvieron de FFPE pero no se cubrieron con cubreobjetos. Después del barrido de autofluorescencia, las secciones de tejido se tiñeron histológicamente con tricrómico de Masson (secciones de tejido hepático de 4 |_im) y tinción de Jones (secciones de tejido renal de 2 l_im). Los WSI se dividieron entonces en conjuntos de entrenamiento y prueba. Para la cohorte de portaobjetos de hígado, se usaron 7 WSI para entrenar el algoritmo de tinción virtual y se usaron 8 WSI para pruebas ciegas; para la cohorte de portaobjetos de riñón, se usaron 6 WSI para entrenar el algoritmo y se usaron 7 WSI para pruebas. Los patólogos del estudio no conocían las técnicas de tinción para cada WSI y se les pidió aplicar un grado numérico 1-4 para la calidad de las diferentes tinciones: 4 = perfecto, 3 = muy bueno, 2 = aceptable, 1 = inaceptable. En segundo lugar, los patólogos del estudio aplicaron la misma escala de puntuación (1-4) para características específicas: detalle nuclear (ND), detalle citoplasmático (CD) y fibrosis extracelular (EF), para el hígado solamente. Estos resultados se resumen en la Tabla 2 (Hígado) y la Tabla 3 (Riñón) a continuación (el ganador está en negrita). Los datos indican que los patólogos fueron capaces de reconocer características histopatológicas tanto con técnicas de tinción como con un alto grado de acuerdo entre las técnicas, sin una clara técnica de tinción preferible (virtual frente a histológica).
Tabla 2
Tabla 3
Cuantificación de la calidad de imagen de salida de red
[0025] A continuación, más allá de la comparación visual proporcionada en las FIGS. 3A-3H, 4A-4H, 5A-5P, los resultados de la red neuronal profunda entrenada 10 se cuantificaron calculando en primer lugar las diferencias de nivel de píxel entre las imágenes de campo claro 48 de las muestras teñidas químicamente 22 y las imágenes teñidas digital/virtualmente 40 que se sintetizan usando la red neuronal profunda 10 sin el uso de ningún marcador/tinción. La Tabla 4 a continuación resume esta comparación para diferentes combinaciones de tipos de tejido y tinciones, usando el espacio de color YCbCr, donde los componentes de croma Cb y Cr definen completamente el color, e Y define el componente de brillo de la imagen. Los resultados de esta comparación revelan que la diferencia media entre estos dos conjuntos de imágenes es < ~5 % y < -16 %, para los canales de croma (Cb, Cr) y de brillo (Y), respectivamente. A continuación, se usó una segunda métrica para cuantificar aún más la comparación, es decir, el índice de similitud estructural (SSIM), que en general se usa para predecir la puntuación que un observador humano dará para una imagen, en comparación con una imagen de referencia (Ecuación 8 en el presente documento). El SSIM oscila entre 0 y 1, donde 1 define la puntuación para imágenes idénticas. Los resultados de esta cuantificación SSIM también se resumen en la Tabla 4, que ilustra muy bien la fuerte similitud estructural entre las imágenes de salida de red 40 y las imágenes de campo claro 48 de las muestras teñidas químicamente.
Tabla 4
[0026] Se debe observar que las imágenes de campo claro 48 de las muestras de tejido teñidas químicamente 22 no proporcionan el verdadero estándar de referencia para este análisis específico de SSIM y YCbCr de las imágenes de salida de la red 40, porque hay variaciones incontroladas y cambios estructurales que experimenta el tejido durante el proceso de tinción histoquímica y pasos de deshidratación y aclaramiento relacionados. Otra variación que se observó para algunas de las imágenes fue que elsoftwarede escaneo automático de microscopio seleccionó diferentes planos de autoenfoque para las dos modalidades de obtención de imágenes. Todas estas variaciones crean algunos desafíos para la comparación cuantitativa absoluta de los dos conjuntos de imágenes (es decir, la salida de red 40 para un tejido sin marcador frente a la imagen de campo claro 48 del mismo tejido después del proceso de tinción histológica).
Estandarización de la tinción
[0027] Un subproducto interesante del sistema de tinción digital/virtual 2 puede ser la estandarización de la tinción. En otras palabras, la red neural profunda entrenada 10 converge a un esquema de coloración de "tinción común" por lo que la variación en las imágenes de tejido histológicamente teñidas 48 es mayor que la de las imágenes de tejido virtualmente teñidas 40. La coloración de la tinción virtual es únicamente el resultado de su entrenamiento (es decir, la tinción histológica estándar de referencia usada durante la fase de entrenamiento) y puede ajustarse adicionalmente basándose en las preferencias de los patólogos, reentrenando la red con una nueva coloración de tinción. Tal entrenamiento "mejorado" puede crearse desde cero o acelerarse a través del aprendizaje por transferencia. Esta estandarización potencial de la tinción usando aprendizaje profundo puede remediar los efectos negativos de las variaciones de humano a humano en diferentes etapas de la preparación de muestras, crear un terreno común entre diferentes laboratorios clínicos, potenciar el flujo de trabajo de diagnóstico para médicos clínicos así como ayudar al desarrollo de nuevos algoritmos tales como detección automática de metástasis tisular o clasificación de diferentes tipos de cáncer, entre otros.
Transferencia del aprendizaje a otras combinaciones de tinción de tejidos
[0028] Usando el concepto de aprendizaje por transferencia, el procedimiento de entrenamiento para nuevos tipos de tejido y/o tinciones puede converger mucho más rápido, al tiempo que se alcanza un rendimiento mejorado, es decir, un mejor mínimo local en la función de coste/pérdida de entrenamiento. Esto significa que una red neuronal profunda 10 del modelo CNN preaprendida, de una combinación diferente de tinción de tejido, puede usarse para inicializar la red neuronal profunda 10 para aprender estadísticamente la tinción virtual de una nueva combinación. Las figuras 6A-6C muestran los atributos favorables de dicho enfoque: se entrenó una nueva red neural profunda 10 para teñir virtualmente las imágenes de autofluorescencia 20 secciones de tejido tiroideo sin teñir, y se inicializó usando los pesos y sesgos de otra red neuronal profunda 10 que se adiestró previamente para la tinción virtual con H&E de la glándula salival. La evolución de la métrica de pérdida en función del número de iteraciones utilizadas en la fase de entrenamiento demuestra claramente que la nueva red profunda tiroidea 10 converge rápidamente a un mínimo inferior en comparación con la misma arquitectura de red que se entrenó desde cero, utilizando inicialización aleatoria como se ve en la figura 6A. La figura 6B compara las imágenes de salida 40 de esta red tiroidea 10 en diferentes etapas de su proceso de aprendizaje, lo que ilustra además el impacto del aprendizaje por transferencia para adaptar rápidamente el enfoque presentado a nuevas combinaciones de tejido/tinción. Las imágenes de salida de red 40, después de la fase de entrenamiento con, por ejemplo, > 6,000 iteraciones, revelan que los núcleos celulares muestran contornos irregulares, surcos nucleares y palidez de la cromatina, sugestivos de carcinoma papilar de tiroides; las células también muestran cantidades leves a moderadas de citoplasma granular eosinofílico y el núcleo fibrovascular en la imagen de salida de red muestra una aumento de células inflamatorias, incluyendo linfocitos y células plasmáticas. La figura 6C ilustra la correspondiente imagen 48 de campo claro teñida químicamente con H&E.
Uso de múltiples canales fluorescentes a diferentes resoluciones
[0029] El método de uso de la red neuronal profunda entrenada 10 puede combinarse con otras longitudes de onda de excitación y/o modalidades de obtención de imágenes para mejorar su rendimiento de inferencia para diferentes constituyentes de tejido. Por ejemplo, se intentó la detección de melanina en una muestra de sección de tejido cutáneo usando tinción de H&E virtual. Sin embargo, la melanina no se identificó claramente en la salida de la red, ya que presenta una señal autofluorescente débil a longitudes de onda de excitación/emisión DAPI medidas en el sistema experimental descrito en el presente documento. Un método potencial para aumentar la autofluorescencia de melanina es obtener imágenes de las muestras mientras están en una solución oxidante. Sin embargo, se usó una alternativa más práctica en la que se empleó un canal de autofluorescencia adicional, que se originó a partir de, por ejemplo, un filtro Cy5 (excitación 628 nm/emisión 692 nm) de manera que la señal de melanina puede potenciarse e inferirse con precisión en la red neuronal profunda entrenada 10. Entrenando la red 10 usando tanto los canales de autofluorescencia DAPI como Cy5, la red neuronal profunda entrenada 10 fue capaz de determinar con éxito dónde se produce melanina en la muestra, como se ilustra en las FIGS. 7A-7C. Por el contrario, cuando se utiliza solamente el canal DAPI (figura 7A), la red 10 no puede determinar las zonas que contienen melanina (las zonas aparecen blancas). Dicho de otro modo, la red 10 usó la información de autofluorescencia adicional del canal Cy5 para distinguir la melanina del tejido de fondo. Para los resultados que se muestran en las FIGS. 7A-7C, las imágenes 20 se adquirieron usando una lente objetivo de menor resolución (10*/0,45NA) para el canal Cy5, para complementar la exploración DAPI de alta resolución (20*/0,75NA), ya que se planteó la hipótesis de que la información más necesaria se encuentra en la exploración DAPI de alta resolución y la información adicional (por ejemplo, la presencia de melanina) puede codificarse con la exploración de menor resolución. De esta manera, se usaron dos canales diferentes, usándose uno de los canales a una resolución más baja para identificar la melanina. Esto puede requerir múltiples pasadas de exploración de la muestra 22 con el microscopio fluorescente 110. En otra forma de realización multicanal más, se pueden alimentar múltiples imágenes 20 a la red neuronal profunda entrenada 10. Esto puede incluir, por ejemplo, imágenes fluorescentes sin procesar en combinación con una o más imágenes que han experimentado un preprocesamiento de imágenes lineal o no lineal, tal como mejora de contraste, inversión de contraste y filtrado de imágenes.
[0030] El sistema 2 y los métodos descritos en el presente documento muestran la capacidad de teñir digital/virtualmente secciones de tejido libres de marcadores 22, usando una técnica de aprendizaje profundo supervisada que usa una única imagen de fluorescencia 20 de la muestra como entrada, capturada por un microscopio de fluorescencia estándar 110 y un conjunto de filtros (en otras formas de realización, se introducen múltiples imágenes de fluorescencia 20 cuando se usan múltiples canales de fluorescencia). Este método estadístico basado en aprendizaje tiene el potencial de reestructurar el flujo de trabajo clínico en histopatología y puede beneficiarse de diversas modalidades de obtención de imágenes tales como microscopía de fluorescencia, microscopía no lineal, microscopía holográfica, microscopía de dispersión Raman estimulada y tomografía de coherencia óptica, entre otras, para proporcionar potencialmente una alternativa digital a la práctica estándar de tinción histoquímica de muestras de tejido 22. Aquí, el método se demostró usando muestras de tejido no teñidas fijas 22 para proporcionar una comparación significativa con muestras de tejido teñidas químicamente, que es esencial para entrenar la red neuronal profunda 10 así como para probar ciegamente el rendimiento de la salida de red frente al método clínicamente aprobado. Sin embargo, el enfoque basado en aprendizaje profundo presentado es ampliamente aplicable a diferentes tipos y estados de una muestra 22 incluyendo muestras de tejido frescas no seccionadas (por ejemplo, después de un procedimiento de biopsia) sin el uso de ningún marcador o tinción. Después de su entrenamiento, la red neuronal profunda 10 puede usarse para teñir digital/virtualmente las imágenes de muestras de tejido fresco libres de marcadores 22, adquiridas usando, por ejemplo, excitación UV o UV profunda o incluso modalidades de microscopía no lineal. Por ejemplo, la microscopía Raman puede proporcionar firmas bioquímicas libres de marcadores muy ricas que pueden mejorar aún más la eficacia de la tinción virtual que aprende la red neuronal.
[0031] Una parte importante del proceso de entrenamiento implica hacer coincidir las imágenes de fluorescencia 20 de las muestras de tejido sin marcador 22 y sus correspondientes imágenes de campo claro 48 después del proceso de tinción histoquímica (es decir, imágenes teñidas químicamente). Debe observarse que durante el proceso de tinción y los pasos relacionados, algunos elementos constitutivos del tejido pueden perderse o deformarse de una manera que induzcan a error a la función de pérdida/coste en la fase de entrenamiento. Sin embargo, esto es solo un desafío relacionado con el entrenamiento y la validación y no plantea ninguna limitación en la práctica de una red neuronal profunda bien entrenada 10 para la tinción virtual de muestras de tejido libres de marcadores 22. Para garantizar la calidad de la fase de entrenamiento y validación y minimizar el impacto de este desafío en el rendimiento de la red, se estableció un umbral para un valor de correlación aceptable entre los dos conjuntos de imágenes (es decir, antes y después del proceso de tinción histoquímica) y se eliminaron los pares de imágenes no coincidentes del conjunto de entrenamiento/validación para asegurarse de que la red neuronal profunda 10 aprende la señal real, no las perturbaciones a la morfología del tejido debido al proceso de tinción química. De hecho, este proceso de limpieza de los datos de imagen de entrenamiento/validación puede realizarse iterativamente: puede comenzarse con una eliminación aproximada de las muestras obviamente alteradas y, por consiguiente, converger en una red neuronal 10 que está entrenada. Después de esta fase de entrenamiento inicial, las imágenes de salida 40 de cada muestra en el conjunto de imágenes disponible pueden compararse con sus imágenes de campo claro 48 correspondientes para establecer un umbral más refinado para rechazar algunas imágenes adicionales y limpiar adicionalmente el conjunto de imágenes de entrenamiento/validación. Con unas pocas iteraciones de este proceso, se puede, no solo refinar aún más el conjunto de imágenes, sino también mejorar el rendimiento de la red neuronal profunda 10 entrenada final.
[0032] La metodología descrita anteriormente mitigará algunos de los desafíos de entrenamiento debido a la pérdida aleatoria de algunas características tisulares después del proceso de tinción histológica. De hecho, esto destaca otra motivación para omitir los procedimientos laboriosos y costosos que están implicados en la tinción histoquímica ya que será más fácil conservar la histología tisular local en un método sin marcadores, sin la necesidad de que un experto maneje algunos de los procedimientos delicados del proceso de tinción, que a veces también requiere observar el tejido bajo un microscopio.
[0033] Usando un PC de sobremesa, la fase de entrenamiento de la red neuronal profunda 10 lleva una cantidad de tiempo considerable (por ejemplo, ~13 horas para la red de glándulas salivales). Sin embargo, todo este proceso puede acelerarse significativamente usandohardwareinformático dedicado, basado en GPU. Además, como ya se ha destacado en las figuras 6A-6C, el aprendizaje por transferencia proporciona un "inicio en caliente" a la fase de entrenamiento de una nueva combinación de tejido/tinción, haciendo que todo el proceso sea significativamente más rápido. Una vez que la red neuronal profunda 10 ha sido entrenada, la tinción digital/virtual de una imagen de muestra 40 se realiza de una manera única, no iterativa, que no requiere un enfoque de prueba y error o cualquier sintonización de parámetro para lograr el resultado óptimo. Basándose en su arquitectura de alimentación directa y no iterativa, la red neuronal profunda 10 emite rápidamente una imagen teñida virtualmente en menos de un segundo (por ejemplo, 0,59 segundos, correspondiente a un campo de visión de muestra de ~ 0,33 mm x 0,33 mm). Con una aceleración basada en GPU adicional, tiene el potencial de lograr un rendimiento en tiempo real o casi en tiempo real en la salida de imágenes teñidas digital/virtualmente 40 que podrían ser especialmente útiles en el quirófano o para aplicaciones de obtención de imágenesin vivo.
[0034] El procedimiento de tinción digital/virtual que se implementa se basa en entrenar una red neuronal profunda 10 de CNN separada para cada combinación de tejido/tinción. Si se alimenta una red neuronal profunda 10 basada en c Nn con las imágenes de autofluorescencia 20 que tienen diferentes combinaciones de tejido/tinción, no se comportará como se desea. Esto, sin embargo, no es una limitación porque para aplicaciones histológicas, el tipo de tejido y el tipo de tinción están predeterminados para cada muestra 22 de interés y, por lo tanto, una selección de CNN específica para crear la imagen teñida digital/virtualmente 40 a partir de una imagen de autofluorescencia 20 de la muestra 22 no marcada no requiere una información o recurso adicional. Por supuesto, se puede aprender un modelo de CNN más general para múltiples combinaciones de tejido/tinción, por ejemplo, aumentando el número de parámetros entrenados en el modelo, a costa de un posible aumento en los tiempos de entrenamiento e inferencia. Otra vía es el potencial del sistema 2 y el método para realizar múltiples tinciones virtuales en el mismo tipo de tejido no marcado.
[0035] Una ventaja significativa del sistema 2 es que es bastante flexible. Puede adaptarse a la retroalimentación para modificar estadísticamente su rendimiento si se detecta un fallo de diagnóstico a través de una comparación clínica, penalizando en consecuencia tales fallos a medida que se detectan. Este entrenamiento iterativo y el ciclo de aprendizaje de transferencia, basado en evaluaciones clínicas del rendimiento de la salida de la red, ayudará a optimizar la robustez y el impacto clínico del enfoque presentado. Finalmente, este método y sistema 2 se pueden usar para microguiar el análisis molecular a nivel de tejido sin teñir, identificando localmente regiones de interés basándose en tinción virtual, y usando esta información para guiar el análisis posterior del tejido para, por ejemplo, microinmunohistoquímica o secuenciación. Este tipo de microguiado virtual en una muestra de tejido no marcado puede facilitar la identificación de alto rendimiento de subtipos de enfermedades, ayudando también al desarrollo de terapias personalizadas para los pacientes.
Preparación de la muestra
[0036] Se desparafinaron secciones de tejido de 2 |_im de espesor embebidas en parafina y fijadas con formalina usando xileno y se montaron en un portaobjetos de vidrio convencional usando Cytoseal™ (Thermo-Fisher Scientific, Waltham, MA EE.UU.), seguido de la colocación de un cubreobjetos (Fisherfinest™, 24x50-1, Fisher Scientific, Pittsburgh, PA EE.UU.). Después del proceso de formación de imágenes de autofluorescencia inicial (usando un conjunto de filtros de excitación y emisión DAPI) de la muestra de tejido no marcado, el portaobjetos se puso entonces en xileno durante aproximadamente 48 horas o hasta que el cubreobjetos pudo retirarse sin dañar el tejido. Una vez retirado el cubreobjetos, se sumergió el portaobjetos (aproximadamente 30 inmersiones) en alcohol absoluto, alcohol al 95 % y luego se lavó en agua desionizada durante ~1 minuto. Este paso fue seguido por los procedimientos de tinción correspondientes, usados para las tinciones de H&E, tricrómico de Masson o Jones. Esta ruta de procesamiento de tejido solo se usa para el entrenamiento y validación del enfoque y no se necesita después de que la red se haya entrenado. Para ensayar el sistema y el método, se usaron diferentes combinaciones de tejido y tinción: las secciones de tejido de glándula salival y tiroides se tiñeron con H&E, las secciones de tejido renal se tiñeron con la tinción de Jones, mientras que las secciones de tejido hepático y pulmonar se tiñeron con el tricrómico de Masson.
[0037] En el estudio WSI, las secciones de tejido de 2-4 |_im de espesor de FFPE no se cubrieron con portaobjetos durante la etapa de formación de imágenes de autofluorescencia. Después de la formación de imágenes de autofluorescencia, las muestras de tejido se tiñeron histológicamente como se ha descrito anteriormente (tricrómico de Masson para el hígado y Jones para las secciones de tejido de riñón). Las muestras congeladas sin teñir se prepararon embebiendo la sección de tejido en O.C.T. (Tissue Tek, SAKURA FINETEK USA INC) y se sumergieron en 2-metilbutano con hielo seco. La sección congelada se cortó a continuación en secciones de 4 |_im y se puso en un congelador hasta que se obtuvieron imágenes. Después del proceso de obtención de imágenes, la sección de tejido se lavó con alcohol al 70 %, se tiñó con H&E y se cubrió con cubreobjetos. Las muestras se obtuvieron del Translational Pathology Core Laboratory (T<p>CL) y fueron preparadas por el Laboratorio de Histología de la UCLA. Las secciones de tejido renal de pacientes diabéticos y no diabéticos se obtuvieron bajo IRB 18-001029 (UCLA). Todas las muestras se obtuvieron después de la desidentificación de la información relacionada con el paciente, y se prepararon a partir de especímenes existentes. Por lo tanto, este trabajo no interfirió con las prácticas estándar de cuidados o los procedimientos de recogida de muestras.
Adquisición de datos
[0038] Las imágenes de autofluorescencia de tejido sin marcador 20 se capturaron usando un microscopio de fluorescencia convencional 110 (IX83, Olympus Corporation, Tokio, Japón) equipado con una platina motorizada, donde el proceso de adquisición de imágenes se controló mediante MetaMorph®softwarede automatización de microscopio (Molecular Devices, LLC). Las muestras de tejido sin teñir se excitaron con luz UV cercana y se tomaron imágenes usando un cubo de filtro DAPI (OSFI3-DAPI-5060C, longitud de onda de excitación 377 nm/50 nm de ancho de banda, longitud de onda de emisión 447 nm/60 nm de ancho de banda) con una lente objetivo 40*/0,95NA (Olympus UPLSAPO 40*2/0,95NA, WD0,18) o una lente objetivo 20*/0,75NA (Olympus UpLSAPO 20*/0,75NA,<w>D0,65). Para la inferencia de la melanina, las imágenes de autofluorescencia de las muestras se adquirieron adicionalmente usando un cubo de filtro Cy5 (CY5-4040C-OFX, longitud de onda de excitación 628 nm/40 nm de ancho de banda, longitud de onda de emisión 692 nm/40 nm de ancho de banda) con una lente objetivo 10*/0,4NA (Olympus UPLSAPO10*2). Cada imagen de autofluorescencia se capturó con un sensor científico CMOS (ORCA-flash 4.0 v2, Hamamatsu Photonics K.K., Prefectura de Shizuoka, Japón) con un tiempo de exposición de ~500 ms. Las imágenes de campo claro 48 (usadas para el entrenamiento y validación) se adquirieron usando un microscopio de escáner de portaobjetos (Aperio AT, Leica Biosystems) usando un objetivo de 20*/0,75NA (Plan Apo), equipado con un adaptador de aumento de 2*.
Preprocesamiento y alineación de imágenes
[0039] Dado que la red neuronal profunda 10 tiene como objetivo aprender una transformación estadística entre una imagen de autofluorescencia 20 de una muestra de tejido sin teñir químicamente 22 y una imagen de campo claro 48 de la misma muestra de tejido 22 después de la tinción histoquímica, es importante hacer coincidir con precisión el FOV de las imágenes de entrada y de destino (es decir, imagen de autofluorescencia sin teñir 20 y la imagen de campo claro teñida 48). Un esquema global que describe el proceso de registro de imagen global y local se describe en la figura 8 que se implementó en MATLAB (The MathWorks Inc., Natick, MA, EE.UU.). El primer paso en este proceso es encontrar características candidatas para hacer coincidir imágenes de autofluorescencia sin teñir e imágenes de campo claro teñidas químicamente. Para esto, cada imagen de autofluorescencia 20 (2048*2048 píxeles) se reduce para coincidir con el tamaño de píxel efectivo de las imágenes de microscopio de campo claro. Esto da como resultado una imagen de tejido autofluorescente sin teñir de 1351*1351 píxeles, que mejora en contraste saturando el 1 % inferior y el 1 % superior de todos los valores de píxel, y se invierte el contraste (imagen 20a en la figura 8) para representar mejor el mapa de colores de la imagen de portaobjetos completo convertida en escala de grises. A continuación, se realiza un proceso de parches de correlación 60 en el que se calcula una matriz de puntuación de correlación normalizada correlacionando cada uno de los parches de 1351*1351 píxeles con el parche correspondiente del mismo tamaño, extraído de la imagen de escala de grises de portaobjetos completo 48a. La entrada en esta matriz con la puntuación más alta representa el FOV más probablemente coincidente entre las dos modalidades de obtención de imágenes. Usando esta información (que define un par de coordenadas), el FOV coincidente de la imagen 48 de campo claro de portaobjetos completo original se recorta 48c para crear imágenes de destino 48d. Siguiendo este procedimiento de coincidencia de FOV 60, la autofluorescencia 20 y las imágenes de microscopio de campo claro 48 coinciden en gran medida. Sin embargo, todavía no están registrados con precisión a nivel de píxeles individuales, debido al ligero desajuste en la colocación de la muestra en los dos experimentos de formación de imagen microscópica diferentes (autofluorescencia, seguido de campo claro), que provoca aleatoriamente un ligero ángulo de rotación (por ejemplo, -1-2 grados) entre las imágenes de entrada y de destino de la misma muestra.
[0040] La segunda parte del proceso de coincidencia de entrada-destino implica un paso de registro global 64, que corrige este ángulo de rotación ligero entre las imágenes de autofluorescencia y de campo claro. Esto se realiza extrayendo vectores de características (descriptores) y sus ubicaciones correspondientes de los pares de imágenes, y haciendo coincidir las características usando los descriptores extraídos. A continuación, se encuentra una matriz de transformación correspondiente a los pares coincidentes usando el algoritmo de Consenso de Muestra del estimador de M (MSAC), que es una variante del algoritmo de Consenso de Muestra Aleatorio (RANSAC). Finalmente, la imagen corregida en ángulo 48e se obtiene aplicando esta matriz de transformación al parche original de imagen de microscopio de campo claro 48d. Después de la aplicación de esta rotación, las imágenes 20b, 48e se recortan aún más en 100 píxeles (50 píxeles en cada lado) para adaptarse a valores de píxeles indefinidos en los bordes de la imagen, debido a la corrección del ángulo de rotación.
[0041] Finalmente, para la operación de registro de características locales 68, un registro de imágenes elástico, que coincide con las características locales de ambos conjuntos de imágenes (autofluorescencia 20b frente a campo claro 48e), haciendo coincidir jerárquicamente los bloques correspondientes, de grande a pequeño. Se utiliza una red neuronal 71 para aprender la transformación entre las imágenes aproximadamente coincidentes. Esta red 71 utiliza la misma estructura que la red 10 de la figura 10. Se usa un bajo número de iteraciones de modo que la red 71 solo aprenda el mapeo de color preciso, y no cualquier transformación espacial entre las imágenes de entrada y de marcador. El mapa de transformación calculado de este paso se aplica finalmente a cada parche de imagen de campo claro 48e. Al final de estos pasos de registro 60, 64, 68, los parches de imagen de autofluorescencia 20b y sus parches de imagen de tejido de campo claro correspondientes 48f se emparejan con precisión entre sí y pueden usarse como pares de entrada y marcador para el entrenamiento de la red neuronal profunda 10, permitiendo que la red se enfoque únicamente en y aprenda el problema de la tinción histológica virtual.
[0042] Para las imágenes de lente de objetivo de 20* (que se usaron para generar los datos de la Tabla 2 y la Tabla 3) se usó un proceso similar. En lugar de reducir las imágenes de autofluorescencia 20, las imágenes de microscopio de campo claro 48 se redujeron hasta el 75,85 % de su tamaño original de modo que coincidieran con las imágenes de menor aumento. Además, para crear imágenes de portaobjetos completos usando estas imágenes de 20*, se aplicaron técnicas de corrección y normalización de sombreado adicionales. Antes de ser introducidos en la red 71, cada campo de visión se normalizó restando el valor medio a través de todo el portaobjetos y dividiéndolo por la desviación estándar entre valores de píxeles. Esto normaliza la entrada de red tanto dentro de cada portaobjetos como entre portaobjetos. Finalmente, se aplicó corrección de sombreado a cada imagen para tener en cuenta la menor intensidad relativa medida en los bordes de cada campo de visión.
Arquitectura y entrenamiento de redes neuronales profundas
[0043] En este trabajo, se usó una arquitectura GAN para aprender la transformación de una imagen de entrada de autofluorescencia sin tinción sin marcador 20 a la imagen de campo claro correspondiente 48 de la muestra teñida químicamente. Un entrenamiento estándar basado en red neuronal convolucional aprende a minimizar una función de pérdida/coste entre la salida de la red y el marcador de destino. Por lo tanto, la elección de esta función de pérdida 69 (figuras 9 y 10) es un componente crítico del diseño de red profunda. Por ejemplo, simplemente eligiendo una penalización de norma- como una función de coste tenderá a generar resultados borrosos, ya que la red promedia una probabilidad ponderada de todos los resultados plausibles; por lo tanto, generalmente se necesitan términos de regularización adicionales para guiar a la red para preservar las características de muestra pronunciada deseadas a la salida de la red. Las GAN evitan este problema al aprender un criterio que tiene como objetivo clasificar con precisión si la imagen de salida de la red profunda es real o falsa (es decir, correcta en su tinción virtual o incorrecta). Esto hace que las imágenes de salida que son inconsistentes con los marcadores deseados no sean toleradas, lo que hace que la función de pérdida sea adaptativa a los datos y a la tarea deseada en cuestión. Para lograr este objetivo, el procedimiento de entrenamiento de GAN implica el entrenamiento de dos redes diferentes, tal como se muestra en las figuras 9 y 10: (i) una red del generador 70, que en este caso tiene como objetivo aprender la transformación estadística entre las imágenes de entrada de autofluorescencia sin teñir 20 y las imágenes de campo claro 48 correspondientes de las mismas muestras 12, después del proceso de tinción histológica; y(ii) unared del discriminador 74 que aprende a cómo discriminar entre una imagen de campo claro real de una sección de tejido teñido y la imagen de salida de la red del generador. Finalmente, el resultado deseado de este proceso de entrenamiento es una red neuronal profunda entrenada 10, que transforma una imagen de entrada de autofluorescencia sin teñir 20 en una imagen teñida digitalmente 40 que será indistinguible de la imagen de campo claro teñida 48 de la misma muestra 22. Para esta tarea, las funciones de pérdida 69 del generador 70 y del discriminador 74 se definieron como tales:
donde D se refiere a la salida de la red del discriminador, zmarcador denota la imagen de campo claro del tejido teñido químicamente, zsaiida denota la salida de la red del generador. La función de pérdida del generador equilibra el error cuadrático medio (MSE) a nivel de píxeles de la imagen de salida de la red del generador con respecto a su marcador, el operador de variación total (TV) de la imagen de salida, y la predicción de la red del discriminador de la imagen de salida, usando los parámetros de regularización (A,a) que se establecen empíricamente a diferentes valores, que se adaptan para ~2 % y -20 % de la pérdida de m Se por píxeles y la pérdida del generador combinada (¿"generador), respectivamente. El operador de TV de una imagen z se define como:
TV(z) = X Z \/( V/.» -<zm>Í ( zr . r ’ -<zp>, í 00
p i
donde p,qson índices de píxeles. Basado en la Ec. (1), el discriminador intenta minimizar la pérdida de salida, mientras maximiza la probabilidad de clasificar correctamente el marcador real (es decir, la imagen de campo claro del tejido teñido químicamente). Idealmente, la red del discriminador tendría como objetivo conseguir D(zmarcador) = 1 y D(zsaiida) = 0, pero si el generador es entrenado con éxito por la GAN, D(zsaiida) idealmente convergerá a 0,5.
[0044] La arquitectura de red neuronal profunda de generador 70 se detalla en la figura 10. La red 70 procesa una imagen de entrada 20 de una manera multiescala, usando trayectorias de muestreo descendente y ascendente, lo que ayuda a la red a aprender la tarea de tinción virtual a diversas escalas diferentes. La trayectoria de muestreo descendente consiste en cuatro pasos individuales (cuatro bloques #1, #2, #3, #4), conteniendo cada paso un bloque residual, cada uno de los cuales mapea un mapa de característicasXken el mapa de características Xk+i:
donde CONV{.} es el operador de convolución (que incluye los términos de sesgo),k1, k2,yk3denotan el número de serie de las capas convolucionales, y LReLU[.] es la función de activación no lineal (es decir, una unidad lineal rectificada con fugas) que se usó en toda la red, definida como:
[0045] El número de los canales de entrada para cada nivel en la trayectoria de muestreo descendente se estableció en: 1, 64, 128, 256, mientras que el número de los canales de salida en la trayectoria de muestreo descendente se estableció en: 64, 128, 256, 512. Para evitar la falta de coincidencia de dimensiones para cada bloque, el mapa de características Xk se rellenó con cero para que coincidiera con el número de canales en x*+i. La conexión entre cada nivel de muestreo descendente es una capa de agrupamiento promedio de 2*2 con un intervalo de 2 píxeles que reducen los mapas de características en un factor de 4 (2 veces para cada dirección). Después de la salida del cuarto bloque de muestreo descendente, otra capa convolucional (CL) mantiene el número de mapas de características como 512, antes de conectarlo a la trayectoria de muestreo ascendente. La trayectoria de muestreo ascendente consiste en cuatro pasos de muestreo ascendente simétricos (#1, #2, #3, #4), conteniendo cada paso un bloque convolucional. La operación de bloque convolucional, que mapea el mapa de características y* en el mapa de características y*+i, se da por:
donde CONCAT(.) es la concatenación entre dos mapas de características que combina el número de canales, US {.} es el operador de muestreo ascendente,k4, k5yk6denotan el número de serie de las capas de convolución. El número de los canales de entrada para cada nivel en la trayectoria de muestreo ascendente se estableció en 1024, 512, 256, 128 y el número de los canales de salida para cada nivel en la trayectoria de muestreo ascendente se estableció en 256, 128, 64, 32, respectivamente. La última capa es una capa convolucional (CL) que mapea 32 canales en 3 canales, representados por el mapa de color YCbCr. Tanto las redes del generador como del discriminador fueron entrenadas con un tamaño de parche de 256*256 píxeles.
[0046] La red del discriminador, resumida en la figura 10, recibe tres (3) canales de entrada, correspondientes al espacio de color YCbCr de una imagen de entrada 40YCbCr, 48YCbCr. Esta entrada se transforma entonces en una representación de 64 canales utilizando una capa convolucional, que va seguida de 5 bloques del siguiente operador:
zM =LReLU [CONVtó {LReLU [CONVt,{zk}]}] (6)
dondek1, k2denotan el número de serie de la capa convolucional. El número de canales para cada capa fue 3, 64, 64, 128, 128, 256, 256, 512, 512, 1024, 1024, 2048. La siguiente capa fue una capa de agrupamiento promedio con un tamaño de filtro que es igual al tamaño de parche (256*256), lo que da como resultado un vector con 2048 entradas. La salida de esta capa de agrupamiento promedio se introduce entonces a dos capas completamente conectadas (FC) con la siguiente estructura:
donde FC representa la capa completamente conectada, con pesos y sesgos aprendibles. La primera capa completamente conectada genera un vector con 2048 entradas, mientras que la segunda genera un valor escalar. Este valor escalar se utiliza como una entrada a una función de activación sigmoidea D(z) = 1/ (1 exp(-z)) que calcula la probabilidad (entre 0 y 1) de que la entrada de red del discriminador sea real/genuina o falsa, es decir, idealmente D(zmarcador) = 1 como se ilustra por la salida 67 en la figura 10.
[0047] Los núcleos de convolución a lo largo de la GAN se establecieron en 3*3. Estos núcleos se inicializaron aleatoriamente usando una distribución normal truncada con una desviación estándar de 0,05 y una media de 0; todos los sesgos de red se inicializaron como 0. Los parámetros aprendibles se actualizan a través de la etapa de entrenamiento de la red neuronal profunda 10 mediante retropropagación (ilustrada en flechas discontinuas de la figura 10) usando un optimizador de estimación de momento adaptativo (Adam) con tasa de aprendizaje 1*10-4 para la red del generador 70 y 1*10-5 para la red del discriminador 74. Además, para cada iteración del discriminador 74, hubo 4 iteraciones de la red del generador 70, para evitar el estancamiento de entrenamiento después de un posible sobreajuste de la red del discriminador a los marcadores. Se usó un tamaño de lote de 10 en el entrenamiento.
[0048] Una vez que todos los campos de visión han pasado a través de la red 10, las imágenes de portaobjetos completos se unen usando elpluginde unión Fiji Grid/Collection(véase,por ejemplo, Schindelin, J.et al.Fiji: an open-source platform for biological-image analysis. Nat. Methods 9, 676-682 (2012), que se incorpora en el presente documento por referencia). Esteplugincalcula la superposición exacta entre cada baldosa y las mezcla linealmente en una única imagen grande. En general, la inferencia y la costura tardaron ~5 minutos y 30 segundos, respectivamente, por cm2 y puede mejorarse sustancialmente usando avances dehardwareysoftware.Antes de mostrarse a los patólogos, se recortan secciones que están desenfocadas o tienen aberraciones importantes (debidas, por ejemplo, a partículas de polvo) en las imágenes de autofluorescencia o de campo claro. Finalmente, las imágenes se exportaron al formato Zoomify (diseñado para permitir la visualización de grandes imágenes usando un navegador web estándar; http://zoomify.com/) y se cargaron en el sitio web GIGAmacro (https://viewer.gigamacro.com/) para un fácil acceso y visualización por parte de los patólogos.
Detalles de implementación
[0049] Los demás detalles de implementación, incluyendo el número de parches entrenados, el número de épocas y los tiempos de entrenamiento se muestran en la Tabla 5 a continuación. La red neuronal profunda de tinción digital/virtual 10 se implementó usando Python versión 3.5.0. La GAN se implementó usando la versión 1.4.0 de la estructura TensorFlow. Otras bibliotecas de Python usadas fueron os, time, tqdm, la biblioteca de imágenes de Python (PIL), SciPy, glob, ops, sys y numpy. Elsoftwarese implementó en un ordenador de escritorio con una CPU Core i7-7700K @ 4.2 GHz (Intel) y 64 GB de RAM, ejecutando un sistema operativo Windows 10 (Microsoft). El entrenamiento y pruebas de la red se realizaron usando doble GPU GeForce® GTX 1080Ti (NVídia).
Tabla 5
[0050] Aunque se han mostrado y descrito formas de realización de la presente invención, se pueden realizar diversas modificaciones sin apartarse del alcance de la presente invención tal como se define en las reivindicaciones.
Claims (13)
1. Método para generar una imagen microscópica teñida digitalmente (40) de una muestra sin marcador (22) que comprende:
entrenar una red neuronal profunda (10) que se ejecuta mediante unsoftwarede procesamiento de imágenes (104) usando uno o más procesadores (102) de un dispositivo informático (100), donde la red neuronal profunda (10) se entrena con una pluralidad de pares coincidentes de imágenes teñidas químicamente o parches de imágenes y sus imágenes de autofluorescencia o parches de imágenes correspondientes de la misma muestra y donde los pares coincidentes se someten a un proceso de registro global (64) basado en vectores de características extraídos y sus ubicaciones correspondientes de los pares coincidentes y un proceso de registro local posterior (71, 68) que aprende, usando una red neuronal, el mapeo de color entre los pares coincidentes registrados globalmente seguido por un registro de características local (68) que coincide con las características locales de los pares coincidentes;
obtener una o más imágenes de autofluorescencia (20) de la muestra (22) usando un microscopio de fluorescencia (110) y una o más fuentes de luz de excitación y uno o más filtros de emisión, donde la luz fluorescente se emite desde fluoróforos endógenos u otros emisores endógenos de luz desplazada en frecuencia dentro de la muestra (22);
introducir una o más imágenes de autofluorescencia (20) de la muestra (22) en la red neuronal profunda entrenada (10); y
la red neuronal profunda entrenada (10) que produce la imagen microscópica teñida digitalmente (40) de la muestra (22) que es sustancialmente equivalente a una imagen de campo claro correspondiente (46) de la misma muestra (22) que se ha teñido químicamente (44).
2. Método según la reivindicación 1, donde la red neuronal profunda entrenada (10) comprende una red neuronal convolucional.
3. Método según la reivindicación 1, donde la red neuronal profunda se entrena usando un modelo de red generativa adversarial (GAN).
4. Método según la reivindicación 1, donde la red neuronal profunda se entrena usando una red del generador configurada para aprender la transformación estadística entre las imágenes o los parches de imágenes teñidas químicamente y de autofluorescencia coincidentes de la misma muestra y una red del discriminador configurada para discriminar entre una imagen real teñida químicamente de la muestra y la imagen de salida microscópica teñida digitalmente de la muestra.
5. Método según la reivindicación 1, donde la muestra comprende tejido de mamífero, tejido vegetal, células, patógenos, frotis de fluidos biológicos u otros objetos de interés.
6. Método según la reivindicación 1, donde la red neuronal profunda se entrena con muestras del mismo tipo que el tipo de muestra de la una o más imágenes de autofluorescencia obtenidas.
7. Método según la reivindicación 1, donde la una o más imágenes de autofluorescencia se someten a una o más operaciones de preprocesamiento de imágenes lineales o no lineales seleccionadas de entre mejora del contraste, inversión del contraste, filtrado de imágenes antes de introducirlas en la red neuronal profunda entrenada.
8. Método según la reivindicación 1, donde la red neuronal profunda entrenada se entrena y/o ejecuta usando una o más GPU o ASIC.
9. Método según la reivindicación 1, donde la muestra comprende una muestrain vivoy donde la imagen microscópica teñida digitalmente de la muestra se emite en tiempo real o casi en tiempo real después de obtener la una o más imágenes de autofluorescencia de la muestra.
10. Método según la reivindicación 1, donde la red neuronal profunda entrenada se entrena para una segunda combinación de tejido/tinción usando pesos de red neuronal iniciales y sesgos de una primera combinación de tejido/tinción que se optimizan adicionalmente para la segunda combinación de tejido/tinción usando aprendizaje de transferencia.
11. Método según la reivindicación 1, donde la red neural profunda entrenada se entrena para múltiples combinaciones de tejido/tinción.
12. Método según la reivindicación 1, donde una pluralidad de imágenes de autofluorescencia de la muestra se introducen en la red neuronal profunda entrenada, donde la pluralidad de imágenes de autofluorescencia se obtienen en diferentes canales de autofluorescencia.
13. Sistema (2) para generar imágenes microscópicas teñidas digitalmente de una muestra sin teñir químicamente (22) que comprende:
un dispositivo informático (100) con unsoftwarede procesamiento de imágenes (104) ejecutado en el mismo o de ese modo, comprendiendo elsoftwarede procesamiento de imágenes (104) una red neuronal profunda entrenada (10) que se ejecuta usando uno o más procesadores (102) del dispositivo informático (100), donde la red neuronal profunda entrenada (10) está entrenada con una pluralidad de imágenes o parches de imagen teñidos químicamente coincidentes y sus imágenes o parches de imagen de autofluorescencia correspondientes de la misma muestra y donde los pares coincidentes se someten a un proceso de registro global basándose en vectores de características extraídos y sus ubicaciones correspondientes de los pares coincidentes y un proceso de registro local posterior que aprende, usando una red neuronal, el mapeo de color entre los pares coincidentes registrados globalmente seguido de registro de características local que coincide con características locales de los pares coincidentes, la red neuronal profunda entrenada (10) configurada para recibir una o más imágenes de autofluorescencia (20) obtenidas en una o más bandas de longitud de onda de emisión usando uno o más filtros de emisión de la muestra (22) y producir la imagen microscópica teñida digitalmente de la muestra que es sustancialmente equivalente a una imagen de campo claro correspondiente de la misma muestra que se ha teñido químicamente.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862651005P | 2018-03-30 | 2018-03-30 | |
| PCT/US2019/025020 WO2019191697A1 (en) | 2018-03-30 | 2019-03-29 | Method and system for digital staining of label-free fluorescence images using deep learning |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES3014296T3 true ES3014296T3 (en) | 2025-04-21 |
Family
ID=68060845
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19776693T Active ES3014296T3 (en) | 2018-03-30 | 2019-03-29 | Method and system for digital staining of label-free fluorescence images using deep learning |
Country Status (9)
| Country | Link |
|---|---|
| US (3) | US11893739B2 (es) |
| EP (2) | EP4521342A3 (es) |
| JP (1) | JP7344568B2 (es) |
| KR (1) | KR102851169B1 (es) |
| CN (2) | CN120014640A (es) |
| BR (1) | BR112020019896A2 (es) |
| CA (1) | CA3095739A1 (es) |
| ES (1) | ES3014296T3 (es) |
| WO (1) | WO2019191697A1 (es) |
Families Citing this family (79)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108761752A (zh) | 2012-10-30 | 2018-11-06 | 加州理工学院 | 傅立叶重叠关联成像系统、设备和方法 |
| EP4521342A3 (en) | 2018-03-30 | 2025-05-07 | The Regents of the University of California | Method and system for digital staining of label-free fluorescece images using deep learning |
| JP7181001B2 (ja) * | 2018-05-24 | 2022-11-30 | 日本電子株式会社 | 生物組織画像処理システム及び機械学習方法 |
| CN113167783A (zh) | 2018-10-18 | 2021-07-23 | 加利福尼亚大学董事会 | 用于流体样本中运动物体的基于运动的无标记检测的设备和方法 |
| EP3881137B1 (en) | 2018-11-15 | 2024-06-26 | The Regents of the University of California | System and method for transforming holographic microscopy images to microscopy images of various modalities |
| WO2020139835A1 (en) | 2018-12-26 | 2020-07-02 | The Regents Of The University Of California | Systems and methods for two-dimensional fluorescence wave propagation onto surfaces using deep learning |
| JP7470339B2 (ja) * | 2019-03-06 | 2024-04-18 | 学校法人 埼玉医科大学 | 染色画像推定器学習装置、画像処理装置、染色画像推定器学習方法、画像処理方法、染色画像推定器学習プログラム、及び、画像処理プログラム |
| JP7370158B2 (ja) | 2019-04-03 | 2023-10-27 | 株式会社Preferred Networks | 情報処理装置および情報処理方法 |
| CA3141859A1 (en) | 2019-04-11 | 2020-10-15 | Agilent Technologies, Inc. | User interface configured to facilitate user annotation for instance segmentation within biological sample |
| US11262286B2 (en) | 2019-04-24 | 2022-03-01 | The Regents Of The University Of California | Label-free bio-aerosol sensing using mobile microscopy and deep learning |
| EP3977397B1 (en) * | 2019-05-24 | 2025-02-26 | Pharmanest LLC | Quantitative phenotyping of fibrosis from images of biological tissue samples |
| US11460395B2 (en) | 2019-06-13 | 2022-10-04 | The Regents Of The University Of California | System and method for measuring serum phosphate levels using portable reader device |
| GB2585005B (en) * | 2019-06-24 | 2021-06-23 | Roadmetric Ltd | Training a machine to recognize a motor vehicle driver using a mobile device |
| CN114365179B (zh) | 2019-09-19 | 2025-08-19 | 香港科技大学 | 无载玻片组织学成像方法和系统 |
| US11423678B2 (en) | 2019-09-23 | 2022-08-23 | Proscia Inc. | Automated whole-slide image classification using deep learning |
| TR201915794A2 (tr) * | 2019-10-14 | 2021-04-21 | Izmir Yueksek Teknoloji Enstituesue | Deri̇n öğrenme kullanarak hologramlardan hücre canlilik anali̇zi̇ ve sayimi ve buna uygun bi̇r merceksi̇z holografi̇k mi̇kroskop |
| CN110738263B (zh) * | 2019-10-17 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 一种图像识别模型训练的方法、图像识别的方法及装置 |
| KR102302333B1 (ko) * | 2019-11-05 | 2021-09-16 | 주식회사 토모큐브 | 3차원 굴절률 영상과 딥러닝을 활용한 비표지 방식의 3차원 분자 영상 생성 방법 및 장치 |
| DE102019130032B4 (de) * | 2019-11-07 | 2022-04-14 | Ford Global Technologies, Llc | Verfahren, Computerprogrammprodukt und System zum Erzeugen eines Bilddatensatzes für eine computerimplementierte Simulation |
| EP3828617A1 (de) * | 2019-11-26 | 2021-06-02 | Siemens Healthcare Diagnostics Inc. | Verfahren zur digitalen anfärbung von zellen |
| US11415571B2 (en) | 2019-12-05 | 2022-08-16 | Tempus Labs, Inc. | Large scale organoid analysis |
| CN111474701B (zh) * | 2019-12-19 | 2021-11-30 | 上海杏脉信息科技有限公司 | 一种病理显微图像实时采集分析系统、方法、装置及介质 |
| EP3839884A1 (en) * | 2019-12-20 | 2021-06-23 | Fundación Tecnalia Research & Innovation | Method, system and computer program product for image transformation |
| CA3165768A1 (en) * | 2019-12-23 | 2021-07-01 | The Regents Of The University Of California | Method and system for digital staining of microscopy images using deep learning |
| KR20220119447A (ko) * | 2019-12-26 | 2022-08-29 | 고에키자이단호진 간겐큐카이 | Ai를 이용한 병리 진단 지원 방법, 및 지원 장치 |
| WO2021154876A1 (en) | 2020-01-28 | 2021-08-05 | The Regents Of The University Of California | Systems and methods for the early detection and classification of live microorganisms using time-lapse coherent imaging and deep learning |
| DE102020105697B3 (de) * | 2020-03-03 | 2021-03-04 | Carl Zeiss Meditec Ag | Computerimplementiertes Verfahren zum Auffinden möglicher Artefakte in einem virtuell eingefärbten Histologiebild |
| WO2021198247A1 (en) * | 2020-03-30 | 2021-10-07 | Carl Zeiss Ag | Optimal co-design of hardware and software for virtual staining of unlabeled tissue |
| CN115362472A (zh) * | 2020-03-30 | 2022-11-18 | 卡尔蔡司显微镜有限责任公司 | 定制虚拟染色 |
| US11189060B2 (en) * | 2020-04-30 | 2021-11-30 | Adobe Inc. | Generating procedural materials from digital images |
| US20210374947A1 (en) * | 2020-05-26 | 2021-12-02 | Nvidia Corporation | Contextual image translation using neural networks |
| US11393182B2 (en) | 2020-05-29 | 2022-07-19 | X Development Llc | Data band selection using machine learning |
| US20230258918A1 (en) * | 2020-07-07 | 2023-08-17 | Secretary, Department Of Biotechnology | Digital microscope with artificial intelligence based imaging |
| KR20250026367A (ko) | 2020-07-09 | 2025-02-25 | 덴드라이트 이미징, 인코퍼레이티드 | 첨단 신경 조직 이미징 시스템 |
| PL4211657T3 (pl) | 2020-09-08 | 2025-04-07 | Insitro, Inc. | Transformacja obrazów biologicznych przy zastosowaniu modeli uczenia maszynowego |
| US11250199B1 (en) * | 2020-09-16 | 2022-02-15 | Center For Deep Learning In Electronics Manufacturing, Inc. | Methods and systems for generating shape data for electronic designs |
| US11861881B2 (en) | 2020-09-23 | 2024-01-02 | Proscia Inc. | Critical component detection using deep learning and attention |
| EP4002267A1 (en) | 2020-11-19 | 2022-05-25 | Prospective Instruments GmbH | Imaging method and system for generating a digitally stained image, training method for training an artificial intelligence system, and non-transitory storage medium |
| CN116685260A (zh) * | 2020-12-28 | 2023-09-01 | 徕卡生物系统成像股份有限公司 | 将使用多光谱成像获得的图像数据归一化的系统和方法 |
| EP4256309A1 (en) * | 2021-01-15 | 2023-10-11 | Leica Biosystems Newcastle Limited | Tissue sample carrier for use in multispectral imaging |
| KR102462847B1 (ko) * | 2021-01-29 | 2022-11-04 | 한국광기술원 | 음영 왜곡을 보정하는 전체 슬라이드 이미징 장치 및 그 방법 |
| EP4036797A1 (en) * | 2021-02-01 | 2022-08-03 | Robert Bosch GmbH | Device and method for training a machine learning system for generating images |
| US12198300B2 (en) * | 2021-02-25 | 2025-01-14 | California Institute Of Technology | Computational refocusing-assisted deep learning |
| EP4323951A1 (en) * | 2021-04-14 | 2024-02-21 | Ventana Medical Systems, Inc. | Transformation of histochemically stained images into synthetic immunohistochemistry (ihc) images |
| CN113515077A (zh) * | 2021-04-23 | 2021-10-19 | 重庆德方信息技术有限公司 | 人体细胞染色过程监控系统及方法 |
| US11995810B2 (en) * | 2021-04-27 | 2024-05-28 | City University Of Hong Kong | System and method for generating a stained image |
| DE102021204805A1 (de) | 2021-05-11 | 2022-11-17 | Carl Zeiss Microscopy Gmbh | Bewertungsverfahren für Simulationsmodelle in der Mikroskopie |
| DE102021114288A1 (de) * | 2021-06-02 | 2022-12-08 | Carl Zeiss Microscopy Gmbh | Synthetische fluoreszenzbilder mit proben-spezifischer referenz |
| CN113469864B (zh) * | 2021-06-28 | 2024-05-07 | 平湖莱顿光学仪器制造有限公司 | 一种用于获取显微图像的方法与设备 |
| US12504363B2 (en) | 2021-08-17 | 2025-12-23 | California Institute Of Technology | Three-dimensional contoured scanning photoacoustic imaging and virtual staining |
| US20240404303A1 (en) * | 2021-10-12 | 2024-12-05 | The Hong Kong University Of Science And Technology | Systems and methods for label-free multi-histochemical virtual staining |
| US12175730B2 (en) * | 2021-11-12 | 2024-12-24 | Promedius Inc. | Image learning method, apparatus, program, and recording medium using generative adversarial network |
| CN114113191B (zh) * | 2021-12-13 | 2025-05-23 | 中国科学技术大学 | 微米分辨率的肿瘤组织磁成像方法 |
| CN114119609B (zh) * | 2022-01-25 | 2022-04-26 | 深圳佑驾创新科技有限公司 | 图像污点浓度的检测方法、装置、设备及存储介质 |
| WO2023154925A1 (en) * | 2022-02-14 | 2023-08-17 | Genetic Innovations, Inc. | Medical spectroscopy and imaging analysis |
| US12475564B2 (en) | 2022-02-16 | 2025-11-18 | Proscia Inc. | Digital pathology artificial intelligence quality check |
| CN116703802B (zh) * | 2022-02-24 | 2025-11-04 | 复旦大学 | 一种基于组织切片的荧光图像转换方法 |
| CN114596298B (zh) * | 2022-03-16 | 2022-11-15 | 华东师范大学 | 基于高光谱成像的精标注数字病理数据集自动生成方法 |
| CN115018957B (zh) * | 2022-04-20 | 2025-04-22 | 中国科学院西安光学精密机械研究所 | 一种未染色切片的高光谱图像虚拟染色方法 |
| KR102764574B1 (ko) * | 2022-05-17 | 2025-02-07 | 계명대학교 산학협력단 | Gan을 활용한 디지털병리 염색 복원 장치 및 방법 |
| CN114926562A (zh) * | 2022-05-20 | 2022-08-19 | 温州医科大学 | 一种基于深度学习的高光谱图像虚拟染色方法 |
| US20230394716A1 (en) * | 2022-06-06 | 2023-12-07 | Pictor Labs, Inc. | Method of generating inference-based virtually stained image annotations |
| CN115187684A (zh) * | 2022-06-07 | 2022-10-14 | 温州医科大学 | 一种基于深度学习的图像虚拟染色方法、系统及电子设备 |
| CN115019130B (zh) * | 2022-06-09 | 2025-08-08 | 成都华西精准医学产业技术研究院有限公司 | 虚拟染色模型的训练方法和明场虚拟染色图像的生成方法 |
| CN115346213B (zh) * | 2022-07-26 | 2024-10-29 | 中国农业大学 | 基于植物染色图像的木质素和纤维素的检测方法及系统 |
| WO2024036020A1 (en) * | 2022-08-10 | 2024-02-15 | Verily Life Sciences Llc | Generating images of virtually stained biological samples |
| WO2024063119A1 (ja) * | 2022-09-21 | 2024-03-28 | 国立大学法人大阪大学 | 画像翻訳装置、画像診断システム、画像翻訳方法、制御プログラム、記録媒体 |
| CN115565698B (zh) * | 2022-10-26 | 2024-03-29 | 南方医科大学珠江医院 | 一种人工智能评估供肾质量的方法及系统 |
| WO2024114625A1 (en) * | 2022-11-28 | 2024-06-06 | Phomedics Limited | System and method for generating digitally stained histological images |
| CN115984631B (zh) * | 2023-02-15 | 2025-09-16 | 西安交通大学 | 基于深度学习自动寻优的无标记细胞透射光显微图像虚拟染色方法 |
| US12488431B2 (en) | 2023-04-20 | 2025-12-02 | The Regents Of The University Of California | Deep neural network for hologram reconstruction with superior external generalization |
| CN116503858B (zh) * | 2023-05-06 | 2024-01-23 | 华东师范大学 | 一种基于生成模型的免疫荧光图像分类方法及系统 |
| CN116660188A (zh) * | 2023-05-18 | 2023-08-29 | 中国科学院深圳先进技术研究院 | 用于快速体液检测的紫外光学显微成像方法和系统 |
| US20240037812A1 (en) * | 2023-10-09 | 2024-02-01 | Sony Interactive Entertainment LLC | Modifying stable diffusion to produce images with background eliminated |
| WO2025166108A1 (en) * | 2024-02-01 | 2025-08-07 | Ventana Medical Systems, Inc. | Methods of generating digitally stained images from unstained biological samples |
| CN118896942B (zh) * | 2024-07-23 | 2025-11-28 | 北京航空航天大学 | 一种体表无创肿瘤检测方法、装置及介质 |
| CN119168948B (zh) * | 2024-08-23 | 2025-06-20 | 温州市特种设备检测科学研究院(温州市特种设备应急处置中心) | 一种基于深度学习的曳引式电梯钢丝绳缺陷检测方法 |
| CN120163857B (zh) * | 2025-05-20 | 2025-11-04 | 中国人民解放军总医院第一医学中心 | 一种用于自发荧光与he染色图像配准的虚拟染色验证方法 |
| CN120431577B (zh) * | 2025-07-09 | 2025-09-02 | 吉林国际旅行卫生保健中心(长春海关口岸门诊部) | 痰液样本荧光显微图像结核分枝杆菌识别方法 |
Family Cites Families (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AU2003270687B2 (en) * | 2002-09-13 | 2008-05-08 | Life Technologies Corporation | Interactive and automated tissue image analysis with global training database and variable-abstraction processing in cytological specimen classification and laser capture microdissection applications |
| CN1556379A (zh) * | 2003-12-30 | 2004-12-22 | 天津大学 | 光纤连续激发显微荧光光谱成像仪 |
| US7907769B2 (en) | 2004-05-13 | 2011-03-15 | The Charles Stark Draper Laboratory, Inc. | Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation |
| US7555155B2 (en) | 2005-01-27 | 2009-06-30 | Cambridge Research & Instrumentation, Inc. | Classifying image features |
| US8269827B2 (en) * | 2009-09-29 | 2012-09-18 | General Electric Company | System and methods for mapping fluorescent images into a bright field color space |
| CN102143133B (zh) | 2010-08-05 | 2013-12-18 | 华为技术有限公司 | Http流播放方式中支持广告内容的方法、装置和系统 |
| US20120083678A1 (en) | 2010-09-30 | 2012-04-05 | Chemimage Corporation | System and method for raman chemical analysis of lung cancer with digital staining |
| US8639013B2 (en) * | 2011-08-17 | 2014-01-28 | General Electric Company | System and methods for generating a brightfield image using fluorescent images |
| WO2013142366A1 (en) * | 2012-03-19 | 2013-09-26 | Genetic Innovations, Inc. | Devices, systems, and methods for virtual staining |
| JP6116561B2 (ja) * | 2012-06-15 | 2017-04-19 | オリンパス株式会社 | 画像処理装置、顕微鏡システム及び画像処理方法 |
| US20150226743A1 (en) * | 2012-10-28 | 2015-08-13 | Clarient Diagnostics Services, Inc. | Multiplexed method for diagnosing classical hodgkin lymphoma |
| US9786050B2 (en) * | 2013-03-15 | 2017-10-10 | The Board Of Trustees Of The University Of Illinois | Stain-free histopathology by chemical imaging |
| US20150269314A1 (en) * | 2014-03-20 | 2015-09-24 | Rudjer Boskovic Institute | Method and apparatus for unsupervised segmentation of microscopic color image of unstained specimen and digital staining of segmented histological structures |
| US20170052106A1 (en) | 2014-04-28 | 2017-02-23 | The Broad Institute, Inc. | Method for label-free image cytometry |
| US10614287B2 (en) | 2014-06-16 | 2020-04-07 | Siemens Healthcare Diagnostics Inc. | Virtual staining of cells in digital holographic microscopy images using general adversarial networks |
| US9625387B2 (en) | 2014-09-16 | 2017-04-18 | Lawrence Livermore National Security, Llc | System and method for controlling depth of imaging in tissues using fluorescence microscopy under ultraviolet excitation following staining with fluorescing agents |
| US9964489B2 (en) * | 2014-09-16 | 2018-05-08 | Lawrence Livermore National Security, Llc | System and method for controlling depth of imaging in tissues using fluorescence microscopy under ultraviolet excitation following staining with fluorescing agents |
| US9984462B2 (en) * | 2015-01-05 | 2018-05-29 | Case Western Reserve University | Disease characterization from fused pathology and radiology data |
| US9767555B2 (en) * | 2015-01-05 | 2017-09-19 | Case Western Reserve University | Disease characterization from fused pathology and radiology data |
| WO2017053592A1 (en) | 2015-09-23 | 2017-03-30 | The Regents Of The University Of California | Deep learning in label-free cell classification and machine vision extraction of particles |
| US9971966B2 (en) | 2016-02-26 | 2018-05-15 | Google Llc | Processing cell images using neural networks |
| US10838192B2 (en) | 2016-05-10 | 2020-11-17 | The Regents Of The University Of California | Method and device for high-resolution color imaging using merged images from holographic and lens-based devices |
| WO2017205857A1 (en) * | 2016-05-27 | 2017-11-30 | Verily Life Sciences Llc | Systems and methods for 4-d hyperspectrial imaging |
| JP6795624B2 (ja) * | 2016-05-27 | 2020-12-02 | ヴェリリー ライフ サイエンシズ エルエルシー | 空間光変調器ベースのハイパースペクトル共焦点顕微鏡および使用方法 |
| US10990797B2 (en) | 2016-06-13 | 2021-04-27 | Nanolive Sa | Method of characterizing and imaging microscopic objects |
| CN109843176A (zh) | 2016-07-29 | 2019-06-04 | 诺瓦达克技术有限公司 | 用于利用机器学习来表征受验者的组织的方法和系统 |
| US20180064409A1 (en) | 2016-09-05 | 2018-03-08 | Koninklijke Philips N.V. | Simultaneously displaying medical images |
| US10972641B2 (en) | 2017-02-08 | 2021-04-06 | Essenlix Corporation | Optics, device, and system for assaying |
| US11170897B2 (en) | 2017-02-23 | 2021-11-09 | Google Llc | Method and system for assisting pathologist identification of tumor cells in magnified tissue images |
| CN110869738A (zh) | 2017-03-10 | 2020-03-06 | 加利福尼亚大学董事会 | 用于空气质量监测的移动显微镜系统 |
| CN107123137B (zh) * | 2017-04-28 | 2020-05-22 | 上海联影医疗科技有限公司 | 医学图像处理方法及设备 |
| EP3662407B8 (en) | 2017-08-03 | 2025-06-25 | Nucleai Ltd | Systems and methods for analysis of tissue images |
| CA3071685C (en) | 2017-08-09 | 2023-11-21 | Allen Institute | Systems, devices, and methods for image processing to generate an image having predictive tagging |
| US10824847B2 (en) * | 2017-12-15 | 2020-11-03 | Verily Life Sciences Llc | Generating virtually stained images of unstained samples |
| WO2019145767A1 (en) * | 2018-01-25 | 2019-08-01 | King Abdullah University Of Science And Technology | Deep-learning based structure reconstruction method and apparatus |
| JP7308848B2 (ja) | 2018-02-12 | 2023-07-14 | エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト | デジタル病理画像の変換 |
| JP7137935B2 (ja) | 2018-02-27 | 2022-09-15 | シスメックス株式会社 | 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム |
| CN111819569B (zh) | 2018-03-07 | 2023-10-17 | 威里利生命科学有限责任公司 | 对组织切片图像的虚拟染色 |
| EP4521342A3 (en) | 2018-03-30 | 2025-05-07 | The Regents of the University of California | Method and system for digital staining of label-free fluorescece images using deep learning |
| US11222415B2 (en) * | 2018-04-26 | 2022-01-11 | The Regents Of The University Of California | Systems and methods for deep learning microscopy |
| US11030744B2 (en) | 2018-06-26 | 2021-06-08 | Astrazeneca Computational Pathology Gmbh | Deep learning method for tumor cell scoring on cancer biopsies |
| WO2020018154A1 (en) | 2018-07-19 | 2020-01-23 | The Regents Of The University Of California | Method and system for digital staining of label-free phase images using deep learning |
| US11354804B1 (en) * | 2019-09-27 | 2022-06-07 | Verily Life Sciences Llc | Transforming multispectral images to enhanced resolution images enabled by machine learning |
| CA3165768A1 (en) * | 2019-12-23 | 2021-07-01 | The Regents Of The University Of California | Method and system for digital staining of microscopy images using deep learning |
-
2019
- 2019-03-29 EP EP24223866.5A patent/EP4521342A3/en active Pending
- 2019-03-29 US US17/041,447 patent/US11893739B2/en active Active
- 2019-03-29 EP EP19776693.4A patent/EP3776342B1/en active Active
- 2019-03-29 BR BR112020019896-0A patent/BR112020019896A2/pt unknown
- 2019-03-29 JP JP2020552396A patent/JP7344568B2/ja active Active
- 2019-03-29 CN CN202510094766.9A patent/CN120014640A/zh active Pending
- 2019-03-29 ES ES19776693T patent/ES3014296T3/es active Active
- 2019-03-29 CN CN201980029172.2A patent/CN112106061B/zh active Active
- 2019-03-29 KR KR1020207031116A patent/KR102851169B1/ko active Active
- 2019-03-29 CA CA3095739A patent/CA3095739A1/en active Pending
- 2019-03-29 WO PCT/US2019/025020 patent/WO2019191697A1/en not_active Ceased
-
2023
- 2023-12-18 US US18/543,168 patent/US12327362B2/en active Active
-
2025
- 2025-05-12 US US19/205,862 patent/US20250278839A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| US11893739B2 (en) | 2024-02-06 |
| CN112106061A (zh) | 2020-12-18 |
| KR102851169B1 (ko) | 2025-08-28 |
| US20240135544A1 (en) | 2024-04-25 |
| JP7344568B2 (ja) | 2023-09-14 |
| EP3776342A1 (en) | 2021-02-17 |
| US20250278839A1 (en) | 2025-09-04 |
| CN120014640A (zh) | 2025-05-16 |
| KR20200140301A (ko) | 2020-12-15 |
| WO2019191697A1 (en) | 2019-10-03 |
| BR112020019896A2 (pt) | 2021-01-05 |
| JP2021519924A (ja) | 2021-08-12 |
| EP3776342A4 (en) | 2021-06-09 |
| EP4521342A3 (en) | 2025-05-07 |
| US12327362B2 (en) | 2025-06-10 |
| CN112106061B (zh) | 2025-02-18 |
| CA3095739A1 (en) | 2019-10-03 |
| EP3776342B1 (en) | 2025-01-01 |
| EP4521342A2 (en) | 2025-03-12 |
| US20210043331A1 (en) | 2021-02-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES3014296T3 (en) | Method and system for digital staining of label-free fluorescence images using deep learning | |
| US12300006B2 (en) | Method and system for digital staining of microscopy images using deep learning | |
| Rivenson et al. | Virtual histological staining of unlabelled tissue-autofluorescence images via deep learning | |
| Rivenson et al. | Deep learning-based virtual histology staining using auto-fluorescence of label-free tissue | |
| US20210264214A1 (en) | Method and system for digital staining of label-free phase images using deep learning | |
| Kreiss et al. | Digital staining in optical microscopy using deep learning-a review | |
| Keikhosravi et al. | Non-disruptive collagen characterization in clinical histopathology using cross-modality image synthesis | |
| CN111433817A (zh) | 生成未染色样本的虚拟染色图像 | |
| US20240320562A1 (en) | Adversarial robustness of deep learning models in digital pathology | |
| WO2023107844A1 (en) | Label-free virtual immunohistochemical staining of tissue using deep learning | |
| US20250232443A1 (en) | Multi-input and/or multi-output virtual staining | |
| Hassan et al. | Cross-modality transformations in biological microscopy enabled by deep learning | |
| Yoon et al. | Label-free optical microscopy with artificial intelligence: a new paradigm in pathology | |
| Mannam et al. | Improving fluorescence lifetime imaging microscopy phasor accuracy using convolutional neural networks | |
| Abrahama et al. | Applications intelligence enhancement for of in image artificial pathology | |
| Bozic | Breaking the Speed and Complexity Barriers in Structured Illumination Microscopy for Large Area Ex Vivo Tissue Microscopy Using Super-Resolution and Machine Learning Techniques | |
| He | Phase imaging with computational specificity for cell biology applications | |
| Kang | Deep Learning Enables Virtual Hematoxylin and Eosin Stained Histological Imaging for 2D and 3D Histopathology | |
| De Haan | Computational deep learning microscopy | |
| Temerinac-Ott | Multiview reconstruction for 3D Images from light sheet based fluorescence microscopy |