ES2842850T3 - Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales - Google Patents

Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales Download PDF

Info

Publication number
ES2842850T3
ES2842850T3 ES16798771T ES16798771T ES2842850T3 ES 2842850 T3 ES2842850 T3 ES 2842850T3 ES 16798771 T ES16798771 T ES 16798771T ES 16798771 T ES16798771 T ES 16798771T ES 2842850 T3 ES2842850 T3 ES 2842850T3
Authority
ES
Spain
Prior art keywords
classification
pixel
hyper spectral
grouping
hyper
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16798771T
Other languages
English (en)
Inventor
Callico Gustavo Marrero
Gomez Himar Antonio Fabelo
Sarmiento Samuel Ortega
Bogdan Stanciulescu
Ravi Kiran Bangalore
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de las Palmas de Gran Canaria
Original Assignee
Universidad de las Palmas de Gran Canaria
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de las Palmas de Gran Canaria filed Critical Universidad de las Palmas de Gran Canaria
Application granted granted Critical
Publication of ES2842850T3 publication Critical patent/ES2842850T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/58Extraction of image or video features relating to hyperspectral data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Un procedimiento implementado por dispositivo informático de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales, comprendiendo el procedimiento: determinar una clasificación a nivel de píxeles de una imagen hiper espectral obtenida a partir de un tejido objetivo implementando un enfoque de aprendizaje automático alimentado con datos hiper espectrales de al menos un píxel; realizar una segmentación de la imagen hiper espectral agrupando píxeles en al menos una agrupación en base a los datos hiper espectrales de cada píxel; asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación, de modo que cada agrupación es asociada con una determinada clasificación, en el que una clasificación se asigna a la agrupación que corresponde a la clasificación de píxeles más frecuente en cada agrupación; realizar una homogeneización espacial de la clasificación a nivel de píxeles, antes de asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación; en el que la homogeneización espacial de la clasificación a nivel de píxeles comprende: realizar una reducción de dimensionalidad de los datos hiper espectrales de cada píxel; implementar un enfoque de filtrado alimentado con datos de clasificación a nivel de píxeles y datos hiper espectrales dimensionalmente reducidos, asignando el enfoque de filtrado a un píxel la clasificación más común entre sus píxeles vecinos, en el que los vecinos se determinan en base al espacio de características que comprende el valor de clasificación a nivel de píxeles y los datos de dimensión reducida.

Description

DESCRIPCIÓN
Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales
La presente divulgación se refiere a un procedimiento de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales y también se refiere a un aparato de imágenes hiper espectrales.
ANTECEDENTES
Se conoce el uso de imágenes hiper espectrales para diversos campos técnicos tales como la detección en remoto, la inspección de la calidad de los alimentos, el análisis de drogas, la defensa y la seguridad, y las aplicaciones médicas.
Las imágenes hiper espectrales se utilizan en diversas aplicaciones médicas, en particular para la diferenciación entre órganos y para la identificación de tejidos, por ejemplo, tejidos sanos, malignos, etc. Una de las implementaciones más prometedoras está relacionada con la identificación de cáncer de cerebro.
El cáncer de cerebro es una de las formas más importantes de la enfermedad, y es una carga económica y social significativa en toda Europa. La forma más común es el glioma maligno de alto grado, que representa aproximadamente el 30 - 50% de los cánceres de cerebro primarios, con el glioblastoma multiforme que constituye el 85% de estos casos. Estos tipos de gliomas se caracterizan por una invasión de rápido crecimiento, que es localmente muy agresiva, son en la mayoría de los casos unicéntricos y rara vez hacen metástasis.
A pesar de la introducción de nuevos tratamientos agresivos que combinan la cirugía, la radioterapia y la quimioterapia, sigue habiendo un fracaso del tratamiento en forma de tumores persistentes o localmente recurrentes (es decir, una recurrencia en la ubicación del tumor primario o a 2 - 3 cm del tejido adyacente). La mediana de los períodos de supervivencia y las tasas de supervivencia a 5 años para los astrocitomas anaplásicos son sólo de 36 meses y de un 18% respectivamente, mientras que en el caso del glioblastoma multiforme son de 10 meses y de menos de un 5%, respectivamente.
Es bien conocida la relevancia e importancia de la resección completa para los tumores de bajo grado, especialmente en los casos pediátricos. Sin embargo, los diagnósticos tradicionales de tumores internos se basan en una biopsia de escisión seguida de una histología o una citología. La principal debilidad de esta metodología estándar es doble: en primer lugar, se trata de un diagnóstico agresivo e invasivo con posibles efectos secundarios y complicaciones debidos a la resección quirúrgica de tejidos tanto malignos como sanos; y en segundo lugar, la información diagnóstica no está disponible en tiempo real y requiere que los tejidos sean procesados en un laboratorio.
Hay diversas alternativas a la visualización óptica convencional a través de un microscopio quirúrgico, que incluyen la resonancia magnética (MRI: magnetic resonance imaging), la tomografía computarizada (CT: computed tomography), la ultrasonografía, el escaneo Doppler y la medicina nuclear. A diferencia de estos enfoques, las imágenes hiper espectrales ofrecen una perspectiva de una detección precisa de los bordes de los tejidos malignos en tiempo real durante el procedimiento quirúrgico de forma no invasiva y no ionizada.
El documento WO2015023990A1 divulga un sistema de imágenes basado en un escaneo de fluorescencia. El sistema está configurado para mostrar imágenes hiper espectrales tomadas bajo luz de estímulo como imágenes fluorescentes, y corregidas por las propiedades ópticas del tejido para proporcionar mapas cuantitativos de la concentración de fluoróforos. La información espectral procedente de imágenes hiper espectrales es procesada para proporcionar la profundidad de los fluoróforos bajo la superficie de los tejidos. También se preparan imágenes cuantitativas de fluorescencia en profundidad. El sistema no proporciona mapas cualitativos que muestren los diferentes componentes de la imagen como la localización precisa del tumor o del tejido normal.
El documento WO2014139020A1 se refiere a sistemas, procedimientos y dispositivos que aplican imágenes hiper espectrales a los tejidos del cerebro iluminados durante procedimientos quirúrgicos invasivos basados en puertos. Este sistema no está enfocado a la detección de cáncer de cerebro y no realiza una clasificación para identificar los diferentes materiales encontrados durante la cirugía.
El documento WO2014118674A2 divulga un sistema de imágenes hiper espectrales médicas para identificar una estructura objetivo mediante un algoritmo alimentado con datos hiper espectrales procedentes de una sonda óptica de superficie. El sistema necesita los datos de medición de la sonda anteriores del paciente con el fin de proporcionar un output fiable. el output es válido sólo para el mismo paciente. El sistema no es lo suficientemente general como para hacer frente a muestras de diferentes pacientes.
Los siguientes documentos describen ejemplos de imágenes hiper espectrales:
- PIKE ROBERT ET AL: "A minimum spanning forest based hyperspectral image classification method for cancerous tissue detection", PROGRESS IN BIOMEDICAL OPTICS AND IMAGING, SPIE -INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING, BELLINGHAM. WA, US, vol. 9B34, 21 de marzo de 2014 (21-03-2014), páginas 90341W - 90341W;
- HIMAR FABELO ET AL: "A Novel Use of Hyperspectral Images for Human Brain Cancer Detection using in-Vivo Samples :", PROCEEDINGS OF THE 9TH INTERNATIONAL JOINT CONFERENCE ON BIOMEDICAL ENGINEERING SYSTEMS ANO TECHNOLOGIES, 1 de enero de 2016 (01-01-2016), páginas 311 - 320;
- DAVID A BOAS ET AL: "Chapter 7. Multi/Hyper-Spectral Imaging", 1 de enero de 2011 (01-01-2011), HANDBOOK OF BIOMEDICAL OP, CRC PRESS, USA, PÁGINAS 131 - 163.
RESUMEN
En un primer aspecto, se divulga un procedimiento de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales según se divulga en la reivindicación 1. El procedimiento puede comprender:
determinar una clasificación a nivel de píxeles de una imagen hiper espectral obtenida a partir de un tejido objetivo implementando un enfoque de aprendizaje automático alimentado con datos hiper espectrales de al menos un píxel;
realizar una segmentación de la imagen hiper espectral agrupando píxeles en al menos una agrupación o concentración (cluster) en base a los datos hiper espectrales de cada píxel;
asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación o concentración, de modo que cada agrupación puede ser asociada a una determinada clasificación.
El procedimiento permite proporcionar a la persona experta la ubicación y los límites muy precisos de los diferentes tejidos, materiales y sustancias objetivo. Los tejidos, materiales y sustancias objetivo pueden ser identificados evitando un diagnóstico agresivo e invasivo (no es necesario aplicar drogas, sustancias o radiación ni puertos invasivos) con posibles efectos secundarios y complicaciones debidos a la resección quirúrgica tanto de los tejidos malignos como de los tejidos sanos; y la información diagnóstica puede estar disponible en tiempo real y no requiere que los tejidos sean procesados en un laboratorio.
El procedimiento también puede ayudar a confirmar la resección completa, evitar la salida accidental de tejido maligno, evitar complicaciones debidas al "desplazamiento de masa del cerebro", evitar el desajuste entre el escaneo de resonancia magnética (MRI: magnetic resonance imaging) y la posición real del cerebro, como lo hacen las implementaciones del estado de la técnica.
Se ha descubierto que la combinación de la clasificación a nivel de píxeles y la segmentación de la imagen hiper espectral puede proporcionar algunos efectos. Por una parte, la segmentación obtenida muestra una buena capacidad para encontrar estructuras de datos homogéneas (por ejemplo, agrupaciones o concentraciones) y sus límites a partir de un cubo hiper espectral y, por otra parte, la clasificación a nivel de píxeles puede proporcionar información robusta con respecto al tejido, el material o la sustancia que puede ser asignada a la agrupación. Dicha combinación puede permitir una diferenciación precisa y útil entre tumores benignos y tumores malignos, que pueden tener un espectro extremadamente próximo.
El término "agrupación" (“cluster”) se debe entender como un sinónimo de región o cualquier grupo definido de píxeles o área.
En algunos ejemplos, el procedimiento puede comprender además:
realizar una homogeneización espacial de la clasificación a nivel de píxeles, antes de asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación.
Se ha comprobado que homogeneizando la clasificación a nivel de píxeles, el output del procedimiento puede tener una ubicación y extensión aún más precisas de los tejidos objetivo.
En otros ejemplos, el procedimiento puede comprender además:
entrenar el enfoque de aprendizaje automático con un conjunto de datos etiquetados como verdades fundamentales.
Es posible que el procedimiento no necesite datos de medición de sonda anteriores del paciente con el fin de proporcionar un output fiable. El output puede ser válido para más de un paciente (diferentes personas), y un tipo de tejido.
En ejemplos del procedimiento, el conjunto de datos etiquetados como verdades fundamentales puede ser obtenido de la siguiente manera:
seleccionar al menos un pixel de referencia en una imagen hiper espectral a etiquetar;
calcular un ángulo espectral de cada píxel con respecto al píxel de referencia;
generar un mapa (o cualquier otra representación visual) de ángulos espectrales que puede tener en cuenta un umbral de ángulo espectral predeterminado relacionado con el píxel de referencia; asignar una etiqueta a una región (o zona) de la imagen hiper espectral que puede comprender píxeles con un ángulo espectral dentro del umbral de ángulo espectral predeterminado;
generar un mapa (o cualquier otra representación visual) de verdades fundamentales que puede comprender las regiones etiquetadas;
en el que la etiqueta puede comprender un estado patológico.
Esas características generan una verdad fundamental robusta y eficiente, ya que las etiquetas pueden ser asignadas teniendo en cuenta características comunes y probadas de diferentes tejidos, sustancias, etc. objetivo.
En otro aspecto, se divulga un aparato de imágenes hiper espectrales. El aparato puede comprender: un dispositivo óptico configurado para mostrar una imagen visible de un tejido objetivo;
una cámara configurada para obtener imágenes hiper espectrales del tejido objetivo;
una plataforma de procesamiento en comunicación de datos con la cámara y el dispositivo óptico; el dispositivo óptico también puede estar configurado para mostrar información (tal como un mapa) obtenida a partir de imágenes hiper espectrales procesadas;
la plataforma de procesamiento puede estar configurada para implementar un procedimiento según uno cualquiera de los ejemplos de procedimiento divulgados en el presente documento.
En otro aspecto, se divulga un producto de un programa informático. El producto de programa informático puede comprender instrucciones de programa para hacer que un sistema informático realice un procedimiento de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales según algunos ejemplos divulgados en el presente documento.
El producto del programa informático puede ser incorporado en un medio de almacenamiento (por ejemplo, un CD-ROM, un DVD, una unidad USB, una memoria informática o una memoria de sólo lectura) o ser portado en una señal portadora (por ejemplo, en una señal portadora eléctrica u óptica).
El programa informático puede ser en forma de código fuente, código objeto, un código intermedio entre código fuente y código objeto tal como en forma parcialmente compilada, o en cualquier otra forma adecuada para su uso en la implementación de los procesos. La portadora puede ser cualquier entidad o dispositivo capaz de portar el programa informático.
Por ejemplo, la portadora puede comprender un medio de almacenamiento, tal como una ROM, por ejemplo un c D ROM o una ROM semiconductora, o un medio de grabación magnético, por ejemplo un disco duro. Además, la portadora puede ser una portadora transmisible, tal como una señal eléctrica u óptica, que puede ser transportada a través de cable eléctrico u óptico o por radio u otros medios.
Cuando el programa informático es incorporado en una señal que puede ser transportada directamente a través de un cable u otro dispositivo o medio, la portadora puede estar constituida por dicho cable u otro dispositivo o medio.
Alternativamente, la portadora puede ser un circuito integrado en el que se incorpora el programa informático, estando adaptado el circuito integrado para realizar, o para ser usado en la ejecución de, los procedimientos relevantes.
En otro aspecto, se divulga un dispositivo informático. El dispositivo informático puede comprender una memoria y un procesador, que incluye instrucciones almacenadas en la memoria y que son ejecutables por el procesador, comprendiendo las instrucciones una funcionalidad para ejecutar un procedimiento de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales según algunos ejemplos divulgados en el presente documento.
BREVE DESCRIPCION DE LOS DIBUJOS
A continuación se describirán ejemplos no limitativos de la presente divulgación, con referencia a los dibujos adjuntos, en los que:
La Figura 1 es un diagrama de flujo de un procedimiento de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales según un ejemplo; y
La Figura 2 ilustra de forma esquemática un aparato de imágenes hiper espectrales según un ejemplo.
DESCRIPCION DETALLADA DE EJEMPLOS
La Figura 1 es un diagrama de flujo de un procedimiento 100 de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales según un posible ejemplo. Aunque en la Figura 1 se muestra una secuencia específica, se debe entender que se pueden seguir otras secuencias que no se desvíen del alcance de la presente divulgación. El procedimiento puede comprender determinar una clasificación a nivel de píxeles de una imagen hiper espectral 102 obtenida a partir de un tejido objetivo 5 implementando un enfoque de aprendizaje automático alimentado con datos hiper espectrales de al menos un píxel de la imagen. Dicho enfoque de aprendizaje automático puede comprender un algoritmo de clasificación supervisado. El procedimiento puede comprender además generar un mapa (o cualquier otra representación visual) de clasificación a nivel de píxeles de la imagen hiper espectral, después de determinar la clasificación a nivel de píxeles.
Según ejemplos, la clasificación puede comprender al menos una de las siguientes clases: tejido de tumor, tejido sano, tejido hiper vascularizado, vaso sanguíneo, elemento de fondo, tejido de tumor primario y tejido de tumor metastásico. Este grupo de clasificaciones se puede ampliar si es necesario.
El algoritmo de clasificación supervisado puede ser, por ejemplo, una Máquina de Vectores de Soporte (SVM: Support Vector Machine), Redes Neuronales Artificiales (ANN: Artificial Neural Networks), un Bosque Aleatorio (RF: Random Forest) o un algoritmo Adaboost. Sin embargo, la persona experta podría elegir otro algoritmo en función de las necesidades.
El procedimiento puede comprender también realizar una segmentación de la imagen hiper espectral 104 agrupando píxeles en al menos una agrupación (cluster) en base a los datos hiper espectrales de cada píxel. Después de realizar la segmentación de la imagen hiper espectral, se puede generar un mapa de segmentación de la imagen hiper espectral. Dicha segmentación de la imagen hiper espectral se puede realizar a través de un algoritmo de agrupamiento (clustering) no supervisado.
El algoritmo de agrupamiento (clustering) no supervisado puede ser, por ejemplo, una Factorización No Negativa de Matrices de rango Jerárquico 2 (H2NMF: Hierarchical Rank-2 Non-negative Matrix Factorization), un K-medias Jerárquico (HKM: Hierarchical K-means), o un K-medias Esférico Jerárquico (HSKM: Hierarchical Spherical Kmeans). Sin embargo, la persona experta podría elegir otro algoritmo en función de las necesidades.
El procedimiento puede comprender también asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación 105, de modo que cada agrupación puede ser asociada con al menos una clasificación determinada. Según algunos ejemplos, se puede asignar una clasificación a la agrupación que corresponde a la clasificación a nivel de píxeles más frecuente en cada agrupación. Después de asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación, el procedimiento puede comprender además generar un mapa de clasificación a nivel de agrupaciones de la imagen hiper espectral.
Según algunos ejemplos, el procedimiento puede comprender además asignaren el mapa de clasificación de agrupaciones diferentes propiedades cromáticas a agrupaciones con clasificaciones diferentes entre sí. Algunas propiedades cromáticas predefinidas pueden estar relacionadas con cada clasificación, por ejemplo:
verde = tejido normal
rojo = tejido de tumor
azul = vasos sanguíneos y tejido hiper vascularizado
negro = elementos de fondo y otros tejidos, materiales o sustancias
En algunos otros ejemplos, el procedimiento puede comprender además degradar las propiedades cromáticas de una agrupación en función de la probabilidad de la clasificación asignada. A continuación se puede generar un mapa de densidades de degradación teniendo en cuenta sólo los resultados de máxima probabilidad obtenidos por cada agrupación. El color de cada clase se puede degradar utilizando el porcentaje de la probabilidad. Por ejemplo, si la probabilidad de una clase de tumor para una determinada agrupación es igual a 80%, el color de la agrupación se puede degradar un 20% (el color RGB de la agrupación será Rojo = 0,8; Verde = 0; Azul = 0).
Según algunos ejemplos, el procedimiento puede comprender además mezclar diferentes propiedades cromáticas relacionadas con diferentes clasificaciones en la misma agrupación. Puede tener en cuenta el porcentaje de la probabilidad de diferentes clasificaciones en la agrupación. A continuación se puede generar un mapa de densidades de mezcla que puede tener en cuenta los tres valores máximos de probabilidad por cada agrupación. El color de cada clase se puede mezclar utilizando el porcentaje de la probabilidad de los tres valores máximos. Por ejemplo, si la probabilidad de una clase de tumor para una determinada agrupación es igual a 70%, la probabilidad del tejido normal es igual a 5% y la probabilidad de los vasos sanguíneos es igual a 25%, el color RGB de la agrupación puede ser Rojo = 0,7; Verde = 0,05; y Azul = 0,25.
El porcentaje de probabilidad de cada agrupación se puede obtener a través de un proceso tal como el de una votación por mayoría que se describirá más adelante.
Antes de asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación, el procedimiento puede comprender realizar una homogeneización espacial de la clasificación a nivel de píxeles 103. Se ha comprobado que la homogeneización espacial puede contribuir a mejorar aún más la coherencia espacial de los resultados de la clasificación a nivel de píxeles y que, a continuación, se pueden mejorar significativamente los resultados de la clasificación a nivel de agrupaciones.
Según otros ejemplos, el procedimiento puede comprender generar un mapa de clasificación a nivel de píxeles homogeneizado de la imagen hiper espectral, después de realizar una homogeneización espacial de la clasificación a nivel de píxeles. La homogeneización espacial de la clasificación a nivel de píxeles puede comprender:
realizar una reducción de dimensionalidad de los datos hiper espectrales de cada píxel; implementar un enfoque de filtrado alimentado con datos de clasificación a nivel de píxeles y datos hiper espectrales dimensionalmente reducidos; el enfoque de filtrado puede asignar a un píxel la clasificación más común entre sus píxeles vecinos.
Se pueden obtener datos hiper espectrales dimensionalmente reducidos implementando un algoritmo de reducción de bandas, tal como un algoritmo de análisis de componentes principales (PCA: Principal Component Analysis). La persona experta podría utilizar otros algoritmos de reducción de bandas en función de las necesidades.
Según algunos ejemplos, el procedimiento puede comprender realizar un pre-procesamiento de los datos hiper espectrales 101, que se puede realizar antes de al menos una de las siguientes operaciones: determinar la clasificación a nivel de píxeles 102, realizar la segmentación 104, y asignar la misma clasificación 105. El pre-procesamiento de los datos hiper espectrales puede comprender al menos una de las siguientes operaciones: calibración de la imagen, filtrado de ruido y eliminación de ruido, promediado y normalización de bandas.
Según otros ejemplos, se puede proporcionar una cadena de pre-procesamiento que comprende todos o parte de los procesos de pre-procesamiento mencionados anteriormente.
La calibración de la imagen puede comprender corregir variaciones en la firma espectral de cada píxel que pueden ser debidas a una iluminación no uniforme sobre una superficie del tejido objetivo 5. Una imagen en bruto (sin procesar) adquirida puede ser calibrada utilizando imágenes de referencia blancas y oscuras obtenidas anteriormente con las mismas condiciones de iluminación. Se puede calcular una imagen hiper espectral calibrada comparando la imagen en bruto adquirida con imágenes de referencia blancas y oscuras anteriores.
El filtrado de ruido y la eliminación de ruido puede comprender reducir al menos una parte de ruido espectral de la imagen hiper espectral. Este ruido puede ser generado por un sensor CCD y un elemento dispersivo de una cámara hiper espectral (por ejemplo, VNIR). Por ejemplo, se pueden eliminar las bandas de 0 a 55 y de 750 a 826, ya que esas bandas pueden contener demasiado ruido. Las bandas se pueden reducir de 826 a 695 bandas que pueden ser las que contienen información útil sobre tejidos, en particular para la discriminación entre tejidos de tumor y tejidos sanos, según se ha comprobado.
Otra posible razón para evitar bandas extremas puede ser que las cámaras hiper espectrales pueden tener un índice de repetibilidad pobre.
La persona experta podrá variar esos rangos de bandas para cada caso.
Debido a una resolución espectral extremadamente alta de las imágenes, se pueden correlacionar bandas consecutivas, proporcionando información redundante que puede ser eliminada. El promediado de bandas puede comprender eliminar al menos una banda de la imagen hiper espectral; la banda eliminada puede ser correlacionada con otra banda consecutiva.
La normalización puede comprender homogeneizar la amplitud de cada píxel sin modificar la forma de su firma espectral. Esta normalización puede corregir un brillo diferente de cada píxel de la imagen debido a capturas a diferente altura, y por lo tanto, a diferente intensidad de radiación.
Implementando el pre-procesamiento, se puede obtener un alto nivel de contraste para distinguir, por ejemplo, entre venas, tejidos normales y/o tejidos de tumor. El pre-procesamiento puede simplificar, reducir y limpiar los datos hiper espectrales.
Según otros ejemplos, el procedimiento puede comprender entrenar el enfoque de aprendizaje automático con un conjunto de datos etiquetados como verdades fundamentales. Se puede proporcionar un proceso para obtener un conjunto de datos etiquetados como verdades fundamentales, según se indica a continuación:
seleccionar al menos un pixel de referencia en una imagen hiper espectral a etiquetar;
calcular un ángulo espectral de cada píxel con respecto al píxel de referencia;
generar un mapa de ángulos espectrales teniendo en cuenta un umbral de ángulo espectral predeterminado relacionado con el píxel de referencia;
asignar una etiqueta a una región de la imagen hiper espectral que puede comprender píxeles con un ángulo espectral dentro del umbral de ángulo espectral predeterminado;
generar un mapa de verdades fundamentales que puede comprender las regiones etiquetadas; en el que la etiqueta puede comprender un estado patológico.
Con la obtención del conjunto de datos etiquetados como verdades fundamentales, según se ha descrito anteriormente, se pueden mejorar los resultados obtenidos por el algoritmo a nivel de píxeles, debido a la robustez del conjunto de datos etiquetados.
Una vez entrenado, el enfoque de aprendizaje automático puede ser validado. Se puede utilizar un conjunto de datos etiquetados de validación específicos para esa operación. El procedimiento también puede comprender generar un modelo de clasificador matemático que puede ser implementable por el enfoque de aprendizaje automático. Ese modelo de clasificador matemático puede ser entrenado e incluso validado según se indica en el presente documento.
Según algunos ejemplos que permiten obtener el conjunto de datos etiquetados como verdades fundamentales, un píxel puede ser seleccionado por una persona experta a partir de una imagen RGB para su etiquetado en función del aspecto visual. La imagen RGB puede ser de un tejido objetivo 5 de una persona o de diferentes personas. Una vez se ha seleccionado el píxel de referencia, debido a la dificultad de asignar un píxel a una determinada clasificación con cierto grado de seguridad, se puede calcular el ángulo espectral (SA: Spectral Angle) entre el píxel seleccionado y los demás píxeles en el cubo hiper espectral. Aplicando un umbral predeterminado, se puede obtener una máscara binaria. Ajustando este umbral dinámicamente, se puede generar una nueva imagen RGB que contiene sólo los píxeles cuyo ángulo espectral con respecto al píxel de referencia puede ser inferior al umbral. A continuación, se puede seleccionar la región de interés y asignar una etiqueta a los píxeles dentro de esta región. Se puede ajustar el umbral hasta que el área mostrada se corresponda con un tipo de tejido esperado.
Este marco de trabajo para el etiquetado puede proporcionar al menos dos efectos. Por una parte, cuando un píxel de referencia es seleccionado por una persona experta, puede ser posible asegurar que los píxeles pertenecen a una determinada clasificación examinando los píxeles con el ángulo espectral (SA) más pequeño con respecto al píxel de referencia. Por otra parte, un proceso de seleccionar manualmente diversos píxeles de un cubo hiper espectral para cada clasificación puede ser una tarea que requiere mucho tiempo, por lo que este proceso permite a la persona experta recopilar algunos píxeles de una determinada clasificación con un esfuerzo menor. La persona experta puede interactuar con el marco de trabajo para el etiquetado si es necesario, y puede variar el conjunto de datos etiquetados como verdades fundamentales en consecuencia. Se pueden prever modificaciones fáciles, por ejemplo, en caso de que haya nuevas imágenes o si es necesario definir nuevas clasificaciones.
Según algunos ejemplos, el procedimiento puede comprender enviar una señal de control desde una plataforma/dispositivo de procesamiento 4 a una cámara 3, tal como una cámara hiper espectral, para obtener una imagen hiper espectral del tejido objetivo 5, y/o recibir la imagen hiper espectral del tejido objetivo 5. La señal de control y la imagen hiper espectral pueden ser enviadas a través de una red de comunicaciones.
La Figura 2 ilustra de forma esquemática un aparato de imágenes hiper espectrales 1 según un ejemplo. El aparato de imágenes hiper espectrales 1 puede comprender:
un dispositivo óptico 2 que puede estar configurado para mostrar una imagen visible de un tejido objetivo 5;
una cámara 3 que puede estar configurada para obtener imágenes hiper espectrales del tejido objetivo 5. En algunos ejemplos, el aparato puede comprender dos cámaras hiper espectrales: NIR y VNIR; una plataforma de procesamiento 4 en comunicación de datos con la cámara 3 y el dispositivo óptico 2; el dispositivo óptico 2 puede estar también configurado para mostrar información tal como al menos un mapa o cualquier otra representación visual obtenida a partir de imágenes hiper espectrales procesadas; la plataforma de procesamiento 4 puede estar configurada para implementar un procedimiento según uno cualquiera de los ejemplos que se divulgan en el presente documento.
El dispositivo óptico 2 puede comprender un microscopio quirúrgico; el microscopio quirúrgico puede comprender un elemento ocular 21 configurado para mostrar la imagen visible del tejido objetivo 5 y otro elemento ocular 22 configurado para mostrar la información tal como al menos un mapa o cualquier otra representación visual obtenida a partir de imágenes hiper espectrales procesadas.
La cámara 3 y la plataforma de procesamiento 4 se pueden colocar en el mismo lugar o en diferentes lugares, por ejemplo en un quirófano (que no se muestra). Por lo tanto, una posible implementación del aparato 1 puede comprender una cámara 3 y un dispositivo óptico 2 en el quirófano y la plataforma de procesamiento 4 proporcionada aparte. En otras alternativas, la plataforma de procesamiento 4 se puede proporcionar en el mismo lugar que la cámara 3 y el dispositivo óptico 2.
Una posible implementación del procedimiento que se divulga en este documento puede comprender la adquisición de una imagen hiper espectral de un tejido objetivo 5 (tal como un tejido del cerebro), por ejemplo a través de la cámara 3. La persona experta puede seleccionar una zona de interés del tejido objetivo 5, por ejemplo a través del dispositivo óptico 2. La imagen hiper espectral adquirida puede ser pre­ procesada según se ha descrito anteriormente, por ejemplo, a través de la plataforma de procesamiento 4. El enfoque de reducción dimensional puede utilizar como input un cubo hiper espectral pre-procesado a partir de cada píxel de la imagen sin la aplicación de un promediado de bandas, ya que para la reducción dimensional puede ser mejor utilizar toda la información disponible capturada por el sensor de la cámara 3. Por otra parte, la clasificación supervisada a nivel de píxeles y la agrupación (clustering) no supervisada pueden emplear el cubo hiper espectral con toda la cadena de pre-procesamiento según se describe en el presente documento, pero se puede prever una clasificación supervisada a nivel de píxeles y/o una agrupación (clustering) no supervisada utilizando una imagen hiper espectral parcialmente pre-procesada, es decir, no todos los procesos de pre-procesamiento o toda la cadena de pre-procesamiento. Se debe tener en cuenta que el promediado de bandas se puede aplicar a cubos hiper espectrales VNIR, ya que los cubos hiper espectrales NIR pueden no tener tanta información redundante; el número de bandas obtenidas en este rango espectral NIR puede ser, por ejemplo, igual a 172.
Se puede utilizar un algoritmo para reducir la dimensionalidad de las imágenes hiper espectrales capturadas según se ha mencionado anteriormente. Ese algoritmo de reducción de dimensiones puede tener como objetivo homogeneizar espacialmente los resultados de la clasificación a nivel de píxeles supervisada. El input del algoritmo de reducción de dimensiones puede ser el cubo hiper espectral pre-procesado sin la aplicación del promediado de bandas. Se puede obtener una representación de una banda del algoritmo de reducción de dimensiones y puede ser uno de los inputs de otros algoritmos de filtrado tal como el algoritmo de clasificación espacial-espectral.
Se puede generar una clasificación supervisada a nivel de píxeles, por ejemplo como un mapa. El algoritmo clasificador supervisado puede ser entrenado según se ha descrito anteriormente para proporcionar unos buenos resultados cuantitativos y cualitativos. La implementación de la parte predictiva de este algoritmo clasificador supervisado se puede realizar en la plataforma de procesamiento 4.
Los resultados de clasificación proporcionados por el algoritmo de clasificación a nivel de píxeles y el algoritmo de reducción de dimensiones se pueden utilizar como input de un algoritmo de clasificación espacial-espectral (para una homogeneización espacial de la clasificación a nivel de píxeles 103). A continuación, se puede generar un mapa de clasificación supervisada espacial-espectral o similar.
El algoritmo de clasificación espacial-espectral puede ser, por ejemplo, un proceso de filtrado de los K vecinos más cercanos (KNN: K-Nearest Neighbours) o cualquier otro algoritmo adecuado para un filtrado basado en correspondencia (matching) y promediado de vecindarios no locales.
El algoritmo de clasificación espacial-espectral puede incluir una base de input tal como la representación de la clasificación a nivel de píxeles y una guía tal como la representación de una banda del cubo hiper espectral producido por el algoritmo de reducción de dimensiones. El algoritmo de clasificación espacialespectral puede calcular los vecinos más cercanos en un espacio de características que puede incluir tanto un valor de píxel (clasificación) como coordenadas espaciales (mapa de dimensiones reducidas).
El algoritmo de agrupamiento (clustering) puede generar un mapa de segmentación no supervisada. El input del algoritmo no supervisado puede ser el cubo hiper espectral con el pre-procesamiento completo aplicado y el output puede ser un mapa de segmentación que puede comprender, por ejemplo, 24 agrupaciones (clusters) diferentes. En el mapa de segmentación, cada píxel puede ser agrupado en una región homogénea en base a su similitud espectral (características espectrales predeterminadas).
El mapa de clasificación a nivel de agrupaciones (clusters) de la imagen hiper espectral se puede generar integrando conjuntamente el mapa de clasificación espacial-espectral supervisada y el mapa de segmentación no supervisada. En otros ejemplos, la integración puede fusionar el mapa de clasificación procedente del algoritmo de clasificación supervisado y el mapa de segmentación no supervisada.
El mapa de clasificación a nivel de agrupaciones (clusters) puede ser generado aplicando una técnica de votación por mayoría. Para cada una de las agrupaciones encontradas por el algoritmo de clasificación, todos los píxeles pueden ser asignados a la clasificación más frecuente en cada agrupación (cluster) del mapa de clasificación a nivel de píxeles.
Los datos de output de cada algoritmo citado en el presente documento se pueden representar como un mapa o cualquier otra visualización alternativa de dichos datos de output. El dispositivo óptico 2 puede estar configurado para mostrar la visualización de cualquier dato de output generado según se ha citado anteriormente.
Aunque sólo se han divulgado algunos ejemplos en el presente documento, son posibles otras alternativas, modificaciones, usos y/o equivalentes de los mismos. Además, también se cubren todas las posibles combinaciones de los ejemplos que se han descrito. Así pues, el alcance de la presente divulgación no se debe limitar a ejemplos particulares, sino que se debe determinar únicamente mediante una lectura imparcial de las siguientes reivindicaciones. Si en una reivindicación se colocan entre paréntesis signos de referencia relacionados con los dibujos, éstos son únicamente para tratar de aumentar la inteligibilidad de la reivindicación, y no se interpretará como una limitación del alcance de la reivindicación.
Además, aunque los ejemplos que se han descrito con referencia a los dibujos comprenden aparatos/sistemas informáticos y procesos realizados en aparatos/sistemas informáticos, la invención también se extiende a programas informáticos, en particular a programas informáticos en o dentro de una portadora, adaptados para poner en práctica el sistema.

Claims (15)

REIVINDICACIONES
1. Un procedimiento implementado por dispositivo informático de detección no invasiva de tejido de tumor y/o tejido sano utilizando imágenes hiper espectrales, comprendiendo el procedimiento:
determinar una clasificación a nivel de píxeles de una imagen hiper espectral obtenida a partir de un tejido objetivo implementando un enfoque de aprendizaje automático alimentado con datos hiper espectrales de al menos un píxel;
realizar una segmentación de la imagen hiper espectral agrupando píxeles en al menos una agrupación en base a los datos hiper espectrales de cada píxel;
asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación, de modo que cada agrupación es asociada con una determinada clasificación, en el que una clasificación se asigna a la agrupación que corresponde a la clasificación de píxeles más frecuente en cada agrupación; realizar una homogeneización espacial de la clasificación a nivel de píxeles, antes de asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación;
en el que la homogeneización espacial de la clasificación a nivel de píxeles comprende:
realizar una reducción de dimensionalidad de los datos hiper espectrales de cada píxel; implementar un enfoque de filtrado alimentado con datos de clasificación a nivel de píxeles y datos hiper espectrales dimensionalmente reducidos, asignando el enfoque de filtrado a un píxel la clasificación más común entre sus píxeles vecinos, en el que los vecinos se determinan en base al espacio de características que comprende el valor de clasificación a nivel de píxeles y los datos de dimensión reducida.
2. Procedimiento según la reivindicación 1, en el que el procedimiento comprende además:
realizar un pre-procesamiento de los datos hiper espectrales, antes de al menos una de las siguientes operaciones: determinar la clasificación a nivel de píxeles, realizar la segmentación y asignar la misma clasificación.
3. Procedimiento según una cualquiera de las reivindicaciones 1 - 2 , en el que el procedimiento comprende además:
generar un mapa de clasificación a nivel de agrupaciones de la imagen hiper espectral, después de asignar la misma clasificación a todos los píxeles que pertenecen a la misma agrupación.
4. Procedimiento según la reivindicación 3, en el que el procedimiento comprende además:
asignar en el mapa de clasificación a nivel de agrupaciones diferentes propiedades cromáticas a agrupaciones con clasificaciones diferentes entre sí, estando las propiedades cromáticas predefinidas relacionadas con cada clasificación.
5. Procedimiento según la reivindicación 4, en el que el procedimiento comprende además: degradar las propiedades cromáticas de una agrupación en función de la probabilidad de la clasificación asignada.
6. Procedimiento según la reivindicación 4, en el que el procedimiento comprende además: mezclar diferentes propiedades cromáticas relacionadas con diferentes clasificaciones en la misma agrupación, teniendo en cuenta el porcentaje de la probabilidad de diferentes clasificaciones en la agrupación.
7. Procedimiento según la reivindicación 1, en el que el procedimiento comprende además:
generar un mapa de clasificación a nivel de píxeles homogeneizado espacialmente de la imagen hiper espectral, después de realizar una homogeneización espacial de la clasificación a nivel de píxeles.
8. Procedimiento según una cualquiera de las reivindicaciones 1 - 7 , en el que la clasificación comprende al menos una de las siguientes clases: tejido de tumor, tejido sano, tejido hiper vascularizado, vaso sanguíneo, elemento de fondo, tejido de tumor primario y tejido de tumor metastásico.
9. Procedimiento según la reivindicación 2, en el que el pre-procesamiento de los datos hiper espectrales comprende al menos una de las siguientes operaciones: calibración de la imagen, filtrado de ruido y eliminación de ruido, promediado y normalización de bandas.
10. Procedimiento según la reivindicación 9, en el que la calibración de la imagen comprende corregir variaciones de la firma espectral de cada píxel causadas por una iluminación no uniforme sobre una superficie del tejido objetivo.
11. Procedimiento según una cualquiera de las reivindicaciones 9 - 10 , en el que el promediado de bandas comprende eliminar al menos una banda de la imagen hiper espectral, estando la banda eliminada correlacionada con otra banda consecutiva.
12. Procedimiento según una cualquiera de las reivindicaciones 9 - 11 , en el que la normalización comprende homogeneizar la amplitud de cada píxel sin modificar la forma de su firma espectral.
13. Aparato de imágenes hiper espectrales que comprende:
un dispositivo óptico configurado para mostrar una imagen visible de un tejido objetivo;
una cámara configurada para obtener imágenes hiper espectrales del tejido objetivo;
una plataforma de procesamiento en comunicación de datos con la cámara y el dispositivo óptico; estando el dispositivo óptico también configurado para mostrar información obtenida a partir de imágenes hiper espectrales procesadas;
estando la plataforma de procesamiento configurada para implementar un procedimiento según una cualquiera de las reivindicaciones 1 - 12.
14. Aparato de imágenes hiper espectrales según la reivindicación 13, en el que el dispositivo óptico comprende un microscopio quirúrgico; comprendiendo el microscopio quirúrgico un elemento ocular configurado para mostrar la imagen visible del tejido objetivo y otro elemento ocular configurado para mostrar la información obtenida a partir de imágenes hiper espectrales procesadas.
15. Un producto de programa informático que comprende instrucciones de programa para hacer que un sistema informático realice un procedimiento según una cualquiera de las reivindicaciones 1 - 12.
ES16798771T 2016-11-22 2016-11-22 Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales Active ES2842850T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2016/078477 WO2018095516A1 (en) 2016-11-22 2016-11-22 Method of non-invasive detection of tumour and/or healthy tissue and hyperspectral imaging apparatus

Publications (1)

Publication Number Publication Date
ES2842850T3 true ES2842850T3 (es) 2021-07-15

Family

ID=57389451

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16798771T Active ES2842850T3 (es) 2016-11-22 2016-11-22 Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales

Country Status (5)

Country Link
US (1) US10964018B2 (es)
EP (1) EP3545491B1 (es)
JP (1) JP6885564B2 (es)
ES (1) ES2842850T3 (es)
WO (1) WO2018095516A1 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6392476B1 (ja) * 2018-03-19 2018-09-19 大輝 中矢 生体組織解析装置および生体組織解析プログラム
US11257213B2 (en) * 2018-10-25 2022-02-22 Koninklijke Philips N.V. Tumor boundary reconstruction using hyperspectral imaging
CN109543717B (zh) * 2018-10-25 2021-07-20 中国地质大学(北京) 基于自适应邻域及字典的联合协作表达高光谱分类方法
JP7258568B2 (ja) * 2019-01-18 2023-04-17 キヤノンメディカルシステムズ株式会社 超音波診断装置、画像処理装置、及び画像処理プログラム
CN109871768B (zh) * 2019-01-18 2022-04-29 西北工业大学 基于共享最近邻的高光谱最优波段选择方法
WO2020232094A1 (en) 2019-05-14 2020-11-19 University Of Pittsburgh-Of The Commonwealth System Of Higher Education System and method for chaftacterizing cellular phenotypic diversity from multi-parameter cellular. and sub-cellular imaging data
CN110309868A (zh) * 2019-06-24 2019-10-08 西北工业大学 结合无监督学习的高光谱图像分类方法
CA3147085A1 (en) * 2019-09-09 2021-03-18 Jason Lock Systems and methods for processing images of slides for digital pathology
EP3805835B1 (en) 2019-10-10 2023-10-04 Leica Instruments (Singapore) Pte. Ltd. Optical imaging system and related apparatus, method and computer program
WO2021245374A1 (en) 2020-06-03 2021-12-09 King's College London Method and system for joint demosaicking and spectral signature estimation
CN111783865B (zh) * 2020-06-23 2022-03-15 西北工业大学 基于空谱邻域嵌入和最优相似图的高光谱分类方法
CN111833353B (zh) * 2020-07-16 2022-04-12 四川九洲电器集团有限责任公司 一种基于图像分割的高光谱目标检测方法
US11410316B1 (en) * 2021-01-27 2022-08-09 UiPath, Inc. System and computer-implemented method for validation of label data
CN112905823B (zh) * 2021-02-22 2023-10-31 深圳市国科光谱技术有限公司 一种基于大数据平台的高光谱物质检测识别系统及方法
CN113327256A (zh) * 2021-05-28 2021-08-31 深圳前海微众银行股份有限公司 多光谱图像的分割方法、装置、电子设备及存储介质
US20230162354A1 (en) * 2021-11-24 2023-05-25 Applied Materials, Inc. Artificial intelligence-based hyperspectrally resolved detection of anomalous cells
WO2023121167A1 (ko) * 2021-12-23 2023-06-29 주식회사 씨젠 검출 장치의 성능을 예측하기 위한 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012005512A (ja) 2010-06-22 2012-01-12 Olympus Corp 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
WO2015023990A1 (en) 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
EP2950708B1 (en) 2013-01-30 2019-01-16 Koninklijke Philips N.V. Imaging system with hyperspectral camera guided probe
AU2014231342B2 (en) 2013-03-15 2018-03-29 Synaptive Medical Inc. Surgical imaging systems
US10169866B2 (en) 2014-04-22 2019-01-01 Hitachi, Ltd. Medical image processing and diagnostic image generation device for predetermined types of diagnostic information
US11304604B2 (en) * 2014-10-29 2022-04-19 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
CN110573066A (zh) * 2017-03-02 2019-12-13 光谱Md公司 用于多光谱截肢部位分析的机器学习系统和技术
CA3081643A1 (en) * 2017-11-06 2019-05-09 University Health Network Platform, device and process for annotation and classification of tissue specimens using convolutional neural network
US11257213B2 (en) * 2018-10-25 2022-02-22 Koninklijke Philips N.V. Tumor boundary reconstruction using hyperspectral imaging

Also Published As

Publication number Publication date
EP3545491B1 (en) 2020-10-14
US10964018B2 (en) 2021-03-30
US20190279362A1 (en) 2019-09-12
JP2019537180A (ja) 2019-12-19
EP3545491A1 (en) 2019-10-02
JP6885564B2 (ja) 2021-06-16
WO2018095516A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
ES2842850T3 (es) Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales
Fabelo et al. In-vivo hyperspectral human brain image database for brain cancer detection
Maglogiannis et al. Overview of advanced computer vision systems for skin lesions characterization
Akbari et al. Hyperspectral imaging and quantitative analysis for prostate cancer detection
Lu et al. Hyperspectral imaging for cancer surgical margin delineation: registration of hyperspectral and histological images
US20220125280A1 (en) Apparatuses and methods involving multi-modal imaging of a sample
US20210153722A1 (en) Medical image processing system
Fei et al. Hyperspectral imaging and spectral-spatial classification for cancer detection
Pike et al. A minimum spanning forest based hyperspectral image classification method for cancerous tissue detection
Lu et al. Hyperspectral imaging of neoplastic progression in a mouse model of oral carcinogenesis
US11881190B2 (en) Medical image processing apparatus
Mühle et al. Workflow and hardware for intraoperative hyperspectral data acquisition in neurosurgery
WO2021226493A1 (en) Label-free real-time hyperspectral endoscopy for molecular-guided cancer surgery
JP2016154810A (ja) 画像処理装置及び画像処理方法
Trajanovski et al. Tumor semantic segmentation in hyperspectral images using deep learning
Vinuja et al. Diagnostic Device for Sustainable Medical Care Using Hyperspectral Imaging
US20230298184A1 (en) Processing of multiple luminescence images globally for their mapping and/or segmentation
Zadeh et al. Diagnosis of breast cancer and clustering technique using thermal indicators exposed by infrared images
WO2022065301A1 (ja) 医療画像装置及びその作動方法
Fabelo Gómez Contributions to the design and implementation of algorithms for the classification of hyperspectral images of brain tumors in real-time during surgical procedures
Martínez-González et al. Can Hyperspectral Images be used to detect Brain tumor pixels and their malignant phenotypes?
JP7434317B2 (ja) 皮膚色素疾患用の二次元及び三次元撮像システム
Anichini et al. Hyperspectral and multispectral imaging in neurosurgery: A systematic literature and metanalysis
Unger et al. The role of machine learning and time-resolved autofluorescence imaging for intraoperative cancer margin delineation
León Martín Contributions to the development of hyperspectral imaging instrumentation and algorithms for medical applications targeting real-time performance