ES2336577T3 - Formacion de imagenes de estructuras ocultas. - Google Patents

Formacion de imagenes de estructuras ocultas. Download PDF

Info

Publication number
ES2336577T3
ES2336577T3 ES05710889T ES05710889T ES2336577T3 ES 2336577 T3 ES2336577 T3 ES 2336577T3 ES 05710889 T ES05710889 T ES 05710889T ES 05710889 T ES05710889 T ES 05710889T ES 2336577 T3 ES2336577 T3 ES 2336577T3
Authority
ES
Spain
Prior art keywords
image
light
analysis
images
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05710889T
Other languages
English (en)
Inventor
Fokko Pieter Wieringa
Dirkjan Bakker
Antonius Franciscus Wilhelmus Van Der Steen
Frits Mastik
Rene Gerardus Maria Van Melick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nederlandse Organisatie voor Toegepast Natuurwetenschappelijk Onderzoek TNO
Original Assignee
Nederlandse Organisatie voor Toegepast Natuurwetenschappelijk Onderzoek TNO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34707381&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2336577(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Nederlandse Organisatie voor Toegepast Natuurwetenschappelijk Onderzoek TNO filed Critical Nederlandse Organisatie voor Toegepast Natuurwetenschappelijk Onderzoek TNO
Application granted granted Critical
Publication of ES2336577T3 publication Critical patent/ES2336577T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • A61B2562/0242Special features of optical sensors or probes classified in A61B5/00 for varying or adjusting the optical path length in the tissue
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • G01N21/359Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light using near infrared light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Vascular Medicine (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Credit Cards Or The Like (AREA)
  • Holo Graphy (AREA)

Abstract

Método de obtención de una imagen de estructuras ocultas (8) en un objeto, que comprende: - disponer una cámara (5) para la formación de imágenes visuales e infrarrojas; - disponer una fuente de luz infrarroja delimitada; - irradiar parcialmente dicho objeto mediante dicha fuente de luz delimitada; - formar imágenes de una zona (2) no irradiada de dicho objeto mediante dicha cámara para formar imágenes de dicha estructura oculta; y - combinar dicha imagen de la estructura oculta con una imagen visual de dicho objeto - alinear dicha fuente de luz infrarroja con una fuente (7) de luz visual; caracterizado porque el método comprende además - proporcionar un primer análisis de contorno de dicha imagen infrarroja; - proporcionar un segundo análisis de contorno de dicha imagen visual; - comparar dichos primer y segundo análisis; y - descartar los contornos en dicha imagen infrarroja que también son detectados en dicha segunda imagen.

Description

Formación de imágenes de estructuras ocultas.
La invención se refiere a un método de obtención de una imagen de estructuras ocultas en un objeto, en concreto para la formación de imágenes de estructuras tales como estructuras vasculares en tejidos biológicos por medio de la combinación selectiva de información extraída de imágenes del tejido en el rango visible y en el rango infrarrojo.
En la solicitud internacional WO0115597 del mismo inventor se da a conocer un método de este tipo. Se ha observado que obtener una imagen lo suficientemente clara es difícil debido a varios problemas. Un problema es que la luz que procede de las partes ocultas, en concreto de las más profundas del objeto, es frecuentemente mucho más débil que la luz que es reflejada directamente por la superficie del objeto. En la práctica, esto supone que puede ser necesaria una separación de la luz reflejada especularmente y de la luz que procede de las partes más profundas del objeto con el fin de identificar estructuras subyacentes.
Si bien separando estos dos tipos de luz, por ejemplo mediante un método conocido de utilización de luz polarizada, y utilizando el hecho de que la luz reflejada especularmente mantiene su dirección de polarización, de forma que ésta puede ser filtrada por medio de un filtro polarizado, se pierde una cantidad sustancial de la luz que procede de las partes inferiores del objeto, lo que tiene como resultado una pérdida del brillo y la resolución de la imagen. Esto invita a la utilización de fuentes de luz potentes para recibir luz suficiente desde las partes inferiores en el proceso de separar las dos partes. Sin embargo, especialmente en el campo de la formación de imágenes de estructuras en objetos vivos, existe una cantidad máxima de luz que puede ser irradiada sobre el objeto.
El documento WO01/50955 muestra una disposición reflectante en la que la luz especular es filtrada por un polarizador. La imagen de una estructura subyacente es combinada con una imagen visual para presentar una única imagen. Sin embargo, se ha encontrado que la combinación directa de estas imágenes presenta problemas, en concreto, debido a que se producen ciertos artefactos inconvenientes para detectar y localizar con fiabilidad una estructura subyacente.
El documento US2001/0037811 muestra una sonda para determinar una circunferencia de un dedo. Adicionalmente, la articulación es sometida a transluminación para inspeccionar inflamación de artritis a partir de un análisis de dispersión. Esta disposición no puede ser utilizada para la formación visual de imágenes de partes del cuerpo con una libertad comparable al ojo humano.
La publicación USA 5.699.797 muestra un método para la grabación secuencial de imágenes en longitudes de onda visibles y del IR cercano y la posterior superposición de las imágenes obtenidas de ese modo. La publicación describe el concepto de dos haces luminosos paralelos, uno de luz visible y el otro de luz IR. No se describe la eliminación de aberraciones en la imagen IR.
El documento US 2003/210810-A1 da a conocer restar imágenes obtenidas a longitudes de onda diferentes.
El documento WO 01/52735-A da a conocer la detección de estructuras de interés con detección de contornos.
El documento US 2002/181762-A1 muestra un sistema compuesto de detección de contornos que tiene los contornos de varias imágenes combinados de modo que son seleccionados los contornos mejor enfocados de cada imagen. No se propone la sustracción de contornos.
La invención tiene el objetivo de proporcionar una técnica de formación de imágenes que no acuse los problemas descritos anteriormente y que pueda proporcionar una imagen mejorada de la estructura subyacente. Además, la invención tiene como otro objetivo proporcionar una técnica mejorada de formación de imágenes que permita a una persona combinar en una imagen información visual e información de objetos ocultos.
Para conseguir estos y otros objetivos, en un aspecto, la invención ofrece un método según las características de la reivindicación 1. En otro aspecto, la invención ofrece un método según las características de la reivindicación 13.
En concreto, la invención utiliza la alineación de dicha fuente de luz infrarroja con una fuente de luz visual; proporcionando un primer análisis de contornos de dicha imagen infrarroja; proporcionando un segundo análisis de contornos de dicha imagen visual; comparando dichos primer y segundo análisis de contornos; y descartando contornos en dicha imagen infrarroja que también se detecten en dicha segunda imagen. Esto ofrece la ventaja de obtener una imagen visual "normal" (vista por el ojo humano), que se mejora al identificar la estructura subyacente (detectada utilizando luz infrarroja) dentro de la imagen visual mientras se descartan contornos falsos formados por artefactos de ensombrecimiento y solape (por ejemplo, las sombras o reflejos de un bisturí o de una aguja). Por ejemplo, para fines quirúrgicos, el método ofrece una herramienta práctica para decidir un punto de entrada óptimo en el objeto, por ejemplo para cortar tejido o similar.
Además, proporcionando una cámara para la formación de imágenes visuales e infrarrojas; proporcionando una fuente de luz delimitada para irradiar parcialmente dicho objeto con luz infrarroja; irradiando parcialmente dicho objeto mediante dicha fuente de luz delimitada; formando imágenes de una zona no irradiada de dicho objeto mediante dicha cámara para obtener imágenes de dicha estructura oculta; y combinando dicha imagen de estructura oculta con una imagen visual de dicho objeto, se filtra espacialmente desde la imagen la luz infrarroja incidente en la imagen que es originada por una reflexión directa. Por lo tanto, la imagen parcial restante no padece efectos de saturación debidos a la iluminación directa de la luz reflejada especularmente. En una realización preferente, se obtiene una imagen completa variando temporalmente dicha irradiación parcial para así proporcionar una imagen completa mediante la combinación posterior de dichas imágenes parciales.
En otra realización preferente, dicha imagen parcial se obtiene por barrido de un haz luminoso sobre dicho objeto. Adicional o alternativamente, dicha imagen parcial se obtiene mediante la irradiación posterior de dicho objeto según modelos predeterminados. Una realización especialmente preferente comprende obtener dicha imagen parcial irradiando de forma alterna dicho objeto mediante modelos predeterminados complementarios. Por ejemplo, en una realización dichos modelos pueden ser modelos matriciales, modelos lineales, modelos de puntos, o modelos concéntricos o circulares.
Además, preferentemente dicho objeto es irradiado solo en posiciones predeterminadas que están separadas. Al separar la zona de irradiación y la zona de detección de luz, pueden realzarse partes más profundas de la estructura oculta.
Al iluminar alternativamente dicho objeto, puede obtenerse una imagen completa, y en la que todas las zonas del objeto son irradiadas de una forma dependiente del tiempo.
La invención ofrece además ventajas concretas al utilizar una cámara-CMOS, puesto que esta cámara tiene un alto grado de decorrelación de píxeles adyacentes. De este modo, se impide el efecto de "deslumbramiento", de modo que hay un contraste elevado entre el área reflejada directamente (que se descarta) y el área restante que recibe luz difusa originada en capas más profundas.
Preferentemente, dicha detección de contornos se lleva a cabo mediante un análisis de gradientes de dicha primera imagen. La invención ofrece una realización práctica cuando dichas imágenes son proporcionadas de forma estereoscópica. Además, dicha primera imagen puede ser sometida a análisis espectral, y dicho análisis espectral se proyecta a dicha segunda imagen. Además, dicho análisis espectral puede comprender un análisis de pulsatilidad y/o un análisis de la frecuencia del ritmo cardíaco y/o un análisis de la frecuencia respiratoria. De este modo, dicho análisis ofrece una herramienta sin contacto, práctica, para medir parámetros de interés del cuerpo. Por "análisis de pulsatilidad" se entiende, como mínimo, una determinación de partes pulsátiles en el objeto de interés. La invención está además relacionada con un método de mejora de la formación de imágenes de estructuras ocultas en un objeto, que comprende lo definido en la reivindicación 14. Además, la invención está relacionada con un sistema como el definido en la reivindicación 16.
A partir de los dibujos resultarán evidentes otras características y ventajas. En los dibujos:
la figura 1 muestra una vista esquemática de un método de irradiación por barrido de un objeto, según la invención;
la figura 2 muestra una vista esquemática de la migración de fotones en tejido vivo debido a la difusión;
la figura 3 muestra un método de iluminación iluminando un modelo de superposición sobre el objeto;
la figura 4 muestra un método de iluminación al iluminar modelos circulares sobre el objeto;
la figura 5 muestra un método de iluminación al iluminar una rejilla de modelos sobre el objeto;
la figura 6 muestra una disposición de verificación para verificar el aparato, según la invención, utilizando una longitud de onda visible y dos longitudes de onda infrarrojas;
la figura 7 muestra una serie de etapas de análisis para procesar y encaminar los datos adquiridos en la disposición de la figura 6;
la figura 8 muestra un análisis espectral de los componentes pulsátiles en dicha imagen, para luz de tres longitudes de onda diferentes;
la figura 9 muestra una construcción simple de tipo visor que comprende el aparato de la invención;
la figura 10 muestra la construcción de tipo visor de la figura 9 durante su utilización;
la figura 11 muestra las imágenes VIS y NIR recogidas por la pieza ocular de la figura 9;
la figura 12 muestra las etapas según el método de la invención; y
la figura 13 muestra otra realización del sistema inventivo que incluye una herramienta de perforación con emisión de infrarrojos.
La figura 1 muestra una alternativa al método de filtrado por polarización descrito anteriormente. Este método comprende la iluminación/barrido complementario dinámico de secciones de imagen sometidas a modelos alternativos. Este método no necesita la utilización de filtros de polarización. Se basa en el hecho de que los fotones que entran en el tejido biológico serán dispersados fuertemente dentro del tejido, lo que en parte tiene como resultado retrodispersión.
Además, la zona observada está dividida en zonas lineales paralelas, que denominaremos "secciones lineales". Estas secciones lineales pueden estar divididas en secciones lineales pares e impares (1), (2) respectivamente.
Después, utilizando una cámara con buenas especificaciones antideslumbramiento y que permita la lectura de regiones de píxeles rectangulares seleccionables libremente, podemos adquirir información de la imagen en una secuencia especial.
Durante un cierto período la fuente de luz delimitada iluminará todas las secciones lineales pares (1) y la cámara adquirirá información de imágenes desde todas las secciones lineales impares (2). Aquí, el término "delimitada" abarca la luz que está limitada espacialmente, de modo que un objeto iluminado comprende, en la dirección de visión que es también una dirección de iluminación, zonas no iluminadas que no se alcanzan mediante la fuente de luz delimitada. Tal delimitación puede conseguirse típicamente al enfocar, colimar o apantallar la fuente de luz. También pueden producir iluminaciones delimitadas algunas otras fuentes de luz, tales como rayos láser (por ejemplo, en combinación con una rejilla de difracción holográfica) y LED. Durante el siguiente periodo las secciones lineales impares (2) son iluminadas y la cámara adquirirá información de imágenes desde las secciones lineales pares. Esto puede realizarse con una cámara lineal que barre todo el tejido o bien con una cámara normal que barre todas las líneas pares simultáneamente y durante el siguiente periodo todas las líneas impares.
En la figura 2 se muestra cómo la luz difundida dentro del tejido puede ser utilizada para formar imágenes de partes más profundas del objeto. La luz entra en el objeto en una posición (1) y lo abandona en otra posición (2). A partir de la figura resulta evidente que la luz que entra en posiciones más alejadas puede reunir información de partes más profundas dentro del objeto. Aplicando una serie de modelos de iluminación, tal como se describirá después haciendo referencia a las figuras 3 a 5, puede conseguirse iluminación desde "dentro" del objeto, de ese modo formando imágenes de partes más profundas del objeto.
A este respecto, en la figura 3, en lugar de las líneas paralelas pares e impares mostradas en la figura 1, pueden ser utilizados modelos alternos de líneas cruzadas desplazadas espacialmente, como modelo de iluminación, mientras se produce la adquisición de imágenes dentro de las áreas que están entre las líneas. También es posible proyectar primero un modelo de puntos "par" sobre el punto de cruce del modelo lineal (1) y a continuación proyectar un modelo de puntos "impar" sobre las secciones de cruce del modelo lineal (2). Asimismo, en la figura 4 se pueden utilizar regiones circulares concéntricas discretas. Se obtuvieron resultados satisfactorios con una simple prueba de geometría de irradiación circular que se da a conocer en la figura 4. Se depositó una capa de espuma rosada (Ethafoam 3M) de 6 mm sobre el conducto de apantallamiento. Sobre esta capa de espuma se situó una abrazadera de plástico de oficina, con su trozo de plástico de retención de papel quedando a través de ésta. Finalmente se depositó en la parte superior una segunda capa de espuma rosa. Fuera del campo de visión de la cámara, una luz anular inyectó fotones de 660 nm, 810 nm y 940 nm en la espuma, perpendiculares a la superficie de la espuma.
La figura 5 muestra otra realización, en la que dicho objeto es irradiado solo en posiciones predeterminadas que están separadas espacialmente. Las primeras regiones (3) indicadas con líneas horizontales son irradiadas en un primer período; las segundas regiones (4) con líneas verticales son irradiadas en un segundo período. Esta configuración de separación espacial puede mostrar partes más profundas de la estructura. Variando la separación, puede barrerse partes más bajas y profundas del objeto.
La figura 6 muestra una disposición de prueba, en la que se comprobó una realización del método inventivo utilizando marcadores conocidos tales como un pulsómetro SP02, un dispositivo de registro del ECG y un monitor de la frecuencia respiratoria. Las señales fueron registradas y muestreadas utilizando las etapas indicadas en la figura 7. Esto conduce a un análisis temporal píxel a píxel de la variación de la intensidad. Los cuadros fueron muestreados a una velocidad de muestreo de 100 Hz y se compararon la respiración, el ECG y el pulso pletismográfico. En la figura 8 se muestra el resultado para una variedad de longitudes de onda. Se ilustra claramente cómo la variación medida de la cámara se ajusta bien a las otras señales de impulsos.
Una configuración especial mejorada se basa en dos cámaras (por ejemplo, CCD o CMOS monocromáticas o multibanda) situadas a cierta distancia entre sí (por ejemplo, la distancia ojo a ojo), visualizando de ese modo de forma estereoscópica el mismo objeto (por ejemplo, tejido biológico), un dispositivo electrónico de procesamiento de imágenes de doble canal y dos dispositivos de visualización colocados delante de ambos ojos.
Entre cada cámara y el objeto observado puede situarse (puede hacerse combinando 2 canales) un sistema óptico adicional (por ejemplo, un microscopio, un endoscopio, un colposcopio, etc., de dos canales). Es posible incorporar una construcción (5) simple de tipo visor (véase la figura 9) de modo que el dispositivo pueda colocarse frente al ojo o bien situarse fuera del ángulo de visión para permitir la visión normal.
\newpage
La figura 10 muestra, a modo de ejemplo, la pieza ocular estereoscópica (5) de la figura 9 en uso. Para la pieza ocular, puede ser aplicada una cámara de color con un modelo de filtro de color Bayer, en el que todos los filtros de color son altamente transparentes en el rango NIR. Además puede ser aplicado un chip de cámara multicapa (patente WO 02/27804 de Foveon Inc. o patentes previas como 4.238.760 de Carr) o el enfoque de nuestra patente anterior WO 01 15597 A1. Preferentemente, las imágenes en ambos rangos espectrales se ajustan píxel a píxel.
La superficie de la región de tejido biológico (6) observada es irradiada en un ángulo oblicuo desde dos lados opuestos mediante dos fuentes de luz (7). Estos dos lados no tienen por qué estar alineados con los ejes izquierdo/derecho de la pieza ocular (5), sino que pueden ser girados en torno a un plano perpendicular al eje central de las cámaras unidas.
Las fuentes de luz (7) pueden ser controladas para enviar de forma independiente luz blanca de banda ancha en el rango de longitudes de onda del visible (VIS; 400-780 nm) o luz de banda estrecha en el rango del infrarrojo cercano (NIR; por ejemplo 920 nm) así como en ambos rangos (VIS y NIR). Las fuentes de luz (7) están construidas cuidadosamente de manera que los perfiles geométricos de los haces de VIS y NIR están alineados, lo que tiene como resultado un sombreado idéntico en las imágenes VIS y NIR. Como alternativa, para reunir las imágenes también puede utilizarse un microscopio quirúrgico estereoscópico o una cámara endoscópica de dos canales (tal como la utilizada en cirugía estereoscópica por robot) con dos guías de luz de fibra laterales.
La figura 11 muestra el resultado de las imágenes VIS (figura 11 A) y NIR (figura 11 B) tales como las recogidas por la pieza ocular (5) ilustrada en la figura 10. Puesto que los haces NIR y VIS están emparejados, las sombras producidas por las formas irregulares en la superficie del tejido (por ejemplo la estructura de la piel, pliegues de la piel, moldes, etc.) también estarán emparejadas en ambos rangos de longitudes de onda. En la realización dada a conocer, los haces están orientados en un pequeño ángulo con respecto a la región (6) de tejido. Como resultado, los pliegues de la piel producirán sombras de contornos nítidos. Las zonas brillantes que producen reflejos y/o píxeles saturados (marcados como una estrella) también coincidirán en ambos rangos de longitudes de onda. Debido al ángulo pequeño, los objetos (8) que se acercan a la superficie (6) del tejido (por ejemplo agujas, bisturís, sondas, etc.) producirán dos sombras separadas. Estas sombras se encontrarán y formarán típicamente un modelo (9) en "V" cuando un objeto toque la superficie. Si, por ejemplo, una aguja perfora la superficie, entonces la punta (10) de la aguja desaparecerá rápidamente de la imagen VIS (figura 11 A). Sin embargo, en la imagen NIR (figura 11 B) la punta (10) seguirá siendo visible dentro del tejido (6) (véase la figura).
En la imagen VIS (figura 11 A), solo serán visibles vasos sanguíneos muy superficiales, especialmente si la textura del vaso deforma la piel. Sin embargo, en la imagen NIR, los vasos sanguíneos se verán mucho mejor (incluso los vasos sanguíneos a una profundidad de unos pocos milímetros bajo la superficie). Puesto que el pigmento de la piel (melanina) tiene un absorbancia muy baja dentro de la región NIR, esta buena visibilidad NIR también se tendrá con personas de piel oscura (además los moldes perderán su color oscuro).
Tras la obtención de las imágenes NIR y VIS en las etapas (11) y (12) respectivamente, se aplica una etapa de mejora del contorno por gradiente para ambas bandas espectrales, tal como se mostrará con referencia a la figura 16 (etapas -13- y -14-). Las imágenes VIS-J y NIR-J se obtienen filtrando con un filtro de nivelación para eliminar el ruido procedente de las imágenes NIR y VIS de la cámara. En la implementación actual esto es un filtro de promedio. A partir de cada una de las imágenes niveladas VIS-J y NIR-J, se calculan dos imágenes de diferencia direccional Ix e Iy por medio de un filtro de gradiente. Actualmente, esto se lleva a cabo con un filtro Prewitt.
A continuación, se calculan las imágenes de gradiente del contorno VIS-G y NIR-G \sqrt{(1x^{2} + Iy^{2})} mediante. Después, VIS-G y NIR-G son recortadas y normalizadas a 1 para obtener VIS-G' y NIR-G' (etapas -15- y -16-). Finalmente las imágenes se complementan a 1 - G' (etapas -17- y -18-).
Para una región dada de tejido, se obtienen una imagen VIS y una imagen NIR coincidente píxel a píxel.
Las imágenes de ambas bandas espectrales son sometidas a un algoritmo de mejora del contorno (véase más arriba) idéntico, produciendo imágenes normalizadas NIR-contorno y VIS-contorno en la escala de grises, de modo que los contornos se codifican en negro (0 = negro y 1 = blanco; se observa que este es el negativo de los resultados normales de contorno mejorado).
A continuación se determinan los contornos correspondientes en las imágenes NIR y VIS (etapa -19-), según un criterio píxel a píxel:
píxel-contorno-NIR < Umbral_NIR Y píxel-contorno-VIS < Umbral_VIS (ambos umbrales son configurables por soporte lógico).
\vskip1.000000\baselineskip
Combinando información de ambas regiones espectrales, las coordenadas de píxeles que satisfacen ambos requisitos son identificadas como aberraciones superficiales y se descartan mediante poner el valor del píxel a 1 en la imagen de contorno NIR corregida (etapa -20-).
Haciendo lo mismo en la imagen NIR en bruto tras la normalización (etapa -21-) (sin mejora de contorno) se define una imagen NIR normalizada corregida (etapa -22-) descartando regiones de imágenes saturadas.
A este respecto, se identifican las localizaciones de todos los píxeles saturados dentro de la imagen NIR en bruto (por ejemplo, 256 para una imagen de 8 bits). Para todos los píxeles dentro de la 1ª máscara-NIR que están saturados o son vecinos directos de un píxel saturado, los contornos se descartan poniendo el valor del píxel a 1 (y, de ese modo, ignorando por completo la información de contorno) lo que tiene como resultado una 2ª máscara-NIR (etapa -23-).
De ese modo, se retiran los falsos contornos resultantes de píxeles saturados y la 2ª máscara-NIR contiene ahora los límites de los vasos sanguíneos subcutáneos (y eventualmente otras estructuras ocultas con contraste).
Este enfoque puede ser modificado incluyendo píxeles vecinos segundo, tercero, etc.
En un modo preferente, la imagen IR en bruto se utiliza para proporcionar vasos sanguíneos "llenos"; por ejemplo, multiplicando la 2ª máscara-NIR por la 2ª imagen NIR corregida (etapa -24-). La cantidad de color de relleno puede ser modificada con un exponente N ajustable por el usuario:
2ª máscara-NIR x (1ª imagen NIR corregida)^{N} = máscara mejorada final
Finalmente, en la etapa -25- esta máscara mejorada final se multiplica ahora por el componente de luminosidad de la imagen VIS en bruto (que, preferentemente, es una imagen en color). De este modo, solo se proyecta en la imagen VIS la información de contraste que realmente se origina desde debajo de la superficie del tejido. Si miramos los dibujos anteriores con una aguja insertada en el tejido es evidente que estos criterios llevarán a superponer sólo la punta de la aguja oculta sobre la imagen VIS. No se realzarán las sombras, las arrugas, los reflejos y los contornos de los moldes.
De este modo, la detección de aberraciones puramente superficiales puede mejorarse adicionalmente cuando, en lugar de tener en cuenta todos los colores del rango visible, sólo se utiliza el rango espectral azul para la entrada mejorada de contorno VIS. Esto se hace para suprimir la visibilidad de los vasos sanguíneos. Este efecto de luz azul se debe a que, en el rango visible, la reflectividad de los vasos para la luz azul es la más próxima a la piel (el contraste máximo visible de los vasos queda fuera del rango azul). A modo de otra mejora opcional, la máscara de mejora final puede ser multiplicada selectivamente, por ejemplo, con sólo la parte roja y/o verde de la imagen visible (en lugar de la señal de luminosidad de la imagen de color visible total).
Cuando se representa una parte de tejido de interés, el usuario puede conmutar a un modo que modifica la secuencia de captación de imágenes y permite la recogida de una (segunda) imagen NIR adicional dentro de una región seleccionada de interés (ROI). Esta ROI es iluminada virtualmente mediante inyección de fotones inmediatamente exteriores a la ROI por medio de una matriz de LEDs en contacto con el tejido, o bien de un modelo de puntos de láser o líneas de láser proyectadas sobre el tejido desde una cierta distancia. Durante la adquisición de esta segunda imagen NIR, las iluminaciones VIS y primera NIR están desactivadas.
De este modo, puede ser combinada la información obtenida utilizando dos tipos de geometrías de iluminación para el mismo rango de longitudes de onda. Esto puede hacerse con y sin utilizar también VIS e iluminación por punta de aguja parpadeante tal como se ilustra haciendo referencia a la figura 13.
En la figura 13, se conectan un láser-NIR o un LED-NIR en una aguja o un catéter (8). A través de una ventana estéril se proyecta luz a través del calibre de la aguja o junto a éste. De este modo, la punta (10) de la aguja ilumina la pared (26) interior del vaso cuando la aguja está en el vaso (véase la figura 13B). Si la aguja perfora la pared distal del vaso (véase la figura 13C) se ve un cambio drástico en la iluminación. La fuente de luz adosada a la aguja puede estar sincronizada con las cámaras. Puede ser beneficiosa una iluminación parpadeante en la punta.
Si bien en lo precedente la invención se ha ilustrado haciendo referencia a los dibujos y a la descripción, resultará evidente que la invención no está limitada a esto y que estas realizaciones se dan a conocer solamente con fines ilustrativos. Las variaciones y modificaciones sobre las mismas están dentro del ámbito de la invención, tal como se define en las reivindicaciones anexas.

Claims (18)

1. Método de obtención de una imagen de estructuras ocultas (8) en un objeto, que comprende:
-
disponer una cámara (5) para la formación de imágenes visuales e infrarrojas;
-
disponer una fuente de luz infrarroja delimitada;
-
irradiar parcialmente dicho objeto mediante dicha fuente de luz delimitada;
-
formar imágenes de una zona (2) no irradiada de dicho objeto mediante dicha cámara para formar imágenes de dicha estructura oculta; y
-
combinar dicha imagen de la estructura oculta con una imagen visual de dicho objeto
-
alinear dicha fuente de luz infrarroja con una fuente (7) de luz visual;
caracterizado porque el método comprende además
-
proporcionar un primer análisis de contorno de dicha imagen infrarroja;
-
proporcionar un segundo análisis de contorno de dicha imagen visual;
-
comparar dichos primer y segundo análisis; y
-
descartar los contornos en dicha imagen infrarroja que también son detectados en dicha segunda imagen.
\vskip1.000000\baselineskip
2. Método, según la reivindicación 1, en el que dicha irradiación se varía en el tiempo con el fin de proporcionar una imagen completa mediante la combinación posterior de imágenes parciales.
3. Método, según la reivindicación 1 ó 2, en el que dicha imagen se obtiene por barrido de un haz luminoso sobre dicho objeto.
4. Método, según la reivindicación 1 ó 2, en el que dicha imagen se obtiene irradiando posteriormente dicho objeto con modelos predeterminados (1, 2).
5. Método, según la reivindicación 4, en el que dicha imagen parcial se obtiene irradiando alternativamente dicho objeto con modelos complementarios predeterminados.
6. Método, según la reivindicación 4 ó 5, en el que dichos modelos son modelos matriciales, modelos lineales, modelos de puntos o modelos concéntricos (T1, T2, T3).
7. Método, según cualquiera de las reivindicaciones 4 a 6, en el que dicho objeto es irradiado sólo en posiciones predeterminadas que están separadas espacialmente.
8. Método, según cualquiera de las reivindicaciones 1 a 7, en el que dicha imagen se obtiene mediante una cámara-CMOS.
9. Método, según la reivindicación 1, que comprende además:
-
corregir dicha primera imagen para descartar las zonas de imagen saturadas.
\vskip1.000000\baselineskip
10. Método, según cualquiera de las reivindicaciones precedentes, en el que dichas imágenes son proporcionadas de forma estereoscópica.
11. Método, según cualquiera de las reivindicaciones precedentes, en el que dicha primera imagen es analizada espectralmente, y en el que dicho análisis espectral es proyectado en dicha segunda imagen.
12. Método, según la reivindicación 11, en el que dicho análisis espectral comprende un análisis de pulsatilidad y/o un análisis de la frecuencia del ritmo cardiaco y/o un análisis de la frecuencia respiratoria.
13. Sistema para obtener una imagen de estructuras ocultas en un objeto, que comprende
-
una fuente (7) de luz infrarroja delimitada, la fuente de luz alineada con una fuente (7) de luz visual, para irradiar parcialmente dicho objeto con luz;
-
un dispositivo de cámara (5) dispuesto para obtener una primera imagen de la estructura oculta en una zona no irradiada del objeto y para obtener una segunda imagen visual de dicho objeto; y
-
un dispositivo de procesamiento dispuesto para:
\bullet
proporcionar un análisis de gradiente de dicha primera imagen de la estructura oculta con el objeto de detectar los contornos de dicha estructura oculta; y proporcionar un análisis de gradiente de dicha segunda imagen visual;
\bullet
comparar el análisis de gradiente de dicha segunda imagen visual con el análisis de gradiente de dicha primera imagen de la estructura oculta;
\bullet
descartar los contornos en dicha primera imagen de la estructura oculta que son también detectados en dicha segunda imagen visual; y
\bullet
combinar dichas primer y segunda imágenes para definir los contornos de dicha estructura oculta en dicha imagen visual.
\vskip1.000000\baselineskip
14. Sistema, según la reivindicación 13, que comprende además:
-
un instrumento (8) de perforación para perforar tejido humano; y
-
una fuente 10 de luz IR dispuesta en dicho instrumento de perforación.
\vskip1.000000\baselineskip
15. Sistema, según la reivindicación 14, en el que dicha luz IR está alineada con dicho instrumento de perforación.
16. Sistema, según la reivindicación 14 o 15, en el que dicha luz IR está dispuesta en una punta de dicho instrumento de perforación.
17. Sistema, según cualquiera de las reivindicaciones 14 a 16, en el que dicho instrumento de perforación está dotado de un revestimiento que irradia IR.
18. Sistema, según cualquiera de las reivindicaciones 14 a 17, en el que la fuente de luz IR y la fuente de luz delimitada son activadas de forma alternativa.
ES05710889T 2004-02-19 2005-02-15 Formacion de imagenes de estructuras ocultas. Active ES2336577T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04075541A EP1566142A1 (en) 2004-02-19 2004-02-19 Imaging of buried structures
EP04075541 2004-02-19

Publications (1)

Publication Number Publication Date
ES2336577T3 true ES2336577T3 (es) 2010-04-14

Family

ID=34707381

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05710889T Active ES2336577T3 (es) 2004-02-19 2005-02-15 Formacion de imagenes de estructuras ocultas.

Country Status (7)

Country Link
US (1) US8630465B2 (es)
EP (2) EP1566142A1 (es)
JP (1) JP4739242B2 (es)
AT (1) ATE447880T1 (es)
DE (1) DE602005017588D1 (es)
ES (1) ES2336577T3 (es)
WO (1) WO2005079662A1 (es)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8620410B2 (en) 2002-03-12 2013-12-31 Beth Israel Deaconess Medical Center Multi-channel medical imaging system
AU2003248559A1 (en) 2002-05-22 2003-12-12 Beth Israel Deaconess Medical Center Device for wavelength-selective imaging
US8473035B2 (en) 2003-09-15 2013-06-25 Beth Israel Deaconess Medical Center Medical imaging systems
US9750425B2 (en) 2004-03-23 2017-09-05 Dune Medical Devices Ltd. Graphical user interfaces (GUI), methods and apparatus for data presentation
US20060241495A1 (en) * 2005-03-23 2006-10-26 Eastman Kodak Company Wound healing monitoring and treatment
US8478386B2 (en) 2006-01-10 2013-07-02 Accuvein Inc. Practitioner-mounted micro vein enhancer
US11253198B2 (en) 2006-01-10 2022-02-22 Accuvein, Inc. Stand-mounted scanned laser vein contrast enhancer
US9854977B2 (en) 2006-01-10 2018-01-02 Accuvein, Inc. Scanned laser vein contrast enhancer using a single laser, and modulation circuitry
US10813588B2 (en) 2006-01-10 2020-10-27 Accuvein, Inc. Micro vein enhancer
US8489178B2 (en) 2006-06-29 2013-07-16 Accuvein Inc. Enhanced laser vein contrast enhancer with projection of analyzed vein data
US9492117B2 (en) 2006-01-10 2016-11-15 Accuvein, Inc. Practitioner-mounted micro vein enhancer
US11278240B2 (en) 2006-01-10 2022-03-22 Accuvein, Inc. Trigger-actuated laser vein contrast enhancer
US8838210B2 (en) 2006-06-29 2014-09-16 AccuView, Inc. Scanned laser vein contrast enhancer using a single laser
US7978332B2 (en) 2006-04-18 2011-07-12 Koninklijke Philips Electronics N.V. Optical measurement device
US8730321B2 (en) 2007-06-28 2014-05-20 Accuvein, Inc. Automatic alignment of a contrast enhancement system
US10238294B2 (en) 2006-06-29 2019-03-26 Accuvein, Inc. Scanned laser vein contrast enhancer using one laser
US8594770B2 (en) 2006-06-29 2013-11-26 Accuvein, Inc. Multispectral detection and presentation of an object's characteristics
US8463364B2 (en) 2009-07-22 2013-06-11 Accuvein Inc. Vein scanner
JP5073996B2 (ja) * 2006-09-20 2012-11-14 オリンパス株式会社 画像処理装置
IL180469A0 (en) * 2006-12-31 2007-06-03 Gil Shetrit Vascular access system and method
WO2010064202A2 (en) * 2008-12-05 2010-06-10 Koninklijke Philips Electronics N.V. Optical detection method and device for optical detection of the condition of joints
US8503712B2 (en) * 2008-12-31 2013-08-06 Motorola Mobility Llc Method and apparatus for determining blood oxygenation using a mobile communication device
NL2002544C2 (en) * 2009-02-18 2010-08-19 Bio Photonics Holding B V Pixel-to-pixel aligned multispectral imaging & spatial light modulation through optical instruments.
US9061109B2 (en) 2009-07-22 2015-06-23 Accuvein, Inc. Vein scanner with user interface
FR2969292A1 (fr) 2010-12-17 2012-06-22 Commissariat Energie Atomique Procede et dispositif pour examen optique en geometrie de reflexion
WO2012168322A2 (en) * 2011-06-06 2012-12-13 3Shape A/S Dual-resolution 3d scanner
US8879848B2 (en) * 2011-07-27 2014-11-04 National Instruments Corporation Machine vision based automatic maximal clamp measurement tool
WO2013136231A1 (en) * 2012-03-13 2013-09-19 Koninklijke Philips N.V. Cardiopulmonary resuscitation apparatus comprising a physiological sensor
US8897522B2 (en) * 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US9072426B2 (en) 2012-08-02 2015-07-07 AccuVein, Inc Device for detecting and illuminating vasculature using an FPGA
US10376147B2 (en) 2012-12-05 2019-08-13 AccuVeiw, Inc. System and method for multi-color laser imaging and ablation of cancer cells using fluorescence
CN203289635U (zh) 2013-05-10 2013-11-13 瑞声声学科技(深圳)有限公司 弹簧板及应用该弹簧板的多功能发声器
JP6261994B2 (ja) * 2014-01-28 2018-01-17 三菱重工業株式会社 画像補正方法、これを用いる検査方法及び検査装置
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
JP6511777B2 (ja) 2014-11-10 2019-05-15 セイコーエプソン株式会社 画像処理装置、画像処理方法およびプログラム
CN106236060B (zh) * 2015-06-04 2021-04-09 松下知识产权经营株式会社 生物体信息检测装置
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
CN116269262A (zh) 2016-12-01 2023-06-23 松下知识产权经营株式会社 生物体信息检测装置、生物体信息检测方法及存储介质
TWI662940B (zh) * 2018-06-01 2019-06-21 廣達電腦股份有限公司 影像擷取裝置
JP7247501B2 (ja) * 2018-09-21 2023-03-29 富士フイルムビジネスイノベーション株式会社 画像処理装置およびプログラム
CN111879791B (zh) * 2020-07-30 2023-06-20 西湖大学 一种图案表面凸起特征增强的机器视觉系统及方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4555179A (en) * 1982-11-08 1985-11-26 John Langerholc Detection and imaging of objects in scattering media by light irradiation
US5137355A (en) * 1988-06-08 1992-08-11 The Research Foundation Of State University Of New York Method of imaging a random medium
US5699797A (en) * 1992-10-05 1997-12-23 Dynamics Imaging, Inc. Method of investigation of microcirculation functional dynamics of physiological liquids in skin and apparatus for its realization
US6032070A (en) * 1995-06-07 2000-02-29 University Of Arkansas Method and apparatus for detecting electro-magnetic reflection from biological tissue
NL1012943C2 (nl) * 1999-08-31 2001-03-01 Tno Detector en beeldvormende inrichting voor het bepalen van concentratieverhoudingen.
WO2001050955A1 (en) * 2000-01-14 2001-07-19 Flock Stephen T Improved endoscopic imaging and treatment of anatomic structures
WO2001052735A1 (de) * 2000-01-17 2001-07-26 Stiftung Zur Förderung Der Erforschung Und Behandlung Kindlicher Leukämien (Kinderleukämiestiftung) Verbesserung der sichtbarkeit von venen-punktionsstellen
DE10004989B4 (de) * 2000-02-04 2006-11-02 Siemens Ag Verfahren und Vorrichtung für die Arthritis-Diagnose
US20020035317A1 (en) * 2000-08-04 2002-03-21 Photonify Technologies Optical imaging system with movable scanning unit
US7058233B2 (en) * 2001-05-30 2006-06-06 Mitutoyo Corporation Systems and methods for constructing an image having an extended depth of field
US7158660B2 (en) * 2002-05-08 2007-01-02 Gee Jr James W Method and apparatus for detecting structures of interest
US7372985B2 (en) * 2003-08-15 2008-05-13 Massachusetts Institute Of Technology Systems and methods for volumetric tissue scanning microscopy

Also Published As

Publication number Publication date
US20090028461A1 (en) 2009-01-29
JP2007522869A (ja) 2007-08-16
DE602005017588D1 (de) 2009-12-24
EP1729629A1 (en) 2006-12-13
JP4739242B2 (ja) 2011-08-03
ATE447880T1 (de) 2009-11-15
WO2005079662A1 (en) 2005-09-01
EP1566142A1 (en) 2005-08-24
EP1729629B1 (en) 2009-11-11
US8630465B2 (en) 2014-01-14

Similar Documents

Publication Publication Date Title
ES2336577T3 (es) Formacion de imagenes de estructuras ocultas.
CN105848566B (zh) 用于预定生物结构的无创检测的设备
ES2341079B1 (es) Equipo para vision mejorada por infrarrojo de estructuras vasculares,aplicable para asistir intervenciones fetoscopicas, laparoscopicas y endoscopicas y proceso de tratamiento de la señal para mejorar dicha vision.
US8948851B2 (en) Method and apparatus for depth-resolved fluorescence, chromophore, and oximetry imaging for lesion identification during surgery
US20100061598A1 (en) Apparatus and method for recognizing subcutaneous vein pattern
CN103491874A (zh) 定位和分析用于整形和再造外科的穿支皮瓣
US9320437B2 (en) Intravital observation device
KR101710902B1 (ko) 근적외선 형광 진단용 무영 조명등 및 무영 조명 시스템
US11350826B2 (en) Device and method for acquisition of medical images for the analysis of ulcers
CA3086398A1 (en) Patterned beam analysis of the iridocorneal angle
KR101669411B1 (ko) 피부 및 치아 검사 시스템 및 방법
JP2012130584A (ja) 生体内観察装置
KR200481528Y1 (ko) 간이 조영 영상 획득 장치
Dixon et al. Toward Development of a Portable System for 3D Fluorescence Lymphography
Wieringa et al. Pulse oxigraphy demonstrated on a phantom with arterial and venous regions
CN114041737A (zh) 应用于内窥镜的成像装置
JP5885386B2 (ja) 生体内観察装置
CN113974574A (zh) 基于多模态光学的成像系统及成像方法
AU2014338605A1 (en) Device for non-invasive detection of predetermined biological structures
WO2018055061A1 (en) Hyperspectral tissue imaging
Chen et al. Spectrum Endoscope System