ES2544804T3 - Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia - Google Patents

Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia Download PDF

Info

Publication number
ES2544804T3
ES2544804T3 ES10734055.6T ES10734055T ES2544804T3 ES 2544804 T3 ES2544804 T3 ES 2544804T3 ES 10734055 T ES10734055 T ES 10734055T ES 2544804 T3 ES2544804 T3 ES 2544804T3
Authority
ES
Spain
Prior art keywords
signal
fluorescence
management system
optical
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10734055.6T
Other languages
English (en)
Inventor
Karl-Heinz Schönborn
Andreas Bembenek
Jörn BECKER
Martin Bock
Andreas Lutz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WOM World of Medicine GmbH
Original Assignee
WOM World of Medicine GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WOM World of Medicine GmbH filed Critical WOM World of Medicine GmbH
Application granted granted Critical
Publication of ES2544804T3 publication Critical patent/ES2544804T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14556Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases by fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/41Detecting, measuring or recording for evaluating the immune or lymphatic systems
    • A61B5/414Evaluating particular organs or parts of the immune or lymphatic systems
    • A61B5/418Evaluating particular organs or parts of the immune or lymphatic systems lymph vessels, ducts or nodes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00172Optical arrangements with means for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/048Picture signal generators using solid-state devices having several pick-up sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Biochemistry (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Endoscopes (AREA)

Abstract

Sistema de gestión de imágenes para la visualización por óptica de fluorescencia de un objeto bidimensional o tridimensional (4) en forma de órganos, orgánulos o zonas de tejido de un paciente con fines médicos, con - una unidad de iluminación (2) que está configurada y prevista para emitir radiación óptica en un intervalo de longitudes de onda predeterminado para la iluminación del objeto (4) y para excitar una sustancia fluorescente contenida en el objeto (4), - una unidad de toma (3) que está configurada y prevista para captar una señal óptica (S) procedente de la región del objeto (4) y dividir la señal óptica (S) en una señal de fluorescencia (S1) con un primer intervalo de longitudes de onda y una señal de luz visible (S2) con un segundo intervalo de longitudes de onda, en donde la unidad de toma óptica (3) presenta un convertidor optoelectrónico (C) que presenta varias zonas parciales (301', 302') para convertir la señal de fluorescencia (S1) en una primera señal de datos electrónica (D1) y la señal de luz visible (S2) en una segunda señal de datos electrónica (D2), en donde la unidad de toma óptica (3) presenta un prisma dicroico (30) para la división de la señal óptica captada (S) en la señal de fluorescencia (S1) y la señal de luz visible (S2), caracterizado por que el convertidor optoelectrónico (C) conectado al prisma dicroico (30) está dispuesto directamente sobre el prisma dicroico (30) y de esa manera está conectado al prisma dicroico (30).

Description

15
25
35
45
55
65
E10734055
06-08-2015
DESCRIPCIÓN
Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia
La presente invención se refiere a un sistema de gestión de imágenes para la visualización por óptica de fluorescencia de un objeto bidimensional o tridimensional de acuerdo con el concepto general de la reivindicación 1.
Un sistema de gestión de imágenes de este tipo para la visualización por óptica de fluorescencia de un objeto bidimensional o tridimensional, en particular del cuerpo de un paciente y de sus órganos y/o regiones tisulares, presenta una unidad de iluminación y una unidad de toma que por una parte ilumina el objeto, es decir, lo irradia con una radiación óptica de luz visible y/o infrarroja, y por otra parte capta la señal óptica generada por la irradiación en o junto al objeto. La unidad de iluminación está configurada para emitir radiación óptica en un intervalo de longitudes de onda predeterminado para la iluminación del objeto y para la excitación de una sustancia fluorescente contenida en el objeto, mientras que la unidad de toma está configurada y prevista para captar una señal óptica desde la zona del objeto y dividir la señal óptica en una señal de fluorescencia con un primer intervalo de longitudes de onda y una señal de luz visible con un segundo intervalo de longitudes de onda.
En un cuerpo humano, la señal de fluorescencia se genera, por ejemplo, por excitación de un medio de contraste apropiado, por ejemplo en forma de un colorante tal como verde de indocianina (ICG), que corresponde a una sustancia colorante fluorescente que en el campo de la medicina se usa convencionalmente como sustancia indicadora (por ejemplo, para el diagnóstico fotométrico de la función hepática y angiografía de fluorescencia) en enfermedades cardíacas, circulatorias, hepáticas y oculares. Para esto, el ICG es administrado, por ejemplo, por vía intravenosa o también por intradifusión cutánea y es eliminado del cuerpo de una manera natural con una vida media biológica de aproximadamente 3-4 minutos, dependiendo de la función hepática. El ICG puede usarse como sal de sodio en forma de polvo y puede ser disuelto en diferentes agentes disolventes. El espectro de absorción y fluorescencia del ICG se ubica en el intervalo del infrarrojo próximo. El máximo del espectro de fluorescencia varía en función del medio disolvente: En la sangre se ubica en una longitud de onda de aproximadamente 830 nm, en el agua en aproximadamente 820 nm (con una longitud de onda de excitación de, por ejemplo, 765 nm).
En un sistema de gestión de imágenes conocido por el documento US2006/0108509 A1, se irradia luz visible junto con una radiación de excitación en el intervalo infrarrojo sobre un objeto, y desde la región del objeto se capta una señal óptica. Por medio de divisores de haz en forma de una disposición de espejos, la señal óptica es dividida entonces en una primera señal, correspondiente a una señal de fluorescencia en el intervalo infrarrojo, y una segunda señal en el intervalo de la luz visible. A continuación, las señales son convertidas por varios convertidores optoelectrónicos en señales de datos electrónicos que luego son procesadas en una unidad de procesamiento y visualizadas en un monitor.
En un sistema de gestión de imágenes conocido por el documento US 6.293.911 B1, un objeto es excitado de manera similar y se capta una señal óptica procedente de la zona del objeto. La señal óptica es dividida por medio de una disposición de espejos en una señal de luz visible y una señal de fluorescencia, en donde la señal de luz visible posteriormente se descompone en una porción roja, una porción verde y una porción azul (los así llamados colores RGB) mediante el uso de un prisma dicroico y luego se procesa adicionalmente, tal como se conoce también, por ejemplo, para las cámaras de video a color.
Tanto la disposición de acuerdo con el documento US2006/0108509 A1 como también del sistema de acuerdo con el documento US 6.293.911 B usan espejos separados para separar las señales de fluorescencia de las señales de luz visible. Las disposiciones resultantes de esta requieren un cierto espacio constructivo para la ubicación de los espejos y la propagación de la luz entre los espejos. Además, una ampliación de los canales de la disposición, por ejemplo por división y procesamiento de señales adicionales, no es posible fácilmente.
Los documentos US 6 826 424 B1 y US 2008/228037 A1 desvelan sistemas de gestión de imágenes de acuerdo con el concepto general de la reivindicación independiente 1. El objetivo de la presente invención consiste en proveer un sistema de gestión de imágenes y un procedimiento para la visualización por óptica de fluorescencia de un objeto, en los que la unidad de toma esté construida de forma compacta y el número de canales para el procesamiento de diferentes señales pueda ser ampliado de manera fácil.
Este objetivo se logra a través de un sistema de gestión de imágenes con las características de la reivindicación 1.
A este respecto, está previsto que la unidad de toma óptica presente un convertidor optoelectrónico con varias zonas parciales para la transformación de la señal de fluorescencia en una primera señal de datos electrónica y de la señal de luz visible en una segunda señal de datos electrónica.
En un sistema de gestión de imágenes de acuerdo con las reivindicaciones, en lugar de varios convertidores optoelectrónicos separados se usa un solo convertidor optoelectrónico que presenta varias zonas parciales para la transformación de las señales generadas. La división de la señal óptica excitada se produce en un prisma dicroico de varios canales que divide la señal óptica de la manera deseada entre las mencionadas zonas parciales. Las
15
25
35
45
55
65
E10734055
06-08-2015
señales divididas son dirigidas entonces al convertidor optoelectrónico, donde se transforman en señales de datos electrónicas y luego se transfieren, por ejemplo, a una unidad de control y procesamiento para su procesamiento adicional.
Debido al uso de un solo convertidor optoelectrónico con varias zonas parciales, la construcción se simplifica sustancialmente. En particular, no es necesario proveer varios convertidores optoelectrónicos paralelos, cableados con las respectivas líneas de conexión. Adicionalmente, también se puede simplificar el proceso de lectura de señales, ya que las señales son generadas por un solo convertidor optoelectrónico y procesadas correspondientemente.
Por ejemplo, de las zonas parciales del convertidor optoelectrónico una primera zona parcial convierte la señal de fluorescencia en una primera señal de datos electrónica y una segunda zona parcial convierte la señal de luz visible en una segunda señal de datos electrónica. Por lo tanto, en el convertidor optoelectrónico se proveen zonas espacialmente separadas, a las que se dirigen las distintas señales y que convierten las señales de una manera espacialmente separada. Una separación de la señal de fluorescencia de la señal de luz visible y una transformación en zonas parciales espacialmente separadas entre sí es necesaria, para que la señal de fluorescencia de intensidad mucho más débil pueda ser recibida de manera no perturbada por la señal de la luz visible y pueda ser convertida con una sensibilidad suficiente.
Mediante el uso de un prisma dicroico conectado al convertidor optoelectrónico para la división de la señal óptica recibida en una señal de fluorescencia y una señal de luz visible, se crea una disposición que puede prescindir de espejos divisores de haz adicionales para la división de la señal óptica. La señal de fluorescencia y la de la señal de luz visible son separadas entre sí por medio de un prisma dicroico. De esta manera se logra una estructura compacta que puede funcionar con un solo prisma para la división del haz y que además asegura cortos caminos de propagación entre la división de la señal y la detección de la señal. Por lo tanto, el sistema por una parte es fácil de construir y además es menos sensible frente perturbaciones durante el funcionamiento.
Adicionalmente, debido al uso de un prisma dicroico de tres canales o de cuatro canales, o incluso de un prisma con más de cuatro canales, el número de canales del sistema puede ser incrementado de una manera simple, de tal manera que la señal óptica recibida puede ser dividida en varias porciones diferentes que luego pueden ser procesadas de manera separada.
Bajo un prisma dicroico se ha de entender en este contexto un prisma óptico que divide un rayo de luz en por lo menos dos rayos con espectros diferentes, es decir, con intervalos de longitud de onda diferentes. Normalmente, un prisma de este tipo está hecho de vidrio, en el que en determinadas superficies se proveen con espejos dicroicos que reflejan o dejan pasar la luz dependiendo de su longitud de onda.
En una forma de realización ejemplar de un prisma dicroico, la señal óptica se presenta en forma de un rayo de luz que penetra en un primer prisma parcial e incide sobre un primer filtro dicroico que refleja una primera porción de la señal óptica con un primer intervalo de longitudes de onda y deja pasar la luz restante, por ejemplo, la luz con mayores longitudes de onda. Esta luz entra en un segundo prisma parcial y es dividida por un segundo filtro dicroico que refleja una segunda porción de la luz y deja pasar una tercera porción de la luz. Los ángulos de los diferentes prismas parciales se seleccionan de tal manera que la primera y la segunda porción son desviadas por reflexión total en los respectivos prismas parciales.
El primer intervalo de longitudes de onda y el segundo intervalo de longitudes de onda de la señal de fluorescencia o de la señal de luz visible, respectivamente, son diferentes entre sí. El primer intervalo de longitudes de onda, que corresponde al intervalo de longitudes de onda de la señal de fluorescencia, puede comprender, por ejemplo, longitudes de onda mayores de 800 nm y por lo tanto se sitúa en el intervalo infrarrojo. El segundo intervalo de longitudes de onda de la señal de luz visible, en cambio, puede comprender longitudes de onda menores de 700 nm y por lo tanto se sitúa en el intervalo de las longitudes de onda visibles.
El convertidor optoelectrónico conectado al prisma dicroico, realizados, por ejemplo, como componentes de CMOS o CCD, ventajosamente está dispuesto directamente sobre el prisma dicroico y conectado al prisma dicroico de tal manera que las respectivas señales inciden en el convertidor, en donde se transforman en señales electrónicas y se transfieren para su ulterior procesamiento electrónico.
Delante del convertidor optoelectrónico (por ejemplo, en forma de un chip CCD) para la detección de la señal de fluorescencia se puede disponer adicionalmente un filtro de paso largo que sólo deja pasar longitudes de onda mayores que la longitud de onda límite para la señal de fluorescencia (por ejemplo, 800 nm).
El convertidor optoelectrónico puede estar configurado, por ejemplo, como convertidor de blanco y negro o como convertidor de colores. Como convertidor de blanco y negro, por ejemplo, un así llamado convertidor "S/W-NIR-Enhanced" puede configurarse en particular para la recepción de señales ópticas en el intervalo infrarrojo (próximo) (NIR: Near Infrared). Como convertidor de colores se puede usar, por ejemplo, un fotosensor denominado como sensor de Bayer o patrón de Bayer, el cual está equipado con un filtro de colores que está formado, por ejemplo, por
15
25
35
45
55
65
E10734055
06-08-2015
un 50 % de verde y respectivamente un 25 % de rojo y azul (debiendo tenerse en cuenta que el ojo humano reacciona con mayor sensibilidad al verde que a otros colores). Para obtener información de color, de una manera que en sí es conocida se coloca delante de cada fotocélula individual del sensor un filtro de color en uno de los tres colores básicos rojo, verde o azul. Correspondientemente, cada punto de color (píxel) sólo suministra información para un único componente de color en ese punto, de tal manera que para obtener una imagen completa con las mismas dimensiones es necesario incluir los píxeles respectivamente adyacentes del mismo color para la interpolación del color.
También es posible configurar diferentes zonas del convertidor optoelectrónico de manera distinta, por ejemplo, configurando una primera zona parcial para la transformación de la señal de fluorescencia como convertidor de blanco y negro y una segunda zona parcial para la transformación de la señal de luz visible.
En una forma de realización concreta, el convertidor optoelectrónico puede presentar un número de elementos de píxeles que respectivamente están formados por 4 píxeles individuales, en donde 3 píxeles individuales están configurados para la transformación de la señal de la luz visible y 1 píxel individual para la transformación de la señal de fluorescencia. El convertidor optoelectrónico, por lo tanto, presenta un número de elementos de píxeles dispuestos de forma regular, que respectivamente consisten de cuatro píxeles individuales. De estos 4 píxeles individuales, por ejemplo, un primero puede ser sensible a la luz roja, un segundo a la luz un verde y un tercero a la luz azul (es decir, por el elemento de píxel existen 3 píxeles individuales), mientras que un cuarto píxel individual puede estar configurado para recibir luz infrarroja.
Por lo tanto, se obtienen elementos de píxeles que consisten en grupos de (respectivamente cuatro) píxeles individuales y que respectivamente pueden detectar tanto luz visible como también luz infrarroja. Esto posibilita la fabricación del convertidor optoelectrónico como un chip unitario que es irradiado en diferentes intervalos con diferentes señales (por ejemplo, en un primer intervalo con la señal de fluorescencia y en un segundo intervalo con la señal de la luz visible) y que luego transforman las señales respectivamente de la manera más apropiada.
Adicionalmente, puede estar previsto que los 3 píxeles individuales para la transformación de la señal de la luz visible también están configurados para transformar la señal de fluorescencia. Por lo tanto, la totalidad de los píxeles individuales pueden recibir la señal de fluorescencia en el intervalo de la luz infrarroja, de tal manera que la señal de fluorescencia (de intensidad débil) es detectada por todos los píxeles individuales. Las porciones de color de la señal (más fuerte) de la luz visible (rojo, verde y azul), en cambio, sólo son convertidas respectivamente por 1 píxel individual.
Al configurar el prisma dicroico como prisma de tres canales, puede estar previsto que la señal óptica recibida se divida adicionalmente en una señal de excitación de fluorescencia con un tercer intervalo de longitudes de onda, que sea diferente del primer intervalo de longitudes de onda y del segundo intervalo de longitudes de onda, y que se ubique en un intervalo de longitudes de onda de entre 700 nm y 800 nm, es decir, entre la señal de la luz visible (con longitudes de onda menores de 700 nm) y la señal de fluorescencia (con longitudes de onda mayores de 800 nm). Este intervalo de longitudes de onda corresponde preferentemente al intervalo de la radiación emitida por la unidad de iluminación para excitar la fluorescencia del objeto o de una sustancia fluorescente comprendida en el objeto, respectivamente.
Es posible conectar el tercer canal del prisma dicroico con un elemento absorbedor, por ejemplo, en forma de un vidrio negro, que absorba la señal de fluorescencia. De esta manera, se crea un sistema de gestión de imágenes que sólo usa la porción de la señal óptica recibida en el intervalo de longitudes de onda visible menor de 700 nm y en el intervalo infrarrojo mayor de 800 nm para la generación de imágenes, pero suprimiendo el intervalo intermedio. Si la radiación de excitación óptica de la unidad de iluminación para iluminar el objeto y para excitar una sustancia fluorescente comprendida en el objeto se ubica precisamente dentro de este intervalo, es decir que presentar longitudes de onda de entre 700 nm y 800 nm, esto puede contribuir a minimizar la luz dispersa dentro de la unidad de toma y mejorar el contraste de las señales recibidas.
Sin embargo, de manera alternativa también es posible conectar el prisma dicroico con un convertidor optoelectrónico adicional (o proveer una zona parcial adicional de un solo convertidor optoelectrónico), que convierta la señal de excitación de fluorescencia en una tercera señal de datos electrónica. De esta manera se crea la posibilidad de aprovechar la señal en el intervalo de longitudes de onda de entre 700 nm y 800 nm y obtener información adicional basándose en esto. Por ejemplo, a partir de la tercera señal de datos electrónica obtenida de la señal de excitación de fluorescencia se puede obtener información de imagen adicional sobre el objeto observado, se puede obtener información sobre la distancia de señal-ruido, o también se puede mejorar específicamente el contenido informativo de las imágenes. Por ejemplo, en determinadas regiones de tejido de alta absorción pueden actuar mecanismos de absorción no fluorescentes (“quenched”), que no pueden detectarse basándose en una imagen de fluorescencia obtenida de la señal de fluorescencia, pero sí en una imagen de absorción obtenida de la señal de excitación de fluorescencia. Adicionalmente, la imagen de fluorescencia y la imagen de absorción son aproximadamente complementarias en su intensidad. Una sustracción o formación de relación de las correspondientes imágenes puede servir así para aumentar el contraste. Adicionalmente es posible colocar la imagen de absorción sobre una línea de absorción significativa (correspondiente, por ejemplo, a hemoglobina) y
15
25
35
45
55
65
E10734055
06-08-2015
evaluarla por separado.
El convertidor optoelectrónico adicional está realizado, por ejemplo, al igual que el convertidor que recibe la señal de fluorescencia como convertidor de blanco y negro en forma de un chip CCD "S/W-NIR-Enhanced".
En una forma de realización, el convertidor optoelectrónico adicional para la detección de la señal de excitación de fluorescencia resultante de la radiación de excitación puede cooperar con un filtro de atenuación de rayos, a fin de atenuar la señal de excitación de fluorescencia de mayor intensidad de una manera apropiada, a fin de que se pueda ser procesada por el convertidor optoelectrónico. El filtro de atenuación puede consistir, por ejemplo, en un cristal de filtro, por ejemplo, un filtro de vidrio gris.
En lugar de un convertidor optoelectrónico adicional, también puede estar previsto que el convertidor optoelectrónico que presenta varias zonas parciales presente una tercera zona parcial, que transforma la señal de excitación de fluorescencia en una tercera señal de datos electrónica. El convertidor optoelectrónico presenta, por lo tanto, tres zonas parciales, de las cuales una primera transforma la señal de fluorescencia, una segunda la señal de luz visible y una tercera detecta y convierte la señal de excitación de fluorescencia.
Alternativamente, también es posible que una zona parcial del convertidor optoelectrónico que presenta varias zonas parciales reciba y transforme tanto la señal de luz visible como también la señal de excitación de fluorescencia. Por lo tanto, el convertidor optoelectrónico puede funcionar con dos zonas parciales, de las que una primera transforma la señal de fluorescencia y una segunda la señal de luz visible y también la señal de excitación de fluorescencia.
Con el sistema de gestión de imágenes provisto, en particular es posible que un médico pueda visualizar de manera intraoperativa vasos, órganos u orgánulos no visibles (por ejemplo, para la representación del sistema linfático con los ganglios linfáticos incluidos). A este respecto, el sistema de gestión de imágenes puede ser usado, por una parte, para la visualización por óptica de fluorescencia en cirugía abierta mediante la iluminación y toma desde afuera, y, por otra parte, por ejemplo, de manera endoscópica o colposcópica para la visualización por óptica de fluorescencia mediante la iluminación y toma en el interior de un paciente. Para esto, la unidad de toma puede ser conectada a un objetivo para la recepción de la señal óptica en el exterior del objeto y/o con un dispositivo de toma para la toma de la señal óptica desde el interior del objeto. El dispositivo de toma para la toma de la señal óptica desde el interior del objeto puede ser, por ejemplo, un endoscopio, un colposcopio, una cámara introducida en el objeto de manera invasiva o no invasiva en forma de una cámara intraoral o en forma de una así llamada “pill-cam” que debe ser tragada por el paciente, aunque también son imaginables otras formas de realización de un dispositivo de toma que pueda ser introducido en el paciente (a este respecto, la unidad de iluminación en la píldora puede estar realizada, por ejemplo, como fuente de luz quimioluminiscente activada, por ejemplo, por los jugos gástricos). La unidad de toma opcionalmente puede ser conectada al objetivo para la toma de la señal óptica en el exterior del objeto y/o con el dispositivo de toma, por ejemplo, endoscópico para la toma de la señal óptica desde el interior del objeto, en donde el dispositivo de toma puede ser removido fácilmente. De esta manera se crea un sistema de gestión de imágenes muy versátil que opcionalmente puede ser usado en aplicaciones de cirugía abierta o endoscópicamente, requiriendo para ello tan sólo el cambio de componentes individuales.
Además de la unidad de toma, el sistema de gestión de imágenes también presenta una unidad de iluminación que sirve para la iluminación y excitación del objeto a ser examinado y para ello emite radiación óptica en un determinado intervalo de longitudes de onda. Para esto, la unidad de iluminación puede estar equipada con dos fuentes de luz, de las que una primera fuente de luz genera una radiación de excitación de fluorescencia y una segunda fuente de luz genera radiación en el intervalo de la luz visible (luz blanca). La radiación de excitación de fluorescencia generada por la primera fuente de luz puede estar ubicada, por ejemplo, en un intervalo de longitudes de onda de entre 700 nm y 800 nm, mientras que la radiación de luz visible preferentemente presenta longitudes de onda menores de 700 nm. Las fuentes de luz pueden ser, por ejemplo, fuentes de luz láser o diodos luminiscentes (LED), adaptados respectivamente para generar radiación óptica en el intervalo de longitudes de onda deseado con la intensidad y las características requeridas.
La radiación generada por las dos fuentes de luz de la unidad e iluminación de manera ventajosa es acoplada por medio de un elemento de acoplamiento óptico, configurado para el acoplamiento de la radiación de excitación de fluorescencia y la radiación en el intervalo de la luz visible, a un conductor óptico. El elemento de acoplamiento óptico puede presentar adicionalmente capas de filtro dicroicas y acopla la radiación de excitación de fluorescencia y la radiación en el intervalo de la luz visible de una manera, por ejemplo, física o mediante una conexión por fibras ópticas.
Mediante el conductor de luz, la radiación acoplada es dirigida hacia el objeto para su iluminación, en donde el conductor de luz puede estar conectado a un elemento para adaptar la característica de emisión de radiación de la radiación óptica para la iluminación del objeto desde el exterior o para la iluminación de determinadas regiones dentro del objeto. Por ejemplo, el conductor de luz para la adaptación de la característica de emisión de radiación puede estar conectado a un difusor y/o con un endoscopio, a fin de iluminar el objeto desde afuera o desde adentro y dirigir la radiación óptica de manera específica al sitio en el que el objeto debe ser iluminado y excitado para la visualización por óptica de fluorescencia. En otras palabras, a través del conductor de luz y, dado el caso, un
15
25
35
45
55
65
E10734055
06-08-2015
endoscopio o algo similar, la radiación óptica es dirigida de manera específica hacia la zona desde la que la unidad de toma recibe entonces las señales ópticas deseadas. A este respecto, la unidad de iluminación y la unidad de toma pueden usar el mismo endoscopio para la iluminación, por una parte, y para la toma, por otra parte, en el que por un lado se encuentra dispuesto un canal conductor de luz para la radiación óptica (de iluminación) y un canal conductor de luz para la señal óptica recibida.
En este contexto puede ser imaginable y ventajoso que el prisma dicroico para la división de la señal óptica recibida en la señal de fluorescencia y la señal de luz visible se disponga directamente en la punta de un endoscopio, es decir, en el extremo del endoscopio a ser introducido en el objeto, a fin de captar la señal óptica directamente allí, en donde se origina. De esta manera se puede prescindir de un canal conductor de luz en el endoscopio para conducir la señal óptica recibida hacia el prisma dicroico, de tal manera que es posible prevenir o, por lo menos, minimizar en gran medida las pérdidas de señal por transmisión. Por lo tanto, la señal óptica ya es captada en su mismo sitio de origen y convertida en el prisma dicroico después de la división de la señal directamente en señales de datos electrónicas, que luego son transferidas a través del endoscopio a una unidad de control y procesamiento para el tratamiento adicional y análisis de las imágenes.
Una unidad de control y procesamiento está prevista entre otras cosas para controlar la unidad de iluminación y/o la unidad de toma y, por lo tanto, el modo de funcionamiento del sistema de gestión de imágenes. La unidad de control y procesamiento por una parte proporciona parámetros para el funcionamiento de la unidad de iluminación y de la unidad de toma y regular la cooperación de las mismas, mientras que por otra parte se encarga del procesamiento de las señales de datos electrónicas recogidas por la unidad de toma.
Para el procesamiento de imágenes, la unidad de control y procesamiento puede estar configurada de tal manera que a partir de las señales captadas se produce una imagen real a partir de la señal de luz visible y/o una imagen de absorción infrarroja a partir de la señal de excitación de fluorescencia, las cuales pueden ser emitidas de manera superpuesta o conjunta para su evaluación por parte de un médico. Si las imágenes obtenidas deben ser representadas de manera superpuesta, las imágenes mutuamente asignadas son fusionadas entre sí de manera algorítmica en forma pretratada por vía analógica o digital. La función se efectúa de tal manera, por ejemplo, que sobre la imagen real se marcan con colores falsos aquellas áreas, en las que se ha detectado una señal en la imagen de fluorescencia obtenida a partir de la señal de fluorescencia. Como una posibilidad para un algoritmo de tratamiento previo de la imagen de fluorescencia se define un valor de umbral que al ser excedido causa la transferencia de una señal a la imagen real. La imagen real se marca con un color falso seleccionable en tiempo real el área con intensidades de fluorescencia por encima del umbral. A este respecto, por ejemplo, a la manera de una decisión de sí/no se puede mostrar solamente el hecho de la radiación de fluorescencia o una señal de fluorescencia proporcional a la intensidad de la señal. También son imaginables otras escalas, tales como representaciones logarítmicas o limitadas por un valor máximo de la señal de fluorescencia.
En una forma de realización adicional, el sistema de gestión de imágenes puede presentar un escáner de dos ejes para la proyección de la imagen de fluorescencia generada sobre el objeto. El escáner de dos ejes puede estar configurado, por ejemplo, para dirigir un rayo de luz de una fuente de luz para la generación de una imagen de fluorescencia sobre el objeto periódicamente a lo largo del objeto, a fin de producir así una imagen sobre el objeto que corresponda a la imagen de fluorescencia generada a partir de la señal de fluorescencia. De esta manera, por ejemplo, sobre el objeto se pueden representar directamente en colores falsos aquellas áreas en las que existe una señal de fluorescencia. De este modo, un médico puede disponer durante una operación en tiempo real de una imagen de fluorescencia directamente en el sitio en el que se origina, de tal manera que incluso sería posible prescindir de un monitor adicional para visualizar la imagen de fluorescencia.
De manera adicional o alternativa, el escáner de dos ejes puede estar configurado para dirigir una radiación óptica de una fuente de luz para la excitación de una señal de fluorescencia sobre el objeto y/o para dirigir las señales ópticas excitadas desde el objeto hacia un detector. Por medio del escáner de dos ejes se puede producir así una excitación y/o toma por píxeles, en donde como fuente de luz para la excitación se puede usar, por ejemplo, un láser.
Un dispositivo de proyección de este tipo ventajosamente puede ser combinado con el sistema de gestión de imágenes previamente descrito, aunque en principio también puede ser usado de manera autónoma en cooperación con cualesquiera otros sistemas de gestión de imágenes.
Un sistema de gestión de imágenes de este tipo para visualización por óptica de fluorescencia de un objeto bidimensional o tridimensional puede comprender, en general, lo siguiente:
-
una unidad de iluminación que está configurada y prevista para emitir radiación óptica en un determinado
intervalo de longitudes de onda para la iluminación del objeto y la excitación de una sustancia fluorescente
comprendida en el objeto,
-
una unidad de toma que está configurada y prevista para captar una señal de fluorescencia desde una zona del
objeto,
en donde se provee un escáner de dos ejes para la proyección de una imagen de fluorescencia generada a partir de 15
25
35
45
55
65
E10734055
06-08-2015
la señal de fluorescencia sobre el objeto.
El sistema de gestión de imágenes puede dirigir un rayo de luz de una fuente de luz para generar una imagen de fluorescencia sobre el objeto periódicamente a lo largo del objeto, en donde la excitación de la señal de fluorescencia y la representación de la imagen de fluorescencia obtenida partir de la señal de fluorescencia preferentemente se efectúan de manera alternada, es decir, a la manera de un múltiplex por división de tiempo.
A este respecto, también puede estar previsto que el escáner de dos ejes esté configurado adicionalmente para la excitación y captación de una señal de fluorescencia y de esa manera también sea la unidad de iluminación y la unidad de toma. Por medio del escáner de dos ejes se excita y se recibe de manera alternada una señal en una primera ventana de tiempo y en una segunda ventana de tiempo se representa sobre el objeto una imagen de fluorescencia generada a partir de ello, es decir, en el sitio en que se originó.
Alternativamente, las etapas (a) excitación de la fluorescencia, (b) medición de la radiación de fluorescencia y (c) proyección de un rayo de proyección de visualización que se incrementa de forma monótona con la señal de fluorescencia medida (proyección de imagen de fluorescencia) en secuencia cronológica directa, prácticamente de manera simultánea. Ventajosamente, esta manera se logra con un mínimo esfuerzo técnico y de tiempo una toma y visualización.
Una disposición de este tipo es apropiado en particular para aplicaciones de cirugía abierta.
En un procedimiento para la visualización por óptica de fluorescencia de un objeto bidimensional o tridimensional
-
se emite una radiación óptica en un intervalo de longitudes de onda predeterminado para la iluminación del
objeto y la excitación de una sustancia fluorescente comprendida en el objeto y
-
se toma una señal óptica procedente de la región del objeto y la señal óptica es dividida en una señal de
fluorescencia con un primer intervalo de longitudes de onda y una señal de luz visible con un segundo intervalo
de longitudes de onda.
En el procedimiento está previsto que un prisma dicroico divida la señal óptica recibida en la señal de fluorescencia y la señal de luz visible y que un convertidor optoelectrónico que presenta varias zonas parciales transforme con una primera zona parcial la señal de fluorescencia en una primera señal de datos electrónica y con una segunda zona parcial transforme la señal de luz visible en una segunda señal de datos electrónica.
Para el procedimiento resultan las mismas ventajas que las previamente descritas para el sistema de gestión de imágenes.
El sistema de gestión de imágenes y el procedimiento descritos pueden ser aplicados en un extenso ámbito, en particular para fines médicos. Por ejemplo, esto incluye la localización de determinados órganos, orgánulos o partes de órganos significativos, o áreas de tejido patológicamente modificadas (plan de los linfáticos, vías linfáticas, venas, conductos biliares, cavidades, focos de inflamación o similares) en el cuerpo humano con ayuda de sustancias colorantes introducidas en el cuerpo y su comprobación gráfica mediante métodos de óptica de fluorescencia, así como la observación de fenómenos de transporte de sustancias en sistemas de flujo corporales (venas, conductos linfáticos, perfusión cutánea, etc.) y/o la determinación cualitativa y cuantitativa de velocidades y rutas de transporte, así como áreas y volúmenes de acumulación de dichos sistemas de flujo.
Concretamente son imaginables los siguientes usos médicos, con que esta enumeración de ninguna manera se ha de entender como concluyente:
-Visualización del sistema linfático con el objeto de una línea linfografía (mínimamente invasiva), -biopsia de glándulas linfáticas de Sentinel (por ejemplo, en pecho, melanomas malignos, pulmón, estómago,
intestino, próstata, cérvix, endometrio), -visualización del sistema sanguíneo (medición de perfusión) con el objeto de un control de anastomosis, -determinación del grado de severidad en quemaduras (mínimamente invasivo), -determinación de un nivel de amputación necesario (mínimamente invasivo), -control de calidad en operaciones de reconstrucción, correcciones plásticas o transplantes tisulares -evaluación del síndrome de “pie diabético” (mínimamente invasivo), -control de decúbito (mínimamente invasivo), -representación de los así llamados “bleeding points” (hemorragias) en el marco de operaciones endoscópicas, -diferenciación entre tipos de tejido (por ejemplo, adenoma versus tumor), -obtención de información sobre la profundidad de invasión de tumores reconocidos (efecto submucosal), -visualización de conductos biliares en el marco de una cirugía hepática o biliar con el objeto de proteger
estructuras importantes, -visualización de degeneraciones para la prevención del cáncer (un así llamado “screening”) y el reconocimiento
temprano de tumores (por ejemplo, en conexión con marcadores de tumor selectivos) (mínimamente invasivo). Bajo “mínimamente invasivo” se ha de entender aquí que los fines de uso así caracterizados requieren por lo menos
15
25
35
45
55
65
E10734055
06-08-2015
el uso de un medio de contraste fluorescente introducido en el cuerpo para obtener una señal de fluorescencia desde el cuerpo.
En principio, para ello se procede de tal manera que una sustancia colorante introducido en el cuerpo de un paciente, bien sea por vía sistémica (por inyección) o por aplicación tópica (por aplicación sobre la superficie corporal y penetración por difusión), (o de las aglomeraciones con sustancias corporales que se forman después de su introducción en el cuerpo), es excitado hasta la fluorescencia por la radiación emitida por la unidad de iluminación, en donde la señal de fluorescencia resultante es detectada por medio de la unidad de toma y una imagen de fluorescencia generada a partir de esta se visualiza de tal manera que el médico tiene la posibilidad de tomar decisiones diagnósticas o terapéuticas.
La idea subyacente a la presente invención será descrita a continuación más detalladamente con referencia a las figuras. En las figuras:
La Fig. 1
muestra una vista esquemática de una primera forma de realización de un sistema de gestión de imágenes con una unidad de iluminación y una unidad de toma, en el que mediante un prisma dicroico una señal óptica recibida es dividida en una señal de fluorescencia y una señal de luz visible (variante de 2 canales);
La Fig. 2
es una representación de detalle de la unidad de toma del sistema de gestión de imágenes de acuerdo con la Fig. 1;
La Fig. 3
es una representación de detalle de una forma de realización de un prisma dicroico;
La Fig. 4
muestra una vista esquemática de una segunda forma de realización de un sistema de gestión de imágenes con una unidad de iluminación y una unidad de toma, en el que a través de un prisma dicroico una señal óptica es dividida en una señal de fluorescencia, una señal de luz visible y una señal de excitación de fluorescencia (variante de 3 canales);
La Fig. 5
es una representación de detalle de la unidad de toma del sistema de gestión de imágenes de acuerdo con la Fig. 4;
La Fig. 6
es una representación de un prisma de 4 canales para la división de una señal óptica en cuatro porciones de señal;
La Fig. 7
es una vista esquemática de una disposición para la división de una señal óptica en dos porciones de señal y la detección por medio de un único chip de CCD;
Las Figs. 8A, 8B
son vistas de una disposición para la detección de una señal óptica dividida mediante un solo chip de CCD;
La Fig. 9
es una representación esquemática de una disposición para la proyección de una imagen de fluorescencia sobre un objeto;
La Fig. 10
es una representación esquemática de una disposición para la toma y la proyección de una imagen de fluorescencia sobre un objeto;
La Fig. 11
es una representación esquemática de una disposición adicional para la toma y la proyección de una imagen de fluorescencia sobre un objeto;
La Fig. 12
es una vista esquemática de un chip de CCD para la captación de luz visible y de luz infrarroja y
La Fig. 13
es una vista esquemática de una disposición de filtro del chip de CCD de acuerdo con la Fig. 12.
La Fig. 1 muestra en primer lugar en una representación de conjunto una forma de realización de un sistema de gestión de imágenes 1, que comprende una unidad de iluminación 2 y una unidad de toma 3. El sistema de gestión de imágenes 2 sirve para la visualización por óptica de fluorescencia de un objeto 4, por ejemplo de vasos, órganos u orgánulos de un paciente, y para esto genera una radiación óptica con la que el objeto 4 es irradiado y excitado para emitir señales ópticas de fluorescencia.
En principio, para la visualización por óptica de fluorescencia se procede de la siguiente manera. En primer lugar, una sustancia colorante fluorescente apropiada (por ejemplo, verde de indocianina (ICG)) es introducida en el objeto 4, por ejemplo, el cuerpo de un paciente. Esta sustancia puede ser introducida de manera sistémica por inyección o mediante aplicación tópica sobre la superficie del objeto y difusión en el mismo. A continuación, la sustancia
15
25
35
45
55
65
E10734055
06-08-2015
colorante introducida es excitada mediante la unidad de iluminación 2 hasta la fluorescencia y las señales resultantes son detectadas mediante la unidad de toma 3. Las señales detectadas son procesadas adicionalmente y visualizadas de manera apropiada, por ejemplo, como señal de vídeo en tiempo real para su evaluación por parte de un médico.
En este punto cabe destacar que el modo de funcionamiento del sistema de gestión de imágenes es independiente de la manera en que la sustancia fluorescente sea introducida en el objeto 4. Sólo es fundamental que en el objeto 4 esté presente una sustancia que pueda ser excitada hasta la fluorescencia. En principio, esta sustancia también puede estar presente de manera natural en el objeto 4, sin que se requiera su introducción desde el exterior.
La unidad iluminación 2 presenta dos fuentes de luz 21, 22 que por medio de dispositivos de láser o diodos luminiscentes (LED) por una parte generan una radiación de excitación de fluorescencia en un intervalo de longitudes de onda entre 700 nm y 800 nm y por otra parte una radiación situado en el intervalo de la luz visible con longitudes de onda menores de 700 nm. La radiación generada por las fuentes de luz 21, 22 es acoplada por medio de un elemento acoplador óptico 23, por ejemplo, en forma de un acoplador físico o de fibras ópticas, y alimentado a través de una conexión 240 a un conductor de luz 24, por ejemplo, una fibra óptica flexible.
A través del conductor óptico 24, la radiación óptica generada es dirigida hacia un endoscopio 32 conectado a la unidad de toma 3 y se conecta con el endoscopio 32 a través de una conexión 241. El endoscopio 32 disponer de un canal óptico conductor de luz 320, en el que la radiación óptica de la unidad iluminación 2 es conducida hacia el objeto 4.
El endoscopio 32 está configurado para ser introducido en el objeto 4. Por ejemplo, el endoscopio 32 puede ser introducido de manera invasiva en el cuerpo de un paciente, para excitar así los vasos u órganos del paciente directamente en el interior del paciente. El endoscopio 32 puede estar configurado de una manera que en sí es conocida de forma flexible por secciones y permite así un fácil acceso al interior del objeto 4.
El endoscopio 32 presenta un segundo canal 321, a través del cual las señales ópticas resultantes en o junto al objeto 4 por la excitación óptica son captadas y dirigidas a la unidad de toma 3. El endoscopio 32 para esto está equipado con un objetivo 31 que presenta un cierre rápido en un cabezal de cámara 30 y está conectado a la unidad de toma 3, en la que las señales ópticas recibidas son divididas y convertidas.
Una vista de detalle del cabezal de cámara 30 se representa la Fig. 2. En el cabezal de cámara 30 se encuentra dispuesto un prisma dicroico 300 que está conectado a dos convertidores optoelectrónicos 301, 302 en forma de chips de CCD o componentes CMOS y que además está conectado a un elemento absorbedor 304, por ejemplo, en forma de un cristal negro. El prisma dicroico 300 sirve para dividir el rayo de una señal óptica S recibida e incidentes sobre el prisma dicroico 300 y descompone la misma, según se describe más adelante con referencia a la Fig. 3, en porciones de señal S1, S2, S3 que corresponden una señal de fluorescencia con longitudes de onda mayores de 800 nm, una señal de luz visible con longitudes de onda menores de 700 nm y una señal de excitación de fluorescencia con longitudes de onda de entre 700 nm y 800 nm. De estas porciones de señal se detectan solamente la señal de fluorescencia S1 y la señal de luz visible S2 en la construcción de acuerdo con la Fig. 2 a través de respectivamente un convertidor optoelectrónico 301, 302 y se convierten por medio de un convertidor analógico/digital 306, 307 y controladores electrónicos 308, 309 en señales de datos electrónicas D1, D2. La señal de excitación de fluorescencia S3, en cambio, es absorbida mediante el elemento absorbedor 304 y no se dirige a ningún procesamiento de imagen.
Como se puede ver en la Fig. 1, el cabezal de cámara 30 está conectado por medio de una conexión 305 a los cables de datos 501, 502, a través de los que se conducen las señales de datos electrónicas D1, D2 hacia una unidad de control y procesamiento 5. Los cables de datos 501, 502 para esto están conectados mediante una conexión 503 a la unidad de control y procesamiento 5, que está dispuesto en la misma carcasa que la unidad de iluminación 2.
La unidad de control y procesamiento 5 sirve por una parte para el control de la unidad de iluminación 2 y de la unidad de toma 3 y, por otra parte, para el procesamiento de imagen de las señales de datos recibidas D1, D2. Para este fin, la unidad de control y procesamiento 5 presenta unidades de procesamiento preliminar 511, 512 que sirven para la preparación de la señal de datos electrónica D1 asignada a la señal de fluorescencia y de la señal de datos electrónica D2 asignada a la señal de luz visible. Las señales de datos procesadas de manera preliminar son transferidos a la unidad de procesamiento de imágenes 513, que de manera algorítmica produce a partir de las señales de datos D1, D2 una imagen de fluorescencia correspondiente de la señal de fluorescencia y una imagen real asignada a la señal de la luz visible.
La unidad de procesamiento de imágenes 513 puede, por ejemplo, fusionar entre sí la imagen de fluorescencia y la imagen real, es decir, superponer las imágenes de tal manera que en la imagen fusionada sobre la imagen real se muestren en colores falsos aquellas áreas en las que existe una señal de fluorescencia. La imagen así generada es transferida a la unidad de procesamiento final 514 que efectúa el así llamado “framing” para la representación en tiempo real de las imágenes generadas y emite a través de una conexión 515 una señal de emisión de vídeo V para
15
25
35
45
55
65
E10734055
06-08-2015
ser visualizada en un monitor y evaluada por el médico.
La unidad de control y procesamiento 5 dispone de una unidad de control 52 que controla las unidades individuales 511, 512, 513, 514 y al mismo tiempo también regula la unidad de iluminación 2, en particular con evaluación de las señales de datos recibidas D1, D2.
Una vista de detalle de una forma de realización de un prisma dicroico 300 se representa en la Fig. 3, aunque en principio también se pueden usar otras formas de realización. El prisma dicroico 300 presenta tres prismas parciales A1, A2, A3 que están acoplados ópticamente entre sí mediante filtros dicroicos F1, F2. El prisma dicroico 300 sirve para la división de una señal óptica incidente S entre señales parciales que corresponden a una señal de fluorescencia S1, una señal de luz visible S2 y una señal de excitación de fluorescencia es S3. La señal óptica incidente S primero incide sobre la superficie limítrofe dotada con el filtro dicroico F1 del prisma parcial A1 y es reflejada parcialmente en dicha superficie limítrofe y parcialmente se deja pasar. El filtro dicroico F1 está configurado de tal manera que es solamente se refleja la porción de la señal óptica S en el intervalo de longitudes de onda de entre 700 nm y 800 nm, mientras que las restantes porciones se dejan pasar. De esta manera, las restantes porciones entran en el prisma parcial A2 y son reflejadas parcialmente en la superficie limítrofe dotada con el filtro dicroico F2 del prisma parcial A2 y parcialmente se dejan pasar. El filtro dicroico F2 está configurado de tal manera que las señales con longitudes de onda menores de 700 nm pueden pasar, mientras que las señales con longitudes de onda mayores son reflejadas. De esta manera, la señal de fluorescencia S1 es separad de la señal de luz visible S2, en donde la señal de la luz visible S2 entra en el prisma parcial A3 y pasa por el mismo, mientras que la señal de fluorescencia S1 bajo reflexión total dentro del prisma parcial A2 es reflejada y emitida nuevamente.
Como se puede ver en la Fig. 2, la señal de fluorescencia S1 y la señal de la luz visible S2 son detectadas y convertidos por respectivamente un convertidor optoelectrónico 301, 302, mientras que la señal de excitación de fluorescencia S3 en el sistema de gestión de imágenes de acuerdo con la Fig. 1 es absorbida y no es procesada adicionalmente.
El uso de un prisma dicroico 300 permite una construcción compacta del sistema de gestión de imágenes 1 con su unidad de toma 3. En particular no se requieren espejos separados para la separación del rayo. La división del rayo se efectúa enteramente por medio de un prisma dicroico unitario y compacto.
El sistema de gestión de imágenes 1 puede ser usado opcionalmente de manera endoscópica para la excitación de señales ópticas de fluorescencia dentro de un objeto 4, según se muestra en la Fig. 1, o también en cirugía abierta para la iluminación exterior y toma de señales ópticas de fluorescencia en el exterior del objeto 4 sin el uso de un endoscopio 32. El endoscopio 32 para esto puede ser separado del objetivo 31 mediante un cierre de conexión rápida. Para el uso abierto, el conductor de luz 24 puede ser conectado, por ejemplo, a un difusor para la adaptación de la característica de radiación y para la iluminación exterior del objeto 4.
El uso de un difusor para la adaptación de la característica de radiación en principio también es imaginable en conexión con un endoscopio 32.
Una forma de realización adicional de un sistema de gestión de imágenes 1 se representa en las figuras 4 y 5. La construcción corresponde sustancialmente a la construcción del sistema de gestión de imágenes 1 de acuerdo con las figuras 1 a 3, en donde los mismos componentes en la medida en que ello sea ventajoso también se designan con los mismos caracteres de referencia.
A diferencia del sistema de gestión de imágenes 1 de acuerdo con las figuras 1 a 3, en el sistema de gestión de imágenes 1 de acuerdo con las figuras 4 y 5 el prisma dicroico 300 de la unidad de toma 3 no es conectado a un elemento absorbedor 304 (véase la Fig. 2), sino con un tercer convertidor óptico que o electrónico 303 en forma de un chip de CCD o un componente CMOS (véase la Fig. 5). La señal de excitación de fluorescencia S3 separada en el prisma dicroico 300 (véase la Fig. 3) de esta manera no es suprimida en la construcción de acuerdo con las figuras 4 y 5, sino que es detectada por separado y transformada por medio de un convertidor analógico/digital 309 y un controlador 311 en una tercera señal de datos electrónica D3, que a través de una conexión 305, una línea de datos 504 y la conexión 503 es conducida hacia la unidad de control y procesamiento 5. En un canal separado se procesa de manera preliminar la tercera señal de datos electrónica D3 por medio de una unidad de procesamiento preliminar adicional 516 y conducida hacia la unidad de procesamiento de imágenes 513, que procesa la señal adicional de manera apropiada, derivando información de la misma y generando, por ejemplo, una imagen de absorción infrarroja derivada de la señal de excitación de fluorescencia S3 para ser superpuesta sobre la imagen real y/o la imagen de fluorescencia.
La disposición de acuerdo con las figuras 4 y 5 crea así un sistema de gestión de imágenes 1 con tres canales y posibilita la evaluación de información adicional derivada de la señal de excitación de fluorescencia. Por ejemplo, basándose en una imagen de absorción infrarroja se pueden observar zonas de tejido, en las que debido a mecanismos de absorción no fluorescentes se produce una elevada absorción y que no pueden ser detectadas en la imagen de fluorescencia, pero sí en la imagen de absorción infrarroja. Además, mediante la sustracción o la correlación de la imagen de absorción infrarroja con la imagen de fluorescencia se pueden sacar conclusiones sobre
15
25
35
45
55
65
E10734055
06-08-2015
la distancia de señal-a-ruido. También es posible colocar la imagen de absorción infrarroja sobre una línea de absorción significativa que corresponde, por ejemplo, a la hemoglobina.
En principio también es imaginable usar otros prismas dicroicos y efectuar mediante el uso de tales prismas una división de la señal óptica S en otras porciones de señal adicionales. La Fig. 6 muestra, por ejemplo, un prisma de cuatro canales que divide la señal óptica S en señales parciales S1’, S2’, S3’, S4’ mediante el uso de prismas parciales A1’, A2’, A3’, A4’, A5’ y filtros dicroicos F1’, F2’, F3’ que pueden ser evaluadas y procesadas de manera separada. A este respecto, las señales parciales S1’, S2’, S3’, S4’ pueden estar asignadas a diferentes intervalos de longitudes de onda. Es imaginable, por ejemplo, dividir las señales ópticas S a través del prisma de cuatro canales en tres señales de color (los colores básicos rojo, verde, azul) y dividir una imagen de fluorescencia.
Sin embargo, también es imaginable dividir la señal óptica S de tal manera que se obtenga una imagen real, una imagen de fluorescencia, una imagen de absorción infrarroja y una imagen de banda estrecha (una así llamada “narrow band imaging”).
A través de la así llamada formación de imagen de banda estrecha se puede mejorar, por ejemplo, la visibilidad de capilares, venas y otras estructuras tisulares finas. Para esto se usan longitudes de onda discretas, a fin de reducir la absorción y la reflexión, para lo que se usa un azul (415 nm) para visualizar los capilares superficiales y por otra parte un verde (540 nm) para representar los vasos más profundos. En combinación se obtiene una imagen de las capas de tejido superiores con muy elevado contraste.
En una primera aplicación de un prisma de cuatro canales, por ejemplo, los tres colores básicos rojo, verde, azul son detectados mediante el uso de respectivamente un convertidor de blanco y negro, mientras que en el cuarto canal se detecta la señal de fluorescencia con longitudes de onda mayores de 800 nm.
En una segunda aplicación de un prisma de cuatro canales, se usa un convertidor de color para la imagen real, la imagen de fluorescencia es suministrada por un convertidor de blanco y negro “NIR enhanced”, la imagen de absorción infrarroja también se obtiene mediante un convertidor de blanco y negro “NIR enhanced” y un cuarto convertidor funciona en un modo de formación de imagen de banda estrecha.
En una tercera aplicación de un prisma de cuatro canales se usa un sensor de color para la imagen real, un convertidor de blanco y negro “NIR enhanced” para la imagen de fluorescencia, mientras que un tercer convertidor suministra la banda azul (415 nm) y un cuarto sensor la banda verde (540 nm) para la así llamada formación de imagen de banda estrecha.
En principio, con el uso de un prisma de cuatro canales también es posible absorber una o varias de las porciones de señal mediante el uso de uno o varios elementos absorbedores, para mejorar así el contraste y la distancia de la señal al ruido.
En una forma de realización adicional de un sistema de gestión de imágenes también es imaginable efectuar la excitación y toma de una señal óptica S en un múltiplex por división de tiempo, para lograr así adicionalmente a o en lugar de la separación del rayo mediante el prisma dicroico una separación cronológica de la señal de fluorescencia S1 y de la señal de luz visible S2. Para esto se pueden efectuar tomas de imagen cronológicamente alternadas de la imagen real y de la imagen de fluorescencia a través del mismo sensor. La imagen real y la imagen de fluorescencia se separan entonces debido a que las dos fuentes de luz 21, 22 se regulan con sincronización de imagen para la radiación en el intervalo de la luz visible y para la radiación de excitación de fluorescencia de manera sincronizada con la correspondiente toma de imagen para el canal de la imagen real y el canal de la imagen de fluorescencia.
A este respecto existen dos posibilidades:
1.
Conexión y desconexión alternada de las fuentes de luz 21, 22 para la radiación de excitación de fluorescencia y la radiación de luz visible;
2.
Sincronización exclusivamente de la radiación de excitación de fluorescencia y cómputo de la imagen de fluorescencia como diferencia entre la imagen con y sin excitación de fluorescencia.
Para esto en principio se puede usar un convertidor de color unitario como sensor. Sin embargo, también es imaginable usar una construcción como en la Fig. 1 o en la Fig. 4 y efectuar una separación cronológica adicional de la división del rayo por medio del prisma dicroico 300.
Con el uso de un convertidor de color unitario, la luz que incide sobre el convertidor de color puede ser filtrada a través de una barrera de banda, de tal manera que sobre el convertidor de color no incide ninguna radiación de excitación (filtro de radiación de excitación). De esta manera se obtiene la posibilidad de detectar por medio del sensor tanto una imagen real en forma de una imagen de color como también una imagen de fluorescencia.
Según se ha mencionado, como convertidores optoelectrónicos 301, 302, 303 se pueden usar chips de CCD o
E10734055
06-08-2015
componentes CMOS. En particular con el uso de sensores CMOS se puede lograr una supresión efectiva de la luz parásita, es decir, una supresión de aquella luz y de aquella radiación que no proceden de la unidad de iluminación 2, sino de fuentes de luz exteriores del entorno, por ejemplo, luz natural.
5 En principio, tal supresión de luz parásita también es posible con los chips CCD.
La supresión de la luz parásita se logra a través de un así llamado “gating”, para lo que en principio existen dos posibilidades de uso:
10 1. Supresión de la luz parásita (luz ambiental).
2. Generación de la imagen real y de la imagen de fluorescencia con una disposición de CCD para la imagen real y la imagen de fluorescencia en el multiplex por división de tiempo.
15 En el marco de la primera posibilidad se puede controlar un sensor de imagen en forma de un convertidor optoelectrónico (análogo a la selección del tiempo de exposición en una cámara fotográfica), debido a que a través de una entrada en el sensor se controla cuándo el mismo capta la señal. Con el uso de sensores sensibles (por ejemplo, CMOS) se puede reducir así el tiempo de exposición del sensor, por lo que se suprimen las influencias de la radiación parásita y la luz ambiental exterior no tienen ninguna influencia sobre la imagen de fluorescencia.
20 En la segunda variante, la toma puede ser controlada de manera sincronizada con las fuentes de luz a ser sincronizadas igualmente para la radiación de luz visible y la radiación de excitación de fluorescencia, por lo que se obtiene alternadamente una imagen real y una imagen de fluorescencia.
25 Para aumentar la sensibilidad del convertidor optoelectrónico para la detección de señales infrarrojas o de infrarrojo próximo, también se puede usar un así llamado “binning”, en el que las células de sensor adyacentes se unen con reducción simultánea de la resolución local. De esta manera se vinculan entre sí varios puntos de imagen de los sensores, debido a que los valores de señal de las células adyacentes son sumados y de esa manera se obtiene un mayor valor de señal para un sitio. La superficie del sitio de señal detectado se incrementa con el número de píxeles,
30 de tal manera que se reduce la resolución local en general. Una ventaja de este método frente a un puro aumento de intensidad de la señal consiste en la mediación del ruido de fondo.
La señal de fluorescencia puede ser optimizada adicionalmente mediante el uso de una sustancia colorante apropiada. Por ejemplo, el lugar de la sustancia colorante verde de indocianina (ICG) se puede usar una mezcla de
35 ICG y azul patentado, para visualizar así ópticamente las posibles impurezas a través del colorante de fluorescencia en sí invisible. De esta manera, por ejemplo, los apósitos contaminados pueden ser cambiados de inmediato, antes de que sean usados en una operación.
También es imaginable el uso de fuentes de luz LED combinadas con posibilidad de modulación, coordinación y 40 sincronización con la unidad de toma 3.
Adicionalmente es imaginable que con el uso de un prisma dicroico 300 en su forma de tres canales o en su forma de cuatro canales un convertidor optoelectrónico se sustituya por un canal de iluminación, de tal manera que la radiación de iluminación no sea conducida a través de un difusor o de una conexión de conductor de luz
45 endoscópico al objeto 4, sino directamente a través del prisma dicroico 300. En el prisma dicroico 300 para esto se puede proveer un adaptador que posibilite la conexión del conductor de luz 24 de la unidad de iluminación 2.
Las figuras 7 y 8A, 8B muestran de manera esquemática una forma de realización en la que una señal óptica S mediante el uso de un prisma dicroico 300’ es dividida en porciones de señal S1, S2, correspondiendo por ejemplo a
50 una señal de la luz visible y una señal de fluorescencia, y es detectada por un convertidor optoelectrónico único C que presenta dos zonas parciales 301’, 302’, en forma de, por ejemplo, un chip de color-CCD (por ejemplo, un chip HD 16:9).
Según se representa esquemáticamente en la Fig. 7 y para una forma de realización concreta en la Figs. 8A, 8B, la
55 señal óptica S es dividida por medio de un prisma dicroico 300’ y representada en diferentes zonas del convertidor optoelectrónico C, en donde en principio para la división del rayo también se puede usar otro elemento dispersivo diferente, por ejemplo, una disposición de espejos u otra disposición de prismas.
Mediante el uso de un solo convertidor optoelectrónico C, por una parte se puede aprovechar de manera eficiente la
60 superficie de detección del convertidor optoelectrónico C y, por otra parte, también se puede simplificar la evaluación de las señales detectadas. En particular, la cadena de procesamiento electrónico para el procesamiento adicional acoplado de la información de imagen es de un solo ramal, debido a que sólo se usa un único convertidor optoelectrónico C.
65
10
15
20
25
30
35
40
45
50
55
60
65
E10734055
06-08-2015
Adicionalmente se obtiene un procedimiento de procesamiento ventajoso para la reunión de las diferentes imágenes parciales. Porque los píxeles mutuamente asignados en la imagen real y en la imagen de fluorescencia están ubicados en la misma línea del convertidor optoelectrónico y sólo están desplazados entre sí por un determinado número de píxeles. En el proceso de lectura que sigue a la detección de una imagen mediante el uso, por ejemplo, de un así llamado FPGA o DSP, mediante el almacenamiento de la mitad de línea emitida en primer lugar y mediante la emisión desfasada de las mitades de línea de conformidad con los píxeles se puede procesar de manera paralela la información de las imágenes, de tal manera que el procesamiento de la imagen se puede desarrollar con una demora extremadamente reducida. Esta es una ventaja, en particular en el caso de imágenes en tiempo real que deben posibilitarle a un médico controlar los movimientos de sus instrumentos.
Dado el caso, también es posible efectuar electrónicamente una corrección de desfase directamente después del convertidor optoelectrónico C o en una unidad de control y procesamiento acoplada, con la que se compensa un desplazamiento de los sitios de píxel. A este respecto, el trasfondo es que con una lectura de líneas medias condicionado por tolerancia los sitios asignados a los píxeles de la línea media en relación al objeto representado en la imagen no coinciden exactamente, por lo que se requiere una corrección de desfase (un determinado píxel de la mitad de línea asignada a la señal de fluorescencia eventualmente no corresponde, condicionado por la tolerancia, al mismo detalle del objeto que 1 píxel correspondiente de la mitad de línea asignada a la señal de luz visible). Para poder efectuar un procesamiento paralelo de las líneas medias, conforme a los píxeles, es posible que por esta razón se requiera una corrección de desfase, que puede efectuarse de manera ventajosa a través de una operación simple similar a un registro de desplazamiento en un elemento electrónico directamente acoplado al sensor de imagen.
Las figuras 8A y 8B muestran en una vista lateral (Fig. 8A) y una vista superior sobre el convertidor optoelectrónico C (Fig. 8B) una construcción concreta en la que un convertidor optoelectrónico C está acoplado a un prisma dicroico 300’ y en la que el prisma dicroico 300’ representa la señal óptica S sobre las zonas parciales 301’, 302’ del convertidor optoelectrónico C, por ejemplo en forma de un chip de CCD.
En la disposición de acuerdo con la Fig. 8A, la radiación óptica S entra desde abajo en el prisma dicroico 300’ y en la superficie de separación del prisma dicroico 300’ es reflejada parcialmente y transmitida parcialmente y de esta manera es separada en una porción correspondiente a la señal de luz visible S2 y una porción correspondiente a la señal de fluorescencia S1. Esto sucede debido a un revestimiento dicroico de la superficie de separación de los prismas parciales del prisma dicroico 300’.
Adicionalmente se pueden usar filtros de bloqueo que se aplican sobre la superficie de entrada del prisma dicroico 300’ o que se introducen en el prisma dicroico 300’ de lados iguales.
En la solución representada en las figuras 8A y 8B, una de las imágenes parciales es especular, es decir, de lados invertidos. Mediante la realización de una memoria de líneas medias como memoria LIFO, esto puede ser corregido de manera elegante (en una disposición de prismas alternativa sin efecto de espejo se tendría que usar de manera correspondiente una memoria FIFO).
Si cómo convertidor optoelectrónico se usa un chip CCD, el cálculo de las porciones de color debe ser combinado con el proceso de superposición de las líneas medias de una manera apropiada.
Obviamente, a este respecto también se puede usar un convertidor optoelectrónico C con tres zonas parciales para la transformación de tres señales diferentes (por ejemplo, la señal de fluorescencia S1, la señal de luz visible S2 y la señal de excitación de fluorescencia S3).
La Fig. 12 muestra en una forma de realización concreta la construcción del convertidor optoelectrónico C, que presenta un número de elementos de píxeles P dispuestos de manera regular en líneas y columnas, que respectivamente están formados por un grupo de cuatro píxeles individuales P1-P4. Según se insinúa en la vista esquemática, a este respecto sirven 3 píxeles individuales P1-P3 para la transformación de la señal de luz visible, debido a que un primer píxel individual P1 es sensible a la luz roja R, un segundo píxel individual P2 es sensible a la luz verde G y un tercer píxel individual P3 es sensible a la luz azul B. Los 3 píxeles individuales P1-P3 adicionalmente también son sensibles a la luz infrarroja IR, de tal manera que los 3 píxeles individuales P1-P3 en combinación con un cuarto píxel individual P4 sensible a la luz infrarroja IR pueden recibir y transformar la luz infrarroja IR.
La configuración de los píxeles individuales P1-P4 para recibir luz roja, azul o verde R, G, B y para o luz infrarroja IR se puede lograr a través de una disposición de filtros de varias capas, según se representa esquemáticamente en la Fig. 13. Al chip propiamente dicho para la recepción de las señales de luz, para la formación de la disposición de filtro se superponen varias capas alternadas L1, L2 de diferentes materiales, en donde por medio de una capa de filtro L3 con diferentes espesores de capa t, que cubre la superficie de sensor de imagen entera, en la región del respectivo píxel individual P1-P4 se ajusta un intervalo de transmisión espectral.
15
25
35
45
55
65
E10734055
06-08-2015
Según se representa de forma esquemática, en la región del píxel individual P4 (a la izquierda en la Fig. 13) se deja pasar luz azul B en una banda de frecuencia predeterminada y adicionalmente también luz infrarroja IR. En la región del píxel individual P2, en cambio, se deja pasar luz verde G y luz infrarroja IR, y en la región del píxel individual P3 se deja pasar luz roja R y luz infrarroja IR, para ser convertida por medio del convertidor optoelectrónico C. En la región del píxel individual P4, finalmente, se deja pasar exclusivamente luz infrarroja IR a través de la disposición de filtro, de tal manera que el píxel individual P4 sólo es sensible a la luz infrarroja IR.
Los espectros de transmisión correspondientes se representan esquemáticamente debajo de la disposición de capas y representan cualitativamente los intervalos de frecuencia desde la luz ultravioleta UV hasta la luz infrarroja IR, en los que la luz puede pasar por la disposición de capas.
Las figuras 9 a 11 muestran tres variantes diferentes de dispositivos 6 para la proyección de una imagen de fluorescencia tomada sobre la superficie de un objeto 4. A este respecto, la idea fundamental es que una imagen de fluorescencia tomada se represente directamente sobre el objeto 4, es decir, por ejemplo sobre la piel o la superficie tisular de un paciente, y por ende en su lugar de origen.
De manera convencional, una imagen de fluorescencia tomada, que se emite como señal de vídeo V, es representada en un monitor, en el que la imagen de fluorescencia se superpone sobre una imagen real, por ejemplo, en colores falsos. Esto tiene como resultado que el médico que hace la evaluación puede observar la imagen de fluorescencia exclusivamente en el monitor, lo que con una técnica de operación endoscópica no es una limitación, pero que en una forma de realización de una operación de cirugía abierta en un paciente puede ser complicado para el médico.
Difiriendo de esto, mediante el dispositivo 6 una imagen de fluorescencia tomada de ser representada en tiempo real directamente en el sitio en el que fue tomada. Otros medios auxiliares ópticos, tales como un monitor, no se requieren en este caso.
Mediante el dispositivo 6 se proyecta una imagen de fluorescencia con ayuda de un proyector o de un escáner de dos ejes (un así llamado escáner X/Y) sobre el objeto 4. El dispositivo representado en la Fig. 9 usa, por ejemplo, un escáner X/Y 62, que con ayuda de motores mecánicos y disposiciones de espejos proyecta un rayo de luz generado por una fuente de luz 61 (por ejemplo, un láser) a través de un objetivo 63 sobre el objeto 4, debido a que mediante el escáner X/Y 62 un rayo de intensidad modulada de la fuente de luz 61 (con luz visible) es desplazado periódicamente sobre la zona examinada del objeto 4, de tal manera que allí se forma una imagen indicadora correspondiente a la imagen de fluorescencia.
La función de modulación de la potencia del rayo láser puede ser, por ejemplo, monótonamente incremental con la señal de fluorescencia local. Alternativamente, la característica de la función de modulación también puede realizarse de manera ambivalente (0/1 mediante el uso de un valor de umbral), linealmente proporcional o logarítmicamente proporcional.
Adicionalmente, el posicionamiento exacto de la imagen de fluorescencia sobre el objeto 4, que podría ser perturbado debido a la superficie generalmente irregular del objeto 4, se puede mejorar por retroacoplamiento y/o las diferencias de la capacidad de reflexión local, que igualmente adulteran la imagen indicadora, pueden ser captadas y corregidas en la función de modulación.
Una forma de realización de un dispositivo 6, en el que no sólo se representa una imagen de fluorescencia sobre el objeto 4, sino al mismo tiempo también una señal procedente de la región del objeto 4, se muestra en la Fig. 10. Los componentes con una función idéntica se identifican con los mismos caracteres de referencia que antes.
El dispositivo de acuerdo con la Fig. 10 sirve por una parte para la protección y representación de la imagen de fluorescencia tomada, pero por otra parte también para la toma y para esto puede anteponerse al cabezal de cámara 30 de la unidad de toma 3 del sistema de gestión imágenes 1 de acuerdo con la Fig. 1 o la Fig. 4.
En la forma de realización de acuerdo con la Fig. 3, una fuente de luz 61’ genera una radiación de excitación de fluorescencia en un intervalo de longitudes de onda ubicado, por ejemplo, entre 700 nm y 800 nm, que por medio de un combinador de rayo 601, un separador de rayo 602, un escáner X/Y 62 y un objetivo 63 se irradia sobre el objeto 4 para excitar una señal de fluorescencia. Para esto, mediante el escáner X/Y 62 el rayo es dirigido sobre el objeto 4 y debido a esto el objeto 4 es excitado por píxeles.
De manera sincronizada, la señal de fluorescencia de retorno es conducida a través del objetivo 63 y el escáner X/Y 62, así como el separador de rayo 602 y un filtro 603, hacia un detector 64. La toma se efectúa igualmente por píxeles, en donde la señal de fluorescencia se capta de la fuente de luz 61’ que se acaba de excitar.
La señal de fluorescencia ácido recibida es convertida y emitida en tiempo real a través de la fuente de luz 61 como señal de colores falsos para la generación de la imagen indicadora o del píxel respectivo de la imagen indicadora sobre el objeto 4. El rayo generado por la fuente de luz 61 es combinado por medio del combinador de rayo 601 con
10
15
20
25
30
35
40
E10734055
06-08-2015
el rayo de la fuente de luz 61’ y también se dirige por medio del escáner X/Y 62 y el objetivo 63 sobre el objeto 4. De esta manera, sobre el objeto 4 se representa directamente en el sitio de la toma en tiempo real una indicación visible de la señal de fluorescencia local. Debido al rápido movimiento de escaneo, el observador de sobre la superficie del tejido directamente una imagen indicadora correspondiente a la imagen de fluorescencia en colores falsos.
En la forma de realización de acuerdo con la Fig. 10 existen las siguientes ventajas:
-No existe una cadena de evaluación de imagen, sino sólo un canal de procesamiento de señal individual; -no se requiere un almacenamiento intermedio de datos de imagen; -no es necesaria una separación de una señal de excitación de fluorescencia frente a una señal de luz visible, ya
que una imagen real sólo se forma en el ojo del observador, que no es sensible a la radiación de excitación de fluorescencia;
-el detector 64 en una forma de realización preferente puede estar construido con una superficie extensa y no debe efectuar ningún movimiento, ya que la información local es determinada por la posición actual del escáner X/Y 62;
-se logra una construcción ópticamente simple con una muy elevada sensibilidad en el canal de fluorescencia, ya que la superficie de detección del detector 64 puede seleccionarse de gran tamaño; -como detectores se pueden usar simples diodos PIN con un filtro antepuesto contra porciones de radiación
indeseables; -los escáneres X/Y están disponibles a un coste favorable; -como láser demarcación se puede usar, por ejemplo, un láser verde, que también está comercialmente
disponible a un coste favorable.
En otra forma de realización, representado en la Fig. 11, una señal de fluorescencia resultante también puede ser recibida por medio de un detector 64 en forma de un chip CCD plano. Según se ha descrito previamente basándose en la Fig. 10, mediante una fuente de luz 61’ el objeto 4 es excitado, debido a que un rayo emitido es dirigido por medio del escáner X/Y 62 sobre el objeto 4. Debido a esto, el objeto 4 es excitado sucesivamente, de tal manera que se obtiene una excitación plana, de cuya región el detector 64 capta la señal de fluorescencia. La imagen de fluorescencia captada de esta manera a su vez puede ser proyectada mediante la fuente de luz 61 y por medio del combinador de rayo 601 y el escáner X/Y 62 sobre el objeto 4.
El dispositivo 6 de acuerdo con las formas de realización representadas en las figuras 9 a 11 puede ser realizado ventajosamente como un aparato compacto sostenido en la mano y también puede funcionar de manera inalámbrica mediante el uso de acumuladores modernos.
Las formas de realización representadas en las figuras 9 a 11 de un dispositivo para la proyección, en principio también pueden ser usadas de manera independiente de los sistemas de gestión de imágenes descritos en las figuras 1 a 5 y, por lo tanto, también pueden considerarse como invenciones independientes.
Lista de caracteres de referencia
1 Sistema de gestión de imágenes 2 Unidad de iluminación 21, 22 Fuente de luz 23 Elemento acoplador 24 Conductor de luz 240, 241 Conexión 3 Unidad de toma 30 Cabezal de cámara 300, 300’ Prisma dicroico 301-303 Convertidor optoelectrónico 301’, 302’ Zona parcial 304 Elemento absorbedor 305 Conexión 306, 307, 310 Convertidor analógico/digital 308, 309, 311 Controlador 31 Objetivo 32 Endoscopio 320, 321 Canal 4 Objeto 5 Unidad de control y procesamiento 501, 502, 504 Cable de datos 503 Conexión 511, 512, 516 Unidad de procesamiento preliminar 513 Unidad de procesamiento de imagen 514 Unidad de procesamiento final
E10734055
06-08-2015
515 Conexión 52 Unidad de control 6 Unidad de proyector 601 Combinador de rayos 602 Separador de rayos 603 Filtro 61, 61’ Fuente de radiación 62 Escáner de dos ejes 63 Objetivo 64 Detector A1-A3 Prisma parcial A1’-A5’ Prisma parcial B Luz azul C Chip CCD D1, D2, D3 Señal de datos electrónica F1, F2 Filtro dicroico F’ Filtro F1’-F3’ Filtro dicroico G Luz verde IR Luz infrarroja L1, L2, L3 Capa P Elemento de píxel P1-P4 Píxel individual R Luz roja S Señal óptica S1 Señal de fluorescencia S2 Señal de luz visible S3 Señal de excitación de fluorescencia S1’-S4’ Señal t Espesor de capa UV Luz ultravioleta V Señal de emisión de vídeo

Claims (13)

  1. 5
    15
    25
    35
    45
    55
    65
    REIVINDICACIONES
    1. Sistema de gestión de imágenes para la visualización por óptica de fluorescencia de un objeto bidimensional o tridimensional (4) en forma de órganos, orgánulos o zonas de tejido de un paciente con fines médicos, con
    -una unidad de iluminación (2) que está configurada y prevista para emitir radiación óptica en un intervalo de longitudes de onda predeterminado para la iluminación del objeto (4) y para excitar una sustancia fluorescente contenida en el objeto (4), -una unidad de toma (3) que está configurada y prevista para captar una señal óptica (S) procedente de la región del objeto (4) y dividir la señal óptica (S) en una señal de fluorescencia (S1) con un primer intervalo de longitudes de onda y una señal de luz visible (S2) con un segundo intervalo de longitudes de onda,
    en donde la unidad de toma óptica (3) presenta un convertidor optoelectrónico (C) que presenta varias zonas parciales (301’, 302’) para convertir la señal de fluorescencia (S1) en una primera señal de datos electrónica (D1) y la señal de luz visible (S2) en una segunda señal de datos electrónica (D2), en donde la unidad de toma óptica (3) presenta un prisma dicroico (30) para la división de la señal óptica captada (S) en la señal de fluorescencia (S1) y la señal de luz visible (S2),
    caracterizado por que
    el convertidor optoelectrónico (C) conectado al prisma dicroico (30) está dispuesto directamente sobre el prisma dicroico (30) y de esa manera está conectado al prisma dicroico (30).
  2. 2.
    Sistema de gestión de imágenes de acuerdo con la reivindicación 1, caracterizado por que de las zonas parciales (301’, 302’) del convertidor optoelectrónico (C) una primera zona parcial (301’) convierte la señal de fluorescencia (S1) en una primera señal de datos electrónica (D1) y una segunda zona parcial (302’) convierte la señal de luz visible (S2) en una segunda señal de datos electrónica (D2).
  3. 3.
    Sistema de gestión de imágenes de acuerdo con las reivindicaciones 1 o 2, caracterizado por que el primer intervalo de longitudes de onda de la señal de fluorescencia (S1) comprende longitudes de onda mayores de 800 nm y el segundo intervalo de longitudes de onda de la señal de luz visible (S2) comprende longitudes de onda menores de 700 nm.
  4. 4.
    Sistema de gestión de imágenes de acuerdo con una de las reivindicaciones anteriores, caracterizado por que el convertidor optoelectrónico (C) presenta un número de elementos de píxel (P) que en cada caso están formados por 4 píxeles individuales (P1-P4), en donde 3 píxeles individuales (P1-P3) están configurados para convertir la señal de luz visible (S2) y 1 píxel individual (P4) está configurado para convertir la señal de fluorescencia (S1).
  5. 5.
    Sistema de gestión de imágenes de acuerdo con la reivindicación 4, caracterizado por que los 3 píxeles individuales (P1-P3) para la conversión de la señal de luz visible (S2) están configurados adicionalmente también para la conversión de la señal de fluorescencia (S1).
  6. 6.
    Sistema de gestión de imágenes de acuerdo con una de las reivindicaciones anteriores, caracterizado por que la señal óptica captada (S) adicionalmente es dividida en una señal de excitación de fluorescencia (S3) con un tercer intervalo de longitudes de onda que es diferente del primer intervalo de longitudes de onda y del segundo intervalo de longitudes de onda.
  7. 7.
    Sistema de gestión de imágenes de acuerdo con la reivindicación 6, caracterizado por que la señal de excitación de fluorescencia (S3) presenta un intervalo de longitudes de onda de entre 700 nm y 800 nm.
  8. 8.
    Sistema de gestión de imágenes de acuerdo con las reivindicaciones 6 o 7, caracterizado por que el convertidor optoelectrónico (C) que presenta varias zonas parciales (301’, 302’) presenta una tercera zona parcial (301’, 302’) que convierte la señal de excitación de fluorescencia (S3) en una tercera señal de datos electrónica (D3).
  9. 9.
    Sistema de gestión de imágenes de acuerdo con las reivindicaciones 6 o 7, caracterizado por que una región parcial (302’) del convertidor optoelectrónico (C) que presenta varias zonas parciales (301’, 302’) convierte tanto la señal de luz visible (S2) como también la señal de excitación de fluorescencia (S3).
  10. 10.
    Sistema de gestión de imágenes de acuerdo con una de las reivindicaciones anteriores, caracterizado por que la unidad de toma (3) puede ser conectada a un objetivo (31) para la toma de la señal óptica (S) en el exterior del objeto (4) y/o con un dispositivo de toma (32) para captar la señal óptica (S) desde el interior del objeto (4).
  11. 11.
    Sistema de gestión de imágenes de acuerdo con una de las reivindicaciones anteriores, caracterizado por que la unidad de iluminación (2) presenta dos fuentes de luz (21, 22), de las que una primera fuente de luz (21) genera radiación de excitación de fluorescencia y una segunda fuente de luz (22) genera radiación en el intervalo de la luz visible.
  12. 12.
    Sistema de gestión de imágenes de acuerdo con una de las reivindicaciones anteriores, caracterizado por que
    17
    la unidad de iluminación (2) presenta un elemento de acoplamiento óptico (23) para acoplar la radiación de excitación de fluorescencia y la radiación en el intervalo de la luz visible y para acoplar la radiación óptica acoplada así generada en un conductor de luz (24) para la iluminación del objeto (4).
  13. 13. Sistema de gestión de imágenes de acuerdo con la reivindicación 12, caracterizado por que el conductor de luz
    (24) puede ser conectado a un elemento para la adaptación de la característica de radiación de la radiación óptica para iluminar el objeto (4) desde el exterior o para iluminar zonas en el interior del objeto (4).
    18
ES10734055.6T 2009-06-10 2010-06-08 Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia Active ES2544804T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009024943A DE102009024943A1 (de) 2009-06-10 2009-06-10 Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts
DE102009024943 2009-06-10
PCT/EP2010/057995 WO2010142672A1 (de) 2009-06-10 2010-06-08 Bildgebungssystem und verfahren zur fluoreszenz-optischen visualisierung eines objekts

Publications (1)

Publication Number Publication Date
ES2544804T3 true ES2544804T3 (es) 2015-09-04

Family

ID=42752983

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10734055.6T Active ES2544804T3 (es) 2009-06-10 2010-06-08 Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia

Country Status (5)

Country Link
US (1) US9433350B2 (es)
EP (2) EP2440119B1 (es)
DE (1) DE102009024943A1 (es)
ES (1) ES2544804T3 (es)
WO (1) WO2010142672A1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172826B2 (en) 2016-03-08 2021-11-16 Enspectra Health, Inc. Non-invasive detection of skin disease

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5865606B2 (ja) * 2011-05-27 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
CN102525420B (zh) * 2011-12-16 2013-07-10 天津大学 一种多通道时域荧光层析成像系统标定方法
DE102011089769A1 (de) * 2011-12-23 2013-06-27 Osram Gmbh Endoskop
DE102011122602A1 (de) * 2011-12-30 2013-07-04 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
US9155473B2 (en) * 2012-03-21 2015-10-13 Korea Electrotechnology Research Institute Reflection detection type measurement apparatus for skin autofluorescence
NL2009021C2 (en) * 2012-06-18 2013-12-23 Quest Photonic Devices B V Dichroic prism assembly for use in an endoscope tip, method for making said assembly, and endoscope comprising a said assembly.
NL2009124C2 (en) * 2012-07-05 2014-01-07 Quest Photonic Devices B V Method and device for detecting fluorescence radiation.
US20150201840A1 (en) * 2013-03-18 2015-07-23 Korea Electrotechnology Research Institute Reflection detection type measurement apparatus for skin autofluorescence
US9888855B2 (en) * 2013-03-18 2018-02-13 Korea Electrotechnology Research Institute Reflection detection type measurement apparatus and method for skin autofluorescence
US9407838B2 (en) * 2013-04-23 2016-08-02 Cedars-Sinai Medical Center Systems and methods for recording simultaneously visible light image and infrared light image from fluorophores
AU2014257125B2 (en) * 2013-04-23 2019-04-18 Cedars-Sinai Medical Center Systems and methods for recording simultaneously visible light image and infrared light image from fluorophores
KR101514204B1 (ko) * 2013-07-12 2015-04-23 한국전기연구원 감시림프절의 근적외선 형광 검출 장치 및 방법
US9310600B2 (en) * 2013-09-09 2016-04-12 Bio-Rad Laboratories, Inc. Double fold optics
DE102013219521A1 (de) * 2013-09-27 2015-04-02 Carl Zeiss Meditec Ag Beleuchtungsvorrichtung für ein Fluoreszenzdiagnosesystem
US10420608B2 (en) * 2014-05-20 2019-09-24 Verily Life Sciences Llc System for laser ablation surgery
US10456040B2 (en) * 2014-09-18 2019-10-29 Shimadzu Corporation Imaging device
DE112015004656T5 (de) 2015-01-22 2017-07-06 Olympus Corporation Bildgebungsgerät
JP6975704B2 (ja) * 2015-02-03 2021-12-01 株式会社日立ハイテク 多色検出装置
DE102015101847B4 (de) * 2015-02-10 2017-11-02 Eyesense Gmbh Strahlteiler und Anordnung zur Untersuchung einer mittels elektromagnetischer Strahlung anregbaren Probe
JP6025130B2 (ja) 2015-03-23 2016-11-16 パナソニックIpマネジメント株式会社 内視鏡及び内視鏡システム
DE102015106806B4 (de) * 2015-04-30 2020-03-19 Carl Zeiss Meditec Ag Vorrichtung zum optischen Inspizieren von Objekten
DE112015006505T5 (de) * 2015-06-17 2018-03-15 Olympus Corporation Bildgebungsvorrichtung
US10579891B2 (en) 2015-08-10 2020-03-03 AI Biomed Corp Optical overlay device
EP3206061A1 (en) * 2016-02-15 2017-08-16 Leica Instruments (Singapore) Pte. Ltd. Illumination filter system and observation system for a multispectral fluorescence microscope
US10708478B2 (en) * 2016-03-23 2020-07-07 Karl Storz Imaging, Inc. Image transformation and display for fluorescent and visible imaging
JP6722883B2 (ja) * 2016-04-01 2020-07-15 国立大学法人浜松医科大学 画像取得装置および画像取得方法
US10122975B2 (en) 2016-05-19 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Endoscope and endoscope system
WO2018008062A1 (ja) * 2016-07-04 2018-01-11 オリンパス株式会社 蛍光観察装置および蛍光観察内視鏡装置
JP6734386B2 (ja) * 2016-09-28 2020-08-05 パナソニック株式会社 表示システム
NL2018494B1 (en) * 2017-03-09 2018-09-21 Quest Photonic Devices B V Method and apparatus using a medical imaging head for fluorescent imaging
JP6747576B2 (ja) * 2017-03-17 2020-08-26 株式会社島津製作所 イメージング装置
JP6939000B2 (ja) * 2017-03-23 2021-09-22 株式会社Jvcケンウッド 撮像装置及び撮像方法
WO2018201082A1 (en) 2017-04-28 2018-11-01 Zebra Medical Technologies, Inc. Systems and methods for imaging and measurement of sarcomeres
AU2018306730B9 (en) * 2017-07-27 2021-08-05 Invuity, Inc. Projection scanning system
JP7219002B2 (ja) * 2017-09-11 2023-02-07 i-PRO株式会社 内視鏡
US9990767B1 (en) 2017-10-24 2018-06-05 Lowe's Companies, Inc. Generation of 3D models using stochastic shape distribution
CN108209878A (zh) * 2018-03-06 2018-06-29 南京生命源医药实业有限公司 可视化系统及方法
CN108378825A (zh) * 2018-03-23 2018-08-10 张栋 一种黑白单相机实现的医用四色多光谱成像方法和装置
CN108095701B (zh) * 2018-04-25 2018-07-20 上海凯利泰医疗科技股份有限公司 图像处理系统、荧光内窥镜照明成像装置及成像方法
JP7348730B2 (ja) * 2019-02-22 2023-09-21 シスメックス株式会社 試料測定装置および試料測定方法
EP3931550A4 (en) 2019-02-26 2022-11-23 Al Biomed Corp. TISSUE DETECTION SYSTEM AND METHODS OF USE
CN110346318B (zh) * 2019-08-19 2023-12-22 大连世有电力科技有限公司 一种远距离无源检测的紫外检测装置
US20210228083A1 (en) * 2020-01-23 2021-07-29 Precision Healing, Inc. Skin diagnostics using optical signatures
CN112099179B (zh) * 2020-09-30 2022-09-02 湖北华中光电科技有限公司 一种基于棱镜分光的双cmos连续变焦电视系统
US11790671B2 (en) * 2020-10-05 2023-10-17 Crazing Lab, Inc. Vision based light detection and ranging system using multi-fields of view
CN114027765B (zh) * 2020-11-20 2023-03-24 上海微觅医疗器械有限公司 荧光内窥镜系统、控制方法和存储介质
CN113143207A (zh) * 2021-03-09 2021-07-23 复旦大学 一种超宽波段双通道的活体光学成像系统
US20230103605A1 (en) * 2021-09-27 2023-04-06 Ai Biomed Corp. Tissue detection systems and methods
DE102022116292A1 (de) 2022-06-30 2024-01-04 Karl Storz Se & Co. Kg Strahlteilungsvorrichtung für einen distalen Endabschnitt eines Endoskops, Objektivsystem und Endoskop
CN116849624B (zh) * 2023-08-31 2023-11-10 南京诺源医疗器械有限公司 基于4cmos的图像传感器荧光成像方法及系统

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4765737A (en) * 1987-03-30 1988-08-23 Cornell Research Foundation Cell size measurements using light in flow cytometry and cell sorting
JPH06210987A (ja) 1993-01-19 1994-08-02 Canon Inc 非可視化情報記録媒体、非可視化情報検出装置並びに記録剤
DE19635038A1 (de) 1996-08-29 1998-03-12 Pulsion Verwaltungs Gmbh & Co Verfahren zur nicht invasiven Bestimmung des zerebralen Blutflusses mittels Nah-Infrarot-Spektroskopie
US6293911B1 (en) 1996-11-20 2001-09-25 Olympus Optical Co., Ltd. Fluorescent endoscope system enabling simultaneous normal light observation and fluorescence observation in infrared spectrum
US7179222B2 (en) * 1996-11-20 2007-02-20 Olympus Corporation Fluorescent endoscope system enabling simultaneous achievement of normal light observation based on reflected light and fluorescence observation based on light with wavelengths in infrared spectrum
DE19800312A1 (de) * 1998-01-07 1999-07-08 Wolf Gmbh Richard Diagnosegerät zur bildgebenden Aufnahme fluoreszierender biologischer Gewebebereiche
US5901816A (en) 1998-02-19 1999-05-11 Camilleri; Tony C. Air cylinder-driven wheel chock
JP2000227578A (ja) * 1998-11-12 2000-08-15 Fujitsu Ltd 投写型表示装置
US6473176B2 (en) 1999-01-25 2002-10-29 Amnis Corporation Imaging and analyzing parameters of small moving objects such as cells
DE19954710C1 (de) 1999-11-17 2001-03-15 Pulsion Medical Sys Ag Vorrichtung zur Behandlung von wachsenden, erweiterten oder mißgebildeten Blutgefäßen
GB0004351D0 (en) 2000-02-25 2000-04-12 Secr Defence Illumination and imaging devices and methods
JP4459390B2 (ja) 2000-06-08 2010-04-28 浜松ホトニクス株式会社 蛍光測定方法、蛍光測定装置及びそれを用いた試料評価装置
EP1731087A3 (en) 2000-07-14 2008-08-06 Novadaq Technologies Inc. Compact fluorescent endoscopy video system
DE10059070C1 (de) 2000-11-28 2002-02-14 Pulsion Medical Sys Ag Vorrichtung zur Bestimmung von Gewebeperfusion und intraoperative Verwendung
US6826424B1 (en) 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices
DE10120980B4 (de) 2001-05-01 2009-12-03 Pulsion Medical Systems Ag Verfahren, Vorrichtung und Computerprogramm zur Bestimmung des Blutflusses in einer Gewebe- oder Organregion
US20020186813A1 (en) * 2001-05-08 2002-12-12 Toshikazu Tamura Image sensing apparatus and image sensing method, X-ray photographing system and its control method
US20060241496A1 (en) 2002-01-15 2006-10-26 Xillix Technologies Corp. Filter for use with imaging endoscopes
BR0308675A (pt) 2002-03-20 2005-02-15 Novadaq Technologies Inc Método e aparelho para visualizar o fluxo de fluido através de vasos, memória que pode ser lida por computador, produto de programa de computador e método para o tratamento de uma lesão de um animal
US20050157923A1 (en) 2002-05-15 2005-07-21 Mutsuji Takahashi Image processing system and image processing method
JP4285641B2 (ja) * 2002-08-30 2009-06-24 富士フイルム株式会社 撮像装置
US8574925B2 (en) 2002-09-19 2013-11-05 Hamamatsu Photonics K.K. Fluorescence analysis method using fluorescent-activating antibodies
EP1550871B1 (en) 2002-09-19 2009-08-12 Hamamatsu Photonics K. K. Fluorescence analysis method with the use of fluorescent antibody
US8473035B2 (en) * 2003-09-15 2013-06-25 Beth Israel Deaconess Medical Center Medical imaging systems
JP4509526B2 (ja) * 2003-10-10 2010-07-21 シスメックス株式会社 細菌分析装置および方法
JP2005147826A (ja) 2003-11-14 2005-06-09 Hamamatsu Photonics Kk 蛍光測定装置
EP1688083B1 (en) 2003-11-20 2018-09-12 Hamamatsu Photonics K.K. Lymph node detector
US8060172B2 (en) * 2004-03-29 2011-11-15 Olympus Corporation In-vivo information measurement apparatus
JP2006014868A (ja) 2004-06-30 2006-01-19 Hamamatsu Photonics Kk リンパ節検出装置
JP5461753B2 (ja) * 2004-07-30 2014-04-02 オリンパス株式会社 内視鏡装置
JP4425098B2 (ja) 2004-09-06 2010-03-03 浜松ホトニクス株式会社 蛍光顕微鏡および蛍光相関分光解析装置
US7394053B2 (en) 2004-09-09 2008-07-01 Beth Israel Deaconess Medical Center, Inc. Systems and methods for multi-modal imaging having a spatial relationship in three dimensions between first and second image data
US7798955B2 (en) 2004-10-26 2010-09-21 Olympus Corporation Image generating device for generating a fluorescence image
JP2006145501A (ja) 2004-11-24 2006-06-08 Hamamatsu Photonics Kk 赤外線検出装置
US7307774B1 (en) * 2005-01-24 2007-12-11 The Board Of Trustees Of The Leland Standford Junior University Micro-optical analysis system and approach therefor
EP2369326B1 (en) * 2005-02-15 2013-09-04 Mitsui Engineering & Shipbuilding Co., Ltd. Fluorescence detecting device and fluorescence detecting method
DE202005021111U1 (de) 2005-04-20 2007-04-12 Storz Karl Gmbh & Co Kg Kombiniertes diagnose- und therapieunterstützendes System
US8185176B2 (en) 2005-04-26 2012-05-22 Novadaq Technologies, Inc. Method and apparatus for vasculature visualization with applications in neurosurgery and neurology
US20060239921A1 (en) 2005-04-26 2006-10-26 Novadaq Technologies Inc. Real time vascular imaging during solid organ transplant
CA2618443A1 (en) 2005-08-10 2007-02-15 Novadaq Technologies, Inc. Intra-operative head & neck nerve mapping
US8478386B2 (en) 2006-01-10 2013-07-02 Accuvein Inc. Practitioner-mounted micro vein enhancer
US8838210B2 (en) 2006-06-29 2014-09-16 AccuView, Inc. Scanned laser vein contrast enhancer using a single laser
US20090303317A1 (en) * 2006-02-07 2009-12-10 Novadaq Technologies Inc. Near infrared imaging
US20080161744A1 (en) 2006-09-07 2008-07-03 University Of Rochester Medical Center Pre-And Intra-Operative Localization of Penile Sentinel Nodes
US20080177140A1 (en) 2007-01-23 2008-07-24 Xillix Technologies Corp. Cameras for fluorescence and reflectance imaging
US8626271B2 (en) * 2007-04-13 2014-01-07 Ethicon Endo-Surgery, Inc. System and method using fluorescence to examine within a patient's anatomy
US7787121B2 (en) 2007-07-18 2010-08-31 Fujifilm Corporation Imaging apparatus
CN101688836B (zh) * 2007-08-30 2012-08-29 三井造船株式会社 Fret检测方法及装置
US8364246B2 (en) 2007-09-13 2013-01-29 Sure-Shot Medical Device, Inc. Compact feature location and display system
MX2010004196A (es) 2007-10-19 2010-09-28 Christie Medical Holdings Inc Sistema de diagnostico por imagenes que utiliza luz infrarroja.
JP4944255B2 (ja) * 2008-01-16 2012-05-30 テレフオンアクチーボラゲット エル エム エリクソン(パブル) デバイスを密閉するカバーの開放を検出する方法及びそのデバイス

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172826B2 (en) 2016-03-08 2021-11-16 Enspectra Health, Inc. Non-invasive detection of skin disease
US11877826B2 (en) 2016-03-08 2024-01-23 Enspectra Health, Inc. Non-invasive detection of skin disease

Also Published As

Publication number Publication date
EP2440119B1 (de) 2015-05-13
EP2932892A1 (de) 2015-10-21
DE102009024943A1 (de) 2010-12-16
US20120268573A1 (en) 2012-10-25
US9433350B2 (en) 2016-09-06
WO2010142672A1 (de) 2010-12-16
EP2440119A1 (de) 2012-04-18

Similar Documents

Publication Publication Date Title
ES2544804T3 (es) Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia
US11439307B2 (en) Method for detecting fluorescence and ablating cancer cells of a target surgical area
ES2964016T3 (es) Métodos y aparato de formación de imágenes para la adquisición de imágenes de fluorescencia y reflectancia
US10314490B2 (en) Method and device for multi-spectral photonic imaging
JP5283731B2 (ja) 内視鏡用の自己蛍光画像化システム
US8915844B2 (en) Endoscope diagnostic apparatus
JP5088990B2 (ja) 内視鏡用の自己蛍光画像化システム
US9456738B2 (en) Endoscopic diagnosis system
US20040225222A1 (en) Real-time contemporaneous multimodal imaging and spectroscopy uses thereof
JP2015029841A (ja) 撮像装置および撮像方法
JP2005046634A5 (es)
EP2046188A1 (en) Capsule camera with variable illumination of the surrounding tissue
CN102469913A (zh) 穿透率调整装置、观察装置及观察系统
JP2010022700A (ja) 内視鏡システム
ES2345490T3 (es) Aparato de deteccion y de caracterizacion de los tejidos biologicos.
KR101710902B1 (ko) 근적외선 형광 진단용 무영 조명등 및 무영 조명 시스템
JP2014050458A (ja) 内視鏡用プローブ装置及び内視鏡システム
RU203175U1 (ru) Видеофлуоресцентное устройство для анализа внутритканевого распределения фотосенсибилизаторов дальнего красного и ближнего инфракрасного диапазонов злокачественных новообразований головы и шеи