ES2912473T3 - Procedimiento y sistema de microscopía para obtener una imagen de fluorescencia microscópica de un área para la muestra con una muestra biológica - Google Patents

Procedimiento y sistema de microscopía para obtener una imagen de fluorescencia microscópica de un área para la muestra con una muestra biológica Download PDF

Info

Publication number
ES2912473T3
ES2912473T3 ES18214781T ES18214781T ES2912473T3 ES 2912473 T3 ES2912473 T3 ES 2912473T3 ES 18214781 T ES18214781 T ES 18214781T ES 18214781 T ES18214781 T ES 18214781T ES 2912473 T3 ES2912473 T3 ES 2912473T3
Authority
ES
Spain
Prior art keywords
relative distance
sample
intensity values
laser beam
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18214781T
Other languages
English (en)
Inventor
Martin Hagen-Eggert
Tilman Sumpf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Euroimmun Medizinische Labordiagnostika AG
Original Assignee
Euroimmun Medizinische Labordiagnostika AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Euroimmun Medizinische Labordiagnostika AG filed Critical Euroimmun Medizinische Labordiagnostika AG
Application granted granted Critical
Publication of ES2912473T3 publication Critical patent/ES2912473T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6486Measuring fluorescence of biological material, e.g. DNA, RNA, cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • G01N21/359Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light using near infrared light

Abstract

Procedimiento de adquisición de una imagen de fluorescencia microscópica de una área para la muestra (P) con una muestra biológica, que comprende: - dirigir un rayo láser (LS) por medio de al menos un objetivo (OB) sobre el área para la muestra (P), que tiene al menos una interfaz (59), efectuando el objetivo (OB) un enfoque del rayo láser (OB) en un plano de enfoque, - modificar la distancia relativa entre el objetivo (OB) y el área para la muestra (P) a lo largo de un eje óptico (OA) del objetivo (OB) para efectuar las correspondientes distancias relativas diferentes, - para una distancia relativa respectiva, - detectar un conjunto correspondiente de valores de intensidad de los píxeles, causados por el rayo láser (LS) reflejado en la interfaz (57) y transmitido de vuelta a través del objetivo (OB) en los píxeles correspondientes de un sensor de imagen (BS), - así como determinar además una métrica de enfoque respectiva basada en el conjunto correspondiente de valores de intensidad de píxeles detectados para la respectiva distancia relativa, - determinar una distancia relativa preferente en función de las métricas de enfoque determinadas, - fijar la distancia relativa preferente, iluminar el área para la muestra (P) con una radiación de excitación (AS) y registrar la imagen de fluorescencia microscópica mediante el sensor de imagen (BS), caracterizado porque - el sensor de imagen (BS) es un fotosensor (PS) con una matriz de filtro de color (FFM) dispuesta por delante, - que es una matriz con una pluralidad de canales de color, - que además tiene diferentes tipos de elementos filtrantes para los distintos canales de color - y que además es transmisivo en todos sus diferentes canales de color para la luz del rango del infrarrojo cercano de una longitud de onda superior a 780 nm, - la imagen de fluorescencia microscópica es una imagen en color - y el rayo láser (LS) tiene una longitud de onda (WB) en el rango del infrarrojo cercano de 780nm.

Description

DESCRIPCIÓN
Procedimiento y sistema de microscopía para obtener una imagen de fluorescencia microscópica de un área para la muestra con una muestra biológica
Descripción
Se conocen del estado de la técnica procedimientos y dispositivos en los que se usa un rayo láser para enfocar una cámara o un sensor de imagen sobre un área para la muestra que contiene una muestra biológica, y en donde a continuación se captura una imagen de fluorescencia del área para la muestra.
En particular, se conoce un procedimiento en el que con un rayo láser con una longitud de onda de, por ejemplo, 635 nm, se detecta un reflejo en un denominado canal rojo con una primera cámara o un primer sensor de imagen para llevar a cabo una alineación óptima o una distancia óptima del área para la muestra hasta un objetivo del microscopio con el fin de enfocar. A continuación, con otra cámara en un canal verde se captura una imagen de fluorescencia del área para la muestra con la muestra biológica. Esto significa que las imágenes de fluorescencia verde pueden ser capturadas en un canal verde que no tiene componentes rojos.
El documento ES102008015885A1 describe un procedimiento para el autoenfoque de dispositivos ópticos, en el que para ello se toman imágenes con anillos concéntricos cuyo diámetro cambia en función de la distancia de la posición de enfoque que hay que determinar.
El documento WO2016/133787A1 divulga un procedimiento y un sistema para enfocar automáticamente un microscopio, en el que un valor de pico de un rayo láser reflejado se usa como indicación del grado de enfoque del sistema.
El documento WO2016022359 A1 divulga el uso de una cámara CCD o CMOS monocromática, tanto para registrar imágenes de fluorescencia como para captar la luz láser reflejada con objeto de determinar el enfoque.
Es un objetivo de la presente invención proporcionar un sistema y un procedimiento para obtener una imagen de fluorescencia microscópica con enfoque automático, que sea particularmente potente.
En la reivindicación 1 se define un procedimiento según la presente invención y en la reivindicación 14 se define un sistema de microscopía correspondiente .
El objetivo según la invención se consigue mediante el procedimiento propuesto para registrar una imagen de fluorescencia microscópica de una área para la muestra con una muestra biológica. Por medio de al menos un objetivo se dirige un rayo láser sobre el área para la muestra, que tiene al menos una interfaz, realizando el objetivo un enfoque del rayo láser en un plano de enfoque. A lo largo de un eje óptico del objetivo se cambia la distancia relativa entre el objetivo y el área para la muestra para realizar las respectivas y diferentes distancias relativas. Para una distancia relativa respectiva, se registra un conjunto respectivo de valores de intensidad de los píxeles, que son causados por el rayo láser reflejado en la interfaz y transmitido de vuelta a través del objetivo en los píxeles correspondientes de un sensor de imagen. Además, se determina una métrica de enfoque respectiva para una distancia relativa respectiva basada en el conjunto respectivo de valores de intensidad de píxeles detectados para la distancia relativa respectiva. Además, se determina una distancia relativa preferente basada en la métrica de enfoque determinada. Por último, se establece la distancia relativa preferente, se ilumina el área para la muestra con una radiación de excitación y se registra por medio del sensor de imagen la imagen de fluorescencia microscópica, en particular a la distancia relativa preferente o cuando se establece una distancia relativa preferente.
El procedimiento según la invención se caracteriza porque el sensor de imagen es un fotosensor con una matriz de filtro de color situada por delante, en el que además la imagen de fluorescencia microscópica es una imagen en color, en particular una imagen en color no monocromática, y en donde el rayo láser tiene una longitud de onda en el rango del infrarrojo cercano.
El procedimiento según la invención propuesto permite capturar una imagen de fluorescencia del área para la muestra como una imagen en color, por lo que solo es necesario usar un único sensor de imagen para capturar la imagen en color y para el proceso de enfoque, ya que una matriz de filtro de color está conectada por delante del sensor de imagen. Este sensor de imagen, con la matriz de filtro de color delante del sensor de imagen, también se puede usar al mismo tiempo para detectar los valores de intensidad de los píxeles durante el enfoque, ya que el láser tiene una longitud de onda en el rango del infrarrojo cercano.
El rango del infrarrojo cercano es un rango de infrarrojo que no es visible para los seres humanos y es un rango de longitud de onda en el que se produce una interacción especial de la matriz de filtro de color con el rayo láser, tal como se explica con más detalle a continuación.
Según el estado de la técnica, es común detectar un láser de una longitud de onda de, por ejemplo, 635 nm, en un canal rojo separado con un sensor de imagen o una cámara independientes y un filtro de color óptico también independiente. Si se usara un rayo láser de una longitud de onda de 635 nm en combinación con un sensor de imagen o un fotosensor en combinación con una matriz de filtro de color para el proceso de enfoque, no se puede garantizar necesariamente que el rayo láser incida en las zonas de la matriz de filtro de color que sean suficientemente transmisivas para la luz roja de esta longitud de onda de 635 nm. Una matriz de filtros de color suele constar de diferentes tipos de elementos filtrantes para los distintos canales de color, en particular al menos de los tipos de canal rojo y de canal verde, en especial preferentemente también del tipo de canal azul. La matriz de filtros de color se construye entonces a partir de una disposición bidimensional de una pluralidad de elementos filtrantes de color, en la que cada uno de los elementos filtrantes de color, directamente adyacentes entre sí en una dirección de la disposición, son de un tipo de elemento filtrante diferente. Por lo tanto, con una matriz de filtros de color no se puede garantizar que el rayo láser incida en un elemento de filtro de un canal de color coincidente o en el canal rojo de la matriz de filtros de color y se transmita lo suficiente hacia el sensor de imagen. Por lo tanto, el uso de un láser de este tipo a 630 nm en combinación con el sensor de imagen y la matriz de filtros de color para el enfoque sería problemático, ya que podría dar lugar a una supresión no deseada de la luz láser a través de determinadas zonas o elementos de filtrado de la matriz de filtros de color.
Mediante el uso de un rayo láser en el rango del infrarrojo cercano según la invención y mediante el sensor de imagen que tiene la matriz de filtro de color dispuesta por delante, se aprovecha un efecto sorprendente: las matrices de filtro de color disponibles en el mercado pueden ser suficientemente transmisivas para la luz del rango del infrarrojo cercano en todos sus canales, o en todos sus subrangos de los diferentes canales de color, en particular para una longitud de onda superior a 780, preferentemente superior a 800 nm, en particular preferentemente igual o superior a 850nm.
Esto significa que el mismo sensor de imagen puede usarse tanto para capturar la imagen de fluorescencia en forma de imagen en color como para el enfoque mediante el rayo láser, aunque la matriz del filtro de color esté dispuesta por delante del sensor de imagen. Dado que la imagen de fluorescencia se captura como una imagen en color, también es posible que al usuario se le presente una imagen que no solo muestre decoloración y/o fluorescencia en un único canal verde, sino también decoloración y/o fluorescencia en otros rangos de colores o canales de color, como por ejemplo un canal rojo. Las imágenes de fluorescencia de las muestras biológicas, tales como los tejidos biológicos, no solo muestran una coloración verde pura debido a la unión de los colorantes fluorescentes, sino que también pueden mostrar coloraciones intrínsecas que no solo son visibles en una zona verde, sino también, por ejemplo, en una zona naranja o una marrón, de modo que entran en juego componentes rojos. Además, los tejidos o los órganos también pueden presentar la llamada autofluorescencia, que para el usuario también es visible en un rango de color naranja o marrón. El usuario, por ejemplo un médico, quiere entonces hacer un diagnóstico y a veces está acostumbrado a mirar por el ocular de un microscopio y percibir visualmente una vista de la imagen de fluorescencia sin más decoloraciones o selecciones de canales de color para luego hacer un diagnóstico. Si, tal como se sabe en el estado de la técnica, solo se usara un canal verde, al reproducir la imagen de fluorescencia el usuario no podría percibir componentes de color distinto en una imagen de fluorescencia de canal verde puro de este tipo. Por lo tanto, se proporciona ventajosamente un procedimiento en el que se puede usar un sensor de imagen con una matriz de filtro de color dispuesta por delante para obtener la imagen de fluorescencia como una imagen en color, por lo que este sensor de imagen con la matriz de filtro de color dispuesta por delante también se puede usar al mismo tiempo para enfocar usando el rayo láser en el rango del infrarrojo cercano. Esto significa que no se necesita ninguna cámara o sensor de imagen adicionales o independientes para la detección de un rayo láser reflejado.
Formas de realización ventajosas de la invención son el objeto de las reivindicaciones dependientes y se explican con más detalle en la siguiente descripción con referencia parcial a las figuras.
Preferentemente, la imagen de fluorescencia microscópica es una imagen digital en color, en particular con al menos un componente verde y un componente rojo. De manera especialmente preferente, la imagen digital en color tiene también un componente azul. Dichos componentes de color pueden representarse mediante una imagen digital en color correspondiente a un sistema de color RGB. Alternativamente, también es concebible que la imagen digital en color represente dichos componentes de color en un sistema de color diferente, tal como un sistema de color CMYK.
Según la invención, la matriz de filtro de color es una matriz con una pluralidad de canales de color, que preferentemente comprende al menos un canal verde y un canal rojo, y en particular preferentemente también un canal azul. De manera particularmente preferente, la matriz de filtros de color es una matriz RGB.
La longitud de onda es superior a 780 nm, preferentemente superior a 800 nm. La longitud de onda está preferentemente en un rango de 780 nm a 1000 nm, preferentemente en un rango de 800 nm a 1000 nm. En una forma de realización particular, la longitud de onda es de 850 nm.
La matriz del filtro de color es preferentemente una matriz de Bayer.
El fotosensor es preferentemente un sensor CMOS o un sensor CCD.
La detección del respectivo conjunto de valores de intensidad de píxeles para una distancia relativa correspondiente se realiza mediante la detección, preferentemente, de subconjuntos respectivos de valores de intensidad de píxeles de los canales de color respectivos, en los que el conjunto respectivo de valores de intensidad de píxeles se determina sobre la base del subconjunto respectivo de valores de intensidad de píxeles. Preferentemente, los valores de intensidad de los píxeles de un subconjunto respectivo se ponderan con un factor de escala predeterminado, que depende del tipo de canal de color al que pertenece el subconjunto respectivo de valores de intensidad de los píxeles. Esto permite compensar las diferencias de transmisividad de los distintos canales de color de la matriz de filtros de color.
Preferentemente, los respectivos canales de color de la matriz de filtros de color en la longitud de onda del rayo láser tienen una transmisividad respectiva que se desvía entre sí como máximo en un factor de 5. Esto permite determinar el conjunto respectivo de valores de intensidad de los píxeles a partir de las intensidades de los píxeles de los respectivos canales de color mediante el escalado de los valores de intensidad de los píxeles en función del canal de color, por lo que los valores de intensidad de los respectivos canales de color no se desvían unos de otros hasta el punto de que, con respecto a una relación señal-ruido, el escalado de los respectivos valores provoque un deterioro demasiado grande en función del tipo de canal de color.
El rayo láser es preferentemente un rayo paralelo sustancialmente colimado.
Preferentemente, una lente o un sistema de lentes que visualizan un plano focal del objetivo en el sensor de imagen están dispuestos en una trayectoria del haz de detección entre el objetivo y el sensor de imagen.
Preferentemente, se determina un valor de intensidad de píxel máximo o más alto como una métrica de enfoque respectiva para una distancia relativa respectiva basada en el conjunto respectivo de valores de intensidad de píxel. Además, se determina preferentemente un recorrido de los valores de intensidad de píxel más altos asignando el correspondiente valor de intensidad de píxel más alto a la respectiva distancia relativa. Preferentemente, la distancia relativa preferente se determina sobre la base de al menos un máximo del recorrido de los valores más altos de intensidad de los píxeles.
Preferentemente, la distancia relativa se modifica disminuyendo la distancia relativa desde una distancia máxima hasta una distancia mínima usando una primera resolución de distancia de manera que la curva tenga varios máximos. Preferentemente, se determina una distancia relativa temporalmente preferente sobre la base de los máximos múltiples. Preferentemente, la distancia relativa se incrementa entonces hacia la distancia relativa temporalmente preferente usando una segunda resolución de distancia que es mayor que la primera resolución de distancia, con la detección simultánea de otros valores de intensidad de píxel más altos como métrica de enfoque respectiva a otras distancias relativas. Preferentemente, la detección de la presencia de un máximo local se basa en los valores de intensidad de los píxeles más altos y la determinación de la distancia relativa final preferente como la distancia relativa en la que está presente el máximo local.
Se propone además un sistema de microscopía para obtener una imagen de fluorescencia microscópica de una área para la muestra que contiene una muestra biológica. El sistema de microscopía comprende un portaobjetos para sostener el área para la muestra que tiene al menos una interfaz, una fuente de láser para generar un rayo láser, una fuente de luz de excitación para emitir luz de excitación sobre el área para la muestra, al menos una lente objetivo adaptada para dirigir el rayo láser sobre el área para la muestra y además para efectuar el enfoque del rayo láser en un plano focal, y un sensor de imagen para detectar un conjunto de valores de intensidad de píxeles generados por el rayo láser en el área para la muestra, al menos una lente objetivo adaptada para dirigir el rayo láser hacia el área para la muestra y, además, para efectuar el enfoque del rayo láser en un plano de enfoque, y un sensor de imagen para detectar un conjunto de valores de intensidad de píxeles causados por el rayo láser reflejado en la interfaz y transmitido de vuelta a través del objetivo objetivo en los correspondientes píxeles del sensor de imagen.
El objetivo y el área para la muestra se pueden mover uno con respecto al otro a lo largo de un eje óptico del objetivo para cambiar una distancia relativa entre el objetivo y el área para la muestra.
El sistema de microscopía presenta, además, un procesador. El procesador está diseñado para controlar el objetivo y/o el portaobjetos de manera que el objetivo y el área para la muestra tengan distancias relativas respectivas y diferentes entre sí. El procesador está además adaptado para detectar, para una distancia relativa correspondiente, un conjunto respectivo de valores de intensidad de píxeles por medio del sensor de imagen y, además, para determinar una métrica de enfoque respectiva basada en el conjunto respectivo de valores de intensidad de píxeles. El procesador está además adaptado para determinar una distancia relativa preferente basada en la métrica de enfoque determinada. El procesador también está diseñado para controlar el objetivo y/o el portaobjetos de manera que se establezca la distancia relativa preferente, para activar la fuente de luz de excitación y para capturar la imagen de fluorescencia microscópica por medio del sensor de imagen. El sistema de microscopía se caracteriza porque el sensor de imagen es un fotosensor con una matriz de filtro de color dispuesta por delante, porque la imagen de fluorescencia microscópica es una imagen en color, en particular una imagen en color no monocromática, y porque el rayo láser tiene una longitud de onda en el rango del infrarrojo cercano.
A continuación, la invención se explicará con más detalle sobre la base de formas de realización específicas, sin limitar la idea general de la invención con referencia a las figuras. Se muestra:
La figura 1 una forma de realización preferente de un sistema de microscopía propuesto,
La figura 2 un área para la muestra ilustrativa con una muestra biológica,
La figura 3a un sensor de imagen,
La figura 3b una matriz de filtros de color,
Las figuras 4a, 4b y 4c ejemplos de intensidades de píxeles de un área parcial de una superficie de detección de un sensor de imagen con imágenes parciales registradas a diferentes distancias relativas,
La figura 4d es un ejemplo de una zona predeterminada dentro de la subzona,
La figura 4e un ejemplo de las intensidades de los píxeles de un sensor de imagen durante el enfoque, La figura 5 el recorrido de los valores de intensidad más altos en función de una distancia relativa, La figura 6 muestra otro ejemplo de un máximo local en una progresión de valores máximos en función de la distancia relativa, tal como se determina según una forma de realización del procedimiento; Las figuras 7a y 7b imágenes de píxeles de un rayo láser reflejado registradas por un sensor de imagen que usa una longitud de onda en el rango del infrarrojo cercano,
Las figuras 7c y 7d imágenes de píxeles resultantes de la detección de un rayo láser reflejado con una longitud de onda de 650 nm usando un sensor de imagen con una matriz de filtro de color situada por delante,
La figura 8 muestra la transmisividad de diferentes canales de color de una matriz de filtro de color a modo de ejemplo,
La figura 9 muestra una imagen de fluorescencia ilustrativa de un tejido como imagen en escala de grises, donde las intensidades de la imagen en escala de grises se basan en las intensidades de varios canales de color,
La figura 10 la imagen de fluorescencia ilustrativa con la identificación de dos estructuras de tejido, La figura 11 una porción verde pura de la imagen de fluorescencia con la identificación de las dos estructuras de tejido,
La figura 12 una porción roja pura de la imagen de fluorescencia con la identificación de las dos estructuras de tejido,
La figura 13 un diagrama de flujo para llevar a cabo los pasos del procedimiento según una forma de realización preferente.
La figura 1 muestra un sistema o un dispositivo de microscopía V en el que se proporciona un área para la muestra P en un portaobjetos OT. El área para la muestra P tiene una muestra biológica. La superficie de la muestra P se mantiene en un portaobjetos PH, que está montado preferentemente en una mesa T i que puede moverse en la dirección z o a lo largo de su su altura. La mesa TI y el portaobjetos PH pueden considerarse una unidad combinada o un portaobjetos combinado PH, TI.
El portaobjetos PH se puede desplazar en una dirección Z hacia un objetivo OB a lo largo de un eje óptico OA del objetivo. El objetivo OB también puede denominarse unidad óptica OE.
En este ejemplo mostrado aquí, el portaobjetos PH, TI se puede desplazar en relación con el objetivo OB. Alternativamente, el objetivo OB también se puede desplazar con respecto al portaobjetos PH, TI. La transitabilidad se refiere al establecimiento de una distancia relativa entre el área para la muestra P y el objetivo OB. En otras palabras, el objetivo OB y el área para la muestra P o el portaobjetos PH, TI se pueden desplazar uno con respecto al otro a lo largo del eje óptico OA del objetivo OB para cambiar la distancia relativa entre el objetivo OB y el área para la muestra P.
La área para la muestra P tiene al menos una interfaz.
La figura 2 muestra en detalle el área para la muestra 2, P. El área para la muestras 2 comprende un portaobjetos con un biochip incorporado, tal como se ilustra con más detalle en una vista esquemática en sección lateral de la Fig. 2. El área para la muestra 2 comprende un portaobjetos 41 que tiene una estructura en forma de placa con un hueco 43. Un biochip 45 está dispuesto en el hueco 43 del portaobjetos 41 y se fija a éste mediante un adhesivo 47. El interior del hueco 43 está lleno de glicerina 49, que rodea el biochip 45. Una muestra (biológica) 51 está colocada sobre el biochip 45. La muestra 51 queda así incorporada en la glicerina 49. Un cubreobjetos 53 cubre el hueco 43 con la muestra 51 en su interior rodeada de glicerina 49. El cubreobjetos 53 tiene una superficie superior 55 que forma una primera interfaz y una superficie inferior 57 que forma una segunda interfaz. La superficie 59 del biochip 45 forma una tercera interfaz. En particular, esta tercera interfaz 59 se determina en un procedimiento de enfoque según una realización de la presente invención.
La distancia relativa preferente (distancia vertical relativa entre el objetivo y el área para la muestra) se toma cuando el rayo láser del objetivo se enfoca en la superficie 59 (es decir, la tercera interfaz) del biochip 45. Una vez encontrada esta distancia relativa preferente, se pueden tomar una o varias imágenes eligiendo la zona de detección, preferentemente completa, del sensor de imagen, en particular cuando la muestra 51 se ilumina, por ejemplo, con una luz que estimula la fluorescencia.
Con el área para la muestra puede tratarse de un área para la muestra extendida en tres dimensiones, que por lo tanto se extiende en dos direcciones laterales así como también en una dirección de profundidad perpendicular a la misma. En particular, una muestra (biológica) puede situarse dentro del área para la muestra a una determinada profundidad, a partir de la cual debe registrarse una imagen enfocada, en particular una imagen de fluorescencia. De este modo, el procedimiento (y el sistema de microscopía) puede usarse en particular en el diagnóstico autoinmune para la evaluación de las preparaciones de inmunofluorescencia. En particular, el procedimiento y el sistema de microscopía pueden apoyar una prueba de inmunofluorescencia indirecta (IIFT). El procedimiento puede garantizar un procesamiento rápido de las muestras que hay que encontrar, lo cual requiere un enfoque rápido de las mismas.
Por ejemplo, la al menos una interfaz puede ser una interfaz plana, como por ejemplo entre un material sólido y el aire, entre un material sólido y un líquido, o entre un material sólido y una muestra (orgánica). La presencia de al menos una interfaz puede facilitar el enfoque o aumentar la fiabilidad del mismo.
Según una forma de realización de la presente invención, el procedimiento está configurado de tal manera que al menos una interfaz, en particular dos interfaces, no es adyacente al aire, donde el área para la muestra comprende en particular una muestra orgánica que descansa en un biochip, incorporada en una sustancia líquida y cubierta por un cubreobjetos, en donde, además, en particular el lado superior del cubreobjetos forma una primera interfaz, en donde el lado inferior del cubreobjetos forma una segunda interfaz y en donde la superficie del biochip forma una tercera interfaz. La muestra orgánica puede comprender, por ejemplo, una muestra histológica que ha sido teñida y/o enriquecida con uno o más marcadores fluorescentes o moléculas fluorescentes. Los marcadores fluorescentes o las moléculas fluorescentes pueden unirse a sitios o receptores predeterminados o antígenos en la muestra orgánica. La sustancia líquida puede incluir, por ejemplo, glicerol. La muestra orgánica puede ser, por ejemplo, una muestra orgánica húmeda, con lo cual se puede evitar que la muestra se seque. Las formas de realización de la invención permiten obtener imágenes de una muestra orgánica inmersa en un líquido (tridimensionalmente, es decir, esencialmente desde todos los lados). Las interfaces se pueden caracterizar por medio de un cambio en el índice de refracción por encima y por debajo de la interfaz. Por ejemplo, en la interfaz entre un medio líquido y un medio sólido, el índice de refracción puede cambiar menos que en una interfaz de aire a un medio sólido, por ejemplo, el vidrio. Cuanto menor sea el cambio del índice de refracción en la interfaz, menor puede ser la reflectancia en la interfaz. A pesar de una reflexión relativamente baja en la tercera interfaz, ésta puede ser detectada por medio del procedimiento según la invención.
Según la figura 1, el dispositivo V comprende una fuente de luz láser o una fuente láser LL que genera una luz láser o un haz láser LS. El haz láser lS se dirige a través de un divisor de haz SP2 en dirección al objetivo OB y entra en una abertura óptica OF del objetivo OB. El rayo láser es, en particular, un rayo paralelo sustancialmente colimado. El divisor de haz SP2 es en particular un divisor de haz que refleja una primera porción de potencia de una luz incidente y transmite una segunda porción de potencia de la luz incidente.
La luz láser, que se refleja en una interfaz del área para la muestra P, es entonces reflejada por el objetivo OB a través de un divisor de haz dicroico SP1 y un filtro óptico FI2 y el divisor de haz SP2 hacia un objetivo o una lente tubular TL. El objetivo tubular TL, junto con el objetivo, da lugar a una imagen del haz láser en un sensor de imagen BS, que es en particular un fotosensor PS. El sensor de imagen BS tiene dispuesta por delante una matriz de filtros de color FFM. El sensor de imagen BS y la matriz de filtros de color FFM forman parte preferentemente de una cámara K, que preferentemente tiene una óptica de cámara KO.
El objetivo OB está configurado de tal manera que rayos láser, que son paralelos entre sí como una trayectoria de rayos paralelos o como un haz de rayos paralelos colimados, inciden por su abertura óptica OF, orientada hacia la fuente de luz láser LL, sobre un punto de un plano focal del objetivo proyectado en el otro lado del objetivo, en donde el punto puede ser el punto focal o un punto desplazado en el plano focal con respecto al punto focal si el haz de rayos no discurre exactamente paralelo al eje óptico del objetivo. Los rayos láser que se reflejan exactamente desde este punto, en particular desde el punto focal, en el plano focal y desde allí entran de nuevo en el objetivo, se forman a su vez en una trayectoria de rayos paralelos en el lado de la abertura o en el lado óptico OF hacia el sensor de imagen BS.
Así, por ejemplo, si el rayo láser LS es un haz de rayos paralelo y colimado, el objetivo OB produce una proyección del rayo láser en toda su intensidad sobre un punto, en particular sobre el punto focal, en el plano focal del objetivo. La trayectoria del haz interceptado por el objetivo desde este punto, en particular este punto focal, que se agrupa al otro lado del objetivo para formar una trayectoria del haz paralela y colimada, puede proyectarse entonces mediante una lente TL, preferentemente una lente tubular, dispuesta a continuación del objetivo OB, sobre un punto de imagen en el que está dispuesto el sensor de imagen BS. Dicho con otras palabras, el objetivo OB y el objetivo tubular TL provocan una imagen del rayo láser reflejado en el sensor de imagen BS.
Para los fines de esta aplicación, el término plano focal también puede ser designado como el término de plano de la distancia focal. En particular, un diámetro de la sección transversal del rayo láser LS es sustancialmente igual a la abertura de entrada del objetivo OB. El orificio de entrada también puede denominarse apertura.
El objetivo OB puede comprender una o más lentes, que pueden estar dispuestas en serie a lo largo del eje óptico del objetivo. El objetivo puede proporcionar, por ejemplo, 10x, 20x o, por ejemplo, 40x aumentos y puede tener, a modo de ejemplo, una apertura numérica de entre 0,3 y 0,8. El diámetro del rayo láser paralelo y colimado se dimensiona preferentemente de tal manera que se ilumine toda la abertura del objetivo del microscopio.
Así, en el caso de que el haz láser LS sea una trayectoria de haz colimado y paralelo, el haz láser se proyecta entonces a través del objetivo OB sobre un punto del plano focal, que puede ser el punto focal, o un punto desplazado del punto focal, en el plano focal. El resultado es una intensidad óptica máxima del rayo láser en este punto del plano focal. En este caso, o en este ejemplo, el plano de enfoque y el plano focal coinciden. Si, al cambiar la distancia relativa, la interfaz del área para la muestra se encuentra exactamente en el plano focal, se produce una reflexión del rayo láser proyectado sobre el punto del plano focal de vuelta hacia el objetivo OB, en donde el objetivo OB y la lente tubular TL dan lugar entonces a una imagen de esta reflexión en un punto del sensor de imagen BS. De este modo, habrá al menos un píxel o un pequeño número de píxeles con una intensidad especialmente alta en una zona del sensor de imagen.
El sensor de imagen BS se muestra de nuevo en la Figura 3A. El sensor de imagen BS presenta diferentes píxeles individuales P11, ..., P14.
Una matriz de filtro de color FFM de la figura 3b está situada por delante del sensor de imagen. También se muestran los elementos individuales del filtro de color o los elementos de los canals de color P1 a P9. Un canal de color correspondiente está definido por una elección de color particular, que en este ejemplo de realización es una matriz de filtro de color RGB. Como alternativa, se puede concebir una matriz de filtros de color CMYK. El píxel P11 del sensor de imagen BS de la figura 3 está precedido, por ejemplo, por el elemento matricial P1. El elemento de píxel P14 de la figura 3a, por ejemplo, está precedido por el elemento de filtro de color P5. Cada uno de los elementos de filtro de color respectivo, en particular exactamente a un elemento de filtro respectivo, de la matriz de filtro de color FFM está preferentemente unido o asignado por delante un elemento de píxel respectivo del sensor de imagen BS.
Se puede obtener una imagen en color por medio de un sensor de imagen BS de la figura 3a con una matriz de filtro de color FFM de la figura 3b, dispuesta por delante, mediante el llamado procedimiento de reconstrucción o de demosaicing.
Según la figura 1, el dispositivo V presenta además una fuente de luz de excitación AL para emitir luz de excitación AS. Esta luz de excitación AS se filtra de nuevo, preferentemente mediante un filtro óptico Fl1, antes de ser dirigida mediante el divisor de haz dicroico SP1 hacia el objetivo OB y, por lo tanto, hacia el área para la muestra o sobre el área para la muestra. Esta luz de excitación se usa para excitar la fluorescencia en el área para la muestra P. La fuente de luz de excitación es preferentemente un LED, preferentemente un LED azul.
La radiación de fluorescencia FS de la muestra biológica puede entonces pasar desde el área para la muestra P de vuelta a través del objetivo OB, a través del divisor de haz SP2 y hacia un filtro óptico Fl2. El filtro óptico Fl2 filtra preferentemente la luz de la radiación de excitación AS. A continuación, la radiación de fluorescencia FS pasa por el divisor de haz SP2 y desde allí llega a la lente tubular TL, que, junto con el objetivo OB, hace que se forme una imagen en el sensor de imagen BS y en la matriz de filtros de color FM situada por delante del sensor. La combinación del filtro óptico Fl1, el filtro óptico Fl2 y el divisor de haz dicroico SP1 también puede denominarse unidad óptica OE2.
En otras palabras, el objetivo OB está configurado para dirigir el rayo láser sobre el área para la muestra y para causar el enfoque del rayo láser en un plano de enfoque. El sensor de imagen BS está diseñado para registrar un conjunto de valores de intensidad de píxeles que son causados por el rayo láser reflejado en la superficie límite del área para la muestra P y transmitido de vuelta, a través del objetivo, hacia los correspondientes píxeles del sensor de imagen, por lo que el rayo láser no solo es visualizado por el objetivo OB sino también, preferentemente, por el objetivo o por la lente tubular TL en el sensor de imagen BS.
De acuerdo con una forma de realización, una lente TL, en particular una lente tubular, está dispuesta en una trayectoria del haz de detección entre el objetivo OB y la superficie de detección, que visualiza un plano focal del objetivo sobre el sensor de imagen. Detrás del objetivo (o aguas abajo del haz de luz) puede haber una trayectoria de haces paralelos y los haces paralelos pueden ser visualizados por la lente tubular en un plano focal del lado de la imagen. Por lo tanto, un desplazamiento del objetivo con respecto a la lente tubular no tiene ninguna influencia, o ninguna sustancial, en la formación de imágenes de los rayos paralelos en el plano focal del lado de la imagen de la lente tubular. De este modo, en un punto determinado dentro del área parcial de la superficie de detección, solo llegan los rayos que han partido de un punto determinado y común en el plano focal del objetivo en diferentes direcciones, en particular el punto focal. Seleccionando adecuadamente el tamaño del área predeterminada, la luz parásita (que no se ha originado en diferentes direcciones en un punto del plano focal del objetivo en el lado del objeto) puede así ser excluida de la detección para el enfoque.
El sensor de imagen BS es un fotosensor, en particular un sensor CMOS o un sensor CCD. La matriz de filtros de color FFM es preferentemente una matriz Bayer.
La matriz de filtros de color FFM tiene preferentemente una pluralidad de canales de color, en particular al menos un canal verde y un canal rojo, y de manera particular preferentemente un canal azul.
El dispositivo V de la figura 1 tiene un procesador P que puede controlar el portaobjetos PH, TI a través de una interfaz SC4 por medio de una señal de control ST4, de tal modo que el objetivo OB y el área para la muestra P tienen distancias relativas respectivas y diferentes entre sí.
Por medio de una interfaz SC2, el procesador P está configurado para enviar una o más señales de control SC2 a la cámara K o al sensor de imagen BS, de tal modo que los valores de intensidad de los píxeles PW o los valores del sensor SW sean detectados por el sensor de imagen. El sensor de imagen BS proporciona entonces estos valores de intensidad de los píxeles PW o los valores del sensor SW al procesador P a través de la interfaz SC2. De este modo, mediante el sensor de imagen BS, el procesador P detecta un conjunto correspondiente de valores de intensidad de píxeles para una distancia relativa respectiva. El procesador P puede desplazar entonces el portaobjetos PH, TI de forma continua o gradual y capturar después una imagen respectiva o un conjunto de valores de intensidad de píxeles para las respectivas distancias relativas entre el objetivo OB y el área para la muestra P. De este modo, para una distancia relativa respectiva, se captura un conjunto separado y respectivo de valores de intensidad de los píxeles como una imagen o, preferentemente, una imagen parcial del sensor de imagen. Para una distancia relativa respectiva, el procesador P determina una métrica de enfoque correspondiente basada en el conjunto respectivo de valores de intensidad de píxeles o basada en la imagen respectiva para la distancia relativa correspondiente.
Un ajuste de la distancia relativa entre el área para la muestra P y el objetivo B se puede llecar a cabo preferentemente de manera alternativa por medio del procesador P, en el sentido de que el procesador P controla el objetivo OB a través de una interfaz SC6 por medio de una señal de control ST6, de forma que el objetivo OB cambia su distancia relativa a lo largo del eje óptico OA del objetivo OB con respecto al área para la muestra P.
Mediante una interfaz SC7, el procesador P puede activar o desactivar esta fuente de luz láser LL a través de una señal de control ST7.
Mediante una interfaz SC3, el procesador P puede activar o desactivar la fuente de luz de excitación AL a través de una señal de control ST3.
El procesador P determina una distancia relativa preferente entre el objetivo OB y el área para la muestra P basada en la métrica de enfoque determinada.
A continuación, el procesador P controla el objetivo OB y/o el portaobjetos PH de forma que se establezca la distancia relativa preferente, que se active la fuente de luz de excitación AL y que mediante el sensor de imagen BS se capture la imagen de fluorescencia microscópica como imagen en color.
El registro de la imagen de fluorescencia microscópica como imagen en color la lleva a cabo el procesador mediante la recepción por parte del procesador P de los valores de píxel PW o de los valores de sensor SW del sensor de imagen BS, a través de la interfaz SC2, y la generación de una imagen en color correspondiente sobre la base de estos valores de píxel.
El procesador P no tiene que ser necesariamente una parte integral del dispositivo V y puede estar lógicamente separado del dispositivo, tal como se muestra en la Figura 1, por una separación lógica TR. En este caso, las interfaces SC2, SC7, SC3, SC6, SC4 pueden combinarse total o parcialmente como una o más interfaces de datos, en particular con cable o sin cable, es decir, inalámbricas, en particular en forma de interfaz de red de área local (LAN).
Preferentemente, el procesador P presenta una interfaz SC1 hacia una red N. La red N es preferentemente una red de datos, tal como por ejemplo Internet.
A través de la interfaz SC1, el procesador P puede recibir preferentemente de la red N una señal de entrada ES que indica una solicitud al procesador P para que se realice el procedimiento propuesto con el fin de provocar el enfoque y capturar la imagen de fluorescencia como imagen en color.
Preferentemente, el procesador P tiene una interfaz SC5 hacia una unidad de salida, a través de la cual el procesador puede proporcionar datos de imagen BD. La unidad de salida AE puede ser entonces, por ejemplo, un monitor o una pantalla, de modo que los datos de imagen BD pueden ser, por ejemplo, datos de imagen digital según la norma HTMI. Son posibles otros estándares de datos de imagen. La unidad de salida AE puede a su vez, en una forma de realización, ser una interfaz de red a través de la cual el procesador transmite los datos de imagen BD en forma digital a una red por medio de la interfaz SC5. La interfaz SC5 y la interfaz SC1 pueden darse también en forma de interfaz integral o de una interfaz igual en el caso de que la unidad de salida AE sea una interfaz de red.
La Fig. 4e muestra una imagen global de un reflejo láser puntual registrado desde toda la superficie de un sensor de imagen en escala de grises sin una matriz de filtro de color dispuesta por delante para una longitud de onda de 650 nm. Por ejemplo, la imagen completa 63 es de 1024 x 1024 píxeles.
Preferentemente, solo se lee un área parcial del sensor de imagen o de los píxeles mientras se modifica la distancia relativa entre el objetivo OB y el área para la muestra P.
Las Figs. 4a, 4b y 4c ilustran, como valores de gris de una imagen de un rayo láser reflejado para diferentes distancias relativas, ejemplos de áreas parciales 65a, 65b, 65c y los valores de intensidad de los píxeles o las intensidades detectadas por los píxeles contenidos en ellas. Las áreas parciales 65a, 65b, 65c pueden estar formadas por 16 x 16 píxeles, por ejemplo. Los valores de intensidad de los píxeles del área parcial 65a corresponden entonces a un conjunto de valores de intensidad de píxeles para una distancia relativa. Lo mismo ocurre con las áreas 65b y 65c para otras distancias relativas. Así, las Figs. 4a, 4b y 4c ilustran las intensidades de los píxeles o las imágenes formadas a z = -0,5 pm, z = 0 pm y z = 0,5 pm en relación con la distancia relativa entre el objetivo y el área para la muestra, con la superficie 59 del biochip 45 colocada en el plano focal del objetivo, de tal modo que se supone que la distancia relativa a determinar es z = 0 pm. También se ilustra el correspondiente valor de intensidad más alto Gmax. Si el plano focal del objetivo se aleja de la superficie límite correspondiente en el portaobjetos (véase la Fig. 4a, 4c), la señal láser se debilita o amplía. Las Figs. 4a, 4b y 4c muestran claramente que la modulación de los píxeles individuales disminuye significativamente ya en los desplazamientos de aproximadamente /- 500 nm, es decir, la mayor intensidad de los píxeles en el área parcial es mayor cuando se presupone exactamente la distancia relativa preferente, es decir, en el caso de la Fig. 4b. Usando el sistema aquí descrito con un enfoque del rayo láser en un punto focal en el plano focal del objetivo, se puede conseguir una resolución espacial especialmente precisa de la posición z. Si se proyectara un patrón completo y extendido en dos dimensiones sobre varios píxeles del área parcial, este patrón tendría una mayor extensión espacial que el rayo láser usado aquí, incluso en la posición de enfoque ideal, por lo que la resolución espacial en la dirección z también sería más burda o menos precisa. Por ejemplo, si se usa el valor de intensidad de píxel más alto como métrica de enfoque, hay más ventajas: En el caso de la proyección de un patrón, no bastaría con considerar una sola intensidad de píxel más alta del área parcial como medida de enfoque, sino que habría que combinar varios píxeles y, mediante un análisis conjunto de los diversos píxeles, determinar un enfoque relacionado con el patrón bidimensional como medida de enfoque, lo que evidentemente llevaría más tiempo que considerar la intensidad de píxel más alta o máxima del sensor de imagen o de un área parcial del mismo.
La Fig. 4d ilustra un ejemplo de un área o un área parcial predeterminadas 66 preferentemente usadas en la que se detectan y evalúan los valores de intensidad para determinar preferentemente un valor de intensidad de píxel más alto o máximo para esta área (65a, 65b, 65c).
Por lo tanto, para cada imagen parcial registrada para una distancia relativa dada, se puede determinar preferentemente el valor de gris o de intensidad del píxel más alto. Conociendo la señal de solicitud ST4 al dispositivo de mesa TI 37, el procesador P puede realizar la vinculación de los datos de la cámara o de los valores de intensidad con las distancias relativas asociadas y, además, determinar la distancia relativa preferente.
Las reflexiones de un rayo láser mostradas en las figuras 4a, 4b, 4c y 4e como valores de píxel de un sensor de imagen se muestran para el caso de que no haya ninguna matriz de filtro de color dispuesta por delante del sensor de imagen y que, como resultado, no se produzca ningún cambio en la intensidad de píxel del rayo láser reflejado de la longitud de onda de 650 cm debido a las diferentes áreas parciales de una matriz de filtro de color.
Las figuras 7c y 7d muestran valores de intensidad de píxel ilustrativos resultantes en el caso de que se use una longitud de onda de láser de 635 nm cuando se usa un sensor de imagen con una matriz de filtro de color dispuesta por delante. La figura 7c muestra la distribución de la intensidad resultante sobre el área del píxel en el caso de un ligero desenfoque. Es evidente que no todos los píxeles tienen una intensidad esperada, sino que ciertos píxeles están prácticamente en blanco porque estos píxeles están situados detrás de elementos de filtro de color que no están asignados a un canal rojo y que, por lo tanto, no transmiten suficientemente la luz de la longitud de onda de 635 nm.
La figura 7d muestra los valores de intensidad de los píxeles resultantes cuando se usa un sensor de imagen con una matriz de filtro de color dispuesta por delante para el caso de un enfoque. A diferencia de la figura 4b, aquí no se aprecia ningún punto claro con una alta intensidad del rayo láser reflejado, pero también aquí en la figura 7b los píxeles individuales están prácticamente borrados. Este enmascaramiento de ciertos píxeles en el curso de la captura de los valores de intensidad de los píxeles resultantes como representación de uno de los rayos láser reflejados puede tener un impacto negativo sobre las métricas de enfoque que hay que determinar. En otras palabras: Los valores de intensidad de los píxeles resultantes de las figuras 7c y 7d están sujetos a artefactos causados por las diferentes transmisiones de los diferentes canales de color de la matriz del filtro de color. Estos artefactos influyen en la métrica de enfoque que se va a determinar, por lo que se puede dificultar o falsear el resultado de la determinación de la distancia relativa preferente. El resultado final puede ser entonces que no haya suficiente enfoque para capturar la imagen de fluorescencia.
Una métrica de enfoque a modo de ejemplo puede ser un valor de intensidad de píxel más alto o máximo dentro de un área parcial, tal como se muestra en las Figuras 7c o 7d. Las métricas de enfoque alternativas mencionadas en el presente documento pueden basarse, por ejemplo, en uno o varios de los siguientes operadores: media ponderada de las intensidades de los píxeles en la zona de la imagen seleccionada, evaluación de la media de las intensidades de los píxeles, evaluación del máximo o de la media de la imagen de borde de las intensidades de los píxeles. En particular, se puede obtener una imagen de borde usando uno de los operadores Prewitt, el operador Sobel, el operador Laplaciano-de-Gauss/Marr-Hildreth o la Diferenciade-Gauss. Estos operadores son especialmente susceptibles o sensibles a los artefactos, como se observa en las figuras 7c y 7d.
La Figura 7a y la Figura 7b muestran los valores de intensidad de los píxeles resultantes en el caso de que, al usar el sensor de imagen y la matriz de filtros de color de la Figura 1, se use también un láser en el rango del infrarrojo cercano, en particular a 850 nm. Claramente visible para el caso de un ligero desenfoque de la figura 7a es una distribución esperada de la intensidad de un píxel, como también se mostró anteriormente en la figura 4a. Ahora se puede determinar una métrica de enfoque de forma robusta y fiable.
La figura 7b muestra, en el caso de un enfoque casi exacto, un rayo láser reflejado con gran nitidez y con una gran intensidad en una región central, tal como se muestra en una realización similar en la figura 4b.
La solución según la invención que usa el sensor de imagen y la matriz de filtro de color dispuesta por delante permite, debido a la elección de la longitud de onda del rayo láser en el rango del infrarrojo cercano, obtener imágenes respectivas o conjuntos respectivos de valores de intensidad de píxeles a las distancias relativas correspondientes, tal como se muestra en las figuras 7a y 7b, y determinar después de forma fiable y robusta las métricas de enfoque respectivas para las distancias relativas respectivas basadas en las imágenes correspondientes o en los conjuntos respectivos de valores de intensidad de píxeles.
Pueden surgir problemas de falta de alineación del rayo láser reflejado con respecto a zonas parciales de la matriz del filtro de color, en particular si el área para la muestra P no es perfectamente perpendicular al eje óptico OA del objetivo OB de la figura 1. En el caso de que el área para la muestra P esté ligeramente inclinada con respecto al eje óptico OA del objetivo OB, puede ocurrir que el rayo láser retroreflectado LS, que se dirige hacia el sensor de imagen BS, sea ligeramente oblicuo con respecto al plano de la matriz del filtro de color FFM.
Si la distancia relativa entre el área para la muestra P y el objetivo OB se modifica entonces por partes o gradualmente, o también de forma continua, puede ocurrir que el rayo láser LS incida en la matriz del filtro de color FFM de forma que para diferentes distancias relativas el rayo láser incida en cada caso en diferentes áreas parciales P1, .., P9 para diferentes distancias relativas, entonces, dependiendo de la correspondiente distancia relativa que se establezca entre el objetivo OB y el área para la muestra P, el rayo láser se transmite en diferente medida a través de las diferentes áreas parciales P1, ..., P9 de la matriz de filtro de color FFM.
Esto se compensa con la invención en el sentido de que se puede seguir usando un sensor de imagen BS con una matriz de filtro de color FFM dispuesta por delante, ya que el láser se selecciona con una longitud de onda en el rango del infrarrojo cercano.
La figura 8 muestra las transmisividades T1, T2, T3 para los respectivos canales de color para una matriz de filtro de color a modo de ejemplo. La transmisividad T1 muestra un canal azul, la transmisividad T2 muestra un canal verde, la transmisividad T3 muestra un canal rojo. El sensor de imagen con matriz de filtro de color usado aquí es preferentemente un sensor SONY IMX250.
Se traza una longitud de onda WA de 650 nm. En esta longitud de onda WA, los elementos de filtro de color como el elemento P8 de la figura 3b no son lo suficientemente transmisivos, por lo que al usar un sensor de imagen BS con la matriz de filtro de color FFM dispuesta por delante, habría que usar un sensor de imagen separado en un canal rojo separado en esta longitud de onda WA del láser.
Esto se evita con la invención porque la longitud de onda del láser se usa en un rango que comienza con la longitud de onda W1 de 780 nm, preferentemente desde el rango de longitud de onda W2 de 800 nm hasta la longitud de onda W3 de 1000 nm. Como puede verse en la figura 8, la transmisividad de los elementos de filtro de color en los respectivos canales de color es lo suficientemente alta, especialmente a partir del rango de longitudes de onda W2, de modo que las imágenes de los rayos láser reflejados pueden determinarse mediante un escalado de los valores de intensidad de los píxeles o un escalado de la información individual de los canales de color, como se explica con más detalle a continuación, tal como se muestra en las figuras 7a y 7b. El uso de la longitud de onda de 850 nm en la longitud de onda W3 de la figura 8 es especialmente ventajoso, ya que aquí se puede omitir un escalado de la información de los canales de color individuales, puesto que las diferencias de transmisividad de los canales de color individuales son suficientemente pequeñas.
La detección de un conjunto correspondiente de valores de intensidad de píxeles para una distancia relativa respectiva se lleva a cabo mediante la detección, preferentemente, de subconjuntos respectivos de valores de intensidad de píxeles para los respectivos canales de color, en los que el conjunto correspondiente de valores de intensidad de píxeles se determina sobre la base de los subconjuntos. El sensor de imagen proporciona preferentemente un subconjunto respectivo de píxeles o un subconjunto respectivo de valores de intensidad de píxeles para cada canal de color, por lo que para cada píxel o cada valor de intensidad de píxel se indica también su posición espacial bidimensional. De este modo, el procesador de la figura 1 puede determinar o componer el conjunto de valores de intensidad de los píxeles a partir de los subconjuntos. En este caso, el procesador puede proporcionar un factor de escala correspondiente para un canal de color respectivo, en particular mediante una unidad de memoria, de tal modo que los valores de intensidad de los píxeles de un subconjunto de un canal de color específico se multiplican primero por el factor de escala específico asignado al canal de color antes de que el procesador determine o componga el conjunto de valores de intensidad de los píxeles a partir de los subconjuntos. Los valores de intensidad de los píxeles de un subconjunto respectivo se ponderan así con un factor de escala predeterminado, que depende del tipo de canal de color al que pertenece el subconjunto respectivo de valores de intensidad de los píxeles. Esto permite compensar las diferencias de transmisividad de cada uno de los canales de color de la matriz de filtros de color en la longitud de onda del láser.
Preferentemente, el valor de intensidad más alto de un área parcial del sensor de imagen puede ser usado como la métrica de enfoque. Así, preferentemente en un área parcial del sensor de imagen, el valor de intensidad más alto dentro del área parcial puede usarse simplemente para obtener una métrica de enfoque o una medida del enfoque del área para la muestra. En este caso preferente, debido al uso del valor de intensidad de píxel más alto descrito aquí, no se requiere ningún otro procesamiento o filtrado de los valores de intensidad de píxel, a veces numerosos, del sensor de imagen o de un área parcial del sensor de imagen; en su lugar, solo es necesario determinar cuál es el valor de intensidad más alto dentro del sensor de imagen o del área parcial considerada que corresponde a la distancia relativa correspondiente. En este caso, no es importante qué píxel ha detectado el valor máximo de los valores de intensidad, por lo que el procedimiento es especialmente rápido. Si el área para la muestra se desplaza más en relación con el objetivo a una distancia relativa diferente, el rayo láser no se refleja en un único punto, que antes era el punto del plano focal y, en particular, el punto focal, sino que la reflexión se produce en una zona plana del área para la muestra o de la interfaz. Esto significa que la intensidad óptica del rayo láser se distribuye en una zona más amplia del área parcial que cuando el rayo láser solo se refleja en un único punto del plano focal. Por lo tanto, dentro del área parcial en el sensor de imagen, resultan valores de intensidad que, en su conjunto, todavía representan o pueden representar la intensidad óptica completa del rayo láser, por lo que el valor de intensidad más alto es también menor que el valor de intensidad más alto en la configuración en la que el rayo láser se refleja por medio de la superficie límite exactamente en el único punto del plano focal. Así, mediante la evaluación del área parcial o de sus píxeles, no es necesario filtrar exactamente un patrón reflejado, por ejemplo, mediante una abertura, sino que la evaluación del valor de intensidad más alto para una distancia relativa respectiva permite un enfoque o una determinación especialmente sencilla y rápida de la posición de desplazamiento relativa de referencia con una resolución espacial especialmente alta. En el caso de que haya varias interfaces, se puede detectar una tercera interfaz, por ejemplo, mediante el recorrido de los valores de intensidad más altos para determinar una distancia relativa preferente. De este modo, se puede aumentar la sensibilidad del procedimiento y una extensión del rayo láser fotografiado en la dirección de la profundidad puede asemejarse esencialmente a una profundidad de enfoque de la óptica.
La Fig. 5 ilustra un ejemplo de un recorrido 67 de los valores de intensidad de píxel más altos (determinados para cada distancia relativa) en función de la distancia relativa como recorrido 67 en un sistema de coordenadas, donde la distancia relativa (posición Z) se traza en una abscisa 69 y donde el valor de intensidad de píxel más alto respectivo en el área parcial a la distancia relativa asociada se traza en la ordenada 71. El valor Z más bajo indica una posición en la que el área para la muestra está más alejada del objetivo, el valor Z más alto indica una posición en la que el área para la muestra está más cerca del objetivo. En primer lugar, el objetivo y el área para la muestra se mueven una respecto de la otra reduciendo una distancia relativa entre el objetivo y el área para la muestra desde una distancia máxima hasta una distancia mínima con una primera resolución de distancia, con lo que se determina el recorrido de los valores de intensidad de los píxeles más altos, que tiene varios máximos. En particular, el recorrido tiene un primer máximo local 73, luego un segundo máximo local 75 y finalmente un tercer máximo local 77 del recorrido.
La curva 67 muestra un patrón de señal característico ("señal de autoenfoque"), que se basa en la geometría del área para la muestra tal como se ilustra en la Fig. 2. Dado que se conoce la estructura del área para la muestra 2, a partir de la curva de señal 67 puede determinarse la posición Z del biochip 45, en particular la superficie 59 del biochip 45.
La curva 67 (señal de autoenfoque) tiene un primer máximo 73, que se origina en la reflexión del rayo láser 19 en la primera interfaz 55 (superficie superior del cubreobjetos 53). Además, la curva 67 tiene un segundo máximo 75, que resulta de la reflexión del rayo láser 19 desde la superficie inferior 57 (segunda interfaz) del cubreobjetos 53. Finalmente, la curva 67 tiene un tercer máximo 77, que proviene de la reflexión del rayo láser 19 desde la superficie 59 del biochip 45 (tercera interfaz). La posición focal de la superficie del biochip 59 o la distancia relativa resulta de la determinación de la posición Z 79 del tercer máximo de señal 77.
Con la ayuda de un controlador o de un procesador y un medio de accionamiento para mover el objetivo 3, el objetivo 3 puede entonces retroceder en la dirección de la ubicación de enfoque determinada o de la distancia relativa preferente mientras se aumenta la distancia entre el objetivo y el área para la muestra. La distancia relativa preferente es entonces, en particular, una distancia relativa preferente temporalmente. Esto se hace, en particular, usando una segunda resolución de distancia, que es más alta o más fina que la primera resolución de distancia. La longitud del movimiento es controlada por la señal de autoenfoque de tal manera que es monitoreada y evaluada simultáneamente con el movimiento en Z. En este caso, se determinan otros valores de intensidad de píxel más altos a otras distancias relativas respectivas, así como una detección de la presencia del máximo 82 de la figura 6 sobre la base de los otros valores de intensidad de píxel más altos. Preferentemente, en el caso de que el haz láser tenga un haz paralelo colimado hacia el objetivo y, además, el plano focal del haz láser coincida con el plano focal del objetivo, la distancia relativa final se ajusta a una posición final tal que el máximo local detectado sobre la base de los valores de intensidad de píxel más altos esté o haya estado presente.
A este respecto, la Fig. 6 ilustra una señal de autoenfoque resultante de la reflexión del rayo láser 19 desde la superficie 59 del biochip 45, es decir, un tercer máximo 82 de un recorrido en una posición 85. El recorrido 81 de los valores de intensidad más altos en el área parcial en función de la posición Z en la abscisa 83 se determinó usando un objetivo con 20 aumentos con una apertura numérica de 0,5, para lo cual se utilizó un láser con una longitud de onda de emisión de A0 = 635 nm. La resolución axial de esta señal 81 puede determinarse, por ejemplo, a partir de la anchura del valor medio A de aproximadamente 2,1 pm. La distancia relativa final preferente 85 puede determinarse, por ejemplo, como la posición Z en la que se produce el máximo 82 o como centro de gravedad de la curva 81 o centro de gravedad del máximo 82. El objetivo puede entonces ser desplazado en relación con el área para la muestra hasta la distancia relativa final preferente 85 en la que se produjo el máximo 82 de los otros valores de intensidad más altos.
La posición de enfoque como distancia relativa final preferente se considera preferentemente alcanzada y el movimiento de desplazamiento se detiene preferentemente cuando se cumplen las siguientes condiciones juntas:
- Se ha superado un valor umbral de la señal de autoenfoque previamente definido. Este valor umbral se determina a partir de la altura de la señal de autoenfoque previamente determinada.
- La señal de autoenfoque alcanza un máximo local 82.
Sin embargo, la superficie del biochip no tiene que representar el plano óptimo de obtención de imágenes para la microscopía de fluorescencia, ya que en algunos casos el espesor de la capa de la muestra 51 puede ser mayor que la profundidad de campo del sistema de microscopía. Por lo tanto, se pueden tomar varias imágenes de fluorescencia alrededor de la posición de enfoque determinada o de la distancia relativa final preferente. Por lo tanto, a partir de la distancia relativa final preferente, se pueden capturar varias imágenes del área para la muestra mediante el sensor de imagen. En este caso, la distancia relativa del objetivo y el área para la muestra entre sí a lo largo del eje óptico se cambia a las respectivas distancias relativas por encima y/o por debajo de la distancia relativa final preferente. Además, las imágenes se capturan a las correspondientes distancias relativas por medio del sensor de imagen. A continuación, el procesador almacena las respectivas imágenes y determina las respectivas métricas de enfoque para las imágenes correspondientes. A continuación, el procesador selecciona la imagen que tiene la mejor métrica de enfoque. Preferentemente, el procesador descarta las otras imágenes que no tienen la mejor métrica de enfoque.
Como se muestra en la Fig. 5, los máximos tienen alturas de señal de un cierto patrón. A partir del recorrido, preferentemente puede detectarse de forma fiable el tercer máximo 77, por ejemplo, si la altura de señal del máximo local 77 es mayor que un valor umbral previamente determinado o predeterminado y si, además, un máximo local está realmente presente, es decir, si los valores de intensidad a la derecha y a la izquierda de la distancia relativa preferente 79 son menores que la intensidad exactamente en la distancia relativa preferente. De este modo, se puede determinar de forma fiable la distancia relativa preferente a la que se enfoca el rayo láser en la superficie del biochip. Para poder separar entre sí de una forma fiable los máximos 73, 75 y 77, según una forma de realización de la presente invención, la resolución del sistema de autoenfoque es aproximadamente igual a la profundidad de campo del sistema de microscopía. Mediante la evaluación de una intensidad de píxel máxima o de la intensidad de píxel más alta, se puede obtener una alta resolución espacial del procedimiento de enfoque en la dirección Z.
Según una forma de realización de la presente invención, el procedimiento está configurado de tal manera que una distancia relativa entre el objetivo y el área para la muestra se reduce primero a partir de una distancia máxima mientras se detectan los valores de intensidad de los píxeles del área parcial, de tal manera que, en particular, se detecte un primer máximo local resultante de la reflexión del haz láser desde la primera interfaz, después un segundo máximo local resultante de la reflexión del haz láser desde la segunda interfaz y, por último, un tercer máximo local resultante de la reflexión del haz láser desde la tercera interfaz. El primer máximo local puede ser un máximo global del recorrido de los máximos en función de la distancia relativa. Si se detectan los tres máximos (locales) en el recorrido de los máximos en función de la distancia relativa, se puede mejorar la fiabilidad del enfoque. En el recorrido de los máximos en función de la distancia relativa, se puede determinar un máximo (local), por ejemplo, cuando se supera un determinado valor umbral de la intensidad del píxel. El valor del umbral puede derivarse, por ejemplo, del máximo (local) detectado previamente. El primer máximo local puede ser mayor que el segundo máximo local y el segundo máximo local puede a su vez ser mayor o de la misma altura que el tercer máximo local. Si se detecta esta secuencia de máximos, se puede aumentar la fiabilidad de la identificación de las interfaces y, por tanto, la determinación del enfoque. La distancia relativa preferente se determina entonces en función del tercer máximo.
La figura 9 muestra, a modo de ejemplo, una imagen de fluorescencia de un tejido como imagen en escala de grises, en la que las intensidades de la imagen en escala de grises se basan en las intensidades de varios canales de color, en particular un canal verde, un canal rojo y un canal azul. Se muestra una imagen de fluorescencia de un riñón de rata después de la incubación con el suero de un paciente y un anticuerpo secundario marcado con un colorante fluorescente.
Para un usuario o un médico que vaya a preparar un diagnóstico, es entonces especialmente importante saber qué valor de brillo o de intensidad procede de qué rango de colores o espacio de color.
La figura 10 muestra la misma imagen de fluorescencia que en la figura 9, además con dos estructuras SK1, SK2 delineadas, presentando o brillando ambas con un cierto grado de brillo.
Por un lado, resplandor de este tipo puede ser causado por la excitación de un colorante fluorescente unido al el tejido. Alternativa o adicionalmente, puede haber también una llamada autofluorescencia del tejido en un rango marrón o naranja, es decir, con un componente rojo, que es independiente de la unión de tintes fluorescentes del anticuerpo secundario al tejido. Además, un zona de tejido también puede ser iluminada por la luz de la fuente de luz de excitación, que es reflejada por el tejido.
La Figura 11 muestra información del canal verde puro de la misma imagen que en las Figuras 9 y 10. Es claramente evidente que la estructura SK1 brilla más en un canal verde o con un componente verde que en el caso de la estructura SK2.
La Figura 12 muestra información del canal rojo puro de la misma imagen de en las Figuras 9 y 10. Aquí es evidente que tanto la estructura SK1 como la estructura SK2 brillan en el canal rojo o con un componente rojo en aproximadamente el mismo grado.
De este modo, puede quedar claro que las estructuras SK1 y SK2 de las figuras 9 y 10, que tienen una luminosidad similar, están iluminadas debido a componentes de color diferentes. La estructura SK1 está dominada por su componente verde, mientras que tanto la estructura SK1 como la SK2 brillan en igual medida con un componente rojo. Por lo tanto, es ventajoso para un examinador médico que se le presente la información de color completa de un tejido o de una imagen de fluorescencia como una imagen de color con un componente rojo y un componente verde, para poder concluir a partir de la imagen de color, sobre la base de las diferentes coloraciones, si el brillo o la fluorescencia es
- para detectar la fluorescencia debida únicamente a la autofluorescencia, o
- para detectar la autofluorescencia junto con la fluorescencia debida a la unión de un anticuerpo específico del suero del paciente junto con la unión del anticuerpo secundario marcado con el colorante fluorescente.
Por lo tanto, el procedimiento según la invención, así como el dispositivo según la invención, son particularmente ventajosos, ya que mediante un único sensor de imagen y la matriz de filtro de color, por un lado, la imagen de fluorescencia puede registrarse como una imagen digital en color con un componente verde y un componente rojo, sin embargo, al mismo tiempo, también se puede detectar una reflexión del rayo láser mediante el mismo sensor de imagen con una matriz de filtro de color dispuesta por delante, sin necesidad de usar otro sensor de imagen para provocar el enfoque, ya que el láser tiene una longitud de onda en el rango del infrarrojo cercano.
La figura 13 muestra un diagrama de flujo de los pasos realizados por el procesador según una forma de realización preferente.
En un paso S1, el procesador proporciona la señal de control ST7 para activar una fuente de luz láser. En un paso S2, el procesador proporciona la señal de control ST4 y/o ST6 para accionar el objetivo y/o el portaobjetos de manera que el objetivo y el portaobjetos tengan las correspondientes distancias relativas que son diferentes entre sí. En un paso S3, el procesador obtiene conjuntos respectivos de valores de intensidad de píxeles para las correspondientes distancias relativas, recibiendo del sensor de imagen con el conjunto de filtros de color dispuestos por delante un conjunto respectivo de valores de intensidad de píxeles para una distancia relativa respectiva.
Preferentemente, en el paso S3, en particular, se detecta el respectivo conjunto de valores de intensidad de píxeles mediante la detección de los subconjuntos correspondientes de valores de intensidad de píxeles de los canales de color respectivos para la distancia relativa correspondiente. Para ello, el procesador recibe del sensor de imagen los respectivos subconjuntos de valores de intensidad de los píxeles de los respectivos canales de color. A continuación, el procesador determina el conjunto correspondiente de valores de intensidad de los píxeles basándose en los subconjuntos respectivos de los canales de color respectivos mediante el escalado dependiente del canal de color de los valores de intensidad de los píxeles y mediante la composición del conjunto de valores de intensidad de los píxeles a partir de los subconjuntos respectivos escalados de los valores de intensidad de los píxeles.
En un paso S4, el procesador determina una métrica de enfoque respectiva para una distancia relativa respectiva basada en el conjunto correspondiente de valores de intensidad de píxel detectados o determinados para la distancia relativa respectiva.
En un paso S5, el procesador establece la distancia relativa preferente mediante la señal de control ST4 y/o la señal de control ST6. En un paso S6, el procesador activa la fuente de luz de excitación mediante la señal de control ST3.
En un paso S7, el procesador recibe los valores de intensidad de los píxeles del sensor de imagen y así determina uobtiene la imagen de fluorescencia microscópica por medio del sensor de imagen (BS),
Debe entenderse que las características descritas, explicadas o proporcionadas individualmente o en cualquier combinación en relación con el procedimiento de adquisición de una imagen de un área para la muestra pueden aplicarse igualmente, de manera individual o en cualquier combinación, a un sistema de microscopía para obtener una imagen de un área para la muestra, de acuerdo con las realizaciones de la presente invención.
Dependiendo de los requisitos específicos de implementación, los ejemplos de realización de la invención pueden implementar el procesador en hardware y/o en software. El procesador mencionado aquí puede ser implementado como mínimo en forma de una red o de varias unidades agrupadas en un conjunto. La implementación puede llevarse a cabo usando un medio de almacenamiento digital, por ejemplo, un disquete, un DVD, un disco Blu-Ray, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria FLASH, un disco duro o cualquier otra memoria magnética u óptica en la que se almacenen señales de control legibles electrónicamente, que puede interactuar o cooperar con un componente de hardware programable de manera que se lleve a cabo el procedimiento respectivo. Un componente de hardware programable puede estar formado como una unidad de control por un procesador informático (CPU = Unidad Central de Procesamiento), un ordenador, un sistema informático, un circuito integrado de aplicación específica (ASIC = Circuito Integrado de Aplicación Específica), un circuito integrado (IC = Circuito Integrado), un sistema de un solo chip (SOC = Sistema en Chip), un elemento lógico programable o una matriz de puertas programables en campo con un microprocesador (FPGA = Matriz de Puertas Programables en Campo). Por lo tanto, el medio de almacenamiento digital puede ser legible por máquina o por ordenador. Por lo tanto, algunas realizaciones comprenden un soporte de datos que tiene señales de control legibles electrónicamente capaces de interactuar con un sistema informático programable o un componente de hardware programable de manera que se realice cualquiera de los procedimientos descritos en el presente documento. Generalmente, las realizaciones o partes de las realizaciones de la presente invención pueden implementarse como un programa, un firmware, un programa de ordenador o un producto de programa de ordenador que tiene un código de programa o datos, siendo el código de programa o los datos efectivos para realizar uno de los procedimientos o una parte de un procedimiento cuando el programa se ejecuta en un procesador o en un componente de hardware programable.

Claims (14)

REIVINDICACIONES
1. Procedimiento de adquisición de una imagen de fluorescencia microscópica de una área para la muestra (P) con una muestra biológica, que comprende:
- dirigir un rayo láser (LS) por medio de al menos un objetivo (OB) sobre el área para la muestra (P), que tiene al menos una interfaz (59), efectuando el objetivo (OB) un enfoque del rayo láser (OB) en un plano de enfoque,
- modificar la distancia relativa entre el objetivo (OB) y el área para la muestra (P) a lo largo de un eje óptico (OA) del objetivo (OB) para efectuar las correspondientes distancias relativas diferentes, - para una distancia relativa respectiva,
o detectar un conjunto correspondiente de valores de intensidad de los píxeles, causados por el rayo láser (LS) reflejado en la interfaz (57) y transmitido de vuelta a través del objetivo (OB) en los píxeles correspondientes de un sensor de imagen (BS),
o así como determinar además una métrica de enfoque respectiva basada en el conjunto correspondiente de valores de intensidad de píxeles detectados para la respectiva distancia relativa,
- determinar una distancia relativa preferente en función de las métricas de enfoque determinadas, - fijar la distancia relativa preferente, iluminar el área para la muestra (P) con una radiación de excitación (AS) y registrar la imagen de fluorescencia microscópica mediante el sensor de imagen (BS),
caracterizado porque
- el sensor de imagen (BS) es un fotosensor (PS) con una matriz de filtro de color (FFM) dispuesta por delante,
o que es una matriz con una pluralidad de canales de color,
o que además tiene diferentes tipos de elementos filtrantes para los distintos canales de color o y que además es transmisivo en todos sus diferentes canales de color para la luz del rango del infrarrojo cercano de una longitud de onda superior a 780 nm,
- la imagen de fluorescencia microscópica es una imagen en color
- y el rayo láser (LS) tiene una longitud de onda (WB) en el rango del infrarrojo cercano de 780nm.
2. Procedimiento según la reivindicación 1,
caracterizado porque la imagen de fluorescencia microscópica es una imagen digital en color, en particular una imagen digital en color, no monocromática, que presenta preferentemente al menos un componente verde y un componente rojo, y en particular preferentemente comprende además un componente azul.
3. Procedimiento según la reivindicación 1,
caracterizado porque la longitud de onda es superior a 800 nm, en particular preferentemente igual o superior a 850 nm.
4. Procedimiento según la reivindicación 1,
caracterizado porque la longitud de onda está en un rango de 780 nm a 1000 nm, preferentemente de 800 nm a 1000 nm.
5. Procedimiento según la reivindicación 1,
caracterizado porque la matriz de filtros de color (FFM) es una matriz con una pluralidad de canales de color con al menos un canal verde y un canal rojo, preferentemente además también con un canal azul.
6. Procedimiento según la reivindicación 5,
caracterizado porque la matriz de filtros de color (FFM) es una matriz de Bayer.
7. Procedimiento según la reivindicación 1,
caracterizado porque el fotosensor (PS) es un sensor CMOS o un sensor CCD.
8. Procedimiento según la reivindicación 1, en el que el registro de un correspondiente conjunto de valores de intensidad de píxeles para una distancia relativa respectiva se realiza mediante el registro de respectivos subconjuntos de valores de intensidad de píxeles de los correspondientes canales de color, y en el que el respectivo conjunto de valores de intensidad de píxeles se determina basándose en los subconjuntos.
9. Procedimiento según la reivindicación 8,
caracterizado porque los respectivos canales de color a la longitud de onda del rayo láser (LS) tienen unas transmisividades correspondientes que se desvían entre sí en un factor de 5 como máximo.
10. Procedimiento según la reivindicación 1, en el que el rayo láser (LS) presenta un haz de rayos paralelo y sustancialmente colimado.
11. Procedimiento según la reivindicación 1, en el que una lente o un sistema de lentes (TS) están dispuestos en un trayecto del haz de detección entre el objetivo (OB) y el sensor de imagen (BS), proyectando la lente o el sistema de lentes un plano focal del objetivo (OB) sobre el sensor de imagen (BS).
12. Procedimiento según la reivindicación 1, que comprende además
- determinar cada uno de los valores de intensidad de píxel más alto como una métrica de enfoque respectiva para una distancia relativa correspondiente basada en el respectivo conjunto de valores de intensidad de píxel,
- determinar un recorrido (73) de los valores de intensidad de píxel más altos asignando cada uno de los respectivos valores de intensidad de píxel más alto a la respectiva distancia relativa,
- determinación de la distancia relativa preferente sobre la base de al menos un máximo (77) del recorrido (73) de los valores más altos de intensidad de los píxeles.
13. Procedimiento según la reivindicación 12, que comprende además
- modificar la distancia relativa mediante la reducción de la distancia relativa partiendo de una distancia máxima hasta una distancia mínima, usando una primera resolución de la distancia de tal modo que el recorrido tenga varios máximos (73, 75, 77),
- determinar una distancia relativa temporalmente preferente (79) basada en los varios máximos (73, 75, 77),
- aumentar la distancia relativa hacia la distancia relativa temporalmente preferente usando una segunda resolución de distancia que es más alta que la primera resolución de distancia, mientras que simultáneamente se registran los correspondientes valores de intensidad de píxel más altos (81) como respectivas métricas de enfoque en las correspondientes distancias relativas adicionales,
- detectar la presencia de un máximo local (82) basándose en los valores de intensidad de los píxeles más altos (81) y determinar la distancia relativa final preferente como la distancia relativa en la que está presente el máximo local.
14. Un sistema de microscopía (V) para obtener una imagen de fluorescencia microscópica de una área para la muestra (P) con una muestra biológica, que comprende
un portaobjetos (PH) para sujetar el área para la muestra (P) que tiene al menos una interfaz (57), una fuente láser (LL) para generar un rayo láser (LS), una fuente de luz de excitación (AL) para emitir luz de excitación (AL) sobre el área para la muestra (P), al menos un objetivo (OB) que está configurado para dirigir el rayo láser (LS) sobre el área para la muestra (P) y provocar además el enfoque del rayo láser (LS) en un plano de enfoque, así como un sensor de imagen (BS) para registrar un conjunto de valores de intensidad de los píxeles causados por el rayo láser (LS) reflejado en la interfaz (59) y transmitido de nuevo a través del objetivo (OB) sobre los correspondientes píxeles del sensor de imagen (BS),
en el que el objetivo (OB) y el portaobjetos (PH) se pueden desplazar entre sí a lo largo de un eje óptico (OA) del objetivo (OB), de tal modo que se puede modificar una distancia relativa entre el objetivo (OB) y el área para la muestra (P),
que comprende además al menos un procesador (P), que está configurado
- para controlar el objetivo (OB) y/o el portaobjetos (PH) de manera que el objetivo (OB) y el portaobjetos o el área para la muestra (P) tengan respectivas distancias relativas, diferentes entre sí, - para registrar, para una distancia relativa respectiva, un conjunto respectivo de valores de intensidad de píxeles mediante el sensor de imagen (BS) y determinar además una métrica de enfoque correspondiente basada en el conjunto respectivo de valores de intensidad de píxeles,
- para determinar una distancia relativa preferente basada en la métrica de enfoque determinada, - para controlar el objetivo (OB) y/o el portaobjetos (PH) de tal forma que se establezca la distancia relativa preferente, además activar la fuente de luz de excitación (AL) así como registrar la imagen de fluorescencia microscópica mediante el sensor de imagen (BS),
caracterizado porque
- el sensor de imagen (BS) es un fotosensor con una matriz de filtros de color (FFM) dispuesta por delante,
o que es una matriz con una pluralidad de canales de color,
o que además tiene diferentes tipos de elementos filtrantes para los distintos canales de color o y que además es transmisivo en todos sus diferentes canales de color para la luz del rango del infrarrojo cercano de una longitud de onda superior a 780 nm,
- la imagen de fluorescencia microscópica es una imagen en color
- y el rayo láser (LS) tiene una longitud de onda (WB) en el rango del infrarrojo cercano de 780nm.
ES18214781T 2018-12-20 2018-12-20 Procedimiento y sistema de microscopía para obtener una imagen de fluorescencia microscópica de un área para la muestra con una muestra biológica Active ES2912473T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP18214781.9A EP3671309B1 (de) 2018-12-20 2018-12-20 Verfahren und mikroskopiersystem zum aufnehmen eines mikroskopischen fluoreszenzbildes eines probenbereiches mit einer biologischen probe

Publications (1)

Publication Number Publication Date
ES2912473T3 true ES2912473T3 (es) 2022-05-25

Family

ID=64755244

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18214781T Active ES2912473T3 (es) 2018-12-20 2018-12-20 Procedimiento y sistema de microscopía para obtener una imagen de fluorescencia microscópica de un área para la muestra con una muestra biológica

Country Status (6)

Country Link
US (1) US11199500B2 (es)
EP (1) EP3671309B1 (es)
CN (1) CN111352228B (es)
BR (1) BR102019026948B1 (es)
ES (1) ES2912473T3 (es)
PL (1) PL3671309T3 (es)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3418789A1 (de) * 2017-06-20 2018-12-26 Euroimmun Medizinische Labordiagnostika AG Verfahren und mikroskopiesystem zum aufnehmen eines bildes
EP3623798B1 (de) * 2018-09-13 2021-11-03 Euroimmun Medizinische Labordiagnostika AG Verfahren und vorrichtung zum erfassen und darstellen eines immunfluoreszenzbildes einer biologischen probe
CN114544004A (zh) * 2022-02-25 2022-05-27 浙江天铂云科光电股份有限公司 一种用于红外热像仪的自动聚焦方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4971816B2 (ja) * 2007-02-05 2012-07-11 三洋電機株式会社 撮像装置
DE102008015885A1 (de) 2008-03-26 2009-10-01 Synentec Gmbh Vorrichtung und Verfahren zur Autofokussierung von optischen Geräten, insbesondere von Mikroskopen
KR101172745B1 (ko) * 2010-01-29 2012-08-14 한국전기연구원 생체로부터 발생하는 다중 분광 광 영상 검출 및 광치료를 위한 복합 장치
US9407838B2 (en) 2013-04-23 2016-08-02 Cedars-Sinai Medical Center Systems and methods for recording simultaneously visible light image and infrared light image from fluorophores
WO2016022359A1 (en) * 2014-08-06 2016-02-11 Cellomics, Inc. Image-based laser autofocus system
CN204392456U (zh) * 2015-02-12 2015-06-10 张李静 色彩滤镜阵列
CN107407551B (zh) 2015-02-18 2020-06-09 雅培实验室 用于使显微镜自动聚焦到基片上的方法、系统及装置
JP2017079904A (ja) 2015-10-26 2017-05-18 ソニー株式会社 手術顕微鏡、画像処理装置、及び、画像処理方法
JP6259156B1 (ja) * 2017-10-03 2018-01-10 日本板硝子株式会社 光学フィルタ及び撮像装置

Also Published As

Publication number Publication date
EP3671309B1 (de) 2021-11-10
EP3671309A1 (de) 2020-06-24
US20200200682A1 (en) 2020-06-25
BR102019026948B1 (pt) 2022-04-26
US11199500B2 (en) 2021-12-14
BR102019026948A2 (pt) 2021-02-23
CN111352228A (zh) 2020-06-30
PL3671309T3 (pl) 2022-03-28
CN111352228B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
ES2912473T3 (es) Procedimiento y sistema de microscopía para obtener una imagen de fluorescencia microscópica de un área para la muestra con una muestra biológica
ES2959361T3 (es) Escaneo con enfoque automático en tiempo real
JP3576523B2 (ja) 蛍光輝度測定方法及び装置
US8643946B2 (en) Autofocus device for microscopy
US8842173B2 (en) Biological image acquisition device
US20140125776A1 (en) 3d pathology slide scanner
JP2006520900A (ja) 励起システム及び焦点モニタリングシステムを備える分光分析装置及び方法
JP2009532732A (ja) 発光ダイオード2次元アレイを有する共焦点顕微鏡
JP2010517056A (ja) 時間分解蛍光イメージングシステム
US9746420B2 (en) Differential scan imaging systems and methods
ES2951763T3 (es) Dispositivo de lectura de un ensayo IVD
CN101821608A (zh) 用于对样本成像的方法和系统
US20200033192A1 (en) Method and Apparatus of Filtering Light Using a Spectrometer Enhanced with Additional Spectral Filters with Optical Analysis of Fluorescence and Scattered Light from Particles Suspended in a Liquid Medium Using Confocal and Non Confocal Illumination and Imaging
JP2014523545A (ja) 生体イメージングのための顕微鏡システム及び方法
JP7008029B2 (ja) 源自己蛍光を低減させ、均一性を改良するための散乱を伴う撮像システムおよび方法
WO2021167044A1 (ja) 顕微鏡システム、撮像方法、および撮像装置
WO2019198308A1 (ja) 試料観察装置及び試料観察方法
US9268121B2 (en) Sensor device with double telecentric optical system
JP4931685B2 (ja) 撮影装置
WO2018135051A1 (ja) 観察装置及び観察方法
HU231357B1 (hu) Eljárás és berendezés minta fluoreszcencia-vizsgálatára
CN214794465U (zh) 高灵敏度标记物激发和检测结构
KR101188233B1 (ko) 바이오칩을 위한 진단장치
KR100442679B1 (ko) 유전자 칩의 이미지 처리 방법
JP2018509640A (ja) デジタル病理学スキャンにおける照明