ES2953897T3 - Enfoque en tiempo real en imagenología de exploración lineal - Google Patents

Enfoque en tiempo real en imagenología de exploración lineal Download PDF

Info

Publication number
ES2953897T3
ES2953897T3 ES13784683T ES13784683T ES2953897T3 ES 2953897 T3 ES2953897 T3 ES 2953897T3 ES 13784683 T ES13784683 T ES 13784683T ES 13784683 T ES13784683 T ES 13784683T ES 2953897 T3 ES2953897 T3 ES 2953897T3
Authority
ES
Spain
Prior art keywords
focus
line sensor
sensor
objective lens
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13784683T
Other languages
English (en)
Inventor
Yunlu Zou
Greg J Crandall
Allen Olson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Biosystems Imaging Inc
Original Assignee
Leica Biosystems Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Biosystems Imaging Inc filed Critical Leica Biosystems Imaging Inc
Application granted granted Critical
Publication of ES2953897T3 publication Critical patent/ES2953897T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/006Optical details of the image generation focusing arrangements; selection of the plane to be imaged
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes

Landscapes

  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Sistemas y métodos para capturar una imagen digital de una diapositiva usando un sensor de línea de imagen y un sensor de línea de enfoque. En una realización, un divisor de haz está acoplado ópticamente a una lente objetivo y configurado para recibir una o más imágenes de una porción de una muestra a través de la lente objetivo. El divisor de haz proporciona simultáneamente una primera porción de una o más imágenes al sensor de enfoque y una segunda porción de una o más imágenes al sensor de imágenes. Un procesador controla la platina y/o la lente objetivo de manera que cada porción de una o más imágenes sea recibida por el sensor de enfoque antes de ser recibida por el sensor de imágenes. De esta manera, se puede controlar el enfoque de la lente objetivo usando datos recibidos del sensor de enfoque antes de capturar una imagen de una porción de la muestra usando el sensor de imágenes. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Enfoque en tiempo real en imagenología de exploración lineal
Antecedentes
La presente solicitud reivindica el beneficio de la prioridad de la solicitud provisional de EE. UU. No. 61/641.788, presentada el 2 de mayo de 2012.
Campo de la invención
La presente invención se refiere en general a la patología digital y más particularmente se refiere a un aparato sensor lineal independiente múltiple para realizar enfoque en tiempo real en imagenología de exploración lineal.
Técnica relacionada
La mayoría de los procedimientos de enfoque automático en los sistemas de imagenología microscópica se pueden dividir en dos categorías: interferómetro basado en láser para detectar la posición del portaobjetos y análisis del contenido de imágenes. Los procedimientos de análisis de contenido de imágenes requieren múltiples adquisiciones de imágenes a diferentes profundidades de enfoque y usan algoritmos para comparar las imágenes para determinar el mejor enfoque. La adquisición de múltiples imágenes puede crear retrasos de tiempo entre el enfoque y la toma de imágenes. La medición del reflejo del rayo láser en la superficie de un portaobjetos solo puede proporcionar información de enfoque global del portaobjetos o de la posición del cubreobjetos. Carece de precisión de enfoque en tejidos con grandes variaciones de altura.
Por lo tanto, lo que se necesita es un sistema y un procedimiento que supere estos importantes problemas que se encuentran en los sistemas convencionales descritos anteriormente.
El documento US 2005/089208 A1 divulga un sistema y un procedimiento para obtener imágenes de un portaobjetos de microscopio, en donde el sistema comprende una platina de microscopio para sujetar un portaobjetos de microscopio, un objetivo que comprende una lente de objetivo para recibir luz que interactúa con la superficie del portaobjetos de microscopio, una primera cámara que comprende un primer sensor de imagen para recoger una primera porción de la luz, y una segunda cámara que comprende un segundo sensor de imagen para recoger una segunda porción de la luz.
Compendio
En un modo de realización, la presente invención se basa en el análisis del contenido de la imagen (por ejemplo, búsqueda de tejido y enfoque macro) y aprovecha la imagenología lineal y el enfoque lineal para un enfoque automático preciso en tiempo real, sin tener que tomar múltiples imágenes para enfocar, lo que introduciría un retraso de tiempo durante la exploración. En un modo de realización, el enfoque se realiza durante la exploración de imágenes para eliminar los retrasos de tiempo en la exploración de imágenes, acelerando así todo el proceso de exploración de imágenes digitales.
La presente invención proporciona un sistema para capturar una imagen digital de un portaobjetos de acuerdo con la reivindicación 1.
La presente invención proporciona además un procedimiento para capturar una imagen digital de un portaobjetos de acuerdo con la reivindicación 13.
Otros modos de realización ventajosos de la presente invención se divulgan en las reivindicaciones dependientes. Otras características y ventajas de la presente invención resultarán más evidentes para los expertos en la técnica después de revisar la siguiente descripción detallada y los dibujos adjuntos.
Breve descripción de los dibujos
La estructura y el funcionamiento de la presente invención se entenderán a partir de la revisión de la siguiente descripción detallada y los dibujos adjuntos en los que números de referencia iguales se refieren a partes iguales y en los que:
La FIG. 1 es un diagrama de bloques que ilustra una configuración de vista lateral de ejemplo de un sistema de exploración, de acuerdo con un modo de realización;
la FIG. 2 es un diagrama de bloques que ilustra una configuración de ejemplo de un sensor de enfoque y un sensor de imagenología con respecto a un radio de iluminación y un campo de visión óptico circular, de acuerdo con un modo de realización que, como tal, no está abarcado por el texto de las reivindicaciones, ya que una fórmula "h = raíz cuadrada (R2 -(L/2)2)” incluida en las reivindicaciones independientes no se cumple en el diagrama de la FIG. 2; la FIG. 3A es un diagrama de bloques que ilustra una configuración de vista superior de ejemplo de un sensor de imagenología, de acuerdo con un modo de realización;
la FIG. 3B es un diagrama de bloques que ilustra una configuración de vista superior de ejemplo de un sensor de enfoque, de acuerdo con un modo de realización;
la FIG. 4 es un diagrama de bloques que ilustra un sensor de enfoque de ejemplo, de acuerdo con un modo de realización;
la FIG. 5 es un diagrama de tiempo que ilustra un ejemplo de interacción entre un sensor de enfoque y un sensor de imagenología durante la exploración, de acuerdo con un modo de realización;
la FIG. 6 es un diagrama de bloques que ilustra un sensor de enfoque no inclinado de ejemplo con un prisma, de acuerdo con un modo de realización;
las FIGS. 7A y 7B son diagramas de bloques que ilustran un sensor de imagenología y enfoque doble de ejemplo con un prisma móvil, de acuerdo con un modo de realización;
la FIG. 8 es un diagrama de bloques que ilustra una configuración de sensor de enfoque múltiple de ejemplo de un sistema de exploración, de acuerdo con un modo de realización;
la FIG. 9 es un diagrama de bloques que ilustra un movimiento de portaobjetos de un sistema de exploración, de acuerdo con un modo de realización;
la FIG. 10 es un diagrama de bloques que ilustra un sensor de enfoque de ejemplo con una agrupación de microlentes, de acuerdo con un modo de realización;
la FIG. 11 es un diagrama de bloques que ilustra un sensor de enfoque no inclinado de ejemplo con una agrupación de microlentes y un prisma, de acuerdo con un modo de realización;
la FIG. 12A es un diagrama de bloques que ilustra un escáner de portaobjetos de microscopio de ejemplo, de acuerdo con un modo de realización;
la FIG. 12B es un diagrama de bloques que ilustra un escáner de portaobjetos de microscopio de ejemplo alternativo, de acuerdo con un modo de realización;
la FIG. 12C es un diagrama de bloques que ilustra agrupaciones de sensores lineales de ejemplo, de acuerdo con un modo de realización; y
la FIG. 13 es un diagrama de bloques que ilustra un dispositivo habilitado para procesador con cable o inalámbrico de ejemplo que puede usarse en conexión con diversos modos de realización descritos en el presente documento.
Descripción detallada
Ciertos modos de realización divulgados en el presente documento proporcionan un enfoque en tiempo real (es decir, instantáneo o casi instantáneo) en imagenología de exploración lineal usando múltiples detectores lineales u otros componentes. Después de leer esta descripción, será evidente para un experto en la técnica cómo implementar la invención en diversos modos de realización alternativos y aplicaciones alternativas. Sin embargo, aunque en el presente documento se describirán diversos modos de realización de la presente invención, se entiende que estos modos de realización se presentan únicamente a modo de ejemplo y no como limitación. Como tal, esta descripción detallada de diversos modos de realización alternativos no debe interpretarse como una limitación del alcance o amplitud de la presente invención como se establece en las reivindicaciones adjuntas.
La FIG. 1 es un diagrama de bloques que ilustra una configuración de vista lateral de ejemplo de un sistema de exploración 10, de acuerdo con un modo de realización. En el modo de realización ilustrado, el sistema de exploración 10 comprende un portaobjetos de tejido 120 que se coloca en una platina motorizada (no se muestra) y se ilumina mediante un sistema de iluminación (no se muestra) y se mueve en una dirección de exploración 65. Una lente de objetivo 130 tiene un campo de visión óptico que se entrena en el portaobjetos 120 y proporciona una trayectoria óptica para la luz del sistema de iluminación que pasa a través del espécimen en el portaobjetos o se refleja en el espécimen en el portaobjetos o emite fluorescencia en el espécimen en el portaobjetos o pasa de otro modo a través de la lente de objetivo 130. La luz viaja en la trayectoria óptica a un divisor de haz 140 que permite que parte de la luz pase a través de la lente 160 a un sensor de imagenología 20. La luz puede ser doblada opcionalmente por un espejo 150 como se muestra en el modo de realización ilustrado. El sensor de imagenología 20 puede ser, por ejemplo, un dispositivo de acoplamiento de carga (CCD) de línea.
Otra parte de la luz viaja desde el divisor de haz 140 a través de la lente 165 hasta un sensor de enfoque 30. El sensor de enfoque 30 también puede ser, por ejemplo, un dispositivo de acoplamiento de carga (CCD) de línea. La luz que viaja al sensor de imagenología 20 y al sensor de enfoque 30 representa preferentemente el campo de visión óptico completo desde la lente de objetivo 130. Según la configuración del sistema, la dirección de exploración 65 del portaobjetos 120 está lógicamente orientada con respecto al sensor de imagenología 20 y el sensor de enfoque 30 de modo que la dirección de exploración lógica 60 haga que el campo de visión óptico de la lente de objetivo 130 pase sobre el respectivo sensor de imagenología 20 y el sensor de enfoque 20.
Como se muestra en el modo de realización ilustrado, el sensor de imagenología 20 está centrado dentro del campo de visión óptico de la lente de objetivo 130 mientras que el sensor de enfoque 30 se aleja del centro del campo de visión óptico de la lente de objetivo 130. La dirección en la que el sensor de enfoque 30 se desplaza lejos del centro del campo de visión óptico de la lente de objetivo 130 es la opuesta a la dirección de exploración lógica 60. Esta colocación orienta lógicamente el sensor de enfoque 30 frente al sensor de imagenología 20 de manera que a medida que se explora un espécimen en un portaobjetos, el sensor de enfoque 30 "ve" los datos de imagen antes de que el sensor de imagenología 20 "vea" esos mismos datos de imagen. Finalmente, el sensor de enfoque 30 se inclina dentro del campo de visión óptico de manera que la luz del objetivo es detectada por el sensor de enfoque 30 en una pluralidad de valores Z.
La FIG. 2 es un diagrama de bloques que ilustra una configuración de ejemplo de un sensor de enfoque 30 y un sensor de imagenología 20 con respecto a un radio de iluminación circular 40 y un campo de visión óptico 50. El posicionamiento del sensor de enfoque 30 se muestra con respecto al sensor de imagenología 20 y la dirección de exploración lógica 60. La dirección de exploración 60 en este caso, se refiere a la dirección en la que la platina o espécimen (por ejemplo, una muestra de tejido) se mueve con respecto a los sensores 20 y 30 en el espacio. Como se ilustra, la muestra alcanzará primero el sensor de enfoque 30 y luego el sensor de imagenología 20. Cuando el sensor de imagenología 20 y el sensor de enfoque 30 se proyectan en un mismo plano usando, por ejemplo, un divisor de haz, el sensor de enfoque 30 está dentro del círculo de iluminación, que tiene un radio R, del campo de visión óptico 50 en una ubicación por delante del sensor de imagenología primario 20 en términos de la dirección de exploración lógica 60. Por tanto, cuando una sección de una muestra de tejido pasa por el sensor de enfoque 30, los datos de enfoque pueden ser capturados y la altura de enfoque calculada en base a uno o más algoritmos predeterminados. Los datos de enfoque y la altura de enfoque se pueden usar para controlar (por ejemplo, mediante un controlador) la distancia entre la altura de una lente de objetivo y la muestra de tejido antes de que el sensor de imagenología primario 20 detecte la misma sección de la muestra de tejido a través del mismo objetivo.
El radio de iluminación circular 40 ilumina un campo de visión óptico 50 (FOV) que cubre tanto el sensor de enfoque 30 como el sensor de imagenología 20. El radio R es una función del FOV en el objeto o muestra y el aumento óptico de la trayectoria óptica de enfoque Menfoque. La función se puede expresar como:
2R = FOV * Menfoque
Para Menfoque = 20 y FOV = 1,325 mm (por ejemplo, objetivo Olympus PlanApo 20x), R = 13,25 mm. El sensor de imagenología 20 se proyecta en el medio del campo de visión óptico 50 para obtener la mejor calidad de imagen, mientras que el sensor de enfoque 30 está ubicado fuera del centro con respecto al campo de visión óptico 50 a una distancia h del sensor de imagenología 20. Existe una relación entre la distancia h, el radio R y la longitud L del sensor de enfoque 30 de acuerdo con la invención, tal que: h = raíz cuadrada (R2 -(L/2)2). Es decir, para una longitud de sensor ejemplar = 20,48 mm y un radio ejemplar R = 13,25 mm, h = 8,4 mm.
El tiempo t disponible para que el sensor de enfoque 30 capture múltiples líneas de cámara, para el cálculo de la altura de enfoque y para mover el objetivo a la altura del valor Z correcto, es una función de la distancia h entre el sensor de enfoque 30 y el sensor de imagenología 20, el aumento de Menfoque y la velocidad de exploración v:
v * t = h / Menfoque
Para una velocidad de exploración de 4,6 mm/s, el tiempo máximo disponible es de aproximadamente 91,4 ms para Menfoque = 20 y h = 8,4 mm. El número máximo de líneas de cámara capturadas por el sensor de enfoque 30, disponible para el cálculo del enfoque es:
N = t * k, donde k es la velocidad de línea del sensor de enfoque 30.
Para una velocidad de línea de cámara de 18,7 kHz, Nmáx = 1.709 líneas, donde el objetivo se mantiene a la misma altura. De lo contrario, N < Nmáx para permitir que el objetivo se mueva a la siguiente altura de enfoque.
A un nivel alto, se pasa una muestra de tejido debajo de una lente de objetivo en una dirección X. Se ilumina una porción de la muestra de tejido para crear una vista iluminada en la dirección Z de una porción de la muestra. La vista iluminada pasa a través de la lente de objetivo que está ópticamente acoplada tanto al sensor de enfoque 30 como al sensor de imagenología 20, por ejemplo, usando un divisor de haz. El sensor de enfoque 30 y el sensor de imagenología 20 están posicionados de manera que el sensor de enfoque 30 recibe una porción o línea de la visión antes de que el sensor de imagenología 20 reciba la misma porción o línea. En otras palabras, mientras el sensor de enfoque 30 recibe una primera línea de datos de imagen, el sensor de imagenología 20 recibe simultáneamente una segunda línea de datos de imagen que recibió previamente el sensor de enfoque 30 y que está a una distancia h/Menfoque en la muestra de la primera línea de datos de imagen. Tomará un período de tiempo At para que el sensor de imagenología 20 reciba la primera línea de datos de imagen después de que el sensor de enfoque 30 haya recibido la primera línea de datos de imagen, donde At representa el tiempo que le toma a la muestra moverse una distancia h/ Menfoque en la dirección de exploración.
Durante ese período At, un procesador del sistema de exploración 10 calcula una altura de enfoque óptima en la dirección Z para la primera línea de datos de imagen y ajusta la lente de objetivo a la altura de enfoque óptima calculada. Por ejemplo, en un modo de realización, el sensor de enfoque 30 está separado del sensor de imagenología 20 y está inclinado en un ángulo 0 con respecto a una dirección que es perpendicular a la trayectoria de imagenología óptica. Así, el sensor de enfoque 30 recibe píxeles de datos de imagen en una pluralidad de valores Z. Entonces, el procesador puede determinar qué valor de altura Z corresponde al o a los píxeles de los datos de imagen que tienen el mejor enfoque (por ejemplo, que tienen el mayor contraste con respecto a los otros píxeles). Después de determinar el valor de altura Z óptimo, el procesador u otro controlador puede mover la lente de objetivo en la dirección Z al valor de altura Z óptimo determinado antes o simultáneamente con que el sensor de imagenología reciba la primera línea de datos de imagen.
La FIG. 3A es un diagrama de bloques que ilustra una configuración de vista superior de ejemplo de un sensor de imagenología 20 con respecto a una trayectoria óptica de imagenología 210, de acuerdo con un modo de realización. De manera similar, la FIG. 3B es un diagrama de bloques que ilustra una configuración de vista superior de ejemplo de un sensor de enfoque 30, con respecto a una trayectoria óptica de enfoque 200, de acuerdo con un modo de realización. Como puede verse en la FIG. 3B, el sensor de enfoque 30 está inclinado en un ángulo 0 con respecto a una dirección que es perpendicular a la trayectoria óptica de enfoque 200.
La FIG. 4 es un diagrama de bloques que ilustra un sensor de enfoque 30 de ejemplo, de acuerdo con un modo de realización. En el modo de realización ilustrado, dentro de un rango de enfoque (z) en una muestra de tejido (por ejemplo, 20 gm), el sensor de enfoque 30 comprende una pluralidad de píxeles de sensor 218 y puede posicionarse en una ubicación donde todo el rango de enfoque (z) en la dirección Z se transfiere mediante óptica a toda la agrupación de sensores de enfoque 30 en la dirección Y (ortogonal a la dirección X, es decir, la dirección de exploración), como se muestra. La ubicación del píxel de sensor 218 está directamente relacionada con la posición Z del objetivo en el foco. Como se ilustra en la FIG. 4, cada línea discontinua, p1, p2, ...pi...pn, a lo largo del rango de enfoque proyectado (d) representa un valor de enfoque diferente y corresponde a una altura de enfoque, es decir, altura Z, de la lente de objetivo. La pi que tiene el enfoque óptimo para una porción dada de una muestra puede ser usado por el sistema de exploración para determinar la altura de enfoque óptima para esa porción de la muestra.
La relación entre el rango de enfoque proyectado (d) en el sensor de enfoque 30 y el rango de enfoque (z) en el objeto de espécimen es como sigue:
d = z * Menfoque2, donde Menfoque es el aumento óptico de la trayectoria de enfoque. Por ejemplo, si z = 20 gm y Menfoque= 20, entonces d = 8 mm.
Para cubrir todo el rango de enfoque proyectado (d) por un sensor de enfoque inclinado 30 que es un sensor de agrupación lineal, el ángulo de inclinación 0 debe seguir la relación:
sen0=d/L, donde L es la longitud del sensor 30.
Usando d = 8 mm y L = 20,48 mm, 0 = 23,0°. 0 y L pueden variar siempre que el sensor inclinado 30 cubra todo el rango de enfoque (z).
La resolución de enfoque, o la etapa mínima de movimiento de altura del objetivo Az es una función del tamaño de píxel de sensor, e=mínima(AL). Derivada de las fórmulas anteriores:
Az=e*z/L.
Por ejemplo, si e=10 gm, L=20,48 mm y z=20 gm, entonces Az=0,0097 gm<10nm.
En un modo de realización, se analizan los datos unidimensionales del sensor de enfoque 30. Se puede definir una figura de mérito (FOM) (por ejemplo, contraste de los datos). Se puede encontrar la ubicación del píxel 218 (valor Z) del FOM máximo en la agrupación de sensores. De esta manera, se puede determinar la posición de enfoque (valor Z) del objetivo para esa línea de exploración en la muestra.
La relación entre la altura de objetivo Z i y la ubicación de enfoque Li en el sensor de enfoque del punto de enfoque i es:
Li = Z i * Menfoque2 / sen0
Si la altura de foco está determinada por una media de L1 a L2, de acuerdo con el análisis de los datos del sensor de enfoque 30 discutido anteriormente, la altura del objetivo debe moverse de Z1 a Z2 en base a:
Z2 = Z1 + (L2-L1)* sen0 / Menfoque2
Aunque el campo de visión (FOV) en el eje Y del sensor de enfoque 30 y el sensor de imagenología 20 pueden ser diferentes, los centros de ambos sensores están preferentemente alineados entre sí a lo largo del eje Y.
La FIG. 5 es un diagrama de tiempo que ilustra una interacción de ejemplo entre un sensor de enfoque 30 y un sensor de imagenología 20 durante la exploración, de acuerdo con un modo de realización. En el modo de realización ilustrado, se muestra la temporización de una exploración usando un sensor de imagenología 30 y un sensor de enfoque 20. A tiempo tü, la posición Z de la lente de objetivo está a la altura Z0 en la sección de tejido X1, que está en el campo de visión del sensor de enfoque 30. El sensor de enfoque 30 recibe datos de enfoque correspondientes a la sección de tejido X i . La altura de enfoque Z i se determina que es la altura de enfoque óptima para la sección de tejido X1 usando los datos de enfoque y, en algunos modos de realización, algoritmos de enfoque asociados. Luego, la altura de enfoque óptima se alimenta al posicionador Z para mover la lente de objetivo a la altura Z i , por ejemplo, usando un bucle de control. A t i , la sección de tejido X i se mueve al campo de visión del sensor de imagenología 20. Con la altura de enfoque correcta, el sensor de imagenología 20 detectará una imagen enfocada de manera óptima de la muestra. Al mismo tiempo t i , el sensor de enfoque 30 captura datos de enfoque de la sección de tejido X2, y los datos de enfoque se usarán para determinar la altura de enfoque óptima Z2 que a su vez se alimentará al posicionador Z antes o en el momento en que la sección de tejido X2 pasa al campo de visión del sensor de imagenología 20 a tiempo t2. Dicho proceso puede continuar hasta que se explore toda la muestra de tejido.
En general a tiempo tn, sección de tejido Xn+i está en el campo de visión del sensor de enfoque, la sección de tejido Xn está en el campo de visión del sensor de imagenología 30, y la lente de objetivo está a una altura Z de Zn Además, antes o a tiempo tn i, la altura de enfoque óptima para la sección de tejido Xn+i se determina y la altura Z de la lente de objetivo se ajusta a Zn i. Considerando la FIG. 2, a tiempo t0, el sensor de enfoque 30 "ve" la sección de tejido X i y determina la altura de enfoque como Z i para la sección de tejido X i ; a tiempo t i , la sección de tejido X i se mueve debajo del sensor de imagenología 20 y el objetivo se mueve a la altura Z i mientras que el sensor de enfoque 30 "ve" la sección de tejido X2 y determina la altura de enfoque como Z2 para la sección de tejido X2 ; a tiempo tn, la sección de tejido Xn se mueve debajo del sensor de imagenología 20 y el objetivo se mueve a la altura Zn mientras que el sensor de enfoque 30 "ve" la sección de tejido Xn+i y determina la altura de enfoque como Zn+i para sección de tejido Xn i. Un experto en la técnica debe entender que Xn-i y Xn no representan necesariamente líneas consecutivas o adyacentes de datos de imagen, siempre que el sensor de enfoque 30 adquiera una línea de exploración y se determine y establezca una altura de enfoque óptima para la línea de exploración antes de que el sensor de imagenología 20 adquiera la misma línea de exploración. En otras palabras, el sensor de enfoque 30 y el sensor de imagenología 20 pueden estar dispuestos de manera que existan una o más líneas de exploración entre el campo de visión del sensor de enfoque 30 y el campo de visión del sensor de imagenología 20, es decir, que la distancia h entre el sensor de enfoque 30 y el sensor de imagenología 20 comprende una o más líneas de exploración de datos. Por ejemplo, en el caso de que la distancia h comprenda 5 líneas de exploración, la sección de tejido X6 estaría en el campo de visión del sensor de enfoque 30 al mismo tiempo que la sección de tejido X i está en el campo de visión del sensor de imagenología 20. En este caso, la altura de enfoque de la lente de objetivo se ajustaría a la altura de enfoque óptima calculada después de que la sección de tejido X5 sea detectada por el sensor de imagenología 20 pero antes de la sección de tejido X6 sea detectada por el sensor de imagenología 20. Ventajosamente, la altura de enfoque de la lente de objetivo se puede controlar suavemente entre la sección de tejido X i y X6 tal que hay cambios incrementales en la altura de enfoque entre X i y X6 que se aproximan a una pendiente gradual de la muestra de tejido.
La FIG. 6 es un diagrama de bloques que ilustra un sensor de enfoque no inclinado 30 de ejemplo con un prisma 270, de acuerdo con un modo de realización. En el modo de realización ilustrado, la FIG. 6 muestra una alternativa al sensor de línea de enfoque inclinado 30. En lugar de inclinar el sensor de enfoque 30, se puede usar un prisma en cuña 270 unido al sensor de enfoque 30 para realizar una función de enfoque similar. De forma alternativa, podría emplearse una combinación de un prisma en cuña 270 y un sensor de enfoque inclinado 30. Los algoritmos y el procedimiento pueden seguir siendo los mismos en dicho modo de realización alternativo. Además, si se pueden integrar dos agrupaciones de sensores lineales paralelas con suficiente espacio entre los sensores en un solo campo de visión, se puede unir un prisma en cuña 270 al sensor de enfoque 30 para enfocar y el sensor de imagenología 20 se puede usar para detectar datos de imagen de la muestra.
Las FIGS. 7A y 7B son diagramas de bloques que ilustran un sensor de imagenología y enfoque doble de ejemplo con un prisma móvil, de acuerdo con un modo de realización. Ventajosamente, en este modo de realización se puede usar el mismo sensor físico como sensor de enfoque 30 y como sensor de imagenología 20. Como se muestra en la FIG.
7A, cuando el prisma en cuña 270 está en su lugar, el sensor realiza las funciones del sensor de enfoque 30. El prisma en cuña 270 está en su lugar cuando el prisma en cuña 270 se coloca dentro del campo de visión de al menos una porción del sensor. En consecuencia, cuando el prisma en cuña 270 no está en su lugar, el sensor realiza las funciones del sensor de imagenología 20. El prisma en cuña 270 no está en su lugar cuando ninguna porción del prisma en cuña 270 está dentro del campo de visión del sensor.
Dicho modo de realización se puede usar en relación con un movimiento de exploración tal como el movimiento descrito con respecto a la FIG. 9 por lo que el sistema de exploración enfoca durante un primer pase de la muestra bajo la lente de objetivo y luego el sistema de exploración toma imágenes durante un segundo pase de la misma porción de la muestra bajo la lente de objetivo. Durante el primer pase, el prisma en cuña 270 está en su lugar y durante el segundo pase, el prisma en cuña 270 no está en su lugar.
La FIG. 8 es un diagrama de bloques que ilustra una configuración de sensor de enfoque múltiple de ejemplo de un sistema de exploración, de acuerdo con un modo de realización. En el modo de realización ilustrado, el sistema de exploración emplea al menos dos sensores de enfoque 30 y 35. En el modo de realización ilustrado, el segundo sensor de enfoque 35 puede comprender una agrupación sensorial lineal inclinada en la dirección opuesta al primer sensor de enfoque 30. El segundo sensor de enfoque 35 puede realizar la misma función de enfoque que el primer sensor de enfoque 30 para permitir que el sistema de exploración analice los datos obtenidos de los dos sensores de enfoque 30 y 35 y calcule una altura de enfoque óptima más precisa para la lente de objetivo cuando el sensor de imagenología pasa sobre el espécimen. Por ejemplo, el sistema de exploración puede usar los datos del sensor de enfoque doble 30 35 para promediado o compensación. El segundo sensor de enfoque 35 puede ser la tercera agrupación de sensores lineales del sistema de exploración, cuando se combina con el primer sensor de enfoque 30 y el sensor de imagenología primario 20.
La FIG. 10 es un diagrama de bloques que ilustra un sensor de enfoque 30 de ejemplo con una agrupación de microlentes 250, de acuerdo con un modo de realización. En el modo de realización ilustrado, una agrupación de microlentes lineales 250 (inclinada o no inclinada) se posiciona en el FOV del sensor de enfoque inclinado 30 (por ejemplo, una agrupación de sensores lineales) para tener múltiples microimágenes de una sección de tejido idéntica. Este modo de realización se puede usar para evitar la posible ambigüedad asociada con tejido parcial dentro del FOV, que puede resultar de las modos de realización y procedimientos descritos anteriormente. En un modo de realización, la dimensión mínima de la agrupación de microlentes 250 es para cubrir la sección transversal de la trayectoria de la luz que cae sobre el sensor de enfoque 30, ya sea que la agrupación de microlentes 250 esté inclinada o no inclinada. El número de elementos de la agrupación de microlentes 250 está determinado por la resolución Z y el rango de enfoque total. Por ejemplo, si se requiere una resolución de 0,5 gm en un rango de enfoque de 20 gm, el número de elementos de lente es 40.
En un modo de realización, la lente de campo 260 se usa para reducir el efecto de viñeteado en el sistema de exploración y no afecta la ampliación del sistema. En un modo de realización de agrupación de microlentes 250, el procedimiento para determinar el mejor enfoque puede ser diferente de la técnica de figura de mérito descrita anteriormente. Por ejemplo, el sistema de exploración puede comparar el contraste promedio, por ejemplo, entre imágenes de 40 microlentes con un incremento de profundidad de 0,5 gm. Se encuentra la ubicación central del contraste más alto en la imagen y a continuación se determina la altura del objetivo con base en la misma fórmula que se discutió anteriormente: Li =Zi * Menfoque2 / sen0.
La FIG. 11 es un diagrama de bloques que ilustra un sensor de enfoque no inclinado 30 de ejemplo con una agrupación de microlentes 250 y un prisma 270, de acuerdo con un modo de realización. En el modo de realización ilustrado, la agrupación de microlentes 250 está integrada con un prisma en cuña 270 frente al sensor de enfoque 30 (por ejemplo, un sensor de línea) para realizar la función de enfoque.
Las FIGS. 12A y 12B son diagramas de bloques que ilustran escáneres de portaobjetos de microscopio de ejemplo, de acuerdo con un modo de realización y la FIG. 12C es un diagrama de bloques que ilustra agrupaciones de sensores lineales de ejemplo, de acuerdo con un modo de realización. Estas tres figuras se describirán con más detalle a continuación, sin embargo, primero se describirán en combinación para proporcionar una descripción general. Cabe señalar que la siguiente descripción es sólo un ejemplo de un dispositivo de exploración de portaobjetos y que también se pueden emplear dispositivos de exploración de portaobjetos alternativos. Las FIGS. 12A y 12B ilustran escáneres de portaobjetos de microscopio de ejemplo que se pueden usar junto con la disposición de sensores divulgada. La FIG. 12C ilustra sensores lineales de ejemplo, que se pueden usar en cualquier combinación como los sensores divulgados (sensores de imagenología o sensores de enfoque).
Por ejemplo, el sensor de imagenología y el o los sensores de enfoque pueden disponerse (por ejemplo, junto con un divisor de haz), como se explicó anteriormente, usando la cámara de exploración lineal 18 como sensor de imagenología primario y el sensor de enfoque 20 como sensor de enfoque en combinación con el divisor de haz 140. En un modo de realización, la cámara de exploración lineal 18 puede incluir tanto el sensor de enfoque como el sensor de imagenología primario. El sensor de imagenología y el o los sensores de enfoque pueden recibir información de imagen de una muestra 12 a través de la lente de objetivo de microscopio 16 y/o la óptica de enfoque 34 y 290. Además, pueden proporcionar información a y/o recibir información del procesador de datos. 21. El procesador de datos 21 está conectado de forma comunicativa a la memoria 36 y al almacenamiento de datos 38. El procesador de datos 21 también puede estar conectado de forma comunicativa a un puerto de comunicaciones, que puede estar conectado mediante al menos una red 42 a uno o más ordenadores 44, que a su vez pueden estar conectados a monitores o monitores de visualización 46.
El procesador de datos 21 también puede conectarse comunicativamente y proporcionar instrucciones a un controlador de platina 22, que controla una platina motorizada 14 del escáner de portaobjetos 11. La platina motorizada 14 soporta la muestra 12 y se mueve en una o más direcciones en el plano X-Y. En un modo de realización, la platina motorizada 14 también puede moverse en el plano Z. El procesador de datos 21 también puede estar conectado comunicativamente y proporcionar instrucciones a un controlador motorizado 26, que controla un posicionador motorizado 24 (por ejemplo, un posicionador piezoeléctrico). El posicionador motorizado 24 está configurado para mover la lente de objetivo 16 en la dirección Z. El escáner de portaobjetos 11 también comprende una fuente de luz 31 y/o una óptica de iluminación 32 para iluminar la muestra 12, ya sea desde arriba o desde abajo.
Volviendo ahora a la FIG. 12A, se muestra un diagrama de bloques de un modo de realización de un sistema de microscopía óptica 10 de acuerdo con la presente invención. El corazón del sistema 10 es un escáner de portaobjetos de microscopio 11 que sirve para explorar y digitalizar un espécimen o muestra 12. La muestra 12 puede ser cualquier cosa que pueda ser interrogada por microscopía óptica. Por ejemplo, la muestra 12 puede ser un portaobjetos de microscopio u otro tipo de muestra que pueda interrogarse mediante microscopía óptica. Un portaobjetos de microscopio se usa con frecuencia como sustrato de visualización para especímenes que incluyen tejidos y células, cromosomas, ADN, proteínas, sangre, médula ósea, orina, bacterias, microesferas, materiales de biopsia o cualquier otro tipo de material biológico o sustancia que sea vivo o muerto, teñido o sin teñir, marcado o sin marcar. La muestra 12 también puede ser una matriz de cualquier tipo de ADN o material relacionado con el ADN, tal como ADNc o ARN o proteína que se deposita en cualquier tipo de portaobjetos u otro sustrato, incluidas todas y cada una de las muestras comúnmente conocidas como micromatrices. La muestra 12 puede ser una placa de microvaloración, por ejemplo, una placa de 96 pocillos. Otros ejemplos de la muestra 12 incluyen placas de circuitos integrados, registros de electroforesis, placas de Petri, películas, materiales semiconductores, materiales forenses o piezas mecanizadas.
El escáner 11 incluye una platina motorizada 14, una lente de objetivo de microscopio 16, una cámara de exploración lineal 18 y un procesador de datos 21. La muestra 12 se posiciona en la platina motorizada 14 para exploración. La platina motorizada 14 está conectada a un controlador de platina 22 que está conectado a su vez al procesador de datos 21. El procesador de datos 21 determina la posición de la muestra 12 en la platina motorizada 14 a través del controlador de platina 22. En un modo de realización, la platina motorizada 14 mueve la muestra 12 en al menos dos ejes (x/y) que están en el plano de la muestra 12. Los movimientos finos de la muestra 12 a lo largo del eje óptico z también pueden ser necesarios para ciertas aplicaciones del escáner 11, por ejemplo, para el control de enfoque. El movimiento del eje Z se logra preferentemente con un posicionador piezoeléctrico 24, tal como el PIFOC de Polytec PI o el MIPOS 3 de Piezosystem Jena. El posicionador piezoeléctrico 24 está unido directamente al objetivo de microscopio 16 y está conectado a y dirigido por el procesador de datos 21 por medio de un controlador piezoeléctrico 26. También puede ser necesario un medio para proporcionar un ajuste de enfoque aproximado y puede ser proporcionado por el movimiento del eje z como parte de la platina motorizada 14 o un ajuste de enfoque aproximado manual de piñón y cremallera (no mostrado).
En un modo de realización, la platina motorizada 14 incluye una mesa de posicionamiento de alta precisión con vías lineales de cojinetes de bolas para proporcionar un movimiento suave y una excelente precisión de línea recta y planitud. Por ejemplo, la platina motorizado 14 podría incluir dos mesas Daedal modelo 106004 apiladas una encima de la otra. Otros tipos de platinas motorizadas 14 también son adecuadas para el escáner 11, incluidas platinas de un solo eje apiladas basadas en formas distintas a los cojinetes de bolas, platinas de posicionamiento de uno o varios ejes que están abiertas en el centro y son especialmente adecuadas para la transiluminación desde por debajo de la muestra, o platinas más grandes que pueden soportar una pluralidad de muestras. En un modo de realización, la platina motorizada 14 incluye dos mesas de posicionamiento de un solo eje apiladas, cada una acoplada a tornillos de avance de dos milímetros y motores paso a paso Nema-23. A la velocidad máxima del tornillo de avance de veinticinco revoluciones por segundo, la velocidad máxima de la muestra 12 en la platina motorizada 14 es de cincuenta milímetros por segundo. La selección de un tornillo de avance con un diámetro mayor, por ejemplo cinco milímetros, puede aumentar la velocidad máxima a más de 100 milímetros por segundo. La platina motorizada 14 puede equiparse con codificadores de posición mecánicos u ópticos, lo que tiene la desventaja de añadir un gasto significativo al sistema. En consecuencia, dicho modo de realización no incluye codificadores de posición. Sin embargo, si se fueran a usar servomotores en lugar de motores paso a paso, entonces tendría que usarse retroalimentación de posición para un control adecuado.
Los comandos de posición del procesador de datos 21 se convierten en comandos de voltaje o corriente del motor en el controlador de platina 22. En un modo de realización, el controlador de platina 22 incluye un controlador de motor paso a paso/servo de 2 ejes (Compumotor 6K2) y dos unidades de micropasos de 4 amperios. (Compumotor OEMZL4). Los micropasos proporcionan un medio para comandar el motor paso a paso en incrementos mucho más pequeños que el paso de motor único relativamente grande de 1,8 grados. Por ejemplo, en un micropaso de 100, se puede comandar que la muestra 12 se mueva en pasos tan pequeños como 0,1 micrómetros. En un modo de realización de esta invención se usa un micropaso de 25.000. También son posibles tamaños de paso más pequeños. Debería ser obvio que la selección óptima de la platina motorizada 14 y el controlador de platina 22 depende de muchos factores, incluida la naturaleza de la muestra 12, el tiempo deseado para la digitalización de la muestra y la resolución deseada de la imagen digital resultante de la muestra 12.
La lente de objetivo de microscopio 16 puede ser cualquier lente de objetivo de microscopio comúnmente disponible. Un experto en la técnica se dará cuenta de que la elección de qué lente de objetivo usar dependerá de las circunstancias particulares. En un modo de realización de la presente invención, la lente de objetivo de microscopio 16 es del tipo corregido a infinito.
La muestra 12 está iluminada por un sistema de iluminación 28 que incluye una fuente de luz 31 y una óptica de iluminación 32. La fuente de luz 31 en un modo de realización incluye una fuente de luz halógena de intensidad variable con un espejo reflectante cóncavo para maximizar la salida de luz y un filtro KG-1 para suprimir el calor. Sin embargo, la fuente de luz 31 también podría ser cualquier otro tipo de lámpara de arco, láser, diodo emisor de luz ("LED") u otra fuente de luz. La óptica de iluminación 32 en un modo de realización incluye un sistema de iluminación Kohler estándar con dos planos conjugados que son ortogonales al eje óptico. La óptica de iluminación 32 es representativa de la óptica de iluminación de campo claro que se puede encontrar en la mayoría de los microscopios compuestos disponibles en el mercado comercializados por compañías tales como Carl Zeiss, Nikon, Olympus o Leica. Un conjunto de planos conjugados incluye (i) una apertura de iris de campo iluminada por la fuente de luz 31, (ii) el plano de objeto que está definido por el plano focal de la muestra 12 y (iii) el plano que contiene los elementos sensibles a la luz de la cámara de exploración lineal 18. Un segundo plano conjugado incluye (i) el filamento de la bombilla que forma parte de la fuente de luz 31, (ii) la apertura de un iris condensador que se encuentra inmediatamente antes de la óptica de condensador que forma parte de la óptica de iluminación 32, y (iii) el plano focal posterior de la lente de objetivo de microscopio 16. En un modo de realización, la muestra 12 se ilumina y se forma una imagen de ella en modo de transmisión, con la cámara de exploración lineal 18 detectando la energía óptica que transmite la muestra 12, o por el contrario, la energía óptica que es absorbida por la muestra 12.
El escáner 11 de la presente invención es igualmente adecuado para detectar la energía óptica que se refleja en la muestra 12, en cuyo caso la fuente de luz 31, la óptica de iluminación 32 y la lente de objetivo de microscopio 16 deben seleccionarse en función de la compatibilidad con la imagenología de reflexión. Por lo tanto, un posible modo de realización puede ser la iluminación a través de un haz de fibra óptica que se coloca por encima de la muestra 12. Otras posibilidades incluyen la excitación que está condicionada espectralmente por un monocromador. Si la lente de objetivo de microscopio 16 se selecciona para que sea compatible con la microscopía de contraste de fase, entonces la incorporación de al menos una parada de fase en la óptica de condensador que forma parte de la óptica de iluminación 32 permitirá que el escáner 11 se use para la microscopía de contraste de fase. Para un experto en la técnica, las modificaciones requeridas para otros tipos de microscopía tales como el contraste de interferencia diferencial y la microscopía confocal deberían ser fácilmente evidentes. En general, el escáner 11 es adecuado, con modificaciones apropiadas pero bien conocidas, para la interrogación de muestras microscópicas en cualquier modo conocido de microscopía óptica.
Entre la lente de objetivo de microscopio 16 y la cámara de exploración lineal 18 están situadas la óptica de enfoque de cámara de exploración lineal 34 que enfocan la señal óptica capturada por la lente de objetivo de microscopio 16 en los elementos sensibles a la luz de la cámara de exploración lineal 18. En un microscopio corregido a infinito moderno la óptica de enfoque entre la lente de objetivo de microscopio y la óptica de ocular, o entre la lente de objetivo de microscopio y un puerto de imagenología externo, consiste en un elemento óptico conocido como lente de tubo que forma parte del tubo de observación de un microscopio. Muchas veces la lente del tubo consiste en múltiples elementos ópticos para impedir la introducción de coma o astigmatismo. Una de las motivaciones para el cambio relativamente reciente de la óptica tradicional de longitud de tubo finito a la óptica con corrección a infinito fue aumentar el espacio físico en el que la energía óptica de la muestra 12 es paralela, lo que significa que el punto focal de esta energía óptica está en el infinito. En este caso, los elementos accesorios como espejos dicroicos o filtros se pueden insertar en el espacio infinito sin cambiar el aumento de la trayectoria óptica o introducir artefactos ópticos no deseados.
Las lentes de objetivo del microscopio con corrección a infinito típicamente están inscritas con una marca de infinito. El aumento de la lente de objetivo de un microscopio con corrección a infinito viene dado por el cociente de la distancia focal de la lente del tubo dividida por la distancia focal de la lente de objetivo. Por ejemplo, una lente de tubo con una distancia focal de 180 milímetros dará como resultado un aumento de 20x si se usa una lente de objetivo con una distancia focal de 9 milímetros. Una de las razones por las que las lentes de objetivo fabricadas por diferentes fabricantes de microscopios no son compatibles es la falta de estandarización en la distancia focal de la lente de tubo. Por ejemplo, una lente de objetivo de 20x de Olympus, una empresa que usa una longitud focal de lente de tubo de 180 milímetros, no proporcionará un aumento de 20x en un microscopio Nikon que se basa en una longitud focal de longitud de tubo diferente de 200 milímetros. En cambio, el aumento efectivo de una lente de objetivo Olympus de este tipo grabada con 20x y que tiene una distancia focal de 9 milímetros será de 22,2x, obtenida dividiendo la longitud focal de la lente de tubo de 200 milímetros por la distancia focal de 9 milímetros de la lente de objetivo. Cambiar la lente de tubo en un microscopio convencional es prácticamente imposible sin desmontar el microscopio. La lente de tubo es parte de un elemento fijo crítico del microscopio. Otro factor que contribuye a la incompatibilidad entre las lentes de objetivo y los microscopios fabricados por diferentes fabricantes es el diseño de la óptica de ocular, los binoculares a través de los cuales se observa el espécimen. Si bien la mayoría de las correcciones ópticas se han diseñado en la lente de objetivo de microscopio, la mayoría de los usuarios de microscopios siguen convencidos de que existe algún beneficio al combinar la óptica binocular de un fabricante con las lentes de objetivo del microscopio del mismo fabricante para lograr la mejor imagen visual.
La óptica de enfoque de cámara de exploración lineal 34 incluye una óptica de lente de tubo montada dentro de un tubo mecánico. Dado que el escáner 11, en un modo de realización, carece de binoculares u oculares para la observación visual tradicional, se elimina inmediatamente el problema que sufren los microscopios convencionales de posible incompatibilidad entre lentes de objetivo y binoculares. Un experto en la técnica se dará cuenta de manera similar de que el problema de lograr la parafocalidad entre los oculares del microscopio y una imagen digital en un monitor de visualización también se elimina en virtud de no tener ningún ocular. Dado que el escáner 11 también supera la limitación del campo de visión de un microscopio tradicional al proporcionar un campo de visión que está prácticamente limitado solo por los límites físicos de la muestra 12, la importancia de la ampliación en un microscopio de imagenología totalmente digital tal como el proporcionado por el presente escáner 11 es limitada. Una vez que se ha digitalizado una porción de la muestra 12, es sencillo aplicar un aumento electrónico, a veces conocido como zoom eléctrico, a una imagen de la muestra 12 para incrementar su aumento. Incrementar el aumento de una imagen electrónicamente tiene el efecto de incrementar el tamaño de esa imagen en el monitor que se usa para visualizar la imagen. Si se aplica demasiado zoom electrónico, entonces el monitor de visualización podrá mostrar solo porciones de la imagen ampliada. Sin embargo, no es posible usar ampliación electrónica para visualizar información que no estaba presente en la señal óptica original que se digitalizó en primer lugar. Dado que uno de los objetivos del escáner 11 es proporcionar imágenes digitales de alta calidad, en lugar de la observación visual a través de los oculares de un microscopio, es importante que el contenido de las imágenes adquiridas por el escáner 11 incluya tantos detalles de imagen como sea posible. El término resolución se usa típicamente para describir dicho detalle de imagen y el término limitado por difracción se usa para describir el máximo detalle espacial limitado por longitud de onda disponible en una señal óptica. El escáner 11 proporciona imágenes digitales limitadas por difracción mediante la selección de una longitud focal de lente de tubo que se adapta de acuerdo con los bien conocidos criterios de muestreo de Nyquist tanto al tamaño de un elemento de píxel individual en una cámara sensible a la luz como a la cámara de exploración lineal 18 y a la apertura numérica de la lente de objetivo de microscopio 16. Es bien sabido que la apertura numérica, no el aumento, es el atributo que limita la resolución de la lente de objetivo de microscopio 16.
Un ejemplo ayudará a ilustrar la selección óptima de una longitud focal de lente de tubo que forma parte de la óptica de enfoque de cámara de exploración lineal 34. Se considera nuevamente la lente de objetivo de microscopio 16 de 20x con una distancia focal de 9 milímetros discutida anteriormente y se supone que esta lente objetivo tiene una apertura numérica de 0,50. Suponiendo que no haya una degradación apreciable del condensador, el poder de resolución limitado por difracción de esta lente de objetivo a una longitud de onda de 500 nanómetros es de aproximadamente 0,6 micrómetros, obtenido usando la conocida relación de Abbe. Se supone además que la cámara de exploración lineal 18, que en un modo de realización tiene una pluralidad de píxeles cuadrados de 14 micrómetros, se usa para detectar una porción de la muestra 12. De acuerdo con la teoría de muestreo, es necesario que al menos dos píxeles de sensor delimiten la característica espacial resoluble más pequeña. En este caso, la lente de tubo debe seleccionarse para lograr un aumento de 46,7, obtenido al dividir 28 micrómetros, lo que corresponde a dos píxeles de 14 micrómetros, por 0,6 micrómetros, la dimensión de característica resoluble más pequeña. La distancia focal óptima de la óptica de lente de tubo es, por lo tanto, de aproximadamente 420 milímetros, que se obtiene multiplicando 46,7 por 9. La óptica de enfoque de exploración lineal 34 con una óptica de lente de tubo que tiene una distancia focal de 420 milímetros será, por lo tanto, capaz de adquirir imágenes con la mejor resolución espacial posible, similar a lo que se observaría al ver un espécimen bajo un microscopio usando la misma lente de objetivo de 20x. Para reiterar, el escáner 11 utiliza una lente de objetivo de microscopio 16 tradicional de 20x en una configuración óptica de mayor aumento, en este ejemplo aproximadamente 47x, para adquirir imágenes digitales limitadas por difracción. Si se usara una lente de objetivo 16 de aumento 20x tradicional con una apertura numérica más alta, digamos 0,75, el aumento óptico de lente de tubo requerido para imagenología limitada por difracción sería de aproximadamente 615 milímetros, lo que corresponde a un aumento óptico total de 68x. De manera similar, si la apertura numérica de la lente de objetivo de 20x fuera solo 0,3, el aumento óptico óptimo de la lente del tubo sería solo de aproximadamente 28x, lo que corresponde a una distancia focal óptica de la lente del tubo de aproximadamente 252 milímetros. La óptica de enfoque de cámara de exploración lineal 34 son elementos modulares del escáner 11 y pueden intercambiarse según sea necesario para imagenología digital óptima. La ventaja de la imagenología digital limitada por difracción es particularmente significativa para aplicaciones, por ejemplo, microscopía de campo claro, en las que la reducción en el brillo de la señal que acompaña a los incrementos en el aumento se compensa fácilmente incrementando la intensidad de un sistema de iluminación 28 diseñado apropiadamente.
En principio, es posible unir ópticas de incremento de aumento externas a un sistema de imagenología digital basado en un microscopio convencional para incrementar efectivamente el aumento de la lente de tubo para lograr imagenología limitada por difracción como se acaba de describir para el presente escáner 11; sin embargo, la disminución resultante en el campo de visión a menudo es inaceptable, lo que hace que este enfoque sea poco práctico. Además, muchos usuarios de microscopios típicamente no entienden lo suficiente acerca de los detalles de imagenología limitada por difracción para emplear estas técnicas de manera efectiva por sí mismos. En la práctica, las cámaras digitales se conectan a puertos de microscopio con acopladores ópticos que reducen el aumento para intentar incrementar el tamaño del campo de visión a algo más similar a lo que se puede ver a través del ocular. La práctica estándar de añadir ópticas de aumento es una etapa en la dirección equivocada si el objetivo es obtener imágenes digitales limitadas por difracción.
En un microscopio convencional, típicamente se usan lentes de objetivo de diferente potencia para ver el espécimen a diferentes resoluciones y aumentos. Los microscopios estándar tienen un revólver que contiene cinco objetivos. En un sistema de imagenología completamente digital, tal como el presente escáner 11, solo se necesita una lente de objetivo de microscopio 16 con una apertura numérica correspondiente a la resolución espacial más alta deseable. Un modo de realización del escáner 11 proporciona solo una lente de objetivo de microscopio 16. Una vez que se ha capturado una imagen digital limitada por difracción a esta resolución, es sencillo usar técnicas de procesamiento de imágenes digitales estándar para presentar información de imagenología a cualquier resolución y aumento reducidos deseables.
Un modo de realización del escáner 11 se basa en una cámara de exploración lineal 18 Dalsa SPARK con 1024 píxeles (elementos de imagen) dispuestos en una agrupación lineal, teniendo cada píxel una dimensión de 14 por 14 micrómetros. También se puede usar cualquier otro tipo de agrupación lineal, ya sea empaquetada como parte de una cámara o integrada a la medida en un módulo electrónico de imagenología. La agrupación lineal en un modo de realización proporciona efectivamente ocho bits de cuantificación, pero también se pueden usar otras agrupaciones que proporcionen un nivel de cuantificación más alto o más bajo. También se pueden usar agrupaciones alternativas basadas en información de color rojo-verde-azul (RGB) de 3 canales o integración de retardo de tiempo (TDI). Las agrupaciones de TDI proporcionan una relación señal-ruido (SNR) sustancialmente mejor en la señal de salida al sumar los datos de intensidad de las regiones previamente sometidas a imagenología de un espécimen, lo que produce un aumento en la SNR que es proporcional a la raíz cuadrada del número de etapas de integración. Las agrupaciones de TDI pueden comprender múltiples etapas de agrupaciones lineales. Las agrupaciones de TDI están disponibles con 24, 32, 48, 64, 96 o incluso más etapas. El escáner 11 también admite agrupaciones lineales que se fabrican en una variedad de formatos, incluidos algunos con 512 píxeles, algunos con 1024 píxeles y otros que tienen hasta 4096 píxeles. Es posible que se requieran modificaciones apropiadas, pero bien conocidas, en el sistema de iluminación 28 y la óptica de enfoque de cámara de exploración lineal 34 para acomodar agrupaciones más grandes. Las agrupaciones lineales con una variedad de tamaños de píxel también se pueden usar en el escáner 11. El requisito principal para la selección de cualquier tipo de cámara de exploración lineal 18 es que la muestra 12 pueda estar en movimiento con respecto a la cámara de exploración lineal 18 durante la digitalización de la muestra 12 para obtener imágenes de alta calidad, superando los requisitos estáticos de los enfoques de formación de mosaicos de imagenología convencionales conocidos en la técnica anterior.
La señal de salida de la cámara de exploración lineal 18 está conectada al procesador de datos 21. El procesador de datos 21 en un modo de realización incluye una unidad central de procesamiento con electrónica auxiliar, por ejemplo, una placa base, para admitir al menos una placa electrónica de digitalización de señales, tal como una placa de imagenología o un capturador de fotogramas. En el presente modo de realización, la placa de imagenología es una placa de imagenología de bus PIXCID24 PCI de EPIX; sin embargo, hay muchos otros tipos de placas de imagenología o capturadores de fotogramas de una variedad de fabricantes que podrían usarse en lugar de la placa de EPIX. Un modo de realización alternativo podría ser una cámara de exploración lineal que usa una interfaz tal como IEEE 1394, también conocida como Firewire, para omitir la placa de imagenología por completo y almacenar datos directamente en un almacenamiento de datos 38, tal como un disco duro.
El procesador de datos 21 también está conectado a una memoria 36, tal como una memoria de acceso aleatorio (RAM), para el almacenamiento de datos a corto plazo, y al almacenamiento de datos 38, tal como un disco duro, para el almacenamiento de datos a largo plazo. Además, el procesador de datos 21 está conectado a un puerto de comunicaciones 40 que está conectado a una red 42 tal como una red de área local (LAN), una red de área amplia (WAN), una red de área metropolitana (MAN), una intranet, una extranet, o Internet global. La memoria 36 y el almacenamiento de datos 38 también están conectados entre sí. El procesador de datos 21 también es capaz de ejecutar programas informáticos, en forma de software, para controlar elementos críticos del escáner 11, tales como la cámara de exploración lineal 18 y el controlador de platina 22, o para una variedad de funciones de procesamiento de imágenes, funciones de análisis de imágenes o conexión de redes. El procesador de datos 21 puede basarse en cualquier sistema operativo, incluidos sistemas operativos tales como Windows, Linux, OS/2, Mac OS y Unix. En un modo de realización, el procesador de datos 21 funciona en base al sistema operativo Windows NT.
El procesador de datos 21, la memoria 36, el almacenamiento de datos 38 y el puerto de comunicación 40 son, cada uno, elementos que se pueden encontrar en un ordenador convencional. Un ejemplo sería un ordenador personal tal como un Dell Dimension XPS T500 que cuenta con un procesador Pentium III de 500 MHz y hasta 756 megabytes (MB) de RAM. En un modo de realización, el ordenador, los elementos que incluyen el procesador de datos 21, la memoria 36, el almacenamiento de datos 38 y el puerto de comunicaciones 40 son todos internos al escáner 11, de modo que la única conexión del escáner 11 a los otros elementos del sistema 10 es el puerto de comunicación 40. En un modo de realización alternativo del escáner 11, los elementos informáticos serían externos al escáner 11 con una conexión correspondiente entre los elementos informáticos y el escáner 11.
El escáner 11, en un modo de realización de la invención, integra microscopía óptica, imagenología digital, posicionamiento motorizado de muestras, computación y comunicaciones basadas en red en una unidad de un solo recinto. La principal ventaja de empaquetar el escáner 11 como una unidad de un solo recinto con el puerto de comunicaciones 40 como medio principal de entrada y salida de datos es una complejidad reducida y una mayor fiabilidad. Los diversos elementos del escáner 11 están optimizados para trabajar juntos, en marcado contraste con los sistemas tradicionales de imagenología basados en microscopios en los que el microscopio, la fuente de luz, la platina motorizada, la cámara y el ordenador generalmente los proporcionan diferentes proveedores y requieren una integración y un mantenimiento sustanciales.
El puerto de comunicaciones 40 proporciona un medio para comunicaciones rápidas con los demás elementos del sistema 10, incluida la red 42. Un protocolo de comunicaciones para el puerto de comunicaciones 40 es un protocolo de acceso múltiple por detección de portadora con detección de colisiones, tal como Ethernet, junto con el Protocolo TCP/IP para control de transmisión e interconexión de redes. El escáner 11 está diseñado para funcionar con cualquier tipo de medio de transmisión, incluidos banda ancha, banda base, cable coaxial, par trenzado, fibra óptica, DSL o inalámbrico.
En un modo de realización, el control del escáner 11 y la revisión de los datos de imagenología capturados por el escáner 11 se realizan en un ordenador 44 que está conectado a la red 42. El ordenador 44, en un modo de realización, está conectado a un monitor de visualización 46 para proporcionar información de imagenología a un operador. Se puede conectar una pluralidad de ordenadores 44 a la red 42. En un modo de realización, el ordenador 44 se comunica con el escáner 11 usando un navegador de red tal como Internet Explorer de Microsoft o Netscape Communicator de AOL. Las imágenes se almacenan en el escáner 11 en un formato comprimido común tal como JPEG, que es un formato de imagen que es compatible con los procedimientos estándar de descompresión de imágenes que ya están integrados en la mayoría de los navegadores comerciales. También funcionarán otros formatos de compresión de imágenes estándar o no estándar, con pérdida o sin pérdida. En un modo de realización, el escáner 11 es un servidor web que proporciona una interfaz de operador que se basa en páginas web que se envían desde el escáner 11 al ordenador 44. Para la revisión dinámica de datos de imagenología, un modo de realización del escáner 11 se basa en la reproducción, para su revisión en el monitor de visualización 46 que está conectado al ordenador 44, múltiples cuadros de datos de imagenología usando paquetes de software estándar compatibles con navegadores de múltiples tramas tales como Media-Player de Microsoft, Quicktime de Apple Computer o RealPlayer de Real Networks. En un modo de realización, el navegador del ordenador 44 usa el protocolo de transmisión de hipertexto (http) junto con TCP para el control de la transmisión.
Hay, y habrá en el futuro, muchos medios y protocolos diferentes mediante los cuales el escáner 11 podría comunicarse con el ordenador 44, o con una pluralidad de ordenadores. Si bien un modo de realización se basa en medios y protocolos estándar, el enfoque de desarrollar uno o varios módulos de software personalizados conocidos como subprogramas es igualmente factible y puede ser deseable para aplicaciones futuras seleccionadas del escáner 11. Además, no hay restricciones de que el ordenador 44 sea de cualquier tipo específico, tal como un ordenador personal (PC), o ser fabricado por una empresa específica, tal como Dell. Una de las ventajas de un puerto de comunicaciones estandarizado 40 es que cualquier tipo de ordenador 44 que opere un software de navegador de red común puede comunicarse con el escáner 11.
Si se desea, es posible, con algunas modificaciones al escáner 11, obtener imágenes con resolución espectral. Las imágenes con resolución espectral son imágenes en las que la información espectral se mide en cada píxel de la imagen. Las imágenes con resolución espectral podrían obtenerse reemplazando la cámara de exploración lineal 18 del escáner 11 con una rendija óptica y un espectrógrafo de imagenología. El espectrógrafo de imagenología usa un detector CCD bidimensional para capturar datos de intensidad específicos de longitud de onda para una columna de píxeles de imagen usando un prisma o rejilla para dispersar la señal óptica que se enfoca en la rendija óptica a lo largo de cada una de las filas del detector.
Volviendo ahora a la FIG. 12B, se muestra un diagrama de bloques de un segundo modo de realización de un sistema de microscopía óptica 10 de acuerdo con la presente invención. En este sistema 10, el escáner 11 es más complejo y costoso que el modo de realización mostrado en la FIG. 12A. No todos los atributos adicionales del escáner 11 que se muestran tienen que estar presentes para que cualquier modo de realización alternativo funcione correctamente. La FIG. 2 pretende proporcionar un ejemplo razonable de características y capacidades adicionales que podrían incorporarse al escáner 11.
El modo de realización alternativo de la FIG. 12B proporciona un nivel mucho mayor de automatización que el modo de realización de la FIG. 12A. Se logra un nivel más completo de automatización del sistema de iluminación 28 mediante conexiones entre el procesador de datos 21 y la fuente de luz 31 y la óptica de iluminación 32 del sistema de iluminación 28. La conexión a la fuente de luz 31 puede controlar el voltaje, o corriente, en forma de bucle abierto o cerrado, para controlar la intensidad de la fuente de luz 31. Recuerde que la fuente de luz 31 es una bombilla halógena en un modo de realización. La conexión entre el procesador de datos 21 y la óptica de iluminación 32 podría proporcionar un control de bucle cerrado de la apertura del iris de campo y el iris del condensador para proporcionar un medio para garantizar que se mantenga una iluminación Kohler óptima.
El uso del escáner 11 para imagenología de fluorescencia requiere modificaciones fácilmente reconocibles en la fuente de luz 31, la óptica de iluminación 32 y la lente de objetivo de microscopio 16. El segundo modo de realización de la FIG. 12B también proporciona un cubo de filtro de fluorescencia 50 que incluye un filtro de excitación, un filtro dicroico y un filtro de barrera. El cubo de filtro de fluorescencia 50 se posiciona en la trayectoria del haz con corrección a infinito que existe entre la lente de objetivo de microscopio 16 y la óptica de enfoque de cámara de exploración lineal 34. Un modo de realización para imagenología de fluorescencia podría incluir la adición de una rueda de filtros o un filtro sintonizable en la óptica de iluminación 32 para proporcionar la excitación espectral adecuada para la variedad de colorantes fluorescentes o nanocristales disponibles en el mercado.
La adición de al menos un divisor de haz 52 en la trayectoria de imagenología permite que la señal óptica se divida en al menos dos trayectorias. La trayectoria principal es a través de la óptica de enfoque de cámara de exploración lineal 34, como se explicó anteriormente, para permitir imagenología limitada por difracción por parte de la cámara de exploración lineal 18. Se proporciona una segunda trayectoria por medio de una cámara de explotación de área que enfoca la óptica 54 para imagenología mediante una cámara de exploración de área 56. Debe ser fácilmente evidente que la selección adecuada de estas dos ópticas de enfoque puede garantizar imagenología limitada por difracción por los dos sensores de cámara que tienen diferentes tamaños de píxel. La cámara de exploración de área 56 puede ser uno de los muchos tipos que están actualmente disponibles, incluyendo una cámara de vídeo en color simple, una cámara CCD refrigerada de alto rendimiento o una cámara de fotograma rápido de tiempo de integración variable. La cámara de exploración de área 56 proporciona una configuración de sistema imagenología tradicional para el escáner 11. La cámara de exploración de área 56 está conectada al procesador de datos 21. Si se usan dos cámaras, por ejemplo, la cámara de exploración lineal 18 y la cámara de exploración de área 56, ambos tipos de cámara se pueden conectar al procesador de datos usando una única placa de imagenología de doble propósito, dos placas de imagenología diferentes o la interfaz IEEE1394 Firewire, en cuyo caso es posible que no se necesiten una o ambas placas de imagenología. También están disponibles otros procedimientos relacionados de interconexión de sensores de imagenología con el procesador de datos 21.
Si bien la interfaz principal del escáner 11 con el ordenador 44 es a través de la red 42, puede haber casos, por ejemplo, un fallo de la red 42, donde es beneficioso poder conectar el escáner 11 directamente a un dispositivo de salida local tal como un monitor de visualización 58 y también proporcionar dispositivos de entrada locales tales como un teclado y un ratón 60 que están conectados directamente al procesador de datos 21 del escáner 11. En este caso, el software y el hardware de controlador apropiados también tendrían que proporcionarse.
El segundo modo de realización mostrado en la FIG. 12B también proporciona un nivel mucho mayor de rendimiento de imagenología automatizada. Se puede lograr una automatización mejorada de la imagenología del escáner 11 cerrando el bucle de control de enfoque que comprende el posicionador piezoeléctrico 24, el controlador piezoeléctrico 26 y el procesador de datos 21 usando procedimientos bien conocidos de enfoque automático. El segundo modo de realización también proporciona un revólver motorizado 62 para acomodar varias lentes de objetivo. EL revólver motorizado 62 está conectado y dirigido por el procesador de datos 21 a través de un controlador de revólver 64.
Hay otras características y capacidades del escáner 11 que podrían incorporarse. Por ejemplo, el proceso de explorar la muestra 12 con respecto a la lente de objetivo de microscopio 16 que es sustancialmente estacionaria en el plano x/y de la muestra 12 podría modificarse para comprender explorar la lente de objetivo de microscopio 16 con respecto a una muestra estacionaria 12. Explorar la muestra 12, o explorar la lente de objetivo de microscopio 16, o explorar tanto la muestra 12 como la lente de objetivo de microscopio 16 simultáneamente, son posibles modos de realización del escáner 11 que pueden proporcionar la misma imagen digital contigua grande de la muestra 12 que se ha discutido anteriormente.
El escáner 11 también proporciona una plataforma de propósito general para automatizar muchos tipos de análisis basados en microscopios. El sistema de iluminación 28 podría modificarse a partir de una lámpara halógena tradicional o una lámpara de arco a un sistema de iluminación basado en láser para permitir la exploración de la muestra 12 con excitación láser. Las modificaciones, incluida la incorporación de un tubo fotomultiplicador u otro detector sin imagenología, además o en lugar de la cámara de exploración lineal 18 o la cámara de exploración de área 56, podrían usarse para proporcionar un medio para detectar la señal óptica resultante de la interacción de la energía láser con la muestra 12.
Volviendo ahora a la FIG. 12C, el campo de visión de cámara de exploración lineal 70 comprende la región de la muestra 12 de la FIG. 12A que se somete a imagenología por una multitud de elementos de píxeles individuales 72 que están dispuestos de forma lineal en una agrupación lineal 74 como se muestra en la FIG. 12C. La agrupación lineal 74 de un modo de realización comprende 1024 de los elementos de píxel individuales 72, siendo cada uno de los elementos de píxel 72 cuadrados de 14 micrómetros. Las dimensiones físicas de la agrupación lineal 74 de un modo de realización son 14,34 milímetros por 14 micrómetros. Suponiendo, con fines de discusión del funcionamiento del escáner 11, que el aumento entre la muestra 12 y la cámara de exploración lineal 18 es diez, entonces el campo de visión de cámara de exploración lineal 70 corresponde a una región de la muestra 12 que tiene dimensiones igual a 1,43 milímetros por 1,4 micrómetros. Cada elemento de píxel 72 representa un área de aproximadamente 1,4 micrómetros por 1,4 micrómetros.
En un modo de realización del escáner 11, la exploración y la digitalización se realizan en una dirección de desplazamiento 84 que alterna entre tiras de imágenes. Este tipo de exploración bidireccional proporciona un proceso de digitalización más rápido que la exploración unidireccional, un procedimiento de exploración y digitalización que requiere la misma dirección de desplazamiento 84 para cada tira de imágenes.
Las capacidades de la cámara de exploración lineal 18 y el sensor de enfoque 30 típicamente determinan si la exploración y el enfoque se pueden realizar de forma bidireccional o unidireccional. Los sistemas unidireccionales a menudo comprenden más de una agrupación lineal 74, tal como una agrupación de colores de tres canales 86 o una agrupación TDI multicanal 88 que se muestra en la FIG. 12C. La agrupación de colores 86 detecta las intensidades de RGB requeridas para obtener una imagen en color. Un modo de realización alternativo para obtener información de color usa un prisma para dividir la señal óptica de banda ancha en los tres canales de color. La agrupación TDI 88 podría usarse en un modo de realización alternativo del escáner 11 para proporcionar un medio para aumentar el tiempo de integración efectivo de la cámara de exploración lineal 18, mientras se mantiene una velocidad de datos rápida y sin una pérdida significativa en la relación señal-ruido de los datos de imagenología digital.
La FIG. 13 es un diagrama de bloques que ilustra un dispositivo habilitado para procesador con cable o inalámbrico 500 de ejemplo que puede usarse en relación con diversos modos de realización descritos en el presente documento. Por ejemplo, el sistema 550 se puede usar como o junto con el sistema de exploración lineal como se describió anteriormente. Por ejemplo, el sistema 550 se puede utilizar para controlar los diversos elementos del sistema de exploración lineal. El sistema 550 puede ser un ordenador personal convencional, un servidor informático, un asistente digital personal, un teléfono inteligente, una tableta o cualquier otro dispositivo con procesador que sea capaz de comunicación de datos por cable o inalámbrica. También se pueden usar otros sistemas y/o arquitecturas informáticos, como quedará claro para los expertos en la técnica.
El sistema 550 incluye preferentemente uno o más procesadores, tales como el procesador 560. Se pueden proporcionar procesadores adicionales, tales como un procesador auxiliar para administrar la entrada/salida, un procesador auxiliar para realizar operaciones matemáticas de punto flotante, un microprocesador de propósito especial que tiene una arquitectura adecuado para la ejecución rápida de algoritmos de procesamiento de señales (por ejemplo, procesador de señales digitales), un procesador esclavo subordinado al sistema de procesamiento principal (por ejemplo, procesador especializado), un microprocesador o controlador adicional para sistemas de procesador doble o múltiple, o un coprocesador. Dichos procesadores auxiliares pueden ser procesadores discretos o pueden estar integrados con el procesador 560.
El procesador 560 está preferentemente conectado a un bus de comunicación 555. El bus de comunicación 555 puede incluir un canal de datos para facilitar la transferencia de información entre el almacenamiento y otros componentes periféricos del sistema 550. El bus de comunicación 555 también puede proporcionar un conjunto de señales usadas para la comunicación con el procesador 560, que incluye un bus de datos, un bus de direcciones y un bus de control (no mostrado). El bus de comunicación 555 puede comprender cualquier arquitectura de bus estándar o no estándar tal como, por ejemplo, arquitecturas de bus que cumplan con la arquitectura estándar de la industria ("ISA"), la arquitectura estándar de la industria extendida ("EISA"), la arquitectura de microcanales ("MCA"), bus local de interconexión de componentes periféricos ("PCI"), o normas promulgadas por el Instituto de Ingenieros Eléctricos y Electrónicos ("IEEE"), incluido el bus de interfaz de propósito general IEEE 488 ("GPIB"), IEEE 696/S-100, y similares.
El sistema 550 incluye preferentemente una memoria principal 565 y también puede incluir una memoria secundaria 570. La memoria principal 565 proporciona almacenamiento de instrucciones y datos para programas que se ejecutan en el procesador 560. La memoria principal 565 es típicamente una memoria basada en semiconductores, tal como memoria dinámica de acceso aleatorio ("DRAM") y/o memoria estática de acceso aleatorio ("SRAM"). Otros tipos de memorias basadas en semiconductores incluyen, por ejemplo, la memoria dinámica síncrona de acceso aleatorio ("SDRAM"), la memoria dinámica de acceso aleatorio Rambus ("RDRAM"), la memoria de acceso aleatorio ferroeléctrica ("FRAM") y similares, incluida la memoria de solo lectura ("ROM").
La memoria secundaria 570 puede incluir opcionalmente una memoria interna 575 y/o un medio extraíble 580, por ejemplo, una unidad de disquete, una unidad de cinta magnética, una unidad de disco compacto ("CD"), una unidad de disco versátil digital ("DVD"), etc. El medio extraíble 580 se lee y/o se escribe de una manera bien conocida. El medio de almacenamiento extraíble 580 puede ser, por ejemplo, un disquete, cinta magnética, CD, DVD, tarjeta SD, etc.
El medio de almacenamiento extraíble 580 es un medio legible por ordenador no transitorio que tiene almacenado código ejecutable por ordenador (es decir, software) y/o datos. El software informático o los datos almacenados en el medio de almacenamiento extraíble 580 se leen en el sistema 550 para que los ejecute el procesador 560.
En modos de realización alternativos, la memoria secundaria 570 puede incluir otros medios similares para permitir que se carguen programas informáticos u otros datos o instrucciones en el sistema 550. Dichos medios pueden incluir, por ejemplo, un medio de almacenamiento externo 595 y una interfaz 570. Ejemplos de del medio de almacenamiento externo 595 pueden incluir una unidad de disco duro externa o una unidad óptica externa, o una unidad magnetoóptica externa.
Otros ejemplos de memoria secundaria 570 pueden incluir memoria basada en semiconductores, tal como memoria de solo lectura programable ("PROM"), memoria de solo lectura programable borrable ("EPROM"), memoria de solo lectura borrable eléctricamente ("EEPROM"), o memoria flash (memoria orientada a bloques similar a EEPROM). También se incluyen otros medios de almacenamiento extraíbles 580 e interfaz de comunicación 590, que permiten transferir software y datos desde un medio externo 595 al sistema 550.
El sistema 550 también puede incluir una interfaz de comunicación 590. La interfaz de comunicación 590 permite transferir software y datos entre el sistema 550 y dispositivos externos (por ejemplo, impresoras), redes o fuentes de información. Por ejemplo, el software informático o el código ejecutable pueden transferirse al sistema 550 desde un servidor de red a través de la interfaz de comunicación 590. Los ejemplos de la interfaz de comunicación 590 incluyen un módem, una tarjeta de interfaz de red ("NIC"), una tarjeta de datos inalámbrica, un puerto de comunicaciones, una ranura y una tarjeta PCMCIA, una interfaz de infrarrojos y un FireWire IEEE 1394, solo por nombrar algunos.
La interfaz de comunicación 590 implementa preferentemente normas de protocolo promulgadas por la industria, tales como normas Ethernet IEEE 802, canal de fibra, línea de abonado digital ("DSL"), línea de abonado digital asíncrona ("ADSL"), retransmisión de tramas, modo de transferencia asíncrona ("ATM"), red de servicios digitales integrados ("ISDN"), servicios de comunicaciones personales ("PCS"), protocolo de control de transmisión/protocolo de Internet ("TCP/IP"), protocolo de Internet de línea serie/protocolo punto a punto ("SLIP/PPP"), etc., pero también puede implementar protocolos de interfaz personalizados o no estándar.
El software y los datos transferidos a través de la interfaz de comunicación 590 generalmente tienen la forma de señales de comunicación eléctrica 605. Estas señales 605 se proporcionan preferentemente a la interfaz de comunicación 590 por medio de un canal de comunicación 600. En un modo de realización, el canal de comunicación 600 puede ser una red cableada o inalámbrica, o cualquier variedad de otros enlaces de comunicación. El canal de comunicación 600 transporta señales 605 y puede implementarse usando una variedad de medios de comunicación alámbricos o inalámbricos que incluyen alambre o cable, fibra óptica, línea telefónica convencional, enlace de teléfono celular, enlace de comunicación de datos inalámbricos, enlace de radiofrecuencia ("RF"), o enlace infrarrojo, solo por nombrar algunos.
El código ejecutable por ordenador (es decir, programas informáticos o software) se almacena en la memoria principal 565 y/o en la memoria secundaria 570. Los programas informáticos también pueden recibirse a través de la interfaz de comunicación 590 y almacenarse en la memoria principal 565 y/o en la memoria secundaria 570. Dichos programas informáticos, cuando se ejecutan, permiten que el sistema 550 realice las diversas funciones de la presente invención como se ha descrito anteriormente.
En esta descripción, el término "medio legible por ordenador" se usa para referirse a cualquier medio de almacenamiento no transitorio legible por ordenador usado para proporcionar código ejecutable por ordenador (por ejemplo, software y programas informáticos) al sistema 550. Ejemplos de estos medios incluyen la memoria principal 565, la memoria secundaria 570 (incluida la memoria interna 575, el medio extraíble 580 y el medio de almacenamiento externo 595), y cualquier dispositivo periférico acoplado comunicativamente con la interfaz de comunicación 590 (incluido un servidor de información de red u otro dispositivo de red). Estos medios legibles por ordenador no transitorios son medios para proporcionar código ejecutable, instrucciones de programación y software al sistema 550.
En un modo de realización que se implementa usando software, el software puede almacenarse en un medio legible por ordenador y cargarse en el sistema 550 por medio de un medio extraíble 580, una interfaz de E/S 585 o una interfaz de comunicación 590. En dicho modo de realización, el software se carga en el sistema 550 en forma de señales de comunicación eléctrica 605. El software, cuando es ejecutado por el procesador 560, preferentemente hace que el procesador 560 realice las características y funciones inventivas descritas anteriormente en el presente documento.
El sistema 550 también incluye componentes de comunicación inalámbrica opcionales que facilitan la comunicación inalámbrica a través de una red de voz y de datos. Los componentes de comunicación inalámbrica comprenden un sistema de antena 610, un sistema de radio 615 y un sistema de banda base 620. En el sistema 550, las señales de radiofrecuencia ("RF") son transmitidas y recibidas por el aire por el sistema de antena 610 bajo la gestión del sistema de radio 615.
En un modo de realización, el sistema de antena 610 puede comprender una o más antenas y uno o más multiplexores (no mostrados) que realizan una función de conmutación para proporcionar al sistema de antena 610 trayectorias de transmisión y recepción de señales. En la trayectoria de recepción, las señales de RF recibidas pueden acoplarse desde un multiplexor a un amplificador de bajo ruido (no mostrado) que amplifica la señal de RF recibida y envía la señal amplificada al sistema de radio 615.
En modos de realización alternativos, el sistema de radio 615 puede comprender una o más radios que están configuradas para comunicarse en diversas frecuencias. En un modo de realización, el sistema de radio 615 puede combinar un demodulador (no mostrado) y un modulador (no mostrado) en un circuito integrado ("IC"). El demodulador y el modulador también pueden ser componentes separados. En la trayectoria entrante, el demodulador elimina la señal portadora de RF dejando una señal de audio de recepción de banda base, que se envía desde el sistema de radio 615 al sistema de banda base 620.
Si la señal recibida contiene información de audio, entonces el sistema de banda base 620 decodifica la señal y la convierte en una señal analógica. A continuación, la señal se amplifica y se envía a un altavoz. El sistema de banda base 620 también recibe señales de audio analógicas desde un micrófono. Estas señales de audio analógicas se convierten en señales digitales y son codificadas por el sistema de banda base 620. El sistema de banda base 620 también codifica las señales digitales para transmisión y genera una señal de audio de transmisión de banda base que se enruta a la porción de modulador del sistema de radio 615. El modulador mezcla la señal de audio de transmisión de banda base con una señal portadora de RF generando una señal de transmisión de RF que se enruta al sistema de antena y puede pasar a través de un amplificador de potencia (no se muestra). El amplificador de potencia amplifica la señal de transmisión de RF y la enruta al sistema de antena 610 donde la señal se conmuta al puerto de antena para su transmisión.
El sistema de banda base 620 también está acoplado comunicativamente con el procesador 560. La unidad central de procesamiento 560 tiene acceso a las áreas de almacenamiento de datos 565 y 570. La unidad central de procesamiento 560 está preferentemente configurada para ejecutar instrucciones (es decir, programas informáticos o software) que pueden ser almacenados en la memoria 565 o en la memoria secundaria 570. Los programas informáticos también pueden recibirse desde el procesador de banda base 610 y almacenarse en el área de almacenamiento de datos 565 o en la memoria secundaria 570, o ejecutarse al recibirlos. Dichos programas informáticos, cuando se ejecutan, permiten que el sistema 550 realice las diversas funciones de la presente invención como se ha descrito anteriormente. Por ejemplo, las áreas de almacenamiento de datos 565 pueden incluir diversos módulos de software (no mostrados) que se describieron anteriormente.
Diversos modos de realización también pueden implementarse principalmente en hardware usando, por ejemplo, componentes tales como circuitos integrados específicos de la aplicación ("ASIC") o conjuntos de puertas programables en campo ("FPGA"). La implementación de una máquina de estado de hardware capaz de realizar las funciones descritas en el presente documento también será evidente para los expertos en la técnica pertinente. También se pueden implementar diversos modos de realización usando una combinación de hardware y software.
Además, los expertos en la técnica apreciarán que los diversos bloques lógicos ilustrativos, módulos, circuitos y etapas de procedimiento descritos en relación con las figuras descritas anteriormente y los modos de realización divulgados en el presente documento a menudo se pueden implementar como hardware electrónico, software informático, o combinaciones de ambos. Para ilustrar claramente esta intercambiabilidad de hardware y software, diversos componentes, bloques, módulos, circuitos y etapas ilustrativos se han descrito anteriormente en general en términos de su funcionalidad. Si dicha funcionalidad se implementa como hardware o software depende de la aplicación particular y las restricciones de diseño impuestas en el sistema general. Los expertos en la técnica pueden implementar la funcionalidad descrita de varias maneras para cada aplicación particular, pero dichas decisiones de implementación no deben interpretarse como que provocan una desviación del alcance de la invención. Además, el agrupamiento de funciones dentro de un módulo, bloque, circuito o etapa es para facilitar la descripción. Las funciones o etapas específicas se pueden mover de un módulo, bloque o circuito a otro sin apartarse de la invención.
Además, los diversos bloques, módulos y procedimientos lógicos ilustrativos descritos en relación con los modos de realización divulgados en el presente documento pueden implementarse o realizarse con un procesador de propósito general, un procesador de señales digitales ("DSP"), un ASIC, FPGA u otro dispositivo lógico programable, lógica de transistor o puerta discreta, componentes de hardware discretos o cualquier combinación de los mismos diseñada para realizar las funciones descritas en el presente documento. Un procesador de propósito general puede ser un microprocesador, pero como alternativa, el procesador puede ser cualquier procesador, controlador, microcontrolador o máquina de estado. Un procesador también puede implementarse como una combinación de dispositivos informáticos, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo DSP o cualquier otra configuración de ese tipo.
Además, las etapas de un procedimiento o algoritmo descritos en relación con los modos de realización divulgados en el presente documento pueden incorporarse directamente en hardware, en un módulo de software ejecutado por un procesador o en una combinación de ambos. Un módulo de software puede residir en la memoria RAM, la memoria flash, la memoria ROM, la memoria EPROM, la memoria EEPROM, los registros, el disco duro, un disco extraíble, un CD-ROM o cualquier otra forma de medio de almacenamiento, incluido un medio de almacenamiento en red. Un medio de almacenamiento ejemplar puede acoplarse al procesador de manera que el procesador pueda leer información del medio de almacenamiento y escribir información en él. Como alternativa, el medio de almacenamiento puede ser parte integral del procesador. El procesador y el medio de almacenamiento también pueden residir en un ASIC.
La descripción anterior de los modos de realización divulgados se proporciona para permitir que cualquier experto en la técnica realice o use la invención. Diversas modificaciones a estos modos de realización serán fácilmente evidentes para los expertos en la técnica, y los principios genéricos descritos en el presente documento se pueden aplicar a otros modos de realización sin apartarse del alcance de la invención. Por tanto, debe entenderse que la descripción y los dibujos presentados en el presente documento representan un modo de realización actualmente preferido de la invención y, por lo tanto, son representativos de la materia objeto que se contempla ampliamente en la presente invención. Se entiende además que el alcance de la presente invención está definido por las reivindicaciones adjuntas.

Claims (14)

REIVINDICACIONES
1. Un sistema para capturar una imagen digital de un portaobjetos, comprendiendo el sistema:
una lente de objetivo (130, 16) que tiene un único eje óptico y un campo de visión óptico (50);
un posicionador motorizado (24) para controlar la lente de objetivo (130, 16);
una platina configurada para soportar una muestra (12);
al menos un sensor de línea de imagenología (20) posicionado perpendicular al eje óptico y posicionado en el centro del campo de visión óptico (50);
al menos un sensor de línea de enfoque (30) posicionado en un ángulo con el eje óptico y posicionado fuera del centro del campo de visión óptico (50);
al menos un divisor de haz (140) acoplado ópticamente a la lente de objetivo (130, 16) y configurado para recibir una o más imágenes de al menos una porción de la muestra (12) a través de la lente de objetivo (130, 16), y proporcionar simultáneamente una primera porción de las una o más imágenes al, al menos un, sensor de línea de enfoque (30) y una segunda porción de las una o más imágenes al, al menos un, sensor de línea de imagenología (20); y al menos un procesador que controla uno o más de la platina y la lente de objetivo (130, 16) de manera que cada porción de las una o más imágenes es recibida por el al menos un sensor de línea de enfoque (30) en un momento anterior a que esta sea recibida por el al menos un sensor de línea de formación de imágenes (20),
en donde una distancia (h) entre el al menos un sensor de línea de imagenología y el al menos un sensor de línea de enfoque está determinada por h = raíz cuadrada (R2 -(L/2)2), en donde R es el radio del campo de visión óptico y L es la longitud del sensor de línea de enfoque, y
en donde el tiempo t para que el al menos un sensor de línea de enfoque capture líneas de cámara para el cálculo de la altura de enfoque y para mover la lente de objetivo está determinado por v*t = h/Menfoque, en donde v es la velocidad de exploración, y en donde Menfoque es una ampliación óptica de una trayectoria de enfoque.
2. El sistema de la reivindicación 1, en donde el ángulo del sensor de línea de enfoque (30) con respecto al eje óptico está determinado por sen0 = d/L, donde d es el rango de enfoque proyectado en el sensor de enfoque (30) y L es la longitud del sensor de enfoque (30).
3. El sistema de la reivindicación 1, en donde la posición fuera del centro del al menos un sensor de línea de enfoque (30) está en una ubicación por delante de la ubicación de la posición media del al menos un sensor de línea de imagen (20) con respecto a un dirección de exploración.
4. El sistema de la reivindicación 1, en donde la platina es una platina motorizada (14) y el al menos un procesador controla la platina motorizada (14).
5. El sistema de la reivindicación 1, en donde el al menos un procesador además:
recibe una primera porción capturada de las una o más imágenes del sensor de línea de enfoque (30); y, durante el tiempo t,
determina una altura de enfoque para la primera porción capturada de las una o más imágenes, y
hace que la lente de objetivo (130, 16) se mueva a la altura de enfoque antes de que la primera porción de las una o más imágenes sea capturada por el sensor de línea de imagenología (20).
6. El sistema de la reivindicación 1, en donde un eje de rotación del al menos un sensor de línea de enfoque (30) es perpendicular al eje óptico único.
7. El sistema de la reivindicación 2, en donde la relación entre el rango de enfoque proyectado en el sensor de enfoque (30) y el rango de enfoque en el espécimen en el portaobjetos está determinada por d = z * Menfoque2, donde z es el rango de enfoque del espécimen en el portaobjetos.
8. El sistema de la reivindicación 1, en donde el centro del al menos un sensor de línea de enfoque (30) está alineado con el centro del al menos un sensor de línea de imagenología (20) a lo largo de un eje Y o en donde el al menos un sensor de línea de enfoque (30) comprende una agrupación de sensores de línea y una agrupación de microlentes (250).
9. El sistema de la reivindicación 1, en donde el al menos un sensor de línea de enfoque (30) comprende una agrupación de detectores lineales y un prisma en cuña (270) unido a la agrupación de detectores lineales o en donde el al menos un sensor de línea de enfoque (30) comprende dos o más sensores de enfoque (30).
10. El sistema de la reivindicación 1, en donde el al menos un procesador alinea además porciones adyacentes de las una o más imágenes en una imagen digital única de la al menos una porción de la muestra (12).
11. El sistema de la reivindicación 1, en donde el al menos un sensor de línea de enfoque (30) tiene una longitud que es más larga o más corta que una longitud del sensor de línea de imagenología (20).
12. El sistema de la reivindicación 1, en donde el al menos un sensor de línea de enfoque (30) comprende una número de sensores de píxeles que es mayor o menor que un número de sensores de píxeles del sensor de línea de imagenología (20).
13. Un procedimiento para capturar una imagen digital de un portaobjetos, comprendiendo el procedimiento: por una lente de objetivo (130, 16) que tiene un único eje óptico y un campo de visión óptico (50), adquirir una o más imágenes de al menos una porción de una muestra (12) soportada sobre una platina;
por al menos un divisor de haz (140) acoplado ópticamente a la lente de objetivo (130, 16), proporcionar simultáneamente una primera porción de las una o más imágenes a al menos un sensor de línea de enfoque (30) posicionado en un ángulo con respecto a la óptica y posicionado fuera del centro del campo de visión óptico (50) y una segunda porción de las una o más imágenes a al menos un sensor de línea de imagenología (20) posicionado ortogonal al eje óptico y posicionado en el medio del campo óptico de visión (50); y
por al menos un procesador, controlar una o más de la platina y la lente de objetivo (130, 16) de manera que cada porción de las una o más imágenes es recibida por el al menos un sensor de línea de enfoque (30) en un momento anterior a que esta sea recibida por el al menos un sensor de línea de imagenología (20),
en donde una distancia (h) entre el al menos un sensor de línea de imagenología y el al menos un sensor de línea de enfoque está determinada por h = raíz cuadrada (R2 -(L/2)2),
en donde R es el radio del campo óptico de visión y L es la longitud del sensor de línea de enfoque, y en donde el tiempo disponible t para que al menos un sensor de línea de enfoque capture múltiples líneas de cámara para el cálculo de la altura de enfoque y para mover la lente de objetivo está determinado por v*t = h/Menfoque, en donde v es la velocidad de exploración, y en donde Menfoque es una ampliación óptica de una trayectoria de enfoque.
14. El procedimiento de la reivindicación 13, en donde el procedimiento está adaptado para operar el sistema de una de las reivindicaciones 1 a 12.
ES13784683T 2012-05-02 2013-03-13 Enfoque en tiempo real en imagenología de exploración lineal Active ES2953897T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261641788P 2012-05-02 2012-05-02
PCT/US2013/031045 WO2013165576A1 (en) 2012-05-02 2013-03-13 Real-time focusing in line scan imaging

Publications (1)

Publication Number Publication Date
ES2953897T3 true ES2953897T3 (es) 2023-11-16

Family

ID=49514720

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13784683T Active ES2953897T3 (es) 2012-05-02 2013-03-13 Enfoque en tiempo real en imagenología de exploración lineal

Country Status (5)

Country Link
US (5) US9841590B2 (es)
EP (2) EP4235254A3 (es)
JP (1) JP6211063B2 (es)
ES (1) ES2953897T3 (es)
WO (1) WO2013165576A1 (es)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9860437B2 (en) 2011-12-19 2018-01-02 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
US10298833B2 (en) 2011-12-19 2019-05-21 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
US9971140B2 (en) 2011-12-19 2018-05-15 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
WO2013165576A1 (en) 2012-05-02 2013-11-07 Aperio Technologies, Inc. Real-time focusing in line scan imaging
EP2947488B1 (en) * 2013-01-17 2019-02-27 Hamamatsu Photonics K.K. Image acquisition device and focus method for image acquisition device
JP6433888B2 (ja) * 2013-04-26 2018-12-05 浜松ホトニクス株式会社 画像取得装置、試料の合焦点情報を取得する方法及びシステム
JP6276024B2 (ja) * 2013-12-25 2018-02-07 アレイ株式会社 撮影装置、並びに、画像処理装置およびその方法
JP6798990B2 (ja) * 2014-08-13 2020-12-09 サマー ガロー ダニエル 線走査、標本走査、多モード共焦点顕微鏡
DE102015215837A1 (de) * 2015-08-19 2017-02-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Verfahren zum Herstellen derselben und Abbildungssystem
US10634894B2 (en) 2015-09-24 2020-04-28 Leica Biosystems Imaging, Inc. Real-time focusing in line scan imaging
US20170146784A1 (en) * 2015-11-19 2017-05-25 Jeffrey William Schmidt Compact Microscope Module
JP6698421B2 (ja) 2016-05-17 2020-05-27 富士フイルム株式会社 観察装置および方法並びに観察装置制御プログラム
US10203491B2 (en) 2016-08-01 2019-02-12 Verily Life Sciences Llc Pathology data capture
US10025902B2 (en) 2016-08-12 2018-07-17 Verily Life Sciences Llc Enhanced pathology diagnosis
EP3538940A1 (en) * 2016-11-12 2019-09-18 The Trustees of Columbia University in the City of New York Microscopy devices, methods and systems
CN117218432B (zh) * 2016-12-30 2024-07-23 徕卡生物系统成像股份有限公司 成像系统及使用成像系统进行成像的方法
GB201704770D0 (en) * 2017-01-05 2017-05-10 Illumina Inc Predictive focus tracking apparatus and methods
EP3355038B1 (en) * 2017-01-25 2021-09-08 Specim, Spectral Imaging Oy Ltd Imaging apparatus and operating method
JP6704530B2 (ja) * 2017-08-29 2020-06-03 富士フイルム株式会社 撮影制御装置、方法およびプログラム
WO2019044080A1 (ja) 2017-08-30 2019-03-07 富士フイルム株式会社 観察装置および方法並びに観察装置制御プログラム
ES2928577T3 (es) * 2017-09-29 2022-11-21 Leica Biosystems Imaging Inc Barrido en Z fijo bidimensional y tridimensional
JP6985506B2 (ja) 2017-09-29 2021-12-22 ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. リアルタイムオートフォーカス合焦アルゴリズム
CN114779459A (zh) 2017-09-29 2022-07-22 徕卡生物系统成像股份有限公司 实时自动聚焦扫描
CN111164484B (zh) * 2017-09-29 2022-07-29 徕卡生物系统成像股份有限公司 双程微距图像
EP3712671A4 (en) * 2017-11-17 2021-01-13 FUJIFILM Corporation OBSERVATION DEVICE AND METHOD, AND OBSERVATION DEVICE CONTROL PROGRAM
WO2019098150A1 (ja) 2017-11-17 2019-05-23 富士フイルム株式会社 観察装置および方法並びに観察装置制御プログラム
JP6945737B2 (ja) * 2017-11-28 2021-10-06 ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. デュアルプロセッサ画像処理
US11301655B2 (en) * 2017-12-15 2022-04-12 Cognex Corporation Vision imaging system having a camera and dual aimer assemblies
NL2020618B1 (en) * 2018-01-12 2019-07-18 Illumina Inc Real time controller switching
EP3514600A1 (en) * 2018-01-19 2019-07-24 Leica Instruments (Singapore) Pte. Ltd. Method for fluorescence intensity normalization
JP7298993B2 (ja) * 2018-04-09 2023-06-27 浜松ホトニクス株式会社 試料観察装置及び試料観察方法
WO2020066043A1 (ja) 2018-09-28 2020-04-02 オリンパス株式会社 顕微鏡システム、投影ユニット、及び、画像投影方法
EP3988988A4 (en) 2018-09-28 2023-09-13 Evident Corporation MICROSCOPE SYSTEM, PROJECTION UNIT AND IMAGE PROJECTION METHOD
EP3988987A4 (en) * 2018-09-28 2023-09-20 Evident Corporation MICROSCOPE SYSTEM, PROJECTION UNIT AND IMAGE PROJECTION METHOD
WO2020194491A1 (ja) * 2019-03-26 2020-10-01 株式会社日立ハイテク 欠陥検査装置
EP3882771A1 (en) 2020-03-16 2021-09-22 Leica Microsystems CMS GmbH Control system and method for operating a system
TW202336423A (zh) * 2021-10-01 2023-09-16 美商伊路米納有限公司 用於傳輸光之設備及方法
TR2022006875A2 (tr) * 2022-04-26 2022-05-23 Technomind Dijital Sistemler Sanayi Ticaret Ltd Sirketi Patoloji̇ numuneleri̇ni̇ di̇ji̇talleşti̇rme si̇stemi̇
WO2024006284A1 (en) * 2022-07-01 2024-01-04 Illumina Cambridge Limited Multiband scanning and fiber bundle to enable reduced light source intensity and improved imaging quality

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3967110A (en) 1973-09-21 1976-06-29 Corning Glass Works Automatic focusing system
US4636627A (en) * 1983-01-17 1987-01-13 Canon Kabushiki Kaisha Focus detecting apparatus
US5756307A (en) 1991-09-20 1998-05-26 The United States Of America As Represented By The Department Of Health And Human Services Sequence of human dopamine transporter cDNA
JPH08320430A (ja) 1995-05-23 1996-12-03 Nikon Corp 自動焦点検出装置
JPH09189850A (ja) 1996-01-09 1997-07-22 Olympus Optical Co Ltd オートフォーカス顕微鏡
JPH1152224A (ja) * 1997-06-04 1999-02-26 Hitachi Ltd 自動焦点検出方法およびその装置並びに検査装置
US6091075A (en) 1997-06-04 2000-07-18 Hitachi, Ltd. Automatic focus detection method, automatic focus detection apparatus, and inspection apparatus
US20060060781A1 (en) * 1997-08-11 2006-03-23 Masahiro Watanabe Charged-particle beam apparatus and method for automatically correcting astigmatism and for height detection
JP3544463B2 (ja) * 1997-10-28 2004-07-21 ペンタックス株式会社 合焦装置および合焦装置を備えた画像読み取り装置
US6640014B1 (en) 1999-01-22 2003-10-28 Jeffrey H. Price Automatic on-the-fly focusing for continuous image acquisition in high-resolution microscopy
US6839469B2 (en) 2000-01-21 2005-01-04 Lam K. Nguyen Multiparallel three dimensional optical microscopy system
US6724489B2 (en) 2000-09-22 2004-04-20 Daniel Freifeld Three dimensional scanning camera
AU2002213157A1 (en) 2000-10-12 2002-04-22 Amnis Corporation System and method for high numeric aperture imaging systems
DE10127284A1 (de) 2001-06-05 2002-12-12 Zeiss Carl Jena Gmbh Autofokussiereinrichtung für ein optisches Gerät
JP2004046132A (ja) * 2002-05-17 2004-02-12 Olympus Corp 自動焦点調節装置
US6760154B1 (en) 2002-06-04 2004-07-06 Biotechs, Inc. Microscope system with continuous autofocus
JP4370554B2 (ja) 2002-06-14 2009-11-25 株式会社ニコン オートフォーカス装置およびオートフォーカス付き顕微鏡
DE10319182B4 (de) 2003-04-29 2008-06-12 Carl Zeiss Jena Gmbh Verfahren und Anordnung zur Bestimmung der Fokusposition bei der Abbildung einer Probe
US7330574B2 (en) 2003-05-08 2008-02-12 Ometrix, Inc. Best-focus estimation by lateral scanning
US20050089208A1 (en) * 2003-07-22 2005-04-28 Rui-Tao Dong System and method for generating digital images of a microscope slide
JP2005070225A (ja) * 2003-08-21 2005-03-17 Tokyo Seimitsu Co Ltd 表面画像投影装置及び表面画像投影方法
JP2005114859A (ja) 2003-10-03 2005-04-28 Nikon Corp 顕微鏡
WO2005057193A1 (en) 2003-11-18 2005-06-23 Applied Materials Israel, Ltd Inspection system with auto-focus
US7232980B2 (en) * 2004-05-24 2007-06-19 Hamamatsu Photonics K.K. Microscope system
US7813579B2 (en) 2004-05-24 2010-10-12 Hamamatsu Photonics K.K. Microscope system
US8164622B2 (en) * 2005-07-01 2012-04-24 Aperio Technologies, Inc. System and method for single optical axis multi-detector microscope slide scanner
JP4680052B2 (ja) * 2005-12-22 2011-05-11 シスメックス株式会社 標本撮像装置及びこれを備える標本分析装置
JP2009526272A (ja) 2006-02-10 2009-07-16 モノジェン インコーポレイテッド 顕微鏡媒体ベースの標本からデジタル画像データを収集するための方法および装置およびコンピュータプログラム製品
JP5094048B2 (ja) * 2006-06-09 2012-12-12 株式会社日立ハイテクノロジーズ 外観検査装置
US7769219B2 (en) 2006-12-11 2010-08-03 Cytyc Corporation Method for assessing image focus quality
DE102007017598A1 (de) 2007-04-13 2008-10-16 Carl Zeiss Microimaging Gmbh Verfahren und Anordnung zum Positionieren eines Lichtblattes in der Fokusebene einer Detektionsoptik
US8179432B2 (en) 2007-04-30 2012-05-15 General Electric Company Predictive autofocusing
US7576307B2 (en) 2007-04-30 2009-08-18 General Electric Company Microscope with dual image sensors for rapid autofocusing
US8878923B2 (en) 2007-08-23 2014-11-04 General Electric Company System and method for enhanced predictive autofocusing
US8743195B2 (en) * 2008-10-24 2014-06-03 Leica Biosystems Imaging, Inc. Whole slide fluorescence scanner
WO2010067256A1 (en) 2008-12-09 2010-06-17 Koninklijke Philips Electronics N.V. Autofocus for a microscope system.
EP2244484B1 (en) * 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
US8304704B2 (en) 2009-07-27 2012-11-06 Sensovation Ag Method and apparatus for autofocus using a light source pattern and means for masking the light source pattern
CA2842723C (en) 2009-10-19 2016-02-16 Ventana Medical Systems, Inc. Imaging system and techniques
RU2567295C2 (ru) 2009-12-30 2015-11-10 Конинклейке Филипс Электроникс Н.В. Датчик для микроскопии
WO2011145016A1 (en) * 2010-05-18 2011-11-24 Koninklijke Philips Electronics N.V. Autofocus imaging
BR112012032713A2 (pt) 2010-06-24 2016-09-13 Koninkl Philips Electronics Nv sistema de representação de imagem de autofoco para um sistema de microscópio, sistema de microscópio, método para representação de imagem de autofoco para um sistema de microscópio e elemento de programa para representação de imagem de autofoco de um sistema de microscópio
US8175452B1 (en) 2010-10-26 2012-05-08 Complete Genomics, Inc. Method and system for imaging high density biochemical arrays with sub-pixel alignment
EP2715321A4 (en) * 2011-05-25 2014-10-29 Huron Technologies Internat Inc 3D DISEASE GLEITSCANNER
DE102011078240A1 (de) 2011-06-28 2013-01-03 Siemens Aktiengesellschaft Leckageerkennung mittels stochastischer Massenbilanz
GB201113071D0 (en) 2011-07-29 2011-09-14 Ffei Ltd Method and apparatus for image scanning
AU2012306571B2 (en) * 2011-09-09 2015-05-14 Ventana Medical Systems, Inc. Focus and imaging system and techniques using error signal
CA2849330C (en) 2011-09-21 2020-11-03 Huron Technologies International Inc. Slide scanner with a tilted image
US9402036B2 (en) 2011-10-17 2016-07-26 Rudolph Technologies, Inc. Scanning operation with concurrent focus and inspection
US9860437B2 (en) 2011-12-19 2018-01-02 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
US10298833B2 (en) 2011-12-19 2019-05-21 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
US9971140B2 (en) 2011-12-19 2018-05-15 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
JP6019998B2 (ja) 2012-02-17 2016-11-02 ソニー株式会社 撮像装置、撮像制御プログラム及び撮像方法
WO2013165576A1 (en) 2012-05-02 2013-11-07 Aperio Technologies, Inc. Real-time focusing in line scan imaging
GB2505691B (en) 2012-09-07 2018-02-21 Ffei Ltd Method and apparatus for image scanning
JP2014178474A (ja) 2013-03-14 2014-09-25 Sony Corp デジタル顕微鏡装置、その合焦位置探索方法およびプログラム
HUE051846T2 (hu) 2013-04-26 2021-03-29 Hamamatsu Photonics Kk Képfelvevõ berendezés és fókuszáló eljárás képfelvevõ berendezés számára
JP6010505B2 (ja) 2013-06-11 2016-10-19 浜松ホトニクス株式会社 画像取得装置及び画像取得装置のフォーカス方法
TWI515503B (zh) 2013-12-09 2016-01-01 聯詠科技股份有限公司 自動對焦影像擷取裝置與影像擷取方法

Also Published As

Publication number Publication date
US20190121108A1 (en) 2019-04-25
US20210080707A1 (en) 2021-03-18
EP4235254A2 (en) 2023-08-30
JP6211063B2 (ja) 2017-10-11
US9841590B2 (en) 2017-12-12
US10852521B2 (en) 2020-12-01
EP4235254A3 (en) 2023-10-11
US20180100997A1 (en) 2018-04-12
EP2845045B1 (en) 2023-07-12
US10191264B2 (en) 2019-01-29
US20220163779A1 (en) 2022-05-26
US12038568B2 (en) 2024-07-16
WO2013165576A1 (en) 2013-11-07
EP2845045A1 (en) 2015-03-11
JP2015523587A (ja) 2015-08-13
US20150130920A1 (en) 2015-05-14
US11243387B2 (en) 2022-02-08
EP2845045A4 (en) 2016-02-24

Similar Documents

Publication Publication Date Title
ES2953897T3 (es) Enfoque en tiempo real en imagenología de exploración lineal
US11422350B2 (en) Real-time focusing in line scan imaging
US9235041B2 (en) System and method for single optical axis multi-detector microscope slide scanner
ES2959361T3 (es) Escaneo con enfoque automático en tiempo real
US8923568B2 (en) Standardizing fluorescence microscopy systems
CN111149037B (zh) 实时自动对焦聚焦算法
JP5129166B2 (ja) 単一光軸マルチ検出器スライドガラススキャンシステム及び方法