ES2948760T3 - Corrección de distorsión óptica para muestras de imagenología - Google Patents

Corrección de distorsión óptica para muestras de imagenología Download PDF

Info

Publication number
ES2948760T3
ES2948760T3 ES18160337T ES18160337T ES2948760T3 ES 2948760 T3 ES2948760 T3 ES 2948760T3 ES 18160337 T ES18160337 T ES 18160337T ES 18160337 T ES18160337 T ES 18160337T ES 2948760 T3 ES2948760 T3 ES 2948760T3
Authority
ES
Spain
Prior art keywords
image
imaging data
distortion correction
imaging
correction coefficients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18160337T
Other languages
English (en)
Inventor
Robert Langlois
Paul Belitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Illumina Inc
Original Assignee
Illumina Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Illumina Inc filed Critical Illumina Inc
Application granted granted Critical
Publication of ES2948760T3 publication Critical patent/ES2948760T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L3/00Containers or dishes for laboratory use, e.g. laboratory glassware; Droppers
    • B01L3/50Containers for the purpose of retaining a material to be analysed, e.g. test tubes
    • B01L3/502Containers for the purpose of retaining a material to be analysed, e.g. test tubes with fluid transport, e.g. in multi-compartment structures
    • B01L3/5027Containers for the purpose of retaining a material to be analysed, e.g. test tubes with fluid transport, e.g. in multi-compartment structures by integrated microfluidic structures, i.e. dimensions of channels and chambers are such that surface tension forces are important, e.g. lab-on-a-chip
    • B01L3/502715Containers for the purpose of retaining a material to be analysed, e.g. test tubes with fluid transport, e.g. in multi-compartment structures by integrated microfluidic structures, i.e. dimensions of channels and chambers are such that surface tension forces are important, e.g. lab-on-a-chip characterised by interfacing components, e.g. fluidic, electrical, optical or mechanical interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/401Compensating positionally unequal response of the pick-up or reproducing head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L2200/00Solutions for specific problems relating to chemical or physical laboratory apparatus
    • B01L2200/02Adapting objects or devices to another
    • B01L2200/025Align devices or objects to ensure defined positions relative to each other
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L2300/00Additional constructional details
    • B01L2300/08Geometry, shape and general structure
    • B01L2300/0809Geometry, shape and general structure rectangular shaped
    • B01L2300/0829Multi-well plates; Microtitration plates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L2300/00Additional constructional details
    • B01L2300/08Geometry, shape and general structure
    • B01L2300/0861Configuration of multiple channels and/or chambers in a single devices
    • B01L2300/0877Flow chambers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L2300/00Additional constructional details
    • B01L2300/08Geometry, shape and general structure
    • B01L2300/0896Nanoscaled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0031Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration for scanning purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30072Microarray; Biochip, DNA array; Well plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2817Pattern inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Immunology (AREA)
  • Optics & Photonics (AREA)
  • Hematology (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Clinical Laboratory Science (AREA)
  • Dispersion Chemistry (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Geometry (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Optical Communication System (AREA)

Abstract

Se describen técnicas para corregir dinámicamente la distorsión de la imagen durante la obtención de imágenes de una muestra modelada que tiene puntos repetidos. Se pueden calcular diferentes conjuntos de coeficientes de corrección de distorsión de la imagen para diferentes regiones de una muestra durante un primer ciclo de obtención de imágenes de una ejecución de obtención de imágenes de varios ciclos y aplicarse posteriormente en tiempo real a los datos de imágenes generados durante los ciclos posteriores. En una implementación, los coeficientes de corrección de la distorsión de la imagen se pueden calcular para una imagen de una muestra modelada que tiene puntos repetidos: estimando una transformada afín de la imagen; afinar la imagen; y buscar iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida, donde buscar iterativamente el conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida incluye calcular una castidad media para ubicaciones puntuales en la imagen, y donde la transformada afín estimada es aplicado durante cada iteración de la búsqueda. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Corrección de distorsión óptica para muestras de imagenología
Referencia cruzada a solicitudes relacionadas
La presente solicitud reivindica el beneficio de la solicitud de patente provisional de los EE. UU. n.° 62/468.347 presentada el 7 de marzo de 2017 y titulada “ Optical Distortion Correction for Imaged Samples” . La presente solicitud también reivindica el beneficio de la solicitud de patente de los Países Bajos n.° N2018852 presentada el 5 de mayo de 2017 y titulada “ Optical Distortion Correction for Imaged Samples” .
Antecedentes
Un problema con la formación de imágenes con una lente óptica es que la geometría de una lente induce diferentes tipos de distorsión en la imagen. Tales distorsiones pueden incluir, por ejemplo, distorsión de aumento, distorsión de sesgo, distorsión de traslación y distorsiones no lineales tales como distorsión de barril y distorsión de cojín. Estas distorsiones son generalmente más pronunciadas en los puntos de la imagen que están más alejados del centro de la imagen.
En los escáneres lineales que escanean un plano de una muestra en una dirección, la distorsión puede ser más pronunciada en una dimensión a lo largo de los bordes de la imagen escaneada perpendicular a la dirección de escaneo. Por ejemplo, una aberración causada por una lente de objetivo u otro componente óptico del sistema óptico puede introducir una “distorsión de estiramiento” , por lo que la ampliación varía a lo largo de un eje (por ejemplo, el eje x en el caso de una línea que se escanea a lo largo de ese eje). Esta distorsión es particularmente perjudicial para la formación de imágenes de múltiples ciclos de sustratos que tienen una gran cantidad (por ejemplo, miles, millones, miles de millones, etc.) de puntos de patrón, ya que puede cambiar la posición real de los puntos en la imagen escaneada lejos de la posición esperada de los puntos. Esto puede causar una caída en el rendimiento de datos y un aumento en la tasa de error durante una serie de imagenología de múltiples ciclos. Este problema se ilustra por las Figuras 1A-1B. La Figura 1A muestra el centro de una imagen escaneada de una diana de patrón que tiene una pluralidad de regiones de muestra con un tinte fluorescente. En el centro de la imagen, no hay distorsión detectable de los puntos 50. La Figura 1B muestra un lado derecho de la imagen escaneada de la Figura 1 A. En el lado derecho, se hace perceptible la distorsión óptica de los puntos 50.
El documento US 2011/081098 A1 describe métodos para corregir la distorsión de una imagen escaneada y, más particularmente, métodos para corregir la distorsión de una imagen de biochip escaneada para mejorar la fiabilidad de la extracción de datos. Según esta publicación de patente de Estados Unidos, el método para corregir la distorsión de una imagen escaneada comprende las etapas de proporcionar un chip de referencia en donde se definen las posiciones de una pluralidad de puntos y una región de hueco entre la pluralidad de puntos, escanear el chip de referencia para obtener una imagen escaneada del chip de referencia, medir la distorsión en la imagen escaneada del chip de referencia, preparar un biochip donde se dispone una segunda pluralidad de puntos de forma complementaria a la distorsión; y obtener una imagen escaneada del biochip.
El documento US 6.671.423 B1 describe un método para suprimir las distorsiones geométricas contenidas en un espacio de imagen, por ejemplo, cuando se mide una forma plana basándose en una imagen tomada por un dispositivo de imagenología, tal como una cámara CCD, de un espacio de muestras que se va a medir. Según esta patente de Estados Unidos, un método para suprimir las distorsiones geométricas en un espacio de imagen obtenido mediante la formación de imágenes de un espacio de muestras que se va a medir, comprende las etapas de preparar un espacio de referencia ubicado correspondientemente a un espacio de muestras que se va a medir, incluyendo dicho espacio de referencia una pluralidad de gráficos de referencia y teniendo posiciones de valores de coordenadas previamente conocidas de cada núcleo gráfico en dichos gráficos de referencia y de un centro de referencia definido como un núcleo gráfico de la totalidad de los gráficos de referencia en dicho espacio de referencia, superponer un centro de transcripción en un espacio de imagen sobre el centro de referencia en dicho espacio de referencia, obteniéndose dicho espacio de imagen formando imágenes de dicho espacio de muestras para incluir una pluralidad de gráficos de imagenología correspondientes a dicha pluralidad de gráficos de referencia, estando definido el centro de transcripción como un núcleo gráfico de la totalidad de los gráficos de imagenología en dicho espacio de imagen, ejecutar una transformación afín primaria para transformar un grupo de núcleos gráficos de transcripción que consisten en núcleos gráficos en dicha pluralidad de gráficos de imagenología, núcleo a núcleo, en un grupo de núcleos gráficos de referencia que consisten en núcleos gráficos en dicha pluralidad de gráficos de referencia, realizar una división espacial primaria para dividir dicho espacio de referencia en una pluralidad de espacios principalmente divididos, derivar una estimación de distorsión para cada uno de dichos espacios principalmente divididos a partir de un error posicional entre cada núcleo gráfico de transcripción después de dicha transformación afín primaria y el núcleo gráfico de referencia correspondiente, clasificar dichos espacios divididos principalmente en espacios divididos dentro y fuera de tolerancia que tienen estimaciones de distorsión que caen dentro y fuera de una tolerancia predeterminada, ejecutar una transformación afín secundaria para dichos espacios divididos fuera de tolerancia para transformar un grupo de núcleos gráficos de transcripción en el correspondiente espacio de imagen en un grupo de núcleos gráficos de referencia en dichos espacios divididos fuera de tolerancia, realizar una división espacial secundaria para dividir dichos espacios divididos principalmente fuera de tolerancia en una pluralidad de espacios divididos secundariamente después de dichas transformaciones afines primaria y secundaria; y repetir transformaciones afines y divisiones espaciales para dichos espacios divididos fuera de tolerancia hasta que dichas estimaciones de distorsión caigan dentro de dicha tolerancia predeterminada.
Resumen
Los ejemplos descritos en la presente memoria se refieren a técnicas para corregir la distorsión óptica en muestras con formación de imágenes.
En un primer ejemplo, un método según la reivindicación 1 incluye: realizar un primer ciclo de imagenología de una muestra de patrón que comprende una pluralidad de puntos; dividir un primer conjunto de datos de imagenología generados durante el primer ciclo de imagenología en una primera pluralidad de subconjuntos de datos de imagenología, correspondiendo cada uno de la primera pluralidad de subconjuntos de datos de imagenología a una región respectiva de la muestra de patrón, comprendiendo cada una de las regiones respectivas de la muestra de patrón una pluralidad de puntos; calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos de datos de imagenología; realizar un segundo ciclo de imagenología de la muestra de patrón para generar un segundo conjunto de datos de imagenología; y dividir el segundo conjunto de datos de imagenología generado durante el segundo ciclo de imagenología en una segunda pluralidad de subconjuntos de datos de imagenología, cada uno de la segunda pluralidad de subconjuntos de datos de imagenología correspondiente a la misma región respectiva de la muestra de patrón como uno de la primera pluralidad de subconjuntos de datos de imagenología; y para cada uno de la segunda pluralidad de subconjuntos de datos de imagenología, aplicar los coeficientes de corrección de distorsión calculados para el uno de la primera pluralidad de subconjuntos de datos de imagenología correspondiente a la misma región respectiva de la muestra. de patrón;
En una implementación del primer ejemplo, cada uno de los puntos de la muestra de patrón incluye ácidos nucleicos marcados con fluorescencia, el primer ciclo de imagenología es un primer ciclo de secuenciación y el segundo ciclo de imagenología es un segundo ciclo de secuenciación.
En una implementación del primer ejemplo, el primer conjunto de datos de imagenología y el segundo conjunto de datos de imagenología incluyen, respectivamente, datos de imagenología de un primer canal de color y datos de imagenología de un segundo canal de color, y calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos de datos de imagenología incluye determinar un conjunto de coeficientes de corrección de distorsión para cada canal de color de cada subconjunto de datos de imagenología.
En una implementación del primer ejemplo, calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos de datos de imagenología incluye: estimar una transformada afín del subconjunto de datos de imagenología; aplicar nitidez al subconjunto de datos de imagenología; y buscar iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para el subconjunto de datos de imagenología.
En una implantación del primer ejemplo, el primer conjunto de datos de imagenología y el segundo conjunto de datos de imagenología se dividen usando al menos la posición de los fiduciales en la muestra y se estima la transformada afín para cada uno de la primera pluralidad de subconjuntos de datos de imagenología usando los fiduciales.
En un segundo ejemplo, un método para corregir la distorsión óptica en una imagen de una muestra de patrón que comprende una pluralidad de puntos incluye: estimar una transformada afín de la imagen; aplicar nitidez a la imagen; y buscar iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida, donde la búsqueda iterativa del conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida incluye calcular una castidad media para una pluralidad de ubicaciones de puntos en la imagen, y donde la transformada afín estimada se aplica durante cada iteración de la búsqueda.
En una implementación del segundo ejemplo, la búsqueda iterativa de un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida incluye: generar un conjunto de coeficientes de corrección de distorsión óptica para la imagen; aplicar la transformada afín estimada a la pluralidad de ubicaciones de puntos en la imagen; y después de aplicar la transformada afín estimada, aplicar el conjunto de coeficientes de corrección de distorsión óptica a cada una de la pluralidad de ubicaciones de puntos. En una implementación adicional, el método incluye: después de aplicar el conjunto de coeficientes de corrección de distorsión óptica a cada una de la pluralidad de ubicaciones de puntos, extraer una intensidad de señal para cada una de la pluralidad de ubicaciones de puntos. En otra implementación más, el método incluye: normalizar las intensidades de señal extraídas; y calcular una castidad media para la pluralidad de ubicaciones de puntos usando al menos las intensidades de señal normalizadas.
En una implementación particular del segundo ejemplo, calcular una castidad media para la pluralidad de ubicaciones de puntos usando al menos las intensidades de señal normalizadas incluye: para cada una de la pluralidad de ubicaciones de puntos determinar una castidad usando al menos una distancia desde un punto correspondiente a la intensidad de señal normalizada de la ubicación de punto a un centroide gaussiano.
En una implementación particular del segundo ejemplo, la búsqueda iterativa de un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida incluye submuestrear una pluralidad de puntos en la imagen, donde si se submuestrea un punto en una fila de la imagen nítida, a continuación, se submuestrean todos los puntos en la fila de la imagen nítida.
En un ejemplo adicional, un medio legible por ordenador no transitorio que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan por uno o más procesadores según la reivindicación 10, hacen que un sistema de secuenciación: realice un primer ciclo de imagenología de una muestra de patrón que comprende una pluralidad de puntos; dividir un primer conjunto de datos de imagenología generados durante el primer ciclo de imagenología en una primera pluralidad de subconjuntos de datos de imagenología, correspondiendo cada uno de la primera pluralidad de subconjuntos de datos de imagenología a una región respectiva de la muestra de patrón, comprendiendo cada una de las regiones respectivas de la muestra de patrón una pluralidad de puntos; calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos de datos de imagenología; realizar un segundo ciclo de imagenología de la muestra de patrón para generar un segundo conjunto de datos de imagenología; y dividir el segundo conjunto de datos de imagenología generado durante el segundo ciclo de imagenología en una segunda pluralidad de subconjuntos de datos de imagenología, cada uno de la segunda pluralidad de subconjuntos de datos de imagenología correspondiente a la misma región respectiva de la muestra de patrón como uno de la primera pluralidad de subconjuntos de datos de imagenología; y para cada uno de la segunda pluralidad de subconjuntos de datos de imágenes, aplique los coeficientes de corrección de distorsión calculados para uno de la primera pluralidad de subconjuntos de datos de imagenología correspondientes a la misma región respectiva de la muestra de patrón, estime una transformada afín de una imagen de una muestra de patrón que comprende una pluralidad de puntos que usan fiduciales en la muestra de patrón; aplique nitidez la imagen; y busque iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida, en donde buscar iterativamente el conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida comprende calcular una castidad media para una pluralidad de ubicaciones de puntos en la imagen usando al menos intensidades de señal extraídas de cada una de la pluralidad de ubicaciones de puntos, y en donde la transformada afín estimada se aplica durante cada iteración de la búsqueda.
Otras características y aspectos de la tecnología descrita resultarán evidentes a partir de la siguiente descripción detallada, tomada junto con los dibujos adjuntos, que ilustran, a modo de ejemplo, las características según los ejemplos de la tecnología descrita. El resumen no pretende limitar el alcance de cualquiera de las invenciones descritas en la presente memoria, que se definen por las reivindicaciones adjuntas.
Debe tenerse en cuenta que todas las combinaciones de los conceptos anteriores (siempre que tales conceptos no sean mutuamente contradictorios) se contemplan como parte del objeto de la invención descrita en la presente memoria. En particular, todas las combinaciones según el objeto reivindicado que aparecen al final de esta descripción se contemplan como parte del objeto de la invención descrito en la presente memoria.
Breve descripción de los dibujos
La presente descripción, según uno o más ejemplos diversos, se describe en detalle con referencia a las siguientes figuras. Las figuras se proporcionan únicamente con fines ilustrativos y simplemente representan implementaciones típicas o de ejemplo.
La Figura 1A muestra, en un ejemplo, el centro de una imagen escaneada de una diana de patrón que tiene una pluralidad de regiones de muestra con un tinte fluorescente.
La Figura 1B muestra un lado derecho de la imagen escaneada de la Figura 1 A.
La Figura 2A ilustra, en un ejemplo, un diagrama de bloques generalizado de un sistema de escaneo de imágenes ilustrativo con el que pueden implementarse sistemas y métodos descritos en la presente memoria.
La Figura 2B es un diagrama de bloques que ilustra un sistema de imagenología ópticas modular de exploración de línea de dos canales ilustrativo que puede implementarse en implementaciones particulares.
La Figura 3 ilustra una configuración ilustrativa de una muestra de patrón que puede formarse en imágenes según las implementaciones descritas en la presente memoria.
La Figura 4 es un diagrama de flujo operativo que ilustra un método ilustrativo que puede implementarse para corregir dinámicamente la distorsión de la imagen durante una serie de imagenología según la descripción.
La Figura 5 ilustra visualmente, en un ejemplo, cómo los datos de imagenología se pueden dividir en una pluralidad de subconjuntos de datos de imagenología para un sistema de imagenología de N canales que forma imágenes de una muestra que tiene una matriz de puntos.
La Figura 6 es un diagrama de flujo operativo que ilustra un método ilustrativo para calcular coeficientes de corrección de distorsión para datos de imagenología generados por un sistema de imagenología.
La Figura 7 ilustra un mosaico ilustrativo que incluye seis fiduciales.
La Figura 8 ilustra nubes ilustrativas derivadas de llamadas de base de dos canales durante un ciclo de secuenciación.
La Figura 9A ilustra, en un ejemplo, una recolecta de curvas de distorsión para un conjunto de mosaicos para óptica que se encuentran en un instrumento de secuenciación de dos canales que usa celdas de flujo.
La Figura 9B ilustra, en un ejemplo, una recolecta de curvas de distorsión para un conjunto de mosaicos para óptica que se encuentran en otro instrumento de secuenciación de dos canales que usa celdas de flujo.
La Figura 9C ilustra, en un ejemplo, cuatro curvas de distorsión correspondientes a dos canales de color diferentes para un conjunto de mosaicos para óptica que se encuentran en un instrumento de secuenciación de cuatro canales que usa celdas de flujo.
La Figura 10A es un diagrama de caja y bigotes de resultados experimentales ilustrativo que ilustra qué porcentaje de puntos de una celda de flujo secuenciados usando un escáner de línea pasó un filtro de castidad (%PF) sin corrección de distorsión, agrupados en el campo de visión de un mosaico con respecto a X.
La Figura 10B es un diagrama de caja y bigotes de resultados experimentales ilustrativo que muestra qué porcentaje de puntos de una celda de flujo secuenciada pasó un filtro de castidad después de la corrección de distorsión.
La Figura 11 es un diagrama de flujo operativo que ilustra un método ilustrativo, que no forma parte de la invención, para determinar los parámetros de corrección de la distorsión óptica que pueden usarse para optimizar un diseño de una lente de imagenología (por ejemplo, una lente de objetivo).
La Figura 12 es un diagrama de distorsión residual que muestra una distorsión óptica residual ilustrativa en píxeles a lo largo del campo de visión de una lente después de aplicar un polinomio de quinto orden para corregir la distorsión.
La Figura 13 ilustra un módulo informático ilustrativo que puede usarse para implementar diversas características de implementaciones descritas en la presente descripción.
Las figuras no son exhaustivas y no limitan la presente descripción a la forma precisa descrita.
Descripción detallada
Como se usa en la presente descripción, el término “punto” o “característica” pretende significar un punto o zona en un patrón que puede distinguirse de otros puntos o zonas según la ubicación relativa. Un punto individual puede incluir una o más moléculas de un tipo particular. Por ejemplo, un punto puede incluir una única molécula de ácido nucleico diana que tiene una secuencia particular o un punto puede incluir varias moléculas de ácido nucleico que tienen la misma secuencia (y/o secuencia complementaria, de la misma).
Como se usa en la presente memoria, el término “fiduciario” pretende significar un punto de referencia distinguible en o sobre un objeto. El punto de referencia puede estar presente en una imagen del objeto o en otro conjunto de datos derivados de la detección del objeto. El punto de referencia se puede especificar mediante una coordenada x y/o y en un plano del objeto. Alternativa o adicionalmente, el punto de referencia puede especificarse mediante una coordenada z que sea ortogonal al plano xy, por ejemplo, que está definida por las ubicaciones relativas del objeto y un detector. Se pueden especificar una o más coordenadas para un punto de referencia en relación con una o más otras características de un objeto o de una imagen u otro conjunto de datos derivado del objeto.
Como se usa en la presente descripción, el término “ mosaico” se refiere generalmente a una o más imágenes de la misma región de una muestra, donde cada una de la una o más imágenes representa un canal de color respectivo. Una tesela puede formar un subconjunto de datos de obtención de imágenes de un conjunto de datos de obtención de imágenes de un ciclo de obtención de imágenes.
Como se usa en la presente memoria, el término “castidad” generalmente se refiere a una métrica de puntuación que proporciona una medida de la “calidad” global de una ubicación de punto en un mosaico. La castidad se puede determinar tanto antes como después de aplicar coeficientes de corrección de distorsión a una ubicación de punto. La castidad media se refiere a un promedio de la castidad en todas las ubicaciones de puntos o un subconjunto de ubicaciones de puntos en un mosaico.
Como se usa en la presente memoria, la expresión “ plano x-y” pretende significar una zona de 2 dimensiones definida por ejes de línea recta x e y en un sistema de coordenadas cartesianas. Cuando se usa en referencia a un detector y un objeto observado por el detector, la zona puede especificarse adicionalmente como ortogonal a la dirección de observación entre el detector y el objeto que va a detectarse. Cuando se usa en la presente memoria para referirse a un escáner de línea, la expresión “dirección y” se refiere a la dirección de escaneo.
Como se usa en la presente memoria, la expresión “coordenada z” pretende significar información que especifica la ubicación de un punto, línea o zona a lo largo de un eje que es ortogonal a un plano xy. En implementaciones particulares, el eje z es ortogonal a una zona de un objeto que se observa mediante un detector. Por ejemplo, la dirección de enfoque para un sistema óptico puede especificarse a lo largo del eje z.
Como se usa en la presente memoria, la expresión “escanear una línea” pretende significar detectar una sección transversal de 2 dimensiones en un plano xy de un objeto, siendo la sección transversal rectangular u oblonga, y provocar un movimiento relativo entre la sección transversal y el objeto. Por ejemplo, en el caso de la obtención de imágenes de fluorescencia, puede excitarse específicamente una zona de un objeto que tiene forma rectangular u oblonga (en la exclusión de otras zonas) y/o puede adquirirse específicamente la emisión de la zona (en la exclusión de otras zonas) en un punto de tiempo dado en la exploración.
Las implementaciones descritas en la presente memoria están dirigidas a corregir dinámicamente la distorsión de la imagen durante la formación de imágenes de una muestra de patrón que tiene una pluralidad de puntos repetidos. Los coeficientes de corrección de la distorsión de la imagen pueden calcularse durante un primer ciclo de imagenología de una serie de imagenología de múltiples ciclos (p. ej., una serie de secuenciación) y posteriormente aplicarse en tiempo real a los datos de imagen generados durante ciclos posteriores.
En una primera implementación, los datos de imagenología generados durante un (p. ej., primero) ciclo de imagenología de calibración de una muestra se dividen en una pluralidad de subconjuntos de datos de imagenología (p. ej., mosaicos) correspondientes a una región respectiva de la muestra de patrón. Cada mosaico contiene una pluralidad de puntos correspondientes a una respectiva pluralidad de puntos muestreados en la región de la muestra de patrón. Se calcula un conjunto de coeficientes de corrección de distorsión para cada mosaico. En los casos en que un mosaico incluye datos de imagenología para múltiples canales de color, se puede generar un conjunto de coeficientes de corrección de distorsión para cada canal de color del mosaico.
Durante los ciclos de imagenología posteriores de la muestra de patrón, cada conjunto de coeficientes de distorsión calculados durante el ciclo de imagenología de calibración se aplica a un mosaico respectivo. De esta manera, la distorsión de la imagen puede corregirse de forma independiente para diferentes regiones de la muestra. Esta corrección de distorsión específica de región permite la corrección de la distorsión para la que un registro rígido global no considera. Por ejemplo, la distorsión no lineal (no contabilizada por la transformada afín lineal) puede inducirse por la forma de la lente. Además, el sustrato de imagenología también puede introducir distorsión en el patrón debido al proceso de fabricación, p. ej., un efecto de bañera 3D introducido por la unión o el movimiento de los pozos debido a la falta de rigidez del sustrato. Finalmente, la transformación afín lineal no tiene en cuenta la inclinación del sustrato dentro del soporte.
En una segunda implementación, se describe un método particular para generar coeficientes de corrección de distorsión para un mosaico. El método incluye las etapas de estimar una única transformada afín del mosaico usando fiduciales en el mosaico, aplicando nitidez al mosaico y ejecutando una búsqueda de coeficientes de corrección de distorsión que maximizan la castidad media de una pluralidad de puntos en el mosaico. Realizando únicamente una única transformada afín de la imagen, el método descrito puede reducir drásticamente el tiempo necesario para buscar un conjunto óptimo de coeficientes de corrección de distorsión. En una implementación particular, la búsqueda de coeficientes de corrección de distorsión puede iterar las etapas de: generar un conjunto de coeficientes de corrección de distorsión, aplicar los coeficientes de corrección de distorsión generados a cada ubicación de punto en la imagen, extraer la intensidad de señal para cada ubicación de punto en la imagen, normalizar espacialmente las intensidades de señal, calcular una castidad media de la pluralidad de ubicaciones de puntos en el mosaico y determinar si iterar la búsqueda de coeficientes de corrección de distorsión usando al menos la castidad media calculada.
En implementaciones particulares, el método descrito para generar coeficientes de corrección de distorsión puede usarse para corregir la distorsión de imagen en datos de imagen que incluyen dos imágenes de canal de color diferentes que codifican la identidad de cuatro muestras diferentes (p. ej., cuatro tipos de bases de ADN diferentes) como una combinación de las intensidades de las dos imágenes.
Antes de describir diversas implementaciones de los sistemas y métodos descritos en la presente memoria, es útil describir un entorno ilustrativo con el que pueda implementarse la tecnología descrita en la presente memoria. Un entorno ilustrativo de este tipo es el de un sistema 100 de imagenología ilustrado en la Figura 2A. El sistema de formación de imágenes ilustrativo puede incluir un dispositivo para obtener o producir una imagen de una muestra. El ejemplo esbozado en la Figura 2A muestra una configuración de imagenología ilustrativa de una implementación de diseño de retroiluminación. Cabe señalar que, aunque los sistemas y métodos se pueden describir en la presente memoria de vez en cuando en el contexto del sistema 100 de imagenología ilustrativo, estos son solo ejemplos con los que se pueden implementar implementaciones de los métodos de corrección de distorsión de imagen descritos en la presente memoria.
Como puede verse en el ejemplo de la Figura 2A, las muestras objeto se ubican en el recipiente 110 de muestra (p. ej., una celda de flujo como se describe en la presente memoria), que se coloca en una platina 170 de muestra bajo una lente 142 de objetivo. La fuente 160 de luz y la óptica asociada dirigen un haz de luz, tal como luz láser, a una ubicación de muestra elegida en el recipiente 110 de muestra. La muestra emite fluorescencia y la luz resultante es recolectada por la lente 142 de objetivo y se dirige a un sensor de imagen del sistema 140 de cámara para detectar la fluorescencia. La platina 170 de muestra se mueve con respecto a la lente 142 de objetivo para colocar la siguiente ubicación de muestra en el recipiente 110 de muestra en el punto focal de la lente 142 de objetivo. El movimiento de la platina 110 de muestra en relación con la lente 142 de objetivo puede lograrse moviendo la propia platina de muestra, la lente de objetivo, algún otro componente del sistema de imagenología o cualquier combinación de lo anterior. Otras implementaciones también pueden incluir mover todo el sistema de obtención de imágenes a través de una muestra estacionaria.
El módulo o dispositivo 100 de suministro de fluido dirige el flujo de reactivos (p. ej., nucleótidos marcados de manera fluorescente, tampones, enzimas, reactivos de escisión, etc.) al (y a través del) recipiente 110 de muestra y la válvula 120 de desechos. El recipiente 110 de muestra puede incluir uno o más sustratos sobre los que se proporcionan las muestras. Por ejemplo, en el caso de un sistema para analizar un gran número de secuencias de ácido nucleico diferentes, el recipiente 110 de muestra puede incluir uno o más sustratos en donde los ácidos nucleicos que van a secuenciarse están enlazados, unidos o asociados. En diversas implementaciones, el sustrato puede incluir cualquier sustrato o matriz inerte a la que se puedan unir ácidos nucleicos, tales como, por ejemplo, superficies de vidrio, superficies de plástico, látex, dextrano, superficies de poliestireno, superficies de polipropileno, geles de poliacrilamida, superficies de oro y obleas de silicio. En algunas aplicaciones, el sustrato está dentro de un canal u otra zona en una pluralidad de ubicaciones formadas en una matriz o serie a través del recipiente 110 de muestra.
En algunas implementaciones, el contenedor 110 de muestra puede incluir una muestra biológica de la que se forman imágenes usando uno o más tintes fluorescentes. Por ejemplo, en una implementación particular del recipiente 110 de muestra puede implementarse como una celda de flujo de patrón que incluye una placa de cubierta translúcida, un sustrato y un líquido rodeado entre los mismos, y una muestra biológica puede ubicarse en una superficie interior de la placa de cubierta translúcida o una superficie interna del sustrato. La celda de flujo puede incluir un gran número (p. ej., miles, millones o miles de millones) de pocillos o regiones que forman un patrón en una matriz definida (p. ej., una matriz hexagonal, matriz rectangular, etc.) en el sustrato. Cada región puede formar un agrupamiento (por ejemplo, un agrupamiento monoclonal) de una muestra biológica tal como ADN, ARN u otro material genómico que puede secuenciarse, por ejemplo, usando secuenciación por síntesis. La celda de flujo puede dividirse adicionalmente en varios carriles separados (p. ej., ocho carriles), incluyendo cada carril una matriz hexagonal de agrupamientos. Las celdas de flujo ilustrativas que se pueden usar en las implementaciones descritas en la presente memoria se describen en la patente de Estados Unidos n.° 8.778.848.
El sistema también comprende un accionador 130 de estación de temperatura y un calentador/enfriador 135 que puede regular opcionalmente la temperatura de las condiciones de los fluidos dentro del recipiente 110 de muestra. El sistema 140 de cámara puede incluirse para monitorear y rastrear la secuenciación del recipiente 110 de muestra. El sistema 140 de cámara puede implementarse, por ejemplo, como una cámara de dispositivo de carga acoplada (CCD) (p. ej., una cámara de CCDR de integración de retardo de tiempo (TDI)), que puede interactuar con diversos filtros dentro del conjunto 145 de conmutación de filtro, la lente 142 de objetivo y el láser de enfoque/conjunto 150 de láser de enfoque. El sistema 140 de cámara no se limita a una cámara CCD y se pueden usar otras cámaras y tecnologías de sensor de imágenes. En implementaciones particulares, el sensor de la cámara puede tener un tamaño de píxel entre aproximadamente 5 y aproximadamente 15 μm.
Los datos de salida de los sensores del sistema 140 de cámara pueden comunicarse a un módulo de análisis en tiempo real (no mostrado) que puede implementarse como una aplicación de software que analiza los datos de imagen (p. ej., puntuación de la calidad de la imagen), informa o muestra las características del haz láser (p. ej., enfoque, forma, intensidad, potencia, brillo, posición) a una interfaz gráfica de usuario (GUI) y, como se describe además más adelante, corrige dinámicamente la distorsión en los datos de imagen.
La fuente 160 de luz (p. ej., un láser de excitación dentro de un conjunto que comprende opcionalmente múltiples láseres) u otra fuente de luz puede incluirse para iluminar las reacciones de secuenciación fluorescentes dentro de las muestras a través de la iluminación a través de una interfaz de fibra óptica (que puede comprender opcionalmente una o más lentes de reformación de imágenes, un montaje de fibra óptica, etc.). La lámpara 165 de pocos vatios, el láser 150 de enfoque y el dicroico inverso 185 también se presentan en el ejemplo mostrado. En algunas implementaciones, el láser 150 de enfoque se puede apagar durante la formación de imágenes. En otras implementaciones, una configuración de enfoque alternativa puede incluir una segunda cámara de enfoque (no mostrada), que puede ser un detector de cuadrantes, un detector sensible a la posición (PSD) o un detector similar para medir la ubicación del haz disperso reflejado desde la superficie concurrente con la recolecta de datos.
Aunque se ilustra como un dispositivo retroiluminado, otros ejemplos pueden incluir una luz de un láser u otra fuente de luz que se dirige a través de la lente 142 de objetivo sobre las muestras en el recipiente 110 de muestra. El recipiente 110 de muestra puede montarse en última instancia en una platina 170 de muestra para proporcionar movimiento y alineación del recipiente 110 de muestra con respecto a la lente 142 de objetivo. La platina de muestra puede tener uno o más accionadores para permitir que se mueva en cualquiera de tres dimensiones. Por ejemplo, en términos del sistema de coordenadas cartesianas, se pueden proporcionar accionadores para permitir que la platina se mueva en las direcciones X, Y y Z con respecto a la lente de objetivo. Esto puede permitir que una o más ubicaciones de muestra en el recipiente 110 de muestra se coloquen en alineación óptica con la lente 142 de objetivo.
Un componente 175 de enfoque (eje z) se muestra en este ejemplo como incluido para controlar la colocación de los componentes ópticos con respecto al recipiente 110 de muestra en la dirección de enfoque (típicamente denominado eje z, o dirección z). El componente 175 de enfoque puede incluir uno o más accionadores acoplados físicamente a la platina óptica o a la platina de muestra, o a ambas, para mover el recipiente 110 de muestra en la platina 170 de muestra en relación con los componentes ópticos (p. ej., la lente 142 de objetivo) para proporcionar un enfoque apropiado para la operación de imagenología. Por ejemplo, el accionador puede estar físicamente acoplado a la platina respectiva tal como, por ejemplo, mediante unión mecánica, magnética, fluida u otra unión o contacto directa o indirectamente a o con la platina. El uno o más accionadores pueden configurarse para mover la platina en la dirección z mientras se mantiene la platina de muestra en el mismo plano (p. ej., manteniendo un nivel u actitud horizontal, perpendicular al eje óptico). Los uno o más accionadores también se pueden configurar para inclinar la platina. Esto puede hacerse, por ejemplo, de modo que el recipiente 110 de muestra pueda nivelarse dinámicamente para tener en cuenta cualquier pendiente en sus superficies.
El enfoque del sistema generalmente se refiere a alinear el plano focal de la lente de objetivo con la muestra de la que se van a formar imágenes en la ubicación de muestra elegida. Sin embargo, el enfoque también puede referirse a ajustes al sistema para obtener una característica deseada para una representación de la muestra tal como, por ejemplo, un nivel deseado de nitidez o contraste para una imagen de una muestra de ensayo. Debido a que la profundidad utilizable del campo del plano focal de la lente de objetivo puede ser pequeña (a veces del orden de 1 μm o menos), el componente 175 de enfoque sigue estrechamente la superficie de la que se están formando imágenes. Debido a que el recipiente de muestra no es perfectamente plano según se fija en el instrumento, el componente 175 de enfoque se puede configurar para seguir este perfil mientras se mueve a lo largo de la dirección de escaneo (denominada en la presente memoria eje y).
La luz que emana de una muestra de ensayo en una ubicación de muestra de la que se están formando imágenes se puede dirigir a uno o más detectores del sistema 140 de cámara. Se puede incluir un orificio y colocarlo para permitir que solo la luz que emana del área de enfoque pase al detector. El orificio puede incluirse para mejorar la calidad de la imagen filtrando componentes de la luz que emana de las áreas que están fuera del área de enfoque. Pueden incluirse filtros de emisión en el ensamblaje 145 de conmutación de filtro, que pueden seleccionarse para registrar una longitud de onda de emisión determinada y para cortar cualquier luz de láser parásita.
Aunque no se ilustra, puede proporcionarse un controlador para controlar el funcionamiento del sistema de escaneo. El controlador puede implementarse para controlar aspectos del funcionamiento del sistema tales como, por ejemplo, operaciones de enfoque, movimiento de la platina y formación de imágenes. En diversas implementaciones, el controlador puede implementarse usando hardware, algoritmos (por ejemplo, instrucciones ejecutables por máquina) o una combinación de lo anterior. Por ejemplo, en algunas implementaciones, el controlador puede incluir una o más CPU o procesadores con memoria asociada. Como otro ejemplo, el controlador puede comprender hardware u otros circuitos para controlar el funcionamiento, tal como un procesador informático y un medio legible por ordenador no transitorio con instrucciones legibles a máquina almacenadas en el mismo. Por ejemplo, este circuito puede incluir uno o más de los siguientes: field programmable gate array (serie de puertas programables en campo - FPGA), application specific integrated circuit (circuito integrado de aplicación específica - ASIC), programmable logic device (dispositivo lógico programable - PLD), complex programmable logic device (dispositivo lógico programable complejo - CPLD), una programmable logic array (serie lógica programable - PLA), una programmable array logic (lógica de serie programable - PAL) u otro dispositivo de procesamiento o circuito similar. Como otro ejemplo más, el controlador puede comprender una combinación de este circuito con uno o más procesadores.
La Figura 2B es un diagrama de bloques que ilustra un sistema 200 de imagenología óptico modular de escaneo de línea de dos canales que puede implementarse en implementaciones particulares. Cabe señalar que, aunque los sistemas y métodos pueden describirse en la presente memoria de vez en cuando en el contexto del sistema 200 de imagenología ilustrativo, estos son únicamente ejemplos con los que se pueden implementar implementaciones de la tecnología descrita en la presente memoria.
En algunas implementaciones, el sistema 200 puede usarse para la secuenciación de ácidos nucleicos. Entre las técnicas aplicables se incluyen aquellas en las que los ácidos nucleicos se unen en ubicaciones fijas de una matriz (p. ej., los pocillos de una celda de flujo) y se forman imágenes de la matriz de manera repetida. En tales implementaciones, el sistema 200 puede obtener imágenes en dos canales de color diferentes, que pueden usarse para distinguir un tipo de base de nucleótido particular de otro. Más particularmente, el sistema 200 puede implementar un proceso denominado “ llamada de base” , que generalmente se refiere a un proceso de determinación de una llamada de base (p. ej., adenina (A), citosina (C), guanina (G) o timina (T)) para una ubicación de punto dada de una imagen en un ciclo de imagenología. Durante la llamada de base de dos canales, los datos de imagen extraídos de dos imágenes pueden usarse para determinar la presencia de uno de los cuatro tipos de base codificando la identidad de base como una combinación de las intensidades de las dos imágenes. Para un punto o ubicación dados en cada una de las dos imágenes, la identidad de base puede determinarse basándose en si la combinación de identidades de señal está [encendida, encendida], [encendida, apagada], [apagada, encendida] o [apagada, apagada].
Con referencia de nuevo al sistema 200 de imagenología, el sistema incluye un módulo de generación de línea (LGM) 210 con dos fuentes 211 y 212 de luz dispuestas en el mismo. Las fuentes 211 y 212 de luz pueden ser fuentes de luz coherente tales como diodos láser que emiten haces de láser. La fuente 211 de luz puede emitir luz en una primera longitud de onda (p. ej., una longitud de onda de color rojo), y la fuente 212 de luz puede emitir luz en una segunda longitud de onda (p. ej., una longitud de onda de color verde). Los haces de luz emitidos desde las fuentes 211 y 212 de láser pueden dirigirse a través de una lente o lentes 213 de conformación de haz. En algunas implementaciones, puede usarse una única lente de conformación de luz para conformar los haces de luz emitidos desde ambas fuentes de luz. En otras implementaciones, puede usarse una lente de conformación de haz independiente para cada haz de luz. En algunos ejemplos, la lente de conformación de haz es una lente Powell, de modo que los haces de luz se conforman en patrones de línea. Las lentes de conformación de haz de LGM 210 u otro sistema de imagenología de componentes ópticos se configuran para conformar la luz emitida por las fuentes 211 y 212 de luz para dar patrones de línea (p. ej., usando una o más lentes Powel, u otras lentes de conformación de haz, componentes difrangentes o de dispersión).
El LGM 210 puede incluir además un espejo 214 y un espejo 215 semirreflectante configurados para dirigir los haces de luz a través de un único puerto de interfaz a un módulo 230 óptico de emisión (EOM). Los haces de luz pueden pasar a través de un elemento 216 obturador. El EOM 230 puede incluir un objetivo 235 y una platina z 236 que mueve el objetivo 235 longitudinalmente más cerca o más lejos de una diana 250. Por ejemplo, la diana 250 puede incluir una capa 252 de líquido y una placa 251 de cubierta translúcida, y una muestra biológica puede ubicarse en una superficie interna de la placa de cubierta translúcida, así como una superficie interna de la capa de sustrato ubicada debajo de la capa líquida. La platina z puede entonces mover el objetivo para enfocar los haces de luz sobre la superficie interna de la cubeta de lectura (p. ej., enfocado en la muestra biológica). La muestra biológica puede ser ADN, ARN, proteínas u otros materiales biológicos que respondan a la secuenciación óptica como es conocido en la técnica.
El EOM 230 puede incluir un espejo 233 semirreflectante para reflejar un haz de luz de seguimiento de enfoque emitido desde un módulo 240 de seguimiento de enfoque (FTM) sobre la diana 250, y, a continuación, reflejar la luz devuelta desde la diana 250 al FTM 240. El FTM 240 puede incluir un sensor óptico de seguimiento de enfoque para detectar características del haz de luz de seguimiento de enfoque devuelto y generar una señal de retroalimentación para optimizar el enfoque del objetivo 235 en la diana 250.
El EOM 230 también puede incluir el espejo 234 semirreflectante para dirigir la luz a través del objetivo 235, mientras que permite que pase la luz devuelta desde la diana 250. En algunas implementaciones, el EOM 230 puede incluir una lente 232 de tubo. La luz transmitida a través de la lente 232 de tubo puede pasar a través del elemento 231 de filtro y al módulo 220 de cámara (CAM). El CAM 220 puede incluir uno o más sensores 221 ópticos para detectar la luz emitida desde la muestra biológica en respuesta a los haces de luz incidente (p. ej., fluorescencia en respuesta a luz roja y verde recibida de las fuentes 211 y 212 de luz).
Los datos de salida de los sensores del CAM 220 pueden comunicarse a un módulo 225 de análisis en tiempo real. El módulo de análisis en tiempo real, en diversas implementaciones, ejecuta instrucciones legibles por ordenador para analizar los datos de imagen (p. ej., puntuación de calidad de imagen, llamada de base, etc.), informar o visualizar las características del haz (p. ej., enfoque, forma, intensidad, potencia, brillo, posición) en una interfaz gráfica de usuario (GUI), etc. Estas operaciones pueden realizarse en tiempo real durante ciclos de imagenología para minimizar el tiempo de análisis descendente y proporcionar retroalimentación y solución de problemas en tiempo real durante una serie de imagenología. En implementaciones, el módulo de análisis en tiempo real puede ser un dispositivo informático (p. ej., el dispositivo 1000 informático) que está acoplado comunicativamente y controla el sistema 200 de imagenología. En implementaciones descritas adicionalmente más adelante, el módulo 225 de análisis en tiempo real puede ejecutar adicionalmente instrucciones legibles por ordenador para corregir la distorsión en los datos de imagen de salida recibidos del CAM 220.
La Figura 3 ilustra una configuración ilustrativa de una muestra 300 de patrón que puede formarse en imágenes según las implementaciones descritas en la presente memoria. En este ejemplo, la muestra 300 tiene un patrón con una matriz hexagonal de puntos o características 310 ordenados de los que pueden obtenerse imágenes simultáneamente durante una serie de imagenología. Aunque en este ejemplo se ilustra una matriz hexagonal, en otras implementaciones, la muestra puede tener un patrón usando una matriz rectilínea, una matriz circular, una matriz octagonal o algún otro patrón de matriz. Para facilitar la ilustración, la muestra 300 se ilustra con decenas a cientos de puntos 310. Sin embargo, como podría apreciarse por un experto en la técnica, la muestra 300 puede tener miles, millones o miles de millones de puntos 310 de los que se forman imágenes. Además, en algunos casos, la muestra 300 puede ser una muestra de múltiples planos que comprende múltiples planos (perpendiculares a la dirección de enfoque) de los puntos 310 que se muestrean durante una serie de imagenología.
En una implementación particular, la muestra 300 puede ser una celda de flujo de patrón con millones o miles de millones de pocillos que se dividen en carriles. En esta implementación particular, cada pocillo de la celda de flujo puede contener material biológico que se secuencia usando secuenciación por síntesis.
Como se analizó anteriormente, la distorsión óptica puede ser particularmente perjudicial para la imagenología de múltiples ciclos de una muestra 300 de patrón que tiene un gran número de puntos, ya que puede cambiar la posición real de los puntos de la imagen escaneada lejos de la posición esperada de los puntos. Este efecto de distorsión puede volverse particularmente pronunciado a lo largo de los bordes del campo de visión, lo que potencialmente podría inutilizar los datos de imagen de estos puntos. Esto puede causar una caída en el rendimiento de datos y un aumento en la tasa de error durante una serie de imagenología de múltiples ciclos. Las implementaciones descritas a continuación están dirigidas a corregir dinámicamente la distorsión de la imagen durante una serie de imágenes (p. ej., una serie de secuenciación), mejorando de esta manera el rendimiento de datos y reduciendo la tasa de error durante la serie de imágenes.
La Figura 4 es un diagrama de flujo operativo que ilustra un método 400 ilustrativo que se implementa para corregir dinámicamente la distorsión de la imagen durante una serie de imagenología según la descripción. Aunque el método 400 se describirá de vez en cuando en el contexto de un sistema de imagenología de dos canales (p. ej., el sistema 200 de imagenología), el método 400 se puede aplicar a un sistema de imagenología que tenga cualquier número de canales (p. ej., un canal, tres canales, cuatro canales, etc.) En la operación 410, se realiza un ciclo de imagenología de calibración de una muestra de patrón. Durante el ciclo de calibración de imagenología, los datos de la imagen se recolectan para toda la muestra escaneando la zona de la muestra (p. ej., usando un escáner lineal), con una o más fuentes coherentes de luz. A modo de ejemplo, el sistema 200 de imagenología puede usar un LGM 210 en coordinación con la óptica del sistema para someter a escaneo de líneas la muestra con luz que tiene longitudes de onda dentro del espectro de color rojo y para someter a escaneo de líneas la muestra con luz que tiene longitudes de onda dentro del espectro de color verde. En respuesta a la exploración de líneas, los tintes fluorescentes situados en los diferentes puntos de la muestra pueden emitir fluorescencia y la luz resultante puede recolectarse por la lente 235 de objetivo y dirigirse a un sensor de imagen del CAM 220 para detectar la fluorescencia. Por ejemplo, la fluorescencia de cada punto puede ser detectada por unos pocos píxeles del CAM 220. La salida de datos de imagen del CAM 220 se puede comunicar a continuación al módulo 225 de análisis en tiempo real para la corrección de la distorsión de la imagen (p. ej., la corrección de la distorsión de la imagen resultante de la geometría de la lente 235 del objetivo).
En diversas implementaciones, el ciclo de imagenología de calibración puede ser el primer ciclo de imagenología de una serie de imagenología de múltiples ciclos (p. ej., una serie de secuenciación de ADN). En particular, el sistema de imagenología puede determinar automáticamente los coeficientes de corrección de la distorsión durante el comienzo de cada serie de imagenología, evitando de esta manera la desviación de la distorsión del sistema de imagenología a lo largo del tiempo.
En la operación 430, los datos de imagenología generados por el ciclo de imagenología de calibración se dividen en una pluralidad de subconjuntos de datos de imagenología (p. ej., mosaicos) correspondientes a una región respectiva de la muestra de patrón. En otras palabras, un subconjunto de datos de imagenología comprende un subconjunto de los píxeles de un conjunto de datos de imagenología de un ciclo de imagenología. La Figura 5 ilustra visualmente cómo los datos de imagenología se pueden dividir en una pluralidad de subconjuntos de datos de imagenología para un sistema de imagenología de N canales que forma imágenes de una muestra que tiene una matriz de puntos (p. ej., la muestra 300). Por simplicidad, la distorsión de la imagen no se ilustra en la Figura 5. Como se muestra, para cada canal, los datos de imagen se pueden subdividir en una pluralidad de mosaicos 445 o subconjuntos de datos de imagenología correspondientes a una región de la muestra. Cada subconjunto de datos de imagenología en sí mismo comprende una pluralidad de puntos 443 de imagen que pueden distorsionarse de sus posiciones esperadas en la muestra (particularmente a lo largo de los bordes del mosaico). A modo de ejemplo, un subconjunto de datos de imagenología para un formador de imágenes de 2 canales puede incluir los datos de imagen para una región respectiva de la muestra para cada canal (p. ej., el mosaico superior derecho del canal 1 y el mosaico superior derecho del canal 2). Como se ilustra en la Figura 5, los datos de imagenología se dividen en 28 mosaicos para cada canal de color. La división de los datos de imagen en una pluralidad de mosaicos 445 permite la paralelización de las operaciones de procesamiento de imágenes. Además, como se describe adicionalmente más adelante, esto permite la corrección de distorsión independiente para cada región de la muestra, lo que puede corregir distorsiones adicionales (es decir, distorsión que no se debe a la óptica) que están localizadas en la muestra. Tales distorsiones pueden introducirse por la inclinación de la celda de flujo o la inclinación inducida por la curvatura 3D de la celda de flujo, tal como la forma de una bañera.
En diversas implementaciones, el tamaño de los subconjuntos de datos de imagenología puede determinarse usando la colocación de marcadores fiduciales o fiduciales en el campo de visión del sistema de imagenología, en la muestra o sobre la muestra. Los subconjuntos de datos de imagenología se pueden dividir de tal manera que los píxeles de cada subconjunto o mosaico de datos de imagenología tengan un número predeterminado de fiduciales (por ejemplo, al menos tres fiduciales, cuatro fiduciales, seis fiduciales, ocho fiduciales, etc.). Por ejemplo, el número total de píxeles del subconjunto de datos de imagenología puede predeterminarse basándose en distancias de píxeles predeterminadas entre los límites del subconjunto de datos de imagenología y los fiduciales. La Figura 7 ilustra uno de tales ejemplos de un mosaico 500 que incluye seis fiduciales 510. Como se describe adicionalmente más adelante, estos fiduciales se pueden usar como puntos de referencia para alinear la imagen y determinar los coeficientes de distorsión.
En la operación 450, cuya implementación particular se describe adicionalmente más adelante, se calcula independientemente un conjunto de coeficientes de corrección de distorsión de imagen para cada subconjunto de datos de imagenología. En el caso de que el subconjunto de datos de imagenología incluya múltiples canales de color, se puede calcular un conjunto separado de coeficientes de corrección de distorsión para cada canal de color. Estos coeficientes de corrección de la distorsión de imagen pueden aplicarse para corregir la distorsión de los datos de imagen en el ciclo de imagenología de calibración.
En la operación 470, se realiza el siguiente ciclo de imagenología de la muestra de patrón y se generan nuevos datos de imagen. En la operación 490, se aplican los coeficientes de corrección de distorsión calculados durante el ciclo de imagenología de calibración a los datos de imagenología del ciclo de imagenología actual para corregir la distorsión. Cada conjunto de coeficientes de distorsión calculados puede aplicarse a un mosaico correspondiente en los datos de imagenología del ciclo actual. Posteriormente, las operaciones 470 y 490 pueden iterarse. Como tales, los coeficientes de corrección de distorsión calculados durante un ciclo de imagenología inicial pueden aplicarse a ciclos de imagenología posteriores para corregir de forma independiente la distorsión en los diferentes mosaicos de datos de imagenología.
La Figura 6 es un diagrama de flujo operativo que ilustra un método 450 ilustrativo para calcular coeficientes de corrección de distorsión para datos de imagenología generados por un sistema de imagenología. Cabe señalar que, aunque el método 450 ilustrativo se ilustra como si se aplicara a un subconjunto 445 de datos de imagenología, en la práctica se puede aplicar a un conjunto completo de datos de imagenología (p. ej., datos de imágenes de una muestra completa).
El método 450 toma como entrada un subconjunto 445 de datos de imagenología correspondiente a una región de una muestra que se generó durante un ciclo de imagenología y emite un conjunto de coeficientes 468 de corrección de distorsión para un polinomio que se aplica para corregir la distorsión de i) el subconjunto de datos de imagenología; y ii) datos de imagenología de la misma región de la muestra tomada durante ciclos de imagenología posteriores. En los casos donde el subconjunto de datos de imagenología comprende datos de imagenología para un primer canal de color y datos de imagenología para un segundo canal de color, se puede generar un conjunto de coeficientes de corrección de distorsión para cada canal del subconjunto de datos de imagenología. Aunque las implementaciones del método 450 se describirán principalmente con referencia a determinar los coeficientes de corrección de distorsión para datos de imagenología de dos canales, debe señalarse que el método 450 se puede aplicar para determinar los coeficientes de corrección de distorsión para datos de imagenología correspondientes a cualquier número de canales. También debe señalarse que en los sistemas de imagenología multicanal, las operaciones 451-452 y 461-465 se pueden realizar de forma independiente para los datos de imagenología correspondientes a cada canal. Como tal, por motivos de simplicidad, estas operaciones se describirán principalmente como si se realizaran para un único canal. Para simplicidad adicional, la descripción del método 450 se referirá al subconjunto 445 de datos de imagenología como una imagen.
En la operación 451, se estima una transformada afín para la imagen usando fiduciales de imagen. Por ejemplo, como se ilustra en la Figura 7, se pueden encontrar en la imagen fiduciales 510 de anillos de diana (anillos claros rodeados por un borde oscuro para mejorar el contraste) para determinar sus ubicaciones reales en la imagen. En las implementaciones, las ubicaciones de los fiduciales en la imagen se pueden encontrar realizando una correlación cruzada con la ubicación de un fiducial virtual de referencia y tomando la ubicación donde se maximiza la puntuación de la correlación cruzada. La correlación cruzada se puede realizar usando la ecuación de correlación cruzada para funciones discretas, Ecuación (1)
Figure imgf000011_0002
donde una medida de la bondad de un ajuste entre un fiducial en la imagen y un fiducial virtual puede calcularse usando la ecuación de puntuación (2):
Puntuación = 1 - (Subcampeón_CC - Mínimo_CC) / (Máximo_CC - Mínimo_CC),(2)
donde Mínimo_CC es el valor mínimo de la correlación cruzada, Máximo_CC es el valor máximo de la correlación cruzada y Subcampeón_CC es el valor de correlación cruzada más grande fuera de un radio de 4 píxeles desde la ubicación de Máximo_CC. Los métodos particulares para determinar las ubicaciones de fiduciales se describen con mayor detalle en la solicitud de patente de Estados Unidos n.° 14/530.299.
Dado el conocimiento previo de la ubicación teórica de los fiduciales (p. ej., basándose en cuántos puntos igualmente espaciados debe haber entre los fiduciales), se puede determinar una transformada afín que mapea las ubicaciones teóricas de los fiduciales a sus ubicaciones reales en la imagen. La transformada afín estimada puede mapear la traslación, rotación y ampliación desde la posición esperada de los fiduciales.
Dadas ubicaciones teóricas x/, y, de una imagen (es decir, dónde deberían estar los píxeles de los fiduciales usando la configuración de muestra real) y las ubicaciones reales de la imagen xw, yw (donde los píxeles de fiduciales realmente aparecen en la imagen), la transformada afín puede representarse matemáticamente mediante la Ecuación (3):
Figure imgf000011_0001
donde la primera matriz es una matriz de traslación, la segunda matriz es una matriz de escala que escala un punto de imagen por factor de escala sx en la dirección x y un factor de escala sy en la dirección y, y la tercera matriz es una matriz de rotación que gira un punto de imagen en un ángulo 0 alrededor del eje z (es decir, en la dirección de enfoque perpendicular a la imagen). Alternativamente, la transformada afín puede representarse mediante la Ecuación (4):
Figure imgf000012_0001
donde los coeficientes a ii y a23 proporcionan la traslación de un punto de imagen a lo largo de las direcciones x e y, y los otros cuatro coeficientes proporcionan una combinación de escala y ampliación de un punto de la imagen. Dadas las ubicaciones reales (u1, v1), (u2, v2), (u3, v3) de tres fiduciales en la imagen, y las ubicaciones teóricas (x1,y1), (X2,y2), (x3,y3) de los tres fiduciales, la transformada afín se puede estimar resolviendo la Ecuación (5):
Figure imgf000012_0004
La ecuación (5) puede resolverse resolviendo la ecuación (6) por mínimos cuadrados:
Figure imgf000012_0002
Tomando las seis derivadas parciales de la función de error con respecto a cada una de las seis variables y estableciendo esta expresión a cero, se obtiene la representación de seis ecuaciones en forma matricial mediante la Ecuación (7):
Figure imgf000012_0003
En la operación 452, se aplica nitidez a la imagen. Por ejemplo, puede aplicarse nitidez a la imagen usando la convolución laplaciana u otras técnicas de nitidez de imagen conocidas en la técnica.
En la operación 460, se ejecuta una búsqueda iterativa de coeficientes de corrección de distorsión que maximizan la castidad media de una pluralidad de puntos en la imagen. En diversas implementaciones, la búsqueda puede ser una búsqueda de patrón. Alternativamente, se pueden aplicar otros algoritmos de búsqueda adecuados conocidos en la técnica. Las etapas de la operación 460 de búsqueda se describen más adelante.
En ciertas implementaciones, el algoritmo de búsqueda puede acelerarse submuestreando puntos dentro de la imagen. En implementaciones de dos canales particulares de estas implementaciones, el submuestreo debe incluir cada punto en algún número de filas. Al hacerlo, puede resolver un problema que es exclusivo de la codificación de dos canales (dos colores) de señales que tienen intensidades de señal [apagado, apagado] (p. ej., llamadas base). En el caso de las llamadas base, los agrupamientos de base G, que se designan como agrupamientos “ apagados” (sin etiquetar), pueden registrarse incorrectamente como “ encendidos” . Alternativamente, se puede extraer una señal del espacio entre agrupamientos (es decir, la zona entre pocillos) y registrarla como una señal de “ apagado” . Este problema se soluciona muestreando cada pocillo de una fila y un número suficiente de filas de modo que los agrupamientos de base G no controlen la función de coste de castidad.
En la operación 461, se genera un conjunto de coeficientes de corrección de distorsión. Los coeficientes de corrección de distorsión pueden proporcionar una representación polinomial de la función de corrección de distorsión de la imagen. En las implementaciones, los coeficientes correctos de distorsión pueden corresponder a un polinomio de segundo orden, un polinomio de tercer orden, un polinomio de cuarto orden, o un polinomio de quinto orden, o incluso un polinomio de orden superior. En implementaciones donde el sistema de imagenología es un escáner de línea, la corrección de distorsión se puede representar matemáticamente mediante la Ecuación (8):
Figure imgf000013_0001
dónde (x,y) es la posición corregida de la distorsión dentro de la imagen de las coordenadas de la imagen (x, y), a1 ■■■an son coeficientes de corrección de distorsión que describen un polinomio de orden n, y cxes el punto central en la imagen para x, y donde y es la dirección de escaneo del escáner lineal. En esta implementación, la distorsión en y se puede medir con respecto a x, porque esa es la dimensión con mayor distorsión. En algunos casos, donde la distorsión en y es despreciable (p. ej., según se determina por los requisitos de imagenología), se puede suponer que dy = 0 y la posición de corrección de distorsión dentro de la imagen se simplifica a la Ecuación (9):
Figure imgf000013_0002
En implementaciones, la operación 460 de búsqueda puede iniciarse con valores 0 para los coeficientes de corrección de distorsión durante la primera etapa de la búsqueda (es decir, asumir que no hay distorsión en la imagen). Alternativamente, se puede usar un conjunto de valores de coeficientes previamente aprendido para iniciar la búsqueda.
En la operación 462, la transformada afín estimada en la operación 451 se aplica a ubicaciones de puntos en la imagen. Por ejemplo, la transformada afín se puede aplicar según la Ecuación (4) descrita anteriormente.
En la operación 463, después de aplicar la transformada afín estimada a las ubicaciones de puntos, los coeficientes de corrección de distorsión generados se aplican a las ubicaciones de puntos en la imagen. Por ejemplo, cuando se corrige la distorsión en dos dimensiones para un escáner de línea, se puede aplicar la Ecuación (8). Alternativamente, si la distorsión en y es despreciable, se puede aplicar la Ecuación (9).
En la operación 464, se extraen las intensidades de señal para cada ubicación de punto en la imagen. Por ejemplo, para una ubicación de punto dada, la intensidad de la señal puede extraerse determinando un promedio ponderado de la intensidad de los píxeles en una ubicación de punto. Por ejemplo, se puede realizar una media ponderada del píxel central y los píxeles vecinos, tal como una interpolación bilineal. En implementaciones, cada ubicación de punto en la imagen puede comprender unos pocos píxeles (p. ej., 1-5 píxeles).
En la operación 465 opcional, las intensidades de señal extraídas se normalizan espacialmente para tener en cuenta la variación en la iluminación a lo largo de la imagen muestreada. Por ejemplo, los valores de intensidad pueden normalizarse de modo que los percentiles 5 y 95 tengan valores de 0 y 1, respectivamente.
En la operación 466, las intensidades de señal normalizadas para la imagen (p. ej., intensidades normalizadas para cada canal) pueden usarse para calcular la castidad media para la pluralidad de puntos en la imagen. Los métodos ilustrativos para calcular la castidad media se describen adicionalmente más adelante.
En una implementación, la castidad media se puede calcular para un sistema de dos canales que implementa la llamada base, que, como se ha descrito anteriormente, generalmente se refiere a un proceso de determinación de una llamada base (p. ej., A, C, G o T) para una ubicación de punto dada de una imagen durante un ciclo de imagenología. La llamada base se puede realizar ajustando un modelo matemático a los datos de intensidad. Los modelos matemáticos adecuados que pueden usarse incluyen, por ejemplo, un algoritmo de agrupamiento de k-medias, un algoritmo de agrupamiento similar a k-medias, un algoritmo de agrupamiento de maximización de expectativas, un método basado en histograma y similares. Se pueden ajustar cuatro distribuciones gaussianas al conjunto de datos de intensidad de dos canales de modo que se aplique una distribución para cada uno de los cuatro nucleótidos representados en el conjunto de datos.
En una implementación particular, se puede aplicar un algoritmo de maximización de expectativas (EM). Como resultado del algoritmo EM, para cada valor X, Y (que hace referencia a cada una de las intensidades de dos canales respectivamente) se puede generar un valor que representa la probabilidad de que un cierto valor de intensidad X, Y pertenezca a una de las cuatro distribuciones gaussianas a las que se ajustan los datos. Donde cuatro bases dan cuatro distribuciones separadas, cada valor de intensidad X, Y también tendrá cuatro valores de probabilidad asociados, uno para cada una de las cuatro bases. El máximo de los cuatro valores de probabilidad indica la llamada base. Esto se ilustra en la Figura 8, que muestra que, si un agrupamiento está “apagado” en ambos canales, la llamada base es G. Si el agrupamiento está “apagado” en un canal y “encendido” en otro canal, la llamada base es C o T (dependiendo de qué canal esté encendido), y si el agrupamiento está “encendido” en ambos canales, la llamada base es A.
Más generalmente, para implementaciones de llamadas base que impliquen cualquier número de canales, puede determinarse la castidad para un punto de imagen dado usando al menos la distancia del punto de intensidad del canal al centro de su distribución gaussiana respectiva. Cuanto más cerca esté el punto de intensidad del punto de la imagen en el centro de la distribución de la base llamada, mayor será la probabilidad de que la base llamada sea precisa y mayor su valor de castidad. En implementaciones de cuatro canales, la calidad de la llamada base (es decir, el valor de castidad) para el lugar dado puede expresarse como el valor de intensidad más alto dividido por el más alto más el segundo más alto. En las implementaciones de dos canales, la calidad o pureza de la llamada base para un punto de datos dado se puede expresar como una función de la distancia al centroide más cercano dividida por la distancia al segundo centroide más cercano. Matemáticamente, la castidad para un punto dado para implementaciones de dos canales puede expresarse mediante la Ecuación (10):
C = 1,0 - D1/(D1+D2) , (10)
donde D1 es la distancia a la media gaussiana más cercana, y D2 es la siguiente distancia más cera a una media gaussiana. La distancia se puede medir usando el método de Mahalanobis (que tiene en cuenta la anchura de la distribución a lo largo de la línea definida por cada centroide gaussiano y el punto bajo consideración).
En la decisión 468, se determina si la búsqueda 460 debería iterar. Esta determinación, en diversas implementaciones, puede depender de si la determinación de castidad media ha convergido en un conjunto óptimo de coeficientes de corrección de distorsión, la búsqueda 460 ha iterado un número predeterminado de veces, se ha calculado un valor de castidad media predeterminado, o alguna combinación de los mismos. Por ejemplo, si un conjunto de coeficientes mejora la castidad media global, esos coeficientes pueden convertirse en un punto de inicio para la próxima iteración de la búsqueda y el muestreo de un nuevo conjunto de coeficientes. En implementaciones particulares, la búsqueda 460 puede repetirse decenas, cientos o incluso miles de veces (p. ej., usando una búsqueda de patrón).
Las Figuras 9A-9B ilustra cada una respectivamente una recolecta de curvas de distorsión para un conjunto de mosaicos para óptica que se encuentran en un instrumento de secuenciación de dos canales que usa celdas de flujo. La Figura 9A es de un instrumento y la Figura 9B de otro instrumento que muestra la variabilidad de un instrumento a otro. Las curvas se realizan tanto por superficie (primer número) como por carril (segundo número). Como ilustran los diagramas, la distorsión puede variar tanto por carril como por superficie de la celda de flujo. La Figura 9C ilustra cuatro curvas de distorsión correspondientes a dos canales de color diferentes para un único mosaico para óptica que se encuentra en un instrumento de secuenciación de cuatro canales que usa celdas de flujo. Como tal, la corrección independiente de la distorsión de la imagen en las diferentes regiones de la celda de flujo (tanto por región como por canal de color) según las implementaciones descritas en la presente memoria puede mejorar aún más la calidad de la imagen.
La Figura 10A es un diagrama de caja y bigotes de resultados experimentales que ilustra qué porcentaje de puntos de una celda de flujo secuenciados usando un escáner de línea pasó un filtro de castidad (%PF) sin corrección de distorsión, agrupados en el campo de visión de un mosaico con respecto a X. El filtrado de castidad se puede aplicar durante los ciclos de imagenología para filtrar los datos de los puntos de “ mala calidad de imagen” . Por ejemplo, un punto puede descartarse como un punto de datos si no supera un valor de castidad predeterminado después de un cierto número de ciclos de secuenciación. En la Figura 10A, el número de contenedor de submosaicos indica la distancia en la dirección x de los puntos en relación con el centro de una imagen de mosaico. Para una dirección x dada, los resultados se promediaron sobre todos los y (donde y era la dirección de escaneo) del mosaico. Como se muestra, sin corrección de distorsión, un pequeño porcentaje de puntos en los bordes de los mosaicos pasaron el filtro de castidad y los datos de esos puntos se vuelven inutilizables. La Figura 10B es un diagrama de caja de resultados experimentales que muestra qué porcentaje de puntos de una celda de flujo secuenciada pasó un filtro de castidad con corrección de distorsión según la presente descripción. Como se ilustra, el número de puntos que pasan el filtro de castidad mejoró significativamente de manera drástica hacia los bordes de los mosaicos.
En implementaciones adicionales, la distorsión óptica puede reducirse en un sistema de imagenología optimizando el diseño óptico de una lente de imagenología (p. ej., una lente de objetivo) en el sistema de imagenología. El diseño de la lente óptica puede optimizarse adaptándolo usando al menos un algoritmo de corrección de distorsión de imagen predeterminado aplicado a las imágenes tomadas por la lente (p. ej., el algoritmo de corrección de distorsión de imagen descrito en la presente memoria). Por ejemplo, si el algoritmo de corrección de la distorsión de la imagen espera de 0,2 a 0,4 píxeles de distorsión en la lente, puede resultar ventajoso diseñar la lente con el nivel esperado de distorsión en lugar de sin distorsión.
La Figura 11 es un diagrama de flujo operativo que ilustra un método 600 ilustrativo, que no forma parte de la invención, para determinar los parámetros de corrección de la distorsión óptica que pueden usarse para optimizar un diseño de una lente de imagenología (por ejemplo, una lente de objetivo). El método 600 recibe como entradas el campo de visión de la lente y el tamaño de píxel del sensor de imagen y emite la máxima distorsión óptica absoluta y el máximo error desde la posición ajustada de un polinomio de quinto orden.
En la operación 610, se calcula un vector de centroides de la función de dispersión de puntos. El vector de funciones de dispersión de puntos se puede calcular inicializando una variable de distorsión máxima (DistMax) a cero e iterando las siguientes etapas mientras Dist > DistMax:
• calcular la altura Y paraxial a la altura de campo F (Yref);
• calcular el centroide de la función de dispersión de puntos de Huygens (Yreal);
• calcular la distorsión: Dist = 100 * ABSO(Yreal-Yref) / Yref; y
• almacenar Yreal en un vector (Vyreal) y almacenar F en un vector (VF).
En la operación 620, se calcula un ajuste polinomial de las funciones de dispersión de puntos. Este ajuste polinomial, en implementaciones particulares, puede calcularse calculando un ajuste polinomial de quinto orden de VF y Vyreal de la forma: Vyreal = a1*F a3*FA3 a5*FA5, donde a l representa el aumento, a3 es un coeficiente de tercer orden y a5 es un coeficiente de quinto orden.
En la operación 630, cada centroide puede compararse con la posición ajustada. Esta comparación se puede realizar inicializando un error máximo desde la variable de posición ajustada (ErrMax) a cero e iterando las siguientes etapas mientras Err>ErrMax:
• calcular la altura Y paraxial de la altura de campo F (Yref);
• calcular el centroide de la función de dispersión de puntos de Huygens (Yreal);
• calcular la ubicación del centroide esperada de a1, a3 y a5 (Yexp); y
• calcular el error Err = abs(Yexp-Yreal)/Spix donde Spix es el tamaño de píxel del sensor de imagen.
En este ejemplo, en la operación 640, se optimiza el diseño de la lente usando al menos el error máximo determinado desde la posición ajustada y la distorsión absoluta máxima determinada. En las implementaciones, esta optimización puede basarse en una técnica de minimización de mínimos cuadrados que suma al cuadrado (rss) el error máximo determinado y la distorsión absoluta máxima determinada con el error del frente de onda. La Figura 12 es un diagrama de distorsión residual que muestra una distorsión óptica residual en píxeles a lo largo del campo de visión de una lente después de aplicar un polinomio de quinto orden para corregir la distorsión. La Figura 13 ilustra un componente informático ilustrativo que puede usarse para implementar diversas características del sistema y los métodos descritos en la presente memoria, tales como las características y las funcionalidades mencionadas anteriormente de uno o más aspectos de los métodos 400 y 450. Por ejemplo, el componente informático puede implementarse como un módulo 225 de análisis en tiempo real.
Como se usa en la presente memoria, el término módulo podría describir una unidad dada de funcionalidad que puede realizarse según una o más implementaciones de la presente solicitud. Como se usa en la presente memoria, un módulo puede implementarse utilizando cualquier forma de hardware, software o una combinación de los mismos. Por ejemplo, para constituir un módulo podrían implementarse uno o más procesadores, controladores, ASIC, PLA, PAL, CμLD, FPGA, componentes lógicos, rutinas de software u otros mecanismos. En la implementación, los diversos módulos descritos en la presente memoria podrían implementarse como módulos discretos o las funciones y características descritas pueden compartirse en parte o en su totalidad entre uno o más módulos. En otras palabras, como sería evidente para un experto en la técnica después de leer esta descripción, las diversas características y funcionalidades descritas en la presente memoria pueden implementarse en cualquier aplicación dada y pueden implementarse en uno o más módulos separados o compartidos en diversas combinaciones y permutaciones. Aunque pueden describirse o reivindicarse individualmente diversas características o elementos de funcionalidad como módulos independientes, un experto en la técnica entenderá que estas características y funcionalidades pueden compartirse entre uno o más elementos de software y hardware comunes, y tal descripción no requiere o implica que se usen componentes de hardware o software independientes para implementar tales características o funcionalidades.
Cuando los componentes o módulos de la solicitud se implementan en su totalidad o en parte usando software, en una implementación, estos elementos de software pueden implementarse para operar con un módulo informático o de procesamiento que puede llevar a cabo la funcionalidad descrita con respecto a la misma. Un ejemplo de módulo informático de este tipo se muestra en la Figura 13. Se describen diversas implementaciones en cuanto a este ejemplo de módulo 1000 informático. Después de leer esta descripción, resultará evidente para un experto en la técnica relevante cómo implementar la solicitud usando otros módulos o arquitecturas informáticos.
Haciendo referencia ahora a la Figura 13, el módulo 1000 informático puede representar, por ejemplo, capacidades informáticas o de procesamiento encontradas dentro de los ordenadores de sobremesa, portátiles, pequeños portátiles y tabletas; dispositivos informáticos portátiles (tabletas, PDA, teléfonos inteligentes, teléfonos móviles, PC de bolsillo, etc.); centrales, superordenadores, estaciones de trabajo o servidores; o cualquier otro tipo de dispositivos informáticos de propósito especial o de propósito general como puede ser deseable o apropiado para una aplicación o entorno dado. El módulo 1000 informático también puede representar capacidades informáticas incrustadas dentro o disponibles de cualquier otra manera para un dispositivo dado. Por ejemplo, un módulo informático podría encontrarse en otros dispositivos electrónicos tales como, por ejemplo, cámaras digitales, sistemas de navegación, teléfonos móviles, dispositivos informáticos portátiles, módems, enrutadores, WAP, terminales y otros dispositivos electrónicos que podrían incluir alguna forma de capacidad de procesamiento.
El módulo 1000 informático puede incluir, por ejemplo, uno o más procesadores, controladores, módulos de control u otros dispositivos de procesamiento, tales como un procesador 1004. El procesador 1004 podría implementarse usando un motor de procesamiento de propósito general o de propósito especial, tal como, por ejemplo, un microprocesador, controlador u otra lógica de control. En el ejemplo ilustrado, el procesador 1004 está conectado a un bus 1002, aunque puede usarse cualquier medio de comunicación para facilitar la interacción con otros componentes del módulo 1000 informático o para comunicarse externamente.
El módulo 1000 informático también podría incluir uno o más módulos de memoria, simplemente denominados en el presente documento como memoria 1008 principal. Por ejemplo, preferiblemente, podría usarse una memoria de acceso aleatorio (RAM) u otra memoria dinámica para almacenar información e instrucciones que se ejecutarán por el procesador 1004. La memoria 1008 principal también podría usarse para almacenar variables temporales u otra información intermedia durante la ejecución de instrucciones que se ejecutarán por el procesador 1004. El módulo 1000 informático podría incluir de la misma manera una memoria de solo lectura (“ ROM” ) u otro dispositivo de almacenamiento estático acoplado al bus 1002 para almacenar información estática e instrucciones para el procesador 1004.
El módulo 1000 informático también podría incluir una o más diversas formas de mecanismo 1010 de almacenamiento de información, que podría incluir, por ejemplo, una unidad 1012 de medios y una interfaz 1020 de unidad de almacenamiento. La unidad 1012 de medios podría incluir una unidad u otro mecanismo para soportar medios 1014 de almacenamiento fijos o extraíbles. Por ejemplo, podría proporcionarse una unidad de disco duro, una unidad de estado sólido, una unidad de cinta magnética, una unidad de disco óptico, una unidad de CD o DVD (R o RW) u otra unidad de medios extraíble o fija. Por consiguiente, los medios 1014 de almacenamiento podrían incluir, por ejemplo, un disco duro, una unidad de estado sólido, una cinta magnética, cartucho, disco óptico, un CD, DVD o Blu-ray, u otro medio fijo o extraíble que se lee, se escribe o al que se accede por medio de la unidad 1012 de medios. Tal como ilustran estos ejemplos, los medios 1014 de almacenamiento pueden incluir un medio de almacenamiento utilizable por ordenador que tiene almacenado en el mismo software o datos informáticos.
En implementaciones alternativas, el mecanismo 1010 de almacenamiento de información podría incluir otros instrumentos similares para permitir que los programas informáticos u otras instrucciones o datos sean cargados en el módulo 1000 informático. Tales instrumentos podrían incluir, por ejemplo, una unidad 1022 de almacenamiento fija o extraíble y una interfaz 1020. Los ejemplos de tales unidades 1022 de almacenamiento e interfaces 1020 pueden incluir un cartucho de programa y una interfaz de cartucho, una memoria extraíble (por ejemplo, una memoria flash u otro módulo de memoria extraíble) y una ranura de memoria, una ranura y tarjeta PCMCIA, y otras unidades 1022 de almacenamiento fijas o extraíbles e interfaces 1020 que permiten que el software y los datos se transfieran desde la unidad 1022 de almacenamiento al módulo 1000 informático.
El módulo 1000 informático también podría incluir una interfaz 1024 de comunicaciones. La interfaz 1024 de comunicaciones podría usarse para permitir que el software y los datos se transfieran entre el módulo 1000 informático y los dispositivos externos. Los ejemplos de interfaz 1024 de comunicaciones pueden incluir un módem o softmódem, una interfaz de red (tal como una Ethernet, tarjeta de interfaz de red, WiMedia, iEEE 802.XX u otra interfaz), un puerto de comunicaciones (tal como, por ejemplo, un puerto USB, puerto IR, puerto RS232, interfaz Bluetooth® u otro puerto) u otra interfaz de comunicaciones. El software y los datos transferidos a través de la interfaz 1024 de comunicaciones podría transportarse normalmente en señales, que pueden ser electrónicas, electromagnéticas (que incluyen las ópticas) u otras señales capaces de intercambiarse por una interfaz 1024 de comunicaciones dada. Estas señales podrían proporcionarse a la interfaz 1024 de comunicaciones a través de un canal 1028. Este canal 1028 podría llevar señales y podría implementarse usando un medio de comunicación por cable o inalámbrico. Algunos ejemplos de un canal podrían incluir una línea telefónica, un enlace celular, un enlace de RF, un enlace óptico, una interfaz de red, una red de área local o amplia, y otros canales de comunicaciones por cable o inalámbricos.
En este documento, la expresión “ medio legible por ordenador” , “ medio utilizable por ordenador” y “ medio de programa informático” se usan para referirse generalmente a medios no transitorios, volátiles o no volátiles, tales como, por ejemplo, la memoria 1008, la unidad 1022 de almacenamiento y los medios 1014. Estas y otras diversas formas de medios de programa informático o medios utilizables por ordenador pueden estar implicadas en llevar una o más secuencias de una o más instrucciones a un dispositivo de procesamiento para su ejecución. Dichas instrucciones incorporadas en el medio, generalmente se denominan “código de programa informático” o un “ producto de programa informático” (que pueden agruparse en forma de programas informáticos u otros agrupamientos). Cuando se ejecutan, tales instrucciones permiten que el módulo 1000 informático realice características o funciones de la presente solicitud según se describe en la presente memoria.
Aunque lo descrito anteriormente en cuanto a diversas implementaciones e implementaciones ilustrativas, debe entenderse que las diversas características, aspectos y funcionalidades descritos en una o más de las implementaciones individuales no están limitados en su aplicabilidad a la implementación particular con el que se describen, sino que pueden aplicarse, solos o en diversas combinaciones, a una o más de las otras implementaciones de la solicitud, ya sea que se describan o no tales implementaciones y si tales características se presentan como una parte de una implementación descrita o no. Por tanto, la amplitud y el alcance de la presente solicitud no deberían estar limitados por ninguna de las implementaciones ilustrativas descritas anteriormente sino por las reivindicaciones adjuntas.
Debe tenerse en cuenta que todas las combinaciones de los conceptos anteriores (siempre que tales conceptos no sean mutuamente contradictorios) se contemplan como parte del objeto de la invención descrita en la presente memoria. En particular, todas las combinaciones según el objeto reivindicado que aparecen al final de esta descripción se contemplan como parte del objeto de la invención descrito en la presente memoria. Los términos “sustancialmente” y “aproximadamente” usados a lo largo de esta descripción, incluyendo las reivindicaciones, se usan para describir y considerar pequeñas fluctuaciones, tales como las debidas a variaciones en el procesamiento. Por ejemplo, pueden referirse a menor o igual al ± 5 %, tal como menor o igual al ± 2 %, tal como menor o igual al ± 1 %, tal como menor o igual al ± 0,5 %, tal como menor o igual al ± 0,2 %, tal como menor o igual al ± 0,1 %, tal como menor o igual al ± 0,05 %.
En la medida en que sea aplicable, los términos “ primero” , “ segundo” , “ tercero” , etc. en la presente memoria, se emplean simplemente para mostrar los objetos respectivos descritos por estos términos como entidades independientes y no pretenden connotar un sentido de orden cronológico, a menos que se indique explícitamente de cualquier otra manera en la presente memoria.
Los términos y expresiones utilizados en este documento, y variaciones de los mismos, a menos que se indique expresamente lo contrario, deben interpretarse como abiertos, en oposición a limitantes. Como ejemplos de lo anterior: la expresión “que incluye” debe leerse como que significa “que incluye, sin limitación” o similar; el término “ejemplo” se usa para proporcionar instancias ilustrativas del artículo en discusión, no una lista exhaustiva o limitante de los mismos; los términos “uno” o “una” deben leerse como “al menos uno/a” , “uno/a o más” o similares; y adjetivos tales como “convencional” , “tradicional” , “ normal” , “estándar” , “conocido” y términos de significado similar no deben interpretarse como limitantes del punto descrito a un período de tiempo dado o a un artículo disponible como de un tiempo dado, sino que en su lugar deben leerse como que abarcan tecnologías convencionales, tradicionales, normales o estándar que pueden estar disponibles o ser conocidas ahora o en cualquier momento en el futuro. Del mismo modo, cuando este documento se refiere a tecnologías que serían evidentes o conocidas por un experto en la técnica, dichas tecnologías abarcan aquellas evidentes o conocidas por el experto en la técnica ahora o en cualquier momento en el futuro.
La presencia de palabras y expresiones ampliadas tales como “uno o más” , “ al menos” , “ pero sin limitación” u otras expresiones similares en algunos casos no se leerán con el significado de que se prevé o se requiere el caso más estrecho en casos en donde dichas expresiones ampliadas puedan estar ausentes. El uso del término “ módulo” no implica que los componentes o la funcionalidad descritos o reivindicados como parte del módulo estén todos configurados en un paquete común. De hecho, cualquiera o todos los diversos componentes de un módulo, ya sea lógica de control u otros componentes, pueden combinarse en un solo paquete o mantenerse por separado y pueden distribuirse de forma adicional en múltiples agrupaciones o paquetes o en múltiples ubicaciones.
De forma adicional, las diversas implementaciones expuestas en la presente memoria se describen en cuanto a los diagramas de bloques ilustrativos, diagramas de flujo y otras ilustraciones. Como resultará evidente para un experto en la técnica después de leer este documento, las implementaciones ilustradas y sus diversas alternativas pueden implementarse sin confinamiento a los ejemplos ilustrados. Por ejemplo, los diagramas de bloques y su descripción adjunta no deben interpretarse como que requieren una arquitectura o configuración particular.
Aunque se han descrito anteriormente diversas implementaciones de la presente descripción, debe entenderse que se han presentado sólo a modo de ejemplo y no de limitación. Asimismo, los diversos diagramas pueden representar un ejemplo de arquitectura u otra configuración para la descripción, lo que se hace para ayudar a comprender las características y las funcionalidades que pueden incluirse en la descripción. La descripción no está restringida al ejemplo ilustrado de las arquitecturas o configuraciones, pero las características deseadas pueden implementarse usando una diversidad de arquitecturas y configuraciones alternativas. De hecho, resultará evidente para un experto en la técnica cómo pueden implementarse particiones y configuraciones funcionales, lógicas o físicas alternativas para implementar las características deseadas de la presente documento descripción. También, una multitud de diferentes nombres de módulo constituyentes distintos de los representados en la presente memoria pueden aplicarse a las diversas divisiones. De manera adicional, con respecto a los diagramas de flujo, las descripciones operativas y las reivindicaciones del método, el orden en donde se presentan las etapas en el presente documento no obligan a que se implementen diversas implementaciones para realizar la funcionalidad mencionada en el mismo orden a menos que el contexto indique lo contrario.

Claims (15)

REIVINDICACIONES
1. Un método que comprende:
realizar (410) un primer ciclo de imagenología de una muestra (300, 500) de patrón que comprende una pluralidad de puntos (310, 443);
dividir (430) un primer conjunto de datos de imagenología generados durante el primer ciclo de imagenología en una primera pluralidad de subconjuntos (445) de datos de imagenología, correspondiendo cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología a una región respectiva de la muestra (300, 500) de patrón, comprendiendo cada una de las regiones respectivas de la muestra (300, 500) de patrón una pluralidad de puntos (310, 443);
calcular (450) un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología;
realizar (450) un segundo ciclo de imagenología de la muestra (300, 500) de patrón para generar un segundo conjunto de datos de imagenología; y
dividir (490) el segundo conjunto de datos de imagenología generado durante el segundo ciclo de imagenología en una segunda pluralidad de subconjuntos (445) de datos de imagenología, correspondiendo cada uno de la segunda pluralidad de subconjuntos (445) de datos de imagenología a la misma región respectiva de la muestra (300, 500) de patrón como uno de la primera pluralidad de subconjuntos (445) de datos de imagenología; y
para cada uno de la segunda pluralidad de subconjuntos (445) de datos de imagenología, aplicar (490) los coeficientes de corrección de distorsión calculados para el uno de la primera pluralidad de subconjuntos (445) de datos de imagenología correspondiente a la misma región respectiva de la muestra (300, 500) de patrón.
2. El método de la reivindicación 1, en donde cada uno de la pluralidad de puntos (310, 443) de la muestra (300, 500) de patrón comprende ácidos nucleicos marcados con fluorescencia, en donde el primer ciclo de imagenología es un primer ciclo de secuenciación, y en donde el segundo ciclo de imagenología es un segundo ciclo de secuenciación, o en donde el primer conjunto de datos de imagenología y el segundo conjunto de datos de imagenología comprenden respectivamente datos de imagenología de un primer canal de color y datos de imagenología de un segundo canal de color, y en donde calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología comprende determinar un conjunto de coeficientes de corrección de distorsión para cada canal de color de cada subconjunto (445) de datos de imagenología.
3. El método de la reivindicación 1, en donde calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología, comprende:
estimar una transformada afín del subconjunto (445) de datos de imagenología;
aplicar nitidez al subconjunto (445) de datos de imagenología; y
buscar iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para el subconjunto (445) de datos de imagenología.
4 El método de la reivindicación 3, en donde la búsqueda iterativa de un conjunto óptimo de coeficientes de corrección de distorsión para el subconjunto (445) de datos de imagenología comprende: aplicar la transformada afín estimada durante cada iteración de la búsqueda.
5. El método de la reivindicación 3, en donde el primer conjunto de datos de imagenología y el segundo conjunto de datos de imagenología se dividen usando al menos la posición de los fiduciales (510) en la muestra, y en donde se estima la transformada afín para cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología usando los fiduciales (510), comprendiendo opcionalmente además: después de aplicar el conjunto de coeficientes de corrección de distorsión óptica a cada uno de la pluralidad de ubicaciones de puntos, extraer una intensidad de señal para cada una de la pluralidad de ubicaciones de puntos.
6. El método de la reivindicación 1 para secuenciar corrigiendo la distorsión óptica en una imagen de una muestra (300, 500) de patrón que comprende una pluralidad de puntos (310, 443), en donde calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos de datos de imágenes comprende:
estimar una transformada afín de la imagen usando fiduciales (510) en la muestra (300, 500) de patrón;
aplicar nitidez a la imagen; y
buscar iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida, en donde buscar iterativamente el conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida comprende calcular una castidad media para una pluralidad de ubicaciones de puntos en la imagen usando al menos intensidades de señal extraídas de cada una de la pluralidad de ubicaciones de puntos, y en donde la transformada afín estimada se aplica durante cada iteración de la búsqueda.
7. El método de la reivindicación 6, en donde la imagen comprende un primer conjunto de datos de imagen correspondiente a un primer canal de color y un segundo conjunto de datos de imagen correspondiente a un segundo canal de color, y en donde las operaciones de estimación de la transformada afín y de nitidez de la imagen se aplican a cada uno del primer conjunto de datos de imagen y el segundo conjunto de datos de imagen, o en donde la búsqueda iterativa de un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida comprende:
generar un conjunto de coeficientes de corrección de distorsión óptica para la imagen; aplicar la transformada afín estimada a la pluralidad de ubicaciones de puntos en la imagen; y después de aplicar la transformada afín estimada, aplicar el conjunto de coeficientes de corrección de distorsión óptica a cada una de la pluralidad de ubicaciones de puntos, o en donde la búsqueda iterativa de un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida comprende submuestrear una pluralidad de puntos (310, 443) en la imagen, en donde si se submuestrea un punto (310, 443) en una fila de la imagen nítida, a continuación, se submuestrean todos los puntos (310, 443) en la fila de la imagen nítida.
8. El método de la reivindicación 6, que comprende, además:
normalizar las intensidades de señal extraídas; y
calcular una castidad media para la pluralidad de ubicaciones de puntos usando al menos las intensidades de señal normalizadas.
9. El método de la reivindicación 8, en donde calcular una castidad media para la pluralidad de ubicaciones de puntos usando al menos las intensidades de señal normalizadas comprende: para cada una de la pluralidad de ubicaciones de puntos determinar una castidad usando al menos una distancia desde un punto correspondiente a la intensidad de señal normalizada de la ubicación de punto a un centroide gaussiano.
10. Un medio legible por ordenador no transitorio que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan por uno o más procesadores, hacen que un sistema de secuenciación:
realice un primer ciclo de imagenología de una muestra (300, 500) de patrón que comprende una pluralidad de puntos (310, 443);
divida un primer conjunto de datos de imagenología generados durante el primer ciclo de imagenología en una primera pluralidad de subconjuntos (445) de datos de imagenología, correspondiendo cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología a una región respectiva de la muestra (300, 500) de patrón, comprendiendo cada una de las regiones respectivas de la muestra (300, 500) de patrón una pluralidad de puntos (310, 443);
calcule un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos (445) de datos de imagenología;
realice un segundo ciclo de imagenología de la muestra (300, 500) de patrón para generar un segundo conjunto de datos de imagenología; y
divida el segundo conjunto de datos de imagenología generado durante el segundo ciclo de imagenología en una segunda pluralidad de subconjuntos (445) de datos de imagenología, correspondiendo cada uno de la segunda pluralidad de subconjuntos (445) de datos de imagenología a la misma región respectiva de la muestra (300, 500) de patrón como uno de la primera pluralidad de subconjuntos (445) de datos de imagenología; y
para cada uno de la segunda pluralidad de subconjuntos (445) de datos de imagenología, aplique los coeficientes de corrección de distorsión calculados para el uno de la primera pluralidad de subconjuntos (445) de datos de imagenología correspondiente a la misma región respectiva de la muestra (300, 500) de patrón;
en donde calcular un conjunto de coeficientes de corrección de distorsión de imagen para cada uno de la primera pluralidad de subconjuntos de datos de imagenología comprende: estimar (451) una transformada afín de una imagen de una muestra de patrón que comprende una pluralidad de puntos (310, 443) usando fiduciales (510) en la muestra (300, 500) de patrón;
aplicar nitidez (452) a la imagen; y
buscar (460) iterativamente un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida, en donde buscar iterativamente el conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida comprende calcular una castidad media para una pluralidad de ubicaciones de puntos en la imagen usando al menos intensidades de señal extraídas de cada una de la pluralidad de ubicaciones de puntos, y en donde la transformada afín estimada se aplica durante cada iteración de la búsqueda.
11. El medio legible por ordenador no transitorio de la reivindicación 10, en donde la imagen comprende un primer conjunto de datos de imagen correspondiente a un primer canal de color y un segundo conjunto de datos de imagen correspondiente a un segundo canal de color, y en donde las operaciones de estimación de la transformada afín y de nitidez de la imagen se aplican a cada uno del primer conjunto de datos de imagen y el segundo conjunto de datos de imagen.
12. El medio legible por ordenador no transitorio de la reivindicación 10, en donde la búsqueda iterativa de un conjunto óptimo de coeficientes de corrección de distorsión para la imagen nítida comprende:
generar un conjunto de coeficientes de corrección de distorsión óptica para la imagen; aplicar la transformada afín estimada a la pluralidad de ubicaciones de puntos en la imagen; y después de aplicar la transformada afín estimada, aplicar el conjunto de coeficientes de corrección de distorsión óptica a cada una de la pluralidad de ubicaciones de puntos.
13. El medio legible por ordenador no transitorio de la reivindicación 12, en donde las instrucciones, cuando se ejecutan por el uno o más procesadores, hacen además que el sistema:
aplique el conjunto de coeficientes de corrección de distorsión óptica a cada una de la pluralidad de ubicaciones de puntos; y
extraiga una intensidad de señal para cada una de la pluralidad de ubicaciones de puntos.
14. El medio legible por ordenador no transitorio de la reivindicación 13, en donde las instrucciones, cuando se ejecutan por el uno o más procesadores, hacen además que el sistema:
normalice las intensidades de señal extraídas; y
calcule una castidad media para la pluralidad de ubicaciones de puntos usando al menos las intensidades de señal normalizadas.
15. El medio legible por ordenador no transitorio de la reivindicación 14, en donde calcular una castidad media para la pluralidad de ubicaciones de puntos usando al menos las intensidades de señal normalizadas comprende: para cada una de la pluralidad de ubicaciones de puntos determinar una castidad usando al menos una distancia desde un punto correspondiente a la intensidad de señal normalizada de la ubicación de punto a un centroide gaussiano, o en donde cada uno de la pluralidad de puntos (310, 443) de la muestra (300, 500) de patrón comprende ácidos nucleicos marcados con fluorescencia.
ES18160337T 2017-03-07 2018-03-06 Corrección de distorsión óptica para muestras de imagenología Active ES2948760T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762468347P 2017-03-07 2017-03-07
NL2018852A NL2018852B1 (en) 2017-05-05 2017-05-05 Optical distortion correction for imaged samples

Publications (1)

Publication Number Publication Date
ES2948760T3 true ES2948760T3 (es) 2023-09-18

Family

ID=59521607

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18160337T Active ES2948760T3 (es) 2017-03-07 2018-03-06 Corrección de distorsión óptica para muestras de imagenología

Country Status (15)

Country Link
US (5) US10152776B2 (es)
EP (2) EP4187234A1 (es)
JP (2) JP6563539B2 (es)
KR (2) KR102072232B1 (es)
CN (2) CN111652797A (es)
AU (1) AU2018201352B2 (es)
BR (1) BR102018004557A2 (es)
CA (2) CA3139142C (es)
ES (1) ES2948760T3 (es)
IL (1) IL257826B (es)
NL (1) NL2018852B1 (es)
NZ (1) NZ740201A (es)
SA (1) SA118390405B1 (es)
SG (2) SG10202002144PA (es)
TW (2) TWI728645B (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062400B (zh) * 2018-10-16 2024-04-30 浙江宇视科技有限公司 目标匹配方法及装置
CN111351794B (zh) * 2018-12-20 2021-12-10 上海微电子装备(集团)股份有限公司 一种物体表面检测装置及检测方法
JP2022523061A (ja) 2019-01-28 2022-04-21 ザ ジェネラル ホスピタル コーポレイション レーザ走査型顕微鏡視のスペックルベース画像歪み補正
NL2023314B1 (en) * 2019-03-21 2020-09-28 Illumina Inc Artificial intelligence-based quality scoring
US11210554B2 (en) 2019-03-21 2021-12-28 Illumina, Inc. Artificial intelligence-based generation of sequencing metadata
US11783917B2 (en) 2019-03-21 2023-10-10 Illumina, Inc. Artificial intelligence-based base calling
WO2020191387A1 (en) * 2019-03-21 2020-09-24 Illumina, Inc. Artificial intelligence-based base calling
NL2023316B1 (en) * 2019-03-21 2020-09-28 Illumina Inc Artificial intelligence-based sequencing
US11593649B2 (en) 2019-05-16 2023-02-28 Illumina, Inc. Base calling using convolutions
US11501440B2 (en) * 2019-11-22 2022-11-15 10X Genomics, Inc. Systems and methods for spatial analysis of analytes using fiducial alignment
IL295560A (en) 2020-02-20 2022-10-01 Illumina Inc An artificial intelligence-based many-to-many base reader
US11188778B1 (en) * 2020-05-05 2021-11-30 Illumina, Inc. Equalization-based image processing and spatial crosstalk attenuator
US11443411B2 (en) 2020-07-08 2022-09-13 Nxp Usa, Inc. Method and system for image distortion correction using quarter and tangential lookup tables
US11200446B1 (en) 2020-08-31 2021-12-14 Element Biosciences, Inc. Single-pass primary analysis
US11361194B2 (en) 2020-10-27 2022-06-14 Illumina, Inc. Systems and methods for per-cluster intensity correction and base calling
CN112489115B (zh) * 2020-11-27 2023-09-08 杭州海康威视数字技术股份有限公司 发光模块定位方法、装置、电子设备、存储介质及系统
EP4283278A1 (en) * 2021-01-25 2023-11-29 Nanoentek, Inc. Fine particle counting method using multi-channel sample chip and fine particle counting apparatus implementing same
WO2022197752A1 (en) * 2021-03-16 2022-09-22 Illumina, Inc. Tile location and/or cycle based weight set selection for base calling
US20220336054A1 (en) 2021-04-15 2022-10-20 Illumina, Inc. Deep Convolutional Neural Networks to Predict Variant Pathogenicity using Three-Dimensional (3D) Protein Structures
AU2022296802A1 (en) * 2021-06-25 2024-01-04 Illumina, Inc. Linear fourier fiducial
US11455487B1 (en) 2021-10-26 2022-09-27 Illumina Software, Inc. Intensity extraction and crosstalk attenuation using interpolation and adaptation for base calling
WO2023158804A1 (en) 2022-02-17 2023-08-24 Illumina, Inc. Ai-driven signal enhancement of sequencing images
WO2023158809A1 (en) 2022-02-17 2023-08-24 Illumina, Inc. Ai-driven enhancement of motion blurred sequencing images
WO2023239917A1 (en) * 2022-06-09 2023-12-14 Illumina, Inc. Dependence of base calling on flow cell tilt
CN115242985B (zh) * 2022-07-08 2024-05-03 苏州华星光电技术有限公司 摄像装置校正方法和摄像装置校正装置
CN118067682B (zh) * 2024-04-16 2024-07-05 中国人民解放军总医院 一种检测生长分化因子15基因表达的方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671623B1 (en) 1999-10-15 2003-12-30 Schlumberger Technology Corporation Methods and system for characterizing the response of subsurface measurements to determine wellbore and formation characteristics
JP4278800B2 (ja) * 1999-10-27 2009-06-17 株式会社ミツトヨ 撮像空間の幾何学的歪み解消方法
US20040146917A1 (en) * 2001-08-03 2004-07-29 Nanosphere, Inc. Nanoparticle imaging system and method
JP4280720B2 (ja) * 2002-02-14 2009-06-17 日本碍子株式会社 試料解析装置および試料解析方法
US7339661B2 (en) * 2002-09-30 2008-03-04 Doron Korngut Dark field inspection system
WO2008067552A2 (en) * 2006-11-30 2008-06-05 Fluidigm Corporation Method and apparatus for biological sample analysis
US8289430B2 (en) * 2007-02-09 2012-10-16 Gentex Corporation High dynamic range imaging device
CN100582657C (zh) * 2008-01-31 2010-01-20 武汉理工大学 三维微观形貌斜扫描方法及装置
US8186909B2 (en) 2008-02-26 2012-05-29 Artificial Sea-Mount Institute Corporation Artificial sea mount
US20100157086A1 (en) * 2008-12-15 2010-06-24 Illumina, Inc Dynamic autofocus method and system for assay imager
CN102483802B (zh) * 2009-06-01 2014-12-31 生物辐射实验室股份有限公司 用于生物/化学样本的成像设备的校准
JP5415176B2 (ja) 2009-08-06 2014-02-12 株式会社マキタ スイッチ
KR101569835B1 (ko) * 2009-10-06 2015-11-17 삼성전자주식회사 스캐닝 이미지의 왜곡 보정 방법
US8965076B2 (en) * 2010-01-13 2015-02-24 Illumina, Inc. Data processing system and methods
JP2011182705A (ja) * 2010-03-09 2011-09-22 Toray Ind Inc Dnaチップ解析方法および解析装置
JP5817378B2 (ja) 2011-01-28 2015-11-18 東レ株式会社 マイクロアレイの解析方法および読取り装置
WO2012170936A2 (en) 2011-06-09 2012-12-13 Illumina, Inc. Patterned flow-cells useful for nucleic acid analysis
WO2013051147A1 (ja) * 2011-10-07 2013-04-11 キヤノン株式会社 画像取得装置の調整方法、画像取得装置および画像取得装置の製造方法
WO2014149197A1 (en) * 2013-02-01 2014-09-25 Kla-Tencor Corporation Detecting defects on a wafer using defect-specific and multi-channel information
CN103116889A (zh) * 2013-02-05 2013-05-22 海信集团有限公司 一种定位方法及电子设备
JP2014164004A (ja) * 2013-02-22 2014-09-08 Hitachi High-Technologies Corp 蛍光顕微鏡
US20160003375A1 (en) 2014-07-01 2016-01-07 Roy Lee Robertson, Jr. Versatile hanging system for roof support systems
JP2016033620A (ja) * 2014-07-31 2016-03-10 キヤノン株式会社 画像取得装置
CA2959518A1 (en) * 2014-08-27 2016-03-03 Pacific Biosciences Of California, Inc. Arrays of integrated analytical devices
US9897791B2 (en) * 2014-10-16 2018-02-20 Illumina, Inc. Optical scanning systems for in situ genetic analysis

Also Published As

Publication number Publication date
KR102455926B1 (ko) 2022-10-17
CA3139142A1 (en) 2018-09-07
TW202014696A (zh) 2020-04-16
KR102072232B1 (ko) 2020-01-31
US10909666B2 (en) 2021-02-02
CA2996541A1 (en) 2018-09-07
US20190087948A1 (en) 2019-03-21
JP2019169176A (ja) 2019-10-03
CN111652797A (zh) 2020-09-11
US11816816B2 (en) 2023-11-14
JP2018173943A (ja) 2018-11-08
CA2996541C (en) 2022-01-04
KR20180102509A (ko) 2018-09-17
NZ740201A (en) 2019-09-27
US20180260940A1 (en) 2018-09-13
TW201842322A (zh) 2018-12-01
US11568522B2 (en) 2023-01-31
JP6563539B2 (ja) 2019-08-21
CN108573468A (zh) 2018-09-25
US10152776B2 (en) 2018-12-11
SG10201801648VA (en) 2018-10-30
AU2018201352B2 (en) 2019-05-02
NL2018852B1 (en) 2018-11-14
EP3373238A1 (en) 2018-09-12
CN108573468B (zh) 2020-06-09
US20230131965A1 (en) 2023-04-27
TWI685653B (zh) 2020-02-21
JP6871970B2 (ja) 2021-05-19
EP3373238B1 (en) 2023-04-05
EP4187234A1 (en) 2023-05-31
US20210224961A1 (en) 2021-07-22
US20240029217A1 (en) 2024-01-25
BR102018004557A2 (pt) 2018-12-04
IL257826A (en) 2018-04-30
AU2018201352A1 (en) 2018-09-27
CA3139142C (en) 2023-01-10
IL257826B (en) 2020-02-27
TWI728645B (zh) 2021-05-21
SA118390405B1 (ar) 2021-04-14
SG10202002144PA (en) 2020-05-28
NZ752391A (en) 2020-09-25
KR20200012006A (ko) 2020-02-04

Similar Documents

Publication Publication Date Title
ES2948760T3 (es) Corrección de distorsión óptica para muestras de imagenología
ES2938511T3 (es) Microscopía de iluminación estructurada con exploración de líneas
RU2740776C1 (ru) Микроскопия структурированного освещения уменьшенной размерности со структурированными массивами наноразмерных лунок
WO2011137183A1 (en) Method and system for accurate alignment and registration of array for dna sequencing
KR20100091837A (ko) 바이오칩 스캐닝 방법
RU2749893C1 (ru) Способ совмещения изображений флуоресценции, прибор и система секвенирования генов и запоминающая среда
NZ752391B2 (en) Optical distortion correction for imaged samples
US20220414853A1 (en) Fiducials for use in registration of a patterned surface
US20220412872A1 (en) Linear fourier fiducial