ES2929613A1 - Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica - Google Patents

Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica Download PDF

Info

Publication number
ES2929613A1
ES2929613A1 ES202130485A ES202130485A ES2929613A1 ES 2929613 A1 ES2929613 A1 ES 2929613A1 ES 202130485 A ES202130485 A ES 202130485A ES 202130485 A ES202130485 A ES 202130485A ES 2929613 A1 ES2929613 A1 ES 2929613A1
Authority
ES
Spain
Prior art keywords
objects
interest
foreground
image
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
ES202130485A
Other languages
English (en)
Inventor
Gómez David Míguez
Terrón Mario Ledesma
Donés Diego Pérez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad Autonoma de Madrid
Original Assignee
Universidad Autonoma de Madrid
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad Autonoma de Madrid filed Critical Universidad Autonoma de Madrid
Priority to ES202130485A priority Critical patent/ES2929613A1/es
Publication of ES2929613A1 publication Critical patent/ES2929613A1/es
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • G01B9/02042Confocal imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Sistema y método implementado en ordenador para analizar cuantitativamente una muestra biológica (9) en 3D. El sistema comprende una unidad de procesamiento (2) para procesar las imágenes (10) adquiridas en diferentes planos (21 ,22) de profundidad y detectar entes de interés en la muestra (9). La unidad de procesamiento (2) modela el ente de interés como una representación geométrica tridimensional (objeto 3D); identifica objetos 2D (12) en una imagen (10) de un primer plano de profundidad (21), el objeto 2D (12) se corresponde con una sección del objeto 3D; clasifica para cada objeto 2D (12) identificado si es inicio, continuación o final de un objeto 3D (13), según un criterio basado en relaciones geométricas entre los objetos 2D (12); registra cada objeto 2D (12) identificado con su clasificación; y repite las operaciones para reconstruir los entes de interés presentes en la muestra (9).

Description

DESCRIPCIÓN
SISTEMA, MÉTODO IMPLEMENTADO EN ORDENADOR PARA ANALIZAR
CUANTITATIVAMENTE UNA MUESTRA BIOLÓGICA VOLUMÉTRICA
Campo técnico de la invención
La invención pertenece al área de procesamiento de imágenes correspondientes a muestras biológicas volumétricas. Más concretamente, la invención se relaciona con análisis mediante imágenes confocales de diferentes planos del desarrollo y crecimiento de estructuras biológicas en tres dimensiones, por ejemplo, tejidos.
Estado de la Técnica
Una limitación en el análisis automatizado de imágenes en muestras biológicas tridimensionales, también denominadas volumétricas, se relaciona con la influencia que tiene el grosor de la muestra en la resolución de los resultados.
Los entes cercanos a la superficie de un tejido se muestran nítidos y bien definidos en imágenes. En cambio, aquellos entes que se encuentran a mayor profundidad en el tejido son difíciles de identificar. Por ente, se entiende cualquier elemento volumétrico de interés en la muestra (p.e. células, núcleos de células, orgánulos celulares, o cualquier otra tinción que permita localizar partes de una célula o un tejido biológico).
Cuando se enfoca a cierta profundidad, una cantidad creciente de fotones son dispersados de su trayectoria original. Adicionalmente, algunos tintes fluorescentes y anticuerpos poseen una permeabilidad reducida, por no que no penetran hasta en las capas más profundas de un tejido. Cuando a esto unimos el hecho de que las imágenes de tejidos o muestras in vivo contienen una densidad de células muy elevada, es muy complicado distinguir entes individuales en una muestra tridimensional para su cuantificación, incluso para el ojo humano.
Como consecuencia de los fenómenos anteriores, se necesita un complejo procesamiento de imágenes que, sin embargo, no consigue evitar fallos de segmentación y una reducción de la resolución de las imágenes. Bien, porque la segmentación es excesiva y un único ente es identificado como dos o más entes. Bien, porque la segmentación es insuficiente y dos o más entes adyacentes son identificados como un único ente.
Breve descripción de la invención
La presente invención plantea técnicas para mitigar los inconvenientes existentes en la reducción de resolución cuando se trabaja con imágenes correspondientes a entes de interés de carácter tridimensional presentes en una muestra volumétrica dada. La invención es de aplicación preferentemente en muestras biológicas.
Las imágenes de muestras biológicas de carácter tridimensional se reconstruyen comúnmente a partir de secciones de tejidos tridimensionales adquiridas en microscopios laser de escaneado confocal. Por norma general, las reconstrucciones de imágenes a partir de secciones confocales no son homogéneas en cuanto a su resolución ya que un eje, generalmente el eje vertical (profundidad) contiene mucha menos información que los horizontales (es decir, el plano confocal). Cuando estas muestras tridimensionales son cuantificadas, la precisión del resultado final viene limitada por el eje de menor resolución.
Asimismo, como se menciona en la sección anterior, la resolución también depende fuertemente del grosor y densidad de la muestra, debido a la permeabilidad de tintes fluorescentes y anticuerpos, y de la dispersión de los fotones. Todo esto hace que las imágenes tridimensionales sea heterogéneas en cuanto a resolución, contraste y nitidez, con ejes, planos y zonas con mucha menos información que otras. Estas inhomogeneidades dificultan enormemente el análisis automatizado de las imágenes biológicas tridimensionales, así como la cuantificación de aspectos relevantes de la muestra.
La presente invención resuelve o al menos mitiga tales problemas. La invención resulta ventajosa en estas situaciones donde algunas regiones o ejes de una muestra tridimensional tienen una baja relación señal/fondo que compromete la cuantificación de los entes de interés.
Ésta y otras ventajas se llevan a cabo mediante el sistema, el método y el medio legible con instrucciones de programa definido en las respectivas reivindicaciones independientes. Realizaciones particulares se definen en las reivindicaciones dependientes.
Breve descripción de las figuras
Para complementar la descripción que se está realizando y con objeto de ayudar a una mejor comprensión de las características de la invención, se acompaña como parte integrante de dicha descripción, un juego de dibujos en donde con carácter ilustrativo y no limitativo, se ha representado lo siguiente:
La Fig. 1A es una perspectiva de una reconstrucción de la retina del pez cebra en 24 hpf (horas post-fertilización). La Fig. 1B es una vista de plano confocal. La Fig. 1C es un plano no-confocal.
La Fig. 2A es una perspectiva de una reconstrucción de la retina del pez cebra en 37 hpf. La Fig. 2B es una vista de plano confocal. La Fig. 2C es un plano noconfocal.
La Fig. 3 es un diagrama de barras con la precisión en la detección correspondiente a planos confocales y no confocales en 24 y 37 hpf según técnicas convencionales.
La Fig. 4A muestra un ejemplo de ajuste geométrico para un ente de interés. La Fig. 4B muestra un diagrama de bloques funcionales según la invención. La Fig. 4C muestra un diagrama simplificado de varios pasos según la invención.
Las Figs. 5A-5C ilustran criterios para elegir como semilla un objeto 2D como inicio de un objeto 3D.
Las Figs. 6A-6B ilustran criterios para que un objeto 2D forme parte de un objeto 3D.
Las Figs. 7A-7C ilustran criterios basados en la distancia euclidiana.
Las Figs. 8A-8C ilustran criterios basados en el área de solapamiento.
Las Figs. 9A-9C ilustran criterios basados en el perímetro de solapamiento. Las Figs. 10A-10C ilustran criterios basados en la proyección del objeto 3D en planos.
Las Figs. 11A-11D ilustran criterios para establecer el final de un objeto 3D.
Descripción detallada de la invención
A continuación, se describen diferentes aspectos y particularidades de realizaciones de la invención con referencia a las figuras anteriores.
Debido a la dispersión de la luz cuando viaja a través de muestras biológicas densas, la calidad de la imagen se reduce drásticamente. Por tanto, la minimización de este efecto es clave para obtener imágenes de calidad con alta relación señal-ruido en todos los planos confocales de la imagen. Habitualmente, las muestras se deben acondicionar antes del proceso de toma de imágenes. Existen diversas técnicas para el acondicionamiento de la muestra que son aplicables a la presente propuesta.
Por ejemplo, debido a que las muestras a medir son volumétricas, éstas deben ser montadas en medio de montaje que minimice la dispersión de luz. Asimismo, la muestra debe ser montada usando portaobjetos y/o cubreobjetos diseñados adecuadamente para evitar o minimizar la deformación de los entes de interés en la muestra.
El siguiente paso involucra la toma de imágenes de los planos de la muestra, por ejemplo, mediante un microscopio de alta resolución de escaneado laser tipo “confocal” o tipo “light-sheet” . Para ello, se establece el número de cortes confocales necesarios para obtener una representación de la muestra tridimensional. Este número de cortes confocales depende del tamaño en el eje vertical de los entes de interés a analizar. En caso de células, se recomienda un número superior a 5 cortes confocales por diámetro celular. Asimismo, durante la toma de imágenes, se modula el estenopo (pinhole) del microscopio para modificar el grosor de cada plano confocal. Esto es necesario para asegurar un porcentaje de superposición entre la señal correspondiente a cortes confocales adyacentes que permita una reconstrucción correcta del ente de interés. Estas imágenes de todos los planos de la muestra se usan para formar la reconstrucción de entes de interés presentes en la muestra. A partir de esta reconstrucción, se puede estimar el número de entes de interés existentes en una muestra en un momento determinado, también se puede analizar la posición que adoptan, si se orientan o se agrupan de una manera concreta, cómo evolucionan con el tiempo al comparar varias reconstrucciones, etc.
Para ilustrar adicionalmente las técnicas propuestas por la presente invención, se presentan pruebas llevadas a cabo usando la retina en formación del pez cebra como muestra.
La Fig. 1A es una vista 3D de reconstrucciones de secciones confocales de la retina del pez cebra a 24 hpf. La muestra ha sido teñida con el marcador de ADN TopPro en 37 hpf, usado para visualización de los nucleos celulares . La Fig. 1B ilustra una vista de plano confocal XY (arriba) y la Fig. 1C un plano no-cofocal XZ (abajo) de la imagen. Se aprecia que la resolución y nitidez de los núcleos es mucho mayor en los planos confocales XY que en los planos no-confocales XZ.
De forma análoga, la Fig. 2A es una vista 3D de reconstrucciones de secciones confocales de la retina del pez cebra teñidas con el marcador de ADN TopPro en 37 hpf, usado para visualización de los nucleos celulares. La Fig. 2B ilustra una vista de plano confocal XY (arriba) y la Fig. 2C no-confocal XZ (abajo). De nuevo, se aprecia que la resolución y nitidez de los núcleos es mucho mayor en los planos confocales XY que en los planos no-confocales XZ.
En la Fig. 3 se muestra una gráfica de barras con el grado de porcentaje en la precisión en la detección de entes en secciones confocales y no-confocales de la retina del pez cebra utilizando algoritmos watershed 2D y 3D estándar correspondientes a secciones confocales como las mostradas en las Figs. 1A, 2A y secciones no-confocales de las 1C, 2C. Los algoritmos watershed son un tipo de transformación que se aplica para definir límites entre regiones de una imagen, usando la intensidad como mapa topográfico.
Para este análisis, el valor real de número de objetos en cada sección se ha obtenido mediante cuantificación visual. Se observa claramente cómo la precisión baja drásticamente en la detección referida a planos no-confocales.
Las figuras anteriores ilustran cómo la precisión cuando se desea cuantificar entes de interés en una muestra viene fuertemente limitada por el eje de menor resolución aplicando técnicas convencionales. Incluso si las imágenes se ven nítidas y los entes (p.e. núcleos celulares) se pueden segmentar correctamente en los planos confocales, los posibles errores de segmentación (excesiva o insuficiente) que se producen en los planos no-confocales o en las zonas más profundas de la muestra con menor resolución comprometen el resultado final.
En imágenes obtenidas en microscopios confocales, existe una disparidad en la precisión para detectar núcleos celulares en el plano confocal muy alta (alrededor del 95%), mientras que en los planos no confocales (planos verticales) es mucho menor (precisión del 75% a 24 horas post-fertilización (hps), y alrededor de 50% a 37 hpf).
En las siguientes páginas se describen en mayor detalle diversas estrategias para realizar una cuantificación óptima, a pesar de una limitación en la resolución de uno de los ejes de las imágenes tomadas de la muestra o debida a la existencia de zonas volumétricas con baja resolución señal/ruido. Para ello, se representan los entes de interés en una muestra biológica volumétrica como modelos geométricos tridimensionales. Estos modelos geométricos son denominados objetos 3D.
En general, la forma que más fielmente aproxima la mayoría de entes de interés (por ejemplo, células) comprendidos en una muestra biológica es el elipsoide. No obstante, también existen casos donde modelo geométrico adecuado es otro. Por ejemplo, el objeto 3D puede ser definido como un cubo o un cilindro.
La forma del objeto 3D determina el ajuste matemático de las secciones confocales que componen el ente de interés. Las curvas paramétricas obtenidas por medio de este ajuste matemático se denominan objetos 2D. De esta forma, los parámetros de los objetos 2D se usan para la reconstrucción de los objetos 3D, en analogía a las secciones confocales que componen un ente de interés.
Para ello, se establecen vínculos entre objetos 2D en planos contiguos tomados a diferente profundidad. Se definen diversos criterios de pertenencia de objetos 2D de diferentes planos a un mismo objeto 3D. También se establecen diversos criterios para descartar objetos 2D de un mismo plano si no cumplen unos requisitos.
La Fig. 4A ilustra un ejemplo muy simplificado de cómo se modela para la reconstrucción. Primero, el ente de interés 11 se modela geométricamente como un objeto 3D 13 que en este caso particular es una elipsoide. La elipsoide se aproxima bien a su forma esperable. Las secciones del ente de interés 11 en planos confocales de diferente profundidad, se modelan geométricamente como unos objetos 2D 12, que en este caso particular se aproximan bien a unas elipses. Mediante procesamiento, con las imágenes obtenidas de elipses en distintos planos se puede reconstruir un elipsoide que se considere una representación del ente de interés.
La Fig. 4B ilustra un diagrama de bloques funcionales según una realización del sistema a alto nivel. Se aprecia una unidad de adquisición 1 que toma diversas imágenes 10 en múltiples planos confocales de diferente profundidad 21, 22 de una muestra biológica 9 con los entes de interés 11. Las imágenes 10 son procesadas en una unidad de procesamiento 2 para obtener objetos 2D 12 en las imágenes 10 y reconstruir a partir de éstos, los objetos 3D 13 correspondientes a entes de interés 11 presentes en la muestra biológica 9. Para esta finalidad, la unidad de procesamiento 2 puede implementar diversas técnicas en función de cómo son los entes de interés 11 que se desean cuantificar en la muestra 9. Varias operaciones de procesamiento se explican en mayor detalle a continuación.
La Fig. 4C ilustra simplificadamente una realización del método que muestra una secuencia con varios pasos relevantes para el análisis de la muestra. Un paso general de procesar 31 imágenes adquiridas a diferente profundidad que es seguido por un paso general de detectar 32 entes de interés en la muestra. Estos dos pasos generales 31,32 se pueden subdividir en varios pasos específicos. El paso de procesar 31 puede incluir a su vez realizar un paso de modelar en 3D 33 el ente de interés como un objeto 3D y un paso de modelar en 2D 34 una sección del ente de interés como un objeto 2D. De otra parte, el paso de detectar 32 entes de interés 11 puede incluir: un paso de identificar 35 objetos 2D en cada imagen, un paso de clasificar 36 si un objeto 2D identificado es inicio, continuación o final de un objeto 3D, seguido de un paso de registrar 37 cada objeto 2D identificado con su clasificación. Finalmente, sigue un paso de reconstruir 38 los objetos 3D asociados a entes de interés de la muestra a partir de repetir los pasos de identificar 35, clasificar 36 y registrar 37 cada objeto 2D de una imagen.
La primera parte de modelar en 3D y 2D consiste en la aplicación de secuencias de filtros y algoritmos a las imágenes de las secciones confocales. El conjunto de filtros utilizados y su orden depende en gran medida de la imagen concreta, y está diseñado específicamente para facilitar la posterior segmentación 2D en los planos. Esta segmentación de los objetos 2D en los planos es luego utilizada para la reconstrucción de los objetos 3D de la muestra 9.
Para ello, se hace un pre-procesamiento inicial de las imágenes en los planos confocales de la imagen, formado por las diferentes etapas:
1. Se define el tamaño de la "zona de trabajo” (ZT), es decir, se define un área local donde varios de los filtros y algoritmos de procesamiento de imágenes que se utilizan a continuación se aplican localmente sobre la imagen completa. La ZT para las muestras usadas en esta memoria se fijó en 2,5 píxeles.
2. Se filtra cada imagen mediante un cálculo del incremento local de diferencias entre las intensidades de primer plano y fondo aplicando una ventana de tamaño 8xZTxZT que se movía a través de la imagen, eliminando todos los píxeles con un valor menor que la mediana de cada ventana de la ZT.
3. El filtro anterior separa secciones adyacentes, pero también genera agujeros y rompe la integridad de las secciones. Para resolverlo, se aplica la siguiente secuencia de filtros para eliminar el ruido y aumentar la definición de los límites de cada sección: filtro desenfoque gaussiano, filtro de máximo, filtro Mediana y filtro de máscara.
4. Se genera una máscara binaria aplicando un umbral (mediana) de intensidad como valor de corte (todos los píxeles donde la intensidad está por debajo del umbral se establecen en cero).
5. Se genera un mapa de distancia euclídea (EDT) en la imagen binaria para generar los puntos primordiales (semillas) para todas las secciones detectadas. Luego, las semillas se utilizan para determinar los límites de cada sección.
6. Las secciones más pequeñas que ZT * ZT se descartan del análisis posterior.
Posteriormente, se establece un ajuste paramétrico de cada sección detectada en la imagen a una figura geométrica, que depende de la forma esperada de los entes de interés en la muestra. Estas figuras geométricas son los denominados objetos 2D, y sus parámetros son los que se usan en los cálculos para reconstruir los objetos 3D que representan a los entes de interés.
Como se ha indicado, en las muestras biológicas de ejemplo, se desean detectar núcleos celulares (entes de interés) que son asimilables a objetos 3D con una geometría tridimensional elipsoidal. Por tanto, las secciones esperables en los planos XY se modelan como elipses, obteniendo así los objetos 2D que representan los posibles cortes confocales del objeto 3D que se busca detectar.
El hecho de modelizar las secciones del ente de interés como objetos 2D facilita el procesamiento y simplifica el análisis. Las operaciones descritas a continuación son generalizables en caso de que la forma geométrica del objeto 3D fuera diferente, por ejemplo, elipsoides cilindros o prismas. La sección que sería esperable encontrar en las imágenes de planos confocales se modelaría como un objeto 2D con una función de ajuste determinada y habría que establecer otros parámetros de interés.
Los parámetros de los objetos 2D, como área, ubicación del centroide, orientación y excentricidad, son procesados para decidir la naturaleza de cada objeto 2D y también para detectar las posibles interacciones entre los objetos 2D en los diferentes planos.
Independientemente del tipo de función de ajuste usada para representar los objetos 2D en las imágenes adquiridas asociadas a diferentes planos confocales, se comienza identificando cuál el objeto 2D inicial, es decir, la semilla. Esta operación para obtener el objeto 2D inicial es clave en el número total de objetos 3D identificables posteriormente.
Volviendo al caso de la elipse como objeto 2D esperable, para comenzar secuencialmente la reconstrucción de objetos 3D usando la información entre planos de profundidad consecutivos 21 y 22, se identifica la semilla, es decir, el objeto 2D 12 inicial que pueda pertenecer a un objeto 3D 13 dado. Esta interacción se puede definir de diferentes formas, (dependiendo de la densidad de objetos 2D (núcleos) y relación señal / fondo la imagen hay algunas que son ventajosas frente a otras).
Algunas de las formas posibles para determinar si una elipse genérica dada i del plano z se identifica como la elipse inicial de una elipsoide se ilustran en la Fig. 5A-5C. La determinación general de elipse inicial en un plano se basa en las interacciones de dicha elipse i con las elipses en otros planos. En concreto, existen diversos criterios para la identificación de una semilla como objeto 2D 12 inicial de un plano 21 que se explican seguidamente.
La Fig. 5A muestra que se puede determinar el objeto 2D inicial 12 de un objeto 3D en función a la distancia de las elipses del plano z - 121. En este criterio de semilla, una elipse i dada se identifica como una semilla, es decir como una elipse inicial de una elipsoide, si no se elige entre las k elipses más cercanas de cualquier elipse en el plano anterior z 22.
La Fig. 5B muestra un criterio de semilla menos restrictivo donde se puede determinar la elipse inicial como objeto 2D 12 basándose en la intersección entre elipses en planos vecinos 21,22. Esta intersección se calcula como la región de la elipse j en el plano z-121 que cae (se solapa) dentro de la elipse i en el plano z 22 con focos en i = (x¡ i ; yn ) y F¡2 = (x-a , y¡2), y eje mayor a¡. Por tanto, un punto (x; y) dentro de la elipse j también está dentro de la elipse i cuando se cumple la siguiente desigualdad:
Figure imgf000012_0001
La intersección Uij se calcula como la suma de todos los puntos (x; y) en la elipse j que cumplen esta condición. Se puede establecer una elipse i como elipse inicial según un umbral de superposición. En la Fig. 5B, la elipse i se selecciona como inicial, es decir, inicio de un elipsoide, porque se superpone menos que un valor dado con cualquier elipse en el plano z-121.
En la Fig. 5C se muestra un criterio de semilla menos restrictivo. Se identifica cada elipse (objeto 2D 12) en el plano z 22 que no se haya seleccionado como parte de un elipsoide (objeto 3D) en los planos anteriores 21. Este criterio es especialmente adecuado para muestras con regiones de alta densidad de núcleos. En general, da como resultado un mayor número de semillas 12 que pueden generar nuevos objetos 3D. Se utiliza como ejemplo para cuantificar las retinas en desarrollo del pez cebra en las imágenes adquiridas.
Una vez se tienen las elipses iniciales, basándose en una combinación de ajuste no lineal y análisis estadístico se reconstruyen los objetos 3D. En las Figs. 6A, 6B se ilustra el comienzo de la reconstrucción de objetos 3D de la muestra.
Un criterio de reconstrucción es asumir que, dado que las elipses se ajustan a las secciones confocales de los objetos 3D 13, cada elipse puede ser parte de un solo objeto 3D como ilustra la Fig. 6A.
Aunque este criterio es válido cuando la resolución y la relación señal / fondo es alta en las tres orientaciones espaciales, no es útil en condiciones más realistas donde la segmentación está lejos de ser perfecta.
Para superar la limitación anterior, se establece un criterio de reconstrucción que permite que cada elipse pueda formar parte de varios objetos 3D al mismo tiempo como ilustra la Fig. 6B. De esta manera, se pueden evitar errores en la segmentación típicos si la densidad es muy alta y los entes de interés se encuentran muy cerca unos de otros.
Continuando con la reconstrucción, se han de identificar correctamente aquellas secciones de un elipsoide concreta entre todas las elipses potenciales de un plano. Para esto, se realizan operaciones matemáticas usando uno o más parámetros de las elipses y se clasifican las interacciones potenciales entre elipses de planos adyacentes.
Una familia de criterios de interacción es usar la distancia euclidiana para seleccionar las elipses como ilustran las Figs. 7A-7C.
Otra familia de criterios de interacción emplea el área de solapamiento tal como ilustran las Figs. 8A-8C.
Otra familia de criterios se basa en el perímetro de solapamiento como ilustran las Figs. 9A-9C.
Se describen las variantes de los criterios de interacción mencionados anteriormente.
Los criterios de interacción que usan la distancia euclidiana entre centroides para clasificar las interacciones entre una elipse i (correspondiente a un objeto 2D 12) en el plano z-121 y las elipses (correspondiente a posibles objetos 2D 12) en el plano z 22 ilustrados en la Fig. 7A-7C tienen la ventaja de ser más simples.
En la Fig. 7A se calcula la distancia entre los centroides de la elipse i y las k elipses más cercanas en el plano z 22, (de arriba a abajo).
En la Fig. 7B se seleccionan las k-elipses en el plano z 22 que clasifican la elipse i como una de las k más cercanas en el plano z - 121 (de abajo a arriba).
En la Fig. 7B se combinan las dos variantes anteriores (arriba <-> abajo) para conseguir un enfoque más robusto. Es decir, se clasifican elipses en función de la distancia entre i y su k-más cercano, y se seleccionan solo los que tienen i como uno de sus k-más cercanos.
La familia de criterios de interacción que usan el área de intersección entre elipses (correspondiente a posibles objetos 2D 12) de diferentes planos de profundidad 21, 22) para establecer interacciones se muestra en las Figs. 8A-8C.
En la Fig. 8A se emplea el porcentaje de área que la elipse i en el plano z - 121 intersecta con cada elipse en el plano z 22 (de arriba a abajo).
En cambio, en la Fig. 8B es el porcentaje del área de la elipse j en el plano z 22 que intersecta con cada elipse en el plano z - 121 (de abajo a arriba), calculado como se ha explicado anteriormente. El cálculo de la intersección Uij entre dos elipses i y j se calcula como ya se ha indicado (ver criterios de semilla) y favorece la selección de elipses de mayor tamaño que pueden superponerse con elipses en los planos de arriba.
La variación mostrada en la Fig. 8C combina las técnicas anteriores (arriba <-> abajo) y es más robusta y está menos sesgada hacia elipses más grandes. De esta manera, podemos definir un índice de intersección IIij entre las elipses i y j como:
Figure imgf000015_0001
Lo cual es cierto porque la intersección Ui,j = Uj, i. Por lo tanto, solo se requiere un único cálculo del área de superposición.
Aunque la técnica basada en áreas es robusta, no es óptima en términos de potencia de cálculo y consumo de memoria.
Los criterios de interacción que usan el área de intersección entre perímetros de elipses (correspondiente a posibles objetos 2D 12) de diferentes planos de profundidad 21, 22 para establecer interacciones se muestran en las Figs. 9A-9C.
La Fig. 9A muestra un enfoque más rápido que produce resultados similares clasificando según el porcentaje de perímetro de elipses que está dentro del área de otras elipses. En este caso, se calcula la longitud del perímetro de la elipse n que caen dentro de la elipse m. De manera similar a los casos anteriores, la técnica se puede utilizar de arriba abajo en la Fig. 9A, de abajo a arriba en la Fig. 9B o arriba abajo y viceversa en la Fig. 9C. Esta última variante de la Fig. 9C es más fiable ya que corrige el tamaño relativo de los objetos que se comparan.
En las Figs. 10A-10B se ilustra cómo las elipses (correspondiente a posibles objetos 2D 12) en el plano z 22 pueden clasificarse además según su historial de interacciones en planos anteriores con otras elipses. Para ello, se ajustan los centroides de las elipses de planos anteriores z-1, z-2, etc. a una recta en el espacio tridimensional. Para ello, se combinan dos regresiones lineales en dos dimensiones, usando el método de mínimos cuadrados sobre el plano xz y sobre el plano yz. La intersección de estos planos es la línea que representa el eje del elipsoide (i.e., el objeto 3D) del que forma parte la elipse i. Finalmente, las elipses en z se clasifican en función de la distancia euclidiana al punto de intersección del eje y el plano z , que corresponde a la ubicación esperada del objeto en el plano z. Esta técnica es especialmente adecuada para situaciones en las que los objetos 3D 13 se pueden inclinar con diferentes orientaciones en el espacio. Esto ocurre en muchos sistemas biológicos, como en una muestra de retina del pez cebra.
Una posibilidad más compleja, pero más robusta y versátil consiste en combinar algunos de las técnicas descritas anteriormente. En la Fig. 10C se ilustra cómo los primeros k vecinos más cercanos se eligen basándose en la distancia euclidiana simple (como en las Figs. 7A-7C). A continuación, estos vecinos se prueban para detectar la superposición de perímetro (como en la Fig. 8A-8C), y los que no se superponen en una cierta cantidad se descartan del análisis. Finalmente, la elipse elegida es la más cercana a la proyección del eje del elipsoide (como en la Fig. 10B).
El paso final en el proceso de reconstrucción es decidir cuándo una elipse i es la parte final o terminal de un objeto 3D dado. Esta decisión impacta fuertemente en la cantidad de objetos 3D que se detectan.
Las Figs. 11A-11D muestran diferentes técnicas para establecer el objeto 2D terminal de un objeto 3D 13 según el grado de nitidez en las imágenes y la densidad de elementos a detectar.
La Fig. 11A ilustra una técnica adecuada para imágenes nítidas, si la elipse perteneciente a un objeto 3D 13 no interactúa con una elipse en el siguiente plano, ésta se considera el objeto 2D 12 terminal de dicho objeto 3D. Es decir, una elipse i que es parte de un objeto 3D 13 y no interactúa con otra elipse en el plano siguiente.
La Fig. 11B ilustra una técnica adecuada cuando hay algunos errores de segmentación. Las elipses correspondientes a la primera mitad del objeto 3D 13 se usan para realizar un ajuste a una curva paramétrica 3D con la forma del objeto 3D (elipsoide). De esta forma, gracias a la forma, orientación y tamaño del elipsoide en el espacio tridimensional, se estima la ubicación del objeto 2D terminal de dicho objeto 3D.
La Fig. 11C ilustra una técnica adecuada para imágenes nítidas, la identificación de objetos 2D terminales se basa en intervalos de confianza. El último centroide dentro del intervalo de confianza se establece como el punto final.
La Fig. 11D ilustra una técnica adecuada para escenarios muy ruidosos. El punto final se establece si después de la mitad del tamaño promedio de los objetos 3D hay más centroides que están fuera del intervalo de confianza que antes.
Es habitual que las muestras biológicas sean muy densas y su resolución sea imperfecta. En estas condiciones, es preferible utilizar un análisis estadístico y/o ajuste de curvas para establecer los objetos 2D terminales de cada objeto 3D 13. Por ejemplo, primero se estima el tamaño promedio de los objetos de la dirección z (zmedio). Se calcula el diámetro mínimo de Feret para cada objeto 2D 12 en todos los planos de la imagen. A continuación, se genera una nueva imagen binaria donde cada sección se representa como un círculo con un diámetro igual a su diámetro mínimo de Feret. Finalmente, el valor medio de z se establece como la altura media de los objetos en el plano xz. El valor zmedio se utiliza entonces para estimar el objeto 2D terminal de cada objeto 3D dado usando diferentes enfoques.
Para imágenes muy distorsionadas con un número elevado de errores de segmentación, el enfoque se basa en la caracterización de la integridad de cada objeto 3D reconstruido.
La integridad se estima basándose en el eje del objeto 3D. Este eje se obtiene, como se menciona anteriormente, combinando dos regresiones lineales en dos dimensiones, usando el método de mínimos cuadrados sobre el plano xz y sobre el plano yz. La intersección de estos planos es la línea que representa el eje del elipsoide . Para ello, la integridad de cada objeto 3D se estima estadísticamente de acuerdo a tres parámetros :
1) la distancia euclidiana de cada centroide de las elipses al eje del objeto 3D en cada plano.
2) el ángulo entre la línea de proyección 3D y los vectores formados por dos puntos consecutivos;
3) el coeficiente de correlación de Pearson acumulativo, p, entre los dos casos anteriores.
En objetos nítidos se pueden obtener imágenes de alta resolución, tanto la distancia como el ángulo deben permanecer cerca de cero, y p = 1 (las dos variables están perfectamente correlacionadas linealmente). Por otro lado, el ángulo y la distancia son mayores en los objetos pobremente segmentados, y no se correlacionan (p -> 0) a medida que agregamos secuencialmente más elipses al objeto 3D). Usando estos valores, se puede definir el objeto 2D terminal el último para el cual el centroide permanece dentro de un intervalo de confianza del 50% para los tres parámetros. El intervalo de 50% de confianza se calcula a partir de las distancias y los ángulos de los primeros planos (zmedio / 4).
Para un objeto 3D de n planos, se calcula el número de centroides en el interior:
Figure imgf000018_0001
El número de centroides en el exterior:
Figure imgf000018_0002
Finalmente, establecemos el final del objeto 3D en el último centroide que cumple la siguiente desigualdad.
Figure imgf000018_0003
l c:>t c ; Para entes de interés nítidos, el objeto 2D terminal es el último cuyo centroide se encuentra dentro del intervalo de confianza ilustrado en la Fig. 10C. Mientras que, en objetos ruidosos, algunos centroides en las primeras secciones Zmedio/2 pueden estar fuera del intervalo de confianza, por lo que el corte se produce cuando hay más centroides después de Zmedio/2 fuera de que en la primera parte de los planos Zmedio/2 como se ilustra en la Fig. 10D.
Esto se puede implementar como un filtro que permite estimar la sección final de un objeto 3D en condiciones de baja relación señal / fondo.
Finalmente, si la integridad del objeto 3D está tan comprometida que la ecuación anterior no se cumple incluso después de alcanzar un número de planos igual a 2xzmedio, entonces asumimos que no podemos encontrar el punto final correcto del objeto 3D. En este caso, se supone que el objeto 3D termina en el plano Zmedio.
Mediante las técnicas anteriores se permite contabilizar el número de objetos 3D correspondientes a una muestra tridimensional. También se puede localizar la posición de los objetos 3D en la muestra tridimensional. Esto permite calcular la densidad o realizar estudios de movilidad de un determinado objeto en un intervalo temporal. La precisión en la detección de la cantidad de objetos y en la ubicación de los mismos en la muestra 3D, abre la posibilidad de identificar cada célula individual.
La unidad de procesamiento no requiere especificaciones exigentes, puede ser implementada con cualquier medio de computación con capacidad de almacenamiento como un ordenador o una placa de circuito integrado de aplicación específica (ASIC).
REFERENCIAS NUMÉRICAS
1 unidad de adquisición de imágenes;
2 unidad de procesamiento;
muestra biológica;
imagen;
ente de interés;
objeto 2D;
objeto 3D;
,22 planos de diferente profundidad;
paso de procesar;
paso de detectar;
paso de modelar en 3D;
paso de modelar en 2D;
paso de identificar;
paso de clasificar;
paso de registrar;
paso de reconstruir.

Claims (24)

REIVINDICACIONES
1. Sistema para analizar cuantitativamente una muestra biológica (9) volumétrica que comprende:
una unidad de procesamiento (2) configurada para procesar una pluralidad de imágenes (10) adquiridas de una pluralidad de planos (21,22) de diferente profundidad y detectar una pluralidad de entes de interés (11) presentes en la muestra (9);
caracterizado por que la unidad de procesamiento (2) está configurada además para:
modelar geométricamente el ente de interés (11) como un objeto 3D (13);
modelar geométricamente una sección del ente de interés (11) como un objeto 2D (12);
identificar una pluralidad de objetos 2D (12) en cada imagen (10) ;
clasificar para cada objeto 2D (12) identificado en la imagen adquirida de un primer plano (21) si es inicio, continuación o final de un objeto 3D (13), en función de un criterio basado en una relación matemática de dicho objeto 2D (12) con objetos 2D (12) identificados en al menos una segunda imagen (10) adquirida de un segundo plano (22) de profundidad diferente del primer plano (21);
registrar cada objeto 2D (12) identificado con su clasificación; y
reconstruir los objetos 3D (13) asociados a entes de interés presentes en la muestra (9) mediante la repetición de las operaciones de identificar, clasificar y registrar cada objeto 2D (12) de una imagen (10).
2. Sistema según la reivindicación 1, donde el criterio para clasificar si un objeto 2D (12) es inicio de un objeto 3D (13) está basado en:
- el objeto 2D de un primer plano (21) con una distancia a cualquier objeto 2D de un segundo plano (22) mayor que un valor umbral establecido;
- el objeto 2D de un segundo plano (22) no identificado como parte de un objeto 3D en un primer plano (21);
- la menor área de solapamiento del objeto 2D de un segundo plano (22) con objetos 2D de un primer plano (21);
o una combinación de los anteriores criterios.
3. Sistema según la reivindicación 1 o 2, donde el criterio para clasificar si un objeto 2D (12) de un primer plano (21) es continuación de un objeto 3D (13) está basado en:
- el objeto 2D del primer plano (21) con la distancia menor a cualquier objeto 2D de un segundo plano (22);
- el objeto 2D del primer plano (21) con la mayor área de solapamiento con un objeto 2D de un segundo plano (22);
- el objeto 2D del primer plano (21) con el mayor perímetro de intersección con un objeto 2D de un segundo plano (22);
- la menor distancia entre el objeto 2D del primer plano (21) y la proyección del objeto 3D reconstruído sobre dicho primer plano (21);
o una combinación de los anteriores criterios.
4. Sistema según una cualquiera de las reivindicaciones 1 a 3, donde el criterio para clasificar si un objeto 2D (12) de un primer plano (21) es final de un objeto 3D (13) está basado:
el objeto 2D del primer plano (21) que no solapa con ningún objeto 2D de un segundo plano (22);
- la distancia entre el objeto 2D del primer plano (21) y la proyección sobre dicho primer plano (21) de los objetos 3D reconstruidos al menos parcialmente;
o una combinación de los anteriores criterios.
5. Sistema según una cualquiera de las reivindicaciones 1 a 4, donde si no hay un objeto 2D que cumpla el criterio para clasificar si un objeto 2D (12) de un primer plano (21) es final de un objeto 3D (13), se establece el final del objeto 3D (13) a partir de una estimación basada al menos en:
- el ajuste de una curva 3D a una pluralidad de objetos 2D (12) de una pluralidad de segundos planos (22);
- la media estadística para una pluralidad de objetos 3D (13) ya reconstruidos.
6. Sistema según cualquiera de las reivindicaciones 1 a 5, donde el objeto 3D (13) que representa geométricamente el ente de interés (11) es un elipsoide, un cilindro o un prisma.
7. Sistema según una cualquiera de las reivindicaciones 1 a 6, donde la unidad de procesamiento (2) está configurada para pre-procesar las imágenes (10) adquiridas definiendo una zona de trabajo que recorre la imagen para:
- ampliar la diferencia entre píxeles de una imagen (10) de una sección del ente de interés (11) y el fondo de la imagen; y/o
- filtrar píxeles con valor de intensidad menor que la mediana de la imagen (10).
8. Sistema según una cualquiera de las reivindicaciones 1 a 7, donde la unidad de procesamiento (2) está configurada para pre-procesar las imágenes adquiridas definiendo una zona de trabajo que recorre la imagen para:
- aplicar un filtro gaussiano “Blur”;
- aplicar un filtro “Maximum”;
- aplicar un filtro Mediana;
- aplicar un filtro “Unsharp”;
- construir un mapa EDT para obtener candidatos de inicio de un ente de interés (11);
- descartar una posible sección del ente de interés (11) menor que el tamaño de la zona de trabajo.
9. Sistema según una cualquiera de las reivindicaciones 1 a 8, donde la unidad de procesamiento (2) está configurada para estimar el número de entes de interés (11) presentes en la muestra (9) a partir de los objetos 3D (13) reconstruidos.
10. Sistema según la reivindicación 9, donde la unidad de procesamiento (2) está configurada para analizar la evolución temporal de entes de interés (11) en una muestra (9) mediante la comparación de un primer conjunto de objetos 3D (13) reconstruidos de imágenes adquiridas durante un primer intervalo de tiempo con un segundo conjunto de objetos 3D (13) reconstruidos de imágenes adquiridas durante un segundo intervalo de tiempo.
11. Sistema según la reivindicación 10, donde la comparación se realiza en función de:
- el número de objetos 3D (13) del primer y del segundo conjunto;
- la posición de objetos 3D (13);
o una combinación de las anteriores.
12. Sistema según una cualquiera de las reivindicaciones 1 a 11, que comprende una unidad de adquisición de imágenes (1) configurada para adquirir una pluralidad de imágenes (10) de la muestra (9), en una pluralidad de planos (21,22) de diferente profundidad, manteniendo un solapamiento entre imágenes (10) de planos vecinos, donde la unidad de adquisición de imágenes (1) está configurada para enviar las imágenes (10) adquiridas a la unidad de procesamiento (2).
13. Método implementado en ordenador para analizar cuantitativamente una muestra biológica (9) volumétrica que comprende los pasos de:
- procesar (31) una pluralidad de imágenes (10) adquiridas de una pluralidad de planos (21,22) de diferente profundidad y,
- detectar (32) una pluralidad de entes de interés (11) presentes en la muestra (9);
caracterizado por que comprende además:
- modelar en 3D (33) geométricamente el ente de interés (11) como un objeto 3D (13);
- modelar en 2D (34) geométricamente una sección del ente de interés (11) como un objeto 2D (12);
- identificar (35) una pluralidad de objetos 2D (12) en cada imagen (10);
- clasificar (36) para cada objeto 2D (12) identificado en la imagen adquirida de un primer plano (21) si es inicio, continuación o final de un objeto 3D (13), en función de un criterio basado en una relación matemática de dicho objeto 2D (12) con objetos 2D (12) identificados en al menos una segunda imagen (10) adquirida de un segundo plano (22) de profundidad diferente del primer plano (21);
- registrar (37) cada objeto 2D (12) identificado con su clasificación; y
- reconstruir (38) los objetos 3D (13) asociados a entes de interés presentes en la muestra (9) mediante la repetición de las operaciones de identificar, clasificar y registrar cada objeto 2D (12) de una imagen (10).
14. Método según la reivindicación 13, donde el criterio para clasificar si un objeto 2D (12) es inicio de un objeto 3D (13) está basado en:
- el objeto 2D de un primer plano (21) con una distancia a cualquier objeto 2D de un segundo plano (22) mayor que un valor umbral establecido;
- el objeto 2D de un segundo plano (22) no identificado como parte de un objeto 3D en un primer plano (21);
- la menor área de solapamiento del objeto 2D de un segundo plano (22) con objetos 2D de un primer plano (21);
o una combinación de los anteriores criterios.
15. Método según la reivindicación 13 o 14, donde el criterio para clasificar si un objeto 2D (12) de un primer plano (21) es continuación de un objeto 3D (13) está basado en:
- el objeto 2D del primer plano (21) con la distancia menor a cualquier objeto 2D de un segundo plano (22);
- el objeto 2D del primer plano (21) con la mayor área de solapamiento con un objeto 2D de un segundo plano (22);
- el objeto 2D del primer plano (21) con el mayor perímetro de intersección con un objeto 2D de un segundo plano (22);
- la menor distancia entre el objeto 2D del primer plano (21) y la proyección del objeto 3D reconstruido sobre dicho primer plano (21);
o una combinación de los anteriores criterios.
16. Método según una cualquiera de las reivindicaciones 13 a 15, donde el criterio para clasificar si un objeto 2D (12) de un primer plano (21) es final de un objeto 3D (13) está basado:
el objeto 2D del primer plano (21) que no solapa con ningún objeto 2D de un segundo plano (22);
- la distancia entre el objeto 2D del primer plano (21) y la proyección sobre dicho primer plano (21) de los objetos 3D reconstruidos al menos parcialmente;
o una combinación de los anteriores criterios.
17. Método según una cualquiera de las reivindicaciones 13 a 16, donde si no hay un objeto 2D que cumpla el criterio para clasificar si un objeto 2D (12) de un primer plano (21) es final de un objeto 3D (13), se establece el final del objeto 3D (13) a partir de una estimación basada al menos en:
- el ajuste de una curva 3D a una pluralidad de objetos 2D (12) de una pluralidad de segundos planos (22);
- la media estadística para una pluralidad de objetos 3D (13) ya reconstruidos.
18. Método según cualquiera de las reivindicaciones 13 a 17, donde el objeto 3D (13) que representa geométricamente el ente de interés (11) es un elipsoide, un cilindro o un prisma.
19. Método según una cualquiera de las reivindicaciones 13 a 18, donde la unidad de procesamiento (2) está configurada para pre-procesar las imágenes (10) adquiridas definiendo una zona de trabajo que recorre la imagen para: - ampliar la diferencia entre píxeles de una imagen (10) de una sección del ente de interés (11) y el fondo de la imagen; y/o
- filtrar píxeles con valor de intensidad menor que la mediana de la imagen (10).
20. Método según una cualquiera de las reivindicaciones 13 a 19, que comprende un paso pre-procesar las imágenes adquiridas definiendo una zona de trabajo que recorre la imagen para:
- aplicar un filtro gaussiano “Blur”;
- aplicar un filtro “Maximum”;
- aplicar un filtro Mediana;
- aplicar un filtro “Unsharp”;
- construir un mapa EDT para obtener candidatos de inicio de un ente de interés (11);
- descartar una posible sección del ente de interés (11) menor que el tamaño de la zona de trabajo.
21. Método según una cualquiera de las reivindicaciones 13 a 20, que comprende un paso para estimar el número de entes de interés (11) presentes en la muestra (9) a partir de los objetos 3D (13) reconstruidos.
22. Método según la reivindicación 21, que comprende un paso para analizar la evolución temporal de entes de interés (11) en una muestra (9) mediante la comparación de un primer conjunto de objetos 3D (13) reconstruidos de imágenes adquiridas durante un primer intervalo de tiempo con un segundo conjunto de objetos 3D (13) reconstruidos de imágenes adquiridas durante un segundo intervalo de tiempo.
23. Método según la reivindicación 22, donde la comparación se realiza en función de:
- el número de objetos 3D (13) del primer y del segundo conjunto;
- la posición de objetos 3D (13);
o una combinación de las anteriores.
24. Medio legible por ordenador que contiene un programa con instrucciones que al ser leídas y ejecutadas por un ordenador llevan a cabo el método para analizar cuantitativamente una muestra biológica (9) volumétrica según una cualquiera de las reivindicaciones 13 a 23.
ES202130485A 2021-05-31 2021-05-31 Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica Withdrawn ES2929613A1 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES202130485A ES2929613A1 (es) 2021-05-31 2021-05-31 Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES202130485A ES2929613A1 (es) 2021-05-31 2021-05-31 Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica

Publications (1)

Publication Number Publication Date
ES2929613A1 true ES2929613A1 (es) 2022-11-30

Family

ID=84227572

Family Applications (1)

Application Number Title Priority Date Filing Date
ES202130485A Withdrawn ES2929613A1 (es) 2021-05-31 2021-05-31 Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica

Country Status (1)

Country Link
ES (1) ES2929613A1 (es)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1221674A2 (en) * 2001-01-05 2002-07-10 Interuniversitair Microelektronica Centrum Vzw System and method to obtain surface structures of multidimensional objects, and to represent those surface structures for animation, transmission and display
US20110261367A1 (en) * 2009-04-27 2011-10-27 Gmitro Arthur F Integrated Confocal and Spectral-Domain Optical Coherence Tomography Microscope
WO2014036153A1 (en) * 2012-08-28 2014-03-06 Molecular Devices, Llc Methods and systems for analysis of fibers and branching structures within an image of a sample
CN104318620A (zh) * 2014-10-21 2015-01-28 南京钢铁股份有限公司 利用共聚焦显微镜对试样表面进行三维重建的方法
DE102014102215A1 (de) * 2014-02-20 2015-08-20 Carl Zeiss Microscopy Gmbh Verfahren und Anordnung zur Lichtblattmikroskopie

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1221674A2 (en) * 2001-01-05 2002-07-10 Interuniversitair Microelektronica Centrum Vzw System and method to obtain surface structures of multidimensional objects, and to represent those surface structures for animation, transmission and display
US20110261367A1 (en) * 2009-04-27 2011-10-27 Gmitro Arthur F Integrated Confocal and Spectral-Domain Optical Coherence Tomography Microscope
WO2014036153A1 (en) * 2012-08-28 2014-03-06 Molecular Devices, Llc Methods and systems for analysis of fibers and branching structures within an image of a sample
DE102014102215A1 (de) * 2014-02-20 2015-08-20 Carl Zeiss Microscopy Gmbh Verfahren und Anordnung zur Lichtblattmikroskopie
CN104318620A (zh) * 2014-10-21 2015-01-28 南京钢铁股份有限公司 利用共聚焦显微镜对试样表面进行三维重建的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FURRER P ET AL. Recent advances in confocal microscopy for studying drug delivery to the eye: Concepts and pharmaceutical applications. EUROPEAN JOURNAL OF PHARMACEUTICS AND BIOPHARMACEUTICS, 20100101 ELSEVIER SCIENCE PUBLISHERS B.V., AMSTERDAM, NL. Lendlein Andreas; Rï¿¿hl Eckart, 01/01/2010, Vol. 74, Páginas 33 - 40 ISSN 0939-6411, Todo el documento *
LYROUDIA ET AL. Computerized three-dimensional reconstruction: A method to study pulpal vessels and nerves. Journal of Endodontics, 19931201 ELSEVIER, AMSTERDAM, NL. Diogenes Anibal, 01/12/1993, Vol. 19, Páginas 604 - 608 ISSN 0099-2399, (DOI: doi:10.1016/S0099-2399(06)80274-8) <p>Todo el documento</p> *
MEYERS, DAVID; SKINNER, SHELLEY; SLOAN, KENNETH. Surfaces from contours. . ACM Transactions On Graphics (TOG), 01/07/1992, Vol. 11, Páginas 228-258 Recuperado de Internet (URL:https://doi.org/10.1145/130881.131213), Sección 3.1 *

Similar Documents

Publication Publication Date Title
ES2123476T3 (es) Metodo para evaluar la calidad de portaobjetos y de preparacion de muestras.
US7003143B1 (en) Tomographic microscope for high resolution imaging and method of analyzing specimens
JP2004286666A (ja) 病理診断支援装置および病理診断支援プログラム
CN111354001B (zh) 脑肿瘤图像分割方法、装置和存储介质
Navarro et al. Robust and dense depth estimation for light field images
Basha et al. Structure and motion from scene registration
Nielsen et al. Automatic segmentation of cell nuclei in Feulgen‐stained histological sections of prostate cancer and quantitative evaluation of segmentation results
CN111602177A (zh) 用于生成物体的3d重建的方法和设备
CN115880373A (zh) 基于新型编码特征的立体视觉系统的标定板及标定方法
Grélard et al. New methods for the geometrical analysis of tubular organs
Heise et al. DIC image reconstruction on large cell scans
ES2948295T3 (es) Profundidad de enfoque extendida mejorada en muestras biológicas
Kim et al. Shape description of biological objects via stereo light microscopy
ES2929613A1 (es) Sistema, metodo implementado en ordenador para analizar cuantitativamente una muestra biologica volumetrica
WO2023061162A1 (en) Systems and methods for label-free multi-histochemical virtual staining
Blume et al. A new and general method for blind shift-variant deconvolution of biomedical images
Turner et al. Automated image analysis technologies for biological 3D light microscopy
Danek Graph cut based image segmentation in fluorescence microscopy
Hildebrandt et al. Stirtracev3. 0 and printed fingerprint detection: simulation of acquisition condition tilting and its impact to latent fingerprint detection feature spaces for crime scene forgeries
Arz et al. 3D cell nuclei segmentation with balanced graph partitioning
US11960102B2 (en) Pinpointing single molecule positions with in situ point spread function retrieval for three dimensional nanoscopy of whole cells and tissues
Mosaliganti et al. Temporal matching of dendritic spines in confocal microscopy images of neuronal tissue sections
CN110660073B (zh) 一种直线边缘识别设备
Elder The visual computation of bounding contours
KR100216502B1 (ko) 피부주름의 상태 측정장치

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2929613

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20221130

FA2A Application withdrawn

Effective date: 20230321