ES2877098T3 - Vinculación de microscopios para el análisis de objetos que comprenden marcas de herramientas - Google Patents

Vinculación de microscopios para el análisis de objetos que comprenden marcas de herramientas Download PDF

Info

Publication number
ES2877098T3
ES2877098T3 ES11777052T ES11777052T ES2877098T3 ES 2877098 T3 ES2877098 T3 ES 2877098T3 ES 11777052 T ES11777052 T ES 11777052T ES 11777052 T ES11777052 T ES 11777052T ES 2877098 T3 ES2877098 T3 ES 2877098T3
Authority
ES
Spain
Prior art keywords
microscope
virtual
physical
coordinate system
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11777052T
Other languages
English (en)
Inventor
Alain Beauchamp
Danny Roberge
Benoît Perron
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ultra Electronics Forensic Technology Inc
Original Assignee
Ultra Electronics Forensic Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ultra Electronics Forensic Technology Inc filed Critical Ultra Electronics Forensic Technology Inc
Application granted granted Critical
Publication of ES2877098T3 publication Critical patent/ES2877098T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F42AMMUNITION; BLASTING
    • F42BEXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
    • F42B35/00Testing or checking of ammunition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0016Technical microscopes, e.g. for inspection or measuring in industrial production processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Un método implementado por ordenador para analizar al menos un objeto bajo un primer microscopio y un segundo microscopio, el método que comprende: recibir (606) un primer conjunto de coordenadas de posición del al menos un objeto bajo el primer microscopio como un conjunto de características tomadas de datos topográficos 3D de una superficie del al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el primer microscopio que tiene un primer sistema de coordenadas; recibir (608) un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio como un conjunto de características tomadas de datos topográficos 3D de la superficie del al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el segundo microscopio que tiene un segundo sistema de coordenadas; calcular (110, 306, 610) una transformación para vincular (112, 308, 612) el primer sistema de coordenadas y el segundo sistema de coordenadas usando el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición e independientemente de un posicionamiento inicial del al menos un objeto bajo uno respectivo del primer microscopio y del segundo microscopio; generar (708) datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento del uno del primer microscopio y del segundo microscopio para llevar el conjunto de características mostradas dentro del campo de visión del primer microscopio para que coincida con el conjunto de características mostradas dentro del campo de visión del segundo microscopio; y en donde el primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual, y en donde recibir un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio comprende recibir un conjunto de coordenadas para un conjunto de características en una imagen del al menos un objeto en el microscopio virtual.

Description

DESCRIPCIÓN
Vinculación de microscopios para el análisis de objetos que comprenden marcas de herramientas
Campo técnico
La presente invención se refiere al campo de la generación de imágenes 3D y la identificación balística visual.
Antecedentes
En el campo de la balística forense, las marcas de herramientas microscópicas presentes en diferentes tipos de objetos se comparan para encontrar marcas de herramientas coincidentes para vincular los objetos entre sí, tales como balas que eventualmente se pueden vincular a un arma de fuego recuperada. Las comparaciones se hacen típicamente usando microscopios de comparación, donde un experto comparará visualmente las marcas de herramientas encontradas en los dos objetos y usará su experiencia para determinar una coincidencia.
Existen algunas herramientas de software para ayudar al experto a tomar la determinación. Por ejemplo, se puede usar un sensor de adquisición 3D para adquirir la topografía, y posiblemente una imagen 2D, de un objeto con marcas de herramienta. El análisis visual de los datos resultantes se puede realizar a través de un microscopio de comparación virtual que muestra los datos adquiridos.
Un microscopio de comparación virtual es una herramienta de software que muestra la topografía de uno o varios objetos que pueden tener marcas de herramientas. Su entrada es una lista de objetos virtuales, cada uno definido por una nube de puntos en un sistema de coordenadas 3D que están conectados con el fin de generar caras poligonales sobre toda la superficie del objeto. Los requisitos mínimos del microscopio de comparación virtual es la capacidad de mostrar tales nubes de puntos usando técnicas de representación, mover los objetos virtuales en el espacio en traslación (traslaciones X, Y, Z) y rotación sobre cualquier eje, aumentar el objeto, simular diferentes tipos de condiciones de iluminación. La fuente de luz también se puede trasladar y rotar. Algunos microscopios virtuales también pueden superponer una textura relevante sobre el objeto virtual. Un microscopio de comparación virtual tiene algunas propiedades únicas que nunca se encuentran en un microscopio de comparación físico: una profundidad de campo infinita, que elimina cualquier problema de enfoque, y un diseño óptimo de la fuente de luz y los modelos de reflectividad, lo que lleva a un mejor control sobre el número de áreas muy brillantes u oscuras. Sin embargo, la herramienta de software no se usa para tomar la última decisión. El experto debe confirmar las coincidencias potenciales usando el microscopio de comparación.
Un microscopio físico tiene varias limitaciones: profundidad de enfoque finita, no correspondencia entre el eje de simetría (o rotación) del objeto, en su caso, y el eje de rotación del motor que desplaza el objeto, y ejes de rotación y fuentes de luz independientes cuando dos objetos se analizan al mismo tiempo.
La comparación visual de las marcas de herramientas microscópicas presentes en dos objetos bajo un microscopio de comparación puede ser significativamente desafiante, especialmente cuando solamente hay unas pocas marcas presentes en los objetos. En este caso, el número de marcas coincidentes en una única región de interés puede no ser suficiente para manifestar que el par de objetos analizados es un “par concluyente”, es decir, un par de objetos que estuvieron en contacto con la misma herramienta o que se dispararon con la misma arma de fuego. El experto en marcas de herramientas o armas de fuego entonces debe buscar grupos de marcas coincidentes en varias regiones de interés.
Esta operación puede ser desafiante debido a las limitaciones del microscopio de comparación. Esto es especialmente cierto para las balas. En algunos casos, las balas pueden tener una sección transversal circular, es decir, una forma prístina, y el eje de simetría de cada bala puede coincidir con el eje de rotación cuando se coloca en el microscopio de comparación. En este caso, el experto puede comparar las balas rotando manualmente cada bala alrededor de su eje de rotación correspondiente. Sin embargo, en otros casos, el eje de simetría y el eje de rotación de una bala pueden no coincidir. El experto en armas de fuego entonces debe aplicar varias operaciones manuales que comprenden rotar las balas, trasladar las balas y variar la posición e intensidad de las fuentes de luz con el fin de comparar las dos balas. Estas operaciones son particularmente desafiantes para las balas con muy pocas marcas pequeñas.
Una limitación adicional del microscopio de comparación física es su profundidad de enfoque finita. Cuando la topografía en el campo de visión no es localmente plana, no es posible analizar esta vista de área completa con enfoque óptico.
Con tales limitaciones, es desafiante y requiere mucho tiempo buscar marcas coincidentes entre dos objetos con marcas de herramientas.
El documento US 6.505.140 describe un método informatizado de análisis balístico en base a la adquisición de perfiles de profundidad de la superficie de una bala, la estimación y compensación de errores de coaxialidad de los datos adquiridos y la coincidencia de datos normalizados con datos de referencia para determinar si la bala bajo examen se presentó desde la pistola en cuestión.
Existe la necesidad de mejorar las herramientas actualmente disponibles para los expertos para facilitar la comparación que se debe hacer usando el microscopio de comparación.
Compendio
Se describe un método para analizar al menos un objeto bajo un primer microscopio y un segundo microscopio vinculando concurrentemente los dos microscopios entre sí. El movimiento de un microscopio dará como resultado el movimiento del otro. Esto se hace calculando una transformación para vincular un primer sistema de coordenadas y un segundo sistema de coordenadas y generando datos de guía cuando uno de los dos microscopios se desplaza, los datos de guía corresponden a un conjunto de operaciones a ser aplicadas al otro microscopio para seguir el movimiento del microscopio que se desplaza.
Este método se puede usar para mejorar el proceso de comparación en balística vinculando un microscopio de comparación físico con un microscopio de comparación virtual o, además, vinculando también dos microscopios del mismo tipo entre sí.
Un experto puede comparar regiones potencialmente coincidentes de los datos digitales usando un microscopio virtual, y luego analizar las regiones correspondientes con un microscopio de comparación convencional con los objetos físicos. Un análisis previo visual con un microscopio de comparación virtual permite al experto seleccionar las mejores regiones coincidentes en un corto período de tiempo. Entonces se puede enfocar en estas pocas regiones coincidentes en el microscopio de comparación convencional para el análisis final.
Vinculando las operaciones hechas en el microscopio virtual y las operaciones hechas en un microscopio de comparación motorizado, esto permite la selección de un área dada de un objeto digitalizado en el microscopio virtual que conducirá al área correspondiente del objeto físico bajo el microscopio de comparación convencional. Una vez que se selecciona el área en el microscopio virtual, son posibles entonces dos modos según el nivel de automatización del microscopio de comparación: el modo completamente automatizado y el modo híbrido manual/automatizado. Una tercera configuración del sistema (modo dual) incorpora ambos modos.
Para un microscopio de comparación completamente automatizado, el objeto físico instalado en un eje de rotación motorizado se puede mover automáticamente (por rotación y/o traslación) de modo que el área correspondiente aparezca dentro del campo de visión y en el foco del microscopio de comparación físico. Para un microscopio de comparación híbrido manual/automatizado, el microscopio puede estar equipado con codificadores que reportan la posición actual de cada eje, y los movimientos requeridos de la bala física (rotación y/o traslación) se pueden realizar manualmente por el experto, en base a datos de guía. Los datos de guía se pueden actualizar de manera periódica o continua para guiar al usuario durante las operaciones manuales hasta que el área seleccionada esté en una posición predefinida en el campo de visión. También es posible un sistema adaptado para funcionar en ambos modos. Se pueden usar varias estrategias para guiar a los usuarios: mostrar un número de pasos de traslación y/o rotación a ser aplicados con el fin de llevar el área correspondiente dentro del campo de visión del microscopio de comparación, mostrar información gráfica, como flechas direccionales, usar indicadores físicos como pequeñas fuentes de luz, etc.
También es posible el proceso opuesto, por el que el posicionamiento del objeto bajo el microscopio de comparación físico conduce a que la región correspondiente en el campo de visión del microscopio de comparación se muestre automáticamente por el microscopio virtual. Los datos digitales mostrados por el microscopio de comparación virtual pueden seguir el área dentro del campo de visión del microscopio de comparación a medida que el experto manipula el objeto bajo el microscopio de comparación. Esto permite un análisis paralelo de los datos digitales y del objeto físico.
Según un primer aspecto amplio, se proporciona un método implementado por ordenador para analizar al menos un objeto bajo un primer microscopio y un segundo microscopio, el método que comprende: recibir un primer conjunto de coordenadas de posición del al menos un objeto bajo el primer microscopio como un conjunto de características en el al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el primer microscopio que tiene un primer sistema de coordenadas; recibir un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio como un conjunto de características sobre el al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el segundo microscopio que tiene un segundo sistema de coordenadas; calcular una transformación para vincular el primer sistema de coordenadas y el segundo sistema de coordenadas usando el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición; y generar datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
El primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual. Las operaciones se pueden hacer para dos objetos distintos, ambos instalados en dos ejes de rotación motorizados distintos de un único microscopio físico, y cuyos datos digitales se muestran mediante un microscopio de comparación virtual que permite dos objetos digitales como entradas.
Según un segundo aspecto amplio, se proporciona un sistema para analizar al menos un objeto microscópicamente, el sistema que comprende: al menos un primer microscopio y un segundo microscopio, el primer microscopio que tiene un primer sistema de coordenadas y el segundo microscopio que tiene un segundo sistema de coordenadas; un sistema informático que comprende un procesador y una memoria; un módulo de vinculación de microscopio almacenado en la memoria y ejecutable por el procesador, el módulo de vinculación de microscopio que tiene un código de programa que, cuando se ejecuta, calcula una transformación para vincular el primer sistema de coordenadas y el segundo sistema de coordenadas, y genera datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento del uno del primer microscopio y del segundo microscopio.
Según un tercer aspecto amplio, se proporciona una memoria legible por ordenador que tiene grabadas en la misma manifestaciones e instrucciones para su ejecución por un ordenador para llevar a cabo un método para analizar al menos un objeto bajo un primer microscopio y un segundo microscopio, el método que comprende: recibir un primer conjunto de coordenadas de posición del al menos un objeto bajo el primer microscopio como un conjunto de características en el al menos un objeto que se muestran sucesivamente dentro del campo de visión del mismo, el primer microscopio que tiene un primer sistema de coordenadas; recibir un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio como un conjunto de características sobre el al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el segundo microscopio que tiene un segundo sistema de coordenadas; calcular una transformación para vincular el primer sistema de coordenadas y el segundo sistema de coordenadas usando el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición; y generar datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento del uno del primer microscopio y del segundo microscopio.
El término “objeto” se refiere a cualquier objeto que comprenda marcas de herramientas que se puedan usar como Prueba Balística (BPOE). Ejemplos de un objeto comprenden una bala o una parte de una bala, un cartucho, un cañón de pistola, un martillo, un destornillador y similares.
Breve descripción de los dibujos
Otras características y ventajas de la presente invención llegarán a ser evidentes a partir de la siguiente descripción detallada, tomada en combinación con los dibujos adjuntos, en los que:
la Fig. 1 es un diagrama de flujo que ilustra un método para vincular un microscopio virtual y un microscopio físico, según una realización;
la Fig. 2 es una ilustración ejemplar de la topografía 3D de un objeto;
la Fig. 3 es un diagrama de flujo que ilustra un método para vincular un primer microscopio con un segundo microscopio del mismo tipo, según una realización;
la Fig. 4 ilustra un microscopio físico motorizado que tiene un sistema de coordenadas físicas y un eje de rotación motorizado en una orientación arbitraria con respecto al microscopio, y un objeto instalado en el eje de rotación con una orientación arbitraria con respecto al eje de rotación, según una realización;
la Fig. 5 es un diagrama de bloques que ilustra un sistema de adquisición y visualización 3D, según una realización;
la Fig. 6 es un diagrama de flujo que ilustra un método implementado por ordenador para vincular un microscopio virtual y un microscopio físico, según una realización; y
la Fig. 7 es un diagrama de flujo que ilustra un método implementado por ordenador para un objeto con un primer microscopio y un segundo microscopio, según una realización;
la Fig. 8 es un diagrama de bloques que ilustra un sistema completamente automatizado;
la Fig. 9 es un diagrama de bloques que ilustra un sistema híbrido manual/automatizado; y
la Fig. 10 es un diagrama de bloques que ilustra un sistema de modo dual.
Se observará que, a lo largo de los dibujos adjuntos, características similares se identifican mediante números de referencia similares.
Descripción detallada
La comparación visual de las marcas de herramientas microscópicas presentes en dos objetos, cada uno bajo un microscopio físico, se puede hacer usando los métodos descritos en la presente memoria. Cuando el número de líneas coincidentes en cualquier única región de interés no es suficiente para manifestar que un par de objetos bajo análisis coinciden, por ejemplo, un par de balas disparadas desde una misma arma de fuego, estos objetos se pueden trasladar y rotar juntos a otras regiones de interés para comparar aún más los dos y concluir si hay una coincidencia. Entonces se pueden usar para el análisis grupos de líneas coincidentes en varias regiones de interés. En algunas realizaciones, una alternativa al análisis visual bajo un microscopio físico consiste en generar una topografía 3D (y, posiblemente, una imagen 2D) para el objeto y visualizar la topografía 3D en un microscopio virtual. Se escanean diferentes regiones de interés del objeto y se genera una imagen de topografía 3D (y, posiblemente, una imagen 2D) para cada región de interés. De manera similar a un microscopio físico, la imagen del objeto mostrada en el microscopio virtual se puede desplazar usando movimientos de traslación y rotación con el fin de mostrar las regiones de interés deseadas. Cuando se comparan dos objetos en dos microscopios virtuales, las imágenes de los objetos se trasladan y rotan unas con respecto a otras con el fin de encontrar características coincidentes entre las dos imágenes.
A diferencia de un microscopio físico, un microscopio virtual no sufre de una profundidad de enfoque finita y de la no correspondencia entre el eje de simetría (rotación) del objeto, en su caso, y el eje de rotación del motor virtual que desplaza el objeto virtual. Además, los datos 3D y posiblemente 2D usados para construir el modelo 3D representado se pueden alterar para maximizar la facilidad de comparación para un examinador experto. Ejemplos de alteraciones comprenden la mejora de los detalles microscópicos en comparación con la forma general del objeto, la correlación de la textura microscópica del objeto sobre una superficie cilíndrica perfecta y el uso de geometría de iluminación idealizada y comportamiento de reflexión. Además, también se puede usar cualquiera de las técnicas a las que se hace referencia en la Solicitud de Patente de EE.UU. N° 13/080.761.
Sin embargo, el microscopio virtual no implica la observación directa del objeto físico, sino la observación de un objeto virtual representado a partir de datos 3D y posiblemente 2D medidos.
Cuando el par de objetos se analiza usando tanto un microscopio físico como un microscopio virtual, los sistemas de coordenadas de los microscopios virtual y físico se vinculan con el fin de tener que un desplazamiento de la imagen de un objeto en el microscopio virtual cause un desplazamiento del objeto en el microscopio físico y viceversa. En una realización, el usuario puede manipular tanto el microscopio virtual como el convencional en paralelo. Puede seleccionar un par de regiones coincidentes (una región del objeto A y una región del objeto B) como se ven en el microscopio virtual y ambos objetos físicos bajo los microscopios físicos obtendrán automáticamente las regiones correspondientes en el campo de visión de los microscopios físicos. Este proceso se puede repetir sobre varios pares de regiones coincidentes, según se desee.
En algunos casos, los objetos pueden tener una sección transversal circular, es decir, una forma prístina, y el eje de simetría de cada objeto puede coincidir con un eje de rotación cuando se coloca sobre un microscopio físico. En otros casos, el eje de simetría y el eje de rotación de un objeto pueden no coincidir. Los métodos descritos en la presente memoria están adaptados para hacer frente a ambas de estas situaciones.
La figura 1 es un diagrama de flujo que ilustra una realización de un método para vincular un microscopio físico y un microscopio virtual para el análisis de un objeto. El objeto tiene una forma macroscópica y presenta características microscópicas, tales como marcas de herramienta microscópicas, en su superficie. Un primer paso 102 comprende adquirir datos topográficos 3D (x, y, z) de una superficie del objeto, obteniendo por ello las características microscópicas y macroscópicas del objeto. La adquisición se puede hacer usando cualquier sensor conocido adaptado para escanear el objeto y adquirir información de profundidad y superficie, tal como perfilómetros láser, microscopios confocales y otros.
Los datos topográficos 3D adquiridos se muestran entonces en el microscopio virtual 104. La figura 2 es una realización ejemplar de los datos topográficos 3D adquiridos según se muestran. Se puede escanear todo el objeto o se puede escanear parte del objeto, como se ilustra en la figura 2, dando como resultado un único anillo de una bala. En la imagen mostrada, se selecciona un conjunto de características de la topografía 3D y esta característica se coloca en la ventana de visualización (o campo de visión) del microscopio virtual 106. A medida que se seleccionan nuevas características, el usuario puede tener que manipular los datos digitales, aplicando rotación, traslación o aumento. Seleccionar una característica dada puede comprender seleccionar un punto que tenga coordenadas (x, y, z), o una región que incluya muchos puntos. Esta operación se puede hacer haciendo clic en la característica en la pantalla con un ratón, tocando una pantalla táctil en la posición de la característica o mediante otros métodos conocidos.
El objeto correspondiente también se coloca bajo un microscopio físico de manera que cada característica identificada en el microscopio virtual se muestre sucesivamente en el campo de visión del microscopio físico 108. Este posicionamiento se puede hacer manualmente para cada característica, rotando y trasladando la platina del microscopio físico, o se puede hacer usando un eje motorizado y una interfaz de software. El enfoque se ajusta automática o manualmente con el fin de maximizar el contraste y definir mejor la posición Z de la bala.
Una vez que se han seleccionado ambos conjuntos de características en el microscopio físico y en el microscopio virtual, se calcula una transformación entre los dos sistemas de coordenadas 110. El microscopio físico tiene un sistema de coordenadas físico y el microscopio virtual tiene un sistema de coordenadas virtual. Esta operación se explicará con más detalle a continuación.
La transformación calculada del sistema de coordenadas virtual al sistema de coordenadas físico se usa entonces para vincular el microscopio virtual y el microscopio físico 112 de manera que el movimiento del objeto bajo uno de los dos cause el movimiento correspondiente en el otro y/o genere datos de guía para guiar a un usuario para realizar los movimientos apropiados manualmente. En otras palabras, el movimiento del objeto bajo uno de los dos microscopios causa que se genere una posición correspondiente para el otro microscopio, y o bien el otro microscopio se mueve automáticamente a la posición correspondiente o bien se dan instrucciones específicas a un usuario para mover el otro microscopio a la posición correspondiente.
La posición correspondiente para el microscopio físico se puede obtener calculando el movimiento de rotación y/o traslación a aplicar a los motores que controlan la platina del microscopio físico cuando la imagen en el microscopio virtual se desplaza. De manera similar, cuando los motores se desplazan para mover el objeto en el microscopio físico, se puede calcular el movimiento de rotación y/o traslación a aplicar a la imagen del objeto en el microscopio virtual. Los movimientos aplicados llevarán entonces una característica seleccionada al campo de visión de uno de los microscopios para hacer coincidir la característica en el campo de visión del otro de los microscopios.
En una realización, el método se puede usar para vincular dos microscopios del mismo tipo, es decir, dos microscopios virtuales o dos microscopios físicos. La vinculación se puede hacer directamente (es decir, de un microscopio a otro) o indirectamente (es decir, a través de uno o más microscopios de un tipo diferente). La figura 3a es un diagrama de flujo que ilustra un método para vincular directamente un primer microscopio y un segundo microscopio. Esto se hace o bien con objetos idénticos (o un objeto y su copia casi idéntica) bajo ambos microscopios físicos o bien con un mismo modelo 3D de un objeto bajo ambos microscopios virtuales. Las técnicas usadas para producir una copia casi idéntica de un objeto, tales como las que usan diversos moldes y materiales tales como resina, son conocidas por los expertos en la técnica. En un primer paso, se coloca un primer objeto en el primer microscopio de manera que un conjunto dado de características se muestre sucesivamente en el primer microscopio 302. De manera similar, el segundo objeto se coloca en el segundo microscopio de manera que el mismo conjunto de características dado se muestre sucesivamente en el segundo microscopio 304.
El primer microscopio tiene un primer sistema de coordenadas, mientras que el segundo microscopio tiene un segundo sistema de coordenadas. Se calcula 306 una transformación entre el primer sistema de coordenadas y el segundo sistema de coordenadas. Esta transformación se calcula usando el conjunto de posiciones del primer objeto en el primer microscopio y el conjunto de posiciones del segundo objeto en el segundo microscopio.
El primer sistema de coordenadas y el segundo sistema de coordenadas entonces se vinculan 308 usando la transformación de manera que el movimiento del objeto en uno de los microscopios cause la generación de un conjunto de movimientos (datos de guía) necesarios para que los siga el otro microscopio. Una vez que los dos microscopios están vinculados de tal manera, se pueden ver diferentes objetos en cada microscopio. Tener los dos microscopios bloqueados entre sí permite que un experto confirme una coincidencia entre dos objetos diferentes o dos modelos virtuales de objetos diferentes.
En otra realización, la vinculación de dos microscopios se hace indirectamente. Por ejemplo, cuando se vincula una pluralidad de microscopios físicos (dos o más), se adquiere una topografía 3D de la superficie de cada objeto. Los microscopios físicos están vinculados a sus respectivos microscopios virtuales, y entonces los microscopios virtuales están vinculados entre sí, conduciendo por ello a que los microscopios físicos estén vinculados entre sí.
Para dos microscopios virtuales, el primer y el segundo sistema de coordenadas son ambos sistemas de coordenadas virtuales dictados por la posición del objeto respectivo cuando se coloca en el eje de rotación de un sistema de adquisición 3D. Para dos microscopios físicos, el primer y el segundo sistema de coordenadas son ambos sistemas de coordenadas físicos, que difieren debido a la colocación de los objetos en un microscopio físico respectivo.
En una realización, solo se vinculan subconjuntos de los objetos mostrados en el microscopio de comparación virtual. De este modo, N objetos se podrían mostrar en el microscopio de comparación virtual, entre los cuales M < N objetos estarían vinculados al objeto físico correspondiente en el microscopio físico. Esto permite al usuario analizar el objeto físico usando todos los modelos virtuales relevantes disponibles incluso cuando algunos de los objetos físicos correspondientes no estén disponibles. En algunos casos, existen más modelos virtuales disponibles para la comparación que objetos físicos.
Tres sistemas de coordenadas están implicados en la derivación de la transformación de coordenadas que vincula las coordenadas del objeto virtual (o imagen del objeto) en el microscopio virtual y las coordenadas del objeto físico en el sistema de coordenadas del microscopio físico, como se describe a continuación. Se usará una bala como objeto ejemplar con propósitos ilustrativos. El primer sistema es el sistema de coordenadas intrínseco de la bala física (B); el segundo es el sistema de coordenadas del microscopio físico (CM); el tercero es el sistema de coordenadas de la bala virtual (V). El sistema de coordenadas B de la bala física se usa para la derivación de la ecuación que vincula los otros dos sistemas de coordenadas; Los tres sistemas de coordenadas se ilustran en la Figura 4.
El primer sistema de coordenadas es el sistema intrínseco de coordenadas del objeto físico (sistema B). La topografía del objeto se describe mediante un conjunto fijo de puntos R = (XB, YB, ZB) en este sistema de coordenadas. Para el caso de una bala prístina, el eje X_B se define que esté a lo largo de su eje de simetría en la ecuación que vincula los otros dos sistemas de coordenadas; Los tres sistemas de coordenadas se ilustran en la Figura 4. Por definición, la coordenada XB, YB, ZB de un punto dado de la bala física no cambia a medida que la bala se mueve dado que este sistema de coordenadas sigue la bala física.
El segundo sistema es el sistema de coordenadas del microscopio físico (sistema CM). Se define de manera que coincida con el eje X-Y de la cámara que adquiere una imagen del área bajo el microscopio. Por lo tanto, la posición X = 0, Y = 0 coincide con el píxel (0, 0) de la imagen del área dentro del campo de visión. El eje Z se define como el eje perpendicular a los ejes X e Y a lo largo del eje óptico del microscopio. La posición Z = 0 se define tras la inicialización del sistema como la posición vertical de cualquier punto que esté a la distancia de trabajo del microscopio. Cualquier punto en esa posición produce un contraste óptimo. La ecuación que vincula los otros dos sistemas de coordenadas; Los tres sistemas de coordenadas se ilustran en la Figura 4 muestra ambos sistemas de coordenadas (B y CM).
En la inicialización, el objeto se coloca sobre el eje de rotación motorizado. No hay garantía de que el objeto se coloque de manera que su eje de simetría (suponiendo un objeto simétrico) esté perfectamente a lo largo de la dirección del eje del motor. La ecuación que vincula los otros dos sistemas de coordenadas; Los tres sistemas de coordenadas se ilustran en la Figura 4 ilustra esta situación. Además, el objeto puede haber sido rotado o trasladado de cualquier forma posible antes de ser colocado sobre el eje motorizado. Por lo tanto, una rotación por ángulo beta alrededor de un eje arbitrario caracterizado por una dirección n y/o una traslación S se aplica a las coordenadas del objeto R con el fin de convertir la posición de un punto dado del sistema de coordenadas del objeto físico al sistema de coordenadas físicas del microscopio R’:
R’ = M[beta, n] R S, donde M es una matriz de rotación que describe una rotación en un ángulo beta alrededor de una dirección n, y S es un vector 3D que describe la traslación. Los parámetros de esta ecuación son fijos dado que se supone que el objeto nunca se mueve con respecto al eje del motor de rotación una vez que se coloca allí, el objeto habiendo sido firmemente instalado o fijado de alguna forma.
Entonces se puede aplicar una rotación de algún ángulo alfa alrededor del eje de rotación del microscopio físico. El eje de rotación se caracteriza por una dirección normalizada fija d y por un punto de cruce A sobre el eje, siendo ambos incógnitas en este punto. La operación de rotación se puede representar mediante una operación matricial que es una función del ángulo alfa, de la dirección d y del vector 3D A. Las coordenadas de un punto R’ en el objeto, en el sistema CM, se transforman entonces en R’’, como resultado de la rotación:
R’’ = M[alfa, d] (R’ - A) A. Existe alguna redundancia en la posición del vector A. Este punto se puede sustituir por cualquier otro punto sobre el eje de rotación. Por lo tanto, A se puede sustituir por A lambda*d, donde lambda es cualquier número real, sin cambiar el vector R’’ calculado. Este grado de libertad se tendrá en cuenta en un procedimiento de minimización de funciones que se describirá a continuación.
También se puede aplicar una traslación T o bien al eje de rotación o bien al microscopio, y a lo largo de cualquiera de los tres posibles ejes de coordenadas (en el sistema de coordenadas CM). Cualquiera que sea el movimiento no tiene importancia, siempre que se permita el movimiento relativo de los componentes del objeto/microscopio a lo largo de los tres ejes. La Figura 4 muestra el caso donde el eje de rotación se puede trasladar a lo largo de X e Y, mientras que el microscopio se puede trasladar verticalmente, a lo largo de Z. Como resultado:
R’’’ = R” T y, combinando las ecuaciones anteriores,
R’’’ = M[alfa, d] (M[beta, n] R S - A) A T. Se debe aplicar el signo correcto ± en cada uno de los componentes X, Y, Z de la traslación T según el origen del movimiento, o bien el eje motorizado que soporta la bala o bien el microscopio.
Se supone que la coordenada R’’’ = (X’’’, Y’’’, Z’’’) de cualquier punto del objeto en el sistema de coordenadas del microscopio físico se puede seleccionar a partir de los datos en el campo de visión del microscopio físico. Por ejemplo, haciendo clic en una imagen en directo de los datos en el campo de visión, se pueden definir las coordenadas X’’’ e Y’’’. Además, haciendo una búsqueda del mejor enfoque en ese punto de píxel, se puede definir una coordenada Z’’’. En la ecuación anterior, los parámetros conocidos son el vector de traslación T, el ángulo de rotación alfa y la posición del vector R’’’ seleccionado; las incógnitas son la dirección d y el vector origen del eje A, pero también el posicionamiento inicial del objeto sobre el eje del motor de rotación, definido por un ángulo beta, una dirección n y un vector de traslación S.
El tercer sistema de coordenadas es el sistema de coordenadas del objeto virtual. La representación digitalizada del objeto, usada en el microscopio virtual, se almacena como un conjunto de puntos 3D P que están fijos en el sistema de coordenadas virtual. Se supone que el objeto usado en el microscopio virtual corresponde al objeto en el físico.
Además, se supone que las coordenadas de cualquier punto P del objeto virtual se pueden seleccionar por un usuario, por ejemplo, haciendo clic sobre ese punto en la pantalla del microscopio virtual. La normal N, es decir, la dirección que es localmente perpendicular a P también está disponible. Si no es así, se puede calcular con métodos conocidos en base a la topografía digitalizada en el entorno de P. Se supone que la normal apunta a lo largo de la dirección hacia afuera, es decir, fuera del objeto, y no hacia el interior de la superficie.
No hay garantía de que un punto dado del objeto digitalizado, con la coordenada P en el sistema de coordenadas virtual (V), tenga las mismas coordenadas que el punto correspondiente R en el objeto real en su propio sistema de coordenadas (B). Sin embargo, debe haber alguna transformación lineal entre ellos. Se supone que no se implica ningún cambio de escala. La transformación supuesta es entonces una combinación de una rotación de un ángulo gamma alrededor de un eje con dirección m y de una traslación Q. Los parámetros m, gamma y Q en esta transformación son incógnitas, pero son fijos, incluso si los objetos digitalizados y reales se mueven en los microscopios de comparación virtuales y físicos, respectivamente. El punto P es conocido dado que ha sido seleccionado por el usuario en el microscopio virtual. La relación entre R y P es entonces:
R = M[gamma, m] P Q, donde M es una matriz de rotación que describe una rotación de un ángulo gamma alrededor de una dirección m, y Q es un vector 3D que describe la traslación.
Una relación entre dos vectores conocidos, P y R’’’, se genera sustituyendo la última ecuación en la anterior:
R’’’ = M[alfa, d] (M[beta, n] (M[gamma, m] P Q) S - A) A T
En este punto, el usuario selecciona N puntos con coordenadas P en el microscopio virtual, que corresponden con N puntos con coordenadas R’’’ = (X’’’, Y’’’, Z’’’) en el sistema de coordenadas del microscopio físico. Las coordenadas X’’’ e Y’’’ (en unidades físicas, como micras o mm) se calculan a partir de la posición de píxel conocida del punto a partir de la imagen adquirida por la cámara. Se supone que la bala y/o el microscopio se han trasladado a lo largo de la dirección Z con el fin de lograr un enfoque óptimo en ese punto. De este modo, el componente Z’’’ del punto es 0 por definición. Los siguientes escalares y vectores permanecen constantes: gamma, m, Q, beta, n, S y d. Los siguientes parámetros cambian entre los puntos seleccionados: alfa, el ángulo de rotación del objeto real alrededor del eje motorizado del microscopio físico y la traslación T del eje. Sin embargo, ambos están disponibles desde la aplicación de software que controla el eje motorizado del microscopio físico o desde los codificadores de un microscopio no motorizado. Para cada uno de estos pares de puntos, se debería cumplir la siguiente ecuación vectorial:
R’’’_i = M[alfa_i, d] (M [beta, n] (M [gamma, m] P_i Q) S - A) A T_i, donde el índice entero i varía de 1 a N, siendo N el número de pares de puntos definidos.
Dado que el producto de las matrices M(beta, n) y M(gamma, m) es desconocido pero fijo, y dado que de manera similar el vector que resulta de la operación M(beta, n) Q S es desconocido pero fijo, y dado que, además, estas matrices y vectores no aparecen en otras combinaciones, se pueden sustituir por una nueva matriz de rotación M(delta, g) y un vector U, respectivamente, ambos desconocidos y fijos:
R’’’_i = M[alfa_i, d] (M[delta, g] P_i U - A) A T_i.
Después de una manipulación algebraica, esta ecuación llega a ser:
M[alfa_i, d] (M[delta, g] P_i U - A) A T_i - R’’’_i = 0.
En la práctica, la ecuación anterior nunca se cumple perfectamente. Sin embargo, los parámetros desconocidos (ángulo delta, dirección g, vector U, dirección d, vector A) se pueden encontrar minimizando una función no negativa que desaparece si y solo si la ecuación vectorial anterior se cumple simultáneamente para todos los N puntos seleccionados, y que es una función creciente de la norma del lado izquierdo de esta ecuación vectorial, para todos los N puntos seleccionados.
Se puede elegir cualquier función que cumpla esta condición. Una función simple tal es la suma de la norma cuadrada de la ecuación vectorial anterior sobre todos los N puntos:
N 3 ,2
F = ^ ^ | M[alpha _i,d](M[delta ,g]P__i U - A) A T _ i - R"'_i\
i-i j -1 j
donde i es un índice que discurre sobre los puntos y j discurre sobre las tres coordenadas, x, y, z.
La ecuación anterior se puede generalizar en el caso donde el error de medición cambia según los tres ejes x-y-z, añadiendo una ponderación que caracterice los errores de medición a lo largo de cada eje:
Figure imgf000009_0001
En el método propuesto, las coordenadas X e Y de R’’’ por un lado, y su coordenada Z por otro lado, se encuentran mediante operaciones distintas: seleccionar un píxel en la pantalla para X e Y, y buscar el enfoque optimizado para Z. Se espera que los errores de medición sean diferentes para ambas técnicas. Esto se trata usando la ponderación apropiada en la ecuación anterior.
Como se ha tratado anteriormente, el vector A se puede sustituir por cualquier otro punto en el eje de rotación con dirección d, es decir, por A lambda d, donde lambda es cualquier número real. Por lo tanto, el procedimiento de minimización original es equivalente a minimizar
Figure imgf000009_0002
donde lambda es un parámetro libre que no tiene impacto en el valor de F. Este grado de libertad puede generar un comportamiento mal definido del procedimiento de minimización dado que los parámetros a ser buscados no son todos independientes. La solución es adoptar un valor conveniente para lambda. Están disponibles dos opciones simples disponibles: i) lambda se puede elegir de modo que U - A lambda*d sea perpendicular a d, o ii) lambda se puede elegir de modo que A lambda*d sea perpendicular a d. La función final para minimizar entonces se puede escribir de la forma
jV 3 2
F = ^ ^ Wj \M[alpha _ i,d](M[delta ,g]P _i V) C T _ i - R'"_i\
1=1 7=1 j
donde V y C son dos vectores, y donde V o C están restringidos a ser perpendiculares a d (V tiene la restricción con la opción i); C la tiene con la opción ii). Por lo tanto, suponemos que la siguiente ecuación se cumple aproximadamente: M[alfa_i, d] (M[delta, g] P_i V) C T_i = R’’’_i.
En el siguiente ejemplo, adoptaremos la segunda opción, pero ambas son igualmente válidas. El número de parámetros independientes a ser encontrados mediante el procedimiento de minimización es, por lo tanto, 10, es decir, 1 (ángulo delta) 2 (dirección g, norma unitaria) 2 (vector C con una restricción) 2 (dirección d, norma unitaria) 3 (vector V).
Tales problemas de minimización no lineal se pueden resolver mediante técnicas iterativas como la técnica de Levenberg-Marquardt, los métodos de descenso más pronunciado, el fortalecimiento simulado, los algoritmos genéticos o la búsqueda por fuerza bruta dentro del espacio de parámetros, o cualquier otro método conocido. Dado que puede haber varios mínimos locales, el mínimo global se podría encontrar solo usando algunas de las técnicas iterativas con una lista de varios puntos de partida. Las restricciones sobre g, d y V también se pueden tratar usando diferentes técnicas. Las direcciones g y d se pueden definir con 3 coordenadas cartesianas, en cuyo caso se añaden dos multiplicadores de Lagrange a la función a ser minimizada para forzar la norma de estos vectores a la unidad. Estos dos vectores también se pueden describir mediante una vector de norma unitaria en coordenadas radiales con un par de ángulos de elevación y de azimut (theta, phi). Ambas estrategias son válidas. De manera similar, el vector C se puede definir con tres coordenadas cartesianas, en cuyo caso se añade un multiplicador de Lagrange a la función a ser minimizada con el fin de hacer C perpendicular a d. El vector C también se puede describir mediante solo dos parámetros independientes que son las ponderaciones en una combinación lineal de dos vectores de norma unitaria perpendiculares entre sí y perpendiculares a d.
Una vez que se conocen los parámetros con una precisión razonable a partir del procedimiento de ajuste, los dos microscopios están vinculados.
El usuario puede seleccionar entonces un punto P (y su normal local N que apunta hacia afuera de norma unitaria asociada) en el microscopio virtual y calcular los vectores Q1 = (M[delta, g] P V) y Q2 = M[delta, g ] N. La rotación alfa y la traslación T requeridas para llevar el punto correspondiente del objeto real en el campo de visión (por ejemplo, en el centro del campo de visión) deben cumplir los componentes X e Y de la siguiente ecuación vectorial: R’’’ = M[alpha, d] Q1 C T, donde las coordenadas X e Y son la posición del píxel central de la pantalla (convertido en unidades físicas, micras o mm).
Este es un conjunto de dos ecuaciones con tres incógnitas (rotación alfa y los componentes X-Y del vector de traslación T). La restricción adicional se da forzando la rotación para llevar la normal local N’’’ de la topografía a lo largo del eje vertical del microscopio, es decir, el eje Z, tanto como sea posible. Esta configuración geométrica optimiza el análisis visual. De este modo se minimiza el ángulo entre el eje Z y la normal local. De manera equivalente, se maximiza el producto escalar del vector Z (0, 0, 1) y la normal unitaria N’’’ = M[alfa, d] Q2. Se pueden usar técnicas conocidas para encontrar el ángulo alfa óptimo a partir de esta condición. El valor del ángulo entonces se sustituye en la ecuación por R’’’ con el fin de resolver los componentes X-Y T.
El componente Z de la traslación se puede encontrar entonces de dos formas posibles, si no se hace manualmente: 1) ajustado automáticamente con el fin de maximizar el contraste; 2) sustituyendo el valor del ángulo alfa calculado previamente y el componente Z actual de la posición de la bala/microscopio en la ecuación R’’’; la traslación Z a ser aplicada se encuentra entonces a partir de la distancia de trabajo conocida del microscopio.
El usuario también puede rotar y trasladar el objeto físico, por un ángulo alfa y un vector T, respectivamente, y seleccionar un punto R’’’ = (X’’’, Y’’’, Z’’’). Las coordenadas X’’’ e Y’’’ del punto se encuentran a partir de la imagen en directo del área que se encuentra actualmente en el campo de visión del microscopio de comparación físico y se muestran en la pantalla. Se supone que se ha aplicado una traslación T a lo largo de la dirección Z para llevar el punto a la mejor posición de enfoque. Por lo tanto, la coordenada Z’’’ se define como 0. El punto P* correspondiente en la representación de la bala virtual se encuentra entonces como una función de R’’’ de la siguiente manera, mediante la inversión de la ecuación que encuentra R’’’ a partir de un punto P conocido: P* = M[-delta, g] (M[-alfa, d] (R’’’ - C - T) - V). El valor P* calculado será en general diferente que cualquiera de los puntos P que definen el modelo virtual. El punto P adoptado debería ser el que, dentro de la lista, esté más cercano a P*, según se mide por la distancia Euclídea, por ejemplo. El objeto virtual entonces se puede rotar y/o trasladar con el fin de llevar ese punto (P) a alguna posición predefinida en la pantalla del microscopio virtual, por ejemplo, en el centro de la pantalla y con una orientación predefinida para su normal local.
Se supone un factor de aumento único en la derivación anterior del método. Sin embargo, esto último se puede generalizar para un sistema que ofrece varias posiciones de aumento predeterminadas. Se puede determinar una relación lineal entre las coordenadas de píxeles en dos aumentos diferentes en la inicialización:
x(Aumentol) - xCentro = K[x(Aumento2) - xCentro]
y(Aumentol) - yCentro = K[y(Aumento2) - yCentro]
donde x(Aumentol) y x(Aumento2) son el componente x de las coordenadas de píxel de un punto en un objeto que se encuentra bajo el microscopio en Aumentol y Aumento2 respectivamente, y xCentro es la coordenada de píxel en el centro del visualizador. El término K es la relación entre los factores de aumento. Se supone que el sistema se ha calibrado correctamente de modo que un punto de un objeto mostrado en el centro de la pantalla permanezca en el centro si se cambia el aumento. También existe una relación lineal para la mejor posición de enfoque: z(Aumento1) = [z(Aumento2) - A]
donde A es la diferencia entre la distancia de trabajo en las dos posiciones de aumento.
La Figura 5 ilustra una realización ejemplar de un sistema de adquisición de imágenes 3D que tiene una aplicación para vincular microscopios entre sí. Un sistema informático 502 comprende una aplicación 508 que se ejecuta en un procesador 506, el procesador que está acoplado a una memoria 504. Un sensor 514 y un visualizador 510 están conectados al sistema informático 502.
La memoria 504, accesible por el procesador 506, recibe y almacena datos, tales como imágenes adquiridas, topografías (x, y, z), coordenadas 3D y cualquier otra información usada por el sistema de adquisición de imágenes 3D. La memoria 504 puede ser una memoria principal, tal como una Memoria de Acceso Aleatorio (RAM) de alta velocidad, o una unidad de almacenamiento auxiliar, tal como un disco duro, un disquete o una unidad de cinta magnética. La memoria puede ser cualquier otro tipo de memoria, tal como una Memoria de Solo Lectura (ROM), o un medio de almacenamiento óptico, tal como un videodisco y un disco compacto.
El procesador 506 puede acceder a la memoria 504 para recuperar datos. El procesador 506 puede ser cualquier dispositivo que pueda realizar operaciones sobre datos. Ejemplos son una unidad de procesamiento central (CPU), un procesador de circuitería de entrada, un microprocesador, una unidad de procesamiento de gráficos (GPU/VPU), una unidad de procesamiento física (PPU), un procesador digital de señal y un procesador de red. La aplicación 508 está acoplada al procesador 506 y está configurada para realizar diversas tareas como se explica a continuación con más detalle. Se puede transmitir una salida a un dispositivo de visualización 510.
En una realización, el sistema informático 502 está integrado directamente en el sensor 514 mientras que, en otra realización, el sistema informático 502 es externo al sensor 514. El sensor 514 puede comunicarse con el sistema informático 502 de una manera cableada o inalámbrica.
En una realización, la aplicación 508 comprende una aplicación de microscopio 512 que se comunica con una aplicación de vinculación 513. Por ejemplo, la aplicación de microscopio 512 puede ser responsable de controlar los motores del microscopio físico. Una vez que la aplicación de vinculación 513 calcula los desplazamientos de traslación y rotación de los motores, se envían a la aplicación de microscopio 512. La aplicación 508, o las manifestaciones e instrucciones para su ejecución por el procesador 506, se pueden incorporar en cualquier tipo de medio legible por ordenador, ya sea que esté integrado dentro del sistema informático 502 o externo al mismo.
En una realización, el lanzamiento de la aplicación de vinculación 513 hará que el sistema informático 502 pida a un usuario, a través de una interfaz de usuario tal como el visualizador 510, que introduzca ciertos parámetros, coloque los objetos bajo análisis y/o seleccione características de interés en una pantalla o visualizador 510. Una vez que se han realizado las acciones por el usuario, el sistema informático 502 calculará automáticamente entonces la transformación para vincular dos microscopios entre sí y aplicará la transformación según se necesite.
En una realización, se puede usar una pluralidad de microscopios físicos con un único microscopio virtual que tiene múltiples visores para mostrar las imágenes correspondientes de los objetos bajo observación en los microscopios físicos.
De manera alternativa, cada microscopio físico puede operar con su propio microscopio virtual. Además, se pueden usar microscopios de platina dual (microscopios capaces de contener dos objetos a la vez), conduciendo a una relación de N microscopios virtuales o visores a N/2 microscopios físicos.
Las diferencias en los sistemas de coordenadas, ya sea entre un microscopio virtual y un microscopio físico, dos microscopios virtuales o dos microscopios físicos, se pueden deber a una variedad de factores. Un factor posible es el posicionamiento del objeto en el eje de rotación de un sistema de adquisición 3D. Otro factor es la orientación del eje de rotación del sistema de adquisición 3D. Otro factor adicional más es el posicionamiento del objeto en el eje de rotación del microscopio físico y, finalmente, la orientación del eje de rotación del microscopio físico.
La figura 6 es un diagrama de flujo que ilustra un método implementado por ordenador, según se lleva a cabo por el sistema informático 502, para vincular un microscopio físico y un microscopio virtual para el análisis de un objeto. Los datos topográficos 3D se reciben 602 y se pueden almacenar en la memoria 504 o usar inmediatamente por la aplicación 508. Los datos topográficos 3D se muestran 604 en un dispositivo de visualización 510.
Un primer conjunto de coordenadas representativas de las características seleccionadas de los datos topográficos 3D en el microscopio virtual se recibe 606 por el sistema informático 502. Un segundo conjunto de coordenadas representativas de las posiciones del microscopio físico cuando el objeto está colocado para mostrar las características seleccionadas en el microscopio físico también se recibe 608 por el sistema informático 502. El primer y segundo conjuntos de coordenadas también se pueden almacenar en la memoria 504.
Sobre la base de los conjuntos de coordenadas, se calcula 610 una transformación para vincular el sistema de coordenadas virtual y el sistema de coordenadas físico. El sistema de coordenadas virtual y el sistema de coordenadas físico se vinculan entonces usando la transformación 612, de manera que el movimiento del objeto bajo uno de los dos cause el movimiento correspondiente en el otro. Como se ha indicado anteriormente, en una realización, el movimiento real del segundo microscopio no está automatizado. Los datos de guía se generan y proporcionan al usuario para permitir el movimiento manual del segundo microscopio.
La figura 7 es un diagrama de flujo que ilustra un método implementado por ordenador, según se lleva a cabo por el sistema informático 502, para el análisis de un par de objetos concurrentemente bajo un primer microscopio y un segundo microscopio, el par de objetos que tienen características comunes y los microscopios que se han vinculado, según el método descrito con referencia a la figura 3. El sistema informático 502 recibe un primer conjunto de coordenadas 702 para el primer objeto posicionado en el primer microscopio. El sistema informático 502 también recibe un segundo conjunto de coordenadas 704 cuando el primer objeto se mueve a una segunda posición en el primer microscopio.
La aplicación 508 determina qué movimientos (rotaciones y/o traslaciones) se necesitan en el segundo sistema de coordenadas para colocar el segundo objeto en la segunda posición 706. La aplicación 508 entonces puede generar datos de guía 708 que cuando se aplican al segundo microscopio causan un movimiento del segundo microscopio que corresponde al movimiento del primer microscopio. En una realización, los datos de guía se usan para mover automáticamente el segundo microscopio. En otra realización, los datos de guía se proporcionan al usuario y el usuario sigue las instrucciones de rotación y/o traslación para mover el segundo microscopio.
La figura 8 es un diagrama de bloques que ilustra el sistema que corresponde a un microscopio de comparación completamente automatizado. El usuario selecciona puntos sobre el objeto físico en el campo de visión del microscopio de comparación 802 usando la aplicación de software del microscopio de comparación 808 (con alguna forma de dispositivo de entrada, como un ratón, teclado y/o palanca de mando) y selecciona puntos coincidentes en la imagen virtual 810, también usando la aplicación de software del microscopio 808. La imagen virtual y el microscopio físico 802 se vinculan entonces usando el método descrito anteriormente. Cuando el usuario mueve el objeto en el microscopio de comparación usando la aplicación de software del microscopio de comparación 808, la imagen virtual 810 se mueve automáticamente. Cuando el usuario mueve la imagen virtual 810, el objeto en el microscopio de comparación físico 802 se mueve automáticamente a la posición correspondiente. Un microcontrolador 806 es la interfaz entre el microscopio de comparación físico 802 y la aplicación de software del microscopio de comparación 808. Este componente es capaz de traducir las acciones del software a movimiento físico y viceversa. Se usa un conjunto de motores 804 para realizar el desplazamiento del objeto en el microscopio de comparación 802.
La figura 9 ilustra el sistema que corresponde a un microscopio de comparación no automatizado, también llamado sistema híbrido manual/automatizado. El usuario selecciona manualmente puntos sobre el objeto en el microscopio de comparación físico 802 y los puntos coincidentes en la imagen virtual 810 usando la aplicación del microscopio de comparación 808. La imagen virtual 810 y el microscopio físico 802 se vinculan entonces usando el método descrito anteriormente. Cuando el usuario mueve manualmente el objeto en el microscopio de comparación 802, la imagen virtual 810 se mueve automáticamente. Cuando el usuario mueve la imagen virtual 810, la aplicación del microscopio de comparación 808 determina qué movimientos correspondientes necesitan ser aplicados al microscopio de comparación 802 e indica al usuario qué ejes necesitan ser operados, en qué dirección y en qué cantidad, usando indicadores. El controlador del microscopio de comparación 806 entonces monitoriza continuamente los datos de los codificadores 902 y notifica al usuario acerca del estado de cada eje.
Cuando el usuario mueve el objeto en el microscopio de comparación 802, la posición de cada eje del objeto/microscopio de comparación se reporta a la aplicación del microscopio de comparación 808 a través del controlador 806. Esto permite que la aplicación del microscopio de comparación 808 se sincronice con el microscopio de comparación físico 802 operado manualmente. Como la mayoría de los expertos en armas de fuego usan actualmente microscopios de comparación no motorizados, la sincronización de los modelos físicos y virtuales puede ser más fácil de hacer para ellos en modo manual.
La figura 10 ilustra un sistema de modo dual que permite ambos escenarios anteriores. Esta combinación incluye codificadores 902 y motores 804 y permite que el usuario conmute entre el modo híbrido manual/automatizado y el modo completamente automatizado a voluntad.
Se debería entender que los métodos implementados por ordenador se pueden llevar a cabo usando instrucciones y manifestaciones en una única aplicación o en una combinación de dos o más aplicaciones acopladas al procesador 506. Aunque se ilustra en los diagramas de bloques de las figuras 5 y 8-10 como grupos de componentes discretos que se comunican unos con otros a través de distintas conexiones de señales de datos, se entenderá por los expertos en la técnica que las realizaciones se proporcionan mediante una combinación de componentes de hardware y software, con algunos componentes que se implementan mediante una función u operación dada de un sistema de hardware o software, y muchas de las rutas de datos ilustradas que se implementan mediante comunicación de datos dentro de una aplicación informática o un sistema operativo. De este modo, la estructura ilustrada se proporciona para la eficacia de la enseñanza de las presentes realizaciones.
Las realizaciones de la invención descrita anteriormente se pretende que sean solo ejemplares. Por lo tanto, se pretende que el alcance de la invención esté limitado únicamente por el alcance de las reivindicaciones adjuntas.

Claims (9)

REIVINDICACIONES
1. Un método implementado por ordenador para analizar al menos un objeto bajo un primer microscopio y un segundo microscopio, el método que comprende:
recibir (606) un primer conjunto de coordenadas de posición del al menos un objeto bajo el primer microscopio como un conjunto de características tomadas de datos topográficos 3D de una superficie del al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el primer microscopio que tiene un primer sistema de coordenadas;
recibir (608) un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio como un conjunto de características tomadas de datos topográficos 3D de la superficie del al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el segundo microscopio que tiene un segundo sistema de coordenadas;
calcular (110, 306, 610) una transformación para vincular (112, 308, 612) el primer sistema de coordenadas y el segundo sistema de coordenadas usando el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición e independientemente de un posicionamiento inicial del al menos un objeto bajo uno respectivo del primer microscopio y del segundo microscopio;
generar (708) datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento del uno del primer microscopio y del segundo microscopio para llevar el conjunto de características mostradas dentro del campo de visión del primer microscopio para que coincida con el conjunto de características mostradas dentro del campo de visión del segundo microscopio; y
en donde el primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual, y en donde recibir un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio comprende recibir un conjunto de coordenadas para un conjunto de características en una imagen del al menos un objeto en el microscopio virtual.
2. El método implementado por ordenador de la reivindicación 1, que además comprende:
adquirir (102) datos topográficos 3D representativos de una topografía de superficie 3D del objeto;
generar la imagen del al menos un objeto a partir de los datos topográficos 3D; y
mostrar (104) la imagen en el microscopio virtual.
3. El método implementado por ordenador de las reivindicaciones 1 o 2, que comprende además aplicar los datos de guía a al menos uno del microscopio físico y del microscopio virtual de una manera automatizada.
4. El método implementado por ordenador de las reivindicaciones 1 a 3, que comprende además proporcionar los datos de guía a un usuario en un formato que los permite que sean aplicados manualmente, el formato que comprende preferiblemente uno de los pasos de traslación/rotación para el microscopio físico, información gráfica e indicadores físicos.
5. Un sistema para analizar microscópicamente al menos un objeto, el sistema que comprende:
al menos un primer microscopio y un segundo microscopio, el primer microscopio que tiene un primer sistema de coordenadas y el segundo microscopio que tiene un segundo sistema de coordenadas;
un sistema informático (502) que comprende un procesador (506) y una memoria (504); y
un módulo de vinculación de microscopio (513) almacenado en la memoria (504) y que es ejecutable por el procesador (506), el módulo de vinculación de microscopio (513) que tiene un código de programa que, cuando se ejecuta, calcula una transformación para vincular el primer sistema de coordenadas y el segundo sistema de coordenadas independientemente de un posicionamiento inicial del al menos un objeto bajo uno respectivo del primer microscopio y del segundo microscopio, y genera datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento del uno del primer microscopio y del segundo microscopio para llevar un conjunto de características tomadas de datos topográficos 3D de una superficie del al menos un objeto mostrado dentro del campo de visión del primer microscopio para que coincida con un conjunto de características tomadas de los datos topográficos 3D de la superficie del al menos un objeto mostrado dentro del campo de visión del segundo microscopio; y
en donde el primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual, y en donde recibir un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio comprende recibir un conjunto de coordenadas para un conjunto de características en una imagen del al menos un objeto en el microscopio virtual.
6. El sistema de la reivindicación 5, que comprende además un módulo de datos almacenado en la memoria (504) y que es ejecutable por el procesador (506), el módulo de datos que tiene un código de programa que, cuando se ejecuta, adquiere datos topográficos 3D representativos de una topografía de superficie 3D del al menos un objeto, genera una imagen a partir de los datos topográficos 3D y muestra la imagen en el microscopio virtual.
7. El sistema de las reivindicaciones 5 o 6, que comprende además un módulo de control almacenado en la memoria (504) y ejecutable por el procesador (506), el módulo de control que tiene un código de programa que, cuando se ejecuta, aplica los datos de guía a al menos uno del microscopio físico y del microscopio virtual de una manera automatizada.
8. El sistema de cualquiera de las reivindicaciones 5 a 7, que comprende además un módulo de control almacenado en la memoria (504) y ejecutable por el procesador (506), el módulo de control que tiene un código de programa que, cuando se ejecuta, proporciona los datos de guía a un usuario en un formato que los permite que sean aplicados manualmente.
9. Una memoria legible por ordenador no transitoria que tiene grabadas en la misma manifestaciones e instrucciones para su ejecución por un ordenador para implementar un método para analizar al menos un objeto bajo un primer microscopio y un segundo microscopio y llevar a cabo los pasos de:
recibir (606) un primer conjunto de coordenadas de posición del al menos un objeto bajo el primer microscopio como un conjunto de características tomadas de datos topográficos 3D de una superficie del al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el primer microscopio que tiene un primer sistema de coordenadas;
recibir (608) un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio como un conjunto de características tomadas de datos topográficos 3D de la superficie del al menos un objeto que se muestran sucesivamente dentro de un campo de visión del mismo, el segundo microscopio que tiene un segundo sistema de coordenadas;
calcular (110, 306, 610) una transformación para vincular (112, 308, 612) el primer sistema de coordenadas y el segundo sistema de coordenadas usando el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición e independientemente de un posicionamiento inicial del al menos un objeto bajo uno respectivo del primer microscopio y del segundo microscopio;
generar (708) datos de guía cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de guía que corresponden a un conjunto de operaciones a ser aplicadas al otro del primer microscopio y del segundo microscopio para seguir el movimiento del uno del primer microscopio y del segundo microscopio para llevar el conjunto de características mostradas dentro del campo de visión del primer microscopio para que coincida con el conjunto de características mostradas dentro del campo de visión del segundo microscopio; y
en donde el primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual, y en donde recibir un segundo conjunto de coordenadas de posición del al menos un objeto bajo el segundo microscopio comprende recibir un conjunto de coordenadas para un conjunto de características en una imagen del al menos un objeto en el microscopio virtual.
ES11777052T 2010-05-03 2011-05-02 Vinculación de microscopios para el análisis de objetos que comprenden marcas de herramientas Active ES2877098T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US33060410P 2010-05-03 2010-05-03
PCT/CA2011/000521 WO2011137518A1 (en) 2010-05-03 2011-05-02 Linking of microscopes for analysis of objects comprising tool marks

Publications (1)

Publication Number Publication Date
ES2877098T3 true ES2877098T3 (es) 2021-11-16

Family

ID=44903537

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11777052T Active ES2877098T3 (es) 2010-05-03 2011-05-02 Vinculación de microscopios para el análisis de objetos que comprenden marcas de herramientas

Country Status (6)

Country Link
US (1) US9080844B2 (es)
EP (1) EP2567187B1 (es)
BR (1) BR112012028097B1 (es)
CA (1) CA2834905C (es)
ES (1) ES2877098T3 (es)
WO (1) WO2011137518A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5814147B2 (ja) * 2012-02-01 2015-11-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力装置、入力制御方法、および入力制御プログラム
US8596525B2 (en) * 2012-02-06 2013-12-03 Oracle International Corporation Topographic spot scanning for a storage library
US8613386B2 (en) * 2012-02-29 2013-12-24 Oracle International Corporation Contrast spot scanning for a storage library
US11249293B2 (en) 2018-01-12 2022-02-15 Iballistix, Inc. Systems, apparatus, and methods for dynamic forensic analysis
JP2022066928A (ja) * 2020-10-19 2022-05-02 日本電子株式会社 座標リンケージシステム及び座標リンケージ方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995638A (en) * 1995-08-28 1999-11-30 Ecole Polytechnique Federale De Lausanne Methods and apparatus for authentication of documents by using the intensity profile of moire patterns
US6505140B1 (en) 2000-01-18 2003-01-07 Intelligent Automation, Inc. Computerized system and method for bullet ballistic analysis
US7292251B1 (en) * 2000-10-06 2007-11-06 The Research Foundation Of State University Of New York Virtual telemicroscope
EP1410004A2 (en) * 2000-11-17 2004-04-21 Molecular Diagnostics, Inc. Evaluation of microscope slides
DE50305573D1 (de) 2002-03-18 2006-12-14 Charite Universitaetsmedizin Virtuelles mikroskop - vorrichtung und verfahren
EP1416308B1 (de) * 2002-10-31 2006-12-27 Leica Microsystems CMS GmbH Vergleichendes optisches System
US7958525B2 (en) * 2002-12-11 2011-06-07 Broadcom Corporation Demand broadcast channels and channel programming based on user viewing history, profiling, and requests
FR2863762B1 (fr) * 2003-12-15 2006-03-10 Christophe Mouisel Microscope comparateur numerique a vocation balistique, ou autre.
US7212949B2 (en) * 2004-08-31 2007-05-01 Intelligent Automation, Inc. Automated system and method for tool mark analysis
JP4937850B2 (ja) * 2007-07-03 2012-05-23 オリンパス株式会社 顕微鏡システム、そのvs画像生成方法、プログラム
ES2667032T3 (es) * 2008-05-16 2018-05-09 Ultra Electronics Forensic Technology Inc Procedimiento y sistema de posicionamiento de un objeto en un sistema de sensor óptico para adquisición de una topografía del mismo

Also Published As

Publication number Publication date
CA2834905A1 (en) 2011-11-10
WO2011137518A1 (en) 2011-11-10
US9080844B2 (en) 2015-07-14
EP2567187A1 (en) 2013-03-13
EP2567187B1 (en) 2021-04-21
BR112012028097B1 (pt) 2020-03-10
US20110286090A1 (en) 2011-11-24
EP2567187A4 (en) 2017-11-22
CA2834905C (en) 2016-04-26

Similar Documents

Publication Publication Date Title
US20220366598A1 (en) Calibration system and method to align a 3d virtual scene and a 3d real world for a stereoscopic head-mounted display
ES2877098T3 (es) Vinculación de microscopios para el análisis de objetos que comprenden marcas de herramientas
CN101986350B (zh) 基于单目结构光的三维建模方法
JP5999679B2 (ja) 設備保守管理システム
CN110780285A (zh) 激光雷达与组合惯导的位姿标定方法、系统及介质
CN104620129A (zh) 具有角扫描速度的动态调整的激光扫描仪
US10319142B2 (en) Method for visualizing three dimensional data
EP2838420B1 (en) Image display improvements
Mahdy et al. Projector calibration using passive stereo and triangulation
Van Crombrugge et al. Extrinsic camera calibration for non-overlapping cameras with Gray code projection
CN104338245A (zh) 一种模拟离子束射野的平行光野指示装置及方法
WO2010013289A1 (ja) カメラ校正画像作成装置およびカメラ校正画像作成プログラム
Huang et al. A 3D reconstruction method based on one-dimensional galvanometer laser scanning system
CN111355894B (zh) 一种新型自标定激光扫描投影系统
JP2010204759A (ja) 三次元像表示装置の座標校正方法
Zheng et al. A non-coplanar high-precision calibration method for cameras based on an affine coordinate correction model
Scaioni et al. Independent model triangulation of terrestrial laser scanner data
Long et al. Development of an ultracompact endoscopic three-dimensional scanner with flexible imaging fiber optics
Mecca et al. Shape reconstruction of symmetric surfaces using photometric stereo
CN212903049U (zh) 一种便携式三维激光扫描系统
Hendriatiningsih et al. 3D Model Based on Terrestrial Laser Scanning (TLS) Case study: The Cangkuang Temple, Garut District, West Java, Indonesia.
Wu et al. A novel precise guiding method for visual guiding theodolite measurement in volume space
Li et al. Principle and geometric precision of photographic geological logging of tunnels
Brodland et al. Three-dimensional reconstruction of live embryos using robotic macroscope images
Goral et al. Accuracy assessment of Kinect for Xbox One in point-based tracking applications