MX2012012727A - Asociacion de microscopios para el analisis de objetos que comprenden marcas de herramienta. - Google Patents
Asociacion de microscopios para el analisis de objetos que comprenden marcas de herramienta.Info
- Publication number
- MX2012012727A MX2012012727A MX2012012727A MX2012012727A MX2012012727A MX 2012012727 A MX2012012727 A MX 2012012727A MX 2012012727 A MX2012012727 A MX 2012012727A MX 2012012727 A MX2012012727 A MX 2012012727A MX 2012012727 A MX2012012727 A MX 2012012727A
- Authority
- MX
- Mexico
- Prior art keywords
- microscope
- coordinate system
- physical
- virtual
- microscopes
- Prior art date
Links
Landscapes
- Microscoopes, Condenser (AREA)
Abstract
Se proporciona un método para analizar por lo menos un objeto debajo de un primer microscopio y de un segundo microscopio al asociar concurrentemente de manera conjunta los dos microscopios. El movimiento de un microscopio dará lugar al movimiento del otro. Esto se realiza al computar una transformación para asociar un primer sistema de coordenadas y un segundo sistema de coordenadas y al generar los datos cuando se desplaza uno de los dos microscopios, los datos de orientación corresponden a un conjunto de operaciones que se aplicará al otro microscopio para seguir el movimiento del microscopio que está desplazando.
Description
ASOCIACIÓN DE MICROSCOPIOS PARA EL ANÁLISIS DE
OBJETOS QUE COMPRENDEN MARCAS DE HERRAMIENTA
Campo de la Invención
La presente invención se relaciona con el campo de la generación de imagen en 3D y de la identificación balística visual.
Antecedentes de la Invención
En el campo de la balística forense, las marcas de herramienta microscópicas presentes en diferentes tipos de objetos se comparan para encontrar las marcas de herramienta coincidentes para asociar conjuntamente los objetos, tal como las balas que se pueden asociar eventualmente con un arma de fuego recuperada. Las comparaciones se hacen típicamente al usar los microscopios de comparación, donde un experto comparará visualmente las marcas de herramienta que se encontraron en los dos objetos y utilizará su experiencia para determinar una coincidencia.
Algunas herramientas de software existen para asistir al experto para realizar la determinación. Por ejemplo, un sensor de adquisición 3D se puede utilizar para adquirir la topografía, y posiblemente una imagen 2D, de un objeto con las marcas de herramienta. El análisis visual de los datos resultantes se puede entonces realizar a través de un microscopio de comparación virtual que exhibe los datos adquiridos.
Un microscopio de comparación virtual es una herramienta de software que exhibe la topografía de uno o varios objetos que pueden tener marcas de herramienta. Su aporte es una lista de objetos virtuales, cada uno definido por un conjunto de puntos en un sistema de coordenadas 3D los cuales se conectan para generar caras poligonales sobre la superficie completa del objeto. Los requisitos mínimos del microscopio de comparación virtual son la capacidad de exhibir tales conjuntos de puntos mediante el uso de técnicas de representación, el movimiento de los objetos virtuales en espacio a través de la traslación (traslaciones de X, Y, Z) y del giro sobre cualquier eje, el enfoque del objeto, y la simulación de diferentes tipos de condiciones de iluminación. La fuente de luz también se puede trasladar y girar. Algunos microscopios virtuales pueden también sobreponer una textura relevante sobre el objeto virtual. Un microscopio de comparación virtual tiene algunas propiedades únicas que nunca estarán presentes en un microscopio de comparación físico: una profundidad infinita del campo, que elimina cualquier problema de enfoque, y el diseño óptimo de la fuente de luz y de los modelos de reflectancia, las cuales proporcionan un mejor control del número de áreas muy brillantes u oscuras. Sin embargo, la herramienta de software no se utiliza para tomar la decisión definitiva. El experto debe confirmar las coincidencias posibles mediante el uso del microscopio de comparación.
Un microscopio físico tiene varias limitaciones: profundidad limitada del enfoque, carencia de correspondencia entre el eje simétrico (o giro) del objeto, si existe, y el eje de giro del motor que desplaza el objeto, y los ejes de giro independientes y las fuentes de luz cuando dos objetos se analizan al mismo tiempo.
La comparación visual de las marcas de herramienta microscópicas presentes en dos objetos debajo de un microscopio de comparación puede ser considerablemente desafiante, especialmente cuando solamente algunas marcas están presentes en los objetos. En este caso, el número de marcas coincidentes en alguna sola región de interés puede no ser suficiente para indicar que el par de objetos analizados es un "par concluyente", es decir un par de objetos que estuvo en contacto con la misma herramienta o que se disparó con la misma arma de fuego. El experto en marcas de herramienta o armas de fuego debe entonces buscar los grupos de marcas coincidentes sobre varias regiones de interés.
Esta operación puede ser desafiante debido a las limitaciones del microscopio de comparación. Esto es especialmente cierto para las balas. En algunos casos, las balas pueden tener una sección transversal circular, es decir una forma antigua, y el eje simétrico de cada bala puede coincidir con el eje de giro cuando se coloca en el microscopio de comparación. En este caso, el experto puede comparar las balas al girar manualmente cada bala alrededor de su eje de giro correspondiente. Sin embargo, en otros casos, el eje simétrico y el eje de giro para una bala pueden no coincidir. El experto en armas de fuego debe entonces aplicar varias operaciones manuales que comprenden girar las balas, trasladar las balas y variar la posición e intensidad de las fuentes de luz para comparar las dos balas. Estas operaciones son particularmente desafiantes para las balas con muy pocas marcas pequeñas.
Otra limitación del microscopio de comparación físico es su profundidad limitada de enfoque. Cuando la topografía en el campo visual no es localmente plana, no es posible analizar esta vista del área completa con el enfoque óptico.
Con tales limitaciones, es desafiante y lento buscar coincidencias entre dos objetos con las marcas de herramienta.
Existe una necesidad de mejorar las herramientas actualmente disponibles para los expertos a modo de facilitar la comparación que se debe realizar al usar el microscopio de comparación .
Breve Descripción de la Invención
Se describe un método para analizar por lo menos un objeto debajo de un primer microscopio y de un segundo microscopio mediante la asociación de manera concurrente de los dos microscopios juntos. El movimiento de un microscopio dará lugar al movimiento del otro microscopio. Esto se realiza mediante la computación de una transformación para asociar un primer sistema de coordenadas y un segundo sistema de coordenadas y mediante la generación de los datos cuando se desplaza uno de los dos microscopios, los datos de orientación corresponden a un conjunto de operaciones que se aplicarán al otro microscopio para seguir el movimiento del microscopio que se desplaza.
Este método se puede utilizar para mejorar el proceso de comparación en balística mediante la asociación de un microscopio de comparación físico con un microscopio de comparación virtual, o al asociar conjuntamente dos microscopios de un mismo tipo.
Un experto puede comparar las regiones posiblemente coincidentes a partir de los datos digitales al usar un microscopio virtual, y entonces analiza las regiones correspondientes a través de un microscopio de comparación convencional con los objetos físicos. Un análisis visual previo con un microscopio de comparación virtual permite que el experto seleccione las mejores regiones coincidentes en un corto periodo de tiempo. El experto puede entonces centrarse en estas pocas regiones coincidentes en el microscopio de comparación convencional para el análisis final.
Mediante la asociación de las operaciones que se realizaron en el microscopio virtual y de las operaciones que se realizaron en un microscopio de comparación motorizado, es posible la selección de un área dada de un objeto digitalizado en el microscopio virtual que conducirá al área correspondiente del objeto físico debajo del microscopio de comparación convencional. Una vez que el área se seleccione en el microscopio virtual, entonces dos modos son posibles de acuerdo con el nivel de automatización del microscopio de comparación: el modo completamente automatizado y el modo híbrido manual/automatizado. Una tercera configuración de sistema (modo doble) incorpora ambos modos.
Para un microscopio de comparación completamente automatizado, el objeto físico que se instaló en un eje de giro motorizado puede moverse automáticamente (mediante giro y/o traslación) para que el área correspondiente aparezca dentro del campo visual y en el enfoque del microscopio de comparación físico. Para un microscopio de comparación híbrido manual/automatizado, el microscopio se puede equipar con los codificadores que reportan la posición actual de cada eje, y los movimientos requeridos de la bala física (giro y/o traslación) se pueden realizar manualmente por el experto, con base en los datos de orientación. Los datos de orientación se pueden actualizar periódica o continuamente para orientar al usuario durante las operaciones manuales hasta que el área seleccionada esté en una posición predefinida en el campo visual. También es posible un sistema que se adapta a la función en ambos modos. Varias estrategias se pueden usar para orientar a los usuarios: exhibición de un número de etapas de traslación y/o giro que se aplicarán para llevar el área correspondiente dentro del campo visual del microscopio de comparación, exhibición de la información gráfica, similar a las flechas direccionales, uso de indicadores físicos similares a pequeñas fuentes de luz, etcétera.
También es posible el proceso opuesto, por lo cual la colocación del objeto debajo del microscopio de comparación físico conduce a la región correspondiente en el campo visual del microscopio de comparación para exhibirse automáticamente mediante el microscopio virtual. Los datos digitales que se exhibieron mediante el microscopio de comparación virtual pueden seguir el área dentro del campo visual del microscopio de comparación mientras que el experto manipula el objeto debajo del microscopio de comparación. Esto permite un análisis paralelo de los datos digitales y del objeto físico.
De acuerdo con un primer aspecto general, se proporciona un método implementado en computadora para analizar por lo menos un objeto debajo de un primer microscopio y de un segundo microscopio, el método comprende: recibir un primer conjunto de coordenadas de posición de por lo menos un objeto debajo del primer microscopio mientras que un conjunto de características en por lo menos un objeto sucesivamente se exhiben dentro de un campo visual del mismo, el primer microscopio tiene un primer sistema de coordenadas; recibir un segundo conjunto de coordenadas de posición de por lo menos un objeto debajo del segundo microscopio mientras que un conjunto de características en por lo menos un objeto se exhiben sucesivamente dentro de un campo visual del mismo, el segundo microscopio tiene un segundo sistema de coordenadas; computar una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas al usar el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición; y generar los datos de posición cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de orientación corresponden a un conjunto de operaciones que se aplicarán al otro del primer microscopio y del segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
El primer microscopio y el segundo microscopio pueden ser virtuales o físicos. Las operaciones se pueden realizar para dos objetos distintos, ambos se instalan en dos diferentes ejes de giro motorizados de un solo microscopio físico, y cuyos datos digitales se exhiben mediante un microscopio de comparación virtual que permite dos objetos digitales como entradas.
De acuerdo con un segundo aspecto general, se proporciona un sistema para analizar microscópicamente por lo menos un objeto, el sistema comprende: por lo menos un primer microscopio y un segundo microscopio, el primer microscopio tiene un primer sistema de coordenadas y el segundo microscopio tiene un segundo sistema de coordenadas; un sistema computarizado que comprende un procesador y una memoria; y un módulo de asociación de microscopio que se almacena en la memoria y ejecutable mediante el procesador, el módulo de asociación de microscopio tiene el código de programa que cuando se ejecuta, computa una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas, y genera los datos de orientación cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de orientación corresponden a un conjunto de operaciones que se aplicarán al otro del primer microscopio y el segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
De acuerdo con un tercer aspecto general, se proporciona una memoria legible mediante computadora que tiene registradas sobre la misma las indicaciones e instrucciones para la ejecución mediante una computadora para realizar un método a modo de analizar por lo menos un objeto debajo de un primer microscopio y de un segundo microscopio, el método comprende: recibir un primer conjunto de coordenadas de posición de por lo menos un objeto debajo del primer microscopio mientras que un conjunto de características en por lo menos un objeto se exhibe sucesivamente dentro de un campo visual del mismo, el primer microscopio tiene un primer sistema de coordenadas; recibir un segundo conjunto de coordenadas de posición de por lo menos un objeto debajo del segundo microscopio mientras un conjunto de características en por lo menos un objeto se exhibe sucesivamente dentro de un campo visual del mismo, el segundo microscopio tiene un segundo sistema de coordenadas; computar una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas al usar el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición; y generar los datos de orientación cuando uno se desplaza del primer microscopio y del segundo microscopio, los datos de orientación corresponden a un conjunto de operaciones que se aplicarán al otro del primer microscopio y del segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
El término "objeto" se refiere a cualquier objeto que comprende las marcas de la herramienta que se pueden utilizar como una pieza de balística de evidencia (BPOE, por sus siglas en inglés). Los ejemplos de un objeto comprenden una bala o una porción de una bala, una cartuchera, un cañón, un martillo, un destornillador, y similares.
Breve Descripción de los Dibujos
Las características y ventajas adicionales de la presente invención llegarán a ser evidentes a partir de la siguiente descripción detallada, tomada en combinación con los dibujos anexados, en los cuales:
La figura 1 es un diagrama de flujo que ilustra un método para asociar un microscopio virtual y un microscopio físico, de acuerdo con una modalidad;
La figura 2 es una ilustración ejemplar de la topografía 30 de un objeto;
La figura 3 es un diagrama de flujo que ilustra un método para asociar un primer microscopio con un segundo microscopio de un mismo tipo, de acuerdo con una modalidad;
La figura 4 ilustra un microscopio físico motorizado que tiene un sistema de coordenadas físico y un eje de giro motorizado en una orientación arbitraria con respecto al microscopio, y un objeto instalado en el eje de giro con una orientación arbitraria con respecto al eje de giro, de acuerdo con una modalidad;
La figura 5 es diagrama de bloque que ilustra un sistema 3D de adquisición y visión, de acuerdo con una modalidad;
La figura 6 es un diagrama de flujo que ilustra un método implementado en computadora para asociar un microscopio virtual y un microscopio físico, de acuerdo con una modalidad; y
La figura 7 es un diagrama de flujo que ilustra un método implementado en computadora para un objeto con un primer microscopio y un segundo microscopio, de acuerdo con una modalidad;
La figura 8 es un diagrama de bloque que ilustra un sistema completamente automatizado;
La figura 9 es un diagrama de bloque que ilustra un sistema híbrido manual/automatizado; y
La figura 10 es un diagrama de bloque que ilustra un sistema de doble modo.
Será observado que a través de los dibujos anexados, las características similares se identifican mediante números de referencia similares.
Descripción Detallada de la Invención
La comparación visual de las marcas de herramienta microscópicas presentes en dos objetos, cada uno debajo de un microscopio físico, se puede realizar al usar los métodos descritos en la presente. Cuando el número de líneas coincidentes en cualquier región única de interés no es suficiente para indicar que un par de objetos bajo análisis son coincidentes, por ejemplo, un par de balas disparadas desde una misma arma de fuego, estos objetos se pueden trasladar y girar juntos a otras regiones de interés para comparar los dos objetos y concluir en una coincidencia. Los grupos de líneas coincidentes sobre varias regiones de interés entonces se pueden utilizar para el análisis.
En algunas modalidades, una alternativa al análisis visual debajo de un microscopio físico consiste en la generación de una topografía 3D (y, posiblemente, de una imagen 2D) para el objeto y la visualización de la topografía 3D en un microscopio virtual. Diferentes regiones de interés del objeto se exploran y una imagen de la topografía 3D (y, posiblemente, una imagen 2D) se genera para cada región de interés. Similarmente a un microscopio físico, la imagen del objeto exhibido en el microscopio virtual se puede desplazar al usar los movimientos de traslación y giro para exhibir las regiones deseadas de interés. Al comparar dos objetos en dos microscopios virtuales, las imágenes de los objetos se trasladan y giran con respecto entre sí para encontrar las características coincidentes entre las dos imágenes.
Contrario a un microscopio físico, un microscopio virtual no sufre de la profundidad limitada del enfoque y de la carencia de correspondencia entre el eje simétrico (giro) del objeto, si lo hay, y el eje de giro del motor virtual que desplaza el objeto virtual. Además, los datos 3D y posiblemente los datos 2D que se usaron para construir el modelo representado en 3D, se pueden alterar para maximizar la facilidad de comparación para un examinador experto. Los ejemplos de alteraciones comprenden la mejora de los detalles microscópicos comparados de la forma completa del objeto, el mapeo de la textura microscópica del objeto sobre una superficie cilindrica perfecta y el uso de la geometría de iluminación y del comportamiento de reflectancia. Además, también se pueden utilizar cualquiera de las técnicas que se mencionaron en la Solicitud de Patente Norteamericana No. 13/080,761 (cuyo contenido se incorpora en la presente por referencia). Sin embargo, el microscopio virtual no implica la observación directa del objeto físico sino la observación de un objeto virtual representado a partir de los datos medidos 3D y posiblemente a partir de los datos medidos 2D.
Cuando el par de objetos se analiza al usar un microscopio físico y un microscopio virtual, los sistemas de coordenadas de los microscopios virtual y físico se asocian para tener el desplazamiento de la imagen de un objeto en el microscopio virtual que causa un desplazamiento del objeto en el microscopio físico, y viceversa.
En una modalidad, el usuario puede manipular paralelamente los microscopios virtual y convencional. Puede seleccionar un par de regiones coincidentes (una región del objeto A y una región del objeto B) según se observó en el microscopio virtual y ambos objetos físicos debajo de los microscopios físicos se seguirán automáticamente para obtener las regiones correspondientes en el campo visual de los microscopios físicos. Este proceso se puede repetir sobre varios pares de regiones coincidentes según se desee.
En algunos casos, los objetos pueden tener una sección transversal circular, es decir, una forma antigua, y un eje simétrico de cada objeto puede coincidir con un eje de giro cuando se coloca en un microscopio físico. En otros casos, el eje simétrico y el eje de giro para un objeto pueden no coincidir. Los métodos que se describieron en la presente se adaptan para tratar ambas situaciones.
La figura 1 es un diagrama de flujo que ilustra una modalidad de un método para asociar un microscopio físico y un microscopio virtual para el análisis de un objeto. El objeto tiene una forma macroscópica y presenta las características microscópicas, tales como marcas de herramienta microscópicas, en su superficie. Una primera etapa 102 comprende la adquisición de los datos topográficos 3D (x, y, z) de una superficie del objeto, para de tal modo obtener las características microscópicas y macroscópicas del objeto. La adquisición se puede realizar al
usar cualquier sensor conocido que se adapte para explorar el objeto y la profundidad adquirida y la información superficial, tal como perfilómetros láser, microscopios confocales, y otros.
Los datos topográficos 3D adquiridos entonces se exhiben en el microscopio virtual 104. La figura 2 es una modalidad ejemplar de los datos topográficos 3D adquiridos según se exhibió. El objeto completo se puede explorar, o parte del objeto se puede explorar, según se ilustró en la figura 2, lo cual da lugar a un solo anillo de una bala. En la imagen exhibida, un conjunto de características se selecciona de la topografía 3D y esta característica se coloca en la ventana de exhibición (o campo visual) del microscopio virtual 106. Aunque se seleccionan las nuevas características, el usuario puede tener que manipular los datos digitales, mediante la aplicación del giro, traslación o enfoque. La selección de una característica dada puede comprender la selección de un punto que tiene las coordenadas (x, y, z), o una región que incluye muchos puntos. Esta operación se puede realizar al presionar sobre la característica en la pantalla con un ratón, al tocar una pantalla táctil en la posición de la característica, o mediante otros métodos conocidos.
El objeto correspondiente también se coloca debajo de un microscopio físico tal que cada característica identificada en el microscopio virtual se exhiba sucesivamente en el campo visual del microscopio físico 108. Esta colocación se puede realizar manualmente para cada característica, al girar y trasladar la plataforma del microscopio físico, o se puede realizar al usar un eje motorizado y una interfaz de software. El enfoque se ajusta automática o manualmente para maximizar el contraste, y definir mejor la posición Z de la bala.
Una vez que ambos conjuntos de características se han seleccionado en el microscopio físico y en el microscopio virtual, una transformación entre los dos sistemas de coordenadas se computa 110. El microscopio físico tiene un sistema de coordenadas físicas y el microscopio virtual tiene un sistema de coordenadas virtuales. Esta operación se explicará más detalladamente a continuación.
La transformación computada del sistema de coordenadas virtual al sistema de coordenadas físico entonces se utiliza para asociar el microscopio virtual y el microscopio físico 112 tal que el movimiento del objeto debajo de uno de los dos microscopios cause el movimiento correspondiente del otro y/o genere los datos de orientación para orientar a un usuario para realizar manualmente los movimientos apropiados. Es decir, el movimiento del objeto debajo de uno de los dos microscopios causa que se genere una posición correspondiente para el otro microscopio, y/o el otro microscopio se mueve automáticamente a la posición correspondiente o las instrucciones específicas se dan a un usuario para que mueva el otro microscopio a la posición correspondiente.
La posición correspondiente para el microscopio físico se puede obtener al calcular el movimiento giratorio y/o de translación para aplicarse a los motores que controlan la plataforma del microscopio físico cuando se desplaza la imagen en el microscopio virtual. Similarmente, cuando los motores se desplazan para mover el objeto en el microscopio físico, se puede calcular el movimiento giratorio y/o de translación para aplicarse a la imagen del objeto en el microscopio virtual. Los movimientos aplicados entonces brindan una característica seleccionada en el campo visual de uno de los microscopios para comparar la característica en el campo visual del otro de los microscopios.
En una modalidad, el método se puede utilizar para asociar dos microscopios de un mismo tipo, es decir, dos microscopios virtuales o dos microscopios físicos. La asociación se puede realizar directamente (es decir, desde un microscopio al otro) o indirectamente (es decir, a través de uno o más microscopios de un diferente tipo). La figura 3a es un diagrama de flujo que ilustra un método para asociar directamente un primer microscopio y un segundo microscopio. Esto se realiza con objetos idénticos (o un objeto y su copia casi idéntica) debajo de ambos microscopios físicos o un mismo modelo 3D de un objeto debajo de ambos microscopios virtuales. Las técnicas que se usaron para producir una copia casi idéntica de un objeto, tales como aquellas que usan varios moldes y materiales tal como resina, se conocen por los expertos en la técnica. En una primera etapa, un primer objeto se coloca en el primer microscopio tal que un conjunto de
características dado se exhiba sucesivamente en el primer microscopio 302. Similarmente, el segundo objeto se coloca en el segundo microscopio tal que el mismo conjunto de características dado se exhiba sucesivamente en el segundo microscopio 304.
El primer microscopio tiene un primer sistema de coordenadas, mientras que el segundo microscopio tiene un segundo sistema de coordenadas. Una transformación entre el primer sistema de coordenadas y el segundo sistema de coordenadas se computa 306. Esta transformación se computa al usar el conjunto de posiciones del primer objeto en el primer microscopio y el conjunto de posiciones del segundo objeto en el segundo microscopio.
El primer sistema de coordenadas y el segundo sistema de coordenadas entonces se asocian 308 al usar la transformación tal que el movimiento del objeto en uno de los microscopios cause la generación de un conjunto de los movimientos (datos de orientación) necesarios para que el otro microscopio realice el seguimiento. Una vez que los dos microscopios se asocian de tal manera, diferentes objetos se pueden entonces observar en cada microscopio. Tener los dos microscopios bloqueados juntos entonces permite que un experto confirme una coincidencia entre dos diferentes objetos o dos modelos virtuales de diferentes objetos.
En otra modalidad, la asociación de dos microscopios se realiza indirectamente. Por ejemplo, al asociar conjuntamente una pluralidad (dos o más) de microscopios físicos, se adquiere una topografía 3D de la superficie de cada objeto. Los microscopios físicos se asocian a sus microscopios virtuales respectivos, y entonces los microscopios virtuales se asocian conjuntamente, para de tal modo conducir los microscopios físicos a que se asocien juntos.
Para dos microscopios virtuales, el primero y segundo sistemas de coordenadas son ambos sistemas de coordenadas virtuales dictados mediante la posición del objeto respectivo cuando se coloca en el eje de giro de un sistema de adquisición 3D. Para dos microscopios físicos, el primero y segundo sistemas de coordenadas son ambos sistemas de coordenadas físicos que son diferentes debido a la colocación de los objetos en un microscopio físico respectivo.
En una modalidad, solamente se asocian los subconjuntos de los objetos que se exhibieron en el microscopio de comparación virtual. Así, los objetos N se podrían exhibir en el microscopio de comparación virtual, entre los cuales los objetos M < N se asociarían al objeto físico correspondiente en el microscopio físico. Esto permite que el usuario analice el objeto físico al usar todos los modelos virtuales relevantes disponibles incluso cuando algunos de los objetos físicos correspondientes no estén disponibles. En algunos casos, existen más modelos virtuales disponibles para la comparación que los objetos físicos existentes.
Tres sistemas de coordenadas están implicados en la derivación de la transformación de coordenadas que asocia las coordenadas del objeto virtual (o imagen del objeto) en el microscopio virtual y las coordenadas del objeto físico en el sistema de coordenadas del microscopio físico, según lo que se describirá posteriormente. Una bala se utilizará como objeto ejemplar para los propósitos de ilustración. El primer sistema es el sistema de coordenadas intrínsecas de la bala física (B); el segundo es el sistema de coordenadas del microscopio físico (C ); el tercero es el sistema de coordenadas de la bala virtual (V). El sistema de coordenadas B de la bala física se utiliza para la derivación de la ecuación que asocia los otros dos sistemas de coordenadas. Los tres sistemas de coordenadas se ilustran en la figura 4.
El primer sistema de coordenadas es el sistema de coordenadas intrínsecas del objeto físico (sistema B). La topografía del objeto se describe mediante un conjunto fijo de puntos R = (XB, YB, ZB) en este sistema de coordenadas. Para el caso de una bala antigua, el eje X_B se define como presente a lo largo de su eje simétrico en la figura 4. Por definición, la coordenada XB, YB, ZB, de un punto dado de la bala física no cambia mientras la bala se mueve puesto que este sistema de coordenadas sigue la bala física.
El segundo sistema es el sistema de coordenadas del microscopio físico (sistema CM). Se define para que coincida con el eje X-Y de la cámara que adquiere una imagen del área debajo del microscopio. Por lo tanto, la posición X = 0, Y = 0 coincide con el píxel (0.0) de la imagen del área dentro del campo visual. El eje Z se define como el eje perpendicular a los ejes X e Y y a lo largo del eje óptico del microscopio. La posición Z = 0 se define durante la inicialización del sistema como la posición vertical de cualquier punto que esté en la distancia de trabajo del microscopio. Cualquier punto en esa posición produce un contraste óptimo. La figura 4 muestra ambos sistemas de coordenadas (B y CM).
En la inicialización, el objeto se coloca en el eje de giro motorizado. No existe garantía que el objeto se coloque tal que su eje simétrico (que asume un objeto simétrico) esté perfectamente a lo largo de la dirección del eje de motor. La figura 4 ilustra esta situación. Además, el objeto se pudo haber girado o haber trasladado de cualquier manera posible antes de colocarse en el eje motorizado. Por lo tanto, un giro a un ángulo beta alrededor de un eje arbitrario, que se caracteriza mediante una dirección n y/o una traslación S, se aplica a las coordenadas de objeto R para convertir la posición de un punto dado del sistema de coordenadas del objeto físico al sistema de coordenadas físico del microscopio R':
R' = M[beta,n]R + S, donde M es una matriz de giro que describe un giro a un ángulo beta alrededor de una dirección n, y S es un vector 3D que describe la traslación. Los parámetros de esta ecuación se fijan puesto que se asume que el objeto nunca se mueve con respecto al eje de motor de giro una vez que se coloca allí, el objeto se ha instalado o fijado firmemente de cierta manera.
Un giro a una cierto ángulo alfa se puede entonces aplicar alrededor del eje de giro del microscopio físico. El eje de giro se caracteriza por una dirección normalizada fija d y un punto de cruce A en el eje, ambos se desconocen en este punto. La operación de giro se puede representar mediante una operación de matriz que es una función del ángulo alfa, dirección d, y del vector 3D A. Las coordenadas de un punto R' en el objeto, en el sistema CM, entonces se transforman en R", como resultado del giro:
R" = M[alfa,d]{R'-A) + A. Existe una cierta redundancia en la posición del vector A. Este punto se puede reemplazar por cualquier otro punto en el eje de giro. Por lo tanto, A se puede reemplazar por A + lambda*d , donde lambda es cualquier número real, sin el cambio del vector computado R". Este grado de libertad se considerará en un procedimiento de minimización de función que se describirá posteriormente.
Una traslación T también se puede aplicar al eje de giro o al microscopio, y a lo largo de cualquiera de los tres ejes de coordenadas posibles (en el sistema de coordenadas CM). Cualquier movimiento no tiene ninguna importancia, mientras el movimiento relativo del objeto/componentes del microscopio se
permita a lo largo de los tres ejes. La figura 4 muestra el caso donde el eje de giro se puede trasladar a lo largo de X e Y, mientras que el microscopio se puede trasladar verticalmente, a lo largo de Z. Por lo tanto:
f?'" = R"+T y, al combinar las ecuaciones anteriores,
R'" = M[alfa,d](M[beta,n]R + S-A)+A + T. El signo apropiado ± se debe aplicar en cada uno de los componentes X, Y, Z de la traslación T de acuerdo con la fuente del movimiento, el eje motorizado que soporta la bala o el microscopio.
Se asume que la coordenada R'" = (?"', ?'", Z'") de cualquier punto del objeto en el sistema de coordenadas del microscopio físico se puede seleccionar a partir de los datos en el campo visual del microscopio físico. Por ejemplo, al presionar en una imagen en movimiento de los datos en el campo visual, se pueden definir las coordenadas X'" e Y'". Además, al realizar una búsqueda para el mejor enfoque en ese punto de pixel, se puede definir una coordenada Z"'. En la ecuación anterior, los parámetros conocidos son el vector de traslación 7", el ángulo de giro alfa y la posición seleccionada de vector R'"; los parámetros desconocidos son la dirección d y el vector de origen de eje A, pero también la colocación inicial del objeto en el eje de motor de giro, que se define mediante un ángulo beta, una dirección n y un vector de traslación S.
El tercer sistema de coordenadas es el sistema de coordenadas del objeto virtual. La representación digitalizada del objeto, que se usa en el microscopio virtual, se almacena como un conjunto de puntos 3D P que se fijan en el sistema de coordenadas virtual. Se asume que el objeto que se usa en el microscopio virtual corresponde al objeto en el microscopio físico.
Se asume adicionalmente que las coordenadas de cualquier punto P del objeto virtual se pueden seleccionar por un usuario, por ejemplo, al presionar en ese punto en la pantalla del microscopio virtual. La dirección perpendicular N, es decir, la dirección que es localmente perpendicular a P, está también disponible. Si no, se puede computar con los métodos conocidos con base en la topografía digitalizada en una cercanía de P. Se asume que los puntos normales a lo largo de la dirección exterior, es decir, fuera del objeto, y no hacia el interior de la superficie.
No existe garantía que un punto dado del objeto digitalizado, con la coordenada P en el sistema de coordenadas virtual (V), tenga las mismas coordenadas que el punto correspondiente R en el objeto real en su propio sistema de coordenadas (B). Sin embargo, debe haber una cierta transformación lineal entre ellas. Se asume que no hay cambio de escala implicado. La transformación asumida entonces es una combinación de un giro a un ángulo gamma alrededor de un eje con la dirección m y una traslación Q. Los parámetros m, gamma y Q en esta transformación son desconocidos, pero son fijos, incluso si los objetos digitalizados y reales se mueven en los microscopios de comparación virtual y físico, respectivamente. Se conoce el punto P puesto que se ha seleccionado por el usuario en el microscopio virtual. La relación entre R y P es entonces:
R = M [gamma, m]P+Q, donde M es una matriz de giro que describe un giro a un ángulo gamma alrededor de una dirección m, y Q es un vector 3D que describe la traslación.
Una relación entre dos vectores conocidos, P y R'", se genera al sustituir la última ecuación anterior en la ecuación anterior:
R'" = M[alfa,d](M[beta,n){M[gamma,m]P+Q) + S-A) + A+T
En este punto, el usuario selecciona los puntos N con las coordenadas P en el microscopio virtual, que corresponden a los puntos N con las coordenadas R'" = (?"', ?'", Z"') en el sistema de coordenadas del microscopio físico. Los coordenadas X"' e Y'" (en unidades físicas, como micrones o milímetros) se computan desde la posición de píxel conocida del punto a partir de la imagen adquirida por la cámara. Se asume que la bala y/o el microscopio se han trasladado a lo largo de la dirección Z para llevar el enfoque óptimo a ese punto. Así, el componente Z'" del punto es 0 por definición. Los siguientes escalares y vectores aún son constantes: gamma, m, Q, beta, n, S y D. El siguiente cambio de los parámetros entre los puntos seleccionados: alfa, el ángulo de giro del objeto real alrededor del eje motorizado del microscopio físico, y la traslación T del eje. Sin embargo, están disponibles a partir de la aplicación de software que controla el eje motorizado del microscopio físico o de los codificadores de un microscopio no motorizado. Para cada uno de estos pares de puntos, se debe cumplir la siguiente ecuación del vector:
R"' = M[alfa_i,d](M[beta,n](M[gamma,m]P_i+Q) + S-A)+A + T_i, donde el índice integro / oscila de 1 a N, N es el número de los pares definidos de puntos.
Puesto que el producto de las matrices M(beta,n) y M(gamma,m) es desconocido pero fijo, y puesto que, similarmente, el vector que resulta de la operación M(beta,n)Q + S es desconocido pero fijo, y puesto que, además, estas matrices y vectores no aparecen en otras combinaciones, se puede reemplazar por una nueva matriz de giro M{delta,g) y el vector U, respectivamente, desconocidos y fijos:
R'"J = M[alfa_i,d](M[delta,g]P_i+U-A)+A + T_i.
Después de una manipulación algebraica, esta ecuación se convierte en:
M[alfa_i,d](M[delta,g]P_i + U-A)+A + T_i-R'"_i = 0.
En la práctica, la ecuación anterior nunca se cumplió perfectamente. Sin embargo, los parámetros desconocidos (ángulo delta, dirección g, vector U, dirección d, vector A) se pueden encontrar al minimizar una función no negativa que desaparece siempre y cuando la ecuación vectorial anterior se cumpla simultáneamente para todos los puntos seleccionados N, y que es una función de aumento de la norma del lado izquierdo de esta ecuación vectorial, para todos los puntos seleccionados N.
Se puede elegir cualquier función que cumpla esta condición. Tal función simple es la sgma de la norma cuadrada de la ecuación vectorial anterior sobre todos los puntos N:
TJ-R"' \2
donde i es un índice que opera sobre los puntos y j opera sobre las tres coordenadas, x, y, z.
La ecuación anterior se puede generalizar en el caso donde el error de medición cambia de acuerdo con los tres ejes x-y-z, al agregar un peso que caracterice los errores de medición a lo largo de cada eje:
wj \M[alfa_i, d\{M[delta, g]P_i + U-A)+A + T_i- R"'_i\2
En el método propuesto, las coordenadas X e Y de R"\ por una parte, y su coordenada Z, por otra parte, se encuentran mediante operaciones distintas: seleccionar un píxel en la pantalla para X e Y, y buscar el enfoque optimizado para Z. Se espera que los errores de medición sean diferentes para ambas técnicas. Esto se trata con el uso del peso apropiado en la ecuación anterior.
Según se discutió previamente, el vector A se puede reemplazar por cualquier otro punto en el eje de giro con la dirección d, es decir, por A + lambda d, donde lambda es cualquier número real. El procedimiento de minimización original es, por lo tanto, equivalente a la minimización de:
| [a//a_?, d](M[deíta,^]P_i + U - A - ??) + A + ?? + T_i - R'"_i\2
donde lambda es un parámetro libre que no tiene impacto sobre el valor de F. Este grado de libertad puede generar el comportamiento mal definido del procedimiento de minimización puesto que los parámetros que se buscarán no todos son independientes. La solución es adoptar un valor conveniente para lambda. Dos opciones simples están disponibles: i) lambda se puede elegir para que U-A + lambda*d sea perpendiculares a d, o ii) lambda se puede elegir para que A + lambda*d sea perpendicular a d. La función final para la minimización se puede entonces escribir en la forma:
\M[alfa_i, d](M[delta, g]P_i + V) + C + T_i - R"'J\ 2
donde V y C son dos vectores, y donde V o C se limitan a ser perpendiculares a d (V tiene el límite con la opción i); C lo tiene con la opción ii). Por lo tanto, se asume que la siguiente ecuación es casi cumplida:
M[alfa_i, d](M[delta,g]P_i+V) + C + T_i=R'"_i.
En el siguiente ejemplo, se adoptó la segunda opción, pero ambas son igualmente válidas. El número de parámetros independientes que se encontrarán mediante el procedimiento de minimización, por lo tanto, es 10, es decir, 1 {ángulo delta) + 2 (dirección g, unidad-norma) + 2 (vector C con un límite) + 2 (dirección d, unidad-norma) + 3 (vector V).
Tales problemas de minimización no lineales se pueden solucionar mediante técnicas iterativas similar a la técnica de Levenberg-Marquardt, los métodos de descenso más rápido, el temple simulado, los algoritmos genéticos o la búsqueda por fuerza bruta dentro del espacio del parámetro, o cualquier otro método conocido. Puesto que puede haber varios mínimos locales, el mínimo global se pudo encontrar solamente al usar algunas de las técnicas iterativas con una lista de varios puntos iniciales. Los límites en g, d y V se pueden también tratar al usar diferentes técnicas. Las direcciones g y d se pueden definir con 3 coordenadas cartesianas, en este caso dos multiplicadores de Lagrange se agregan a la función que se minimizará para forzar la norma de estos vectores a la unidad. Estos dos vectores se pueden también describir mediante un vector de la norma de unidad en las coordenadas radiales con un par de ángulos de elevación y acimut (theta, phi). Ambas estrategias son válidas. Similarmente, el vector C se puede definir con tres coordenadas cartesianas, en este caso un multiplicador de Lagrange se agrega a la función que se minimizará para hacer C perpendicular a d. El vector C se puede también describir mediante solamente dos parámetros independientes que sean los pesos en una combinación lineal perpendicular de dos vectores de unidad-norma perpendiculares entre sí y perpendiculares a D.
Una vez que los parámetros se conocen con exactitud razonable a partir del procedimiento de ajuste, se asocian los dos microscopios.
El usuario puede entonces seleccionar un punto P (y su dirección perpendicular asociada local de unidad-norma dirigida exteriormente N) en el microscopio virtual y computar los vectores Q1 = {M[delta,g]P+V) y Q2 = M[delta,g]N. El giro alfa y la traslación 7 que se requieren para llevar el punto correspondiente del objeto verdadero en el campo visual (por ejemplo, en el centro del campo visual), deben cumplir los componentes X e Y de la siguiente ecuación vectorial: R'" = M[alfa, d]Q1 +C+T, donde las coordenadas X e Y son la posición del píxel central de la pantalla (que se convierten en unidades físicas, micrones o milímetros).
Éste es un conjunto de dos ecuaciones en tres parámetros desconocidos (giro alfa y los componentes X-Y del vector de traslación T). La limitación adicional se da al forzar el giro para llevar la dirección perpendicular local N'" de la topografía a lo largo del eje vertical del microscopio, es decir, el eje Z, tanto cuanto sea posible. Esta configuración geométrica optimiza el análisis visual. Así, se minimiza el ángulo entre el eje Z y la dirección perpendicular local. Equivalentemente, se maximizan el producto de punto del vector Z (0,0,1) y la unidad-norma N'" = M[alfa,d]Q2. Las técnicas conocidas se pueden utilizar para encontrar el ángulo óptimo alfa de esta condición. El valor de ángulo entonces se sustituye en la ecuación por R'" para solucionar los componentes T X-Y.
El componente Z de la traslación se puede entonces
encontrar de dos maneras posibles, de lo contrario se realiza manualmente: 1) ajustar automáticamente para maximizar el contraste; 2) sustituir el valor de ángulo alfa computado previamente y el componente actual Z de la posición de la bala/microscopio en la ecuación R'"; la traslación Z que se aplicará entonces se encuentra a partir de la distancia de trabajo conocida del microscopio.
El usuario puede también girar y trasladar el objeto físico, a una ángulo alfa y a un vector T, respectivamente, y seleccionar un punto R'" = (X"\ Y"\ Z'"). Las coordenadas X'" e Y'" del punto se encuentran a partir de la imagen en movimiento del área actualmente en el campo visual del microscopio de comparación físico y se exhiben en la pantalla. Se asume que una traslación T se ha aplicado a lo largo de la dirección Z para llevar el punto a la mejor posición de enfoque. La coordenada Z"\ por lo tanto, se define como 0. El punto correspondiente P* en la representación virtual de la bala entonces se encuentra en función de R"' como sigue, mediante la inversión de la ecuación que encuentra R'" a partir de un punto conocido P: P* = M[-delta, g](M[-alfa, d](R"'-C-T)-V). El valor computado P* en general será diferente que cualquiera de los puntos P que definen el modelo virtual. El punto P adoptado debe ser el punto, dentro de la lista, que esté más cercano a P*, según se medió, por ejemplo, mediante la distancia euclidiana. El objeto virtual se puede entonces girar y/o trasladar para llevar ese punto (P) a una cierta posición predefinida sobre la pantalla del microscopio virtual, por ejemplo, en el centro de la pantalla y con una orientación predefinida para su orientación perpendicular local.
Un factor único de enfoque se asume en la derivación anterior del método. Sin embargo, este último se puede generalizar para un sistema que ofrezca varias posiciones predeterminadas de enfoque. Una relación lineal entre las coordenadas de píxel en los dos diferentes enfoques se puede determinar en la inicialización:
x(Enfoque 1)-xCentro = K[x(Enfoque 2)-xCentro]
y(Enfoque 1)-yCentro = K[y(Enfoque 2)-yCentro]
donde x(Enfoque 1) e y(Enfoque 2) son el componente x de las coordenadas de píxel de un punto en un objeto que se ubica debajo del microscopio al enfoque 1 y enfoque 2 respectivamente, y xCentro es la coordenada de píxel en el centro de la pantalla. El término K es la relación entre los factores de enfoque. Se asume que el sistema se ha calibrado correctamente de modo que un punto en un objeto exhibido en el centro de la pantalla permanece en el centro si se cambia el enfoque. Existe también una relación lineal para la mejor posición de enfoque:
z(Enfoque 1) = [z(Enfoque 2)-?]
donde ? es la diferencia entre la distancia de trabajo en las dos posiciones de enfoque.
La figura 5 ilustra una modalidad ejemplar para un sistema de adquisición de imagen 3D que tiene una aplicación para
asociar conjuntamente los microscopios. Un sistema computarizado 502 comprende una aplicación 508 que opera en un procesador 506, el procesador se acopla a una memoria 504. Un sensor 514 y una pantalla 510 se conectan con el sistema computarizado 502.
La memoria 504 accesible mediante el procesador 506 recibe y almacena los datos, tales como imágenes adquiridas, las topografías (x, y, z), las coordenadas 3D, y cualquier otra información que se usa mediante el sistema de adquisición de imagen 3D. La memoria 504 puede ser una memoria principal, tal como una memoria de acceso aleatorio (RAM, por sus siglas en inglés) de alta velocidad, o auxiliar, tal como un disco duro, disco flexible, o unidad de cinta magnética. La memoria puede ser de cualquier otro tipo de memoria, tal como una memoria de solo lectura (ROM, por sus siglas en inglés), o medios de almacenamiento óptico tales como un videodisco y un disco compacto.
El procesador 506 puede tener acceso a la memoria 504 para recuperar los datos. El procesador 506 puede ser cualquier dispositivo que pueda realizar las operaciones sobre los datos. Los ejemplos son una unidad de procesamiento central (CPU, por sus siglas en inglés), un procesador frontal, un microprocesador, una unidad de procesamiento de gráficos (GPU/VPU), una unidad de procesamiento física (PPU, por sus siglas en inglés), un procesador de señal digital, y un procesador de red. La aplicación 508 se acopla al procesador 506 y se configura para realizar varias tareas según lo que se explicará detalladamente más adelante. Una señal de salida se puede transmitir a un dispositivo de exhibición 510.
En una modalidad, el sistema computarizado 502 se integra directamente en el sensor 514 mientras que en otra modalidad, el sistema computarizado 502 es externo al sensor 514. El sensor 514 puede comunicarse con el sistema computarizado 502 de una manera alámbrica o inalámbrica.
En una modalidad, la aplicación 508 comprende una aplicación de microscopio 512 que se comunica con una aplicación de asociación 513. Por ejemplo, la aplicación de microscopio 512 puede ser responsable de controlar los motores del microscopio físico. Una vez que la aplicación de asociación 513 computa los desplazamientos de translación y giro para los motores, se envían a la aplicación de microscopio 512. La aplicación 508, o las indicaciones e instrucciones para la ejecución mediante el procesador 506, se pueden incorporar en cualquier tipo de medio legible por computadora, si se integra dentro del sistema computarizado 502 o de manera externa al mismo.
En una modalidad, el lanzamiento de la aplicación de asociación 513 hará que el sistema computarizado 502 pida a un usuario, a través de una interfaz de usuario tal como una pantalla 510, que ingrese ciertos parámetros, para colocar los objetos bajo análisis, y/o que seleccione las características de interés en una pantalla o monitor 510.
Una vez que las acciones se han realizado por el usuario, el sistema computarizado 502 entonces calculará automáticamente la transformación para asociar conjuntamente los dos microscopios y para aplicar la transformación según sea necesario.
En una modalidad, una pluralidad de microscopios físicos se puede utilizar con un solo microscopio virtual que tiene múltiples visualizadores para exhibir las imágenes correspondientes de los objetos bajo la observación en los microscopios físicos. Alternativamente, cada microscopio físico puede operar con su propio microscopio virtual. Además, se pueden utilizar los microscopios de doble plataforma (los microscopios capaces de sujetar dos objetos al mismo tiempo), lo cual conduce a una relación del microscopio virtual N o visualizadores a los microscopios físicos N/2.
Las diferencias en los sistemas de coordenadas, si están entre un microscopio virtual y un microscopio físico, dos microscopios virtuales, o dos microscopios físicos, pueden ser debido a una variedad de factores. Un factor posible es la colocación del objeto en el eje de giro de un sistema de adquisición 3D. Otro factor es la orientación del eje de giro del sistema de adquisición 3D. Aún otro factor es la colocación del objeto en el eje de giro del microscopio físico, y finalmente, la orientación del eje de giro del microscopio físico.
La figura 6 es un diagrama de flujo que ilustra un método implementado en computadora, según se realizó mediante el sistema computarizado 502, para asociar un microscopio físico y un microscopio virtual para el análisis de un objeto. Los datos topográficos 3D se reciben 602 y se pueden almacenar en la memoria 504 o utilizar inmediatamente mediante la aplicación 508. Los datos topográficos 3D se exhiben 604 en un dispositivo de exhibición 510.
Un primer conjunto de coordenadas representativas de las características seleccionadas de los datos topográficos 3D con respecto al microscopio virtual se recibe 606 mediante el sistema computarizado 502. Un segundo conjunto de coordenadas representativas de las posiciones del microscopio físico cuando el objeto se coloca para exhibir las características seleccionadas en el microscopio físico también se recibe 608 mediante el sistema computarizado 502. El primero y segundo conjuntos de coordenadas se pueden también almacenar en la memoria 504.
Con base en los conjuntos de coordenadas, una transformación se computa 610 para asociar el sistema de coordenadas virtual y el sistema de coordenadas físico. El sistema de coordenadas virtual y el sistema de coordenadas físico entonces se asocian al usar la transformación 612, tal que el movimiento del objeto debajo de uno de los dos sistemas causa el movimiento correspondiente en el otro sistema. Según se indicó anteriormente, en una modalidad, el movimiento actual del segundo microscopio no se automatiza. Los datos de orientación se generan y proporcionan a un usuario para permitir el movimiento manual del segundo microscopio.
La figura 7 es un diagrama de flujo que ilustra un método implementado en computadora según se realizó mediante el sistema computarizado 502, para el análisis de un par de objetos concurrentemente debajo de un primer microscopio y de un segundo microscopio, el par de objetos que tienen las características comunes y los microscopios que se han asociado, de acuerdo con el método descrito con referencia a la figura 3. El sistema computarizado 502 recibe un primer conjunto de coordenadas 702 para el primer objeto colocado en el primer microscopio. El sistema computarizado 502 también recibe un segundo conjunto de las coordenadas 704 cuando el primer objeto se mueve a una segunda posición en el primer microscopio.
La aplicación 508 determina qué movimientos (giros y/o traslados) se necesitan en el segundo sistema de coordenadas para colocar el segundo objeto en la segunda posición 706. La aplicación 508 puede entonces generar los datos de orientación 708 que cuando se aplican al segundo microscopio causan el movimiento del segundo microscopio que corresponde al movimiento del primer microscopio. En una modalidad, los datos de orientación se utilizan para mover automáticamente el segundo microscopio. En otra modalidad, los datos de orientación se proporcionan al usuario y el usuario sigue las instrucciones del giro y/o traslación para mover el segundo microscopio.
La figura 8 es un diagrama de bloque que ilustra el sistema que corresponde a un microscopio de comparación completamente automatizado. El usuario selecciona los puntos en el objeto físico en el campo visual del microscopio de comparación 802 al usar la aplicación de software del microscopio de comparación 808 (con una cierta forma del dispositivo de entrada, similar a un ratón, teclado y/o palanca de mando) y selecciona los puntos coincidentes en la imagen virtual 810, también al usar la aplicación de software del microscopio 808. La imagen virtual y el microscopio físico 802 entonces se asocian al usar el método descrito anteriormente. Cuando el usuario mueve el objeto en el microscopio de comparación al usar la aplicación de software del microscopio de comparación 808, la imagen virtual 810 se mueve automáticamente. Cuando el usuario mueve la imagen virtual 810, el objeto en el microscopio de comparación físico 802 se mueve automáticamente a la posición correspondiente. Un microcontrolador 806 es la interfaz entre el microscopio de comparación físico 802 y la aplicación de software del microscopio de comparación 808. Este componente puede traducir las acciones del software en el movimiento físico y viceversa. Un conjunto de motores 804 se utiliza para realizar el desplazamiento del objeto en el microscopio de comparación 802.
La figura 9 ilustra el sistema que corresponde a un microscopio de comparación no automatizado, también llamado un sistema híbrido manual/automatizado. El usuario selecciona manualmente los puntos en el objeto en el microscopio de comparación físico 802 y los puntos coincidentes en la imagen virtual 810 al usar la aplicación del microscopio de comparación 808. La imagen virtual 810 y el microscopio físico 802 entonces se asocian al usar el método descrito anteriormente. Cuando el usuario mueve manualmente el objeto en el microscopio de comparación 802, la imagen virtual 810 se mueve automáticamente. Cuando el usuario mueve la imagen virtual 810, la aplicación del microscopio de comparación 808 determina cual movimiento correspondiente necesita aplicarse al microscopio de comparación 802 e indica al usuario qué ejes necesita operar, en cual dirección y a qué cantidad, al usar los indicadores. El controlador del microscopio de comparación 806 entonces supervisa continuamente los datos de los codificadores 902 y notifica al usuario sobre el estado de cada eje.
Cuando el usuario mueve el objeto en el microscopio de comparación 802, la posición de cada eje del objeto/microscopio de comparación se reporta a la aplicación del microscopio de comparación 808 a través del controlador 806. Esto permite que la aplicación del microscopio de comparación 808 se sincronice manualmente con el microscopio de comparación físico 802. Puesto que la mayoría de los expertos en armas de fuego utilizan actualmente los microscopios de comparación no motorizados, la sincronización de los modelos físicos y virtuales puede ser más fácil de realizar en el modo manual.
La figura 10 ilustra un sistema de doble modo que permite ambos panoramas anteriores. Esta combinación incluye los codificadores 902 y los motores 804 y permite que el usuario cambie a voluntad entre el modo híbrido manual/automatizado y el modo completamente automatizado.
Se debe entender que los métodos implementados en computadora se pueden realizar al usar las instrucciones e indicaciones en una sola aplicación o en una combinación de dos o más aplicaciones conectadas al procesador 506. Aunque se ilustran en un diagrama de bloque de las figuras 5 y 8-10 como grupos de componentes discretos que se comunican entre sí a través de distintas conexiones de señal de datos, será entendido por los expertos en la técnica que las modalidades se proporcionan mediante una combinación de componentes de hardware y software, con algunos componentes que se implementan mediante una función u operación dada de un sistema de hardware o software, y muchas de las trayectorias de datos ilustradas se implementan mediante la comunicación de datos dentro de una aplicación computarizada o un sistema operativo. La estructura ilustrada, por lo tanto, se proporciona para la eficacia de enseñar las presentes modalidades.
Las modalidades de la invención descritas anteriormente se piensan para ser ejemplares solamente. El alcance de la invención, por lo tanto, se piensa para limitarse solamente al alcance de las reivindicaciones anexadas.
Claims (19)
1. Un método implementado en computadora para analizar por lo menos un objeto debajo de un primer microscopio y de un segundo microscopio, que comprende: recibir un primer conjunto de coordenadas de posición de por lo menos un objeto debajo del primer microscopio mientras que un conjunto de características en por lo menos un objeto se exhibe sucesivamente dentro de un campo visual del mismo, el primer microscopio tiene un primer sistema de coordenadas; recibir un segundo conjunto de coordenadas de posición de por lo menos un objeto debajo del segundo microscopio mientras que un conjunto de características en por lo menos un objeto se exhibe sucesivamente dentro de un campo visual del mismo, el segundo microscopio tiene un segundo sistema de coordenadas; computar una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas al usar el primer sistema de coordenadas de posición y el segundo sistema de coordenadas de posición; y generar los datos de orientación cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de orientación corresponden a un conjunto de operaciones que se aplicarán al otro del primer microscopio y del segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
2. El método implementado en computadora de la reivindicación 1, donde el primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual, y donde la recepción de un segundo conjunto de coordenadas de posición de por lo menos un objeto debajo del segundo microscopio comprende la recepción de un conjunto de coordenadas para un conjunto de características en una imagen de por lo menos un objeto en el microscopio virtual.
3. El método implementado en computadora de la reivindicación 2, que adicionalmente comprende: adquirir los datos topográficos 3D representativos de una topografía superficial 3D del objeto; generar la imagen de por lo menos un objeto a partir de los datos topográficos 3D; y exhibir la imagen en el microscopio virtual.
4. El método implementado en computadora de las reivindicaciones 2 o 3, que adicionalmente comprende aplicar los datos de orientación a por lo menos uno del microscopio físico y del microscopio virtual de una manera automatizada.
5. El método implementado en computadora de cualquiera de las reivindicaciones 2 a 4, que adicionalmente comprende proporcionar los datos de orientación a un usuario en un formato que permita que se aplique manualmente.
6. El método implementado en computadora de la reivindicación 5, donde el formato comprende una de las etapas de traslación/giro para los microscopios físicos, la información gráfica, y los indicadores físicos.
7. El método implementado en computadora de la reivindicación 1, donde el primer microscopio y el segundo microscopio son ambos microscopios físicos.
8. El método implementado en computadora de la reivindicación 7, donde el computo de una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas comprende asociar indirectamente el primer sistema de coordenadas y el segundo sistema de coordenadas con un par de microscopios virtuales que en sí se asocian conjuntamente.
9. El método implementado en computadora de las reivindicaciones 7 o 8, donde por lo menos un objeto debajo del primer microscopio es un objeto físico y por lo menos un objeto debajo del segundo microscopio es una reproducción sustancialmente idéntica del objeto físico.
10. El método implementado en computadora de la reivindicación 1, donde el primer microscopio y el segundo microscopio son ambos microscopios virtuales, donde la recepción de un primer sistema de coordenadas de posición de por lo menos un objeto debajo del primer microscopio comprende la recepción de un primer conjunto de coordenadas para un conjunto de características en una imagen de por lo menos un objeto en el primer microscopio, y donde la recepción de un segundo conjunto de coordenadas de posición de por lo menos un objeto debajo del segundo microscopio comprende la recepción de un segundo conjunto de coordenadas para el conjunto de características en una imagen de por lo menos un objeto en el segundo microscopio.
11. Un sistema para analizar por lo menos un objeto microscópico, que comprende: por lo menos un primer microscopio y un segundo microscopio, el primer microscopio tiene un primer sistema de coordenadas y el segundo microscopio tiene un segundo sistema de coordenadas; un sistema computarizado que comprende un procesador y una memoria; y un módulo de asociación de microscopio almacenado en la memoria y ejecutable mediante el procesador, el módulo de asociación de microscopio tiene el código de programa que cuando se ejecuta, computa una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas, y genera los datos de orientación cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de orientación que corresponden a un sistema de operaciones que se aplicará al otro del primer microscopio y del segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
12. El sistema de la reivindicación 11, donde el primer microscopio es un microscopio físico y el segundo microscopio es un microscopio virtual.
13. El sistema de la reivindicación 12, que adicionalmente comprende un módulo de datos almacenado en la memoria y ejecutable mediante el procesador, el módulo de datos tiene el código de programa que cuando se ejecuta, adquiere los datos topográficos 3D representativos de una topografía superficial 3D de por lo menos un objeto, genera una imagen a partir de los datos topográficos 3D, y exhibe la imagen en el microscopio virtual .
14. El sistema de las reivindicaciones 12 o 13, que adicionalmente comprende un módulo de control almacenado en la memoria y ejecutable mediante el procesador, el módulo de control tiene el código de programa que cuando se ejecuta, aplica de una manera automatizada los datos de orientación a por lo menos uno del microscopio físico y del microscopio virtual.
15. El sistema de cualquiera de las reivindicaciones 12 a 14, que adicionalmente comprende un módulo de control almacenado en la memoria y ejecutable mediante el procesador, el módulo de control tiene el código de programa que cuando se ejecuta, proporciona los datos de orientación a un usuario en un formato que permite que se apliquen manualmente.
16. El sistema de la reivindicación 11, donde el primer microscopio y el segundo microscopio son ambos microscopios físicos.
17. El sistema de la reivindicación 16, donde el código de programa en el módulo de asociación de microscopio se adapta para computar la transformación para asociar indirectamente el primer sistema de coordenadas y el segundo sistema de coordenadas con un par de microscopios virtuales que en sí se asocian conjuntamente.
18. El sistema de la reivindicación 11, donde el primer microscopio y el segundo microscopio ambos son microscopios virtuales.
19. Una memoria legible por computadora que registra en la misma las indicaciones e instrucciones para la ejecución mediante una computadora para realizar un método para analizar por lo menos un objeto debajo de un primer microscopio y de un segundo microscopio; que comprende: recibir un primer conjunto de coordenadas de posición de por lo menos un objeto debajo del primer microscopio mientras un conjunto de características en por lo menos un objeto se exhibe sucesivamente dentro de un campo visual del mismo, el primer microscopio tiene un primer sistema de coordenadas; recibir un segundo conjunto de coordenadas de posición de por lo menos un objeto debajo del segundo microscopio mientras un conjunto de características en por lo menos un objeto se exhibe sucesivamente dentro de un campo visual del mismo, el segundo microscopio tiene un segundo sistema de coordenadas; computar una transformación para asociar el primer sistema de coordenadas y el segundo sistema de coordenadas al usar el primer conjunto de coordenadas de posición y el segundo conjunto de coordenadas de posición; y generar los datos de orientación cuando se desplaza uno del primer microscopio y del segundo microscopio, los datos de orientación corresponden a un conjunto de operaciones que se aplicará al otro del primer microscopio y del segundo microscopio para seguir el movimiento de uno del primer microscopio y del segundo microscopio.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US33060410P | 2010-05-03 | 2010-05-03 | |
CA2011100521 | 2011-05-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2012012727A true MX2012012727A (es) | 2012-11-21 |
Family
ID=47891133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2012012727A MX2012012727A (es) | 2010-05-03 | 2011-05-02 | Asociacion de microscopios para el analisis de objetos que comprenden marcas de herramienta. |
Country Status (1)
Country | Link |
---|---|
MX (1) | MX2012012727A (es) |
-
2011
- 2011-05-02 MX MX2012012727A patent/MX2012012727A/es active IP Right Grant
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8577499B2 (en) | Method and a device for optimizing a programmed movement path for an industrial robot | |
CN108274092A (zh) | 基于三维视觉与模型匹配的坡口自动切割系统及切割方法 | |
EP2026279A1 (en) | Method and system for aligning three-dimensional surfaces | |
JP5710965B2 (ja) | 加工対象物の測定および加工対象物の加工のための方法および装置 | |
CA2834905C (en) | Linking of microscopes for analysis of objects comprising tool marks | |
JP2010534013A (ja) | リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム | |
CN106104198A (zh) | 信息处理设备、信息处理方法和程序 | |
CN112907683B (zh) | 一种点胶平台的相机标定方法、装置及相关设备 | |
CN111915685A (zh) | 一种变焦摄像机标定方法 | |
CN116518868B (zh) | 基于人工智能的变形测量方法、装置、设备及存储介质 | |
CN117340879A (zh) | 一种基于图优化模型的工业机器人参数辨识方法和系统 | |
MX2012012727A (es) | Asociacion de microscopios para el analisis de objetos que comprenden marcas de herramienta. | |
CN110849389A (zh) | 一种基于空间球的两个三维点云采集系统外参数标定方法 | |
CN109059761A (zh) | 一种基于eiv模型的手持靶标测头标定方法 | |
WO2023004560A1 (en) | Systems and methods for electron cryotomography reconstruction | |
JP2018132847A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN110866951A (zh) | 一种单目摄像机光轴倾斜的校正方法 | |
AU2011238382B2 (en) | Generation of a modified 3D image of an object comprising tool marks | |
Knoerlein et al. | Comparison of tracker-based to tracker-less haptic device calibration | |
CN112381917B (zh) | 一种基于平行光类比的主动光照重现方法 | |
Filaretov et al. | Developing Method of Automatic Gaps Finding in Workpieces Models Obtained by Means of Vision Systems | |
CN114800520B (zh) | 高精度的手眼标定方法 | |
Yousfi et al. | Study on the strategy of 3D images based reconstruction using a camera attached to a robot arm | |
WO2023248353A1 (ja) | ワークの位置データを取得する装置、制御装置、ロボットシステム、方法、及びコンピュータプログラム | |
Cao et al. | Minimal non-linear camera pose estimation method using lines for SLAM application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |