ES2824873A1 - METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) - Google Patents
METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) Download PDFInfo
- Publication number
- ES2824873A1 ES2824873A1 ES201930991A ES201930991A ES2824873A1 ES 2824873 A1 ES2824873 A1 ES 2824873A1 ES 201930991 A ES201930991 A ES 201930991A ES 201930991 A ES201930991 A ES 201930991A ES 2824873 A1 ES2824873 A1 ES 2824873A1
- Authority
- ES
- Spain
- Prior art keywords
- camera
- pitch
- artifact
- yaw
- angles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
DESCRIPCIÓNDESCRIPTION
MÉTODO Y SISTEMA PARA EL SEGUIMIENTO ESPACIAL DE OBJETOSMETHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS
CAMPO TÉCNICOTECHNICAL FIELD
La presente invención se refiere al campo del seguimiento espacial de objetos. En particular, esta se refiere a técnicas de medición sin contacto para mejorar la precisión que se puede lograr en el seguimiento espacial de objetos por medio de un procedimiento de resección espacial.The present invention relates to the field of spatial object tracking. In particular, it relates to non-contact measurement techniques to improve the precision that can be achieved in spatial tracking of objects by means of a spatial resection procedure.
ESTADO DE LA TÉCNICASTATE OF THE ART
En la actualidad, hay diferentes tecnologías y métodos de medición para el seguimiento espacial sin contacto de objetos. Una de estas técnicas se denomina fotogrametría, que se basa en la extracción de mediciones tridimensionales a partir de datos bidimensionales (es decir, imágenes). Por lo general, la fotogrametría usa el método de resección espacial para obtener la orientación exterior de una única imagen. En la resección espacial, la posición espacial y la orientación de una cámara se determina basándose en la proyección central de la cámara y el modelado de la distorsión óptica debido a los errores de forma de lente. El modelo de cámara estenopeica (en inglés, pinhole camera) representa la definición matemática de rendimiento luminoso a través de una lente de cámara entre el mundo en 3D (el espacio del objeto) y una imagen en 2D (el plano de sensor). Esto se esquematiza en la figura 1, que representa cómo obtener la posición y la orientación de un objeto 11 usando una única cámara 10 mediante la aplicación del método de resección espacial. La siguiente ecuación describe la transformación rígida entre el sistema de coordenadas de la cámara y el sistema de coordenadas del objeto: Currently, there are different technologies and measurement methods for non-contact spatial tracking of objects. One of these techniques is called photogrammetry, which is based on extracting three-dimensional measurements from two-dimensional data (that is, images). Typically, photogrammetry uses the spatial resection method to obtain the exterior orientation of a single image. In spatial resection, the spatial position and orientation of a camera is determined based on the central projection of the camera and modeling of optical distortion due to lens shape errors. The pinhole camera model represents the mathematical definition of light output through a camera lens between the 3D world (the object space) and a 2D image (the sensor plane). This is outlined in Figure 1, which depicts how to obtain the position and orientation of an object 11 using a single camera 10 by applying the spatial resection method. The following equation describes the rigid transformation between the camera coordinate system and the object coordinate system:
en donde {y ' indica la posición espacial de la cámara 10, {Y} indica la Zwhere {y 'indicates the spatial position of camera 10, {Y} indicates the Z
posición espacial del objeto 11 y la matriz representa la rotación y el desplazamiento relativos desde el objeto 11 a la cámara 10. Tal como se muestra en la figura 1, 0 representa el ángulo de elevación (también referido como ángulo de cabeceo o inclinación) (en inglés, pitch angle) relativo del objeto 11, W representa el ángulo de desviación (también referido como ángulo de viraje) (en inglés, yaw angle) relativo del objeto 11, O representa el ángulo de giro (también referido como ángulo de balanceo) (en inglés, roll angle) relativo del objeto 11 y dTxTyTz representa la traslación relativa Tx, Ty y Tz. En esencia, el método de resección espacial reduce al mínimo de forma iterativa la distancia plana entre los puntos de imagen observados y los que teóricamente son proyectados con el fin de determinar la posición y la orientación de la cámara 10 con 6 grados de libertad (GDL, en inglés, DOF) que se ajustan mejor a los puntos correspondientes. Se han de marcar al menos tres puntos de referencia sobre el objeto. En la figura 1, seis círculos representados sobre el objeto 11 representan unos puntos de referencia de objeto correspondientes. Cada círculo tiene una coordenada Xi, Yi, Zi.spatial position of object 11 and the matrix represents the relative rotation and displacement from object 11 to camera 10. As shown in figure 1, 0 represents the elevation angle (also referred to as pitch or pitch angle) ( relative pitch angle) of object 11, W represents the yaw angle (also referred to as yaw angle) relative to object 11, O represents the angle of twist (also referred to as roll angle ) (roll angle) relative to object 11 and dTxTyTz represents the relative translation Tx, Ty and Tz. In essence, the spatial resection method iteratively minimizes the planar distance between the observed image points and those that are theoretically projected in order to determine the position and orientation of the camera 10 with 6 degrees of freedom (DOF DOF) that best fit the corresponding points. At least three reference points must be marked on the object. In Figure 1, six circles depicted on the object 11 represent corresponding object reference points. Each circle has an Xi, Yi, Zi coordinate.
No obstante, las configuraciones fotogramétricas que usan técnicas de resección espacial pueden tener limitaciones de precisión cuando se estiman los parámetros de orientación externos de una cámara con 6 GDL debido a la correlación alta entre los parámetros de orientación y de traslación de la cámara. A pesar de que, con unas configuraciones convenientes de la posición de cámara, el tamaño de objeto y el sistema de referencia (que se ha de haber establecido previamente), se pueden lograr unas precisiones de aproximadamente 1 : 10000 del volumen de medición, son críticas las traslaciones en el eje Z y las rotaciones en torno a los ángulos de cabeceo o inclinación 0 y de viraje W. Esto se muestra en la figura 2. La figura 2 (parte superior) representa un ejemplo de correlación baja entre los parámetros de orientación y de traslación de una cámara. La figura 2 (parte inferior) representa un ejemplo de correlación alta entre los parámetros de orientación y de traslación de una cámara. En la figura 2 (parte superior), la distribución objetivo de puntos de referencia (cómo se distribuyen los puntos de referencia sobre el objeto) genera una imagen diferente después de una traslación de cámara y una imagen diferente después de una rotación de cámara. No obstante, en la figura 2 (parte inferior) la distribución objetivo genera unas imágenes casi idénticas después de la traslación de cámara y la rotación de cámara. Como consecuencia, en el segundo escenario (parte inferior) no es posible una diferenciación precisa entre las rotaciones en torno a los ángulos de cabeceo o inclinación 0 y de viraje W y las traslaciones Tx y Ty.However, photogrammetric setups using spatial resection techniques may have precision limitations when estimating the external orientation parameters of a camera with 6 DOF due to the high correlation between the orientation and translation parameters of the camera. Although, with convenient settings for camera position, object size, and reference system (which has to be previously established), accuracies of approximately 1: 10,000 of the measurement volume can be achieved, translations in the Z axis and rotations around pitch or pitch angles 0 and turn W are critical. Figure 2. Figure 2 (top) represents an example of a low correlation between the orientation and translation parameters of a camera. Figure 2 (bottom) represents an example of high correlation between the orientation and translation parameters of a camera. In Figure 2 (top), the target reference point distribution (how the reference points are distributed on the object) generates a different image after camera translation and a different image after camera rotation. However, in Figure 2 (bottom) the target distribution generates nearly identical images after camera translation and camera rotation. As a consequence, in the second scenario (lower part) no precise differentiation is possible between rotations around pitch or bank angles 0 and turn W and translations Tx and Ty.
Otra técnica bien conocida de medición de ángulos es la autocolimación. La autocolimación es una configuración óptica en la que un haz colimado de rayos de luz paralelos sale de un sistema óptico y es reflejado de vuelta al mismo sistema por un espejo plano. La autocolimación se usa para medir ángulos de inclinación pequeños del espejo con una precisión alta. No obstante, la mayor parte de las técnicas de autocolimación presentan una limitación para estimar el ángulo de giro o balanceo de un espejo. Dicho de otra forma, la mayor parte de los dispositivos de autocolimación existentes son capaces de medir solo dos ángulos de inclinación (la inclinación o cabeceo y el viraje) de un espejo. Recientemente se han desarrollado nuevos autocolimadores, que tienen una determinada capacidad de medir un ángulo de rotación en torno al eje normal del espejo basándose en una lente especial. Este es el caso, por ejemplo, de TriAngle®3D, de la empresa TRIOPTICS. No obstante, la precisión de la medición del ángulo de giro o balanceo (el ángulo de rotación) se reduce de forma significativa en comparación con la precisión de la medición de los ángulos de cabeceo o inclinación y de viraje.Another well-known angle measurement technique is autocollimation. Autocollimation is an optical setup in which a collimated beam of parallel light rays exits an optical system and is reflected back to the same system by a flat mirror. Autocollimation is used to measure small tilt angles of the mirror with high precision. However, most of the autocollimation techniques have a limitation to estimate the angle of rotation or roll of a mirror. In other words, most existing autocollimation devices are capable of measuring only two bank angles (pitch or pitch and pitch). turn) of a mirror. Recently, new autocollimators have been developed, which have a certain ability to measure an angle of rotation around the normal axis of the mirror based on a special lens. This is the case, for example, of TriAngle®3D, from the company TRIOPTICS. However, the accuracy of the roll or roll angle measurement (the angle of rotation) is significantly reduced compared to the accuracy of the pitch and bank angle measurement.
Por lo tanto, existe la necesidad de un método y sistema para el seguimiento espacial y/o la supervisión precisos de un objeto, que mejore la precisión en los 6 GDL.Therefore, there is a need for a method and system for precise spatial tracking and / or monitoring of an object, which improves the accuracy in the 6 DOF.
DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION
El método y sistema descritos en la presente invención tienen por objeto solucionar los inconvenientes de la técnica anterior. En la presente invención, se combinan dos técnicas de medición sin contacto con el fin de mejorar la precisión que se puede lograr en la supervisión o seguimiento espacial de objetos. Las dos técnicas son (a) la fotogrametría, que se aplica con una única cámara, y (b) la autocolimación, que se emplea para la estimación de los ángulos de inclinación absolutos de una superficie especular que, con una transformación calibrada, representa los ángulos de cabeceo (inclinación) y de viraje del objeto al que se está realizando un seguimiento. En lo que respecta a la fotogrametría, el problema de la orientación y la traslación exterior de una cámara mediante una imagen única se aborda aplicando la técnica de resección espacial. En lo que respecta a la autocolimación, la orientación de la cámara (los ángulos de cabeceo (inclinación) y de viraje) se obtiene con respecto al sistema de coordenadas del objeto que se construye a partir de un conjunto de objetivos (targets). De esta forma, la técnica de resección espacial se restringe con los valores de orientación obtenidos (los ángulos de cabeceo (inclinación) y de viraje) y los parámetros restantes (TX TY TZ y el ángulo de giro o balanceo O) se pueden estimar con una precisión más alta y una correlación más baja entre los mismos. Por lo tanto, estos se estiman con una incertidumbre mejor (más baja). Dicho de otra forma, se aplica una resección espacial restringida en lugar de una resección espacial convencional.The method and system described in the present invention are intended to solve the drawbacks of the prior art. In the present invention, two non-contact measurement techniques are combined in order to improve the precision that can be achieved in spatial monitoring or tracking of objects. The two techniques are (a) photogrammetry, which is applied with a single camera, and (b) autocollimation, which is used to estimate the absolute angles of inclination of a specular surface that, with a calibrated transformation, represents the pitch (bank) and yaw angles of the object being tracked. With regard to photogrammetry, the problem of orientation and external translation of a camera by means of a single image is addressed by applying the spatial resection technique. Regarding autocollimation, the camera orientation (pitch (bank) and yaw angles) is obtained with respect to the object's coordinate system that is constructed from a set of objectives (targets). In this way, the spatial resection technique is restricted with the obtained orientation values (pitch (bank) and turn angles) and the remaining parameters (TX TY TZ and roll or roll angle O) can be estimated with higher precision and lower correlation between them. Therefore, these are estimated with a better (lower) uncertainty. In other words, a restricted spatial resection is applied instead of a conventional spatial resection.
Un primer aspecto de la invención se refiere a un método para estimar la posición y la orientación de un objeto con 6 grados de libertad, que comprende:A first aspect of the invention refers to a method for estimating the position and orientation of an object with 6 degrees of freedom, comprising:
unir un artefacto al objeto del cual se va a estimar la posición y la orientación, en donde el artefacto comprende una superficie especular y un conjunto de N puntos de referencia, en donde cada punto de referencia es definido por una posición Xi, Yi, Zi en un sistema de coordenadas definido en el artefacto, en donde 1 < i < N y N > 2;join an artifact to the object whose position and orientation are to be estimated, where the artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position Xi, Yi, Zi in a coordinate system defined in the artifact, where 1 <i <N and N> 2;
colocar una cámara orientada hacia el artefacto que está unido al objeto; medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular y, por lo tanto, del objeto, siendo realizada dicha medición mediante la aplicación de una técnica de autocolimación;placing a camera facing the artifact that is attached to the object; measuring the angles of elevation, pitch or inclination 0 and deviation or yaw W that represent the inclination of the specular surface and, therefore, of the object, said measurement being carried out by applying an autocollimation technique;
capturar una imagen del conjunto de puntos de referencia comprendido en el artefacto que está unido al objeto, obteniendo de este modo, en el plano del sensor de la cámara, unos puntos de imagen observados que se corresponden con dichos puntos de referencia;capturing an image of the set of reference points comprised in the artifact that is attached to the object, thereby obtaining, in the plane of the camera sensor, observed image points corresponding to said reference points;
obtener el ángulo de giro o balanceo O del objeto y un vector de traslación (TX, Ty, Tz) entre la cámara y el objeto, usando dichos puntos de referencia y dichos puntos de imagen observados que se obtienen en el sensor de la cámara, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ¥ medidos, en donde TX, TY, TZ, O, 6, ¥ representan la posición y la orientación relativas entre la cámara y el objeto.obtain the angle of rotation or roll O of the object and a translation vector (TX, Ty, Tz) between the camera and the object, using said reference points and said observed image points that are obtained in the camera sensor, through the application of a spatial resection algorithm restricted by the angles of elevation, pitch or inclination 0 and of deviation or yaw ¥ measured, where TX, TY, TZ , O, 6, ¥ represent the relative position and orientation between the camera and the subject.
En realizaciones de la invención, los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ¥ que representan la inclinación de la superficie especular y, por lo tanto, del objeto, se miden tal como sigue aplicando una técnica de autocolimación:In embodiments of the invention, the angles of elevation, pitch or pitch 0 and deviation or yaw ¥ representing the slope of the specular surface and therefore of the object, are measured as follows by applying a self-collimation technique:
emitir un haz de luz no colimado a partir de una fuente de luz que está dispuesta en la cámara;emitting a non-collimated beam of light from a light source that is arranged in the chamber;
redirigir el haz de luz emitido mediante un divisor de haz, produciendo haces de luz no colimados;redirecting the emitted light beam by means of a beam splitter, producing non-collimated light beams;
colimar dichos haces de luz mediante una lente de la cámara, produciendo de este modo unos haces de luz colimados;collimating said light beams by a camera lens, thereby producing collimated light beams;
dirigir dichos haces colimados hacia el espejo plano, en el que se reflejan los mismos, proporcionando de este modo unos haces de luz colimados reflejados;directing said collimated beams towards the plane mirror, in which they are reflected, thereby providing reflected collimated light beams;
enfocar dichos haces colimados reflejados en la lente de la cámara, proporcionando de este modo unos haces de luz reflejados enfocados al sensor de la cámara, siendo enfocados dichos haces de luz reflejados enfocados en una posición sobre el plano del sensor de la cámara;focusing said reflected collimated beams on the camera lens, thereby providing focused reflected beams of light to the camera sensor, said reflected beams of light being focused at a position on the plane of the camera sensor;
calcular los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ¥ tal como sigue:calculate the angles of elevation, pitch or bank 0 and of deviation or yaw ¥ as follows:
0 = Sx' / 2f 0 = Sx '/ 2f
W = Sy' / 2fW = Sy '/ 2f
en donde f es la distancia focal de la cámara y 5x', Sy' representan un desplazamiento plano entre la posición medida y una posición de referencia fija sobre el plano del sensor de la cámara, representando esta referencia fija la posición (x', y') en el plano del sensor en donde los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W son iguales a 0.where f is the focal length of the camera and 5x ', Sy' represent a plane displacement between the measured position and a fixed reference position on the plane of the camera sensor, this fixed reference representing the position (x ', y ') in the sensor plane where the elevation, pitch or bank angles 0 and deviation or yaw W are equal to 0.
En realizaciones de la invención, dicho ángulo de giro o balanceo O y dicho vector de traslación entre la cámara y el objeto, se obtienen mediante la implementación de una técnica de resección espacial, restringida por los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W ya obtenidos, solucionando de forma iterativa el siguiente problema de optimización:In embodiments of the invention, said roll or roll angle O and said translation vector between the camera and the object, are obtained by implementing a spatial resection technique, restricted by the elevation, pitch or tilt angles 0 and deviation or yaw W already obtained, iteratively solving the following optimization problem:
2two
X |XEi = 0X | XEi = 0
lyi, lyE i> lyi, lyE i>
en donde N es el número de los puntos de imagen observados; (x'i, y'i) son los puntos de imagen observados; y (x'Ei, y'Ei) son los puntos de imagen estimados.where N is the number of image points observed; (x'i, y'i) are the observed image points; y (x'Ei, y'Ei) are the estimated image points.
En realizaciones de la invención, los puntos de imagen estimados (x'Ei, y'Ei) se obtienen mediante la aplicación de un modelo de cámara estenopeica (pinhole camera) que representa la proyección (x'Ei, y'Ei) de cada punto de referencia en 3D sobre el plano de imagen del sensor de la cámara:In embodiments of the invention, the estimated image points (x'Ei, y'Ei) are obtained by applying a pinhole camera model that represents the projection (x'Ei, y'Ei) of each 3D reference point on the camera sensor image plane:
(x Eíl( x Eíl
¡ y ' J = [ Á ] ^ A ^ R ¡Y 'J = [Á] ^ A ^ R
0 > 0>
en donde:where:
1 0 0 0 — sen(^)' R(&) = 0 co s( d) sen(0) ,R(xP) = 1 0 1 0 0 0 - sin (^) ' R (&) = 0 co s (d) sin (0) , R (xP) = 1 0
0 — sen(0) cos(d) . 0 cos(^) . 0 - sin (0) cos (d). 0 cos (^).
que se puede simplificar como:which can be simplified as:
y en donde: cámaraand where: camera
y en donde X es un factor de escala.and where X is a scale factor.
En realizaciones de la invención, los puntos de imagen estimados (x'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de la ecuación de proyección central en visión por computador:In embodiments of the invention, the estimated image points (x'Ei, y'Ei, 0) are calculated as follows by applying the central projection equation in computer vision:
En realizaciones de la invención, los puntos de imagen estimados (x'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de ecuaciones de colinealidad:In embodiments of the invention, the estimated image points (x ' Ei , y' Ei , 0) are calculated as follows by applying collinearity equations:
En realizaciones de la invención, antes de aplicar una técnica de autocolimación para medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W y de capturar, con la cámara, una imagen del artefacto que está unido al objeto, se establece una relación geométrica entre el plano de la superficie especular y un sistema de coordenadas formado por el conjunto de puntos de referencia. In embodiments of the invention, before applying an autocollimation technique to measure the angles of elevation, pitch or pitch 0 and deviation or yaw W and capturing, with the camera, an image of the artifact that is attached to the object, it is established a geometric relationship between the plane of the specular surface and a coordinate system formed by the set of reference points.
En realizaciones de la invención, el artefacto se ha medido en una Máquina de Medición de Coordenadas (CMM, por sus siglas en inglés) con el fin de establecer dicha relación geométrica.In embodiments of the invention, the artifact has been measured in a Coordinate Measuring Machine (CMM) in order to establish said geometric relationship.
El método propuesto se puede implementar o bien en un único dispositivo que abarque tanto la funcionalidad de una cámara como de un autocolimador; o bien en dos dispositivos separados - una cámara y un autocolimador - que trabajan de forma conjunta.The proposed method can be implemented either in a single device that encompasses both the functionality of a camera and an autocollimator; or in two separate devices - a camera and an autocollimator - that work together.
Un segundo aspecto de la invención se refiere a un sistema para estimar la posición y la orientación de un objeto con 6 grados de libertad, que comprende:A second aspect of the invention refers to a system for estimating the position and orientation of an object with 6 degrees of freedom, comprising:
unos medios para tomar mediciones de fotogrametría;means for taking photogrammetry measurements;
unos medios para llevar a cabo una autocolimación; ymeans for carrying out autocollimation; Y
un artefacto que está unido al objeto del cual se va a estimar la posición y la orientación, en donde dicho artefacto comprende una superficie especular y un conjunto de N puntos de referencia, en donde cada punto de referencia es definido por una posición en un sistema de coordenadas definido en el artefacto, en donde 1 < i < N y N > 2;an artifact that is attached to the object whose position and orientation are to be estimated, wherein said artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position in a system of coordinates defined in the artifact, where 1 <i <N and N> 2;
en donde los medios para llevar a cabo una autocolimación se configuran para medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular y, por lo tanto, del objeto;wherein the means for carrying out autocollimation are configured to measure the angles of elevation, pitch or pitch 0 and deviation or yaw W that represent the inclination of the specular surface and, therefore, of the object;
en donde los medios para tomar mediciones de fotogrametría se configuran para:wherein the means for taking photogrammetry measurements are configured to:
capturar una imagen del conjunto de puntos de referencia comprendido en el artefacto que está unido al objeto, obteniendo de este modo unos puntos de imagen observados que se corresponden con dichos puntos de referencia; y obtener el ángulo de giro o balanceo O del objeto y un vector de traslación (TX, Ty, Tz) entre los medios para tomar mediciones de fotogrametría y el objeto, usando dichos puntos de referencia y dichos puntos de imagen observados, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W medidos.capture an image of the set of reference points included in the artifact that is attached to the object, thus obtaining points observed image images corresponding to said reference points; and obtain the angle of rotation or roll O of the object and a translation vector (TX, Ty, Tz) between the means for taking photogrammetry measurements and the object, using said reference points and said observed image points, by applying of a spatial resection algorithm constrained by the measured angles of elevation, pitch, or pitch 0 and of deviation or yaw W.
En realizaciones de la invención, los medios para tomar mediciones fotogramétricas y los medios para llevar a cabo una autocolimación están comprendidos en una cámara.In embodiments of the invention, the means for taking photogrammetric measurements and the means for carrying out autocollimation are comprised of a chamber.
En realizaciones de la invención, los medios para tomar mediciones fotogramétricas están comprendidos en una cámara y los medios para llevar a cabo una autocolimación están comprendidos en un autocolimador.In embodiments of the invention, the means for taking photogrammetric measurements are comprised of a camera and the means for performing autocollimation are comprised of an autocollimator.
En realizaciones de la invención, los N puntos de referencia representan un patrón de tablero de ajedrez, o un patrón circular, o un patrón cuadrado, o un patrón en forma de cruz o siguen marcadores especiales.In embodiments of the invention, the N reference points represent a checkerboard pattern, or a circular pattern, or a square pattern, or a cross-shaped pattern, or follow special markers.
En realizaciones de la invención, la superficie especular es un espejo plano o cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz.In embodiments of the invention, the specular surface is a flat mirror or any flat or semi-flat surface capable of producing a specular reflection of light.
En realizaciones de la invención, el sistema comprende adicionalmente unos medios de montaje para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del espejo.In embodiments of the invention, the system further comprises mounting means for mounting a plurality of measurement means for measuring the spatial location and orientation of the mirror.
El dispositivo se puede materializar en al menos dos configuraciones diferentes. En una primera realización, un único dispositivo integra las dos tecnologías (cámara y autocolimador). En este caso, el dispositivo, tal como una cámara, está compuesto por una fuente de luz - tal como una fuente de LED - y un divisor de haz. La fuente de luz y el divisor de haz se pueden montar sobre la cámara. Por lo tanto, simplemente al modificar los parámetros de adquisición de la cámara, la cámara puede actuar como un autocolimador. En una segunda realización, el dispositivo está compuesto por una única cámara y un autocolimador en 2D separado. Esta configuración requiere una fase previa de calibración extrínseca, para recopilar datos independientes y obtener datos de salida con respecto a un mismo sistema de referencia.The device can be embodied in at least two different configurations. In a first embodiment, a single device integrates the two technologies (camera and autocollimator). In this case, the device, such as A camera is made up of a light source - such as an LED source - and a beam splitter. The light source and beam splitter can be mounted on the camera. Therefore, simply by modifying the acquisition parameters of the camera, the camera can act as an autocollimator. In a second embodiment, the device is comprised of a single camera and a separate 2D autocollimator. This configuration requires a previous extrinsic calibration phase, to collect independent data and obtain output data with respect to the same reference system.
Un tercer aspecto de la invención se refiere a un producto de programa informático que comprende instrucciones / código de programa informático para llevar a cabo el método divulgado.A third aspect of the invention relates to a computer program product comprising computer program instructions / code for carrying out the disclosed method.
Un cuarto aspecto de la invención se refiere a una memoria / soporte legible por ordenador que almacena instrucciones / código de programa para llevar a cabo el método divulgado.A fourth aspect of the invention relates to a computer-readable memory / medium that stores instructions / program code to carry out the disclosed method.
La combinación de una cámara configurada para fotogrametría y de un autocolimador, o bien en un único dispositivo o bien en dos dispositivos separados, proporciona las siguientes ventajas: (a) Potencia la precisión de las mediciones que se pueden obtener como consecuencia de la reducción en la incertidumbre para identificar cuatro parámetros de cámara (la orientación - el giro o balanceo- y TX TY TZ) usando técnicas de resección espacial, gracias a su vez a la restricción de los parámetros de orientación - el cabeceo o inclinación y el viraje - mediante el autocolimador. (b) Aumenta el número de GDL en las mediciones con respecto a los autocolimadores existentes, mediante la adición de los GDL necesarios mediante las técnicas de resección espacial. (c) Potencia el rendimiento y la aplicabilidad de las técnicas de resección espacial a las demandas de precisión alta y la aplicación gracias a la introducción de la restricción de ángulo (cabeceo o inclinación y viraje).The combination of a camera configured for photogrammetry and an autocollimator, either in a single device or in two separate devices, provides the following advantages: (a) It enhances the precision of measurements that can be obtained as a consequence of the reduction in the uncertainty to identify four camera parameters (the orientation - roll or roll- and TX TY TZ) using spatial resection techniques, thanks in turn to the restriction of the orientation parameters - pitch or roll and yaw - by the autocollimator. (b) Increases the number of DOF in measurements with respect to existing autocollimators, by adding the necessary DOF using spatial resection techniques. (c) It enhances the performance and applicability of the techniques of Spatial resection to the demands of high precision and application thanks to the introduction of angle constraint (pitch or bank and yaw).
Algunas ventajas y características adicionales de la invención se harán evidentes a partir de la descripción en detalle que sigue y serán señaladas en particular en las reivindicaciones adjuntas.Certain additional advantages and features of the invention will become apparent from the detailed description that follows and will be pointed out in particular in the appended claims.
BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS
Para completar la descripción y con el fin de prever una mejor comprensión de la invención, se proporciona un conjunto de dibujos. Dichos dibujos forman una parte integrante de la descripción e ilustran una realización de la invención, lo que no se debería interpretar como que restringe el alcance de la invención, sino simplemente como un ejemplo de cómo se puede llevar a cabo la invención. Los dibujos comprenden las siguientes figuras:To complete the description and in order to provide a better understanding of the invention, a set of drawings is provided. Said drawings form an integral part of the description and illustrate an embodiment of the invention, which should not be construed as restricting the scope of the invention, but merely as an example of how the invention can be carried out. The drawings comprise the following figures:
La figura 1 representa la técnica de resección espacial, que es una técnica bien conocida para determinar la posición espacial y la orientación de una cámara basándose en la proyección central de la cámara.Figure 1 depicts the spatial resection technique, which is a well-known technique for determining the spatial position and orientation of a camera based on the central projection of the camera.
La figura 2 muestra unas configuraciones fotogramétricas a modo de ejemplo con correlación diferente entre la traslación y la rotación de una cámara.Figure 2 shows exemplary photogrammetric configurations with different correlation between translation and rotation of a camera.
Las figuras 3(a) y 3(b) muestran unas vistas laterales de una cámara que se usa en realizaciones de la presente invención. Parte de la carcasa externa se ha retirado para mostrar la parte interior de la cámara. La figura 3(c) muestra una vista en despiece ordenado de la cámara que se muestra en las figuras 3(a) y 3(b).Figures 3 (a) and 3 (b) show side views of a chamber used in embodiments of the present invention. Part of the outer casing has been removed to show the inside of the camera. Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b).
La figura 4 muestra un artefacto de medición que se ha de unir a un objeto para llevar a cabo mediciones de seguimiento de 6 GDL, de acuerdo con realizaciones de la presente invención. El artefacto incluye una superficie especular y un conjunto de puntos de referencia.Figure 4 shows a measurement artifact to be attached to an object to perform 6 DOF follow-up measurements, according to embodiments of the present invention. The artifact includes a mirror surface and a set of reference points.
La figura 5 muestra un esquema de acuerdo con realizaciones de la invención, en el que se toman mediciones de autocolimación con la cámara de las figuras 3(a) -(c) y el artefacto de medición de la figura 4.Figure 5 shows a schematic according to embodiments of the invention, in which autocollimation measurements are taken with the camera of Figures 3 (a) - (c) and the measurement artifact of Figure 4.
La figura 6 muestra componentes a modo de ejemplo de un dispositivo para llevar a cabo la técnica de autocolimación.Figure 6 shows exemplary components of a device for performing the autocollimation technique.
La figura 7A muestra un esquema de acuerdo con realizaciones de la invención, en el que se toman mediciones de fotogrametría con la cámara de las figuras 3(a) -(c) y el artefacto de la figura 4. La figura 7B muestra el esquema de la figura 7A, incluyendo adicionalmente los 6 parámetros que se van a medir.Figure 7A shows a schematic according to embodiments of the invention, in which photogrammetry measurements are taken with the camera of Figures 3 (a) - (c) and the artifact of Figure 4. Figure 7B shows the schematic of Figure 7A, further including the 6 parameters to be measured.
La figura 8 muestra un esquema alternativo de acuerdo con algunas realizaciones de la invención, en el que la supervisión o seguimiento espacial de un objeto se logra por medio de una cámara y un autocolimador en 2D separado, más un artefacto de medición tal como se muestra en la figura 4.Figure 8 shows an alternative scheme according to some embodiments of the invention, in which the spatial monitoring or tracking of an object is achieved by means of a camera and a separate 2D autocollimator, plus a measurement artifact as shown. in figure 4.
DESCRIPCIÓN DE UNA FORMA DE LLEVAR A CABO LA INVENCIÓNDESCRIPTION OF A WAY OF CARRYING OUT THE INVENTION
Las figuras 3(a) a 3(c) muestran diferentes vistas de una cámara 40 adecuada para llevar a cabo la supervisión o seguimiento espacial de un objeto de acuerdo con una realización de la invención. La cámara 40 integra las dos tecnologías que se requieren para mejorar la precisión en las mediciones necesarias para el seguimiento espacial de un objeto: una cámara como tal, para mediciones de fotogrametría, y un autocolimador. En las figuras 3(a) y 3(b), parte de la carcasa externa se ha retirado para mostrar la parte interior de la cámara. La figura 3(c) muestra una vista en despiece ordenado de la cámara que se muestra en las figuras 3(a) y 3(b). Algunas de las partes más relevantes de la cámara 40 se identifican en las figuras: una lente 41 para enfocar y crear la imagen del objeto en el sensor de cámara y para colimar la luz en las mediciones de autocolimación; y un sensor 42 para capturar imágenes. Ejemplos no limitantes del sensor 42 pueden ser un CCD matricial o un sensor CMOS. La imagen proyectada por la lente objetivo se forma en el sensor. Estos elementos se encuentran, por lo general, presentes en todas las cámaras. La cámara 40 también incluye una fuente de luz 43 necesaria para implementar la funcionalidad de autocolimación. La fuente de luz 43 puede ser un diodo de emisión de luz (LED). Como alternativa, esta puede ser un emisor láser. Esto puede aumentar la potencia y, por lo tanto, el intervalo operativo, o puede posibilitar que se trabaje en entornos de iluminación. La cámara 40 también incluye un divisor de haz 44, necesario también para implementar la funcionalidad de autocolimación. El divisor de haz 44 se puede implementar, por ejemplo, como una placa o un cubo.Figures 3 (a) to 3 (c) show different views of a camera 40 suitable for carrying out spatial monitoring or tracking of an object according to an embodiment of the invention. The camera 40 integrates the two technologies that are required to improve the precision in the measurements necessary for the spatial tracking of an object: a camera as such, for photogrammetry measurements, and an autocollimator. In Figures 3 (a) and 3 (b), part of the outer casing has been removed to show the inner part of the camera. Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b). Some of the most relevant parts of the camera 40 are identified in the figures: a lens 41 to focus and create the image of the object on the camera sensor and to collimate the light in autocollimation measurements; and a sensor 42 for capturing images. Non-limiting examples of the sensor 42 can be a matrix CCD or a CMOS sensor. The image projected by the objective lens is formed on the sensor. These elements are generally present in all cameras. Camera 40 also includes a light source 43 necessary to implement autocollimation functionality. Light source 43 can be a light emitting diode (LED). Alternatively, this can be a laser emitter. This can increase the power and therefore the operating range, or it can make it possible to work in lighting environments. Camera 40 also includes a beam splitter 44, also necessary to implement autocollimation functionality. Beam splitter 44 can be implemented, for example, as a plate or a cube.
La cámara 40 también tiene unos elementos estructurales 45 - 50 para habilitar el montaje, el acoplamiento y / o el soporte de los componentes ópticos y / o eléctricos. El cuerpo 45 es el elemento estructural principal de la cámara 40, al que se fijan los otros elementos de la cámara. El divisor de haz es soportado por el elemento 46, lo que garantiza el contacto entre el divisor de haz y el sensor de la cámara en un lado, y entre el divisor de haz y la fuente de luz en el otro lado. La cámara 40 también comprende unos elementos separadores especiales 47, que se usan para establecer la longitud focal que depende de la lente de la cámara. El sensor de la cámara se fija por medio del elemento estructural 48. La cámara 40 también comprende un soporte de la fuente de luz 49. Una cubierta 50 encapsula y protege todos los elementos internos. La cámara 40 también tiene unos elementos de fijación 51 - 54 para fijar y acoplar los diferentes componentes (estructurales) de montaje, ópticos y / o eléctricos.Chamber 40 also has structural elements 45-50 to enable mounting, docking, and / or support of optical and / or electrical components. The body 45 is the main structural element of the chamber 40, to which the other elements of the chamber are attached. The beam splitter is supported by element 46, which ensures contact between the beam splitter and the camera sensor on one side, and between the beam splitter and the light source on the other side. The camera 40 also comprises special spacer elements 47, which are used to set the focal length depending on the camera lens. The camera sensor is fixed by means of the structural element 48. Chamber 40 also comprises a light source support 49. A cover 50 encapsulates and protects all internal elements. Chamber 40 also has fixing elements 51-54 for fixing and coupling the different (structural) mounting, optical and / or electrical components.
Con el fin de realizar el seguimiento espacial de un objeto, se requiere un ensamblaje, artefacto o dispositivo adicional. Un artefacto adicional de acuerdo con una posible realización se muestra en la figura 4. El artefacto de medición 60 que se muestra en la figura 4 está compuesto por una superficie especular 55 y un conjunto o cuadrícula de puntos de referencia 56 que está adherido o unido al artefacto. En la figura 4, la superficie especular 55 se implementa como un espejo plano. Superficies especulares alternativas pueden ser cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz, tal como una pieza que tenga un buen acabado superficial. El espejo plano 55 se usa para las mediciones mediante autocolimación. Se monta sobre un bastidor 57. El conjunto de puntos de referencia 56 son unos objetivos (targets) que se requieren para las mediciones que son llevadas a cabo por la cámara 40 usando la técnica de resección espacial. Estos objetivos pueden adoptar formas diferentes o ser de tipos diferentes, tales como siguiendo un patrón de tablero de ajedrez, circular, cuadrado, en forma de cruz o siguiendo marcadores especiales, entre otros. El conjunto de puntos de referencia 56 requiere al menos 3 puntos u objetivos. Cabe destacar que, en general, cuantos más puntos de referencia haya, menos incertidumbre habrá en las mediciones. En la figura 4, los objetivos se configuran en forma de tablero de ajedrez. Los puntos de referencia se corresponden con los lados de cada cuadrado en el tablero de ajedrez. Dicho de otra forma, el artefacto 60 que se muestra en la figura 4 está compuesto por un espejo plano 55 y un tablero de ajedrez calibrado 56. El tablero de ajedrez está muy extendido para la calibración interna de la cámara. Las coordenadas de los puntos de referencia 56 se conocen mediante un sistema de coordenadas definido en el artefacto 60 (el espejo 55 y el conjunto de puntos de referencia 56).In order to spatially track an object, an additional assembly, artifact, or device is required. A further artifact in accordance with a possible embodiment is shown in Figure 4. The measurement artifact 60 shown in Figure 4 is composed of a mirror surface 55 and a set or grid of reference points 56 that is attached or attached to the artifact. In Figure 4, the specular surface 55 is implemented as a flat mirror. Alternative specular surfaces can be any flat or semi-flat surface capable of producing a specular reflection of light, such as a part that has a good surface finish. Flat mirror 55 is used for self-collimation measurements. It is mounted on a frame 57. The set of reference points 56 are targets that are required for the measurements that are carried out by the camera 40 using the spatial resection technique. These targets can take different shapes or be of different types, such as following a checkerboard, circular, square, cross-shaped pattern or following special markers, among others. The set of reference points 56 requires at least 3 points or targets. It should be noted that, in general, the more reference points there are, the less uncertainty there will be in the measurements. In Figure 4, the targets are set up in the form of a checkerboard. The reference points correspond to the sides of each square on the chessboard. In other words, the artifact 60 shown in Figure 4 is comprised of a flat mirror 55 and a calibrated chessboard 56. The chessboard is widely used for internal camera calibration. The coordinates of the reference points 56 are known by a coordinate system defined in the artifact 60 (the mirror 55 and the set of reference points 56).
En el artefacto 60, se ha de establecer la relación geométrica entre el plano del espejo plano 55 y el sistema de coordenadas formado por el conjunto de puntos de referencia 56. Dicho de otra forma, se ha de llevar a cabo una fase de caracterización del artefacto 60 (el espejo 55 y el conjunto de puntos de referencia 56), preferiblemente sin conexión u offline, antes de iniciar la fase de medición de la posición y la orientación de un objeto. Los resultados de esta caracterización se usan más adelante durante las mediciones. Esto quiere decir que se ha de definir un sistema de referencia común para el espejo plano 55 y el conjunto de puntos de referencia 56. Dicho de otra forma, el vector normal del espejo 55 y el eje Z del sistema de coordenadas que se crea a partir del conjunto de puntos de referencia 56 (por ejemplo, un tablero de ajedrez) pueden estar alineados, pero puede que los mismos no coincidan. Por lo tanto, es necesario que se midan o que se caractericen tanto el vector normal del espejo 55 como el eje Z del sistema de coordenadas que se crea a partir del conjunto de puntos de referencia 56, con el fin de compensar cualquier desalineación potencial que puedan tener los mismos. Con el fin de establecer la relación geométrica mencionada entre estos dos vectores, el artefacto 60 que se muestra en la figura 4 (el espejo 55 con el conjunto de puntos de referencia 56) se mide, por ejemplo, en una Máquina de Medición de Coordenadas (Coordínate Measuring Machine, CMM, por sus siglas en inglés). El artefacto 60 incluye adicionalmente unos medios de montaje, tales como una pluralidad de alojamientos, para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del artefacto 60. Por ejemplo, los medios de medición pueden ser retrorreflectores, con los que la ubicación espacial y la orientación del artefacto se pueden medir mediante una tecnología de seguimiento por láser (laser-tracker) convencional, que se encuentra fuera del alcance de la presente invención.In the artifact 60, the geometric relationship between the plane of the plane mirror 55 and the coordinate system formed by the set of reference points 56 has to be established. In other words, a phase of characterization of the artifact 60 (mirror 55 and set of reference points 56), preferably offline or offline, before starting the phase of measuring the position and orientation of an object. The results of this characterization are used later during the measurements. This means that a common reference system has to be defined for the plane mirror 55 and the set of reference points 56. In other words, the normal vector of the mirror 55 and the Z axis of the coordinate system that is created at starting from the set of reference points 56 (eg, a chessboard) they may be aligned, but they may not coincide. Therefore, it is necessary that both the normal vector of the mirror 55 and the Z axis of the coordinate system that is created from the set of reference points 56 be measured or characterized, in order to compensate for any potential misalignment that they may have the same. In order to establish the aforementioned geometric relationship between these two vectors, the artifact 60 shown in figure 4 (the mirror 55 with the set of reference points 56) is measured, for example, in a Measuring Machine of Coordinates (Coordinate Measuring Machine, CMM). The artifact 60 further includes a mounting means, such as a plurality of housings, for mounting a plurality of measurement means to measure the spatial location and orientation of the artifact 60. For example, the measurement means may be retroreflective, with the that the spatial location and orientation of the artifact can be measured by conventional laser tracker technology, which is outside the scope of the present invention.
A continuación, se explica el proceso de seguimiento espacial de un objeto usando la cámara 40 y el artefacto 60. Con el fin de realizar el seguimiento espacial de un objeto, un artefacto 60 que comprende un espejo plano y un conjunto de puntos de referencia, está unido al objeto del cual se va a estimar la posición y la orientación (Tx, Ty, Tz, O, 0, W), con respecto a la cámara. La cámara 40 se coloca orientada hacia el artefacto 60 que está unido al objeto, por ejemplo, tal como se muestra en las figuras 5, 7A y 7B, de una forma tal que las imágenes del conjunto de puntos de referencia que está comprendido en el artefacto 60 pueden ser capturadas por la cámara 40.Next, the process of spatial tracking of an object using the camera 40 and the artifact 60 is explained. In order to perform the spatial tracking of an object, an artifact 60 comprising a plane mirror and a set of reference points, it is attached to the object whose position and orientation (Tx, Ty, Tz, O, 0, W), with respect to the camera, will be estimated. The camera 40 is positioned facing the artifact 60 that is attached to the object, for example, as shown in Figures 5, 7A and 7B, in such a way that the images of the set of reference points that are comprised in the artifact 60 can be captured by camera 40.
En primer lugar, se miden los ángulos de cabeceo o inclinación 0 y de viraje W, que representan la inclinación del espejo plano 55. Esto se realiza mediante la aplicación de la funcionalidad de autocorrelación disponible en la cámara 40 y basándose en el espejo de tipo especular 55 (el espejo plano 55). En esta fase no se usa el conjunto de puntos de referencia 56. La figura 5 muestra un esquema para llevar a cabo mediciones de autocolimación para obtener los ángulos de cabeceo o inclinación 0 y de desviación o viraje W con la cámara 40 y un espejo plano 55. En la figura 6, se muestran los componentes de un dispositivo óptico, tal como una cámara, relevantes para llevar a cabo mediciones de autocolimación, más el espejo plano requerido. En la figura 6, se muestra en detalle cómo se obtiene el ángulo de cabeceo o inclinación 0.First, the pitch angles 0 and yaw W, representing the tilt of the plane mirror 55, are measured. This is done by applying the autocorrelation functionality available in the camera 40 and based on the mirror of type specular 55 (the plane mirror 55). The set of reference points 56 is not used in this phase. Figure 5 shows a scheme to carry out autocollimation measurements to obtain pitch or pitch angles 0 and deviation or yaw angle W with camera 40 and a flat mirror. 55. Figure 6 shows the components of an optical device, such as a camera, relevant for performing autocollimation measurements, plus the required flat mirror. In figure 6, it is shown in detail how the pitch or bank angle 0 is obtained.
En la figura 6, en una cámara, una fuente de luz 43, tal como un diodo LED, emite un haz de luz no colimado 62 que se redirige mediante un divisor de haz 44, produciendo también unos haces no colimados 63. Estos haces 63 se coliman mediante una lente de colimación 41. La longitud focal de la cámara se representa con la letra f (la distancia entre el plano de la lente de colimación y el plano del sensor o plano de imagen). Los haces colimados 65 son reflejados por el espejo 55, proporcionando de este modo unos haces de luz colimados reflejados 66. Algunos de los mismos alcanzan de nuevo la lente de colimación 41, que proporciona un haz de luz reflejado enfocado 67 al sensor de la cámara 42. Esta configuración permite que se determine el ángulo de inclinación del espejo 55 (la inclinación o cabeceo 0 o la desviación o viraje ¥) y, por lo tanto, del objeto que está unido al artefacto 60, pero no el ángulo de giro o balanceo O. De hecho, un desplazamiento plano 5 del haz de luz reflejado 67 en un punto 75 en el sensor de la cámara 42 se estudia sobre el plano de imagen 61 (el plano del sensor de la cámara) con el fin de estimar la variación angular (el ángulo de cabeceo o inclinación 0) basándose en la siguiente relación trigonométrica: 0 = S / 2/. El desplazamiento plano 5 representa el desplazamiento entre un punto de referencia de sensor de la cámara 76 y la posición en la que se captura el haz de luz reflejado enfocado 75. El punto 75 es el punto en el plano de imagen 61 en el que se enfoca el haz de luz reflejado 67. 0 indica el ángulo de inclinación o cabeceo del espejo. Se lleva a cabo un enfoque similar para obtener el ángulo de desviación o viraje W. Haciendo referencia a continuación a la figura 5, un haz de luz no colimado es emitido por la fuente de luz 43 dispuesta en la cámara 40 (que no se muestra en la figura 5, véase, por ejemplo, la figura 6). El haz de luz emitido se redirige mediante el divisor de haz 44, produciendo también unos haces no colimados (que no se muestran). Estos haces se coliman mediante la lente de cámara 41. Los haces colimados 65 se dirigen hacia el espejo plano 55. Los haces colimados 65 son reflejados por el espejo plano 55, proporcionando de este modo unos haces de luz colimados reflejados 66. Los haces colimados reflejados 66 alcanzan la lente de cámara 41, que proporciona unos haces de luz reflejados enfocados 67 al sensor de la cámara 42. El punto (5x', 5y') representa el desplazamiento plano entre la posición (en el sensor de la cámara 42) en la que se captura el haz de luz reflejado enfocado 67, es decir, el punto 75, y un punto de referencia fija 76 en el plano 61 del sensor de la cámara 42. Esta posición de referencia representa la posición en donde los ángulos de cabeceo o inclinación 0 y de desviación o viraje ^ son iguales a cero, normalmente la posición x' = 0 e y' = 0 en el plano del sensor de la cámara. Debido a que el punto (5x', 5y') es bien conocido, y la longitud focal f de la cámara 40 también es bien conocida, los ángulos de cabeceo o inclinación 0 y de desviación o viraje W se obtienen mediante la aplicación de la siguiente relación trigonométrica:In Figure 6, in a camera, a light source 43, such as an LED diode, emits a non-collimated light beam 62 which is redirected by a beam splitter 44, also producing non-collimated beams 63. These beams 63 they are collimated by means of a collimating lens 41. The focal length of the camera is represented by the letter f (the distance between the plane of the collimating lens and the plane of the sensor or image plane). The collimated beams 65 are reflected by the mirror 55, thereby providing reflected collimated light beams 66. Some of these again reach the collimating lens 41, which provides a focused reflected beam of light 67 to the camera sensor. 42. This configuration allows the angle of inclination of the mirror 55 (the inclination or pitch 0 or the deflection or yaw ¥) and therefore of the object that is attached to the artifact 60 to be determined, but not the angle of rotation or roll O. In fact, a plane displacement 5 of the reflected light beam 67 at a point 75 on the camera sensor 42 is studied on the image plane 61 (the camera sensor plane) in order to estimate the Angular variation (the pitch or pitch angle 0) based on the following trigonometric relationship: 0 = S / 2 /. Plane offset 5 represents the offset between a camera sensor reference point 76 and the position at which the focused reflected beam of light 75 is captured. Point 75 is the point on the image plane 61 where the focuses the reflected light beam 67. 0 indicates the angle of tilt or pitch of the mirror. I know takes a similar approach to obtain the deflection or yaw angle W. Referring now to Figure 5, a non-collimated beam of light is emitted by the light source 43 arranged in the chamber 40 (not shown in Figure 5, see, for example, Figure 6). The emitted light beam is redirected by beam splitter 44, also producing non-collimated beams (not shown). These beams are collimated by the camera lens 41. The collimated beams 65 are directed towards the flat mirror 55. The collimated beams 65 are reflected by the flat mirror 55, thereby providing reflected collimated light beams 66. The collimated beams Reflected 66 reach the camera lens 41, which provides focused reflected light beams 67 to the camera sensor 42. The point (5x ', 5y') represents the plane offset between the position (at the camera sensor 42) in which the focused reflected light beam 67, that is, point 75, and a fixed reference point 76 in the plane 61 of the camera sensor 42 is captured. This reference position represents the position where the angles of pitch or pitch 0 and yaw or yaw ^ are equal to zero, usually the position x '= 0 and y' = 0 in the plane of the camera sensor. Since the point (5x ', 5y') is well known, and the focal length f of camera 40 is also well known, the pitch or pitch angles 0 and deviation or yaw W are obtained by applying the following trigonometric relationship:
0 = Sx' / 2f0 = Sx '/ 2f
W = Sy' / 2f W = Sy '/ 2f
Una vez que se han calculado los ángulos de cabeceo o inclinación 0 y de desviación o viraje W, unos puntos de imagen 72 que se corresponden con unos puntos de referencia 71 en el sistema de coordenadas del objeto (que no se muestra, pero que está unido al artefacto de medición 60), se miden y se identifican usando la cámara. Esto se realiza mediante la aplicación de técnicas de visión de la cámara. La figura 7A muestra un esquema para llevar a cabo mediciones de fotogrametría con la cámara 40 y el conjunto de puntos de referencia 56 que está comprendido en el artefacto 60 y que está unido al objeto - que no se muestra - al que se va a realizar un seguimiento (en la figura 7A, se hace referencia a los puntos de referencia como 71). Por lo tanto, estos puntos 71 son unos puntos de referencia en el sistema de coordenadas en 3D del objeto cuya posición y orientación se está sometiendo a seguimiento. Las coordenadas de los puntos de referencia 71 se conocen mediante un sistema de coordenadas definido en el artefacto 60. En la figura 7A, se ilustran cinco puntos de referencia 71, expresado cada uno de los mismos como (Xi, Yi, Zi), en donde 1 < i < N, siendo N un número natural mayor que 2 (en la figura 7A, N = 5).Once the pitch or bank angle 0 and the yaw or yaw angle W have been calculated, image points 72 corresponding to Reference points 71 in the object's coordinate system (not shown, but attached to measurement artifact 60), are measured and identified using the camera. This is done by applying camera vision techniques. Figure 7A shows a scheme for carrying out photogrammetry measurements with camera 40 and set of reference points 56 that is comprised in artifact 60 and that is attached to the object - not shown - to be performed. a trace (in Figure 7A, reference points are referred to as 71). Therefore, these points 71 are reference points in the 3D coordinate system of the object whose position and orientation is being tracked. The coordinates of the reference points 71 are known by a coordinate system defined in the artifact 60. In Figure 7A, five reference points 71 are illustrated, each expressed as (Xi, Yi, Zi), in where 1 <i <N, where N is a natural number greater than 2 (in Figure 7A, N = 5).
La cámara 40 captura una imagen del objeto - en general, el artefacto -que tiene unido el conjunto de puntos de referencia 71 que están ubicados en unas posiciones (Xi, Yi, Zi). En el plano 61 del sensor de imagen 42, se obtienen unos puntos de imagen 72 que se corresponden con unos respectivos puntos de referencia 71. Los puntos de imagen 72, a los que se hace referencia en lo sucesivo en el presente documento como puntos de imagen observados, definen la proyección de los puntos de referencia en 3D 71 en el plano 61 del sensor. Debido a que el sensor de la cámara 52 define un plano en 2D, la componente Z se establece a 0. Los puntos de imagen observados se expresan como (x'i, y'i, 0). En la figura 7A, se muestran cinco puntos de imagen observados y'4, 0), corresponden con unos respectivos puntos de referencia (X1, Y1, Z1), (X2, Y2,The camera 40 captures an image of the object - in general, the artifact - which has attached the set of reference points 71 that are located at positions (Xi, Yi, Zi). In plane 61 of image sensor 42, image points 72 are obtained which correspond to respective reference points 71. Image points 72, hereinafter referred to as reference points The observed image defines the projection of the 3D reference points 71 on the plane 61 of the sensor. Because the camera sensor 52 defines a 2D plane, the Z component is set to 0. The observed image points are expressed as (x'i, y'i, 0). In Figure 7A, five image points are shown observed y ' 4 , 0), correspond to respective reference points (X 1 , Y 1 , Z 1 ), (X 2 , Y 2 ,
Z2), (X3 , Y3, Z3), (X4 , Y4, Z4), (X5, Y5, Z5). Debido a que las coordenadas de losZ 2 ), (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), (X 5 , Y 5 , Z 5 ). Because the coordinates of the
puntos de imágenes son en 2D, también se hace referencia a las mismas comoImage points are 2D, they are also referred to as
y'4), (x'5, y'5). La posición de los punt imagen observados en el plano de sensor es conocida. Por ejemplo, con el finy ' 4 ), (x' 5 , y ' 5 ). The position of the observed image points in the sensor plane is known. For example, in order
de obtener dicha posición, se puede aplicar un procesamiento computacionalto obtain this position, a computational processing can be applied
de imágenes, tal como operadores y / o filtros, para identificar el centro de las características (features) de interés (tal como los puntos de borde intersecados,of images, such as operators and / or filters, to identify the center of the features of interest (such as intersecting edge points,
los centros de las elipses, etc.). Por ejemplo, se puede aplicar una función de detección de contorno de superficie con el fin de obtener la posición de losthe centers of the ellipses, etc.). For example, a surface contour detection function can be applied in order to obtain the position of the
puntos de imagen observados en el plano de sensor.Image points observed in the sensor plane.
A continuación, con el fin de obtener los 6 parámetros - que se representan en la figura 7B - que definen la posición y la orientación del objetoNext, in order to obtain the 6 parameters - which are represented in figure 7B - that define the position and orientation of the object
con 6 GDL, se aplica un algoritmo de resección espacial, restringido por los ángulos de orientación ya conocidos (los ángulos de cabeceo o inclinación 0 yWith 6 DOF, a spatial resection algorithm is applied, constrained by the already known yaw angles (pitch or pitch angles 0 and
de desviación o viraje ¥). Por lo tanto, estos dos ángulos se introducen como parámetros conocidos en el algoritmo de resección espacial, que se simplificadeviation or turn ¥). Therefore, these two angles are entered as known parameters in the spatial resection algorithm, which is simplified
de este modo. En resumen, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación 0 y de desviación o viraje ^ , se obtiene el ángulo de giro O del artefacto 60, que estáin this way. In summary, by applying a spatial resection algorithm restricted by pitch or pitch angles 0 and deviation or yaw ^, the angle of twist O of the artifact 60 is obtained, which is
unido al objeto que se va a medir (que no se muestra) y un vector de traslaciónattached to the object to be measured (not shown) and a translation vector
(TX, Ty, Tz) entre la cámara 40 y el objeto. Este vector de traslación se corresponde con la posición del objeto.(T X , Ty, Tz) between camera 40 and the object. This translation vector corresponds to the position of the object.
El algoritmo de resección espacial restringida se aplica preferiblemente tal The restricted spatial resection algorithm is preferably applied such
como sigue:as follows:
Se implementa el siguiente problema de optimización, en el que es necesario que se minimice la diferencia entre los puntos de imagen observados (x'i, y'i, 0), a los que también se hace referencia como (x'i, y'i) y los puntos de imagen estimados (x'Ei, y'Ei, 0), a los que también se hace referencia como (x'Ei, y Ei):The following optimization problem is implemented, in which it is necessary to minimize the difference between the observed image points (x'i, y'i, 0), which are also referred to as (x'i, y 'i) and the estimated image points (x'Ei, y'Ei, 0), also referred to as (x'Ei, y Ei):
(ecuación 1) (equation 1)
en donde N es el número de los puntos de imagen observados 72 (y, por lo tanto, el número de puntos de referencia 71). La diferencia entre los puntos de imagen observados y los puntos de imagen estimados se minimiza repetidamente hasta que se obtiene un determinado umbral de precisión.where N is the number of the observed image points 72 (and hence the number of reference points 71). The difference between the observed image points and the estimated image points is repeatedly minimized until a certain precision threshold is obtained.
Los puntos de imagen estimados (x'eí, y'Ei, 0) se obtienen mediante la aplicación del modelo de cámara estenopeica (pinhole camera) que representa la proyección de un punto en 3D (Xi, Yi, Zi) sobre un plano de imagen (un sensor de cámara) (x'Ei, y'Ei):Image points estimated (x 'i, y'Ei, 0) are obtained by applying the model pinhole (pinhole camera) representing the projection of a 3D point (Xi, Yi, Zi) on a plane image (a camera sensor) (x'Ei, y'Ei):
(X'e í ) (Xi - Tx ( X'e í) ( Xi - Tx
\y'Ei} = [ A ] - A - R ( e ) R t y ) R ( < P ) Y,- - Ty (ecuación 2) \ y'Ei} = [A] - A - R ( e) R ty) R ( <P) Y, - - Ty (equation 2)
Zt - TzyZt - Tzy
en donde:where:
y: Y:
A cámara TO camera
Simplificando:Simplifying:
Tu ri2 ri3Your ri2 ri3
R (6 ) R ty )R (< P ) R ( 6) R ty) R ( <P) r2i r22 r23r2i r22 r23
-r3i r32 r33-Por lo tanto, hay dos formas de calcular los puntos de imagen estimados (x'e¡, y,Ei, 0), a los que también se hace referencia como (x'Ei, y'Ei): -r3i r32 r33 -There are therefore two ways to calculate the estimated image points ( x ' e ¡, y, Ei, 0), which are also referred to as (x'Ei, y'Ei):
1. Aplicar la ecuación de proyección en visión por computador, en donde los puntos de imagen estimados (x'Ei, y'Ei, 0) se calculan tal como sigue:1. Apply the projection equation in computer vision, where the estimated image points (x'Ei, y'Ei, 0) are calculated as follows:
[ x 'e C, \f 0 C X r i i r i2 r i3[x ' e C, \ f 0 C X r ii r i2 r i3
W e h 0 f C y ■A r 2i r 22 r 23 (ecuación 3) 0 0 0 1 r 3i r 32 r 33 W eh 0 f C y ■ A r 2i r 22 r 23 (equation 3) 0 0 0 1 r 3i r 32 r 33
Mediante la sustitución de los puntos de imagen estimados de la ecuación 1 con los que se obtienen en la ecuación 3, el problema de minimización da como resultado lo siguiente:By replacing the estimated image points in equation 1 with those obtained in equation 3, the minimization problem results in the following:
= 0 (ecuación 4) = 0 (equation 4)
2. Aplicar las ecuaciones de colinealidad, en donde los puntos de imagen estimados (x'Ei, y'Ei) se calculan tal como sigue:2. Apply the collinearity equations, where the estimated image points (x'Ei, y'Ei) are calculated as follows:
Mediante la sustitución de los puntos de imagen estimados de la ecuación 1 con los que se obtienen en la ecuación 5, el problema de minimización da como resultado lo siguiente: By replacing the estimated image points in equation 1 with those obtained in equation 5, the minimization problem results in the following:
En las ecuaciones anteriores, son parámetros de entrada bien conocidos:In the above equations, they are well known input parameters:
xx
para cada i, los puntos de imagen observados 72, {y! > en el sensor de la 0for each i, the observed image points 72, {y! > at the 0 sensor
cámara; la posición de los puntos de referencia en el sistema de coordenadas del objeto < ñYj}; un factor de escala X, que representa un factor de conversióncamera; the position of the reference points in the object coordinate system < ñ Yj}; a scale factor X, which represents a conversion factor
entre los puntos de referencia en el objeto y los puntos de imagen observados en el sensor de cámara; y la matriz intrínseca de cámara [A], que es una matriz que contiene las diferentes características internas de la cámara (la distancia focal (f), el punto central principal (cx, cy), el factor de oblicuidad, entre otros). No se requiere el factor de escala X si se aplica previamente un proceso de normalización. La matriz intrínseca de la cámara [A] se puede obtener, por ejemplo, mediante la aplicación de un proceso de calibración.between reference points on the object and image points observed on the camera sensor; and the intrinsic camera matrix [A], which is a matrix that contains the different internal characteristics of the camera (the focal length (f), the main central point (cx, cy), the obliquity factor, among others). The scale factor X is not required if a normalization process is previously applied. The intrinsic matrix of the chamber [A] can be obtained, for example, by applying a calibration process.
El algoritmo divulgado se puede implementar o bien teniendo en cuenta la distorsión de la imagen producida por la lente de la cámara o bien sin considerar esta distorsión. Esta distorsión se puede considerar usando errores de distorsión tangencial y radial bien conocidos en aplicaciones fotogramétricas.The disclosed algorithm can be implemented either taking into account the distortion of the image produced by the camera lens or without considering this distortion. This distortion can be accounted for using well known radial and tangential distortion errors in photogrammetric applications.
En la ecuación anterior, son parámetros de restricción de entrada que se obtienen después de aplicar la técnica de autocolimación: la matriz de rotación de cabeceo o inclinación R(0) obtenida a partir del ángulo de cabeceo o inclinación 0; y la matriz de rotación de desviación o viraje R(W) obtenida a partir del ángulo de desviación o viraje W. In the above equation, the input restriction parameters obtained after applying the autocollimation technique are: the pitch or pitch rotation matrix R (0) obtained from pitch or pitch angle 0; and the deviation or turn rotation matrix R (W) obtained from the deviation or turn angle W.
Y los parámetros de salida, estimados mediante la aplicación del algoritmo de resección espacial, son: la matriz de rotación de giro o balanceo R(O) (en general, el ángulo de giro o balanceo O) y el vector de traslación (TX Ty Tz) entre el sistema de coordenadas de la cámara y el sistema de coordenadas del objeto, que se corresponde con la posición del objeto. Dicho de otra forma, TX TY TZ, O, 0, W representan la posición y la orientación relativas entre la cámara 40 y el objeto.And the output parameters, estimated by applying the spatial resection algorithm, are: the rotation rotation matrix R (O) (in general, the angle of rotation or swing O) and the translation vector (TX Ty Tz) between the camera's coordinate system and the object's coordinate system, which corresponds to the position of the object. In other words, TX TY TZ, O, 0, W represent the relative position and orientation between the camera 40 and the object.
La figura 8 muestra un esquema alternativo para implementar el método para estimar la posición y la orientación de un objeto con 6 grados de libertad. En este caso, el seguimiento espacial del objeto se realiza por medio de dos dispositivos separados: una cámara y un autocolimador en 2D, más el artefacto de la figura 4. Dicho de otra forma, la cámara 40 de las figuras 3(a - c) se sustituye por la cámara 140 y el autocolimador en 2D 150 de la figura 8. En la figura 8, la cámara 140 y el autocolimador 150 se disponen sobre un soporte 160. TAC representa una transformación de calibración extrínseca entre el autocolimador y la cámara. Estos están orientados hacia el artefacto 60 que está unido al objeto (que no se muestra), de una forma tal que las imágenes del conjunto de puntos de referencia que está comprendido en el artefacto pueden ser capturadas por la cámara 140. Aparte de esta diferencia relacionada con los componentes (cámara y autocolimador en dispositivos separados), el procedimiento de medición es el mismo que en el caso previo. Dicho de otra forma: en primer lugar, los ángulos de cabeceo o inclinación 0 y de desviación o viraje W, que representan la inclinación del espejo plano (en general, una superficie especular) que está unido al artefacto y, por lo tanto, la inclinación del objeto que se está sometiendo a seguimiento, se miden al llevar a cabo mediciones de autocolimación con el autocolimador 150. A continuación, losFigure 8 shows an alternative scheme to implement the method to estimate the position and orientation of an object with 6 degrees of freedom. In this case, the spatial tracking of the object is performed by means of two separate devices: a camera and a 2D autocollimator, plus the artifact of Figure 4. In other words, the camera 40 of Figures 3 (a - c ) is replaced by chamber 140 and 2D autocollimator 150 of figure 8. In figure 8, chamber 140 and autocollimator 150 are arranged on a support 160. TAC represents an extrinsic calibration transformation between autocollimator and chamber . These are oriented towards the artifact 60 that is attached to the object (not shown), in such a way that the images of the set of reference points that are comprised in the artifact can be captured by the camera 140. Apart from this difference Related to the components (camera and autocollimator in separate devices), the measurement procedure is the same as in the previous case. In other words: firstly, the pitch or pitch angles 0 and the deflection or yaw angles W, which represent the pitch of the plane mirror (generally a specular surface) that is attached to the artifact and therefore the inclination of the object being tracked, are measured by carrying out autocollimation measurements with autocollimator 150. Next, the
puntos de imagen observados (x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5) se corresponden con unos respectivos (al menos 3) puntos de referencia (X1,observed image points (x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y' 4 ), (x ' 5 , y ' 5 ) correspond to respective (at least 3) reference points (X 1 ,
Y1, Z1), (X2 , Y2, Z2), (X3 , Y3, Z3), (X4 , Y4, Z4), (X5 , Y5, Z5) en el sistema deY 1 , Z 1 ), (X 2 , Y 2 , Z 2 ), (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), (X 5 , Y 5 , Z 5 ) in the system of
coordenadas del objeto (que no se muestra, pero que está unido al artefacto decoordinates of the object (not shown, but attached to the artifact of
medición 60), son obtenidos por la cámara 140, que captura una imagen delmeasurement 60), are obtained by camera 140, which captures an image of the
objeto - en general, el artefacto - que tiene unido el conjunto de puntos deobject - in general, the artifact - that has attached the set of points of
referencia que están ubicados en unas posiciones (Xi, Yi, Zi). En el plano delreference that are located in some positions (X i , Y i , Z i ). In the plane of
sensor de imagen de cámara, se obtienen los puntos de imagen observadoscamera image sensor, the observed image points are obtained
(x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5). A continuación, con el fin de(x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y' 4 ), (x ' 5 , y' 5 ). Then in order to
obtener los 6 parámetros (TX, TY, TZ , O, 0, ¥) que definen la posición y laobtain the 6 parameters (T X , T Y , T Z , O, 0, ¥) that define the position and the
orientación del objeto con respecto a la cámara, con 6 GDL, se aplica elorientation of the object with respect to the camera, with 6 DOF, the
algoritmo de resección espacial, restringido por los ángulos de orientación yaspatial resection algorithm, restricted by orientation angles already
conocidos (los ángulos de cabeceo o inclinación 0 y de desviación o viraje ¥),known (pitch or bank angles 0 and yaw or yaw ¥),
como se ha divulgado previamente.as previously disclosed.
El algoritmo de resección espacial divulgado se puede implementar yThe disclosed spatial resection algorithm can be implemented and
ejecutar en unos medios de procesamiento, tales como un procesador, y unosrun on a processing means, such as a processor, and a
medios de almacenamiento de datos, tales como una memoria. Los medios dedata storage media, such as a memory. The means of
procesamiento se pueden incorporar en la cámara 40, 140, por ejemplo en losprocessing can be incorporated into chamber 40, 140, for example in
medios de procesamiento, por lo general comprendidos en o asociados a unprocessing means, generally comprised in or associated with a
sensor de cámara. Como alternativa, los medios de procesamiento puedencamera sensor. Alternatively, the processing means may
estar ubicados en un dispositivo diferente con respecto a la cámara 40, 140,be located in a different device with respect to the chamber 40, 140,
por ejemplo en un sistema informático o un dispositivo informático, tal como unfor example in a computer system or a computing device, such as a
ordenador personal. En este caso, el algoritmo se puede ejecutar sin conexiónpersonal computer. In this case, the algorithm can be run offline
(offline). (offline).
En este texto, el término "comprende" y sus derivaciones (tales como "comprendiendo / que comprende", etc.) no se debería entender en un sentido excluyente, es decir, estos términos no se deberían interpretar como que excluyen la posibilidad de que lo que se describe y se define pueda incluir elementos, etapas, etc., adicionales.In this text, the term "comprises" and its derivations (such as "comprising / comprising", etc.) should not be understood in an exclusive sense, that is, these terms should not be construed as excluding the possibility that what is described and defined may include additional elements, steps, etc.
La invención no se limita, obviamente, a la realización o realizaciones específicas descritas en el presente documento, sino que también abarca cualquier variación que pueda ser considerada por cualquier experto en la materia (por ejemplo, en lo que respecta a la elección de materiales, dimensiones, componentes, configuración, etc.), dentro del alcance general de la invención tal como se define en las reivindicaciones. The invention is obviously not limited to the specific embodiment or embodiments described herein, but also encompasses any variation that may be considered by any person skilled in the art (for example, as regards the choice of materials, dimensions, components, configuration, etc.), within the general scope of the invention as defined in the claims.
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201930991A ES2824873A1 (en) | 2019-11-13 | 2019-11-13 | METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) |
PCT/ES2020/070697 WO2021094636A1 (en) | 2019-11-13 | 2020-11-11 | Method and system for the spatial tracking of objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201930991A ES2824873A1 (en) | 2019-11-13 | 2019-11-13 | METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2824873A1 true ES2824873A1 (en) | 2021-05-13 |
Family
ID=75819435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201930991A Withdrawn ES2824873A1 (en) | 2019-11-13 | 2019-11-13 | METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) |
Country Status (2)
Country | Link |
---|---|
ES (1) | ES2824873A1 (en) |
WO (1) | WO2021094636A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4714339A (en) * | 1986-02-28 | 1987-12-22 | The United States Of America As Represented By The Secretary Of Commerce | Three and five axis laser tracking systems |
US20030206285A1 (en) * | 2002-05-06 | 2003-11-06 | Automated Precision, Inc. | Nine dimensional laser tracking system and method |
US20120262550A1 (en) * | 2011-04-15 | 2012-10-18 | Faro Technologies, Inc. | Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner |
US20170201738A1 (en) * | 2015-06-13 | 2017-07-13 | Alberto Daniel Lacaze | Senising on uavs for mapping and obstacle avoidance |
WO2019006289A1 (en) * | 2017-06-30 | 2019-01-03 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10269728B2 (en) * | 2017-06-30 | 2019-04-23 | Taiwan Semiconductor Manufacturing Company, Ltd. | Semiconductor device with shielding structure for cross-talk reduction |
-
2019
- 2019-11-13 ES ES201930991A patent/ES2824873A1/en not_active Withdrawn
-
2020
- 2020-11-11 WO PCT/ES2020/070697 patent/WO2021094636A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4714339A (en) * | 1986-02-28 | 1987-12-22 | The United States Of America As Represented By The Secretary Of Commerce | Three and five axis laser tracking systems |
US4714339B1 (en) * | 1986-02-28 | 1997-03-18 | Us Army | Three and five axis laser tracking systems |
US4714339B2 (en) * | 1986-02-28 | 2000-05-23 | Us Commerce | Three and five axis laser tracking systems |
US20030206285A1 (en) * | 2002-05-06 | 2003-11-06 | Automated Precision, Inc. | Nine dimensional laser tracking system and method |
US20120262550A1 (en) * | 2011-04-15 | 2012-10-18 | Faro Technologies, Inc. | Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner |
US20170201738A1 (en) * | 2015-06-13 | 2017-07-13 | Alberto Daniel Lacaze | Senising on uavs for mapping and obstacle avoidance |
WO2019006289A1 (en) * | 2017-06-30 | 2019-01-03 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
Also Published As
Publication number | Publication date |
---|---|
WO2021094636A1 (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10088296B2 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
ES2801395T3 (en) | System and method for the three-dimensional measurement of the shape of material objects | |
ES2819018T3 (en) | Coordinate measurement system and method | |
US9188430B2 (en) | Compensation of a structured light scanner that is tracked in six degrees-of-freedom | |
US9696140B2 (en) | Laser tracker with position-sensitive detectors for searching for a target | |
ES2340340T3 (en) | PROCEDURE FOR DETERMINING THE SPINNING SHAFT OF A VEHICLE WHEEL. | |
US7576847B2 (en) | Camera based six degree-of-freedom target measuring and target tracking device with rotatable mirror | |
US20170188015A1 (en) | Calibration plate and method for calibrating a 3d measurement device | |
US20170168160A1 (en) | Portable distance measuring device and method for capturing relative positions | |
ES2817800T3 (en) | Optical measurement system | |
US20150009493A1 (en) | Laser tracker with functionality for graphical target preparation | |
ES2683364T3 (en) | Method to monitor linear dimensions of three-dimensional objects | |
US10697754B2 (en) | Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera | |
CN108692661A (en) | Portable three-dimensional measuring system based on Inertial Measurement Unit and its measurement method | |
WO2016040229A1 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
ES2555270T3 (en) | Projective optical metrology system to determine attitude and position | |
CN108458692B (en) | Close-range three-dimensional attitude measurement method | |
Orghidan et al. | Modelling and accuracy estimation of a new omnidirectional depth computation sensor | |
ES2824873A1 (en) | METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) | |
Yang et al. | Point Light Measurement and Calibration for Photometric Stereo | |
US20170357003A1 (en) | Method for the absolute calibration of the location and orientation of large-format detectors using laser radar | |
De Ruvo et al. | An omnidirectional range sensor for environmental 3-D reconstruction | |
ES2543038B2 (en) | Spatial location method and system using light markers for any environment | |
BR112020024006A2 (en) | motion encoder | |
JP2007315865A (en) | Three-dimensional displacement measuring device and measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
BA2A | Patent application published |
Ref document number: 2824873 Country of ref document: ES Kind code of ref document: A1 Effective date: 20210513 |
|
FA2A | Application withdrawn |
Effective date: 20210830 |