ES2824873A1 - METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) - Google Patents

METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) Download PDF

Info

Publication number
ES2824873A1
ES2824873A1 ES201930991A ES201930991A ES2824873A1 ES 2824873 A1 ES2824873 A1 ES 2824873A1 ES 201930991 A ES201930991 A ES 201930991A ES 201930991 A ES201930991 A ES 201930991A ES 2824873 A1 ES2824873 A1 ES 2824873A1
Authority
ES
Spain
Prior art keywords
camera
pitch
artifact
yaw
angles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
ES201930991A
Other languages
Spanish (es)
Inventor
Urberuaga Aitor Olarra
Berriozabal Gorka Kortaberria
Oumar Brahim Ahmed Chekh
Castrillo Andoni Delgado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fundacion Tekniker
Original Assignee
Fundacion Tekniker
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fundacion Tekniker filed Critical Fundacion Tekniker
Priority to ES201930991A priority Critical patent/ES2824873A1/en
Priority to PCT/ES2020/070697 priority patent/WO2021094636A1/en
Publication of ES2824873A1 publication Critical patent/ES2824873A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Method and system for the spatial tracking of objects. A method to estimate the position and orientation of an object with 6 degrees of freedom (Tx, Ty Tz, Φ, θ, Ψ), which includes: joining an artifact (60) to the object whose position and orientation are to be estimated ((Tx, Ty Tz, Φ, θ, Ψ), where said artifact (60) comprises a specular surface (55) and a set of N reference points (71), where each point reference is defined by a position (Xi, Yi, Zi) in a coordinate system defined in the artifact (60) ; place a camera (40) oriented towards the artifact (60) that is attached to the object; measure the angles of pitch or tilt θ and deviation or yaw Ψ which represent the tilt of the specular surface (55) and, therefore Therefore, of the object, said measurement being carried out by applying an autocollimation technique; capturing an image of the set of reference points (71; (Xi, Yi, Zi)) that is included in the artifact (60), thus obtaining in the plane (61) of the sensor (42) of the camera some observed image points (72; (x'i, y'i)) that correspond to said reference points (71; (Xi, Yi, Zi)); get the angle of turn or roll Φ of the object and a translation vector (TX, TY, TZ) between the camera (40) and the object, using these reference points (71; (Xi, Yi, Zi)) and said observed image points (72; (x'i, and'i)) obtained in the camera sensor (42), by applying a spatial resection algorithm restricted by pitch angles or tilt θ and deviation or turn Φ measured, where (TX, TY, TZ, Φ, θ, Ψ) represent position and orientation relative between the camera (40) and the object. (Machine-translation by Google Translate, not legally binding)

Description

DESCRIPCIÓNDESCRIPTION

MÉTODO Y SISTEMA PARA EL SEGUIMIENTO ESPACIAL DE OBJETOSMETHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS

CAMPO TÉCNICOTECHNICAL FIELD

La presente invención se refiere al campo del seguimiento espacial de objetos. En particular, esta se refiere a técnicas de medición sin contacto para mejorar la precisión que se puede lograr en el seguimiento espacial de objetos por medio de un procedimiento de resección espacial.The present invention relates to the field of spatial object tracking. In particular, it relates to non-contact measurement techniques to improve the precision that can be achieved in spatial tracking of objects by means of a spatial resection procedure.

ESTADO DE LA TÉCNICASTATE OF THE ART

En la actualidad, hay diferentes tecnologías y métodos de medición para el seguimiento espacial sin contacto de objetos. Una de estas técnicas se denomina fotogrametría, que se basa en la extracción de mediciones tridimensionales a partir de datos bidimensionales (es decir, imágenes). Por lo general, la fotogrametría usa el método de resección espacial para obtener la orientación exterior de una única imagen. En la resección espacial, la posición espacial y la orientación de una cámara se determina basándose en la proyección central de la cámara y el modelado de la distorsión óptica debido a los errores de forma de lente. El modelo de cámara estenopeica (en inglés, pinhole camera) representa la definición matemática de rendimiento luminoso a través de una lente de cámara entre el mundo en 3D (el espacio del objeto) y una imagen en 2D (el plano de sensor). Esto se esquematiza en la figura 1, que representa cómo obtener la posición y la orientación de un objeto 11 usando una única cámara 10 mediante la aplicación del método de resección espacial. La siguiente ecuación describe la transformación rígida entre el sistema de coordenadas de la cámara y el sistema de coordenadas del objeto: Currently, there are different technologies and measurement methods for non-contact spatial tracking of objects. One of these techniques is called photogrammetry, which is based on extracting three-dimensional measurements from two-dimensional data (that is, images). Typically, photogrammetry uses the spatial resection method to obtain the exterior orientation of a single image. In spatial resection, the spatial position and orientation of a camera is determined based on the central projection of the camera and modeling of optical distortion due to lens shape errors. The pinhole camera model represents the mathematical definition of light output through a camera lens between the 3D world (the object space) and a 2D image (the sensor plane). This is outlined in Figure 1, which depicts how to obtain the position and orientation of an object 11 using a single camera 10 by applying the spatial resection method. The following equation describes the rigid transformation between the camera coordinate system and the object coordinate system:

Figure imgf000003_0001
Figure imgf000003_0001

en donde {y ' indica la posición espacial de la cámara 10, {Y} indica la Zwhere {y 'indicates the spatial position of camera 10, {Y} indicates the Z

posición espacial del objeto 11 y la matriz representa la rotación y el desplazamiento relativos desde el objeto 11 a la cámara 10. Tal como se muestra en la figura 1, 0 representa el ángulo de elevación (también referido como ángulo de cabeceo o inclinación) (en inglés, pitch angle) relativo del objeto 11, W representa el ángulo de desviación (también referido como ángulo de viraje) (en inglés, yaw angle) relativo del objeto 11, O representa el ángulo de giro (también referido como ángulo de balanceo) (en inglés, roll angle) relativo del objeto 11 y dTxTyTz representa la traslación relativa Tx, Ty y Tz. En esencia, el método de resección espacial reduce al mínimo de forma iterativa la distancia plana entre los puntos de imagen observados y los que teóricamente son proyectados con el fin de determinar la posición y la orientación de la cámara 10 con 6 grados de libertad (GDL, en inglés, DOF) que se ajustan mejor a los puntos correspondientes. Se han de marcar al menos tres puntos de referencia sobre el objeto. En la figura 1, seis círculos representados sobre el objeto 11 representan unos puntos de referencia de objeto correspondientes. Cada círculo tiene una coordenada Xi, Yi, Zi.spatial position of object 11 and the matrix represents the relative rotation and displacement from object 11 to camera 10. As shown in figure 1, 0 represents the elevation angle (also referred to as pitch or pitch angle) ( relative pitch angle) of object 11, W represents the yaw angle (also referred to as yaw angle) relative to object 11, O represents the angle of twist (also referred to as roll angle ) (roll angle) relative to object 11 and dTxTyTz represents the relative translation Tx, Ty and Tz. In essence, the spatial resection method iteratively minimizes the planar distance between the observed image points and those that are theoretically projected in order to determine the position and orientation of the camera 10 with 6 degrees of freedom (DOF DOF) that best fit the corresponding points. At least three reference points must be marked on the object. In Figure 1, six circles depicted on the object 11 represent corresponding object reference points. Each circle has an Xi, Yi, Zi coordinate.

No obstante, las configuraciones fotogramétricas que usan técnicas de resección espacial pueden tener limitaciones de precisión cuando se estiman los parámetros de orientación externos de una cámara con 6 GDL debido a la correlación alta entre los parámetros de orientación y de traslación de la cámara. A pesar de que, con unas configuraciones convenientes de la posición de cámara, el tamaño de objeto y el sistema de referencia (que se ha de haber establecido previamente), se pueden lograr unas precisiones de aproximadamente 1 : 10000 del volumen de medición, son críticas las traslaciones en el eje Z y las rotaciones en torno a los ángulos de cabeceo o inclinación 0 y de viraje W. Esto se muestra en la figura 2. La figura 2 (parte superior) representa un ejemplo de correlación baja entre los parámetros de orientación y de traslación de una cámara. La figura 2 (parte inferior) representa un ejemplo de correlación alta entre los parámetros de orientación y de traslación de una cámara. En la figura 2 (parte superior), la distribución objetivo de puntos de referencia (cómo se distribuyen los puntos de referencia sobre el objeto) genera una imagen diferente después de una traslación de cámara y una imagen diferente después de una rotación de cámara. No obstante, en la figura 2 (parte inferior) la distribución objetivo genera unas imágenes casi idénticas después de la traslación de cámara y la rotación de cámara. Como consecuencia, en el segundo escenario (parte inferior) no es posible una diferenciación precisa entre las rotaciones en torno a los ángulos de cabeceo o inclinación 0 y de viraje W y las traslaciones Tx y Ty.However, photogrammetric setups using spatial resection techniques may have precision limitations when estimating the external orientation parameters of a camera with 6 DOF due to the high correlation between the orientation and translation parameters of the camera. Although, with convenient settings for camera position, object size, and reference system (which has to be previously established), accuracies of approximately 1: 10,000 of the measurement volume can be achieved, translations in the Z axis and rotations around pitch or pitch angles 0 and turn W are critical. Figure 2. Figure 2 (top) represents an example of a low correlation between the orientation and translation parameters of a camera. Figure 2 (bottom) represents an example of high correlation between the orientation and translation parameters of a camera. In Figure 2 (top), the target reference point distribution (how the reference points are distributed on the object) generates a different image after camera translation and a different image after camera rotation. However, in Figure 2 (bottom) the target distribution generates nearly identical images after camera translation and camera rotation. As a consequence, in the second scenario (lower part) no precise differentiation is possible between rotations around pitch or bank angles 0 and turn W and translations Tx and Ty.

Otra técnica bien conocida de medición de ángulos es la autocolimación. La autocolimación es una configuración óptica en la que un haz colimado de rayos de luz paralelos sale de un sistema óptico y es reflejado de vuelta al mismo sistema por un espejo plano. La autocolimación se usa para medir ángulos de inclinación pequeños del espejo con una precisión alta. No obstante, la mayor parte de las técnicas de autocolimación presentan una limitación para estimar el ángulo de giro o balanceo de un espejo. Dicho de otra forma, la mayor parte de los dispositivos de autocolimación existentes son capaces de medir solo dos ángulos de inclinación (la inclinación o cabeceo y el viraje) de un espejo. Recientemente se han desarrollado nuevos autocolimadores, que tienen una determinada capacidad de medir un ángulo de rotación en torno al eje normal del espejo basándose en una lente especial. Este es el caso, por ejemplo, de TriAngle®3D, de la empresa TRIOPTICS. No obstante, la precisión de la medición del ángulo de giro o balanceo (el ángulo de rotación) se reduce de forma significativa en comparación con la precisión de la medición de los ángulos de cabeceo o inclinación y de viraje.Another well-known angle measurement technique is autocollimation. Autocollimation is an optical setup in which a collimated beam of parallel light rays exits an optical system and is reflected back to the same system by a flat mirror. Autocollimation is used to measure small tilt angles of the mirror with high precision. However, most of the autocollimation techniques have a limitation to estimate the angle of rotation or roll of a mirror. In other words, most existing autocollimation devices are capable of measuring only two bank angles (pitch or pitch and pitch). turn) of a mirror. Recently, new autocollimators have been developed, which have a certain ability to measure an angle of rotation around the normal axis of the mirror based on a special lens. This is the case, for example, of TriAngle®3D, from the company TRIOPTICS. However, the accuracy of the roll or roll angle measurement (the angle of rotation) is significantly reduced compared to the accuracy of the pitch and bank angle measurement.

Por lo tanto, existe la necesidad de un método y sistema para el seguimiento espacial y/o la supervisión precisos de un objeto, que mejore la precisión en los 6 GDL.Therefore, there is a need for a method and system for precise spatial tracking and / or monitoring of an object, which improves the accuracy in the 6 DOF.

DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION

El método y sistema descritos en la presente invención tienen por objeto solucionar los inconvenientes de la técnica anterior. En la presente invención, se combinan dos técnicas de medición sin contacto con el fin de mejorar la precisión que se puede lograr en la supervisión o seguimiento espacial de objetos. Las dos técnicas son (a) la fotogrametría, que se aplica con una única cámara, y (b) la autocolimación, que se emplea para la estimación de los ángulos de inclinación absolutos de una superficie especular que, con una transformación calibrada, representa los ángulos de cabeceo (inclinación) y de viraje del objeto al que se está realizando un seguimiento. En lo que respecta a la fotogrametría, el problema de la orientación y la traslación exterior de una cámara mediante una imagen única se aborda aplicando la técnica de resección espacial. En lo que respecta a la autocolimación, la orientación de la cámara (los ángulos de cabeceo (inclinación) y de viraje) se obtiene con respecto al sistema de coordenadas del objeto que se construye a partir de un conjunto de objetivos (targets). De esta forma, la técnica de resección espacial se restringe con los valores de orientación obtenidos (los ángulos de cabeceo (inclinación) y de viraje) y los parámetros restantes (TX TY TZ y el ángulo de giro o balanceo O) se pueden estimar con una precisión más alta y una correlación más baja entre los mismos. Por lo tanto, estos se estiman con una incertidumbre mejor (más baja). Dicho de otra forma, se aplica una resección espacial restringida en lugar de una resección espacial convencional.The method and system described in the present invention are intended to solve the drawbacks of the prior art. In the present invention, two non-contact measurement techniques are combined in order to improve the precision that can be achieved in spatial monitoring or tracking of objects. The two techniques are (a) photogrammetry, which is applied with a single camera, and (b) autocollimation, which is used to estimate the absolute angles of inclination of a specular surface that, with a calibrated transformation, represents the pitch (bank) and yaw angles of the object being tracked. With regard to photogrammetry, the problem of orientation and external translation of a camera by means of a single image is addressed by applying the spatial resection technique. Regarding autocollimation, the camera orientation (pitch (bank) and yaw angles) is obtained with respect to the object's coordinate system that is constructed from a set of objectives (targets). In this way, the spatial resection technique is restricted with the obtained orientation values (pitch (bank) and turn angles) and the remaining parameters (TX TY TZ and roll or roll angle O) can be estimated with higher precision and lower correlation between them. Therefore, these are estimated with a better (lower) uncertainty. In other words, a restricted spatial resection is applied instead of a conventional spatial resection.

Un primer aspecto de la invención se refiere a un método para estimar la posición y la orientación de un objeto con 6 grados de libertad, que comprende:A first aspect of the invention refers to a method for estimating the position and orientation of an object with 6 degrees of freedom, comprising:

unir un artefacto al objeto del cual se va a estimar la posición y la orientación, en donde el artefacto comprende una superficie especular y un conjunto de N puntos de referencia, en donde cada punto de referencia es definido por una posición Xi, Yi, Zi en un sistema de coordenadas definido en el artefacto, en donde 1 < i < N y N > 2;join an artifact to the object whose position and orientation are to be estimated, where the artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position Xi, Yi, Zi in a coordinate system defined in the artifact, where 1 <i <N and N> 2;

colocar una cámara orientada hacia el artefacto que está unido al objeto; medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular y, por lo tanto, del objeto, siendo realizada dicha medición mediante la aplicación de una técnica de autocolimación;placing a camera facing the artifact that is attached to the object; measuring the angles of elevation, pitch or inclination 0 and deviation or yaw W that represent the inclination of the specular surface and, therefore, of the object, said measurement being carried out by applying an autocollimation technique;

capturar una imagen del conjunto de puntos de referencia comprendido en el artefacto que está unido al objeto, obteniendo de este modo, en el plano del sensor de la cámara, unos puntos de imagen observados que se corresponden con dichos puntos de referencia;capturing an image of the set of reference points comprised in the artifact that is attached to the object, thereby obtaining, in the plane of the camera sensor, observed image points corresponding to said reference points;

obtener el ángulo de giro o balanceo O del objeto y un vector de traslación (TX, Ty, Tz) entre la cámara y el objeto, usando dichos puntos de referencia y dichos puntos de imagen observados que se obtienen en el sensor de la cámara, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ¥ medidos, en donde TX, TY, TZ, O, 6, ¥ representan la posición y la orientación relativas entre la cámara y el objeto.obtain the angle of rotation or roll O of the object and a translation vector (TX, Ty, Tz) between the camera and the object, using said reference points and said observed image points that are obtained in the camera sensor, through the application of a spatial resection algorithm restricted by the angles of elevation, pitch or inclination 0 and of deviation or yaw ¥ measured, where TX, TY, TZ , O, 6, ¥ represent the relative position and orientation between the camera and the subject.

En realizaciones de la invención, los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ¥ que representan la inclinación de la superficie especular y, por lo tanto, del objeto, se miden tal como sigue aplicando una técnica de autocolimación:In embodiments of the invention, the angles of elevation, pitch or pitch 0 and deviation or yaw ¥ representing the slope of the specular surface and therefore of the object, are measured as follows by applying a self-collimation technique:

emitir un haz de luz no colimado a partir de una fuente de luz que está dispuesta en la cámara;emitting a non-collimated beam of light from a light source that is arranged in the chamber;

redirigir el haz de luz emitido mediante un divisor de haz, produciendo haces de luz no colimados;redirecting the emitted light beam by means of a beam splitter, producing non-collimated light beams;

colimar dichos haces de luz mediante una lente de la cámara, produciendo de este modo unos haces de luz colimados;collimating said light beams by a camera lens, thereby producing collimated light beams;

dirigir dichos haces colimados hacia el espejo plano, en el que se reflejan los mismos, proporcionando de este modo unos haces de luz colimados reflejados;directing said collimated beams towards the plane mirror, in which they are reflected, thereby providing reflected collimated light beams;

enfocar dichos haces colimados reflejados en la lente de la cámara, proporcionando de este modo unos haces de luz reflejados enfocados al sensor de la cámara, siendo enfocados dichos haces de luz reflejados enfocados en una posición sobre el plano del sensor de la cámara;focusing said reflected collimated beams on the camera lens, thereby providing focused reflected beams of light to the camera sensor, said reflected beams of light being focused at a position on the plane of the camera sensor;

calcular los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ¥ tal como sigue:calculate the angles of elevation, pitch or bank 0 and of deviation or yaw ¥ as follows:

0 = Sx' / 2f 0 = Sx '/ 2f

W = Sy' / 2fW = Sy '/ 2f

en donde f es la distancia focal de la cámara y 5x', Sy' representan un desplazamiento plano entre la posición medida y una posición de referencia fija sobre el plano del sensor de la cámara, representando esta referencia fija la posición (x', y') en el plano del sensor en donde los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W son iguales a 0.where f is the focal length of the camera and 5x ', Sy' represent a plane displacement between the measured position and a fixed reference position on the plane of the camera sensor, this fixed reference representing the position (x ', y ') in the sensor plane where the elevation, pitch or bank angles 0 and deviation or yaw W are equal to 0.

En realizaciones de la invención, dicho ángulo de giro o balanceo O y dicho vector de traslación entre la cámara y el objeto, se obtienen mediante la implementación de una técnica de resección espacial, restringida por los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W ya obtenidos, solucionando de forma iterativa el siguiente problema de optimización:In embodiments of the invention, said roll or roll angle O and said translation vector between the camera and the object, are obtained by implementing a spatial resection technique, restricted by the elevation, pitch or tilt angles 0 and deviation or yaw W already obtained, iteratively solving the following optimization problem:

2two

X |XEi = 0X | XEi = 0

Figure imgf000008_0001
lyi, lyE i>
Figure imgf000008_0001
lyi, lyE i>

en donde N es el número de los puntos de imagen observados; (x'i, y'i) son los puntos de imagen observados; y (x'Ei, y'Ei) son los puntos de imagen estimados.where N is the number of image points observed; (x'i, y'i) are the observed image points; y (x'Ei, y'Ei) are the estimated image points.

En realizaciones de la invención, los puntos de imagen estimados (x'Ei, y'Ei) se obtienen mediante la aplicación de un modelo de cámara estenopeica (pinhole camera) que representa la proyección (x'Ei, y'Ei) de cada punto de referencia en 3D sobre el plano de imagen del sensor de la cámara:In embodiments of the invention, the estimated image points (x'Ei, y'Ei) are obtained by applying a pinhole camera model that represents the projection (x'Ei, y'Ei) of each 3D reference point on the camera sensor image plane:

(x Eíl( x Eíl

¡ y ' J = [ Á ] ^ A ^ R ¡Y 'J = [Á] ^ A ^ R

0 >

Figure imgf000008_0002
0>
Figure imgf000008_0002

en donde:where:

1 0 0 0 sen(^)' R(&) = 0 co s( d) sen(0) ,R(xP) = 1 0 1 0 0 0 - sin (^) ' R (&) = 0 co s (d) sin (0) , R (xP) = 1 0

0 — sen(0) cos(d) .

Figure imgf000008_0003
0 cos(^) . 0 - sin (0) cos (d).
Figure imgf000008_0003
0 cos (^).

Figure imgf000009_0001
Figure imgf000009_0001

que se puede simplificar como:which can be simplified as:

y en donde:

Figure imgf000009_0004
cámaraand where:
Figure imgf000009_0004
camera

y en donde X es un factor de escala.and where X is a scale factor.

En realizaciones de la invención, los puntos de imagen estimados (x'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de la ecuación de proyección central en visión por computador:In embodiments of the invention, the estimated image points (x'Ei, y'Ei, 0) are calculated as follows by applying the central projection equation in computer vision:

Figure imgf000009_0003
Figure imgf000009_0003

En realizaciones de la invención, los puntos de imagen estimados (x'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de ecuaciones de colinealidad:In embodiments of the invention, the estimated image points (x ' Ei , y' Ei , 0) are calculated as follows by applying collinearity equations:

Figure imgf000009_0002
Figure imgf000009_0002

En realizaciones de la invención, antes de aplicar una técnica de autocolimación para medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W y de capturar, con la cámara, una imagen del artefacto que está unido al objeto, se establece una relación geométrica entre el plano de la superficie especular y un sistema de coordenadas formado por el conjunto de puntos de referencia. In embodiments of the invention, before applying an autocollimation technique to measure the angles of elevation, pitch or pitch 0 and deviation or yaw W and capturing, with the camera, an image of the artifact that is attached to the object, it is established a geometric relationship between the plane of the specular surface and a coordinate system formed by the set of reference points.

En realizaciones de la invención, el artefacto se ha medido en una Máquina de Medición de Coordenadas (CMM, por sus siglas en inglés) con el fin de establecer dicha relación geométrica.In embodiments of the invention, the artifact has been measured in a Coordinate Measuring Machine (CMM) in order to establish said geometric relationship.

El método propuesto se puede implementar o bien en un único dispositivo que abarque tanto la funcionalidad de una cámara como de un autocolimador; o bien en dos dispositivos separados - una cámara y un autocolimador - que trabajan de forma conjunta.The proposed method can be implemented either in a single device that encompasses both the functionality of a camera and an autocollimator; or in two separate devices - a camera and an autocollimator - that work together.

Un segundo aspecto de la invención se refiere a un sistema para estimar la posición y la orientación de un objeto con 6 grados de libertad, que comprende:A second aspect of the invention refers to a system for estimating the position and orientation of an object with 6 degrees of freedom, comprising:

unos medios para tomar mediciones de fotogrametría;means for taking photogrammetry measurements;

unos medios para llevar a cabo una autocolimación; ymeans for carrying out autocollimation; Y

un artefacto que está unido al objeto del cual se va a estimar la posición y la orientación, en donde dicho artefacto comprende una superficie especular y un conjunto de N puntos de referencia, en donde cada punto de referencia es definido por una posición en un sistema de coordenadas definido en el artefacto, en donde 1 < i < N y N > 2;an artifact that is attached to the object whose position and orientation are to be estimated, wherein said artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position in a system of coordinates defined in the artifact, where 1 <i <N and N> 2;

en donde los medios para llevar a cabo una autocolimación se configuran para medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular y, por lo tanto, del objeto;wherein the means for carrying out autocollimation are configured to measure the angles of elevation, pitch or pitch 0 and deviation or yaw W that represent the inclination of the specular surface and, therefore, of the object;

en donde los medios para tomar mediciones de fotogrametría se configuran para:wherein the means for taking photogrammetry measurements are configured to:

capturar una imagen del conjunto de puntos de referencia comprendido en el artefacto que está unido al objeto, obteniendo de este modo unos puntos de imagen observados que se corresponden con dichos puntos de referencia; y obtener el ángulo de giro o balanceo O del objeto y un vector de traslación (TX, Ty, Tz) entre los medios para tomar mediciones de fotogrametría y el objeto, usando dichos puntos de referencia y dichos puntos de imagen observados, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje W medidos.capture an image of the set of reference points included in the artifact that is attached to the object, thus obtaining points observed image images corresponding to said reference points; and obtain the angle of rotation or roll O of the object and a translation vector (TX, Ty, Tz) between the means for taking photogrammetry measurements and the object, using said reference points and said observed image points, by applying of a spatial resection algorithm constrained by the measured angles of elevation, pitch, or pitch 0 and of deviation or yaw W.

En realizaciones de la invención, los medios para tomar mediciones fotogramétricas y los medios para llevar a cabo una autocolimación están comprendidos en una cámara.In embodiments of the invention, the means for taking photogrammetric measurements and the means for carrying out autocollimation are comprised of a chamber.

En realizaciones de la invención, los medios para tomar mediciones fotogramétricas están comprendidos en una cámara y los medios para llevar a cabo una autocolimación están comprendidos en un autocolimador.In embodiments of the invention, the means for taking photogrammetric measurements are comprised of a camera and the means for performing autocollimation are comprised of an autocollimator.

En realizaciones de la invención, los N puntos de referencia representan un patrón de tablero de ajedrez, o un patrón circular, o un patrón cuadrado, o un patrón en forma de cruz o siguen marcadores especiales.In embodiments of the invention, the N reference points represent a checkerboard pattern, or a circular pattern, or a square pattern, or a cross-shaped pattern, or follow special markers.

En realizaciones de la invención, la superficie especular es un espejo plano o cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz.In embodiments of the invention, the specular surface is a flat mirror or any flat or semi-flat surface capable of producing a specular reflection of light.

En realizaciones de la invención, el sistema comprende adicionalmente unos medios de montaje para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del espejo.In embodiments of the invention, the system further comprises mounting means for mounting a plurality of measurement means for measuring the spatial location and orientation of the mirror.

El dispositivo se puede materializar en al menos dos configuraciones diferentes. En una primera realización, un único dispositivo integra las dos tecnologías (cámara y autocolimador). En este caso, el dispositivo, tal como una cámara, está compuesto por una fuente de luz - tal como una fuente de LED - y un divisor de haz. La fuente de luz y el divisor de haz se pueden montar sobre la cámara. Por lo tanto, simplemente al modificar los parámetros de adquisición de la cámara, la cámara puede actuar como un autocolimador. En una segunda realización, el dispositivo está compuesto por una única cámara y un autocolimador en 2D separado. Esta configuración requiere una fase previa de calibración extrínseca, para recopilar datos independientes y obtener datos de salida con respecto a un mismo sistema de referencia.The device can be embodied in at least two different configurations. In a first embodiment, a single device integrates the two technologies (camera and autocollimator). In this case, the device, such as A camera is made up of a light source - such as an LED source - and a beam splitter. The light source and beam splitter can be mounted on the camera. Therefore, simply by modifying the acquisition parameters of the camera, the camera can act as an autocollimator. In a second embodiment, the device is comprised of a single camera and a separate 2D autocollimator. This configuration requires a previous extrinsic calibration phase, to collect independent data and obtain output data with respect to the same reference system.

Un tercer aspecto de la invención se refiere a un producto de programa informático que comprende instrucciones / código de programa informático para llevar a cabo el método divulgado.A third aspect of the invention relates to a computer program product comprising computer program instructions / code for carrying out the disclosed method.

Un cuarto aspecto de la invención se refiere a una memoria / soporte legible por ordenador que almacena instrucciones / código de programa para llevar a cabo el método divulgado.A fourth aspect of the invention relates to a computer-readable memory / medium that stores instructions / program code to carry out the disclosed method.

La combinación de una cámara configurada para fotogrametría y de un autocolimador, o bien en un único dispositivo o bien en dos dispositivos separados, proporciona las siguientes ventajas: (a) Potencia la precisión de las mediciones que se pueden obtener como consecuencia de la reducción en la incertidumbre para identificar cuatro parámetros de cámara (la orientación - el giro o balanceo- y TX TY TZ) usando técnicas de resección espacial, gracias a su vez a la restricción de los parámetros de orientación - el cabeceo o inclinación y el viraje - mediante el autocolimador. (b) Aumenta el número de GDL en las mediciones con respecto a los autocolimadores existentes, mediante la adición de los GDL necesarios mediante las técnicas de resección espacial. (c) Potencia el rendimiento y la aplicabilidad de las técnicas de resección espacial a las demandas de precisión alta y la aplicación gracias a la introducción de la restricción de ángulo (cabeceo o inclinación y viraje).The combination of a camera configured for photogrammetry and an autocollimator, either in a single device or in two separate devices, provides the following advantages: (a) It enhances the precision of measurements that can be obtained as a consequence of the reduction in the uncertainty to identify four camera parameters (the orientation - roll or roll- and TX TY TZ) using spatial resection techniques, thanks in turn to the restriction of the orientation parameters - pitch or roll and yaw - by the autocollimator. (b) Increases the number of DOF in measurements with respect to existing autocollimators, by adding the necessary DOF using spatial resection techniques. (c) It enhances the performance and applicability of the techniques of Spatial resection to the demands of high precision and application thanks to the introduction of angle constraint (pitch or bank and yaw).

Algunas ventajas y características adicionales de la invención se harán evidentes a partir de la descripción en detalle que sigue y serán señaladas en particular en las reivindicaciones adjuntas.Certain additional advantages and features of the invention will become apparent from the detailed description that follows and will be pointed out in particular in the appended claims.

BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS

Para completar la descripción y con el fin de prever una mejor comprensión de la invención, se proporciona un conjunto de dibujos. Dichos dibujos forman una parte integrante de la descripción e ilustran una realización de la invención, lo que no se debería interpretar como que restringe el alcance de la invención, sino simplemente como un ejemplo de cómo se puede llevar a cabo la invención. Los dibujos comprenden las siguientes figuras:To complete the description and in order to provide a better understanding of the invention, a set of drawings is provided. Said drawings form an integral part of the description and illustrate an embodiment of the invention, which should not be construed as restricting the scope of the invention, but merely as an example of how the invention can be carried out. The drawings comprise the following figures:

La figura 1 representa la técnica de resección espacial, que es una técnica bien conocida para determinar la posición espacial y la orientación de una cámara basándose en la proyección central de la cámara.Figure 1 depicts the spatial resection technique, which is a well-known technique for determining the spatial position and orientation of a camera based on the central projection of the camera.

La figura 2 muestra unas configuraciones fotogramétricas a modo de ejemplo con correlación diferente entre la traslación y la rotación de una cámara.Figure 2 shows exemplary photogrammetric configurations with different correlation between translation and rotation of a camera.

Las figuras 3(a) y 3(b) muestran unas vistas laterales de una cámara que se usa en realizaciones de la presente invención. Parte de la carcasa externa se ha retirado para mostrar la parte interior de la cámara. La figura 3(c) muestra una vista en despiece ordenado de la cámara que se muestra en las figuras 3(a) y 3(b).Figures 3 (a) and 3 (b) show side views of a chamber used in embodiments of the present invention. Part of the outer casing has been removed to show the inside of the camera. Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b).

La figura 4 muestra un artefacto de medición que se ha de unir a un objeto para llevar a cabo mediciones de seguimiento de 6 GDL, de acuerdo con realizaciones de la presente invención. El artefacto incluye una superficie especular y un conjunto de puntos de referencia.Figure 4 shows a measurement artifact to be attached to an object to perform 6 DOF follow-up measurements, according to embodiments of the present invention. The artifact includes a mirror surface and a set of reference points.

La figura 5 muestra un esquema de acuerdo con realizaciones de la invención, en el que se toman mediciones de autocolimación con la cámara de las figuras 3(a) -(c) y el artefacto de medición de la figura 4.Figure 5 shows a schematic according to embodiments of the invention, in which autocollimation measurements are taken with the camera of Figures 3 (a) - (c) and the measurement artifact of Figure 4.

La figura 6 muestra componentes a modo de ejemplo de un dispositivo para llevar a cabo la técnica de autocolimación.Figure 6 shows exemplary components of a device for performing the autocollimation technique.

La figura 7A muestra un esquema de acuerdo con realizaciones de la invención, en el que se toman mediciones de fotogrametría con la cámara de las figuras 3(a) -(c) y el artefacto de la figura 4. La figura 7B muestra el esquema de la figura 7A, incluyendo adicionalmente los 6 parámetros que se van a medir.Figure 7A shows a schematic according to embodiments of the invention, in which photogrammetry measurements are taken with the camera of Figures 3 (a) - (c) and the artifact of Figure 4. Figure 7B shows the schematic of Figure 7A, further including the 6 parameters to be measured.

La figura 8 muestra un esquema alternativo de acuerdo con algunas realizaciones de la invención, en el que la supervisión o seguimiento espacial de un objeto se logra por medio de una cámara y un autocolimador en 2D separado, más un artefacto de medición tal como se muestra en la figura 4.Figure 8 shows an alternative scheme according to some embodiments of the invention, in which the spatial monitoring or tracking of an object is achieved by means of a camera and a separate 2D autocollimator, plus a measurement artifact as shown. in figure 4.

DESCRIPCIÓN DE UNA FORMA DE LLEVAR A CABO LA INVENCIÓNDESCRIPTION OF A WAY OF CARRYING OUT THE INVENTION

Las figuras 3(a) a 3(c) muestran diferentes vistas de una cámara 40 adecuada para llevar a cabo la supervisión o seguimiento espacial de un objeto de acuerdo con una realización de la invención. La cámara 40 integra las dos tecnologías que se requieren para mejorar la precisión en las mediciones necesarias para el seguimiento espacial de un objeto: una cámara como tal, para mediciones de fotogrametría, y un autocolimador. En las figuras 3(a) y 3(b), parte de la carcasa externa se ha retirado para mostrar la parte interior de la cámara. La figura 3(c) muestra una vista en despiece ordenado de la cámara que se muestra en las figuras 3(a) y 3(b). Algunas de las partes más relevantes de la cámara 40 se identifican en las figuras: una lente 41 para enfocar y crear la imagen del objeto en el sensor de cámara y para colimar la luz en las mediciones de autocolimación; y un sensor 42 para capturar imágenes. Ejemplos no limitantes del sensor 42 pueden ser un CCD matricial o un sensor CMOS. La imagen proyectada por la lente objetivo se forma en el sensor. Estos elementos se encuentran, por lo general, presentes en todas las cámaras. La cámara 40 también incluye una fuente de luz 43 necesaria para implementar la funcionalidad de autocolimación. La fuente de luz 43 puede ser un diodo de emisión de luz (LED). Como alternativa, esta puede ser un emisor láser. Esto puede aumentar la potencia y, por lo tanto, el intervalo operativo, o puede posibilitar que se trabaje en entornos de iluminación. La cámara 40 también incluye un divisor de haz 44, necesario también para implementar la funcionalidad de autocolimación. El divisor de haz 44 se puede implementar, por ejemplo, como una placa o un cubo.Figures 3 (a) to 3 (c) show different views of a camera 40 suitable for carrying out spatial monitoring or tracking of an object according to an embodiment of the invention. The camera 40 integrates the two technologies that are required to improve the precision in the measurements necessary for the spatial tracking of an object: a camera as such, for photogrammetry measurements, and an autocollimator. In Figures 3 (a) and 3 (b), part of the outer casing has been removed to show the inner part of the camera. Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b). Some of the most relevant parts of the camera 40 are identified in the figures: a lens 41 to focus and create the image of the object on the camera sensor and to collimate the light in autocollimation measurements; and a sensor 42 for capturing images. Non-limiting examples of the sensor 42 can be a matrix CCD or a CMOS sensor. The image projected by the objective lens is formed on the sensor. These elements are generally present in all cameras. Camera 40 also includes a light source 43 necessary to implement autocollimation functionality. Light source 43 can be a light emitting diode (LED). Alternatively, this can be a laser emitter. This can increase the power and therefore the operating range, or it can make it possible to work in lighting environments. Camera 40 also includes a beam splitter 44, also necessary to implement autocollimation functionality. Beam splitter 44 can be implemented, for example, as a plate or a cube.

La cámara 40 también tiene unos elementos estructurales 45 - 50 para habilitar el montaje, el acoplamiento y / o el soporte de los componentes ópticos y / o eléctricos. El cuerpo 45 es el elemento estructural principal de la cámara 40, al que se fijan los otros elementos de la cámara. El divisor de haz es soportado por el elemento 46, lo que garantiza el contacto entre el divisor de haz y el sensor de la cámara en un lado, y entre el divisor de haz y la fuente de luz en el otro lado. La cámara 40 también comprende unos elementos separadores especiales 47, que se usan para establecer la longitud focal que depende de la lente de la cámara. El sensor de la cámara se fija por medio del elemento estructural 48. La cámara 40 también comprende un soporte de la fuente de luz 49. Una cubierta 50 encapsula y protege todos los elementos internos. La cámara 40 también tiene unos elementos de fijación 51 - 54 para fijar y acoplar los diferentes componentes (estructurales) de montaje, ópticos y / o eléctricos.Chamber 40 also has structural elements 45-50 to enable mounting, docking, and / or support of optical and / or electrical components. The body 45 is the main structural element of the chamber 40, to which the other elements of the chamber are attached. The beam splitter is supported by element 46, which ensures contact between the beam splitter and the camera sensor on one side, and between the beam splitter and the light source on the other side. The camera 40 also comprises special spacer elements 47, which are used to set the focal length depending on the camera lens. The camera sensor is fixed by means of the structural element 48. Chamber 40 also comprises a light source support 49. A cover 50 encapsulates and protects all internal elements. Chamber 40 also has fixing elements 51-54 for fixing and coupling the different (structural) mounting, optical and / or electrical components.

Con el fin de realizar el seguimiento espacial de un objeto, se requiere un ensamblaje, artefacto o dispositivo adicional. Un artefacto adicional de acuerdo con una posible realización se muestra en la figura 4. El artefacto de medición 60 que se muestra en la figura 4 está compuesto por una superficie especular 55 y un conjunto o cuadrícula de puntos de referencia 56 que está adherido o unido al artefacto. En la figura 4, la superficie especular 55 se implementa como un espejo plano. Superficies especulares alternativas pueden ser cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz, tal como una pieza que tenga un buen acabado superficial. El espejo plano 55 se usa para las mediciones mediante autocolimación. Se monta sobre un bastidor 57. El conjunto de puntos de referencia 56 son unos objetivos (targets) que se requieren para las mediciones que son llevadas a cabo por la cámara 40 usando la técnica de resección espacial. Estos objetivos pueden adoptar formas diferentes o ser de tipos diferentes, tales como siguiendo un patrón de tablero de ajedrez, circular, cuadrado, en forma de cruz o siguiendo marcadores especiales, entre otros. El conjunto de puntos de referencia 56 requiere al menos 3 puntos u objetivos. Cabe destacar que, en general, cuantos más puntos de referencia haya, menos incertidumbre habrá en las mediciones. En la figura 4, los objetivos se configuran en forma de tablero de ajedrez. Los puntos de referencia se corresponden con los lados de cada cuadrado en el tablero de ajedrez. Dicho de otra forma, el artefacto 60 que se muestra en la figura 4 está compuesto por un espejo plano 55 y un tablero de ajedrez calibrado 56. El tablero de ajedrez está muy extendido para la calibración interna de la cámara. Las coordenadas de los puntos de referencia 56 se conocen mediante un sistema de coordenadas definido en el artefacto 60 (el espejo 55 y el conjunto de puntos de referencia 56).In order to spatially track an object, an additional assembly, artifact, or device is required. A further artifact in accordance with a possible embodiment is shown in Figure 4. The measurement artifact 60 shown in Figure 4 is composed of a mirror surface 55 and a set or grid of reference points 56 that is attached or attached to the artifact. In Figure 4, the specular surface 55 is implemented as a flat mirror. Alternative specular surfaces can be any flat or semi-flat surface capable of producing a specular reflection of light, such as a part that has a good surface finish. Flat mirror 55 is used for self-collimation measurements. It is mounted on a frame 57. The set of reference points 56 are targets that are required for the measurements that are carried out by the camera 40 using the spatial resection technique. These targets can take different shapes or be of different types, such as following a checkerboard, circular, square, cross-shaped pattern or following special markers, among others. The set of reference points 56 requires at least 3 points or targets. It should be noted that, in general, the more reference points there are, the less uncertainty there will be in the measurements. In Figure 4, the targets are set up in the form of a checkerboard. The reference points correspond to the sides of each square on the chessboard. In other words, the artifact 60 shown in Figure 4 is comprised of a flat mirror 55 and a calibrated chessboard 56. The chessboard is widely used for internal camera calibration. The coordinates of the reference points 56 are known by a coordinate system defined in the artifact 60 (the mirror 55 and the set of reference points 56).

En el artefacto 60, se ha de establecer la relación geométrica entre el plano del espejo plano 55 y el sistema de coordenadas formado por el conjunto de puntos de referencia 56. Dicho de otra forma, se ha de llevar a cabo una fase de caracterización del artefacto 60 (el espejo 55 y el conjunto de puntos de referencia 56), preferiblemente sin conexión u offline, antes de iniciar la fase de medición de la posición y la orientación de un objeto. Los resultados de esta caracterización se usan más adelante durante las mediciones. Esto quiere decir que se ha de definir un sistema de referencia común para el espejo plano 55 y el conjunto de puntos de referencia 56. Dicho de otra forma, el vector normal del espejo 55 y el eje Z del sistema de coordenadas que se crea a partir del conjunto de puntos de referencia 56 (por ejemplo, un tablero de ajedrez) pueden estar alineados, pero puede que los mismos no coincidan. Por lo tanto, es necesario que se midan o que se caractericen tanto el vector normal del espejo 55 como el eje Z del sistema de coordenadas que se crea a partir del conjunto de puntos de referencia 56, con el fin de compensar cualquier desalineación potencial que puedan tener los mismos. Con el fin de establecer la relación geométrica mencionada entre estos dos vectores, el artefacto 60 que se muestra en la figura 4 (el espejo 55 con el conjunto de puntos de referencia 56) se mide, por ejemplo, en una Máquina de Medición de Coordenadas (Coordínate Measuring Machine, CMM, por sus siglas en inglés). El artefacto 60 incluye adicionalmente unos medios de montaje, tales como una pluralidad de alojamientos, para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del artefacto 60. Por ejemplo, los medios de medición pueden ser retrorreflectores, con los que la ubicación espacial y la orientación del artefacto se pueden medir mediante una tecnología de seguimiento por láser (laser-tracker) convencional, que se encuentra fuera del alcance de la presente invención.In the artifact 60, the geometric relationship between the plane of the plane mirror 55 and the coordinate system formed by the set of reference points 56 has to be established. In other words, a phase of characterization of the artifact 60 (mirror 55 and set of reference points 56), preferably offline or offline, before starting the phase of measuring the position and orientation of an object. The results of this characterization are used later during the measurements. This means that a common reference system has to be defined for the plane mirror 55 and the set of reference points 56. In other words, the normal vector of the mirror 55 and the Z axis of the coordinate system that is created at starting from the set of reference points 56 (eg, a chessboard) they may be aligned, but they may not coincide. Therefore, it is necessary that both the normal vector of the mirror 55 and the Z axis of the coordinate system that is created from the set of reference points 56 be measured or characterized, in order to compensate for any potential misalignment that they may have the same. In order to establish the aforementioned geometric relationship between these two vectors, the artifact 60 shown in figure 4 (the mirror 55 with the set of reference points 56) is measured, for example, in a Measuring Machine of Coordinates (Coordinate Measuring Machine, CMM). The artifact 60 further includes a mounting means, such as a plurality of housings, for mounting a plurality of measurement means to measure the spatial location and orientation of the artifact 60. For example, the measurement means may be retroreflective, with the that the spatial location and orientation of the artifact can be measured by conventional laser tracker technology, which is outside the scope of the present invention.

A continuación, se explica el proceso de seguimiento espacial de un objeto usando la cámara 40 y el artefacto 60. Con el fin de realizar el seguimiento espacial de un objeto, un artefacto 60 que comprende un espejo plano y un conjunto de puntos de referencia, está unido al objeto del cual se va a estimar la posición y la orientación (Tx, Ty, Tz, O, 0, W), con respecto a la cámara. La cámara 40 se coloca orientada hacia el artefacto 60 que está unido al objeto, por ejemplo, tal como se muestra en las figuras 5, 7A y 7B, de una forma tal que las imágenes del conjunto de puntos de referencia que está comprendido en el artefacto 60 pueden ser capturadas por la cámara 40.Next, the process of spatial tracking of an object using the camera 40 and the artifact 60 is explained. In order to perform the spatial tracking of an object, an artifact 60 comprising a plane mirror and a set of reference points, it is attached to the object whose position and orientation (Tx, Ty, Tz, O, 0, W), with respect to the camera, will be estimated. The camera 40 is positioned facing the artifact 60 that is attached to the object, for example, as shown in Figures 5, 7A and 7B, in such a way that the images of the set of reference points that are comprised in the artifact 60 can be captured by camera 40.

En primer lugar, se miden los ángulos de cabeceo o inclinación 0 y de viraje W, que representan la inclinación del espejo plano 55. Esto se realiza mediante la aplicación de la funcionalidad de autocorrelación disponible en la cámara 40 y basándose en el espejo de tipo especular 55 (el espejo plano 55). En esta fase no se usa el conjunto de puntos de referencia 56. La figura 5 muestra un esquema para llevar a cabo mediciones de autocolimación para obtener los ángulos de cabeceo o inclinación 0 y de desviación o viraje W con la cámara 40 y un espejo plano 55. En la figura 6, se muestran los componentes de un dispositivo óptico, tal como una cámara, relevantes para llevar a cabo mediciones de autocolimación, más el espejo plano requerido. En la figura 6, se muestra en detalle cómo se obtiene el ángulo de cabeceo o inclinación 0.First, the pitch angles 0 and yaw W, representing the tilt of the plane mirror 55, are measured. This is done by applying the autocorrelation functionality available in the camera 40 and based on the mirror of type specular 55 (the plane mirror 55). The set of reference points 56 is not used in this phase. Figure 5 shows a scheme to carry out autocollimation measurements to obtain pitch or pitch angles 0 and deviation or yaw angle W with camera 40 and a flat mirror. 55. Figure 6 shows the components of an optical device, such as a camera, relevant for performing autocollimation measurements, plus the required flat mirror. In figure 6, it is shown in detail how the pitch or bank angle 0 is obtained.

En la figura 6, en una cámara, una fuente de luz 43, tal como un diodo LED, emite un haz de luz no colimado 62 que se redirige mediante un divisor de haz 44, produciendo también unos haces no colimados 63. Estos haces 63 se coliman mediante una lente de colimación 41. La longitud focal de la cámara se representa con la letra f (la distancia entre el plano de la lente de colimación y el plano del sensor o plano de imagen). Los haces colimados 65 son reflejados por el espejo 55, proporcionando de este modo unos haces de luz colimados reflejados 66. Algunos de los mismos alcanzan de nuevo la lente de colimación 41, que proporciona un haz de luz reflejado enfocado 67 al sensor de la cámara 42. Esta configuración permite que se determine el ángulo de inclinación del espejo 55 (la inclinación o cabeceo 0 o la desviación o viraje ¥) y, por lo tanto, del objeto que está unido al artefacto 60, pero no el ángulo de giro o balanceo O. De hecho, un desplazamiento plano 5 del haz de luz reflejado 67 en un punto 75 en el sensor de la cámara 42 se estudia sobre el plano de imagen 61 (el plano del sensor de la cámara) con el fin de estimar la variación angular (el ángulo de cabeceo o inclinación 0) basándose en la siguiente relación trigonométrica: 0 = S / 2/. El desplazamiento plano 5 representa el desplazamiento entre un punto de referencia de sensor de la cámara 76 y la posición en la que se captura el haz de luz reflejado enfocado 75. El punto 75 es el punto en el plano de imagen 61 en el que se enfoca el haz de luz reflejado 67. 0 indica el ángulo de inclinación o cabeceo del espejo. Se lleva a cabo un enfoque similar para obtener el ángulo de desviación o viraje W. Haciendo referencia a continuación a la figura 5, un haz de luz no colimado es emitido por la fuente de luz 43 dispuesta en la cámara 40 (que no se muestra en la figura 5, véase, por ejemplo, la figura 6). El haz de luz emitido se redirige mediante el divisor de haz 44, produciendo también unos haces no colimados (que no se muestran). Estos haces se coliman mediante la lente de cámara 41. Los haces colimados 65 se dirigen hacia el espejo plano 55. Los haces colimados 65 son reflejados por el espejo plano 55, proporcionando de este modo unos haces de luz colimados reflejados 66. Los haces colimados reflejados 66 alcanzan la lente de cámara 41, que proporciona unos haces de luz reflejados enfocados 67 al sensor de la cámara 42. El punto (5x', 5y') representa el desplazamiento plano entre la posición (en el sensor de la cámara 42) en la que se captura el haz de luz reflejado enfocado 67, es decir, el punto 75, y un punto de referencia fija 76 en el plano 61 del sensor de la cámara 42. Esta posición de referencia representa la posición en donde los ángulos de cabeceo o inclinación 0 y de desviación o viraje ^ son iguales a cero, normalmente la posición x' = 0 e y' = 0 en el plano del sensor de la cámara. Debido a que el punto (5x', 5y') es bien conocido, y la longitud focal f de la cámara 40 también es bien conocida, los ángulos de cabeceo o inclinación 0 y de desviación o viraje W se obtienen mediante la aplicación de la siguiente relación trigonométrica:In Figure 6, in a camera, a light source 43, such as an LED diode, emits a non-collimated light beam 62 which is redirected by a beam splitter 44, also producing non-collimated beams 63. These beams 63 they are collimated by means of a collimating lens 41. The focal length of the camera is represented by the letter f (the distance between the plane of the collimating lens and the plane of the sensor or image plane). The collimated beams 65 are reflected by the mirror 55, thereby providing reflected collimated light beams 66. Some of these again reach the collimating lens 41, which provides a focused reflected beam of light 67 to the camera sensor. 42. This configuration allows the angle of inclination of the mirror 55 (the inclination or pitch 0 or the deflection or yaw ¥) and therefore of the object that is attached to the artifact 60 to be determined, but not the angle of rotation or roll O. In fact, a plane displacement 5 of the reflected light beam 67 at a point 75 on the camera sensor 42 is studied on the image plane 61 (the camera sensor plane) in order to estimate the Angular variation (the pitch or pitch angle 0) based on the following trigonometric relationship: 0 = S / 2 /. Plane offset 5 represents the offset between a camera sensor reference point 76 and the position at which the focused reflected beam of light 75 is captured. Point 75 is the point on the image plane 61 where the focuses the reflected light beam 67. 0 indicates the angle of tilt or pitch of the mirror. I know takes a similar approach to obtain the deflection or yaw angle W. Referring now to Figure 5, a non-collimated beam of light is emitted by the light source 43 arranged in the chamber 40 (not shown in Figure 5, see, for example, Figure 6). The emitted light beam is redirected by beam splitter 44, also producing non-collimated beams (not shown). These beams are collimated by the camera lens 41. The collimated beams 65 are directed towards the flat mirror 55. The collimated beams 65 are reflected by the flat mirror 55, thereby providing reflected collimated light beams 66. The collimated beams Reflected 66 reach the camera lens 41, which provides focused reflected light beams 67 to the camera sensor 42. The point (5x ', 5y') represents the plane offset between the position (at the camera sensor 42) in which the focused reflected light beam 67, that is, point 75, and a fixed reference point 76 in the plane 61 of the camera sensor 42 is captured. This reference position represents the position where the angles of pitch or pitch 0 and yaw or yaw ^ are equal to zero, usually the position x '= 0 and y' = 0 in the plane of the camera sensor. Since the point (5x ', 5y') is well known, and the focal length f of camera 40 is also well known, the pitch or pitch angles 0 and deviation or yaw W are obtained by applying the following trigonometric relationship:

0 = Sx' / 2f0 = Sx '/ 2f

W = Sy' / 2f W = Sy '/ 2f

Una vez que se han calculado los ángulos de cabeceo o inclinación 0 y de desviación o viraje W, unos puntos de imagen 72 que se corresponden con unos puntos de referencia 71 en el sistema de coordenadas del objeto (que no se muestra, pero que está unido al artefacto de medición 60), se miden y se identifican usando la cámara. Esto se realiza mediante la aplicación de técnicas de visión de la cámara. La figura 7A muestra un esquema para llevar a cabo mediciones de fotogrametría con la cámara 40 y el conjunto de puntos de referencia 56 que está comprendido en el artefacto 60 y que está unido al objeto - que no se muestra - al que se va a realizar un seguimiento (en la figura 7A, se hace referencia a los puntos de referencia como 71). Por lo tanto, estos puntos 71 son unos puntos de referencia en el sistema de coordenadas en 3D del objeto cuya posición y orientación se está sometiendo a seguimiento. Las coordenadas de los puntos de referencia 71 se conocen mediante un sistema de coordenadas definido en el artefacto 60. En la figura 7A, se ilustran cinco puntos de referencia 71, expresado cada uno de los mismos como (Xi, Yi, Zi), en donde 1 < i < N, siendo N un número natural mayor que 2 (en la figura 7A, N = 5).Once the pitch or bank angle 0 and the yaw or yaw angle W have been calculated, image points 72 corresponding to Reference points 71 in the object's coordinate system (not shown, but attached to measurement artifact 60), are measured and identified using the camera. This is done by applying camera vision techniques. Figure 7A shows a scheme for carrying out photogrammetry measurements with camera 40 and set of reference points 56 that is comprised in artifact 60 and that is attached to the object - not shown - to be performed. a trace (in Figure 7A, reference points are referred to as 71). Therefore, these points 71 are reference points in the 3D coordinate system of the object whose position and orientation is being tracked. The coordinates of the reference points 71 are known by a coordinate system defined in the artifact 60. In Figure 7A, five reference points 71 are illustrated, each expressed as (Xi, Yi, Zi), in where 1 <i <N, where N is a natural number greater than 2 (in Figure 7A, N = 5).

La cámara 40 captura una imagen del objeto - en general, el artefacto -que tiene unido el conjunto de puntos de referencia 71 que están ubicados en unas posiciones (Xi, Yi, Zi). En el plano 61 del sensor de imagen 42, se obtienen unos puntos de imagen 72 que se corresponden con unos respectivos puntos de referencia 71. Los puntos de imagen 72, a los que se hace referencia en lo sucesivo en el presente documento como puntos de imagen observados, definen la proyección de los puntos de referencia en 3D 71 en el plano 61 del sensor. Debido a que el sensor de la cámara 52 define un plano en 2D, la componente Z se establece a 0. Los puntos de imagen observados se expresan como (x'i, y'i, 0). En la figura 7A, se muestran cinco puntos de imagen observados

Figure imgf000022_0001
y'4, 0), corresponden con unos respectivos puntos de referencia (X1, Y1, Z1), (X2, Y2,The camera 40 captures an image of the object - in general, the artifact - which has attached the set of reference points 71 that are located at positions (Xi, Yi, Zi). In plane 61 of image sensor 42, image points 72 are obtained which correspond to respective reference points 71. Image points 72, hereinafter referred to as reference points The observed image defines the projection of the 3D reference points 71 on the plane 61 of the sensor. Because the camera sensor 52 defines a 2D plane, the Z component is set to 0. The observed image points are expressed as (x'i, y'i, 0). In Figure 7A, five image points are shown observed
Figure imgf000022_0001
y ' 4 , 0), correspond to respective reference points (X 1 , Y 1 , Z 1 ), (X 2 , Y 2 ,

Z2), (X3 , Y3, Z3), (X4 , Y4, Z4), (X5, Y5, Z5). Debido a que las coordenadas de losZ 2 ), (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), (X 5 , Y 5 , Z 5 ). Because the coordinates of the

puntos de imágenes son en 2D, también se hace referencia a las mismas comoImage points are 2D, they are also referred to as

y'4), (x'5, y'5). La posición de los punt imagen observados en el plano de sensor es conocida. Por ejemplo, con el finy ' 4 ), (x' 5 , y ' 5 ). The position of the observed image points in the sensor plane is known. For example, in order

de obtener dicha posición, se puede aplicar un procesamiento computacionalto obtain this position, a computational processing can be applied

de imágenes, tal como operadores y / o filtros, para identificar el centro de las características (features) de interés (tal como los puntos de borde intersecados,of images, such as operators and / or filters, to identify the center of the features of interest (such as intersecting edge points,

los centros de las elipses, etc.). Por ejemplo, se puede aplicar una función de detección de contorno de superficie con el fin de obtener la posición de losthe centers of the ellipses, etc.). For example, a surface contour detection function can be applied in order to obtain the position of the

puntos de imagen observados en el plano de sensor.Image points observed in the sensor plane.

A continuación, con el fin de obtener los 6 parámetros - que se representan en la figura 7B - que definen la posición y la orientación del objetoNext, in order to obtain the 6 parameters - which are represented in figure 7B - that define the position and orientation of the object

con 6 GDL, se aplica un algoritmo de resección espacial, restringido por los ángulos de orientación ya conocidos (los ángulos de cabeceo o inclinación 0 yWith 6 DOF, a spatial resection algorithm is applied, constrained by the already known yaw angles (pitch or pitch angles 0 and

de desviación o viraje ¥). Por lo tanto, estos dos ángulos se introducen como parámetros conocidos en el algoritmo de resección espacial, que se simplificadeviation or turn ¥). Therefore, these two angles are entered as known parameters in the spatial resection algorithm, which is simplified

de este modo. En resumen, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación 0 y de desviación o viraje ^ , se obtiene el ángulo de giro O del artefacto 60, que estáin this way. In summary, by applying a spatial resection algorithm restricted by pitch or pitch angles 0 and deviation or yaw ^, the angle of twist O of the artifact 60 is obtained, which is

unido al objeto que se va a medir (que no se muestra) y un vector de traslaciónattached to the object to be measured (not shown) and a translation vector

(TX, Ty, Tz) entre la cámara 40 y el objeto. Este vector de traslación se corresponde con la posición del objeto.(T X , Ty, Tz) between camera 40 and the object. This translation vector corresponds to the position of the object.

El algoritmo de resección espacial restringida se aplica preferiblemente tal The restricted spatial resection algorithm is preferably applied such

como sigue:as follows:

Se implementa el siguiente problema de optimización, en el que es necesario que se minimice la diferencia entre los puntos de imagen observados (x'i, y'i, 0), a los que también se hace referencia como (x'i, y'i) y los puntos de imagen estimados (x'Ei, y'Ei, 0), a los que también se hace referencia como (x'Ei, y Ei):The following optimization problem is implemented, in which it is necessary to minimize the difference between the observed image points (x'i, y'i, 0), which are also referred to as (x'i, y 'i) and the estimated image points (x'Ei, y'Ei, 0), also referred to as (x'Ei, y Ei):

Figure imgf000023_0001
(ecuación 1)
Figure imgf000023_0001
(equation 1)

en donde N es el número de los puntos de imagen observados 72 (y, por lo tanto, el número de puntos de referencia 71). La diferencia entre los puntos de imagen observados y los puntos de imagen estimados se minimiza repetidamente hasta que se obtiene un determinado umbral de precisión.where N is the number of the observed image points 72 (and hence the number of reference points 71). The difference between the observed image points and the estimated image points is repeatedly minimized until a certain precision threshold is obtained.

Los puntos de imagen estimados (x', y'Ei, 0) se obtienen mediante la aplicación del modelo de cámara estenopeica (pinhole camera) que representa la proyección de un punto en 3D (Xi, Yi, Zi) sobre un plano de imagen (un sensor de cámara) (x'Ei, y'Ei):Image points estimated (x 'i, y'Ei, 0) are obtained by applying the model pinhole (pinhole camera) representing the projection of a 3D point (Xi, Yi, Zi) on a plane image (a camera sensor) (x'Ei, y'Ei):

(X'e í ) (Xi - Tx ( X'e í) ( Xi - Tx

\y'Ei} = [ A ] - A - R ( e ) R t y ) R ( < P ) Y,- - Ty (ecuación 2) \ y'Ei} = [A] - A - R ( e) R ty) R ( <P) Y, - - Ty (equation 2)

Zt - TzyZt - Tzy

en donde:where:

Figure imgf000023_0002
Figure imgf000023_0002

y: Y:

A

Figure imgf000024_0001
cámara TO
Figure imgf000024_0001
camera

Simplificando:Simplifying:

Tu ri2 ri3Your ri2 ri3

R (6 ) R ty )R (< P ) R ( 6) R ty) R ( <P) r2i r22 r23r2i r22 r23

-r3i r32 r33-Por lo tanto, hay dos formas de calcular los puntos de imagen estimados (x'e¡, y,Ei, 0), a los que también se hace referencia como (x'Ei, y'Ei): -r3i r32 r33 -There are therefore two ways to calculate the estimated image points ( x ' e ¡, y, Ei, 0), which are also referred to as (x'Ei, y'Ei):

1. Aplicar la ecuación de proyección en visión por computador, en donde los puntos de imagen estimados (x'Ei, y'Ei, 0) se calculan tal como sigue:1. Apply the projection equation in computer vision, where the estimated image points (x'Ei, y'Ei, 0) are calculated as follows:

[ x 'e C, \f 0 C X r i i r i2 r i3[x ' e C, \ f 0 C X r ii r i2 r i3

W e h 0 f C y ■A r 2i r 22 r 23 (ecuación 3) 0 0 0 1 r 3i r 32 r 33

Figure imgf000024_0002
W eh 0 f C y ■ A r 2i r 22 r 23 (equation 3) 0 0 0 1 r 3i r 32 r 33
Figure imgf000024_0002

Mediante la sustitución de los puntos de imagen estimados de la ecuación 1 con los que se obtienen en la ecuación 3, el problema de minimización da como resultado lo siguiente:By replacing the estimated image points in equation 1 with those obtained in equation 3, the minimization problem results in the following:

Figure imgf000024_0003
= 0 (ecuación 4)
Figure imgf000024_0003
= 0 (equation 4)

2. Aplicar las ecuaciones de colinealidad, en donde los puntos de imagen estimados (x'Ei, y'Ei) se calculan tal como sigue:2. Apply the collinearity equations, where the estimated image points (x'Ei, y'Ei) are calculated as follows:

Figure imgf000024_0004
Figure imgf000024_0004

Mediante la sustitución de los puntos de imagen estimados de la ecuación 1 con los que se obtienen en la ecuación 5, el problema de minimización da como resultado lo siguiente: By replacing the estimated image points in equation 1 with those obtained in equation 5, the minimization problem results in the following:

Figure imgf000025_0001
Figure imgf000025_0001

En las ecuaciones anteriores, son parámetros de entrada bien conocidos:In the above equations, they are well known input parameters:

xx

para cada i, los puntos de imagen observados 72, {y! > en el sensor de la 0for each i, the observed image points 72, {y! > at the 0 sensor

cámara; la posición de los puntos de referencia en el sistema de coordenadas del objeto < ñYj}; un factor de escala X, que representa un factor de conversióncamera; the position of the reference points in the object coordinate system < ñ Yj}; a scale factor X, which represents a conversion factor

entre los puntos de referencia en el objeto y los puntos de imagen observados en el sensor de cámara; y la matriz intrínseca de cámara [A], que es una matriz que contiene las diferentes características internas de la cámara (la distancia focal (f), el punto central principal (cx, cy), el factor de oblicuidad, entre otros). No se requiere el factor de escala X si se aplica previamente un proceso de normalización. La matriz intrínseca de la cámara [A] se puede obtener, por ejemplo, mediante la aplicación de un proceso de calibración.between reference points on the object and image points observed on the camera sensor; and the intrinsic camera matrix [A], which is a matrix that contains the different internal characteristics of the camera (the focal length (f), the main central point (cx, cy), the obliquity factor, among others). The scale factor X is not required if a normalization process is previously applied. The intrinsic matrix of the chamber [A] can be obtained, for example, by applying a calibration process.

El algoritmo divulgado se puede implementar o bien teniendo en cuenta la distorsión de la imagen producida por la lente de la cámara o bien sin considerar esta distorsión. Esta distorsión se puede considerar usando errores de distorsión tangencial y radial bien conocidos en aplicaciones fotogramétricas.The disclosed algorithm can be implemented either taking into account the distortion of the image produced by the camera lens or without considering this distortion. This distortion can be accounted for using well known radial and tangential distortion errors in photogrammetric applications.

En la ecuación anterior, son parámetros de restricción de entrada que se obtienen después de aplicar la técnica de autocolimación: la matriz de rotación de cabeceo o inclinación R(0) obtenida a partir del ángulo de cabeceo o inclinación 0; y la matriz de rotación de desviación o viraje R(W) obtenida a partir del ángulo de desviación o viraje W. In the above equation, the input restriction parameters obtained after applying the autocollimation technique are: the pitch or pitch rotation matrix R (0) obtained from pitch or pitch angle 0; and the deviation or turn rotation matrix R (W) obtained from the deviation or turn angle W.

Y los parámetros de salida, estimados mediante la aplicación del algoritmo de resección espacial, son: la matriz de rotación de giro o balanceo R(O) (en general, el ángulo de giro o balanceo O) y el vector de traslación (TX Ty Tz) entre el sistema de coordenadas de la cámara y el sistema de coordenadas del objeto, que se corresponde con la posición del objeto. Dicho de otra forma, TX TY TZ, O, 0, W representan la posición y la orientación relativas entre la cámara 40 y el objeto.And the output parameters, estimated by applying the spatial resection algorithm, are: the rotation rotation matrix R (O) (in general, the angle of rotation or swing O) and the translation vector (TX Ty Tz) between the camera's coordinate system and the object's coordinate system, which corresponds to the position of the object. In other words, TX TY TZ, O, 0, W represent the relative position and orientation between the camera 40 and the object.

La figura 8 muestra un esquema alternativo para implementar el método para estimar la posición y la orientación de un objeto con 6 grados de libertad. En este caso, el seguimiento espacial del objeto se realiza por medio de dos dispositivos separados: una cámara y un autocolimador en 2D, más el artefacto de la figura 4. Dicho de otra forma, la cámara 40 de las figuras 3(a - c) se sustituye por la cámara 140 y el autocolimador en 2D 150 de la figura 8. En la figura 8, la cámara 140 y el autocolimador 150 se disponen sobre un soporte 160. TAC representa una transformación de calibración extrínseca entre el autocolimador y la cámara. Estos están orientados hacia el artefacto 60 que está unido al objeto (que no se muestra), de una forma tal que las imágenes del conjunto de puntos de referencia que está comprendido en el artefacto pueden ser capturadas por la cámara 140. Aparte de esta diferencia relacionada con los componentes (cámara y autocolimador en dispositivos separados), el procedimiento de medición es el mismo que en el caso previo. Dicho de otra forma: en primer lugar, los ángulos de cabeceo o inclinación 0 y de desviación o viraje W, que representan la inclinación del espejo plano (en general, una superficie especular) que está unido al artefacto y, por lo tanto, la inclinación del objeto que se está sometiendo a seguimiento, se miden al llevar a cabo mediciones de autocolimación con el autocolimador 150. A continuación, losFigure 8 shows an alternative scheme to implement the method to estimate the position and orientation of an object with 6 degrees of freedom. In this case, the spatial tracking of the object is performed by means of two separate devices: a camera and a 2D autocollimator, plus the artifact of Figure 4. In other words, the camera 40 of Figures 3 (a - c ) is replaced by chamber 140 and 2D autocollimator 150 of figure 8. In figure 8, chamber 140 and autocollimator 150 are arranged on a support 160. TAC represents an extrinsic calibration transformation between autocollimator and chamber . These are oriented towards the artifact 60 that is attached to the object (not shown), in such a way that the images of the set of reference points that are comprised in the artifact can be captured by the camera 140. Apart from this difference Related to the components (camera and autocollimator in separate devices), the measurement procedure is the same as in the previous case. In other words: firstly, the pitch or pitch angles 0 and the deflection or yaw angles W, which represent the pitch of the plane mirror (generally a specular surface) that is attached to the artifact and therefore the inclination of the object being tracked, are measured by carrying out autocollimation measurements with autocollimator 150. Next, the

puntos de imagen observados (x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5) se corresponden con unos respectivos (al menos 3) puntos de referencia (X1,observed image points (x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y' 4 ), (x ' 5 , y ' 5 ) correspond to respective (at least 3) reference points (X 1 ,

Y1, Z1), (X2 , Y2, Z2), (X3 , Y3, Z3), (X4 , Y4, Z4), (X5 , Y5, Z5) en el sistema deY 1 , Z 1 ), (X 2 , Y 2 , Z 2 ), (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), (X 5 , Y 5 , Z 5 ) in the system of

coordenadas del objeto (que no se muestra, pero que está unido al artefacto decoordinates of the object (not shown, but attached to the artifact of

medición 60), son obtenidos por la cámara 140, que captura una imagen delmeasurement 60), are obtained by camera 140, which captures an image of the

objeto - en general, el artefacto - que tiene unido el conjunto de puntos deobject - in general, the artifact - that has attached the set of points of

referencia que están ubicados en unas posiciones (Xi, Yi, Zi). En el plano delreference that are located in some positions (X i , Y i , Z i ). In the plane of

sensor de imagen de cámara, se obtienen los puntos de imagen observadoscamera image sensor, the observed image points are obtained

(x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5). A continuación, con el fin de(x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y' 4 ), (x ' 5 , y' 5 ). Then in order to

obtener los 6 parámetros (TX, TY, TZ , O, 0, ¥) que definen la posición y laobtain the 6 parameters (T X , T Y , T Z , O, 0, ¥) that define the position and the

orientación del objeto con respecto a la cámara, con 6 GDL, se aplica elorientation of the object with respect to the camera, with 6 DOF, the

algoritmo de resección espacial, restringido por los ángulos de orientación yaspatial resection algorithm, restricted by orientation angles already

conocidos (los ángulos de cabeceo o inclinación 0 y de desviación o viraje ¥),known (pitch or bank angles 0 and yaw or yaw ¥),

como se ha divulgado previamente.as previously disclosed.

El algoritmo de resección espacial divulgado se puede implementar yThe disclosed spatial resection algorithm can be implemented and

ejecutar en unos medios de procesamiento, tales como un procesador, y unosrun on a processing means, such as a processor, and a

medios de almacenamiento de datos, tales como una memoria. Los medios dedata storage media, such as a memory. The means of

procesamiento se pueden incorporar en la cámara 40, 140, por ejemplo en losprocessing can be incorporated into chamber 40, 140, for example in

medios de procesamiento, por lo general comprendidos en o asociados a unprocessing means, generally comprised in or associated with a

sensor de cámara. Como alternativa, los medios de procesamiento puedencamera sensor. Alternatively, the processing means may

estar ubicados en un dispositivo diferente con respecto a la cámara 40, 140,be located in a different device with respect to the chamber 40, 140,

por ejemplo en un sistema informático o un dispositivo informático, tal como unfor example in a computer system or a computing device, such as a

ordenador personal. En este caso, el algoritmo se puede ejecutar sin conexiónpersonal computer. In this case, the algorithm can be run offline

(offline). (offline).

En este texto, el término "comprende" y sus derivaciones (tales como "comprendiendo / que comprende", etc.) no se debería entender en un sentido excluyente, es decir, estos términos no se deberían interpretar como que excluyen la posibilidad de que lo que se describe y se define pueda incluir elementos, etapas, etc., adicionales.In this text, the term "comprises" and its derivations (such as "comprising / comprising", etc.) should not be understood in an exclusive sense, that is, these terms should not be construed as excluding the possibility that what is described and defined may include additional elements, steps, etc.

La invención no se limita, obviamente, a la realización o realizaciones específicas descritas en el presente documento, sino que también abarca cualquier variación que pueda ser considerada por cualquier experto en la materia (por ejemplo, en lo que respecta a la elección de materiales, dimensiones, componentes, configuración, etc.), dentro del alcance general de la invención tal como se define en las reivindicaciones. The invention is obviously not limited to the specific embodiment or embodiments described herein, but also encompasses any variation that may be considered by any person skilled in the art (for example, as regards the choice of materials, dimensions, components, configuration, etc.), within the general scope of the invention as defined in the claims.

Claims (15)

REIVINDICACIONES 1. Un método para estimar la posición y la orientación de un objeto con 6 grados de libertad (Tx, Ty, Tz , O, 0, W), que comprende:1. A method to estimate the position and orientation of an object with 6 degrees of freedom (T x , T y , T z , O, 0, W), comprising: unir un artefacto (60) al objeto del cual se va a estimar la posición y la orientación (Tx, Ty, Tz , O, 0, W), en donde dicho artefacto (60) comprende una superficie especular (55) y un conjunto de N puntos de referencia (71), en donde cada punto de referencia es definido por una posición (Xi, Yi, Zi) en un sistema de coordenadas definido en el artefacto (60), en donde 1 < i < N y N > 2;join an artifact (60) to the object whose position and orientation are to be estimated (T x , T y , T z , O, 0, W), wherein said artifact (60) comprises a specular surface (55) and a set of N reference points (71), where each reference point is defined by a position (X i , Y i , Z i ) in a coordinate system defined in the artifact (60), where 1 < i <N and N>2; colocar una cámara (40) orientada hacia el artefacto (60) que está unido al objeto;positioning a camera (40) facing the artifact (60) that is attached to the object; medir los ángulos de cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular (55) y, por lo tanto, del objeto, siendo realizada dicha medición mediante la aplicación de una técnica de autocolimación;measuring the angles of pitch or inclination 0 and deviation or yaw W that represent the inclination of the specular surface (55) and, therefore, of the object, said measurement being carried out by applying an autocollimation technique; capturar una imagen del conjunto de puntos de referencia (71; (Xi, Yi, Zi)) comprendido en el artefacto (60) que está unido al objeto, obteniendo de este modo en el plano (61) del sensor (42) de la cámara unos puntos de imagen observados (72; (x'i, y'i)) que se corresponden con dichos puntos de referencia (71; (Xi, Yi, Zi));capture an image of the set of reference points (71; (X i , Y i , Z i )) comprised in the artifact (60) that is attached to the object, thus obtaining in the plane (61) of the sensor (42 ) of the camera some observed image points (72; (x ' i , y' i )) that correspond to said reference points (71; (X i , Y i , Z i )); obtener el ángulo de giro o balanceo O del objeto y un vector de traslación (TX, TY, TZ) entre la cámara (40) y el objeto, usando dichos puntos de referencia (71; (Xi, Yi, Zi)) y dichos puntos de imagen observados (72; (x'i, y'i)) obtenidos en el sensor (42) de la cámara, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación 0 y de desviación o viraje W medidos, en donde (TX, Ty, Tz, O, 6, W) representan la posición y la orientación relativas entre la cámara (40) y el objeto.obtain the angle of rotation or roll O of the object and a translation vector (T X , T Y , T Z ) between the camera (40) and the object, using said reference points (71; (X i , Y i , Z i )) and said observed image points (72; (x ' i , y' i )) obtained in the sensor (42) of the camera, by applying an algorithm of spatial resection constrained by measured pitch or yaw angles 0 and yaw or yaw W, where (TX, Ty, Tz, O, 6, W) represent the relative position and orientation between camera (40) and object . 2. El método de la reivindicación 1, en el que los ángulos de cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular (55) y, por lo tanto, del objeto, se miden tal como sigue aplicando una técnica de autocolimación:The method of claim 1, wherein the pitch or pitch angles 0 and yaw or yaw angles W representing the pitch of the specular surface (55) and hence of the object, are measured as follows applying an autocollimation technique: emitir un haz de luz no colimado (62) a partir de una fuente de luz (43) que está dispuesta en la cámara (40);emitting a non-collimated beam of light (62) from a light source (43) that is disposed in the chamber (40); redirigir el haz de luz emitido (62) mediante un divisor de haz (44), produciendo haces de luz no colimados (63);redirecting the emitted light beam (62) by means of a beam splitter (44), producing non-collimated light beams (63); colimar dichos haces de luz (63) mediante una lente de cámara (41), produciendo de este modo unos haces de luz colimados (65);collimating said light beams (63) by means of a camera lens (41), thereby producing collimated light beams (65); dirigir dichos haces colimados (65) hacia el espejo plano (55), en el que se reflejan los haces colimados, proporcionando de este modo unos haces de luz colimados reflejados (66);directing said collimated beams (65) towards the plane mirror (55), in which the collimated beams are reflected, thereby providing reflected collimated light beams (66); enfocar dichos haces colimados reflejados (66) en la lente (41) de la cámara, proporcionando de este modo unos haces de luz reflejados enfocados (67) al sensor (42) de la cámara, siendo enfocados dichos haces de luz reflejados enfocados (67) en una posición (75) en el plano (61) del sensor (42) de la cámara;focusing said reflected collimated beams (66) onto the camera lens (41), thereby providing focused reflected beams of light (67) to the camera sensor (42), said reflected beams of light being focused (67 ) at a position (75) in the plane (61) of the camera sensor (42); calcular los ángulos de cabeceo o inclinación 0 y de desviación o viraje W tal como sigue:calculate pitch or bank angles 0 and deviation or yaw angles W as follows: 0 = Sx' / 2f 0 = Sx '/ 2f W = Sy' / 2fW = Sy '/ 2f en donde f es la distancia focal de la cámara (40) y 5x', Sy' representan un desplazamiento plano entre la posición medida (75) y una posición de referencia fija sobre el plano (61) del sensor de cámara (42), representando esta referencia fija la posición (x', y') en el plano del sensor (61) en donde los ángulos de cabeceo o inclinación 0 y de desviación o viraje W son iguales a 0.where f is the focal length of the camera (40) and 5x ', Sy' represent a plane displacement between the measured position (75) and a fixed reference position on the plane (61) of the camera sensor (42), representing this reference fixes the position (x ', y') in the sensor plane (61) where the pitch or bank angles 0 and deviation or yaw W are equal to 0. 3. El método de una cualquiera de las reivindicaciones 1 - 2, en el que dicho ángulo de giro o balanceo O y dicho vector de traslación (X, Y, Z) entre la cámara (40) y el objeto, se obtienen mediante la implementación de una técnica de resección espacial, restringida por los ángulos de cabeceo o inclinación 0 y de desviación o viraje W ya obtenidos, solucionando de forma iterativa el siguiente problema de optimización:The method of any one of claims 1-2, wherein said angle of rotation or roll O and said translation vector (X, Y, Z) between the camera (40) and the object, are obtained by means of implementation of a spatial resection technique, restricted by the pitch or pitch angles 0 and deviation or turn W already obtained, iteratively solving the following optimization problem:
Figure imgf000031_0001
Figure imgf000031_0001
en donde N es el número de los puntos de imagen observados; (x'i, y'i) son los puntos de imagen observados; y (x'Ei, y'Ei) son los puntos de imagen estimados.where N is the number of image points observed; (x'i, y'i) are the observed image points; y (x'Ei, y'Ei) are the estimated image points.
4.
Figure imgf000031_0002
El método de la reivindicación 3, en el que los puntos de imagen estimados (x'Ei, y'Ei) se obtienen mediante la aplicación de un modelo de cámara estenopeica que representa la proyección (x'Ei, y'Ei) de cada punto de referencia en 3D (Xi, Yi, Zi) sobre el plano de imagen (61) del sensor (42) de la cámara:
Four.
Figure imgf000031_0002
The method of claim 3, wherein the estimated image points (x'Ei, y'Ei) are obtained by applying a pinhole camera model that represents the projection (x'Ei, y'Ei) of each 3D reference point (Xi, Yi, Zi) on the image plane (61) of the camera sensor (42):
Figure imgf000031_0003
Figure imgf000031_0003
en donde:where:
Figure imgf000032_0001
Figure imgf000032_0001
que se puede simplifi
Figure imgf000032_0002
that can be simplified
Figure imgf000032_0002
f cx f cx y en donde: A 0 f cy es la matriz intrínseca de la cámaraand where: A 0 f cy is the intrinsic matrix of the camera 0 0 1 0 0 1 y en donde X es un factor de escala.and where X is a scale factor.
5. El método de la reivindicación 4, en el que los puntos de imagen The method of claim 4, wherein the image dots estimados (x'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de la Estimates (x'Ei, y'Ei, 0) are calculated as follows by applying the ecuación de proyección central en la visión por ordenador:central projection equation in computer vision: (X Ei] ( X Ei] \f 0 CX * 11 r 12 r13 \ f 0 C X * 11 r 12 r 13 W Ei\ W Ei \ 0 f Cy ■A r 21 r 22 r 23 0 f C y ■ A r 21 r 22 r 23 0 0 1 r 31 r 32 r 33
Figure imgf000032_0003
0 0 1 r 31 r 32 r 33
Figure imgf000032_0003
6. El método de la reivindicación 4, en el que los puntos de imagen The method of claim 4, wherein the image dots estimados (x'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de Estimates (x'Ei, y'Ei, 0) are calculated as follows by applying ecuaciones de colinealidad:collinearity equations:
Figure imgf000032_0004
Figure imgf000032_0004
. _ r12(Xi - Tx) r22(Yj Ty') r 3 2 (Xj - Tz ) . _ r12 ( Xi - Tx) r22 ( Yj T y ' ) r 3 2 ( X j - T z ) y m Cy r ' r i 3(Xt - Tx) r23(Yi Ty ) r 3 3 (X¿ - Tz ) ym Cy r 'ri 3 ( Xt - Tx) r23 ( Yi T y ) r 3 3 ( X ¿ - T z)
7. El método de una cualquiera de las reivindicaciones 1 - 6, en el que antes de aplicar una técnica de autocolimación para medir los ángulos de cabeceo o inclinación 0 y de desviación o viraje W y de capturar con la cámara una imagen del artefacto que está unido al objeto (40), se establece una relación geométrica entre el plano de la superficie especular (55) y un sistema de coordenadas formado por el conjunto de puntos de referencia (71).The method of any one of claims 1-6, wherein prior to applying an autocollimation technique to measure the angles of pitch or pitch 0 and deviation or yaw W and of capturing with the camera an image of the artifact that is attached to the object (40), a geometric relationship is established between the plane of the specular surface (55) and a coordinate system formed by the set of reference points (71). 8. El método de la reivindicación 7, en el que el artefacto (60) se ha medido en una Máquina de Medición de Coordenadas (CMM) con el fin de establecer dicha relación geométrica.The method of claim 7, wherein the artifact (60) has been measured in a Coordinate Measuring Machine (CMM) in order to establish said geometric relationship. 9. Un sistema para estimar la posición y la orientación de un objeto con 6 grados de libertad (TX, TY, TZ, O, 6, W), que comprende:9. A system for estimating the position and orientation of an object with 6 degrees of freedom (TX, TY, TZ, O, 6, W), comprising: unos medios para tomar mediciones de fotogrametría;means for taking photogrammetry measurements; unos medios para llevar a cabo una autocolimación; ymeans for carrying out autocollimation; Y un artefacto (60) que está unido al objeto del cual se va a estimar la posición y la orientación (TX, TY, TZ, O, 0, W), en donde dicho artefacto (60) comprende una superficie especular (55) y un conjunto de N puntos de referencia (71), en donde cada punto de referencia es definido por una posición (Xi, Yi, Zi) en un sistema de coordenadas definido en el artefacto (60), en donde 1 < i < N y N > 2;an artifact (60) that is attached to the object whose position and orientation are to be estimated (TX, TY, TZ, O, 0, W), wherein said artifact (60) comprises a specular surface (55) and a set of N reference points (71), where each reference point is defined by a position (Xi, Yi, Zi) in a coordinate system defined in the artifact (60), where 1 <i <N and N> 2; en el que los medios para llevar a cabo una autocolimación se configuran para medir los ángulos de cabeceo o inclinación 0 y de desviación o viraje W que representan la inclinación de la superficie especular (55) y, por lo tanto, del objeto;in which the means for carrying out autocollimation are configured to measure the pitch or pitch angles 0 and deviation or yaw W that represent the slope of the specular surface (55) and, therefore, of the object; en donde los medios para tomar mediciones de fotogrametría se configuran para:wherein the means for taking photogrammetry measurements are configured to: capturar una imagen del conjunto de puntos de referencia (71; (Xi, Yi, Zi)) comprendido en el artefacto (60) unido al objeto, obteniendo de este modo unos puntos de imagen observados (72; (x'i, y'i,)) que se corresponden con dichos puntos de referencia (71; (Xi, Yi, Zi)); ycapture an image of the set of reference points (71; (Xi, Yi, Zi)) comprised in the artifact (60) attached to the object, thus obtaining observed image points (72; (x'i, y ' i,)) that correspond to said reference points (71; (Xi, Yi, Zi)); Y obtener el ángulo de giro o balanceo O del objeto y un vector de traslación (TX, Ty, Tz) entre los medios para tomar mediciones de fotogrametría y el objeto, usando dichos puntos de referencia (71; (Xi, Yi, Zi)) y dichos puntos de imagen observados (72; (x'i, y'i)), mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación 0 y de desviación o viraje W medidos.obtain the angle of rotation or roll O of the object and a translation vector (TX, Ty, Tz) between the means for taking photogrammetry measurements and the object, using said reference points (71; (Xi, Yi, Zi)) and said observed image points (72; (x'i, y'i)), by applying a spatial resection algorithm restricted by the measured pitch or pitch angles 0 and deviation or yaw W. 10. El sistema de la reivindicación 9, en el que dichos medios para tomar mediciones fotogramétricas y dichos medios para llevar a cabo una autocolimación están comprendidos en una cámara (40).The system of claim 9, wherein said means for taking photogrammetric measurements and said means for carrying out autocollimation are comprised of a chamber (40). 11. El sistema de la reivindicación 9, en el que dichos medios para tomar mediciones fotogramétricas están comprendidos en una cámara (140) y dichos medios para llevar a cabo una autocolimación están comprendidos en un autocolimador (150).The system of claim 9, wherein said means for taking photogrammetric measurements are comprised of a camera (140) and said means for performing autocollimation are comprised of an autocollimator (150). 12. El sistema de una cualquiera de las reivindicaciones 9 - 11, en el que los N puntos de referencia representan un patrón de tablero de ajedrez, o un patrón circular, o un patrón cuadrado, o un patrón en forma de cruz o siguen marcadores especiales.The system of any one of claims 9-11, wherein the N reference points represent a checkerboard pattern, or a circular pattern, or a square pattern, or a cross-shaped pattern or follow special markers. 13. El sistema de una cualquiera de las reivindicaciones 9 - 12, en el que la superficie especular (55) es un espejo plano o cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz.The system of any one of claims 9-12, wherein the specular surface (55) is a flat mirror or any flat or semi-flat surface capable of producing a specular reflection of light. 14. El sistema de una cualquiera de las reivindicaciones 9 - 13, que comprende adicionalmente unos medios de montaje para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del espejo (55).The system of any one of claims 9-13, further comprising mounting means for mounting a plurality of measurement means for measuring the spatial location and orientation of the mirror (55). 15. Un producto de programa informático que comprende instrucciones / código de programa informático para llevar a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1 - 8, o una memoria / soporte legible por ordenador que almacena instrucciones / código de programa para llevar a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1 - 8. A computer program product comprising computer program instructions / code for carrying out the method according to any one of claims 1-8, or a computer-readable memory / medium that stores program instructions / code to carry carrying out the method according to any one of claims 1-8.
ES201930991A 2019-11-13 2019-11-13 METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding) Withdrawn ES2824873A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES201930991A ES2824873A1 (en) 2019-11-13 2019-11-13 METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding)
PCT/ES2020/070697 WO2021094636A1 (en) 2019-11-13 2020-11-11 Method and system for the spatial tracking of objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201930991A ES2824873A1 (en) 2019-11-13 2019-11-13 METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding)

Publications (1)

Publication Number Publication Date
ES2824873A1 true ES2824873A1 (en) 2021-05-13

Family

ID=75819435

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201930991A Withdrawn ES2824873A1 (en) 2019-11-13 2019-11-13 METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding)

Country Status (2)

Country Link
ES (1) ES2824873A1 (en)
WO (1) WO2021094636A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4714339A (en) * 1986-02-28 1987-12-22 The United States Of America As Represented By The Secretary Of Commerce Three and five axis laser tracking systems
US20030206285A1 (en) * 2002-05-06 2003-11-06 Automated Precision, Inc. Nine dimensional laser tracking system and method
US20120262550A1 (en) * 2011-04-15 2012-10-18 Faro Technologies, Inc. Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner
US20170201738A1 (en) * 2015-06-13 2017-07-13 Alberto Daniel Lacaze Senising on uavs for mapping and obstacle avoidance
WO2019006289A1 (en) * 2017-06-30 2019-01-03 Kaarta, Inc. Systems and methods for improvements in scanning and mapping

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10269728B2 (en) * 2017-06-30 2019-04-23 Taiwan Semiconductor Manufacturing Company, Ltd. Semiconductor device with shielding structure for cross-talk reduction

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4714339A (en) * 1986-02-28 1987-12-22 The United States Of America As Represented By The Secretary Of Commerce Three and five axis laser tracking systems
US4714339B1 (en) * 1986-02-28 1997-03-18 Us Army Three and five axis laser tracking systems
US4714339B2 (en) * 1986-02-28 2000-05-23 Us Commerce Three and five axis laser tracking systems
US20030206285A1 (en) * 2002-05-06 2003-11-06 Automated Precision, Inc. Nine dimensional laser tracking system and method
US20120262550A1 (en) * 2011-04-15 2012-10-18 Faro Technologies, Inc. Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner
US20170201738A1 (en) * 2015-06-13 2017-07-13 Alberto Daniel Lacaze Senising on uavs for mapping and obstacle avoidance
WO2019006289A1 (en) * 2017-06-30 2019-01-03 Kaarta, Inc. Systems and methods for improvements in scanning and mapping

Also Published As

Publication number Publication date
WO2021094636A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
ES2801395T3 (en) System and method for the three-dimensional measurement of the shape of material objects
ES2819018T3 (en) Coordinate measurement system and method
US9188430B2 (en) Compensation of a structured light scanner that is tracked in six degrees-of-freedom
US9696140B2 (en) Laser tracker with position-sensitive detectors for searching for a target
ES2340340T3 (en) PROCEDURE FOR DETERMINING THE SPINNING SHAFT OF A VEHICLE WHEEL.
US7576847B2 (en) Camera based six degree-of-freedom target measuring and target tracking device with rotatable mirror
US20170188015A1 (en) Calibration plate and method for calibrating a 3d measurement device
US20170168160A1 (en) Portable distance measuring device and method for capturing relative positions
ES2817800T3 (en) Optical measurement system
US20150009493A1 (en) Laser tracker with functionality for graphical target preparation
ES2683364T3 (en) Method to monitor linear dimensions of three-dimensional objects
US10697754B2 (en) Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
CN108692661A (en) Portable three-dimensional measuring system based on Inertial Measurement Unit and its measurement method
WO2016040229A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
ES2555270T3 (en) Projective optical metrology system to determine attitude and position
CN108458692B (en) Close-range three-dimensional attitude measurement method
Orghidan et al. Modelling and accuracy estimation of a new omnidirectional depth computation sensor
ES2824873A1 (en) METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding)
Yang et al. Point Light Measurement and Calibration for Photometric Stereo
US20170357003A1 (en) Method for the absolute calibration of the location and orientation of large-format detectors using laser radar
De Ruvo et al. An omnidirectional range sensor for environmental 3-D reconstruction
ES2543038B2 (en) Spatial location method and system using light markers for any environment
BR112020024006A2 (en) motion encoder
JP2007315865A (en) Three-dimensional displacement measuring device and measuring method

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2824873

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20210513

FA2A Application withdrawn

Effective date: 20210830