WO2021094636A1 - Method and system for the spatial tracking of objects - Google Patents

Method and system for the spatial tracking of objects Download PDF

Info

Publication number
WO2021094636A1
WO2021094636A1 PCT/ES2020/070697 ES2020070697W WO2021094636A1 WO 2021094636 A1 WO2021094636 A1 WO 2021094636A1 ES 2020070697 W ES2020070697 W ES 2020070697W WO 2021094636 A1 WO2021094636 A1 WO 2021094636A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
artifact
yaw
pitch
points
Prior art date
Application number
PCT/ES2020/070697
Other languages
Spanish (es)
French (fr)
Inventor
Aitor Olarra Urberuaga
Gorka KORTABERRIA BERRIOZABAL
Brahim Ahmed CHEKH OUMAR
Andoni Delgado Castrillo
Original Assignee
Fundación Tekniker
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fundación Tekniker filed Critical Fundación Tekniker
Publication of WO2021094636A1 publication Critical patent/WO2021094636A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates

Definitions

  • the present invention relates to the field of spatial object tracking.
  • it relates to non-contact measurement techniques to improve the precision that can be achieved in spatial tracking of objects by means of a spatial resection procedure.
  • photogrammetry is based on extracting three-dimensional measurements from two-dimensional data (that is, images).
  • photogrammetry uses the spatial resection method to obtain the exterior orientation of a single image.
  • spatial resection the spatial position and orientation of a camera is determined based on the central projection of the camera and modeling of optical distortion due to lens shape errors.
  • the pinhole camera model represents the mathematical definition of light output through a camera lens between the 3D world (the object space) and a 2D image (the sensor plane). This is outlined in Figure 1, which depicts how to obtain the position and orientation of an object 11 using a single camera 10 by applying the spatial resection method.
  • the following equation describes the rigid transformation between the camera coordinate system and the object coordinate system: where it indicates the spatial position of the camera 10, it indicates the spatial position of object 11 and the matrix represents the relative rotation and displacement from object 11 to camera 10.
  • represents elevation angle (also referred to as pitch or pitch angle) ( relative pitch angle) of object 11
  • represents the yaw angle (also referred to as yaw angle) relative to object 11
  • F represents the yaw angle (also referred to as roll angle ) (roll angle) of the object 11
  • yd TxTyTz represents the relative translation T x , T y and T z.
  • the spatial resection method iteratively minimizes the planar distance between the observed image points and those that are theoretically projected in order to determine the position and orientation of the camera 10 with 6 degrees of freedom (DOF DOF) that best fit the corresponding points.
  • DOF DOF degrees of freedom
  • At least three reference points must be marked on the object.
  • six circles depicted on the object 11 represent corresponding object reference points. Each circle has an Xi, Yi, Zi coordinate.
  • the target reference point distribution (how the reference points are distributed on the object) generates a different image after camera translation and a different image after camera rotation.
  • the target distribution generates nearly identical images after camera translation and camera rotation.
  • Autocollimation is an optical setup in which a collimated beam of parallel light rays exits an optical system and is reflected back to the same system by a flat mirror. Autocollimation is used to measure small tilt angles of the mirror with high precision.
  • most of the autocollimation techniques have a limitation to estimate the angle of rotation or roll of a mirror.
  • most existing autocollimation devices are capable of measuring only two bank angles (pitch or pitch and pitch). turn) of a mirror.
  • new autocollimators have been developed, which have a certain ability to measure an angle of rotation around the normal axis of the mirror based on a special lens. This is the case, for example, of TriAngle®3D, from the company TRIOPTICS.
  • the accuracy of the roll or roll angle measurement (the angle of rotation) is significantly reduced compared to the accuracy of the pitch and bank angle measurement.
  • the method and system described in the present invention are intended to solve the drawbacks of the prior art.
  • two non-contact measurement techniques are combined in order to improve the precision that can be achieved in spatial monitoring or tracking of objects.
  • the two techniques are (a) photogrammetry, which is applied with a single camera, and (b) autocollimation, which is used to estimate the absolute angles of inclination of a specular surface that, with a calibrated transformation, represents the pitch (bank) and yaw angles of the object being tracked.
  • photogrammetry the problem of orientation and external translation of a camera by means of a single image is addressed by applying the spatial resection technique.
  • the camera orientation (pitch (bank) and yaw angles) is obtained with respect to the object's coordinate system that is constructed from a set of objectives (targets).
  • the spatial resection technique is restricted with the orientation values obtained (the pitch (bank) and turn angles) and the remaining parameters (T x T and T z and the angle of roll or roll F) are they can estimate with higher precision and lower correlation between them. Therefore, these are estimated with a better (lower) uncertainty.
  • a restricted spatial resection is applied instead of a conventional spatial resection.
  • a first aspect of the invention refers to a method for estimating the position and orientation of an object with 6 degrees of freedom, comprising: attaching an artifact to the object whose position and orientation are to be estimated, where the artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position X i , Y i , Z i in a coordinate system defined in the artifact, where 1 ⁇ i ⁇ N and N>2; placing a camera facing the artifact that is attached to the object; measuring the angles of elevation, pitch or inclination ⁇ and deviation or yaw ⁇ that represent the inclination of the specular surface and, therefore, of the object, said measurement being carried out by applying an autocollimation technique; capturing an image of the set of reference points comprised in the artifact that is attached to the object, thereby obtaining, in the plane of the camera sensor, observed image points corresponding to said reference points; obtain the angle of rotation or roll F of the object and a translation vector
  • said roll or roll angle F and said translation vector between the camera and the object are obtained by implementing a spatial resection technique, restricted by the elevation, pitch or tilt angles ⁇ and of deviation or yaw ⁇ already obtained, iteratively solving the following optimization problem: where N is the number of image points observed; (x ' i , y' ⁇ ) are the observed image points; and (X ' Ei , y' Ei ) are the estimated image points.
  • the estimated image points (X ' Ei , and' Ei ) are obtained by applying a pinhole camera model that represents the projection (X ' Ei , and' Ei ) of each 3D reference point on the camera sensor image plane: where: which can be simplified as: and where: is the intrinsic matrix of the camera and where l is a scale factor.
  • the estimated image points (X ' Ei , and' Ei , 0) are calculated as follows by applying the central projection equation in computer vision:
  • the estimated image points (X ' Ei , and' Ei , 0) are calculated as follows by applying collinearity equations:
  • the proposed method can be implemented either in a single device that encompasses both the functionality of a camera and an autocollimator; or in two separate devices - a camera and an autocollimator - that work together.
  • a second aspect of the invention refers to a system for estimating the position and orientation of an object with 6 degrees of freedom, comprising: means for taking photogrammetry measurements; means for carrying out autocollimation; and an artifact that is attached to the object whose position and orientation are to be estimated, wherein said artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position in a coordinate system defined in the artifact, where 1 ⁇ i ⁇ N and N>2; wherein the means for carrying out autocollimation are configured to measure the angles of elevation, pitch or bank ⁇ and deviation or yaw ⁇ that represent the inclination of the specular surface and, therefore, of the object; wherein the means for taking photogrammetry measurements are configured to: capture an image of the set of reference points comprised in the artifact that is attached to the object, thereby obtaining some points observed image images corresponding to said reference points; and obtain the angle of rotation or roll F of the object and a translation vector (T x T and
  • the means for taking photogrammetric measurements and the means for carrying out autocollimation are comprised of a chamber.
  • the means for taking photogrammetric measurements are comprised of a camera and the means for performing autocollimation are comprised of an autocollimator.
  • the N reference points represent a checkerboard pattern, or a circular pattern, or a square pattern, or a cross-shaped pattern, or follow special markers.
  • the specular surface is a flat mirror or any flat or semi-flat surface capable of producing a specular reflection of light.
  • the system further comprises mounting means for mounting a plurality of measurement means for measuring the spatial location and orientation of the mirror.
  • the device can be embodied in at least two different configurations.
  • a single device integrates the two technologies (camera and autocollimator).
  • the device such as A camera is made up of a light source - such as an LED source - and a beam splitter.
  • the light source and beam splitter can be mounted on the camera. Therefore, simply by modifying the acquisition parameters of the camera, the camera can act as an autocollimator.
  • the device is comprised of a single camera and a separate 2D autocollimator. This configuration requires a previous extrinsic calibration phase, to collect independent data and obtain output data with respect to the same reference system.
  • a third aspect of the invention relates to a computer program product comprising computer program instructions / code for carrying out the disclosed method.
  • a fourth aspect of the invention relates to a computer-readable memory / medium that stores instructions / program code to carry out the disclosed method.
  • the combination of a camera configured for photogrammetry and an autocollimator, either in a single device or in two separate devices, provides the following advantages: (a) It enhances the precision of measurements that can be obtained as a consequence of the reduction in the uncertainty to identify four camera parameters (the orientation - the roll or roll- and T x T and T z ) using spatial resection techniques, thanks in turn to the restriction of the orientation parameters - the pitch or tilt and the yaw - by autocollimator.
  • Figure 1 depicts the spatial resection technique, which is a well-known technique for determining the spatial position and orientation of a camera based on the central projection of the camera.
  • Figure 2 shows exemplary photogrammetric configurations with different correlation between translation and rotation of a camera.
  • Figures 3 (a) and 3 (b) show side views of a chamber used in embodiments of the present invention. Part of the outer casing has been removed to show the inside of the camera.
  • Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b).
  • Figure 4 shows a measurement artifact to be attached to an object to perform 6 DOF follow-up measurements, according to embodiments of the present invention.
  • the artifact includes a mirror surface and a set of reference points.
  • Figure 5 shows a schematic according to embodiments of the invention, in which autocollimation measurements are taken with the camera of Figures 3 (a) - (c) and the measurement artifact of Figure 4.
  • Figure 6 shows exemplary components of a device for performing the autocollimation technique.
  • Figure 7A shows a schematic according to embodiments of the invention, in which photogrammetry measurements are taken with the camera of Figures 3 (a) - (c) and the artifact of Figure 4.
  • Figure 7B shows the schematic of Figure 7A, further including the 6 parameters to be measured.
  • Figure 8 shows an alternative scheme according to some embodiments of the invention, in which the spatial monitoring or tracking of an object is achieved by means of a camera and a separate 2D autocollimator, plus a measurement artifact as shown. in figure 4.
  • Figures 3 (a) to 3 (c) show different views of a camera 40 suitable for carrying out spatial monitoring or tracking of an object according to an embodiment of the invention.
  • the camera 40 integrates the two technologies that are required to improve the precision in measurements necessary for the spatial tracking of an object: a camera as such, for photogrammetry measurements, and an autocollimator.
  • Figures 3 (a) and 3 (b) part of the outer casing has been removed to show the inner part of the camera.
  • Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b).
  • Camera 40 also includes a light source 43 necessary to implement autocollimation functionality.
  • Light source 43 can be a light emitting diode (LED). Alternatively, this can be a laser emitter. This can increase the power and therefore the operating range, or it can make it possible to work in lighting environments.
  • Camera 40 also includes a beam splitter 44, also necessary to implement autocollimation functionality. Beam splitter 44 can be implemented, for example, as a plate or a cube.
  • Chamber 40 also has structural elements 45-50 to enable mounting, docking, and / or support of optical and / or electrical components.
  • the body 45 is the main structural element of the chamber 40, to which the other elements of the chamber are attached.
  • the beam splitter is supported by element 46, which ensures contact between the beam splitter and the camera sensor on one side, and between the beam splitter and the light source on the other side.
  • the camera 40 also comprises special spacer elements 47, which are used to set the focal length depending on the camera lens.
  • the camera sensor is fixed by means of the structural element 48.
  • Chamber 40 also comprises a light source support 49.
  • a cover 50 encapsulates and protects all internal elements.
  • Chamber 40 also has fixing elements 51-54 for fixing and coupling the different (structural) mounting, optical and / or electrical components.
  • the measurement artifact 60 shown in Figure 4 is composed of a mirror surface 55 and a set or grid of reference points 56 that is attached or attached to the artifact.
  • the specular surface 55 is implemented as a flat mirror.
  • Alternative specular surfaces can be any flat or semi-flat surface capable of producing a specular reflection of light, such as a part that has a good surface finish.
  • Flat mirror 55 is used for self-collimation measurements. It is mounted on a frame 57.
  • the set of reference points 56 are targets that are required for the measurements that are carried out by the camera 40 using the spatial resection technique.
  • the set of reference points 56 requires at least 3 points or targets. It should be noted that, in general, the more reference points there are, the less uncertainty there will be in the measurements.
  • the targets are set up in the form of a checkerboard.
  • the reference points correspond to the sides of each square on the chessboard.
  • the artifact 60 shown in Figure 4 is comprised of a flat mirror 55 and a calibrated chessboard 56.
  • the chessboard is widely used for internal camera calibration.
  • the coordinates of the reference points 56 are known by a coordinate system defined in the artifact 60 (the mirror 55 and the set of reference points 56).
  • the geometric relationship between the plane of the plane mirror 55 and the coordinate system formed by the set of reference points 56 has to be established.
  • a phase of characterization of the artifact 60 (mirror 55 and set of reference points 56), preferably offline or offline, before starting the phase of measuring the position and orientation of an object. The results of this characterization are used later during the measurements.
  • a common reference system has to be defined for the plane mirror 55 and the set of reference points 56.
  • the normal vector of the mirror 55 and the Z axis of the coordinate system that is created at starting from the set of reference points 56 eg, a chessboard
  • they may be aligned, but they may not coincide.
  • the artifact 60 shown in figure 4 (the mirror 55 with the set of reference points 56) is measured, for example, in a Measuring Machine of Coordinates (Coordinate Measuring Machine, CMM).
  • the artifact 60 further includes a mounting means, such as a plurality of housings, for mounting a plurality of measurement means to measure the spatial location and orientation of the artifact 60.
  • the measurement means may be retroreflective, with the that the spatial location and orientation of the artifact can be measured by conventional laser tracker technology, which is outside the scope of the present invention.
  • an artifact 60 comprising a plane mirror and a set of reference points, it is attached to the object whose position and orientation (T x , T y , T z , F, q, ⁇ ), with respect to the camera, will be estimated.
  • the camera 40 is positioned facing the artifact 60 that is attached to the object, for example, as shown in Figures 5, 7A and 7B, in such a way that the images of the set of reference points that are comprised in the artifact 60 can be captured by camera 40.
  • the pitch or bank angles ⁇ and yaw ⁇ are measured, which represent the tilt of the plane mirror 55. This is done by applying the autocorrelation functionality available in the camera 40 and based on the mirror of type specular 55 (the plane mirror 55). The set of reference points 56 is not used in this phase.
  • Figure 5 shows a scheme to carry out autocollimation measurements to obtain pitch or bank angles ⁇ and deviation or yaw ⁇ with camera 40 and a flat mirror. 55.
  • Figure 6 shows the components of an optical device, such as a camera, relevant for performing autocollimation measurements, plus the required flat mirror. In figure 6, it is shown in detail how the pitch or bank angle ⁇ is obtained.
  • a light source 43 such as a diode
  • LED emits a non-collimated light beam 62 which is redirected by a beam splitter 44, also producing non-collimated beams 63.
  • These beams 63 are collimated by a collimation lens 41.
  • the focal length of the camera is represented by the letter f (the distance between the plane of the collimating lens and the plane of the sensor or image plane).
  • the collimated beams 65 are reflected by the mirror 55, thereby providing reflected collimated light beams 66. Some of these again reach the collimating lens 41, which provides a focused reflected beam of light 67 to the camera sensor. 42.
  • This configuration allows the angle of inclination of the mirror 55 (the inclination or pitch ⁇ or the deflection or yaw ⁇ ) and, therefore, of the object that is attached to the artifact 60 to be determined, but not the angle of rotation or roll F.
  • Plane offset d represents the offset between a camera sensor reference point 76 and the position where the focused reflected beam of light 75 is captured.
  • Point 75 is the point on the image plane 61 at which the focuses the reflected light beam 67.
  • indicates the tilt or pitch angle of the mirror. I know takes a similar approach to obtain the yaw angle ⁇ .
  • a non-collimated beam of light is emitted by the light source 43 arranged in the chamber 40 (not shown in Figure 5, see, for example, Figure 6).
  • the emitted light beam is redirected by beam splitter 44, also producing non-collimated beams (not shown). These beams are collimated by the camera lens 41.
  • the collimated beams 65 are directed towards the plane mirror 55.
  • the collimated beams 65 are reflected by the plane mirror 55, thereby providing reflected collimated light beams 66.
  • the collimated beams The reflected beams 66 reach the camera lens 41, which provides focused reflected light beams 67 to the camera sensor 42.
  • the point (dx ', ⁇ y') represents the plane shift between the position (at the camera sensor 42) in which the focused reflected light beam 67, that is, point 75, and a fixed reference point 76 in the plane 61 of the camera sensor 42 is captured.
  • FIG. 7A shows a scheme for carrying out photogrammetry measurements with camera 40 and set of reference points 56 that is comprised in artifact 60 and that is attached to the object - not shown - to be performed.
  • a trace in Figure 7A, reference points are referred to as 71. Therefore, these points 71 are reference points in the 3D coordinate system of the object whose position and orientation is being tracked.
  • the coordinates of the reference points 71 are known by a coordinate system defined in the artifact 60.
  • the camera 40 captures an image of the object - in general, the artifact - which has attached the set of reference points 71 that are located at positions (X i , Y i , Z i ).
  • image points 72 are obtained which correspond to respective reference points 71.
  • Image points 72 hereinafter referred to as reference points
  • the observed image defines the projection of the 3D reference points 71 on the plane 61 of the sensor. Because the camera sensor 52 defines a 2D plane, the Z component is set to 0.
  • the observed image points are expressed as (x ' i , y' i , 0).
  • the position of the image points observed in the sensor plane is known.
  • computational image processing such as operators and / or filters, can be applied to identify the center of the features of interest (such as intersecting edge points, centers of ellipses, etc.).
  • a surface contour detection function can be applied in order to obtain the position of the image points observed in the sensor plane.
  • a spatial resection algorithm is applied, restricted by the already known orientation angles ( pitch or bank angles ⁇ and yaw or yaw ⁇ ). Therefore, these two angles are entered as known parameters in the spatial resection algorithm, which is thus simplified.
  • the angle of rotation F of the artifact 60 is obtained, which is attached to the object to be measured (not shown) and a translation vector (T x T and T z ) between camera 40 and the object. This translation vector corresponds to the position of the object.
  • the restricted spatial resection algorithm is preferably applied such as follows:
  • N is the number of the observed image points 72 (and hence the number of reference points 71). The difference between the observed image points and the estimated image points is repeatedly minimized until a certain precision threshold is obtained.
  • the estimated image points (X ' Ei , y' Ei , 0) are obtained by applying the pinhole camera model that represents the projection of a 3D point (X i , Y i , Z i ) on an image plane (a camera sensor) (X ' Ei , y' Ei ): where: Y:
  • the observed image points 72 at the sensor of the camera; the position of the reference points in the object's coordinate system a scale factor ⁇ , which represents a conversion factor between reference points on the object and image points observed on the camera sensor; and the intrinsic camera matrix [A], which is a matrix that contains the different internal characteristics of the camera (the focal length (f), the main central point (cx, cy), the obliquity factor, among others).
  • the scale factor l is not required if a normalization process is previously applied.
  • the intrinsic matrix of the chamber [A] can be obtained, for example, by applying a calibration process.
  • the disclosed algorithm can be implemented either taking into account the distortion of the image produced by the camera lens or without considering this distortion. This distortion can be accounted for using well known radial and tangential distortion errors in photogrammetric applications.
  • the input restriction parameters that are obtained after applying the autocollimation technique are: the pitch or pitch rotation matrix R (ángulo) obtained from pitch or pitch angle ⁇ ; and the deviation or yaw rotation matrix R ( ⁇ ) obtained from the deflection or yaw angle ⁇ .
  • the output parameters, estimated by applying the spatial resection algorithm are: the rotation rotation matrix R ( ⁇ ) (in general, the angle of rotation or balance F) and the translation vector (Tx Tg TZ) between the camera coordinate system and the object coordinate system, which corresponds to the position of the object.
  • T x T and T z , ⁇ , ⁇ , ⁇ represent the relative position and orientation between the camera 40 and the object.
  • Figure 8 shows an alternative scheme to implement the method to estimate the position and orientation of an object with 6 degrees of freedom.
  • the spatial tracking of the object is performed by means of two separate devices: a camera and a 2D autocollimator, plus the artifact of Figure 4.
  • the camera 40 of Figures 3 (a - c ) is replaced by the chamber 140 and the 2D autocollimator 150 of FIG. 8.
  • the chamber 140 and the autocollimator 150 are disposed on a support 160. depicts an extrinsic calibration transformation between the autocollimator and the chamber.
  • the measurement procedure is the same as in the previous case.
  • the pitch or bank angles ⁇ and deviation or yaw ⁇ which represent the inclination of the plane mirror (generally a specular surface) that is attached to the artifact and, therefore, the inclination of the object being tracked, are measured by carrying out autocollimation measurements with autocollimator 150.
  • the observed image points are obtained (x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y ' 4 ), (x' 5 , y ' 5 ).
  • the spatial resection algorithm is applied , constrained by already known yaw angles (pitch or bank angles ⁇ and yaw or yaw ⁇ ), as previously disclosed.
  • the disclosed spatial resection algorithm can be implemented and executed in a processing means, such as a processor, and a data storage means, such as a memory.
  • the processing means can be incorporated in the chamber 40, 140, for example in the processing means, generally comprised in or associated with a chamber sensor.
  • the processing means may be located in a different device with respect to the camera 40, 140, for example in a computer system or a computing device, such as a personal computer. In this case, the algorithm can be run offline.

Abstract

The invention relates to a method for estimating the position and orientation of an object with 6 degrees of freedom (Tx1, Ty1, Tz1, Φ, θ, Ψ), which comprises: connecting a device (60) to the object of which the position and orientation (Tx1, Ty1, Tz1, Φ, θ, Ψ) are to be estimated, the device (60) comprising a mirrored surface (55) and a set of N reference points (71), each reference point being defined by a position (X1, Y1, Z1) in a coordinate system defined in the device (60); placing a camera (40) aimed at the device (60) connected to the object; measuring the angles of pitch or inclination θ and of yaw or turning Ψ that represent the inclination of the mirrored surface (55) and, therefore, of the object, the measurement being carried out by applying an autocollimation technique; capturing an image of the set of reference points (71; (X1, Y1, Z1)) included in the device (60), thereby obtaining, in a plane (61) of a sensor (42) of the camera, observed image points (72; (x'1, y'1)) corresponding to the reference points (71; (X1, Y1, Z1)); obtaining the angle of rotation or roll Φ of the object and a vector of translation (Tx, Ty, Tz) between the camera (40) and the object, using the reference points (71; (X1, Y1, Z1)) and the observed image points (72; (x'1, y'1)) obtained in the sensor (42) of the camera, by applying a spatial resection algorithm restricted by the average angles of pitch or inclination θ and of yaw or turning Ψ, wherein (Τx, Τy, Tz, Φ, θ, Ψ) represent the relative position and relative orientation between the camera (40) and the object.

Description

MÉTODO Y SISTEMA PARA EL SEGUIMIENTO ESPACIAL DE OBJETOS METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS
CAMPO TÉCNICO TECHNICAL FIELD
La presente invención se refiere al campo del seguimiento espacial de objetos. En particular, esta se refiere a técnicas de medición sin contacto para mejorar la precisión que se puede lograr en el seguimiento espacial de objetos por medio de un procedimiento de resección espacial. The present invention relates to the field of spatial object tracking. In particular, it relates to non-contact measurement techniques to improve the precision that can be achieved in spatial tracking of objects by means of a spatial resection procedure.
ESTADO DE LA TÉCNICA STATE OF THE ART
En la actualidad, hay diferentes tecnologías y métodos de medición para el seguimiento espacial sin contacto de objetos. Una de estas técnicas se denomina fotogrametría, que se basa en la extracción de mediciones tridimensionales a partir de datos bidimensionales (es decir, imágenes). Por lo general, la fotogrametría usa el método de resección espacial para obtener la orientación exterior de una única imagen. En la resección espacial, la posición espacial y la orientación de una cámara se determina basándose en la proyección central de la cámara y el modelado de la distorsión óptica debido a los errores de forma de lente. El modelo de cámara estenopeica (en inglés, pinhole camera) representa la definición matemática de rendimiento luminoso a través de una lente de cámara entre el mundo en 3D (el espacio del objeto) y una imagen en 2D (el plano de sensor). Esto se esquematiza en la figura 1 , que representa cómo obtener la posición y la orientación de un objeto 11 usando una única cámara 10 mediante la aplicación del método de resección espacial. La siguiente ecuación describe la transformación rígida entre el sistema de coordenadas de la cámara y el sistema de coordenadas del objeto:
Figure imgf000004_0001
en donde indica la posición espacial de la cámara 10, indica la
Figure imgf000004_0002
Figure imgf000004_0003
posición espacial del objeto 11 y la matriz representa la rotación y el desplazamiento relativos desde el objeto 11 a la cámara 10. Tal como se muestra en la figura 1, θ representa el ángulo de elevación (también referido como ángulo de cabeceo o inclinación) (en inglés, pitch angle) relativo del objeto 11, ψ representa el ángulo de desviación (también referido como ángulo de viraje) (en inglés, yaw angle) relativo del objeto 11 , F representa el ángulo de giro (también referido como ángulo de balanceo) (en inglés, roll angle) relativo del objeto 11 y dTxTyTz representa la traslación relativa Tx, Ty y Tz. En esencia, el método de resección espacial reduce al mínimo de forma iterativa la distancia plana entre los puntos de imagen observados y los que teóricamente son proyectados con el fin de determinar la posición y la orientación de la cámara 10 con 6 grados de libertad (GDL, en inglés, DOF) que se ajustan mejor a los puntos correspondientes. Se han de marcar al menos tres puntos de referencia sobre el objeto. En la figura 1 , seis círculos representados sobre el objeto 11 representan unos puntos de referencia de objeto correspondientes. Cada círculo tiene una coordenada Xi, Yi, Zi.
Currently, there are different technologies and measurement methods for non-contact spatial tracking of objects. One of these techniques is called photogrammetry, which is based on extracting three-dimensional measurements from two-dimensional data (that is, images). Typically, photogrammetry uses the spatial resection method to obtain the exterior orientation of a single image. In spatial resection, the spatial position and orientation of a camera is determined based on the central projection of the camera and modeling of optical distortion due to lens shape errors. The pinhole camera model represents the mathematical definition of light output through a camera lens between the 3D world (the object space) and a 2D image (the sensor plane). This is outlined in Figure 1, which depicts how to obtain the position and orientation of an object 11 using a single camera 10 by applying the spatial resection method. The following equation describes the rigid transformation between the camera coordinate system and the object coordinate system:
Figure imgf000004_0001
where it indicates the spatial position of the camera 10, it indicates the
Figure imgf000004_0002
Figure imgf000004_0003
spatial position of object 11 and the matrix represents the relative rotation and displacement from object 11 to camera 10. As shown in figure 1, θ represents elevation angle (also referred to as pitch or pitch angle) ( relative pitch angle) of object 11, ψ represents the yaw angle (also referred to as yaw angle) relative to object 11, F represents the yaw angle (also referred to as roll angle ) (roll angle) of the object 11 yd TxTyTz represents the relative translation T x , T y and T z. In essence, the spatial resection method iteratively minimizes the planar distance between the observed image points and those that are theoretically projected in order to determine the position and orientation of the camera 10 with 6 degrees of freedom (DOF DOF) that best fit the corresponding points. At least three reference points must be marked on the object. In Figure 1, six circles depicted on the object 11 represent corresponding object reference points. Each circle has an Xi, Yi, Zi coordinate.
No obstante, las configuraciones fotogramétricas que usan técnicas de resección espacial pueden tener limitaciones de precisión cuando se estiman los parámetros de orientación externos de una cámara con 6 GDL debido a la correlación alta entre los parámetros de orientación y de traslación de la cámara. A pesar de que, con unas configuraciones convenientes de la posición de cámara, el tamaño de objeto y el sistema de referencia (que se ha de haber establecido previamente), se pueden lograr unas precisiones de aproximadamente 1 : 10000 del volumen de medición, son críticas las traslaciones en el eje Z y las rotaciones en torno a los ángulos de cabeceo o inclinación θ y de viraje ψ. Esto se muestra en la figura 2. La figura 2 (parte superior) representa un ejemplo de correlación baja entre los parámetros de orientación y de traslación de una cámara. La figura 2 (parte inferior) representa un ejemplo de correlación alta entre los parámetros de orientación y de traslación de una cámara. En la figura 2 (parte superior), la distribución objetivo de puntos de referencia (cómo se distribuyen los puntos de referencia sobre el objeto) genera una imagen diferente después de una traslación de cámara y una imagen diferente después de una rotación de cámara. No obstante, en la figura 2 (parte inferior) la distribución objetivo genera unas imágenes casi idénticas después de la traslación de cámara y la rotación de cámara. Como consecuencia, en el segundo escenario (parte inferior) no es posible una diferenciación precisa entre las rotaciones en torno a los ángulos de cabeceo o inclinación θ y de viraje ψ y las traslaciones Tx y Ty. However, photogrammetric setups using spatial resection techniques may have precision limitations when estimating the external orientation parameters of a camera with 6 DOF due to the high correlation between the orientation and translation parameters of the camera. Although, with convenient settings for camera position, object size, and reference system (which has to be previously stated), accuracies of about 1: 10,000 of the measurement volume can be achieved, translations in the Z axis and rotations around pitch or bank angles θ and yaw ψ are critical. This is shown in Figure 2. Figure 2 (top) represents an example of a low correlation between the orientation and translation parameters of a camera. Figure 2 (bottom) represents an example of high correlation between the orientation and translation parameters of a camera. In Figure 2 (top), the target reference point distribution (how the reference points are distributed on the object) generates a different image after camera translation and a different image after camera rotation. However, in Figure 2 (bottom) the target distribution generates nearly identical images after camera translation and camera rotation. As a consequence, in the second scenario (lower part), no precise differentiation is possible between the rotations around the pitch or bank angles ψ and turn ψ and the translations T x and T y.
Otra técnica bien conocida de medición de ángulos es la autocolimación. La autocolimación es una configuración óptica en la que un haz colimado de rayos de luz paralelos sale de un sistema óptico y es reflejado de vuelta al mismo sistema por un espejo plano. La autocolimación se usa para medir ángulos de inclinación pequeños del espejo con una precisión alta. No obstante, la mayor parte de las técnicas de autocolimación presentan una limitación para estimar el ángulo de giro o balanceo de un espejo. Dicho de otra forma, la mayor parte de los dispositivos de autocolimación existentes son capaces de medir solo dos ángulos de inclinación (la inclinación o cabeceo y el viraje) de un espejo. Recientemente se han desarrollado nuevos autocolimadores, que tienen una determinada capacidad de medir un ángulo de rotación en torno al eje normal del espejo basándose en una lente especial. Este es el caso, por ejemplo, de TriAngle®3D, de la empresa TRIOPTICS. No obstante, la precisión de la medición del ángulo de giro o balanceo (el ángulo de rotación) se reduce de forma significativa en comparación con la precisión de la medición de los ángulos de cabeceo o inclinación y de viraje. Another well-known angle measurement technique is autocollimation. Autocollimation is an optical setup in which a collimated beam of parallel light rays exits an optical system and is reflected back to the same system by a flat mirror. Autocollimation is used to measure small tilt angles of the mirror with high precision. However, most of the autocollimation techniques have a limitation to estimate the angle of rotation or roll of a mirror. In other words, most existing autocollimation devices are capable of measuring only two bank angles (pitch or pitch and pitch). turn) of a mirror. Recently, new autocollimators have been developed, which have a certain ability to measure an angle of rotation around the normal axis of the mirror based on a special lens. This is the case, for example, of TriAngle®3D, from the company TRIOPTICS. However, the accuracy of the roll or roll angle measurement (the angle of rotation) is significantly reduced compared to the accuracy of the pitch and bank angle measurement.
Por lo tanto, existe la necesidad de un método y sistema para el seguimiento espacial y/o la supervisión precisos de un objeto, que mejore la precisión en los 6 GDL. Therefore, there is a need for a method and system for precise spatial tracking and / or monitoring of an object, which improves the accuracy in the 6 DOF.
DESCRIPCIÓN DE LA INVENCIÓN DESCRIPTION OF THE INVENTION
El método y sistema descritos en la presente invención tienen por objeto solucionar los inconvenientes de la técnica anterior. En la presente invención, se combinan dos técnicas de medición sin contacto con el fin de mejorar la precisión que se puede lograr en la supervisión o seguimiento espacial de objetos. Las dos técnicas son (a) la fotogrametría, que se aplica con una única cámara, y (b) la autocolimación, que se emplea para la estimación de los ángulos de inclinación absolutos de una superficie especular que, con una transformación calibrada, representa los ángulos de cabeceo (inclinación) y de viraje del objeto al que se está realizando un seguimiento. En lo que respecta a la fotogrametría, el problema de la orientación y la traslación exterior de una cámara mediante una imagen única se aborda aplicando la técnica de resección espacial. En lo que respecta a la autocolimación, la orientación de la cámara (los ángulos de cabeceo (inclinación) y de viraje) se obtiene con respecto al sistema de coordenadas del objeto que se construye a partir de un conjunto de objetivos (targets). De esta forma, la técnica de resección espacial se restringe con los valores de orientación obtenidos (los ángulos de cabeceo (inclinación) y de viraje) y los parámetros restantes (Tx Ty Tz y el ángulo de giro o balanceo F) se pueden estimar con una precisión más alta y una correlación más baja entre los mismos. Por lo tanto, estos se estiman con una incertidumbre mejor (más baja). Dicho de otra forma, se aplica una resección espacial restringida en lugar de una resección espacial convencional. The method and system described in the present invention are intended to solve the drawbacks of the prior art. In the present invention, two non-contact measurement techniques are combined in order to improve the precision that can be achieved in spatial monitoring or tracking of objects. The two techniques are (a) photogrammetry, which is applied with a single camera, and (b) autocollimation, which is used to estimate the absolute angles of inclination of a specular surface that, with a calibrated transformation, represents the pitch (bank) and yaw angles of the object being tracked. With regard to photogrammetry, the problem of orientation and external translation of a camera by means of a single image is addressed by applying the spatial resection technique. Regarding autocollimation, the camera orientation (pitch (bank) and yaw angles) is obtained with respect to the object's coordinate system that is constructed from a set of objectives (targets). In this way, the spatial resection technique is restricted with the orientation values obtained (the pitch (bank) and turn angles) and the remaining parameters (T x T and T z and the angle of roll or roll F) are they can estimate with higher precision and lower correlation between them. Therefore, these are estimated with a better (lower) uncertainty. In other words, a restricted spatial resection is applied instead of a conventional spatial resection.
Un primer aspecto de la invención se refiere a un método para estimar la posición y la orientación de un objeto con 6 grados de libertad, que comprende: unir un artefacto al objeto del cual se va a estimar la posición y la orientación, en donde el artefacto comprende una superficie especular y un conjunto de N puntos de referencia, en donde cada punto de referencia es definido por una posición Xi, Yi, Zi en un sistema de coordenadas definido en el artefacto, en donde 1 < i < N y N > 2; colocar una cámara orientada hacia el artefacto que está unido al objeto; medir los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ que representan la inclinación de la superficie especular y, por lo tanto, del objeto, siendo realizada dicha medición mediante la aplicación de una técnica de autocolimación; capturar una imagen del conjunto de puntos de referencia comprendido en el artefacto que está unido al objeto, obteniendo de este modo, en el plano del sensor de la cámara, unos puntos de imagen observados que se corresponden con dichos puntos de referencia; obtener el ángulo de giro o balanceo F del objeto y un vector de traslación (Tx Ty Tz ) entre la cámara y el objeto, usando dichos puntos de referencia y dichos puntos de imagen observados que se obtienen en el sensor de la cámara, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ medidos, en donde Tc, Tg, Tz, F, q, ψ representan la posición y la orientación relativas entre la cámara y el objeto. A first aspect of the invention refers to a method for estimating the position and orientation of an object with 6 degrees of freedom, comprising: attaching an artifact to the object whose position and orientation are to be estimated, where the artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position X i , Y i , Z i in a coordinate system defined in the artifact, where 1 <i <N and N>2; placing a camera facing the artifact that is attached to the object; measuring the angles of elevation, pitch or inclination θ and deviation or yaw ψ that represent the inclination of the specular surface and, therefore, of the object, said measurement being carried out by applying an autocollimation technique; capturing an image of the set of reference points comprised in the artifact that is attached to the object, thereby obtaining, in the plane of the camera sensor, observed image points corresponding to said reference points; obtain the angle of rotation or roll F of the object and a translation vector (T x T and T z ) between the camera and the object, using said reference points and said observed image points that are obtained in the camera sensor, by applying a spatial resection algorithm restricted by the angles of elevation, pitch or inclination θ and of deviation or yaw ψ measured, where Tc, Tg, Tz , F, q, ψ represent the relative position and orientation between the camera and the object.
En realizaciones de la invención, los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ que representan la inclinación de la superficie especular y, por lo tanto, del objeto, se miden tal como sigue aplicando una técnica de autocolimación: emitir un haz de luz no colimado a partir de una fuente de luz que está dispuesta en la cámara; redirigir el haz de luz emitido mediante un divisor de haz, produciendo haces de luz no colimados; colimar dichos haces de luz mediante una lente de la cámara, produciendo de este modo unos haces de luz colimados; dirigir dichos haces colimados hacia el espejo plano, en el que se reflejan los mismos, proporcionando de este modo unos haces de luz colimados reflejados; enfocar dichos haces colimados reflejados en la lente de la cámara, proporcionando de este modo unos haces de luz reflejados enfocados al sensor de la cámara, siendo enfocados dichos haces de luz reflejados enfocados en una posición sobre el plano del sensor de la cámara; calcular los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ tal como sigue: θ = δx' / 2f θ = δx' / 2f en donde f es la distancia focal de la cámara y δc', δy' representan un desplazamiento plano entre la posición medida y una posición de referencia fija sobre el plano del sensor de la cámara, representando esta referencia fija la posición (x', y') en el plano del sensor en donde los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje Ψ son iguales a 0. In embodiments of the invention, the angles of elevation, pitch or bank θ and deviation or yaw ψ representing the inclination of the specular surface and therefore of the object, are measured as follows by applying an autocollimation technique: emit a non-collimated light beam from a light source that is arranged in the chamber; redirecting the emitted light beam by means of a beam splitter, producing non-collimated light beams; collimating said light beams by a camera lens, thereby producing collimated light beams; directing said collimated beams towards the plane mirror, in which they are reflected, thereby providing reflected collimated light beams; focusing said reflected collimated beams on the camera lens, thereby providing focused reflected beams of light to the camera sensor, said reflected beams of light being focused at a position on the plane of the camera sensor; calculate the angles of elevation, pitch or bank θ and deviation or yaw ψ as follows: θ = δx '/ 2f θ = δx '/ 2f where f is the focal length of the camera and δc', δy 'represent a plane displacement between the measured position and a fixed reference position on the plane of the camera sensor, this fixed reference representing the position (x ', y') in the sensor plane where the angles of elevation, pitch or bank θ and of deviation or yaw Ψ are equal to 0.
En realizaciones de la invención, dicho ángulo de giro o balanceo F y dicho vector de traslación entre la cámara y el objeto, se obtienen mediante la implementación de una técnica de resección espacial, restringida por los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ ya obtenidos, solucionando de forma iterativa el siguiente problema de optimización:
Figure imgf000009_0001
en donde N es el número de los puntos de imagen observados; (x'i, y'¡) son los puntos de imagen observados; y (X'Ei, y'Ei) son los puntos de imagen estimados.
In embodiments of the invention, said roll or roll angle F and said translation vector between the camera and the object are obtained by implementing a spatial resection technique, restricted by the elevation, pitch or tilt angles θ and of deviation or yaw ψ already obtained, iteratively solving the following optimization problem:
Figure imgf000009_0001
where N is the number of image points observed; (x ' i , y' ¡ ) are the observed image points; and (X ' Ei , y' Ei ) are the estimated image points.
En realizaciones de la invención, los puntos de imagen estimados (X'Ei, y'Ei) se obtienen mediante la aplicación de un modelo de cámara estenopeica (pinhole camera) que representa la proyección (X'Ei, y'Ei ) de cada punto de referencia en 3D sobre el plano de imagen del sensor de la cámara:
Figure imgf000009_0002
en donde:
Figure imgf000009_0003
Figure imgf000010_0001
que se puede simplificar como: y en donde: es la matriz intrínseca de la cámara
Figure imgf000010_0002
y en donde l es un factor de escala.
In embodiments of the invention, the estimated image points (X ' Ei , and' Ei ) are obtained by applying a pinhole camera model that represents the projection (X ' Ei , and' Ei ) of each 3D reference point on the camera sensor image plane:
Figure imgf000009_0002
where:
Figure imgf000009_0003
Figure imgf000010_0001
which can be simplified as: and where: is the intrinsic matrix of the camera
Figure imgf000010_0002
and where l is a scale factor.
En realizaciones de la invención, los puntos de imagen estimados (X'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de la ecuación de proyección central en visión por computador:
Figure imgf000010_0003
In embodiments of the invention, the estimated image points (X ' Ei , and' Ei , 0) are calculated as follows by applying the central projection equation in computer vision:
Figure imgf000010_0003
En realizaciones de la invención, los puntos de imagen estimados (X'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de ecuaciones de colinealidad:
Figure imgf000010_0004
In embodiments of the invention, the estimated image points (X ' Ei , and' Ei , 0) are calculated as follows by applying collinearity equations:
Figure imgf000010_0004
En realizaciones de la invención, antes de aplicar una técnica de autocolimación para medir los ángulos de elevación, cabeceo o inclinación 0 y de desviación o viraje ψ y de capturar, con la cámara, una imagen del artefacto que está unido al objeto, se establece una relación geométrica entre el plano de la superficie especular y un sistema de coordenadas formado por el conjunto de puntos de referencia. En realizaciones de la invención, el artefacto se ha medido en una Máquina de Medición de Coordenadas (CMM, por sus siglas en inglés) con el fin de establecer dicha relación geométrica. In embodiments of the invention, before applying an autocollimation technique to measure the angles of elevation, pitch or pitch 0 and deviation or yaw ψ and capturing, with the camera, an image of the artifact that is attached to the object, it is established a geometric relationship between the plane of the specular surface and a coordinate system formed by the set of reference points. In embodiments of the invention, the artifact has been measured in a Coordinate Measuring Machine (CMM) in order to establish said geometric relationship.
El método propuesto se puede implementar o bien en un único dispositivo que abarque tanto la funcionalidad de una cámara como de un autocolimador; o bien en dos dispositivos separados - una cámara y un autocolimador - que trabajan de forma conjunta. The proposed method can be implemented either in a single device that encompasses both the functionality of a camera and an autocollimator; or in two separate devices - a camera and an autocollimator - that work together.
Un segundo aspecto de la invención se refiere a un sistema para estimar la posición y la orientación de un objeto con 6 grados de libertad, que comprende: unos medios para tomar mediciones de fotogrametría; unos medios para llevar a cabo una autocolimación; y un artefacto que está unido al objeto del cual se va a estimar la posición y la orientación, en donde dicho artefacto comprende una superficie especular y un conjunto de N puntos de referencia, en donde cada punto de referencia es definido por una posición en un sistema de coordenadas definido en el artefacto, en donde 1 < i < N y N > 2; en donde los medios para llevar a cabo una autocolimación se configuran para medir los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ que representan la inclinación de la superficie especular y, por lo tanto, del objeto; en donde los medios para tomar mediciones de fotogrametría se configuran para: capturar una imagen del conjunto de puntos de referencia comprendido en el artefacto que está unido al objeto, obteniendo de este modo unos puntos de imagen observados que se corresponden con dichos puntos de referencia; y obtener el ángulo de giro o balanceo F del objeto y un vector de traslación (Tx Ty Tz ) entre los medios para tomar mediciones de fotogrametría y el objeto, usando dichos puntos de referencia y dichos puntos de imagen observados, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de elevación, cabeceo o inclinación θ y de desviación o viraje ψ medidos. A second aspect of the invention refers to a system for estimating the position and orientation of an object with 6 degrees of freedom, comprising: means for taking photogrammetry measurements; means for carrying out autocollimation; and an artifact that is attached to the object whose position and orientation are to be estimated, wherein said artifact comprises a specular surface and a set of N reference points, where each reference point is defined by a position in a coordinate system defined in the artifact, where 1 <i <N and N>2; wherein the means for carrying out autocollimation are configured to measure the angles of elevation, pitch or bank θ and deviation or yaw ψ that represent the inclination of the specular surface and, therefore, of the object; wherein the means for taking photogrammetry measurements are configured to: capture an image of the set of reference points comprised in the artifact that is attached to the object, thereby obtaining some points observed image images corresponding to said reference points; and obtain the angle of rotation or roll F of the object and a translation vector (T x T and T z ) between the means for taking photogrammetry measurements and the object, using said reference points and said observed image points, by means of the application of a spatial resection algorithm constrained by the measured elevation, pitch or bank angles θ and deviation or yaw ψ.
En realizaciones de la invención, los medios para tomar mediciones fotogramétricas y los medios para llevar a cabo una autocolimación están comprendidos en una cámara. In embodiments of the invention, the means for taking photogrammetric measurements and the means for carrying out autocollimation are comprised of a chamber.
En realizaciones de la invención, los medios para tomar mediciones fotogramétricas están comprendidos en una cámara y los medios para llevar a cabo una autocolimación están comprendidos en un autocolimador. In embodiments of the invention, the means for taking photogrammetric measurements are comprised of a camera and the means for performing autocollimation are comprised of an autocollimator.
En realizaciones de la invención, los N puntos de referencia representan un patrón de tablero de ajedrez, o un patrón circular, o un patrón cuadrado, o un patrón en forma de cruz o siguen marcadores especiales. In embodiments of the invention, the N reference points represent a checkerboard pattern, or a circular pattern, or a square pattern, or a cross-shaped pattern, or follow special markers.
En realizaciones de la invención, la superficie especular es un espejo plano o cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz. En realizaciones de la invención, el sistema comprende adicionalmente unos medios de montaje para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del espejo. In embodiments of the invention, the specular surface is a flat mirror or any flat or semi-flat surface capable of producing a specular reflection of light. In embodiments of the invention, the system further comprises mounting means for mounting a plurality of measurement means for measuring the spatial location and orientation of the mirror.
El dispositivo se puede materializar en al menos dos configuraciones diferentes. En una primera realización, un único dispositivo integra las dos tecnologías (cámara y autocolimador). En este caso, el dispositivo, tal como una cámara, está compuesto por una fuente de luz - tal como una fuente de LED - y un divisor de haz. La fuente de luz y el divisor de haz se pueden montar sobre la cámara. Por lo tanto, simplemente al modificar los parámetros de adquisición de la cámara, la cámara puede actuar como un autocolimador. En una segunda realización, el dispositivo está compuesto por una única cámara y un autocolimador en 2D separado. Esta configuración requiere una fase previa de calibración extrínseca, para recopilar datos independientes y obtener datos de salida con respecto a un mismo sistema de referencia. The device can be embodied in at least two different configurations. In a first embodiment, a single device integrates the two technologies (camera and autocollimator). In this case, the device, such as A camera is made up of a light source - such as an LED source - and a beam splitter. The light source and beam splitter can be mounted on the camera. Therefore, simply by modifying the acquisition parameters of the camera, the camera can act as an autocollimator. In a second embodiment, the device is comprised of a single camera and a separate 2D autocollimator. This configuration requires a previous extrinsic calibration phase, to collect independent data and obtain output data with respect to the same reference system.
Un tercer aspecto de la invención se refiere a un producto de programa informático que comprende instrucciones / código de programa informático para llevar a cabo el método divulgado. A third aspect of the invention relates to a computer program product comprising computer program instructions / code for carrying out the disclosed method.
Un cuarto aspecto de la invención se refiere a una memoria / soporte legible por ordenador que almacena instrucciones / código de programa para llevar a cabo el método divulgado. La combinación de una cámara configurada para fotogrametría y de un autocolimador, o bien en un único dispositivo o bien en dos dispositivos separados, proporciona las siguientes ventajas: (a) Potencia la precisión de las mediciones que se pueden obtener como consecuencia de la reducción en la incertidumbre para identificar cuatro parámetros de cámara (la orientación - el giro o balanceo- y Tx Ty Tz) usando técnicas de resección espacial, gracias a su vez a la restricción de los parámetros de orientación - el cabeceo o inclinación y el viraje - mediante el autocolimador. (b) Aumenta el número de GDL en las mediciones con respecto a los autocolimadores existentes, mediante la adición de los GDL necesarios mediante las técnicas de resección espacial, (c) Potencia el rendimiento y la aplicabilidad de las técnicas de resección espacial a las demandas de precisión alta y la aplicación gracias a la introducción de la restricción de ángulo (cabeceo o inclinación y viraje). A fourth aspect of the invention relates to a computer-readable memory / medium that stores instructions / program code to carry out the disclosed method. The combination of a camera configured for photogrammetry and an autocollimator, either in a single device or in two separate devices, provides the following advantages: (a) It enhances the precision of measurements that can be obtained as a consequence of the reduction in the uncertainty to identify four camera parameters (the orientation - the roll or roll- and T x T and T z ) using spatial resection techniques, thanks in turn to the restriction of the orientation parameters - the pitch or tilt and the yaw - by autocollimator. (b) Increases the number of DOF in measurements with respect to existing autocollimators, by adding the necessary DOF through spatial resection techniques, (c) Enhances the performance and applicability of the techniques of Spatial resection to the demands of high precision and application thanks to the introduction of angle constraint (pitch or bank and yaw).
Algunas ventajas y características adicionales de la invención se harán evidentes a partir de la descripción en detalle que sigue y serán señaladas en particular en las reivindicaciones adjuntas. Certain additional advantages and features of the invention will become apparent from the detailed description that follows and will be pointed out in particular in the appended claims.
BREVE DESCRIPCIÓN DE LOS DIBUJOS BRIEF DESCRIPTION OF THE DRAWINGS
Para completar la descripción y con el fin de prever una mejor comprensión de la invención, se proporciona un conjunto de dibujos. Dichos dibujos forman una parte integrante de la descripción e ¡lustran una realización de la invención, lo que no se debería interpretar como que restringe el alcance de la invención, sino simplemente como un ejemplo de cómo se puede llevar a cabo la invención. Los dibujos comprenden las siguientes figuras: To complete the description and in order to provide a better understanding of the invention, a set of drawings is provided. Said drawings form an integral part of the description and illustrate one embodiment of the invention, which should not be construed as restricting the scope of the invention, but merely as an example of how the invention can be carried out. The drawings comprise the following figures:
La figura 1 representa la técnica de resección espacial, que es una técnica bien conocida para determinar la posición espacial y la orientación de una cámara basándose en la proyección central de la cámara. Figure 1 depicts the spatial resection technique, which is a well-known technique for determining the spatial position and orientation of a camera based on the central projection of the camera.
La figura 2 muestra unas configuraciones fotogramétricas a modo de ejemplo con correlación diferente entre la traslación y la rotación de una cámara. Figure 2 shows exemplary photogrammetric configurations with different correlation between translation and rotation of a camera.
Las figuras 3(a) y 3(b) muestran unas vistas laterales de una cámara que se usa en realizaciones de la presente invención. Parte de la carcasa externa se ha retirado para mostrar la parte interior de la cámara. La figura 3(c) muestra una vista en despiece ordenado de la cámara que se muestra en las figuras 3(a) y 3(b). Figures 3 (a) and 3 (b) show side views of a chamber used in embodiments of the present invention. Part of the outer casing has been removed to show the inside of the camera. Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b).
La figura 4 muestra un artefacto de medición que se ha de unir a un objeto para llevar a cabo mediciones de seguimiento de 6 GDL, de acuerdo con realizaciones de la presente invención. El artefacto incluye una superficie especular y un conjunto de puntos de referencia. Figure 4 shows a measurement artifact to be attached to an object to perform 6 DOF follow-up measurements, according to embodiments of the present invention. The artifact includes a mirror surface and a set of reference points.
La figura 5 muestra un esquema de acuerdo con realizaciones de la invención, en el que se toman mediciones de autocolimación con la cámara de las figuras 3(a) - (c) y el artefacto de medición de la figura 4. Figure 5 shows a schematic according to embodiments of the invention, in which autocollimation measurements are taken with the camera of Figures 3 (a) - (c) and the measurement artifact of Figure 4.
La figura 6 muestra componentes a modo de ejemplo de un dispositivo para llevar a cabo la técnica de autocolimación. Figure 6 shows exemplary components of a device for performing the autocollimation technique.
La figura 7A muestra un esquema de acuerdo con realizaciones de la invención, en el que se toman mediciones de fotogrametría con la cámara de las figuras 3(a) - (c) y el artefacto de la figura 4. La figura 7B muestra el esquema de la figura 7A, incluyendo adicionalmente los 6 parámetros que se van a medir. Figure 7A shows a schematic according to embodiments of the invention, in which photogrammetry measurements are taken with the camera of Figures 3 (a) - (c) and the artifact of Figure 4. Figure 7B shows the schematic of Figure 7A, further including the 6 parameters to be measured.
La figura 8 muestra un esquema alternativo de acuerdo con algunas realizaciones de la invención, en el que la supervisión o seguimiento espacial de un objeto se logra por medio de una cámara y un autocolimador en 2D separado, más un artefacto de medición tal como se muestra en la figura 4. Figure 8 shows an alternative scheme according to some embodiments of the invention, in which the spatial monitoring or tracking of an object is achieved by means of a camera and a separate 2D autocollimator, plus a measurement artifact as shown. in figure 4.
DESCRIPCIÓN DE UNA FORMA DE LLEVAR A CABO LA INVENCIÓN DESCRIPTION OF A WAY OF CARRYING OUT THE INVENTION
Las figuras 3(a) a 3(c) muestran diferentes vistas de una cámara 40 adecuada para llevar a cabo la supervisión o seguimiento espacial de un objeto de acuerdo con una realización de la invención. La cámara 40 integra las dos tecnologías que se requieren para mejorar la precisión en las mediciones necesarias para el seguimiento espacial de un objeto: una cámara como tal, para mediciones de fotogrametría, y un autocolimador. En las figuras 3(a) y 3(b), parte de la carcasa externa se ha retirado para mostrar la parte interior de la cámara. La figura 3(c) muestra una vista en despiece ordenado de la cámara que se muestra en las figuras 3(a) y 3(b). Algunas de las partes más relevantes de la cámara 40 se identifican en las figuras: una lente 41 para enfocar y crear la imagen del objeto en el sensor de cámara y para colimar la luz en las mediciones de autocolimación; y un sensor 42 para capturar imágenes. Ejemplos no limitantes del sensor 42 pueden ser un CCD matricial o un sensor CMOS. La imagen proyectada por la lente objetivo se forma en el sensor. Estos elementos se encuentran, por lo general, presentes en todas las cámaras. La cámara 40 también incluye una fuente de luz 43 necesaria para implementar la funcionalidad de autocolimación. La fuente de luz 43 puede ser un diodo de emisión de luz (LED). Como alternativa, esta puede ser un emisor láser. Esto puede aumentar la potencia y, por lo tanto, el intervalo operativo, o puede posibilitar que se trabaje en entornos de iluminación. La cámara 40 también incluye un divisor de haz 44, necesario también para implementar la funcionalidad de autocolimación. El divisor de haz 44 se puede implementar, por ejemplo, como una placa o un cubo. Figures 3 (a) to 3 (c) show different views of a camera 40 suitable for carrying out spatial monitoring or tracking of an object according to an embodiment of the invention. The camera 40 integrates the two technologies that are required to improve the precision in measurements necessary for the spatial tracking of an object: a camera as such, for photogrammetry measurements, and an autocollimator. In Figures 3 (a) and 3 (b), part of the outer casing has been removed to show the inner part of the camera. Figure 3 (c) shows an exploded view of the chamber shown in Figures 3 (a) and 3 (b). Some of the most relevant parts of the camera 40 are identified in the figures: a lens 41 to focus and create the image of the object on the camera sensor and to collimate the light in autocollimation measurements; and a sensor 42 for capturing images. Non-limiting examples of the sensor 42 can be a matrix CCD or a CMOS sensor. The image projected by the objective lens is formed on the sensor. These elements are generally present in all cameras. Camera 40 also includes a light source 43 necessary to implement autocollimation functionality. Light source 43 can be a light emitting diode (LED). Alternatively, this can be a laser emitter. This can increase the power and therefore the operating range, or it can make it possible to work in lighting environments. Camera 40 also includes a beam splitter 44, also necessary to implement autocollimation functionality. Beam splitter 44 can be implemented, for example, as a plate or a cube.
La cámara 40 también tiene unos elementos estructurales 45 - 50 para habilitar el montaje, el acoplamiento y/ o el soporte de los componentes ópticos y / o eléctricos. El cuerpo 45 es el elemento estructural principal de la cámara 40, al que se fijan los otros elementos de la cámara. El divisor de haz es soportado por el elemento 46, lo que garantiza el contacto entre el divisor de haz y el sensor de la cámara en un lado, y entre el divisor de haz y la fuente de luz en el otro lado. La cámara 40 también comprende unos elementos separadores especiales 47, que se usan para establecer la longitud focal que depende de la lente de la cámara. El sensor de la cámara se fija por medio del elemento estructural 48. La cámara 40 también comprende un soporte de la fuente de luz 49. Una cubierta 50 encapsula y protege todos los elementos internos. La cámara 40 también tiene unos elementos de fijación 51 - 54 para fijar y acoplar los diferentes componentes (estructurales) de montaje, ópticos y / o eléctricos. Chamber 40 also has structural elements 45-50 to enable mounting, docking, and / or support of optical and / or electrical components. The body 45 is the main structural element of the chamber 40, to which the other elements of the chamber are attached. The beam splitter is supported by element 46, which ensures contact between the beam splitter and the camera sensor on one side, and between the beam splitter and the light source on the other side. The camera 40 also comprises special spacer elements 47, which are used to set the focal length depending on the camera lens. The camera sensor is fixed by means of the structural element 48. Chamber 40 also comprises a light source support 49. A cover 50 encapsulates and protects all internal elements. Chamber 40 also has fixing elements 51-54 for fixing and coupling the different (structural) mounting, optical and / or electrical components.
Con el fin de realizar el seguimiento espacial de un objeto, se requiere un ensamblaje, artefacto o dispositivo adicional. Un artefacto adicional de acuerdo con una posible realización se muestra en la figura 4. El artefacto de medición 60 que se muestra en la figura 4 está compuesto por una superficie especular 55 y un conjunto o cuadrícula de puntos de referencia 56 que está adherido o unido al artefacto. En la figura 4, la superficie especular 55 se implementa como un espejo plano. Superficies especulares alternativas pueden ser cualquier superficie plana o semiplana capaz de producir una reflexión especular de la luz, tal como una pieza que tenga un buen acabado superficial. El espejo plano 55 se usa para las mediciones mediante autocolimación. Se monta sobre un bastidor 57. El conjunto de puntos de referencia 56 son unos objetivos (targets) que se requieren para las mediciones que son llevadas a cabo por la cámara 40 usando la técnica de resección espacial. Estos objetivos pueden adoptar formas diferentes o ser de tipos diferentes, tales como siguiendo un patrón de tablero de ajedrez, circular, cuadrado, en forma de cruz o siguiendo marcadores especiales, entre otros. El conjunto de puntos de referencia 56 requiere al menos 3 puntos u objetivos. Cabe destacar que, en general, cuantos más puntos de referencia haya, menos incertidumbre habrá en las mediciones. En la figura 4, los objetivos se configuran en forma de tablero de ajedrez. Los puntos de referencia se corresponden con los lados de cada cuadrado en el tablero de ajedrez. Dicho de otra forma, el artefacto 60 que se muestra en la figura 4 está compuesto por un espejo plano 55 y un tablero de ajedrez calibrado 56. El tablero de ajedrez está muy extendido para la calibración interna de la cámara. Las coordenadas de los puntos de referencia 56 se conocen mediante un sistema de coordenadas definido en el artefacto 60 (el espejo 55 y el conjunto de puntos de referencia 56). In order to spatially track an object, an additional assembly, artifact, or device is required. A further artifact in accordance with a possible embodiment is shown in Figure 4. The measurement artifact 60 shown in Figure 4 is composed of a mirror surface 55 and a set or grid of reference points 56 that is attached or attached to the artifact. In Figure 4, the specular surface 55 is implemented as a flat mirror. Alternative specular surfaces can be any flat or semi-flat surface capable of producing a specular reflection of light, such as a part that has a good surface finish. Flat mirror 55 is used for self-collimation measurements. It is mounted on a frame 57. The set of reference points 56 are targets that are required for the measurements that are carried out by the camera 40 using the spatial resection technique. These targets can take different shapes or be of different types, such as following a checkerboard, circular, square, cross-shaped pattern or following special markers, among others. The set of reference points 56 requires at least 3 points or targets. It should be noted that, in general, the more reference points there are, the less uncertainty there will be in the measurements. In Figure 4, the targets are set up in the form of a checkerboard. The reference points correspond to the sides of each square on the chessboard. In other words, the artifact 60 shown in Figure 4 is comprised of a flat mirror 55 and a calibrated chessboard 56. The chessboard is widely used for internal camera calibration. The coordinates of the reference points 56 are known by a coordinate system defined in the artifact 60 (the mirror 55 and the set of reference points 56).
En el artefacto 60, se ha de establecer la relación geométrica entre el plano del espejo plano 55 y el sistema de coordenadas formado por el conjunto de puntos de referencia 56. Dicho de otra forma, se ha de llevar a cabo una fase de caracterización del artefacto 60 (el espejo 55 y el conjunto de puntos de referencia 56), preferiblemente sin conexión u offline, antes de iniciar la fase de medición de la posición y la orientación de un objeto. Los resultados de esta caracterización se usan más adelante durante las mediciones. Esto quiere decir que se ha de definir un sistema de referencia común para el espejo plano 55 y el conjunto de puntos de referencia 56. Dicho de otra forma, el vector normal del espejo 55 y el eje Z del sistema de coordenadas que se crea a partir del conjunto de puntos de referencia 56 (por ejemplo, un tablero de ajedrez) pueden estar alineados, pero puede que los mismos no coincidan. Por lo tanto, es necesario que se midan o que se caractericen tanto el vector normal del espejo 55 como el eje Z del sistema de coordenadas que se crea a partir del conjunto de puntos de referencia 56, con el fin de compensar cualquier desalineación potencial que puedan tener los mismos. Con el fin de establecer la relación geométrica mencionada entre estos dos vectores, el artefacto 60 que se muestra en la figura 4 (el espejo 55 con el conjunto de puntos de referencia 56) se mide, por ejemplo, en una Máquina de Medición de Coordenadas (Coordínate Measuring Machine, CMM, por sus siglas en inglés). El artefacto 60 incluye adicionalmente unos medios de montaje, tales como una pluralidad de alojamientos, para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del artefacto 60. Por ejemplo, los medios de medición pueden ser retrorreflectores, con los que la ubicación espacial y la orientación del artefacto se pueden medir mediante una tecnología de seguimiento por láser (laser-tracker) convencional, que se encuentra fuera del alcance de la presente invención. In the artifact 60, the geometric relationship between the plane of the plane mirror 55 and the coordinate system formed by the set of reference points 56 has to be established. In other words, a phase of characterization of the artifact 60 (mirror 55 and set of reference points 56), preferably offline or offline, before starting the phase of measuring the position and orientation of an object. The results of this characterization are used later during the measurements. This means that a common reference system has to be defined for the plane mirror 55 and the set of reference points 56. In other words, the normal vector of the mirror 55 and the Z axis of the coordinate system that is created at starting from the set of reference points 56 (eg, a chessboard) they may be aligned, but they may not coincide. Therefore, it is necessary that both the normal vector of the mirror 55 and the Z axis of the coordinate system that is created from the set of reference points 56 be measured or characterized, in order to compensate for any potential misalignment that they may have the same. In order to establish the aforementioned geometric relationship between these two vectors, the artifact 60 shown in figure 4 (the mirror 55 with the set of reference points 56) is measured, for example, in a Measuring Machine of Coordinates (Coordinate Measuring Machine, CMM). The artifact 60 further includes a mounting means, such as a plurality of housings, for mounting a plurality of measurement means to measure the spatial location and orientation of the artifact 60. For example, the measurement means may be retroreflective, with the that the spatial location and orientation of the artifact can be measured by conventional laser tracker technology, which is outside the scope of the present invention.
A continuación, se explica el proceso de seguimiento espacial de un objeto usando la cámara 40 y el artefacto 60. Con el fin de realizar el seguimiento espacial de un objeto, un artefacto 60 que comprende un espejo plano y un conjunto de puntos de referencia, está unido al objeto del cual se va a estimar la posición y la orientación (Tx, Ty, Tz, F, q, ψ), con respecto a la cámara. La cámara 40 se coloca orientada hacia el artefacto 60 que está unido al objeto, por ejemplo, tal como se muestra en las figuras 5, 7A y 7B, de una forma tal que las imágenes del conjunto de puntos de referencia que está comprendido en el artefacto 60 pueden ser capturadas por la cámara 40. Next, the process of spatial tracking of an object using the camera 40 and the artifact 60 is explained. In order to perform the spatial tracking of an object, an artifact 60 comprising a plane mirror and a set of reference points, it is attached to the object whose position and orientation (T x , T y , T z , F, q, ψ), with respect to the camera, will be estimated. The camera 40 is positioned facing the artifact 60 that is attached to the object, for example, as shown in Figures 5, 7A and 7B, in such a way that the images of the set of reference points that are comprised in the artifact 60 can be captured by camera 40.
En primer lugar, se miden los ángulos de cabeceo o inclinación θ y de viraje ψ, que representan la inclinación del espejo plano 55. Esto se realiza mediante la aplicación de la funcionalidad de autocorrelación disponible en la cámara 40 y basándose en el espejo de tipo especular 55 (el espejo plano 55). En esta fase no se usa el conjunto de puntos de referencia 56. La figura 5 muestra un esquema para llevar a cabo mediciones de autocolimación para obtener los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ con la cámara 40 y un espejo plano 55. En la figura 6, se muestran los componentes de un dispositivo óptico, tal como una cámara, relevantes para llevar a cabo mediciones de autocolimación, más el espejo plano requerido. En la figura 6, se muestra en detalle cómo se obtiene el ángulo de cabeceo o inclinación θ. En la figura 6, en una cámara, una fuente de luz 43, tal como un diodoFirst, the pitch or bank angles θ and yaw ψ are measured, which represent the tilt of the plane mirror 55. This is done by applying the autocorrelation functionality available in the camera 40 and based on the mirror of type specular 55 (the plane mirror 55). The set of reference points 56 is not used in this phase. Figure 5 shows a scheme to carry out autocollimation measurements to obtain pitch or bank angles θ and deviation or yaw ψ with camera 40 and a flat mirror. 55. Figure 6 shows the components of an optical device, such as a camera, relevant for performing autocollimation measurements, plus the required flat mirror. In figure 6, it is shown in detail how the pitch or bank angle θ is obtained. In Figure 6, in a camera, a light source 43, such as a diode
LED, emite un haz de luz no colimado 62 que se redirige mediante un divisor de haz 44, produciendo también unos haces no colimados 63. Estos haces 63 se coliman mediante una lente de colimación 41. La longitud focal de la cámara se representa con la letra f (la distancia entre el plano de la lente de colimación y el plano del sensor o plano de imagen). Los haces colimados 65 son reflejados por el espejo 55, proporcionando de este modo unos haces de luz colimados reflejados 66. Algunos de los mismos alcanzan de nuevo la lente de colimación 41 , que proporciona un haz de luz reflejado enfocado 67 al sensor de la cámara 42. Esta configuración permite que se determine el ángulo de inclinación del espejo 55 (la inclinación o cabeceo θ o la desviación o viraje ψ) y, por lo tanto, del objeto que está unido al artefacto 60, pero no el ángulo de giro o balanceo F. De hecho, un desplazamiento plano δ del haz de luz reflejado 67 en un punto 75 en el sensor de la cámara 42 se estudia sobre el plano de imagen 61 (el plano del sensor de la cámara) con el fin de estimar la variación angular (el ángulo de cabeceo o inclinación θ) basándose en la siguiente relación trigonométrica: θ = δx' / 2f . El desplazamiento plano d representa el desplazamiento entre un punto de referencia de sensor de la cámara 76 y la posición en la que se captura el haz de luz reflejado enfocado 75. El punto 75 es el punto en el plano de imagen 61 en el que se enfoca el haz de luz reflejado 67. θ indica el ángulo de inclinación o cabeceo del espejo. Se lleva a cabo un enfoque similar para obtener el ángulo de desviación o viraje ψ.LED emits a non-collimated light beam 62 which is redirected by a beam splitter 44, also producing non-collimated beams 63. These beams 63 are collimated by a collimation lens 41. The focal length of the camera is represented by the letter f (the distance between the plane of the collimating lens and the plane of the sensor or image plane). The collimated beams 65 are reflected by the mirror 55, thereby providing reflected collimated light beams 66. Some of these again reach the collimating lens 41, which provides a focused reflected beam of light 67 to the camera sensor. 42. This configuration allows the angle of inclination of the mirror 55 (the inclination or pitch θ or the deflection or yaw ψ) and, therefore, of the object that is attached to the artifact 60 to be determined, but not the angle of rotation or roll F. In fact, a plane displacement δ of the reflected light beam 67 at a point 75 on the camera sensor 42 is studied on the image plane 61 (the camera sensor plane) in order to estimate the Angular variation (the pitch or bank angle θ) based on the following trigonometric relationship: θ = δx '/ 2f. Plane offset d represents the offset between a camera sensor reference point 76 and the position where the focused reflected beam of light 75 is captured. Point 75 is the point on the image plane 61 at which the focuses the reflected light beam 67. θ indicates the tilt or pitch angle of the mirror. I know takes a similar approach to obtain the yaw angle ψ.
Haciendo referencia a continuación a la figura 5, un haz de luz no colimado es emitido por la fuente de luz 43 dispuesta en la cámara 40 (que no se muestra en la figura 5, véase, por ejemplo, la figura 6). El haz de luz emitido se redirige mediante el divisor de haz 44, produciendo también unos haces no colimados (que no se muestran). Estos haces se coliman mediante la lente de cámara 41. Los haces colimados 65 se dirigen hacia el espejo plano 55. Los haces colimados 65 son reflejados por el espejo plano 55, proporcionando de este modo unos haces de luz colimados reflejados 66. Los haces colimados reflejados 66 alcanzan la lente de cámara 41, que proporciona unos haces de luz reflejados enfocados 67 al sensor de la cámara 42. El punto (dx', δy') representa el desplazamiento plano entre la posición (en el sensor de la cámara 42) en la que se captura el haz de luz reflejado enfocado 67, es decir, el punto 75, y un punto de referencia fija 76 en el plano 61 del sensor de la cámara 42. Esta posición de referencia representa la posición en donde los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ son ¡guales a cero, normalmente la posición x' = 0 e y' = 0 en el plano del sensor de la cámara. Debido a que el punto (dx', δy') es bien conocido, y la longitud focal f de la cámara 40 también es bien conocida, los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ se obtienen mediante la aplicación de la siguiente relación trigonométrica: θ = δx' / 2f ψ = δx' / 2f Referring now to Figure 5, a non-collimated beam of light is emitted by the light source 43 arranged in the chamber 40 (not shown in Figure 5, see, for example, Figure 6). The emitted light beam is redirected by beam splitter 44, also producing non-collimated beams (not shown). These beams are collimated by the camera lens 41. The collimated beams 65 are directed towards the plane mirror 55. The collimated beams 65 are reflected by the plane mirror 55, thereby providing reflected collimated light beams 66. The collimated beams The reflected beams 66 reach the camera lens 41, which provides focused reflected light beams 67 to the camera sensor 42. The point (dx ', δy') represents the plane shift between the position (at the camera sensor 42) in which the focused reflected light beam 67, that is, point 75, and a fixed reference point 76 in the plane 61 of the camera sensor 42 is captured. This reference position represents the position where the angles of pitch or bank θ and yaw or yaw ψ are equal to zero, usually the position x '= 0 and y' = 0 in the plane of the camera sensor. Because the point (dx ', δy') is well known, and the focal length f of the camera 40 is also well known, the pitch or bank angles θ and deviation or yaw ψ are obtained by applying the following trigonometric relation: θ = δx '/ 2f ψ = δx' / 2f
Una vez que se han calculado los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ, unos puntos de imagen 72 que se corresponden con unos puntos de referencia 71 en el sistema de coordenadas del objeto (que no se muestra, pero que está unido al artefacto de medición 60), se miden y se identifican usando la cámara. Esto se realiza mediante la aplicación de técnicas de visión de la cámara. La figura 7A muestra un esquema para llevar a cabo mediciones de fotogrametría con la cámara 40 y el conjunto de puntos de referencia 56 que está comprendido en el artefacto 60 y que está unido al objeto - que no se muestra - al que se va a realizar un seguimiento (en la figura 7A, se hace referencia a los puntos de referencia como 71). Por lo tanto, estos puntos 71 son unos puntos de referencia en el sistema de coordenadas en 3D del objeto cuya posición y orientación se está sometiendo a seguimiento. Las coordenadas de los puntos de referencia 71 se conocen mediante un sistema de coordenadas definido en el artefacto 60. En la figura 7A, se ¡lustran cinco puntos de referencia 71, expresado cada uno de los mismos como (Xi, Yi, Zi), en donde 1 < i < N, siendo N un número natural mayor que 2 (en la figura 7A, N = 5). Once the pitch or bank angles θ and yaw or yaw ψ have been calculated, image points 72 corresponding to Reference points 71 in the object's coordinate system (not shown, but attached to measurement artifact 60), are measured and identified using the camera. This is done by applying camera vision techniques. Figure 7A shows a scheme for carrying out photogrammetry measurements with camera 40 and set of reference points 56 that is comprised in artifact 60 and that is attached to the object - not shown - to be performed. a trace (in Figure 7A, reference points are referred to as 71). Therefore, these points 71 are reference points in the 3D coordinate system of the object whose position and orientation is being tracked. The coordinates of the reference points 71 are known by a coordinate system defined in the artifact 60. In Figure 7A, five reference points 71 are illustrated, each expressed as (X i , Y i , Z i ), where 1 <i <N, where N is a natural number greater than 2 (in Figure 7A, N = 5).
La cámara 40 captura una imagen del objeto - en general, el artefacto - que tiene unido el conjunto de puntos de referencia 71 que están ubicados en unas posiciones (Xi, Yi, Zi). En el plano 61 del sensor de imagen 42, se obtienen unos puntos de imagen 72 que se corresponden con unos respectivos puntos de referencia 71. Los puntos de imagen 72, a los que se hace referencia en lo sucesivo en el presente documento como puntos de imagen observados, definen la proyección de los puntos de referencia en 3D 71 en el plano 61 del sensor. Debido a que el sensor de la cámara 52 define un plano en 2D, la componente Z se establece a 0. Los puntos de imagen observados se expresan como (x'i, y'i, 0). En la figura 7A, se muestran cinco puntos de imagen observados (x'1, y'1, 0), (x'2, y'2, 0), (x'3, y'3, 0), (x'4, y'4, 0), (x'5, y'5, 0), que se corresponden con unos respectivos puntos de referencia (X1, Y1, Z1) , (X2, Y2, Z2), (X3, Y3, Z3), (X4, Y4, Z4), (X5, Y5, Z5). Debido a que las coordenadas de los puntos de imágenes son en 2D, también se hace referencia a las mismas como (x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5). La posición de los puntos de imagen observados en el plano de sensor es conocida. Por ejemplo, con el fin de obtener dicha posición, se puede aplicar un procesamiento computacional de imágenes, tal como operadores y / o filtros, para identificar el centro de las características (features) de interés (tal como los puntos de borde intersecados, los centros de las elipses, etc.). Por ejemplo, se puede aplicar una función de detección de contorno de superficie con el fin de obtener la posición de los puntos de imagen observados en el plano de sensor. The camera 40 captures an image of the object - in general, the artifact - which has attached the set of reference points 71 that are located at positions (X i , Y i , Z i ). In plane 61 of image sensor 42, image points 72 are obtained which correspond to respective reference points 71. Image points 72, hereinafter referred to as reference points The observed image defines the projection of the 3D reference points 71 on the plane 61 of the sensor. Because the camera sensor 52 defines a 2D plane, the Z component is set to 0. The observed image points are expressed as (x ' i , y' i , 0). In Figure 7A, five image points are shown observed (x ' 1 , y' 1 , 0), (x ' 2 , y' 2 , 0), (x ' 3 , y' 3 , 0), (x ' 4 , y' 4 , 0), ( x ' 5 , y' 5 , 0), which correspond to respective reference points (X 1 , Y 1 , Z 1 ), (X 2 , Y 2 , Z 2 ), (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), (X 5 , Y 5 , Z 5 ). Because the coordinates of the image points are in 2D, they are also referred to as (x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y' 4 ), (x ' 5 , y' 5 ). The position of the image points observed in the sensor plane is known. For example, in order to obtain said position, computational image processing, such as operators and / or filters, can be applied to identify the center of the features of interest (such as intersecting edge points, centers of ellipses, etc.). For example, a surface contour detection function can be applied in order to obtain the position of the image points observed in the sensor plane.
A continuación, con el fin de obtener los 6 parámetros - que se representan en la figura 7B - que definen la posición y la orientación del objeto con 6 GDL, se aplica un algoritmo de resección espacial, restringido por los ángulos de orientación ya conocidos (los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ). Por lo tanto, estos dos ángulos se introducen como parámetros conocidos en el algoritmo de resección espacial, que se simplifica de este modo. En resumen, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ, se obtiene el ángulo de giro F del artefacto 60, que está unido al objeto que se va a medir (que no se muestra) y un vector de traslación (Tx Ty Tz ) entre la cámara 40 y el objeto. Este vector de traslación se corresponde con la posición del objeto. El algoritmo de resección espacial restringida se aplica preferiblemente tal como sigue: Next, in order to obtain the 6 parameters - which are represented in figure 7B - that define the position and orientation of the object with 6 DOF, a spatial resection algorithm is applied, restricted by the already known orientation angles ( pitch or bank angles θ and yaw or yaw ψ). Therefore, these two angles are entered as known parameters in the spatial resection algorithm, which is thus simplified. In summary, by applying a spatial resection algorithm restricted by the pitch or bank angles θ and deviation or yaw ψ, the angle of rotation F of the artifact 60 is obtained, which is attached to the object to be measured ( not shown) and a translation vector (T x T and T z ) between camera 40 and the object. This translation vector corresponds to the position of the object. The restricted spatial resection algorithm is preferably applied such as follows:
Se implementa el siguiente problema de optimización, en el que es necesario que se minimice la diferencia entre los puntos de imagen observados (x'i, y'i, 0), a los que también se hace referencia como (x'i, y'i, ) y los puntos de imagen estimados (X'Ei, y'Ei ,0), a los que también se hace referencia como (X'E¡,The following optimization problem is implemented, in which it is necessary to minimize the difference between the observed image points (x ' i , y' i , 0), which are also referred to as (x ' i , y ' i ,) and the estimated image points (X' Ei , y ' Ei , 0), also referred to as (X'E,
Y'EÍ):
Figure imgf000024_0001
en donde N es el número de los puntos de imagen observados 72 (y, por lo tanto, el número de puntos de referencia 71). La diferencia entre los puntos de imagen observados y los puntos de imagen estimados se minimiza repetidamente hasta que se obtiene un determinado umbral de precisión.
Y'EÍ):
Figure imgf000024_0001
where N is the number of the observed image points 72 (and hence the number of reference points 71). The difference between the observed image points and the estimated image points is repeatedly minimized until a certain precision threshold is obtained.
Los puntos de imagen estimados (X'Ei, y'Ei ,0) se obtienen mediante la aplicación del modelo de cámara estenopeica (pinhole camera) que representa la proyección de un punto en 3D (Xi, Yi, Zi) sobre un plano de imagen (un sensor de cámara) (X'Ei, y'Ei):
Figure imgf000024_0002
en donde:
Figure imgf000024_0003
y:
Figure imgf000025_0001
The estimated image points (X ' Ei , y' Ei , 0) are obtained by applying the pinhole camera model that represents the projection of a 3D point (X i , Y i , Z i ) on an image plane (a camera sensor) (X ' Ei , y' Ei ):
Figure imgf000024_0002
where:
Figure imgf000024_0003
Y:
Figure imgf000025_0001
Simplificando:
Figure imgf000025_0002
Simplifying:
Figure imgf000025_0002
Por lo tanto, hay dos formas de calcular los puntos de imagen estimados (X'Ei, y'Ei, 0) a los que también se hace referencia como (X'Ei, y'Ei): Therefore, there are two ways to calculate the estimated image points (X ' Ei , and' Ei, 0) which are also referred to as (X ' Ei , and' Ei ):
1. Aplicar la ecuación de proyección en visión por computador, en donde los puntos de imagen estimados (X'Ei, y'Ei, 0) se calculan tal como sigue:
Figure imgf000025_0003
1. Apply the projection equation in computer vision, where the estimated image points (X ' Ei , and' Ei , 0) are calculated as follows:
Figure imgf000025_0003
Mediante la sustitución de los puntos de imagen estimados de la ecuación 1 con los que se obtienen en la ecuación 3, el problema de minimización da como resultado lo siguiente:
Figure imgf000025_0004
By replacing the estimated image points in equation 1 with those obtained in equation 3, the minimization problem results in the following:
Figure imgf000025_0004
2. Aplicar las ecuaciones de colinealidad, en donde los puntos de imagen estimados (X'Ei, y'Ei) se calculan tal como sigue:
Figure imgf000025_0005
2. Apply the collinearity equations, where the estimated image points (X ' Ei , and' Ei ) are calculated as follows:
Figure imgf000025_0005
Mediante la sustitución de los puntos de imagen estimados de la ecuación 1 con los que se obtienen en la ecuación 5, el problema de minimización da como resultado lo siguiente:
Figure imgf000026_0001
By replacing the estimated image points in equation 1 with those obtained in equation 5, the minimization problem results in the following:
Figure imgf000026_0001
En las ecuaciones anteriores, son parámetros de entrada bien conocidos: para cada i, los puntos de imagen observados 72, en el sensor de la
Figure imgf000026_0002
cámara; la posición de los puntos de referencia en el sistema de coordenadas del objeto un factor de escala λ, que representa un factor de conversión
Figure imgf000026_0003
entre los puntos de referencia en el objeto y los puntos de imagen observados en el sensor de cámara; y la matriz intrínseca de cámara [A], que es una matriz que contiene las diferentes características internas de la cámara (la distancia focal (f), el punto central principal (cx, cy), el factor de oblicuidad, entre otros). No se requiere el factor de escala l si se aplica previamente un proceso de normalización. La matriz intrínseca de la cámara [A] se puede obtener, por ejemplo, mediante la aplicación de un proceso de calibración.
In the above equations, they are well known input parameters: for each i, the observed image points 72, at the sensor of the
Figure imgf000026_0002
camera; the position of the reference points in the object's coordinate system a scale factor λ, which represents a conversion factor
Figure imgf000026_0003
between reference points on the object and image points observed on the camera sensor; and the intrinsic camera matrix [A], which is a matrix that contains the different internal characteristics of the camera (the focal length (f), the main central point (cx, cy), the obliquity factor, among others). The scale factor l is not required if a normalization process is previously applied. The intrinsic matrix of the chamber [A] can be obtained, for example, by applying a calibration process.
El algoritmo divulgado se puede implementar o bien teniendo en cuenta la distorsión de la imagen producida por la lente de la cámara o bien sin considerar esta distorsión. Esta distorsión se puede considerar usando errores de distorsión tangencial y radial bien conocidos en aplicaciones fotogramétricas. The disclosed algorithm can be implemented either taking into account the distortion of the image produced by the camera lens or without considering this distortion. This distortion can be accounted for using well known radial and tangential distortion errors in photogrammetric applications.
En la ecuación anterior, son parámetros de restricción de entrada que se obtienen después de aplicar la técnica de autocolimación: la matriz de rotación de cabeceo o inclinación R(θ) obtenida a partir del ángulo de cabeceo o inclinación θ; y la matriz de rotación de desviación o viraje R(ψ) obtenida a partir del ángulo de desviación o viraje ψ. Y los parámetros de salida, estimados mediante la aplicación del algoritmo de resección espacial, son: la matriz de rotación de giro o balanceo R(Φ) (en general, el ángulo de giro o balanceo F) y el vector de traslación (Tx Tg TZ) entre el sistema de coordenadas de la cámara y el sistema de coordenadas del objeto, que se corresponde con la posición del objeto. Dicho de otra forma, Tx Ty Tz , Φ, θ, ψ representan la posición y la orientación relativas entre la cámara 40 y el objeto. In the above equation, the input restriction parameters that are obtained after applying the autocollimation technique are: the pitch or pitch rotation matrix R (ángulo) obtained from pitch or pitch angle θ; and the deviation or yaw rotation matrix R (ψ) obtained from the deflection or yaw angle ψ. And the output parameters, estimated by applying the spatial resection algorithm, are: the rotation rotation matrix R (Φ) (in general, the angle of rotation or balance F) and the translation vector (Tx Tg TZ) between the camera coordinate system and the object coordinate system, which corresponds to the position of the object. In other words, T x T and T z , Φ, θ, ψ represent the relative position and orientation between the camera 40 and the object.
La figura 8 muestra un esquema alternativo para implementar el método para estimar la posición y la orientación de un objeto con 6 grados de libertad. En este caso, el seguimiento espacial del objeto se realiza por medio de dos dispositivos separados: una cámara y un autocolimador en 2D, más el artefacto de la figura 4. Dicho de otra forma, la cámara 40 de las figuras 3(a - c) se sustituye por la cámara 140 y el autocolimador en 2D 150 de la figura 8. En la figura 8, la cámara 140 y el autocolimador 150 se disponen sobre un soporte 160. representa una transformación de calibración extrínseca entre el autocolimador y la cámara. Estos están orientados hacia el artefacto 60 que está unido al objeto (que no se muestra), de una forma tal que las imágenes del conjunto de puntos de referencia que está comprendido en el artefacto pueden ser capturadas por la cámara 140. Aparte de esta diferencia relacionada con los componentes (cámara y autocolimador en dispositivos separados), el procedimiento de medición es el mismo que en el caso previo. Dicho de otra forma: en primer lugar, los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ, que representan la inclinación del espejo plano (en general, una superficie especular) que está unido al artefacto y, por lo tanto, la inclinación del objeto que se está sometiendo a seguimiento, se miden al llevar a cabo mediciones de autocolimación con el autocolimador 150. A continuación, los puntos de imagen observados (x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5) que se corresponden con unos respectivos (al menos 3) puntos de referencia (X-i, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3), (X4, Y4, Z4), (X5, Y5, Z5) en el sistema de coordenadas del objeto (que no se muestra, pero que está unido al artefacto de medición 60), son obtenidos por la cámara 140, que captura una imagen del objeto - en general, el artefacto - que tiene unido el conjunto de puntos de referencia que están ubicados en unas posiciones (Xi, Yi, Zi). En el plano del sensor de imagen de cámara, se obtienen los puntos de imagen observados (x'1, y'1), (x'2, y'2), (x'3, y'3), (x'4, y'4), (x'5, y'5) . A continuación, con el fin de obtener los 6 parámetros (Tc, Tg, Tz, F, q, ψ) que definen la posición y la orientación del objeto con respecto a la cámara, con 6 GDL, se aplica el algoritmo de resección espacial, restringido por los ángulos de orientación ya conocidos (los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ), como se ha divulgado previamente. Figure 8 shows an alternative scheme to implement the method to estimate the position and orientation of an object with 6 degrees of freedom. In this case, the spatial tracking of the object is performed by means of two separate devices: a camera and a 2D autocollimator, plus the artifact of Figure 4. In other words, the camera 40 of Figures 3 (a - c ) is replaced by the chamber 140 and the 2D autocollimator 150 of FIG. 8. In FIG. 8, the chamber 140 and the autocollimator 150 are disposed on a support 160. depicts an extrinsic calibration transformation between the autocollimator and the chamber. These are oriented towards the artifact 60 that is attached to the object (not shown), in such a way that the images of the set of reference points that are comprised in the artifact can be captured by the camera 140. Apart from this difference Related to the components (camera and autocollimator in separate devices), the measurement procedure is the same as in the previous case. In other words, firstly, the pitch or bank angles θ and deviation or yaw ψ, which represent the inclination of the plane mirror (generally a specular surface) that is attached to the artifact and, therefore, the inclination of the object being tracked, are measured by carrying out autocollimation measurements with autocollimator 150. Then the observed image points (x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y ' 4 ), (x' 5 , y ' 5 ) that correspond to respective (at least 3) reference points (Xi, Y 1 , Z 1 ), (X 2 , Y 2 , Z 2 ), (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), (X 5 , Y 5 , Z 5 ) in the object's coordinate system (not shown, but attached to the measurement artifact 60), are obtained by the camera 140, which captures an image of the object - in general, the artifact - that has joined the set of reference points that are located in some positions (X i , Y i , Z i ). In the plane of the camera image sensor, the observed image points are obtained (x ' 1 , y' 1 ), (x ' 2 , y' 2 ), (x ' 3 , y' 3 ), (x ' 4 , y ' 4 ), (x' 5 , y ' 5 ). Next, in order to obtain the 6 parameters (Tc, Tg, Tz, F, q, ψ) that define the position and orientation of the object with respect to the camera, with 6 DOF, the spatial resection algorithm is applied , constrained by already known yaw angles (pitch or bank angles θ and yaw or yaw ψ), as previously disclosed.
El algoritmo de resección espacial divulgado se puede implementar y ejecutar en unos medios de procesamiento, tales como un procesador, y unos medios de almacenamiento de datos, tales como una memoria. Los medios de procesamiento se pueden incorporar en la cámara 40, 140, por ejemplo en los medios de procesamiento, por lo general comprendidos en o asociados a un sensor de cámara. Como alternativa, los medios de procesamiento pueden estar ubicados en un dispositivo diferente con respecto a la cámara 40, 140, por ejemplo en un sistema informático o un dispositivo informático, tal como un ordenador personal. En este caso, el algoritmo se puede ejecutar sin conexión (offline). En este texto, el término "comprende" y sus derivaciones (tales como "comprendiendo / que comprende", etc.) no se debería entender en un sentido excluyente, es decir, estos términos no se deberían interpretar como que excluyen la posibilidad de que lo que se describe y se define pueda incluir elementos, etapas, etc., adicionales. The disclosed spatial resection algorithm can be implemented and executed in a processing means, such as a processor, and a data storage means, such as a memory. The processing means can be incorporated in the chamber 40, 140, for example in the processing means, generally comprised in or associated with a chamber sensor. Alternatively, the processing means may be located in a different device with respect to the camera 40, 140, for example in a computer system or a computing device, such as a personal computer. In this case, the algorithm can be run offline. In this text, the term "comprises" and its derivations (such as "comprising / comprising", etc.) should not be understood in an exclusive sense, that is, these terms should not be construed as excluding the possibility that what is described and defined may include additional elements, steps, etc.
La invención no se limita, obviamente, a la realización o realizaciones específicas descritas en el presente documento, sino que también abarca cualquier variación que pueda ser considerada por cualquier experto en la materia (por ejemplo, en lo que respecta a la elección de materiales, dimensiones, componentes, configuración, etc.), dentro del alcance general de la invención tal como se define en las reivindicaciones. The invention is obviously not limited to the specific embodiment or embodiments described herein, but also encompasses any variation that may be considered by any person skilled in the art (for example, as regards the choice of materials, dimensions, components, configuration, etc.), within the general scope of the invention as defined in the claims.

Claims

REIVINDICACIONES
1. Un método para estimar la posición y la orientación de un objeto con 6 grados de libertad (Tx, Ty, Tz, Φ, θ, ψ), que comprende: unir un artefacto (60) al objeto del cual se va a estimar la posición y la orientación (Tx, Ty, Tz, Φ, θ, ψ), en donde dicho artefacto (60) comprende una superficie especular (55) y un conjunto de N puntos de referencia (71), en donde cada punto de referencia es definido por una posición (Xi, Yi, Zi) en un sistema de coordenadas definido en el artefacto (60), en donde 1 < i < N y N > 2; colocar una cámara (40) orientada hacia el artefacto (60) que está unido al objeto; medir los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ que representan la inclinación de la superficie especular (55) y, por lo tanto, del objeto, siendo realizada dicha medición mediante la aplicación de una técnica de autocolimación; capturar una imagen del conjunto de puntos de referencia (71; (Xi, Yi, Zi)) comprendido en el artefacto (60) que está unido al objeto, obteniendo de este modo en el plano (61) del sensor (42) de la cámara unos puntos de imagen observados (72; (x'i, y'i)) que se corresponden con dichos puntos de referencia (71; (Xi, Yi, Zi)); obtener el ángulo de giro o balanceo F del objeto y un vector de traslación (Tc, Tg, TZ) entre la cámara (40) y el objeto, usando dichos puntos de referencia (71; (Xi, Yi, Zi)) y dichos puntos de imagen observados (72; (x'i, y'i)) obtenidos en el sensor (42) de la cámara, mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación Q y de desviación o viraje ψ medidos, en donde (Tx, Ty, Tz, Φ, θ, ψ) representan la posición y la orientación relativas entre la cámara (40) y el objeto. 1. A method to estimate the position and orientation of an object with 6 degrees of freedom (T x , T y , T z , Φ, θ, ψ), comprising: attaching an artifact (60) to the object from which it is is going to estimate the position and orientation (T x , T y , T z , Φ, θ, ψ), where said artifact (60) comprises a specular surface (55) and a set of N reference points (71) , where each reference point is defined by a position (X i , Y i , Z i ) in a coordinate system defined in the artifact (60), where 1 <i <N and N>2; positioning a camera (40) facing the artifact (60) that is attached to the object; measuring the pitch or inclination angles θ and deviation or yaw ψ that represent the inclination of the specular surface (55) and, therefore, of the object, said measurement being carried out by applying an autocollimation technique; capture an image of the set of reference points (71; (X i , Y i , Z i )) comprised in the artifact (60) that is attached to the object, thus obtaining in the plane (61) of the sensor (42 ) of the camera some observed image points (72; (x ' i , y' i )) that correspond to said reference points (71; (X i , Y i , Z i )); obtain the angle of rotation or roll F of the object and a translation vector (Tc, Tg, T Z ) between the camera (40) and the object, using said reference points (71; (X i , Y i , Z i )) and said observed image points (72; (x ' i , y' i )) obtained in the sensor (42) of the camera, by applying an algorithm of spatial resection constrained by the measured pitch or bank angles Q and yaw or yaw ψ, where (T x , T y , T z , Φ, θ, ψ) represent the relative position and orientation between the camera (40) and the object.
2. El método de la reivindicación 1, en el que los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ que representan la inclinación de la superficie especular (55) y, por lo tanto, del objeto, se miden tal como sigue aplicando una técnica de autocolimación: emitir un haz de luz no colimado (62) a partir de una fuente de luz (43) que está dispuesta en la cámara (40); redirigir el haz de luz emitido (62) mediante un divisor de haz (44), produciendo haces de luz no colimados (63); colimar dichos haces de luz (63) mediante una lente de cámara (41), produciendo de este modo unos haces de luz colimados (65); dirigir dichos haces colimados (65) hacia el espejo plano (55), en el que se reflejan los haces colimados, proporcionando de este modo unos haces de luz colimados reflejados (66); enfocar dichos haces colimados reflejados (66) en la lente (41) de la cámara, proporcionando de este modo unos haces de luz reflejados enfocados (67) al sensor (42) de la cámara, siendo enfocados dichos haces de luz reflejados enfocados (67) en una posición (75) en el plano (61) del sensor (42) de la cámara; calcular los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ tal como sigue: θ = δx' / 2f ψ = δx' / 2f en donde f es la distancia focal de la cámara (40) y δx', δy' representan un desplazamiento plano entre la posición medida (75) y una posición de referencia fija sobre el plano (61) del sensor de cámara (42), representando esta referencia fija la posición (x', y') en el plano del sensor (61) en donde los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ son ¡guales a 0. The method of claim 1, wherein the pitch or bank angle θ and yaw or bank angle ψ representing the inclination of the specular surface (55) and hence of the object, are measured as follows applying an autocollimation technique: emitting a non-collimated light beam (62) from a light source (43) that is arranged in the chamber (40); redirecting the emitted light beam (62) by means of a beam splitter (44), producing non-collimated light beams (63); collimating said light beams (63) by means of a camera lens (41), thereby producing collimated light beams (65); directing said collimated beams (65) towards the plane mirror (55), in which the collimated beams are reflected, thereby providing reflected collimated light beams (66); focusing said reflected collimated beams (66) onto the camera lens (41), thereby providing focused reflected beams of light (67) to the camera sensor (42), said reflected beams of light being focused (67 ) at a position (75) in the plane (61) of the camera sensor (42); calculate pitch or bank angles θ and yaw or yaw ψ as follows: θ = δx '/ 2f ψ = δx '/ 2f where f is the focal length of the camera (40) and δx', δy 'represent a plane displacement between the measured position (75) and a fixed reference position on the plane (61) of the sensor of camera (42), representing this fixed reference the position (x ', y') in the plane of the sensor (61) where the angles of pitch or inclination θ and of deviation or turn ψ are equal to 0.
3. El método de una cualquiera de las reivindicaciones 1 - 2, en el que dicho ángulo de giro o balanceo F y dicho vector de traslación (X, Y, Z) entre la cámara (40) y el objeto, se obtienen mediante la implementación de una técnica de resección espacial, restringida por los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ ya obtenidos, solucionando de forma iterativa el siguiente problema de optimización:
Figure imgf000032_0001
en donde N es el número de los puntos de imagen observados; (x'i, y'¡) son los puntos de imagen observados; y (X'Ei, y'Ei) son los puntos de imagen estimados.
The method of any one of claims 1-2, wherein said angle of rotation or roll F and said translation vector (X, Y, Z) between the camera (40) and the object, are obtained by means of implementation of a spatial resection technique, restricted by the pitch or bank angles θ and deviation or yaw ψ already obtained, iteratively solving the following optimization problem:
Figure imgf000032_0001
where N is the number of image points observed; (x'i, y'¡) are the observed image points; and (X ' Ei , y' Ei ) are the estimated image points.
4. El método de la reivindicación 3, en el que los puntos de imagen estimados (X'Ei, y'Ei)) se obtienen mediante la aplicación de un modelo de cámara estenopeica que representa la proyección (X'Ei, y'Ei) de cada punto de referencia en 3D (Xi, Yi, Zi) sobre el plano de imagen (61) del sensor (42) de la camara:
Figure imgf000032_0002
en donde:
Figure imgf000033_0001
que se puede simplificar como: y en donde: es la matriz intrínseca de la cámara
Figure imgf000033_0002
y en donde l es un factor de escala.
The method of claim 3, wherein the estimated image points (X ' Ei , and' Ei )) are obtained by applying a pinhole camera model representing the projection (X ' Ei , and' Ei ) of each 3D reference point (X i , Y i , Z i ) on the image plane (61) of the camera sensor (42):
Figure imgf000032_0002
where:
Figure imgf000033_0001
which can be simplified as: and where: is the intrinsic matrix of the camera
Figure imgf000033_0002
and where l is a scale factor.
5. El método de la reivindicación 4, en el que los puntos de imagen estimados ( (X'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de la ecuación de proyección central en la visión por ordenador:
Figure imgf000033_0003
The method of claim 4, wherein the estimated image points ((X ' Ei , and' Ei , 0) are calculated as follows by applying the central projection equation in computer vision:
Figure imgf000033_0003
6. El método de la reivindicación 4, en el que los puntos de imagen estimados (X'Ei, y'Ei, 0) se calculan tal como sigue mediante la aplicación de ecuaciones de colinealidad:
Figure imgf000033_0004
The method of claim 4, wherein the estimated image points (X ' Ei , and' Ei , 0) are calculated as follows by applying collinearity equations:
Figure imgf000033_0004
7. El método de una cualquiera de las reivindicaciones 1 - 6, en el que antes de aplicar una técnica de autocolimación para medir los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ y de capturar con la cámara una imagen del artefacto que está unido al objeto (40), se establece una relación geométrica entre el plano de la superficie especular (55) y un sistema de coordenadas formado por el conjunto de puntos de referencia (71). The method of any one of claims 1-6, wherein prior to applying an autocollimation technique to measure pitch or bank angles θ and yaw or yaw ψ and to capture with the camera an image of the artifact that is attached to the object (40), a geometric relationship is established between the plane of the specular surface (55) and a coordinate system formed by the set of reference points (71).
8. El método de la reivindicación 7, en el que el artefacto (60) se ha medido en una Máquina de Medición de Coordenadas (CMM) con el fin de establecer dicha relación geométrica. The method of claim 7, wherein the artifact (60) has been measured in a Coordinate Measuring Machine (CMM) in order to establish said geometric relationship.
9. Un sistema para estimar la posición y la orientación de un objeto con 6 grados de libertad (Tc, Tg, Tz, F, q, ψ), que comprende: unos medios para tomar mediciones de fotogrametría; unos medios para llevar a cabo una autocolimación; y un artefacto (60) que está unido al objeto del cual se va a estimar la posición y la orientación (Tx, Ty, Tz, Φ, θ, ψ), en donde dicho artefacto (60) comprende una superficie especular (55) y un conjunto de N puntos de referencia (71), en donde cada punto de referencia es definido por una posición (Xi, Yi, Zi) en un sistema de coordenadas definido en el artefacto (60), en donde 1 < i < N y N > 2; en el que los medios para llevar a cabo una autocolimación se configuran para medir los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ que representan la inclinación de la superficie especular (55) y, por lo tanto, del objeto; en donde los medios para tomar mediciones de fotogrametría se configuran para: capturar una imagen del conjunto de puntos de referencia (71; (Xi, Yi, Zi)) comprendido en el artefacto (60) unido al objeto, obteniendo de este modo unos puntos de imagen observados (72; (x'i, y'i,)) que se corresponden con dichos puntos de referencia (71; (Xi, Yi, Zi)); y obtener el ángulo de giro o balanceo F del objeto y un vector de traslación (Tx Ty Tz ) entre los medios para tomar mediciones de fotogrametría y el objeto, usando dichos puntos de referencia (71; (Xi, Yi, Zi)) y dichos puntos de imagen observados (72; (x'i, y'i)), mediante la aplicación de un algoritmo de resección espacial restringido por los ángulos de cabeceo o inclinación θ y de desviación o viraje ψ medidos. 9. A system for estimating the position and orientation of an object with 6 degrees of freedom (Tc, Tg, Tz, F, q, ψ), comprising: means for taking photogrammetry measurements; means for carrying out autocollimation; and an artifact (60) that is attached to the object whose position and orientation are to be estimated (T x , T y , T z , Φ, θ, ψ), wherein said artifact (60) comprises a specular surface (55) and a set of N reference points (71), where each reference point is defined by a position (X i , Y i , Z i ) in a coordinate system defined in the artifact (60), in where 1 <i <N and N>2; in which the means for carrying out autocollimation are configured to measure the pitch or bank angles de and deviation or yaw ψ that represent the inclination of the specular surface (55) and, therefore, of the object; where the means for taking photogrammetry measurements are configured to: capture an image of the set of reference points (71; (X i , Y i , Z i )) comprised in the artifact (60) attached to the object, obtaining from this mode observed image points (72; (x'i, y'i,)) that correspond to said reference points (71; (X i , Y i , Z i )); and obtain the angle of rotation or roll F of the object and a translation vector (T x T and T z ) between the means for taking photogrammetry measurements and the object, using said reference points (71; (X i , Y i , Z i )) and said observed image points (72; (x ' i , y' i )), by applying a spatial resection algorithm restricted by the measured pitch or bank angles θ and deviation or yaw ψ .
10. El sistema de la reivindicación 9, en el que dichos medios para tomar mediciones fotogramétricas y dichos medios para llevar a cabo una autocolimación están comprendidos en una cámara (40). The system of claim 9, wherein said means for taking photogrammetric measurements and said means for performing autocollimation are comprised of a chamber (40).
11. El sistema de la reivindicación 9, en el que dichos medios para tomar mediciones fotogramétricas están comprendidos en una cámara (140) y dichos medios para llevar a cabo una autocolimación están comprendidos en un autocolimador (150). The system of claim 9, wherein said means for taking photogrammetric measurements are comprised of a camera (140) and said means for performing autocollimation are comprised of an autocollimator (150).
12. El sistema de una cualquiera de las reivindicaciones 9 - 11, en el que los N puntos de referencia representan un patrón de tablero de ajedrez, o un patrón circular, o un patrón cuadrado, o un patrón en forma de cruz o siguen marcadores especiales. The system of any one of claims 9-11, wherein the N reference points represent a checkerboard pattern, or a circular pattern, or a square pattern, or a cross-shaped pattern or follow special markers.
13. El sistema de una cualquiera de las reivindicaciones 9 - 12, en el que la superficie especular (55) es un espejo plano o cualquier superficie plana o sem ¡plana capaz de producir una reflexión especular de la luz. The system of any one of claims 9-12, wherein the specular surface (55) is a flat mirror or any flat or semi-flat surface capable of producing a specular reflection of light.
14. El sistema de una cualquiera de las reivindicaciones 9 - 13, que comprende adicionalmente unos medios de montaje para montar una pluralidad de medios de medición para medir la ubicación espacial y la orientación del espejo (55). The system of any one of claims 9-13, further comprising mounting means for mounting a plurality of measurement means for measuring the spatial location and orientation of the mirror (55).
15. Un producto de programa informático que comprende instrucciones / código de programa informático para llevar a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1 - 8, o una memoria / soporte legible por ordenador que almacena instrucciones / código de programa para llevar a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1 - 8. A computer program product comprising computer program instructions / code for carrying out the method according to any one of claims 1-8, or a computer-readable memory / medium that stores program instructions / code to carry carrying out the method according to any one of claims 1-8.
PCT/ES2020/070697 2019-11-13 2020-11-11 Method and system for the spatial tracking of objects WO2021094636A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ES201930991A ES2824873A1 (en) 2019-11-13 2019-11-13 METHOD AND SYSTEM FOR SPACE TRACKING OF OBJECTS (Machine-translation by Google Translate, not legally binding)
ESP201930991 2019-11-13

Publications (1)

Publication Number Publication Date
WO2021094636A1 true WO2021094636A1 (en) 2021-05-20

Family

ID=75819435

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2020/070697 WO2021094636A1 (en) 2019-11-13 2020-11-11 Method and system for the spatial tracking of objects

Country Status (2)

Country Link
ES (1) ES2824873A1 (en)
WO (1) WO2021094636A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4714339A (en) * 1986-02-28 1987-12-22 The United States Of America As Represented By The Secretary Of Commerce Three and five axis laser tracking systems
US20030206285A1 (en) * 2002-05-06 2003-11-06 Automated Precision, Inc. Nine dimensional laser tracking system and method
US20120262550A1 (en) * 2011-04-15 2012-10-18 Faro Technologies, Inc. Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner
US20170201738A1 (en) * 2015-06-13 2017-07-13 Alberto Daniel Lacaze Senising on uavs for mapping and obstacle avoidance
US20190006289A1 (en) * 2017-06-30 2019-01-03 Taiwan Semiconductor Manufacturing Company, Ltd. Semiconductor Device with Shielding Structure for Cross-Talk Reduction

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019006289A1 (en) * 2017-06-30 2019-01-03 Kaarta, Inc. Systems and methods for improvements in scanning and mapping

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4714339A (en) * 1986-02-28 1987-12-22 The United States Of America As Represented By The Secretary Of Commerce Three and five axis laser tracking systems
US4714339B1 (en) * 1986-02-28 1997-03-18 Us Army Three and five axis laser tracking systems
US4714339B2 (en) * 1986-02-28 2000-05-23 Us Commerce Three and five axis laser tracking systems
US20030206285A1 (en) * 2002-05-06 2003-11-06 Automated Precision, Inc. Nine dimensional laser tracking system and method
US20120262550A1 (en) * 2011-04-15 2012-10-18 Faro Technologies, Inc. Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner
US20170201738A1 (en) * 2015-06-13 2017-07-13 Alberto Daniel Lacaze Senising on uavs for mapping and obstacle avoidance
US20190006289A1 (en) * 2017-06-30 2019-01-03 Taiwan Semiconductor Manufacturing Company, Ltd. Semiconductor Device with Shielding Structure for Cross-Talk Reduction

Also Published As

Publication number Publication date
ES2824873A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US10841562B2 (en) Calibration plate and method for calibrating a 3D measurement device
US9612331B2 (en) Laser tracker with functionality for graphical target preparation
US9696140B2 (en) Laser tracker with position-sensitive detectors for searching for a target
US11022692B2 (en) Triangulation scanner having flat geometry and projecting uncoded spots
US9188430B2 (en) Compensation of a structured light scanner that is tracked in six degrees-of-freedom
ES2801395T3 (en) System and method for the three-dimensional measurement of the shape of material objects
JP5123932B2 (en) Camera-equipped 6-degree-of-freedom target measurement device and target tracking device with a rotating mirror
US20170168160A1 (en) Portable distance measuring device and method for capturing relative positions
JP5127820B2 (en) Camera-based target coordinate measurement method
ES2819018T3 (en) Coordinate measurement system and method
ES2340340T3 (en) PROCEDURE FOR DETERMINING THE SPINNING SHAFT OF A VEHICLE WHEEL.
JP2014066728A (en) Device and method for measuring six degrees of freedom
Zhou et al. A novel laser vision sensor for omnidirectional 3D measurement
JPH03282203A (en) Target and three-dimensional position and attitude measuring system using same
US10697754B2 (en) Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
WO2016040229A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
Barone et al. Structured light stereo catadioptric scanner based on a spherical mirror
Orghidan et al. Modelling and accuracy estimation of a new omnidirectional depth computation sensor
WO2021094636A1 (en) Method and system for the spatial tracking of objects
CN108458692B (en) Close-range three-dimensional attitude measurement method
Xu et al. Calibration method of laser plane equation for vision measurement adopting objective function of uniform horizontal height of feature points
Feng et al. A general model and calibration method for spherical stereoscopic vision
ES2543038B2 (en) Spatial location method and system using light markers for any environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20886604

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20886604

Country of ref document: EP

Kind code of ref document: A1