ES2543038B2 - Spatial location method and system using light markers for any environment - Google Patents
Spatial location method and system using light markers for any environment Download PDFInfo
- Publication number
- ES2543038B2 ES2543038B2 ES201500011A ES201500011A ES2543038B2 ES 2543038 B2 ES2543038 B2 ES 2543038B2 ES 201500011 A ES201500011 A ES 201500011A ES 201500011 A ES201500011 A ES 201500011A ES 2543038 B2 ES2543038 B2 ES 2543038B2
- Authority
- ES
- Spain
- Prior art keywords
- marker
- coordinates
- instant
- image frame
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Método y sistema de localización espacial de un objetivo (10) en un entorno (11) tridimensional que comprende al menos un marcador luminoso comprendiendo:#- una cámara estéreo (12) para capturar una primera trama de imagen en un instante actual y una segunda trama de imagen en un instante anterior;#- un dispositivo de medida de ángulos (13) para obtener un ángulo de giro del objetivo (10);#- un procesador de señales (14) con acceso a una memoria (15) que almacena entre otros un radio del, al menos un, marcador detectado en un instante de tiempo actual n y en un instante de tiempo anterior n-1 configurado para calcular unas coordenadas (x{sub,i}, y{sub,i}) del objetivo (10) en un instante de tiempo i como sigue:#- si el ángulo de giro en el instante de tiempo actual y en el instante de tiempo anterior son distintos, (x{sub,n}, y{sub,n}) = (x{sub,n-1}, y{sub,n-1);#- si las dos tramas de imagen son iguales, (x{sub,n}, y{sub,n}) = (x{sub,n-1}, y{sub,n-1});#- en otro caso:#- si los radios son iguales y hay varios marcadores, (x{sub,n}, y{sub,n}) se calculan mediante triangulación usando ambas tramas de imagen;#- si los radios son distintos y hay varios marcadores, (x{sub,n}, y{sub,n}) se calculan mediante triangulación usando una sola trama de imagen;#- si los radios son distintos y hay un único marcador, (x{sub,n}, y{sub,n}) se calculan mediante geometría estéreo;#- si los radios son iguales y hay un único marcador, (x{sub,n}, y{sub,n}) se calculan usando coordenadas de imagen del marcador en el instante actual y en el anterior.Method and spatial location system of a lens (10) in a three-dimensional environment (11) comprising at least one luminous marker comprising: # - a stereo camera (12) to capture a first image frame at a current time and a second image frame at an earlier time; # - an angle measuring device (13) to obtain a rotation angle of the lens (10); # - a signal processor (14) with access to a memory (15) that stores among others a radius of the at least one marker detected in an instant of current time n and in an instant of previous time n-1 configured to calculate coordinates (x {sub, i}, and {sub, i}) of the target (10) in an instant of time i as follows: # - if the angle of rotation at the current time instant and at the previous time instant are different, (x {sub, n}, and {sub, n}) = (x {sub, n-1}, and {sub, n-1); # - if the two image frames are equal, (x {sub, n}, and {sub, n}) = (x { sub, n-1}, and {sub, n-1}); # - otherwise: # - if the radios are equal and there are several markers, (x {sub, n}, and {sub, n}) are calculated by triangulation using both image frames; # - if the radios are different and there are several markers, (x {sub, n}, and {sub, n}) are calculated by triangulation using a single image frame; # - if the radii are different and there is only one marker, (x {sub, n}, and {sub, n}) are calculated using stereo geometry; # - if the radii are equal and there is only one marker, (x {sub, n}, and {sub, n}) are calculated using image coordinates of the marker at the current and previous times.
Description
Método y Sistema de Localización espacial mediante Marcadores Luminosos para cualquier ambiente Spatial Location Method and System using Luminous Markers for any environment
OBJETO DE LA INVENCiÓN OBJECT OF THE INVENTION
La presente invención pertenece a los campos de la electrónica y las telecomunicaciones. Concretamente, la presente invención se aplica al área industrial que recoge las técnicas de detección de puntos de referencia para la localización y posicionamiento de un objetivo (una The present invention belongs to the fields of electronics and telecommunications. Specifically, the present invention applies to the industrial area that includes the techniques of detection of reference points for the location and positioning of an objective (a
persona, animal o un objeto) en entornos controlados. person, animal or object) in controlled environments.
Más particularmente, la presente invención se refiere a un método y sistema para obtener, a partir del uso de marcadores luminosos, la posición y orientación de un objeto o sujeto, aplicable a cualquier tipo de ambiente, interior o exterior. More particularly, the present invention relates to a method and system for obtaining, from the use of light markers, the position and orientation of an object or subject, applicable to any type of environment, interior or exterior.
ANTECEDENTES DE LA INVENCiÓN BACKGROUND OF THE INVENTION
En los últimos años, está habiendo un creciente interés en aquellos sistemas o productos relacionados con la localización de objetos en tres dimensiones (3D). los sectores que cubren esta tecnología son muy amplios, como robótica, medicina o videojuegos, entre otros. In recent years, there is a growing interest in those systems or products related to the location of objects in three dimensions (3D). The sectors that cover this technology are very wide, such as robotics, medicine or video games, among others.
Concretamente, el seguimiento de objetos está estrechamente relacionado con la realidad aumentada, donde el conocimiento de la posición del individuo es fundamental. Esta tecnología mezcla elementos virtuales con imágenes reales, permitiendo al usuario ampliar su información del mundo real o interactuar con él. La realidad virtual sin embargo, sustituye la realidad física con datos informáticos. Los sistemas de realidad aumentada pueden utilizar como dispositivos de visualización Cdisplays' en inglés) una pantalla óptica transparente (por ejemplo, Google Glass) o una pantalla de mezcla de imágenes (por ejemplo, la de un teléfono móvil inteligente, 'smartphone' en inglés). Además para poder conocer la posición del individuo con precisión, pueden basarse en el uso de cámaras, sensores ópticos, acelerómelros, giroscopios, GPS , etc. En el caso de que se empleen sistemas de visión, es necesario realizar un preprocesado de la región de interés donde se sitúa el individuo, utilizando algoritmos de imagen que permiten detectar esquinas, bordes o marcadores de referencia; para después, con estos datos obtener las coordenadas 3D reales del entorno. Estos sistemas requieren el uso de una CPU y memoria RAM con suficiente capacidad de Specifically, object tracking is closely related to augmented reality, where knowledge of the individual's position is essential. This technology mixes virtual elements with real images, allowing the user to expand their information from the real world or interact with it. Virtual reality, however, replaces physical reality with computer data. Augmented reality systems can use as transparent display devices Cdisplays' in English) a transparent optical screen (for example, Google Glass) or an image mixing screen (for example, that of a smart mobile phone, 'smartphone' in English ). In addition to knowing the position of the individual accurately, they can be based on the use of cameras, optical sensors, accelerometers, gyroscopes, GPS, etc. In the case that vision systems are used, it is necessary to perform a preprocessing of the region of interest where the individual is located, using image algorithms that allow to detect corners, edges or reference markers; for later, with this data obtain the real 3D coordinates of the environment. These systems require the use of a CPU and RAM with sufficient capacity to
cómputo, para poder procesar las imágenes de las cámaras a tiempo real y con la menor latencia posible. computation, to be able to process the images of the cameras in real time and with the lowest possible latency.
Cuando únicamente se pueda visualizar un marcador de referencia, se tiene que recurrir al uso de cámaras estéreo y geometría epipolar. La caracterización de un punto en el espacio tridimensional requiere el conocimiento de sus coordenadas (x, y, z) dentro del entorno donde éste se encuentre, respecto a una posición de referencia. La técnica más común está basada en el uso de dos o más cámaras calibradas, que proporcionan una imagen izquierda y derecha de la misma escena. Para obtener las coordenadas 3D del punto u objeto a caracterizar, se aplica correspondencias estéreo (buscar un mismo punto en ambas imágenes) y se calcula la geometría proyectiva o epipolar (describe la relación existente entre los planos de la imagen de las cámaras y el punto). When only one reference marker can be displayed, the use of stereo cameras and epipolar geometry must be used. The characterization of a point in three-dimensional space requires knowledge of its coordinates (x, y, z) within the environment where it is located, with respect to a reference position. The most common technique is based on the use of two or more calibrated cameras, which provide a left and right image of the same scene. To obtain the 3D coordinates of the point or object to be characterized, stereo correspondences are applied (look for the same point in both images) and the projective or epipolar geometry is calculated (it describes the relationship between the image planes of the cameras and the point ).
En el caso de tener más de un marcador o patrón disponible, se pueden aplicar otras técnicas para localizar el objeto en el escenario. A través de triangulación, conociendo la distancia real entre marcadores, es posible con sólo dos marcadores y una sola cámara obtener los parámetros para conseguir la profundidad al objetivo y posicionarlo en el entorno. Esta práctica simplifica el coste computacional, al no tener que analizar dos imágenes y sus correspondencias; pero requiere mayor precisión a la hora de detectar los marcadores. A pesar de eso, algunos autores ("Qptical tracking using projective invariant marker pattern propierties", R. van Uere et al. , Proceedings of the IEEE Virtual Reality Conference 2003, 2003) consideran que, para poder realizar un mejor seguimiento del objeto, es necesario que el objeto tenga cuatro o más marcadores y que además se utilice visión estéreo; para conseguir un sistema más preciso pero más lento. In the case of having more than one marker or pattern available, other techniques can be applied to locate the object on the stage. Through triangulation, knowing the real distance between markers, it is possible with only two markers and a single camera to obtain the parameters to achieve depth to the target and position it in the environment. This practice simplifies the computational cost, by not having to analyze two images and their correspondences; but it requires greater precision when it comes to detecting markers. Despite this, some authors ("Qptical tracking using projective invariant marker pattern properties", R. van Uere et al., Proceedings of the IEEE Virtual Reality Conference 2003, 2003) consider that, in order to better track the object, it is necessary that the object has four or more markers and that stereo vision is also used; to get a more precise but slower system.
Uno de los problemas que se han encontrado en otros estudios (US 7,231,063 82, "Fudicial Detection System", L Naimark et al.) a la hora de utilizar marcadores, es la luminosidad que tiene el ambiente donde van a ser tomadas las imágenes. Los puntos a detectar pueden perderse en la escena por falta de luz. Esto limita las aplicaciones que usan este sistema en ambientes interiores o con luminosidad controlada. Además, se hace necesario el uso de algoritmos de realce de contraste y/o el uso de marcadores específicos guardados en una base de datos, lo que incrementa sustancialmente el tiempo de cómputo de estos sistemas. Además de limitar considerablemente la distancia entre los marcadores impresos y el usuario del sistema, a no ser que su tamaño sea lo suficientemente grande para que lo capte el sensor de imagen. En algunos casos (WO 2013/120041 A 1, "Method and apparatus for 3D spatial localization and tracking of objects using active optical illumination and sensing") se han propuesto este tipo de fuentes de luz con luminancia variable o luz pulsada, lo que puede ocasionar fallos de sincronización. Aun así, el uso de marcadores luminosos puede plantear problemas, concretamente en ambientes donde hay fuentes de luz con una luminancia mucho mayor que el propio marcador (en el peor caso, luz solar) o fuentes que emiten radiación en la misma dirección; en esas situaciones, el sensor de imagen no es capaz de diferenciar una fuente de luz de otra, por lo que obligará tal y como ocurría anteriormente, a utilizar esta tecnología en entornos luminosos sin grandes fuentes de luz en él. One of the problems that have been found in other studies (US 7,231,063 82, "Fudicial Detection System", L Naimark et al.) When using markers, is the brightness of the environment where the images are to be taken. The points to be detected may be lost in the scene due to lack of light. This limits the applications that use this system indoors or with controlled brightness. In addition, the use of contrast enhancement algorithms and / or the use of specific markers stored in a database is necessary, which substantially increases the computation time of these systems. In addition to considerably limiting the distance between the printed markers and the system user, unless their size is large enough for the image sensor to capture. In some cases (WO 2013/120041 A 1, "Method and apparatus for 3D spatial localization and tracking of objects using active optical illumination and sensing") these types of light sources with variable luminance or pulsed light have been proposed, which may cause synchronization failures. Even so, the use of light markers can pose problems, specifically in environments where there are light sources with a luminance much greater than the marker itself (in the worst case, sunlight) or sources that emit radiation in the same direction; In these situations, the image sensor is not able to differentiate one light source from another, so it will force, as previously, to use this technology in bright environments without large sources of light in it.
La idea de detectar y posicionar los marcadores sirve para caracterizar los objetos o individuos que hay en él, de esa forma se localizan en el espacio. En el artículo "Wide area optical tracking in unconstrained indoor environments" (de A. Mossel et al., 23rd Internacional Conference on Artificial Reality and Telexistence (ICAT), 2013) se propone incorporar marcadores luminosos infrarrojos en una cinta situada en la cabeza del usuario. Para ello, colocan en el escenario dos cámaras independientes, que requieren un proceso de sincronización para realicen el disparo simultáneamente, situadas a una distancia igual a la longitud de la pared de la habitación donde se va a probar. El algoritmo empleado, para hacer una estimación de la posición, se basa en la búsqueda de correspondencias estéreo. Uno de los inconvenientes que presenta es que no se puede implementar para sistemas de realidad aumentada o simulada, porque las cámaras no muestran lo que ve el usuario, además de estar restringido a ambientes interiores con dimensiones limitadas. The idea of detecting and positioning the markers serves to characterize the objects or individuals that are in it, that way they are located in space. In the article "Wide area optical tracking in unconstrained indoor environments" (by A. Mossel et al., 23rd International Conference on Artificial Reality and Telexistence (ICAT), 2013) it is proposed to incorporate infrared light markers in a tape located on the head of the Username. To do this, they place on the stage two independent cameras, which require a synchronization process to perform the shot simultaneously, located at a distance equal to the length of the wall of the room where it is to be tested. The algorithm used to estimate the position is based on the search for stereo correspondences. One of the disadvantages that it presents is that it cannot be implemented for augmented or simulated reality systems, because the cameras do not show what the user sees, in addition to being restricted to indoor environments with limited dimensions.
Otros estudios como "Tracking of user position and orientation by stereo measurement of infrared markers and orientation sensing" (de M. Maeda, et aL , Proceeding of the 8th. International Symposium on Wearable Computers (ISWC'04), 2004) plantean el uso de marcadores infrarrojos situados en la pared de una habitación, para localizar al usuario. Concretamente, proponen el uso de dos tipos de marcadores: activos y pasivos. Los marcadores activos están formados por un conjunto de tres LEOs infrarrojos y un emisor de señales, que envía datos de su posición real a un decodificador de señales que porta el usuario, por lo que una vez que los detecta conocen su posición absoluta. Los marcadores pasivos son únicamente una fuente de luz infrarroja, a partir de los cuales obtienen la posición relativa del usuario. Además de basarse en la recepción de señales de los marcadores activos, calculan la distancia relativa al marcador a partir de visión estéreo. El uso de esta técnica, al igual que ocurría en 105 casos explicados anteriormente, está limitado a espacios interiores. Other studies such as "Tracking of user position and orientation by stereo measurement of infrared markers and orientation sensing" (by M. Maeda, et aL, Proceeding of the 8th. International Symposium on Wearable Computers (ISWC'04), 2004) raise the use of infrared markers located on the wall of a room, to locate the user. Specifically, they propose the use of two types of markers: active and passive. The active markers are formed by a set of three infrared LEOs and a signal emitter, which sends data of their real position to a signal decoder that the user carries, so once they are detected they know their absolute position. Passive markers are only an infrared light source, from which they obtain the relative position of the user. In addition to relying on the reception of signals from active markers, they calculate the relative distance to the marker from stereo vision. The use of this technique, as in 105 cases explained above, is limited to interior spaces.
Existen otros métodos, que no requieren la visión directa de una o más cámaras con los marcadores de referencia, para sistemas de localización y seguimiento del usuario. Las técnicas de radiofrecuencia consisten en medir distancias, de objetos estáticos o móviles, a partir de la emisión de pulsos electromagnéticos que son reflejados en un receptor. Estas ondas electromagnéticas se reflejarán cuando haya cambios significativos en la densidad atómica entre el entorno y el objeto, por lo que funcionan particularmente bien en los casos de materiales conductores (metales). Son capaces de detectar objetos a mayor distancia que otros sistemas basados en luz o sonido, sin embargo son bastante sensibles a interferencias o ruido. Además es complicado medir objetos que se encuentren entre sí a diferentes distancias al emisor, debido a que la frecuencia del pulso variará (más lento cuanto más lejos y viceversa). Aun así, hay estudios experimentales como uRADAR: an inbuilding RF-based user location and tracking system" (de P. Bahl et al., Proceedings of IEEE INFOCOM 2000, Tel-Aviv, 2000) que demuestran su uso para estimar la localización del usuario con un alto nivel de precisión. Esta técnica no resulta apropiada en aplicaciones de realidad aumentada. There are other methods, which do not require direct vision of one or more cameras with reference markers, for user tracking and tracking systems. Radio frequency techniques consist of measuring distances, of static or mobile objects, from the emission of electromagnetic pulses that are reflected in a receiver. These electromagnetic waves will be reflected when there are significant changes in the atomic density between the environment and the object, so they work particularly well in cases of conductive materials (metals). They are able to detect objects at a greater distance than other systems based on light or sound, however they are quite sensitive to interference or noise. It is also difficult to measure objects that are between each other at different distances to the emitter, because the pulse frequency will vary (slower the farther and vice versa). Even so, there are experimental studies such as uRADAR: an inbuilding RF-based user location and tracking system "(by P. Bahl et al., Proceedings of IEEE INFOCOM 2000, Tel-Aviv, 2000) that demonstrate its use to estimate the location of the user with a high level of precision This technique is not appropriate in augmented reality applications.
Otro ejemplo de soluciones existentes son los sistemas LlDAR, que calculan la distancia a través del tiempo que tarda un pulso luminoso en reflejarse en un objeto o superficie, utilizando un dispositivo con un láser pulsado como emisor de luz y un fotodetector como receptor de la señal reflejada. La ventaja de estos sistemas es la precisión que logran a largas distancias (utilizando láseres con longitud de onda >1000 nm) y la posibilidad de mapear grandes extensiones, mediante barridos de pulsos luminosos. Sus inconvenientes son la necesidad de efectuar el análisis y procesado de cada punto, así como la dificultad de reconstruir automáticamente imágenes tridimensionales. Another example of existing solutions is the LlDAR systems, which calculate the distance over the time it takes for a light pulse to be reflected on an object or surface, using a device with a pulsed laser as a light emitter and a photodetector as a signal receiver reflected. The advantage of these systems is the precision they achieve over long distances (using lasers with a wavelength> 1000 nm) and the possibility of mapping large areas, by sweeping light pulses. Its drawbacks are the need to perform the analysis and processing of each point, as well as the difficulty of automatically reconstructing three-dimensional images.
El problema técnico objetivo que se presenta es pues proporcionar un sistema para la detección de la posición y de la orientación de un individuo u objeto en cualquier tipo de ambiente, interior o exterior, con cualesquiera que sean sus condiciones de iluminación. The objective technical problem that arises is thus to provide a system for the detection of the position and orientation of an individual or object in any type of environment, interior or exterior, with whatever their lighting conditions.
DESCRIPCiÓN DE LA INVENCiÓN DESCRIPTION OF THE INVENTION
La presente invención sirve para solucionar los problemas mencionados anteriormente, resolviendo los inconvenientes que presentan las soluciones comentadas en el estado de la técnica, proporcionando un sistema que, a partir del uso de uno o más marcadores luminosos de referencia y una única cámara estéreo, permite localizar espacialmente objetos o individuos en un escenario bajo cualquier condición ambiental y con distancias mayores entre el usuario y el marcador. El sistema se basa principalmente en el uso de marcadores luminosos para calcular posiciones relativas del objeto/individuo, una cámara estéreo para visualizar esos marcadores en la imagen del escenario y un dispositivo electrónico de medida de ángulos, tal como puede ser un giroscopio o brújula electrónica, para proporcionar ángulos de giro del usuario objetivo (objeto, persona o animal). The present invention serves to solve the aforementioned problems, solving the drawbacks presented by the solutions mentioned in the prior art, providing a system that, from the use of one or more reference light markers and a single stereo camera, allows spatially locate objects or individuals in a scenario under any environmental condition and with greater distances between the user and the marker. The system is mainly based on the use of luminous markers to calculate relative positions of the object / individual, a stereo camera to visualize those markers on the stage image and an electronic device for measuring angles, such as a gyroscope or electronic compass , to provide angles of rotation of the target user (object, person or animal).
La presente invención permite detectar marcadores luminosos de referencia en cualquier tipo de ambientes, independientemente de las fuentes de luz que determinan las condiciones ambientales. The present invention makes it possible to detect reference luminous markers in any type of environment, regardless of the light sources that determine the environmental conditions.
Un aspecto de la invención se refiere a un método para posicionar o localizar un objetivo mediante el uso de marcadores de referencia en cualquier entorno 3D que, a partir de una primera trama de imagen en un instante de tiempo actual y una segunda trama de imagen en un instante de tiempo anterior capturadas mediante una cámara estéreo, imágenes en las que se detecta al menos un marcador, obtiene las coordenadas (xn, Yn) del objetivo en el instante de tiempo actual n, para lo que realiza los siguientes pasos: One aspect of the invention relates to a method for positioning or locating an objective by using reference markers in any 3D environment that, from a first image frame at an instant of current time and a second image frame in a previous moment of time captured by a stereo camera, images in which at least one marker is detected, obtains the coordinates (xn, Yn) of the objective at the current time instant n, for which it performs the following steps:
- --
- obtener un ángulo de giro del objetivo en el instante de tiempo actual y en el instante de tiempo anterior; -si el ángulo de giro en el instante de tiempo actual y el ángulo de giro en el instante de tiempo anterior son distintos, calcular las coordenadas (xn , Yn) del objetivo en el instante actual n igualándolas a las coordenadas (Xn.1, Yn. 1) del objetivo en el instante anterior n-1 ; -si la primera trama de imagen y la segunda trama de imagen son iguales, calcular las coordenadas (xn, Yn) del objetivo en el instante actual igualándolas a las coordenadas (Xn_l, Yn-l ) del objetivo en el instante anterior;-si no, en otro caso, obtiene las coordenadas de imagen de, al menos un marcador detectado, y su radio, para comparar los radios en el instante de tiempo actual n y en el instante de tiempo anterior n-1 y: obtain an angle of rotation of the target at the current time instant and at the previous time instant; -if the angle of rotation at the current time instant and the angle of rotation at the previous time instant are different, calculate the coordinates (xn, Yn) of the target at the current time n equaling them with the coordinates (Xn.1, Yn. 1) of the objective in the previous instant n-1; -if the first image frame and the second image frame are the same, calculate the coordinates (xn, Yn) of the target at the current instant equal to the coordinates (Xn_l, Yn-l) of the objective at the previous instant; -si no, in another case, it obtains the image coordinates of, at least one detected marker, and its radius, to compare the radii at the current instant of time n and at the previous instant of time n-1 and:
- --
- si los radios son iguales y hay una pluralidad de marcadores, las coordenadas (Xn. Yn) del objetivo en el instante actual se obtienen mediante triangulación usando la primera trama de imagen y la segunda trama de imagen; if the radii are equal and there is a plurality of markers, the coordinates (Xn. Yn) of the target at the present time are obtained by triangulation using the first image frame and the second image frame;
- --
- si los radios son distintos y hay también más de un marcador, las coordenadas (xn, Yn) del objetivo en el instante actual se obtienen mediante triangulación pero usando una sola trama de imagen, la captada en el instante actual; if the radii are different and there is also more than one marker, the coordinates (xn, Yn) of the target at the current moment are obtained by triangulation but using a single image frame, the one captured at the current moment;
- --
- si los radios son distintos y hay un único marcador detectado, las coordenadas (xn, Yn) del objetivo en el instante actual se obtienen mediante el algoritmo de geometría estéreo conocido en el estado de la técnica; if the radii are different and there is a single marker detected, the coordinates (xn, Yn) of the target at the present time are obtained by the stereo geometry algorithm known in the state of the art;
- --
- si los radios son iguales y hay un único marcador detectado, las coordenadas (xn, Yn) del objetivo en el instante actual se obtienen mediante un algoritmo que recuerda al de geometría estéreo pero usando las coordenadas de imagen del marcador en el instante de tiempo actual y en el instante de tiempo anterior, en vez de una imagen izquierda y derecha del mismo instante de tiempo if the radii are equal and there is a single marker detected, the coordinates (xn, Yn) of the target at the current time are obtained by an algorithm that reminds the stereo geometry but using the image coordinates of the marker at the current time instant and in the previous instant of time, instead of a left and right image of the same instant of time
Otro aspecto de la invención se refiere a un sistema para localizar un objetivo, que puede ser un objeto o un individuo, a partir de al menos un marcador de referencia en un espacio o entorno 3D, que comprende los siguientes medios: Another aspect of the invention relates to a system for locating an objective, which can be an object or an individual, from at least one reference marker in a 3D space or environment, comprising the following means:
una cámara estéreo para captar tramas de imagen en las que se detectan uno o más marcadores; a stereo camera to capture image frames in which one or more markers are detected;
un dispositivo medidor de ángulos para obtener el ángulo de giro del objetivo en cada instante de tiempo; un procesador de señales, con acceso a un dispositivo de almacenamiento (una memoria), configurado para realizar los pasos del método anteriormente descrito para obtener a su salida las coordenadas (Xn, Yn) del objetivo calculadas en el instante de tiempo actual, usando, según cada caso arriba indicado, los datos obtenidos en el instante de tiempo anterior almacenados en la memoria. an angle measuring device to obtain the angle of rotation of the objective at each instant of time; a signal processor, with access to a storage device (a memory), configured to perform the steps of the method described above to obtain at its output the coordinates (Xn, Yn) of the target calculated at the current time instant, using, according to each case indicated above, the data obtained in the previous instant of time stored in the memory.
Como marcador de referencia se utiliza una fuente luminosa, identificable en el entorno de utilización. A light source, identifiable in the environment of use, is used as a reference marker.
En un posible campo de aplicación, la invención que se describe puede emplearse para aplicaciones de Realidad Simulada. Para ello, se incorpora al sistema unas gafas de In a possible field of application, the invention described can be used for Simulated Reality applications. For this, glasses are incorporated into the system
Realidad Virtual. Tanto la cámara estéreo como las gafas pueden formar parte de un casco Virtual reality. Both the stereo camera and the glasses can be part of a helmet
o equipo de sujeción que va colocado en la cabeza del usuario y conexionando la cámara con las gafas. El sistema puede incorporar de forma adicional un aceleró metro, que mide el desplazamiento realizado en un tiempo finito, lo que reduciría los errores acumulativos. or fastening equipment that is placed on the user's head and connecting the camera with the glasses. The system can additionally incorporate an accelerated meter, which measures the displacement made in a finite time, which would reduce the cumulative errors.
La presente invención posee una serie de características diferenciadoras con respecto a las soluciones existentes comentadas en el estado de la técnica anterior que presentan ventajas técnicas como las que siguen: The present invention has a series of differentiating characteristics with respect to the existing solutions discussed in the prior art that have technical advantages such as the following:
Con respecto a US 7,231 ,063 82, la presente invención resuelve el problema del tiempo de cómputo de sistemas existentes como el descrito en US 7,231,063 82, debido a que se requieren algoritmos de realce de contraste y/o de marcadores específicos guardados en una base de datos, porque en la presente invención se utilizan marcadores luminosos que trabajan en el espectro visible o infrarrojo, como pueden ser los diodos emisores de luz (LEOs Con respecto a WO 2013/120041 A1 , una de las diferencias de la presente invención es que utiliza fuentes luminosas fijas y viene a resolver el problema que se da en ambientes donde hay fuentes de luz con una luminancia mucho mayor que el propio marcador. Para solucionar este problema, la presente invención usa un elemento que evita que las condiciones lumínicas de un entorno afecten de forma significativa como es el uso de un fondo tras la fuente de luz. With respect to US 7,231,063 82, the present invention solves the computation time problem of existing systems such as that described in US 7,231,063 82, because contrast enhancement algorithms and / or specific markers stored in a base are required of data, because in the present invention light markers are used that work in the visible or infrared spectrum, such as light emitting diodes (LEOs With respect to WO 2013/120041 A1, one of the differences of the present invention is that uses fixed light sources and comes to solve the problem that occurs in environments where there are light sources with a luminance much greater than the marker itself.To solve this problem, the present invention uses an element that prevents the light conditions of an environment significantly affect the use of a background after the light source.
BREVE DESCRIPCiÓN DE LAS FIGURAS BRIEF DESCRIPTION OF THE FIGURES
A continuación se pasa a describir de manera muy breve una serie de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta. A series of drawings that help to better understand the invention and that expressly relate to an embodiment of said invention which is presented as a non-limiting example thereof is described very briefly below.
FIGURA 1.-Muestra un diagrama de bloques esquemático del sistema de localización espacial de individuos u objetos, según una realización preferente de la invención. FIGURE 1.- Shows a schematic block diagram of the spatial location system of individuals or objects, according to a preferred embodiment of the invention.
FIGURA 2.-Muestra una representación simplificada de un tipo de marcador luminoso, que puede usar el sistema de la Figura 1. FIGURE 2.- Shows a simplified representation of a type of luminous marker, which the system of Figure 1 can use.
• •
FIGURA 3.-Muestra un entorno de uso de los marcadores de la Figura 2 y en el que es aplicable el sistema de la Figura 1, según una posible realización. FIGURE 3.- Shows an environment of use of the markers of Figure 2 and in which the system of Figure 1 is applicable, according to a possible embodiment.
FIGURAS 4A-4B.-Muestran un esquema de los marcadores y parámetros que usa el sistema para localizar en el entorno individuos u objetos que se desplazan verticalmente y cuando sólo se detecta un único marcador. FIGURES 4A-4B.-They show a scheme of the markers and parameters that the system uses to locate in the environment individuals or objects that move vertically and when only a single marker is detected.
FIGURAS 5A-5B.-Muestran un esquema de los marcadores y parámetros que usa el sistema para localizar en el entorno individuos u objetos que se desplazan verticalmente y cuando se detecta más de un marcador. FIGURES 5A-5B.-They show a scheme of the markers and parameters that the system uses to locate in the environment individuals or objects that move vertically and when more than one marker is detected.
FIGURA 6A.-Muestra un esquema de los marcadores y parámetros que usa el sistema para localizar en el entorno individuos u objetos que se desplazan horizontalmente y cuando sólo se detecta un único marcador. FIGURE 6A.- Shows a scheme of the markers and parameters that the system uses to locate in the environment individuals or objects that move horizontally and when only a single marker is detected.
FIGURA 68.-Muestra un esquema de los marcadores y parámetros que usa el sistema para localizar en el entorno individuos u objetos que se desplazan horizontalmente y cuando se detecta más de un marcador. FIGURE 68. - Shows a scheme of the markers and parameters that the system uses to locate in the environment individuals or objects that move horizontally and when more than one marker is detected.
FIGURA 7.-Muestra un esquema del funcionamiento del método, es meramente un ejemplo de flujo de datos. FIGURE 7.- It shows a scheme of the operation of the method, it is merely an example of data flow.
REALIZACiÓN PREFERENTE DE LA INVENCiÓN PREFERRED EMBODIMENT OF THE INVENTION
A continuación, se proponen posibles modos de realización del sistema de obtención, a partir del uso de uno o varios marcadores luminosos, de la posición y orientación de un usuario, en diferentes posibles ambientes, que pueden ser en interior o exterior, dentro de un escenario controlado. Next, possible embodiments of the obtaining system are proposed, from the use of one or more luminous markers, of the position and orientation of a user, in different possible environments, which can be indoors or outdoors, within a controlled scenario.
La Figura 1 muestra un diagrama esquemático de la arquitectura de bloques del sistema para localizar en el espacio los objetos o individuos que constituyen un objetivo (10) en un entorno tridimensional (11) bajo cualquier condición ambiental definida por un número m~1 Figure 1 shows a schematic diagram of the block architecture of the system to locate in space the objects or individuals that constitute a target (10) in a three-dimensional environment (11) under any environmental condition defined by a number m ~ 1
de fuentes de luz (fLt, fL2, fL3, ... , fLm), disponiendo de uno o más marcadores luminosos (20) como los mostrados en las Figuras 2-3, 4A-4B, 5A-58 Y 6A-6B. El sistema comprende una cámara estéreo (12) para detectar los marcadores luminosos (20) y un dispositivo electrónico de medida de ángulos (13), por ejemplo, un giroscopio o brújula electrónica, con el que se obtienen los ángulos de giro del objetivo (10). Además, el sistema comprende un procesador digital de señales (14) que calcula las coordenadas de posición en el espacio de cada marcador luminoso (20) en el tiempo y las almacena en una memoria o dispositivo de almacenamiento (15). El procesador digital de señales (14) utiliza las coordenadas almacenadas y los parámetros de salida que obtiene de la cámara estéreo (12) y del dispositivo medidor de ángulos (13) para determinar a su salida (16) la posición del usuario objetivo (10). of light sources (fLt, fL2, fL3, ..., fLm), having one or more light markers (20) such as those shown in Figures 2-3, 4A-4B, 5A-58 and 6A-6B. The system comprises a stereo camera (12) to detect the luminous markers (20) and an electronic angle measuring device (13), for example, a gyroscope or electronic compass, with which the rotation angles of the objective are obtained ( 10). In addition, the system comprises a digital signal processor (14) that calculates the positional coordinates in the space of each luminous marker (20) in time and stores them in a memory or storage device (15). The digital signal processor (14) uses the stored coordinates and the output parameters it obtains from the stereo camera (12) and from the angle measuring device (13) to determine at its output (16) the position of the target user (10 ).
En la Figura 2 se muestra un tipo de marcador de referencia (20) de los utilizados, que es un marcador luminoso y comprende dos elementos principales: una fuente de luz (21) Y una superficie de contraste (22). La fuente de luz (21) preferente es un diodo LEO que emite en el rango visible: 400-700 nm. Este tipo de fuente es una fuente de luz puntual que logra alcances mayores a 50 m para potencias mayores de 1 W. Además, un diodo LEO se puede considerar como un producto no peligroso debido las potencias ópticas en las que trabaja y a que en el peor de los casos el tiempo de exposición es muy bajo (tiempo de reacción de aversión= -250 ms). Aun así, el sistema puede usar marcadores (20) luminosos con otro tipo de fuentes de luz (21), debido a que el dispositivo que detecta el marcador luminoso (20), es decir, la cámara estéreo (12) que se usa como receptor de la luz, detecta tanto fuentes de luz (21 ) que trabajan en el espectro visible como infrarrojo. El sensor de imagen de la cámara estéreo (12) tiene una curva espectral que, para la longitud de onda del LEO que se usa, indica una respuesta espectral con un valor superior a 0.005 ANV. Las bombillas de filamento son otro ejemplo de fuentes de luz (21), aunque son fuentes difusas con potencias ópticas emitidas inferiores a las alcanzables con un diodo LEO. Otra pOSible fuente de luz (21) puede ser un diodo láser, aunque se trata de una fuente colimada capaz de focalizar la luz sobre un punto muy pequeño y, para la mayoría de los casos, todas aquellas potencias ópticas superiores a 1 mW pueden ser peligrosas. El último tipo de fuente de luz (21) que puede emplearse es un diodo LEO infrarrojo, aunque debido al alcance que presenta, el inconveniente es que el usualio no es capaz de percibirlo y podría ocasionarle daños oculares. Por otra parte, la superficie de contraste (22) es de un color -por ejemplo, negra-y dimensiones que permiten distinguir entre el marcador luminoso (20) y cualquier fuente de luz externa. La pantalla o superficie de contraste (22) permite aplicar el Figure 2 shows a type of reference marker (20) of those used, which is a light marker and comprises two main elements: a light source (21) and a contrast surface (22). The preferred light source (21) is a LEO diode that emits in the visible range: 400-700 nm. This type of source is a point light source that achieves ranges greater than 50 m for powers greater than 1 W. In addition, a LEO diode can be considered as a non-hazardous product due to the optical powers in which it works since in the worst of the cases the exposure time is very low (aversion reaction time = -250 ms). Even so, the system can use luminous markers (20) with other types of light sources (21), because the device that detects the luminous marker (20), that is, the stereo camera (12) used as light receiver, detects both light sources (21) that work in the visible and infrared spectrum. The image sensor of the stereo camera (12) has a spectral curve which, for the wavelength of the LEO used, indicates a spectral response with a value greater than 0.005 ANV. Filament bulbs are another example of light sources (21), although they are diffuse sources with emitted optical powers lower than those attainable with a LEO diode. Another possible light source (21) can be a laser diode, although it is a collimated source capable of focusing the light on a very small point and, for most cases, all optical powers greater than 1 mW can be dangerous. The last type of light source (21) that can be used is an infrared LEO diode, although due to the scope it presents, the drawback is that the usual one is not able to perceive it and could cause eye damage. On the other hand, the contrast surface (22) is of a color - for example, black - and dimensions that allow distinguishing between the light marker (20) and any external light source. The contrast screen or surface (22) allows you to apply the
método aquí propuesto en ambientes con poca o mucha luminosidad, y a grandes distancias. La forma de la superficie de contraste (22) puede ser cualquiera, por ejemplo, cuadrada como en la Figura 2. las dimensiones de la superficie de contraste (22) dependen de las condiciones lumínicas del entorno (11), del flujo luminoso de la fuente de luz (21) Y de la distancia máxima que vaya a haber entre el objetivo (10) y los marcadores luminosos (20). La plantilla o superficie de contraste (22) se sitúa en la parte externa de la fuente de luz (21), concretamente en la posterior, quedando la fuente de luz (21) a la vista del usuario. En el caso que el ambiente o el fondo que haya detrás de la fuente de luz (21) sea lo suficientemente oscuro, no es necesario añadir la superficie de contraste (22). El sistema admite el uso de otro tipo de marcadores luminosos (20), como pueden ser marcadores impresos blancos con un reborde negro, aunque éstos no pueden emplearse en cualquier tipo de ambiente. method proposed here in environments with little or a lot of light, and over long distances. The shape of the contrast surface (22) can be any, for example, square as in Figure 2. The dimensions of the contrast surface (22) depend on the surrounding light conditions (11), on the luminous flux of the light source (21) And the maximum distance between the objective (10) and the light markers (20). The template or contrast surface (22) is located on the outside of the light source (21), specifically at the rear, the light source (21) being visible to the user. In the case that the environment or the background behind the light source (21) is dark enough, it is not necessary to add the contrast surface (22). The system supports the use of other types of luminous markers (20), such as white printed markers with a black border, although these cannot be used in any type of environment.
La Figura 3 muestra un posible escenario de aplicación del sistema, en el que la distribución de los marcadores (20). Sin embargo, Los marcadores (20) pueden situarse a diferentes distancias los unos de los otros, que el sistema ha de conocer de antemano. La altura entre cada marcador luminoso (20) y el suelo no está prefijada, pero es recomendable que sea aquella que permite visión directa entre la cámara estéreo (12) y las fuentes luminosas (fL" fb, f~, ..., fLn) de los marcadores (20) luminosos. En el caso de ambientes exteriores, los marcadores (20) se sitúan en soportes verticales para conseguir la altura necesaria. En el caso de ambientes interiores, los marcadores luminosos (20) pueden ir también en soportes verticales o sujetos en las paredes u objetos del entorno. La relación que hay entre el número m de marcadores (20) y la distancia entre ellos (d" d2) depende del ángulo de apertura (2<p) de la cámara estéreo (12), del ángulo de emisión (29) de la fuente de luz (21), por ejemplo el LEO, del marcador (20) luminoso y de la distancia mínima (L) que tiene que haber entre el objetivo (10), usuario del sistema, y las fuentes luminosas (fL" fL2, fL3, .. , tLm), Figure 3 shows a possible system application scenario, in which the distribution of the markers (20). However, the markers (20) can be placed at different distances from each other, which the system must know in advance. The height between each light marker (20) and the ground is not preset, but it is recommended that it be that which allows direct vision between the stereo camera (12) and the light sources (fL "fb, f ~, ..., fLn ) of the luminous markers (20) In the case of outdoor environments, the markers (20) are placed on vertical supports to achieve the necessary height.In the case of indoor environments, the luminous markers (20) can also go on supports verticals or subjects in the surrounding walls or objects.The relationship between the number m of markers (20) and the distance between them (d "d2) depends on the opening angle (2 <p) of the stereo camera (12 ), of the emission angle (29) of the light source (21), for example the LEO, of the light marker (20) and of the minimum distance (L) that must be between the target (10), user of the system, and light sources (fL "fL2, fL3, .., tLm),
i.e. , los LEOs, para que puedan visualizarse como mínímo una pareja de fuentes; según queda reflejado en la siguiente en la ecuación m/d ~ _ 1_. i.e. , the LEOs, so that at least one pair of sources can be visualized; as reflected in the following in the equation m / d ~ _ 1_.
tg9~L tg9 ~ L
El escenario donde se aplica el método no presenta ninguna característica predefinida con respecto a distribución, planta, obstáculos, de forma que el sistema se adapta a él. El tipo de ambiente, como se ha explicado anteriormente, puede ser interior o exterior. La única restricción que tíene es las dimensiones máximas de este entorno, estando limitadas por el alcance de las fuentes luminosas (fL" fL2, fL3,... , fLn) elegidas. Dicho alcance, se mide en función de la intensidad y flujo luminoso de las fuentes de luz (fL" fL2, fL" .. , fLm) Y de la sensibilidad del sensor de imagen de la cámara estéreo (12). A partir de las imágenes capturadas por la cámara estéreo (12) y de las coordenadas de imagen de los marcadores luminosos (20) calculadas en una captura anterior, como más adelante se describe, por el procesador digital de señales (14) del sistema, este sistema permite localizar en la imagen unos puntos de referencia especificos mediante un algoritmo de detección de marcadores luminosos (20), como el que se describe seguidamente. El método que se va a describir no es único, pueden usarse otras variantes, devolviendo como parámetros de salida las coordenadas de imagen (u,v) y el diámetro de los marcadores luminosos (20) detectados. En las coordenadas de imagen (u,v) en 2 dimensiones, la primera coordenada u denota la coordenada según un eje horizontal y la segunda coordenada v denota la coordenada según un eje vertical, en el plano 2D de la imagen donde se detectan los movimientos. La detección de marcadores luminosos (20) se divide en los siguientes pasos: The scenario where the method is applied does not present any predefined characteristics with respect to distribution, plant, obstacles, so that the system adapts to it. The type of environment, as explained above, can be indoor or outdoor. The only restriction that it has is the maximum dimensions of this environment, being limited by the scope of the light sources (fL "fL2, fL3, ..., fLn) chosen. This range is measured according to the intensity and luminous flux of light sources (fL "fL2, fL" .., fLm) And of the sensitivity of the image sensor of the stereo camera (12), from the images captured by the stereo camera (12) and of the coordinates image of the luminous markers (20) calculated in a previous capture, as described below, by the digital signal processor (14) of the system, this system allows to locate specific reference points in the image by means of a detection algorithm of luminous markers (20), such as the one described below.The method to be described is not unique, other variants can be used, returning as image output parameters (u, v) and the diameter of the markers light (20) detec In the image coordinates (u, v) in 2 dimensions, the first coordinate or denotes the coordinate along a horizontal axis and the second coordinate v denotes the coordinate along a vertical axis, in the 2D plane of the image where they are detected the movements. The detection of light markers (20) is divided into the following steps:
Conversión de imagen a escala de grises para reducir considerablemente el tamaño de la imagen, ya que asi se pasa de tener tres canales, rojo, verde y azul, a sólo uno blanco y negro. Es decir, cada pixel de la imagen reduce su valor de 3 byles a 1 byle. Filtrado de eliminación de ruido para eliminar los pixeles erróneos y ruido de las imágenes captadas por las cámaras. El tipo de filtro depende de lo nítidas que se deseen las imágenes y del tiempo de retraso que se pueda introducir en el sistema. Localización de pixeles vecinos con fuertes contrastes, analizando la imagen por ventanas y buscando aquellas regiones donde los contrastes entre píxeles vecinos son mayores. Este algoritmo tiene sentido porque las fuentes de luz (21) tienen valores de pixel en la imagen en torno a 255 y la plantilla (22) negra tiene valores en torno a O. Obtención de las coordenadas de los marcadores luminosos (20), una vez localizadas las regiones que pueden corresponder a fuentes de luz (21), verificando que realmente lo sean. Lo primero que se comprueba es la forma de la fuentes de luz (21), que se aproxime a una circunferencia o elipse , y se obtienen las coordenadas imagen (u,v), de su punto central así como su radio. Además se han de contrastar dichas regiones entre sí, verificando que todas se encuentran en filas de píxeles muy similares y que tienen valores de intensidad Conversion of image to grayscale to reduce considerably the size of the image, since thus it goes from having three channels, red, green and blue, to only one black and white. That is, each pixel in the image reduces its value from 3 byles to 1 byle. Noise filtering to eliminate erroneous pixels and noise from images captured by cameras. The type of filter depends on how clear the images are desired and the delay time that can be introduced into the system. Localization of neighboring pixels with strong contrasts, analyzing the image by windows and looking for those regions where the contrasts between neighboring pixels are greater. This algorithm makes sense because the light sources (21) have pixel values in the image around 255 and the black template (22) has values around O. Obtaining the coordinates of the luminous markers (20), a once the regions that can correspond to light sources (21) are located, verifying that they really are. The first thing that is checked is the shape of the light sources (21), which approximates a circle or ellipse, and the image coordinates (u, v) of its central point as well as its radius are obtained. In addition, these regions have to be checked against each other, verifying that they are all in very similar rows of pixels and that they have intensity values
" "
similares, ya que se asume que todas son fuentes de luz (21) con la misma luminancia. Verificación final, comparando las coordenadas de los marcadores luminosos (20) calculadas con las obtenidas es una captura anterior. Una vez obtenidas las regiones que se han comprobado corresponden a marcadores luminosos (20), se procede a una última comprobación. En este caso, cotejando las posiciones de los marcadores actuales con los de un instante anterior; teniendo en cuenta que al ser momentos consecutivos, las coordenadas no cambian de forma muy significativa de un sitio a otro. similar, since it is assumed that they are all sources of light (21) with the same luminance. Final verification, comparing the coordinates of the luminous markers (20) calculated with those obtained is an earlier capture. Once the regions that have been checked correspond to luminous markers (20), a final check is made. In this case, comparing the positions of the current markers with those of a previous instant; taking into account that being consecutive moments, the coordinates do not change very significantly from one site to another.
Para localizar en la imagen de un entorno (11) los puntos de referencia que dan la localización del usuario objetivo (10), es necesario conocer la siguiente infonnación: a) las coordenadas de imagen (u, v) y radio de cada marcador (20) detectado por el algoritmo de obtención de marcadores anteriormente descrito a partir de la imagen capturada por la cámara estéreo (12); b) el valor en grados é, del giro del usuario objetivo, devuelto por el dispositivo de medida de ángulos (13), en el momento de la captura por la cámara estéreo (12) de cada imagen; y c) los datos guardados en la memoria (15) como son: posición anterior, distancia real entre marcadores, distancia focal de las cámaras, ángulo de apertura de la cámara, distancia entre cámaras ('baseline', en inglés), trama de imagen ('frame', en inglés) anterior, radio anterior de los marcadores, vectores de posición anteriores de los marcadores y ángulo de giro anterior. To locate in the image of an environment (11) the reference points that give the location of the target user (10), it is necessary to know the following information: a) the image coordinates (u, v) and radius of each marker ( 20) detected by the algorithm for obtaining markers described above from the image captured by the stereo camera (12); b) the value in degrees é, of the rotation of the target user, returned by the angle measuring device (13), at the time of capture by the stereo camera (12) of each image; and c) the data stored in the memory (15) such as: previous position, actual distance between markers, focal length of the cameras, camera opening angle, distance between cameras ('baseline', in English), image frame ('' frame '' in English), previous radius of the markers, previous position vectors of the markers and anterior angle of rotation.
Considerando el caso particular de un entorno (11) continuo, sin obstáculos y de fonna cuadrada, por ejemplo, como el escenario representado en la Figura 3, la posición del usuario objetivo (10) depende de los giros y el tipo de movimientos que realice -vertical: arriba o abajo, horizontal: izquierda o derecha-; o de si no realiza ningún movimiento. Considering the particular case of a continuous, unobstructed and square-shaped environment (11), for example, as the scenario depicted in Figure 3, the position of the target user (10) depends on the turns and the type of movements he performs -vertical: up or down, horizontal: left or right-; or if it does not make any movement.
Los métodos para el cálculo de la posición que se describen a continuación se resumen en la Figura 7, se implementan de diferentes maneras, ilustradas en las Figuras 4A-48, 5A-58 Y 6A-68, dependiendo de la clase de desplazamiento que se haya registrado y del número de marcadores detectados, siendo validos para cualquier tipo de marcador, tanto luminoso como impreso. The methods for calculating the position described below are summarized in Figure 7, implemented in different ways, illustrated in Figures 4A-48, 5A-58 and 6A-68, depending on the kind of displacement that is has registered and the number of markers detected, being valid for any type of marker, both bright and printed.
Como muestra la Figura 7, lo primero es comprobar el valor, en grados, devuelto por el dispositivo de medida de ángulos (13) para determinar si existe un giro significativo, lo cual ocurre en caso de ser el ángulo obtenido en el instante actual ~(n) distinto al del instante anterior i"i(n-1); sin embargo, si i5(n) = 0(n-1) indica que el usuario objetivo (10) no ha girado. Si hay giro, las coordenadas de usuario son las mismas a pesar de que las imagenes capturadas por la cámara estéreo (12) cambien. Cuando el ángulo de giro, obtenido por el dispositivo de medida de ángulos (13), es constante en el tiempo, se compara la trama imagen capturada en el instante actual, frame (n), con la inmediatamente anterior frame (n1) Y si coinciden se interpreta como que no ha habido ningún movimiento del usuario. En el As Figure 7 shows, the first thing is to check the value, in degrees, returned by the angle measuring device (13) to determine if there is a significant turn, which occurs if the angle obtained at the present time is ~ (n) other than the previous moment i "i (n-1); however, if i5 (n) = 0 (n-1) indicates that the target user (10) has not turned. If there is rotation, the coordinates are the same despite the fact that the images captured by the stereo camera (12) change.When the angle of rotation, obtained by the angle measuring device (13), is constant over time, the image frame is compared captured at the current moment, frame (n), with the immediately previous frame (n1) And if they coincide, it is interpreted as no user movement.
caso de que no haya desplazamiento, el método devuelve las mismas coordenadas de usuario que en el momento anterior (:<n.l, Yn.l); en caso contrario, se calcula la posición con toda la información, a)-c), mencionada anteriormente. De este modo, se evitan operaciones redundantes e innecesarias. Cuando se detecta cambio de posición, se aplica el algoritmo de detección de marcadores. Conociendo los valores de los radios de los marcadores detectados en el instante actual, r(n) y los del instante anterior r(n-1), se puede identificar el tipo de desplazamiento del usuario objetivo (10): if there is no displacement, the method returns the same user coordinates as in the previous moment (: <n.l, Yn.l); otherwise, the position is calculated with all the information, a) -c), mentioned above. In this way, redundant and unnecessary operations are avoided. When position change is detected, the marker detection algorithm is applied. By knowing the radius values of the markers detected at the current instant, r (n) and those of the previous instant r (n-1), the type of displacement of the target user (10) can be identified:
Si esoS radios son distintos, r(n-1) t r(n), el desplazamiento es hacia arriba o If these radii are different, r (n-1) t r (n), the displacement is up or
abajo. Para conocer la posición del objetivo (10) es necesario saber la distancia down. To know the position of the objective (10) it is necessary to know the distance
entre él y los marcadores, es decir, conocer el desplazamiento realizado between it and the markers, that is, knowing the displacement made
verticalmente. vertically
Si esos radios son iguales, r(n-1) = r(n), desplazamiento es a derecha o If those radii are equal, r (n-1) = r (n), displacement is to the right or
izquierda. Para conocer la posición del objetivo (10) es necesario saber cuánto se left. To know the position of the objective (10) it is necessary to know how much
ha movido horizontalmente. Una vez identificado el tipo de movimiento realizado por el objetivo (10), Se le puede localizar en el entorno (11) según los siguientes métodos, que dependen del tipo de movimiento y del número m de marcadores (20) detectados. It has moved horizontally. Once the type of movement performed by the objective (10) has been identified, it can be located in the environment (11) according to the following methods, which depend on the type of movement and the number m of markers (20) detected.
Las Figuras 4A-4B muestran el caso en que se ha determinado que existe un movimiento vertical del objetivo (10) y cuando sólo se detecta un único marcador (20) en la imagen (40) binocular captada por la cámara estéreo (12). En este caso, no se puede usar un algoritmo de triangulación, debido a que no se puede relacionar los píxeles con una distancia real; por ello se tiene que recurrir a la técnica de visión estéreo y se necesitan los siguientes pará metros: Figures 4A-4B show the case in which it has been determined that there is a vertical movement of the lens (10) and when only a single marker (20) is detected in the binocular image (40) captured by the stereo camera (12). In this case, a triangulation algorithm cannot be used, because the pixels cannot be related to a real distance; Therefore, the stereo vision technique must be used and the following parameters are required:
la disparidad binocular ('disparity', en inglés) de la visión estéreo dada por las the binocular disparity ('disparity') of stereo vision given by
coordenadas Ul y UR, rectificadas y sin distorsión respectivamente, del marcador Ul and UR coordinates, rectified and undistorted respectively, of the marker
(20) obtenido de las dos componentes de imagen, izquierda (41) Y derecha (42), captadas por la cámara estéreo (12); los valores de distancia baseline B y distancia focal focaLlength f de la cámara estéreo (12); y el ángulo de giro (C:» del usuario objetivo (10). (20) obtained from the two image components, left (41) and right (42), captured by the stereo camera (12); the values of baseline B distance and focal length focaLlength f of the camera stereo (12); Y the angle of rotation (C: »of the target user (10).
Para poder transformar las coordenadas de imagen a la profundidad, se calcula la geometría proyectiva en el instante actual n según la ecuación: In order to transform the image coordinates to depth, the projective geometry is calculated at the current time n according to the equation:
10 Una vez calculada la distancia Lmarcador(n) que hay entre el objetivo (10) y el marcador (20), se puede obtener su posición dentro escenario. Como se ha desplazado verticalmente, lo único que aparentemente ha cambiado es su coordenada y, pero es necesario tener en cuenta el ángulo de giro li para obtener las coordenadas 10 Once the Marker distance (n) between the objective (10) and the marker (20) is calculated, its position on stage can be obtained. As it has moved vertically, the only thing that has apparently changed is its coordinate and, but it is necessary to take into account the angle of rotation li to obtain the coordinates
15 absolutas. Las coordenadas (xn• Yn) en el instante actual son igual a las coordenadas en el instante anterior (Xn.1, Yn.,) mas la suma del desplazam¡ento realizado: 15 absolute. The coordinates (xn • Yn) in the current instant are equal to the coordinates in the previous instant (Xn.1, Yn.,) Plus the sum of the displacement made:
Si r(n-1) < r(n) = x n_ 1 + sin(ó') '# IL mcr,aaor n -L m.crccdor IIf r (n-1) <r (n) = x n_ 1 + without (or ')' # IL mcr, aaor n -L m.crccdor I
xn xn
;¡ _-;¡ ; ¡_-; ¡
20 Las Figuras 5A-5B muestran el caso en que se ha determinado que existe un movimiento vertical del objetivo (10) Y se detectan dos o más marcadores (20, 20', 20") en la imagen 20 Figures 5A-5B show the case in which it has been determined that there is a vertical movement of the lens (10) and two or more markers (20, 20 ', 20 ") are detected in the image
(50) captada por la cámara estéreo (12). En este caso, se puede aplicar triangulación, puesto que se dispone de más de un marcador, de la distancia real (d/m) entre marcadores (20, 20', 20"), del ángulo de giro (é), del ángulo de apertura (2",) de la cámara (12) y del (50) captured by the stereo camera (12). In this case, triangulation can be applied, since more than one marker is available, the actual distance (d / m) between markers (20, 20 ', 20 "), the angle of rotation (é), the angle opening (2 ",) of the chamber (12) and the
25 número de píxeles (AxB) de la imagen (50). Conociendo las coordenadas hor¡zontales u de imagen de los marcadores (20, 20', 20"), se calcula, en píxeles, la distancia en píxeles q entre ellos, q :;;: U2-U1 , que en el mundo real es igual a d/m metros, siendo m el número de 25 number of pixels (AxB) of the image (50). Knowing the horizontal or image coordinates of the markers (20, 20 ', 20 "), it is calculated, in pixels, the distance in pixels q between them, q: ;;: U2-U1, than in the real world equals ad / m meters, m being the number of
marcadores, Por lo tanto los metros reales de distancia Lmarcador(n) que hay entre el objetivo markers, therefore the actual meters of distance Marker (n) between the target
(10) y uno de los marcadores, marcador (20), en el instante actual n es: (10) and one of the markers, marker (20), at the present time n is:
L marcCdor (n) = lA L marcCdor (n) = the
tg(2", * 2-·u,) tg (2 ", * 2- · u,)
5 En las Figuras 4A-4B y 5A-5B, se representa el ángulo el> que se refiere a la mitad del ángulo de apertura (2q» de la cámara (12). Conocida la distancia al marcador y la distancia que había en el instante anterior n-1, se calculan los metros recorridos como la diferencia entre ambos. A partir de ese valor y de la posición anterior del usuario, coordenadas del objetivo (10) en el instante anterior (Xn_1, Yn_,), 5 In Figures 4A-4B and 5A-5B, the angle is shown that refers to half the opening angle (2q "of the camera (12). Known the distance to the marker and the distance there was in the previous instant n-1, the meters traveled are calculated as the difference between the two, based on that value and the user's previous position, coordinates of the target (10) in the previous instant (Xn_1, Yn_,),
10 se pueden calcular sus nuevas coordenadas (><o, Yn) en el instante actual: 10 its new coordinates (> <or, Yn) can be calculated at the current time:
En este caso también se puede usar visión estéreo para obtener la profundidad a los marcadores. Pero es necesario aplicar correspondencias estéreo, es decir, relacionar los In this case, stereo vision can also be used to obtain depth to the markers. But it is necessary to apply stereo correspondences, that is, to relate the
15 marcadores de la imagen izquierda con sus equivalentes de la imagen derecha. Obtenidas las correspondencias, se puede aplicar geometría proyectíva, como en el caso de un único marcador para obtener la distancia real a cada marcador. 15 markers of the left image with their equivalents of the right image. Once the correspondences have been obtained, projective geometry can be applied, as in the case of a single marker to obtain the real distance to each marker.
Las Figuras 6A~6B muestran el caso en que se ha determinado que existe un movimiento 20 horizontal del objetivo (10). Figures 6A ~ 6B show the case in which it has been determined that there is a horizontal movement 20 of the target (10).
La Figura 6A se refiere al caso en que sólo se detecta un único marcador (20) en la imagen (61 , 62). Se aplica un algoritmo que puede recordar al de geometría estéreo, pero en este caso no se utilizan dos imágenes del mismo instante tomadas desde dos ángulos diferentes, 25 sino que se utilizarán dos imágenes de instantes contiguos y misma perspectiva: la imagen captada en el instante actual (61) Y la capturada en un instante inmediatamente anterior 62). Figure 6A refers to the case in which only a single marker (20) is detected in the image (61, 62). An algorithm that can be reminded of stereo geometry is applied, but in this case two images of the same moment taken from two different angles are not used, 25 but two images of contiguous instants and the same perspective will be used: the image captured in the instant current (61) And the one captured in a moment immediately before 62).
Asimismo, se cuenta con las coordenadas horizontales del marcador en el instante actual (un) y las que se obtuvieron del frame anterior (Un_,), así como la distancia anterior entre el marcador y el usuario (Lmarcador) y la distancia focal (focaLlength) de la cámara (12), para calcular el desplazamiento (D) horizontal realizado por el usuario objetivo (10) según la Likewise, it has the horizontal coordinates of the marker at the current moment (a) and those obtained from the previous frame (Un_,), as well as the previous distance between the marker and the user (Marker) and the focal distance (focaLlength ) of the camera (12), to calculate the horizontal displacement (D) made by the target user (10) according to the
5 siguiente expresión: 5 following expression:
D = Lmo.rcac.orn_~ * !U :ocI_t -un I D = Lmo.rcac.orn_ ~ *! U: ocI_t -un I
f ocaCleng ht f ocaCleng ht
Una vez conocido el desplazamiento D, en metros, que ha realizado el usuario objetivo (10), Once the displacement D, in meters, that the target user (10) has made is known,
10 se pueden obtener sus coordenadas reales, que dependen de su posición en el instante anterior n-1 y del tipo de desplazamiento, izquierda o derecha, realizado: 10 its real coordinates can be obtained, which depend on its position in the previous instant n-1 and on the type of displacement, left or right, performed:
- Si Un-l < Un Yes Un-l <Un
- x~ = } ' = PI X n -1 -cosCó) "" D V ....... s in(ó) '" D ~ PI -1 " x ~ =} '= PI X n -1 -cosCó) "" D V ....... s in (or) '"D ~ PI -1"
- v.. = .' .. V _ -sin(o)"-D . n 1 v .. =. ' .. V _ -without (o) "- D. N 1
15 La Figura 68 se refiere al caso en que se detecta más de un marcador (20, 20', 20") en la imagen. Se emplea una técnica similar a la de triangulación explicada en el caso de un movimiento vertical del usuario con una pluralidad de marcadores detectados, pero en este caso se usan dos imágenes (63, 64) capturadas por el mismo sensor de imagen de forma consecutiva en el tiempo, teniendo la imagen actual (63) y la imagen captada en el instante 15 Figure 68 refers to the case where more than one marker (20, 20 ', 20 ") is detected in the image. A technique similar to that of triangulation explained in the case of a vertical movement of the user with a vertical plurality of markers detected, but in this case two images (63, 64) captured by the same image sensor are used consecutively in time, having the current image (63) and the image captured instantly
20 anterior (64). Conociendo la distancia real entre marcadores y los pixeles que hay entre ellos, p pixeles en el instante actual n y q pixeles en el instante anterior n~1, se puede extrapolar a la longitud que se ha desplazado el usuario. Para ello se requiere conocer, además de la distancia entre marcadores (d/m), el ángulo de giro (15 ) y las coordenadas de imagen (Un.') de los marcadores (20, 20', 20") en la imagen anterior (64). Previous 20 (64). Knowing the actual distance between markers and the pixels between them, p pixels in the current instant n and q pixels in the previous instant n ~ 1, can be extrapolated to the length that the user has moved. This requires knowing, in addition to the distance between markers (d / m), the angle of rotation (15) and the image coordinates (Un. ') Of the markers (20, 20', 20 ") in the image previous (64).
25 d q d IU-u,25 d q d IU-u,
D ::: cos Có') * _ Jio._ = cos( ó') *_ ;,.' 1 n-~ "-1 D ::: cos Có ') * _ Jio._ = cos (or') * _;,. ' 1 n- ~ "-1
m p m 1"2,, -ud m p m 1 "2 ,, -ud
Al igual que ocurría en el caso de un único marcador, una vez conocido el desplazamiento O se pueden obtener las coordenadas reales del usuario objetivo (10): As in the case of a single marker, once the offset O is known, the actual coordinates of the target user (10) can be obtained:
x ,., = X . .,_l -cosCS) ... D YIl = )''' -1 i-5111(0) ~ D x,., = X. ., _ l -cosCS) ... D YIl =) '' '-1 i-5111 (0) ~ D
)',., = )',.,-1 -sin(ó) .;:. D ) ',., =)',., - 1 - without (or).;:. D
En este caso también se puede aplicar el caso anterior de un único marcador detectado para obtener el desplazamiento (O) realizado por el usuario objetivo (10). Es decir, a partir de las coordenadas del mismo marcador en dos imágenes contiguas, despreciando el resto de los marcadores detectados, y con la distancia anterior entre el marcador y el usuario, In this case, the previous case of a single marker detected can also be applied to obtain the displacement (O) made by the target user (10). That is, from the coordinates of the same marker in two contiguous images, neglecting the rest of the markers detected, and with the previous distance between the marker and the user,
10 calcular el desplazamiento D. 10 calculate the displacement D.
Claims (9)
- (20) (twenty)
- luminoso identificable en el entorno de utilización de referencia, que en un instante de tiempo i calcula unas coordenadas (Xi, y¡) del objetivo (10), caracterizado por que comprende: -capturar mediante una cámara estéreo (12) una primera trama de imagen en un instante de tiempo actual y una segunda trama de imagen en un instante de tiempo anterior, detectando en la primera y segunda trama de imagen al menos un marcador (20); -obtener un radio en un instante de tiempo actual y un radio en el instante de tiempo anterior del, al menos un, marcador (20) detectado en la primera trama de imagen y segunda trama de imagen; -obtener un ángulo de giro del objetivo (10) mediante un dispositivo de medida de ángulos luminous identifiable in the reference use environment, which in a moment of time i calculates coordinates (Xi, y¡) of the objective (10), characterized in that it comprises: -capturing through a stereo camera (12) a first frame of image in an instant of current time and a second image frame in an instant of previous time, detecting at least one marker (20) in the first and second image frame; - obtaining a radius in an instant of current time and a radius in the previous instant of the at least one, marker (20) detected in the first image frame and second image frame; - obtain an angle of rotation of the objective (10) by means of an angle measuring device
- (13) (13)
- en el instante de tiempo actual y en el instante de tiempo anterior; -si el ángulo de giro en el instante de tiempo actual y el ángulo de giro en el instante de tiempo anterior son distintos, calcular las coordenadas (Xn , Yn) del objetivo (10) en el instante actual igualándolas a las coordenadas (Xn_l, Yn-l) del objetivo (10) en el instante anterior; -si la primera trama de imagen y la segunda trama de imagen son iguales, calcular las coordenadas (Xn, Yn) del objetivo (10) en el instante actual igualándolas a las coordenadas (Xn.l, Yn-l) del objetivo (10) en el instante anterior; -si no, comparar los radios en el instante de tiempo actual y en el instante de tiempo anterior del, al menos un, marcador (20) detectado y: in the instant of current time and in the instant of previous time; -if the angle of rotation at the current time instant and the angle of rotation at the previous time instant are different, calculate the coordinates (Xn, Yn) of the target (10) at the current time equal to the coordinates (Xn_l, Yn-l) of the objective (10) in the previous instant; -if the first image frame and the second image frame are the same, calculate the coordinates (Xn, Yn) of the objective (10) at the current time equal to the coordinates (Xn.l, Yn-l) of the objective (10 ) in the previous instant; -if not, compare the radios at the current time instant and at the previous time instant of the at least one, marker (20) detected and:
- --
- si los radios son iguales y hay más de un marcador (20, 20', 20n ) detectado, las coordenadas (xn, Yn) del objetivo (10) en el instante actual se obtienen mediante triangulación usando la primera trama de imagen y la segunda trama de imagen; if the radii are equal and there is more than one marker (20, 20 ', 20n) detected, the coordinates (xn, Yn) of the target (10) at the present time are obtained by triangulation using the first image frame and the second image frame;
- --
- si los radios son distintos y hay más de un marcador (20, 20', 20") detectado, las coordenadas (Xn, Yn) del objetivo (10) en el instante actual se obtienen mediante triangulación usando una sola trama de imagen que es la primera trama de imagen; if the radii are different and there is more than one marker (20, 20 ', 20 ") detected, the coordinates (Xn, Yn) of the target (10) at the present time are obtained by triangulation using a single image frame that is the first image frame;
- --
- si los radios son distintos y hay un único marcador (20) detectado, las coordenadas (Xn, Yn) del objetivo (10) en el instante actual se obtienen mediante geometria estéreo; if the radii are different and there is a single marker (20) detected, the coordinates (Xn, Yn) of the target (10) at the present time are obtained by stereo geometry;
- --
- si los radios son iguales y hay un único marcador (20) detectado, las coordenadas (xo, Yn) del objetivo (10) en el instante actual se obtienen calculando unas coordenadas de imagen del marcador (20) en el instante de tiempo actual en la primera trama de imagen y unas coordenadas de imagen del marcador (20) obtenidas en el instante de tiempo anterior en la segunda trama de imagen. if the radii are equal and there is a single marker (20) detected, the coordinates (xo, Yn) of the target (10) at the current time are obtained by calculating image coordinates of the marker (20) at the current time instant in the first image frame and image coordinates of the marker (20) obtained at the previous time in the second image frame.
- 2. 2.
- Método de localización espacial, de acuerdo con la reivindicación 1, caracterizado por que usa un marcador (20) luminoso que comprende una fuente de luz (21) y una superficie de contraste (22). Spatial location method according to claim 1, characterized in that it uses a luminous marker (20) comprising a light source (21) and a contrast surface (22).
- 3. 3.
- Método de localización espacial, de acuerdo con la reivindicación 2, caracterizado por que usa un marcador (20) luminoso que comprende una fuente de luz (21 ) que es un diodo LEO. Spatial location method according to claim 2, characterized in that it uses a luminous marker (20) comprising a light source (21) that is a LEO diode.
- 4. Four.
- Método de localización espacial, de acuerdo con la reivindicación 1, caracterizado por Spatial location method according to claim 1, characterized by
- x" -:'1:"_1 -cosCó') ,. D )''1 = )"" 1 -:-sin (o) ,.. D x "-: '1:" _ 1 -cosCó'),. D) '' 1 =) "" 1 -: - without (o), .. D
- Si Un-l> Un Yes Un-l> Un
- X1'l -X )I _1 +cosCó) .. D \' = \ ' _, -sin (6) " D_ n ~ n X1'l -X) I _1 + cosCó) .. D \ '= \' _, -sin (6) "D_ n ~ n
- --
- para el marcador (20) obtener en la primera trama de imagen unas coordenadas for the marker (20) obtain coordinates in the first image frame
- --
- medir un desplazamiento O del objetivo (10) mediante la expresión: measure a displacement O of the objective (10) by the expression:
- \t = ~ )'¡ \ t = ~) '¡
- v ...l..Sí71(6). D . ' 1'! -1 v ... l..Yes71 (6). D. ' one'! -one
- _'t0 ,., _ v = • 1'1 _'t0,., _ v = • 1'1
- X,, _l +cosCo) • D y -s¡.n(8) '" D1'1 -1 X ,, _l + cosCo) • D and -s¡.n (8) '"D1'1 -1
- --
- medir en el instante de tiempo actual una distancia Lmarcadorn entre el objetivo (10) y el 15 marcador (20) mediante la expresión: measure a Lmarcadorn distance between the target (10) and the marker (20) at the current time, using the expression:
- --
- si el ángulo de giro en el instante de tiempo actual y el ángulo de giro en el instante de tiempo anterior son distintos, calcular las coordenadas (x", Yn) del objetivo If the angle of rotation at the current time instant and the angle of rotation at the previous time instant are different, calculate the coordinates (x ", Yn) of the target
- --
- si la primera trama de imagen y la segunda trama de imagen son iguales, calcular las coordenadas (xn, Yn) del objetivo (10) en el instante actual igualándolas a las coordenadas (Xn_1, Yn_1 ) del objetivo (10) en el instante anterior; If the first image frame and the second image frame are the same, calculate the coordinates (xn, Yn) of the target (10) at the current time equal to the coordinates (Xn_1, Yn_1) of the objective (10) in the previous instant ;
- --
- si no, comparar los radios en el instante de tiempo actual y en el instante de tiempo anterior del, al menos un, marcador (20) detectado y: if not, compare the radios at the current time instant and at the previous time instant of the at least one, marker (20) detected and:
- --
- si los radios son iguales y hay más de un marcador (20, 20', 20") detectado, calcular las coordenadas (Xn, Yn) del objetivo (10) en el instante actual mediante triangulación usando la primera trama de imagen y la segunda trama de imagen; if the radii are equal and there is more than one marker (20, 20 ', 20 ") detected, calculate the coordinates (Xn, Yn) of the target (10) at the current time by triangulation using the first image frame and the second image frame;
- --
- si los radios son distintos y hay más de un marcador (20, 20', 20") detectado, calcular las coordenadas (xn, Yn) del objetivo (10) en el instante actual mediante triangulación usando una sola trama de imagen que es la primera trama de imagen; if the radii are different and there is more than one marker (20, 20 ', 20 ") detected, calculate the coordinates (xn, Yn) of the target (10) at the current time by triangulation using a single image frame that is the first image frame;
- --
- si los radios son distintos y hay un único marcador (20) detectado, calcular las coordenadas (xn, Yn) del objetivo (10) en el instante actual mediante geometría estéreo; if the radii are different and there is a single marker (20) detected, calculate the coordinates (xn, Yn) of the target (10) at the current time using stereo geometry;
- --
- si los radios son iguales y hay un único marcador (20) detectado, calcular las if the radii are equal and there is a single marker (20) detected, calculate the
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201500011A ES2543038B2 (en) | 2014-12-23 | 2014-12-23 | Spatial location method and system using light markers for any environment |
PCT/ES2015/000182 WO2016102721A1 (en) | 2014-12-23 | 2015-12-16 | Method and system for spatial localisation using luminous markers for any environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201500011A ES2543038B2 (en) | 2014-12-23 | 2014-12-23 | Spatial location method and system using light markers for any environment |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2543038A1 ES2543038A1 (en) | 2015-08-13 |
ES2543038B2 true ES2543038B2 (en) | 2015-11-26 |
Family
ID=53784084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201500011A Active ES2543038B2 (en) | 2014-12-23 | 2014-12-23 | Spatial location method and system using light markers for any environment |
Country Status (2)
Country | Link |
---|---|
ES (1) | ES2543038B2 (en) |
WO (1) | WO2016102721A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG11202104325UA (en) | 2018-10-30 | 2021-05-28 | Alt Llc | System and method for the reverese optical tracking of a moving object |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7231063B2 (en) * | 2002-08-09 | 2007-06-12 | Intersense, Inc. | Fiducial detection system |
JP4532856B2 (en) * | 2003-07-08 | 2010-08-25 | キヤノン株式会社 | Position and orientation measurement method and apparatus |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
US8761439B1 (en) * | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
-
2014
- 2014-12-23 ES ES201500011A patent/ES2543038B2/en active Active
-
2015
- 2015-12-16 WO PCT/ES2015/000182 patent/WO2016102721A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2016102721A1 (en) | 2016-06-30 |
ES2543038A1 (en) | 2015-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10466036B2 (en) | Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera | |
ES2924179T3 (en) | Visualization of a virtual image of a building information model | |
US10401143B2 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
US10088296B2 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
ES2801395T3 (en) | System and method for the three-dimensional measurement of the shape of material objects | |
US8885177B2 (en) | Medical wide field of view optical tracking system | |
KR102213728B1 (en) | Active binocular alignment for near eye displays | |
CN105916462B (en) | Optical tracking system | |
ES2384086T3 (en) | 3D image capture system | |
ES2704458T3 (en) | Procedure and arrangement for recording acoustic and optical information, as well as a corresponding computer program and a corresponding memory medium readable by computer | |
US20140028805A1 (en) | System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices | |
ES2525011T3 (en) | Optronic system and three-dimensional imaging procedure dedicated to identification | |
ES2925257T3 (en) | Device and method for locating a measurement point with an image capture device | |
ES2800725T3 (en) | Methods and systems for detecting intrusions in a controlled volume | |
ES2681094B1 (en) | SYSTEM AND METHOD FOR VOLUMETRIC AND ISOTOPIC IDENTIFICATION OF DISTRIBUTIONS OF RADIOACTIVE SCENES | |
CN108354585B (en) | Computer-implemented method for detecting corneal vertex | |
US20080306708A1 (en) | System and method for orientation and location calibration for image sensors | |
ES2763912T3 (en) | Optical tracking | |
WO2007044301A2 (en) | Tracking objects with markers | |
CN103491897A (en) | Motion blur compensation | |
Tilch et al. | Current investigations at the ETH Zurich in optical indoor positioning | |
AU2019353165B2 (en) | Optics based multi-dimensional target and multiple object detection and tracking method | |
WO2021104368A1 (en) | System and method for spatial positioning of magnetometers | |
ES2933452T3 (en) | Method and device for measuring the local refractive power and/or the distribution of the refractive power of a spectacle lens | |
ES2924701T3 (en) | On-screen position estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2543038 Country of ref document: ES Kind code of ref document: B2 Effective date: 20151126 |