ES2924179T3 - Visualización de una imagen virtual de un modelo de información para la edificación - Google Patents

Visualización de una imagen virtual de un modelo de información para la edificación Download PDF

Info

Publication number
ES2924179T3
ES2924179T3 ES18769442T ES18769442T ES2924179T3 ES 2924179 T3 ES2924179 T3 ES 2924179T3 ES 18769442 T ES18769442 T ES 18769442T ES 18769442 T ES18769442 T ES 18769442T ES 2924179 T3 ES2924179 T3 ES 2924179T3
Authority
ES
Spain
Prior art keywords
coordinate system
tracking
data
user
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18769442T
Other languages
English (en)
Inventor
David John Mitchell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XYZ Reality Ltd
Original Assignee
XYZ Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XYZ Reality Ltd filed Critical XYZ Reality Ltd
Application granted granted Critical
Publication of ES2924179T3 publication Critical patent/ES2924179T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)
  • Position Input By Displaying (AREA)
  • Electromagnetism (AREA)

Abstract

Un auricular para usar en la visualización de una imagen virtual de un modelo de información de construcción (BIM) en relación con un sistema de coordenadas del sitio de un sitio de construcción. El auricular comprende una prenda para la cabeza que tiene uno o más sensores de seguimiento de posición montados en él, gafas de realidad aumentada que incorporan al menos una pantalla, un dispositivo de seguimiento de posición de pantalla para seguir el movimiento de la pantalla en relación con al menos uno de los ojos del usuario y un dispositivo electrónico sistema de control. El sistema de control electrónico está configurado para convertir un modelo BIM definido en un sistema de coordenadas del mundo real extrínseco en un sistema de coordenadas intrínseco definido por un sistema de seguimiento de posición, recibir datos de posición de visualización del dispositivo de posición de visualización y datos de seguimiento de auriculares de un sistema de seguimiento de auriculares y renderizar una imagen virtual del BIM en relación con la posición y orientación del artículo de sombrerería en el sitio de construcción y la posición relativa de la pantalla en relación con el ojo del usuario y transmitir la imagen virtual renderizada a la pantalla que el usuario puede ver como una imagen virtual del BIM. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Visualización de una imagen virtual de un modelo de información para la edificación
Campo técnico
La presente invención se refiere a la visualización de una imagen virtual de un modelo de información para la edificación (BIM, por sus siglas en inglés). En particular, pero no exclusivamente, la presente invención se refiere a la utilización de un dispositivo de visualización de realidad aumentada para visualizar una imagen virtual de una tarea que se ha de realizar o de un objeto que se ha de construir en su posición y orientación correctas en una obra con la suficiente precisión como para que pueda utilizarse como alternativa al replanteo convencional de la obra; por ejemplo, determinando dónde debe llevarse a cabo una determinada tarea de construcción. Las realizaciones de la invención pueden utilizar un sistema de seguimiento posicional (tal como un sistema de seguimiento posicional óptico "de dentro hacia fuera") para localizar un visualizador en forma de visor (HMD, por sus siglas en inglés) de realidad aumentada con una precisión de al menos aproximadamente 5 mm. La presente invención proporciona un equipo para relacionar datos de replanteo del mundo real con datos de seguimiento recibidos de un sistema de seguimiento, un programa informático para calibrar y controlar el funcionamiento de tal equipo, así como un HMD de realidad aumentada para visualizar un modelo virtual en coordenadas del mundo real. La presente invención tiene como objetivo permitir a los constructores y a otras personas utilizar un HMD de realidad aumentada para iniciar, completar y validar sus tareas de construcción con una precisión/tolerancias de construcción de 3 mm, sin necesidad de depender de un ingeniero de replanteo y/o validación.
Antecedentes de la invención
Levantar una estructura o construir un edificio en una obra es un proceso largo. El proceso puede resumirse como sigue: En primer lugar, un diseñador o arquitecto elabora un modelo tridimensional, conocido como Modelo de Información para la Edificación (BIM). El modelo BIM suele definirse en coordenadas del mundo real. A continuación, el modelo BIM se envía a una obra, la mayoría de las veces en forma de planos bidimensionales o, en algunos casos, como modelo 3D en un dispositivo informático. Un ingeniero, utilizando un dispositivo convencional de jalonamiento/replanteo, establece puntos de control en ubicaciones conocidas en las coordenadas del mundo real en el lugar y utiliza los puntos de control como referencia para marcar la ubicación donde se ha de construir cada estructura de los planos 2D o el modelo BIM. A continuación, un constructor utiliza los planos y/o el modelo BIM junto con las marcas ("marcas de replanteo") realizadas por el ingeniero para levantar la estructura según los planos o el modelo en el sitio correcto. Por último, un ingeniero debe validar la estructura o la tarea realizada. Esto puede hacerse utilizando un escáner láser 3D para capturar una nube de puntos a partir de la cual se puede obtener automáticamente un modelo 3D de la estructura "tal como está construida". El modelo "tal como está construida" se compara entonces con el modelo BIM original. Este proceso puede durar hasta dos semanas, después de las cuales hay que revisar cualesquiera elementos que se encuentren fuera de tolerancia y puedan dar lugar a una penalización o deban ser rehechos.
Convencionalmente, un ingeniero de obras con experiencia replantea una obra utilizando una estación total o un teodolito de estación total (TST, por sus siglas en inglés) para posicionar los puntos de control en la obra en relación con puntos de ubicación conocida en la obra o cerca de la misma, por ejemplo, como puntos de referencia. Las posiciones en el mundo real de tales puntos de ubicación conocida pueden conocerse a partir de sus referencias Ordnance Survey o WGS 84, por ejemplo. Para localizar los puntos de control puede utilizarse cualquier elemento geográfico natural o artificial, siempre que se conozca su posición con precisión. Los puntos de control pueden entonces situarse en la obra utilizando una estación total por triangulación a partir de dos o más puntos de ubicación conocida.
Cada tarea que se haya de realizar en una obra debe replantearse con precisión de este modo. Generalmente, el replanteo debe realizarse varias veces durante un proyecto, ya que las sucesivas fases del trabajo pueden borrar los marcadores temporales.
Además, una vez que se ha completado una tarea en una obra, generalmente es necesario validar la tarea/comprobar que se ha realizado en la ubicación correcta y, para ello, el ingeniero de obras debe comprobar la ubicación donde se ha realizado la tarea por referencia a los puntos de control utilizando un teodolito.
Cada vez que se requiere un replanteo durante un proyecto de construcción, se introduce un retraso mientras se espera a que el ingeniero de obras acuda a la obra. Sería deseable poder empezar a levantar una estructura sin tener que depender de un ingeniero de obras cada vez que se necesite localizar la posición de una tarea de construcción que se haya de realizar.
Otra desventaja de los métodos conocidos de replanteo de una obra es que, aunque se establezcan puntos de referencia y marcadores en posiciones adecuadas para que el equipo de trabajo pueda llevar a cabo una tarea en su ubicación correcta según los planos de construcción, sigue siendo necesario que el equipo interprete los planos de construcción para determinar los detalles de la tarea que se ha de realizar e interpolar entre los puntos de referencia o las marcas. En la práctica, esto suele dar lugar a discrepancias entre los planos de construcción y la tarea realizada.
Otra desventaja más de los métodos conocidos es que los puntos de referencia y las marcas se suelen colocar en una obra en relación con puntos de control u otros puntos de referencia que a su vez se han situado en relación con puntos de ubicación conocida. Cada vez que se coloca un nuevo punto de referencia o marca en relación con un punto de referencia o de construcción anterior, los errores de posicionamiento se magnifican.
Otra desventaja más de los métodos conocidos es que los teodolitos actuales utilizados para la validación pueden tardar hasta dos semanas en proporcionar a los contratistas la información de validación.
Estas desventajas pueden tener importantes repercusiones. Si un replanteo se lleva a cabo de forma incorrecta, o si una estructura se levanta de forma incorrecta basándose en una interpretación incorrecta de las marcas de replanteo, el siguiente subcontratista construirá sobre el error, agravando así los errores. Dado el típico plazo de validación de 1 a 2 semanas, varios contratistas podrían agravar los errores en un proyecto. El resultado suele ser que los contratistas entregan proyectos que no se ajustan a los plazos, al presupuesto ni a las especificaciones correctas.
En muchos países, un trabajador de la construcción está obligado a llevar un casco de construcción (o casco protector) para proteger su cabeza contra lesiones debidas a la caída de objetos, el impacto con otros objetos, los escombros, la lluvia y las descargas eléctricas mientras trabaja en una obra. En el Reino Unido, por ejemplo, la normativa sobre Equipos de Protección Individual (EPI) de 1992 especifica que los cascos protectores son un componente de los EPI y, por ley, todos los que trabajan en obras o dentro de entornos peligrosos están obligados a llevar un casco protector.
Los cascos protectores se fabrican generalmente según las normas de seguridad aplicables. En 1997, el Instituto Nacional Estadounidense de Estándares revisó la norma Z89.1 de rendimiento para los cascos protectores, que se ha armonizado con la norma CSA Z94.1. La conformidad con estas normas no es obligatoria, pero la mayoría de los fabricantes las cumplen.
El diseño y la construcción de los cascos protectores son bien conocidos por los expertos en la técnica y no es necesario describirlos en detalle en la presente memoria. Las bandas de suspensión en el interior del casco protector distribuyen el peso del casco protector y la fuerza de cualquier impacto sobre la parte superior de la cabeza; el casco protector puede estar equipado con una visera, un accesorio de ala extra ancha para obtener sombra adicional, protectores de oídos, espejos para aumentar el campo de visión trasero, un soporte para un faro o linterna, un barboquejo para evitar que el casco se caiga si el usuario se inclina, almohadillas laterales aislantes para mantener los lados de la cabeza calientes y/o bandas estiradas alrededor del borde para la identificación del trabajador en color y/o la retrorreflectividad nocturna de alta visibilidad.
Dada la omnipresencia de los cascos protectores en una obra, no es de extrañar que se hayan utilizado en la técnica para llevar equipos electrónicos para realizar o ayudar en las operaciones que han de llevarse a cabo en una obra.
Por ejemplo, el documento US 7592911 B1 (Hudgens et al.) describe el seguimiento de la actividad del personal en una obra mediante circuitos electrónicos incluidos en los cascos protectores que lleva puestos el personal de la obra. Según una realización del documento US 7592911 B1, la actividad en una obra se supervisa procesando información personal recibida directa o indirectamente de los circuitos electrónicos formados como parte de uno o más cascos protectores que lleva puestos el personal situado en la obra. La información personal está asociada de forma exclusiva a cada uno de los miembros del personal. Se generan uno o más mensajes basados en la información personal recibida de los circuitos electrónicos y la ubicación del personal. Por ejemplo, los mensajes pueden advertir a miembros concretos del personal que han entrado en una zona no autorizada de la obra. Opcionalmente, puede supervisarse e informarse de la actividad del personal periódicamente.
Un ‘casco inteligente’ disponible en Daqri, LLC de Los Ángeles, CA, incorpora una pantalla de realidad aumentada en un casco protector para mostrar realidad aumentada y/o información multimedia a un trabajador industrial, incluyendo instrucciones visuales, alertas en tiempo real y mapas en 3D (véase, por ejemplo, http://web.archive.org/web/20170606162951/https://daqri.com/products/smart-helmet/).
La realidad aumentada (RA) es una visión en vivo, directa o indirecta, de un entorno físico del mundo real cuyos elementos son aumentados mediante una entrada sensorial generada por ordenador, tal como sonido, vídeo, gráficos o datos GPS. Las aplicaciones de RA permiten al usuario experimentar información, por ejemplo, en forma de un objeto virtual tridimensional superpuesto a una imagen de un objeto físico captada por una cámara de un dispositivo de visualización. El objeto virtual se muestra al usuario como si fuera proyectado por "cámaras virtuales" alineadas con los ojos del usuario. Otras aplicaciones de realidad aumentada permiten a un usuario experimentar la visualización de información adicional superpuesta a una vista o una imagen de cualquier objeto del mundo físico real.
El documento WO 2015/102834 A1 (Daqri, LLC) describe un sistema y un método para descargar procesamiento de la realidad aumentada. Un sensor externo a un dispositivo de visualización de un usuario rastrea la ubicación y la orientación del dispositivo de visualización. El dispositivo de visualización puede ser un dispositivo informático con una pantalla, tal como un teléfono inteligente, un ordenador tipo tableta o un dispositivo informático portátil (por ejemplo, un reloj o unas gafas). El dispositivo informático puede ser de mano o puede estar montado de forma removible en la cabeza del usuario. La ubicación y la orientación se definen en relación con referencias predefinidas del entorno físico local del usuario. Un servidor recibe una solicitud del dispositivo de visualización para descargar un proceso de seguimiento y/o un proceso de renderización de realidad aumentada. El proceso de renderización de realidad aumentada se basa en una base de datos de realidad aumentada. El servidor genera datos procesados descargados basándose en la solicitud y en la ubicación y orientación del dispositivo de visualización. Los datos procesados descargados se transmiten al dispositivo de visualización. En el dispositivo de visualización se genera una visualización de los datos procesados descargados.
Según el documento US 2015/0235474 A1 (Mullins), una aplicación de sondeo genera un sondeo de componentes asociados a un modelo tridimensional de un objeto. La aplicación de sondeo recibe señales de vídeo, información de ubicación e información de orientación de dispositivos ponibles que se encuentran cerca del objeto. El modelo tridimensional del objeto se genera basándose en las señales de vídeo, los datos de los sensores, la información de ubicación y la información de orientación recibida de los dispositivos ponibles. Se realizan análisis a partir de las señales de vídeo para identificar una manipulación en el objeto. El modelo tridimensional del objeto se actualiza basándose en la manipulación del objeto. Se genera un estado dinámico relacionado con la manipulación del objeto con respecto a datos de referencia relacionados con el objeto.
Múltiples dispositivos ponibles (por ejemplo, dispositivos móviles que incluyen una cámara y una pantalla) que observen un mismo objeto físico desde diferentes ángulos y ubicaciones pueden utilizarse además para generar y reconstruir una tridimensionalidad del objeto físico. La aplicación de sondeo genera un sondeo de componentes asociados a un modelo tridimensional del objeto físico. Por ejemplo, los componentes pueden incluir clavos en paneles de yeso, conmutadores en un tablero de instrumentos, botones en una máquina de fábrica, un barco o cualquier objeto físico industrial.
El documento US 9665985 B2 (Mullins et al.) describe una aplicación de experto remoto que identifica una manipulación de objetos virtuales visualizados en un primer dispositivo ponible. Los objetos virtuales se renderizan basándose en un objeto físico visto con un segundo dispositivo ponible. Se recibe una manipulación de los objetos virtuales desde el primer dispositivo ponible. Se genera una visualización de la manipulación de los objetos virtuales para una pantalla del segundo dispositivo ponible. La visualización de la manipulación de los objetos virtuales se comunica al segundo dispositivo ponible.
Los documentos US 2015/0235474 A1 y US 9665985 B2 describen ambos que un dispositivo ponible puede incluir sensores, pantalla, procesador y un dispositivo de almacenamiento. El dispositivo ponible puede ser un dispositivo informático ponible, un ordenador de vehículo, un ordenador tipo tableta, un dispositivo de navegación, un dispositivo multimedia portátil o un teléfono inteligente de un usuario. Los sensores pueden incluir, por ejemplo, un sensor de proximidad o localización (por ejemplo, comunicación de campo próximo, GPS, Bluetooth, Wi-Fi), un sensor óptico (por ejemplo, una cámara), un sensor de orientación (por ejemplo, un giroscopio), un sensor de audio (por ejemplo, un micrófono) o cualquier combinación adecuada de los mismos.
En el documento WO 2016/077401 A1 (Valve Corporation) se describen diferentes sistemas de seguimiento posicional óptico que pueden utilizarse en aplicaciones de realidad virtual (RV)/RA. Las implementaciones ejemplares comprenden uno o más receptores y uno o más transmisores. Los transmisores ejemplares contienen dos rotadores ortogonales que emiten cada uno un haz láser en forma de abanico. Cada haz efectúa un barrido a medida que los rotores se hacen girar a velocidad constante. Los receptores ópticos ejemplares pueden ser relativamente pequeños y estar montados en lugares convenientes de la pantalla de RV. Estos receptores consisten en pequeños detectores ópticos que pueden montarse en visualizadores en forma de visor. Los sistemas ejemplares determinan la posición midiendo el tiempo en el que cada haz de barrido cruza cada receptor/detector.
También están disponibles otros sistemas de posicionamiento. Otro sistema similar al sistema de posicionamiento óptico de Valve Corporation se describe en el documento US 5100229 A. El documento US 2018/0128897 A1 describe un sistema para determinar la posición de un transmisor en relación con un receptor utilizando ultrasonidos. El transmisor emite un pulso de sonido ultrasónico y proporciona una indicación del tiempo de emisión del sonido electrónicamente. Un procesador de ordenador recibe la indicación de tiempo del transmisor y de tres receptores ultrasónicos colocados en una disposición fija. Los receptores no están colocados de forma colineal y están separados entre sí menos de dos veces la longitud de onda del sonido. El procesador de ordenador estima la posición relativa del transmisor basándose en la indicación de tiempo y el tiempo de vuelo del sonido ultrasónico a cada uno de los tres receptores. En realizaciones preferidas, los receptores están separados entre sí por una distancia inferior a la longitud de onda del sonido.
Como se describe en el documento US 2017/0169612 A1 (Cashen et al.), un sistema de RA puede ser perjudicial para un operador si las imágenes virtuales proyectadas por el sistema están mal alineadas, es decir, si las imágenes virtuales no están posicionadas correctamente con respecto a los objetivos del mundo real a los que están destinadas a superponerse) y/o si las imágenes virtuales están distorsionadas. El documento US 2017/0169612 A1 describe un sistema de alineación que puede configurarse para considerar una serie de entradas de factores dinámicos y estáticos en tiempo real, de manera que cuando se proyecta una imagen gráfica, ésta se alinea sustancialmente con el objetivo del mundo real al que está destinada a superponerse y las imágenes gráficas se visualizan sustancialmente libres de distorsión.
El documento US 2013/0235169 A1 (Kato et al.) describe un HMD que incluye: una pantalla que muestra una imagen de vídeo tridimensional; una unidad de obtención de posición que mide una posición de un rabillo o ángulo interior de un ojo de un espectador con respecto a la pantalla; una unidad de almacenamiento de posición estándar que obtiene en memorias, como una posición estándar relativa a la posición, la posición medida del rabillo interior o rabillo exterior del ojo, en la calibración para determinar la posición estándar; una unidad de detección de posición que detecta, como posición, una diferencia entre la posición estándar y una nueva posición medida del rabillo interior o rabillo exterior del ojo del espectador que ve el contenido con respecto a la pantalla; y una unidad de procesamiento de imágenes que realiza un procesamiento de imagen en la imagen de vídeo 3D que se ha de visualizar en la pantalla, para girar o mover paralelamente la imagen de vídeo 3D de acuerdo con la diferencia de posición detectada.
El documento US 2017/0090203 A1 (Mullins y Ries) describe un dispositivo en forma de visor que incluye un sensor, una pantalla transparente y un procesador que comprende una aplicación de realidad aumentada y un módulo de alineación. Por ejemplo, el dispositivo en forma de visor puede ser un dispositivo informático con una cámara y una pantalla transparente, tal como un ordenador tipo tableta, un teléfono inteligente o un dispositivo informático ponible (por ejemplo, un casco o unas gafas).
Compendio de la invención
De acuerdo con un aspecto de la presente invención, se proporciona un conjunto para la cabeza como se reivindica posteriormente en la reivindicación 1 para su uso en el replanteo de una obra que comprende un artículo para la cabeza que tiene una pluralidad de sensores montados en el mismo, gafas de realidad aumentada que incluyen una o más pantallas para visualizar una imagen virtual de un modelo de información para la edificación (BIM) cuando las ve un usuario y un sistema electrónico de control.
El conjunto para la cabeza de la invención puede comprender además un sensor de posición de pantalla para detectar la posición de la pantalla en la cabeza del usuario, más concretamente la posición de una o más pantallas en relación con los ojos del usuario.
El conjunto para la cabeza comprende un artículo para la cabeza tal como, por ejemplo, un casco de construcción que está configurado para que se lo ponga el usuario.
El conjunto para la cabeza comprende un sistema electrónico de control. El sistema electrónico de control comprende un motor de posicionamiento de modelo para recibir y procesar datos de modelo que representan el modelo de información para la edificación definido en un sistema de coordenadas extrínseco del mundo real y utilizar una transformación entre el sistema de coordenadas extrínseco y un sistema de coordenadas intrínseco para posicionar y orientar el modelo en el sistema de coordenadas intrínseco.
El sistema electrónico de control comprende además un motor de renderización de imágenes para recibir datos de seguimiento del conjunto para la cabeza que representan la posición y la orientación del artículo para la cabeza en la obra en el sistema de coordenadas intrínseco, renderizar una imagen virtual del modelo en relación con la posición y la orientación del artículo para la cabeza y transmitir la imagen a las una o más pantallas, donde puede ser vista por un usuario como una imagen virtual del modelo.
El motor de renderización de imágenes también puede recibir datos de posición de pantalla que representen la posición de las una o más pantallas en relación con los ojos del usuario. En consecuencia, en algunas realizaciones, el motor de renderización de imágenes puede estar configurado para recibir datos de seguimiento del conjunto para la cabeza que representen la posición y la orientación del artículo para la cabeza en la obra en el sistema de coordenadas intrínseco, datos de posición de pantalla que representen la posición de las una o más pantallas en relación con los ojos del usuario, renderizar una imagen virtual del modelo en relación con la posición y la orientación del artículo para la cabeza en la obra y la posición de las gafas de realidad aumentada en relación con los ojos del usuario y transmitir la imagen a las una o más pantallas, donde puede ser vista por un usuario como una imagen virtual del modelo.
Los datos de seguimiento del conjunto para la cabeza se obtienen de datos de sensor que representan las respuestas de los sensores a las una o más señales emitidas por el sistema de seguimiento de posición.
La transformación se obtiene relacionando las coordenadas de uno o más puntos de control de ubicación conocida en el sistema de coordenadas extrínseco con sus coordenadas correspondientes en el sistema de coordenadas intrínseco, obteniéndose las coordenadas de los uno o más puntos de control en el sistema de coordenadas intrínseco de datos de sensor que representan las respuestas de uno o más sensores, posicionados en los uno o más puntos de control, a las una o más señales. En algunas realizaciones, los datos de seguimiento de conjunto para la cabeza pueden obtenerse de datos de sensor que representen las respuestas de una pluralidad de sensores en el artículo para la cabeza a radiación electromagnética modulada emitida por una o más estaciones base en la obra, siendo la modulación de la radiación electromagnética indicativa de la distancia angular a las una o más estaciones base respectivas.
Así, los sensores del artículo para la cabeza pueden ser sensibles a uno o más haces de luz no visible, preferiblemente infrarroja, que efectúen un barrido a través de la obra desde una o más estaciones base para seguir las posiciones de los sensores. Ventajosamente, como se ha descrito anteriormente, la o cada estación base puede emitir dos haces de luz no visible en planos mutuamente transversales, preferiblemente ortogonales. El o cada haz puede tener una forma plana en abanico.
Los sensores pueden ser sensores optoelectrónicos que reaccionen a la radiación electromagnética generando una señal detectable que pueda ser convertida en una señal digital por un convertidor de luz a digital adecuado. En algunas realizaciones, la señal digital puede codificar datos de temporización para obtener los datos de seguimiento. Los datos de temporización pueden dotarse de un sello de tiempo y agregarse mediante una agrupación de puertas programable de campo (FPGA, por sus siglas en inglés). Como alternativa, la señal digital puede codificar datos de distancia angular obtenidos mediante la demodulación de datos contenidos en el haz como una señal portadora que represente la distancia angular instantánea del haz a su fuente.
Es adecuado que el artículo para la cabeza tenga al menos cinco sensores en posiciones conocidas en el conjunto para la cabeza de unos en relación con otros. En algunas realizaciones, el artículo para la cabeza puede comprender más de cinco sensores, preferiblemente más de 10 sensores, más preferiblemente más de 20 sensores para determinar con precisión la posición y la orientación del conjunto para la cabeza en el sistema de coordenadas intrínseco. En algunas realizaciones, el artículo para la cabeza puede comprender hasta 32 sensores.
En algunas realizaciones, los datos de posición de pantalla pueden ser generados por uno o más sensores de posición de pantalla situados en el artículo para la cabeza. Los expertos en la técnica conocerán sensores de posición de pantalla adecuados, que incluyen, por ejemplo, sensores de posición del tipo descrito en el documento US 2013/0235169 A1 o en el documento US 9754415 B2.
Por ejemplo, en algunas realizaciones los datos de posición de pantalla pueden ser generados por al menos un dispositivo de seguimiento ocular para seguir el movimiento de un ojo del usuario. El dispositivo de seguimiento ocular puede estar configurado para seguir la posición del ojo del usuario. Convenientemente, los datos de posición de pantalla pueden comprender datos que representen una posición de al menos una de las pupilas de los ojos del usuario en relación con la pantalla y, más particularmente, los datos de posición de pantalla pueden comprender datos que representen una posición de al menos uno de los centros de las pupilas de los ojos del usuario en relación con la pantalla. En algunas realizaciones, el dispositivo de seguimiento ocular puede incluir al menos una cámara de infrarrojos montada en el conjunto para la cabeza y preparada para emitir radiación infrarroja sobre el ojo del usuario y al menos un detector de infrarrojos que detecte radiación infrarroja reflejada.
Como alternativa, el sensor de posición de pantalla puede comprender, por ejemplo, un detector CMOS orientado hacia el interior que tome imágenes de detalles de la superficie de la cabeza, la piel y/o el cabello del usuario para determinar el movimiento de la pantalla con respecto a la piel y/o el cabello. Tal movimiento puede corresponder al movimiento relativo entre la pantalla y la cabeza del usuario. En algunas realizaciones, el detector CMOS puede comprender una fuente de luz LED y bien una sola lente, bien un conjunto ordenado de microlentes, para guiar los rayos de luz emitidos y reflejados. El detector CMOS puede colocarse en cualquier lugar adecuado del conjunto de visualización. Se puede utilizar cualquier tecnología y configuración de sensor óptico adecuada para un detector óptico orientado hacia el interior. Por ejemplo, un láser o un LED, una lente y un sensor CMOS de los que se encuentran en cualquier ratón óptico pueden utilizarse como detector de movimiento relativo entre la pantalla y la cabeza del usuario.
En otros ejemplos, el sensor de posición de pantalla puede comprender un sensor orientado hacia el exterior tal como, por ejemplo, una cámara que mire en dirección opuesta a la cabeza del usuario y esté situada en el conjunto de visualización. La cámara puede captar información de imagen bidimensional y/o información de profundidad del entorno físico y de los objetos físicos dentro del entorno del usuario. Por ejemplo, la cámara puede incluir una cámara de profundidad, una cámara de luz visible, una cámara de luz infrarroja y/o una cámara de seguimiento de posición.
En algunas realizaciones, la imagen virtual del modelo BIM puede comprender una imagen tridimensional sintética que se muestre a un usuario en las una o más pantallas de las gafas de realidad aumentada. Convenientemente, las gafas pueden comprender dos pantallas para visualizar la imagen sintética como una imagen estereoscópica. Los expertos en la técnica apreciarán que la imagen virtual que se genera de acuerdo con la presente invención puede ajustarse en función de las propiedades ópticas y/o físicas de las una o más pantallas. Así, como se sabe en la técnica, la imagen virtual debe ajustarse a la distancia focal y/o al tamaño de la pupila de salida de la pantalla de realidad aumentada.
La imagen virtual del modelo BIM debe tener una frecuencia de imagen de al menos 30 Hz, y preferiblemente de al menos 60 Hz, de modo que la imagen virtual se actualice de manera fluida cuando el conjunto para la cabeza se mueva en relación con la obra. En una realización, la frecuencia de imagen del motor de renderización de imágenes puede ser de unos 90 Hz.
Los haces de luz no visible procedentes de las una o más estaciones base pueden moverse a través de la obra a una frecuencia inferior a la frecuencia de imagen deseada de la imagen virtual. Por ejemplo, en algunas realizaciones, los haces de luz pueden tener una frecuencia de barrido de entre 30 y 60 Hz. El sistema electrónico de control del conjunto para la cabeza puede, por lo tanto, comprender además al menos una unidad de medición inercial (IMU, por sus siglas en inglés). Hay unidades IMU adecuadas disponibles para los expertos en la técnica, pudiendo tener éstas una frecuencia de muestreo de, por ejemplo, 1.000 Hz, con una frecuencia de información de, por ejemplo, 500 Hz.
Los datos de seguimiento que representan la posición y la orientación del artículo para la cabeza en el sistema de coordenadas intrínseco pueden fusionar datos de movimiento de una unidad IMU con datos posicionales obtenidos de los datos de sensor que salen de los sensores. Por lo tanto, el módulo de seguimiento puede fusionar los datos de sensor con datos de movimiento recibidos de la IMU para producir los datos de seguimiento a una frecuencia mayor que la que puede ser posible utilizando sólo los datos de sensor para proporcionar una frecuencia de imagen fluida para la imagen virtual. Convenientemente, los datos de seguimiento que representan la posición y la orientación del artículo para la cabeza en el sistema de coordenadas intrínseco se basan principalmente en los datos de movimiento de la unidad IMU, y se actualizan regularmente con información más precisa sobre la posición y la orientación obtenida de los datos de sensor.
De acuerdo con otro aspecto de la presente invención, se proporciona un método, como se reivindica posteriormente en la reivindicación 13, de visualización de una imagen virtual de un modelo de información para la edificación (BIM) que se posiciona y se orienta en un sistema de coordenadas extrínseco de una obra en un conjunto para la cabeza.
A menos que el contexto sugiera lo contrario o indique lo contrario, las características técnicas o de otro tipo descritas en la presente memoria en relación con uno o más aspectos concretos de la invención son aplicables a todos los aspectos de la invención.
Por lo tanto, el conjunto para la cabeza puede comprender un artículo para la cabeza con la forma y las dimensiones adecuadas para que lo lleve puesto un usuario, con uno o más sensores de seguimiento posicional montados en el mismo o fijados al mismo de otro modo, un sistema de visualización de realidad aumentada que incluya al menos una pantalla; y un sistema electrónico de control.
En algunas realizaciones, el método de la invención comprende la etapa de determinar la posición y la orientación del conjunto para la cabeza en la obra en un sistema de coordenadas intrínseco definido por un sistema de seguimiento posicional. La posición y la orientación del conjunto para la cabeza pueden basarse en datos de sensor que representen las respuestas de los uno o más sensores a una o más señales, por ejemplo, radiación electromagnética, que se propaguen en la obra como se ha descrito anteriormente. El método puede comprender la generación de datos de seguimiento del conjunto para la cabeza que representen la posición y la orientación del conjunto para la cabeza en la obra en el sistema de coordenadas intrínseco. Estas etapas pueden ser realizadas convenientemente por un sistema de seguimiento del conjunto para la cabeza.
El método de la invención comprende la etapa de convertir datos de localización entre el sistema de coordenadas intrínseco y el sistema de coordenadas extrínseco sobre la base de una transformación. Como se ha descrito anteriormente, la transformación se obtiene relacionando las coordenadas de uno o más puntos de control de ubicación conocida en el sistema de coordenadas extrínseco con sus coordenadas correspondientes en el sistema de coordenadas intrínseco utilizando el sistema de seguimiento posicional. Convenientemente, la etapa se lleva a cabo mediante un motor de conversión de coordenadas.
Como se ha descrito anteriormente, las coordenadas de los uno o más puntos de control en el sistema de coordenadas intrínseco pueden determinarse adecuadamente sobre la base de datos de sensor recibidos de al menos un sensor.
En algunas realizaciones, en el sistema electrónico de control, el método de la invención comprende las etapas de recibir datos de seguimiento del conjunto para la cabeza y recibir datos de modelo que representan el modelo de información para la edificación tal como se define en el sistema de coordenadas extrínseco, procesar los datos de modelo utilizando el motor de conversión de coordenadas para producir datos de modelo derivados que se definen en el sistema de coordenadas intrínseco, y utilizar los datos de seguimiento de conjunto para la cabeza para renderizar una imagen virtual del modelo de información para la edificación en relación con la posición y la orientación del artículo para la cabeza. El método comprende la generación de datos de imagen que representan la imagen virtual y la transmisión de los datos de imagen al sistema de visualización de realidad aumentada para que el usuario los vea como una imagen virtual del modelo de información para la edificación.
En algunas realizaciones, el conjunto para la cabeza puede comprender al menos un sensor de posición de pantalla para detectar la posición de la pantalla en relación con la cabeza del usuario. El método puede comprender, en el sistema electrónico de control, la recepción de datos de posición de pantalla desde el sensor de posición de pantalla y el uso de los datos de seguimiento de conjunto para la cabeza y de los datos de posición de pantalla para renderizar la imagen virtual del modelo de información para la edificación en relación con la posición y la orientación del artículo para la cabeza en relación con el ojo del usuario del conjunto para la cabeza.
Como se ha descrito anteriormente, el conjunto para la cabeza de la invención comprende un sistema electrónico de control que, en algunas realizaciones, puede comprender un subsistema de seguimiento de conjunto para la cabeza y un motor de conversión de coordenadas. El subsistema de seguimiento de conjunto para la cabeza puede configurarse adecuadamente para cooperar con un sistema de seguimiento de posición que se instala en la obra como se describe con más detalle en la presente memoria. Se entenderá que el procesamiento de los datos de seguimiento de conjunto para la cabeza puede llevarse a cabo en el conjunto para la cabeza utilizando el subsistema de seguimiento de conjunto para la cabeza, pero en algunas realizaciones el procesamiento de los datos de seguimiento de conjunto para la cabeza para determinar la posición y la orientación del conjunto para la cabeza en la obra puede llevarse a cabo fuera del conjunto para la cabeza, por ejemplo en un ordenador remoto que esté preparado para comunicarse con el conjunto para la cabeza a través de una conexión por cable o inalámbrica. En algunas realizaciones, el motor de conversión de coordenadas puede estar preparado para funcionar en un ordenador o servidor remoto. Por lo tanto, en general, algunas de las etapas de procesamiento llevadas a cabo por el sistema electrónico de control pueden realizarse fuera del conjunto para la cabeza en un ordenador o servidor remoto y con medios adecuados preparados para la transmisión de datos entre el conjunto para la cabeza y el ordenador o servidor remoto.
De acuerdo con otro aspecto más de la presente invención, se proporciona un programa de ordenador que comprende un conjunto de instrucciones que, cuando es ejecutado por un dispositivo informatizado, hace que el dispositivo informatizado realice un método de visualización en un conjunto para la cabeza de una imagen virtual de un modelo de información para la edificación (BIM) que está posicionado y orientado en un sistema de coordenadas extrínseco de una obra. Típicamente, el programa de ordenador comprende un conjunto de instrucciones que, cuando es ejecutado por un dispositivo informatizado, hace que el dispositivo informatizado realice un método de acuerdo con la presente invención como se ha descrito anteriormente.
Por lo tanto, el conjunto para la cabeza puede comprender un artículo para la cabeza configurado para que lo lleve puesto un usuario, con uno o más sensores de seguimiento posicional montados en el mismo, un sistema de visualización de realidad aumentada que incluye un conjunto de visualización que tiene una posición de uso dentro del campo de visión del usuario, incluyendo el conjunto de visualización al menos una pantalla, un sensor de posición de pantalla para detectar la posición de la pantalla en relación con la cabeza del usuario y un sistema electrónico de control.
De acuerdo con realizaciones de la presente invención, puede haber un método para ver un modelo de información para la edificación tridimensional con un visualizador en forma de visor de realidad aumentada en coordenadas del mundo real en una obra con una precisión de al menos 5 mm, preferiblemente de al menos 3 mm. Algunas realizaciones de la presente invención pueden comprender:
(a) seguir el visualizador en forma de visor de realidad aumentada en la obra utilizando un sistema óptico de seguimiento de posición de dentro hacia fuera para localizar el visualizador en forma de visor de realidad aumentada dentro de un volumen rastreado en un sistema de coordenadas intrínseco utilizado por el sistema de seguimiento de posición con una precisión de al menos 5 mm;
(b) utilizar un dispositivo rastreado portátil para relacionar el sistema de coordenadas intrínseco con un sistema de coordenadas extrínseco, del mundo real, utilizando una transformación para convertir entre ubicaciones conocidas/puntos de control en el sistema de coordenadas extrínseco a las posiciones correspondientes de los puntos de control en el sistema de coordenadas intrínseco definido por el sistema de seguimiento de posición;
(c) utilizar un dispositivo de seguimiento ocular para relacionar la posición de al menos uno de los ojos del usuario con el visualizador en forma de visor de realidad aumentada; y/o
(d) utilizar un programa informático para fusionar datos de seguimiento posicional que representan la ubicación del conjunto para la cabeza con datos de seguimiento ocular que representan la posición del visualizador en forma de visor de realidad aumentada en la cabeza del usuario y datos que representan las propiedades ópticas del visualizador en forma de visor de realidad aumentada para visualizar un modelo BIM virtual a través del visualizador en forma de visor de realidad aumentada en coordenadas del mundo real.
Algunas realizaciones de la presente invención tienen como objetivo proporcionar a los constructores/subcontratistas un método para ver un modelo BIM en coordenadas del mundo real utilizando un HMD de realidad aumentada con tolerancias de construcción, que suelen tener una precisión de hasta 3 mm, y/o la capacidad de validar su trabajo en tiempo real. Esto puede eliminar la necesidad de la presencia continua de un ingeniero de obras, lo que puede minimizar el grado en que el equipo de trabajo debe interpretar los planos de construcción y determinar las ubicaciones no marcadas entre puntos de referencia o marcadores, evitando así el agravamiento de los errores en el posicionamiento de puntos de referencia sobre la base de puntos de referencia o puntos de control previamente localizados. Esto también puede eliminar la necesidad de un teodolito para los trabajos de validación, ya que pretende proporcionar a los constructores y subcontratistas información de validación en tiempo real.
En algunas realizaciones de la invención, el seguimiento del conjunto para la cabeza puede comprender la generación de datos de seguimiento externos basados en la ubicación y orientación del conjunto para la cabeza mediante el uso de sensores externos al conjunto para la cabeza. Pueden utilizarse sensores de seguimiento tales como, por ejemplo, sensores ópticos (por ejemplo, una cámara 3D habilitada para la profundidad), sensores inalámbricos (Bluetooth, Wi-Fi), un sensor GPS o sensores de audio para determinar la ubicación del conjunto para la cabeza, la distancia del conjunto para la cabeza a los sensores de seguimiento en el entorno físico (por ejemplo, sensores colocados en esquinas del lugar o la sala), la orientación del conjunto para la cabeza, por ejemplo, para determinar hacia dónde mira el usuario.
En algunas realizaciones, la renderización de la imagen virtual puede comprender la renderización de objetos virtuales basados en datos de seguimiento de conjunto para la cabeza y en una base de datos de realidad aumentada. Los datos de seguimiento de conjunto para la cabeza pueden representar la ubicación y la orientación del conjunto para la cabeza basándose en datos de sensor recibidos de sensores internos del conjunto para la cabeza. Los sensores pueden incluir, por ejemplo, sensores de proximidad o localización (por ejemplo, comunicación de campo próximo, GPS, Bluetooth, Wi-Fi), un sensor óptico (por ejemplo, una cámara), un sensor de orientación (por ejemplo, un giroscopio), un sensor de audio (por ejemplo, un micrófono) o cualquier combinación adecuada de los mismos. Por ejemplo, los sensores pueden incluir una cámara orientada hacia atrás y una cámara orientada hacia delante en el conjunto para la cabeza.
También descrito en la presente memoria, se proporciona un método de replanteo de una obra que comprende seguir una herramienta portátil de replanteo en la obra usando un sistema óptico de seguimiento posicional de dentro hacia fuera para localizar la herramienta de replanteo dentro de un volumen rastreado en un sistema de coordenadas intrínseco usado por el sistema de seguimiento y relacionar el sistema de coordenadas intrínseco con un sistema de coordenadas extrínseco del mundo real utilizando una transformación obtenida relacionando ubicaciones conocidas en el sistema de coordenadas del mundo real de uno o más puntos de control en o cerca de la obra con posiciones correspondientes de los puntos de control en el sistema de coordenadas intrínseco, según lo determinado por el sistema de seguimiento posicional.
Por "sistema de seguimiento posicional de dentro hacia fuera" se entiende en la presente memoria un sistema de seguimiento en el que un sensor, por ejemplo, un sensor optoelectrónico o un micrófono, previsto en un objeto que debe seguirse dentro de un volumen rastreado, está preparado para detectar o medir una o más propiedades de una o más señales incidentes (por ejemplo, radiación electromagnética u ondas o pulsos ultrasónicos) que son indicativas de una distancia angular del sensor a una fuente de la radiación. Generalmente, la fuente de la señal o de la radiación puede ser fija. El objeto que debe seguirse puede ser, por ejemplo, el conjunto para la cabeza de la presente invención.
La señal (por ejemplo, radiación electromagnética) puede ser direccional. En particular, la radiación puede modularse de tal manera que indique el rumbo o la distancia angular de la fuente. La señal o la radiación pueden, por ejemplo, ser espacialmente moduladas o atenuadas a través del volumen rastreado. Por ejemplo, la intensidad de la radiación electromagnética puede variar con la distancia angular a la fuente.
Generalmente, la radiación electromagnética puede estar en forma de un haz, por ejemplo, un haz láser, que varíe temporalmente, por ejemplo, barriendo el volumen rastreado.
El sensor puede detectar un cambio transitorio en la señal incidente, por ejemplo, la radiación electromagnética.
En algunas realizaciones, el haz puede barrer a velocidad constante el volumen rastreado, de modo que el momento en que el haz incide en el sensor sea indicativo de la distancia angular del sensor a la fuente.
En algunas realizaciones, el haz puede comprender una onda portadora que se module para codificar datos.
Por ejemplo, la onda portadora puede modularse para codificar datos que indiquen la fase absoluta del haz. La distancia angular del sensor a la fuente puede obtenerse de la fase absoluta del haz y del momento en que el haz incide en el sensor.
En algunas realizaciones, la onda portadora puede modularse para codificar datos dinámicos que indiquen la distancia angular del haz a la fuente. En este caso, la distancia angular del sensor a la fuente puede ser "leída" del haz.
Cuando el haz se modula para codificar datos, el sensor puede incluir adecuadamente un convertidor de luz a digital para demodular la onda portadora para recuperar los datos codificados.
El haz puede tener una forma plana, en abanico. Convenientemente, la radiación electromagnética puede ser luz no visible, preferiblemente infrarroja.
En algunas realizaciones, la radiación electromagnética puede modularse en dos planos mutuamente transversales (por ejemplo, ortogonales) para determinar la posición angular del sensor en dos ejes transversales. Por ejemplo, se puede hacer que dos haces mutuamente transversales barran el volumen rastreado.
Se puede generar un haz adecuado montando un láser en un rotor dentro de una estación base. Como se ha indicado anteriormente, el rotor puede funcionar a una velocidad angular constante. En algunas realizaciones, pueden montarse dos (o más) láseres en un solo rotor, y puede preverse una disposición optomecánica adecuada para hacer que los haces de los láseres barran en direcciones mutuamente transversales.
Como alternativa, se pueden prever dos o más rotores, que estén preparados para girar alrededor de ejes mutuamente transversales. Cada uno de los dos o más rotores puede llevar uno o más láseres.
Cuando se emplean dos o más haces de radiación electromagnética, éstos pueden tener frecuencias mutuamente diferentes para que el sensor pueda distinguir entre los haces.
Pueden preverse uno o más sensores en el objeto que se ha de seguir y puede haber una o más fuentes de radiación electromagnética.
La ubicación del objeto que se ha de seguir puede determinarse mediante una triangulación de la posición de uno o más sensores en relación con múltiples fuentes de radiación.
Como alternativa, la ubicación del objeto puede determinarse mediante una triangulación de las posiciones de múltiples sensores en el objeto en relación con al menos una fuente de radiación. Las posiciones relativas de los múltiples sensores en el objeto seguido deben ser conocidas.
Cuando hay múltiples fuentes de radiación, cada fuente puede emitir uno o más haces de radiación electromagnética. Convenientemente, cada fuente puede comprender una estación base que sea operable para emitir dos haces mutuamente transversales como se ha descrito anteriormente. Cada haz de cada estación base puede tener una frecuencia diferente.
Si la radiación se modula en dos planos mutuamente transversales, se puede determinar la ubicación del objeto en tres dimensiones.
Generalmente, los sensores no son cámaras, sino que reaccionan a la radiación electromagnética incidente generando una señal eléctrica detectable. Convenientemente, los sensores pueden comprender fotodiodos sensibles a la luz no visible, por ejemplo, infrarroja. Por ejemplo, los sensores pueden comprender fotodiodos de silicio. Los sensores pueden comprender además un circuito de conversión de luz a digital que incluya un amplificador para amplificar la señal eléctrica del fotodiodo, un detector de envolvente discreto y un comparador rápido. El comparador debe tener preferiblemente una cantidad relativamente pequeña de histéresis. Tal circuito está preparado para lanzar un pulso digital cuando incida radiación electromagnética transitoriamente en el sensor.
La distancia angular de un sensor a una fuente de un haz de barrido de radiación electromagnética puede calibrarse por referencia a una posición angular absoluta del haz cuando éste incide en el sensor.
Como alternativa, la dirección angular del haz en relación con la fuente puede ser codificada dinámicamente dentro del haz, que se utiliza como señal portadora.
En otra alternativa, la distancia angular del sensor a la fuente puede calcularse a partir de un tiempo transcurrido entre una señal de sincronización y el momento en que el haz incide en el sensor.
Generalmente, tal señal de sincronización puede comprender un destello omnidireccional de radiación electromagnética que, al igual que el propio haz, es preferiblemente no visible, por ejemplo, infrarroja.
Un sistema óptico de seguimiento posicional de dentro hacia afuera adecuado se describe en el documento WO 2016/077401 A1.
Una ventaja de utilizar tal sistema óptico de seguimiento posicional de dentro hacia fuera es que puede localizar la posición de un sensor dentro de un volumen rastreado con una precisión de menos de 3 mm, más preferiblemente menos de 1 mm. Los métodos de la presente invención pueden hacer uso de un sistema óptico de seguimiento de dentro hacia afuera para seguir con precisión la posición de una herramienta portátil de replanteo en la obra para localizar dónde se han de llevar a cabo en la obra operaciones específicas tales como, por ejemplo, una tarea de construcción, de acuerdo con unos planos de construcción. En algunas realizaciones, por ejemplo, la herramienta de replanteo puede utilizarse para localizar puntos de referencia en la obra.
Así, en algunas realizaciones, los métodos de la invención pueden comprender el cálculo de la ubicación de la herramienta de replanteo en el sistema de coordenadas extrínseco del mundo real utilizando la transformación e indicando la posición de la herramienta de replanteo en coordenadas del mundo real (de la obra) utilizando una interfaz de usuario. Convenientemente, la interfaz de usuario puede incluir una pantalla, tal como, por ejemplo, una pantalla plana, para visualizar la posición de la herramienta en las coordenadas de la obra.
La herramienta de replanteo puede comprender un conjunto para la cabeza que comprenda unas gafas de realidad aumentada que pueda llevar puestas un usuario y que incluyan al menos una pantalla para visualizar información relativa a la posición de la herramienta de replanteo en la obra. Por ejemplo, las gafas de realidad aumentada pueden ser operables para visualizar información relativa a una o más tareas de construcción que deban llevarse a cabo en lugares específicos de la obra. En algunas realizaciones, las gafas de realidad aumentada pueden ser operables para visualizar la posición del conjunto para la cabeza, o de un periférico acoplado al conjunto para la cabeza que lleve uno o más sensores que forman parte del sistema de seguimiento posicional, en las coordenadas extrínsecas del mundo real.
En algunas realizaciones, las gafas de realidad aumentada pueden ser operables para visualizar una imagen virtual de un modelo de información para la edificación (BIM) que se define en las coordenadas extrínsecas del mundo real. De acuerdo con la presente invención, la imagen virtual puede ser una imagen 3-D que esté correctamente localizada y orientada en relación con la obra y que se muestre a un usuario en un contexto correcto para la posición del usuario en la obra, mediante el uso de la transformación para convertir las coordenadas de la obra del mundo real del modelo para la edificación al sistema de coordenadas intrínseco.
El conjunto para la cabeza puede comprender un casco protector, por ejemplo, un casco de construcción del tipo conocido en la técnica, que esté adaptado para llevar una pluralidad de sensores que forman parte del sistema de seguimiento posicional. Convenientemente, las gafas de realidad aumentada pueden incorporarse al casco protector para garantizar una distancia controlable entre las gafas y el casco protector que lleva los sensores. Sin embargo, en algunas realizaciones, las gafas de realidad aumentada pueden estar separadas del casco protector.
El sistema de seguimiento posicional de dentro hacia fuera puede comprender una o más estaciones base que puedan instalarse en lugares espaciados en la obra y que puedan operarse cada una de ellas para emitir radiación electromagnética espacialmente modulada tal como, por ejemplo, un haz de luz que barra la obra, y una pluralidad de sensores en la herramienta de replanteo que sean sensibles a la radiación electromagnética. En algunas realizaciones, las estaciones base pueden instalarse con una separación de hasta unos 10 m, preferiblemente hasta unos 5 m. Como se ha descrito anteriormente, la radiación electromagnética modulada puede ser indicativa de la distancia angular entre un sensor y una estación base, de modo que los sensores de la herramienta de replanteo pueden utilizarse para determinar la posición y/o la orientación de la herramienta de replanteo en el sistema de coordenadas intrínseco.
Convenientemente, el sistema de seguimiento posicional puede calibrarse con respecto al sistema de coordenadas extrínseco del mundo real posicionando la herramienta de replanteo en un punto de control de ubicación conocida en el sistema de coordenadas extrínseco del mundo real y determinando la posición correspondiente de la herramienta de replanteo en el punto de control en el sistema de coordenadas intrínseco. Convenientemente, la herramienta de replanteo puede tener dos o más sensores, generalmente al menos tres sensores. Uno de los sensores puede posicionarse con precisión en el punto de control. Las posiciones de los demás sensores en relación con dicho sensor pueden conocerse, lo que permite calcular las posiciones de los demás sensores en las coordenadas extrínsecas del mundo real. Las posiciones de todos los dos, tres o más sensores pueden determinarse en las coordenadas intrínsecas utilizando el sistema de seguimiento de dentro hacia fuera.
Como alternativa, o adicionalmente, el sistema de seguimiento posicional puede calibrarse con respecto al sistema de coordenadas extrínseco del mundo real posicionando la herramienta secuencialmente en dos, tres o más puntos de control dentro del volumen rastreado que tengan ubicaciones conocidas en el sistema de coordenadas del mundo real y determinando la posición de la herramienta en el sistema de coordenadas intrínseco en cada punto de control.
Como alternativa, o adicionalmente, el sistema de seguimiento posicional puede calibrarse con respecto al sistema de coordenadas extrínseco del mundo real utilizando sensores (por ejemplo, sensores ópticos) situados en dos, tres o más puntos de control dentro del volumen rastreado que tengan ubicaciones conocidas en el sistema de coordenadas del mundo real, y determinando las posiciones de los sensores en el sistema de coordenadas intrínseco. En algunas realizaciones, el sistema de seguimiento puede recalibrarse periódicamente en relación con los sensores situados en los al menos dos o tres puntos de control.
La ubicación de un punto de control en el sistema de coordenadas extrínseco puede determinarse utilizando una estación total de la manera conocida por los expertos en la técnica de replantear una obra. Así, la posición de un punto de control en la obra puede determinarse por triangulación a partir de dos o más puntos cuyas posiciones se conozcan con precisión en un sistema de coordenadas geodésicas tal como, por ejemplo, Ordnance Survey o WGS 84.
También se describe en la presente memoria un equipo para el replanteo de una obra, que comprende al menos una herramienta portátil de replanteo, un sistema de seguimiento posicional de dentro hacia fuera para localizar la herramienta de replanteo dentro de un volumen rastreado en un sistema de coordenadas intrínseco utilizado por el sistema de seguimiento, y un sistema electrónico de control que comprende un motor de conversión de coordenadas para convertir las coordenadas de la herramienta de replanteo en el sistema de coordenadas intrínseco, según lo determinado por el sistema de seguimiento, a coordenadas correspondientes en un sistema de coordenadas extrínseco del mundo real sobre la base de una transformación para convertir entre los dos sistemas de coordenadas.
Convenientemente, la transformación se obtiene de relacionar las posiciones de uno o más puntos de control de ubicación conocida en el sistema de coordenadas del mundo real con sus posiciones correspondientes en el sistema de coordenadas intrínseco, según lo determinado utilizando el sistema de seguimiento posicional de dentro hacia fuera.
La herramienta de replanteo puede comprender una interfaz de usuario tal como, por ejemplo, una pantalla, para indicar a un usuario la posición de la herramienta de replanteo en el sistema de coordenadas extrínseco del mundo real. Por lo tanto, la herramienta portátil de replanteo puede utilizarse, como se ha descrito anteriormente, para localizar puntos de referencia específicos en la obra para replantear la obra de acuerdo con los planos de construcción. Por ejemplo, la herramienta de replanteo puede comprender una pantalla plana o de “tipo calculadora".
El sistema de seguimiento posicional puede comprender al menos un sensor, que se acopla a la herramienta de replanteo, y al menos una estación base que sea operable para emitir una señal tal como, por ejemplo, radiación electromagnética modulada que sea indicativa de la distancia angular a la estación base. Convenientemente, el al menos un sensor y la al menos una estación base pueden ser como se ha descrito anteriormente.
La herramienta portátil de replanteo puede comprender una sonda con una punta. La herramienta de replanteo puede comprender un sensor situado en la punta de la sonda para posicionar con precisión el sensor en un lugar de la obra. La posición de la herramienta portátil de replanteo puede calcularse como la posición del sensor en la punta de la sonda.
En algunas realizaciones, el sistema de seguimiento posicional puede comprender una pluralidad de estaciones base.
En algunas realizaciones, la al menos una estación base puede ser operable para emitir al menos un haz de radiación electromagnética, y para hacer que el haz barra el volumen rastreado. Convenientemente, la estación base puede ser operable para hacer que el haz barra el volumen rastreado a una velocidad controlada o constante.
El sistema de seguimiento puede comprender un motor de seguimiento para determinar la posición de la herramienta de replanteo en el sistema de coordenadas intrínseco basándose en datos de sensor recibidos del al menos un sensor, por ejemplo, datos de temporización que representen el momento en que el sensor reacciona al haz, o datos de distancia angular codificados dentro del haz. Convenientemente, el motor de seguimiento puede estar alojado dentro de la herramienta portátil de replanteo, de manera que el cálculo de la posición de la herramienta portátil de replanteo dentro del volumen rastreado en el sistema de coordenadas intrínseco se realice completamente dentro de la herramienta portátil de replanteo.
Sin embargo, el motor de seguimiento puede implementarse en un dispositivo de control tal como, por ejemplo, un ordenador que esté separado de la herramienta de replanteo. Esta disposición puede ser especialmente conveniente cuando el equipo comprenda más de una herramienta portátil de replanteo. El dispositivo de control y las una o más herramientas de replanteo pueden estar provistos de transceptores de datos respectivos para comunicar datos entre la o cada herramienta de replanteo y el dispositivo de control. Por ejemplo, los datos de sensor del al menos un sensor de la herramienta de replanteo pueden transmitirse a un dispositivo de control remoto para calcular la posición del sensor dentro del volumen rastreado en el sistema de coordenadas intrínseco, y los datos de seguimiento que representan la posición del sensor en el sistema de coordenadas intrínseco pueden transmitirse a la herramienta de replanteo para su conversión al sistema de coordenadas extrínseco del mundo real utilizando el motor de conversión.
En otra variante, el motor de conversión de coordenadas también puede implementarse dentro de un dispositivo de control separado, y los datos de seguimiento que representan la posición de las una o más herramientas de replanteo en el sistema de coordenadas extrínseco pueden transmitirse a la herramienta de replanteo para mostrárselos al o a los usuarios.
Cuando estén previstas una pluralidad de herramientas de replanteo, cada una de ellas puede transmitir al dispositivo de control separado datos que representen un identificador único que identifique la herramienta de replanteo específica. El dispositivo de control puede ser operable para utilizar los identificadores únicos de las múltiples herramientas de replanteo para garantizar que se envíen los datos de seguimiento correctos a cada herramienta de replanteo.
Las una o más herramientas de replanteo pueden estar conectadas al dispositivo de control para la transferencia de datos por medio de cables o de forma inalámbrica.
En algunas realizaciones, el sistema electrónico de control puede comprender además un motor de calibración para generar la transformación para relacionar el sistema de coordenadas intrínseco con el sistema de coordenadas externo del mundo real utilizando el sistema de seguimiento posicional de dentro hacia fuera para localizar las posiciones en el sistema de coordenadas intrínseco de uno o más puntos de control de ubicación conocida en el sistema de coordenadas del mundo real.
El sistema electrónico de control puede estar convenientemente alojado dentro de la herramienta portátil de replanteo. Sin embargo, en algunas realizaciones, el sistema electrónico de control puede estar dispuesto en un dispositivo de control separado del tipo descrito anteriormente. La posición de la herramienta portátil de replanteo en las coordenadas del mundo real puede calcularse en el dispositivo de control y transmitirse a la herramienta de replanteo para mostrársela a un usuario. Del mismo modo, la transformación puede generarse utilizando el motor de calibración en el dispositivo de control separado y los datos que representan la transformación pueden comunicarse al motor de conversión para convertir coordenadas en el sistema de coordenadas intrínseco a coordenadas correspondientes en el sistema extrínseco.
El equipo tal como se describe en la presente memoria puede incluir además al menos una herramienta de calibración que comprenda al menos un sensor que pueda posicionarse en un lugar de la obra de coordenadas conocidas en el sistema de coordenadas extrínseco del mundo real y rastrearse utilizando el sistema de seguimiento posicional de dentro hacia fuera para determinar sus coordenadas en el sistema de coordenadas intrínseco. El motor de calibración puede utilizarse para relacionar la posición de las coordenadas correspondientes del sensor en los sistemas de coordenadas intrínseco y extrínseco para obtener la transformación.
Convenientemente, el equipo puede incluir una pluralidad de tales herramientas de calibración, cada una de ellas con al menos un sensor.
El equipo puede incluir al menos una herramienta de calibración que tenga una pluralidad de sensores.
La herramienta de calibración puede estar configurada para ser fijada en un punto de control de ubicación conocida para la recalibración periódica del sistema de seguimiento posicional. Para ello, la herramienta de calibración puede comprender un sensor, como se ha descrito anteriormente, y un soporte para fijar la herramienta de calibración a un objeto en un punto de control.
La herramienta de replanteo puede comprender un conjunto para la cabeza. El conjunto para la cabeza incluir una pantalla de realidad aumentada para visualizar información relacionada con la posición de la herramienta de replanteo en la obra.
También se describe en la presente memoria un conjunto para la cabeza para mostrar una imagen virtual de un modelo de información para la edificación (BIM) a un usuario que está posicionado y orientado con respecto a un sistema de coordenadas extrínseco de una obra. El conjunto para la cabeza está especialmente destinado a ser utilizado por constructores y otros profesionales en una obra o en cualquier otro lugar en el que se deba llevar a cabo una tarea de edificación, construcción, adaptación o instalación en un lugar exacto.
Convenientemente, el conjunto para la cabeza puede comprender un artículo para la cabeza tal como, por ejemplo, un casco de construcción que esté configurado para que lo lleve puesto el usuario.
El conjunto para la cabeza puede tener una pluralidad de sensores de seguimiento de posición montados en el mismo que estén configurados para emitir datos de sensor que representen las respuestas de los sensores a una o más señales que se propaguen en el lugar de la obra y que permitan determinar la posición y la orientación del conjunto para la cabeza. Convenientemente, las una o más señales son emitidas por un sistema de seguimiento de posición instalado en la obra. Los expertos en la técnica conocen sistemas de seguimiento de posición adecuados. Un sistema de seguimiento de posición que se utiliza en realizaciones de la presente invención es un sistema de seguimiento posicional de dentro hacia fuera, como se describe posteriormente con más detalle.
Las una o más señales pueden ser emitidas por una o más balizas correspondientes. La ubicación precisa de las una o más balizas en la obra puede ser conocida. Como alternativa, el sistema de seguimiento puede utilizarse para determinar la posición de uno o más puntos de control de ubicación conocida, de manera que la ubicación de otros objetos seguidos por el sistema de seguimiento de posición, tales como el conjunto para la cabeza, pueda calcularse por referencia a la ubicación de los puntos de control.
En algunas realizaciones, la una o más señales pueden consistir en radiación electromagnética, por ejemplo, ondas ópticas o de radio. En algunas realizaciones, se puede utilizar un sistema de seguimiento óptico de haz de barrido, como se describe posteriormente con más detalle. Tal sistema puede emplear señales infrarrojas emitidas por una o más balizas. En algunas realizaciones, se puede utilizar un sistema de seguimiento por WiFi. Sin embargo, algunas realizaciones pueden utilizar otros tipos de señales tales como, por ejemplo, ondas acústicas.
En algunas realizaciones, se puede utilizar el ultrasonido, utilizándose las respuestas de los uno o más sensores de seguimiento de posición a una o más señales ultrasónicas que inciden en el conjunto para la cabeza para triangular la ubicación y la orientación del conjunto para la cabeza en la obra. En el documento US 2018/0128897 A1 se describen un sistema y un método para el seguimiento de la posición de un objeto mediante ultrasonidos.
El conjunto para la cabeza puede comprender un sistema de visualización de realidad aumentada. El sistema de visualización de realidad aumentada puede incluir un conjunto de visualización que tenga una posición de uso dentro del campo de visión del usuario que sea fija en relación con los sensores de seguimiento de posición. Se entenderá que, en algunas realizaciones, el conjunto de visualización puede ser selectivamente movible desde la posición de uso a una posición diferente, por ejemplo, en la que el conjunto de visualización esté retirado de delante de los ojos del usuario. Por ejemplo, el conjunto de visualización puede tener bisagras o estar unido de otro modo al artículo para la cabeza para moverlo entre la posición de uso y la posición de no uso. Sin embargo, en la posición de uso, el conjunto de visualización puede estar posicionado de forma estable en relación con los sensores de seguimiento de posición del artículo para la cabeza, de tal manera que la pantalla del conjunto de visualización no pueda moverse en relación con los sensores de seguimiento de posición cuando está en la posición de uso.
Convenientemente, el conjunto de visualización incluye al menos una pantalla y es capaz de mostrar la imagen virtual al usuario mientras le permite ver su entorno a través del conjunto de visualización. La pantalla puede ser transparente o semitransparente. Por lo general, además de la propia pantalla, el conjunto de visualización puede incluir al menos una lente para ver una imagen transmitida por la luz emitida por la pantalla. La lente puede colocarse adecuadamente entre la pantalla y los ojos del usuario. En algunas realizaciones, la lente puede comprender un colimador, de manera que la imagen virtual le parezca al usuario que está situada en el infinito. Como alternativa, la lente puede hacer que la luz sea divergente, de manera que la imagen virtual aparezca a una distancia focal frente al usuario que esté más cerca que el infinito. Por ejemplo, en algunas realizaciones, se puede utilizar una lente junto con la pantalla para que la imagen virtual representada por la luz emitida por la pantalla le parezca al usuario que está a una distancia focal de entre 2 y 10 m. Se apreciará que las características del conjunto de visualización también definirán el campo de visión del conjunto de visualización, el tamaño de su pupila de salida y otros aspectos similares. Éstas y otras propiedades y características físicas y ópticas del conjunto de visualización pueden tenerse en cuenta a la hora de posicionar correctamente la imagen virtual del modelo de información para la edificación de acuerdo con la presente invención, como se describe posteriormente con más detalle.
El sistema de visualización de realidad aumentada puede estar configurado para recibir datos de imagen que representen la imagen virtual del modelo de información para la edificación y para visualizar la imagen virtual en la pantalla. La imagen virtual puede ser percibida por el usuario como si fuera proyectada por una cámara virtual centrada en el ojo del usuario.
El conjunto para la cabeza puede comprender además un sensor de posición de pantalla para detectar la posición de la pantalla en relación con la cabeza del usuario y para emitir datos de posición de pantalla que representen la misma. Adicionalmente o como alternativa, el conjunto para la cabeza puede incluir un dispositivo de alineación para garantizar que la pantalla esté correctamente colocada en relación con el artículo para la cabeza. Los expertos en la técnica entenderán que la posición del conjunto para la cabeza en la cabeza del usuario puede cambiar durante su uso, incluso cuando el usuario mira hacia el mismo lugar. Esto puede ser especialmente cierto cuando el usuario está ocupado en operaciones manuales del tipo que típicamente implica la realización de tareas de construcción en una obra. De acuerdo con la invención, es importante garantizar que la cámara virtual permanezca correctamente alineada con el ojo del usuario, de modo que éste vea la imagen virtual en el lugar correcto en relación con el mundo real. Por lo tanto, el sensor de posición de pantalla se utiliza de acuerdo con la invención para garantizar que los cambios en la posición del conjunto para la cabeza, en particular las una o más pantallas, en relación con la cabeza del usuario se tengan en cuenta al posicionar la imagen virtual del modelo de información para la edificación en la o las pantallas.
El conjunto para la cabeza puede comprender un sistema electrónico de control. El sistema electrónico de control puede comprender un motor de posicionamiento de modelo para recibir y procesar datos de modelo que representen el modelo de información para la edificación definido en un sistema de coordenadas extrínseco del mundo real y utilizar una transformación entre el sistema de coordenadas extrínseco y un sistema de coordenadas intrínseco para posicionar y orientar el modelo en el sistema de coordenadas intrínseco.
El sistema electrónico de control puede comprender un motor de renderización de imágenes para recibir datos de seguimiento de conjunto para la cabeza que representen la posición y la orientación del artículo para la cabeza en la obra en el sistema de coordenadas intrínseco, renderizar una imagen virtual del modelo en relación con la posición y la orientación del artículo para la cabeza y transmitir la imagen a las una o más pantallas, donde un usuario pueda verla como imagen virtual del modelo.
El sistema electrónico de control puede comprender un subsistema de seguimiento de conjunto para la cabeza que esté configurado para, a partir de los datos de sensor, determinar la ubicación y la orientación del conjunto para la cabeza en la obra dentro de un sistema de coordenadas intrínseco definido por el sistema de seguimiento de posición, y para emitir datos de seguimiento de conjunto para la cabeza que representen las mismas.
El sistema electrónico de control puede comprender un motor de conversión de coordenadas configurado para convertir datos de localización entre el sistema de coordenadas intrínseco y el sistema de coordenadas extrínseco sobre la base de una transformación. En algunas realizaciones, la transformación puede obtenerse relacionando las coordenadas de uno o más puntos de control de ubicación conocida en el sistema de coordenadas extrínseco con sus coordenadas correspondientes en el sistema de coordenadas intrínseco. Las coordenadas de los uno o más puntos de control en el sistema de coordenadas intrínseco pueden obtenerse de datos de sensor recibidos de al menos un sensor que utilice el sistema de seguimiento de posición.
El sistema electrónico de control puede estar configurado para recibir los datos de seguimiento de conjunto para la cabeza, los datos de posición de pantalla y datos de modelo que representan un modelo de información para la edificación definido en el sistema de coordenadas extrínseco, procesar los datos de modelo utilizando el motor de conversión de coordenadas para producir datos de modelo derivados definidos en el sistema de coordenadas intrínseco y, utilizando los datos de seguimiento del conjunto para la cabeza y los datos de posición de pantalla, renderizar una imagen virtual del modelo de información para la edificación en relación con la posición y la orientación del artículo para la cabeza en la obra y la posición de la pantalla en la cabeza del usuario, generar datos de imagen que representen la imagen virtual y transmitir los datos de imagen al sistema de visualización de realidad aumentada para que el usuario los vea en la pantalla. De este modo, un objetivo de la invención es que el usuario pueda ver una imagen virtual del modelo de información para la edificación que esté correctamente posicionada y orientada en la obra en el mundo real dentro de las tolerancias normales de construcción, superponiéndose a la vista del usuario de la obra de construcción, de modo que se le informe dónde llevar a cabo una o más tareas de construcción con un grado de precisión suficiente para garantizar que la tarea se lleva a cabo de acuerdo con el modelo de información para la edificación, posiblemente dentro de una tolerancia admisible especificada.
En algunas realizaciones, el sistema electrónico de control puede comprender un motor de alineación para asegurar que la pantalla esté correctamente posicionada en relación con el artículo para la cabeza. El motor de alineación puede utilizarse además o en lugar del sensor de posición de pantalla.
Los expertos en la técnica apreciarán que los conjuntos para la cabeza de la presente invención pueden utilizarse para replantear una obra mostrando a un trabajador en la obra una imagen virtual que represente una tarea de construcción que debe llevarse a cabo. La imagen virtual puede visualizarse en su posición y orientación correctas en la obra, tal como se define en el modelo BIM, en contexto relativo al trabajador. En virtud de la transformación entre el sistema de coordenadas intrínseco del sistema de seguimiento posicional y el sistema de coordenadas extrínseco del mundo real establecido para la obra, el modelo BIM puede posicionarse y orientarse correctamente en el sistema de coordenadas intrínseco utilizado por el sistema de seguimiento y, en virtud del seguimiento de la posición y la orientación del artículo para la cabeza, puede mostrarse al trabajador en su contexto adecuado. De este modo, una vez localizados los puntos de control mediante métodos convencionales tales como, por ejemplo, con una estación total, resulta innecesario localizar otros puntos de referencia o marcadores en la obra o interpretar los planos de construcción en cuanto a cómo debe llevarse a cabo la tarea en la obra en relación con los puntos de referencia o marcadores.
En cambio, de acuerdo con la presente invención, una vez que se han localizado los puntos de control mediante métodos convencionales, las tareas que se deben llevar a cabo en la obra pueden mostrarse directamente a un trabajador en la ubicación y orientación correctas, evitando la necesidad de interpolación entre puntos de referencia o marcadores o la interpretación de los planos de construcción.
Convenientemente, el sistema electrónico de control puede comprender además un motor de seguimiento para procesar datos de sensor recibidos de los sensores del artículo para la cabeza para calcular la posición y la orientación del artículo para la cabeza en la obra en el sistema de coordenadas intrínseco.
En algunas realizaciones, el sistema electrónico de control puede comprender además un motor de seguimiento de posición de pantalla para procesar datos de posición de pantalla recibidos de los uno o más sensores de posición de pantalla del artículo para la cabeza para determinar la posición de las una o más pantallas en el artículo para la cabeza en relación con los ojos del usuario.
El sistema electrónico de control puede comprender uno o más procesadores, una o más unidades de memoria y al menos un dispositivo de almacenamiento de datos que almacene software que comprenda un módulo de posicionamiento de modelo que sea ejecutable por los uno o más procesadores para procesar los datos de modelo para posicionar y orientar el modelo en el sistema de coordenadas intrínseco utilizando la transformación, y un módulo de renderización de imágenes que sea ejecutable por los uno o más procesadores para procesar los datos de seguimiento, los datos de modelo y datos opcionales de posicionamiento de pantalla para renderizar la imagen virtual del modelo BIM en relación con la posición y la orientación del artículo para la cabeza y, opcionalmente, en relación con la posición de la pantalla en la cabeza del usuario. Se apreciará que el sistema electrónico de control puede comprender uno o más microcontroladores para implementar el motor de posicionamiento de modelo y/o el motor de renderización de imágenes, o uno o más microprocesadores con dispositivos separados de memoria y almacenamiento de datos que estén interconectados de la manera habitual por un bus de datos local.
El sistema electrónico de control puede comprender además al menos un dispositivo de comunicación de datos.
El software puede incluir un módulo de descarga de modelos que sea ejecutable por los uno o más procesadores para recibir los datos de modelo desde un servidor remoto a través del dispositivo de comunicación de datos.
En algunas realizaciones, el software puede comprender además un módulo receptor de transformación que sea ejecutable por los uno o más microprocesadores para recibir y almacenar la transformación en el al menos un dispositivo de almacenamiento de datos.
En algunas realizaciones, el software puede comprender además un módulo de seguimiento que sea ejecutable por los uno o más procesadores para procesar los datos de sensor recibidos de los sensores del conjunto para la cabeza para calcular la posición y la orientación del artículo para la cabeza en la obra en el sistema de coordenadas intrínseco.
Como se ha descrito anteriormente, el artículo para la cabeza según algunas realizaciones de la invención puede comprender un casco protector tal como, por ejemplo, un casco de construcción, con las gafas de realidad aumentada unidas al casco o separadas del mismo.
La presente invención también comprende un software ejecutable por ordenador para realizar un método de replanteo de una obra de acuerdo con la presente invención como se describe en la presente memoria.
Por lo tanto, en otro aspecto más de la presente invención, se proporciona un programa informático para el control de equipos de replanteo de una obra, que comprende un módulo de seguimiento para determinar la posición y/o la orientación de una herramienta portátil de replanteo en un sistema de coordenadas intrínseco y un módulo de conversión de coordenadas para convertir las coordenadas de la herramienta de replanteo en el sistema de coordenadas intrínseco a coordenadas correspondientes en un sistema de coordenadas extrínseco del mundo real utilizando una transformación para convertir entre los sistemas de coordenadas intrínseco y extrínseco.
Por lo tanto, de acuerdo con otro aspecto más de la invención, el módulo de conversión de coordenadas puede ser ejecutable por un procesador para aplicar la transformación a datos de seguimiento que representen la posición y/u orientación de la herramienta de replanteo en el sistema de coordenadas intrínseco, según lo calculado por el módulo de seguimiento, para determinar la posición y/u orientación de la herramienta de replanteo en el sistema de coordenadas extrínseco.
Como se ha descrito anteriormente, la transformación se obtiene adecuadamente de relacionar las posiciones de uno o más puntos de control de ubicación conocida en el sistema de coordenadas del mundo real con sus correspondientes posiciones en el sistema de coordenadas intrínseco, tal y como se determina utilizando un sistema de seguimiento posicional de dentro hacia fuera.
El módulo de seguimiento puede ser ejecutable por un procesador para calcular la posición y/u orientación de la herramienta de replanteo basándose en datos de sensor que representan la salida de uno o más sensores en la herramienta de replanteo que reaccionan a señales (por ejemplo, radiación electromagnética modulada) emitidas por al menos una estación base en la obra.
Como se ha descrito anteriormente, los uno o más sensores pueden ser sensores optoelectrónicos tales como, por ejemplo, fotodiodos que sean sensibles a la luz incidente de las una o más estaciones base.
La luz modulada puede variar temporalmente. Los uno o más sensores pueden generar señales eléctricas, que pueden convertirse en pulsos digitales que se dotan de un sello de tiempo y se agregan (por ejemplo, cuando hay más de un sensor) para proporcionar datos de temporización indicativos de una distancia angular de un sensor a una estación base.
En algunas realizaciones, la luz modulada puede estar modulada para codificar datos.
En algunas realizaciones, los datos pueden representar la fase absoluta de la luz para permitir que se calcule una distancia angular entre un sensor y una estación base de la que emana la luz, basándose en el momento en que la luz incide en el sensor.
En algunas realizaciones, los datos pueden representar un rumbo con respecto a una estación base de la que emana la luz. La luz puede ser un ser que barra el volumen rastreado, y los datos pueden actualizarse dinámicamente a medida que cambia el rumbo del haz en relación con la estación base.
Por lo tanto, el módulo de seguimiento puede ser ejecutable por un procesador para calcular la posición y/o la orientación de la herramienta de replanteo basándose en tales datos de sensor de los sensores. En algunas realizaciones, como se ha descrito anteriormente, el módulo de seguimiento puede ser ejecutable por un procesador para calcular la posición y/o la orientación de la herramienta de replanteo basándose en datos de movimiento que representen la salida de una unidad IMU, que se silencie periódicamente con información más precisa sobre la posición y/o la orientación obtenida de los datos que representan la salida de los uno o más sensores.
El software de acuerdo con el aspecto adicional de la invención puede comprender además un módulo de calibración ejecutable por un procesador para determinar las posiciones en el sistema de coordenadas intrínseco de una pluralidad de puntos de control de ubicaciones conocidas en el sistema de coordenadas extrínseco del mundo real a partir de datos que representan una respuesta de un sensor en cada punto de control a la luz modulada y para generar una transformación para relacionar el sistema de coordenadas intrínseco con el sistema de coordenadas extrínseco del mundo real.
En algunas realizaciones, el software puede comprender además un módulo de visualización ejecutable por un procesador para controlar una pantalla para visualizar la posición de la herramienta de replanteo determinada por el módulo de seguimiento en las coordenadas extrínsecas del mundo real. En algunas realizaciones, la pantalla puede estar prevista en la herramienta de replanteo. En algunas realizaciones, la pantalla puede estar prevista en un conjunto para la cabeza, por ejemplo, que comprenda una pantalla de realidad aumentada.
En algunas realizaciones, el software puede comprender además un módulo de comunicación de datos ejecutable por un procesador para recibir y almacenar datos de modelo que representan un modelo de información para la edificación (BIM) definido en el sistema de coordenadas extrínseco del mundo real.
En algunas realizaciones, el software puede comprender además un módulo de posicionamiento de modelo ejecutable por un microprocesador para convertir la posición y la orientación del modelo de información para la edificación representado por los datos de modelo, del sistema de coordenadas extrínseco al sistema de coordenadas intrínseco, utilizando la transformación.
En algunas realizaciones, el software puede comprender además un módulo de renderización de imágenes ejecutable por un procesador para renderizar una imagen virtual del modelo de información para la edificación para su visualización en una pantalla de realidad aumentada que forme parte de la herramienta de replanteo utilizando los datos de modelo convertidos y la posición y la orientación de la herramienta de replanteo, representadas por los datos de seguimiento.
En algunas realizaciones, el software puede comprender además un módulo receptor de transformación ejecutable por un procesador para recibir y almacenar la transformación en un dispositivo de almacenamiento de datos.
En algunas realizaciones de la invención, el programa informático puede comprender un módulo de alineación para asegurar que las gafas estén correctamente posicionadas en relación con el casco protector.
En otro aspecto de la presente invención, se proporciona un software de calibración para calibrar un sistema de seguimiento posicional de dentro hacia fuera para su uso en el replanteo de una obra, que comprende un código de máquina ejecutable por un procesador para (i) recibir datos de localización de puntos de control que representan las posiciones de una pluralidad de puntos de control en la obra en un sistema de coordenadas extrínseco del mundo real, (ii) recibir datos de seguimiento de puntos de control que representan las posiciones de los puntos de control en un sistema de coordenadas intrínseco utilizado por el sistema de seguimiento, y (iii) relacionar las posiciones de los puntos de control en los sistemas de coordenadas intrínseco y extrínseco para obtener una transformación entre los sistemas de coordenadas.
Convenientemente, el software de calibración puede comprender un código de máquina ejecutable por un procesador para recibir y procesar datos de sensor que representan la respuesta de un sensor en cada punto de control a radiación electromagnética modulada emitida por al menos una estación base en la obra, que es indicativa de una distancia angular a la estación base, para calcular las posiciones de los puntos de control en el sistema de coordenadas intrínseco.
Ventajosamente, el código de máquina puede ser ejecutable para repetir las etapas (i) a (iii) periódicamente para refrescar la transformación.
Breve descripción de los dibujos
Lo que sigue es una descripción a modo de ejemplo únicamente con referencia a los dibujos adjuntos de realizaciones de la invención.
En los dibujos:
La Figura 1 es una representación esquemática de una obra en la que se instala un sistema de seguimiento posicional de dentro hacia fuera para seguir la posición de una herramienta portátil de replanteo de acuerdo con la presente invención. En la obra se encuentran una pluralidad de puntos de control de ubicaciones conocidas para calibrar la herramienta de replanteo con respecto a un sistema de coordenadas del mundo real.
La Figura 2 es una representación esquemática de un sensor optoelectrónico que se incorpora a una herramienta de replanteo de acuerdo con la invención.
La Figura 3 es una representación esquemática de una pluralidad de sensores optoelectrónicos para su uso en una herramienta de calibración multisensor de acuerdo con la presente invención.
La Figura 4 ilustra esquemáticamente un método de calibración de una herramienta de replanteo con respecto a un sistema de coordenadas extrínseco del mundo real de acuerdo con la invención, utilizando una pluralidad de puntos de control de ubicación conocida dentro de un volumen rastreado.
La Figura 5A ilustra esquemáticamente un método alternativo de calibración de una herramienta de replanteo con respecto a un sistema de coordenadas extrínseco del mundo real de acuerdo con la invención, utilizando un único punto de control de ubicación conocida y una herramienta de calibración multisensor.
La Figura 5B ilustra esquemáticamente un método de calibración de un sistema de seguimiento posicional con un sistema de coordenadas intrínseco con respecto a un sistema de coordenadas extrínseco del mundo real utilizando una pluralidad de puntos de control de ubicación conocida dentro de un volumen rastreado definido por el sistema de seguimiento. La Figura 6 ilustra esquemáticamente una herramienta de calibración multisensor para su uso en la calibración de un sistema de seguimiento posicional de acuerdo con la invención.
La Figura 7 es una ilustración esquemática de un típico modelo de información para la edificación (modelo BIM). La Figura 8 es una ilustración esquemática de una herramienta portátil de replanteo de acuerdo con la invención. La Figura 9 muestra esquemáticamente componentes electrónicos de la herramienta portátil de replanteo de la Figura 8. La Figura 10 es un diagrama de flujo que representa el funcionamiento de la herramienta portátil de replanteo de las Figuras 8 y 9 en un modo de calibración.
La Figura 11 es un diagrama de flujo que representa el funcionamiento de la herramienta portátil de replanteo de las Figuras 8 y 9 en un modo de replanteo.
La Figura 12 es una ilustración esquemática en perspectiva desde arriba y hacia un lado de un casco protector que incluye una pantalla de realidad aumentada de acuerdo con la presente invención.
La Figura 13 ilustra componentes electrónicos del casco protector de la Figura 12, incluyendo un módulo de seguimiento y un módulo de visualización de realidad aumentada.
La Figura 14 es un diagrama de flujo que representa el funcionamiento del módulo de seguimiento del casco protector de las Figuras 12 y 13.
La Figura 15 es un diagrama de flujo que representa el funcionamiento del módulo de visualización de realidad aumentada del casco protector de las Figuras 12 y 13.
La Figura 16 representa esquemáticamente el modelo BIM de la Figura 7 correctamente posicionado y orientado con respecto a la obra de la Figura 1.
La Figura 17 ilustra esquemáticamente un método de replanteo de una obra de acuerdo con la presente invención utilizando el casco protector con gafas de realidad aumentada de las Figuras 12 y 13.
La Figura 18 muestra la vista de un usuario de una imagen virtual en una pantalla cuando la pantalla está centrada en relación con los ojos del usuario. La imagen virtual está situada correctamente en relación con la vista del mundo real del usuario a través de la pantalla.
La Figura 19 muestra la vista de un usuario de la misma imagen virtual de la Figura 18 con la pantalla desplazada de la posición central. La imagen virtual está situada de forma incorrecta en relación con la vista del usuario del mundo real a través de la pantalla.
La Figura 20 ilustra esquemáticamente cómo debe ajustarse la posición de la imagen virtual de la Figura 18 en la pantalla para compensar el desplazamiento de la pantalla desde la posición central, de forma que la imagen permanezca correctamente situada en relación con la vista del mundo real del usuario a través de la pantalla.
La Figura 21 es un diagrama de flujo que ilustra el funcionamiento de un sistema electrónico de control para un conjunto de realidad aumentada para la cabeza según la presente invención, en el que se renderiza una imagen virtual sobre la base de datos que representan la imagen, datos de seguimiento del conjunto para la cabeza, datos de seguimiento ocular, datos de conversión de coordenadas y las propiedades de la pantalla.
Descripción detallada
Sistema de seguimiento de posición
En la Figura 1 se indica esquemáticamente una obra 1. Se ubican con precisión tres puntos 10a, 10b y 10c de control en el sitio 1 de control utilizando una estación total de la manera conocida por los expertos en la técnica de la topografía. En particular, los puntos 10a, 10b, 10c de control se posicionan en la obra 1 por triangulación a partir de dos o más puntos de ubicación absoluta conocida, tales como puntos de triangulación geográfica, puntos de referencia u otras características geográficas conocidas en la obra o adyacentes a la misma. Las ubicaciones de los puntos 10a, 10b, 10c pueden expresarse en cualquier sistema de coordenadas del mundo real adecuado tal como, por ejemplo, referencias WGS 84 u Ordnance Survey.
Aunque en la Figura 1 se indican tres puntos 10a, 10b, 10c de control, en otras realizaciones se pueden establecer más de tres puntos de control.
En la obra 1 se instala un sistema 100 de seguimiento posicional de dentro hacia fuera basado en láser. En la presente realización, el sistema 100 de seguimiento comprende una pluralidad de estaciones base 102 separadas entre sí, cada una de las cuales puede operarse selectivamente para emitir un pulso omnidireccional 103 de sincronización de luz infrarroja y comprende dos rotores preparados para hacer que dos haces ópticos lineales 104, 105 no visibles y en forma de abanico barran la obra 1 en ejes mutuamente ortogonales. En la presente realización, las estaciones base 102 están separadas entre sí por una distancia de hasta unos 5-10 m. En otras realizaciones, dependiendo de las capacidades del sistema de seguimiento posicional de dentro hacia fuera que se emplee, las estaciones base 102 pueden estar situadas a más de 10 m de distancia.
Como se muestra en la Figura 1, en la presente realización se emplean cuatro estaciones base 102, pero en otras realizaciones pueden utilizarse menos de cuatro estaciones base 102, por ejemplo, una, dos o tres estaciones base 102, o más de cuatro estaciones base. El número total de estaciones base 102 utilizadas dependerá del área cubierta por la obra 1. Si se utilizan más estaciones base 102, se puede cubrir una mayor área.
En algunas realizaciones, especialmente cuando la obra 1 cubre sólo un área pequeña, una sola estación base 102 puede ser suficiente, como se describe posteriormente, pero preferiblemente hay al menos dos estaciones base 102.
Como se ha mencionado anteriormente, el documento WO 2016/077401 A1 (Valve Corporation) describe un sistema adecuado de seguimiento posicional de dentro hacia fuera, pero pueden utilizarse otros sistemas de seguimiento posicional, siempre que ofrezcan el nivel de precisión requerido para el replanteo de una obra.
Por ejemplo, en algunas realizaciones, puede emplearse un sistema alternativo de seguimiento posicional de dentro hacia fuera (no mostrado), que comprende dos o más estaciones base, cada una de las cuales es operable para hacer que dos haces ópticos lineales, no visibles, en forma de abanico, barran la obra 1 en ejes mutuamente transversales. Los dos haces generados por cada estación base pueden producirse mediante láseres montados en rotores separados, como se ha descrito anteriormente, o mediante dos láseres montados en un único rotor, con una disposición optomecánica adecuada para crear los dos haces que efectúan barridos en direcciones mutuamente transversales. Los haces pueden tener frecuencias mutuamente diferentes y pueden servir de ondas portadoras para codificar datos que representen un rumbo (por ejemplo, acimut o inclinación, respectivamente) con respecto a la estación base. En tal disposición, no es necesario un pulso omnidireccional de sincronización.
En particular, el sistema de seguimiento debe ser capaz de localizar un objeto rastreado con una precisión de no más de 3 mm en cada dirección, preferiblemente < 1 mm. Esto contrasta con un sistema de seguimiento posicional basado en GPS, que es capaz de una precisión en un intervalo de sólo alrededor de 1-5 cm. Aunque tal precisión puede ser suficiente para trabajos de construcción en exteriores, no es adecuada para trabajos más detallados en interiores.
De acuerdo con la presente invención, por lo tanto, el sistema de seguimiento posicional de dentro hacia fuera debe tener una precisión que sea al menos, y preferiblemente mejor que, ±1 mm.
En el momento de redactar la presente memoria, un sistema de seguimiento adecuado de acuerdo con la descripción del documento WO 2016/077401 A1 está disponible comercialmente en Valve Corporation con el nombre comercial "Lighthouse".
En el sistema de seguimiento "Lighthouse", cada uno de los dos rotores de cada estación base 102 lleva una pluralidad de diodos láser infrarrojos que emiten un haz de luz láser. En funcionamiento, los rotores giran 180° fuera de fase entre sí a una frecuencia de 60 Hz. En otras realizaciones, uno o más haces pueden efectuar barridos a una frecuencia de 30-90 Hz o 45-75 Hz. Cada haz láser es reflejado por un espejo dentro de la estación base 102 para generar un haz 104, 105 respectivo en abanico, que barre la obra 1. Los haces láser 104, 105 emitidos por las estaciones base 102 definen un volumen rastreado 110 en la obra 1, como puede verse mejor en las Figuras 4, 5A y 5B.
El pulso omnidireccional de sincronización es emitido por una pluralidad de LED dentro de cada estación base 102 al comienzo de cada ciclo de barrido a una frecuencia de 120 Hz, para inundar de luz el volumen rastreado 110. Por esta razón, se prefiere una fuente de luz de gran ángulo tal como, por ejemplo, los LED para generar el pulso de sincronización.
Mediante el barrido de la obra 1 por parte de los haces láser 104, 105 a una velocidad angular constante y precisa y la sincronización de los haces láser 104, 105 con un pulso 103 de sincronización temporizado con precisión, cada estación base 102 genera dos haces ópticos 104, 105 mutuamente ortogonales y modulados espacialmente de forma variable en el tiempo que pueden ser detectados por sensores optoelectrónicos dentro del volumen rastreado 110 para localizar la posición y/o la orientación de uno o más objetos rastreados dentro del volumen rastreado 110, como se describe posteriormente con más detalle.
Cuando el sistema 100 de seguimiento posicional comprende dos o más estaciones base 102, las estaciones base 102 pueden estar sincronizadas entre sí a través de una conexión por cable, o de forma inalámbrica, para garantizar que los pulsos omnidireccionales 103 de sincronización generados por las respectivas estaciones base 102 se emitan en momentos diferentes, y para garantizar que los haces láser 104, 105 emitidos por las estaciones base 102 barran el volumen rastreado 110 fuera de fase entre sí, de modo que cada pulso y cada haz láser 104, 105 de cada estación base 102 pueda ser detectado individualmente por cada sensor.
Como se describe en el documento WO 2016/077401 A1, los pulsos 103 de sincronización y/o los haces láser 104, 105 de barrido de una pluralidad de estaciones base 102 pueden diferenciarse entre sí para facilitar la desambiguación de las señales de las diferentes estaciones base 102 y de cualquier otra fuente de luz que interfiera dentro del volumen rastreado 110. Por ejemplo, los pulsos 103 de sincronización y/o los haces 104, 105 de barrido de cada estación base 102 pueden tener una longitud de onda óptica o una frecuencia de modulación de amplitud diferente a la de la o las otras estaciones base 102, o pueden codificar datos de identificación de la estación base.
La posición y/o la orientación de un objeto dentro del volumen rastreado 110 pueden determinarse utilizando uno o más sensores 202 fijados al objeto. Si el objeto tiene un solo sensor 202, se necesitan dos o más estaciones base 102 para definir la posición del objeto dentro del volumen rastreado 110. Por otro lado, una sola estación base 102 puede ser suficiente, si el objeto está provisto de una pluralidad de sensores 202 y se conocen las posiciones relativas de los sensores 202 en el objeto.
En la presente realización, cada sensor 202 comprende un fotodiodo 204 de silicio y una circuitería amplificadora/detectora 205, como se muestra en la Figura 2, pero pueden emplearse otros sensores 202 adecuados conocidos por los expertos en la técnica, dependiendo de las propiedades de los pulsos omnidireccionales 103 de sincronización y de los haces 104, 105 de luz espacialmente modulados que barren el volumen rastreado 110.
Cada fotodiodo 204 está conectado a un convertidor 205 de luz a digital que emite un pulso digital cuando la luz de una estación base 102 incide en el fotodiodo 204. El convertidor 205 de luz a digital comprende un amplificador, un detector de envolvente discreto y un comparador rápido con una cantidad relativamente pequeña de histéresis, que emite un pulso digital cada vez que un pulso 103 de sincronización incide en el sensor 202, o cada vez que un haz de luz 104, 105 de una estación base 102 pasa por el mismo. El pulso digital abarca el tiempo en que el sensor 202 es iluminado por el pulso 103 o el haz 104, 105, y el circuito está diseñado de manera que las posiciones marginales representen con precisión el paso del pulso o del haz, independientemente de la orientación del sensor 202 con respecto a la estación base 102.
Los pulsos digitales generados por el convertidor 205 de luz a digital se dotan de un sello de tiempo utilizando una agrupación de puertas programable de campo (FPGA) 207 y un microcontrolador 208 para generar datos de temporización para calcular la posición del sensor 202 en el volumen rastreado 110, como se describe posteriormente.
Cuando el objeto rastreado tiene una pluralidad de sensores 202, los pulsos digitales recibidos de todos los sensores 202 son recibidos, dotados de un sello de tiempo y agregados por una sola FPGA 207, como se ilustra en la Figura 3.
En las realizaciones en las que se codifican datos de rumbo dentro de cada haz 104, 105, como se ha descrito anteriormente, el convertidor 205 de luz a digital puede comprender además una salida de datos para emitir los datos de rumbo demodulados a partir del haz.
El sistema de seguimiento posicional de dentro hacia fuera utilizado en la presente realización comprende, por lo tanto, una pluralidad de estaciones base 102 y al menos un sensor 202 en un objeto que debe ser rastreado dentro del volumen rastreado 110 definido por los haces láser 104, 105 de barrido emitidos por las estaciones base 102.
A partir del tiempo transcurrido entre el pulso omnidireccional 103 de sincronización emitido por una estación base 102 y el momento en que uno de los haces 104, 105 de una estación base 102 pasa por un sensor 202, representado por los datos de temporización emitidos por la FPGA 207, es posible calcular una distancia angular entre la estación base 102 y el sensor 202. A partir de las distancias angulares entre el sensor 202 y dos o más estaciones base 102, es posible triangular la posición del sensor 202 en relación con las estaciones base 102. Calculando las distancias angulares entre el sensor 202 y las dos o más estaciones base 102 en los planos ortogonales definidos por los haces 104, 105 de barrido emitidos por cada estación base 102, es posible determinar la posición del sensor 202 en relación con las estaciones base 102 en tres dimensiones.
De este modo, se entenderá que el sistema 100 de seguimiento posicional de dentro hacia fuera define un sistema de coordenadas intrínseco mediante el cual se puede definir la ubicación de cualquier objeto rastreado dentro del volumen rastreado 110.
Como se ha mencionado anteriormente, en una realización en la que un objeto rastreado tiene múltiples sensores 202, el posicionamiento del objeto dentro del volumen rastreado 110 puede lograrse utilizando sólo una estación base 102, siempre que se conozcan las posiciones relativas de los múltiples sensores 202 en el objeto, mediante una triangulación de las distancias angulares entre cada uno de los sensores 202 y la única estación base 102.
Calibrar el sistema de seguimiento posicional con respecto a coordenadas del mundo real
Un aspecto clave de la presente invención comprende relacionar el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional con coordenadas extrínsecas del mundo real (la obra). Como se ha mencionado anteriormente, las posiciones de los puntos 10a, 10b, 10c de control se conocen en un sistema de coordenadas del mundo real. Por lo tanto, el sistema 100 de seguimiento puede calibrarse con respecto al sistema de coordenadas extrínseco de acuerdo con una realización de la presente invención, moviendo manualmente una herramienta 250 de calibración que comprende un único sensor 202, como se muestra en la Figura 1, a cada punto 10a, 10b, 10c de control por turno, como se ilustra en la Figura 4, y determinando las ubicaciones de los puntos 10a, 10b, 10c de control en el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional. Una vez que se conocen las ubicaciones de los puntos 10a, 10b, 10c de control en los sistemas de coordenadas intrínseco y extrínseco del mundo real, se puede obtener una transformación matemática para convertir las coordenadas en el sistema de coordenadas intrínseco del sistema 100 de seguimiento a coordenadas en el sistema de coordenadas extrínseco del mundo real o viceversa.
Convenientemente, estas etapas de calibración pueden llevarse a cabo utilizando un ordenador (no mostrado) que esté programado con un software de calibración de acuerdo con la presente invención. Cuando se ejecuta, el software de calibración opera el ordenador para recibir datos de localización de puntos de control que representan las posiciones de los puntos 10a, 10b, 10c de control en el sistema de coordenadas extrínseco del mundo real, recibiendo datos de seguimiento de puntos de control que representan las posiciones de los puntos de control en el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional sobre la base de los datos de temporización del sensor 202 de la herramienta 250 de calibración cuando se posiciona en cada punto 10a, 10b, 10c de control por turnos, y relacionando las posiciones de los puntos 10a, 10b, 10c de control en los sistemas de coordenadas intrínseco y extrínseco para producir una transformación entre los sistemas de coordenadas.
Por lo tanto, el software de calibración puede comprender un código de máquina ejecutable por el ordenador para recibir y procesar los datos de temporización que representan el momento en que el sensor 202, cuando está situado en cada punto 10a, 10b, 10c de control, reacciona a los haces 104, 105 de luz espacialmente modulados procedentes de las estaciones base 102 en la obra 1 para calcular las posiciones de los puntos 10a, 10b, 10c de control en el sistema de coordenadas intrínseco.
La Figura 5A ilustra un método alternativo de calibración del sistema 100 de seguimiento con respecto a coordenadas del mundo real de acuerdo con una realización diferente de la invención.
En la Figura 5A, un único punto 10 de control está situado en un punto conocido de la obra 1. Como se ha descrito anteriormente, la ubicación del punto 10 de control en coordenadas del mundo real puede ser determinada por un ingeniero de obras utilizando una estación total y triangulando desde dos o más puntos de ubicación conocida en la obra 1 o adyacentes a la misma de la manera convencional.
Una herramienta 350 de calibración con múltiples sensores, que está equipada con una pluralidad de sensores 202a, 202b, 202c... 202n, se coloca en el punto 10 de control. En la Figura 6 está ilustrado esquemáticamente un ejemplo de calibración de múltiples sensores. Como puede verse, la herramienta 350 de calibración con múltiples sensores comprende un cuerpo 370 que comprende una parte 371 de mango, una parte intermedia 372, que está en ángulo con respecto a la parte 371 de mango, y una parte 374 de montaje que comprende una superficie final plana 375 y está conformada con uno o más agujeros 380 que se extienden a través de ella para fijar la herramienta 350 de calibración a un objeto en el punto 10 de control.
Como puede verse en la Figura 6, los sensores 202a, 202b, 202c...202n están previstos en ubicaciones espaciadas en la parte intermedia 372 de la herramienta 350. Las posiciones relativas de los sensores 202a, 202b, 202c... 202n son conocidas. Como se ha descrito anteriormente, la posición y la orientación de la herramienta 350 de calibración con múltiples sensores dentro del volumen rastreado 110 puede calcularse a partir de los datos de temporización generados por los múltiples sensores 202a, 202b, 202c... 202n. A partir de la posición y la orientación de la herramienta 350 de calibración dentro del volumen rastreado 110, las disposiciones relativas conocidas de los sensores 202a, 202b, 202c... 202n en la herramienta 350 de calibración y la ubicación conocida del punto 10 de control en las coordenadas extrínsecas del mundo real, puede calcularse una transformación entre el sistema de coordenadas extrínseco del mundo real y el sistema de coordenadas intrínseco.
En la Figura 5B está ilustrado otro método de calibración más para producir una transformación entre el sistema de coordenadas del mundo real en la obra 1 y el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional.
En la Figura 5B, hay tres puntos 10a, 10b, 10c de control de ubicación conocida en la obra 1 de la misma manera que se muestra en las Figuras 1 y 4 descritas anteriormente. Las posiciones de los puntos 10a, 10b, 10c de control en las coordenadas extrínsecas del mundo real se conocen mediante técnicas topográficas convencionales, como se ha descrito anteriormente.
Sin embargo, a diferencia de las realizaciones descritas con referencia a las Figuras 4 y 5A, en la Figura 5B, un sensor 202 está posicionado permanentemente en cada punto 10a, 10b, 10c de control. La posición de los sensores 202 en los puntos 10a, 10b, 10c de control en el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional puede calcularse, como se ha descrito anteriormente, utilizando los datos de temporización generados por los sensores 202 en cada punto de control que representan el momento en el que cada sensor 202 reacciona a los pulsos 103 de sincronización y a los haces ortogonales 104, 105 de barrido emitidos por cada estación base 102, para calcular la distancia angular de cada sensor 202 a cada estación base 102 y triangular la posición de cada sensor 202 a partir de su distancia angular a cada estación base 102. Una vez conocidas las posiciones de los sensores 202 en los puntos 10a, 10b, 10c de control tanto en el sistema de coordenadas intrínseco como en el sistema de coordenadas extrínseco del mundo real, se puede deducir una transformación matemática adecuada entre los dos sistemas de coordenadas.
Una ventaja del método de calibración ilustrado en la Figura 5B es que los sensores 202 pueden dejarse permanentemente en cada punto 10a, 10b, 10c de control, y la calibración entre los sistemas de coordenadas intrínseco y extrínseco puede refrescarse periódicamente.
Herramienta de replanteo
Un modelo de información para la edificación (BIM) se traza convencionalmente utilizando coordenadas del mundo real (de la obra), que suelen expresarse mediante un sistema de coordenadas geográficas, como se ha mencionado anteriormente. La Figura 7 ilustra, puramente a modo de ejemplo, un modelo BIM tridimensional de un edificio 50 que se ha de construir en la obra 1. El edificio 50 tiene muros exteriores 51,52, 53, 54, un techo 55 y tabiques interiores, uno de los cuales se muestra en 58. Uno de los muros 52 está diseñado para incluir una ventana 61.
Al replantear una obra 1, es necesario interpretar los planos de construcción, que se preparan en dos dimensiones a partir de un modelo BIM 3D, en relación con la obra 1, de modo que las diversas tareas indicadas en los planos de construcción se lleven a cabo en la ubicación correcta en la obra 1. Las tareas deben llevarse a cabo en la ubicación correcta con la mayor precisión posible para cumplir con la normativa y/o los permisos aplicables, para garantizar que las tareas se lleven a cabo según lo previsto y para garantizar que las tareas se lleven a cabo en la ubicación correcta en relación con otras tareas. Como se ha comentado anteriormente, los errores o las equivocaciones en la realización de una tarea de construcción en la ubicación correcta pueden provocar retrasos en la finalización de las tareas de acuerdo con los planos de construcción y posiblemente costes adicionales.
De acuerdo con la presente invención, la obra 1 puede replantearse utilizando una herramienta portátil 400 de replanteo del tipo ilustrado en las Figuras 8 y 9, que comprende un único sensor optoelectrónico 402 colocado en la punta de una sonda 421 montada en una carcasa 401. Una pantalla plana 425 está colocada en una pared frontal 403 de la carcasa 420 para visualizar la posición del sensor 402 como se describe posteriormente. El sensor 402 comprende un único fotodiodo 404 y un convertidor 405 de luz a digital del tipo descrito anteriormente.
Como se ilustra en la Figura 9, el convertidor 405 de luz a digital está conectado a una FPGA 407 controlada por un procesador 408 para dotar de un sello de tiempo los pulsos digitales recibidos del convertidor 406. La FPGA 407, el procesador 408 y la pantalla 425 están conectados a un bus local 409, que también está conectado a un dispositivo 410 de memoria, un dispositivo 411 de almacenamiento y un dispositivo 412 de entrada/salida de datos tal como, por ejemplo, un puerto USB. Los diversos componentes electrónicos de la herramienta 400 de replanteo son alimentados por una batería recargable 413 que tiene un conector 414 de alimentación para conectarla a una fuente de alimentación para recargar la batería 413 según sea necesario.
El dispositivo 411 de almacenamiento incluye un código ejecutable por ordenador para operar la herramienta 400 de replanteo. Cuando la herramienta 400 es operada, el código ejecutable por ordenador es ejecutable por el procesador 408 para proporcionar un modo de calibración y un modo de uso de replanteo.
Modo de calibración
En el modo de calibración, la herramienta 400 de replanteo opera de manera similar a la herramienta 250 de calibración descrita anteriormente en relación con la Figura 4. Es decir, la herramienta de replanteo, en el modo de calibración, puede moverse secuencialmente a puntos 10a, 10b, 10c de control de ubicaciones conocidas en coordenadas del mundo real en la obra 1 para localizar los puntos 10a, 10b, 10c de control en el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional y obtener una transformación matemática entre los dos sistemas de coordenadas, que luego puede almacenarse en el dispositivo 411 de almacenamiento de la herramienta 400 de replanteo para su uso por la herramienta 400 en su modo de replanteo como se describe posteriormente.
La Figura 10 muestra una secuencia de operaciones realizadas por el microcontrolador 408 en el modo de calibración. El experto en la técnica estará familiarizado con numerosos lenguajes de ordenador que pueden utilizarse para escribir un programa de ordenador que pueda compilarse para generar el código ejecutable por ordenador para llevar a cabo estas operaciones.
Después de encender la herramienta 400 de replanteo, se le pide al usuario que seleccione el modo de calibración o el modo de replanteo en la etapa 452. Una vez iniciado el modo de calibración, el código operable por la máquina solicita luego al usuario que introduzca en la etapa 454 las coordenadas en un sistema de coordenadas geográficas del mundo real para un primer punto 10a de control de ubicación conocida en la obra, como se indica en la Figura 4. El usuario entonces se mueve al primer punto 10a de control y coloca el sensor 402 situado en la punta de la sonda de la herramienta 400 de replanteo exactamente en el primer punto 10a de control, y opera la herramienta 400 de replanteo en la etapa 456 para indicar que el sensor 402 está correctamente posicionado en el primer punto 10a de control.
El sensor 402 detecta los pulsos omnidireccionales 103 de sincronización emitidos por las estaciones base 102 y los haces ortogonales 104, 105 de barrido, y el convertidor 405 de luz a digital genera pulsos digitales correspondientes que son dotados de un sello de tiempo por la FPGA 407 dentro de la herramienta 400 en la etapa 458.
Basándose en los datos de temporización de la FPGA, en la etapa 460, el microcontrolador 408 determina la ubicación del sensor 402 en el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento. La ubicación del primer punto 10a de control en el sistema de coordenadas intrínseco se almacena en el dispositivo 411 de almacenamiento en la etapa 462.
En la etapa 464, el microcontrolador 408 comprueba si se han obtenido las ubicaciones de al menos tres puntos de control. Si se han obtenido las ubicaciones de menos de tres puntos de control, se repiten las etapas 454-462 hasta que se hayan guardado en el dispositivo 411 de almacenamiento las ubicaciones de al menos tres puntos de control en los sistemas de coordenadas intrínseco y extrínseco. En la presente realización, se requieren las localizaciones de al menos tres puntos de control, pero en algunas realizaciones alternativas pueden ser suficientes sólo dos puntos de control, en cuyo caso las etapas 454-462 se repiten hasta que se hayan guardado en el dispositivo 411 de almacenamiento las localizaciones de al menos dos puntos de control en los sistemas de coordenadas intrínseco y extrínseco.
En la etapa 466, las posiciones de los puntos de control en el sistema de coordenadas intrínseco se relacionan con las posiciones correspondientes de los puntos de control en el sistema de coordenadas extrínseco del mundo real, y se obtiene una transformación matemática entre los dos sistemas de coordenadas, que luego se almacena en el dispositivo 411 de almacenamiento en la etapa 468. La herramienta 400 sale entonces del modo de calibración (etapa 470).
Modo de replanteo
Al entrar en el modo de replanteo en la etapa 501, como se ilustra en la Figura 11, el microcontrolador 408 primero carga la transformación matemática calculada en el modo de calibración, como se describió anteriormente, desde el dispositivo 411 de almacenamiento a la memoria 410 (etapa 502).
El microcontrolador 408 se opera entonces en un modo de "escucha" continua en el que los datos de temporización recibidos de la FPGA 407 (etapa 503), como se ha descrito anteriormente, se procesan continuamente para determinar la posición de la herramienta 400 dentro del volumen rastreado 110 en el sistema de coordenadas intrínseco definido por el sistema 100 de seguimiento posicional (etapa 504).
Usando la transformación, la posición de la herramienta 400 -o más exactamente la posición del fotodiodo 404 en la punta de la sonda de la herramienta- dentro del volumen rastreado 110 en la obra 1 en el sistema de coordenadas intrínseco se traduce al sistema de coordenadas extrínseco del mundo real (etapa 505).
El código de máquina controla el microcontrolador 408 para visualizar en tiempo real la posición de la herramienta 400 en el sistema de coordenadas del mundo real en la pantalla plana 425 (etapa 506).
Se apreciará que un usuario puede utilizar la herramienta 400 de replanteo de acuerdo con la presente realización de la invención para replantear una obra 1 localizando puntos de referencia y/o colocando marcadores en lugares de la obra 1 de acuerdo con los planos de construcción, cuyas posiciones se conocen con precisión en coordenadas del mundo real a partir de la herramienta 400. De este modo, los puntos de referencia marcados en los planos de construcción pueden localizarse en el mundo real en la obra 1 sin tener que llamar a un ingeniero de obras a la obra 1 para localizar los puntos de referencia, o colocar marcadores, utilizando una estación total.
Casco protector con pantalla de realidad aumentada
En otra realización, la presente invención proporciona una herramienta de replanteo para una obra que comprende un casco protector 600 y unas gafas 700 de realidad aumentada, como se muestra en la Figura 12.
El casco protector 600 comprende un casco 601 de construcción de diseño esencialmente convencional que está equipado con una pluralidad de sensores 602a, 602b, 602c... 602n y circuitos electrónicos asociados, como se describe posteriormente con más detalle, para el seguimiento de la posición del casco protector 600 dentro de un volumen rastreado 110 definido por un sistema 100 de seguimiento posicional de dentro hacia fuera que está instalado en una obra 1, como se ha descrito anteriormente en relación con la Figura 1.
En la presente realización, el casco 601 está equipado con 32 sensores 602a, 602b, 602c... 602n donde n=32, pero se apreciará que el número de sensores se puede variar de acuerdo con la invención. Convenientemente, el casco 601 puede tener entre 20 y 32 sensores distribuidos por la superficie exterior del casco 601, pero se requieren al menos 5 sensores para seguir la posición y la orientación del casco protector 600.
Como puede verse mejor en la Figura 13, cada sensor 602a, 602b, 602c... 602n comprende un fotodiodo 604a, 604b, 604c... 604n que es sensible a la luz infrarroja y un convertidor 605a, 605b, 605c... 605n de luz a digital asociado del tipo descrito anteriormente en relación con las Figuras 2, 3 y 9. Convenientemente, los fotodiodos 604a, 604b, 604c... 604n se colocan dentro de rebajos conformados en la superficie exterior del casco 601 para evitar que se dañen los fotodiodos.
Los pulsos digitales recibidos de los convertidores 605a, 605b, 605c... 605n de luz a digital son dotados de un sello de tiempo y son agregados por una FPGA 607, que está conectada a un procesador 608 por un bus local 609 de datos. El bus local 609 también está conectado a un dispositivo 610 de memoria, un dispositivo 611 de almacenamiento, un dispositivo 612 de entrada/salida que tiene un conector 615 de base tal como, por ejemplo, un puerto USB, y una unidad 618 de medición inercial (IMU) del tipo que se encuentra en los conjuntos para la cabeza de realidad virtual y realidad aumentada, que comprende una combinación de uno o más acelerómetros y uno o más giroscopios. Una IMU típica comprende un acelerómetro y un giroscopio para cada uno de los modos de cabeceo, balanceo y guiñada.
Los componentes electrónicos del casco protector 600 son alimentados por una unidad 613 de batería recargable. Está prevista una hembra 614 de conector de alimentación para conectar la unidad 613 de batería a una fuente de alimentación para su recarga.
Convenientemente, los componentes electrónicos del casco protector 600 se alojan dentro de una cavidad protegida 625 conformada en el casco 601.
Como se ha descrito anteriormente, el casco protector 600 puede tener bandas de suspensión dentro del casco 601 para distribuir el peso del casco protector 600, así como la fuerza de cualquier impacto sobre la parte superior de la cabeza. Como se ilustra en la Figura 12, el casco 601 comprende un borde saliente 619 y puede estar equipado opcionalmente con protectores de oídos, espejos para aumentar el campo de visión trasero, un soporte para un faro o linterna, un barboquejo para evitar que el casco 601 se caiga, almohadillas laterales aislantes para mantener los lados de la cabeza calientes y/o bandas estiradas alrededor del borde 619 para la identificación del trabajador en color y/o la retrorreflectividad nocturna de alta visibilidad.
Ventajosamente, en la presente realización, el casco comprende unas gafas 620 de seguridad, que sirven no sólo para proteger los ojos del usuario en la obra 1, sino que también sirven para proteger las gafas 700 de realidad aumentada, que están montadas dentro de las gafas 620. Como se ilustra en la Figura 12, las gafas 620 están montadas en el casco 601 de tal manera que están metidas ligeramente detrás del borde 619 para proporcionar un grado de protección para las gafas 620. Se entenderá que en las realizaciones en las que las gafas 700 de realidad aumentada mismas están construidas sólidamente y preparadas para la construcción, las gafas 620 de seguridad pueden omitirse. En otras realizaciones, el casco 601 puede comprender una visera de seguridad.
Las gafas 700 de realidad aumentada comprenden una placa transparente (ópticamente transparente) 720 conformada, que está montada entre dos brazos 722 de sien, como se muestra en la Figura 12. En la presente realización, las gafas 700 de realidad aumentada están unidas al casco protector 600 de tal manera que están fijamente aseguradas en una posición “de uso”, como se muestra en la Figura 12, en relación con los sensores 602a, 602b, 602c...602n y están posicionadas detrás de las gafas de seguridad 620, como se ha descrito anteriormente. Las gafas 700 de realidad aumentada pueden, en algunas realizaciones, ser desmontables del casco protector 600, o pueden ser selectivamente movibles, por ejemplo, por medio de una bisagra entre el casco protector 600 y los brazos 722 de sien, desde la posición de uso a una posición de "no uso" (no mostrada) en la que están retiradas de delante de los ojos del usuario.
En la presente realización, la placa transparente 720 está preparada para colocarla delante de los ojos del usuario y comprende dos zonas oculares 723a, 723b, que están preparadas para colocarlas delante de los ojos derecho e izquierdo del usuario respectivamente, y una zona puente 724 de interconexión.
Unido o incorporado a cada una de las zonas oculares 723a, 723b, hay un respectivo dispositivo 725a, 725b de visualización, transparente o semitransparente, para mostrar a un usuario contenidos de realidad aumentada, tal como se describe posteriormente, permitiendo al mismo tiempo al usuario ver su entorno del mundo real a través de las gafas 700. Las gafas 700 de realidad aumentada también comprenden lentes (no mostradas) situadas detrás de cada dispositivo 725a, 725b de visualización para ver una imagen visualizada por cada dispositivo 725a, 725b de visualización. En algunas realizaciones, las lentes pueden ser lentes de colimación de tal manera que una imagen visualizada por cada dispositivo 725a, 725b de visualización le parezca al usuario que está situada en el infinito. En algunas realizaciones, las lentes pueden estar configuradas para hacer que los rayos de luz emitidos por los dispositivos 725a, 725b de visualización sean divergentes, de tal manera que una imagen visualizada por cada dispositivo 725a, 725b de visualización aparezca a una distancia focal delante de las gafas 700 de realidad aumentada que esté más cerca que el infinito. En la presente realización, las lentes están configuradas y dispuestas con los dispositivos 725a, 725b de visualización de manera que las imágenes visualizadas por los dispositivos 725a, 725b de visualización parecen estar situadas a una distancia focal de 8 m delante del usuario.
Dentro de cada zona ocular 723a, 723b, la placa transparente 720 lleva un respectivo dispositivo 728a, 728b de seguimiento ocular para el seguimiento de la posición de los ojos del usuario cuando éste lleva puesto el casco protector 600. En particular, cada uno de los dispositivos 728a, 728b de seguimiento ocular está configurado para detectar la posición del centro de la pupila de uno de los ojos respectivos del usuario con el fin de detectar el movimiento de las gafas 700 de realidad aumentada en relación con los ojos del usuario durante el uso y para generar y emitir datos de posición de pantalla relativos a la posición de las gafas 700 de realidad aumentada en relación con la cabeza del usuario. Los expertos en la técnica conocerán otras numerosas soluciones para el seguimiento de la posición de las gafas 700 de realidad aumentada en relación con la cabeza del usuario durante el uso, incluyendo sensores ópticos del tipo descrito por el documento US 9754415 B2 y una unidad de obtención de posición del tipo descrito por el documento US 2013/0235169 A1. La vigilancia del movimiento de las gafas 700 de realidad aumentada en relación con la cabeza del usuario es importante, porque el casco protector 600 puede moverse en relación con la cabeza del usuario durante su uso, en particular cuando el usuario realiza actividades físicas. El casco protector 600 puede deslizarse en la cabeza del usuario como resultado de vibraciones, impulsos o cualquier otro tipo de movimiento por parte del usuario. En la presente realización, están previstos dos dispositivos 728a, 728b de seguimiento ocular, uno asociado a cada uno de los ojos del usuario, pero en otras realizaciones puede emplearse un único dispositivo de seguimiento ocular asociado a uno de los ojos.
Con referencia a la Figura 13, los dispositivos transparentes 725a, 725b de visualización y los dispositivos 728a, 728b de seguimiento ocular están conectados a un bus local 709 de datos para la interconexión con un procesador 708, una unidad 710 de memoria, un dispositivo 711 de almacenamiento, un dispositivo 712 de entrada/salida con un conector 715 de base y un microcontrolador Wi-Fi 716. La energía para los componentes electrónicos es proporcionada por una unidad 713 de batería recargable, que está conectada a una hembra 714 de conector de alimentación para conectar la unidad 713 de batería a una fuente de alimentación para su recarga. En otras realizaciones, puede estar prevista una única hembra de conector de alimentación tanto para el casco protector 600 como para las gafas 700, y en algunas realizaciones puede estar prevista una única unidad de batería recargable para alimentar los circuitos de seguimiento de posición y los circuitos de visualización de realidad aumentada.
El conector 615 de base del casco protector 600 está conectado al conector 715 de base de las gafas 700 para proporcionar datos de seguimiento del casco protector 600 a las gafas 700.
El dispositivo 611 de almacenamiento del casco protector 600 contiene un código de máquina ejecutable por ordenador que puede ser procesado por el procesador 608 para controlar el funcionamiento del casco protector 600. Al igual que con la herramienta portátil 400 de replanteo descrita anteriormente, los expertos en la técnica estarán familiarizados con numerosos lenguajes de programación de ordenadores que pueden emplearse para escribir software que pueda compilarse para generar el código de máquina que haga que el casco protector 600 funcione de acuerdo con el diagrama de flujo de la Figura 14.
Al encender el casco protector 600 en la etapa 650 de la Figura 14, el procesador 608 accede al dispositivo 611 de almacenamiento para cargar el código de máquina en la unidad 610 de memoria para su ejecución por el procesador 608. El procesador 608 recibe y procesa pulsos digitales agregados y dotados de un sello de tiempo emitidos por la FPGA 607 de acuerdo con el código de máquina en la etapa 651, para determinar la posición y la orientación iniciales del casco protector 600 en relación con una o más estaciones base 102 situadas en la obra 1 que emiten pulsos infrarrojos omnidireccionales 103 de sincronización y hacen que unos haces ortogonales de luz infrarroja 104, 105 barran la obra 1, como se describió anteriormente en relación con las Figuras 1-11.
Los fotodiodos 604a, 604b, 604c... 604n previstos en la superficie del casco 601 reaccionan a los pulsos 103 de sincronización y a los haces 104, 105 de barrido, y los pulsos digitales generados por los convertidores 605a, 605b, 605c... 605n de luz a digital son dotados de un sello de tiempo y son agregados por la FPGA 607. El tiempo transcurrido entre los pulsos 103 de sincronización emitidos por una de las estaciones base 102 y el momento en que los haces 104, 105 de barrido de la estación base inciden en uno de los fotodiodos 604a, 604b, 604c... 604n puede utilizarse para determinar la distancia angular del fotodiodo a la estación base 102. La posición del fotodiodo 604a, 604b, 604c...
604n dentro del volumen rastreado 110 creado por los haces 104, 105 de barrido de las estaciones base 102 puede calcularse en un sistema de coordenadas intrínseco definido por el sistema de seguimiento mediante una triangulación de las distancias angulares del fotodiodo a las múltiples estaciones base 102, como se ha descrito anteriormente. La orientación del casco protector 600 puede calcularse a partir de las posiciones de todos los fotodiodos 604a, 604b, 604c... 604n en relación con las estaciones base 102.
Los datos de seguimiento que representan la posición inicial y la orientación del casco protector 600 salen del casco protector 600 a través del dispositivo 612 de entrada/salida en el conector 615 de base, como se indica en la Figura 14 con el número de referencia 652, y se transmiten a las gafas 700 de realidad aumentada como se describe posteriormente.
El seguimiento posterior de la posición del casco protector 600 se lleva a cabo principalmente utilizando el dispositivo IMU 618, que tiene una frecuencia de muestreo de 1.000 Hz, con una frecuencia de información de 500 Hz. Los expertos en la técnica entenderán que pueden utilizarse diferentes frecuencias de muestreo y de información en otras realizaciones de la invención, siempre que el seguimiento posicional del casco protector 600 sea lo suficientemente rápido como para lograr una visualización de realidad aumentada fluida.
Así, en la etapa 653, la posición y la orientación del casco protector 600 en la obra 1 se rastrean procesando datos de IMU recibidos del dispositivo IMU 618, y los datos de seguimiento actualizados se emiten como se indica con la referencia 654, como se ha descrito anteriormente.
Es conocido en la técnica que las IMU presentan una deriva debido a la doble integración del error. La deriva es del orden de metros por segundo. En el casco protector 600 del presente ejemplo, el error en los datos de seguimiento generados por el dispositivo IMU 618 se silencia periódicamente utilizando información más precisa sobre la posición y la orientación obtenida de los datos de temporización emitidos por la FPGA 607.
Como se ha descrito anteriormente, los haces 104, 105 de cada estación base 102 de la presente realización barren la obra 1 a una frecuencia de 60 Hz. En la etapa 655, el procesador 608 sondea la FGPA 607 en cuanto a datos de temporización actualizados. Se apreciará que los datos de temporización actualizados están disponibles 60 veces por segundo, y se procesan en la etapa 656 para determinar la posición y la orientación del casco protector 600 en relación con las estaciones base 102, como se ha descrito anteriormente. Como se indica con el número de referencia 657, los datos de seguimiento corregidos se emiten desde el casco protector a las gafas 700. De este modo, los datos de seguimiento generados por el dispositivo IMU 618 se fusionan con datos de seguimiento obtenidos de los datos de temporización emitidos por la FGPA 607.
El dispositivo 711 de almacenamiento de las gafas 700 contiene un código de máquina ejecutable por ordenador que puede ser procesado por el procesador 708 para controlar el funcionamiento de las gafas 700. Como se ha mencionado anteriormente, los expertos en la técnica estarán familiarizados con numerosos lenguajes de programación de ordenador que pueden emplearse para escribir software que pueda compilarse para generar el código de máquina que haga que las gafas 700 funcionen de acuerdo con el diagrama de flujo de la Figura 15.
Además, el dispositivo 711 de almacenamiento almacena una transformación matemática para transformar la ubicación y la orientación del casco protector 600 en el volumen rastreado 110 definido por las estaciones base 102, que se definen en el sistema de coordenadas intrínseco del sistema 100 de seguimiento, en un sistema de coordenadas extrínseco del mundo real. La transformación puede obtenerse de acuerdo con la invención utilizando cualquiera de los métodos y/o aparatos descritos anteriormente en relación con las Figuras 4, 5A o 5B y/o Figuras 6 o 10. La transformación puede introducirse en las gafas 700 a través del dispositivo 712 de E/S, o de forma inalámbrica a través del microcontrolador Wi-Fi 716, y almacenarse en el dispositivo 711 de almacenamiento.
El dispositivo 711 de almacenamiento también almacena datos de modelo que representan un modelo de información para la edificación tal como, por ejemplo, el modelo BIM descrito anteriormente con referencia a la Figura 7. Como se ha mencionado anteriormente, el modelo BIM se define en las coordenadas extrínsecas del mundo real. Al igual que con la transformación, los datos de modelo BIM pueden introducirse en las gafas 700 a través del dispositivo 712 de E/S o de forma inalámbrica a través del microcontrolador Wi-Fi 716. Convenientemente, los datos de modelo BIM pueden descargarse de un servidor remoto a través de Internet.
El dispositivo 711 de almacenamiento también almacena datos de visualización que representan diversas propiedades físicas y/u ópticas de las gafas 700 de realidad aumentada, incluyendo la distancia focal a la que las imágenes visualizadas por las pantallas 725a, 725b se colocan frente al usuario.
Al encender las gafas 700 en la etapa 750 de la Figura 15, el procesador 708 accede al dispositivo 711 de almacenamiento para cargar el código de máquina en el dispositivo 710 de memoria para su procesamiento por el procesador 708. En las etapas 751 y 752 respectivamente, el procesador 708 ejecuta el código de máquina para recuperar la transformación, los datos de modelo BIM y los datos de visualización del dispositivo 711 de almacenamiento y cargarlos en la unidad 710 de memoria.
El código de máquina comprende un módulo de posicionamiento de modelo que es ejecutable por el procesador 708 para convertir las coordenadas del modelo BIM, que se definen en el sistema de coordenadas extrínseco, al sistema de coordenadas intrínseco utilizado por el sistema 100 de seguimiento utilizando la transformación matemática recuperada del dispositivo 711 de almacenamiento. En la etapa 753, por lo tanto, los datos de modelo se procesan utilizando la transformación para posicionar y orientar el modelo BIM correctamente y a escala en el sistema de coordenadas intrínseco, como se representa esquemáticamente en la Figura 16.
El código de máquina comprende además un módulo de renderización de imágenes que es ejecutable por el procesador 708 para renderizar una imagen virtual 3D estereoscópica del modelo de información para la edificación para su visualización en los dispositivos transparentes 725a, 725b de visualización en contexto, superpuesta a una vista directa de la obra 1, tal como se ve a través de las gafas 620 y la placa transparente 720 del casco protector y las gafas. La imagen virtual tridimensional del modelo BIM se renderiza basándose en los datos de modelo convertidos, los datos de visualización, los datos 652, 654, 657 de seguimiento recibidos del casco protector 600 y los datos de posición de pantalla recibidos de los dispositivos 728a, 728b de seguimiento ocular, para visualizar la imagen del modelo en el contexto correcto en relación con la posición del casco protector 600 en la obra 1 y en relación con la posición del casco protector 600 en relación con la cabeza del usuario, más concretamente las gafas 700 de realidad aumentada en relación con los ojos del usuario.
La imagen virtual tridimensional del modelo BIM puede renderizarse utilizando rasterización, trazado de rayos o trazado de caminos, como es sabido por los expertos en la técnica, y se emite a las pantallas transparentes 725a, 725b en la etapa 755, con una frecuencia de imagen de al menos 30 Hz, preferiblemente 60 Hz. En el presente ejemplo, la imagen sintética del modelo BIM se actualiza con una frecuencia de imagen de 90 Hz. Se entenderá que, a una frecuencia de imagen de 90 Hz, deben utilizarse datos de seguimiento basados en la salida de la IMU 618 que tiene una frecuencia de información, como se ha mencionado anteriormente, de 500 Hz, pero que se corrige a una frecuencia de 60 Hz utilizando los datos de temporización de los sensores 602a, 602b, 602c... 602n previstos en el casco 601. En las realizaciones en las que se utiliza una frecuencia de exploración más rápida de los haces 104, 105, puede ser posible prescindir de la IMU 618 y basar los datos de seguimiento totalmente en los datos de temporización recibidos de los sensores.
Como se ilustra en la Figura 17, puede mostrarse a un usuario 2a, 2b sólo una parte seleccionada del modelo BIM. A modo de ilustración, al usuario 2a indicado en la Figura 17 se le muestra el tabique interior 58 del edificio 50 representado por el modelo de información para la edificación que se ha de construir en la obra 1. Ventajosamente, utilizando los métodos y aparatos de la presente invención, se muestra al usuario una imagen virtual tridimensional del tabique 58 en la posición y orientación correctas, y a la escala correcta, en la obra 1. Del mismo modo, al usuario 2b de la Figura 17 se le muestran el muro 52 y la ventana 61 que se han de construir en la obra 1.
De este modo, el casco protector 600 y las gafas 700 de realidad aumentada de la presente invención permiten replantear una obra 1 sin marcar físicamente los puntos de referencia que se localizan mediante una estación total. En su lugar, la obra 1 se puede replantear mostrando a un usuario una tarea que debe llevarse a cabo en la obra 1 en su contexto, en la ubicación y orientación correctas. En la presente realización, la tarea que se ha de realizar es la construcción del edificio 50 mostrado en la Figura 7, con subtareas individuales que incluyen la construcción del muro 52 con la ventana 61 y la construcción del tabique interior 58. Sin embargo, en otras realizaciones, cualquier tarea que se haya de realizar que pueda ilustrarse gráficamente puede visualizarse en forma virtual en las gafas 700 de realidad aumentada. Por ejemplo, otras tareas que pueden visualizarse de forma virtual en las gafas 700 incluyen dónde ha de excavarse una zanja, una tubería que se ha de tender o cortar, la realización de uno o más agujeros en un objeto, por ejemplo, para facilitar el acceso a cables o tuberías, y similares.
Se apreciará que los métodos de la presente invención no se limitan a un solo usuario. En algunas realizaciones, una pluralidad de miembros de un equipo de trabajo en una obra tal como, por ejemplo, la obra 1, pueden estar equipados con cascos protectores 600 y gafas 700 de realidad aumentada como se ha descrito anteriormente. Las gafas 700 para cada usuario se calibran utilizando la misma transformación matemática, y a cada usuario se le mostrará una imagen virtual individual de parte del modelo de información para la edificación basada en su posición respectiva en la obra 1, tal como se determina utilizando el sistema 100 de seguimiento con los sensores 602a, 602b, 602c... 602n en sus respectivos cascos protectores 600.
En las realizaciones en las que la transformación se actualiza continuamente, como se ha descrito anteriormente con referencia a la Figura 5B, la transformación puede transmitirse simultáneamente a todos los usuarios, por ejemplo, utilizando los microcontroladores Wi-Fi en cada conjunto de gafas 700.
Como se ha descrito anteriormente, la posición del casco protector 600 se obtiene de las posiciones de los sensores 602a, 602b, 602c... 602n en relación con las estaciones base 102 instaladas en la obra 1. Dado que la imagen virtual del modelo BIM se visualiza en las pantallas transparentes 725a, 725b de las gafas 700, debe realizarse alguna corrección para tener en cuenta el desplazamiento de las pantallas 725a, 725b en relación con el casco protector. Esto se facilita si las gafas 700 están fijadas al casco protector 600 como se ha descrito anteriormente. Sin embargo, en algunas realizaciones, el código de máquina para las gafas 700 puede incluir un módulo de alineación para asegurar que las gafas 700 estén correctamente posicionadas en relación con el casco protector 600. Para ello, puede utilizarse un método de alineación como el descrito por el documento US 2017/0090203 A1. Otros métodos adecuados de alineación serán evidentes para los expertos en la técnica.
Del mismo modo, puede ser necesario un ajuste para tener en cuenta cualquier artefacto visual creado por la placa transparente 720 o las pantallas 725a, 725b. Por ejemplo, si la placa transparente 720 tiene una forma que hace que las zonas oculares 723a, 723b sean limítrofes con o incluyan una lente para corregir la imagen directa de la obra 1 vista a través de la placa transparente 720, puede ser necesaria para ello alguna corrección basada en los datos de visualización al renderizar la imagen sintética del modelo BIM en las pantallas 725a, 725b.
Como se ha descrito anteriormente, es importante, de acuerdo con la presente invención, realizar un seguimiento de la posición de las gafas 700 de realidad aumentada en relación con la cabeza del usuario para garantizar que la posición de la cámara virtual (indicada con el número de referencia 1910 en las Figuras 19 y 20), y por lo tanto también de la imagen virtual que se muestra al usuario en las pantallas 725a, 725b, se ajuste adecuadamente para tener en cuenta cualquier movimiento del casco protector 600 en la cabeza del usuario. Esto se ilustra esquemáticamente en las Figuras 18-20.
La Figura 18 muestra, a modo de ejemplo, una imagen virtual 1801 que se visualiza en una de las pantallas 725a. A efectos puramente ilustrativos, la imagen virtual 1801 comprende un árbol 1802 y una persona 1803. En la Figura 18, la pantalla 725a está correctamente centrada con respecto al ojo del usuario, de modo que la imagen virtual 1801 aparece en su lugar correcto en relación con el mundo real con el que se superpone mediante las gafas 700 de realidad aumentada. Se entenderá que, en el contexto de la presente invención, es importante que el modelo BIM se visualice en su ubicación y orientación correctas en relación con la obra 1 para indicar con precisión al usuario dónde deben llevarse a cabo determinadas tareas de construcción.
Se apreciará que, durante el uso, el casco protector 600 puede moverse en relación con la cabeza del usuario. Esto puede ser el resultado del movimiento físico del usuario, por ejemplo, al realizar actividades físicas tales como tareas de construcción. Por ejemplo, el usuario puede estar sujeto a impulsos o vibraciones que se transmitan a través de su cuerpo a causa de las diversas tareas de construcción que está llevando a cabo, lo que puede dar lugar a un deslizamiento del casco protector 600 en relación con la cabeza del usuario. Como se ilustra en la Figura 19, el movimiento de la pantalla 725a en relación con el ojo 1905 del usuario sin el correspondiente ajuste de la imagen virtual, como se describe posteriormente, dará lugar a un desplazamiento de la cámara virtual 1910 de tal manera que la cámara virtual 1910 ya no esté alineada con el ojo 1905 del usuario, con el resultado de que la imagen virtual 1801 se visualiza en la ubicación incorrecta en relación con el mundo real que el usuario puede ver a través de la pantalla 725a. En la Figura 19, el número de referencia 1801 indica la posición de la imagen virtual tal como se muestra incorrectamente al usuario en virtud del movimiento del casco protector 600 en relación con la cabeza del usuario, mientras que el número de referencia 1901 indica la ubicación correcta de la imagen virtual en relación con el mundo real.
Para compensar el movimiento del casco protector 600 en relación con la cabeza del usuario durante su uso, la posición del casco protector 600 en relación con la cabeza del usuario se vigila mediante los dispositivos 728a, 728b de seguimiento ocular. Los dispositivos 728a, 728b de seguimiento ocular generan datos de posición de pantalla, como se ha descrito anteriormente, que son indicativos de la posición del casco protector 600 en relación con la cabeza del usuario, más concretamente de las gafas 700 de realidad aumentada en relación con los ojos 1905 del usuario. Estos datos de posición de pantalla son procesados por el procesador 708 con los datos de visualización y datos 652, 654, 657 de seguimiento para renderizar una imagen virtual del modelo BIM en su ubicación correcta en relación con la obra como se muestra en la Figura 20, de hecho manteniendo la cámara virtual 1910 en alineación con el ojo 1905 del usuario.
Este proceso se presenta esquemáticamente en la Figura 21, que ilustra el procesamiento por parte de un sistema electrónico 2102 de control según la presente invención para fusionar datos 2104 de seguimiento de conjunto para la cabeza del casco protector 600 en el sistema de coordenadas intrínseco, datos 2106 de posición de pantalla generados por los dispositivos 728a, 728b de seguimiento ocular y datos 2110 de visualización que representan las propiedades físicas/ópticas de las gafas 700 de realidad aumentada, para producir una imagen virtual del modelo BIM, que se define en el sistema de coordenadas intrínseco mediante un motor 2108 de conversión de coordenadas, para su visualización por las gafas 700 de realidad aumentada. De este modo, la presente realización de la invención tiene como objetivo visualizar la imagen virtual del modelo BIM en relación con la obra 1 con una precisión de unos 3 mm o mejor, manteniendo al mismo tiempo la cámara virtual, que es intrínseca al sistema de visualización de realidad aumentada, en una alineación adecuada con los ojos del usuario para evitar el paralaje entre el mundo real y la imagen virtual.
Un experto en la técnica apreciará que el conjunto para la cabeza de la presente invención procura mostrar, por ejemplo, con una precisión de un milímetro, una imagen virtual de un modelo BIM a un trabajador en una obra, que representa una tarea de construcción que debe llevarse a cabo. La imagen virtual puede visualizarse en su posición y orientación correctas en la obra, tal como se define en el modelo BIM, en un contexto relativo al trabajador. En virtud de la transformación de coordenadas entre un sistema de coordenadas intrínseco y rastreado del sistema de seguimiento posicional y un sistema de coordenadas extrínseco del mundo real, el modelo BIM puede mostrarse al trabajador en su contexto adecuado. Utilizando seguimiento ocular u otros métodos para detectar la posición de una pantalla de realidad aumentada en relación con la cabeza del usuario, según las realizaciones, se pueden tener en cuenta pequeños movimientos o cambios de orientación de la pantalla debidos a actividades físicas, tales como el trabajo manual realizado por los trabajadores in situ, y el modelo virtual puede permanecer en su ubicación correcta, tal como se define en el modelo BIM.

Claims (21)

REIVINDICACIONES
1. Un conjunto para la cabeza para su uso en la validación de una tarea de construcción o en el replanteo de una obra, que comprende un artículo (600) para la cabeza que tiene una pluralidad de sensores (602a, 602b, 602c... 602n) montados en el mismo que son sensibles a una o más señales recibidas de un sistema (100) de seguimiento de posición en la obra (1), unas gafas (700) de realidad aumentada que incluyen una o más pantallas (725a, 725b) para visualizar una imagen virtual de un modelo de información para la edificación (BIM) cuando las ve un usuario y un sistema electrónico (2102) de control, que comprende:
un motor de posicionamiento de modelo para recibir y procesar datos de modelo, que representan el modelo de información para la edificación definido en un sistema de coordenadas extrínseco del mundo real, y utilizar una transformación entre el sistema de coordenadas extrínseco y un sistema de coordenadas intrínseco definido por el sistema (100) de seguimiento de posición para posicionar y orientar el modelo en el sistema de coordenadas intrínseco; y
un motor de renderización de imágenes para recibir datos de seguimiento que representan la posición y la orientación del artículo (600) para la cabeza en la obra (1) en el sistema de coordenadas intrínseco, renderizar una imagen virtual del modelo en relación con la posición y la orientación del artículo (600) para la cabeza y transmitir la imagen a las una o más pantallas (725a, 725b), donde un usuario puede verla como imagen virtual del modelo;
en donde los datos de seguimiento se obtienen de datos de sensor que representan las respuestas de los sensores (602a, 602b, 602c... 602n) a las una o más señales emitidas por el sistema (100) de seguimiento posicional;
y la transformación se obtiene relacionando las coordenadas de uno o más puntos de control de ubicación conocida en el sistema de coordenadas extrínseco con sus coordenadas correspondientes en el sistema de coordenadas intrínseco, obteniéndose las coordenadas de los uno o más puntos (10a, 10b, 10c) de control en el sistema de coordenadas intrínseco de datos de sensor que representan las respuestas de uno o más sensores (202) posicionados en los uno o más puntos de control a las una o más señales.
2. Un conjunto para la cabeza como el reivindicado en 1, en donde las una o más señales recibidas del sistema de seguimiento de posición en la obra consisten en radiación electromagnética, por ejemplo, ondas ópticas o de radio emitidas por una o más estaciones base (102), y al menos uno de los uno o más sensores está configurado para detectar o medir una propiedad de la radiación electromagnética que es indicativa de una distancia angular a las al menos una o más estaciones base (102).
3. Un conjunto para la cabeza según la reivindicación 1 o 2, en donde la imagen virtual del modelo BIM comprende una imagen tridimensional sintética que se muestra al usuario en las una o más pantallas (725a, 725b) en las gafas (700) de realidad aumentada.
4. Un conjunto para la cabeza según las reivindicaciones 1, 2 o 3, en donde el sistema electrónico de control comprende además un motor de seguimiento para procesar datos de sensor recibidos de los sensores del artículo (600) para la cabeza para calcular la posición y la orientación del artículo para la cabeza en la obra (1) en el sistema de coordenadas intrínseco.
5. Un conjunto para la cabeza según cualquier reivindicación precedente, en donde el sistema electrónico de control comprende uno o más procesadores, una o más unidades de memoria y al menos un dispositivo de almacenamiento de datos que almacena software que comprende un módulo de posicionamiento de modelo que es ejecutable por los uno o más procesadores para procesar los datos de modelo para posicionar y orientar el modelo en el sistema de coordenadas intrínseco utilizando la transformación, y un módulo de renderización de imágenes que es ejecutable por los uno o más procesadores para procesar los datos de seguimiento y datos de modelo para renderizar la imagen virtual del modelo BIM en relación con la posición y la orientación del artículo para la cabeza.
6. Un conjunto para la cabeza según la reivindicación 5, en donde el sistema electrónico de control comprende además al menos un dispositivo de comunicación de datos, y el software incluye un módulo de descarga de modelos que es ejecutable por los uno o más procesadores para recibir los datos de modelo desde un servidor remoto a través del dispositivo de comunicación de datos; y el software comprende opcionalmente además un módulo receptor de transformaciones que es ejecutable por los uno o más microprocesadores para recibir y almacenar la transformación en el al menos un dispositivo de almacenamiento de datos.
7. Un conjunto para la cabeza según cualquiera de las reivindicaciones 5 a 6, en donde el software comprende además un módulo de seguimiento que es ejecutable por los uno o más procesadores para procesar los datos de sensor recibidos de los sensores del conjunto para la cabeza para calcular la posición y la orientación del artículo para la cabeza en la obra en el sistema de coordenadas intrínseco.
8. Un conjunto para la cabeza según cualquier reivindicación precedente, en donde los datos de seguimiento de conjunto para la cabeza se basan en datos de sensor recibidos de una combinación de sensores, incluido un sensor óptico (por ejemplo, una cámara).
9. Un conjunto para la cabeza según cualquier reivindicación precedente, en donde el artículo para la cabeza comprende un casco protector (600).
10. Software de calibración para calibrar un sistema (100) de seguimiento posicional de dentro hacia fuera para su uso en la validación de una tarea de construcción o el replanteo de una obra, que comprende un código de máquina ejecutable por un procesador para (i) recibir datos de localización de puntos de control que representan las posiciones de una pluralidad de puntos (10a, 10b, 10c) de control en la obra (1) en un sistema de coordenadas extrínseco del mundo real, (ii) recibir datos de seguimiento de puntos de control que representan las posiciones de los puntos de control en un sistema de coordenadas intrínseco utilizado por el sistema de seguimiento, y (iii) relacionar las posiciones de los puntos de control en los sistemas de coordenadas intrínseco y extrínseco para obtener una transformación entre los sistemas de coordenadas.
11. Software de calibración según la reivindicación 10, comprendiendo el software de calibración un código de máquina ejecutable por un procesador para recibir y procesar datos de sensor que representan la respuesta de un sensor en cada punto de control a radiación electromagnética emitida por al menos una estación base en la obra, que tiene al menos una propiedad que es indicativa de una distancia angular a la estación base, para calcular las posiciones de los puntos de control en el sistema de coordenadas intrínseco.
12. Software de calibración según la reivindicación 10 o la reivindicación 11, en donde el código de máquina es ejecutable para repetir las etapas (i) a (iii) periódicamente para refrescar la transformación.
13. Un método de visualización de una imagen virtual de un modelo de información para la edificación (BIM) que se posiciona y se orienta con referencia a un sistema de coordenadas extrínseco de una obra en un conjunto para la cabeza; comprendiendo el conjunto para la cabeza un artículo (600) para la cabeza que está configurado para que lo lleve puesto un usuario y tiene uno o más sensores (100) de seguimiento de posición montados en el mismo; un sistema de visualización de realidad aumentada que incluye un conjunto de visualización que tiene una posición de uso dentro del campo de visión del usuario que está fijada en relación con los sensores (100) de seguimiento de posición, incluyendo el conjunto de visualización al menos una pantalla (725a, 725b) y siendo el conjunto de visualización capaz de mostrar la imagen virtual al usuario permitiendo al mismo tiempo al usuario ver su entorno a través del conjunto de visualización; y un sistema electrónico (2102) de control; comprendiendo el método:
en un sistema de seguimiento de conjunto para la cabeza, sobre la base de datos de sensor que representan las respuestas de los uno o más sensores (202) a una o más señales emitidas por un sistema (100) de seguimiento de posición en la obra (1), determinar la ubicación y la orientación del artículo para la cabeza en la obra (1) en un sistema de coordenadas intrínseco definido por el sistema (100) de seguimiento de posición;
en un motor (2108) de conversión de coordenadas, convertir entre el sistema de coordenadas intrínseco y el sistema de coordenadas extrínseco sobre la base de una transformación obtenida al relacionar las coordenadas de uno o más puntos (10a, 10b, 10c) de control de ubicación conocida en el sistema de coordenadas extrínseco con sus coordenadas correspondientes en el sistema de coordenadas intrínseco; determinándose las coordenadas de los uno o más puntos de control en el sistema de coordenadas intrínseco sobre la base de datos de sensor recibidos de al menos un sensor (202); y
en el sistema electrónico de control, recibir datos de seguimiento de conjunto para la cabeza desde el sistema de seguimiento de conjunto para la cabeza y recibir datos de modelo que representan el modelo de información para la edificación definido en el sistema de coordenadas extrínseco, procesar los datos de modelo utilizando el motor de conversión de coordenadas para producir datos de modelo derivados definidos en el sistema de coordenadas intrínseco y utilizar los datos de seguimiento de conjunto para la cabeza para renderizar una imagen virtual del modelo de información para la edificación en relación con la posición y la orientación del artículo (600) para la cabeza, generar datos de imagen que representen la imagen virtual y transmitir los datos de imagen al sistema (725a, 725b) de visualización de realidad aumentada para que el usuario los vea como una imagen virtual del modelo de información para la edificación.
14. Un método según la reivindicación 13, comprendiendo el conjunto para la cabeza al menos un sensor de posición de pantalla, para detectar la posición de la pantalla en relación con la cabeza del usuario, y comprendiendo el método que el sistema electrónico de control reciba datos de posición de pantalla desde el sensor de posición de pantalla y utilice los datos de seguimiento de conjunto para la cabeza y los datos de posición de pantalla para renderizar la imagen virtual del modelo de información para la edificación en relación con la posición y la orientación del artículo para la cabeza en relación con el ojo del usuario.
15. Un método según la reivindicación 13 o 14, en donde el sensor de posición de pantalla comprende un dispositivo (728a, 728b) de seguimiento ocular.
16. Un método según cualquiera de las reivindicaciones 13, 14 o 15, en donde las una o más señales son emitidas por una o más balizas en la obra; y en donde las una o más señales consisten opcionalmente en radiación electromagnética, por ejemplo, ondas ópticas o de radio.
17. Un método según cualquiera de las reivindicaciones 13 a 16, en donde el sistema de seguimiento de posición comprende un sistema de seguimiento óptico de haz de barrido o un sistema de seguimiento WiFi.
18. Un método según cualquiera de las reivindicaciones 13 a 15, en donde las una o más señales consisten en ondas acústicas, por ejemplo, ultrasonidos.
19. Un método según cualquiera de las reivindicaciones 13 a 18, que comprende utilizar la transformación para convertir entre el sistema de coordenadas extrínseco y el sistema de coordenadas intrínseco para renderizar una imagen virtual 3D del modelo BIM que esté correctamente localizada y orientada en relación con la obra y que se muestre al usuario en un contexto correcto para la posición del usuario en la obra.
20. Un método según cualquiera de las reivindicaciones 13 a 19, que comprende además la descarga de los datos de modelo al sistema electrónico de control en el conjunto para la cabeza desde un servidor remoto, y opcionalmente la descarga de la transformación desde un servidor remoto y su almacenamiento en el conjunto para la cabeza.
21. Un programa de ordenador que comprende un conjunto de instrucciones que, cuando es ejecutado por un dispositivo informatizado en el sistema electrónico (2102) de control de la reivindicación 1, hace que el dispositivo informatizado realice un método según cualquiera de las reivindicaciones 13 a 20.
ES18769442T 2017-09-06 2018-09-06 Visualización de una imagen virtual de un modelo de información para la edificación Active ES2924179T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB1714349.6A GB201714349D0 (en) 2017-09-06 2017-09-06 A method and equipment for setting out a construction site
PCT/GB2018/052529 WO2019048866A1 (en) 2017-09-06 2018-09-06 DISPLAYING A VIRTUAL IMAGE OF A CONSTRUCTION INFORMATION MODEL

Publications (1)

Publication Number Publication Date
ES2924179T3 true ES2924179T3 (es) 2022-10-05

Family

ID=60050634

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18769442T Active ES2924179T3 (es) 2017-09-06 2018-09-06 Visualización de una imagen virtual de un modelo de información para la edificación

Country Status (13)

Country Link
US (3) US11158127B2 (es)
EP (2) EP4119894A1 (es)
JP (3) JP2020533721A (es)
CN (1) CN111433561B (es)
AU (1) AU2018330755B2 (es)
CA (1) CA3074940A1 (es)
DK (1) DK3679321T3 (es)
ES (1) ES2924179T3 (es)
GB (1) GB201714349D0 (es)
PL (1) PL3679321T3 (es)
PT (1) PT3679321T (es)
SG (1) SG11202002052YA (es)
WO (1) WO2019048866A1 (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9726885B2 (en) * 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
US11210864B2 (en) * 2018-06-01 2021-12-28 Immersal Oy Solution for generating virtual reality representation
WO2020156890A1 (de) * 2019-01-28 2020-08-06 Holo-Light Gmbh Verfahren zur überwachung einer baustelle
JP7234011B2 (ja) * 2019-04-02 2023-03-07 株式会社トプコン 位置情報表示装置および測量システム
US11265487B2 (en) * 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
WO2021016648A1 (en) * 2019-07-31 2021-02-04 MUNDY, Amanda System for aligning an item along a path in an area
US11786407B2 (en) * 2019-08-09 2023-10-17 Associated Universities, Inc. Dynamic vision enabling visor
US20220351449A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production system
JP7341861B2 (ja) 2019-11-11 2023-09-11 株式会社トプコン アイウェア装置を用いた管理システムおよび管理方法
JP2021100222A (ja) 2019-12-23 2021-07-01 ソニーグループ株式会社 端末装置、アプリケーションサーバ、受信方法及び送信方法
CN111141473A (zh) * 2020-01-17 2020-05-12 上海索辰信息科技有限公司 产品振动试验数据的实时显示方法及系统
US11481930B2 (en) 2020-01-21 2022-10-25 Trimble Inc. Accurately positioning augmented reality models within images
US11222475B2 (en) * 2020-01-22 2022-01-11 Procore Technologies, Inc. Computer systems and methods for navigating building information models in an augmented environment
JP2021140445A (ja) * 2020-03-05 2021-09-16 株式会社トプコン 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体
JP2021177157A (ja) * 2020-05-08 2021-11-11 株式会社トプコン アイウェア表示システム
JP2022007185A (ja) * 2020-06-25 2022-01-13 株式会社トプコン アイウェア表示システム
US11626001B1 (en) * 2020-07-28 2023-04-11 United Services Automobile Association (Usaa) Wearable system for detection of environmental hazards
IT202000020302A1 (it) * 2020-08-24 2022-02-24 Youbiquo Sistema e metodo per la misura della direzione e del colore prevalente della luce incidente su di una persona
US11557046B2 (en) 2020-09-30 2023-01-17 Argyle Inc. Single-moment alignment of imprecise overlapping digital spatial datasets, maximizing local precision
WO2022129999A1 (en) 2020-12-17 2022-06-23 Elios S.R.L. Method and system for georeferencing digital content in a scene of virtual reality or augmented/mixed/extended reality
CN112561987B (zh) * 2020-12-18 2023-03-24 万翼科技有限公司 人员位置显示方法及相关装置
FR3118237B1 (fr) * 2020-12-21 2023-10-06 Orange Procede de mise en correspondance entre un batiment et son modele numerique
GB2603496A (en) 2021-02-05 2022-08-10 Xyz Reality Ltd Aligning multiple coordinate systems for information model rendering
GB2605442B (en) * 2021-04-01 2023-03-22 Xyz Reality Ltd Configuration method for the display of a building information model
JP7011746B1 (ja) * 2021-05-31 2022-01-27 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
CN115112104A (zh) * 2021-08-17 2022-09-27 上海环创安装工程集团有限公司 一种建筑施工现场测绘放样方法
CN113919634A (zh) * 2021-09-07 2022-01-11 中建三局第三建设工程有限责任公司 一种基于bim的现场支吊架点位的ar放样方法及系统
GB2613155A (en) 2021-11-24 2023-05-31 Xyz Reality Ltd Matching a building information model
CN114398118B (zh) * 2021-12-21 2023-03-24 深圳市易图资讯股份有限公司 基于空间锚的智慧城市的智能定位系统及方法
CN114224010A (zh) * 2022-02-09 2022-03-25 福建汇川物联网技术科技股份有限公司 一种安全帽、使用方法及建筑模型投影系统
GB2619966A (en) * 2022-06-24 2023-12-27 Xyz Reality Ltd Augmented reality for a construction site with multiple devices
CN117579804B (zh) * 2023-11-17 2024-05-14 广东筠诚建筑科技有限公司 一种基于ar的装配式建筑构件预布局体验方法及装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5100229A (en) 1990-08-17 1992-03-31 Spatial Positioning Systems, Inc. Spatial positioning system
JPH07154829A (ja) * 1993-11-25 1995-06-16 Matsushita Electric Ind Co Ltd 眼鏡型映像表示装置
US6094625A (en) 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
JP3653196B2 (ja) * 1998-06-30 2005-05-25 飛島建設株式会社 仮想現実感を利用した施工支援情報システム。
US6501543B2 (en) 2000-02-28 2002-12-31 Arc Second, Inc. Apparatus and method for determining position
US6381006B1 (en) 2000-07-12 2002-04-30 Spectra Precision Ab Spatial positioning
JP2006252468A (ja) * 2005-03-14 2006-09-21 Canon Inc 画像処理方法、画像処理装置
JP2008018015A (ja) * 2006-07-12 2008-01-31 Toshiba Corp 医用ディスプレイ装置及び医用ディスプレイシステム
US7592911B1 (en) 2006-12-12 2009-09-22 Accu-Spatial Llc Construction hard hat having electronic circuitry
EP1980999A1 (en) 2007-04-10 2008-10-15 Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO An augmented reality image system, a method and a computer program product
JP2010232718A (ja) * 2009-03-25 2010-10-14 Olympus Corp 頭部装着型画像表示装置
WO2011143655A1 (en) * 2010-05-14 2011-11-17 Advitech, Inc. System and method for prevention and control of the effects of spatial disorientation
WO2012172719A1 (ja) * 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US9070216B2 (en) 2011-12-14 2015-06-30 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
CN104508538B (zh) * 2012-07-24 2018-06-22 索尼公司 图像显示装置及图像显示方法
US9367962B2 (en) * 2013-10-22 2016-06-14 Topcon Positioning Systems, Inc. Augmented image display using a camera and a position and orientation sensor
WO2015098807A1 (ja) * 2013-12-24 2015-07-02 チームラボ株式会社 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US9264479B2 (en) 2013-12-30 2016-02-16 Daqri, Llc Offloading augmented reality processing
US9865058B2 (en) 2014-02-19 2018-01-09 Daqri, Llc Three-dimensional mapping system
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
US20150317418A1 (en) * 2014-05-02 2015-11-05 Honeywell International Inc. Providing three-dimensional monitoring of a facility
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
WO2016017253A1 (ja) * 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9665985B2 (en) 2014-08-15 2017-05-30 Daqri, Llc Remote expert system
CN107683420A (zh) 2014-11-10 2018-02-09 威尔乌集团 位置跟踪系统和方法
CN107533137A (zh) * 2015-01-20 2018-01-02 迪吉伦斯公司 全息波导激光雷达
US10061384B2 (en) * 2015-02-23 2018-08-28 Sony Corporation Information processing apparatus, information processing method, and program
US9726885B2 (en) 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
JP6630515B2 (ja) 2015-08-25 2020-01-15 株式会社トプコン 位置誘導装置、位置誘導方法、プログラム
US9599825B1 (en) 2015-09-30 2017-03-21 Daqri, Llc Visual indicator for transparent display alignment
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
JP2017135605A (ja) * 2016-01-28 2017-08-03 コニカミノルタ株式会社 画像表示装置
US20180128897A1 (en) 2016-11-08 2018-05-10 BreqLabs Inc. System and method for tracking the position of an object
US10706629B2 (en) * 2018-06-15 2020-07-07 Dell Products, L.P. Coordinate override in virtual, augmented, and mixed reality (xR) applications

Also Published As

Publication number Publication date
US20220301265A1 (en) 2022-09-22
JP2020533721A (ja) 2020-11-19
CN111433561A (zh) 2020-07-17
CA3074940A1 (en) 2019-03-14
PL3679321T3 (pl) 2022-10-03
GB201714349D0 (en) 2017-10-18
JP2023156279A (ja) 2023-10-24
AU2018330755B2 (en) 2022-09-29
US11694406B2 (en) 2023-07-04
PT3679321T (pt) 2022-08-01
EP3679321A1 (en) 2020-07-15
JP2023051993A (ja) 2023-04-11
DK3679321T3 (da) 2022-07-18
US20220108529A1 (en) 2022-04-07
EP3679321B1 (en) 2022-06-01
EP4119894A1 (en) 2023-01-18
AU2018330755A1 (en) 2020-04-16
WO2019048866A1 (en) 2019-03-14
US11847747B2 (en) 2023-12-19
US20200286289A1 (en) 2020-09-10
US11158127B2 (en) 2021-10-26
CN111433561B (zh) 2022-08-23
SG11202002052YA (en) 2020-04-29

Similar Documents

Publication Publication Date Title
ES2924179T3 (es) Visualización de una imagen virtual de un modelo de información para la edificación
CN109556580B (zh) 测绘仪器、ar系统和相对于参照系定位ar装置的方法
US10215989B2 (en) System, method and computer program product for real-time alignment of an augmented reality device
US11360310B2 (en) Augmented reality technology as a controller for a total station
JP6994879B2 (ja) 測量システム
US11221217B1 (en) Layout workflow with augmented reality and optical prism
JP2015087307A (ja) 3次元測定方法及び測量システム
US11512956B2 (en) Construction layout using augmented reality
GB2605442A (en) Configuration method for the display of a building information model
ES2625729T3 (es) Sistema y método de medición estereoscópica
JP2020169855A (ja) 位置情報表示装置および測量システム
JP2022140903A (ja) 測量デバイスおよびこれを用いた測量方法
CN109032330A (zh) 无缝桥接ar装置和ar系统
CA3208119A1 (en) Aligning multiple coordinate systems for information model rendering
JP2024027006A (ja) 測量システム、測量方法及び測量用プログラム
JP2021047611A (ja) 画像表示システム
ES2341199A1 (es) Sistema de control y soporte en ejecucion de obras mediante escaneado laser.