ES2525679T3 - Realidad aumentada industrial - Google Patents

Realidad aumentada industrial Download PDF

Info

Publication number
ES2525679T3
ES2525679T3 ES02773811.1T ES02773811T ES2525679T3 ES 2525679 T3 ES2525679 T3 ES 2525679T3 ES 02773811 T ES02773811 T ES 02773811T ES 2525679 T3 ES2525679 T3 ES 2525679T3
Authority
ES
Spain
Prior art keywords
operator
environment
data
visual
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02773811.1T
Other languages
English (en)
Inventor
Kelly L. Dempski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Accenture Global Services Ltd
Original Assignee
Accenture Global Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Accenture Global Services Ltd filed Critical Accenture Global Services Ltd
Application granted granted Critical
Publication of ES2525679T3 publication Critical patent/ES2525679T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Método para coordinar el movimiento de trabajadores humanos en un entorno que presenta uno o varios objetos etiquetados con un marcador visual (18) en ellos, comprendiendo el método; la recepción de una imagen proveniente de una cámara ponible (14) que lleva puesta un primer operador humano en dirección a un campo de visión del primer operador; la detección automática de uno o varios marcadores visuales dentro de la imagen, estando al menos uno de dichos marcadores visuales asociado y en relación de proximidad a cada uno de los objetos; la recepción de información de uno o varios sistemas de supervisión del entorno, estando la información relacionada con las condiciones actuales de los alrededores dinámicos del primer operador; la determinación de un estado actual del entorno de acuerdo con la información recibida de los sistemas de supervisión del entorno; el procesamiento de la imagen del marcador visual y la determinación de un identificador único asociado al marcador en función del estado actual del entorno y la imagen procesada del marcador visual; la referencia al identificador único para recuperar una correlación de una ubicación física con el marcador visual para determinar la ubicación física del marcador; y la determinación de la ubicación del primer operador en función de la correlación recuperada de la ubicación física con el marcador visual.

Description

Realidad aumentada industrial.
ANTECEDENTES DE LA INVENCIÓN 5
[0001] La presente invención se refiere a sistemas y métodos de procesamiento de información en un entorno industrial. Más en concreto, la invención se refiere a sistemas y métodos de visualización de información para ser usados por operadores humanos en un entorno de trabajo móvil.
[0002] Hoy en día, hay un número cada vez mayor de trabajadores en entornos de trabajo móviles que son asistidos por sistemas informáticos de mano o ponibles. En lugar de utilizar puestos o estaciones de trabajo informatizados dispuestos en ubicaciones por todo el entorno de trabajo, los ordenadores de mano o ponibles permiten al trabajador moverse con libertad por el espacio de trabajo y recuperar información de redes de ordenadores al alcance de la mano, al tiempo que mantiene una relación de proximidad al objeto de la tarea. 15 Ejemplos de estos incluyen operaciones de al por menor en las que vendedores o empleados de control de inventario llevan ordenadores de mano con lectores de código de barras que pueden identificar productos al realizar una lectura del código de barras y luego visualizarse la información asociada con dicho producto. Otro ejemplo incluye agentes de devolución de vehículos de alquiler que teclean información en un ordenador ponible en el aparcamiento de la oficina de alquiler de vehículos cuando se devuelve el vehículo y a continuación 20 imprimen un recibo en una impresora ponible para dárselo a un cliente que esté en el aparcamiento junto al vehículo de alquiler.
[0003] Aunque estos sistemas son de utilidad, presentan capacidades limitadas. Los ordenadores de mano exigen que el trabajador ocupe una o ambas manos en la tarea de introducir información en el ordenador. Por lo 25 general, los ordenadores ponibles exigen que se utilice al menos una mano para introducir datos en un ordenador, y exigen asimismo que el trabajador centre su mirada y atención en el ordenador de mano en lugar de en el objeto o tarea que tiene frente a él. A pesar de que estas soluciones de ordenadores ponibles suponen un avance con respecto a los puestos fijos y los catálogos, gráficos de pared o manuales de instrucciones estratégicamente ubicados y al alcance del trabajador, todavía hay mucho que se puede mejorar para dejar las 30 manos libres al trabajador y mantener su atención, y al mismo tiempo obtener información de vital importancia para el trabajador para, de este modo, aumentar la productividad y seguridad de los trabajadores.
[0004] El documento US 6.172.657 da a conocer un sistema que comprende un ordenador ponible, una cámara ponible y una pantalla transparente. 35
BREVE SUMARIO DE LA INVENCIÓN
[0005] La presente invención satisface las necesidades anteriormente mencionadas al ofrecer un sistema y un método de visualización de datos que comprende la detección de marcadores visuales dentro del ángulo de 40 visión de una cámara ponible que lleva puesta un trabajador humano, y la realización de una selección en función del estado del entorno, visualizándose los datos seleccionados asociados a al menos uno de dichos marcadores visuales sobre una pantalla ponible que lleva puesta el operador.
[0006] La invención ofrece un sistema y un método para coordinar el movimiento de trabajadores humanos que 45 comprende la detección de uno o varios marcadores visuales dentro del ángulo de visión de una cámara que lleva puesta el trabajador, y la determinación de la ubicación del trabajador a partir de la ubicación conocida del marcador visual dentro del ángulo de visión de la cámara.
BREVE DESCRIPCIÓN DE VARIAS VISTAS DE LOS DIBUJOS 50
[0007] La figura 1 es un sistema según una forma de realización de la invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
[0008] Muchas tareas físicas en un entorno de trabajo industrial pueden hacerse más eficientes o seguras al proporcionar a los trabajadores más datos acerca de sus tareas y su entorno. Puede que entre dichas tareas se incluya la preparación de pedidos para actividades de la planta de fabricación, o el manejo y mantenimiento de equipo industrial. Esta invención aumenta la eficiencia de dichas tareas al dotar a los trabajadores de una pequeña pantalla ponible y una pequeña cámara ponible. Preferentemente, tanto la pantalla ponible como la 60 cámara ponible están montadas sobre un par de anteojos o gafas protectoras. Preferentemente, la cámara y la pantalla están conectadas a un pequeño ordenador ponible. Repartidos por todo el entorno de trabajo, puede que se coloquen estratégicamente marcadores visuales de bajo coste para identificar ubicaciones u objetos en relación de proximidad a los marcadores. Cuando el marcador visual se encuentra dentro del campo de visión de la cámara, el sistema informático ponible puede «ver» e identificar el marcador visual. Una vez identificado, la 65
pantalla ponible puede utilizarse para dar instrucciones o información al trabajador con respecto al objeto o ubicación identificados. Puede que la información visualizada se considere «subtitítulos» que contribuyen a aumentar la realidad del entorno que ve el trabajador.
[0009] La figura 1 representa un sistema típico según una forma de realización de la invención. Un par de 5 anteojos 10 incluye una pantalla transparente ponible 12 con una cámara ponible 14, estando ambas fijadas a los anteojos 10. Una banda 16 ayuda a mantener los anteojos en la cabeza del trabajador. La cámara ponible 14 está dispuesta en una posición para detectar unos marcadores visuales 18 dentro del campo de visión del trabajador.
[0010] La cámara y la pantalla están preferentemente conectadas a través de unos cables 20 y 22 a un ordenador ponible 24. No obstante, los desarrollos tecnológicos puede que permitan que las conexiones sean inalámbricas, lo que obviaría la necesidad de cables. El ordenador ponible 24 incluye un cinturón 26 para sujetarlo a la cintura o a una extremidad (p. ej., brazo o pierna) de un trabajador. Preferentemente, el ordenador ponible 24 incluye un transmisor y antena inalámbricos 28 para conectarse inalámbricamente a una red de 15 ordenadores 30 en el entorno industrial.
[0011] También está conectado a la red 30 un servidor de red 32, un procesador 34, y varias bases de datos. Las bases de datos puede que incluyan, sin carácter limitativo, una biblioteca de marcadores visuales 36, correlaciones de ubicación de marcadores visuales 38, manuales de referencia sobre producción y manejo 40 y 20 una biblioteca de preferencias y perfiles de los empleados 40.
[0012] Un sistema típico como el descrito anteriormente puede que incluya varios componentes que en la actualidad están disponibles en el mercado. La pantalla ponible 12 puede que sea una pantalla microóptica transparente o de visión de los alrededores, como las pantallas para anteojos disponibles en el mercado de 25 Microoptical Corp., Boston, Massachusetts, EE. UU. La pequeña cámara 14 puede que esté fijada a las pantallas para anteojos o integrada en estas. Existen numerosas cámaras de estas características disponibles en el mercado. El ordenador ponible 24 puede que sea uno como los disponibles en el mercado de Xybernaut Corp., Fairfax, Virginia, EE. UU., con un transceptor de comunicación inalámbrica, por ejemplo por medio de un protocolo 802.11 (b). El ordenador ponible 24 o el procesador 34 preferentemente incluye un sistema de 30 reconocimiento de marcadores visuales o patrones como, sin carácter limitativo, el ARToolKit desarrollado por la Universidad de Washington y disponible a través de esta.
[0013] El sistema incluye asimismo una red de ordenadores 30 que accede al ordenador ponible de manera inalámbrica. La red de ordenadores incluye un procesador de realidad aumentada 34 que está comunicado con 35 una base de datos situada en unos dispositivos de almacenamiento de memoria comunicados con un servidor 32. Las bases de datos 36, 38, 40 y 42 almacenan la información o los datos asociados a los objetos asociados con los marcadores visuales y o las correlaciones de las ubicaciones de los marcadores visuales. Puede que las bases de datos también almacenen datos acerca del entorno de trabajo, detalles de los objetos, documentación del equipo, manuales de funcionamiento, estado actual, disponibilidad y ubicación de los trabajadores, tareas 40 programadas para el equipo y los trabajadores, etc. Puede que el servidor también esté enlazado a otras fuentes de datos, como, por ejemplo, sistemas de control de procesos y de automatización, que puede que ofrezcan el estado de las condiciones de funcionamiento del equipo; sistemas de planificación de los recursos empresariales (ERP, de Enterprise Resource Planning), que puede que ofrezcan información acerca de los horarios, trabajo en curso, inventario y entregas de material; y sistemas de alarmas contra incendios, que puede que ofrezcan el 45 estado acerca de las ubicaciones de incendios y otros riesgos. Puede que estos sistemas ofrezcan información para que la visualicen los trabajadores para ofrecerles a estos más información acerca de su entorno de trabajo. Asimismo, puede que estos sistemas ofrezcan más información al procesador de realidad aumentada con respecto al estado del entorno para determinar qué otra información u órdenes puede que sea pertinente que los trabajadores visualicen. El servidor puede que también esté conectado a través de redes de comunicación 50 distribuidas públicamente, como Internet, a sistemas de proveedores para acceder a información complementaria y a un servicio de asistencia técnica para información relacionada con el equipo o tarea identificados.
[0014] La invención ofrece asimismo diversos métodos para aplicar la realidad aumentada en un entorno de trabajo industrial. Una forma de realización de la invención incluye un método de visualización de datos, que 55 incluye el direccionamiento de una cámara ponible que lleva puesta un operador humano hacia uno o varios objetos etiquetados dentro de un campo de visión del operador; la detección de uno o varios marcadores visuales dentro de un campo de visión de la cámara con al menos uno de los marcadores visuales asociado y en relación de proximidad al objeto etiquetado; la determinación del estado del entorno; la selección de datos de un dispositivo de almacenamiento de memoria en función del estado del entorno, estando los datos asociados a uno 60 de los objetos asociados a uno de los marcadores visuales, y la posterior visualización de los datos en una pantalla ponible que lleva puesta el operador. Los datos puede que se consideren como un «subtítulo» en el entorno de realidad aumentada creado por el sistema.
[0015] Esta forma de realización permite que el operador o trabajador interactúe con el entorno de trabajo de forma muy natural. Preferentemente, la cámara ponible está enfocada dentro del mismo campo de visión que el del operador cuando este centra la vista al frente en una actividad de trabajo. De este modo, el sistema puede ver los objetos en los que el operador centra la vista. Por consiguiente, el sistema está programado para responder ante objetos que se encuentran dentro del campo de visión de dicha cámara durante al menos un 5 periodo de tiempo predeterminado. Si una persona fija la vista en un objeto, suele significar que está tratando de obtener más información del objeto. Naturalmente, en respuesta a ello, el sistema identificará el objeto que se mira, recuperará información de dicho objeto de una base de datos, y se visualizará dicha información en la pantalla ponible del operador. Cuando el operador mira fijamente el objeto durante un periodo prolongado, el sistema puede que esté programado para ofrecer información adicional con respecto al objeto. De manera 10 alternativa, el sistema puede que responda ante una orden de voz del operador o ante entradas mecánicas táctiles del operador para ofrecer información adicional tras haberla solicitado el operador.
[0016] Uno de los retos técnicos del sistema es lograr un reconocimiento de un marcador diana que sea coherente con el movimiento de la mirada de un trabajador. Para abordar este reto, los datos se seleccionan 15 preferentemente al identificar cuál de los marcadores visuales se sitúa dentro de una zona predeterminada del campo de visión de la cámara durante un periodo de tiempo predeterminado. Preferentemente, la zona representa el 50 % del centro del campo de visión de la cámara. Preferentemente, el periodo de tiempo predeterminado se encuentra entre aproximadamente 0,02 segundos y 0,5 segundos. Uno puede que tenga en cuenta la zona y periodo de tiempo pertinentes para reproducir el reconocimiento consciente de objetos de un 20 trabajador dentro de su campo de visión. Puede que una mirada breve de ese tipo dé lugar a una adquisición y visualización de información básica en relación con el marcador identificado. El tiempo de duración mínimo de una mirada para que dé lugar a una visualización de datos puede que sea aumentado por el trabajador para evitar una saturación de visualizaciones que no estén asociadas a miradas a propósito. Puede que los datos adicionales exijan entonces un enfoque adicional y unas miradas prolongadas al marcador diana o bien 25 solicitudes del trabajador.
[0017] Preferentemente, los datos se visualizan en una pantalla transparente de modo que los datos están superpuestos sobre una imagen real que se ve en el campo de visión del operador. Más preferentemente, la pantalla es una pantalla transparente de visualización frontal fijada a un par de anteojos o gafas protectoras que 30 lleva puestos el operador. Ello aumenta la realidad que ve el trabajador.
[0018] Se visualizan datos adicionales asociados al objeto en respuesta a una solicitud enviada por el operador. La solicitud puede que sea una señal eléctrica generada por una orden de voz del operador o por un toque físico del operador, o puede que la solicitud sea una mirada enfocada en el objeto durante un periodo de tiempo 35 prolongado. En función de la actividad laboral, puede que la mirada de «consulta» sea entre 1 y 2 segundos de mirada ininterrumpida para una actividad de ritmo acelerado, como trabajar en un almacén, de 5 segundos o más para una actividad de ritmo pausado, como trabajar en un banco de montaje de pequeñas piezas, en el que la mirada de un trabajador no cambia mucho. La temporización de dichas solicitudes automatizadas puede que se personalice para cada trabajador. 40
[0019] Con el objetivo de proveer comentarios acerca de la temporización de visualización personalizable, puede que se almacene un perfil de usuario de un trabajador en el sistema. Preferentemente, el perfil de usuario está almacenado en un servidor de datos, de modo que el equipo ponible sea genérico para la plantilla. El perfil puede que incluya los tiempos de respuesta preferidos del trabajador individual asociados a una variedad de tareas, 45 equipo y momento del día para la mirada de «consulta» y otros parámetros para la interacción de respuesta de datos con el sistema. Puede que se almacenen varios perfiles de usuario para cada persona, en el que cada perfil está asociado a distintas funciones laborales o actividades. Dichas actividades puede que sean introducidas por el usuario o bien puede que se seleccionen automáticamente en función de la ubicación del trabajador o de los marcadores del campo de visión. 50
[0020] El sistema también puede estar programado para que se visualicen datos en respuesta a las preferencias personales y a otra información personal que se haya guardado en el perfil de usuario asociado al operador. Por ejemplo, las aptitudes y nivel de experiencia de un trabajador podrían aparecer en el perfil de usuario. Un trabajador que tenga aptitudes y responsabilidades especiales en calidad de técnico de mantenimiento mecánico 55 recibirá información en relación a la reparación de un objeto dentro de su ángulo de visión. Por otro lado, una persona cuyas responsabilidades profesionales impliquen el manejo o manipulación de objetos, como un operador de cadena de montaje, recibirá información o instrucciones en la pantalla asociadas al manejo de un objeto dentro de su campo de visión. De igual modo, un bombero que fije la vista en el mismo objeto puede que vea información acerca de precauciones de seguridad, acerca de la volatilidad del contenido del objeto, o 60 información adicional acerca de otros riesgos en el entorno para ofrecer un contexto global más amplio del entorno de trabajo. En consecuencia, cada ordenador ponible transmitiría asimismo un identificador único de la persona que utiliza el equipo para poder recuperar dicho perfil de usuario e integrar dicha información del perfil en la selección de datos que van a recuperarse y visualizarse. De manera alternativa, puede que el identificador único se llame del sistema cuando un trabajador se pone el equipo informático ponible y accede a la red. 65
[0021] Puede que el sistema incluya un agente inteligente adaptable para supervisar los hábitos de un trabajador, mejorar los perfiles de usuario y predecir heurísticamente los subtítulos pertinentes que se visualizan en las gafas protectoras del trabajador. Puede que el sistema lleve esto a cabo al venir cargado previamente con un perfil de usuario detallado de un trabajador. De manera alternativa, puede que el sistema lleve esto a cabo al desarrollar una relación basada en el aprendizaje del trabajador y formarse con el trabajador. En el transcurso 5 del periodo de formación del trabajador, el sistema también se forma para responder de acuerdo con las preferencias del trabajador. El sistema puede que cree o mejore los distintos perfiles de usuario para distintas categorías profesionales, desarrolle el reconocimiento del habla personalizado, se adapte a la temporización y costumbres de los movimientos visuales del trabajador, etc. Las preferencias, hábitos y opciones personalizadas de interacción son capturadas por el agente y se almacenan en el perfil de usuario múltiple del trabajador. El 10 trabajador puede que ofrezca comentarios al sistema acerca de la pertinencia del sistema con respecto a la selección y la temporización de los datos que se visualizan. El agente utiliza los comentarios para modificar el perfil de usuario para predecir mejor los datos u órdenes pertinentes que se visualizan y la temporización pertinente para que se reconozcan determinadas miradas enfocadas como solicitudes de consulta de un trabajador en una situación determinada. Estos comentarios y adaptación puede que continúen después del 15 periodo inicial de formación. Así, el sistema puede que se convierta en una herramienta para mejorar la capacidad de inteligencia del trabajador, mientras que el trabajador puede que se convierta en una herramienta industrial con una inteligencia innata sofisticada.
[0022] El método de la invención incluye preferentemente el procesamiento de la imagen del marcador visual 20 detectado para determinar un identificador único asociado al marcador, y la transmisión del identificador único a un procesador para seleccionar los datos pertinentes para la tarea actual del trabajador en función de pistas contextuales observadas o bien a través de los marcadores visuales que se ven en ese momento o que se han visto recientemente o determinadas por el estado del entorno. Preferentemente, el ordenador ponible se encarga del procesamiento de imágenes y del reconocimiento de patrones. El procesamiento también puede que lo 25 realice una estación de trabajo o un ordenador servidor en la red, limitándose el ordenador ponible a transmitir las imágenes que se ven por la cámara.
[0023] Se prefieren los marcadores basados en la vista para el sistema porque son de muy bajo coste. Los marcadores visuales pueden ser códigos de barras, códigos matriciales u otros patrones reconocibles, como 30 letras y números. Aunque es posible utilizar otro tipo de marcadores no visuales como etiquetas de radiofrecuencia (RF) activa o pasiva, dichas etiquetas pueden ser caras. Asimismo, dichas etiquetas RF suelen dar únicamente información general sobre la proximidad. Sin embargo, a medida que descienda el coste de las etiquetas RF y los avances tecnológicos hagan que los sensores inteligentes inalámbricos sean prácticos, e incluso direccionales en su localización, puede que estos tipos de sensores estén integrados en el sistema para 35 sustituir o mejorar los marcadores visuales. En la actualidad, los marcadores visuales resultan de utilidad porque personas con una formación nula o mínima puede que los sitúen en los objetos. Para muchas aplicaciones, este tipo de seguimiento e interacción puede ser más poderoso y/o rentable.
[0024] Un ejemplo de un sistema de reconocimiento de patrones para marcadores visuales es el ARToolKit 40 disponible de la Universidad de Washington, EE. UU. De acuerdo con su documentación, el ARToolKit utiliza técnicas de visión por ordenador para calcular el punto de vista real de la cámara en relación con un marcador del mundo real. Este proceso puede que se divida en varios pasos. En primer lugar, el kit de herramientas convierte una imagen de vídeo en directo de un marcador en una imagen binaria en función de un valor de umbral de iluminación. A continuación, el kit de herramientas busca regiones cuadradas en la imagen. El 45 ARToolKit encuentra todos los cuadrados en la imagen binaria, muchos de los cuales no son los marcadores de seguimiento. Para cada cuadrado, el kit de herramientas captura el patrón del interior del cuadrado y lo hace coincidir con plantillas de patrones predeterminadas. Si existe una coincidencia, entonces el ARToolKit ha encontrado uno de los marcadores de seguimiento de realidad aumentada. A continuación, el ARToolKit utiliza el tamaño conocido del cuadrado y la orientación del patrón para calcular la posición de la cámara de vídeo real en 50 relación con el marcador físico. Una matriz de 3x4 se ocupa con las coordenadas de la cámara de vídeo con respecto al marcador físico. El kit de herramientas utiliza la matriz para establecer la posición de las coordinadas de la cámara virtual. Asumiendo que las coordenadas de la cámara virtual y la real son las mismas, el kit de herramientas puede que renderice gráficos por ordenador en la pantalla que están dibujados con precisión para cubrir el marcador real, o que están situados en una zona específica con respecto al marcador, o dentro de una 55 posición específica en el marco de la pantalla. Puede que se utilice una API OpenGL para establecer las coordenadas de la cámara virtual y dibujar las imágenes virtuales.
[0025] En función del entorno de trabajo y de los objetos comunes que se encuentren en este, pueden incorporarse sistemas de reconocimiento de patrones visuales de mayor complejidad a esta invención. Por 60 ejemplo, los sistemas de inspección de control de calidad visual dependen de los reconocimientos de patrones de elementos comunes por medio de la comparación con un patrón de plantilla de dichos elementos. Asimismo, las máquinas pick and place pueden detectar objetos fuera de lugar por medio de la comparación de objetos con una base de datos de objetos vistos comúnmente. Puede que dichos sistemas de reconocimiento de patrones resulten de utilidad en esta invención con unas modificaciones mínimas debido al hecho de que las cámaras no 65
se encuentran en una posición fija. Del mismo modo, puede que otros sistemas de reconocimiento de patrones que se utilizan en la robótica móvil resulten de utilidad.
[0026] Se establece una correlación en una base de datos de los marcadores visuales que se colocan en objetos fijos como paredes o equipo fijo en relación con la distribución física de las instalaciones industriales. Ello permite 5 que el sistema informático haga coincidir el marcador visto con una ubicación física almacenada con el objetivo de determinar aproximadamente la ubicación física del trabajador cada vez que dicho marcador lo «vea» el sistema. Esto permite un seguimiento eficiente de los trabajadores u operadores y una planificación de las tareas eficiente.
[0027] Asimismo, puede que se utilicen algoritmos más complejos para calcular la ubicación exacta y el movimiento de un trabajador por el espacio. Puede que la ubicación de la cámara del trabajador se determine en función de la perspectiva de una imagen del marcador visual dentro del campo de visión de la cámara, al analizar el movimiento de la imagen en el campo de visión de la cámara y calcular el movimiento de la cámara correspondiente al movimiento de la imagen. Por ejemplo, al establecer una correlación de la ubicación exacta 15 de un marcador visual en un espacio tridimensional y analizar la imagen del marcador visual en el campo de visión de una cámara, puede que se calcule la distancia y el ángulo desde el que la cámara ve el marcador. A partir de dicha información, puede que se determine la ubicación exacta de la cámara, y de este modo la ubicación del trabajador y la altura a la cual está de pie, sentado o arrodillado. Al realizar un seguimiento del movimiento de un marcador en el campo de visión de una cámara, puede que se determine la dirección y el 20 movimiento del trabajador que lleva la cámara. Al almacenar la información sobre la ubicación, puede que el sistema sepa de este modo dónde se encontraba un trabajador y hacia dónde se dirige.
[0028] Esta invención ofrece de este modo la coordinación del movimiento de trabajadores en un entorno de trabajo. Por ejemplo, en el entorno de un almacén, los depósitos y paredes pueden estar marcados con 25 marcadores visuales. A medida que los trabajadores caminan por el almacén, el sistema puede realizar un seguimiento de dónde se encuentran los trabajadores y hacia dónde se dirigen. Cuando se necesita un trabajador en una zona determinada, el sistema puede identificar el trabajador más próximo o el que se encamina hacia la dirección pertinente y proporcionarle instrucciones en su pantalla ponible para que se dirija al punto donde se le necesita. Cuando el trabajador llega y mira a una caja u objeto determinados, el sistema 30 puede que identifique dicho objeto como el objeto de interés correcto y ofrezca instrucciones adicionales para que las siga el trabajador en relación con dicho objeto.
[0029] En consecuencia, esta invención incluye un método para coordinar el movimiento de trabajadores humanos en un entorno que comprende el direccionamiento de una cámara ponible que lleva puesta un operador 35 humano hacia uno o varios objetos etiquetados dentro de un campo de visión del operador y la detección de uno o varios marcadores visuales dentro de un campo de visión de la cámara, estando al menos uno de los marcadores visuales asociado y en relación de proximidad a cada uno de los objetos etiquetados. Asimismo, el método incluye el procesamiento de la imagen de los marcadores visuales y la determinación del identificador único asociado a cada marcador, con lo que se obtiene la ubicación física de los marcadores guardados en un 40 dispositivo de almacenamiento de memoria; y la determinación de la ubicación del operador a partir de las ubicaciones de los marcadores dentro del campo de visión de la cámara.
[0030] Puede que el método incluya preferentemente el seguimiento del movimiento del operador al supervisar el movimiento de los marcadores en el campo de visión de la cámara, de un modo como el que se ha descrito 45 anteriormente. Preferentemente, el movimiento del trabajador está coordinado al visualizarse datos en una pantalla transparente de modo que los datos estén superpuestos sobre una imagen real que se ve en el campo de visión del operador, incluyendo los datos instrucciones que dirigen al operador a una nueva ubicación.
[0031] A la hora de aplicar esta forma de realización de la invención, puede que un grupo de preparadores de 50 pedidos, por ejemplo, sean dirigidos de manera individual a una ubicación concreta, lo que optimiza la eficiencia global del grupo. Puede que el sistema optimice dinámicamente la planificación y las órdenes a los trabajadores en función de sus ubicaciones actuales y sus progresos individuales a la hora de realizar las tareas asignadas. Puede que el sistema realice un seguimiento de la ubicación de los trabajadores y que obtenga indicaciones contextuales a partir de los marcadores visuales y del equipo de automatización y control de procesos a partir de 55 lo que puede que se infiera el progreso de una actividad asignada. El sistema puede que compare las expectativas almacenadas del movimiento del trabajador y el tiempo necesario con los movimientos reales para predecir la temporización en que se realizará una tarea. En función de dichas predicciones, el método incluye la selección dinámica de trabajadores disponibles para programar la realización de una secuencia de tareas. En el transcurso de esta fase de supervisión del movimiento de los trabajadores, en función de la tarea almacenada 60 que se asigna al trabajador, puede que el sistema determine qué marcadores visuales dentro del ángulo de visión del trabajador exigirían que, en respuesta a ellos, el trabajador visualizase un subtítulo, y qué marcadores visuales puede que se utilicen únicamente para realizar un seguimiento de la ubicación y el progreso.
[0032] Las diversas formas de realización de esta invención no están limitadas al entorno de una planta de fabricación, sino que pueden aplicarse a una amplia variedad de lugares de trabajo industriales. Circunstancias similares pueden describirse en situaciones como hospitales, fábricas, yacimientos petrolíferos, plantas químicas o cualquier lugar en que haya tareas físicas que exijan un conocimiento detallado para aumentar la seguridad y/o eficiencia de la tarea. 5
[0033] Asimismo, las aplicaciones de esta invención van más allá de los entornos industriales. Por ejemplo, un museo o un edificio histórico puede que estén dotados de un sistema según esta invención, y que a los turistas se les proporcionen ordenadores, cámaras, pantallas transparentes ponibles y auriculares conectados inalámbricamente a la red. Puede que a los turistas se les lleve en un recorrido personalizado, interactivo y 10 multimedia del museo o lugar histórico. Puede que el turista obtenga una experiencia de realidad aumentada personalizada y de mayor riqueza. Puede que se ofrezcan detalles acerca de los objetos dentro del ángulo de visión del turista en las pantallas en función de los marcadores visuales que se encuentran dentro del ángulo de visión. Puede que el turista controle el nivel de detalle que desea al seguir mirando fijamente o moverse al siguiente objeto de la exposición. Puede que al turista se le ofrezcan órdenes para que se mueva a distintas 15 ubicaciones en función de un recorrido preseleccionado o de un recorrido seleccionado dinámicamente en función del interés del turista en determinados objetos expuestos. Puede que el sistema coordine el movimiento de todos los turistas del museo para gestionar el tránsito y las aglomeraciones al supervisar la ubicación de todos los turistas y ofrecerles órdenes individuales para que se muevan a una nueva ubicación. Naturalmente, puede que el sistema esté programado para permitir que los turistas se detengan más tiempo durante las horas valle, 20 mientras que apresure a los turistas durante las horas punta de tránsito al utilizar modificadores del comportamiento, como limitar la cantidad de información detallada que se visualiza.
[0034] A pesar de que esta invención se haya mostrado y descrito junto con las formas de realización preferidas, resulta evidente que puede que se realicen determinados cambios y modificaciones, además de los 25 mencionados anteriormente, a las características básicas de esta invención. Asimismo, existen muchos tipos distintos de software y hardware informáticos que puede que se empleen a la hora de poner en práctica la invención, y la invención no está limitada a los ejemplos anteriormente descritos. En consecuencia, la intención de los solicitantes es la de proteger todas las variaciones y modificaciones dentro del alcance válido de la presente invención. Se pretende que la intención se vea definida por las siguientes reivindicaciones, incluyendo 30 todos los equivalentes.

Claims (38)

  1. REIVINDICACIONES
  2. 1. Método para coordinar el movimiento de trabajadores humanos en un entorno que presenta uno o varios objetos etiquetados con un marcador visual (18) en ellos, comprendiendo el método;
    la recepción de una imagen proveniente de una cámara ponible (14) que lleva puesta un primer operador humano en dirección a un campo de visión del primer operador;
    la detección automática de uno o varios marcadores visuales dentro de la imagen, estando al menos uno de dichos marcadores visuales asociado y en relación de proximidad a cada uno de los objetos; 10
    la recepción de información de uno o varios sistemas de supervisión del entorno, estando la información relacionada con las condiciones actuales de los alrededores dinámicos del primer operador;
    la determinación de un estado actual del entorno de acuerdo con la información recibida de los sistemas de 15 supervisión del entorno;
    el procesamiento de la imagen del marcador visual y la determinación de un identificador único asociado al marcador en función del estado actual del entorno y la imagen procesada del marcador visual;
    la referencia al identificador único para recuperar una correlación de una ubicación física con el marcador visual para determinar la ubicación física del marcador; y la determinación de la ubicación del primer operador en función de la correlación recuperada de la ubicación física con el marcador visual.
  3. 2. Método según la reivindicación 1, que comprende además: 25
    el seguimiento del movimiento del primer operador al determinar la ubicación de la cámara en función de la perspectiva de una imagen de los uno o los varios marcadores visuales dentro del campo de visión de la cámara;
    el análisis del movimiento de la imagen en el campo de visión de la cámara; y
    la determinación del movimiento de la cámara correspondiente al movimiento de la imagen.
  4. 3. Método según la reivindicación 1, que comprende además el seguimiento de movimiento del primer 35 operador al supervisar la serie de marcadores que pasan dentro del campo de visión de la cámara.
  5. 4. Método según la reivindicación 1, que comprende además la visualización de los datos en una pantalla transparente de modo que los datos estén superpuestos sobre una imagen real que se ve en el campo de visión del primer operador, en el que dichos datos incluyen información que dirige al primer operador a una 40 nueva ubicación.
  6. 5. Método según la reivindicación 4, en el que dichos datos están basados en la optimización del movimiento de una pluralidad de operadores humanos en el entorno.
  7. 6. Método según la reivindicación 1 donde los sistemas de supervisión que ofrecen información a través de la red son un sistema de control de procesos, un sistema de automatización, un sistema de alarma contra incendios, un sistema de detección de riesgos, un sistema de control del entorno o combinaciones de estos.
  8. 7. Método según la reivindicación 1 donde el sistema de supervisión comprende un sistema de control 50 configurado para ofrecer información relacionada con el estado de las condiciones de funcionamiento del equipo.
  9. 8. Método según la reivindicación 1, que comprende además:
    la selección de datos de un dispositivo de almacenamiento de memoria en función del estado del entorno y del uno o los varios marcadores visuales mencionados; y
    la visualización de los datos en una pantalla ponible que lleva puesta el primer operador.
  10. 9. Método según la reivindicación 8, en el que dicha selección de datos incluye la identificación de cuál de los mencionados marcadores visuales se sitúa dentro de una zona de visión predeterminada de dicha cámara durante un periodo de tiempo predeterminado.
  11. 10. Método según la reivindicación 9, en el que dicha zona representa un 50° del centro del campo de visión de la cámara.
  12. 11. Método según la reivindicación 8, en el que los datos se visualizan en una pantalla transparente de modo que los datos estén superpuestos sobre una imagen real que se ve en el campo de visión del primer 5 operador.
  13. 12. Método según la reivindicación 8, que comprende además la visualización de datos adicionales asociados a dicho objeto en respuesta a una solicitud enviada por el primer operador.
  14. 13. Método según la reivindicación 8, que comprende además:
    el procesamiento de la imagen del marcador visual detectado para determinar un identificador único asociado al marcador; y
    la transmisión del identificador único a un procesador para la selección de dichos datos.
  15. 14. Método según la reivindicación 12, en el que dicha solicitud es una señal eléctrica generada por una orden de voz del primer operador.
  16. 15. Método según la reivindicación 12, en el que la solicitud es una señal eléctrica generada por un toque físico del primer operador.
  17. 16. Método según la reivindicación 12, en el que la solicitud se determina al mantener el objeto de interés dentro de la zona de visión predeterminada durante un periodo de tiempo predeterminado. 25
  18. 17. Método según la reivindicación 16, en el que el periodo de tiempo predeterminado se determina al:
    acceder a un perfil de usuario asociado al primer operador; e
    identificar el periodo de tiempo asociado al objeto de interés.
  19. 18. Método según la reivindicación 8, en el que la selección de datos comprende además el acceso a un perfil de usuario asociado al primer operador y la identificación de los datos en función de unas preferencias del perfil de usuario. 35
  20. 19. Método según la reivindicación 18, que comprende además el seguimiento de la ubicación del primer operador al seguir los marcadores detectados, y la identificación adicional de los datos en función de la ubicación, del primer operador.
  21. 20. Método según la reivindicación 8, en el que los datos seleccionados son órdenes de instrucción que dirigen la actividad del primer operador.
  22. 21. Método según la reivindicación 8, en el que la determinación del estado del entorno comprende además la evaluación de las necesidades del entorno en función de al menos una de las tareas no completadas, el 45 estado de otros operadores del entorno, los datos de control de procesos y de automatización y los datos de planificación de los recursos empresariales.
  23. 22. Método según la reivindicación 21, en el que la selección de datos comprende además:
    la identificación del operador;
    el análisis de un perfil de usuario asociado al primer operador; y
    la selección de datos en función de atributos relevantes del perfil de usuario. 55
  24. 23. Sistema para la visualización de datos asociados a uno o varios objetos dentro de un campo de visión de un operador humano en un entorno que comprende:
    un primer conjunto de lógica configurado para: 60
    establecer una correlación de una ubicación física con un marcador visual (18);
    almacenar la correlación de la ubicación física con un marcador visual en una base de datos; y
    asociar un identificador único a un marcador visual;
    una cámara ponible (14) que lleva puesta un primer operador humano configurada para:
    ver al menos una parte sustancial de un campo de visión del primer operador; y 5
    ver el marcador visual próximo a un objeto dentro del campo de visión del primer operador:
    sistema informático ponible (24) que presenta una lógica configurada para:
    detectar automáticamente el marcador visual dentro del campo de visión de la cámara;
    determinar el identificador único asociado al marcador visual; y
    transmitir el identificador único a una red de ordenadores (30); 15
    un segundo conjunto de lógica configurado para:
    recibir el identificador único;
    hacer referencia al identificador único para recuperar la correlación de la ubicación física con el marcador visual;
    determinar la ubicación física del primer operador en función de la correlación de la ubicación física con el marcador visual; 25
    determinar un estado actual del entorno de acuerdo con una información recibida de sistemas de supervisión del entorno, en el que la información está relacionada con las condiciones actuales de los alrededores dinámicos del primer operador; y
    seleccionar datos para ser transmitidos al sistema informático ponible de acuerdo con la ubicación física determinada del primer operador y el estado del entorno determinado, en el que los datos incluyen documentación y órdenes de funcionamiento para el movimiento del primer operador, y
    una pantalla ponible (12) para la visualización de los datos seleccionados. 35
  25. 24. Sistema según la reivindicación 23, en el que la pantalla ponible es una pantalla transparente que permite la visualización simultánea de información en la pantalla y del objeto dentro del campo de visión del primer operador.
  26. 25. Sistema según la reivindicación 23 que comprende además un primer dispositivo de almacenamiento de memoria comunicado con la red para almacenar unos perfiles y preferencias de usuario asociados al primer operador que lleva puestas la cámara y la pantalla.
  27. 26. Sistema según la reivindicación 25 que comprende además un tercer conjunto de lógica almacenado en una 45 memoria legible por ordenador capaz de seleccionar datos de una pluralidad de datos asociados al objeto en función de los perfiles y las preferencias de usuario almacenados.
  28. 27. Sistema según la reivindicación 26 que comprende además un cuarto conjunto de lógica almacenado en una memoria legible por ordenador capaz de modificar los perfiles y las preferencias de usuario en función 50 de la interacción del primer operador con el sistema.
  29. 28. Sistema según la reivindicación 23, en el que la lógica del sistema informático ponible detecta una pluralidad de marcadores visuales y el sistema comprende además:
    un primer dispositivo de almacenamiento de memoria comunicado con la red para almacenar las ubicaciones de la pluralidad de marcadores visuales; y
    un tercer conjunto de lógica almacenado en una memoria legible por ordenador configurado para:
    almacenar la ubicación en momentos determinados de operadores que llevan puesta la cámara en función de la comparación de los marcadores detectados con la ubicación almacenada de los marcadores.
  30. 29. Sistema según la reivindicación 23 en el que al menos uno de los sistemas de supervisión que ofrece información a través de la red es un sistema de control de procesos, un sistema de automatización, un sistema de alarma contra incendios, un sistema de detección de riesgos, un sistema de control del entorno o combinaciones de estos.
  31. 30. Método según la reivindicación 1, en el que la determinación de un estado actual del entorno de acuerdo con la información recibida del sistema de supervisión del entorno comprende:
    la identificación de al menos un segundo operador en el entorno;
    la comparación de un estado del primer operador con el estado del al menos segundo operador; y
    la identificación del primer operador en función de la comparación entre el estado del primer operador con el estado del al menos segundo operador; y
    en el que la selección de datos de un dispositivo de almacenamiento de memoria en función del estado del entorno y del uno o los varios marcadores visuales mencionados comprende la selección de instrucciones al interactuar con el objeto.
  32. 31. Método según la reivindicación 30, en el que el estado del al menos segundo operador comprende 20 información relacionada con una ubicación para el al menos segundo operador en el entorno.
  33. 32. Método según la reivindicación 30, en el que la selección de datos del dispositivo de almacenamiento de memoria se basa además en el posicionamiento del marcador visual próximo al objeto.
  34. 33. Método según la reivindicación 1, en el que el estado actual del entorno comprende información relacionada con la disponibilidad para al menos un segundo operador en el entorno.
  35. 34. Método según la reivindicación 1, que comprende además el posicionamiento del uno o los varios marcadores visuales próximos al objeto dentro del entorno del primer operador. 30
  36. 35. Sistema según la reivindicación 23, en el que la información que ofrece el sistema de supervisión del entorno está además relacionada con un estado de al menos un segundo operador.
  37. 36. Sistema según la reivindicación 35, en el que el estado del al menos segundo operador comprende 35 información relacionada con la disponibilidad del al menos segundo operador.
  38. 37. Método según la reivindicación 12, que comprende además;
    el establecimiento de una correlación de la ubicación física con el marcador visual; 40
    el almacenamiento de la correlación de la ubicación física con el marcador visual en una base de datos; y
    la asociación del identificador único al marcador visual.
ES02773811.1T 2001-10-19 2002-10-18 Realidad aumentada industrial Expired - Lifetime ES2525679T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US46468 2001-10-19
US10/046,468 US7126558B1 (en) 2001-10-19 2001-10-19 Industrial augmented reality
PCT/US2002/033466 WO2003034397A1 (en) 2001-10-19 2002-10-18 Industrial augmented reality

Publications (1)

Publication Number Publication Date
ES2525679T3 true ES2525679T3 (es) 2014-12-29

Family

ID=21943625

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02773811.1T Expired - Lifetime ES2525679T3 (es) 2001-10-19 2002-10-18 Realidad aumentada industrial

Country Status (4)

Country Link
US (2) US7126558B1 (es)
EP (1) EP1436800B1 (es)
ES (1) ES2525679T3 (es)
WO (1) WO2003034397A1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2699999A1 (es) * 2018-04-25 2019-02-13 Mendez Francisco Jose Cuadrado Procedimiento para la creacion y manipulacion de musica y sonido a partir de la interaccion con objetos tangibles (tui) y un sistema de realidad aumentada, con especial aplicabilidad al ambito de la ensenanza.

Families Citing this family (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308117A (ja) * 2002-04-17 2003-10-31 Hitachi Zosen Corp 保全用システム
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
US20050063563A1 (en) * 2003-09-23 2005-03-24 Soliman Samir S. System and method for geolocation using imaging techniques
JP2005115868A (ja) * 2003-10-10 2005-04-28 Sony Corp 私的情報蓄積装置及び私的情報蓄積方法、並びに、私的情報管理装置及び私的情報管理方法
NZ529890A (en) * 2003-12-02 2004-02-27 Michael Andrew Buck Mobile geographical information display system
ITTO20031055A1 (it) * 2003-12-30 2005-06-30 Fiat Ricerche Sistema per l'assistenza remota di un operatore in una fase di lavoro.
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
WO2005107274A1 (en) * 2004-04-28 2005-11-10 Augmented Media Aps A system for generating virtual three dimensional projections
JP4532982B2 (ja) * 2004-05-14 2010-08-25 キヤノン株式会社 配置情報推定方法および情報処理装置
US7508840B2 (en) * 2004-05-28 2009-03-24 Bae Systems Information And Electronic Systems Integration Inc. Mobile temporary incident area network for local communications interoperability
FR2875989B1 (fr) * 2004-09-24 2007-02-23 Renault Sas Dispositif video d'augmentation de realite augmentee et procede de comparaison de deux environnements
CA2624946A1 (en) * 2004-11-10 2006-05-18 Bae Systems Information And Electronic Systems Integration Inc. Wearable portable device for establishing communications interoperability at an incident site
EP1828862A2 (en) * 2004-12-14 2007-09-05 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US20060181482A1 (en) * 2005-02-03 2006-08-17 Iaquinto John M Apparatus for providing visual data during an operation
EP1720131B1 (en) * 2005-05-03 2009-04-08 Seac02 S.r.l. An augmented reality system with real marker object identification
DE102005046762A1 (de) * 2005-09-29 2007-04-05 Siemens Ag System und Verfahren zur Darstellung von Benutzerinformationen, insbesondere von Augmented-Reality-Informationen, mit Hilfe von in RFID-Datenspeichern hinterlegten Trackinginformationen
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
EP1865455A1 (en) * 2006-06-07 2007-12-12 Seac02 S.r.l. A virtual advertising system
EP1887526A1 (en) * 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
US20080064326A1 (en) * 2006-08-24 2008-03-13 Stephen Joseph Foster Systems and Methods for Casting Captions Associated With A Media Stream To A User
US20080120561A1 (en) * 2006-11-21 2008-05-22 Eric Charles Woods Network connected media platform
US9217868B2 (en) 2007-01-12 2015-12-22 Kopin Corporation Monocular display device
KR101441873B1 (ko) 2007-01-12 2014-11-04 코핀 코포레이션 헤드 장착 단안식 디스플레이 장치
US7639138B2 (en) * 2007-02-12 2009-12-29 At&T Intellectual Property I, L.P. Methods and apparatus to visualize locations of radio frequency identification (RFID) tagged items
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US7898504B2 (en) * 2007-04-06 2011-03-01 Sony Corporation Personal theater display
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
EP2165538A2 (en) * 2007-06-08 2010-03-24 Sorensen Associates Inc. Shopper view tracking and analysis system and method
US8485038B2 (en) * 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
US8210435B2 (en) * 2008-01-14 2012-07-03 Sky-Trax, Inc. Optical position marker apparatus
US8565913B2 (en) * 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
FR2928805B1 (fr) * 2008-03-14 2012-06-01 Alcatel Lucent Procede permettant la mise en oeuvre de la video enrichie sur les terminaux mobiles.
AT10520U3 (de) * 2008-09-05 2013-10-15 Knapp Systemintegration Gmbh Vorrichtung und verfahren zur visuellen unterstützung von kommissioniervorgängen
US20100315329A1 (en) * 2009-06-12 2010-12-16 Southwest Research Institute Wearable workspace
US20100328471A1 (en) * 2009-06-24 2010-12-30 Justin Boland Wearable Multi-Channel Camera
US9123217B2 (en) * 2009-06-29 2015-09-01 Commscope, Inc. Of North Carolina Methods of automatically recording patching changes at passive patch panels and network equipment
JP5282709B2 (ja) * 2009-09-25 2013-09-04 ブラザー工業株式会社 ヘッドマウントディスプレイを含む撮像データ利用システム
US20110079639A1 (en) * 2009-10-06 2011-04-07 Samsung Electronics Co. Ltd. Geotagging using barcodes
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
CN102906623A (zh) 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US8610771B2 (en) 2010-03-08 2013-12-17 Empire Technology Development Llc Broadband passive tracking for augmented reality
JP4913913B2 (ja) * 2010-04-28 2012-04-11 新日鉄ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
US9781170B2 (en) 2010-06-15 2017-10-03 Live Nation Entertainment, Inc. Establishing communication links using routing protocols
AU2011268420B2 (en) 2010-06-15 2014-05-01 Ticketmaster, Llc Methods and systems for computer aided event and venue setup and modeling and interactive maps
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
US9605857B2 (en) * 2010-08-11 2017-03-28 Evergreen Telemetry Llc Wireless sensors system and method of using same
US8860760B2 (en) 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US20120078686A1 (en) * 2010-09-27 2012-03-29 Bashani Gilad G Parking status system
WO2012068353A2 (en) 2010-11-18 2012-05-24 Sky-Trax, Inc. Load tracking utilizing load identifying indicia and spatial discrimination
US8963694B2 (en) * 2010-12-17 2015-02-24 Sony Corporation System and method for remote controlled device selection based on device position data and orientation data of a user
US9277248B1 (en) 2011-01-26 2016-03-01 Amdocs Software Systems Limited System, method, and computer program for receiving device instructions from one user to be overlaid on an image or video of the device for another user
US8188880B1 (en) * 2011-03-14 2012-05-29 Google Inc. Methods and devices for augmenting a field of view
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
US8738754B2 (en) * 2011-04-07 2014-05-27 International Business Machines Corporation Systems and methods for managing computing systems utilizing augmented reality
US8913086B2 (en) * 2011-04-07 2014-12-16 International Business Machines Corporation Systems and methods for managing errors utilizing augmented reality
US9477348B2 (en) 2011-04-15 2016-10-25 Hewlett-Packard Development Company, L.P. Focus-based touch and hover detection
AU2013200187B9 (en) * 2011-07-22 2013-07-25 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US9965564B2 (en) * 2011-07-26 2018-05-08 Schneider Electric It Corporation Apparatus and method of displaying hardware status using augmented reality
US8963956B2 (en) 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
KR20140069124A (ko) 2011-09-19 2014-06-09 아이사이트 모빌 테크놀로지 엘티디 증강 현실 시스템용 터치프리 인터페이스
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9255813B2 (en) 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US9183807B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content
US9229231B2 (en) 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US8761811B2 (en) * 2012-04-27 2014-06-24 Oracle International Corporation Augmented reality for maintenance management, asset management, or real estate management
US9519640B2 (en) * 2012-05-04 2016-12-13 Microsoft Technology Licensing, Llc Intelligent translations in personal see through display
US9165381B2 (en) 2012-05-31 2015-10-20 Microsoft Technology Licensing, Llc Augmented books in a mixed reality environment
US9583032B2 (en) * 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
AT513130B1 (de) 2012-08-24 2014-02-15 Tgw Logistics Group Gmbh Verfahren und System zur Unterstützung eines Arbeiters in einer Anlage zur Manipulation von Waren
JP6061586B2 (ja) * 2012-09-26 2017-01-18 株式会社アマダホールディングス 支援システム及びその方法
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US20140152530A1 (en) * 2012-12-03 2014-06-05 Honeywell International Inc. Multimedia near to eye display system
MX2012015026A (es) * 2012-12-18 2014-06-20 Ruben Librado Rodriguez Chavana Sistema de interacción de artículos gráficos personalizados en tiempo real mediante la detección de un marcador referencia impreso.
US10013531B2 (en) 2012-12-20 2018-07-03 Accenture Global Services Limited Context based augmented reality
US20140204121A1 (en) * 2012-12-27 2014-07-24 Schlumberger Technology Corporation Augmented reality for oilfield
US9812046B2 (en) 2013-01-10 2017-11-07 Microsoft Technology Licensing, Llc Mixed reality display accommodation
US9449340B2 (en) * 2013-01-30 2016-09-20 Wal-Mart Stores, Inc. Method and system for managing an electronic shopping list with gestures
US9082149B2 (en) * 2013-02-19 2015-07-14 Wal-Mart Stores, Inc. System and method for providing sales assistance to a consumer wearing an augmented reality device in a physical store
US9959190B2 (en) 2013-03-12 2018-05-01 International Business Machines Corporation On-site visualization of component status
US9361501B2 (en) * 2013-04-01 2016-06-07 Ncr Corporation Headheld scanner and POS display with mobile phone
JP6160290B2 (ja) 2013-06-21 2017-07-12 富士通株式会社 情報処理装置、判定方法および判定プログラム
KR102165444B1 (ko) * 2013-08-28 2020-10-14 엘지전자 주식회사 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법
US9404904B2 (en) * 2013-11-05 2016-08-02 The Boeing Company Methods and systems for non-destructive inspection
AU2013273829A1 (en) 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Time constrained augmented reality
JP6393986B2 (ja) * 2013-12-26 2018-09-26 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
US9523853B1 (en) * 2014-02-20 2016-12-20 Google Inc. Providing focus assistance to users of a head mounted display
US9626709B2 (en) 2014-04-16 2017-04-18 At&T Intellectual Property I, L.P. In-store field-of-view merchandising and analytics
US20150302650A1 (en) 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time
TWI645230B (zh) 2014-08-03 2018-12-21 帕戈技術股份有限公司 穿戴式照相機系統與用於將照相機系統或其他電子裝置附接至穿戴式製品之設備及方法
US9635222B2 (en) 2014-08-03 2017-04-25 PogoTec, Inc. Wearable camera systems and apparatus for aligning an eyewear camera
US9870773B2 (en) * 2014-11-11 2018-01-16 Commscope, Inc. Of North Carolina Multi-tier intelligent infrastructure management systems for communications systems and related equipment and methods
US10134049B2 (en) 2014-11-20 2018-11-20 At&T Intellectual Property I, L.P. Customer service based upon in-store field-of-view and analytics
JP6389275B2 (ja) * 2014-12-09 2018-09-12 旭化成株式会社 位置方位検出装置及び位置方位検出プログラム
KR20170118054A (ko) 2014-12-23 2017-10-24 포고텍, 인크. 무선 카메라 시스템 및 방법들
US9869996B2 (en) * 2015-01-08 2018-01-16 The Boeing Company System and method for using an internet of things network for managing factory production
WO2016130161A1 (en) * 2015-02-13 2016-08-18 Halliburton Energy Services, Inc. Distributing information using role-specific augmented reality devices
GB2535727A (en) * 2015-02-25 2016-08-31 Bae Systems Plc Interactive information system
US11809383B2 (en) * 2015-03-26 2023-11-07 Invisible Holdings, Llc Social identity of objects
US9390346B1 (en) * 2015-06-10 2016-07-12 Robert Edwin Sheets, Jr. Object location using a mobile device
EP3308216B1 (en) 2015-06-10 2021-04-21 Pogotec, Inc. Eyewear with magnetic track for electronic wearable device
US10481417B2 (en) 2015-06-10 2019-11-19 PogoTec, Inc. Magnetic attachment mechanism for electronic wearable device
JPWO2017013986A1 (ja) * 2015-07-17 2018-06-14 シャープ株式会社 情報処理装置、端末、遠隔通信システム、および、情報処理プログラム
US11172273B2 (en) 2015-08-10 2021-11-09 Delta Energy & Communications, Inc. Transformer monitor, communications and data collection device
US10055869B2 (en) 2015-08-11 2018-08-21 Delta Energy & Communications, Inc. Enhanced reality system for visualizing, evaluating, diagnosing, optimizing and servicing smart grids and incorporated components
EP3139247A1 (en) * 2015-09-03 2017-03-08 Siemens Aktiengesellschaft Method of and system for performing buyoff operations in a computer-managed production facility
WO2017041093A1 (en) 2015-09-03 2017-03-09 Delta Energy & Communications, Inc. System and method for determination and remediation of energy diversion in a smart grid network
EP3347861A4 (en) 2015-09-09 2018-12-05 Dematic Corp. Heads up display for material handling systems
JP2017062748A (ja) * 2015-09-25 2017-03-30 富士通株式会社 位置合わせ装置、位置合わせ方法および位置合わせプログラム
WO2017058435A1 (en) 2015-10-02 2017-04-06 Delta Energy & Communications, Inc. Supplemental and alternative digital data delivery and receipt mesh network realized through the placement of enhanced transformer mounted monitoring devices
WO2017070646A1 (en) 2015-10-22 2017-04-27 Delta Energy & Communications, Inc. Data transfer facilitation across a distributed mesh network using light and optical based technology
WO2017070648A1 (en) 2015-10-22 2017-04-27 Delta Energy & Communications, Inc. Augmentation, expansion and self-healing of a geographically distributed mesh network using unmanned aerial vehicle technology
TW201729610A (zh) 2015-10-29 2017-08-16 帕戈技術股份有限公司 適用於無線功率接收之助聽器
MX2018010238A (es) 2016-02-24 2019-06-06 Delta Energy & Communications Inc Red de malla 802.11s distribuida usando hardware de módulo de transformador para la captura y transmisión de datos.
US9965841B2 (en) 2016-02-29 2018-05-08 Schneider Electric USA, Inc. Monitoring system based on image analysis of photos
US11558538B2 (en) 2016-03-18 2023-01-17 Opkix, Inc. Portable camera system
US9952432B2 (en) 2016-04-08 2018-04-24 Symbol Technologies, Llc Arrangement for, and method of, calibrating a wearable apparatus to electro-optically read targets
CN105929948B (zh) * 2016-04-14 2018-12-04 佛山市威格特电气设备有限公司 基于增强现实自学习型智能头盔及其运行方法
US10210661B2 (en) 2016-04-25 2019-02-19 Microsoft Technology Licensing, Llc Location-based holographic experience
US10142410B2 (en) 2016-04-29 2018-11-27 Raytheon Company Multi-mode remote collaboration
BE1024192B1 (fr) * 2016-05-09 2017-12-12 Safran Aero Boosters S.A. Procede et banc d'essai de turbomachine a realite augmentee
CN109073252B (zh) * 2016-05-11 2021-07-20 三菱电机株式会社 空调可视化系统
WO2018035143A1 (en) 2016-08-15 2018-02-22 Delta Energy & Communications, Inc. Integrated solution of internet of things and smart grid network
US10762468B2 (en) * 2016-09-22 2020-09-01 Amazon Technologies, Inc. Adaptive process for guiding human-performed inventory tasks
JP6658430B2 (ja) * 2016-09-28 2020-03-04 株式会社デンソー 検査装置
CN107944781A (zh) 2016-10-12 2018-04-20 菜鸟智能物流控股有限公司 提供存放对象提示信息的方法及装置
US10088902B2 (en) * 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US10863060B2 (en) 2016-11-08 2020-12-08 PogoTec, Inc. Smart case for electronic wearable device
WO2018140404A1 (en) * 2017-01-24 2018-08-02 Lonza Limited Methods and systems for using a virtual or augmented reality display to perform industrial maintenance
DE102017108622A1 (de) * 2017-04-23 2018-10-25 Goodly Innovations GmbH System zur unterstützung von teamarbeit mittels augmented reality
US10685324B2 (en) * 2017-05-19 2020-06-16 Hcl Technologies Limited Method and system for optimizing storage and retrieval of a stock keeping unit (SKU)
US20180349837A1 (en) * 2017-05-19 2018-12-06 Hcl Technologies Limited System and method for inventory management within a warehouse
US20180357922A1 (en) 2017-06-08 2018-12-13 Honeywell International Inc. Apparatus and method for assessing and tracking user competency in augmented/virtual reality-based training in industrial automation systems and other systems
JP6585665B2 (ja) * 2017-06-29 2019-10-02 ファナック株式会社 仮想オブジェクト表示システム
DE102017213638A1 (de) * 2017-08-07 2019-02-07 Siemens Aktiengesellschaft Marker
US10403046B2 (en) 2017-10-20 2019-09-03 Raytheon Company Field of view (FOV) and key code limited augmented reality to enforce data capture and transmission compliance
DE102017219067A1 (de) * 2017-10-25 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur visuellen unterstützung eines benutzers in einem arbeitsumfeld
US11222081B2 (en) 2017-11-27 2022-01-11 Evoqua Water Technologies Llc Off-line electronic documentation solutions
US10832209B2 (en) * 2018-02-26 2020-11-10 Walmart Apollo, Llc Systems and methods for rush order fulfilment optimization
US11074547B2 (en) * 2018-04-20 2021-07-27 Walmart Apollo, Llc Systems and methods for dual optimization of pick walk and tote fill rates for order picking
US11847773B1 (en) 2018-04-27 2023-12-19 Splunk Inc. Geofence-based object identification in an extended reality environment
US11145123B1 (en) 2018-04-27 2021-10-12 Splunk Inc. Generating extended reality overlays in an industrial environment
JP6781201B2 (ja) 2018-06-05 2020-11-04 ファナック株式会社 仮想オブジェクト表示システム
KR20210073603A (ko) 2018-11-09 2021-06-18 베크만 컬터, 인코포레이티드 선택적 데이터 제공을 갖는 서비스 안경
US11300857B2 (en) 2018-11-13 2022-04-12 Opkix, Inc. Wearable mounts for portable camera
CN113168676A (zh) 2019-04-18 2021-07-23 贝克曼库尔特有限公司 保护实验室环境中对象的数据
US11696011B2 (en) 2021-10-21 2023-07-04 Raytheon Company Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video
US11792499B2 (en) 2021-10-21 2023-10-17 Raytheon Company Time-delay to enforce data capture and transmission compliance in real and near real time video
US11700448B1 (en) 2022-04-29 2023-07-11 Raytheon Company Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene
CN116320364B (zh) * 2023-05-25 2023-08-01 四川中绳矩阵技术发展有限公司 一种基于多层显示的虚拟现实拍摄方法及显示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2673004A1 (fr) 1991-02-15 1992-08-21 X Ial Ensemble de visualisation d'informations de route pour le poste de conduite d'un vehicule ferroviaire.
US5696521A (en) * 1994-06-22 1997-12-09 Astounding Technologies (M) Sdn. Bhd. Video headset
JP2644706B2 (ja) * 1995-08-18 1997-08-25 工業技術院長 経路誘導システムおよび方法
TW395121B (en) * 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
US6046712A (en) * 1996-07-23 2000-04-04 Telxon Corporation Head mounted communication system for providing interactive visual communications with a remote system
US5886822A (en) * 1996-10-08 1999-03-23 The Microoptical Corporation Image combining system for eyeglasses and face masks
JP3802630B2 (ja) * 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP2001522063A (ja) * 1997-10-30 2001-11-13 ザ マイクロオプティカル コーポレイション 眼鏡インターフェースシステム
US6396961B1 (en) * 1997-11-12 2002-05-28 Sarnoff Corporation Method and apparatus for fixating a camera on a target point using image alignment
US6078928A (en) * 1997-12-12 2000-06-20 Missouri Botanical Garden Site-specific interest profiling system
US6123259A (en) * 1998-04-30 2000-09-26 Fujitsu Limited Electronic shopping system including customer relocation recognition
US6826554B2 (en) * 1998-06-29 2004-11-30 Fujitsu Limited System and method for adaptively configuring a shopping display in response to a recognized customer profile
DE50007901D1 (de) * 1999-03-02 2004-10-28 Siemens Ag Nutzung von augmented reality-basistechnologien zur situationsgerechten unterstützung des facharbeiters durch entfernte experten
US6356437B1 (en) * 1999-03-29 2002-03-12 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing a portable customizable maintenance support instruction system
WO2001008414A1 (de) * 1999-07-22 2001-02-01 Swisscom Mobile Ag Verfahren und geeignete vorrichtungen, um nutzinformationen betreffend betrachtete objekte zu liefern
US6301050B1 (en) * 1999-10-13 2001-10-09 Optics Wireless Led, Inc. Image enhancement system for scaled viewing at night or under other vision impaired conditions
GB0007474D0 (en) * 2000-03-29 2000-05-17 Hewlett Packard Co Location-Dependent User Interface
US6396691B1 (en) 2000-04-17 2002-05-28 Circa Telecom, Usa, Inc. Thermal cover for T1/HDSL repeater case

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2699999A1 (es) * 2018-04-25 2019-02-13 Mendez Francisco Jose Cuadrado Procedimiento para la creacion y manipulacion de musica y sonido a partir de la interaccion con objetos tangibles (tui) y un sistema de realidad aumentada, con especial aplicabilidad al ambito de la ensenanza.

Also Published As

Publication number Publication date
US7372451B2 (en) 2008-05-13
WO2003034397A1 (en) 2003-04-24
US20060244677A1 (en) 2006-11-02
EP1436800A4 (en) 2005-12-21
US20040183751A1 (en) 2004-09-23
EP1436800A1 (en) 2004-07-14
US7126558B1 (en) 2006-10-24
EP1436800B1 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
ES2525679T3 (es) Realidad aumentada industrial
US10546169B2 (en) Augmented reality navigation system
US9965897B2 (en) Eyewear operational guide system and method
JP2023018097A (ja) 人間とロボットの相互作用の拡張現実調整
ES2325374T3 (es) Sistema de realidad aumentada con identificacion de objeto marcador real.
US20150325047A1 (en) Apparatus and method for providing augmented reality for maintenance applications
US9964765B2 (en) Virtual display of the real-time position of a robotic device to a human operator positioned on an opposing side of an object
JP2020535534A (ja) アクセス制限されたオブジェクトへの仮想アクセス
EP1712981A1 (en) Interactive augmented reality system
CN107004279A (zh) 自然用户界面相机校准
CN107656505A (zh) 使用增强现实设备控制人机协作的方法、装置和系统
Barberis et al. Experiencing indoor navigation on mobile devices
US20180204346A1 (en) Device and method for determining a position of a mobile device in relation to a subject
Tölgyessy et al. The Kinect sensor in robotics education
US11614621B2 (en) User-wearable systems and methods to collect data and provide information
JP6950192B2 (ja) 情報処理装置、情報処理システム及びプログラム
US20230018620A1 (en) Systems, Methods, & Devices for Utilizing Wearable Technology to Facilitate Fulfilling Customer Orders
US20190080170A1 (en) Icon-ize identified objects in a known area to add more context to 3d computer vision
US20220044449A1 (en) Highlighting a tagged object with augmented reality
KR102637330B1 (ko) 확장현실형 응급처지 가이드 정보에 따른 응급처치자 교육형 의료 시스템
JP6809267B2 (ja) 情報処理装置、情報処理システム及びプログラム
Archangelskaya et al. City AR: Augmented reality navigation in the smart cities infrastructure
ES2973869T3 (es) Sistema y procedimiento con un sistema
KR102468207B1 (ko) 웨어러블 장치 및 웨어러블 장치의 제어방법
EP4254945A1 (en) Apparatus and method for controlling a projection system