ES2886908T3 - Sistema portátil de seguimiento del movimiento - Google Patents

Sistema portátil de seguimiento del movimiento Download PDF

Info

Publication number
ES2886908T3
ES2886908T3 ES17798224T ES17798224T ES2886908T3 ES 2886908 T3 ES2886908 T3 ES 2886908T3 ES 17798224 T ES17798224 T ES 17798224T ES 17798224 T ES17798224 T ES 17798224T ES 2886908 T3 ES2886908 T3 ES 2886908T3
Authority
ES
Spain
Prior art keywords
measurement
measurements
measuring device
body part
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17798224T
Other languages
English (en)
Inventor
Nicola Ranieri
Rolf Adelsberger
Fabian Wenner
Hagen Seifert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensoryx AG
Original Assignee
Sensoryx AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensoryx AG filed Critical Sensoryx AG
Application granted granted Critical
Publication of ES2886908T3 publication Critical patent/ES2886908T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Un sistema portátil de seguimiento del movimiento (12) para capturar una posición relativa entre una primera parte del cuerpo (101; 104) de un usuario (100) y una segunda parte del cuerpo (101, 103, 106-108) de dicho usuario (100), en donde dicho sistema portátil de seguimiento del movimiento (12) comprende: al menos un primer dispositivo de medición (120; 120b) que se puede fijar a dicha primera parte del cuerpo (101; 104); al menos un segundo dispositivo de medición (121; 121b) que se puede fijar a dicha segunda parte del cuerpo (101; 103; 106-108); y un dispositivo de cálculo (150) adaptado para comunicarse con al menos uno del primer y segundo dispositivos de medición para recibir datos de mediciones entre el primero y el segundo dispositivos de medición; en donde dicho al menos un primer dispositivo de medición (120; 120b), dicho al menos un segundo dispositivo de medición (121; 121b) y dicho dispositivo de cálculo (150) están configurados para obtener por dicho dispositivo de cálculo (150) una pluralidad de mediciones entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b), en donde dicha pluralidad de mediciones entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b), comprende al menos una medición de la distancia entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b), y en donde dicho dispositivo de cálculo (150) está configurado para calcular, en tres dimensiones, una posición de dicho segundo dispositivo de medición (121; 121b) con relación a dicho primer dispositivo de medición (120; 120b) utilizando dicha pluralidad de mediciones para el seguimiento de la posición de dicha segunda parte del cuerpo (102; 103; 106-108) con relación a dicha primera parte del cuerpo (101; 104), caracterizado porque dicha pluralidad de mediciones entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b) comprende al menos una medición de la dirección entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b).

Description

DESCRIPCIÓN
Sistema portátil de seguimiento del movimiento
CAMPO TÉCNICO
La presente invención se refiere a un sistema portátil de seguimiento del movimiento para capturar una posición relativa entre una primera parte del cuerpo de un usuario, preferiblemente una cabeza o un torso, y una segunda parte del cuerpo de dicho usuario, preferiblemente un miembro superior, muñeca o una mano. Además, la presente invención se refiere a un método para capturar la posición relativa entre una primera y segunda partes del cuerpo para seguir la posición de la segunda parte del cuerpo con relación a la primera parte del cuerpo. Los datos resultantes pueden ser implementados, preferiblemente en tiempo real (con baja latencia) en un entorno virtual. La presente invención se puede utilizar para establecer un enlace desde un ser humano en un entorno virtual.
TÉCNICA ANTERIOR
El seguimiento del movimiento del cuerpo humano se utiliza en muchas aplicaciones diferentes. La industria de la filmación captura movimientos para convertir caracteres virtuales en películas. En deportes, la captura de un movimiento específico puede dar reacción sobre la corrección del mismo. En sanidad, los datos de movimiento pueden dar información sobre el estado de salud de un paciente. Además, los datos de movimiento pueden utilizarse para interaccionar con un entorno virtual de una manera natural.
Existe una pareja de sistemas que pretenden la captura del movimiento utilizando interfaces externas. El documento US 7.633.521 utiliza un conjunto de cámaras colocadas en el entorno del usuario, capturando posiciones de retroreflectores fijados a los miembros del usuario. Este método proporciona una manera exacta y rápida de calcular posiciones de miembros por triangulación. Sin embargo, la instalación estacionaria inflexible requiere espacio, línea de visión libre y de esta manera restringe la movilidad del usuario, reduciendo el atractivo de tales sistemas en productos de consumo doméstico. Además, la calibración requerida no es adecuada claramente para aplicaciones no-profesionales.
Los documentos US 2016 131761, US 20080261693 A1, US 20090054147 A1 y US 20090170601 A1 utilizan un método similar. Despliegan un dispositivo de referencia externo, que consta de una disposición de sensores (por ejemplo, sensores de imágenes y/o transductores ultrasónicos), capaces de seguir contrapartes de sensores fijadas a un controlador manual. Además, de la limitación de un dispositivo de referencia externo mencionado anteriormente, estos métodos requieren, además, que el usuario llegue un dispositivo en sus manos, frustrando la inmersión en el entorno virtual y reduciendo la calidad de la experiencia.
Existen algunos sistemas que tratar de solucionar las limitaciones mencionadas anteriormente utilizando un sistema sensor portátil. Los documentos US 20080285805 A1, WO 1999053838 A1, US 2002 0103610 A1, EP 3067783 A1, y US 7.628.074 B2 despliegan unidades de medición inercial (IMUs) en diferentes miembros del cuerpo humano. Los datos inerciales pueden utilizarse para calcular la orientación del sensor en el marco de coordenadas mundiales. De esta manera, teniendo una IMU sobre la mayoría de los miembros, puede utilizarse cinemática hacia delante e inversa para calcular la posición. Sin embargo, tener que colocar muchos sensores sobre diferentes partes del cuerpo no es adecuado para muchos productos de consumo doméstico.
Los datos de aceleración de estas IMUs pueden integrarse duplicados para calcular la posición además de la orientación, lo que permitiría capturar la posición solamente de un subconjunto de los miembros. Sin embargo, puesto que en cada marco la posición es calculada sobre la base de las posiciones previas, se acumulan errores, resultando una desviación típica en la posición calculada común a estos métodos basado en IMU. Para corregir esta desviación, el documento US 2008 0285805 A1 utiliza restricciones implicadas por el esqueleto humano, mientras que los documentos WO 1999 053838 A1 y US 7.628.074 B2 despliegan transductores acústicos que miden la distancia entre miembros (como se describe en el documento US 5.142. 506 A), que da limitaciones adicionales para corregir la desviación. Sin embargo, todavía deben satisfacerse un número de tales limitaciones, incrementando el número de sensores a usar. Además, la fusión de sensores no está especificada y, por lo tanto, está sujeta a errores de acumulación, es laboriosa en la implementación y puede introducir latencia y artefactos visuales, dependiendo de los filtros usados.
El sistema de varios sensores como se describe y se detalla en el documento US 20030182077 A1 se utiliza para evaluar el entorno del usuario de la manera más precisa posible cuando no está disponible una señal GPS. Ese sistema no es adecuado o diseñado para determinar o calcular la posición y/u orientación tridimensional de los miembros el usuario relativamente entre sí, sino solamente para estimar la posición del cuerpo en general.
Algunos sistemas se centran en la postura de la mano que se utiliza como dispositivo de entrada. El documento WO 2016 029183 A1 sigue los dedos y la orientación de la mano y reconoce gestos utilizados para interactuar con el entorno virtual. Sin embargo, carecen de la localización de la mano y de esta manera restringen la interacción con aplicaciones donde no es necesario conocer la posición de la mano.
Otros dispositivo se despliegan por los documentos US 8.638.989 y US 2016202770. Un sistema puramente óptico (por ejemplo, detección de la profundidad óptica como en el documento US 20160295198 A1) captura la posición, la orientación y la postura de la mano delante del dispositivo de formación de imágenes, normalmente fijado a la cabeza. No requieren una referencia externa y, por lo tanto, el sistema puede ser portátil, en particular de peso ligero. La implementación de puede conseguir de forma independiente del estado, de manera que cada posición es calculada en cada cuadro sin depender del cálculo anterior, haciendo el método más estable. Sin embargo, los sistemas ópticos puros requieren esfuerzos de sintonización de parámetros y cálculos amplios para estimar la posición y la postura, lo que incrementa la latencia y reduce la inmersión en el entorno virtual.
Con el número creciente de aplicaciones que tratan con un entorno virtual, existe una necesidad creciente de dispositivos de entrada que permitan al usuario interaccionar con una realizad virtual de una manera natural y mejorada. La manera más natural consiste en interaccionar de la misma manera que con el entorno real, es decir, utilizando partes del cuerpo, tales como las manos. Además de interacción, también es importante la visualización de los miembros superiores, de tal manera que el usuario puede ver sus brazos y manos en el entorno virtud, dando reacción visual a sus acciones e incrementando la experiencia de inmersión.
Ninguno de los métodos mencionados proporciona una manera portátil, estable y no-intrusiva de seguir los miembros con baja latencia sin requerir que el usuario lleve un número grande de sensores, o los sistemas mencionados anteriormente requieren conocimiento significativo sobre el entorno y/o limitan las capacidades de inmersión.
Vlasic D et al: "Practical motion capture in everyday surroundings", ACM Transactions on graphics (TOG), ACM, US, vol. 26, n° 3, Julio 29 2007 (2007-07-29), páginas 35/1-35/10, XP007910935, ISSN: 0730-0301, DOI: 10.1145/1276377.1276421 describe un sistema portátil que registra tiempo de vuelo ultrasónico y mediciones inerciales con un conjunto de sensores llevados en la ropa. Después del registro, se combina la información utilizando un Filtro de Kalman Extendido para reconstruir configuraciones conjuntas de un cuerpo.
El documento WO 2014/114967 A1 describe un sistema de captura del movimiento que comprende sensores portátiles y nodos dispuestos en las extremidades de un objeto, cuyos movimientos están destinados a ser capturados. Cada nodo comprende una IMU y un transductor piezo-eléctrico. Los datos de la IMU en combinación con las distancias permiten determinar las localizaciones 3D de todos los nodos con respecto a un sistema de coordenadas locales.
El documento WO 01/56007 A1 describe un seguidor de la orientación de la cabeza sin fuente que se combina con un dispositivo de seguimiento llevado en la cabeza que sigue a una baliza 3D montada en la mano con relación a la mano.
SUMARIO DE LA INVENCIÓN
Por lo tanto, un objeto de la presente invención es especificar un sistema portátil de seguimiento del movimiento mejorado para capturar una posición relativa entre una primera parte del cuerpo de un usuario y una segunda parte del cuerpo de dicho usuario.
Este objeto se consigue por un sistema portátil de seguimiento del movimiento de acuerdo con la reivindicación 1. De acuerdo con ello, se especifica un sistema portátil de seguimiento del movimiento para capturar una posición relativa entre una primera parte del cuerpo de un usuario y una segunda parte del cuerpo de dicho usuario, comprendiendo dicho sistema portátil de seguimiento del movimiento al menos un primer dispositivo de medición que se puede fijar a dicha primera parte del cuerpo y al menos un segundo dispositivo de medición que se puede fijar a dicha segunda parte del cuerpo. Además, el sistema incluye un dispositivo de cálculo que se puede fijar a dicha primera parte del cuerpo y al menos un segundo dispositivo de movimiento que se puede fijar a dicha segunda parte del cuerpo. Además, el sistema incluye un dispositivo de cálculo que se comunica con al menos uno del primero y segundo dispositivos de cálculo, para recuperar datos de mediciones entre el primero y segundo dispositivos de medición, es decir, en relación con mediciones que incluyen uno del primero y segundo dispositivos de medición como punto de referencia.
Debe entenderse que dicho dispositivo de cálculo puede ser un componente separado del sistema o puede estar integrado en dicho primero o dicho segundo dispositivos de medición.
El objeto se consigue porque dicho al menos un primer dispositivo de medición, dicho al menos un segundo dispositivo de medición y dicho dispositivo de cálculo están configurados para obtener por dicho dispositivo de cálculo una pluralidad de mediciones entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición, en donde dicha pluralidad de mediciones entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición comprende al menos una medición de la distancia entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición, y porque dicho dispositivo de cálculo está configurado para calcular, en tres dimensiones, una posición de dicho segundo dispositivo de medición con respecto a dicho primer dispositivo de medición utilizando dicha pluralidad de mediciones para el seguimiento de la posición de dicha segunda parte del cuerpo con relación a dicha primera parte del cuerpo.
En otras palabras, el objeto se consigue porque dicho al menos un primer dispositivo de medición, dicho al menos un segundo dispositivo de medición y dicho dispositivo de cálculo están configurados:
i) para obtener por el dispositivo de cálculo al menos una medición de la distancia entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición; y
ii) para obtener por el dispositivo de cálculo al menos otra medición entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición; y en donde dicho dispositivo de cálculo está configurado para calcular, en tres dimensiones, una posición de segundo dispositivo de medición con relación al primer dispositivo de medición utilizando dicha medición de la distancia y dicha otra medición, es decir, que calcula un vector de la distancia en tres dimensiones.
En este contexto de la presente invención, el término "sistema portátil" debe entenderse como un sistema que puede ser llevado por seres humanos (u otros usuarios, ver más abajo) mientras están actuado, por ejemplo, en un entorno virtual. El sistema portátil de seguimiento del movimiento es no-intrusivo y claramente apreciable por el usuario. Es fácil de colorar y móvil, de manera que el usuario no está limitado en su movimiento. Además, es ventajoso que la tasa de actualización del sistema sea alta, mientras el tiempo de reacción y de latencia puede ser mínimo para convencer al usuario de que su réplica virtual y/o su representación virtual de su movimiento lo representan realmente. De acuerdo con ello, el esfuerzo excesivo de cálculo es un inconveniente.
En el contexto de la presente invención, el término "sistema de seguimiento del movimiento" debe entenderse como un dispositivo, un aparato de múltiples componentes, que permite el seguimiento de un vector de distancia tridimensional que conecta el primero y el segundo dispositivos de medición, en donde dicho vector de distancia es, en algunos casos, una medida para un cambio en posición relativa entre la primera y la segunda partes del cuerpo, a las que se fijan, durante el funcionamiento, el primero y segundo dispositivos de medición, respectivamente. Los datos de seguimiento generados por el sistema portátil de seguimiento del movimiento pueden ser integrados, por ejemplo, en una realidad virtual.
En el contexto de la presente invención, el término "primera y segunda partes del cuerpo" debe entenderse como dos partes del cuerpo, preferiblemente de un cuerpo humano, que se pueden mover una con relación a la otra. Primeras partes del cuerpo pueden ser partes del cuerpo tales como una cabeza o un torso o cualquier otra parte del cuerpo, tal como un miembro, segundas partes del cuerpo pueden ser parte de los miembros, en particular de los miembros superiores o partes de los mismos, tales como dedo (incluyendo el pulgar) mano, muñeca, brazo superior e inferior, o codo. Naturalmente, también los miembros inferiores o partes de los mismos pueden ser segundas partes del cuerpo, tales como dedos del pie, pie, tobillo o parte superior e inferior de la pierna. Debe entenderse que la segunda parte del pie puede ser también, sin embargo, cualquier otra parte del cuerpo, tal como el torso o la cabeza. De acuerdo con ello, la primera y segunda partes del cuerpo son dos partes cualquiera del cuerpo que se pueden mover o cambiar relativamente entre sí. Debe entenderse que el sistema portátil de seguimiento del movimiento puede utilizarse preferiblemente por un ser humano mientras otros objetos que cambian su apariencia física, sin embargo, pueden entenderse también como usuarios.
En el contexto de la presente invención, el término "medición entre el primero y segundo dispositivos de medición" debe entenderse como medición en la que el primer dispositivo de medición es una referencia y la posición (y preferiblemente orientación) del segundo dispositivo de medición se mide con relación a dicha referencia.
Por lo tanto, la invención se basa en la realización de que desplegando al menos dos dispositivo de medición que están enlazados, preferiblemente de una manera sin cables, a través de un canal de comunicación e integrados en un sistema portátil de seguimiento, de tal manera que un dispositivo de medición proporciona un cuadro de referencia, en el que el otro dispositivo está posicionado y localizado a través de dicho enlace de comunicación, se puede realizar un sistema más efectivo que, por ejemplo, las implementaciones conocidas que se basan en sistemas puramente ópticos que, con esfuerzo de cálculo sustancial, evalúan un entorno visible, o las implementaciones conocidas que requieren una instalación estacionaria, o los sistemas que se basan en IMUs para capturar la posición, mientras se corrige la posición posteriormente con otras mediciones.
El sistema de seguimiento de acuerdo con la invención despliega una implementación independiente del estado, es decir, que cada posición del segundo dispositivo de medición con relación al primer dispositivo de medición se calcula en tiempo real e independientemente del cálculo previo en la cadena de seguimiento.
Dicha pluralidad de mediciones entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición comprende al menos una medición de la dirección entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición. En estas formas de realización, la medición de la dirección da como resultado, en combinación con la medición de la distancia, directamente la posición en tres dimensiones del segundo dispositivo de medición con respecto al primer dispositivo de medición. De esta manera, las presentes enseñanzas trabajan ya con dos sensores y dos mediciones entre el primero y el segundo dispositivos de medición. Esto es ventajoso, puesto que se requieren menos balizas, menos hardware y menos cálculo en comparación con los métodos conocidos.
Además, la presente invención no requiere algoritmos complejos de fusión de sensores como filtros Kalman extendidos o similares, para combinar mediciones de múltiples sensores y tipos de sensores. Las mediciones tomadas el sistema de acuerdo con la invención (por ejemplo una medición de la distancia, por ejemplo, por una pareja de receptores / emisores acústicos y una medición de la dirección, por ejemplo, por una pareja de receptores / emisores ópticos) pueden utilizarse para eliminar directamente todos los grados d libertad y para calcular directamente la posición relativa entre el primero y el segundo dispositivos de medición sin requerir cualquier otro tercero o cuarto dispositivos sensores. Esto da como resultado menos cálculo, menos latencia y más estabilidad. Para dar un ejemplo, para estimar la posición de la mano con relación a la cabeza, de acuerdo con los métodos conocidos, se requiere un sensor en la cabeza, uno en la mano y dos más en la cabeza o en potras partes del cuerpo (lo que es engorroso de llevar), mientras que de acuerdo con algunas formas de realización de la invención, solamente es necesario un dispositivo de medición en la cabeza y uno en la mano.
De acuerdo con la presente invención, se utilizan mediciones múltiples entre dos nodos, es decir, entre dos dispositivos de medición distintos y que se pueden fijar de manera independiente. En lugar de utilizar mediciones con la unidad de medición inercial (IMU), se utiliza al menos una medición adicional entre los nodos, es decir, los dispositivos de medición. Las mediciones IMU no se utilizan para la localización, sino para calcular la orientación. El problema del seguimiento del movimiento resuelto por la presente invención se puede describir, además, de una manea abstracta como sigue. Dado un punto en el espacio con orientación conocida, es necesario hallar la posición de un segundo punto con relación al primer punto. Sin pérdida de la generalidad, se puede suponer que el primer punto está localizado en el origen de un sistema de coordenada xyz y de frente hacia el eje-Z positivo. Este sistema de coordenadas se llama cuadro del cuerpo del primer punto. Para resolver el problema del seguimiento descrito, se requiere la coordenada-x, -y y -z del segundo punto expresada dentro de este cuadro del cuerpo del primer punto. Estas coordenadas no tienen que expresarse dentro de este formato, sino que pueden ser representadas por otros valores.
En otra representación, dos ángulos y un radio pueden describir la posición relativa de los dos puntos en términos de coordenadas esféricas.
Para casos en los que el segundo punto se encuentra siempre delante del primer punto, su posición relativa puede describirse, además, por dos coordenadas sobre un plano-xy virtual en un valor-z de uno (que describe la dirección hacia el segundo punto) en combinación con la distancia entre los dos puntos. Esta representación se utiliza a menudo en visión por ordenador, ya que el plano describe naturalmente el plano de la imagen de un sensor de cámara y las coordenadas del plano corresponden a coordenadas de píxeles.
Todavía otra representación consiste en seleccionar tres puntos fijos sobre el plano-xy localizado en el origen (valor z igual a 0) y que describe la posición del segundo punto por las res distancias con respecto a los tres puntos fijos. Esto representaría naturalmente tres mediciones de la distancia realizadas entre los tres puntos fijos que representan el primer punto y el segundo punto.
Todas las representaciones se pueden convertir de una a otra.
Por ejemplo, las tres mediciones de la distancia realizadas en tres puntos fijos se pueden utilizar para calcular las coordenadas-xyz por trilateración.
Por lo tanto, la representación de la posición relativa entre los puntos no debería limitar la presente invención en su alcance. Cualquier combinación de mediciones de la distancia, mediciones de la dirección u otras mediciones se pueden utilizar para eliminar los grados de libertad de la posición relativa, independientemente de su representación. Por ejemplo, un medición de la dirección puede dar como resultados dos ángulos de una representación de coordenadas esféricas. El radio, que es el tercer grado de libertad, se puede eliminar por una medición de la distancia.
En algunas formas de realización, dicho dispositivo de medición comprende un primer dispositivo de comunicación acústica y dicho segundo dispositivo de medición comprende un segundo dispositivo de comunicación acústica. El primero y segundo dispositivos de comunicación están configurados para establecer un enlace acústico entre sí, por ejemplo, un enlace ultra-sónico. Este enlace ofrece la opción de una medición acústica entre el primero y segundo dispositivos de medición. Uno del primero y segundo dispositivos de medición puede comprender un transmisor acústico, el otro puede comprender un receptor acústico. De acuerdo con ello, dicha pluralidad de mediciones, sobre las que se basa el cálculo de la posición relativa del segundo dispositivo de medición con relación al primer dispositivo de medición, comprende al menos una medición acústica entre dicho primer dispositivo de comunicación acústica y dicho segundo dispositivo de comunicación acústica. Un enlace acústico permite una medición estable y fiable, de bajo coste y rápida.
En algunas realizaciones, dicho enlace acústico se utiliza para determinar la distancia entre el primero y el segundo dispositivos de medición. De acuerdo con ello, la al menos una medición de la distancia puede ser dicha al menos una medición acústica.
En algunas realizaciones, múltiples receptores acústicos están dispuestos sobre una matriz u otra formación conocida sobre el primer dispositivo, realizando múltiples mediciones acústicas con un emisor acústico en el segundo dispositivo.
La demora relativa de la señal recibida entre los receptores acústicos sobre el primer dispositivo se refiere directamente a la dirección del segundo dispositivo con relación al primer dispositivo.
De manera específica, a medida que la señal acústica es emitida por un emisor individual, el receptor más próximo al emisor recibirá primero la señal. La demora de tiempo hasta que el segundo receptor recibe la señal es proporcional al ángulo entre el emisor y el primer receptor, y el primero y el segundo receptores. Múltiples receptores incrementan la exactitud y permiten medir ángulos en dos dimensiones.
De acuerdo con ello, una medición de la dirección entre el primero y el segundo dispositivos puede ser una medición acústica.
Las mediciones acústicas de la dirección se conocen también como micrófonos direccionales o matriz de micrófonos.
Está claro que la presente invención no está limitada por el uso de una matriz de receptores acústicos, sino que puede implementarse por cualquier micrófono direccional.
En algunas formas de realización, adicional o alternativamente al enlace acústico, se puede establecer un enlace óptico entre dichos primero y segundo dispositivos de medición. Por lo tanto, dicho primer dispositivo de medición comprende un primer dispositivo de comunicación óptica y dicho segundo dispositivo de medición comprende un segundo dispositivo de medición óptica. De acuerdo con ello, el primero y segundo dispositivos de medición están configurados para establecer un enlace óptico entre sí. Dicha pluralidad de mediciones incluye al menos una medición óptica entre dicho primer dispositivo de comunicación óptica y dicho segundo dispositivo de comunicación óptica.
En algunas formas de realización, uno de dichos primero y segundo dispositivos de comunicación óptica comprende un sensor de imágenes como primero o segundo dispositivos de comunicación óptica, mientras que el otro de dichos primero y segundo dispositivos de comunicación óptica comprende una característica rastreable como segundo dispositivo de comunicación óptica, preferiblemente una fuente de radiación tal como un diodo emisor de luz (LED), por ejemplo une LED infrarrojo, en donde preferiblemente un tamaño y/o color y/o luminosidad de la característica rastreable se conoce y se utiliza por el sistema portátil de seguimiento del movimiento para localizar, en términos de un sistema de coordenadas polares, las coordenadas angulares del segundo dispositivo de medición.
En algunas formas de realización, uno dichos primero y segundo dispositivos de comunicación óptica comprende un sensor de imágenes como primero o segundo dispositivos de comunicación óptica, mientras que el otro de dichos primero y segundo dispositivos de comunicación óptica comprende una característica rastreable como segundo dispositivo de comunicación óptica, preferiblemente una fuente de radiación, tal como un diodo emisor de luz (LED), por ejemplo un LED infrarrojo, en donde preferiblemente un tamaño y/o color y/o luminosidad de la característica rastreable se conoce y se utiliza por el sistema portátil de seguimiento del movimiento para localizar, en términos de un sistema de coordenadas polares, las coordenadas polares del segundo dispositivo de medición. Está claro que se puede utilizar cualquier otra representación de la dirección, como se ha descrito anteriormente. La característica rastreable puede ser también una disposición de características, tal como una matriz de LEDs o similar, que es particularmente ventajosa, si el tamaño de la característica rastreable es evaluada, por ejemplo, en una medición de la distancia relativa entre el sensor de imágenes y la característica rastreable.
La coordenada radial puede obtenerse entonces a partir de al menos una medición de la distancia, que puede ser una medición acústica, una medición óptica o una medición de banda ultra-ancha realizada por medio de un primer y segundo dispositivos de medición caracterizados de manera correspondiente. A través del análisis del tamaño relativo de la característica rastreable, se puede obtener información de la distancia y se puede utilizar como una medición de la distancia óptica. Utilizando, por ejemplo, los parámetros conocidos de la cámara, se puede utilizar el tamaño (por ejemplo, longitud lateral de la escuadra con LED en sus esquinas) de la característica proyectada para calcular la distancia.
En algunas formas de realización, dicho enlace óptico puede utilizarse para determinar la distancia entre el primero y el segundo dispositivos de medición. De acuerdo con ello, la al menos una medición de la distancia puede ser dicha al menos una medición óptica.
En algunas formas de realización, adicional o alternativamente al enlace acústico y/o al enlace óptico, se puede establecer un enlace de banda ultra-ancha entre dichos primero y segundo dispositivos de medición. De acuerdo con ello, el primero y segundo dispositivos de medición están configurados para establecer un enlace de banda ultra-ancha entre sí. Dicha pluralidad de mediciones incluye al menos una medición de banda ultra-ancha entre dicho primero y dicho segundo dispositivos de comunicación y dicho segundo dispositivo de comunicación de banda ultra-ancha.
De manera similar a la medición acústica direccional descrita anteriormente, se puede utilizar también una matriz de mediciones de la distancia de banda ultra ancha para realizar una medición direccional.
En lugar de utilizan una demora de tiempo entre receptores, se puede utilizar el desplazamiento de fase relativo para determinar el ángulo entre emisor y cualquiera de los dos receptores.
Se pueden utilizar enlaces alternativos al enlace acústico, óptico y/o de banda ultra ancha.
En algunas formas de realización, dicha primera parte del cuerpo es un torso o una cabeza de dicho usuario. De acuerdo con ello, el sistema portátil de seguimiento del movimiento puede ser un sistema montado en la cabeza y/o un sistema montado en el torso.
Preferiblemente, dicha segunda parte del cuerpo es un miembro superior y/o una muñeca y/o mano de dicho usuario.
En algunas formas de realización, dicho dispositivo de cálculo está integrado, al menos en parte, en una unidad de referencia, pudiendo fijarse la unidad de referencia a la primera parte del cuerpo del usuario y comprendiendo, además, el al menos un primer dispositivo de medición.
En algunas formas de realización, dicho dispositivo de cálculo está integrado, al menos en parte, en una unidad rastreada, pudiendo fijarse la unidad rastreada a la segunda parte del cuerpo del usuario y que comprende, además, el al menos un segundo dispositivo de medición.
De acuerdo con ello, el dispositivo de cálculo puede ser integrado separadamente, o con el primer dispositivo de medición en la unidad de referencia o con el segundo dispositivo de medición en la unidad rastreada o componentes del dispositivo de cálculo pueden ser integrado con el primero y segundo dispositivos de medición.
En algunas formas de realización, un primer dispositivo de medición o una unidad de referencia pueden fijarse a la cabeza, por ejemplo en un dispositivo de pantalla montado en la cabeza, otro puede fijarse al torso o a otras partes del cuerpo, mientras que uno o más segundos dispositivos de medición o unidades de seguimiento pueden fijarse a las extremidades, preferiblemente a las extremidades superiores y/o a la(s) mano(s) o a otras partes del cuerpo. En algunas formas de realización preferidas, dicha pluralidad de mediciones consta de tres mediciones de la distancia o más de dichas mediciones de la distancia. Preferiblemente, se pueden realizar tres mediciones de la distancia acústica por medio de tres receptores y al menos uno, por ejemplo, tres transmisores o tres transmisores y al menos uno, por ejemplo tres, receptores, en donde el / los receptor(es) está(n) integrado(s) en el otro del primero y segundo dispositivos de medición. De acuerdo con ello, un transmisor común o un receptor común pueden desplegar comunicación con tres partes de sensores de cooperación. Aquí, con el conocimiento de la posición relativa de los transmisores (o receptores) en el mismo dispositivo, se pueden utilizar tres o más mediciones de la distancia para triangular la posición del segundo dispositivo de medición en espacio tridimensional.
En algunas formas de realización, dicho primer dispositivo de medición y/o dicho segundo dispositivo de medición comprenden uno u otros más dispositivos de medición para determinar y seguir, al menos parcialmente, una orientación del segundo dispositivo de medición con relación al primer dispositivo de medición o una orientación absoluta del segundo dispositivo de medición. En algunas formas de realización preferidas, dichos uno u otros más dispositivos de medición son IMUs.
En algunas formas de realización, estos sensores adicionales, que son capaces de determinar su orientación en uno a tres ejes ortogonales (por ejemplo, IMUs), se pueden desplegar, por ejemplo, sobre los segmentos de la mano y/o de los dedos, para calcular la postura y gesto de los segmentos de la mano y/o de los dedos con cinemática de avance, basada en la posición del miembro superior o mano calculada por la presente invención. De acuerdo con ello, los sensores pueden estar integrados en un guante. De manera similar, se puede fijar el mismo tipo de sensor, por ejemplo, al brazo inferior o al brazo superior, para calcular la postura de las extremidades superiores por cinemática de avance y/o inversa. De una manera muy sencilla, se pueden calcular la postura y orientación de la cabeza o de otras extremidades cuando uno de los dos dispositivos de la presente invención está fijado al torso y tal dispositivo de orientación está fijado a la cabeza.
La postura y el gesto de la extremidad superior, la mano y/o la muñeca se pueden utilizar, por ejemplo, para representar un avatar del usuario y para interaccionar con un entorno virtual expuesto al usuario, por ejemplo, por gafas de realidad virtual, gafas de realidad aumentada y otras pantallas montadas en la cabeza.
Otro objeto de la presente invención es especificar un método mejorado para seguir una posición positiva entre una primera parte del cuerpo de un usuario y una segunda parte del cuerpo de dicho usuario.
Este otro objeto se consigue por el método de acuerdo con la reivindicación 10, De acuerdo con ello, un método para el seguimiento de una posición relativa entre una primera parte del cuerpo de un usuario y una segunda parte del cuerpo de dicho usuario,
Este otro objeto se consigue por el método de acuerdo con la reivindicación 10. De acuerdo con ello, se describe un método para el seguimiento de una posición relativa entre una primera parte del cuerpo de un usuario y una segunda parte del cuerpo de dicho usuario, comprendiendo dicho método:
utilizar al menos un primer dispositivo de medición que se puede fijar a dicha primera parte del cuerpo, al menos un segundo dispositivo de medición que se puede fijar a dicha segunda parte del cuerpo y un dispositivo de cálculo, que se comunica con al menos uno del primero y segundo dispositivos de medición para recuperar datos de mediciones entre el primero y segundo dispositivos de medición y ejecutar una aplicación en dicho dispositivo de cálculo para i) realizar una pluralidad de primeras mediciones entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición, en donde dicha pluralidad de primeras mediciones entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición comprende al menos una medición de la distancia entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición; y ii) calcular, en tres dimensiones, una primera posición de dicho segundo dispositivo de medición con relación a dicho primer dispositivo de medición utilizando dicha pluralidad de primeras mediciones;
iii) realizar una o más pluralidades de mediciones siguientes entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición, en donde dichas una o más pluralidades de mediciones siguientes entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición comprenden al menos una medición de la distancia entre dicho primer dispositivo de medición y dicho segundo dispositivo de medición; y
iv) calcular, en tres dimensiones, una o más posiciones siguientes de dicho primer dispositivo de medición y dicho segundo dispositivo de medición utilizando una o más pluralidades de dichas mediciones siguientes para el seguimiento de dicha posición de dicha segunda parte del cuerpo con relación a dicha primera parte del cuerpo.
La posición y las posiciones siguientes forman entonces una trayectoria que puede ser implementada en el entorno virtual.
En algunas formas de realización del método de acuerdo con la invención, dicha primera parte del cuerpo es un torno y/o una cabeza de dicho usuario.
En algunas formas de realización del método de acuerdo con la invención, dicha segunda parte del cuerpo es una extremidad superior y/o una mano de dicho usuario.
En algunas formas de realización del método de acuerdo con la invención, dicha pluralidad de primeras mediciones y/o dichas una o más pluralidades de mediciones siguientes comprenden, como dicha al menos una medición de la distancia, al menos una medición seleccionada del grupo que consta de una medición acústica, una medición óptica y una medición de banda ultra ancha.
En algunas formas de realización del método de acuerdo con la invención, dicha posición rastreada de dicha segunda parte del cuerpo con relación a dicha primera parte del cuerpo se utiliza como un entorno virtual.
De acuerdo con ello, la presente invención describe un sistema portátil de sensor o de seguimiento del movimiento, capaz de calcular la posición de partes del cuerpo, tales como una extremidad superior, muñeca y/o mano con relación a otra parte del cuerpo, tal como torso y/o la cabeza en tiempo real, mientras que la determinación de la otra posición se basa en una pluralidad de mediciones que comprenden al menos una medición de la distancia.
En una forma de realización preferida, un primer dispositivo de medición está fijado o bien al torso o a la cabeza. Un segundo dispositivo de medición está fijado a la extremidad, a la muñeca o a la mano, que necesitan ser rastreadas. Los dos dispositivos de medición se comunican entre sí a través de un enlace y la información intercambiada se utiliza para calcular la posición tridimensional de un dispositivo de medición preferiblemente expresada en coordenadas dentro del bastidor del cuerpo del otro dispositivo de medición.
La localización de la extremidad rastreada se puede conseguir de diferentes maneras. La presente invención despliega al menos un dispositivo de medición de la distancia, donde el emisor del dispositivo de medición de la distancia es parte del dispositivo fijado a una parte del cuerpo, mientras que el receptor es parte del dispositivo fijado a la otra parte del cuerpo o viceversa.
Como se detalla aquí, en un método preferido, la presente invención despliega al menos dos sensores de medición de la distancia integrados en el mismo dispositivo de medición. Pueden compartir opcionalmente un emisor común y un receptor común. Conociendo la posición relativa de los transmisores en el mismo dispositivo, se pueden utilizar tres o más mediciones de la distancia para triangular la posición del dispositivo seguido en tres dimensiones.
Como se detalla aquí, en otro método preferido, un sensor de imágenes está fijado a cualquiera de los dos dispositivos de medición y una característica rastreable está fijada al otro dispositivo. Las coordenadas de la imagen rastreada de la característica pueden utilizarse para calcular el ángulo relativo entre el sensor de imágenes y la característica y definir, junto con la medición de la distancia, la posición relativa entre los dos dispositivos.
Debe entenderse que las características de las diferentes formas de realización descritas anteriormente se pueden combinar libremente entre sí.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Formas de realización preferidas de la invención se describen a continuación con referencia a los dibujos, que tienen la finalidad de ilustrar las presentes formas de realización preferidas de la invención y no para la finalidad de limitar la misma. En los dibujos:
La figura 1 muestra una primera forma de realización de un sistema portátil de seguimiento del movimiento de acuerdo con el primero y segundo dispositivos de medición.
La figura 2 muestra una primera forma de realización de un sistema portátil de seguimiento del movimiento de acuerdo con la presente invención con primero y segundo dispositivos de medición.
La figura 3 muestra primeras formas de realización del primero y segundo dispositivos de medición de acuerdo con las figuras 1 o 2 con más detalle.
La figura 4 muestra segundas formas de realización del primero y segundo dispositivos de medición de acuerdo con las figuras 1 y 2 con más detalle.
La figura 5 muestra otra forma de realización que rastrea la postura completa de la extremidad superior y la mano; y La figura 6 muestra otra forma de realización todavía que rastrea la postura completa de la extremidad superior y la mano.
DESCRIPCIÓN DE FORMAS DE REALIZACIÓN PREFERIDAS
La descripción y los ejemplos siguientes ilustran, además, la presente invención, pero no deberían interpretarse como limitación de su alcance. Se describen formas de realización preferidas con referencia a las figuras 1 a 6. Las figuras muestran ilustraciones esquemáticas de formas de realización preferidas. Los mismos signos de referencia en las figuras designan los mismos componentes o componentes con el mismo efecto técnico.
La figura 1 muestra una primera forma de realización de un sistema portátil de seguimiento del movimiento 12 de acuerdo con la invención. Dicho sistema portátil de seguimiento del movimiento 12 comprende un primer dispositivo de medición 120a (el dispositivo de seguimiento) que está fijado, por ejemplo integrado, en una pantalla 130 montada en la cabeza sobre una primera parte del cuerpo de un usuario 100, siendo la primera parte del cuerpo una cabeza 101 del usuario 100. La pantalla 130 montada en la cabeza es, en la primera forma de realización, una unidad de referencia que ajusta el bastidor de referencia en el que se realiza el seguimiento. Un segundo dispositivo de medición 121a (el dispositivo rastreado) está fijado a una pulsera 111 dispuesta en una segunda parte del cuerpo, siendo la segunda parte del cuerpo una muñeca 103 del usuario 100. En lugar de la pulsera 111 se pueden utilizar otros medios de fijación típicos, tales como una manopla o cinta o integración en la ropa. El primer dispositivo de medición 120a y el segundo dispositivo de medición 121a están acoplados entre sí por medio de un enlace de comunicación para intercambio de información, en donde dicha información se utiliza entonces como una base para calcular, en tres dimensiones, la posición del segundo dispositivo de medición 121a con relación al primer dispositivo de medición 120a, determinando de esta manera la posición de la muñeca 103 con relación a la cabeza 101. El intercambio de información comprende una pluralidad de mediciones, que incluyen al menos una medición de una distancia relativa entre el primero y segundo dispositivos de medición 120a, 121a, en donde, utilizando dicha pluralidad de mediciones, que incluyen la medición de la distancia como entrada a un dispositivo de cálculo 150, el vector de la distancia es calculado en tres dimensiones. El dispositivo de cálculo 150 está integrado preferiblemente
en el componente del sistema 12 montado en la cabeza y conectado para recibir dicha entrada y para proporcionar el resultado del cálculo para uso posterior, por ejemplo, para la implementación en una realidad virtual representada
en la pantalla 130 montada en la cabeza. El dispositivo de cálculo 150 puede estar dispuesto en la mano o incluso distribuido, por ejemplo unas partes son calculadas en uno de los primeros y segundos dispositivos de medición
120a, 121a o 120b, 121b y otras partes son calculadas en el otro de los primeros y segundos dispositivos de medición 120a, 121a o 120b, 121b. Por ejemplo, una parte del dispositivo de cálculo puede estar localizada en el dispositivo de medición respectivo con el sensor de imágenes (por ejemplo, una cámara) y determina las coordenadas polares. Otra parte del dispositivo de cálculo puede estar localizada en el receptor acústico sobre la otra parte del cuerpo y calcula la coordenada radial. Cada dispositivo de cálculo puede enviar sus datos a un huésped, donde son combinados e implementados, por ejemplo en la realidad virtual.
En algunas formas de realización, el dispositivo de cálculo 150 puede estar integrado de forma separada; en algunas formas de realización, el dispositivo de cálculo 150 puede estar integrado con el primer dispositivo de medición
120a, 120b en la unidad de referencia 140 o con el segundo dispositivo de medición 121a, 121b en la unidad rastreada 141. En algunas formas de realización, componentes del dispositivo de cálculo 150 pueden estar integrado
con ambos primero y segundo dispositivos de medición 120a, 121a o 120b, 121b u, opcionalmente, también en
otros componentes del sistema 12. La figura 2 muestra una segunda forma de realización del sistema portátil de seguimiento del movimiento 12 de acuerdo con la invención. El sistema 12 comprende el primer dispositivo de medición 120b que está fijado a un torso 104 del usuario 100 con una correa 112 o medio de fijación similar. De acuerdo con la segunda forma de realización, el torno 104 es la primera parte del cuerpo. El segundo dispositivo
121b está fijado a la mano 102 con un guante 110 o similar. De acuerdo con la segunda forma de realización, la segunda parte del cuerpo es la mano 102. El primero y segundo dispositivos de medición 120b, 121b están acoplados a través del enlace de comunicación, a través del cual se realiza la pluralidad de mediciones entre los dos dispositivos 120b, 121b. Aquí, el sistema de cálculo 12 está integrado preferiblemente en el componente montado en
el torso o montado en la cabeza del sistema 12 y configurado para calcular, sobre la base de dicha pluralidad de mediciones, la posición, en tres dimensiones, del segundo dispositivo de medición 121b con relación al primer dispositivo de medición 120b fijado al torso 104. De acuerdo con ello, en la segunda forma de realización, el bastidor de referencia para el seguimiento del segundo dispositivo de medición 121b es el del torso 104 y el dispositivo de cálculo 150 puede estar previsto separado del primero y segundo dispositivos de medición 120b, 121b, en la pantalla
130 montada en la cabeza.
En ambas formas de realización, la posición de la segunda parte del cuerpo 103 y 102, respectivamente, es decir posición del segundo dispositivo de medición 21a y 121b, respectivamente, se puede calcular entonces, en espacio tridimensional, por el dispositivo de cálculo 150 y pueden convertirse en el entorno virtual mostrado en la pantalla
130 montada en la cabeza o utilizarse para interaccionar con ella.
En general, debe entenderse que varios segundos dispositivos de medición pueden rastrearse al mismo tiempo en el bastidor de referencia del primer dispositivo de medición.
La figura 3 muestra una forma de realización en la que se indica cómo se puede implementar la primera y la segunda partes 120a y 121a del dispositivo de medición en la figura 1 o 120b y 121b en la figura 2.
Un primer dispositivo de comunicación acústica 200a despliega un emisor acústico 201a y un primer dispositivo de comunicación instantánea 202a, por ejemplo, un módulo de radio frecuencia.
Un segundo dispositivo de comunicación acústica 200b despliega al menos tres receptores acústicos 210b con posición relativa conocida y un segundo dispositivo de comunicación instantánea 202b.
El primer dispositivo de comunicación acústica 200a con el emisor acústico 201a y el segundo dispositivo de comunicación acústica 200b con el receptor acústico 201b pueden establecer un enlace acústico aL, más precisamente: tres enlaces acústicos, entre sí.
El primer dispositivo de comunicación instantánea 202a y el segundo dispositivo de comunicación instantánea 202b pueden establecer un enlace acústico aL entre sí.
En funcionamiento, el primer dispositivo de comunicación instantánea 202a anuncia un pulso acústico del emisor acústico 201a y dispara el pulso acústico. El segundo dispositivo de comunicación instantánea 202a recibe el anuncio, pone en marcha el reloj y e inicia la escucha de los receptores acústicos 201b. El tiempo cuando el impulso
es emitido por el emisor 201a y los tres tiempos individuales cuando es impulso es detectado en los receptores 201 b se pueden utilizar para triangular, en tres dimensiones, la posición relativa entre el primero y el segundo dispositivos de medición 120a, 121a y 120b, 121b , respectivamente.
El primer dispositivo de comunicación acústica 200a puede estar integrado en uno del primero y segundo dispositivos de medición 120a, 121a y 120b, 121b, respectivamente, el segundo dispositivo de comunicación acústica 200b puede estar integrado en el otro del primero y segundo dispositivos de medición 120a, 121a y 120b, 121b, respectivamente.
La figura 4 muestra otra forma de realización en la que se indica cómo se puede implementar la primera y la segunda partes 120a y 121a del dispositivo de medición en la figura 1 o 120b y 121b en la figura 2.
Un primer dispositivo de comunicación opto-acústica 200c despliega un emisor acústico 201c, un primer dispositivo de comunicación instantánea 202c, y un diodo emisor de luz infrarroja 203a.
Un segundo dispositivo de comunicación opto-acústica 200d despliega un emisor acústico 201d, un segundo dispositivo de comunicación instantánea 202f, y un diodo de formación de imágenes infrarrojas 203b.
El diodo emisor de luz infrarroja 203a como un primer dispositivo de comunicación óptica y el dispositivo de formación de imágenes infrarrojas 203b como el segundo dispositivo de comunicación óptica pueden establecer un enlace óptico oL entre sí.
En funcionamiento, el emisor acústico 201c y el receptor 201d se utilizan junto con el primero y segundo dispositivos de comunicación instantánea 202a y 202b para medir la distancia entre el primero y el segundo dispositivos de medición 120a, 121a y 120b, 121b, respectivamente, por una medición del tiempo-de-vuelo de la señal acústica como se ha descrito anteriormente. El dispositivo de formación de imágenes 203b y el LED infrarrojo 203a se utilizan para calcular las coordenadas angulares entre el primero y el segundo dispositivos de medición 120a, 121a y 120b, 121b, respectivamente. Las coordenadas angulares y la distancia determinan la posición entre el segundo dispositivo de medición 121a y 121b, respectivamente, con relación al primer dispositivo de medición 120a y 120b, respectivamente.
El primer dispositivo de comunicación opto-acústica 200c puede estar integrado en uno del primero y segundo dispositivos de medición 120a, 121a y 120b, 121b, respectivamente, el segundo dispositivo de comunicación optoacústica 200d puede estar integrado en el otro del primero y segundo dispositivos de medición 120a, 121a y 120b, 121b, respectivamente.
La figura 5 muestra una forma de realización que indica cómo se puede obtener una postura completa de una extremidad superior 107, 108 (ver la figura 1) y de la mano 102. Como se muestra en la figura 1, el primer dispositivo de medición 121a está fijado a la muñeca 103 del usuario 100 utilizando un cinturón 111 o similar. Además, otro dispositivo de medición 304a, que es capaz de determinar su orientación (por ejemplo, una IMU) está fijado también al cinturón 111. La posición determinada por medio del segundo dispositivo de medición 121a y la orientación determinada por medio del dispositivo de medición 304a se utilizan para posicionar la segunda parte del cuerpo, aquí un brazo inferior 107 (ver la figura 1), en espacio de tres dimensiones.
La cinemática inversa se puede utilizar para hallar la posición y la orientación de un brazo superior 108 (ver la figura 2). Otro dispositivo 304b capaz de determinar su orientación está fijado a la mano, y dispositivos 305 similares están fijados a los segmentos de los dedos 106. Sobre la base de la posición y orientación suministradas por 121a y 304a, se puede utilizar una cinemática de avance sobre las orientaciones suministradas por los dispositivos 304b y 305 para calcular la postura y el gesto de la mano 102 y de los dedos 106.
La figura 6 muestra otra forma de realización que indica cómo se puede obtener una postura de la extremidad superior 107, 108 (ver la figura 1) y de la mano 102. Como se muestra en la figura 2, el dispositivo 121b está fijado a una mano de un usuario 102 utilizando un guante 110 o similar. Además, otro dispositivo de medición 304b, que es capaz de determinar su orientación (por ejemplo, una IMU) está fijado también al guante 110. La posición suministrada por 121a y la orientación de 304a se utilizan para posicionar la mano 102 en el espacio. Otros dispositivos 305 capaces de determinar su orientación (por ejemplo IMUs) se fijan a segmentos del dedo 106. La cinemática de avance se puede utilizar sobre las orientaciones suministradas por los dispositivos 305 para calcular la postura y el gesto de la mano 102.
En esta configuración, un cinturón 111 opcional y un dispositivo 304a fijado, capaces de calcular su orientación, se pueden utilizar en combinación con cinemática inversa para calcular la postura de los brazos inferior y superior 107, 108.
De acuerdo con ello, la presente invención despliega al menos dos dispositivos de medición 120a, 121a y 120b, 121b separados físicamente, respectivamente, es decir, unidades individuales, capaces de comunicarse entre sí. Uno de ellos, el primer dispositivo de medición 120a y 120b, respectivamente, actúa como dispositivo de referencia que está fijado o bien al torso 104 (por ejemplo, a la cadera como se ilustra en la figura 2) o a la cabeza 101 (por ejemplo, a la frente de la cabeza o a una pantalla 130 montada en la cabeza, llevada por el usuario, como se muestra en la figura 1). No obstante, otras partes del cuerpo pueden seleccionarse como primeras partes del cuerpo. Al menos otro dispositivo, el segundo dispositivo de medición 121a y 121b, respectivamente, está fijado a una extremidad superior, más precisamente a la muñeca 103 (como se ilustra en la figura 1) o la mano 102 (como se muestra en la figura 2), por ejemplo por una pulsera 111 o incluida en un guante 110 y su posición es rastreada con relación a la posición del dispositivo de referencia 120a y 120b, respectivamente. Opcionalmente, otros segundos dispositivos 121a, 121b y/u otros dispositivos de medición 304, 304b (tales como IMUs) pueden fijarse a la misma o a otras partes y rastrearse sobre la misma u otras extremidades, por ejemplo sobre la otra mano o la otra muñeca. Dependiendo de la aplicación, el entorno virtual se opone al usuario 100 como se ve desde la perspectiva del usuario 100. En este escenario, el dispositivo de referencia (es decir, el primer dispositivo de medición 120a, 120b) estaría montado típicamente en la cabeza 101 del usuario 100, como el bastidor del cuerpo de la cabeza 101 corresponde naturalmente a la cámara virtual en la pantalla 130 montada en la cabeza y utilizada para proporcionar el entorno virtual.
En aplicaciones en las que el contenido virtual está expuesto en vista de tercera persona, el dispositivo de referencia 120b puede colocarse en el torso 104. Sin embargo, si el dispositivo de referencia 110b está fijado al torso 104, se puede fijar un dispositivo 304 capaz de determinar la orientación (por ejemplo, una IMU) a la cabeza 101, y la orientación se puede utilizar para trasladar la posición rastreada desde el bastidor del cuerpo de referencia del torso 104 hasta el bastidor del cuerpo de la cabeza 101. Las pantallas montadas en la cabeza contienen ya típicamente tales dispositivos de determinación de la orientación 304 y de esta manera, en este caso específico, no se requeriría ningún sensor adicional.
Si el dispositivo de referencia 120 está fijado a la cabeza 101, se puede fijar un dispositivo capaz de orientación al dorso 104 para conseguir resultados similares de otra manera.
El dispositivo rastreado, es decir, el segundo dispositivo 12, 121b, respectivamente, de la presente invención puede comprender, además, tal dispositivo capaz de orientación 304, de tal manera que se conoce no sólo la posición, sino también la orientación de la extremidad en uno o más, preferiblemente en todos los tres ejes.
Si tales otros dispositivos capaces de orientación están fijados a extremidades vecinas, se puede utilizar la cinemática de avance para determinar su posición y orientación. Por ejemplo, si el dispositivo rastreable de nuestra invención se fija a la muñeca y se fijan dispositivos capaces de orientación 304, por ejemplo IMUs, a la muñeca, la mano y segmentos de dedos (como se ilustra en la figura 5), se puede utilizar la cinemática de avance para calcular la postura y gesto completo de la mano 102, sobre la base de la posición y orientación de la muñeca 103.
Además, se puede utilizar la cinemática inversa para calcular la postura y orientación del brazo superior 108 y, por lo tanto, se conoce la postura de todo el brazo 107, 108 y de la mano 102.
Puesto que el dispositivo de la muñeca 121 y los sensores 304, 304b, 305 en la mano 102 pueden estar integrados todos en un guante 110, es necesario llevar un conjunto mínimo de artículos por el usuario 100 y se puede rastrear todavía el movimiento del cuerpo superior completo.
De manera similar, dicho dispositivo rastreable, es decir, el segundo dispositivo de medición 121b, puede ser fijado a la mano 102 en lugar de la muñeca 103, como se ilustra en la figura 6, y se pueden obtener los mismos resultados. Es evidente que todas las combinaciones del dispositivo de referencia 120, 120b que se fija al dorso 104 y/o a la cabeza 101 y del dispositivo rastreable 121, 121b que se fija a la extremidad superior 107, 108 y/o a la mano 102 funcionan igualmente bien, aunque sólo dos casos se ilustran en la figura 1 y en la figura 2.
La localización de la extremidad se puede con seguir de diferentes maneras. En una forma de realización de la presente invención, se despliegan uno o más emisores acústicos y un dispositivo de comunicación instantánea (por ejemplo un módulo de radio frecuencia) en un primer dispositivo de medición fijado a una primera parte del cuerpo y uno o más receptores acústicos y otro dispositivo de comunicación instantánea se despliegan en un segundo dispositivo de medición fijado a una segunda parte del cuerpo. El papel de un dispositivo que actúa como referencia y del otro dispositivo que actúa como dispositivo rastreable es evidentemente intercambiable.
Para cada emisor en el sistema, un pulso acústico es anunciado por el dispositivo de comunicación en el mismo dispositivo y el pulso es disparado inmediatamente después. Cuando el dispositivo de comunicación sobre el dispositivo con un receptor acústico recibe un anuncio, se pone en marcha un reloj que mide el tiempo hasta que el receptor acústico detecta el pulso de entrada. El tiempo de vuelo junto con la velocidad conocida de la señal acústica se utiliza para calcular la distancia entre los dos dispositivos. Está claro que otros dispositivos capaces de calcular la distancia (por ejemplo, señales de ancho de banda ultra-ancha o visuales) pueden sustituir al dispositivo acústico descrito en esta forma de realización.
Al menos tres emisores acústicos pulsados uno después del otro en combinación con al menos un receptor acústico, o al menos un emisor acústico y tres receptores acústicos proporcionan tres mediciones de la distancia diferentes. El conocimiento de la posición relativa de al menos tres transmisores fijados rígidamente a un dispositivo proporciona junto con las mediciones de la distancia información suficiente para calcular la posición relativa entre los dispositivos por medio de triangulación. El caso de un emisor que es compartido por tres receptores se ilustra en la figura 3. Obviamente, se pueden desplegar combinaciones arbitrarias de emisores y receptores en uno u otro dispositivo. En otra forma de realización, una unidad de medición de la distancia es complementada por otra unidad, capaz de determinar los ángulos que definen la dirección relativa entre el dispositivo de referencia y el dispositivo rastreado, expresados, por ejemplo, en coordenadas esféricas. Un ejemplo de tal unidad sería un sensor de imágenes fijado a cualquiera del dispositivo de referencia o el dispositivo rastreado y una característica rastreable tal como, por ejemplo, un LED fijado al otro dispositivo. El sensor de imágenes es capaz de rastrear las coordenadas de la imagen proyectada del LED, que define los dos ángulos entre el vector desde el centro del sensor de la imagen hasta el LED y la normal del sensor de la imagen. La dirección definida de esta manera desde el sensor de la imagen hasta el LED junto con la distancia proporcionada por la unidad de medición de la distancia define la posición relativa entre los dos dispositivos.
Se comprenderá que la presente invención protege no sólo características rastreables como, por ejemplo, LED y sensores de imágenes que trabajan en los espectros visibles, sino también cualquier otra longitud de onda (por ejemplo, infrarroja). Además, en lugar de utilizar un LRED individual se puede utilizar una disposición de LEDs o cualquier otra característica rastreable, incrementando, además, la estabilidad del método.
Si se conoce el patrón de características, se pueden utilizar métodos de visión por ordenados para calcular la distancia analizando, por ejemplo, el tamaño de la característica en el espacio de la imagen. Esto conduce a otro método, en el que el tamaño de la característica se utiliza como medición de la distancia y la localización de la característica como otra medición, proporcionando información suficiente para calcular la posición relativa entre los dispositivos.
Alternativamente, la medición de la distancia óptica puede estar acompañada por otras mediciones de la distancia. LISTA DE SIGNOS DE REFERENCIA
100 Usuario
101 Primera parte del cuerpo, cabeza de 100
102 Segunda parte del cuerpo, mano de 100
103 Segunda parte del cuerpo, muñeca de 100
104 Primera parte del cuerpo, torso
106 Dedo (incluido dedo pulgar)
107 Brazo inferior
108 Brazo superior
110 Guante
111 Pulsera
12 Sistema portátil de seguimiento del movimiento
120a, b Primer dispositivo de medición
121a, b Segundo dispositivo de medición
130 Unidad de referencia, pantalla montada en la cabeza
140 Unidad de referencia
141 Unidad rastreada
150 Dispositivo de cálculo
200a Primer dispositivo de comunicación acústica
220b Segundo dispositivo de comunicación acústica
200c Primer dispositivo de comunicación opto-acústica
200d Segundo dispositivo de comunicación opto-acústica
201a, d Emisor / transmisor acústico
201b, c Receptor acústico
202a Primer dispositivo de comunicación instantánea
202b Segundo dispositivo de comunicación instantánea
203a Dispositivo de radiación LED infrarrojo
203b Dispositivo de formación de imágenes ópticas, dispositivo de formación de imágenes infrarrojas 304, 304a, b Otro dispositivo de medición, capaz de orientación, tal como una IMU
aL Enlace acústico iL Enlace instantáneo oL Enlace óptico

Claims (15)

REIVINDICACIONES
1. Un sistema portátil de seguimiento del movimiento (12) para capturar una posición relativa entre una primera parte del cuerpo (101; 104) de un usuario (100) y una segunda parte del cuerpo (101, 103, 106-108) de dicho usuario (100), en donde dicho sistema portátil de seguimiento del movimiento (12) comprende:
al menos un primer dispositivo de medición (120; 120b) que se puede fijar a dicha primera parte del cuerpo (101; 104);
al menos un segundo dispositivo de medición (121; 121b) que se puede fijar a dicha segunda parte del cuerpo (101; 103; 106-108); y
un dispositivo de cálculo (150) adaptado para comunicarse con al menos uno del primer y segundo dispositivos de medición para recibir datos de mediciones entre el primero y el segundo dispositivos de medición;
en donde dicho al menos un primer dispositivo de medición (120; 120b), dicho al menos un segundo dispositivo de medición (121; 121b) y dicho dispositivo de cálculo (150) están configurados para obtener por dicho dispositivo de cálculo (150) una pluralidad de mediciones entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b), en donde dicha pluralidad de mediciones entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b), comprende al menos una medición de la distancia entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b), y
en donde dicho dispositivo de cálculo (150) está configurado para calcular, en tres dimensiones, una posición de dicho segundo dispositivo de medición (121; 121b) con relación a dicho primer dispositivo de medición (120; 120b) utilizando dicha pluralidad de mediciones para el seguimiento de la posición de dicha segunda parte del cuerpo (102; 103; 106-108) con relación a dicha primera parte del cuerpo (101; 104), caracterizado porque dicha pluralidad de mediciones entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b) comprende al menos una medición de la dirección entre dicho primer dispositivo de medición (120; 120b) y dicho segundo dispositivo de medición (121; 121b).
2. El sistema portátil de seguimiento del movimiento (12) de acuerdo con la reivindicación 1, en donde dicho primer dispositivo de medición (120; 120b) comprende un primer dispositivo de comunicación acústica (200) y dicho segundo dispositivo de medición (121; 121b) comprende un segundo dispositivo de comunicación acústica (200b); en donde el primero y el segundo dispositivos de comunicación acústica (200, 200b) están configurados para establecer un enlace acústico (aL) entre sí;
en donde dicha pluralidad de mediciones comprende al menos una medición acústica entre dicho primer dispositivo de comunicación acústica (200) y dicho segundo dispositivo de comunicación acústica (200b), y
en donde dicha al menos una medición de la distancia y/o de la dirección es con preferencia o está comprendida con preferencia en dicha al menos una medición acústica.
3. El sistema portátil de seguimiento del movimiento (12) de acuerdo con una cualquiera de las reivindicaciones 1 a 2, en donde dicho primer dispositivo de medición (120; 120b) comprende un primer dispositivo de comunicación óptica (203) y dicho segundo dispositivo de medición (121; 121b) comprende un segundo dispositivo de comunicación óptica (203b);
en donde el primero y segundo dispositivos de comunicación óptica (203a, 203b) están configurados para establecer un enlace óptico (oL) entre sí;
en donde dicha pluralidad de mediciones incluye al menos una medición óptica entre dicho primer dispositivo de comunicación óptica (203a) y dicho segundo dispositivo de comunicación óptica (203b), y
en donde uno de dicho primero y segundo dispositivos de comunicación óptica (203b) comprende preferiblemente un sensor de imágenes y el otro de dicho primero y segundo dispositivos de comunicación óptica (203b) comprende una característica rastreable, preferiblemente una fuente de radiación, en donde, preferiblemente, se conoce un tamaño de la característica rastreable y se utiliza por el sistema portátil de seguimiento del movimiento (12).
4. El sistema portátil de seguimiento del movimiento (12) de acuerdo con la reivindicación 3, en donde dicha al menos una medición de la distancia y/o de la dirección está comprendida en dicha al menos una medición óptica, en donde, preferiblemente, dicho sistema portátil de seguimiento del movimiento (12) es de acuerdo con las reivindicaciones 2 y 3 y dicha medición de la distancia es una medición acústica y dicha al menos una medición de la dirección es una medición óptica.
5. El sistema portátil de seguimiento del movimiento (12) de acuerdo con una cualquiera de las reivindicaciones 1 a 4, en donde dicho primer dispositivo de medición (120a, 120b) comprende un primer dispositivo de comunicación de banda ultra-ancha y dicho segundo dispositivo de medición comprende un segundo dispositivo de comunicación de banda ultra-ancha;
en donde el primero y segundo dispositivos de comunicación de banda ultra-ancha están configurados para establecer un enlace de banda ultra-ancha entre sí; y
en donde dicha pluralidad de mediciones incluye al menos una medición de banda ultra-ancha entre dicho primer dispositivo de comunicación de banda ultra-ancha y dicho segundo dispositivo de comunicación de banda ultraancha.
6. El sistema portátil de seguimiento del movimiento (12) de acuerdo con una cualquiera de las reivindicaciones 1 a 5, en donde dicha primera parte del cuerpo (101; 104) es un torso (104) y/o una cabeza (101) de dicho usuario (100) y/o en donde dicha segunda parte del cuerpo (102; 203; 107; 108) es una extremidad superior (107, 108) y/o una mano (102) de dicho usuario (100).
7. El sistema portátil de seguimiento del movimiento (12) de acuerdo con una cualquiera de las reivindicaciones 1 a 6, en donde dicho dispositivo (150) está integrado, al menos en parte, en una unidad de referencia (140), pudiendo fijarse la unidad de referencia (140) a la primera parte del cuerpo (101; 104) del usuario (100) y que comprende, además, el al menos un primer dispositivo de medición (110a; 120b); y/o
en donde dicho dispositivo de cálculo (150) está integrado, al menos en parte, en una unidad rastreada (141), pudiendo fijarse la unidad rastreada (141) a la segunda parte del cuerpo (102; 103; 107; 108) del usuario (100) y que comprende, además, el al menos un segundo dispositivo de medición (121a; 121b).
8. El sistema portátil de seguimiento del movimiento (12) de acuerdo con una cualquiera de las reivindicaciones 1 a 7, en donde dicha pluralidad de mediciones consta de una medición de la distancia y una medición de la dirección entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b) o consta de o comprende tres o más mediciones de la distancia.
9. El sistema portátil de seguimiento del movimiento (12) de acuerdo con una cualquiera de las reivindicaciones 1 a 8, en donde dicho primer dispositivo de medición (120a; 120b) y/o dicho segundo dispositivo de medición (121a; 121b) comprenden uno u otros más dispositivos de medición (304; 304a; 304b) para determinar y rastrear, al menos parcialmente, una orientación de dicho segundo dispositivo de medición (121a; 121b) con relación al primer dispositivo de medición (120a; 120b) o una orientación absoluta del segundo dispositivo de medición (121a; 121b), en donde, preferiblemente, dicho uno u otros más dispositivos de medición (30a; 304a; 304b) son unidades de medición inercial.
10. Un método para el seguimiento de una posición relativa entre una primera parte del cuerpo (101; 104) de un usuario (100) y una segunda parte del cuerpo (102; 103; 106.108) de dicho usuario (100), comprendiendo dicho método:
utilizar al menos un primer dispositivo de medición (120a; 120b) que se puede fijar a dicha primera parte del cuerpo (101; 104), al menos un segundo dispositivo de medición (121a; 121b) que se puede fijar a dicha segunda parte del cuerpo (102; 103; 106-108) y un dispositivo de cálculo (150), que se comunica con al menos uno del primero y segundo dispositivos de medición para recuperar datos de mediciones entre el primero y segundo dispositivos de medición, y ejecutar una aplicación en dicho dispositivo de cálculo (150) para
i) realizar una pluralidad de primeras mediciones entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (12qa; 121b), en donde dicha pluralidad de primeras mediciones entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b) comprende al menos una medición de la distancia entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b); y
ii) calcular, en tres dimensiones, una primera posición de dicho segundo dispositivo de medición (121a; 121b) con relación a dicho primer dispositivo de medición (120a; 120b) utilizando dicha pluralidad de primeras mediciones;
iii) realizar una o más pluralidades de mediciones siguientes entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b), en donde dichas una o más pluralidades de mediciones siguientes entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a: 121b) comprenden al menos una medición de la distancia entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b); y iv) calcular, en tres dimensiones, una o más posiciones siguientes de dicho segundo dispositivo de medición (121a; 121b) con relación a dicho primer dispositivo de medición (120a; 120b) utilizando una o más pluralidades de dichas mediciones siguientes para el seguimiento de dicha posición de dicha segunda parte del cuerpo (102; 103; 106-108) con relación a dicha primera parte del cuerpo (101; 104);
caracterizado porque dicha pluralidad de primeras mediciones y/o una o más pluralidades de dichas mediciones siguientes entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b), comprenden al menos una medición de la posición entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b).
11. El método de acuerdo con la reivindicación 10, en donde dicha pluralidad de primeras mediciones y/o dicha una o más pluralidades de mediciones siguientes comprenden, como se ha dicho, al menos una medición de la dirección, al menos una medición seleccionada del grupo que consta de una medición acústica, una medición óptica, y una medición de banda ultra-ancha.
12. El método de acuerdo con una cualquiera de las reivindicaciones 10 a 11, en donde dicha pluralidad de primeras mediciones y/o dicha una o más pluralidades de mediciones siguientes comprenden, como se ha dicho, al menos una medición de la distancia, al menos una medición seleccionada del grupo que consta de una medición acústica, una medición óptica, y una medición de banda ultra-ancha.
13. El método de acuerdo con una cualquiera de las reivindicaciones 10 a 12, en donde dicha pluralidad de primeras mediciones y/o dicha una o más pluralidades de mediciones siguientes entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b) consta de una distancia, y una medición de la dirección entre dicho primer dispositivo de medición (120a; 120b) y dicho segundo dispositivo de medición (121a; 121b).
14. El método de acuerdo con una cualquiera de las reivindicaciones 10 a 13, en donde dicha primera parte del cuerpo (101; 103) es un torso (104) o una cabeza (101) de dicho usuario (100); y/o
en donde dicha segunda parte del cuerpo (102; 103; 106-108) es una extremidad superior (107, 108) o una muñeca (103) o mano (102) de dicho usuario (10).
15. El método de acuerdo con una cualquiera de las reivindicaciones 10 a 14, en donde dicha posición rastreada de dicha segunda parte del cuerpo (102; 103; 106-108) con relación a dicha primera parte del cuerpo (101, 104) se utiliza en un entorno virtual.
ES17798224T 2016-11-25 2017-11-16 Sistema portátil de seguimiento del movimiento Active ES2886908T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16200754 2016-11-25
PCT/EP2017/079462 WO2018095804A1 (en) 2016-11-25 2017-11-16 Wearable motion tracking system

Publications (1)

Publication Number Publication Date
ES2886908T3 true ES2886908T3 (es) 2021-12-21

Family

ID=57406130

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17798224T Active ES2886908T3 (es) 2016-11-25 2017-11-16 Sistema portátil de seguimiento del movimiento

Country Status (11)

Country Link
US (1) US10768691B2 (es)
EP (1) EP3545385B1 (es)
JP (1) JP7162898B2 (es)
KR (1) KR102497449B1 (es)
CN (1) CN110023884B (es)
AU (1) AU2017365223B2 (es)
CA (1) CA3041958A1 (es)
DK (1) DK3545385T3 (es)
ES (1) ES2886908T3 (es)
RU (1) RU2746686C2 (es)
WO (1) WO2018095804A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10747301B2 (en) * 2017-03-28 2020-08-18 Magic Leap, Inc. Augmented reality system with spatialized audio tied to user manipulated virtual object
KR102122600B1 (ko) * 2018-03-07 2020-06-12 매직 립, 인코포레이티드 주변 디바이스들의 시각적 추적
EP3598270A1 (en) * 2018-07-17 2020-01-22 Technische Universität München Method and control unit for controlling a virtual reality display, virtual reality display and virtual reality system
US11175734B1 (en) * 2019-09-26 2021-11-16 Apple Inc Wrist tracking devices
KR102097033B1 (ko) 2019-10-16 2020-04-03 주식회사 코탁스 보디 포인트 인터액션 센싱을 통한 모션 추정 시스템
CN113029190A (zh) * 2019-12-09 2021-06-25 未来市股份有限公司 运动跟踪系统和方法
AU2020417826A1 (en) * 2019-12-31 2022-06-16 Human Mode, LLC Proxy controller suit with optional dual range kinematics
US11003247B1 (en) * 2020-03-20 2021-05-11 Microsoft Technology Licensing, Llc Deployable controller
CN114543844B (zh) * 2021-04-09 2024-05-03 恒玄科技(上海)股份有限公司 无线音频设备的音频播放处理方法、装置及无线音频设备
US20230003863A1 (en) * 2021-07-01 2023-01-05 SWORD Health S.A. Assessment of position of motion trackers on a subject based on wireless communications
WO2023097577A1 (zh) * 2021-12-01 2023-06-08 浙江大学湖州研究院 一种可拓展的基于uwb和摄像头的相对定位的设备和方法
US12067798B2 (en) * 2022-01-11 2024-08-20 Arm Limited Body pose tracking system and method
WO2024085266A1 (ko) * 2022-10-17 2024-04-25 삼성전자 주식회사 초광대역 통신 신호를 이용하여 제스처를 검출하기 위한 방법 및 장치

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142506A (en) 1990-10-22 1992-08-25 Logitech, Inc. Ultrasonic position locating method and apparatus therefor
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
JP2002523830A (ja) 1998-08-18 2002-07-30 デジタル インク インコーポレーテッド 絶対的および相対的な位置決めのための検出センサを有する手書き用デバイス
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
AU2002230578A1 (en) 2000-10-30 2002-05-15 Naval Postgraduate School Method and apparatus for motion tracking of an articulated rigid body
US6784826B2 (en) * 2001-01-26 2004-08-31 Tera Research Incorporated Body motion tracking system
US6876945B2 (en) 2002-03-25 2005-04-05 Nicholas Jon Emord Seamless sensory system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
RU2257846C1 (ru) * 2004-04-28 2005-08-10 Общество с ограниченной ответственностью "ЛАУРУС" Способ регистрации движений человека и устройство для его осуществления
US7633521B2 (en) 2005-02-25 2009-12-15 Onlive, Inc. Apparatus and method improving marker identification within a motion capture system
MD14Z (ro) * 2006-12-21 2009-11-30 Еуджен МОРАРУ Procedeu şi dispozitiv de înregistrare a traiectoriei mişcării corpului uman şi a unor părţi separate ale lui
EP1970005B1 (en) * 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
US7628074B2 (en) 2007-03-15 2009-12-08 Mitsubishi Electric Research Laboratories, Inc. System and method for motion capture in natural environments
US20090054147A1 (en) 2007-08-21 2009-02-26 Cheng Uei Precision Industry Co., Ltd. Interactive game system
US20090170601A1 (en) 2007-12-28 2009-07-02 Cheng Uei Precision Industry Co., Ltd. Method for recognizing the position of a gaming device
GB0901020D0 (en) 2009-01-21 2009-03-04 Birmingham City University A motion capture apparatus
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
JP5720269B2 (ja) 2011-01-21 2015-05-20 富士通株式会社 位置算出装置、位置算出方法および位置算出プログラム
US20120220233A1 (en) 2011-02-28 2012-08-30 Qualcomm Incorporated Ranging with body motion capture
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
WO2014114967A1 (en) * 2013-01-25 2014-07-31 WENNER, Fabian Self-calibrating motion capture system
US8986125B2 (en) 2013-03-14 2015-03-24 Valve Corporation Wearable input device
US20160256082A1 (en) * 2013-10-21 2016-09-08 Apple Inc. Sensors and applications
EP3117263B1 (en) * 2014-03-14 2018-05-09 Sony Interactive Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
JP6307627B2 (ja) 2014-03-14 2018-04-04 株式会社ソニー・インタラクティブエンタテインメント 空間感知を備えるゲーム機
JP6525010B2 (ja) 2014-08-05 2019-06-05 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP3194297U (ja) * 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
US10055018B2 (en) 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
US10338186B2 (en) 2014-11-10 2019-07-02 Valve Corporation Positional tracking systems and methods
KR102284821B1 (ko) 2014-12-18 2021-08-03 페이스북, 인크. 가상 현실 환경에서의 내비게이션을 위한 방법, 시스템 및 장치
US9854227B2 (en) 2015-01-08 2017-12-26 David G Grossman Depth sensor
US20160232713A1 (en) * 2015-02-10 2016-08-11 Fangwei Lee Virtual reality and augmented reality control with mobile devices
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
EP3067783A1 (en) 2015-03-11 2016-09-14 ETH Zurich Method and system to track human locomotion by relative positional tracking of body parts of the human
US9939910B2 (en) * 2015-12-22 2018-04-10 Intel Corporation Dynamic effects processing and communications for wearable devices
JP2017205213A (ja) 2016-05-17 2017-11-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CA3041958A1 (en) 2018-05-31
JP7162898B2 (ja) 2022-10-31
DK3545385T3 (da) 2021-10-04
AU2017365223A1 (en) 2019-05-23
KR102497449B1 (ko) 2023-02-07
RU2019118220A3 (es) 2021-02-24
EP3545385A1 (en) 2019-10-02
KR20190087473A (ko) 2019-07-24
EP3545385B1 (en) 2021-07-14
RU2746686C2 (ru) 2021-04-19
US10768691B2 (en) 2020-09-08
US20180150131A1 (en) 2018-05-31
CN110023884A (zh) 2019-07-16
CN110023884B (zh) 2022-10-25
AU2017365223B2 (en) 2022-07-07
WO2018095804A1 (en) 2018-05-31
JP2020501245A (ja) 2020-01-16
RU2019118220A (ru) 2020-12-25

Similar Documents

Publication Publication Date Title
ES2886908T3 (es) Sistema portátil de seguimiento del movimiento
US11432879B2 (en) Method and apparatus for wide area multi-body 6D pose tracking system
US10679360B2 (en) Mixed motion capture system and method
ES2924179T3 (es) Visualización de una imagen virtual de un modelo de información para la edificación
US8885177B2 (en) Medical wide field of view optical tracking system
CN113874816B (zh) 人工现实系统中身体姿态跟踪的磁传感器采样频率的同步
EP3076892B1 (en) A medical optical tracking system
CN110275603B (zh) 分布式人造现实系统、手镯设备和头戴式显示器
US8494805B2 (en) Method and system for assessing orthopedic alignment using tracking sensors
JP2019177134A (ja) ロボット外科手術システムで使用するための拡張現実ナビゲーションシステムおよびその使用方法
US20180367765A1 (en) Medical tracking system comprising two or more communicating sensor devices
ES2576789T3 (es) Procedimiento y aparato para rastrear la orientación de un usuario
CN106415200B (zh) 包括可追踪设备和构造成安装在人体上的挽具的超便携式坐标测量机器
US20200363867A1 (en) Blink-based calibration of an optical see-through head-mounted display
JP6526026B2 (ja) 物体の動作判定方法及びシステム
JP2012501020A (ja) 調整可能な仮想現実システム
US20110043446A1 (en) Computer input device
EP4121838A1 (en) Apparatus, system, and method for wrist tracking and gesture detection via time of flight sensors
WO2017081497A1 (ru) Устройство дигитализации и оценки движения
TWI666571B (zh) 用於虛擬實境環境的動作捕捉系統
US11320527B1 (en) Devices, systems, and methods for radar-based artificial reality tracking
WO2018035875A1 (zh) 外骨骼服
TWI716924B (zh) 用於手術的定位與導航系統及其運作方法
KR20180081684A (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 3차원 영상 처리 시스템
US20230400565A1 (en) Full body tracking using fusion depth sensing