ES2640790A1 - Procedimiento para la detección y representación virtual de actividades de acción - Google Patents

Procedimiento para la detección y representación virtual de actividades de acción Download PDF

Info

Publication number
ES2640790A1
ES2640790A1 ES201730606A ES201730606A ES2640790A1 ES 2640790 A1 ES2640790 A1 ES 2640790A1 ES 201730606 A ES201730606 A ES 201730606A ES 201730606 A ES201730606 A ES 201730606A ES 2640790 A1 ES2640790 A1 ES 2640790A1
Authority
ES
Spain
Prior art keywords
stage
activity
individual
parameters
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
ES201730606A
Other languages
English (en)
Inventor
Stanislas Louis ALEXANDRE KARNKOWSKI
Joaquín HUERTA GUIJARRO
Joaquín TORRES SOSPEDRA
Alberto GONZÁLEZ PÉREZ
Andres MUÑOZ ZULUAGA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to ES201730606A priority Critical patent/ES2640790A1/es
Publication of ES2640790A1 publication Critical patent/ES2640790A1/es
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons

Abstract

Procedimiento para la detección y representación virtual de actividades de acción, que comprende: etapa (4) de muestreo de los parámetros del individuo mientras realiza una actividad; etapa (5) de transferencia automática de los parámetros recogidos a una infraestructura desarrollada al efecto; etapa (7) de clasificación y evaluación de las observaciones tomadas para un individuo; etapa (9) de sincronización de las variables, recogidas en la ejecución real de la actividad, con el modelo 3D, y con un avatar del individuo; y etapa (10) de generación del juego y/o video de la reproducción virtual de la actividad por parte del avatar en el modelo 3D del emplazamiento.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
 Opcionalmente creación de modelos 3D de edificios, vegetación y de todos los objetos presentes en los emplazamientos en que se va a desarrollar la actividad,
 Opcionalmente adquisición de fotografías y texturas para aplicar al terreno y los modelos 3D generados para que su apariencia sea lo más realista posible.
 Opcionalmente toma de observaciones modelo de la actividad realizada por profesionales (individuos modelo) de las categorías que se van a utilizar (principiante, intermedio, avanzado, experto, maestro, etc.) de los parámetros que se van a monitorizar, es decir, localización, velocidad, aceleración, giros, posición del cuerpo, etc. (etapa 2)
 Opcionalmente extracción de características de las observaciones iniciales para realizar la clasificación de las observaciones registradas de los individuos normales en función de las observaciones de los individuos modelo. (etapa 3)
La segunda fase se repite para cada persona que realiza la actividad y se compone de las siguientes etapas:
 Detección de los parámetros de la actividad que realiza el individuo tal como, localización, velocidad, aceleración, giros, posición del cuerpo, etc. La detección de dichos parámetros se efectúa a través de los sensores de un Smartphone (geolocalizador, acelerómetro, giroscopio, magnetómetro, etc.) y, opcionalmente, algún sensor adicional que el individuo lleva conectado inalámbricamente a su smartphone. (etapa 4). Los sensores adicionales pueden ser de distintos tipos, como sensores de posición y orientación puestos en los guantes, las botas y el casco, para conocer su posición y orientación relativa al Smartphone o sensores de presión en las suelas para medir la distribución de cargas del individuo sobre las plantas de sus pies.
 Transferencia automática de dichos parámetros a la plataforma implementada en una infraestructura apropiada, con la que conectan los dispositivos de captación, Smartphones, de modo inalámbrico y, opcionalmente, remoto. (etapa 5)
 Opcionalmente procesado de los datos recibidos para depurar observaciones erróneas y mejora de la precisión de los datos de posicionamiento utilizando corrección GNSS diferencial. (etapa 6)
 Opcionalmente clasificación y evaluación de los parámetros de la actividad que ha realizado el individuo (observación), en función de las categorías predefinidas a partir de los parámetros de los usuarios modelo (observaciones modelo). Para ello se utilizan técnicas de aprendizaje automático, o Machine Learning en inglés como los clasificadores kNN, los algoritmos genéticos y las redes neuronales. Haciendo uso de estas técnicas hemos desarrollado un algoritmo de aprendizaje automático que, utilizando nuestras observaciones modelo obtenidas en la etapa 2 como ejemplo, aprende a clasificarlas y es capaz de extraer patrones y criterios para clasificar las nuevas observaciones que se vayan obteniendo en la etapa 4. Esta clasificación y evaluación de los parámetros de la actividad que ha realizado el individuo permite, por ejemplo, comparar la destreza de varios individuos que hayan realizado la misma actividad y sugerir acciones para mejorar la técnica o mostrar las estadísticas y la progresión el aprendizaje individual. (etapa 7)
La tercera fase se realiza de manera opcional a posteriori, con la finalidad de generar la representación virtual de la cual se puede extraer un vídeo de alguna de las observaciones de actividades de uno o varios individuos. Las etapas de la tercera fase son:
 Selección del avatar que se desea que aparezca en el vídeo.
(etapa 8)
 Sincronización de los parámetros de la observación con el avatar
del individuo y con el modelo 3D que reproduce el entorno en el
que se ha efectuado la actividad. (etapa 9)
 Generación del video de la representación virtual de la actividad en
el modelo 3D del entorno real. (etapa 10)
Opcionalmente, se pueden sincronizar los parámetros de dos individuos con sus correspondientes avatares en un único modelo 3D. De este modo se pueden comparar visualmente los parámetros de las actividades de dos individuos, aunque estos no hayan ejecutado la actividad en el mismo momento.
Con ello, el procedimiento permite registrar y reproducir actividades de acción, en particular actividades deportivas, tales como, por ejemplo el esquí, carreras de coches en circuitos, bicicleta de montaña, etc., de manera que las pueda observar el propio individuo que las ha ejecutado, viéndose en ellas desenvolverse a través de su avatar, y que le permiten apreciar detalles de la actividad realizada, por ejemplo, para mejorar su técnica o como entrenamiento, teniendo también como posible aplicación su uso en videojuegos de simulación “open world” o mundo abierto, que, como es sabido, son aquellos en que se ofrece al jugador la posibilidad de moverse libremente por un mundo virtual, pudiendo competir contra otros individuos reales o sintéticos..
El someramente descrito procedimiento para la detección y reproducción virtual de actividades de acción consiste, pues, en una innovación de características desconocidas hasta ahora para el fin a que se destina, razones que, unidas a su utilidad práctica, la dotan de fundamento suficiente para obtener el privilegio de exclusividad que se solicita.
imagen6
-
Opcionalmente, una etapa (2) de toma de observaciones iniciales de la actividad de todos los tipos de usuarios (observaciones modelo) de las categorías que se van a utilizar (principiante, intermedio, avanzado, experto, instructor, etc)
-
Opcionalmente, una etapa (3) de extracción de características de las observaciones modelo para realizar la clasificación de las observaciones registradas de los individuos normales en función de las observaciones de los individuos modelo.
Cuando se vaya a detectar los parámetros de una observación (actividad que realiza el individuo)
-
Una etapa (4) de detección automática de los parámetros de la actividad que realiza el individuo tales como, la geolocalización, velocidad, giros, recorrido y posición del cuerpo. La detección de dichos parámetros se realiza a través de los sensores de un smartphone (geolocalizador, acelerómetro, giroscopio, magnetómetro, etc) y, opcionalmente, sensores adicionales que el individuo lleva y están conectados inalámbricamente al smartphone como sensores de posición relativa y orientación que pueden ir en cada una de las manos y los pies y en la cabeza o sensores de presión que miden la presión en diferentes zonas de las plantas de los pies.
-
Una etapa (5) de transferencia automática de los parámetros recogidos en la etapa anterior a la plataforma implementada en una infraestructura apropiada, preferentemente de modo inalámbrico por ejemplo a través de Internet, desde el smartphone que ha utilizado el individuo para detectar los parámetros de la actividad.
imagen7
emplazamiento se escoge, entre los diferentes posibles, de manera automática dependiendo del parámetro de la localización obtenido en la etapa (4)
5 Descrita suficientemente la naturaleza de la presente invención, así como la manera de ponerla en práctica, no se considera necesario hacer más extensa su explicación para que cualquier experto en la materia comprenda su alcance y las ventajas que de ella se derivan, haciéndose constar que, dentro de su esencialidad, podrá ser llevada a la práctica en
10 otros modos de realización que difieran en detalle de la indicada a título de ejemplo, y a las cuales alcanzará igualmente la protección que se recaba siempre que no se altere, cambie o modifique su principio fundamental.

Claims (1)

  1. imagen1
    imagen2
ES201730606A 2017-04-04 2017-04-04 Procedimiento para la detección y representación virtual de actividades de acción Pending ES2640790A1 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201730606A ES2640790A1 (es) 2017-04-04 2017-04-04 Procedimiento para la detección y representación virtual de actividades de acción

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201730606A ES2640790A1 (es) 2017-04-04 2017-04-04 Procedimiento para la detección y representación virtual de actividades de acción

Publications (1)

Publication Number Publication Date
ES2640790A1 true ES2640790A1 (es) 2017-11-06

Family

ID=60409529

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201730606A Pending ES2640790A1 (es) 2017-04-04 2017-04-04 Procedimiento para la detección y representación virtual de actividades de acción

Country Status (1)

Country Link
ES (1) ES2640790A1 (es)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2231035A1 (es) * 2003-10-30 2005-05-01 Frontera Azul Systems, S.L. Sistema y procedimiento de comunicacion basada en realidad virtual.
US20120253489A1 (en) * 2011-03-28 2012-10-04 Dugan Brian M Systems and methods for fitness and video games
ES2394842A1 (es) * 2010-10-22 2013-02-06 Universidad De Sevilla Monitor multimodal portable y adaptativo para humanos basado en avatar biomecánico-fisiológico para la detección de eventos fisicos de riesgo.
ES2397031A1 (es) * 2011-05-10 2013-03-04 Universidade Da Coruña Sistema de realidad virtual para la evaluación y el tratamiento de los trastornos motores asociados a las enfermedades neurodegenerativas y a la edad.
ES2422056A2 (es) * 2012-03-05 2013-09-06 Vodafone Espana Sau Metodo para introducir un objeto fisico en un mundo virtual
US20140108208A1 (en) * 2012-03-26 2014-04-17 Tintoria Piana U.S., Inc. Personalized virtual shopping assistant
ES2494926T3 (es) * 2007-03-02 2014-09-16 Deutsche Telekom Ag Procedimiento y sistema de video comunicación para el control en tiempo real basado en gestos de un avatar
US20140306866A1 (en) * 2013-03-11 2014-10-16 Magic Leap, Inc. System and method for augmented and virtual reality
US20150073907A1 (en) * 2013-01-04 2015-03-12 Visa International Service Association Wearable Intelligent Vision Device Apparatuses, Methods and Systems
US20150317801A1 (en) * 2010-08-26 2015-11-05 Blast Motion Inc. Event analysis system
GB2535776A (en) * 2015-02-27 2016-08-31 Norman Damerell William Bluetooth low energy power saving and locational accurracy

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2231035A1 (es) * 2003-10-30 2005-05-01 Frontera Azul Systems, S.L. Sistema y procedimiento de comunicacion basada en realidad virtual.
ES2494926T3 (es) * 2007-03-02 2014-09-16 Deutsche Telekom Ag Procedimiento y sistema de video comunicación para el control en tiempo real basado en gestos de un avatar
US20150317801A1 (en) * 2010-08-26 2015-11-05 Blast Motion Inc. Event analysis system
ES2394842A1 (es) * 2010-10-22 2013-02-06 Universidad De Sevilla Monitor multimodal portable y adaptativo para humanos basado en avatar biomecánico-fisiológico para la detección de eventos fisicos de riesgo.
US20120253489A1 (en) * 2011-03-28 2012-10-04 Dugan Brian M Systems and methods for fitness and video games
ES2397031A1 (es) * 2011-05-10 2013-03-04 Universidade Da Coruña Sistema de realidad virtual para la evaluación y el tratamiento de los trastornos motores asociados a las enfermedades neurodegenerativas y a la edad.
ES2422056A2 (es) * 2012-03-05 2013-09-06 Vodafone Espana Sau Metodo para introducir un objeto fisico en un mundo virtual
US20140108208A1 (en) * 2012-03-26 2014-04-17 Tintoria Piana U.S., Inc. Personalized virtual shopping assistant
US20150073907A1 (en) * 2013-01-04 2015-03-12 Visa International Service Association Wearable Intelligent Vision Device Apparatuses, Methods and Systems
US20140306866A1 (en) * 2013-03-11 2014-10-16 Magic Leap, Inc. System and method for augmented and virtual reality
GB2535776A (en) * 2015-02-27 2016-08-31 Norman Damerell William Bluetooth low energy power saving and locational accurracy

Similar Documents

Publication Publication Date Title
AU2017331639B2 (en) A system and method to analyze and improve sports performance using monitoring devices
Camomilla et al. Trends supporting the in-field use of wearable inertial sensors for sport performance evaluation: A systematic review
Espinosa et al. The inertial sensor: A base platform for wider adoption in sports science applications
JP6938542B2 (ja) 組込みセンサと外界センサとを組み合わせる多関節トラッキングのための方法およびプログラム製品
WO2019114708A1 (zh) 一种运动数据监测方法和系统
Federolf et al. The application of principal component analysis to quantify technique in sports
McCullough et al. Myo arm: swinging to explore a VE
Ahmadi et al. Towards a wearable device for skill assessment and skill acquisition of a tennis player during the first serve
Miller et al. Characterizing head impact exposure in youth female soccer with a custom-instrumented mouthpiece
JP2017520336A (ja) 人体および物体運動への生体力学フィードバックを送達するための方法およびシステム
WO2015027132A1 (en) Energy expenditure device
Saponara Wearable biometric performance measurement system for combat sports
EP3036669A1 (en) Energy expenditure device
TW201242645A (en) Sensing device and method used for virtual golf simulation apparatus
Lee et al. Wearable sensors in sport: a practical guide to usage and implementation
Kosmalla et al. The importance of virtual hands and feet for virtual reality climbing
Zok Inertial sensors are changing the games
ES2640790A1 (es) Procedimiento para la detección y representación virtual de actividades de acción
CN109765998A (zh) 基于vr和动作捕捉的运动评估方法、设备及存储介质
Willener et al. Effect of walking speed on the gait of king penguins: An accelerometric approach
Sterkowicz et al. IMPORTANCE OF COORDINATION MOTOR ABILITIES IN EXPERT-LEVEL ON-SIGHT SPORT CLIMBING.
Ünlü et al. A bibliography experiment on research within the scope of industry 4.0 application areas in sports: Sporda endüstri 4.0 uygulama alanları kapsamında yapılan araştırmalar üzerine bir bibliyografya denemesi
JP6554158B2 (ja) スイング解析装置
US20130225294A1 (en) Detecting illegal moves in a game using inertial sensors
Edriss et al. The Role of Emergent Technologies in the Dynamic and Kinematic Assessment of Human Movement in Sport and Clinical Applications

Legal Events

Date Code Title Description
FC2A Grant refused

Effective date: 20200303