ES2255384B1 - Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo. - Google Patents

Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo. Download PDF

Info

Publication number
ES2255384B1
ES2255384B1 ES200400747A ES200400747A ES2255384B1 ES 2255384 B1 ES2255384 B1 ES 2255384B1 ES 200400747 A ES200400747 A ES 200400747A ES 200400747 A ES200400747 A ES 200400747A ES 2255384 B1 ES2255384 B1 ES 2255384B1
Authority
ES
Spain
Prior art keywords
module
movement
head
cameras
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
ES200400747A
Other languages
English (en)
Other versions
ES2255384A1 (es
Inventor
Javier Marin Zurdo
Ricardo Ros Mar
Jose Maria Martinez Montiel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de Zaragoza
Original Assignee
Universidad de Zaragoza
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de Zaragoza filed Critical Universidad de Zaragoza
Priority to ES200400747A priority Critical patent/ES2255384B1/es
Priority to PCT/ES2005/000124 priority patent/WO2005093659A1/es
Publication of ES2255384A1 publication Critical patent/ES2255384A1/es
Application granted granted Critical
Publication of ES2255384B1 publication Critical patent/ES2255384B1/es
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • G06F19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06T7/2086
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Sistema portátil para captura y análisis tridimensional del movimiento humano en puestos de trabajo. El sistema está compuesto de una cabeza de estéreo-visión (5), que incorpora dos cámaras digitales sincronizadas (1) y (2) y está enlazada digitalmente (6) con un computador (11). La secuencia de estéreo-imágenes es grabada en tiempo real en la memoria no volátil del computador (11) para su posterior tratamiento por el módulo de captura de movimiento (8), y análisis y simulación de puestos de trabajo, módulo (9) y (10). La invención se caracteriza por capturar el movimiento del trabajador trasladándolo a un modelo virtual biomecánico de antropometría similar al operario observado, a partir de la filmación de su actividad en el puesto de trabajo con una cabeza de estéreo-visión. No precisa de iluminación adicional ni que el trabajador vista ropa especial, ni que se le fijen marcadores artificiales o se modifique el entorno de trabajo.

Description

Sistema portátil para captura y análisis tridimensional del movimiento humano en puestos de trabajo.
Objeto de la invención
La presente invención se refiere a un Sistema para captura y análisis tridimensional del movimiento humano en puestos de trabajo.
Antecedentes de la invención
La presente invención está orientada para ser utilizada por técnicos en prevención de riesgos laborales, con el fin de que les permita evaluar los riesgos Ergonómicos de puestos de trabajo de una forma sencilla y objetiva.
El ámbito de actuación de los técnicos de prevención en el campo de la Ergonomía es muy variado: evaluación y diseño de puestos de trabajo, análisis de posturas y movimientos, o estudios de la influencia del diseño del puesto de trabajo en las condiciones de trabajo.
En este contexto, un sistema de captura de movimiento en el propio puesto de trabajo, le proporcionaría al técnico de prevención un medio para realizar un análisis tridimensional del movimiento del trabajador (medida de ángulos, alturas, velocidades, aceleraciones, entre otros). Esto les facilitaría la realización de los análisis ergonómicos correspondientes y la valoración de los posibles riesgos.
El sector de la técnica a que hace la referencia la invención corresponde a Sistema de Captura de Movimiento ("Motion Capture" en terminología inglesa).
Durante milenios la reproducción de la figura humana ha motivado un gran interés y, aunque inicialmente se limitó a representaciones bidimensionales del cuerpo, ya en el renacimiento se planteó un cambio de visión al introducir el estudio de la perspectiva y la luz, añadiendo una tercera dimensión a su representación, si bien de una manera aún estática. El advenimiento de la fotografía, el cine y la televisión, no sólo añadieron profundidad y realismo a las representaciones del cuerpo, sino que además permitieron reproducir su movimiento completamente.
Sin embargo, tal vez el avance más innovador en este sentido lo constituyó el computador, permitiendo crear personajes con condiciones de iluminación y texturas muy reales, casi con vida propia. Pronto se les dio el nombre de "personajes virtuales" a este tipo de figuras que parecían imitar los gestos de los seres humanos. Detrás de este medio creativo y científico, existe una herramienta clave: la captura de movimiento "Motion Capture", que en adelante denominaremos MoCap.
En la actualidad los sistemas MoCap están siendo ampliamente utilizados por numerosas compañías en el ámbito del modelado 3D, animación virtual y aplicaciones cinematográficas. En Ingeniería el uso de MoCap es esencial en el desarrollo de nuevos productos más ergonómicos. En medicina, en concreto en el campo de la rehabilitación, su uso esta muy extendido para el tratamiento de lesiones del tren inferior. El estudio del modo de andar ha sufrido un gran desarrollo mediante esta técnica. Aplicaciones en ámbitos tan distintos como la neurociencia, ciencias deportivas, demuestran el amplio campo de actuación de estas técnicas.
La captura de movimiento tiene dos modos de utilización. El primero es el denominado modo en tiempo real, el sistema es usado para trasladar los movimientos de un actor a un modelo virtual en tiempo real. El otro uso es el denominado modo de grabación, es el más común, y consiste en la grabación de las escenas deseadas en el laboratorio para su posterior tratamiento y edición. Este último modo es el que se utiliza en el equipo que nos ocupa.
Las técnicas de captura de movimiento (MoCap) reducen de forma significativa el esfuerzo necesario para producir animaciones tridimensionales complejas. Hasta el momento se han desarrollado varias técnicas MoCap con el objetivo de conseguir, incluso la captura de movimientos faciales. Las técnicas más novedosas y probablemente más atractivas están basadas en análisis de imágenes.
Dentro de los sistemas MoCap basados en tecnologías de imagen existen dos tipos: sistemas activos, que utilizan marcadores de LED pulsados, o sistemas pasivos, también llamados reflexivos porque utilizan marcadores reflexivos (generalmente esféricos reflectantes o mediante otro sistema de material reflexivo).
Se utilizan videocámaras sincronizadas, esto es, todas las cámaras toman las imágenes sincronizadamente durante la grabación, para lograr el correcto seguimiento del movimiento de los marcadores colocados en las articulaciones del cuerpo del actor, y se requieren dos cámaras para capturar zonas parciales del cuerpo, o 4 a 16 (o más) cámaras para la captura del cuerpo completo.
Los sistemas activos se basan en la recepción directa por la cámara de la emisión infrarroja de los LEDs. Los sistemas reflexivos o pasivos utilizan (aunque no siempre) antorchas de luz infrarroja montadas en las cámaras y estas recogen la reflexión infrarroja de los marcadores.
El proceso de funcionamiento es relativamente sencillo. Primero se ubican marcadores sobre las articulaciones y los puntos principales de movimiento del actor. Las posiciones de los marcadores son tomadas por varias cámaras simultáneamente y son computadas por triangulación para obtener sus posiciones 3D reales fotograma a fotograma, generando así un conjunto de datos del movimiento. Esta información se transfiere a un personaje tridimensional, previamente modelado en el computador.
Si no se utiliza un número suficiente de cámaras para el tipo de movimiento que se desea capturar, aparece el problema derivado de la oclusión o superposición de estos marcadores, errores en falsas reflexiones o perdida de aquellos.
Un punto importante es la calibración del sistema. La calibración consiste en establecer la correspondencia entre la posición de los objetos en el mundo real y la que indican las imágenes grabadas por cada cámara. Cada vez que se estaciona el equipo en un lugar diferente se necesita un proceso de calibración y fijación de referencias, más o menos complicado.
Así podríamos resumir que los sistemas actuales están caracterizados por funcionar en condiciones de laboratorio:
Iluminación controlada.
Complicado y laborioso proceso de estacionamiento y calibración del sistema cada vez que se mueve alguna de las cámaras.
Colocación de marcadores artificiales sobre el sujeto observado.
Empleo de ropas especiales.
Modificación del entorno para evitar las oclusiones.
La invención que se presenta corresponde a un sistema MoCap que está dirigido a la ergonomía del trabajo, con el propósito de permitir, a través del análisis del movimiento de un trabajador en su puesto de trabajo, evaluar los posibles riesgos ergonómicos derivados de su actividad, no precisando condiciones de laboratorio para su utilización.
El sistema está caracterizado por:
Equipo portátil, dotado de soporte plegable para las cámaras y computador portátil.
Provoca una mínima interferencia con el trabajador, no necesitando que vista una ropa especial ni colocar marcadores artificiales sobre su cuerpo.
Sistema precalibrado. No necesita calibración de campo.
Estacionamiento sencillo, basado en burbujas de nivel a inclinaciones prefijadas.
Permite asumir la no visibilidad frecuente de determinados zonas del cuerpo desde ambas cámaras por obstáculos, limitaciones de espacio u otras.
Utilizable en situaciones reales, incluido el entorno industrial.
No precisa alimentación externa ninguno de sus componentes para su funcionamiento.
No requiere una alta especialización para su utilización.
Coste reducido.
Descripción de la invención
El sistema de la invención está compuesto de una cabeza de estéreo-visión plegable portátil, con dos cámaras gobernadas por un módulo de sincronización, cuya ubicación está predeterminada y efectuada su precalibración. Estas cámaras obtienen, en instantes de tiempo prefijados y conocidos, secuencias de pares de imágenes sincronizadas (estéreo-imágenes) del trabajador en su puesto de trabajo sin interferir ni molestar al mismo: no se le cambia de ropa por otra ajustada, no se le añaden marcadores artificiales y no se modifica la iluminación. Esta mínima interferencia facilita el estudio y lo hace más fidedigno.
La cabeza de estéreo-visión está enlazada digitalmente con un computador que almacena mediante un módulo de grabación en su memoria no volátil las secuencias de estéreo-imágenes, y tras la identificación en las mismas por el operador de determinados puntos de interés en la escena, tanto del actor como del escenario si es de interés, un módulo de captura de las imágenes que forma parte del computador determina por triangulación la localización tridimensional de puntos de la escena, diferenciando entre puntos que no se mueven durante la filmación, normalmente elementos del entorno y puntos que se mueven durante la filmación, fundamentalmente el cuerpo del trabajador u objetos que manipula, pudiendo determinar sus posiciones, velocidades y aceleraciones.
El módulo de captura del movimiento posteriormente, y en cooperación con el operador del sistema, transporta los movimientos reales del trabajador a un modelo biomecánico (virtual). Una vez realizado esto el movimiento del trabajador real es el mismo que el del modelo biomecánico, por lo que sus movimientos (y los de los objetos que manipula) pueden ser analizados e incluso simulados por medio de sendos módulos de análisis y simulación integrados en el computador del sistema, dentro de un escenario virtual o modelizado igual al escenario real donde desarrolla su trabajo. Gracias a esto, y a el sistema funciona con la ropa habitual del trabajador cuyos movimientos se están captando, las imágenes modelizadas obtenidas no estarán condicionadas y serán lo más parecidas posible a la situación real, por lo que el análisis ergonómico será totalmente correspondiente a la situación real.
Recalcar que la cabeza de estéreo-visión (5) está precalibrada para su posición desplegada, por lo que no es necesario realizar su calibrado cada vez que se estaciona el sistema para su uso, y solamente precisa la utilización de dos cámaras, a diferencia de otros sistemas.
Como consecuencia de lo expuesto la invención que se presenta es un sistema de captura de movimiento portátil y compacto, que permite la filmación en el propio puesto de trabajo.
Además, el modelo biomecánico del trabajador dispone de cinemática inversa, por lo que no es necesario actuar sobre todas las articulaciones del modelo biomecánico para hacerlo coincidir con las imágenes reales. Además dispone de funciones de interpolación de movimiento que permiten aproximar el movimiento del trabajador en estéreo-imágenes sobre las que no se ha determinado expresamente el movimiento, o que han sufrido oclusiones temporales durante la filmación y se puede visualizar la escena desde la posición más favorable, haciendo uso de funciones de aproximación y giro de cámaras virtuales una vez creada la escena en 3 dimensiones.
Una vez calculado el movimiento del trabajador a lo largo de la secuencia analizada el módulo de análisis del movimiento permite determinar la cinemática del sujeto en relación con el entorno: posiciones, velocidades y aceleraciones, tanto de translación como de rotación, así como de objetos manipulados por el mismo durante su actividad, y que puedan ser de interés desde una perspectiva ergonómica.
También, y gracias al módulo de simulación, se pueden simular variaciones sobre el movimiento capturado, facilitando así el análisis y la presentación de las propuestas de mejora.
Breve descripción de los dibujos
La figura 1 representa el diagrama general del sistema.
La figura 2 representa las etapas inicial y final de la determinación del movimiento de un trabajador a partir de una estéreo-imagen y del modelo biomecánico del trabajador. Las referencias (20) y (21) son respectivamente la imagen izquierda y derecha de la estéreo-imagen del modelo biomecánico virtual en la situación de estado inicial, antes de la superposición. Las referencias (22) y (23) son respectivamente la imagen izquierda y derecha de la estéreo-imagen del trabajador real observado. Las referencias (24) y (25) muestran la situación final de las imágenes izquierda y derecha, donde finalmente coinciden las imágenes del trabajador y del modelo biomecánico virtual.
La figura 3 muestra un detalle de la cabeza estéreo en la posición plegada.
La figura 4 muestra un detalle de la cabeza estéreo en la posición desplegada.
Descripción de una realización práctica de la invención
El sistema está compuesto de una cabeza de estéreo-visión (5), que filma al trabajador en su puesto de trabajo. La interferencia con el trabajador es mínima: no se le cambia de ropa, no se le añaden marcadores artificiales y no se modifica la iluminación. Esta mínima interferencia facilita el estudio y lo hace más fidedigno.
La cabeza de estéreo-visión se compone de dos cámaras digitales (1) y (2) y está enlazada digitalmente (6) con un computador (11) que graba una secuencia de estéreo-imágenes. A partir de la secuencia de estéreo-imágenes, se determina la localización tridimensional de puntos de la escena:
- Puntos que no se mueven durante la filmación, normalmente elementos del entorno o escenario.
- Puntos que se mueven durante la filmación, fundamentalmente el cuerpo del trabajador u objetos que manipula. Se puede determinar la localización 3D de estos puntos en distintos instantes de tiempo, pudiendo determinar sus posiciones, velocidades y aceleraciones.
Cada una de las dos imágenes que componen una estéreo-imagen están sincronizadas gracias al módulo de sincronización (3) incluido en la cabeza. Dicho módulo envía las señales de disparo a las cámaras, de modo que ambas cámaras adquieren pares de imágenes sincronizadas y en instantes de tiempo prefijados y conocidos. La secuencia de estéreo-imágenes adquiridas es grabada en tiempo real en la memoria no volátil del computador (11) por el módulo de grabación (7) para su posterior tratamiento mediante un módulo de captura de movimiento (8), y análisis y simulación de puestos de trabajo, por medio de los módulos (9) y (10).
La cabeza estéreo es plegable, lo que facilita su transporte, ocupando aproximadamente la tercera parte de las dimensiones respecto a su envergadura longitudinal cuando está desplegado. Para ello, las cámaras (1) y (2) se montan en unos soportes deslizantes (34) y (35) desde un alojamiento (32) del módulo de disparo y del enlace digital con el computador, que dispone de un panel frontal (33) a través del que se conecta con el computador, no representado. Igualmente el cabezal va provisto de un módulo de alimentación (4), a base de baterías recargables, que proporcionan la energía necesaria y permiten la portabilidad del cabezal. Las baterías son fácilmente extraíbles para su sustitu-
ción.
Al desplegar las cámaras, éstas se posicionan a una distancia predefinida y para la cual existe una precalibración, por lo que no es necesario realizar calibración adicional alguna. Únicamente se precisa el enlace digital (6) entre el computador (11) y la cabeza estéreo (5), lo que simplifica el cableado.
El cabezal estéreo dispone de burbujas de nivel a inclinaciones prefijadas lo que permite estacionar el equipo sobre cualquier trípode con 3 giros de forma rápida y precisa. Se definen varias orientaciones prefijadas para el cabezal. Para cada una de estas orientaciones se fijan sobre el cabezal varias burbujas de nivel, de modo que nivelando respecto de ellas, la cabeza está en la orientación predefinida.
El módulo de comunicación y grabación (7), que funciona sobre el computador (11), realiza la grabación de la secuencia de imágenes tomadas y la comunicación con el cabezal estéreo, a través del enlace digital (6). Este módulo muestra en tiempo real las estéreo-imágenes capturadas por la cabeza y permite su grabación, a voluntad del operador, en la memoria no volátil del computador. También permite el ajuste interactivo de los controles de las cámaras, así como organizar las grabaciones. Asimismo, este módulo compensa todos los efectos no proyectivos que tienen los pares de imágenes adquiridos por las cámaras de la cabeza estéreo. Los parámetros que definen la compensación forman parte de la precalibración de la cabeza estéreo.
El módulo de captura del movimiento (8) está basado en superponer las imágenes del trabajador observado con las imágenes de realidad virtual de una escena en la que hay un modelo biomecánico con una antropometría similar a la del trabajador. El operador del programa modifica interactivamente los parámetros de movimiento del modelo biomecánico hasta que las imágenes reales del trabajador y las virtuales del modelo coinciden, momento en el que el movimiento del trabajador real es el mismo que el del modelo biomecánico (ver figura 2).
El Módulo de captura del movimiento dispone de ciertas funcionalidades específicas que permiten capturar el movimiento del trabajador, sin precisar colocar marcadores artificiales o ropa ajustada sobre el sujeto por lo que el operario puede llevar su ropa habitual de trabajo sin más requerimientos.
El sistema permite determinar la antropometría del trabajador a partir de una estéreo-imagen del operario, permitiendo capturar su movimiento a lo largo de todo el tiempo filmado trasladándolo a un modelo biomecánico con una antropometría similar al sujeto observado, así como recrear los elementos u objetos con los que interactúa el trabajador. Para ello se dispone de las funciones precisas para determinar las coordenadas 3D de cualquier punto visualizado en cualquier par de imágenes resultantes de la filmación del movimiento del sujeto en su puesto de trabajo. La localización de un punto en 3D se realiza por triangulación a partir de la identificación o localización por el operador del punto sobre el par de imágenes estéreo. El punto identificado sobre el par de imágenes, puede corresponder a cualquier punto de la escena del puesto de trabajo (estático o en movimiento) o a cualquier punto de la superficie corporal del trabaja-
dor.
El modelo biomecánico del trabajador dispone de cinemática inversa, por lo que no es necesario actuar sobre todas las articulaciones del modelo biomecánico para hacerlo coincidir con las imágenes reales; basta con actuar únicamente con alguna de ellas. El modelo cinemático inverso simplifica extraordinariamente la determinación del movimiento del trabajador. Asimismo dispone de funciones de interpolación de movimiento que permiten aproximar el movimiento del trabajador en estéreo-imágenes sobre las que no se ha determinado expresamente el movimiento. También es posible determinar la posición de sujeto cuando hay oclusiones temporales de alguna zona corporal durante la filmación. Dado que podemos hacer mediciones y recrear el entorno de trabajo, si ciertos elementos del cuerpo o de la escena quedasen ocultos en algún momento durante la filmación, desde el propio entorno 3D recreado, podremos acomodar la postura del modelo virtual a la posición real del trabajador, visualizando la escena desde la posición más favorable, haciendo uso de funciones de aproximación y giro de cámaras virtuales.
Una vez que el movimiento del trabajador a lo largo de la secuencia analizada está calculado, podremos acceder al módulo de análisis del movimiento (9), el cual permite determinar la cinemática del sujeto y del entorno: posiciones, velocidades y aceleraciones, tanto de translación como de rotación. Asimismo permite realizar el análisis tridimensional del movimiento (desplazamientos y giros) de algún objeto que ha manipulado el trabajador durante su actividad, y que pueda ser de interés desde una perspectiva ergonómica.
Además del análisis del movimiento, se dispone de un módulo de simulación (10) para el análisis de distintas variaciones sobre el movimiento capturado, facilitando así el análisis y la presentación de las propuestas de mejora. Permite la modificación de la antropometría del trabajador observado, que posibilita analizar cómo realizarían la misma labor operarios con diferentes dimensiones corporales. Para ello, se podrá modificar el percentil a partir de tablas antropométricas de la población laboral, tanto de hombres como de mujeres, o simular con sujetos de antropometría específicas. También permite la generación de películas de realidad aumentada donde se muestra elementos sintéticos, tales como el modelo biomecánico, o la escena 3D recreada, la actual o modificada para simular propuestas de mejora, superpuestos sobre la película real filmada. Asimismo podremos observar el movimiento desde puntos de vista virtuales, elegibles por el usuario, con el fin de mostrar el movimiento del modelo biomecánico desde una perspectiva más favorable para la visualización de los detalles.
En cuanto a la estructura de la cabeza estéreo y los soportes deslizantes podrán realizarse en cualquier material que garantice, tanto la rigidez del sistema durante el funcionamiento, como la repetitividad dimensional y angular de la posición relativa entre las cámaras cuando se despliega el equipo totalmente desde la posición de transporte a la de uso.
Preferentemente se utilizarán cámaras digitales con sincronismo externo y enlace digital, aunque también podría realizarse con cámaras sincronizadas de enlace analógico.
En cuanto al enlace digital, debe tener como requerimiento el ancho de banda correspondiente a la cantidad de imágenes por segundo a transmitir al computador.
Se podrá utilizar cualquier computador que soporte el enlace digital y disponga de capacidades gráficas y almacenamiento no volátil adecuados.
Descrita suficientemente la naturaleza de la invención, así como la manera de realizarse en la práctica, debe hacerse constar que las disposiciones anteriormente indicadas y representadas en los dibujos adjuntos son susceptibles de modificaciones de detalle en cuanto no alteren el principio fundamental.

Claims (5)

1. Sistema para captura y análisis tridimensional del movimiento humano en puestos de trabajo; del tipo que comprenden unas cámaras que toman secuencialmente y de modo sincronizado imágenes de un actor o persona en movimiento con su ropa habitual y en condiciones normales de iluminación, disponiendo dichas cámaras de un enlace con un computador que localiza por triangulación diversos puntos de la anatomía del actor o de la escena tras su marcado o asignación por el operador en las imágenes tomadas; estando dotado el computador de un módulo de grabación de las imágenes para almacenarlas, y de un módulo de captura del movimiento del actor o de la escena que transporta los puntos triangulados sobre un modelo biomecánico que reproducirá los movimientos del actor; caracterizado porque las cámaras, en número únicamente de dos, vienen montadas en sendos soportes (34) y (35) de un cabezal (5) plegable al recogerse dichos soportes (34) y (35), y que al desplegarse ubican a las cámaras a una distancia predefinida y a la cual han sido precalibradas en posición relativa y en parámetros intrínsecos para compensación de efectos no proyectivos para la toma inmediata de las imágenes; el cabezal integra además un módulo de sincronización de las cámaras y un módulo de alimentación; mientras que el computador integra un módulo de análisis del movimiento (9) y un módulo de simulación (10) para recrear distintas hipótesis de modificación del trabajo observado; ocupándose el módulo de grabación (7) de la comunicación con el cabezal (5) y de compensar los efectos no proyectivos según la precalibración de las cámaras; el módulo de captura del movimiento (8) determina la antropometría del trabajador a partir de una estéreo-imagen del operario, y efectúa el transporte de los puntos triangulados del sujeto observado a un modelo biomecánico de antropometría similar, recreando y modelizando también los elementos u objetos con los que interactúa el trabajador u otros puntos u objetos de la escena; el módulo de análisis del movimiento (9) utiliza los puntos localizados por triangulación para calcular y analizar la cinemática tanto de translación como de rotación del sujeto y del escenario u objetos manejados por el sujeto que son de interés desde una perspectiva ergonómica; el módulo de simulación del movimiento (10) simula variaciones y modificaciones de la secuencia del movimiento de los puntos capturado por triangulación y/o de la antropometría del actor en orden a facilitar el análisis y la presentación de propuestas de mejora para los movimientos o selección del actor; el módulo de simulación también genera películas de realidad aumentada donde se muestra elementos sintéticos, tales como el modelo biomecánico, o la escena 3D recreada, la actual o modificada, superpuestos sobre la película real filmada, así como también visualiza el movimiento desde puntos de vista virtuales con el fin de mostrar el movimiento observado desde una perspectiva más favorable para la visualización de los detalles.
2. Sistema según reivindicación 1, caracterizado porque el cabezal (5) dispone de burbujas de nivel a inclinaciones prefijadas para estacionar el equipo sobre cualquier trípode con 3 giros.
3. Sistema según reivindicación 1 caracterizado porque el cabezal plegado ocupa entre un treinta y un cuarenta por ciento de las dimensiones respecto a su envergadura longitudinal cuando está desplegado.
4. Sistema según reivindicación 1 caracterizado porque el módulo de alimentación del cabezal consiste en un conjunto de baterías extraíbles.
5. Sistema según la reivindicación 1, caracterizado porque el almacenamiento de las imágenes se realiza en la memoria no volátil del computador.
ES200400747A 2004-03-23 2004-03-23 Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo. Expired - Fee Related ES2255384B1 (es)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES200400747A ES2255384B1 (es) 2004-03-23 2004-03-23 Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo.
PCT/ES2005/000124 WO2005093659A1 (es) 2004-03-23 2005-03-10 Sistema portátil para captura y análisis tridimensional del movimiento humano en puestos de trabajo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES200400747A ES2255384B1 (es) 2004-03-23 2004-03-23 Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo.

Publications (2)

Publication Number Publication Date
ES2255384A1 ES2255384A1 (es) 2006-06-16
ES2255384B1 true ES2255384B1 (es) 2007-08-01

Family

ID=35056400

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200400747A Expired - Fee Related ES2255384B1 (es) 2004-03-23 2004-03-23 Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo.

Country Status (2)

Country Link
ES (1) ES2255384B1 (es)
WO (1) WO2005093659A1 (es)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100403313C (zh) * 2006-09-14 2008-07-16 浙江大学 三维人体运动数据关键帧提取方法
ES2388964B1 (es) * 2011-03-22 2013-09-03 Servicio Andaluz De Salud Dispositivo y metodo de captura y analisis de movimiento
FR3069942B1 (fr) 2017-08-02 2019-08-09 Kinestesia Analyse d'un mouvement et/ou d'une posture d'au moins une partie du corps d'un individu

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57135939A (en) * 1981-02-14 1982-08-21 Kiyoshige Sakaguchi Stand for horizontal setting of camera
CA2108150C (en) * 1991-05-30 1998-10-13 Richard John Baker Personalized instructional aid
JPH1163927A (ja) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd 頭部位置・姿勢の計測装置および作業監視装置
AU7768298A (en) * 1998-06-24 2000-01-10 Sports Training Technologies, S.L. Method for capturing, analyzing and representing the movement of bodies and objects
NL1010150C1 (nl) * 1998-09-22 1999-02-23 Oshri Even Zohar Een systeem voor dynamische evaluatie van de menselijke bewegingsleer.

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FERREIRA, J.F.; LOBO J.; DIAS J. Tele-3D-Developing a Handheld Scanner Using Structured Light Projection; Proceedings First International Symposium on 3D Data Processing Visualization and Transmission, 2002, IEEE Comput. Soc., USA, páginas 788-791, ISBN 0769515215. *
PLANKERS, R.; FUA, P. Tracking and modelling people in video sequences; Computer Vision and Image Understanding, Marzo 2001, Academic Press, USA, volumen 81, número 3, páginas 285-302, ISSN 1077-3142. *

Also Published As

Publication number Publication date
ES2255384A1 (es) 2006-06-16
WO2005093659A1 (es) 2005-10-06

Similar Documents

Publication Publication Date Title
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
US11269412B2 (en) Eye tracking system including an eye tracker and a positioning camera
GB2545145B (en) A device and method for optically scanning and measuring an environment
US6930685B1 (en) Image processing method and apparatus
US8885177B2 (en) Medical wide field of view optical tracking system
ES2325374T3 (es) Sistema de realidad aumentada con identificacion de objeto marcador real.
KR20080055863A (ko) 얼굴 모션 데이터 캡쳐링 및 처리
Canessa et al. Calibrated depth and color cameras for accurate 3D interaction in a stereoscopic augmented reality environment
JP2011254411A (ja) 映像投影システムおよび映像投影プログラム
CN108139876B (zh) 用于沉浸式和交互式多媒体生成的系统和方法
CN112686084B (zh) 图像标注系统
CN109584263A (zh) 可穿戴设备的测试方法及系统
ES2894549B2 (es) Sistema de realidad aumentada o realidad virtual con localizacion activa de herramientas, uso y procedimiento asociado
US11810254B2 (en) Displaying a scene to a subject while capturing the subject's acting performance using multiple sensors
CN109166181A (zh) 一种基于深度学习的混合动作捕捉系统
CN108257177A (zh) 基于空间标识的定位系统与方法
ES2625729T3 (es) Sistema y método de medición estereoscópica
ES2255384B1 (es) Sistema portatil para captura y analisis tridimensional del movimiento humano en puestos de trabajo.
JP5362357B2 (ja) 顔の動きのデータの撮影及び処理
Garagnani et al. Virtual and augmented reality applications for Cultural Heritage
ES2625730T3 (es) Sistema y método de medición estereoscópica
ES2622485T3 (es) Sistema y método de medición estereoscópicos
JP2002031507A (ja) 三次元画像計測装置
ES2842890T3 (es) Dispositivo y procedimiento para reconstruir la superficie 3D de la vuelta completa de un sujeto
Sawicki et al. Performance capture

Legal Events

Date Code Title Description
EC2A Search report published

Date of ref document: 20060616

Kind code of ref document: A1

FG2A Definitive protection

Ref document number: 2255384B1

Country of ref document: ES

FD2A Announcement of lapse in spain

Effective date: 20240402