EP3485463A1 - Method and system for locating and reconstructing in real time the posture of a moving object using embedded sensors - Google Patents

Method and system for locating and reconstructing in real time the posture of a moving object using embedded sensors

Info

Publication number
EP3485463A1
EP3485463A1 EP17748526.5A EP17748526A EP3485463A1 EP 3485463 A1 EP3485463 A1 EP 3485463A1 EP 17748526 A EP17748526 A EP 17748526A EP 3485463 A1 EP3485463 A1 EP 3485463A1
Authority
EP
European Patent Office
Prior art keywords
optical sensor
sensors
module
relative motion
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP17748526.5A
Other languages
German (de)
French (fr)
Inventor
Sylvie NAUDET-COLLETTE
Vincent WEISTROFFER
Saifeddine ALOUI
Claude Andriot
Cyril Condemine
Romain DUPONT
Jean-Philippe Gros
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Publication of EP3485463A1 publication Critical patent/EP3485463A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the field of the invention is that of the capture of the movement of an object, and the real-time transfer of this movement to a (poly) articulated mass structure modeling the object.
  • the invention finds application to the capture of the movement of a human body via sensors arranged on a person, and the representation of this movement via the animation of an avatar in a numerical simulation.
  • the main needs of a motion capture are, on the one hand, to locate the person in the environment, and, on the other hand, to estimate the complete posture of the person.
  • Cameras are for example placed in the environment and observe the person (or sensors carried by it) to detect its movements.
  • the data stream to be transferred is very large.
  • the object of the invention is to propose a technique for locating and reconstructing the posture of a moving object in real time using onboard sensors only, which is at least partially free of the disadvantages above.
  • the invention proposes a system for reproducing the movement of an object by an articulated structure comprising a plurality of segments, which comprises:
  • a unit for processing measurements made by the sensors fixed on the object comprising a module for determining a command to be applied to the articulated structure so as to locate it in a reference frame by making it adopt a posture reproducing that of the object, said module outputting the absolute location of each of the segments of the structure in the reference frame, said module using the absolute location of each of the sensors attached to the object in the reference frame.
  • the sensors fixed in use on the object comprise an optical sensor and relative motion sensors and the processing unit further comprises:
  • an image processing module configured to determine an absolute location of the optical sensor in the reference frame from a sequence of images acquired by the optical sensor
  • an absolute location determination module of each of the relative motion sensors in the reference frame from the absolute location of the optical sensor and the relative location of each of the relative motion sensors.
  • FIG. 1 represents an example of a poly-articulated mass structure used as a physical model (in the meaning of the laws of physics) of a human body;
  • FIG. 2 is a diagram of a system according to the invention for tracking the movement of an object on which sensors are fixed;
  • FIG. 3 illustrates the calculation of the location of the optical sensor with respect to the reference mark;
  • FIG. 4 represents the acquisition of the movement data of the limbs in a current coordinate system associated with the optical sensor
  • FIG. 5 is a diagram showing the steps of a method according to the invention.
  • the invention relates to the control of an articulated mass structure from data representative of the movement of an object.
  • Motion sensors are attached to the object and it is desired to enslave the articulated mass structure to reproduce the movements of the object.
  • the object is typically a human body or the body of an animal, or even a single part of such a body.
  • the invention is however not limited to these examples, and thus extends to monitoring the movement of any moving object that can be represented by an articulated structure.
  • the articulated mass structure is composed of segments connected by at least one joint. It is used as a physical model of the object whose movement we follow. It is typically a poly-articulated structure.
  • the articulated mass structure can be a numerical model of the object.
  • the objective can then be the representation of the movements of the object in a numerical simulation, by means of the animation of the mass structure articulated in the numerical simulation according to a command determined by the invention.
  • FIG. 1 gives an example of a poly-articulated mass structure that can be used as a physical model of the human body in an implementation of the invention.
  • the poly-articulated mass structure is composed of segments connected by joints.
  • a segment refers to a rigid or supposedly rigid object that is defined by a geometry (that is, a well-defined volume shape), mass, and inertia.
  • An articulation denotes a connection between two segments. This link defines the relative configuration that a segment can have with respect to a segment to which it is bound.
  • An articulation is defined by one or more representative degrees of freedom, in particular the characteristics of centers, axes or stops.
  • the poly-articulated structure 10 is composed of twenty-one segments connected by twenty joints.
  • the hand is modeled by a first segment 13 connected by a hinge 16 to a second segment 12 corresponding to the forearm.
  • the articulation 16 has for example three degrees of freedom.
  • the segment 12 corresponding to the forearm is connected by a hinge 15 with two degrees of freedom to the segment 11 corresponding to the arm.
  • the segment 11 is connected to the clavicle by a hinge 14 with three degrees of freedom.
  • This definition of the soil includes the geometry of the ground (reliefs, stairs etc.), and a reference reference attached to the ground. In particular, it makes it possible to detect potential collisions between the articulated structure and the environment.
  • the invention provides a system for reproducing the movement of an object by an articulated structure.
  • This system exploits the data from a set of sensors CO, C1-C4 fixed on the object, and does not require instrumentation of the environment.
  • the sensors attached to the object include a central element having an optical sensor, and relative motion sensors.
  • the optical sensor and the module 22 described below make it possible to calculate the position / orientation of the object in a reference reference linked to the environment.
  • the movements of the object typically the movements of the limbs of a person, are obtained by means of the relative motion sensors and the module 24 described below by which one can have a location, in position and orientation, in a reference relative to the central element.
  • the relative motion sensors are four in number, with a relative movement sensor C1, C2 on each hand of the person and a relative motion sensor C3, C4 on each foot of the nobody.
  • the optical sensor C0 is placed on the head of the person. This number of four relative motion sensors is given by way of example only, the invention extending to any number of relative motion sensors.
  • the optical sensor C0 provides a sequence of images DO, while the relative motion sensors provide motion information Di in a reference relative to the optical sensor, i.e. a current marker corresponding to the current position of the optical sensor in the environment.
  • This unit 20 receives the measurements made by the sensors fixed on the object, and is configured, by means of different modules described below, to implement steps at each time step of calculating the configuration to be given to the poly-articulated structure to reproduce the movements of the object.
  • the processing unit 20 is in particular provided with a module 21 for determining a command to be applied to the articulated structure so that it reproduces the movement of the object.
  • This command more precisely locates the articulated structure in a reference frame 3 ⁇ 4 a , for example a marker attached to the ground, making him adopt a posture reproducing that of the object.
  • the module 21 for determining the command to be applied to the articulated structure uses the absolute location of each of the sensors attached to the object in the reference frame. The following notations are adopted:
  • This set constitutes the outputs of the module 21 for determining the control to be applied to the articulated structure, namely the location and the complete posture of the articulated structure in the reference frame 3 ⁇ 4 a .
  • PO ⁇ denotes the set of orientations and positions of the current coordinate system 3 ⁇ 4 0 corresponding to the current position, at times t of the central element da ns the environment, expressed in the reference reference 3 ⁇ 4 a .
  • the module 21 for determining the command to be applied to the articulated structure takes into account the locations in the reference reference frame of the sensors C0, C1-Cn. It is also able, in the context of a physical simulation of an articulated structure, to take into account the effect of gravity, to detect collisions between the geometries of the segments of the articulated structure and the geometry of the structure. environment and resolve the contacts by generating efforts opposing penetrations between the segments of the articulated structure and the environment.
  • the collisions between the geometries of the segments of the articulated structure and the geometry of the environment are detected at each time step for a configuration of the given structure.
  • This detection can be based on the penetration detection of the geometries as on the detection of proximity according to a given threshold.
  • the collision information obtained is the point and the normal of each contact. Collision information is used to generate efforts to prevent penetrations between segment geometries and the environment.
  • a modeling of the friction allows, moreover, to simulate the adhesion of the segment on the environment and constrain sliding. The resulting efforts are called contact efforts.
  • the geometry of the environment can be obtained either by a priori knowledge of the environment, for example it is assumed that the ground is flat, or is thanks to the mapping of the environment provided by the SLAM.
  • the module 21 for determining the control to be applied to the articulated structure can thus exploit a real-time physical simulation engine, such as the XDE engine (for the "eXtended Dynamic Engine") of the Applicant, which makes it possible to perform simulations in a virtual environment by assigning physical constraints to an articulated structure, detecting collisions and managing contacts.
  • a real-time physical simulation engine such as the XDE engine (for the "eXtended Dynamic Engine") of the Applicant, which makes it possible to perform simulations in a virtual environment by assigning physical constraints to an articulated structure, detecting collisions and managing contacts.
  • the central element and the relative motion sensors C1-Cn each comprise means for measuring the relative distances between the latter, for example an Ultra Wide Band module.
  • the module 21 for determining the command to be applied to the articulated structure can implement an estimation algorithm (exploiting for example a Kalman filter).
  • an analytical method for example of the MDS ("Multi Dimentional Scaling") type, makes it possible to recover the initial posture by merging the distance measurements provided by the central element and the relative movement sensors Cl-Cn and a priori knowledge of a reference posture serving as an initialization posture.
  • the estimation algorithm merges the distance data provided by the central element and the relative motion sensors to determine the position of the joints as a function of time.
  • biomechanical constraints knowledge a priori of the model of the human body, number of segments and their sizes that can be measured during the initialization phase
  • the command determined by the module 21 can be used to perform a motion analysis. Indeed, from the knowledge of the type of movement, specific information can be extracted for particular application needs. This command can also be used to perform a complete reconstruction of the movement for display on a screen 30, for example that of a computer or a virtual reality headset. The movement can be modified or amplified to achieve the desired effects.
  • the processing unit 20 comprises a module an image processing unit 22 and a relative location determination module 24 of the relative motion sensors.
  • the image processing module 22 is configured to determine, in real time, an absolute location of the optical sensor C0 in the reference frame 3 ⁇ 4 a from a sequence of images D0 acquired by the optical sensor.
  • This module thus provides the set ⁇ R, p £ ⁇ at times t ⁇ . It can notably implement a visual SLAM type algorithm (for Simultaneous Localization And Mapping designating simultaneous mapping and localization) or SfM.
  • a visual SLAM type algorithm for Simultaneous Localization And Mapping designating simultaneous mapping and localization
  • SfM Simultaneous Localization And Mapping designating simultaneous mapping and localization
  • Such an algorithm makes it possible to iteratively reconstruct a map of 3D primitives (generally points) and to locate the optical sensor C0 in this map from the video stream D0.
  • the reference mark is then fixed either on the first position of the sensor or on the reconstructed map.
  • FIG. 3 shows the calculation of the orientation and the position of the central element with respect to the reference mark, with R and o the orientation and the position of the current mark 3 ⁇ 4 0 relative to the reference mark 3 ⁇ 4 has at successive times t ⁇ , t ⁇ ⁇ 1 and 2.
  • the relative location determination module 24 of the relative motion sensors is in turn configured to determine, in real time, the relative location of each of the relative movement sensors C1-Cn, from the measurements made by the sensors fixed on the 'object.
  • FIG. 4 shows the acquisition of the movement data of the limbs in the current coordinate system 3 ⁇ 4 0 fixed on the central element, with R and pf the orientation and the position of each relative motion sensor i with respect to the current coordinate system 3 ⁇ 4 0 at different successive instants t, t ⁇ +1 and t + 2 ⁇
  • the central element provided with the optical sensor may be associated with means for completing the measurements from the sensors fixed on the object. This is particularly the case when these measurements are insufficient to provide position information of the relative motion sensors with respect to the optical sensor, for example because they only make it possible to determine a relative distance.
  • the relative motion sensors each comprise a UWB transmitter ("Ultra Wide Band") to enable the calculation of a relative distance from a receiver.
  • the central element is provided not with a UWB receiver but with three UWB receivers positioned in a predetermined configuration, each of which makes it possible to recover the relative distance of each UWB transmitter.
  • the relative location determination module 24 can then implement a triangulation to determine the exact position of each motion sensor with respect to the optical sensor.
  • the processing unit further comprises an absolute location determination module 23 of each of the relative motion sensors in the reference frame.
  • This module 23 exploits the absolute location of the optical sensor ⁇ R Q , PO ⁇ AND the relative location of each of the relative motion sensors ⁇ R. pf ⁇ relative to the optical sensor to make a reference change and replace each of the positions and orientations of the relative motion sensors calculated in the current coordinate system at each instant t in the reference frame.
  • This module thus provides the absolute locations ⁇ Rf, tf ⁇ .
  • an additional synchronization step is performed by the module 23 to obtain data synchronized at the output.
  • the module 23 can use the frequency F C as output frequency and interpolate the missing locations of the optical sensor.
  • An exemplary embodiment of the invention exploits relative motion sensors which are each composed of an inertial unit which provides information on the orientation of the sensor, and a UWB (Ultra-Large Band) transmitter which makes it possible to calculate a relative distance from receivers.
  • the person is equipped with at least 4 relative sensors fixed rigidly on his body, including a sensor on each hand and a sensor on each foot.
  • the central element comprises a camera, for example a 360 ° camera, as well as three UWB receivers positioned in a predetermined configuration, each of which makes it possible to recover the relative distance of each UWB transmitter.
  • the optical sensor comprises at least two cameras rigidly connected and calibrated between them, whose fields of view are overlapped. This is for example a stereoscopic sensor. Alternatively, you can use a RGB-D sensor that provides an RGB image and a depth map of the image scene. The use of such optical sensors makes it possible to obtain a real scale location and to minimize the drift inherent in any monocular SLAM or SfM solution.
  • the reconstruction and the location are obtained at an arbitrary scale factor. This solution may therefore not be satisfactory for merging the relative movements of the limbs and the displacement of the person.
  • the scale is provided thanks to the knowledge of the rigid transformation connecting the two cameras. This makes it possible to obtain a reconstruction and a location on a real scale.
  • the optical sensor is composed of a single camera, and to obtain a scale reconstruction it is associated with:
  • the invention is not limited to the system as previously described, but also extends to the method of reproducing the movement of an object by an articulated structure implemented by such a system.
  • the invention also relates to a computer program product comprising program code instructions for executing the method according to the invention when said program is executed on a computer.
  • this method comprises a prior "INST" step of placing the relative motion sensors on the object.
  • it is a human body, it is typically placed relative motion sensors on each hand and on each foot of the person.
  • the optical sensor is also installed, for example on the person's head.
  • the method includes the acquisition "ACQ. Measurements made by the various sensors fixed on the object (video flow delivered by the optical sensor and measurements of the relative motion sensors).
  • the image sequence acquired by the optical sensor is subjected to "SLAM" processing to determine the absolute location of the optical sensor in the reference frame.
  • the measurements made by the sensors fixed on the object are used during a "LOC-R" step to determine the relative locations of each of the relative motion sensors relative to the optical sensor.
  • the absolute location of each of the relative motion sensors in the reference frame is determined from the absolute location of the optical sensor and the relative location of each of the motion sensors. related. If necessary, a resynchronization of the outputs between them is performed during this step "LOC-A".
  • step “DET-CDE” determine the command to be applied to the articulated structure so as to locate it in the benchmark by making him adopt a posture reproducing that of the object .
  • This command can be used to perform a complete reconstruction of the movement for display on a screen, for example that of a computer or a virtual reality headset.
  • the method then comprises an animation "DISP" step, according to the determined command, of the articulated structure in a 3D digital simulation.
  • the invention allows the capture of movement in real time, without instrumenting the environment, by locating the person in his environment in an absolute way while estimating his complete posture.
  • the advantages of the invention over the solution proposed in the article by T. Shiratori et al. are the following.
  • the solution is less expensive in computing time. It uses a single optical sensor and therefore offers a cost reduction.
  • the data stream to be transmitted is lighter, and the use of embedded relative sensors (compared to cameras on the limbs) is more robust to abrupt limb movements and occultations.
  • the drift of the system is reduced by the choice of the optical sensor placed on the central element.

Abstract

The invention relates to a system for reproducing the movement of an object by means of an articulated structure, which comprises an optical sensor (C0) and relative movement sensors (C1-C4) attached to the object, and a unit (20) for processing measurements made by the sensors (C0, C1-C4). The unit comprises a module (21) giving the absolute location of each segment of the structure in a reference frame, said module utilising the absolute location ({R a 0,p a 0},{R a i ,p a i }) of each sensor. The unit further comprises: - an image processing module (22) for determining the absolute location ({R a 0,p a 0}) of the optical sensor (C0) in the reference frame from a sequence of images (D0) acquired by the optical sensor, - a module (24) for determining the relative location ({R0 i ,p 0 i ) of each relative movement sensor (C1-C4) in relation to the optical sensor, from the measurements made by the sensors, - a module (23) for determining the absolute location ({R a i ,p a i }) of each relative movement sensor (C1-C4), from the absolute location of the optical sensor and the relative location of each relative movement sensor.

Description

PROCÉDÉ ET SYSTÈME POUR LA LOCALISATION ET LA RECONSTRUCTION EN TEMPS RÉEL DE LA POSTURE D'UN OBJET MOUVANT À L'AIDE DE CAPTEURS EMBARQUÉS  METHOD AND SYSTEM FOR REAL-TIME LOCALIZATION AND RECONSTRUCTION OF THE POSTURE OF A MOVING OBJECT USING ONBOARD SENSORS
DESCRIPTION DESCRIPTION
DOMAINE TECHNIQUE TECHNICAL AREA
Le domaine de l'invention est celui de la capture du mouvement d'un objet, et du transfert temps-réel de ce mouvement à une structure massique (poly-) articulée modélisant l'objet. The field of the invention is that of the capture of the movement of an object, and the real-time transfer of this movement to a (poly) articulated mass structure modeling the object.
L'invention trouve application à la capture du mouvement d'un corps humain via des capteurs disposés sur une personne, et à la représentation de ce mouvement via l'animation d'un avatar dans une simulation numérique. ÉTAT DE LA TECHNIQUE ANTÉRIEURE  The invention finds application to the capture of the movement of a human body via sensors arranged on a person, and the representation of this movement via the animation of an avatar in a numerical simulation. STATE OF THE PRIOR ART
On cherche dans un certain nombre d'applications à représenter les mouvements d'une personne dans une simulation numérique. Dans la majorité des cas, la personne porte un ensemble de capteurs dont les données sont utilisées pour animer son avatar numérique dans la simulation. In a number of applications, we seek to represent the movements of a person in a numerical simulation. In the majority of cases, the person carries a set of sensors whose data are used to animate his digital avatar in the simulation.
Les besoins principaux d'une capture du mouvement sont, d'une part, de localiser la personne dans l'environnement, et, d'autre part, d'estimer la posture complète de la personne.  The main needs of a motion capture are, on the one hand, to locate the person in the environment, and, on the other hand, to estimate the complete posture of the person.
Pour répondre conjointement à ces deux besoins, il est aujourd'hui nécessaire d'instrumenter l'environnement. Des caméras sont par exemple placées dans l'environnement et observent la personne (ou des capteurs portés par celle-ci) pour détecter ses mouvements.  To meet both these needs, it is now necessary to instrument the environment. Cameras are for example placed in the environment and observe the person (or sensors carried by it) to detect its movements.
L'instrumentation de l'environnement impose cependant plusieurs contraintes : elle est coûteuse en temps, elle limite la zone de capture, et elle est incompatible avec des environnements extérieurs ou a priori inconnus. C'est pourquoi l'utilisation de capteurs complètement embarqués sur la personne est un besoin récurrent. Mais peu de solutions existent aujourd'hui pour répondre conjointement aux deux besoins précités au moyen de capteurs embarqués uniquement, sans instrumentation de l'environnement. On peut toutefois citer l'article de T. Shiratori et al. intitulé « Motion capture from body-mounted caméras », ACM Trans. Graph. 30, 4, Article 31 (July 2011) qui décrit une solution reposant sur plusieurs caméras placées sur le torse et les membres de la personne. Pour chaque caméra, un algorithme de Structure à partir du Mouvement (SfM pour « Structure from Motion ») est appliqué pour calculer les positions successives des caméras. Puis, une optimisation globale permet de retrouver la localisation et la posture de la personne au cours du temps. Cette optimisation globale consiste à résoudre un ajustement de faisceaux avec des contraintes additionnelles liées au mouvement du squelette, par exemple la fluidité des mouvements. The instrumentation of the environment, however, imposes several constraints: it is costly in time, it limits the capture area, and it is incompatible with external environments or a priori unknown. This is why the use of sensors completely embedded on the person is a recurring need. But few solutions exist today to respond jointly to the two needs mentioned above by means of embedded sensors only, without instrumentation of the environment. However, the article by T. Shiratori et al. entitled "Motion capture from body-mounted cameras", ACM Trans. Graph. 30, 4, Article 31 (July 2011) which describes a solution based on several cameras placed on the torso and the limbs of the person. For each camera, a Structure from Motion (SfM) algorithm is applied to calculate the camera's successive positions. Then, a global optimization makes it possible to find the location and the posture of the person over time. This overall optimization consists in solving a beam adjustment with additional constraints related to the movement of the skeleton, for example the fluidity of the movements.
Cette solution présente cependant un certain nombre d'inconvénients : Elle est coûteuse en temps de calcul (plus de 10 heures de calcul d'après l'article). Elle est sensible à la qualité des images (ex : images floues liées au bougé, occultation du capteur par une partie du corps, etc.).  This solution however has a number of disadvantages: It is expensive in computing time (more than 10 hours of calculation according to the article). It is sensitive to the quality of the images (ex: blurred images related to the movement, occultation of the sensor by a part of the body, etc.).
Elle est sensible à la dérive du facteur d'échelle, et des images de référence sont nécessaires pour résoudre ce problème  It is sensitive to scale factor drift, and reference images are needed to solve this problem
Le flux de données à transférer est très volumineux.  The data stream to be transferred is very large.
EXPOSÉ DE L'INVENTION L'invention a pour objectif de proposer une technique de localisation et de reconstruction en temps réel de la posture d'un objet mouvant à l'aide de capteurs embarqués uniquement qui soit dénuée, au moins en partie, des inconvénients susmentionnés. DISCLOSURE OF THE INVENTION The object of the invention is to propose a technique for locating and reconstructing the posture of a moving object in real time using onboard sensors only, which is at least partially free of the disadvantages above.
A cet effet, l'invention propose un système de reproduction du mouvement d'un objet par une structure articulée comprenant une pluralité de segments, qui comporte :  For this purpose, the invention proposes a system for reproducing the movement of an object by an articulated structure comprising a plurality of segments, which comprises:
des capteurs fixés, en utilisation, sur l'objet,  sensors fixed, in use, on the object,
une unité de traitement de mesures réalisées par les capteurs fixés sur l'objet, comprenant un module de détermination d'une commande à appliquer à la structure articulée de sorte à la localiser dans un repère de référence en lui faisant adopter une posture reproduisant celle de l'objet, ledit module fournissant en sortie la localisation absolue de chacun des segments de la structure dans le repère de référence, ledit module exploitant la localisation absolue de chacun des capteurs fixés sur l'objet dans le repère de référence. a unit for processing measurements made by the sensors fixed on the object, comprising a module for determining a command to be applied to the articulated structure so as to locate it in a reference frame by making it adopt a posture reproducing that of the object, said module outputting the absolute location of each of the segments of the structure in the reference frame, said module using the absolute location of each of the sensors attached to the object in the reference frame.
Les capteurs fixés, en utilisation, sur l'objet comprennent un capteur optique et des capteurs de mouvement relatifs et l'unité de traitement comporte en outre :  The sensors fixed in use on the object comprise an optical sensor and relative motion sensors and the processing unit further comprises:
un module de traitement d'images configuré pour déterminer une localisation absolue du capteur optique dans le repère de référence à partir d'une séquence d'images acquises par le capteur optique,  an image processing module configured to determine an absolute location of the optical sensor in the reference frame from a sequence of images acquired by the optical sensor,
un module de détermination de localisation relative de chacun des capteurs de mouvement relatifs par rapport au capteur optique, à partir de mesures réalisées par les capteurs fixés sur l'objet,  a module for determining the relative location of each of the relative motion sensors with respect to the optical sensor, based on measurements made by the sensors fixed on the object,
un module de détermination de localisation absolue de chacun des capteurs de mouvement relatifs dans le repère de référence, à partir de la localisation absolue du capteur optique et de la localisation relative de chacun des capteurs de mouvement relatifs.  an absolute location determination module of each of the relative motion sensors in the reference frame, from the absolute location of the optical sensor and the relative location of each of the relative motion sensors.
BRÈVE DESCRIPTION DES DESSINS BRIEF DESCRIPTION OF THE DRAWINGS
D'autres aspects, buts, avantages et caractéristiques de l'invention apparaîtront mieux à la lecture de la description détaillée suivante de formes de réalisation préférées de celle-ci, donnée à titre d'exemple non limitatif, et faite en référence aux dessins annexés sur lesquels : Other aspects, objects, advantages and characteristics of the invention will appear better on reading the following detailed description of preferred embodiments thereof, given by way of non-limiting example, and with reference to the accompanying drawings. on which ones :
- la figure 1 représente un exemple de structure massique poly-articulée utilisée comme modèle physique (au sens des lois de la physique) d'un corps humain ;  FIG. 1 represents an example of a poly-articulated mass structure used as a physical model (in the meaning of the laws of physics) of a human body;
- la figure 2 est un schéma d'un système conforme à l'invention pour le suivi de mouvement d'un objet sur lequel des capteurs sont fixés ; - la figure 3 illustre le calcul de la localisation du capteur optique par rapport au repère de référence ; FIG. 2 is a diagram of a system according to the invention for tracking the movement of an object on which sensors are fixed; FIG. 3 illustrates the calculation of the location of the optical sensor with respect to the reference mark;
- la figure 4 représente l'acquisition des données de mouvement des membres dans un repère courant associé au capteur optique ;  FIG. 4 represents the acquisition of the movement data of the limbs in a current coordinate system associated with the optical sensor;
- la figure 5 est un schéma représentant les étapes d'un procédé conforme à l'invention.  - Figure 5 is a diagram showing the steps of a method according to the invention.
EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS DETAILED PRESENTATION OF PARTICULAR EMBODIMENTS
L'invention concerne la commande d'une structure massique articulée à partir de données représentatives du mouvement d'un objet. Des capteurs de mouvement sont fixés sur l'objet et l'on souhaite asservir la structure massique articulée pour qu'elle reproduise les mouvements de l'objet. The invention relates to the control of an articulated mass structure from data representative of the movement of an object. Motion sensors are attached to the object and it is desired to enslave the articulated mass structure to reproduce the movements of the object.
L'objet est typiquement un corps humain ou le corps d'un animal, voire une seule partie d'un tel corps. L'invention n'est toutefois pas limitée à ces exemples, et s'étend ainsi au suivi du mouvement de tout objet mouvant pouvant être représenté par une structure articulée.  The object is typically a human body or the body of an animal, or even a single part of such a body. The invention is however not limited to these examples, and thus extends to monitoring the movement of any moving object that can be represented by an articulated structure.
La structure massique articulée est composée de segments reliés par au moins une articulation. Elle est utilisée comme modèle physique de l'objet dont on suit le mouvement. Il s'agit typiquement d'une structure poly-articulée.  The articulated mass structure is composed of segments connected by at least one joint. It is used as a physical model of the object whose movement we follow. It is typically a poly-articulated structure.
La structure massique articulée peut être un modèle numérique de l'objet. L'objectif peut alors être la représentation des mouvements de l'objet dans une simulation numérique, au moyen de l'animation de la structure massique articulée dans la simulation numérique selon une commande déterminée par l'invention.  The articulated mass structure can be a numerical model of the object. The objective can then be the representation of the movements of the object in a numerical simulation, by means of the animation of the mass structure articulated in the numerical simulation according to a command determined by the invention.
La figure 1 donne un exemple de structure massique poly-articulée 10 pouvant être utilisée comme modèle physique du corps humain dans une mise en œuvre de l'invention. La structure massique poly-articulée est composée de segments reliés par des articulations. Un segment désigne un objet rigide ou supposé rigide qui est défini par une géométrie (c'est-à-dire par une forme volumique bien définie), une masse et une inertie. Une articulation désigne une liaison entre deux segments. Cette liaison définit la configuration relative que peut avoir un segment par rapport à un segment auquel il est lié. Une articulation est définie par un ou plusieurs degrés de libertés représentatifs notamment des caractéristiques de centres, d'axes ou de butées. FIG. 1 gives an example of a poly-articulated mass structure that can be used as a physical model of the human body in an implementation of the invention. The poly-articulated mass structure is composed of segments connected by joints. A segment refers to a rigid or supposedly rigid object that is defined by a geometry (that is, a well-defined volume shape), mass, and inertia. An articulation denotes a connection between two segments. This link defines the relative configuration that a segment can have with respect to a segment to which it is bound. An articulation is defined by one or more representative degrees of freedom, in particular the characteristics of centers, axes or stops.
Dans l'exemple de la figure 1, la structure poly-articulée 10 est composée de vingt-et-un segments reliés par vingt articulations. Ainsi, à titre d'exemple, la main est modélisée par un premier segment 13 relié par une articulation 16 à un deuxième segment 12 correspondant à l'avant-bras. L'articulation 16 possède par exemple trois degrés de liberté. Le segment 12 correspondant à l'avant-bras est relié par une articulation 15 à deux degrés de liberté au segment 11 correspondant au bras. Le segment 11 est quant à lui relié à la clavicule par une articulation 14 à trois degrés de libertés.  In the example of Figure 1, the poly-articulated structure 10 is composed of twenty-one segments connected by twenty joints. Thus, for example, the hand is modeled by a first segment 13 connected by a hinge 16 to a second segment 12 corresponding to the forearm. The articulation 16 has for example three degrees of freedom. The segment 12 corresponding to the forearm is connected by a hinge 15 with two degrees of freedom to the segment 11 corresponding to the arm. The segment 11 is connected to the clavicle by a hinge 14 with three degrees of freedom.
Outre la définition de la structure articulée (les géométries de chaque segment, les masses et les inerties de chaque segment et les paramètres des articulations : degrés de liberté, centre, axes, valeur des buttées), d'autres paramètres nécessaires à la mise en œuvre du procédé selon l'invention peuvent comprendre :  In addition to the definition of the articulated structure (the geometries of each segment, the masses and the inertia of each segment and the parameters of the joints: degrees of freedom, center, axes, value of the stops), other parameters necessary for the implementation process of the invention may comprise:
La définition de la gravité (direction et norme du champ de pesanteur), dont l'effet (le poids) est représenté par des efforts extérieurs appliqués sur le centre de masse des segments de la structure articulée.  The definition of gravity (direction and norm of the gravitational field), whose effect (weight) is represented by external forces applied on the center of mass of the segments of the articulated structure.
La définition du sol. Cette définition de l'environnement comprend la géométrie du sol (reliefs, escaliers etc.), et un repère de référence attaché au sol. Elle permet notamment de détecter les collisions potentielles entre la structure articulée et l'environnement.  The definition of the soil. This definition of the environment includes the geometry of the ground (reliefs, stairs etc.), and a reference reference attached to the ground. In particular, it makes it possible to detect potential collisions between the articulated structure and the environment.
La définition du comportement en frottement de la structure articulée sur l'environnement. Par exemple, si ce comportement est modélisé par une loi de Coulomb, le coefficient d'adhérence est donné.  The definition of friction behavior of the articulated structure on the environment. For example, if this behavior is modeled by a Coulomb law, the coefficient of adhesion is given.
En référence maintenant à la figure 2, l'invention propose un système de reproduction du mouvement d'un objet par une structure articulée. Ce système exploite les données issues d'un ensemble de capteurs CO, C1-C4 fixés sur l'objet, et ne nécessite pas d'instrumentation de l'environnement.  Referring now to Figure 2, the invention provides a system for reproducing the movement of an object by an articulated structure. This system exploits the data from a set of sensors CO, C1-C4 fixed on the object, and does not require instrumentation of the environment.
Les capteurs fixés sur l'objet comprennent un élément central disposant d'un capteur optique, et des capteurs de mouvement relatifs. Le capteur optique et le module 22 décrit ci-après permettent de calculer la position/orientation de l'objet dans un repère de référence lié à l'environnement. Les mouvements de l'objet, typiquement les mouvements des membres d'une personne, sont obtenus au moyen des capteurs de mouvement relatifs et du module 24 décrit ci-après grâce auxquels on peut disposer d'une localisation, en position et en orientation, dans un repère relatif à l'élément central. The sensors attached to the object include a central element having an optical sensor, and relative motion sensors. The optical sensor and the module 22 described below make it possible to calculate the position / orientation of the object in a reference reference linked to the environment. The movements of the object, typically the movements of the limbs of a person, are obtained by means of the relative motion sensors and the module 24 described below by which one can have a location, in position and orientation, in a reference relative to the central element.
Dans l'exemple représenté sur la figure 2, les capteurs de mouvement relatifs sont au nombre de quatre, avec un capteur de mouvement relatif Cl, C2 sur chaque main de la personne et un capteur de mouvement relatif C3, C4 sur chaque pied de la personne. Le capteur optique C0 est quant à lui placé sur la tête de la personne. Ce nombre de quatre capteurs de mouvement relatifs est donné à titre d'exemple uniquement, l'invention s'étendant à un nombre quelconque de capteurs de mouvements relatifs.  In the example shown in FIG. 2, the relative motion sensors are four in number, with a relative movement sensor C1, C2 on each hand of the person and a relative motion sensor C3, C4 on each foot of the nobody. The optical sensor C0 is placed on the head of the person. This number of four relative motion sensors is given by way of example only, the invention extending to any number of relative motion sensors.
Le capteur optique C0 fournit une séquence d'images DO, tandis que les capteurs de mouvement relatif fournissent des informations de mouvement Di dans un repère relatif au capteur optique, i.e. un repère courant correspondant à la position courante du capteur optique dans l'environnement.  The optical sensor C0 provides a sequence of images DO, while the relative motion sensors provide motion information Di in a reference relative to the optical sensor, i.e. a current marker corresponding to the current position of the optical sensor in the environment.
Ces données DO, Di sont fournies à une unité de traitement informatique 20. Cette unité 20 reçoit les mesures réalisées par les capteurs fixés sur l'objet, et est configurée, au moyen de différents modules décrits ci-après, pour mettre en œuvre des étapes à chaque pas de temps de calcul de la configuration à donner à la structure poly-articulée pour reproduire les mouvements de l'objet.  These data DO, Di are supplied to a computer processing unit 20. This unit 20 receives the measurements made by the sensors fixed on the object, and is configured, by means of different modules described below, to implement steps at each time step of calculating the configuration to be given to the poly-articulated structure to reproduce the movements of the object.
L'unité de traitement 20 est notamment dotée d'un module 21 de détermination d'une commande à appliquer à la structure articulée pour qu'elle reproduise le mouvement de l'objet. Cette commande vient plus précisément localiser la structure articulée dans un repère de référence ¾a, par exemple un repère attaché au sol, en lui faisant adopter une posture reproduisant celle de l'objet. Le module 21 de détermination de la commande à appliquer à la structure articulée exploite pour ce faire la localisation absolue de chacun des capteurs fixés sur l'objet dans le repère de référence. On adopte les notations suivantes : The processing unit 20 is in particular provided with a module 21 for determining a command to be applied to the articulated structure so that it reproduces the movement of the object. This command more precisely locates the articulated structure in a reference frame ¾ a , for example a marker attached to the ground, making him adopt a posture reproducing that of the object. The module 21 for determining the command to be applied to the articulated structure uses the absolute location of each of the sensors attached to the object in the reference frame. The following notations are adopted:
- {Rs , Ps ) désigne l'ensemble des orientations et positions des segments s de la structure articulée, exprimées da ns le repère de référence ¾a. Cet ensemble constitue les sorties du module 21 de détermination de la commande à appliquer à la structure articulée, à savoir la localisation et la posture complète de la structure articulée dans le repère de référence ¾a. - {Rs, Ps) denotes all the orientations and positions of the segments s of the articulated structure, expressed in the reference reference ¾ a . This set constitutes the outputs of the module 21 for determining the control to be applied to the articulated structure, namely the location and the complete posture of the articulated structure in the reference frame ¾ a .
- {Rf, pf} désigne l'ensemble des orientations et positions des capteurs relatifs Ci (i=l...n) à des instants t, exprimées da ns le repère de référence ¾a. Ces orientations et positions sont fournies au module 21 de détermination de la commande à appliquer à la structure articulée. - {Rf, pf} denotes all the orientations and positions of the relative sensors Ci (i = 1 ... n) at times t, expressed in ns the reference reference ¾ a . These orientations and positions are provided to the module 21 for determining the control to be applied to the articulated structure.
- {RQ , PO } désigne l'ensemble des orientations et positions du repère courant ¾0 correspondant à la position courante, à des instants t de l'élément central da ns l'environnement, exprimées dans le repère de référence ¾a. Ces orientations et positions, représentatives de la localisation de l'objet, sont fournies au module 21 de détermination de la commande à appliquer à la structure articulée. - {R Q , PO} denotes the set of orientations and positions of the current coordinate system ¾ 0 corresponding to the current position, at times t of the central element da ns the environment, expressed in the reference reference ¾ a . These orientations and positions, representative of the location of the object, are supplied to the module 21 for determining the command to be applied to the articulated structure.
Le module 21 de détermination de la commande à appliquer à la structure articulée prend en compte les localisations dans le repère de référence des capteurs C0, Cl-Cn. I l est en outre capable, dans le cadre d'une simulation physique d'une structure articulée, de prendre en compte l'effet de la gravité, de détecter les collisions entre les géométries des segments de la structure articulée et la géométrie de l'environnement et de résoudre les contacts en générant des efforts s'opposant aux pénétrations entre les segments de la structure articulée et l'environnement.  The module 21 for determining the command to be applied to the articulated structure takes into account the locations in the reference reference frame of the sensors C0, C1-Cn. It is also able, in the context of a physical simulation of an articulated structure, to take into account the effect of gravity, to detect collisions between the geometries of the segments of the articulated structure and the geometry of the structure. environment and resolve the contacts by generating efforts opposing penetrations between the segments of the articulated structure and the environment.
A cet égard, les collisions entre les géométries des segments de la structure articulée et la géométrie de l'environnement sont détectées à chaque pas de temps pour une configuration de la structure donnée. Cette détection peut être basée sur la détection de pénétration des géométries comme sur la détection de proximité selon un seuil donné. Les informations de collisions obtenues sont le point et la normale de chaque contact. Les informations de collision sont utilisées pour générer des efforts conduisant à empêcher les pénétrations entre les géométries des segments et celle de l'environnement. Une modélisation du frottement (par exemple par une loi de Coulomb) permet, de plus, de simuler l'adhérence du segment sur l'environnement et contraindre le glissement. Les efforts résultants sont appelés efforts de contact. In this respect, the collisions between the geometries of the segments of the articulated structure and the geometry of the environment are detected at each time step for a configuration of the given structure. This detection can be based on the penetration detection of the geometries as on the detection of proximity according to a given threshold. The collision information obtained is the point and the normal of each contact. Collision information is used to generate efforts to prevent penetrations between segment geometries and the environment. A modeling of the friction (for example by a law of Coulomb) allows, moreover, to simulate the adhesion of the segment on the environment and constrain sliding. The resulting efforts are called contact efforts.
La géométrie de l'environnement peut être obtenue soit par une connaissance a priori de l'environnement, par exemple on fait l'hypothèse que le sol est plan, ou soit grâce à la cartographie de l'environnement fournie par le SLAM.  The geometry of the environment can be obtained either by a priori knowledge of the environment, for example it is assumed that the ground is flat, or is thanks to the mapping of the environment provided by the SLAM.
Le module 21 de détermination de la commande à appliquer à la structure articulée peut ainsi exploiter un moteur de simulation physique temps-réel, tel que le moteur XDE (pour « eXtended Dynamic Engine ») de la Demanderesse, qui permet de réaliser des simulations dans un environnement virtuel en venant affecter des contraintes physiques à une structure articulée, détecter les collisions et gérer les contacts.  The module 21 for determining the control to be applied to the articulated structure can thus exploit a real-time physical simulation engine, such as the XDE engine (for the "eXtended Dynamic Engine") of the Applicant, which makes it possible to perform simulations in a virtual environment by assigning physical constraints to an articulated structure, detecting collisions and managing contacts.
Dans un mode de réalisation possible, l'élément central et les capteurs de mouvement relatifs Cl-Cn comportent chacun des moyens de mesure des distances relatives entre ces derniers, par exemple un module Ultra Large Bande. Dans ce mode de réalisation, le module 21 de détermination de la commande à appliquer à la structure articulée peut mettre en œuvre un algorithme d'estimation (exploitant par exemple un filtre de Kalman). L'usage d'une méthode analytique, par exemple du type MDS (« Multi Dimentional Scaling »), permet de retrouver la posture initiale en fusionnant les mesures de distance fournies par l'élément central et les capteurs de mouvement relatifs Cl-Cn et la connaissance a priori d'une posture de référence servant de posture d'initialisation. Une fois initialisé, l'algorithme d'estimation fusionne les données de distance fournies par l'élément central et les capteurs de mouvement relatifs afin de déterminer la position des articulations en fonction du temps. Idéalement, l'usage de contraintes biomécaniques (connaissance a priori du modèle du corps humain, nombre de segments et leurs tailles qui peuvent être mesurées au cours de la phase d'initialisation) permet de rendre l'estimation de la position des articulations plus robuste.  In one possible embodiment, the central element and the relative motion sensors C1-Cn each comprise means for measuring the relative distances between the latter, for example an Ultra Wide Band module. In this embodiment, the module 21 for determining the command to be applied to the articulated structure can implement an estimation algorithm (exploiting for example a Kalman filter). The use of an analytical method, for example of the MDS ("Multi Dimentional Scaling") type, makes it possible to recover the initial posture by merging the distance measurements provided by the central element and the relative movement sensors Cl-Cn and a priori knowledge of a reference posture serving as an initialization posture. Once initialized, the estimation algorithm merges the distance data provided by the central element and the relative motion sensors to determine the position of the joints as a function of time. Ideally, the use of biomechanical constraints (knowledge a priori of the model of the human body, number of segments and their sizes that can be measured during the initialization phase) makes the estimation of the position of the joints more robust. .
La commande déterminée par le module 21 peut être utilisée afin de réaliser une analyse du mouvement. En effet, à partir de la connaissance du type de mouvement, des informations spécifiques peuvent être extraites pour des besoins applicatifs particuliers. Cette commande peut également être utilisée pour réaliser une reconstruction complète du mouvement en vue de l'afficher sur un écran 30, par exemple celui d'un ordinateur ou d'un casque de réalité virtuelle. Le mouvement peut être modifié ou amplifié pour obtenir des effets désirés. The command determined by the module 21 can be used to perform a motion analysis. Indeed, from the knowledge of the type of movement, specific information can be extracted for particular application needs. This command can also be used to perform a complete reconstruction of the movement for display on a screen 30, for example that of a computer or a virtual reality headset. The movement can be modified or amplified to achieve the desired effects.
Afin de permettre la fourniture, au module 21 de détermination de la commande à appliquer à la structure articulée, des localisations dans le repère de référence des capteurs fixés sur l'objet CO, Cl-Cn, l'unité de traitement 20 comprend un module de traitement d'images 22 et un module de détermination de localisation relative 24 des capteurs de mouvements relatifs.  In order to enable the module 21 for determining the control to be applied to the articulated structure to be located in the reference reference frame of the sensors fixed on the object CO, C1-Cn, the processing unit 20 comprises a module an image processing unit 22 and a relative location determination module 24 of the relative motion sensors.
Le module de traitement d'images 22 est configuré pour déterminer, en temps réel, une localisation absolue du capteur optique C0 dans le repère de référence ¾a à partir d'une séquence d'images D0 acquises par le capteur optique. Ce module fournit ainsi l'ensemble {R , p£} aux instants t^. Il peut notamment mettre en œuvre un algorithme de type SLAM visuel (pour « Simultaneous Localization And Mapping » désignant la cartographie et localisation simultanées) ou SfM. Un tel algorithme permet de reconstruire de manière itérative une carte de primitives 3D (généralement des points) et de localiser le capteur optique C0 dans cette carte à partir du flux vidéo D0. Le repère de référence est alors fixé soit sur la première position du capteur soit sur la carte reconstruite. The image processing module 22 is configured to determine, in real time, an absolute location of the optical sensor C0 in the reference frame ¾ a from a sequence of images D0 acquired by the optical sensor. This module thus provides the set {R, p £} at times t ^. It can notably implement a visual SLAM type algorithm (for Simultaneous Localization And Mapping designating simultaneous mapping and localization) or SfM. Such an algorithm makes it possible to iteratively reconstruct a map of 3D primitives (generally points) and to locate the optical sensor C0 in this map from the video stream D0. The reference mark is then fixed either on the first position of the sensor or on the reconstructed map.
On a représenté sur la figure 3 le calcul de l'orientation et la position de l'élément central par rapport au repère de référence, avec R et o l'orientation et la position du repère courant ¾0 par rapport au repère de référence ¾a à différents instants successifs t^, t^+1 et ί +2. FIG. 3 shows the calculation of the orientation and the position of the central element with respect to the reference mark, with R and o the orientation and the position of the current mark ¾ 0 relative to the reference mark ¾ has at successive times t ^, t ^ ί 1 and 2.
Le module de détermination de localisation relative 24 des capteurs de mouvement relatifs est quant à lui configuré pour déterminer, en temps réel, la localisation relative de chacun des capteurs de mouvements relatifs Cl-Cn, à partir des mesures réalisées par les capteurs fixés sur l'objet. Ce module fournit ainsi l'ensemble {Ri , Pi ) qui désigne les orientations et positions des capteurs relatifs i (i=l...n) aux instants t , exprimées dans le repère courant ¾0. The relative location determination module 24 of the relative motion sensors is in turn configured to determine, in real time, the relative location of each of the relative movement sensors C1-Cn, from the measurements made by the sensors fixed on the 'object. This module thus provides the set {Ri, Pi) which designates the orientations and positions of the relative sensors i (i = 1 ... n) at times t, expressed in the current frame ¾ 0 .
On a représenté sur la figure 4 l'acquisition des données de mouvement des membres dans le repère courant ¾0 fixé sur l'élément central, avec R et pf l'orientation et la position de chaque capteur de mouvement relatif i par rapport a u repère courant ¾0 à différents instants successifs t , t^+1 et t +2 · FIG. 4 shows the acquisition of the movement data of the limbs in the current coordinate system ¾ 0 fixed on the central element, with R and pf the orientation and the position of each relative motion sensor i with respect to the current coordinate system ¾ 0 at different successive instants t, t ^ +1 and t + 2 ·
Dans un mode de réa lisation possible, l'élément central doté du capteur optique peut être associé à des moyens permettant de compléter les mesures issues des capteurs fixés sur l'objet. C'est le cas notamment lorsque que ces mesures sont insuffisantes pour fournir une information de position des capteurs de mouvement relatifs pa r rapport au capteur optique, pa r exem ple parce qu'elles ne permettent que de déterminer une distance relative. C'est le cas par exemple lorsque les capteurs de mouvement relatifs comprennent chacun un émetteur UWB (« Ultra Wide Band ») pour permettre le ca lcul d'une distance relative par rapport à un récepteur. Dans un tel cas de figure, l'élément central est doté non pas d'un récepteur UWB mais de trois récepteurs UWB positionnés dans une configuration prédéterminée permettant chacun de récupérer la distance relative de chaque émetteur UWB. Le module de détermination de localisation relative 24 peut alors mettre en œuvre une triangulation pour déterminer la position exacte de chaque capteur de mouvement par rapport au capteur optique.  In a possible embodiment, the central element provided with the optical sensor may be associated with means for completing the measurements from the sensors fixed on the object. This is particularly the case when these measurements are insufficient to provide position information of the relative motion sensors with respect to the optical sensor, for example because they only make it possible to determine a relative distance. This is the case, for example, when the relative motion sensors each comprise a UWB transmitter ("Ultra Wide Band") to enable the calculation of a relative distance from a receiver. In such a case, the central element is provided not with a UWB receiver but with three UWB receivers positioned in a predetermined configuration, each of which makes it possible to recover the relative distance of each UWB transmitter. The relative location determination module 24 can then implement a triangulation to determine the exact position of each motion sensor with respect to the optical sensor.
L'unité de traitement comporte en outre un module de détermination de localisation absolue 23 de chacun des capteurs de mouvement relatifs dans le repère de référence. Ce module 23 exploite la localisation absolue du capteur optique {RQ , PO } ET la loca lisation relative de chacun des capteurs de mouvement relatifs {R . pf } par rapport au capteur optique pour effectuer un changement de repère et replacer chacune des positions et orientations des capteurs de mouvement relatifs calculées dans le repère courant à chaque instant t dans le repère de référence. Ce module fournit ainsi les localisations absolues {Rf, tf}. Dans le cas où les deux entrées du module 23 n'arrivent pas de manière synchronisées (t^≠ t ), une étape supplémentaire de synchronisation est effectuée par le module 23 pour obtenir des données synchronisées en sortie. Par exemple, si les sorties du module 24 (capteurs relatifs) arrivent à une fréquence FC et si les sorties du module 22 (capteur optique) arrivent à une fréquence F0 < FC, le module 23 peut utiliser la fréquence FC comme fréquence de sortie et interpoler les localisations manquantes du capteur optique. Un exemple de réalisation de l'invention exploite des capteurs de mouvement relatifs qui sont chacun composés d'une centrale inertielle qui fournit des informations sur l'orientation du capteur, et d'un émetteur UWB (Ultra-Large Bande) qui permet de calculer une distance relative par rapport à des récepteurs. La personne est équipée d'au moins 4 capteurs relatifs fixés rigidement sur son corps, avec notamment un capteur sur chaque main et un capteur sur chaque pied. The processing unit further comprises an absolute location determination module 23 of each of the relative motion sensors in the reference frame. This module 23 exploits the absolute location of the optical sensor {R Q , PO} AND the relative location of each of the relative motion sensors {R. pf} relative to the optical sensor to make a reference change and replace each of the positions and orientations of the relative motion sensors calculated in the current coordinate system at each instant t in the reference frame. This module thus provides the absolute locations {Rf, tf}. In the case where the two inputs of the module 23 do not arrive synchronously (t ^ ≠ t), an additional synchronization step is performed by the module 23 to obtain data synchronized at the output. For example, if the outputs of the module 24 (relative sensors) arrive at a frequency F C and if the outputs of the module 22 (optical sensor) arrive at a frequency F 0 <F C , the module 23 can use the frequency F C as output frequency and interpolate the missing locations of the optical sensor. An exemplary embodiment of the invention exploits relative motion sensors which are each composed of an inertial unit which provides information on the orientation of the sensor, and a UWB (Ultra-Large Band) transmitter which makes it possible to calculate a relative distance from receivers. The person is equipped with at least 4 relative sensors fixed rigidly on his body, including a sensor on each hand and a sensor on each foot.
L'élément central comporte une caméra, par exemple une caméra 360°, ainsi que trois récepteurs UWB positionnés dans une configuration prédéterminée, permettant chacun de récupérer la distance relative de chaque émetteur UWB.  The central element comprises a camera, for example a 360 ° camera, as well as three UWB receivers positioned in a predetermined configuration, each of which makes it possible to recover the relative distance of each UWB transmitter.
Dans un mode de réalisation privilégié, le capteur optique comprend au moins deux caméras rigidement liées et calibrées entre elles, dont les champs de vue sont avec recouvrement. Il s'agit par exemple d'un capteur stéréoscopique. Alternativement, on peut avoir recours à un capteur RGB-D qui fournit une image RGB et un carte de profondeur de la scène imagée. L'utilisation de tels capteurs optiques permet d'obtenir une localisation à l'échelle réelle et de minimiser la dérive inhérente à toute solution de SLAM ou SfM monoculaire.  In a preferred embodiment, the optical sensor comprises at least two cameras rigidly connected and calibrated between them, whose fields of view are overlapped. This is for example a stereoscopic sensor. Alternatively, you can use a RGB-D sensor that provides an RGB image and a depth map of the image scene. The use of such optical sensors makes it possible to obtain a real scale location and to minimize the drift inherent in any monocular SLAM or SfM solution.
En effet, dans le cas d'un SLAM monoculaire, la reconstruction et la localisation sont obtenues à un facteur d'échelle arbitraire. Cette solution peut donc ne pas être satisfaisante pour fusionner les déplacements relatifs des membres et le déplacement de la personne. Dans le cas d'un SLAM stéréo, l'échelle est fournie grâce à la connaissance de la transformation rigide reliant les deux caméras. Ceci permet d'obtenir une reconstruction et une localisation à l'échelle réelle.  Indeed, in the case of a monocular SLAM, the reconstruction and the location are obtained at an arbitrary scale factor. This solution may therefore not be satisfactory for merging the relative movements of the limbs and the displacement of the person. In the case of a stereo SLAM, the scale is provided thanks to the knowledge of the rigid transformation connecting the two cameras. This makes it possible to obtain a reconstruction and a location on a real scale.
Dans une variante de réalisation de l'invention, le capteur optique est composé d'une unique caméra, et pour obtenir une reconstruction à l'échelle on lui associe :  In an alternative embodiment of the invention, the optical sensor is composed of a single camera, and to obtain a scale reconstruction it is associated with:
- une carte de points 3D reconstruite préalablement, ou  a previously reconstructed 3D point map, or
- des images de référence préalablement localisées comme dans l'article de T. Shiratori et al. mentionné en introduction, ou  reference images previously located as in the article by T. Shiratori et al. mentioned in the introduction, or
- un objet connu dans la scène. L'invention n'est pas limitée au système tel que précédemment décrit, mais s'étend également au procédé de reproduction du mouvement d'un objet par une structure articulée mis en œuvre par un tel système. L'invention porte également sur un produit programme d'ordinateur comportant des instructions de code de programme pour l'exécution du procédé selon l'invention lorsque ledit programme est exécuté sur un ordinateur. - a known object in the scene. The invention is not limited to the system as previously described, but also extends to the method of reproducing the movement of an object by an articulated structure implemented by such a system. The invention also relates to a computer program product comprising program code instructions for executing the method according to the invention when said program is executed on a computer.
En référence à la figure 5, ce procédé comprend une étape préalable « INST » de placement des capteurs de mouvement relatifs sur l'objet. Lorsque celui-ci est un corps humain, on vient typiquement placer des capteurs de mouvement relatif sur chaque main et sur chaque pied de la personne. Le capteur optique est également installé, par exemple sur la tête de la personne.  With reference to FIG. 5, this method comprises a prior "INST" step of placing the relative motion sensors on the object. When it is a human body, it is typically placed relative motion sensors on each hand and on each foot of the person. The optical sensor is also installed, for example on the person's head.
Le procédé comprend l'acquisition « ACQ. » de mesures réalisées par les différents capteurs fixés sur l'objet (flux vidéo délivré par le capteur optique et mesures des capteurs de mouvement relatifs).  The method includes the acquisition "ACQ. Measurements made by the various sensors fixed on the object (video flow delivered by the optical sensor and measurements of the relative motion sensors).
La séquence d'images acquises par le capteur optique fait l'objet d'un traitement « SLAM » pour déterminer la localisation absolue du capteur optique dans le repère de référence.  The image sequence acquired by the optical sensor is subjected to "SLAM" processing to determine the absolute location of the optical sensor in the reference frame.
Les mesures réalisées par les capteurs fixés sur l'objet sont utilisées lors d'une étape « LOC-R » pour déterminer les localisations relatives de chacun des capteurs de mouvement relatifs par rapport au capteur optique.  The measurements made by the sensors fixed on the object are used during a "LOC-R" step to determine the relative locations of each of the relative motion sensors relative to the optical sensor.
Puis lors d'une étape « LOC-A », on détermine la localisation absolue de chacun des capteurs de mouvements relatifs dans le repère de référence, à partir de la localisation absolue du capteur optique et de la localisation relative de chacun des capteurs de mouvement relatifs. Le cas échéant, une resynchronisation des sorties entre elles est réalisée lors de cette étape « LOC-A ».  Then, during a "LOC-A" step, the absolute location of each of the relative motion sensors in the reference frame is determined from the absolute location of the optical sensor and the relative location of each of the motion sensors. related. If necessary, a resynchronization of the outputs between them is performed during this step "LOC-A".
Une fois les localisations absolues déterminées, on vient lors d'une étape « DET-CDE » déterminer la commande à appliquer à la structure articulée de sorte à la localiser dans le repère de référence en lui faisant adopter une posture reproduisant celle de l'objet. Cette commande peut être utilisée pour réaliser une reconstruction complète du mouvement en vue de l'afficher sur un écran, par exemple celui d'un ordinateur ou d'un casque de réalité virtuelle. Le procédé comprend alors une étape « DISP » d'animation, selon la commande déterminée, de la structure articulée dans une simulation numérique 3D. Once the absolute localizations determined, one comes during a step "DET-CDE" determine the command to be applied to the articulated structure so as to locate it in the benchmark by making him adopt a posture reproducing that of the object . This command can be used to perform a complete reconstruction of the movement for display on a screen, for example that of a computer or a virtual reality headset. The method then comprises an animation "DISP" step, according to the determined command, of the articulated structure in a 3D digital simulation.
L'invention permet la capture de mouvement en temps réel, sans instrumenter l'environnement, en localisant la personne dans son environnement de manière absolue tout en estimant sa posture complète.  The invention allows the capture of movement in real time, without instrumenting the environment, by locating the person in his environment in an absolute way while estimating his complete posture.
Les avantages de l'invention par rapport à la solution proposée dans l'article de T. Shiratori et al. sont les suivants. La solution est moins coûteuse en temps de calcul. Elle utilise un seul capteur optique et offre donc une réduction du coût. Le flux de données à transmettre est plus léger, et l'utilisation des capteurs relatifs embarqués (comparativement aux caméras placées sur les membres) est plus robuste aux mouvements brusques des membres et aux occultations. Enfin, la dérive du système est réduite par le choix du capteur optique placé sur l'élément central.  The advantages of the invention over the solution proposed in the article by T. Shiratori et al. are the following. The solution is less expensive in computing time. It uses a single optical sensor and therefore offers a cost reduction. The data stream to be transmitted is lighter, and the use of embedded relative sensors (compared to cameras on the limbs) is more robust to abrupt limb movements and occultations. Finally, the drift of the system is reduced by the choice of the optical sensor placed on the central element.

Claims

REVENDICATIONS
1. Système de reproduction du mouvement d'un objet par une structure articulée comprenant une pluralité de segments, comprenant : A system for reproducing the movement of an object by an articulated structure comprising a plurality of segments, comprising:
des capteurs (CO, C1-C4) fixés, en utilisation, sur l'objet,  sensors (CO, C1-C4) fixed, in use, on the object,
- une unité de traitement (20) de mesures réalisées par les capteurs (CO, C1-C4) fixés sur l'objet, comprenant un module (21) de détermination d'une commande à appliquer à la structure articulée de sorte à la localiser dans un repère de référence (¾a) en lui faisant adopter une posture reproduisant celle de l'objet, ledit module fournissant en sortie la localisation absolue ({R , p }) de chacun des segments de la structure da ns le repère de référence, ledit module exploitant la localisation absolue ({RQ , PO },{R?> Pf}) de chacun des capteurs fixés sur l'objet dans le repère de référence, a processing unit (20) for measurements made by the sensors (CO, C1-C4) fixed on the object, comprising a module (21) for determining a command to be applied to the articulated structure so as to locate it in a reference frame (¾ a ) by having it adopt a posture reproducing that of the object, said module providing at the output the absolute location ({R, p Σ }) of each of the segments of the structure da ns the reference of reference, said module exploiting the absolute location ({R Q , PO}, {R? > Pf}) of each of the sensors fixed on the object in the reference frame,
caractérisé en ce que les capteurs fixés, en utilisation, sur l'objet comprennent un capteur optique (CO) et des capteurs de mouvement relatifs (C1-C4) et en ce que l'unité de traitement (20) comporte en outre : characterized in that the sensors fixed in use on the object comprise an optical sensor (CO) and relative motion sensors (C1-C4) and in that the processing unit (20) further comprises:
un module de traitement d'images (22) configuré pour déterminer une localisation absolue ({R , p£}) du capteur optique (C0) dans le repère de référence à partir d'une séquence d'images (D0) acquises par le capteur optique, un module (24) de détermination de localisation relative {{R . pf}) de chacun des capteurs de mouvement relatifs (C1-C4) par rapport au capteur optique, à partir de mesures réalisées par les capteurs fixés sur l'objet,  an image processing module (22) configured to determine an absolute location ({R, p £}) of the optical sensor (C0) in the reference frame from a sequence of images (D0) acquired by the optical sensor, a relative location determination module (24) {{R. pf}) of each of the relative motion sensors (C1-C4) with respect to the optical sensor, from measurements made by the sensors fixed on the object,
un module (23) de détermination de localisation absolue {{Rf, pf}) de chacun des capteurs de mouvement relatifs (C1-C4) dans le repère de référence, à partir de la localisation absolue du capteur optique et de la localisation relative de chacun des capteurs de mouvement relatifs.  a module (23) for determining the absolute location {{Rf, pf}) of each of the relative motion sensors (C1-C4) in the reference frame, based on the absolute location of the optical sensor and the relative location of the each of the relative motion sensors.
2. Système selon la revendication 1 da ns lequel le capteur optique comprend un capteur stéréoscopique. 2. The system of claim 1 wherein the optical sensor comprises a stereoscopic sensor.
3. Système selon la revendication 1, dans lequel le capteur optique comprend un capteur RGB-D. The system of claim 1, wherein the optical sensor comprises a RGB-D sensor.
4. Système selon l'une des revendications 1 à 3, da ns lequel chaque capteur de mouvement relatif comprend une centrale inertielle et un émetteur Ultra-Large4. System according to one of claims 1 to 3, in which each relative motion sensor comprises an inertial unit and an Ultra-Large transmitter
Bande, et dans lequel le capteur optique comprend trois récepteurs Ultra-Large Bande positionnés dans une configuration prédéterminée. Strip, and wherein the optical sensor comprises three Ultra-Wide Band receivers positioned in a predetermined configuration.
5. Procédé de reproduction du mouvement d'un objet par une structure articulée, comprenant une étape de détermination (DET-CDE), à partir de la localisation absolue ({RQ , Po },{R†> p†}), dans un repère de référence, de capteurs fixés sur l'objet, d'une commande à appliquer à la structure articulée de sorte à la localiser da ns le repère de référence en lui faisant adopter une posture reproduisant celle de l'objet, caractérisé en ce que, les capteurs fixés sur l'objet comprenant un capteur optique (CO) et des capteurs de mouvement relatifs (C1-C4), il comporte en outre les étapes de : 5. A method of reproducing the motion of an object by an articulated structure, comprising a determination step (DET-CDE), from the absolute location ({RQ, Po}, {R † > p †}), in a reference mark, sensors fixed on the object, a command to be applied to the articulated structure so as to locate it in the reference frame by making it adopt a posture reproducing that of the object, characterized in that that, the sensors fixed on the object comprising an optical sensor (CO) and relative motion sensors (C1-C4), it further comprises the steps of:
traitement (SLAM) d'une séquence d'images (DO) acquises par le capteur optique pour déterminer une localisation absolue ({RQ , PO }) du capteur optique (CO) dans le repère de référence,  processing (SLAM) an image sequence (DO) acquired by the optical sensor to determine an absolute location ({RQ, PO}) of the optical sensor (CO) in the reference frame,
- détermination de localisation relative (LOC-R, {R . pf}) de chacun des capteurs de mouvements relatifs (Cl-Cn) par ra pport au ca pteur optique, à partir de mesures réalisées par les capteurs fixés sur l'objet, determination of the relative location (LOC-R, {R, pf}) of each of the relative motion sensors (C1-Cn) by reference to the optical sensor, based on measurements made by the sensors fixed on the object,
détermination de localisation absolue (LOC-A, {Rf, pf }) de chacun des capteurs de mouvement relatifs (C1-C4) dans le repère de référence, à partir de la localisation absolue du capteur optique et de la localisation relative de chacun des capteurs de mouvement relatifs.  determining absolute location (LOC-A, {Rf, pf}) of each of the relative motion sensors (C1-C4) in the reference frame, from the absolute location of the optical sensor and the relative location of each of the relative motion sensors.
6. Procédé selon la revendication 5, dans lequel l'éta pe de traitement (SLAM) de la séquence d'images acquises par le capteur optique comprend la mise en œuvre d'un algorithme de cartographie et localisation simultanées. The method of claim 5, wherein the processing step (SLAM) of the image sequence acquired by the optical sensor comprises implementing a simultaneous mapping and locating algorithm.
7. Procédé selon l'une des revendications 5 et 6, dans lequel la structure articulée est un modèle numérique de l'objet et comprenant en outre une étape de représentation (DISP) des mouvements de l'objet dans une simulation numérique au moyen de l'animation de la structure articulée dans la simulation numérique selon la commande déterminée. 7. Method according to one of claims 5 and 6, wherein the articulated structure is a numerical model of the object and further comprising a representation step (DISP) of the movements of the object in a numerical simulation by means of the animation of the articulated structure in the numerical simulation according to the determined command.
8. Produit programme d'ordinateur comportant des instructions de code de programme pour l'exécution du procédé selon l'une des revendications 5 à 7 lorsque ledit programme est exécuté sur un ordinateur. A computer program product having program code instructions for executing the method according to one of claims 5 to 7 when said program is executed on a computer.
EP17748526.5A 2016-07-13 2017-07-10 Method and system for locating and reconstructing in real time the posture of a moving object using embedded sensors Withdrawn EP3485463A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1656738A FR3054061B1 (en) 2016-07-13 2016-07-13 METHOD AND SYSTEM FOR REAL-TIME LOCALIZATION AND RECONSTRUCTION OF THE POSTURE OF A MOVING OBJECT USING ONBOARD SENSORS
PCT/FR2017/051878 WO2018011498A1 (en) 2016-07-13 2017-07-10 Method and system for locating and reconstructing in real time the posture of a moving object using embedded sensors

Publications (1)

Publication Number Publication Date
EP3485463A1 true EP3485463A1 (en) 2019-05-22

Family

ID=56842946

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17748526.5A Withdrawn EP3485463A1 (en) 2016-07-13 2017-07-10 Method and system for locating and reconstructing in real time the posture of a moving object using embedded sensors

Country Status (3)

Country Link
EP (1) EP3485463A1 (en)
FR (1) FR3054061B1 (en)
WO (1) WO2018011498A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114485620B (en) * 2022-01-29 2023-07-28 中国科学院国家空间科学中心 Autonomous visual positioning system and method for asteroid detector fused with orbit dynamics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8203487B2 (en) * 2009-08-03 2012-06-19 Xsens Holding, B.V. Tightly coupled UWB/IMU pose estimation system and method
US20110181601A1 (en) * 2010-01-22 2011-07-28 Sony Computer Entertainment America Inc. Capturing views and movements of actors performing within generated scenes
US8786680B2 (en) * 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras

Also Published As

Publication number Publication date
WO2018011498A1 (en) 2018-01-18
FR3054061A1 (en) 2018-01-19
FR3054061B1 (en) 2018-08-24

Similar Documents

Publication Publication Date Title
EP1984696B1 (en) Motion capture device and associated method
US9934587B2 (en) Deep image localization
EP2208355B1 (en) Method for synchronising video streams
EP2715662B1 (en) Method for localisation of a camera and 3d reconstruction in a partially known environment
EP2572319B1 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
EP1990138B1 (en) Treatment method for capturing the movement of an articulated structure
CN109084746A (en) Monocular mode for the autonomous platform guidance system with aiding sensors
JP7448485B2 (en) Methods and systems used in point cloud coloring
US20150125045A1 (en) Environment Mapping with Automatic Motion Model Selection
US20210080259A1 (en) System and method for enhancing non-inertial tracking system with inertial constraints
CN106066987A (en) Parameter on-line calibration in TOF imaging and compensation
EP2851868A1 (en) 3D Reconstruction
EP3126864B1 (en) Method for geolocating the environment of a carrier
CN111899276A (en) SLAM method and system based on binocular event camera
WO2005010820A9 (en) Automated method and device for perception associated with determination and characterisation of borders and boundaries of an object of a space, contouring and applications
EP3485463A1 (en) Method and system for locating and reconstructing in real time the posture of a moving object using embedded sensors
WO2019211970A1 (en) Three-dimensional reconstruction method and three-dimensional reconstruction device
FR2885436A1 (en) METHOD FOR THREE-DIMENSIONAL RECONSTRUCTION OF A MEMBER OR A SET OF ARTICULATED MEMBERS
KR102225321B1 (en) System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors
Morimoto et al. 3D Pose Estimation Using Multiple Asynchronous Cameras
WO2005064271A1 (en) Method of sensing the motion of a solid, using an absolute measurement that is associated with a measurement calculated by double integration
US11605206B2 (en) Method and apparatus with human body estimation
Soulier et al. Real-time estimation of illumination direction for augmented reality with low-cost sensors
FR3054358A1 (en) METHOD AND SYSTEM FOR POSTURE RECONSTRUCTION BY SPATIAL TRACKING FROM THE TOP OF A BODY AND FOLLOWING THE BOTTOM OF THE BODY USING A DETECTION CARPET
FR3001072A1 (en) METHOD AND SYSTEM FOR 3D MODELING ABSOLUTE IN ALL OR PART OF A VEHICLE PASSING IN FRONT OF A CAMERA.

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20190114

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20200414

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20200825