FR3122327A1 - Areas of crossed vision - Google Patents

Areas of crossed vision Download PDF

Info

Publication number
FR3122327A1
FR3122327A1 FR2104507A FR2104507A FR3122327A1 FR 3122327 A1 FR3122327 A1 FR 3122327A1 FR 2104507 A FR2104507 A FR 2104507A FR 2104507 A FR2104507 A FR 2104507A FR 3122327 A1 FR3122327 A1 FR 3122327A1
Authority
FR
France
Prior art keywords
person
module
processing unit
support
angular position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2104507A
Other languages
French (fr)
Inventor
Guillaume CASSINI
Carlos Aguilar
Dany YATIM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clubdes3
Original Assignee
Clubdes3
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clubdes3 filed Critical Clubdes3
Priority to FR2104507A priority Critical patent/FR3122327A1/en
Priority to EP22723574.4A priority patent/EP4329607A1/en
Priority to PCT/EP2022/060185 priority patent/WO2022228921A1/en
Publication of FR3122327A1 publication Critical patent/FR3122327A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6823Trunk, e.g., chest, back, abdomen, hip
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type

Abstract

Titre : Zones de vision croisées L’invention concerne un procédé de définition d'une zone de vision instantanée (100) d'une première personne (10), à partir d’un premier module et d’un deuxième module respectivement aptes à être portés par la première personne (10), le premier module étant configuré pour fournir à une unité de traitement, une première position angulaire de la tête relativement à un référentiel extérieur, un deuxième capteur gyroscopique étant monté sur un deuxième support et un deuxième support étant apte à être monté solidairement d’une autre partie du corps de la première personne, différente de la tête, et le deuxième module étant configuré pour fournir à l’unité de traitement , une deuxième position angulaire de l’autre partie du corps relativement au référentiel extérieur. Le procédé comprenant la définition de la première zone de vision instantanée (100) par une unité de traitement à partir d’une corrélation entre la première position angulaire et la deuxième position angulaire. Figure pour l’abrégé : Fig. 4BTitle: Cross vision zones The invention relates to a method for defining an instantaneous vision zone (100) of a first person (10), from a first module and a second module respectively able to be worn by the first person (10), the first module being configured to provide a processing unit with a first angular position of the head relative to an external reference frame, a second gyroscopic sensor being mounted on a second support and a second support being adapted to be mounted integrally with another part of the body of the first person, other than the head, and the second module being configured to provide the processing unit with a second angular position of the other part of the body relative to the external reference. The method comprising the definition of the first instantaneous vision zone (100) by a processing unit from a correlation between the first angular position and the second angular position. Figure for abstract: Fig. 4B

Description

Zones de vision croiséesAreas of crossed vision

La présente invention concerne le domaine du sport. Elle trouve pour application avantageuse le domaine des sports collectifs comme les sports de ballons et tout particulièrement le football. Elle pourra notamment être utilisée lors des entraînements où elle servira à fournir des données statistiques pour établir une analyse a posteriori. Elle pourra également convenir dans d’autres sports comme par exemple le hockey ou bien à d’autres applications étrangères au sport.The present invention relates to the field of sport. It finds for advantageous application the field of team sports such as ball sports and especially football. It may in particular be used during training where it will be used to provide statistical data to establish an a posteriori analysis. It may also be suitable for other sports such as hockey or other applications unrelated to sport.

ETAT DE LA TECHNIQUESTATE OF THE ART

Il existe de nombreux dispositifs permettant de produire des données statistiques dans le sport. Dans l’univers du football, il existe un besoin constant d’analyse à partir de données statistiques. En effet, les enjeux financiers et les nouvelles technologies poussent les clubs professionnels et les diffuseurs audiovisuels à exploiter ces données.There are many devices for producing statistical data in sport. In the world of football, there is a constant need for analysis based on statistical data. Indeed, financial issues and new technologies are pushing professional clubs and audiovisual broadcasters to exploit this data.

Parmi ces dispositifs on retrouve des systèmes logiciels qui analysent les mouvements des joueurs ou du ballon directement sur une prise vidéo. On retrouve également des dispositifs portatifs embarqués comme des lunettes permettant une captation de l’environnement du joueur.Among these devices are software systems that analyze the movements of the players or the ball directly on a video recording. There are also portable on-board devices such as glasses allowing the player's environment to be captured.

On rencontre d’autres solutions comme la demande de brevet EP2977087A1 dans laquelle est divulguée un dispositif pour sportif présentant un module se portant sur la tête et permettant à l’aide d’un gyroscope de capter des données d’orientation de sa tête afin de pouvoir lui fournir, à l’aide d’une technologie de réalité virtuelle, des informations complémentaires sur les éléments présents dans son champ de vision.There are other solutions such as the patent application EP2977087A1 in which is disclosed a device for athletes having a module worn on the head and allowing, using a gyroscope, to capture orientation data from his head in order to be able to provide him, using virtual reality technology, with additional information on the elements present in his field of vision.

Néanmoins ces solutions présentent de nombreux inconvénients comme le fait que les données d’orientation de la tête restent approximatives ou bien que le dispositif occasionne de la gêne visuelle ou encore entraîne une impossibilité de frapper un ballon de la tête.Nevertheless, these solutions have many drawbacks such as the fact that the orientation data of the head remain approximate or that the device causes visual discomfort or even makes it impossible to hit a ball with the head.

Un objet de la présente invention est donc de proposer une solution qui permette de supprimer ou de limiter au moins l’un des inconvénients précités.An object of the present invention is therefore to propose a solution which makes it possible to eliminate or limit at least one of the aforementioned drawbacks.

Les autres objets, caractéristiques et avantages de la présente invention apparaîtront à l'examen de la description suivante et des dessins d'accompagnement. Il est entendu que d'autres avantages peuvent être incorporés.The other objects, features and advantages of the present invention will become apparent from a review of the following description and the accompanying drawings. It is understood that other benefits may be incorporated.

RESUMESUMMARY

Pour atteindre cet objectif, selon un mode de réalisation on prévoit un procédé de définition d'une zone de vision instantanée d'une première personne, à partir d’un premier module et d’un deuxième module respectivement aptes à être portés par la première personne, le premier module comprenant :

  • un premier support,
  • un premier capteur gyroscopique,
  • une première unité de communication,
le deuxième module comprenant :
  • un deuxième support,
  • un deuxième capteur gyroscopique,
  • une deuxième unité de communication,
le premier capteur gyroscopique étant monté sur le premier support et le premier support étant apte à être monté solidairement de la tête de la première personne, le premier module étant configuré pour fournir à une unité de traitement, une première position angulaire de la tête relativement à un référentiel extérieur,
le deuxième capteur gyroscopique étant monté sur le deuxième support et le deuxième support étant apte à être monté solidairement d’une autre partie du corps de la première personne, différente de la tête, et le deuxième module étant configuré pour fournir à l’unité de traitement, une deuxième position angulaire de l’autre partie du corps relativement au référentiel extérieur,
le procédé comprenant les étapes suivantes :
  • mesure par le premier module de la première position angulaire,
  • transmission de la première position angulaire à l’unité de traitement,
  • mesure par le deuxième module de la deuxième position angulaire,
  • transmission de la deuxième position angulaire à l’unité de traitement,
  • définition de la première zone de vision instantanée de la première personne par l'unité de traitement à partir d’une corrélation entre la première position angulaire et la deuxième position angulaire.
To achieve this objective, according to one embodiment, a method is provided for defining a zone of instantaneous vision of a first person, from a first module and a second module respectively able to be worn by the first person, the first module comprising:
  • a first medium,
  • a first gyroscopic sensor,
  • a first communication unit,
the second module comprising:
  • a second medium,
  • a second gyroscopic sensor,
  • a second communication unit,
the first gyroscopic sensor being mounted on the first support and the first support being adapted to be mounted integrally with the head of the first person, the first module being configured to provide a processing unit with a first angular position of the head relative to an external reference,
the second gyroscopic sensor being mounted on the second support and the second support being able to be mounted integrally with another part of the body of the first person, other than the head, and the second module being configured to provide the unit with processing, a second angular position of the other part of the body relative to the external frame of reference,
the method comprising the following steps:
  • measurement by the first module of the first angular position,
  • transmission of the first angular position to the processing unit,
  • measurement by the second module of the second angular position,
  • transmission of the second angular position to the processing unit,
  • definition of the first instantaneous vision zone of the first person by the processing unit from a correlation between the first angular position and the second angular position.

Sans la présente invention il faudrait remplacer le capteur gyroscopique au niveau de la tête par un capteur encore plus performant, ce qui engendrerait naturellement des coûts additionnels conséquents au dispositif. De plus, quand bien même le capteur serait assez performant, il ne pourrait pas reproduire les résultats du dispositif décrit ci-dessus. En effet, l’ajout d’un deuxième module sur une autre partie du corps comprenant un deuxième capteur gyroscopique permet d’enrichir significativement les informations extraites des mesures du premier capteur gyroscopique.Without the present invention, it would be necessary to replace the gyroscopic sensor at the level of the head with an even more efficient sensor, which would naturally generate significant additional costs for the device. Moreover, even if the sensor were sufficiently efficient, it could not reproduce the results of the device described above. Indeed, the addition of a second module on another part of the body comprising a second gyroscopic sensor makes it possible to significantly enrich the information extracted from the measurements of the first gyroscopic sensor.

Ainsi, la présente invention permet d’optimiser les résultats connus de l’art antérieur tout en limitant les coûts du dispositif.Thus, the present invention makes it possible to optimize the known results of the prior art while limiting the costs of the device.

De ce fait, la présente invention permet une meilleure définition en temps réel d’une zone de vision instantanée d’une personne en mouvement.Therefore, the present invention allows a better definition in real time of an instantaneous vision zone of a moving person.

Selon un mode de réalisation, l’invention comprend un dispositif de définition d'une zone de vision instantanée d'une première personne, à partir d’un premier module et d’un deuxième module respectivement aptes à être portés par la première personne, le premier module comprenant :

  • un premier support,
  • un premier capteur gyroscopique,
  • une première unité de communication,
le deuxième module comprenant:
  • un deuxième support,
  • un deuxième capteur gyroscopique,
  • une deuxième unité de communication,
le premier capteur gyroscopique étant monté sur le premier support et le premier support étant apte à être monté solidairement de la tête de la première personne, le premier module étant configuré pour fournir à une unité de traitement, une première position angulaire de la tête relativement à un référentiel extérieur,
le deuxième capteur gyroscopique étant monté sur le deuxième support et le deuxième support étant apte à être monté solidairement d’une autre partie du corps de la première personne, différente de la tête, et le deuxième module étant configuré pour fournir à l’unité de traitement, une deuxième position angulaire de l’autre partie du corps relativement au référentiel extérieur,
dispositif dans lequel l’unité de traitement est apte à définir une zone de vision instantanée de la première personne à partir d’une corrélation entre la première position angulaire et la deuxième position angulaire.According to one embodiment, the invention comprises a device for defining a zone of instantaneous vision of a first person, from a first module and a second module respectively able to be worn by the first person, the first module comprising:
  • a first medium,
  • a first gyroscopic sensor,
  • a first communication unit,
the second module comprising:
  • a second medium,
  • a second gyroscopic sensor,
  • a second communication unit,
the first gyroscopic sensor being mounted on the first support and the first support being adapted to be mounted integrally with the head of the first person, the first module being configured to provide a processing unit with a first angular position of the head relative to an external reference,
the second gyroscopic sensor being mounted on the second support and the second support being able to be mounted integrally with another part of the body of the first person, other than the head, and the second module being configured to provide the unit with processing, a second angular position of the other part of the body relative to the external frame of reference,
device in which the processing unit is able to define a zone of instantaneous vision of the first person from a correlation between the first angular position and the second angular position.

Un autre aspect concerne un procédé d’analyse d’une zone de vision instantanée, le procédé comprenant les étapes suivantes :

  • échange d’informations relatives à la première zone de vision instantanée entre l’unité de traitement et une unité centrale apte à stocker les données sous forme de données sauvegardées,
  • visualisation des données sauvegardées via une interface de visualisation, afin de permettre une analyse a posteriori.
Another aspect relates to a method for analyzing an instantaneous vision zone, the method comprising the following steps:
  • exchange of information relating to the first instantaneous view zone between the processing unit and a central unit able to store the data in the form of saved data,
  • visualization of the saved data via a visualization interface, in order to allow a posteriori analysis.

Le dispositif permet donc préférentiellement une analyse des zones de visions instantanée d’une personne suite à un déplacement et à un changement d’orientation dans l’espace. Il permettra préférentiellement d’évaluer la capacité d’exploration de l’environnement d’une personne physique lors d’une activité sportive afin de permettre a posteriori, une analyse du comportement de la personne pendant une durée en fonction des évènements qui se seront produits pendant ladite durée. De manière préférée, le dispositif permettra de détecter si dans la zone de vision d’une personne à un instant donné, il y a eu ou non la présence d’un élément, qu’il s’agisse d’une personne physique ou d’un objet éventuellement en mouvement.The device therefore preferably allows an analysis of the instantaneous vision zones of a person following a displacement and a change of orientation in space. It will preferably make it possible to evaluate the ability to explore the environment of a physical person during a sporting activity in order to allow a posteriori analysis of the behavior of the person for a period of time depending on the events that will have occurred. during the said period. Preferably, the device will make it possible to detect whether or not in the area of vision of a person at a given moment, there has been the presence of an element, whether it is a natural person or a a possibly moving object.

Un autre aspect concerne un procédé de détection d’un croisement entre une première zone de vision instantanée d’une première personne et une deuxième zone de vision instantanée d’une deuxième personne, les zones de vision instantanées, étant définies par le procédé de définition pour chacune des première et deuxième personnes, le procédé de détection comprenant les étapes suivantes :

  • génération par l’unité de traitement d’une première information relative au niveau présence de la première personne dans la deuxième zone de vision instantanée,
  • génération par l’unité de traitement d’une deuxième information relative au niveau de présence de la deuxième personne dans la première zone de vision instantanée
  • calcul d’une information de niveau de correspondance par l’unité de traitement selon la première information et la deuxième information.
Another aspect relates to a method for detecting a crossing between a first instantaneous vision zone of a first person and a second instantaneous vision zone of a second person, the instantaneous vision zones being defined by the method of defining for each of the first and second persons, the detection method comprising the following steps:
  • generation by the processing unit of first information relating to the presence level of the first person in the second instantaneous vision zone,
  • generation by the processing unit of second information relating to the level of presence of the second person in the first instantaneous vision zone
  • calculation of correspondence level information by the processing unit according to the first information and the second information.

La présente invention permet donc préférentiellement d’analyser et de déterminer l’instant précis correspondant au fait que deux personnes se retrouvent mutuellement dans le champ de vision l’un de l’autre.The present invention therefore preferably makes it possible to analyze and determine the precise moment corresponding to the fact that two people find themselves mutually in the field of vision of one another.

Un autre aspect concerne un système comprenant le dispositif, un système logiciel apte à transformer les données sauvegardées en données modélisées et un casque de réalité virtuelle et/ou une interface de visualisation, configurés pour lire les données modélisées via une interface logicielle.Another aspect relates to a system comprising the device, a software system capable of transforming the saved data into modeled data and a virtual reality helmet and/or a display interface, configured to read the modeled data via a software interface.

BREVE DESCRIPTION DES FIGURESBRIEF DESCRIPTION OF FIGURES

Les buts, objets, ainsi que les caractéristiques et avantages de l’invention ressortiront mieux de la description détaillée d’un mode de réalisation de cette dernière qui est illustré par les dessins d’accompagnement suivants dans lesquels :The aims, objects, as well as the characteristics and advantages of the invention will emerge better from the detailed description of an embodiment of the latter which is illustrated by the following accompanying drawings in which:

Les figures 1A à 1B représentent une vue schématique de côté et de dessus de la tête de la première personne avec un aperçu partiel de sa zone de vision instantanée. Figures 1A to 1B represent a schematic side and top view of the first person's head with a partial outline of his instantaneous vision zone.

Les figures 2A à 2B représentent une vue schématique de dos de la première personne équipée et du premier module et du deuxième module du dispositif de la présente invention. FIGS. 2A to 2B show a schematic rear view of the first equipped person and of the first module and of the second module of the device of the present invention.

La représente un exemple d’utilisation d’un système de localisation par technique de modulation radio ultra large bande (ULB). The represents an example of the use of a location system using an ultra-wide band (ULB) radio modulation technique.

La représente un mode de réalisation particulier dans lequel la première personne se voit attribuer une information de niveau de correspondance. The represents a particular embodiment in which the first person is assigned match level information.

Les figures 4A à 4B représentent en vue de dessus, des mises en situation de la première personne et de la deuxième personne ainsi que de leurs zones de vision instantanée respectives. FIGS. 4A to 4B represent, in top view, scenarios of the first person and of the second person as well as their respective instantaneous vision zones.

Les dessins sont donnés à titre d'exemples et ne sont pas limitatifs de l’invention. Ils constituent des représentations schématiques de principe destinées à faciliter la compréhension de l’invention et ne sont pas nécessairement à l'échelle des applications pratiques. En particulier les zones de visions instantanées ne sont pas représentatives de la réalité.The drawings are given by way of examples and do not limit the invention. They constitute schematic representations of principle intended to facilitate understanding of the invention and are not necessarily scaled to practical applications. In particular the areas of instant visions are not representative of reality.

Claims (15)

Procédé de définition d'une zone de vision instantanée (100) d'une première personne (10), à partir d’un premier module (11) et d’un deuxième module (12) respectivement aptes à être portés par la première personne (10), le premier module (11) comprenant :
  • un premier support (111),
  • un premier capteur gyroscopique (112),
  • une première unité de communication (113),
le deuxième module (12) comprenant:
  • un deuxième support (121),
  • un deuxième capteur gyroscopique (122),
  • une deuxième unité de communication (123),
le premier capteur gyroscopique (112) étant monté sur le premier support (111) et le premier support (111) étant apte à être monté solidairement de la tête de la première personne (10), le premier module (11) étant configuré pour fournir à une unité de traitement (124), une première position angulaire de la tête relativement à un référentiel extérieur (O, X, Y, Z),
le deuxième capteur gyroscopique (122) étant monté sur le deuxième support (121) et le deuxième support (121) étant apte à être monté solidairement d’une autre partie du corps de la première personne (10), différente de la tête, et le deuxième module (12) étant configuré pour fournir à l’unité de traitement (124), une deuxième position angulaire de l’autre partie du corps relativement au référentiel extérieur (O, X, Y, Z),
le procédé comprenant les étapes suivantes :
  • mesure par le premier module (11) de la première position angulaire,
  • transmission de la première position angulaire à l’unité de traitement (124),
  • mesure par le deuxième module (12) de la deuxième position angulaire,
  • transmission de la deuxième position angulaire à l’unité de traitement (124),
  • définition de la première zone de vision instantanée (100) de la première personne (10) par l'unité de traitement (124) à partir d’une corrélation entre la première position angulaire et la deuxième position angulaire.
Method for defining an instantaneous vision zone (100) of a first person (10), from a first module (11) and a second module (12) respectively able to be worn by the first person (10), the first module (11) comprising:
  • a first support (111),
  • a first gyroscopic sensor (112),
  • a first communication unit (113),
the second module (12) comprising:
  • a second support (121),
  • a second gyroscopic sensor (122),
  • a second communication unit (123),
the first gyroscopic sensor (112) being mounted on the first support (111) and the first support (111) being adapted to be mounted integrally with the head of the first person (10), the first module (11) being configured to provide to a processing unit (124), a first angular position of the head relative to an external reference frame (O, X, Y, Z),
the second gyroscopic sensor (122) being mounted on the second support (121) and the second support (121) being able to be mounted integrally with another part of the body of the first person (10), other than the head, and the second module (12) being configured to provide the processing unit (124) with a second angular position of the other part of the body relative to the external reference frame (O, X, Y, Z),
the method comprising the following steps:
  • measurement by the first module (11) of the first angular position,
  • transmission of the first angular position to the processing unit (124),
  • measurement by the second module (12) of the second angular position,
  • transmission of the second angular position to the processing unit (124),
  • definition of the first instantaneous vision zone (100) of the first person (10) by the processing unit (124) from a correlation between the first angular position and the second angular position.
Procédé selon la revendication précédente comprenant les étapes additionnelles suivantes :
  • fourniture par le premier module (11) à l’unité de traitement (124), d’une première vitesse angulaire relativement au référentiel extérieur (O, X, Y, Z),
  • fourniture par deuxième module (12) à l’unité de traitement (124), d’une deuxième vitesse angulaire relativement au référentiel extérieur (O, X, Y, Z),
  • ajustement de la première zone de vision instantanée (100) de la première personne (10) par l'unité de traitement (124) à partir d’une corrélation entre la première vitesse angulaire et la deuxième vitesse angulaire.
Method according to the preceding claim comprising the following additional steps:
  • supply by the first module (11) to the processing unit (124), of a first angular speed relative to the external reference frame (O, X, Y, Z),
  • supply by second module (12) to the processing unit (124), of a second angular speed relative to the external reference frame (O, X, Y, Z),
  • adjustment of the first instantaneous vision zone (100) of the first person (10) by the processing unit (124) from a correlation between the first angular velocity and the second angular velocity.
Procédé selon l'une quelconque des revendications précédentes comprenant les étapes additionnelles suivantes :
  • fourniture par le premier module (11) à l’unité de traitement (124), d’une première accélération angulaire relativement au référentiel extérieur (O, X, Y, Z),
  • fourniture par deuxième module (12) à l’unité de traitement (124), d’une deuxième accélération angulaire relativement au référentiel extérieur (O, X, Y, Z),
  • ajustement de la première zone de vision instantanée (100) de la première personne (10) par l'unité de traitement (124) à partir d’une corrélation entre la première accélération angulaire et la deuxième accélération angulaire.
A method according to any preceding claim comprising the following additional steps:
  • supply by the first module (11) to the processing unit (124), of a first angular acceleration relative to the external reference frame (O, X, Y, Z),
  • supply by second module (12) to the processing unit (124), of a second angular acceleration relative to the external reference frame (O, X, Y, Z),
  • adjustment of the first instantaneous vision zone (100) of the first person (10) by the processing unit (124) from a correlation between the first angular acceleration and the second angular acceleration.
Procédé selon l'une quelconque des revendications précédentes et dans lequel l’autre partie du corps est le tronc, de préférence le dos de la première personne (10).A method according to any preceding claim and wherein the other body part is the trunk, preferably the back of the first person (10). Procédé d’analyse d’une zone de vision instantanée (100), la première zone de vision instantanée (100) étant définie par le procédé selon l’une quelconque des revendications précédentes, le procédé d’analyse comprenant les étapes suivantes :
  • échange d’informations relatives à la première zone de vision instantanée (100) entre l’unité de traitement (124) et une unité centrale (13) apte à stocker les données sous forme de données sauvegardées (131),
  • visualisation des données sauvegardées (131) via une interface de visualisation (132), afin de permettre une analyse a posteriori.
A method of analyzing an instantaneous vision zone (100), the first instantaneous vision zone (100) being defined by the method according to any one of the preceding claims, the analysis method comprising the following steps:
  • exchange of information relating to the first instantaneous view zone (100) between the processing unit (124) and a central unit (13) able to store the data in the form of saved data (131),
  • visualization of the saved data (131) via a visualization interface (132), in order to allow a posteriori analysis.
Procédé d’analyse selon la revendication précédente, dans lequel l’étape de visualisation des données sauvegardées (131) s’effectue à l’aide de l’interface de visualisation (132) à réalité virtuelle.Analysis method according to the preceding claim, in which the step of displaying the saved data (131) is carried out using the virtual reality display interface (132). Procédé de détection d’un croisement entre une première zone de vision instantanée (100) d’une première personne (10) et une deuxième zone de vision instantanée (200) d’une deuxième personne (20), les zones de vision instantanées (100, 200) étant définies, pour chacune des première et deuxième personnes (10, 20), par le procédé selon l’une quelconque des revendications 1 à 4, le procédé de détection comprenant les étapes suivantes :
  • génération par l’unité de traitement (124) d’une première information (141) relative au niveau présence de la première personne (10) dans la deuxième zone de vision instantanée (200),
  • génération par l’unité de traitement (124) d’une deuxième information (142) relative au niveau de présence de la deuxième personne (20) dans la première zone de vision instantanée (100)
  • calcul d’une information de niveau de correspondance (143) par l’unité de traitement (124) selon la première information (141) et la deuxième information (142).
A method of detecting an intersection between a first instantaneous vision zone (100) of a first person (10) and a second instantaneous vision zone (200) of a second person (20), the instantaneous vision zones ( 100, 200) being defined, for each of the first and second persons (10, 20), by the method according to any one of claims 1 to 4, the detection method comprising the following steps:
  • generation by the processing unit (124) of first information (141) relating to the presence level of the first person (10) in the second instantaneous vision zone (200),
  • generation by the processing unit (124) of second information (142) relating to the level of presence of the second person (20) in the first instantaneous vision zone (100)
  • calculating matching level information (143) by the processing unit (124) according to the first information (141) and the second information (142).
Procédé selon la revendication précédente comprenant une étape de génération d’une information de localisation (144) quant à la distance dans l’espace entre la première personne (10) et la deuxième personne (20).Method according to the preceding claim comprising a step of generating location information (144) as to the distance in space between the first person (10) and the second person (20). Procédé selon les deux revendications précédentes en combinaison dans lequel l’information de niveau de correspondance (143) est supérieure à un seuil minimal si et seulement si :
- la première information (141) correspond à la présence de la première personne (10) dans la deuxième zone de vision instantanée (200), la deuxième information (142) correspond à la présence de la deuxième personne (20) dans la première zone de vision instantanée (100), l’information de localisation (144) correspond à une distance dans l’espace entre la première personne (10) et la deuxième personne (20) inférieure à une distance de référence (154).
Method according to the two preceding claims in combination, in which the match level information (143) is greater than a minimum threshold if and only if:
- the first information (141) corresponds to the presence of the first person (10) in the second instantaneous vision zone (200), the second information (142) corresponds to the presence of the second person (20) in the first zone instant vision (100), the location information (144) corresponds to a distance in space between the first person (10) and the second person (20) less than a reference distance (154).
Dispositif de définition d'une zone de vision instantanée (100) d'une première personne (10), à partir d’un premier module (11) et d’un deuxième module (12) respectivement aptes à être portés par la première personne (10), le premier module (11) comprenant :
  • un premier support (111),
  • un premier capteur gyroscopique (112),
  • une première unité de communication (113),
le deuxième module (12) comprenant:
  • un deuxième support (121),
  • un deuxième capteur gyroscopique (122),
  • une deuxième unité de communication (123),
le premier capteur gyroscopique (112) étant monté sur le premier support (111) et le premier support (111) étant apte à être monté solidairement de la tête de la première personne (10), le premier module (11) étant configuré pour fournir à une unité de traitement (124), une première position angulaire de la tête relativement à un référentiel extérieur (O, X, Y, Z),
le deuxième capteur gyroscopique (122) étant monté sur le deuxième support (121) et le deuxième support (121) étant apte à être monté solidairement d’une autre partie du corps de la première personne (10), différente de la tête, et le deuxième module (12) étant configuré pour fournir à l’unité de traitement (124), une deuxième position angulaire de l’autre partie du corps relativement au référentiel extérieur (O, X, Y, Z),
dispositif dans lequel l’unité de traitement (124) est apte à définir une zone de vision instantanée (100) de la première personne (10) à partir d’une corrélation entre la première position angulaire et la deuxième position angulaire.
Device for defining an instantaneous vision zone (100) of a first person (10), from a first module (11) and a second module (12) respectively able to be worn by the first person (10), the first module (11) comprising:
  • a first support (111),
  • a first gyroscopic sensor (112),
  • a first communication unit (113),
the second module (12) comprising:
  • a second support (121),
  • a second gyroscopic sensor (122),
  • a second communication unit (123),
the first gyroscopic sensor (112) being mounted on the first support (111) and the first support (111) being able to be mounted integrally with the head of the first person (10), the first module (11) being configured to provide to a processing unit (124), a first angular position of the head relative to an external reference frame (O, X, Y, Z),
the second gyroscopic sensor (122) being mounted on the second support (121) and the second support (121) being able to be mounted integrally with another part of the body of the first person (10), other than the head, and the second module (12) being configured to provide the processing unit (124) with a second angular position of the other part of the body relative to the external reference frame (O, X, Y, Z),
device in which the processing unit (124) is capable of defining an instantaneous vision zone (100) of the first person (10) from a correlation between the first angular position and the second angular position.
Dispositif selon la revendication précédente dans lequel le premier module (11) est configuré de sorte à ce que dans une configuration où il est porté par la première personne (10), il est positionné à l'arrière de sa tête et/ou le deuxième module (12) est positionné dans son dos.Device according to the preceding claim, in which the first module (11) is configured so that in a configuration where it is worn by the first person (10), it is positioned at the back of his head and/or the second module (12) is positioned behind his back. Dispositif selon l'une quelconque des deux revendications précédentes dans lequel le deuxième module (12) comprend un système de localisation (125).Device according to any one of the two preceding claims, in which the second module (12) comprises a location system (125). Dispositif selon l'une quelconque des trois revendications précédentes dans lequel la première unité de communication (113) et la deuxième unité de communication (123) sont aptes à échanger des données via une connexion sans fil.Device according to any one of the three preceding claims, in which the first communication unit (113) and the second communication unit (123) are able to exchange data via a wireless connection. Dispositif selon l'une quelconque des quatre revendications précédentes dans lequel le premier support (111) est un élément parmi un serre-tête, un bandeau, un bonnet, et/ ou le deuxième support (121) est un élément parmi un plastron, un dossard et un maillot.Device according to any one of the four preceding claims, in which the first support (111) is one of a headband, a headband, a cap, and/or the second support (121) is one of a breastplate, a bib and jersey. Système comprenant un dispositif selon l'une quelconque des cinq revendications précédentes, un système logiciel (133) apte à transformer les données sauvegardées (131) en données modélisées (134) et un casque de réalité virtuelle et/ou une interface de visualisation (132) configurés pour lire les données modélisées (134) via une interface logicielle (135).System comprising a device according to any one of the five preceding claims, a software system (133) capable of transforming the saved data (131) into modeled data (134) and a virtual reality headset and/or a visualization interface (132 ) configured to read the modeled data (134) via a software interface (135).
FR2104507A 2021-04-29 2021-04-29 Areas of crossed vision Pending FR3122327A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR2104507A FR3122327A1 (en) 2021-04-29 2021-04-29 Areas of crossed vision
EP22723574.4A EP4329607A1 (en) 2021-04-29 2022-04-15 Crossed fields of view
PCT/EP2022/060185 WO2022228921A1 (en) 2021-04-29 2022-04-15 Crossed fields of view

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2104507A FR3122327A1 (en) 2021-04-29 2021-04-29 Areas of crossed vision
FR2104507 2021-04-29

Publications (1)

Publication Number Publication Date
FR3122327A1 true FR3122327A1 (en) 2022-11-04

Family

ID=77317061

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2104507A Pending FR3122327A1 (en) 2021-04-29 2021-04-29 Areas of crossed vision

Country Status (3)

Country Link
EP (1) EP4329607A1 (en)
FR (1) FR3122327A1 (en)
WO (1) WO2022228921A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014164901A1 (en) * 2013-03-11 2014-10-09 Magic Leap, Inc. System and method for augmented and virtual reality
EP2977087A1 (en) 2014-06-26 2016-01-27 Adidas AG Athletic activity heads up display systems and methods
US20160077547A1 (en) * 2014-09-11 2016-03-17 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US9526443B1 (en) * 2013-01-19 2016-12-27 Bertec Corporation Force and/or motion measurement system and a method of testing a subject
US20190130622A1 (en) * 2017-10-27 2019-05-02 Magic Leap, Inc. Virtual reticle for augmented reality systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9526443B1 (en) * 2013-01-19 2016-12-27 Bertec Corporation Force and/or motion measurement system and a method of testing a subject
WO2014164901A1 (en) * 2013-03-11 2014-10-09 Magic Leap, Inc. System and method for augmented and virtual reality
EP2977087A1 (en) 2014-06-26 2016-01-27 Adidas AG Athletic activity heads up display systems and methods
US20160077547A1 (en) * 2014-09-11 2016-03-17 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US20190130622A1 (en) * 2017-10-27 2019-05-02 Magic Leap, Inc. Virtual reticle for augmented reality systems

Also Published As

Publication number Publication date
WO2022228921A1 (en) 2022-11-03
EP4329607A1 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
Linke et al. Validation of electronic performance and tracking systems EPTS under field conditions
US10488659B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
US20210012557A1 (en) Systems and associated methods for creating a viewing experience
US11880932B2 (en) Systems and associated methods for creating a viewing experience
US20200160746A1 (en) Training using tracking of head mounted display
Xu et al. Gaze prediction in dynamic 360 immersive videos
JP6814196B2 (en) Integrated sensor and video motion analysis method
US11116271B2 (en) Helmet-based system for improved practice efficiency and athlete safety
US9076149B2 (en) Shopper view tracking and analysis system and method
US20090290753A1 (en) Method and system for gaze estimation
US9292086B2 (en) Correlating pupil position to gaze location within a scene
EP3918572A1 (en) Method and device for displaying data for monitoring an event
US11044404B1 (en) High-precision detection of homogeneous object activity in a sequence of images
US20170296871A1 (en) Display method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium
TW201541407A (en) Method for generating three-dimensional information from identifying two-dimensional images
EP0847201B1 (en) Real time tracking system for moving bodies on a sports field
US20230217004A1 (en) 360-degree virtual-reality system for dynamic events
FR3122327A1 (en) Areas of crossed vision
US20230194875A1 (en) External illumination with reduced detectability
WO2008073563A1 (en) Method and system for gaze estimation
WO1987001295A1 (en) Tennis umpiring aid system
FR2843849A1 (en) Sports/football referee assistant having optical detectors monitoring layers/ball and having game rule book which provides messages passed referee when rules broken.
US20240005519A1 (en) System and method for detection and monitoring of impact
US11103763B2 (en) Basketball shooting game using smart glasses
KR101855105B1 (en) Focus point analysis system for human eye on head-mounted display

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20221104

PLFP Fee payment

Year of fee payment: 3