FR3136094A1 - Fall detection method by image analysis - Google Patents

Fall detection method by image analysis Download PDF

Info

Publication number
FR3136094A1
FR3136094A1 FR2205075A FR2205075A FR3136094A1 FR 3136094 A1 FR3136094 A1 FR 3136094A1 FR 2205075 A FR2205075 A FR 2205075A FR 2205075 A FR2205075 A FR 2205075A FR 3136094 A1 FR3136094 A1 FR 3136094A1
Authority
FR
France
Prior art keywords
posture
image
analyzed
images
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2205075A
Other languages
French (fr)
Inventor
Marie Isnard
Guillaume FORTIER
Jean-Paul Muller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inetum
Original Assignee
Inetum
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inetum filed Critical Inetum
Priority to FR2205075A priority Critical patent/FR3136094A1/en
Publication of FR3136094A1 publication Critical patent/FR3136094A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall

Abstract

Ce procédé de détection de chute (200) comprend la capture (202) d’un flux vidéo d’une scène et l’analyse (210) d’au moins une partie des images du flux vidéo de sorte à identifier une posture d’une personne dans chaque image analysée. Le procédé (200) comprend également, pour chaque image analysée, la détermination (230) optionnelle d’une évolution de la posture, la comparaison (250) de la posture et/ou de l’évolution de la posture avec au moins un critère de comparaison et, pour chaque critère de comparaison auquel il est satisfait, l’incrémentation (260) d’un compteur individuel. Le procédé (200) comprend encore le calcul (270) d’un compteur aggloméré égal à la somme de plusieurs compteurs individuels et la détection (280) d’une chute lorsque le compteur aggloméré excède un seuil prédéterminé. Figure pour l’abrégé : Fig. 3This fall detection method (200) comprises capturing (202) a video stream of a scene and analyzing (210) at least a portion of the images of the video stream so as to identify a posture of a person in each analyzed image. The method (200) also comprises, for each image analyzed, the optional determination (230) of an evolution of the posture, the comparison (250) of the posture and/or the evolution of the posture with at least one criterion comparison and, for each comparison criterion which is satisfied, the increment (260) of an individual counter. The method (200) further comprises calculating (270) an agglomerated counter equal to the sum of several individual counters and detecting (280) a drop when the agglomerated counter exceeds a predetermined threshold. Figure for abstract: Fig. 3

Description

Procédé de détection de chute par analyse d’imagesFall detection method by image analysis Domaine DE L’INVENTIONFIELD OF INVENTION

La présente invention concerne un procédé de détection de chute, du type comprenant les étapes suivantes :

  • capture d’un flux vidéo d’une scène dans laquelle évolue une personne, le flux vidéo comprenant une succession d’images de la scène, et
  • analyse d’au moins une partie des images de la scène, ladite analyse comprenant, pour chacune des images analysées, l’identification d’une posture de la personne dans l’image.
The present invention relates to a fall detection method, of the type comprising the following steps:
  • capturing a video stream of a scene in which a person is moving, the video stream comprising a succession of images of the scene, and
  • analysis of at least part of the images of the scene, said analysis comprising, for each of the images analyzed, the identification of a posture of the person in the image.

La présente invention concerne également un produit programme d’ordinateur comprenant des instructions pour l’exécution au moins une partie des étapes d’un tel procédé lorsque ledit programme informatique est exécuté par un processeur, un support de stockage d’informations sur lequel est enregistré un tel produit programme d’ordinateur, et un système de détection de chute du type configuré pour mettre en œuvre un procédé du type précité.The present invention also relates to a computer program product comprising instructions for executing at least part of the steps of such a method when said computer program is executed by a processor, an information storage medium on which is recorded such a computer program product, and a fall detection system of the type configured to implement a method of the aforementioned type.

Arrière-plan technologiqueTechnology background

La chute des personnes âgées constitue une préoccupation sociétale importante. En effet, celles-ci, déjà davantage susceptibles de chuter que la population générale du fait de leur équilibre précaire, ont en plus le plus souvent des difficultés à se relever. Des études ont ainsi démontré dans 10% des cas, le temps passé au sol par une personne âgée à la suite d’une chute dépasse une heure. Une autre étude, menée sur un panel de 370 personnes âgées en moyenne de 79,6 ans, ayant auparavant présenté une ou plusieurs chutes, a montré que 50% d’entre elles avaient été incapables de se relever seul et que, pour les 50% restants, la durée du temps passé au sol était en moyenne de 12 minutes en l’absence de traumatisme sévère et de 19 minutes en cas de traumatisme sévère.The fall of elderly people constitutes a significant societal concern. Indeed, they, already more likely to fall than the general population due to their precarious balance, also most often have difficulty getting back up. Studies have shown that in 10% of cases, the time spent on the ground by an elderly person following a fall exceeds one hour. Another study, carried out on a panel of 370 people with an average age of 79.6 years, having previously suffered one or more falls, showed that 50% of them had been unable to get up on their own and that, for the 50 remaining %, the duration of time spent on the ground was on average 12 minutes in the absence of severe trauma and 19 minutes in the event of severe trauma.

Ainsi, le temps passé au sol par une personne âgée consécutivement à une chute est généralement long.Thus, the time spent on the ground by an elderly person following a fall is generally long.

Or, plus le temps passé au sol est long, plus les risques de séquelles sont importants. Une personne ayant chuté peut en effet souffrir de perte de connaissance, de blessures graves, d’hémorragie, etc., sans compter le stress et la détresse psychique ressentis durant l’attente d’une prise en charge pour les patients conscients. Il est donc primordial de créer un dispositif qui, en cas de chute d’une personne âgée, permette d’alerter rapidement ses proches ou les équipes soignantes qui l’ont en charge.However, the longer the time spent on the ground, the greater the risk of after-effects. A person who has fallen can in fact suffer from loss of consciousness, serious injuries, hemorrhage, etc., not to mention the stress and psychological distress felt while waiting for treatment for conscious patients. It is therefore essential to create a system which, in the event of an elderly person's fall, can quickly alert their loved ones or the healthcare teams in charge of them.

Il a ainsi été proposé des systèmes destinés à détecter automatiquement des chutes de personne. Ces systèmes se classent en deux grandes familles : d’une part les systèmes de détection de chute portatifs et d’autre part les systèmes de détection de chute par analyse d’images.Systems have thus been proposed intended to automatically detect falls of people. These systems are classified into two main families: on the one hand, portable fall detection systems and on the other hand, fall detection systems using image analysis.

Les systèmes de détection chute portatifs sont généralement constitués d’objets connectés qui détectent la chute par des mesures d’accélération. Cependant, la diversité des types de chute rend difficile la création d’une modélisation de la chute à même de capter l’ensemble des réalisations possibles de l’évènement. Une approche par seuillage de métrique d'intérêt sur l’accéléromètre tend à la concentration des performances des systèmes sur des ensembles de chutes dont les caractéristiques sont similaires. Ces systèmes peinent donc à détecter tout type de chute. De plus, leur efficacité dépend du soin des porteurs à vérifier leur état de marche (batterie) et du consentement de ces derniers à les porter constamment.Portable fall detection systems generally consist of connected objects that detect a fall using acceleration measurements. However, the diversity of fall types makes it difficult to create a fall modeling capable of capturing all the possible outcomes of the event. An approach by thresholding the metric of interest on the accelerometer tends to concentrate the performance of systems on sets of falls whose characteristics are similar. These systems therefore struggle to detect any type of fall. In addition, their effectiveness depends on the care of the wearers to check their working condition (battery) and the consent of the latter to wear them constantly.

Les systèmes de détection de chute par analyse d’images, eux, présentent un défi double : la détection du corps et la détection de la chute. Pour la détection du corps, ces systèmes s’appuient le plus souvent sur l’extraction de descripteurs comme les silhouettes segmentées et/ou les boites de contour (mieux connues sous leur appellation anglaise « bounding boxes »). Les caractéristiques morphologiques et de localisation sont ensuite fournies en entrées à des classifieurs, le plus souvent fondés sur l’apprentissage machine, pour détecter la chute. Cependant, soit les informations fournies par les descripteurs sont trop limitées pour permettre une modélisation poussée de l’événement observé, soit ces descripteurs présentent un temps d’exécution tel qu’ils ne permettent pas une analyse en temps réel. Quant aux classifieurs fondés sur l’apprentissage machine, ils échouent à détecter un grand nombre de chutes, car les chutes sur lesquelles ils sont généralement entraînés sont très loin de refléter l’ensemble des types de chutes possibles. En effet, la chute est un phénomène cinétique très variables, fonction des capacités physiques et motrices de la personne (par exemple la personne peut se retenir lors de sa chute, ce qui va la ralentir), mais aussi d’éventuels évènements extérieurs comme la rencontre d’obstacles, ce qui rend très difficile la modélisation et la reproduction de l’ensemble des types de chutes possibles.Fall detection systems using image analysis present a dual challenge: body detection and fall detection. For body detection, these systems most often rely on the extraction of descriptors such as segmented silhouettes and/or bounding boxes. The morphological and location characteristics are then provided as input to classifiers, most often based on machine learning, to detect the fall. However, either the information provided by the descriptors is too limited to allow in-depth modeling of the observed event, or these descriptors have such an execution time that they do not allow real-time analysis. As for classifiers based on machine learning, they fail to detect a large number of falls, because the falls on which they are generally trained are very far from reflecting all possible types of falls. Indeed, the fall is a very variable kinetic phenomenon, depending on the physical and motor capacities of the person (for example the person can hold on during their fall, which will slow them down), but also on possible external events such as the encountering obstacles, which makes the modeling and reproduction of all possible types of falls very difficult.

Ces défauts, tant des systèmes portatifs que ceux reposant sur l’analyse d’images, fait qu’aujourd’hui il n’existe pas de système de détection de chute suffisamment fiable pour être utilisé en conditions réelles.These defects, both in portable systems and those based on image analysis, mean that today there is no fall detection system reliable enough to be used in real conditions.

Un objectif de l’invention est d’améliorer la fiabilité de la détection de chute par un système automatique. Un autre objectif est de permettre une détection de chute en temps réel.An objective of the invention is to improve the reliability of fall detection by an automatic system. Another objective is to enable real-time fall detection.

A cet effet, l’invention a pour objet, selon un premier aspect, un procédé de détection du type précité, comprenant les étapes supplémentaires suivantes :

  • pour chaque image analysée :
    • optionnellement, détermination d’une évolution de la posture par comparaison de la posture de la personne dans l’image analysée avec une posture de la personne dans une image analysée précédente,
    • comparaison de la posture et/ou de l’évolution de la posture avec au moins un critère de comparaison, et
    • pour chaque critère de comparaison auquel il est satisfait, incrémentation d’un compteur individuel propre à l’image analysée,
  • calcul d’un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
  • détection d’une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
To this end, the subject of the invention is, according to a first aspect, a detection method of the aforementioned type, comprising the following additional steps:
  • for each image analyzed:
    • optionally, determination of an evolution of the posture by comparison of the posture of the person in the analyzed image with a posture of the person in a previous analyzed image,
    • comparison of the posture and/or the evolution of the posture with at least one comparison criterion, and
    • for each comparison criterion which is satisfied, increment of an individual counter specific to the analyzed image,
  • calculation of an agglomerated counter equal to the sum of the individual counters of several successive analyzed images, and
  • detection of a fall when the agglomerated counter exceeds a predetermined alert threshold.

Selon des modes de réalisation particuliers de l’invention, le procédé de détection présente également l’une ou plusieurs des caractéristiques suivantes, prise(s) isolément ou suivant toute(s) combinaison(s) techniquement possible(s) :

  • les images analysées successives sont comprises dans une fenêtre temporelle de durée prédéterminée, ladite durée prédéterminée étant avantageusement comprise entre 0,5 et 10 secondes, par exemple comprise entre 1 et 5 secondes ;
  • les images analysées successives sont constituées par toutes les images analysées comprises dans la fenêtre temporelle ;
  • le calcul du compteur aggloméré est répété pour chaque image analysée, les images analysées successives étant constituées de l’image analysée et d’au moins une autre image analysée antérieure à ladite image analysée ;
  • le seuil d’alerte est fonction du nombre d’images analysées successives et, le cas échéant, du nombre de critères ;
  • la posture comprend un point de tête représentatif de la position de la tête de la personne dans l’image analysée, le ou les critère(s) de comparaison comprenant au moins un critère parmi les critères suivants :
    • le point de tête se déplace d’une distance supérieure à un seuil, et
    • le point de tête se déplace dans une direction prédéterminée durant un nombre d’images successives s’étalant sur une durée supérieure à un seuil de durée prédéterminé ;
  • la posture comprend un vecteur de corps représentatif de la longueur et de l’orientation du corps de la personne dans l’image analysée, le ou les critère(s) de comparaison comprenant le critère suivant : le vecteur de corps se raccourcit d’une valeur supérieure à un seuil ;
  • la posture comprend un vecteur de corps représentatif de la longueur et de l’orientation du corps de la personne dans l’image analysée et l’analyse comprend, pour chacune des images analysées, la détection d’une surface de sol dans l’image, le ou les critère(s) de comparaison comprenant le critère suivant : l’angle que forme le vecteur de corps avec la surface de sol est hors d’un intervalle de confiance prédéterminé ;
  • la posture comprend au moins un point postural supérieur représentatif de la position dans l’image analysée d’un élément anatomique supérieur de la personne, ledit élément anatomique supérieur étant compris entre la tête et les hanches, et au moins un point postural inférieur représentatif de la position dans l’image analysée d’un élément anatomique inférieur de la personne, ledit élément anatomique inférieur étant compris entre les hanches et les pieds, le vecteur de corps reliant le barycentre du ou des point(s) postural (posturaux) inférieur(s) au barycentre du ou des point(s) postural (posturaux) supérieur(s) ; et
  • la posture comprend une pluralité de points posturaux chacun représentatif de la position dans l’image analysée d’un élément anatomique de la personne, l’identification de la posture comprenant la détection d’au moins un point postural dans l’image analysée et la prédiction d’au moins un autre point postural à partir d’une posture de la personne dans une image analysée précédente.
According to particular embodiments of the invention, the detection method also has one or more of the following characteristics, taken in isolation or in any technically possible combination(s):
  • the successive analyzed images are included in a time window of predetermined duration, said predetermined duration advantageously being between 0.5 and 10 seconds, for example between 1 and 5 seconds;
  • the successive analyzed images consist of all the analyzed images included in the time window;
  • the calculation of the agglomerated counter is repeated for each analyzed image, the successive analyzed images consisting of the analyzed image and at least one other analyzed image prior to said analyzed image;
  • the alert threshold depends on the number of successive images analyzed and, where applicable, the number of criteria;
  • the posture comprises a head point representative of the position of the head of the person in the analyzed image, the comparison criterion(s) comprising at least one criterion among the following criteria:
    • the head point moves a distance greater than a threshold, and
    • the head point moves in a predetermined direction during a number of successive images extending over a duration greater than a predetermined duration threshold;
  • the posture comprises a body vector representative of the length and orientation of the body of the person in the analyzed image, the comparison criterion(s) comprising the following criterion: the body vector shortens by one value greater than a threshold;
  • the posture comprises a body vector representative of the length and orientation of the body of the person in the analyzed image and the analysis comprises, for each of the analyzed images, the detection of a floor surface in the image , the comparison criterion(s) comprising the following criterion: the angle formed by the body vector with the ground surface is outside a predetermined confidence interval;
  • the posture comprises at least one upper postural point representative of the position in the analyzed image of an upper anatomical element of the person, said upper anatomical element being included between the head and the hips, and at least one lower postural point representative of the position in the analyzed image of a lower anatomical element of the person, said lower anatomical element being included between the hips and the feet, the body vector connecting the barycenter of the lower postural point(s) ( s) at the barycenter of the upper postural point(s); And
  • the posture comprises a plurality of postural points each representative of the position in the analyzed image of an anatomical element of the person, the identification of the posture comprising the detection of at least one postural point in the analyzed image and the prediction of at least one other postural point from a posture of the person in a previous analyzed image.

L’invention a également pour objet, selon un deuxième aspect, un produit programme d’ordinateur comprenant des instructions pour l’exécution au moins des étapes de comparaison, incrémentation, calcul et détection d’un procédé de détection de chute tel que défini ci-dessus lorsque ledit programme informatique est exécuté par un processeur.The invention also relates, according to a second aspect, to a computer program product comprising instructions for executing at least the steps of comparison, incrementation, calculation and detection of a fall detection method as defined herein. above when said computer program is executed by a processor.

L’invention a encore pour objet, selon un troisième aspect, un support de stockage d’informations sur lequel est enregistré un tel produit programme d’ordinateur.The invention also relates, according to a third aspect, to an information storage medium on which such a computer program product is recorded.

Enfin, l’invention a pour objet, selon un quatrième aspect, un système de détection de chute comprenant une caméra pour capturer un flux vidéo d’une scène dans laquelle évolue une personne, le flux vidéo comprenant une succession d’images de la scène, et une unité de traitement configurée pour :

  • analyser au moins une partie des images de la scène de sorte à identifier, pour chacune des images analysées, une posture de la personne dans l’image,
  • pour chaque image analysée :
    • optionnellement, déterminer une évolution de la posture par comparaison de la posture de la personne dans l’image analysée avec une posture de la personne dans une image analysée précédente,
    • comparer la posture et/ou l’évolution de la posture avec au moins un critère de comparaison, et
    • incrémenter, pour chaque critère de comparaison auquel il est satisfait, un compteur individuel propre à l’image analysée,
  • calculer un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
  • détecter une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
Finally, the invention relates, according to a fourth aspect, to a fall detection system comprising a camera for capturing a video stream of a scene in which a person is moving, the video stream comprising a succession of images of the scene , and a processing unit configured to:
  • analyze at least part of the images of the scene so as to identify, for each of the images analyzed, a posture of the person in the image,
  • for each image analyzed:
    • optionally, determine an evolution of the posture by comparing the posture of the person in the analyzed image with a posture of the person in a previous analyzed image,
    • compare the posture and/or the evolution of the posture with at least one comparison criterion, and
    • increment, for each comparison criterion which is satisfied, an individual counter specific to the analyzed image,
  • calculate an agglomerated counter equal to the sum of the individual counters of several successive analyzed images, and
  • detect a fall when the agglomerated counter exceeds a predetermined alert threshold.

Brève description des FiguresBrief description of the Figures

D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple et faite en se référant aux dessins annexés, dans lesquels :

  • la est une représentation schématique d’un système de détection de chute selon un exemple de réalisation de l’invention,
  • la est un exemple d’image capturée par une caméra du système de détection de la et analysée par une unité de traitement du système de la ,
  • la est un diagramme en blocs illustrant un procédé mis en œuvre par le système de détection de la ,
  • la est un diagramme en blocs illustrant une étape d’analyse d’image du procédé de la , et
  • la est un diagramme en blocs illustrant une étape de suivi de posture du procédé de la .
Other characteristics and advantages of the invention will appear on reading the description which follows, given solely by way of example and made with reference to the appended drawings, in which:
  • there is a schematic representation of a fall detection system according to an exemplary embodiment of the invention,
  • there is an example of an image captured by a camera of the detection system and analyzed by a processing unit of the system of the ,
  • there is a block diagram illustrating a method implemented by the detection system of the ,
  • there is a block diagram illustrating an image analysis step of the method of , And
  • there is a block diagram illustrating a posture monitoring step of the method of .

Description détaillée d’un exemple de réalisationDetailed description of an example of production

Le système de détection 10 représenté sur la est destiné à détecter des chutes de personnes. A cet effet, le système de détection 10 comprend une caméra 12 et une unité de traitement 14.The detection system 10 shown on the is intended to detect falls of people. For this purpose, the detection system 10 comprises a camera 12 and a processing unit 14.

La caméra 12 est configurée pour capturer un flux vidéo 16 d’une scène (non représentée), le flux vidéo 16 comprenant une succession d’images 18 de la scène. A cet effet, la caméra 12 est avantageusement positionnée en hauteur sur un mur d’une pièce (non représentée) et orientée de façon à couvrir la plus grande superficie de la pièce possible.The camera 12 is configured to capture a video stream 16 of a scene (not shown), the video stream 16 comprising a succession of images 18 of the scene. For this purpose, the camera 12 is advantageously positioned high up on a wall of a room (not shown) and oriented so as to cover the largest possible area of the room.

La caméra 12 est de préférence configurée pour que le flux vidéo 16 présente au moins 15 images par seconde, avantageusement au moins 30 images par seconde.The camera 12 is preferably configured so that the video stream 16 presents at least 15 images per second, advantageously at least 30 images per second.

La caméra 12 est par exemple une caméra bidimensionnelle, apte à produire des images en deux dimensions de la scène. En variante, la caméra 12 est une caméra tridimensionnelle apte à produire des images en trois dimensions de la scène.The camera 12 is for example a two-dimensional camera, capable of producing two-dimensional images of the scene. Alternatively, the camera 12 is a three-dimensional camera capable of producing three-dimensional images of the scene.

Comme visible sur la , l’unité de traitement 14 comprend un module d’analyse d’image 19 pour analyser au moins une partie des images 18 de la scène, et un module d’exploitation 20 pour exploiter des images 18 analysées.As visible on the , the processing unit 14 comprises an image analysis module 19 for analyzing at least part of the images 18 of the scene, and an operating module 20 for exploiting the analyzed images 18.

Le module d’analyse d’image 19 est de préférence apte à analyser des images à une cadence supérieure ou égale à 15 images par seconde, avantageusement supérieure ou égale 30 images par seconde. La proportion d’images analysées par le module 19 par rapport au nombre d’images du flux vidéo 16 est typiquement égale au rapport de la cadence d’analyse du module 19 sur la cadence de prise de vue de la caméra 12 et est par exemple de la forme 1/2N, où N est un entier naturel. Lorsque la proportion d’images analysées est inférieure à 1, l’intervalle entre images analysées est de préférence constant, c’est-à-dire que le nombre d’images non analysées entre deux images analysées est constant.The image analysis module 19 is preferably capable of analyzing images at a rate greater than or equal to 15 images per second, advantageously greater than or equal to 30 images per second. The proportion of images analyzed by the module 19 relative to the number of images of the video stream 16 is typically equal to the ratio of the analysis rate of the module 19 to the shooting rate of the camera 12 and is for example of the form 1/2 N , where N is a natural number. When the proportion of analyzed images is less than 1, the interval between analyzed images is preferably constant, that is to say that the number of unanalyzed images between two analyzed images is constant.

Le module d’analyse d’image 19 comprend un module de zonage 21, un module de repérage de sol 22, et un module d’identification de posture 23.The image analysis module 19 includes a zoning module 21, a ground location module 22, and a posture identification module 23.

En référence à la , le module de zonage 21 est configuré pour reconnaître différentes zones 24, 25 dans les images analysées 18. En particulier, le module de zonage 21 est configuré pour reconnaître dans chaque image analysée 18 au moins une zone 24 de vigilance, dans laquelle surveiller les éventuelles chutes de personnes. Le module de zonage 21 est également configuré pour reconnaître le cas échéant, dans au moins une partie des images analysées 18, une zone 25 d’exclusion de la détection de chute. Une telle zone 25 est typiquement constituée par une région de l’image 18 dans laquelle se trouve un lit ou un canapé.In reference to the , the zoning module 21 is configured to recognize different zones 24, 25 in the analyzed images 18. In particular, the zoning module 21 is configured to recognize in each analyzed image 18 at least one vigilance zone 24, in which to monitor the possible falls of people. The zoning module 21 is also configured to recognize, where appropriate, in at least part of the analyzed images 18, a zone 25 of exclusion from fall detection. Such a zone 25 is typically constituted by a region of the image 18 in which there is a bed or a sofa.

Encore en référence à la , le module de repérage de sol 22 est configuré pour produire une donnée 27 représentative de l’orientation d’une surface de sol 26 dans chaque image analysée 18. A cet effet, le module de repérage de sol 22 est configuré pour détecter cette surface de sol 26 dans l’image 18 et pour produire la donnée représentative 27 en fonction de la surface 26 ainsi détectée. En variante, le module de repérage de sol 22 est configuré pour définir la donnée représentative 27 comme un vecteur s’étendant suivant la direction transversale de l’image 18, comme un vecteur s’étendant suivant une direction définie par un utilisateur, ou comme un vecteur s’étendant suivant une direction orthogonale à un élément de calibration, représentatif de la direction verticale, présent dans l’image 18.Again with reference to the , the ground tracking module 22 is configured to produce data 27 representative of the orientation of a ground surface 26 in each analyzed image 18. For this purpose, the ground tracking module 22 is configured to detect this surface of ground 26 in the image 18 and to produce the representative data 27 as a function of the surface 26 thus detected. Alternatively, the ground identification module 22 is configured to define the representative data 27 as a vector extending in the transverse direction of the image 18, as a vector extending in a direction defined by a user, or as a vector extending in a direction orthogonal to a calibration element, representative of the vertical direction, present in image 18.

Toujours en référence à la , le module d’identification de posture 23 est configuré pour identifier, pour chaque image analysée 18, une posture 28 de chaque personne 29 évoluant dans la scène.Still with reference to the , the posture identification module 23 is configured to identify, for each analyzed image 18, a posture 28 of each person 29 moving in the scene.

Comme visible sur la , la posture 28 comprend une pluralité de points posturaux 30 chacun représentatif d’un élément anatomique de la personne. Ces points posturaux 30 comprennent des points posturaux supérieurs 32 représentatifs chacun de la position dans l’image analysée 18 d’un élément anatomique supérieur de la personne, ledit élément anatomique supérieur étant compris entre la tête et les hanches. Ils comprennent également des points posturaux inférieurs 34 représentatifs chacun de la position dans l’image analysée 18 d’un élément anatomique inférieur de la personne, ledit élément anatomique inférieur étant compris entre les hanches et les pieds.As visible on the , the posture 28 comprises a plurality of postural points 30 each representative of an anatomical element of the person. These postural points 30 include upper postural points 32 each representative of the position in the analyzed image 18 of an upper anatomical element of the person, said upper anatomical element being included between the head and the hips. They also include lower postural points 34 each representative of the position in the analyzed image 18 of a lower anatomical element of the person, said lower anatomical element being included between the hips and the feet.

Les points posturaux supérieurs 32 comprennent un point de tête (non visible sur les Figures), représentatif de la position de la tête de la personne dans l’image analysée 18, et un point de haut de torse 36, représentatif de la position du haut du torse de la personne dans l’image analysée 18.The upper postural points 32 include a head point (not visible in the Figures), representative of the position of the head of the person in the analyzed image 18, and an upper torso point 36, representative of the position of the upper of the torso of the person in the analyzed image 18.

Dans l’exemple représenté, les points posturaux supérieurs 32 comprennent également :

  • un point d’oreille droite 38, représentatif de la position de l’oreille droite de la personne dans l’image analysée 18,
  • un point d’œil droit 40, représentatif de la position de l’œil droit de la personne dans l’image analysée 18,
  • un point de nez 42, représentatif de la position du nez de la personne dans l’image analysée 18,
  • un point d’œil gauche 44, représentatif de la position de l’œil gauche de la personne dans l’image analysée 18, et
  • un point d’oreille gauche 46, représentatif de la position de l’oreille gauche de la personne dans l’image analysée 18,
In the example shown, the upper postural points 32 also include:
  • a right ear point 38, representative of the position of the right ear of the person in the analyzed image 18,
  • a right eye point 40, representative of the position of the right eye of the person in the analyzed image 18,
  • a nose point 42, representative of the position of the person's nose in the analyzed image 18,
  • a left eye point 44, representative of the position of the left eye of the person in the analyzed image 18, and
  • a left ear point 46, representative of the position of the left ear of the person in the analyzed image 18,

le point de tête formant le barycentre desdits points 38, 40, 42, 44 et 46.the head point forming the barycenter of said points 38, 40, 42, 44 and 46.

Ici, les points posturaux supérieurs 32 comprennent encore des points de bras 48, 50, 52, 54, dont au moins un par bras de la personne, chacun représentatif de la position d’au moins une partie d’un bras de la personne dans l’image analysée 18. Dans l’exemple représenté, ces points de bras 48, 50, 52, 54 comprennent :

  • un point de main droite 48, représentatif de la position de la main droite de la personne dans l’image analysée 18,
  • un point de coude droit 50, représentatif de la position du coude droit de la personne dans l’image analysée 18,
  • un point de coude gauche 52, représentatif de la position du coude gauche de la personne dans l’image analysée 18, et
  • un point de main gauche 54, représentatif de la position de la main gauche de la personne dans l’image analysée 18.
Here, the upper postural points 32 further comprise arm points 48, 50, 52, 54, including at least one per arm of the person, each representative of the position of at least part of an arm of the person in the analyzed image 18. In the example shown, these arm points 48, 50, 52, 54 include:
  • a right hand point 48, representative of the position of the right hand of the person in the analyzed image 18,
  • a right elbow point 50, representative of the position of the right elbow of the person in the analyzed image 18,
  • a left elbow point 52, representative of the position of the left elbow of the person in the analyzed image 18, and
  • a left hand point 54, representative of the position of the left hand of the person in the analyzed image 18.

Ici, les points posturaux supérieurs 32 comprennent enfin un point d’épaule droite 56, représentatif de la position de l’épaule droite de la personne dans l’image analysée 18, et un point d’épaule gauche 58, représentatif de la position de l’épaule gauche de la personne dans l’image analysée 18. Le point de haut de torse 36 est typiquement formé par le barycentre du point d’épaule droite 56 et du point d’épaule gauche 58.Here, the upper postural points 32 finally include a right shoulder point 56, representative of the position of the right shoulder of the person in the analyzed image 18, and a left shoulder point 58, representative of the position of the left shoulder of the person in the analyzed image 18. The upper torso point 36 is typically formed by the barycenter of the right shoulder point 56 and the left shoulder point 58.

Les points posturaux inférieurs 34 comprennent des points de jambe 60, 62, dont au moins un par jambe de la personne, chacun représentatif de la position d’au moins une partie d’une jambe de la personne dans l’image analysée 18. En particulier, ces points de jambe 60, 62 comprennent au moins un point de pied 60 par pied de la personne, chacun représentatif de la position d’au moins une partie d’un pied de la personne dans l’image analysée 18. Dans l’exemple représenté, les points de jambe 60, 62 comprennent également, pour chaque jambe de la personne, un point de genou 62 représentatif de la position du genou de la jambe dans l’image analysée 18.The lower postural points 34 include leg points 60, 62, including at least one per leg of the person, each representative of the position of at least part of a leg of the person in the analyzed image 18. In particular, these leg points 60, 62 comprise at least one foot point 60 per foot of the person, each representative of the position of at least part of a foot of the person in the analyzed image 18. In the In the example shown, the leg points 60, 62 also include, for each leg of the person, a knee point 62 representative of the position of the knee of the leg in the analyzed image 18.

Les points de pied 60 comprennent ici, pour chaque pied de la personne :

  • un point de cheville 64 représentatif de la position de la cheville du pied dans l’image analysée 18,
  • un point de talon 66 représentatif de la position du talon du pied dans l’image analysée 18,
  • un point de gros orteil 67 représentatif de la position du gros orteil du pied dans l’image analysée 18, et
  • un point de petit orteil 68 représentatif de la position du petit orteil du pied dans l’image analysée 18.
The foot points 60 include here, for each foot of the person:
  • an ankle point 64 representative of the position of the ankle of the foot in the analyzed image 18,
  • a heel point 66 representative of the position of the heel of the foot in the analyzed image 18,
  • a big toe point 67 representative of the position of the big toe of the foot in the analyzed image 18, and
  • a little toe point 68 representative of the position of the little toe of the foot in the analyzed image 18.

Dans l’exemple représenté, les points posturaux 30 comprennent également des points posturaux intermédiaires 70. Ces points posturaux intermédiaires 70 comprennent ici un point de hanche droite 72, un point de hanche gauche 74 et un point de ceinture 76 à mi-distance des points de hanche gauche et droite 72, 74.In the example shown, the postural points 30 also include intermediate postural points 70. These intermediate postural points 70 here include a right hip point 72, a left hip point 74 and a belt point 76 halfway between the points left and right hip 72, 74.

En variante, la posture 28 comprend plus ou moins de points posturaux 30 que ceux mentionnés ci-dessus.Alternatively, posture 28 includes more or fewer postural points 30 than those mentioned above.

Les points posturaux 30 sont reliés les uns aux autres par des segments formant un squelette postural 78.The postural points 30 are connected to each other by segments forming a postural skeleton 78.

Ici, la posture 28 comprend également un vecteur de corps 80 représentatif de la longueur et de l’orientation du corps de la personne dans l’image analysée 18. Ce vecteur de corps 80 relie le barycentre 82 des points posturaux inférieurs 34 au barycentre 84 des points posturaux supérieurs 32. Pour la détermination des barycentres 82, 84, la même pondération est attribuée à chaque point postural 30.Here, the posture 28 also includes a body vector 80 representative of the length and orientation of the body of the person in the analyzed image 18. This body vector 80 connects the barycenter 82 of the lower postural points 34 to the barycenter 84 upper postural points 32. For the determination of the barycenters 82, 84, the same weighting is assigned to each postural point 30.

Le module d’identification de posture 23 comprend en particulier un module de détection de points posturaux 90, un module de prédiction de points posturaux 92 et un module de post-traitement 94.The posture identification module 23 comprises in particular a postural point detection module 90, a postural point prediction module 92 and a post-processing module 94.

Le module de détection de points posturaux 90 est configuré pour détecter, pour chaque personne 29 visible sur l’image 18, au moins une partie des points posturaux 30 associés à ladite personne 29 à partir des données brutes de l’image 18.The postural point detection module 90 is configured to detect, for each person 29 visible in the image 18, at least part of the postural points 30 associated with said person 29 from the raw data of the image 18.

Avantageusement, le module de détection 90 est également configuré pour attribuer à chaque point postural 30 détecté un indice de confiance et à la posture 28 une note de fiabilité. L’indice de confiance est par exemple compris entre 0 et 1. La note de fiabilité est typiquement égale à la moyenne des indices de confiance des points posturaux détectés.Advantageously, the detection module 90 is also configured to assign to each postural point 30 detected a confidence index and to the posture 28 a reliability rating. The confidence index is for example between 0 and 1. The reliability score is typically equal to the average of the confidence indices of the postural points detected.

Le module de prédiction de points posturaux 92 est configuré pour déterminer, pour chaque personne 29 visible sur l’image 18, si au moins une partie des points posturaux 30 associés à ladite personne 29 n’a pas été détectée par le module de détection 90. Le module de prédiction 92 est également configuré pour prédire, le cas échéant, pour le ou chaque point postural 30 non détecté, un point postural 30 prédit correspondant. Ce point postural 30 prédit est typiquement déduit de la posture de la personne 29 dans l’image analysée précédente, c’est-à-dire dans l’image analysée immédiatement antérieure à l’image analysée 18, par une méthode d’estimation du flux optique, par exemple la méthode Lucas-Kanade.The postural point prediction module 92 is configured to determine, for each person 29 visible in the image 18, if at least part of the postural points 30 associated with said person 29 has not been detected by the detection module 90 The prediction module 92 is also configured to predict, if necessary, for the or each undetected postural point 30, a corresponding predicted postural point 30. This predicted postural point 30 is typically deduced from the posture of the person 29 in the previous analyzed image, that is to say in the analyzed image immediately preceding the analyzed image 18, by a method of estimating the optical flow, for example the Lucas-Kanade method.

Avantageusement, le module de prédiction de points posturaux 92 est configuré pour ne pas prédire de point postural 30 prédit correspondant à un point postural 30 non détecté lorsqu’aucune des dix images analysées précédentes, c’est à dire des dix images immédiatement antérieures, ne présente de point postural détecté correspondant au point postural 30 non détecté.Advantageously, the postural point prediction module 92 is configured not to predict a predicted postural point 30 corresponding to an undetected postural point 30 when none of the ten previous analyzed images, that is to say the ten immediately preceding images, present detected postural point corresponding to the undetected postural point 30.

Le module de post-traitement 94 est configuré pour valider chaque posture 28 en s’assurant que la note de fiabilité de ladite posture 28 est supérieure à un seuil de validation par exemple égal à la moitié de la note de fiabilité maximale. En cas de note de fiabilité de ladite inférieure audit seuil de validation, la posture 28 est écartée, c’est-à-dire qu’elle est traitée comme n’ayant pas été identifiée.The post-processing module 94 is configured to validate each posture 28 by ensuring that the reliability score of said posture 28 is greater than a validation threshold, for example equal to half of the maximum reliability score. In the event of a reliability score lower than said validation threshold, posture 28 is discarded, that is to say it is treated as not having been identified.

Le module de post-traitement 94 est également configuré pour filtrer les points posturaux 30 de chaque posture 28 validée de manière à écarter tout point postural dont l’indice de confiance est inférieur à un seuil de confiance par exemple égal à la moitié de l’indice de confiance maximal. En d’autres termes, le module de post-traitement 94 est configuré pour que tout point postural 30 présentant une note de fiabilité inférieure au seuil de confiance soit traité comme n’ayant pas été détecté.The post-processing module 94 is also configured to filter the postural points 30 of each validated posture 28 so as to exclude any postural point whose confidence index is lower than a confidence threshold, for example equal to half of the maximum confidence index. In other words, the post-processing module 94 is configured so that any postural point 30 presenting a reliability score lower than the confidence threshold is treated as not having been detected.

Le module de post-traitement 94 est encore configuré pour déterminer, à partir des points posturaux 30 détectés et, le cas échéants, prédits, le vecteur de corps 80 de la posture 28.The post-processing module 94 is further configured to determine, from the postural points 30 detected and, where appropriate, predicted, the body vector 80 of the posture 28.

Le module d’exploitation 20 comprend un module de localisation 100, un module de suivi 102, un module de détermination de paramètres statiques 103, un module de comparaison 104, un module de comptage 106 et un module de détection 108.The operating module 20 includes a location module 100, a tracking module 102, a static parameter determination module 103, a comparison module 104, a counting module 106 and a detection module 108.

Le module de localisation 100 est configuré pour localiser, pour chaque posture 28 identifiée, la zone 24, 25 de l’image 18 dans laquelle ladite posture 28 est localisée. Le module de localisation 100 est également configurer pour arrêter l’analyse de la posture 28 lorsque la posture 28 est localisée dans une zone d’exclusion de la détection de chute 25 et pour enclencher la poursuite de l’analyse de la posture 28 lorsque la posture 28 est localisée dans une zone de vigilance 24.The location module 100 is configured to locate, for each posture 28 identified, the zone 24, 25 of the image 18 in which said posture 28 is located. The location module 100 is also configured to stop the analysis of the posture 28 when the posture 28 is located in a fall detection exclusion zone 25 and to initiate the continuation of the analysis of the posture 28 when the posture 28 is located in a vigilance zone 24.

La poursuite de l’analyse de la posture 28 est mise en œuvre par le module de suivi 102, le module de détermination de paramètres statiques 103, le module de comparaison 104, le module de comptage 106 et le module de détection 108.The continuation of the posture analysis 28 is implemented by the tracking module 102, the static parameter determination module 103, the comparison module 104, the counting module 106 and the detection module 108.

Le module de suivi 102 est configuré pour suivre chaque posture 28 de l’image analysée 18 dans le temps.The tracking module 102 is configured to track each posture 28 of the analyzed image 18 over time.

A cet effet, le module de suivi 102 est configuré pour calculer, pour chaque posture 28 de l’image analysée 18, un score de similarité normal et un score de similarité inversé avec chaque posture antérieure de l’image analysée précédente, c’est-à-dire de l’image analysée immédiatement antérieure à l’image analysée 18. Il est également configuré pour associer chaque posture 28 à une posture antérieure de l’image analysée précédente en fonction des scores de similarité normaux et inversés.For this purpose, the tracking module 102 is configured to calculate, for each posture 28 of the analyzed image 18, a normal similarity score and an inverted similarity score with each previous posture of the previous analyzed image, this is that is to say from the analyzed image immediately preceding the analyzed image 18. It is also configured to associate each posture 28 with a previous posture of the previous analyzed image according to the normal and inverted similarity scores.

En particulier, pour calculer le score de similarité normal, le module de suivi 102 est configuré pour mesurer la distance absolue euclidienne entre chaque point postural 30 de la posture 28 et le point postural correspondant de la posture antérieure. Il est également configuré pour sommer les distances ainsi obtenues et diviser cette somme par le nombre de valeurs contributives, les points posturaux 30 qui n’ont pas d’équivalents dans la posture antérieure étant exclus, le rapport ainsi obtenu constituant le score de similarité normal.In particular, to calculate the normal similarity score, the tracking module 102 is configured to measure the absolute Euclidean distance between each postural point 30 of the posture 28 and the corresponding postural point of the previous posture. It is also configured to sum the distances thus obtained and divide this sum by the number of contributing values, the postural points 30 which do not have equivalents in the anterior posture being excluded, the ratio thus obtained constituting the normal similarity score .

Pour calculer le score de similarité inversé, le module de suivi 102 est configuré pour mesurer la distance absolue euclidienne entre chaque point postural 30 de la posture 28 et le point postural miroir de la posture antérieure, c’est-à-dire le point postural correspondant au symétrique du point postural 30 considéré relativement au plan médian sagittal (ce qui revient à faire une inversion droite/gauche de la posture antérieure). Il est également configuré pour sommer les distances ainsi obtenues et diviser cette somme par le nombre de valeurs contributives, les points posturaux 30 qui n’ont pas d’équivalents miroirs dans la posture antérieure étant exclus, le rapport ainsi obtenu constituant le score de similarité inversé.To calculate the inverted similarity score, the tracking module 102 is configured to measure the absolute Euclidean distance between each postural point 30 of the posture 28 and the mirror postural point of the previous posture, that is to say the postural point corresponding to the symmetry of the postural point 30 considered relative to the mid-sagittal plane (which amounts to a right/left inversion of the anterior posture). It is also configured to sum the distances thus obtained and divide this sum by the number of contributing values, the postural points 30 which do not have mirror equivalents in the anterior posture being excluded, the ratio thus obtained constituting the similarity score reverse.

Avantageusement, le module de suivi 102 est configuré pour exclure tout score de similarité normal ou inversé dont le calcul repose sur moins de cinq valeurs contributives, c’est-à-dire pour exclure tout score de similarité calculé vis-à-vis d’une posture antérieure dans laquelle le nombre d’équivalents à des points posturaux 30 de la posture 18 est inférieur à cinq.Advantageously, the tracking module 102 is configured to exclude any normal or inverted similarity score whose calculation is based on less than five contributing values, that is to say to exclude any similarity score calculated with respect to an anterior posture in which the number of equivalents to postural points 30 of posture 18 is less than five.

Pour associer chaque posture 28 à une posture antérieure de l’image analysée précédente, le module de suivi 102 est configuré pour associer tour à tour chaque posture 28 à la posture antérieure de l’image analysée précédente avec laquelle la posture 28 présente le plus faible de tous les scores de similarité normaux et inversés calculés pour cette posture 28, en prenant à chaque fois celle des postures 28 qui, de toutes les postures 28 restantes (non encore associées), présente le plus faible score de similarité normal ou inversé.To associate each posture 28 with a previous posture of the previous analyzed image, the tracking module 102 is configured to associate each posture 28 in turn with the previous posture of the previous analyzed image with which the posture 28 presents the weakest of all the normal and inverted similarity scores calculated for this posture 28, each time taking that of the postures 28 which, of all the remaining postures 28 (not yet associated), presents the lowest normal or inverted similarity score.

Le module de suivi 102 est encore configuré pour attribuer à chaque posture 28 un numéro de suivi égal au numéro de suivi attribué à la posture antérieure à laquelle elle est associée. Dans le cas où le nombre de postures 28 dans l’image analysée 18 est supérieur au nombre de postures antérieures dans l’image précédente, le module de suivi 102 est configuré pour attribuer à chaque posture 28 non associée à une posture antérieure un nouveau numéro de suivi, différent du ou de chacun des numéro(s) de suivi attribué(s) à la ou aux posture(s) antérieure(s).The tracking module 102 is further configured to assign to each posture 28 a tracking number equal to the tracking number assigned to the previous posture with which it is associated. In the case where the number of postures 28 in the analyzed image 18 is greater than the number of previous postures in the previous image, the tracking module 102 is configured to assign to each posture 28 not associated with a previous posture a new number tracking number, different from each of the tracking number(s) assigned to the previous posture(s).

Le module de suivi 102 est également configuré pour déterminer, pour chaque posture 28 de l’image analysée 18, une évolution de la posture par comparaison de ladite posture 28 avec la posture antérieure associée.The tracking module 102 is also configured to determine, for each posture 28 of the analyzed image 18, an evolution of the posture by comparison of said posture 28 with the associated previous posture.

A cet effet, le module de suivi 102 est configuré pour comparer au moins une partie des éléments de la posture 28, par exemple certains points posturaux 30 et/ou le vecteur de corps 80, avec l’élément correspondant de la posture antérieure associée, et pour en déduire certains paramètres comme une direction de déplacement, une vitesse de déplacement, un pivotement et/ou une variation de longueur de membre ou de vecteur.For this purpose, the tracking module 102 is configured to compare at least part of the elements of the posture 28, for example certain postural points 30 and/or the body vector 80, with the corresponding element of the associated anterior posture, and to deduce certain parameters such as a direction of movement, a speed of movement, a pivot and/or a variation in length of member or vector.

En particulier, le module de suivi 102 est configuré pour comparer le vecteur de corps 80 de la posture 28 avec le vecteur de corps de la posture antérieure associée, et pour en déduire une variation de longueur du vecteur de corps 80. Ladite variation de longueur est égale à la différence entre la longueur du vecteur de corps 80 de la posture 28 et la longueur du vecteur de corps de la posture antérieure associée.In particular, the tracking module 102 is configured to compare the body vector 80 of the posture 28 with the body vector of the associated anterior posture, and to deduce therefrom a variation in length of the body vector 80. Said variation in length is equal to the difference between the length of the body vector 80 of the posture 28 and the length of the body vector of the associated anterior posture.

Le module de suivi 102 est également configuré pour déduire de cette variation de longueur une valeur de raccourcissement du vecteur de corps 80. Cette valeur de raccourcissement vaut zéro lorsque la variation de longueur du vecteur de corps 80 est positive, et égale à la valeur absolue de la variation de longueur du vecteur de corps 80 lorsque ladite variation de longueur du vecteur de corps 80 est négative.The tracking module 102 is also configured to deduce from this variation in length a shortening value of the body vector 80. This shortening value is worth zero when the variation in length of the body vector 80 is positive, and equal to the absolute value. of the variation in length of the body vector 80 when said variation in length of the body vector 80 is negative.

Le module de suivi 102 est encore configuré pour comparer le point de tête de la posture 28 avec le point de tête de la posture antérieure associée, et en déduire un sens de déplacement du point de tête selon une direction verticale et une distance de déplacement du point de tête. Le sens de déplacement du point de tête selon la direction verticale est fonction du signe de la différence entre l’ordonnée du point de tête dans l’image analysée 18 et l’ordonnée du point de tête dans l’image précédente : si ce signe est positif, alors le point de tête se déplace vers le sol (dans l’hypothèse la plus courante d’un repère d’image dont l’origine est dans le coin supérieur gauche) et si ce signe est négatif alors le point de tête se déplace vers le haut. La distance de déplacement du point du tête, quant à elle, est égale à la distance euclidienne entre la position du point de tête dans l’image analysée 18 et la position du point de tête dans l’image précédente.The tracking module 102 is further configured to compare the head point of the posture 28 with the head point of the associated anterior posture, and to deduce a direction of movement of the head point in a vertical direction and a distance of movement of the head point. The direction of movement of the head point in the vertical direction is a function of the sign of the difference between the ordinate of the head point in the analyzed image 18 and the ordinate of the head point in the previous image: if this sign is positive, then the head point moves towards the ground (in the most common hypothesis of an image mark whose origin is in the upper left corner) and if this sign is negative then the head point moves upwards. The distance of movement of the head point, for its part, is equal to the Euclidean distance between the position of the head point in the analyzed image 18 and the position of the head point in the previous image.

Le module de détermination de paramètres statiques 103 est configuré pour déterminer au moins un paramètre statique de la posture 28 dans l’image analysée 18.The static parameter determination module 103 is configured to determine at least one static parameter of the posture 28 in the analyzed image 18.

Typiquement, le module de détermination 103 est configuré pour mesurer l’angle formé entre le vecteur de corps 80 et la donnée 27 représentative de l’orientation de la surface de sol 26 dans l’image 18, cet angle constituant une donnée représentative de l’angle entre le corps de la personne 29 et la surface de sol 26.Typically, the determination module 103 is configured to measure the angle formed between the body vector 80 and the data 27 representative of the orientation of the ground surface 26 in the image 18, this angle constituting a data representative of the angle between the body of the person 29 and the ground surface 26.

Lorsque la caméra 12 est une caméra tridimensionnelle, le module de détermination 103 est avantageusement également configuré pour mesurer les composantes horizontale et verticale du vecteur de corps 80, la composante verticale étant mesurée selon la hauteur de l’image 18 et la composante horizontale étant mesurée dans le plan défini par les directions de largeur et de profondeur de l’image 18.When the camera 12 is a three-dimensional camera, the determination module 103 is advantageously also configured to measure the horizontal and vertical components of the body vector 80, the vertical component being measured according to the height of the image 18 and the horizontal component being measured in the plane defined by the width and depth directions of image 18.

Le module de comparaison 104 est configuré pour comparer la posture 28 et/ou l’évolution de la posture 28 avec au moins un critère de comparaison. En particulier, le module de comparaison 104 est configuré pour vérifier, pour le ou chaque critère de comparaison, si ledit critère de comparaison est satisfait par un paramètre de la posture 28 ou de l’évolution de la posture 28 correspondant.The comparison module 104 is configured to compare the posture 28 and/or the evolution of the posture 28 with at least one comparison criterion. In particular, the comparison module 104 is configured to check, for the or each comparison criterion, whether said comparison criterion is satisfied by a parameter of the posture 28 or of the evolution of the corresponding posture 28.

Ici, le module de comparaison 104 est configuré pour comparer la posture 28 et l’évolution de la posture 28 avec plusieurs critères de comparaison. Ces critères de comparaison comprennent :

  • un critère de distance de déplacement de tête imposant que le point de tête se déplace d’une distance supérieure à un seuil de distance,
  • un critère de direction de déplacement de tête imposant que le point de tête se déplace vers le sol durant un nombre d’images successives s’étalant sur une durée supérieure à un seuil de durée prédéterminé,
  • un critère de longueur de corps imposant que le raccourcissement du vecteur de corps 80 soit supérieur à un seuil de raccourcissement, et
  • un critère d’angle de corps imposant que le vecteur de corps 80 forme avec la surface de sol un angle qui soit hors d’un intervalle de confiance prédéterminé.
Here, the comparison module 104 is configured to compare the posture 28 and the evolution of the posture 28 with several comparison criteria. These comparison criteria include:
  • a head movement distance criterion requiring that the head point moves a distance greater than a distance threshold,
  • a head movement direction criterion requiring that the head point moves towards the ground during a number of successive images spread over a duration greater than a predetermined duration threshold,
  • a body length criterion requiring that the shortening of the body vector 80 be greater than a shortening threshold, and
  • a body angle criterion requiring that the body vector 80 forms an angle with the ground surface which is outside a predetermined confidence interval.

L’intervalle de confiance prédéterminé s’étend par exemple de 45° à 135°.The predetermined confidence interval extends for example from 45° to 135°.

Le seuil de durée est par exemple compris entre 0,1 et 0,5 seconde, avantageusement compris entre 0,10 et 0,20 seconde, très avantageusement compris entre 0,14 et 0,16 seconde.The duration threshold is for example between 0.1 and 0.5 seconds, advantageously between 0.10 and 0.20 seconds, very advantageously between 0.14 and 0.16 seconds.

Le seuil de distance est avantageusement égal à une moyenne de valeurs antérieures de distance de déplacement de tête calculées pour des postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans des images antérieures comprises dans une première fenêtre temporelle de moyennage, ces valeurs antérieures étant pondérées par le double de leur écart-type. En d’autres termes, la valeur du seuil de distance est donnée par l’équation suivante :The distance threshold is advantageously equal to an average of previous head movement distance values calculated for previous postures having the same tracking number as posture 28 and present in previous images included in a first averaging time window, these previous values being weighted by twice their standard deviation. In other words, the value of the distance threshold is given by the following equation:

où Sdest le seuil de distance, n est le nombre d’images antérieures comprises dans la première fenêtre temporelle de moyennage, d1, …, dnsont les valeurs antérieures de distance de déplacement de tête calculées pour les postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans lesdites images antérieures comprises dans ladite première fenêtre temporelle de moyennage, et σ(d1), …, σ(dn) sont les écarts-types desdites valeurs antérieures de distance de déplacement de tête.where S d is the distance threshold, n is the number of previous images included in the first averaging time window, d 1 , …, d n are the previous head movement distance values calculated for the previous postures having the same tracking number as the posture 28 and present in said previous images included in said first averaging time window, and σ(d 1 ), …, σ(d n ) are the standard deviations of said previous values of displacement distance of head.

Le seuil de raccourcissement est avantageusement égal à une moyenne de valeurs antérieures de raccourcissement du corps calculées pour des postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans des images antérieures comprises dans une deuxième fenêtre temporelle de moyennage, ces valeurs antérieures étant pondérées par le double de leur écart-type. En d’autres termes, la valeur du seuil de raccourcissement est donnée par l’équation suivante :The shortening threshold is advantageously equal to an average of previous body shortening values calculated for previous postures having the same tracking number as posture 28 and present in previous images included in a second averaging time window, these previous values being weighted by twice their standard deviation. In other words, the value of the shortening threshold is given by the following equation:

où Srest le seuil de raccourcissement, n est le nombre d’images antérieures comprises dans la deuxième fenêtre temporelle de moyennage, r1, …, rnsont les valeurs antérieures de raccourcissement du corps calculées pour les postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans lesdites images antérieures comprises dans ladite deuxième fenêtre temporelle de moyennage, et σ(r1), …, σ(rn) sont les écarts-types desdites valeurs antérieures de raccourcissement du corps.where S r is the shortening threshold, n is the number of previous images included in the second averaging time window, r 1 , …, r n are the previous body shortening values calculated for the previous postures having the same number tracking than the posture 28 and present in said previous images included in said second averaging time window, and σ(r 1 ), …, σ(r n ) are the standard deviations of said previous body shortening values.

Les première et deuxième fenêtres temporelles de moyennage sont en particulier des fenêtres temporelles glissantes, c’est-à-dire qu’elles ont chacune une durée prédéterminée et s’achèvent à l’instant de prise de vue de l’image analysée 18. Ces fenêtres temporelles sont typiquement confondues. Chacune a de préférence une durée comprise entre 1 seconde et 5 secondes, par exemple comprise entre 2,5 et 3,5 secondes, avantageusement sensiblement égale à 3 secondes.The first and second averaging time windows are in particular sliding time windows, that is to say they each have a predetermined duration and end at the instant the analyzed image 18 is taken. These time windows are typically confused. Each preferably has a duration of between 1 second and 5 seconds, for example between 2.5 and 3.5 seconds, advantageously substantially equal to 3 seconds.

Lorsque la caméra 12 est une caméra tridimensionnelle, le module de comparaison 104 est avantageusement configuré pour comparer la posture 28 avec un critère supplémentaire d’alignement du corps dans le champ de profondeur de l’image, ce critère imposant que la composante horizontale du vecteur de corps 80 soit supérieure à sa composante verticale.When the camera 12 is a three-dimensional camera, the comparison module 104 is advantageously configured to compare the posture 28 with an additional criterion of alignment of the body in the depth field of the image, this criterion imposing that the horizontal component of the vector of body 80 is greater than its vertical component.

Le module de comptage 106 est configuré pour incrémenter, pour chaque critère de comparaison auquel il est satisfait, un compteur individuel propre à la posture 28 de l’image analysée 18. Ce compteur individuel est ainsi compris entre une valeur minimale, égale à zéro, et une valeur maximale inférieure ou égale au nombre de critères de comparaison. Avantageusement, la valeur maximale du compteur individuel est égale au nombre de critères de comparaison.The counting module 106 is configured to increment, for each comparison criterion which it is satisfied, an individual counter specific to the posture 28 of the analyzed image 18. This individual counter is thus included between a minimum value, equal to zero, and a maximum value less than or equal to the number of comparison criteria. Advantageously, the maximum value of the individual counter is equal to the number of comparison criteria.

Le module de comptage 106 est également configuré pour calculer, pour chaque posture 28 identifiée dans l’image analysée 18, un compteur aggloméré égal à la somme des compteurs individuels de plusieurs postures ayant le même numéro de suivi que la posture 28 présentes dans des images analysées successives. Ces images analysées successives sont constituées par toutes les images analysées comprises dans une fenêtre temporelle de comptage, y compris l’image analysée 18. La fenêtre temporelle de comptage est en particulier une fenêtre temporelle glissante, c’est-à-dire qu’elle a une durée prédéterminée et s’achève à l’instant de prise de vue de l’image analysée 18. La fenêtre temporelle de comptage a de préférence une durée comprise entre 0,5 et 10 secondes, par exemple comprise entre 1 et 5 secondes, avantageusement sensiblement égale à 3 secondes.The counting module 106 is also configured to calculate, for each posture 28 identified in the analyzed image 18, an agglomerated counter equal to the sum of the individual counters of several postures having the same tracking number as the posture 28 present in images successively analyzed. These successive analyzed images consist of all the analyzed images included in a counting time window, including the analyzed image 18. The counting time window is in particular a sliding time window, that is to say it has a predetermined duration and ends at the instant the analyzed image 18 is taken. The counting time window preferably has a duration of between 0.5 and 10 seconds, for example between 1 and 5 seconds , advantageously substantially equal to 3 seconds.

Le compteur aggloméré est ainsi compris entre une valeur minimale, égale à zéro, et une valeur maximale égale au produit de la valeur maximale du compteur individuel par le nombre d’images analysées successives. La valeur maximale du compteur aggloméré est donc avantageusement égale au produit du nombre de critères par le nombre d’images analysées successives.The agglomerated counter is thus between a minimum value, equal to zero, and a maximum value equal to the product of the maximum value of the individual counter by the number of successive images analyzed. The maximum value of the agglomerated counter is therefore advantageously equal to the product of the number of criteria by the number of successive images analyzed.

Le module de comptage 106 est configuré pour répéter le calcul du compteur aggloméré pour chaque posture 28 de chaque image analysée 18, les images analysées successives étant constituées de l’image analysée 18 et de toutes les autres images analysées comprises dans la fenêtre temporelle de comptage antérieures à ladite image analysée 18.The counting module 106 is configured to repeat the calculation of the agglomerated counter for each posture 28 of each analyzed image 18, the successive analyzed images being made up of the analyzed image 18 and all the other analyzed images included in the counting time window. prior to said analyzed image 18.

Le module de détection 108 est configuré pour détecter une chute lorsqu’un compteur aggloméré excède un seuil d’alerte prédéterminé. Ce seuil d’alerte prédéterminé est une fraction de la valeur maximale du compteur aggloméré. Ainsi, il est fonction du nombre d’images analysées successives. De plus, il est avantageusement fonction du nombre de critères.The detection module 108 is configured to detect a fall when an agglomerated counter exceeds a predetermined alert threshold. This predetermined alert threshold is a fraction of the maximum value of the agglomerated counter. Thus, it depends on the number of successive images analyzed. In addition, it advantageously depends on the number of criteria.

En particulier, le seuil d’alerte prédéterminé est de préférence compris entre 40% et 70%, par exemple entre 50% et 60%, avantageusement entre 53% et 57%, de la valeur maximale du compteur aggloméré.In particular, the predetermined alert threshold is preferably between 40% and 70%, for example between 50% and 60%, advantageously between 53% and 57%, of the maximum value of the agglomerated meter.

Dans l’exemple représenté, le système de détection 10 est adapté pour alerter une personne en cas de détection de chute. A cet effet, le module d’exploitation 20 comprend également un module d’alerte 110, et le système de détection 10 comprend un système d’alerte 120.In the example shown, the detection system 10 is adapted to alert a person in the event of a fall being detected. For this purpose, the operating module 20 also includes an alert module 110, and the detection system 10 includes an alert system 120.

Le système d’alerte 120 est propre à alerter une personne lorsqu’il est activé. A cet effet, le système d’alerte 120 est par exemple propre à produire une alerte sonore ou visuelle.The alert system 120 is capable of alerting a person when it is activated. For this purpose, the alert system 120 is for example capable of producing an audible or visual alert.

Le module d’alerte 110 est quant à lui propre à activer le système d’alerte 120 lorsqu’une chute est détectée par le module de détection 108.The alert module 110 is for its part capable of activating the alert system 120 when a fall is detected by the detection module 108.

Un procédé 200 mis en œuvre par le système de détection 10 va maintenant être décrit en référence à la .A method 200 implemented by the detection system 10 will now be described with reference to the .

Ce procédé 200 comprend une première étape 202 de capture d’un flux vidéo, lors de laquelle la caméra 12 capture le flux vidéo 16 de la scène.This method 200 includes a first step 202 of capturing a video stream, during which the camera 12 captures the video stream 16 of the scene.

A cette première étape 202 succède une étape 204 de sélection d’une image du flux, lors de laquelle une image 18 du flux 16 est sélectionnée par le module 19 pour analyse. Cette image 18 sélectionnée est par exemple constituée par la première image du flux 16 séparée de la dernière image analysée d’un intervalle prédéterminé, cet intervalle pouvant être nul.This first step 202 is followed by a step 204 of selecting an image of the flow, during which an image 18 of the flow 16 is selected by the module 19 for analysis. This selected image 18 is for example constituted by the first image of the stream 16 separated from the last image analyzed by a predetermined interval, this interval possibly being zero.

Ensuite, l’image 18 est analysée par le module d’analyse 19 lors d’une étape d’analyse 210.Then, the image 18 is analyzed by the analysis module 19 during an analysis step 210.

En référence à la , cette étape d’analyse 210 comprend une première sous-étape 212 de zonage de l’image, au cours de laquelle le module de zonage 21 reconnaît la ou les zone(s) 24, 25 de l’image analysée 18.In reference to the , this analysis step 210 comprises a first sub-step 212 of zoning the image, during which the zoning module 21 recognizes the zone(s) 24, 25 of the analyzed image 18.

La sous-étape 212 est suivie d’une sous-étape 214 de repérage de la surface de sol, lors de laquelle le module de repérage de sol 22 produit la donnée 27 représentative de l’orientation de cette surface de sol 26 dans l’image 18.Sub-step 212 is followed by a sub-step 214 for locating the ground surface, during which the ground locating module 22 produces the data 27 representative of the orientation of this ground surface 26 in the picture 18.

A la sous-étape 214 succède une sous-étape 216 d’identification d’une posture de personne, lors de laquelle le module d’identification 23 identifie une posture de personne dans l’image 18.Sub-step 214 is followed by a sub-step 216 of identifying a person's posture, during which the identification module 23 identifies a person's posture in image 18.

Cette sous-étape d’identification 216 comprend elle-même plusieurs sous-étapes 216A, 216B, 216C, 216D, 216E.This identification sub-step 216 itself includes several sub-steps 216A, 216B, 216C, 216D, 216E.

La première sous-étape 216A est une étape de détection de points posturaux. Lors de cette première sous-étape 216A, le module de détection de points posturaux 90 détecte des points posturaux 30 dans l’image 18 et les associe à une même posture 28.The first substep 216A is a postural point detection step. During this first sub-step 216A, the postural point detection module 90 detects postural points 30 in the image 18 and associates them with the same posture 28.

La deuxième sous-étape 216B est une étape de prédiction de points posturaux. Lors de cette deuxième sous-étape 216B, le module de prédiction de points posturaux 92 détermine si au moins une partie des points posturaux 30 de la posture 28 n’a pas été détectée. Le cas échéant, il prédit, pour le ou chaque point postural 30 non détecté, un point postural 30 prédit correspondant.The second sub-step 216B is a postural point prediction step. During this second sub-step 216B, the postural point prediction module 92 determines if at least part of the postural points 30 of the posture 28 has not been detected. If necessary, it predicts, for the or each undetected postural point 30, a corresponding predicted postural point 30.

La troisième sous-étape 216C est une étape de validation de la posture 28. Lors de cette troisième sous-étape 216C, le module de post-traitement 94 valide la posture 28 en s’assurant que la note de fiabilité de ladite posture 28 est supérieure au seuil de validation. Si cette condition n’est pas respectée, il écarte la posture 28.The third sub-step 216C is a validation step of the posture 28. During this third sub-step 216C, the post-processing module 94 validates the posture 28 by ensuring that the reliability rating of said posture 28 is greater than the validation threshold. If this condition is not respected, he rejects posture 28.

La quatrième sous-étape 216D est une étape de filtrage de points posturaux. Lors de cette quatrième sous-étape 216D, le module de post-traitement 94 écarte tout point postural 30 de la posture 28 dont l’indice de confiance est inférieur au seuil de confiance.The fourth sub-step 216D is a postural point filtering step. During this fourth sub-step 216D, the post-processing module 94 excludes any postural point 30 from the posture 28 whose confidence index is lower than the confidence threshold.

La cinquième sous-étape 216E est une étape de détermination du vecteur de corps. Lors de cette cinquième sous-étape 216E, le module de post-traitement 94 détermine le vecteur de corps 80 de la posture 28 à partir des points posturaux 30 détectés et, le cas échéant, prédits.The fifth substep 216E is a step of determining the body vector. During this fifth sub-step 216E, the post-processing module 94 determines the body vector 80 of the posture 28 from the postural points 30 detected and, where appropriate, predicted.

L’étape 216 est répétée pour chaque personne 29 évoluant dans la scène.Step 216 is repeated for each person 29 moving in the scene.

De retour à la , le procédé 200 comprend encore une étape 220 de localisation de la posture dans l’image. Lors de cette étape 220, le module de localisation 100 localise, pour chaque posture 28 présente dans l’image 18, la zone 24, 25 de l’image 18 dans laquelle ladite posture 28 est localisée. Il arrête l’analyse de la posture 28 si la posture 28 est localisée dans une zone d’exclusion de la détection de chute 25 et enclenche la poursuite de l’analyse de la posture 28 si la posture 28 est localisée dans une zone de vigilance 24.Back to the , the method 200 also includes a step 220 of locating the posture in the image. During this step 220, the location module 100 locates, for each posture 28 present in the image 18, the zone 24, 25 of the image 18 in which said posture 28 is located. It stops the analysis of the posture 28 if the posture 28 is located in a fall detection exclusion zone 25 and starts the continuation of the analysis of the posture 28 if the posture 28 is located in a vigilance zone 24.

Si l’analyse de posture est arrêtée pour chaque posture 28 présente dans l’image 18, le procédé 200 revient à l’étape 204. Sinon, le procédé 200 poursuit avec une étape 222 pour la ou chaque posture 28 présente dans l’image 18 dont l’analyse est poursuivie.If the posture analysis is stopped for each posture 28 present in the image 18, the method 200 returns to step 204. Otherwise, the method 200 continues with a step 222 for the or each posture 28 present in the image 18 whose analysis is continued.

L’étape 222 est une étape de suivi de la posture 28 dans le temps.Step 222 is a step for monitoring posture 28 over time.

En référence à la , l’étape de suivi 222 comprend une première sous-étape 222A de calcul d’un score de similarité normal, lors de laquelle le module de suivi 102 calcule un score de similarité normal avec chaque posture antérieure de l’image analysée précédente, c’est-à-dire de l’image analysée immédiatement antérieure à l’image analysée 18.In reference to the , the tracking step 222 comprises a first sub-step 222A of calculating a normal similarity score, during which the tracking module 102 calculates a normal similarity score with each previous posture of the previous analyzed image, c that is to say of the analyzed image immediately preceding the analyzed image 18.

L’étape de suivi 222 comprend également une deuxième sous-étape 222B de calcul d’un score de similarité inversé, lors de laquelle le module de suivi 102 calcule un score de similarité inversé avec chaque posture antérieure de l’image analysée précédente.The tracking step 222 also includes a second sub-step 222B of calculating an inverted similarity score, during which the tracking module 102 calculates an inverted similarity score with each previous posture of the previous analyzed image.

Les première et deuxième sous-étapes 222A, 222B sont mises en œuvre successivement ou, comme représenté, parallèlement l’une à l’autre.The first and second sub-steps 222A, 222B are implemented successively or, as shown, parallel to each other.

L’étape de suivi 222 comprend encore une troisième sous-étape 222C d’association de la posture avec une posture antérieure, lors de laquelle le module de suivi 102 associe la posture 28 à une posture antérieure de l’image analysée précédente en fonction des scores de similarité normaux et inversés. Cette posture antérieure à laquelle la posture 28 est associée est en particulier constituée par celle des postures antérieures de l’image analysée précédente avec laquelle la posture 28 présente le plus faible de tous les scores de similarité normaux et inversés calculés pour cette posture 28.The tracking step 222 also includes a third sub-step 222C of associating the posture with a previous posture, during which the tracking module 102 associates the posture 28 with a previous posture of the previous analyzed image according to the normal and inverted similarity scores. This anterior posture with which posture 28 is associated is in particular constituted by that of the anterior postures of the previous analyzed image with which posture 28 presents the lowest of all the normal and inverted similarity scores calculated for this posture 28.

L’étape de suivi 222 comprend enfin une quatrième sous-étape 222D d’attribution d’un numéro de suivi à la posture 28. Lors de cette sous-étape 222D, le module de suivi 102 attribue à la posture 28 un numéro de suivi :

  • égal à un numéro de suivi antérieurement attribué à la posture antérieure à laquelle elle est associée, dans le cas où la posture 28 est associée à une telle posture antérieure,
  • différent du ou de chacun des numéro(s) de suivi antérieurement attribué(s) à la ou aux posture(s) antérieure(s) dans le cas où la posture 28 n’est associée à aucune posture antérieure, par exemple lorsque le nombre de postures 28 dans l’image analysée 18 est supérieur au nombre de postures antérieures dans l’image précédente.
The tracking step 222 finally includes a fourth sub-step 222D of assigning a tracking number to the posture 28. During this sub-step 222D, the tracking module 102 assigns a tracking number to the posture 28 :
  • equal to a tracking number previously assigned to the prior posture with which it is associated, in the case where posture 28 is associated with such a prior posture,
  • different from or from each of the tracking number(s) previously assigned to the prior posture(s) in the case where the posture 28 is not associated with any prior posture, for example when the number of postures 28 in the analyzed image 18 is greater than the number of previous postures in the previous image.

De retour à la , le procédé 200 comprend encore une étape 230 de détermination d’une évolution de la posture au cours de laquelle le module de suivi 102 détermine une évolution de la posture 28 par comparaison de ladite posture 28 avec la posture antérieure associée.Back to the , the method 200 further comprises a step 230 of determining an evolution of the posture during which the tracking module 102 determines an evolution of the posture 28 by comparison of said posture 28 with the associated previous posture.

Cette étape 230 comprend une première sous-étape 232 de calcul d’une distance de déplacement du point de tête. Lors de cette sous-étape 232, le module de suivi 102 compare le point de tête de la posture 28 avec le point de tête de la posture antérieure associée et en déduit une distance de déplacement du point de tête égale à la distance euclidienne entre la position du point de tête dans l’image analysée 18 et la position du point de tête dans l’image précédente.This step 230 includes a first sub-step 232 of calculating a distance of movement of the head point. During this sub-step 232, the tracking module 102 compares the head point of the posture 28 with the head point of the associated anterior posture and deduces a displacement distance of the head point equal to the Euclidean distance between the position of the head point in the analyzed image 18 and the position of the head point in the previous image.

L’étape 230 comprend également une deuxième sous-étape 234 de calcul d’une direction de déplacement du point de tête. Lors de cette sous-étape 234, le module de suivi 102 compare le point de tête de la posture 28 avec le point de tête de la posture antérieure associée et en déduit un sens de déplacement du point de tête selon la direction verticale, fonction du signe de la différence entre l’ordonnée du point de tête dans l’image analysée 18 et l’ordonnée du point de tête dans l’image précédente.Step 230 also includes a second sub-step 234 for calculating a direction of movement of the head point. During this sub-step 234, the tracking module 102 compares the head point of the posture 28 with the head point of the associated anterior posture and deduces a direction of movement of the head point in the vertical direction, depending on the sign of the difference between the ordinate of the head point in the analyzed image 18 and the ordinate of the head point in the previous image.

L’étape 230 comprend encore une troisième sous-étape 236 de calcul d’une valeur de raccourcissement du vecteur de corps. Lors de cette sous-étape 236, le module de suivi 102 compare le vecteur de corps 80 de la posture 28 avec le vecteur de corps de la posture antérieure associée, et en déduit une variation de longueur du vecteur de corps 80 égale à la différence entre la longueur du vecteur de corps 80 de la posture 28 et la longueur du vecteur de corps de la posture antérieure associée. Le module de suivi 102 déduit également de cette variation de longueur une valeur de raccourcissement du vecteur de corps 80, laquelle vaut zéro lorsque la variation de longueur du vecteur de corps 80 est positive, et est égale à la valeur absolue de la variation de longueur du vecteur de corps 80 lorsque ladite variation de longueur du vecteur de corps 80 est négative.Step 230 also includes a third sub-step 236 for calculating a shortening value of the body vector. During this sub-step 236, the tracking module 102 compares the body vector 80 of the posture 28 with the body vector of the associated anterior posture, and deduces a variation in length of the body vector 80 equal to the difference between the length of the body vector 80 of the posture 28 and the length of the body vector of the associated anterior posture. The tracking module 102 also deduces from this variation in length a shortening value of the body vector 80, which is worth zero when the variation in length of the body vector 80 is positive, and is equal to the absolute value of the variation in length. of the body vector 80 when said variation in length of the body vector 80 is negative.

Les sous-étapes 232, 234, 236 sont mises en œuvre successivement ou, comme représenté, parallèlement les unes aux autres.Substeps 232, 234, 236 are implemented successively or, as shown, parallel to each other.

Le procédé 200 comprend encore une étape 240 de détermination de paramètres statiques de la posture, lors de laquelle le module de détermination de paramètres statiques 103 détermine au moins un paramètre statique de la posture 28 dans l’image analysée 18.The method 200 further comprises a step 240 of determining static parameters of the posture, during which the module for determining static parameters 103 determines at least one static parameter of the posture 28 in the analyzed image 18.

Cette étape de détermination 240 comprend notamment une sous-étape 242 de calcul de l’angle que le vecteur de corps forme avec le sol. Lors de cette sous-étape 242, le module de détermination 103 mesure l’angle formé entre le vecteur de corps 80 et la donnée 27 représentative de l’orientation de la surface de sol 26 dans l’image 18, cet angle constituant l’angle entre le vecteur de corps 80 et le sol.This determination step 240 notably includes a sub-step 242 for calculating the angle that the body vector forms with the ground. During this sub-step 242, the determination module 103 measures the angle formed between the body vector 80 and the datum 27 representing the orientation of the ground surface 26 in the image 18, this angle constituting the angle between body vector 80 and the ground.

Optionnellement, lorsque la caméra 12 est une caméra tridimensionnelle, l’étape de détermination 240 comprend également une autre sous-étape (non représentée) de mesure des composantes horizontale et verticale du vecteur de corps 80, la composante verticale étant mesurée selon la hauteur de l’image 18 et la composante horizontale étant mesurée dans le plan défini par les directions de largeur et de profondeur de l’image 18.Optionally, when the camera 12 is a three-dimensional camera, the determination step 240 also includes another sub-step (not shown) of measuring the horizontal and vertical components of the body vector 80, the vertical component being measured according to the height of the image 18 and the horizontal component being measured in the plane defined by the width and depth directions of the image 18.

Les étapes 230 et 240 sont mises en œuvre successivement ou, comme représenté, parallèlement l’une à l’autre.Steps 230 and 240 are implemented successively or, as shown, parallel to each other.

Les étapes 230 et 240 sont suivies par une étape 250 de comparaison de la posture 28 et/ou de l’évolution de la posture 28 avec au moins un critère de comparaison, lors de laquelle le module de comparaison 104 vérifie, pour le ou chaque critère de comparaison, si ledit critère de comparaison est satisfait par un paramètre de la posture 28 ou de l’évolution de la posture 28 correspondant.Steps 230 and 240 are followed by a step 250 of comparing the posture 28 and/or the evolution of the posture 28 with at least one comparison criterion, during which the comparison module 104 checks, for the or each comparison criterion, if said comparison criterion is satisfied by a corresponding parameter of the posture 28 or of the evolution of the posture 28.

Cette étape 250 comprend :

  • une première sous-étape 252 de comparaison de la distance de déplacement du point de tête mesurée lors de la sous-étape 232 avec le critère de distance de déplacement de tête imposant que le point de tête se déplace d’une distance supérieure au seuil de distance,
  • une deuxième sous-étape 254 de comparaison de la direction de déplacement du point de tête calculée lors de la sous-étape 234 avec le critère de direction de déplacement de tête imposant que le point de tête se déplace vers le sol durant un nombre d’images successives s’étalant sur une durée supérieure au seuil de durée prédéterminé,
  • une troisième sous-étape 256 de comparaison de la valeur de raccourcissement du vecteur de corps calculée lors de la sous-étape 236 avec le critère de longueur de corps imposant que le raccourcissement du vecteur de corps 80 soit supérieur au seuil de raccourcissement, et
  • une quatrième sous-étape 258 de comparaison de l’angle calculé lors de la sous-étape 242 avec le critère d’angle de corps imposant que le vecteur de corps 80 forme avec la surface de sol un angle qui soit hors de l’intervalle de confiance prédéterminé.
This step 250 includes:
  • a first sub-step 252 of comparing the movement distance of the head point measured during sub-step 232 with the head movement distance criterion requiring that the head point moves a distance greater than the threshold of distance,
  • a second sub-step 254 of comparing the direction of movement of the head point calculated during sub-step 234 with the head movement direction criterion requiring that the head point moves towards the ground during a number of successive images extending over a duration greater than the predetermined duration threshold,
  • a third sub-step 256 of comparing the shortening value of the body vector calculated during sub-step 236 with the body length criterion requiring that the shortening of the body vector 80 be greater than the shortening threshold, and
  • a fourth sub-step 258 of comparing the angle calculated during sub-step 242 with the body angle criterion requiring that the body vector 80 forms an angle with the ground surface which is outside the interval of predetermined confidence.

Optionnellement, lorsque la caméra 12 est une caméra tridimensionnelle, l’étape de comparaison 250 comprend également une autre sous-étape (non représentée) de comparaison des composantes horizontale et verticale du vecteur de corps 80 déterminées précédemment avec le critère d’alignement du corps dans le champ de profondeur de l’image imposant que la composante horizontale du vecteur de corps 80 soit supérieure à sa composante verticale.Optionally, when the camera 12 is a three-dimensional camera, the comparison step 250 also includes another sub-step (not shown) of comparing the horizontal and vertical components of the body vector 80 previously determined with the body alignment criterion. in the depth field of the image requiring that the horizontal component of the body vector 80 be greater than its vertical component.

Les sous-étapes 252, 254, 256 et 258 sont mises en œuvre successivement ou, comme représenté, parallèlement les unes aux autres.Substeps 252, 254, 256 and 258 are implemented successively or, as shown, parallel to each other.

L’étape de comparaison 250 est suivie d’une étape 260 d’incrémentation du compteur individuel propre à la posture 28 de l’image analysée 18. Lors de cette étape 260, le module de comptage 106 incrémente ledit compteur individuel pour chaque critère de comparaison auquel il est satisfait.The comparison step 250 is followed by a step 260 of incrementing the individual counter specific to the posture 28 of the analyzed image 18. During this step 260, the counting module 106 increments said individual counter for each criterion of comparison with which he is satisfied.

A l’étape 260 succède une étape 270 de calcul du compteur aggloméré. Lors de cette étape 270, le module de comptage 106 somme les compteurs individuels de toutes les postures ayant le même numéro de suivi que la posture 28 présentes dans chacune des images analysées comprises dans la fenêtre temporelle de comptage, y compris l’image analysée 18.Step 260 is followed by a step 270 of calculating the agglomerate meter. During this step 270, the counting module 106 sums the individual counters of all the postures having the same tracking number as the posture 28 present in each of the analyzed images included in the counting time window, including the analyzed image 18 .

Les étapes 222, 230, 240, 250, 260 et 270 sont répétées pour chaque posture 28 présente dans l’image analysée 18.Steps 222, 230, 240, 250, 260 and 270 are repeated for each posture 28 present in the analyzed image 18.

Le procédé 200 comprend encore une étape de détection de chute 280 faisant suite à l’étape 270, lors de laquelle le module de détection 108 détecte une chute lorsque l’un des compteurs agglomérés calculés à l’étape 270 excède le seuil d’alerte.The method 200 also includes a fall detection step 280 following step 270, during which the detection module 108 detects a fall when one of the agglomerated counters calculated in step 270 exceeds the alert threshold .

Cette étape 280 comprend une première sous-étape 282 lors de laquelle le module de détection 108 compare chaque compteur aggloméré calculé à l’étape 270 au seuil d’alerte.This step 280 includes a first sub-step 282 during which the detection module 108 compares each agglomerated counter calculated in step 270 to the alert threshold.

En l’absence de compteur aggloméré supérieur au seuil d’alerte, la première sous-étape 282 est suivie d’une deuxième sous-étape 284 de non-détection de chute. Lors de cette deuxième sous-étape 284, le module de détection 108 conclut à l’absence de chute et le procédé 200 revient à l’étape 204.In the absence of an agglomerated counter greater than the alert threshold, the first sub-step 282 is followed by a second sub-step 284 of non-fall detection. During this second sub-step 284, the detection module 108 concludes that there is no fall and the method 200 returns to step 204.

En cas de compteur aggloméré supérieur au seuil d’alerte, la première sous-étape 282 est suivie d’une troisième sous-étape 286 de détection de chute. Lors de cette troisième sous-étape 286, le module de détection 108 conclut à la présence de chute et enclenche une nouvelle étape 290 du procédé 200.In the case of an agglomerated counter greater than the alert threshold, the first sub-step 282 is followed by a third sub-step 286 of fall detection. During this third sub-step 286, the detection module 108 concludes that there is a fall and initiates a new step 290 of the method 200.

L’étape 290 est une étape d’émission d’un alerte. Lors de cette étape 290, le module d’alerte 110 active le système d’alerte 120. Ce dernier alerte alors une personne, par exemple par production d’une alerte sonore ou visuelle.Step 290 is a step of issuing an alert. During this step 290, the alert module 110 activates the alert system 120. The latter then alerts a person, for example by producing an audible or visual alert.

Le procédé 200 revient ensuite à l’étape 204.Process 200 then returns to step 204.

Grâce à l’exemple de réalisation décrit ci-dessus, la fiabilité de la détection de chute est améliorée. Le système 10 permet en effet la détection de chutes de types variés, aussi bien lentes que rapides, grâce à une sensibilité tant à des critères statiques que dynamiques.Thanks to the embodiment described above, the reliability of fall detection is improved. System 10 in fact allows the detection of falls of various types, both slow and rapid, thanks to sensitivity to both static and dynamic criteria.

De plus, l’architecture du système 10 le rend suffisamment peu gourmand en ressources pour traiter le flux vidéo capturé en temps réel et permettre ainsi une détection de chute en temps réel.In addition, the architecture of System 10 makes it sufficiently resource-efficient to process the captured video stream in real time and thus enable real-time fall detection.

On notera que, dans cet exemple de réalisation, le module d’analyse d’images 19 et le module d’exploitation 20 sont réalisés sous la forme d'un programme d’ordinateur stocké dans une mémoire 300 du système de traitement 14 et apte à être exécuté par un processeur 302 associé à la mémoire 300. Ce programme d’ordinateur comprend des instructions logicielles adaptées pour que, lorsqu’il est exécuté par le processeur 302, le système de détection 10 mette en œuvre le procédé de détection de chute 200.It will be noted that, in this exemplary embodiment, the image analysis module 19 and the operating module 20 are produced in the form of a computer program stored in a memory 300 of the processing system 14 and capable to be executed by a processor 302 associated with the memory 300. This computer program includes software instructions adapted so that, when executed by the processor 302, the detection system 10 implements the fall detection method 200.

Par exemple, le module de détection de points posturaux 90 est constitué par le logiciel OpenPose décrit dans l’article « OpenPose: realtime multi-person 2D pose estimation using part affinity fields » par Z. Cao, G. Hidalgo, T. Simon, S. -E. Wei et Y. Sheikh,IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 43, n° 1, pp. 172-186, 1erJan. 2021.For example, the postural point detection module 90 is constituted by the OpenPose software described in the article “OpenPose: realtime multi-person 2D pose estimation using part affinity fields” by Z. Cao, G. Hidalgo, T. Simon, S. -E. Wei and Y. Sheikh, IEEE Transactions on Pattern Analysis and Machine Intelligence , vol. 43, no. 1, pp. 172-186, January 1 . 2021.

En variante, le module d’analyse d’images 19 et le module d’exploitation 20 sont réalisés au moins partiellement sous la forme d'un composant logique programmable, ou encore sous la forme d'un circuit intégré dédié, inclus dans le système de traitement 14.Alternatively, the image analysis module 19 and the operating module 20 are produced at least partially in the form of a programmable logic component, or else in the form of a dedicated integrated circuit, included in the system. treatment 14.

Claims (13)

Procédé de détection de chute (200), comprenant les étapes suivantes :
  • capture (202) d’un flux vidéo (16) d’une scène dans laquelle évolue une personne (29), le flux vidéo (16) comprenant une succession d’images (18) de la scène,
  • analyse (210) d’au moins une partie des images (18) de la scène, ladite analyse (210) comprenant, pour chacune des images (18) analysées, l’identification (216) d’une posture (28) de la personne (29) dans l’image (18),
  • pour chaque image (18) analysée :
    • optionnellement, détermination (230) d’une évolution de la posture (28) par comparaison de la posture (28) de la personne (29) dans l’image (18) analysée avec une posture de la personne (29) dans une image analysée précédente,
    • comparaison (250) de la posture (28) et/ou de l’évolution de la posture avec au moins un critère de comparaison, et
    • pour chaque critère de comparaison auquel il est satisfait, incrémentation (260) d’un compteur individuel propre à l’image (18) analysée,
  • calcul (270) d’un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
  • détection (280) d’une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
Fall detection method (200), comprising the following steps:
  • capture (202) of a video stream (16) of a scene in which a person (29) is moving, the video stream (16) comprising a succession of images (18) of the scene,
  • analysis (210) of at least part of the images (18) of the scene, said analysis (210) comprising, for each of the images (18) analyzed, the identification (216) of a posture (28) of the person (29) in image (18),
  • for each image (18) analyzed:
    • optionally, determination (230) of an evolution of the posture (28) by comparison of the posture (28) of the person (29) in the image (18) analyzed with a posture of the person (29) in an image previous analysis,
    • comparison (250) of the posture (28) and/or the evolution of the posture with at least one comparison criterion, and
    • for each comparison criterion which is satisfied, increment (260) of an individual counter specific to the image (18) analyzed,
  • calculation (270) of an agglomerated counter equal to the sum of the individual counters of several successive analyzed images, and
  • detection (280) of a fall when the agglomerated counter exceeds a predetermined alert threshold.
Procédé de détection de chute (200) selon la revendication 1, dans lequel les images analysées successives sont comprises dans une fenêtre temporelle de durée prédéterminée, ladite durée prédéterminée étant avantageusement comprise entre 0,5 et 10 secondes, par exemple comprise entre 1 et 5 secondes.Fall detection method (200) according to claim 1, in which the successive analyzed images are included in a time window of predetermined duration, said predetermined duration advantageously being between 0.5 and 10 seconds, for example between 1 and 5 seconds. Procédé de détection de chute (200) selon la revendication 2, dans lequel les images analysées successives sont constituées par toutes les images analysées comprises dans la fenêtre temporelle.Fall detection method (200) according to claim 2, in which the successive analyzed images consist of all the analyzed images included in the time window. Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel le calcul (270) du compteur aggloméré est répété pour chaque image (18) analysée, les images analysées successives étant constituées de l’image (18) analysée et d’au moins une autre image analysée antérieure à ladite image (18) analysée.Fall detection method (200) according to any one of the preceding claims, in which the calculation (270) of the agglomerated counter is repeated for each image (18) analyzed, the successive analyzed images being made up of the image (18) analyzed and at least one other analyzed image prior to said analyzed image (18). Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel le seuil d’alerte est fonction du nombre d’images analysées successives et, le cas échéant, du nombre de critères.Fall detection method (200) according to any one of the preceding claims, in which the alert threshold is a function of the number of successive images analyzed and, where appropriate, of the number of criteria. Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend un point de tête représentatif de la position de la tête de la personne (29) dans l’image (18) analysée, le ou les critère(s) de comparaison comprenant au moins un critère parmi les critères suivants :
  • le point de tête se déplace d’une distance supérieure à un seuil, et
  • le point de tête se déplace dans une direction prédéterminée durant un nombre d’images successives s’étalant sur une durée supérieure à un seuil de durée prédéterminé.
Fall detection method (200) according to any one of the preceding claims, in which the posture (28) comprises a head point representative of the position of the head of the person (29) in the image (18) analyzed , the comparison criterion(s) comprising at least one criterion among the following criteria:
  • the head point moves a distance greater than a threshold, and
  • the head point moves in a predetermined direction during a number of successive images extending over a duration greater than a predetermined duration threshold.
Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend un vecteur de corps (80) représentatif de la longueur et de l’orientation du corps de la personne (29) dans l’image (18) analysée, le ou les critère(s) de comparaison comprenant le critère suivant : le vecteur de corps (80) se raccourcit d’une valeur supérieure à un seuil.Fall detection method (200) according to any one of the preceding claims, wherein the posture (28) comprises a body vector (80) representative of the length and orientation of the body of the person (29) in the image (18) analyzed, the comparison criterion(s) comprising the following criterion: the body vector (80) is shortened by a value greater than a threshold. Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend un vecteur de corps (80) représentatif de la longueur et de l’orientation du corps de la personne (29) dans l’image (18) analysée et l’analyse comprend, pour chacune des images (18) analysées, la détection (214) d’une surface de sol (26) dans l’image (18), le ou les critère(s) de comparaison comprenant le critère suivant : l’angle que forme le vecteur de corps (80) avec la surface de sol (26) est hors d’un intervalle de confiance prédéterminé.Fall detection method (200) according to any one of the preceding claims, wherein the posture (28) comprises a body vector (80) representative of the length and orientation of the body of the person (29) in the image (18) analyzed and the analysis comprises, for each of the images (18) analyzed, the detection (214) of a ground surface (26) in the image (18), the criterion(s) ) comparison comprising the following criterion: the angle formed by the body vector (80) with the ground surface (26) is outside a predetermined confidence interval. Procédé de détection de chute (200) selon la revendication 7 ou 8, dans lequel la posture (28) comprend au moins un point postural supérieur (32) représentatif de la position dans l’image (18) analysée d’un élément anatomique supérieur de la personne (29), ledit élément anatomique supérieur étant compris entre la tête et les hanches, et au moins un point postural inférieur (34) représentatif de la position dans l’image (18) analysée d’un élément anatomique inférieur de la personne (29), ledit élément anatomique inférieur étant compris entre les hanches et les pieds, le vecteur de corps (80) reliant le barycentre (82) du ou des point(s) postural (posturaux) inférieur(s) (34) au barycentre (84) du ou des point(s) postural (posturaux) supérieur(s) (32).Fall detection method (200) according to claim 7 or 8, in which the posture (28) comprises at least one upper postural point (32) representative of the position in the analyzed image (18) of a higher anatomical element of the person (29), said upper anatomical element being included between the head and the hips, and at least one lower postural point (34) representative of the position in the analyzed image (18) of a lower anatomical element of the person (29), said lower anatomical element being included between the hips and the feet, the body vector (80) connecting the barycenter (82) of the lower postural point(s) (34) to the barycenter (84) of the upper postural point(s) (32). Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend une pluralité de points posturaux (30) chacun représentatif de la position dans l’image (18) analysée d’un élément anatomique de la personne (29), l’identification (216) de la posture (28) comprenant la détection (216A) d’au moins un point postural (30) dans l’image (18) analysée et la prédiction (216B) d’au moins un autre point postural à partir d’une posture de la personne (29) dans une image analysée précédente.Fall detection method (200) according to any one of the preceding claims, in which the posture (28) comprises a plurality of postural points (30) each representative of the position in the analyzed image (18) of an element anatomical of the person (29), the identification (216) of the posture (28) comprising the detection (216A) of at least one postural point (30) in the analyzed image (18) and the prediction (216B) of at least one other postural point from a posture of the person (29) in a previous analyzed image. Produit programme d’ordinateur comprenant des instructions pour la mise en œuvre au moins des étapes de comparaison (250), incrémentation (260), calcul (270) et détection (280) d’un procédé de détection de chute (200) selon l'une quelconque des revendications 1 à 10 lorsque ledit programme informatique est exécuté par un processeur (302).Computer program product comprising instructions for implementing at least the steps of comparison (250), incrementation (260), calculation (270) and detection (280) of a fall detection method (200) according to the any of claims 1 to 10 when said computer program is executed by a processor (302). Support de stockage d’informations (300) sur lequel est enregistré un produit programme d’ordinateur selon la revendication 11.Information storage medium (300) on which a computer program product according to claim 11 is recorded. Système de détection de chute (10) comprenant une caméra (12) pour capturer un flux vidéo (16) d’une scène dans laquelle évolue une personne (29), le flux vidéo (16) comprenant une succession d’images (18) de la scène, et une unité de traitement (14) configurée pour :
  • analyser au moins une partie des images (18) de la scène de sorte à identifier, pour chacune des images analysées, une posture (28) de la personne (29) dans l’image (18),
  • pour chaque image (18) analysée :
    • optionnellement, déterminer une évolution de la posture (28) par comparaison de la posture (28) de la personne (29) dans l’image (18) analysée avec une posture de la personne (29) dans une image analysée précédente,
    • comparer la posture (28) et/ou l’évolution de la posture avec au moins un critère de comparaison, et
    • incrémenter, pour chaque critère de comparaison auquel il est satisfait, un compteur individuel propre à l’image (18) analysée,
  • calculer un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
  • détecter une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
Fall detection system (10) comprising a camera (12) for capturing a video stream (16) of a scene in which a person (29) is moving, the video stream (16) comprising a succession of images (18) of the scene, and a processing unit (14) configured to:
  • analyze at least part of the images (18) of the scene so as to identify, for each of the images analyzed, a posture (28) of the person (29) in the image (18),
  • for each image (18) analyzed:
    • optionally, determine an evolution of the posture (28) by comparison of the posture (28) of the person (29) in the image (18) analyzed with a posture of the person (29) in a previous analyzed image,
    • compare the posture (28) and/or the evolution of the posture with at least one comparison criterion, and
    • increment, for each comparison criterion which is satisfied, an individual counter specific to the image (18) analyzed,
  • calculate an agglomerated counter equal to the sum of the individual counters of several successive analyzed images, and
  • detect a fall when the agglomerated counter exceeds a predetermined alert threshold.
FR2205075A 2022-05-25 2022-05-25 Fall detection method by image analysis Pending FR3136094A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2205075A FR3136094A1 (en) 2022-05-25 2022-05-25 Fall detection method by image analysis

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2205075 2022-05-25
FR2205075A FR3136094A1 (en) 2022-05-25 2022-05-25 Fall detection method by image analysis

Publications (1)

Publication Number Publication Date
FR3136094A1 true FR3136094A1 (en) 2023-12-01

Family

ID=83506547

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2205075A Pending FR3136094A1 (en) 2022-05-25 2022-05-25 Fall detection method by image analysis

Country Status (1)

Country Link
FR (1) FR3136094A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012119903A1 (en) * 2011-03-04 2012-09-13 Deutsche Telekom Ag Method and system for detecting a fall and issuing an alarm
EP2763116A1 (en) * 2013-02-01 2014-08-06 FamilyEye BVBA Fall detection system and method for detecting a fall of a monitored person
WO2016143641A1 (en) * 2015-03-06 2016-09-15 コニカミノルタ株式会社 Posture detection device and posture detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012119903A1 (en) * 2011-03-04 2012-09-13 Deutsche Telekom Ag Method and system for detecting a fall and issuing an alarm
EP2763116A1 (en) * 2013-02-01 2014-08-06 FamilyEye BVBA Fall detection system and method for detecting a fall of a monitored person
WO2016143641A1 (en) * 2015-03-06 2016-09-15 コニカミノルタ株式会社 Posture detection device and posture detection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Z. CAOG. HIDALGOT. SIMONS. -E. WEIY. SHEIKH, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 43, no. 1, 1 January 2021 (2021-01-01), pages 172 - 186

Similar Documents

Publication Publication Date Title
US10506990B2 (en) Devices and methods for fall detection based on phase segmentation
CN101853391B (en) Information processing device and method
Fan et al. Fall detection via human posture representation and support vector machine
Bosch-Jorge et al. Fall detection based on the gravity vector using a wide-angle camera
Merrouche et al. Depth camera based fall detection using human shape and movement
JP2011107997A (en) Apparatus, method and program for processing information
FR2915301A1 (en) PROCESS FOR COMPARISON OF IMAGES OF A BIOMETRY BETWEEN A REFERENCE IMAGE AND AT LEAST ONE TEST IMAGE WHICH WE SEEK TO EVALUATE A DEGREE OF CORRELATION WITH THE REFERENCE IMAGE
CN110781733B (en) Image duplicate removal method, storage medium, network equipment and intelligent monitoring system
CN113569793A (en) Fall identification method and device
EP3608836B1 (en) Method for obtaining a digital fingerprint image
Khan et al. A novel method for automatic classification of Parkinson gait severity using front-view video analysis
Boudouane et al. Wearable camera for fall detection embedded system
WO2020217812A1 (en) Image processing device that recognizes state of subject and method for same
Singh et al. A multi-gait dataset for human recognition under occlusion scenario
EP2467061B1 (en) System and method for detecting an epileptic seizure in a prone epileptic person
CN114127816A (en) System and method for on-floor detection without the need for wearable items
FR3136094A1 (en) Fall detection method by image analysis
Willems et al. A video-based algorithm for elderly fall detection
Mastorakis Human fall detection methodologies: from machine learning using acted data to fall modelling using myoskeletal simulation
Huang et al. Fall detection using modular neural networks with back-projected optical flow
Boudouane et al. Post-Fall Time Accounting for Fall Detection Using a Portable Camera
Khan et al. A novel hybrid fall detection technique using body part tracking and acceleration
EP3881222A1 (en) Method for automatically detecting facial impersonation
ShanShan et al. Fall detection method based on semi-contour distances
CN108520242A (en) The method and apparatus that a kind of heel for Gait Recognition detects

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20231201

PLFP Fee payment

Year of fee payment: 3