FR2979447A1 - Procede de configuration d'un dispositif de detection a capteur, programme d'ordinateur et dispositif adaptatif correspondants - Google Patents

Procede de configuration d'un dispositif de detection a capteur, programme d'ordinateur et dispositif adaptatif correspondants Download PDF

Info

Publication number
FR2979447A1
FR2979447A1 FR1157611A FR1157611A FR2979447A1 FR 2979447 A1 FR2979447 A1 FR 2979447A1 FR 1157611 A FR1157611 A FR 1157611A FR 1157611 A FR1157611 A FR 1157611A FR 2979447 A1 FR2979447 A1 FR 2979447A1
Authority
FR
France
Prior art keywords
probability
laws
law
distribution
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1157611A
Other languages
English (en)
Other versions
FR2979447B1 (fr
Inventor
Pierre Jallon
Florence Gris
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Movea SA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Movea SA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Movea SA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR1157611A priority Critical patent/FR2979447B1/fr
Priority to EP12762336.1A priority patent/EP2751749A1/fr
Priority to PCT/FR2012/051952 priority patent/WO2013030508A1/fr
Priority to US14/342,205 priority patent/US9524467B2/en
Publication of FR2979447A1 publication Critical patent/FR2979447A1/fr
Application granted granted Critical
Publication of FR2979447B1 publication Critical patent/FR2979447B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Abstract

Ce procédé de configuration d'un dispositif de détection d'une situation, parmi un ensemble de situations dans lesquelles est susceptible de se trouver un système physique, comporte les étapes suivantes : réception (102) d'une séquence d'apprentissage correspondant à une situation déterminée du système physique ; détermination (118) de paramètres d'un modèle statistique de Markov à états cachés enregistré dans le dispositif de détection et relatif à la situation déterminée, sur la base d'une initialisation préalable (104-116) de ces paramètres. L'initialisation préalable (104-116) comporte les étapes suivantes: détermination (104, 106) d'une pluralité de lois de probabilité à partir de la séquence d'apprentissage; répartition (108-114) des lois de probabilité entre les différents états cachés du modèle statistique considéré par optimisation globale (112) d'une fonction d'adaptation de ces lois de probabilité aux différents états cachés et à des contraintes de transitions impossibles ; et initialisation (116) des paramètres du modèle statistique considéré à partir de lois de probabilité représentatives déterminées pour chaque état caché du modèle statistique considéré.

Description

La présente invention concerne un procédé de configuration d'un dispositif de détection d'une situation parmi un ensemble de situations dans lesquelles est susceptible de se trouver un système physique observé par au moins un capteur.
Elle concerne également un programme d'ordinateur correspondant et un dispositif adaptatif de détection d'une situation dans laquelle se trouve un système physique observé par au moins un capteur. On entend par « système physique », tout système produisant une sortie physique observable par un capteur, le système étant supposé a priori pouvoir se trouver dans un nombre prédéterminé de situations modélisées par le dispositif de détection. Le système physique observé peut par exemple être un objet inanimé, tel qu'une structure dont on souhaite surveiller l'état pour détecter d'éventuelles anomalies ou déformations à l'aide d'un ou plusieurs capteurs.
Il peut aussi s'agir d'un système animé, tel qu'une personne ou un animal, par exemple souffrant d'une maladie chronique à situations de crises détectables à l'aide d'un capteur. Selon le ou les capteurs utilisés, les situations détectables sont variables et les applications multiples. En particulier, une application prometteuse fait l'objet de l'article de P. Jallon et al, intitulé « Detection system of motor epileptic seizures through motion analysis with 3d accelerometers," publié lors de la conférence IEEE EMBC 2009. Dans cet article, un dispositif de détection de crises d'épilepsie utilisant des capteurs de mouvements, notamment des accéléromètres 3D, est basé sur des modèles statistiques de Markov à états cachés, chacun modélisant au mieux, pour une situation donnée, les propriétés statistiques de séquences d'observation fournies par les capteurs telles qu'elles sont attendues pour cette situation. Concrètement, chaque modèle statistique de Markov à états cachés de ce dispositif correspond à une situation possible prédéterminée d'une personne sujette à des crises d'épilepsie parmi, par exemple : une première situation de crise, une seconde situation de crise différent de la première, une situation d'absence de crise. Le principe de la détection consiste alors à sélectionner l'une des situations possibles, par comparaison de probabilités de ces situations, connaissant une séquence d'observation fournie par au moins un accéléromètre, les probabilités étant calculées sur la base de chacun des modèles statistiques de Markov à états cachés du dispositif.
Le problème d'un tel dispositif de détection est qu'il n'est pas adaptatif. Les paramètres des modèles statistiques sont prédéterminés, en particulier enregistrés une bonne fois pour toute dans le dispositif, et doivent pourtant pouvoir rester pertinents lorsque le dispositif de détection est utilisé par des personnes différentes.
Bien sûr, chaque personne réagissant différemment en situations de crises d'épilepsie ou en situation d'absence de crise, si le dispositif de détection est performant pour une personne, il ne le sera pas nécessairement pour une autre. D'une façon plus générale, il est connu de configurer ou reconfigurer un modèle statistique de Markov à états cachés lorsque l'on dispose d'au moins une 10 séquence d'apprentissage considérée comme représentative de la situation supposée modélisée par ce modèle statistique. Ainsi, l'invention s'applique plus particulièrement à un procédé de configuration comportant les étapes suivantes : réception d'une séquence de données d'observation du système physique, 15 appelée séquence d'apprentissage et correspondant à une situation déterminée du système physique, détermination, à partir de la séquence d'apprentissage, de paramètres d'un modèle statistique de Markov à états cachés relatif à la situation déterminée, par initialisation préalable de ces paramètres, puis mise à jour 20 de ces paramètres initialisés. Un tel procédé de configuration est par exemple proposé dans l'article de L. Rabiner, intitulé "A tutorial on Hidden Markov Models and selected applications in speech recognition," Proceedings of the IEEE, vol. 77, no. 2, pp. 257-286, février 1989. Dans cet article, la mise à jour est réalisée par un algorithme itératif 25 espérance-maximisation, en particulier l'algorithme de Baum-Welch. Mais comme tout algorithme d'optimisation par itérations, il est particulièrement sensible à l'initialisation préalable des paramètres à optimiser. En effet, s'il est mal initialisé, le résultat qu'il fournit, bien que stable numériquement, peut s'avérer largement sous optimal, par exemple par convergence vers un maximum local de la fonction de coût 30 qu'il optimise. Au pire, il peut même ne pas converger numériquement et fournir des paramètres aberrants en sortie. En pratique, les paramètres à initialiser, puis à éventuellement mettre à jour, pour un modèle statistique de Markov à états cachés, sont : - C, le nombre d'états cachés du modèle statistique considéré, - Tri, Trc, les C probabilités initiales, indépendantes de toute observation, de chaque état caché du modèle statistique considéré, - (a; ;),<;;<c, la matrice des probabilités de transition de chaque état caché i vers chaque autre état caché j du modèle statistique considéré, et - pour chaque état caché, les paramètres d'une loi de probabilité de l'observation fournie à chaque instant par le capteur, cette observation étant considérée comme une variable aléatoire. On notera que l'algorithme de Baum-Welch ou tout autre algorithme espérance-maximisation connu ne permet pas de mettre à jour le nombre C d'états cachés, celui-ci étant considéré comme une constante : C doit donc être fixé a priori à l'initialisation et n'est pas mis à jour par l'algorithme. On notera également que la loi de probabilité de chaque état caché du modèle statistique considéré peut être multidimensionnelle si l'observation est multidimensionnelle, c'est-à-dire si les données fournies par le capteur (ou l'ensemble de capteurs) au dispositif de détection sont multivaluées. Par exemple, si la loi de probabilité est choisie comme étant une loi normale, les paramètres suffisants pour la définir sont son espérance et sa variance, qui peuvent être des scalaires lorsque la loi de probabilité est monodimensionnelle, ou respectivement un vecteur et une matrice lorsque la loi de probabilité est multidimensionnelle.
On notera en outre que la détermination des paramètres du modèle statistique considéré peut se faire indifféremment sur une ou plusieurs séquences d'apprentissage, sachant qu'il est généralement recommandé de prévoir plusieurs séquences pour améliorer statistiquement l'adaptation du modèle statistique considéré à la réalité des séquences d'observation de la situation qu'il est supposé modéliser. Pour une seule séquence d'apprentissage, la fonction de coût à optimiser par mise à jour des paramètres du modèle statistique considéré correspond à la probabilité d'observation de la séquence d'apprentissage selon ce modèle. Pour plusieurs séquences d'apprentissage, la fonction de coût devient le produit des probabilités d'observation des séquences d'apprentissage, toujours selon ce même modèle. On notera enfin que certaines contraintes de transitions impossibles entre états cachés du modèle statistique peuvent rendre très difficile toute initialisation de ses paramètres. Pour pallier les insuffisances de l'algorithme de mise à jour des paramètres initialisés, une solution bien connue consiste à prévoir plusieurs jeux de paramètres initiaux, à exécuter l'algorithme espérance-maximisation sur chaque jeu de paramètres initiaux et à sélectionner finalement celui qui fournit la meilleure valeur pour la fonction de coût optimisée. Cette solution réduit le risque de se trouver dans un cas défavorable d'exécution de l'algorithme, mais ne résout pas le problème de l'initialisation et alourdit singulièrement le traitement de la séquence d'apprentissage. D'autres solutions consistent à chercher à améliorer directement l'étape d'initialisation préalable. Un procédé d'initialisation de modèles de Markov cachés est par exemple décrit dans l'article de K. Nathan et al, intitulé "Initialization of hidden Markov models for unconstrained on-line handwriting recognition", publié lors de la conférence ICASSP, 1996. Dans cet article, chaque état caché d'un modèle de Markov présente plusieurs lois normales sommées dont les paramètres sont obtenus par une classification préalable des observations. Ces lois normales sont communes à tous les états, ces derniers ne se différenciant alors que par des coefficients de pondération. L'initialisation consiste en fait à déterminer ces coefficients de pondération. Dans l'article de P. Smyth, intitulé "Clustering sequences with hidden markov models", publié dans Advances in Neural Information Processing Systems, 1996, les auteurs groupent les séquences d'apprentissage selon une certaine mesure de similarité. Pour chacun de ces groupes, un modèle est appris et le modèle calculé pour l'initialisation de l'algorithme de Baum Welch est la concaténation de ces différents modèles. L'inconvénient de cette méthode est de multiplier le nombre d'états cachés du modèle final par l'opération de concaténation. Par conséquent, le modèle final sur-décrit les signaux de la séquence d'apprentissage ce qui, en plus d'augmenter la complexité des traitements, peut nuire fortement aux performances du dispositif de détection. En outre, ce document et le précédent ne tiennent pas compte de contraintes de transitions impossibles qui peuvent être imposées entre certains états cachés du modèle. Il peut ainsi être souhaité de prévoir un procédé de configuration qui permette de s'affranchir d'au moins une partie des problèmes et contraintes précités. L'invention a donc pour objet un procédé de configuration d'un dispositif de détection d'une situation parmi un ensemble de situations dans lesquelles est susceptible de se trouver un système physique observé par au moins un capteur, comportant les étapes suivantes : réception d'une séquence de données d'observation du système physique, appelée séquence d'apprentissage, fournie par le capteur et correspondant à une situation déterminée du système physique, détermination, à partir de la séquence d'apprentissage, de paramètres d'un modèle statistique de Markov à états cachés enregistré dans des moyens de stockage du dispositif de détection et relatif à la situation déterminée, par initialisation préalable de ces paramètres, puis mise à jour de ces paramètres initialisés, l'initialisation préalable comportant les étapes suivantes : le modèle statistique considéré comportant un nombre donné d'états cachés et des contraintes de transitions impossibles entre certains états cachés, détermination d'une pluralité de lois de probabilité à partir de la séquence d'apprentissage, par division de la séquence en sous-séquences et attribution à chaque sous-séquence d'une loi de probabilité la modélisant statistiquement, le nombre de lois de probabilité déterminées étant supérieur au nombre d'états cachés du modèle statistique considéré, répartition des lois de probabilité déterminées entre les différents états cachés du modèle statistique considéré, par optimisation globale d'une fonction d'adaptation de ces lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles, détermination, pour chaque état caché du modèle statistique considéré et à partir des lois de probabilités affectées à cet état caché, d'une unique loi de probabilité représentative de cet état caché, et initialisation des paramètres du modèle statistique considéré à partir des lois de probabilité représentatives déterminées, le procédé comportant en outre une étape de configuration du dispositif de détection pour que le modèle statistique considéré intègre les paramètres déterminés par ladite initialisation préalable puis ladite mise à jour. Ainsi, l'initialisation des paramètres de l'un quelconque des modèles statistiques du dispositif de détection peut être envisagée sur la base d'un autre modèle très fin appliqué à la séquence d'apprentissage, cet autre modèle très fin pouvant présenter un nombre de lois de probabilité bien supérieur au nombre d'états cachés du modèle considéré. La réduction de ce modèle très fin, par répartition de ses lois de probabilité entre les états cachés du modèle considéré tout en prenant en compte des contraintes de transitions impossibles entre certains états cachés grâce à l'optimisation globale d'une fonction d'adaptation, puis détermination sur la base de cette répartition de lois de probabilité représentatives des états cachés, permet d'initialiser finement le modèle considéré, bien qu'il présente un nombre limité d'états cachés. La mise à jour de ses paramètres par des méthodes connues produit alors un résultat globalement optimal. Par conséquent, l'adaptation du dispositif de détection au système physique observé s'en trouve améliorée. De façon optionnelle, la répartition comporte l'exécution d'un algorithme itératif de K-Moyennes sur un nombre de classes égal au nombre d'états cachés du modèle statistique considéré, cet algorithme itératif comportant, à chaque itération : pour chaque loi de probabilité déterminée à partir de la séquence d'apprentissage, l'association de cette loi à l'une des classes, cette association utilisant la divergence de Kullback Leibler et les contraintes de transitions impossibles, et le calcul, pour chaque classe, d'une loi de probabilité représentant son centre. De façon optionnelle également, la répartition comporte une initialisation de l'algorithme itératif de K-Moyennes consistant à : trier les lois de probabilité dans l'ordre séquentiel des sous-séquences auxquelles elles sont associées dans la séquence d'apprentissage, répartir les lois de probabilité triées dans les classes dans cet ordre séquentiel, de la première à la dernière classe, pour chaque classe ainsi initialisée, déterminer une loi de probabilité représentant son centre. De façon optionnelle également, la fonction d'adaptation des lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles du modèle statistique considéré est, pour une répartition donnée des lois de probabilité déterminées entre les différents états cachés du modèle statistique considéré, cette répartition étant conforme aux contraintes de transitions impossibles, une somme de distances de Kullback Leibler entre chaque loi de probabilité déterminée et chaque loi de probabilité représentant le centre de l'état caché associé dans cette répartition. De façon optionnelle également : - la fonction d'adaptation des lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles du modèle statistique considéré est, pour chaque répartition « a » des lois de probabilité déterminées à partir de la séquence d'apprentissage entre les différents états cachés du modèle statistique considéré, un produit entre une fonction prenant en compte la divergence de Kullback Leibler entre chaque loi de probabilité déterminée à partir de la séquence d'apprentissage et chaque loi de probabilité représentant le centre de l'état caché qui lui est associé dans cette répartition « a », et des probabilités que chaque loi de probabilité déterminée à partir de la séquence d'apprentissage soit associée à l'état caché défini par la répartition « a » sachant l'état caché associé par la répartition « a » à la loi de probabilité la précédant dans un ordre donné des lois de probabilités issues de la séquence d'apprentissage, l'optimisation globale de cette fonction d'adaptation est réalisée par exécution de l'algorithme de Viterbi pour la sélection d'une répartition qui la maximise.
De façon optionnelle également, chaque loi de probabilité étant une loi normale, la loi de probabilité représentant le centre d'une classe Ki est une loi normale déterminée par le calcul de son espérance ,u. et de sa variance Ei en fonction des espérances et des variances E de toutes les lois de probabilité de cette classe Ki, de la façon suivante : 1 1 du, = Card (Ki)EK,pi' et Ei = Card (Ki) JEK, j ) P , où Card est la fonction « Cardinal » et H est l'opérateur Hermitien. De façon optionnelle également, le modèle statistique de Markov à états cachés relatif à la situation déterminée est un modèle gauche/droite ou cyclique dans lequel une séquence ou un cycle d'états cachés est imposé.
L'invention a également pour objet un programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, comprenant des instructions pour l'exécution des étapes d'un procédé de configuration tel que défini précédemment, lorsque ledit programme est exécuté sur un ordinateur.
L'invention a également pour objet un dispositif adaptatif de détection d'une situation parmi un ensemble de situations dans lesquelles est susceptible de se trouver un système physique observé par au moins un capteur, à partir de données d'observation du système physique fournies par le capteur, comportant : - au moins un capteur pour la fourniture d'une séquence de données d'observation du système physique, - des moyens de stockage, pour chaque situation de l'ensemble de situations, d'un modèle statistique de Markov à états cachés, - un calculateur, relié au capteur et aux moyens de stockage, programmé pour sélectionner l'une des situations par comparaison de probabilités de ces situations connaissant la séquence de données d'observation, les probabilités étant estimées sur la base des modèles statistiques stockés, dans lequel le calculateur est en outre programmé pour exécuter les étapes d'un procédé de configuration tel que défini précédemment, sur réception d'une séquence identifiée comme séquence d'apprentissage correspondant à une situation déterminée du système physique. De façon optionnelle, le capteur comporte au moins l'un des éléments de l'ensemble constitué d'un capteur de mouvement à au moins un axe de mesure, d'un capteur de pression, d'un cardiomètre et d'un capteur de glycémie. L'invention sera mieux comprise à l'aide de la description qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins annexés dans lesquels : la figure 1 représente schématiquement la structure générale d'un dispositif de détection selon un mode de réalisation de l'invention, les figures 2 et 3 illustrent des exemples de modèles statistiques de Markov à états cachés présentant des contraintes de transitions entre états cachés et pouvant être pris en compte par le dispositif de détection de la figure 1, la figure 4 illustre une utilisation particulière du dispositif de détection de la figure 1, la figure 5 illustre les étapes successives d'un procédé de configuration, par exemple du dispositif de la figure 1, selon un mode de réalisation de l'invention, les figures 6A à 6D illustrent, à l'aide de diagrammes, les résultats intermédiaires d'une étape de répartition du procédé de configuration de la figure 5, et la figure 7 illustre, à l'aide d'un diagramme, un résultat de l'étape de répartition du procédé de configuration de la figure 5 obtenu sur la base d'un modèle statistique tel que celui de la figure 3.
Le dispositif 10 représenté sur la figure 1 est un dispositif adaptatif de détection d'une situation parmi un ensemble de situations dans lesquelles est susceptible de se trouver un système physique observé par au moins un capteur. Il comporte à cet effet un module d'observation 12, un module de traitement 14 et un module d'interface 16. Le module d'observation 12 comporte un ou plusieurs capteurs représentés par l'unique référence 18 pour l'observation du système physique. De façon non limitative, quelques exemples de capteurs et de situations observables à l'aide de ces capteurs sont donnés : le capteur 18 peut par exemple comporter un capteur de mouvements à un, deux ou trois axes de mesure, notamment un accéléromètre 3D porté par une personne, pour la détermination d'une situation de crise ou d'absence de crise d'épilepsie de la personne, plus généralement, il peut comporter un capteur de mouvements pour la détermination de l'activité d'un système mobile dans un ensemble d'activités prédéterminées, notamment des activités répétitives ou cycliques telles que des activités de marche ou de nage d'une personne, il peut comporter un cardiomètre pour la détermination d'une activité physique générale d'une personne, il peut comporter un capteur de glycémie d'une personne ou d'un animal souffrant de diabète pour la détermination d'une situation de crise ou d'absence de crise, il peut comporter un capteur de pression pour déterminer la situation de fonctionnement (normal, limite, anormal) d'une installation sous pression, etc. Le capteur 18 peut aussi comporter plusieurs capteurs fournissant chacun des observations qui, combinées, permettent d'envisager de détecter des situations plus complexes. Il effectue des mesures sur le système physique pour fournir au moins un signal d'observation, transmis sous la forme de séquences de données d'observation au module de traitement 14. Les données d'observation peuvent être directement issues d'un échantillonnage du signal d'observation ou obtenues après un ou plusieurs traitements, notamment un ou plusieurs filtrages, de ce signal. On comprend ainsi que les données d'observation peuvent être mono ou multivaluées, y compris lorsque l'on ne dispose que d'un seul capteur 18.
Le module de traitement 14 est un circuit électronique, par exemple celui d'un ordinateur. Il comporte des moyens de stockage 20, par exemple une mémoire de type RAM, ROM ou autre, dans lesquels sont stockés les paramètres de modèles statistiques de Markov à état cachés.
Chaque situation S-1, S-N prévue pour être détectable par le dispositif de détection 10 à l'aide du capteur 18 est modélisée par un modèle statistique de Markov à état cachés correspondant noté HMM-1, HMM-N. L'un quelconque des modèles statistiques de Markov à état cachés stockés, noté HMM-n et modélisant la situation E-n, est défini par les paramètres suivants : - Cn, le nombre d'états cachés de ce modèle HMM-n, - Tri, - - - 3 11-Cn les Cn probabilités initiales, indépendantes de toute observation, de chaque état caché de ce modèle HMM-n, - (aij)i<ij<Cn la matrice des probabilités de transition de chaque état caché i vers chaque autre état caché j de ce modèle HMM-n, et pour chaque état caché, les paramètres d'une loi de probabilité de l'observation fournie à chaque instant par le capteur. A titre d'exemple non limitatif et pour simplifier les notations, la loi de probabilité de chaque état caché i du modèle HMM-n peut être choisie dans la famille des lois normales. Dans ce cas, elle est définie par son espérance ,un et sa variance En,. Lorsque les données fournies par le capteur 18 sont multivaluées, lin est un vecteur comportant autant de composantes et En, une matrice comportant autant de lignes et de colonnes que de valeurs fournies à chaque instant. Par ailleurs, certaines contraintes peuvent être imposées dans le modèle statistique HMM-n, notamment des contraintes portant sur les transitions à, d'un état caché à un autre dont certaines peuvent être interdites. Par exemple, dans le cas où les Cn états cachés du modèle HMM-n représentent des situations élémentaires successives et ordonnées, voire même cycliques et caractéristiques d'une situation de type activité répétitive ou pseudopériodique, le modèle HMM-n peut être lui-même de type gauche/droite ou cyclique.
Un exemple de modèle HMM-n gauche/droite à quatre états cachés K1, K2, K3, K4 est illustré sur la figure 2. Il est adapté à la modélisation d'une situation pouvant se décomposer en quatre états élémentaires stationnaires et successifs, ordonnés temporellement selon K1, K2, K3 puis K4. Il peut par exemple s'agir de l'écriture d'une lettre de l'alphabet à la main (le capteur étant un capteur de mouvement fixé sur la main qui écrit), ce geste étant décomposable en phases ordonnées qui n'apparaissent qu'une seule fois. Par exemple, pour écrire la lettre G, les phases/états élémentaires peuvent être les suivantes : (1) un arrondi descendant, (2) une courte phase de descente, (3) un arrondi montant, (4) un retour horizontal vers la gauche. Ainsi, les paramètres du modèle de Markov à quatre états cachés correspondant sont contraints de la façon suivante : 171 = 1, u2 = 0, u3 = 0, 174 = 0 (ce geste d'écriture commence nécessairement par un arrondi descendant), V i,j = 0, sauf : a1 1 = 1-E1, a1,2 = C1 a2,2 = 1-E2, a23 = £2, a33 = 1-E3, a3,4 = £3, a4,4 = 1. Plus généralement, un modèle HMM-n gauche/droite à Cn états cachés est contraint de la façon suivante : - Tri = 1, V i>1 = 0, - V i,j = 0, sauf, V i<Cn : a, , = 1-ci, = acn en = 1, où cl e P,1[.
Un exemple de modèle HMM-n cyclique à trois états cachés cycliques K2, K3, K4 et cinq états cachés au total K1 à K5 est illustré sur la figure 3. Il est adapté à la modélisation d'une activité physique de personne, détectable à l'aide d'un capteur accélérométrique, la plupart de ces activités étant périodiques ou pseudopériodiques. Par exemple la marche ou la nage comportent des successions de mouvements, respectivement des pieds et de la tête, qui se répètent. Le premier état K1 représente l'engagement de l'activité périodique ou pseudopériodique considérée (par exemple une poussée sur le bord d'un bassin dans le cas d'une nage), les trois états successifs K2, K3 et K4 représentent la phase périodique ou pseudopériodique de l'activité proprement dite, et l'état K5, la fin ou sortie de l'activité.
Ainsi, les paramètres de ce modèle de Markov à cinq états cachés correspondant sont contraints de la façon suivante : Tri = 1, TT2 = 0, rra = 0, rr4 = 0, 175 = 0, (l'activité considérée commence nécessairement par sa phase d'engagement), V i,j = 0, sauf : a1,1 = 1-E1, a1,2 = cl a2,2 = 1-E2-52, a2,3 = E2, a2,5 = 52, a3,3 = 1 -£3-53, a3,4 = E3, a3,5 = 53, a4,4 = 1 -C4-54, a4,2 = E4, a4,5 = 54, a5,5 = 1. Plus généralement, un modèle HMM-n cyclique à Cn états cachés dont Cn-2 sont cycliques est contraint de la façon suivante : - TT1 = 1, V i>1 = 0, - V i,j = 0, sauf : - a1,1 = 1-E1, a1,2 = E1, où E1 E ]0,1[, - V i, 1<k(Cn-1) : a' = 1-c,-5,, a, = c,, a, cn = 5,, où c,,5, E 10,1[2 et E,+5, 5 1, - = 1 -ECn-1-5Cn-1 aCn-1 2 = ECn-1, aCn-1 Cn = 5Cn-1 , aCn Cn = 1, OÙ ECn-1 ,5Cn-1 E 10,1 [2 et Ecn-i +5cn_1 5 1.
La mémoire 20 peut en outre stocker, en association avec chaque modèle HMM-n, une ou plusieurs séquences d'apprentissage L-n. Chaque séquence d'apprentissage du modèle HMM-n est en fait une séquence d'observation fournie par le capteur 18, mais dont il est connu a priori qu'elle a été extraite de l'observation du système physique alors qu'il était dans la situation S-n. Elle peut donc être traitée dès réception par le module de traitement 14, ou bien stockée en mémoire 20 en relation avec le modèle HMM-n en vue d'un traitement ultérieur, pour une configuration ou reconfiguration du dispositif de détection 10 par mise à jour de paramètres du modèle HMM-n, comme cela sera détaillé en référence à la figure 5. Le module de traitement 14 comporte en outre un calculateur 22, par exemple une unité centrale d'ordinateur munie d'un microprocesseur 24 et d'un espace de stockage d'au moins un programme d'ordinateur 26. Ce calculateur 22, et plus particulièrement le microprocesseur 24, est relié au capteur 18 et à la mémoire 20. Le programme d'ordinateur 26 remplit trois principales fonctions illustrées par des modules 28, 30 et 32 sur la figure 1.
La première fonction, remplie par le module de détection 28, par exemple sous la forme d'une boucle d'instructions, est une fonction de détection d'une situation dans laquelle se trouve le système physique, sur réception d'une séquence d'observation fournie par le capteur 18. Plus précisément, le module de détection 28 est programmé pour sélectionner l'une des situations S-1, S-N par comparaison de probabilités de ces situations connaissant la séquence d'observation, les probabilités étant estimées sur la base des modèles statistiques stockés HMM-1, HMM-N. La résolution de cette sélection à l'aide de modèles statistiques de Markov à états cachés est bien connue et fait partie des trois grandes classes de problèmes résolus par les modèles de Markov cachés, telles que mentionnées dans l'article de L. Rabiner précité. La méthode employée ne sera donc pas détaillée. La deuxième fonction, remplie par le module d'enregistrement 30, par exemple sous la forme d'une boucle d'instructions, est une fonction d'enregistrement, dans la mémoire 20, d'une séquence d'observation en relation avec l'une des situations S-1, S-N. Cette séquence d'observation devient alors une séquence d'apprentissage à utiliser pour configurer ou reconfigurer le dispositif de détection 10.
La troisième fonction, remplie par le module de configuration 32, par exemple sous la forme d'une boucle d'instructions, est une fonction de configuration du dispositif de détection 10 par mise à jour des paramètres d'au moins un modèle statistique HMM-n stocké en mémoire 20 à l'aide d'une séquence d'apprentissage ou d'un ensemble de séquences d'apprentissage correspondant L-n. Cette fonction sera détaillée en référence à la figure 5. Pour sélectionner quelle fonction le module de traitement 14 doit remplir, le module d'interface 16 peut comporter un sélecteur de mode 34 commandé par un utilisateur, notamment la personne portant le dispositif de détection 10 elle-même, lorsque le système physique observé est une personne. Dans un mode de réalisation simple, il peut être considéré que le dispositif de détection 10 fonctionne par défaut en mode de détection, exécutant ainsi le module de détection 28. L'un des intérêts du dispositif de détection 10 étant de détecter au moins une situation critique parmi un ensemble de situations possibles, telle que par exemple une crise d'épilepsie chez un porteur du dispositif sujet à ce type de situation, le module d'interface 16 peut en outre comporter un déclencheur d'alerte 36. Ce déclencheur peut par exemple comporter un écran, pour l'affichage d'un message d'avertissement, un haut-parleur, pour l'émission d'un signal sonore, ou un émetteur, pour la transmission d'un signal vers une alarme distante.
Sur commande de l'utilisateur via le sélecteur de mode 34, le dispositif de détection 10 peut momentanément passer en mode d'enregistrement, lorsqu'une séquence d'observation associée à une situation connue du système physique observé est fournie par le capteur 18 et doit être enregistrée comme séquence d'apprentissage dans la mémoire 20. Le dispositif de détection peut alors comporter une interface d'enregistrement 38, à l'aide de laquelle l'utilisateur définit la séquence d'observation (par exemple en marquant son début et sa fin) et l'associe à l'une des situations possibles. L'interface d'enregistrement 38 peut comporter, de façon classique, un écran et/ou des moyens de saisie. Sur commande de l'utilisateur via le sélecteur de mode 34 également, le dispositif de détection 10 peut momentanément passer en mode de configuration, lorsque l'utilisateur estime disposer de suffisamment de séquences d'apprentissage en mémoire 20 pour améliorer l'adaptation du dispositif de détection 10 au système physique observé. On notera que les modules d'observation 12, de traitement 14 et d'interface 16 sont structurellement séparables. Ainsi le dispositif de détection 10 peut être conçu d'un seul tenant ou en plusieurs éléments matériels distincts reliés entre eux par des moyens de transmission de données avec ou sans fil. En particulier, les modules de traitement 14 et éventuellement d'interface 16 peuvent être mis en oeuvre par ordinateur. Seul le module d'observation 12 est nécessairement au voisinage voire au contact du système physique observé puisqu'il comporte le ou les capteurs. Sur la figure 4, un mode de réalisation particulièrement compact est illustré, pour une application de surveillance d'une personne 40. Selon ce mode de réalisation, le dispositif de détection 10 est tout entier intégré dans un boîtier 42 porté par la personne. Le capteur est par exemple un accéléromètre 3D et les situations observés sont par exemple au nombre de deux : une situation de crise d'épilepsie modélisée par un modèle statistique HMM-1 et une situation d'absence de crise d'épilepsie modélisée par un modèle statistique HMM-2. Pour cette application, le boîtier 42 est par exemple fermement maintenu à un bras de la personne 40 au moyen d'un bracelet 44, de sorte que le dispositif de détection 10 est porté tel une montre. En variante (non illustrée), le boîtier 42 pourrait être maintenu sur le front de la personne 40 au moyen d'un bandeau pour une application de détection de différentes nages (brasse, crawl, ...), ou sur l'une de ses jambes pour une application de détection d'activité (marche, course de fond, sprint, ...). Le fonctionnement du module de configuration 32 va maintenant être détaillé en référence à la figure 5 sur l'exemple d'une configuration du dispositif de détection 10 par mise à jour des paramètres de l'un quelconque (HMM-n) des modèles statistiques stockés dans la mémoire 20. L'exécution du module de configuration 32 par le microprocesseur 24 produit la séquence d'étapes illustrées sur cette figure. Au cours d'une première étape 100, dans une plage de valeurs possibles du nombre d'états cachés que peut présenter ce modèle HMM-n, ce nombre est fixé à Cn. Une plage de valeurs possibles est par exemple [3 ;10]. Pour première valeur, Cn peut prendre la première valeur de cette plage.
Au cours d'une étape 102, un ensemble L-n de séquences d'apprentissage relatives à la situation S-n modélisée par le modèle statistique de Markov à états cachés HMM-n est reçu par le microprocesseur 24 pour son traitement par le module de configuration 32. Il peut être reçu directement du capteur 18, mais plus couramment, il est extrait de la mémoire 20 dans laquelle les séquences d'apprentissage peuvent avoir été enregistrées à des moments très différents, notamment lors de différentes occurrences de la situation S-n. Concrètement, pour une application de détection de crises d'épilepsie, sachant que les séquences d'observation transmises par le capteur 18 peuvent être traitées par le module de détection 28 dans des fenêtres glissantes d'observation de, par exemple, 45 secondes, à raison de 25 échantillons par seconde, chaque séquence d'apprentissage peut, elle, représenter plusieurs minutes d'observation. Ainsi, au total, un ensemble de séquences d'apprentissage peut durer plusieurs dizaines de minutes, voire une heure ou plus. Lors des étapes 104 et 106 suivantes, une pluralité de lois de probabilité est déterminée à partir de la séquence d'apprentissage, le nombre Ln de lois de probabilité déterminées étant supérieur à, voire très grand devant, Cn. Plus précisément, au cours de l'étape 104, le nombre Ln de lois de probabilités à déterminer peut être optionnellement obtenu en divisant l'ensemble des séquences d'apprentissage en sous-séquences d'une seconde chacune. Dans l'exemple précité, cela donne des sous-séquences de 25 échantillons. En effet, d'une façon générale, une sous-séquence de 25 données mono ou multivaluées peut suffire pour déterminer une loi de probabilité, notamment une loi normale, modélisant statistiquement correctement cette sous-séquence. La division de la séquence d'apprentissage en sous-séquences peut par ailleurs se faire avec ou sans recouvrements entre sous-séquences successives. Ainsi, au cours de l'étape 106, à chaque sous-séquence est associée une loi de probabilité lui correspondant, par exemple une loi normale de paramètres /in/ (espérance) et En/ (variance). A ce stade du procédé, la détermination des Ln lois et donc de leurs paramètres ,uni et En/ est simple : il suffit de calculer la moyenne et la variance de chaque sous-séquence, considérées comme des estimateurs de /in/ et En1 . Lors de cette même étape, les Ln lois de probabilité sont triées. Lorsque le modèle de Markov HMM-n ne comporte pas de contrainte a priori, par exemple dans le cas d'un modèle statistique de détection de crises d'épilepsie, le tri peut se faire par ordre croissant de la première composante des paramètres d'espérance /in/ . Dans le cas particulier de séquences d'apprentissage monodimensionnelles, le tri se fait alors par ordre croissant des espérances. Cela donne par exemple une distribution D telle que celle illustrée sur les figures 6A à 6D.
En revanche, lorsque le modèle de Markov HMM-n comporte des contraintes a priori, notamment des contraintes temporelles entre états cachés telles que celles illustrées sur les figures 2 et 3 interdisant certaines transitions, le tri consiste de préférence à conserver ces contraintes. Ainsi, dans les cas particuliers des figures 2 et 3 où une certaine séquence des états cachés du modèle HMM-n est imposée, la chronologie des Ln sous-séquences issues de l'ensemble des séquences d'apprentissage est conservée. Au cours de l'étape 108 suivante, une répartition initiale des lois de probabilité déterminées est réalisée entre les Cn états cachés du modèle statistique HMM-n.
Cette répartition se fait sur la base du tri précédent (notamment pour respecter la séquence des états lorsque le modèle HMM-n comporte une telle contrainte a priori). Par exemple, si Ln est un multiple de Cn, c'est-à-dire si kl Ln =k.Cn, on peut attribuer les k premières lois de probabilité à un premier état caché, les k suivantes à un deuxième et ainsi de suite jusqu'au dernier état caché. Si Ln n'est pas un multiple de Cn, la répartition peut se faire sur la même base, par exemple en ignorant les dernières sous-séquences. Cette étape correspond à une classification initiale des Ln lois de probabilité en Cn classes par équirépartition, chaque classe correspondant à un état caché. Au cours de l'étape 110 suivante, pour chaque classe Ki (15i5Cn) et sur la base d'un calcul de moyenne des lois de probabilités affectées à cette classe Ki, on détermine une loi de probabilité représentant son centre. Plusieurs solutions viennent naturellement à l'esprit pour déterminer simplement les paramètres d'un tel centre. On pourrait notamment calculer la moyenne ou la médiane de chacun des paramètres (espérance et variance dans le cas de lois normales) des lois de probabilités de la classe Ki indépendamment des autres, mais cela conduirait à une estimation sous optimale du centre. Une autre solution moins évidente est préférée. Elle va maintenant être détaillée. Soit Y une variable aléatoire suivant la loi de ce centre. Si ce centre doit représenter la moyenne des lois de probabilités de la classe Ki, alors on peut écrire : Y = 1(X = /)Z1, où Z1 est une variable aléatoire qui suit la loi normale d'indice I et le Ki de paramètres /mi/ et Eni de la classe Ki, et où X est une variable aléatoire qui vaut I si Y suit la même loi de probabilité que Z1.
La loi du centre de la classe Ki est une somme de lois normales qu'il est possible d'estimer, mais qu'il est aussi possible d'approcher simplement et astucieusement à l'aide d'une loi normale de paramètres /mi et En, . Il vient alors : = Ex z(Y)= Ex z 11(X =l)Z1 = x z(1(X = x ,z(Zi) , d'où OE Ki y le Ki 1 = ,uni l , où Card est la fonction « Cardinal » Card (Ki) le Ki et En, = E x z((Y - E x (11H (Y - E x (Y))) = E x ,z(Y H 17)- Ex,z(17)H Ex,z(17), En, = E x = 1) Zi = m) Z,' H OE Ki Ki ) Eni = x ,z(1(X = 1)1(X = ni)ZiZm)- dan,' I dan, , 1,ine Ki En. = 1 x z(Z1I1 Z1)- dunill ,un, , d'où Card (Ki) le Ki En. = 1 (\ _L lei fru Card (Ki) le Ki où H est l'opérateur hermitien. Les équations (1) et (2) montrent que, tel que le centre d'une classe Ki quelconque est astucieusement défini, il est possible de calculer simplement ses paramètres de loi normale /in et En, à partir des paramètres /mi/ et Eni1 des lois normales de la classe Ki. Au cours d'une étape 112 suivante, sur la base des Cn centres déterminés à l'étape précédente, une nouvelle répartition des Ln lois de probabilité déterminées à l'étape 106 est réalisée en utilisant une fonction de « distance » entre lois de probabilité normales. Pour cela, on définit une fonction de « distance » entre lois normales sur la base de la divergence de Kullback Leibler. Cette divergence n'étant pas commutative, ce n'est pas rigoureusement une distance, mais elle constitue tout de même un modèle exploitable pour cette étape de classification. On rappelle que la divergence de Kullback Leibler s'écrit, pour deux lois de probabilités p et q : (1) (2) J log p(uY D KL (Ag) = \ p (u)du . eu ) ) Pour des lois normales pn, et pnk de paramètres respectifs ,uni, En1 et ,unk , En k , elle prend la forme suivante : 1 /log1,Enk r Dia,(194119nk)= - + Tr(Enk lEn,)+ Cn, - ,un kr En k 1 Clini - lin k) - N , 2 dEnd ) ) où 1/1 est la valeur absolue du déterminant de la matrice E , Tr la fonction Trace et N le nombre de composantes du vecteur ,uni ou dunk . Plus précisément, dans le cas particulier où aucune contrainte a priori n'est imposée dans la séquence des états cachés du modèle HMM-n, pour chaque loi de probabilité cp(I), 1515Ln, déterminée à l'étape 106, on peut calculer sa « distance » par rapport à chacun des centres notés c(i), 15i5Cn et on lui affecte alors la classe Ki du centre le plus proche. Mais cette méthode n'est pas adaptée dans les cas où des contraintes sont imposées dans la séquence des états cachés du modèle HMM-n, parce que cette nouvelle répartition, loi par loi et pour chacune indépendamment des autres, ne tient pas compte justement des contraintes. Notamment, cette méthode n'est pas adaptée pour un modèle HMM-n tel que celui illustré sur la figure 2 ou 3. Selon un autre mode de réalisation possible et avantageux, on choisit donc d'optimiser globalement la nouvelle répartition des lois de probabilités dans les classes Ki, et non pas loi par loi. Cela se fait par optimisation globale d'une fonction d'adaptation de ces lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles. En notant de façon générique « a » toute fonction de répartition qui associe chaque loi de probabilité cp(I), 1515Ln (c'est-à-dire chaque indice I), à une classe Ki, 15i5Cn (c'est-à-dire chaque indice i), représentée par son centre c(i), 15i5Cn, la fonction d'adaptation des lois de probabilité aux différents états cachés sachant une répartition a donnée peut prendre la forme suivante, c'est-à-dire une somme de distances de Kullback Leibler : F (a) = D KL(ÇO(1)1C(a(1))) . La fonction de répartition « â » à retenir est donc celle qui minimise la fonction d'adaptation F tout en satisfaisant aux contraintes du modèle HMM-n. La minimisation de la fonction d'adaptation F ne se fait pas sur toutes les répartitions possibles, mais seulement sur celles qui satisfont aux contraintes du modèle HMM-n considéré. Ainsi, dans le cas d'un modèle statistique gauche/droite tel que celui de la figure 2 par exemple, les fonctions de répartition qui satisfont aux contraintes du modèle sont celles qui présentent la propriété d'être croissantes par paliers. En notant L1, ..., Cn-1 transitions de paliers, les fonctions de répartition qui satisfont aux contraintes du modèle sont celles qui vérifient la propriété P suivante : / < a(1) =1, V1, <1 < Li a(l)=i, e LCn-1 < 1 < Ln a(1) = Cn.
Donc la fonction de répartition « â » à retenir est celle qui vérifie : â = Arg min[F(a)]= Arg min DI,L(vOlc(a(1))) a vérifiant P a vérifiant P 1=1 Dans ce cas, l'optimisation consiste à chercher les instants de changements d'états, c'est-à-dire les valeurs de L1, ..., qui minimisent la fonction F. En pratique, tant que le nombre d'états cachés du modèle HMM-n n'est pas trop élevé, il est possible de calculer F(a) pour toutes les répartitions « a » possibles vérifiant la propriété P, les combinaisons de valeurs possibles pour L1, ..., Lcn_l n'étant pas trop nombreuses. Mais dès que ce nombre augmente, cette façon de procéder devient rapidement trop complexe à implémenter. En outre, dès que les contraintes ne sont plus aussi simples que celles d'un modèle gauche/droite, par exemple dans le cas d'un modèle cyclique ou autre, cette façon de procéder est également difficile à réaliser. En revanche, tant que le modèle de Markov HMM-n est d'ordre 1, c'est-à-dire tant que la probabilité a posteriori d'un état caché du modèle n'est dépendante que d'un seul autre état, il est possible de modéliser la séquence a(1), a(Ln) des répartitions par une chaîne de Markov d'ordre 1 dont les probabilités de transitions respectent les contraintes du modèle HMM-n à estimer, c'est-à-dire que certaines de ces transitions ont une probabilité nulle. Une solution pour optimiser globalement la nouvelle répartition des lois de probabilités dans les classes Ki au cours de l'étape 112 est alors d'introduire un terme relatif aux probabilités de transition d'un état à un autre pour chaque sous- séquence par rapport à la suivante dans l'expression de la fonction d'adaptation. Par exemple cette dernière peut prendre la forme suivante : Ln F' (a) = F (a) - log(p(a(1)1a(1 -1)))- log(p(a(1))) = l' [D'v 1(2(/)I1c(a(/)))- log(p (a (Ma (1 -1)))]+ D '(v(1)1c(a(1))) - log(p(a(1))) i=2 La fonction de répartition « â » à retenir est alors celle qui vérifie : â = Arg mie' (a)] ou de façon équivalente â = Arg max[- F' (a)]. a a On a ainsi introduit dans la fonction d'adaptation F' des termes qui permettent d'éliminer les répartitions ne satisfaisant pas aux contraintes de transitions impossibles du modèle HMM-n considéré en faisant diverger vers l'infini au moins l'un des termes en log(p(a(Pla(/ -1)». En particulier, dans le cas d'un modèle statistique de Markov gauche/droite, p(a(1)1a(1 -1)) = 0 si a(I) est différent de a(I-1) et de a(I-1)+1. De façon plus astucieuse encore, la fonction d'adaptation peut prendre la forme suivante : F" (a) = exp(- F' (a)) Ln = p(a(1)).exp(- D 'v ((1)1c(a(1))))11 p(a MC1(1 -1)).exp(- D '(ço(111c(a(1)))). 1=2 La fonction de répartition « â » à retenir est alors celle qui vérifie : â = Arg max[F"(a)]. a La fonction F" à optimiser, plus précisément à maximiser, est ainsi une fonction définie pour chaque répartition « a » sur la base du produit des probabilités que chaque sous-séquence (et donc sa loi de probabilité associée) soit associée à l'état caché défini par la répartition « a » sachant l'état caché associé à la sous- séquence précédente (et donc sa loi de probabilité associée) par la répartition « a », ce produit de probabilités étant pondéré par le produit des termes exp(-D'401c(a(l)))) faisant intervenir les distances de Kullback Leibler entre la loi de probabilité de chaque sous-séquence d'indice I et celle du centre de la classe Ki (i = a(I)) à laquelle elle est affectée dans la répartition « a ». En considérant ces termes exp(- D'(vOlc(a(/)))) comme similaires à des probabilités a posteriori d'observations au vu des états cachés, et conformément à l'enseignement de l'article de L. Rabiner et B. Juang intitulé « An introduction to Hidden Markov Models », publié dans IEEE ASSP Magazine, pages 4-16, Janvier 1986, plus précisément conformément à ce qui est détaillé en pages 7 à 11 de cet article en référence au « problème 2 » à résoudre, il devient possible de résoudre le problème d'optimisation â = Arg max[F" (a)] grâce à l'algorithme de Viterbi par une a recherche de chemin optimal dans la séquence des états possibles. Plus précisément, en remarquant que l'expression F"(a) est similaire à celle de Pr(0,I/À) dans cet article de L. Rabiner et B. Juang, en remplaçant Tro par p(a(1)), a,1 par p(a(I)/a(1-1)) et b,,(01) par exp(- D KL(VOC(a(1)))) rechercher la répartition â qui maximise F"(a) revient à appliquer l'algorithme de Viterbi comme proposé en page 11 (« box 2 ») de cet article. La répartition optimale â résultant de cette application de l'algorithme de Viterbi est fournie comme nouvelle répartition en sortie de l'étape 112. Suite aux étapes 110 et 112, on passe à une étape 114 lors de laquelle on teste un critère d'arrêt comportant au moins l'une des deux conditions suivantes : la nouvelle répartition, obtenue à l'issue de l'étape 112, des Ln lois de probabilité déterminées à l'étape 106 est inchangée par rapport à la répartition précédente (i.e. répartition initiale de l'étape 108 ou répartition obtenue à une exécution précédente de l'étape 112), les étapes 110 et 112 ont été répétées un nombre Nmax de fois, Nmax étant une constante prédéterminée.
Si le critère d'arrêt n'est pas vérifié, le module de configuration 32 revient à l'étape 110 pour une nouvelle exécution des étapes 110 et 112. Sinon, il passe à une étape 116 d'initialisation des paramètres du modèle statistique HMM-n à l'aide du résultat de la boucle d'étapes 110 à 114. Il convient de remarquer que la boucle d'étapes 110 à 114 constitue une implémentation de l'algorithme des K-Moyennes pour la classification automatique non supervisée des Ln lois normales dans Cn classes correspondant aux Cn états cachés du modèle HMM-n. Le résultat de cette application de l'algorithme des K-Moyennes aux Ln lois de probabilité déterminées à l'étape 106 est une répartition optimisée de ces lois de probabilité entre les Cn états cachés du modèle statistique HMM-n. En outre, chaque centre de paramètres /mi et En, calculé à la dernière exécution de l'étape 110 constitue une unique loi de probabilité représentative de la classe (i.e. l'état caché) dont il est le centre. L'initialisation 116 des paramètres du modèle statistique HMM-n se fait, sur la base du résultat précité, de la façon suivante : le nombre d'états cachés du modèle HMM-n initialisé est fixé à la valeur Cn, les Cn probabilités initiales TT 1 1 - - - 1 TTCn du modèle HMM-n sont initialisées en prenant en compte ses contraintes, par exemple en considérant Tri = 1 et V i>1, Tr, = 0, la matrice des probabilités de transition (aji<I,J<Cn du modèle HMM-n est initialisée à une matrice dont les coefficients diagonaux sont égaux à une première valeur proche de 1, notamment comprise entre 0,8 et 1, et dont les autres coefficients, lorsqu'ils ne sont pas contraints a priori à une valeur nulle, sont égaux à une seconde valeur proche de 0, notamment comprise entre 0 et 0,2, et les paramètres de la loi de probabilité de l'observation fournie à chaque instant par le capteur 18 pour l'état caché Ki sont initialisés à ceux, /in. et Eni, du centre, calculé à la dernière exécution de l'étape 110, de cet état caché. Suite à cette étape d'initialisation 116, on passe à une étape 118 de mise à jour, à partir de l'ensemble des séquences d'apprentissage, des paramètres initialisés du modèle HMM-n. Cette mise à jour est réalisée, comme indiqué précédemment, par l'exécution d'un algorithme itératif espérance-maximisation, en particulier l'algorithme de Baum-Welch, sur l'ensemble des séquences d'apprentissage. Compte tenu de la pertinence de l'initialisation décrite précédemment, cette étape fournit des paramètres du modèle HMM-n globalement optimaux au vu de l'ensemble des séquences d'apprentissage, pour un nombre donné Cn d'états cachés.
Au cours de l'étape 120 suivante, un test est réalisé pour savoir si la succession d'étapes 108 à 118 doit être de nouveau exécutée pour une nouvelle valeur de Cn. Cn est par exemple incrémenté d'une unité et s'il reste dans la plage de valeurs possibles précitée, on reprend le procédé à l'étape 108. Sinon on passe à une dernière étape 122 de configuration du dispositif de détection 10 pour que le modèle statistique HMM-n intègre les paramètres finalement déterminés. Plus précisément, au cours de cette étape dernière étape 122, plusieurs jeux de paramètres sont en concurrence, correspondant à plusieurs valeurs de Cn. Il s'agit alors d'en sélectionner un. Le module de configuration 32 peut par exemple retenir celui qui donne la meilleure valeur de la fonction de coût utilisée à l'exécution 118 de l'algorithme de Baum-Welch. Puis ce jeu de paramètres finalement déterminé pour le modèle statistique HMM-n est enregistré dans la mémoire 20. La figure 6A illustre, à l'aide d'un diagramme, le résultat de l'étape 108 et de la première exécution de l'étape 110 sur un ensemble de Ln lois normales, conformes à ce qui pourrait être réellement obtenu d'une séquence d'apprentissage de situation de crise d'épilepsie, préalablement triées pour Cn = 5. Les cinq centres des cinq classes, dans lesquelles les Ln lois normales sont équiréparties, sont représentés en traits épais. Les figures 6B, 6C et 6D illustrent respectivement ce que deviennent ces cinq centres après des première, deuxième et troisième itérations de la boucle d'étapes 112-114-110. En admettant que la figure 6D illustre le résultat exploité à l'étape 116, on note que les cinq centres finalement obtenus sont très représentatifs de l'ensemble Ln des lois de probabilité extraites de l'ensemble des séquences d'apprentissage. Ils sont en tout cas nettement plus représentatifs des Ln lois de probabilité que les cinq centres initiaux de la figure 6A. Au vu de la distribution D des Ln lois normales fournies en exemple, on imagine également aisément que c'est cette valeur 5 de Cn qui fournira certainement le meilleur résultat à l'étape 118 et sera retenue à l'étape 122. La figure 7 illustre l'affectation d'états aux échantillons d'une séquence d'apprentissage d'une activité cyclique telle qu'une nage, sur la base d'un modèle cyclique à un état d'engagement (état 1) et trois états cycliques (états 2, 3 et 4) tel que celui de la figure 3, à la cinquième itération de la boucle d'étapes 112-114-110. On observe que la répartition convergeant vers l'optimalité est bien cyclique comme attendu et correspond bien aux différents états du modèle cyclique choisi.
Il apparaît clairement qu'un dispositif de détection tel que celui décrit précédemment permet des reconfigurations précises et aussi fréquentes que souhaitées par son utilisateur. Il est ainsi aisé d'adapter le dispositif de détection au système physique observé, et même aux évolutions dans le temps de ce système physique, puisque les modèles statistiques de Markov à états cachés sur la base desquels il réalise sa détection ne sont pas figés. On notera par ailleurs que l'invention n'est pas limitée aux modes de réalisation décrits précédemment. Notamment, le dispositif de détection peut être conçu sous des formes très diverses puisque ses modules d'observation 12, de traitement 14 et d'interface 16 sont séparables. Sa conception peut ainsi s'adapter à l'application envisagée et au système physique observé. Par ailleurs, il peut être envisagé un autre algorithme que celui de Baum Welch, équivalent en termes d'optimisation de paramètres d'un modèle statistique de Markov à états cachés, pour exécuter l'étape 118, un autre algorithme que celui des K-Moyennes, équivalent en termes de classification non supervisée à nombre de classes connu a priori, pour exécuter les étapes 108 à 114, et d'autres métriques ou méthodes de calcul de centres, pour exécuter les étapes 110 et 112. Il apparaîtra plus généralement à l'homme de l'art que diverses modifications peuvent être apportées aux modes de réalisation décrits ci-dessus, à la lumière de l'enseignement qui vient de lui être divulgué. Dans les revendications qui suivent, les termes utilisés ne doivent pas être interprétés comme limitant les revendications aux modes de réalisation exposés dans la présente description, mais doivent être interprétés pour y inclure tous les équivalents que les revendications visent à couvrir du fait de leur formulation et dont la prévision est à la portée de l'homme de l'art en appliquant ses connaissances générales à la mise en oeuvre de l'enseignement qui vient de lui être divulgué.

Claims (10)

  1. REVENDICATIONS1. Procédé de configuration d'un dispositif (10) de détection d'une situation parmi un ensemble de situations (S-1, ..., S-N) dans lesquelles est susceptible de se trouver un système physique (40) observé par au moins un capteur (18), comportant les étapes suivantes : réception (102) d'une séquence de données d'observation du système physique, appelée séquence d'apprentissage (L-1, ..., L-N), fournie par le capteur et correspondant à une situation déterminée du système physique, détermination, à partir de la séquence d'apprentissage, de paramètres d'un modèle statistique de Markov à états cachés (HMM1, ..., HMM-N) enregistré dans des moyens (20) de stockage du dispositif de détection et relatif à la situation déterminée, par initialisation préalable (104-116) de ces paramètres, puis mise à jour (118) de ces paramètres initialisés, caractérisé en ce que l'initialisation préalable (104-116) comporte les étapes suivantes : le modèle statistique considéré comportant un nombre donné d'états cachés et des contraintes de transitions impossibles entre certains états cachés, détermination (104, 106) d'une pluralité de lois de probabilité à partir de la séquence d'apprentissage, par division de la séquence en sous-séquences et attribution à chaque sous-séquence d'une loi de probabilité la modélisant statistiquement, le nombre de lois de probabilité déterminées étant supérieur au nombre d'états cachés du modèle statistique considéré, répartition (106-114) des lois de probabilité déterminées entre les différents états cachés du modèle statistique considéré, par optimisation globale (112) d'une fonction d'adaptation de ces lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles, détermination (110), pour chaque état caché du modèle statistique considéré et à partir des lois de probabilités affectées à cet état caché, d'une unique loi de probabilité représentative de cet état caché, etinitialisation (116) des paramètres du modèle statistique considéré à partir des lois de probabilité représentatives déterminées, et en ce que le procédé comporte en outre une étape de configuration (122) du dispositif de détection pour que le modèle statistique considéré intègre les paramètres déterminés par ladite initialisation préalable (104-116) puis ladite mise à jour (118).
  2. 2. Procédé de configuration selon la revendication 1, dans lequel la répartition (106-114) comporte l'exécution (110-114) d'un algorithme itératif de K-Moyennes sur un nombre de classes égal au nombre d'états cachés du modèle statistique considéré (HMM-1, ..., HMM-N), cet algorithme itératif comportant, à chaque itération : pour chaque loi de probabilité déterminée à partir de la séquence d'apprentissage, l'association (112) de cette loi à l'une des classes, cette association utilisant la divergence de Kullback Leibler et les contraintes de transitions impossibles, et le calcul (110), pour chaque classe, d'une loi de probabilité représentant son centre.
  3. 3. Procédé de configuration selon la revendication 2, dans lequel la répartition (106-114) comporte une initialisation (106, 108, 110) de l'algorithme itératif de K-Moyennes consistant à : trier (106) les lois de probabilité dans l'ordre séquentiel des sous-séquences auxquelles elles sont associées dans la séquence d'apprentissage, répartir (108) les lois de probabilité triées dans les classes dans cet ordre séquentiel, de la première à la dernière classe, pour chaque classe ainsi initialisée, déterminer (110) une loi de probabilité représentant son centre.
  4. 4. Procédé de configuration selon la revendication 2 ou 3, dans lequel la fonction d'adaptation des lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles du modèle statistique considéré est, pour une répartition donnée des lois de probabilité déterminées entre les différents états cachés du modèle statistique considéré, cette répartition étant conforme aux contraintes de transitions impossibles, une somme de distances de Kullback Leibler entre chaque loi de probabilité déterminée et chaque loi de probabilité représentant le centre de l'état caché associé dans cette répartition.
  5. 5. Procédé de configuration selon la revendication 2 ou 3, dans lequel : la fonction d'adaptation des lois de probabilité aux différents états cachés et aux contraintes de transitions impossibles du modèle statistique considéré est, pour chaque répartition « a » des lois de probabilité déterminées à partir de la séquence d'apprentissage entre les différents états cachés du modèle statistique considéré, un produit entre une fonction prenant en compte la divergence de Kullback Leibler entre chaque loi de probabilité déterminée à partir de la séquence d'apprentissage et chaque loi de probabilité représentant le centre de l'état caché qui lui est associé dans cette répartition « a », et des probabilités que chaque loi de probabilité déterminée à partir de la séquence d'apprentissage soit associée à l'état caché défini par la répartition « a » sachant l'état caché associé par la répartition « a » à la loi de probabilité la précédant dans un ordre donné des lois de probabilités issues de la séquence d'apprentissage , l'optimisation globale (112) de cette fonction d'adaptation est réalisée par exécution de l'algorithme de Viterbi pour la sélection d'une répartition qui la maximise.
  6. 6. Procédé de configuration selon l'une quelconque des revendications 2 à 5, dans lequel, chaque loi de probabilité étant une loi normale, la loi de probabilité représentant le centre d'une classe Ki est une loi normale déterminée par le calcul (110) de son espérance et de sa variance Ei en fonction des espérances et des variances E de toutes les lois de probabilité de cette classe Ki, de la façon suivante : 1 et Ei = 1 pi= Card (Ki)E Ki Card (Ki) jEK, 1(1' H du, , où Card est la fonction « Cardinal » et H est l'opérateur Hermitien.
  7. 7. Procédé de configuration selon l'une quelconque des revendications 1 à 6, dans lequel le modèle statistique de Markov à états cachés (HMM-1, HMM-N) relatif à la situation déterminée est un modèle gauche/droite ou cyclique dans lequel une séquence (K1, K2, K3, K4) ou un cycle (K2, K3, K4) d'états cachés est imposé.
  8. 8. Programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutablepar un processeur, caractérisé en ce qu'il comprend des instructions pour l'exécution des étapes d'un procédé de configuration selon l'une quelconque des revendications 1 à 7, lorsque ledit programme est exécuté sur un ordinateur.
  9. 9. Dispositif adaptatif (10) de détection d'une situation parmi un ensemble de situations (S-1, ..., S-N) dans lesquelles est susceptible de se trouver un système physique (40) observé par au moins un capteur, à partir de données d'observation du système physique fournies par le capteur, comportant : au moins un capteur (18) pour la fourniture d'une séquence de données d'observation du système physique, des moyens de stockage (20), pour chaque situation (S-1, ..., S-N) de l'ensemble de situations, d'un modèle statistique de Markov à états cachés (HMM-1, ..., HMM-N), un calculateur (22), relié au capteur et aux moyens de stockage, programmé (28) pour sélectionner l'une des situations par comparaison de probabilités de ces situations connaissant la séquence de données d'observation, les probabilités étant estimées sur la base des modèles statistiques stockés, dans lequel le calculateur est en outre programmé (32) pour exécuter les étapes d'un procédé de configuration selon l'une quelconque des revendications 1 à 7, sur 20 réception d'une séquence identifiée comme séquence d'apprentissage correspondant à une situation déterminée du système physique.
  10. 10. Dispositif adaptatif (10) selon la revendication 9, dans lequel le capteur (18) comporte au moins l'un des éléments de l'ensemble constitué d'un capteur de mouvement à au moins un axe de mesure, d'un capteur de pression, d'un 25 cardiomètre et d'un capteur de glycémie.
FR1157611A 2011-08-29 2011-08-29 Procede de configuration d'un dispositif de detection a capteur, programme d'ordinateur et dispositif adaptatif correspondants Active FR2979447B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1157611A FR2979447B1 (fr) 2011-08-29 2011-08-29 Procede de configuration d'un dispositif de detection a capteur, programme d'ordinateur et dispositif adaptatif correspondants
EP12762336.1A EP2751749A1 (fr) 2011-08-29 2012-08-29 Procédé de configuration d'un dispositif de détection à capteur, programme d'ordinateur et dispositif adaptatif correspondants
PCT/FR2012/051952 WO2013030508A1 (fr) 2011-08-29 2012-08-29 Procédé de configuration d'un dispositif de détection à capteur, programme d'ordinateur et dispositif adaptatif correspondants
US14/342,205 US9524467B2 (en) 2011-08-29 2012-08-29 Method for configuring a sensor detection device, and corresponding computer program and adaptive device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1157611A FR2979447B1 (fr) 2011-08-29 2011-08-29 Procede de configuration d'un dispositif de detection a capteur, programme d'ordinateur et dispositif adaptatif correspondants

Publications (2)

Publication Number Publication Date
FR2979447A1 true FR2979447A1 (fr) 2013-03-01
FR2979447B1 FR2979447B1 (fr) 2015-09-25

Family

ID=46889335

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1157611A Active FR2979447B1 (fr) 2011-08-29 2011-08-29 Procede de configuration d'un dispositif de detection a capteur, programme d'ordinateur et dispositif adaptatif correspondants

Country Status (4)

Country Link
US (1) US9524467B2 (fr)
EP (1) EP2751749A1 (fr)
FR (1) FR2979447B1 (fr)
WO (1) WO2013030508A1 (fr)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2981561B1 (fr) 2011-10-21 2015-03-20 Commissariat Energie Atomique Procede de detection d'activite a capteur de mouvements, dispositif et programme d'ordinateur correspondants
US10156907B2 (en) * 2015-12-14 2018-12-18 Invensense, Inc. Device for analyzing the movement of a moving element and associated method
US10929767B2 (en) * 2016-05-25 2021-02-23 International Business Machines Corporation Method for complex events detection using hidden markov models
US10799196B2 (en) 2017-11-20 2020-10-13 General Electric Company System and method for encouraging patient stillness during imaging
CN110490760B (zh) * 2019-07-24 2022-12-16 国网浙江省电力有限公司 一种基于隐马尔科夫链的非侵入式电器负荷辨识方法
CN114615018B (zh) * 2022-02-15 2023-10-03 北京云集智造科技有限公司 一种金融业交易全链路日志的异常检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6734834B1 (en) * 2000-02-11 2004-05-11 Yoram Baram Closed-loop augmented reality apparatus

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ARADILLA G ET AL: "An Acoustic Model Based on Kullback-Leibler Divergence for Posterior Features", 2007 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING 15-20 APRIL 2007 HONOLULU, HI, USA, IEEE, PISCATAWAY, NJ, USA, 15 April 2007 (2007-04-15), pages IV - 657, XP031463935, ISBN: 978-1-4244-0727-9 *
KRISHNAMURTHY V ET AL: "ON-LINE ESTIMATION OF HIDDEN MARKOV MODEL PARAMETERS BASED ON THE KULLBACK-LEIBLER INFORMATION MEASURE", IEEE TRANSACTIONS ON SIGNAL PROCESSING, IEEE SERVICE CENTER, NEW YORK, NY, US, vol. 41, no. 8, 1 August 1993 (1993-08-01), pages 2557 - 2573, XP002043735, ISSN: 1053-587X, DOI: 10.1109/78.229888 *
LAWRENCE R RABINER: "A Tutorial on Hidden Markov Models and selected Applications in Speech Recognition", PROCEEDINGS OF THE IEEE, IEEE. NEW YORK, US, vol. 77, no. 2, 1 February 1989 (1989-02-01), pages 257 - 286, XP002550447, ISSN: 0018-9219, DOI: 10.1109/5.18626 *
PIERRE JALLON ET AL: "Detection system of motor epileptic seizures through motion analysis with 3D accelerometers", 2009 ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY : EMBC 2009 ; MINNEAPOLIS, MINNESOTA, USA, 3 - 6 SEPTEMBER 2009, IEEE, PISCATAWAY, NJ, USA, 3 September 2009 (2009-09-03), pages 2466 - 2469, XP031567495, ISBN: 978-1-4244-3296-7 *
PIERRE JALLON: "A Bayesian approach for epileptic seizures detection with 3D accelerometers sensors", 2010 ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY : (EMBC 2010) ; BUENOS AIRES, ARGENTINA, 31 AUGUST - 4 SEPTEMBER 2010, IEEE, PISCATAWAY, NJ, USA, 31 August 2010 (2010-08-31), pages 6325 - 6328, XP032109372, ISBN: 978-1-4244-4123-5, DOI: 10.1109/IEMBS.2010.5627636 *
RAMYA RASIPURAM ET AL: "Integrating articulatory features using Kullback-Leibler divergence based acoustic model for phoneme recognition", ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP), 2011 IEEE INTERNATIONAL CONFERENCE ON, IEEE, 22 May 2011 (2011-05-22), pages 5192 - 5195, XP032001852, ISBN: 978-1-4577-0538-0, DOI: 10.1109/ICASSP.2011.5947527 *

Also Published As

Publication number Publication date
US20140229410A1 (en) 2014-08-14
US9524467B2 (en) 2016-12-20
EP2751749A1 (fr) 2014-07-09
FR2979447B1 (fr) 2015-09-25
WO2013030508A1 (fr) 2013-03-07

Similar Documents

Publication Publication Date Title
EP2483758B1 (fr) Systeme et procede de reconnaissance de gestes
EP2696344B1 (fr) Procede et systeme pour detecter des evenements sonores dans un environnement donne
FR2979447A1 (fr) Procede de configuration d&#39;un dispositif de detection a capteur, programme d&#39;ordinateur et dispositif adaptatif correspondants
EP2423851B1 (fr) Procédé de configuration d&#39;un dispositif de détection à capteur, programme d&#39;ordinateur et dispositif adaptatif correspondants
EP2321769B1 (fr) Procédé de reconnaissance de formes et système mettant en oeuvre le procédé
FR2962821A1 (fr) Procede et systeme de classification de signaux neuronaux, et procede de selection d&#39;electrodes pour commande neuronale directe.
FR2944903A1 (fr) Systeme et methode pour detecter des evenements audio anormaux
EP1864242A1 (fr) Procede d&#39;identification de visages a partir d&#39;images de visage, dispositif et programme d&#39;ordinateur correspondants
EP2316082A1 (fr) Procede d&#39;identification d&#39;un objet dans une archive video
FR2965377A1 (fr) Procede de classification de donnees biometriques
EP3032463B1 (fr) Procédé et dispositif de suivi de caractères figurant sur une pluralité d&#39;images d&#39;un flux vidéo d&#39;un texte
EP1792278B1 (fr) Procede de detection et de pistage de cibles ponctuelles, dans un systeme de surveillance optronique
EP2638492B1 (fr) Dispositif de détection à capteur, procédé de détection et programme d&#39;ordinateur correspondants
WO2019186050A1 (fr) Dispositif informatique de detection de troubles du rythme cardiaque
EP3252563B1 (fr) Détermination d&#39;un contexte de mobilité d&#39;un utilisateur porteur d&#39;un équipement muni de capteurs inertiels
EP2766825B1 (fr) Systeme et procede non supervise d&#39;analyse et de structuration thematique multi resolution de flux audio
EP3543904A1 (fr) Procédé de contrôle de détection de scènes et appareil correspondant
EP4033361B1 (fr) Procédé et dispositif de détermination d&#39;au moins une machine impliquée dans une anomalie détectée dans une infrastructure informatique complexe
EP2828797A1 (fr) Dispositif et procede d&#39;identification d&#39;un mouvement cyclique, programme d&#39;ordinateur correspondant
WO2024061989A1 (fr) Procédé de traitement de signal monodimensionnel, dispositif et programme correspondant
FR3066296A1 (fr) Procede de controle de detection, avec filtrage, de scenes par un appareil, par exemple un appareil de communication sans fil, et appareil correspondant
CN117876728A (zh) 一种目标识别方法、装置、设备及存储介质
FR3130061A1 (fr) Procédé de localisation et cartographie simultanées intégrant un masquage temporel auto-supervisé et modèle d’apprentissage automatique pour générer un tel masquage.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13