WO2022214523A1 - Procédé et kit pour la reconnaissance d'un utilisateur d'un article chaussant ou d'une activité pratiquée par un utilisateur d'un article chaussant - Google Patents
Procédé et kit pour la reconnaissance d'un utilisateur d'un article chaussant ou d'une activité pratiquée par un utilisateur d'un article chaussant Download PDFInfo
- Publication number
- WO2022214523A1 WO2022214523A1 PCT/EP2022/059073 EP2022059073W WO2022214523A1 WO 2022214523 A1 WO2022214523 A1 WO 2022214523A1 EP 2022059073 W EP2022059073 W EP 2022059073W WO 2022214523 A1 WO2022214523 A1 WO 2022214523A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sensor data
- user
- raw sensor
- representation vector
- footwear
- Prior art date
Links
- 230000000694 effects Effects 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000010801 machine learning Methods 0.000 claims description 11
- 230000002457 bidirectional effect Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000000306 recurrent effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 230000015654 memory Effects 0.000 claims description 5
- 238000007637 random forest analysis Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009194 climbing Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- A—HUMAN NECESSITIES
- A43—FOOTWEAR
- A43B—CHARACTERISTIC FEATURES OF FOOTWEAR; PARTS OF FOOTWEAR
- A43B3/00—Footwear characterised by the shape or the use
- A43B3/34—Footwear characterised by the shape or the use with electrical or electronic arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Definitions
- the invention relates to the field of the practice of activities.
- it relates to a method and a kit for recognizing a subject or the different activities that a subject performs.
- a high level of activity is beneficial for the maintenance of health.
- the invention aims to solve, at least partially, this need.
- the invention relates to a method for recognizing a user of an article of footwear or an activity practiced by a user of an article of footwear.
- the article of footwear comprises a pair of shoes and at least one sensor positioned on or in the pair of shoes so as to generate a flow of raw sensor data in response to at least one biomechanical movement of the user during the practice of an activity.
- the method includes: - a step for receiving a flow of raw sensor data, - a step of projecting at least one segment of the raw sensor data stream into a representation vector space ("embedding" in English) so as to obtain a representation vector having a predetermined size and reduced with respect to the dimension received raw sensor data, and - a step of classifying the raw sensor data received from the representation vector and a classifier trained by machine learning to provide a prediction of membership of the segment of the raw sensor data stream to a user class or a class of activity practiced by the user.
- a representation vector space "embedding" in English
- the projection step includes using a trained bidirectional recurrent neural network (RNN) to generate a representation vector from raw sensor data.
- RNN bidirectional recurrent neural network
- the bidirectional recurrent neural network is a bidirectional long-short-term memory (LSTM) network that uses a triplet loss function.
- LSTM long-short-term memory
- the representation vector space is a user embedding vector space and the representation vector is a user representation vector.
- the representation vector space is an activity embedding vector space and the representation vector is an activity representation vector.
- the machine-learning trained classifier includes a random forest classifier or a regression-based classifier.
- the raw data includes at least one type of data selected from: force sensor data, gyroscope sensor data, gyrometer sensor data, accelerometer sensor data.
- each segment of the raw sensor data stream has a temporal duration of at least 500 ms, preferably one second.
- the article of footwear comprises at least one processor and the method is carried out by the processor.
- the article of footwear comprises at least one wireless connection module and the method is carried out by a smart phone or a computing cloud connected wirelessly with the wireless connection module.
- the invention also relates to a kit which comprises: - at least one sensor which is adapted to be positioned on or in an article of footwear comprising a pair of shoes so as to generate a flow of raw sensor data in response to at least one biomechanical movement of the user during the practice of an activity, the raw sensor data comprising a plurality of types of data that is representative of a movement of a foot of the user, - at least one processor configured to execute a process, and - at least one memory configured to store the process executable by the processor, the process, when it is executed, being configured for: - receive a stream of raw sensor data, - projecting at least one segment of the raw sensor data stream into a representation vector space ("embedding" in English) so as to obtain a representation vector having a predetermined and reduced size compared to the dimension of the raw sensor data received, - classifying the raw sensor data received from the representation vector and a classifier trained by machine learning to provide a prediction of membership of the segment of the raw sensor data stream to a user class or
- the processor is disposed at least partially inside the article of footwear.
- the item of footwear further comprises at least one wireless connection module, and wherein the processor is comprised in a device wirelessly connected with the wireless connection module and selected from: a smart phone or a cloud computing.
- One of the objectives of this invention is to facilitate the detection of a user of an article of footwear or of an activity carried out by a user of an article of footwear.
- footwear in the sense of the invention a pair, for example, of shoes, each shoe being intended for one foot of the user.
- the inventors propose to use raw data from footwear sensors that are provided to a classifier trained by machine learning.
- the invention uses the so-called “embedding” method to project the raw data into a data representation space that is suitable for the desired classification.
- the invention relates to a method 100 for recognizing a subject or the different activities that a subject practices.
- the activity is chosen from: football, basketball, table tennis, badminton, walking, running.
- the activity may relate to other disciplines which require the use of an article of footwear, and this, without requiring substantial modifications of the invention.
- the article of footwear comprises a pair of shoes.
- the item of footwear may include a pair of insoles.
- the method 100 is implemented from a stream of raw data from one or more sensors positioned on or in a pair of shoes, for example at least partly in a sole.
- the present invention in these different embodiments, preferred or not, could be applied in the case where the sensors are not integrated into a sole. It could in particular be applied when the sensor or sensors are positioned on a shoe, for example at the level of the tongue, the upper or the heel counter of a shoe.
- the insole 200 comprises at least one processor 310.
- the processor 310 carries out the method 100.
- the insole 200 comprises at least one wireless connection module 330.
- the method 100 is implemented by a remote device.
- a smart phone 400 connected wirelessly with the wireless connection module 330 performs the method 100.
- a cloud computing 500 connected wirelessly with the wireless connection module 330 performs the method 100.
- each insole 200 comprises at least one sensor 210.
- each insole 200 comprises at least two sensors 210.
- the use of several sensors on or in each of the shoes coupled to the use of a representation vector having a predetermined size makes it possible to improve recognition.
- sensor 210 is a force sensor.
- sensor 210 is a single or multi-axis motion gyroscope sensor.
- sensor 210 is a single or multi-axis motion gyroscope sensor.
- sensor 210 is a single or multi-axis accelerometer sensor.
- the senor 210 is arranged at least partially inside the insole 200.
- the insole 200 can correspond to a removable sole or to an intermediate sole.
- the senor 210 is configured to generate a stream of raw sensor data in response to at least one biomechanical movement of the user during the practice of an activity.
- biomechanical movement we mean in the sense of the invention a characteristic of the user's posture or mobility, which can in particular be determined at a key moment in a cycle and therefore more complex to determine.
- a cycle being able for example to be a walking cycle.
- activities such as stepping, climbing a step, descending a step, stride, jump, flat, droop, stomp, kneel... Therefore, a cycle can also correspond to a plurality of activities of different types depending on the complexity of the movement performed by the user.
- the raw sensor data stream includes a plurality of data types that are representative of movement of a user's foot.
- the raw sensor data includes at least one type of data selected from: force sensor data, gyroscope sensor data, gyrometer sensor data, accelerometer sensor data.
- the raw sensor data is sampled at a predetermined frequency greater than 50 Hz, preferably greater than or equal to 100 Hz.
- the method 100 firstly comprises a step 110 of receiving a stream of raw sensor data.
- the flow of raw sensor data is received as a function of time during the practice of an activity by a user of the footwear.
- the raw sensor data stream comprises a plurality of segments.
- each segment of the raw sensor data stream has a temporal duration of at least 100 ms, at least 500 ms, preferably one second.
- each segment of the raw sensor data stream has a time duration of at most ten seconds, preferably at most 5 seconds.
- the method 100 includes a step 120 of projecting at least one segment of the raw sensor data stream into a representation vector space (also known as the “embedding” method) of so as to obtain a representation vector which has a predetermined and reduced size with respect to the size of the raw sensor data received.
- a representation vector space also known as the “embedding” method
- vector space of representation we mean the projection of a vector (often large) which represents a categorical variable (e.g. a user or an activity practiced by a user) in a new space of controlled size which models the relations between the different categories.
- a categorical variable e.g. a user or an activity practiced by a user
- the representation vector space is a user embedding vector space and the representation vector is a user representation vector.
- the raw sensor data can be associated with a user.
- the representation vector space is an activity embedding vector space and the representation vector is an activity representation vector.
- the raw sensor data can be associated with an activity that a user practices.
- the representation vector space is a common user and activity representation vector space and the representation vector is a common user and activity representation vector. activity.
- the raw sensor data can be associated with a user and with an activity that a user practices.
- the projection step 120 includes the use of a trained bidirectional recurrent neural network (RNN) to generate a representation vector from raw sensor data.
- RNN bidirectional recurrent neural network
- the bidirectional recurrent neural network (RNN) without a nonlinear hidden layer is trained.
- the matrix of the weights of the linear layer can be interpreted as a linear projection which makes it possible to pass from the space of the raw data of sensors to a space of reduced dimension.
- the bidirectional recurrent neural network, RNN is a bidirectional long-term memory, LSTM, network that uses a triplet loss function.
- the anchor in the case of the recognition of a user of an article of footwear according to the invention, can be a first vector of raw sensor data associated with a first user of an article of footwear, the positive can be a second vector of raw sensor data associated with the first user of the article of footwear and negative can be a third vector of raw sensor data associated with another user of the article of footwear.
- the anchor in the case of the recognition of an activity practiced by a user of an article of footwear according to the invention, can be a first vector of raw sensor data associated with a first activity practiced by a user of an article of footwear, the positive can be a second vector of raw sensor data associated with the first activity performed by the user of the article of footwear and the negative can be a third vector of raw sensor data associated with a other activity carried out by the user of the footwear.
- the method 100 comprises a step 130 of classifying the raw sensor data received from the representation vector and a classifier trained by machine learning to provide a prediction of membership of the segment of the raw sensor data stream to a class of user or a class of activity practiced by the user.
- the classifier trained by machine learning comprises a random forest classifier or a regression-based classifier (e.g., linear, logistic, etc.).
- the classifier trained by machine learning is obtained by supervised training on a set of training data collected previously for a plurality of predetermined activities.
- the training dataset includes raw sensor data.
- the training data set comprises raw data from sensors which have been acquired during a predetermined time interval, for example less than 1 minute, 30 seconds, 10 seconds or the like.
- the invention also relates to a kit 300 as illustrated in the .
- the kit 300 comprises at least one sensor 210, at least one processor 310 and at least one memory 320.
- the sensor 210 is adapted to be positioned on or in an article of footwear comprising a pair of shoes so as to generate a stream of raw sensor data in response to at least one biomechanical movement of the user during the practice of an activity.
- the raw sensor data comprising a plurality of data types that are representative of movement of a user's foot.
- the kit 300 comprises at least four sensors 210, at least two sensors being positioned on or in each of the shoes.
- Processor 310 is configured to run a process.
- Memory 320 is configured to store the process executable by processor 310.
- the kit 300 can further comprise a pair of insoles 200.
- the pair of soles is configured to be inserted into an article of footwear.
- the process when run, is configured to: - receive a flow of raw sensor data, - projecting at least one segment of the raw sensor data stream into a representation vector space ("embedding" in English) so as to obtain a representation vector having a predetermined and reduced size compared to the dimension of the raw sensor data received, - classify the raw sensor data received from the representation vector and a classifier trained by machine learning to provide a prediction of membership of the segment of the raw sensor data stream to a user class or a class of activity performed by the user.
- a representation vector space (“embedding" in English)
- the processor 310 is arranged at least partially inside the article of footwear.
- the processor is disposed at least partially inside the insole 200.
- the article of footwear further comprises at least one wireless connection module 330.
- the processor 310 is included in a device connected wirelessly with the wireless connection module 330 and chosen from: a smart phone 400 or a computing cloud 500.
- the invention may be subject to numerous variants and applications other than those described above.
- the various structural and functional characteristics of each of the implementations described above should not be considered as combined and/or closely and/or inextricably linked to each other, but on the contrary as simple juxtapositions.
- the structural and/or functional characteristics of the different embodiments described above may be the subject, in whole or in part, of any different juxtaposition or any different combination.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Footwear And Its Accessory, Manufacturing Method And Apparatuses (AREA)
Abstract
Description
- une étape de réception d’un flux de données brutes de capteurs,
- une étape de projection d’au moins un segment du flux de données brutes de capteurs dans un espace vectoriel de représentation (« embedding » en anglais) de manière à obtenir un vecteur de représentation présentant une taille prédéterminée et réduite par rapport à la dimension des données brutes de capteurs reçues, et
- une étape de classification des données brutes de capteurs reçues à partir du vecteur de représentation et d’un classifieur entrainé par apprentissage machine pour fournir une prédiction d’appartenance du segment du flux de données brutes de capteurs à une classe d’utilisateur ou une classe d’activité pratiquée par l’utilisateur.
- au moins un capteur qui est adapté pour être positionné sur ou dans un article chaussant comprenant une paire de chaussures de manière à générer un flux de données brutes de capteurs en réponse à au moins un mouvement biomécanique de l’utilisateur pendant la pratique d’une activité, les données brutes de capteurs comprenant une pluralité de types de données qui sont représentatives d’un mouvement d’un pied de l’utilisateur,
- au moins un processeur configuré pour exécuter un processus, et
- au moins une mémoire configurée pour stocker le processus exécutable par le processeur, le processus, lorsqu’il est exécuté, étant configuré pour :
- recevoir un flux de données brutes de capteurs,
- projeter au moins un segment du flux de données brutes de capteurs dans un espace vectoriel de représentation (« embedding » en anglais) de manière à obtenir un vecteur de représentation présentant une taille prédéterminée et réduite par rapport à la dimension des données brutes de capteurs reçues,
- classifier les données brutes de capteurs reçues à partir du vecteur de représentation et d’un classifieur entrainé par apprentissage machine pour fournir une prédiction d’appartenance du segment du flux de données brutes de capteurs à une classe d’utilisateur ou une classe d’activité pratiquée par l’utilisateur.
et dans lequel le processeur est compris dans un dispositif connecté sans fil avec le module de connexion sans fil et choisi parmi : un téléphone intelligent ou un nuage informatique.
- recevoir un flux de données brutes de capteurs,
- projeter au moins un segment du flux de données brutes de capteurs dans un espace vectoriel de représentation (« embedding » en anglais) de manière à obtenir un vecteur de représentation présentant une taille prédéterminée et réduite par rapport à la dimension des données brutes de capteurs reçues,
- classifier les données brutes de capteurs reçues à partir du vecteur de représentation et d’un classifieur entrainé par apprentissage machine pour fournir une prédiction d’appartenance du segment du flux de données brutes de capteurs à une classe d’utilisateur ou une classe d’activité pratiquée par l’utilisateur.
Claims (13)
- Procédé (100) implémenté par ordinateur pour la reconnaissance d’un utilisateur d’un article chaussant ou d’une activité pratiquée par un utilisateur d’un article chaussant, l’article chaussant comportant une paire de chaussures et au moins deux capteurs (210) positionnés sur ou dans la paire de chaussures de manière à générer un flux de données brutes de capteurs en réponse à au moins un mouvement biomécanique de l’utilisateur pendant la pratique d’une activité, le procédé (100) comprenant :
- une étape de réception (110) d’un flux de données brutes de capteurs, le flux de données brutes de capteurs comprenant une pluralité de types de données qui sont représentatives d’un mouvement d’un pied de l’utilisateur,
- une étape de projection (120) d’au moins un segment du flux de données brutes de capteurs dans un espace vectoriel de représentation, « embedding » en anglais, de manière à obtenir, un vecteur de représentation présentant une taille prédéterminée et réduite par rapport à la dimension des données brutes de capteurs reçues, et
- une étape de classification (130) des données brutes de capteurs reçues à partir du vecteur de représentation et d’un classifieur entrainé par apprentissage machine pour fournir une prédiction d’appartenance du segment du flux de données brutes de capteurs à une classe d’utilisateur ou une classe d’activité pratiquée par l’utilisateur. - Procédé implémenté par ordinateur selon la revendication 1, dans lequel l’étape de projection (120) comprend l’utilisation d’un réseau neuronal récurrent, RNN, bidirectionnel entrainé pour générer un vecteur de représentation à partir de données brutes de capteurs.
- Procédé implémenté par ordinateur selon la revendication 2, dans lequel le réseau neuronal récurrent, RNN, bidirectionnel est un réseau de longue mémoire à court terme, LSTM, bidirectionnel qui utilise une fonction de perte de triplet.
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 3, dans lequel, l’espace vectoriel de représentation est un espace vectoriel de représentation d’utilisateurs « user embedding » en anglais, et le vecteur de représentation est un vecteur de représentation d’utilisateur.
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 3, dans lequel, l’espace vectoriel de représentation est un espace vectoriel de représentation d’activités, « activity embedding » en anglais, et le vecteur de représentation est un vecteur de représentation d’activité.
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 5, dans lequel, le classifieur entrainé par apprentissage machine comprend un classifieur à forêt aléatoire ou un classifieur basé sur une régression.
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 6, dans lequel, les données brutes comprennent au moins un type de données choisi parmi : des données de capteur de force, des données de capteur de gyroscope, des données de capteur de gyromètre, des données de capteur d’accéléromètre.
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 7, dans lequel chaque segment du flux de données brutes de capteurs présente une durée temporelle d’au moins 500 ms, de préférence 1 seconde.
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 8, dans lequel, l’article chaussant comprend au moins un processeur (310), le procédé (100) étant réalisé par le processeur (310).
- Procédé (100) implémenté par ordinateur selon l’une quelconque des revendications 1 à 9, dans lequel, l’article chaussant comprend au moins un module de connexion sans fil (330), le procédé (100) étant réalisé par un téléphone intelligent (400) ou un nuage informatique (500) connecté sans fil avec le module de connexion sans fil (330).
- Kit (300) comprenant :
- au moins deux capteurs (210) adaptés pour être positionnés sur ou dans un article chaussant comprenant une paire de chaussures de manière à générer un flux de données brutes de capteurs en réponse à au moins un mouvement biomécanique de l’utilisateur pendant la pratique d’une activité, ,
- au moins un processeur (310) configuré pour exécuter un processus, et
- au moins une mémoire (320) configurée pour stocker le processus exécutable par le processeur (310), le processus, lorsqu’il est exécuté, étant configuré pour :
- recevoir un flux de données brutes de capteurs, le flux de données brutes de capteurs comprenant une pluralité de types de données qui sont représentatives d’un mouvement d’un pied de l’utilisateur,
- projeter au moins un segment du flux de données brutes de capteurs dans un espace vectoriel de représentation, « embedding » en anglais, de manière à obtenir, un vecteur de représentation présentant une taille prédéterminée et réduite par rapport à la dimension des données brutes de capteurs reçues, et
- classifier les données brutes de capteurs reçues à partir du vecteur de représentation et d’un classifieur entrainé par apprentissage machine pour fournir une prédiction d’appartenance du segment du flux de données brutes de capteurs à une classe d’utilisateur ou une classe d’activité pratiquée par l’utilisateur. - Kit (300) selon la revendication 11, dans lequel le processeur (310) est disposé au moins partiellement à l’intérieur de l’article chaussant.
- Kit (300) selon la revendication 11, dans lequel l’article chaussant comprend en outre au moins un module de connexion sans fil (330),
et dans lequel le processeur (310) est compris dans un dispositif connecté sans fil avec le module de connexion sans fil (330) et choisi parmi : un téléphone intelligent (400) ou un nuage informatique (500).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22716433.2A EP4305546A1 (fr) | 2021-04-06 | 2022-04-06 | Procédé et kit pour la reconnaissance d'un utilisateur d'un article chaussant ou d'une activité pratiquée par un utilisateur d'un article chaussant |
US18/285,843 US20240184856A1 (en) | 2021-04-06 | 2022-04-06 | Method and kit for recognising a user of a footwear article or an activity performed by a user of a footwear article |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FRFR2103524 | 2021-04-06 | ||
FR2103524A FR3121330A1 (fr) | 2021-04-06 | 2021-04-06 | Procédé et kit pour la reconnaissance d’un utilisateur d’un article chaussant ou d’une activité pratiquée par un utilisateur d’un article chaussant |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2022214523A1 true WO2022214523A1 (fr) | 2022-10-13 |
WO2022214523A9 WO2022214523A9 (fr) | 2022-12-22 |
Family
ID=77317053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2022/059073 WO2022214523A1 (fr) | 2021-04-06 | 2022-04-06 | Procédé et kit pour la reconnaissance d'un utilisateur d'un article chaussant ou d'une activité pratiquée par un utilisateur d'un article chaussant |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240184856A1 (fr) |
EP (1) | EP4305546A1 (fr) |
FR (1) | FR3121330A1 (fr) |
WO (1) | WO2022214523A1 (fr) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190365287A1 (en) * | 2018-05-30 | 2019-12-05 | Industry-Academic Cooperation Foundation, Dankook University | Apparatus and method for gait type classification using pressure sensor of smart insole |
-
2021
- 2021-04-06 FR FR2103524A patent/FR3121330A1/fr active Pending
-
2022
- 2022-04-06 EP EP22716433.2A patent/EP4305546A1/fr active Pending
- 2022-04-06 US US18/285,843 patent/US20240184856A1/en active Pending
- 2022-04-06 WO PCT/EP2022/059073 patent/WO2022214523A1/fr active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190365287A1 (en) * | 2018-05-30 | 2019-12-05 | Industry-Academic Cooperation Foundation, Dankook University | Apparatus and method for gait type classification using pressure sensor of smart insole |
Non-Patent Citations (1)
Title |
---|
QIN ZOU ET AL: "Deep Learning Based Gait Recognition Using Smartphones in the Wild", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 1 November 2018 (2018-11-01), XP081454777 * |
Also Published As
Publication number | Publication date |
---|---|
EP4305546A1 (fr) | 2024-01-17 |
US20240184856A1 (en) | 2024-06-06 |
FR3121330A1 (fr) | 2022-10-07 |
WO2022214523A9 (fr) | 2022-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alharthi et al. | Deep learning for monitoring of human gait: A review | |
CN106066990A (zh) | 用于将人的活动视频中的帧与事件相关联的方法和装置 | |
US9687179B2 (en) | System and method to recognize activities performed by an individual | |
WO2019077266A1 (fr) | Boitier electronique miniaturise integrable dans n'importe quelle semelle | |
EP3958738B1 (fr) | Procede et systeme de determination d'une valeur de parametre biomecanique avance de demarche | |
EP0693206A1 (fr) | Dispositif d'acquisition en temps reel de donnees relatives a des personnes en mouvement | |
EP2987452A1 (fr) | Procédé et système de sélection automatique d'exercices physiques | |
WO2014056827A1 (fr) | Vetement integrant un systeme de collecte de donnees physiologiques | |
WO2011006989A1 (fr) | Dispositif et procédé de détection et de commentaire d'un événement de jeu aux abords d'une cage de but | |
WO2022214523A1 (fr) | Procédé et kit pour la reconnaissance d'un utilisateur d'un article chaussant ou d'une activité pratiquée par un utilisateur d'un article chaussant | |
FR3060147A1 (fr) | Procede de caracterisation d'un cycle de marche d'un sujet au moyen d'un modele de markov cache | |
EP1586353A1 (fr) | Procédé et dispositif de mesure de l'efficacité d'un geste sportif | |
CA2592994A1 (fr) | Procede de recherche d'informations dans une base de donnees | |
WO2019186050A1 (fr) | Dispositif informatique de detection de troubles du rythme cardiaque | |
Harasimowicz et al. | Accelerometer-based human activity recognition and the impact of the sample size | |
US20170076618A1 (en) | Physical Object Training Feedback Based On Object-Collected Usage Data | |
CA2986178A1 (fr) | Dispositif instrumente d'evaluation et de quantification de parametres physiologiques des membres superieurs d'un sportif et procede associe | |
FR3082722A1 (fr) | Procede d'analyse de foulee d'un pieton en marche | |
Davies et al. | Unobtrusive bioanalytics for impact–related sport activities | |
FR3059221A1 (fr) | Dispositif apte a identifier un etat emotionnel, bracelet integrant un tel dispositif et procede associe d'identification et de reaction a un etat emotionnel | |
WO2020201158A1 (fr) | Procede de génération d'un element multimedia au cours de la lecture d'un media, terminal, systeme | |
Sangisetti et al. | Review on personal activity analysis using machine learning algorithms | |
FR3072579A1 (fr) | Procede de quantification d'une activite sportive | |
EP4304474A1 (fr) | Procede et dispositif d'inference d'une ligne de pression plantaire | |
Trost et al. | Raw tri-axial acceleration data improves the recognition of physical activity type in children and adolescents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22716433 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2022716433 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2022716433 Country of ref document: EP Effective date: 20231011 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18285843 Country of ref document: US |