KR20230044297A - 사용자 동작을 식별하기 위한 방법 및 시스템 - Google Patents

사용자 동작을 식별하기 위한 방법 및 시스템 Download PDF

Info

Publication number
KR20230044297A
KR20230044297A KR1020237007354A KR20237007354A KR20230044297A KR 20230044297 A KR20230044297 A KR 20230044297A KR 1020237007354 A KR1020237007354 A KR 1020237007354A KR 20237007354 A KR20237007354 A KR 20237007354A KR 20230044297 A KR20230044297 A KR 20230044297A
Authority
KR
South Korea
Prior art keywords
data
motion
user
segment
subdata
Prior art date
Application number
KR1020237007354A
Other languages
English (en)
Inventor
미기 리
레이 쑤
신 저우
풍운 랴오
신 키
Original Assignee
썬전 샥 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 썬전 샥 컴퍼니 리미티드 filed Critical 썬전 샥 컴퍼니 리미티드
Publication of KR20230044297A publication Critical patent/KR20230044297A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/296Bioelectric electrodes therefor specially adapted for particular uses for electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • A61B5/397Analysis of electromyograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/836Sensors arranged on the body of the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • Pulmonology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Optics & Photonics (AREA)
  • Neurosurgery (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)

Abstract

본 개시의 실시예는 사용자 동작을 식별하기 위한 방법과 시스템을 제공한다. 상기 방법과 시스템은 사용자의 복수의 측정 위치들로부터 사용자 동작 데이터를 수집할 수 있고, 사용자 동작 데이터는 미지의 사용자 동작에 대응되고, 적어도 하나의 세트의 타겟 기준동작 데이터에 근거하여 상기 사용자 동작 데이터를 획득할 때 타겟동작을 포함하는 사용자 동작을 식별하고, 상기 적어도 한 조의 타겟 기준동작 데이터는 타겟동작에 대응되며, 상기 타겟동작에 관련되는 정보를 사용자에게 전송한다.

Description

사용자 동작을 식별하기 위한 방법 및 시스템
관련 출원에 대한 참조 설명
본 출원은 국제출원(출원번호: PCT/CN2021/081931, 출원일자: 2021년 3월 19일)의 우선권을 주장하며, 상기 선출원의 내용은 참고하여 본 출원에 포함되어 있다.
본 개시는 착용가능장치의 기술분야에 관한 것으로서, 더 구체적으로는, 사용자 동작을 식별하기 위한 방법 및 시스템에 관한 것이다.
과학적 운동 및 신체건강에 대한 주의와 더불어, 신체단련 운동감시장치가 신속히 발전하고 있다. 현재, 상기 운동감시장치가 사용자의 동작을 감시하는 주요한 방식은 사용자의 동작 유형이 알려진 경우의 기준동작 데이테에 근거하여 사용자의 동작 데이터를 분석하는 것으로써, 사용자의 동작이 표준화인지 여부를 감시한다. 따라서, 실제 응용 상황에서, 사용자는 단련하기 전에 미리 운동감시장치에 신체단련동작 유형을 알려줄 필요가 있으며, 따라서 상기 운동감시장치는 상기 동작유형의 기준동작 데이터를 선택하여 사용자 동작에 대해 정확히 감시를 진행할 수 있다. 상기 사용자에 있어서, 각 신체단련동작을 진행하기 전에, 사용자 체험이 나쁜 상기 동작유형은 운동감시장치에 통지되어야 한다. 또한, 기존의 운동감시장치들은 비실시간 방식으로 사용자의 동작을 감시함으로써, 사용자는 신체단련동작을 완료한 후에만 신체단련동작에 관한 정보를 수신할 수 있으며, 이 역시 사용자의 나쁜 체험을 초래한다.
따라서, 상기 사용자가 미리 상기 동작유형을 입력할 필요가 없이 실시간으로 사용자의 신체단련동작을 인신하기 위한 방법 및 시스템을 제공할 필요가 있다.
본 개시는 사용자 동작을 식별하는 방법을 개시한다. 본 개시의 일방면에 의하면, 상기 방법은 아래의 조작을 포함할 수 있다. 사용자 위의 복수의 측정 위치들로부터 사용자 동작 데이터를 수집하는 조작으로서, 상기 사용자 동작 데이터는 미지의 사용자 동작에 대응될 수 있다. 상기 사용자 동작 데이터를 획득할 때 타겟동작을 포함하는 사용자 동작은 적어도 한 조의 타겟 기준동작 데이터에 근거하여 식별될 수 있으며, 상기 적어도 한 조의 타겟 기준동작 데이터는 상기 타겟동작에 대응될 수 있다. 상기 타겟동작에 관련되는 정보는 상기 사용자에게 전송될 수 있다.
일부 실시예들에서, 타겟동작을 포함하는 상기 사용자 동작을 식별하는 절차는 아래의 조작들을 포함할 수 있다. 복수의 세트의 후보기준동작 데이터를 획득하는 조작으로서, 각 세트의 후보기준동작 데이터는 적어도 하나의 기준동작에 대응된다. 복수의 세트의 후보기준동작 데이터에 대한 2단계 선별조작을 상기 사용자 동작 데이터에 근거하여 실행할 수 있으며, 상기 2단계 선별조작은 차이도 기반(difference degree-based )의 선별조작 및 확률 기반의 선별조작의 조합을 포함할 수 있다. 상기 사용자 동작은 상기 2단계 선별조작의 결과에 근거하여 결정할 수 있는 타겟동작을 포함한다.
일부 실시예들에서, 타겟동작을 포함하는 상기 사용자 동작을 식별하는 절차는 아래의 조작들을 포함할 수 있다. 각각 적어도 하나의 기준동작에 대응되는 복수의 세트의 기준동작 데이터를 획득할 수 있다. 복수의 세트의 기준동작 데이터로부터 차례로 각 세트의 기준동작 데이터를 선택하여 후보기준동작 데이터로 할 수 있다. 상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정할 수 있다. 상기 적어도 하나의 차이도를 가중합산함으로써 종합 차이도를 결정할 수 있다.
일부 실시예들에서, 각 세트의 기준동작 데이터는 M 조각의 기준동작 서브데이터를 포함하고, 각 조각의 기준동작 서브데이터는 적어도 하나의 세그먼트의 동작식별 서브데이터를 포함하고, M은 1보다 큰 정수일 수 있다. 상기 M 조각의 기준동작 서브데이터의 동작식별 서브데이터는 전체 동작식별 데이터를 형성하고, 각 세그먼트의 동작식별 서브데이터는 복수의 측정 위치들 중의 적어도 하나의 측정 위치의 상기 기준동작의 적어도 일부분에 대응될 수 있다.
일부 실시예들에서, 상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 절차는 아래의 동작들을 더 포함할 수 있다. 각 조각의 상기 동작식별 서브데이터에 대해 기설정 길이를 가지고 기설정 시간구간 내에 수집되는 상기 사용자 동작 데이터의 데이터 세그먼트를 포함하는 슬라이딩 윈도를 선택될 수 있다. 현재 시각의 상기 슬라이딩 윈도에 대해, 상기 데이터 세그먼트와 상기 상응한 동작식별 서브데이터 사이의 차이도를 결정할 수 있다.
일부 실시예들에서, 타겟동작을 포함하는 상기 사용자 동작을 식별하는 절차는 아래의 조작들을 포함할 수 있다. 제1 기설정 값보다 큰 상기 종합 차이도의 값을 결정할 수 있다. 상기 슬라이딩 윈도우를 기설정된 스탭크기로 다음 데이터 세그먼트로 슬라이딩하고, 상기 비교를 중복할 수 있다.
일부 실시예들에서, 상기 슬라이딩 윈도우 중의 데이터 세그먼트에 대응되는 데이터 수집시간 길이는 사용자 동작속도와 음의 관계를 가질 수 있다.
일부 실시예들에서, 상기 기설정된 스탭크기는 아래의 조건들 중 하나 이상의 조건을 만족시킬 수 있다. 상기 기설정된 스탭크기는 직전 시각의 상기 종합 차이도의 값의 크기와 양의 관계를 가지는 조건. 상기 기설정된 스탭크기는 상기 종합 차이도의 값의 변화 경향과 양의 관계를 가지는 조건 중 하나 이상의 조건.
일부 실시예들에서, 상기 데이터 세그먼트는 복수의 사용자 동작 데이터 점들을 포함할 수 있다. 상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 절차는 아래의 동작들을 더 포함할 수 있다. 상기 동작식별 서브데이터로부터 복수의 식별데이터 점들을 포함하는 타겟비교 데이터 구간을 선택할 수 있다. 복수의 척도들에 따라 상기 데이터 세그먼트를 조절하여 복수의 조절된 데이터 세그먼트들을 얻을 수 있다. 상기 동작식별 서브데이터와 복수의 조절된 데이터 세그먼트들 중의 각 조절된 데이터 세그먼트 사이의 차이도를 각각 결정할 수 있다. 상기 동작식별 서브데이터와 복수의 조절된 데이터 세그먼트들 사이의 차이도들 중 최소 차이도를 결정할 수 있다.
일부 실시예들에서, 상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 절차는 아래의 동작들을 더 포함할 수 있다. 거리 매트릭스 [Dij]를 결정하는 절차로서, Dij는 타겟비교 데이터 구간의 제i데이터 점과 상기 데이터 세그먼트의 제j 데이터 점 사이의 거리를 표시하는 절차일 수 있다. 상기 거리 매트릭스의 최소 거리경로를 결정할 수 있으며, 상기 최소 거리경로는 아래의 조작들을 만족시킬 수 있다. 상기 최소 거리경로의 시작점은 상기 [Dij]의 첫 행으로부터 시작일 수 있고, 상기 최소 거리경로에서 2개의 인접되는 점들은 상기 거리 매트릭스에서 인접될 수 있고, 상기 최소 거리경로에서 다음 점은 직전 점의 오른쪽, 아래 또는 오른쪽 아래에 있을 수 있으며, 상기 최소 거리경로의 말단점은 [Dij]의 최종 행에 있을 수 있으며, 상기 최소 거리경로는 최소 정규화 대가를 가지며, 상기 정규화 대가는 상기 거리 매트릭스의 상응한 최소 거리경로에서의 점들의 거리들에 의해 결정되는 조건을 만족시킬 수 있으며, 상기 차이도는 상기 정규화에 관련될 수 있다.
일부 실시예들에서, 상기 데이터 세그먼트의 제1 데이터 점이 사용자 동작이 시작되는 데이터 점으로 결정되면, 상기 최소 거리경로의 시작점은 상기 데이터 세그먼트의 제1점과 상기 타겟비교 데이터 구간의 제1점 사이의 거리 D11일 수 있다.
일부 실시예들에서, 상기 데이터 세그먼트의 최종 데이터 점이 사용자 동작이 종료되는 데이터 점으로 결정되면, 상기 최소 거리경로의 말단점은 상기 데이터 세그먼트의 최종점과 상기 타겟비교 데이터 구간의 최종점 사이의 거리 Dmn일 수 있다.
일부 실시예들에서, 상기 사용자 동작이 상기 타겟동작을 포함하는지를 식별하는 절차는 아래의 조작들을 더 포함할 수 있다. 복수의 세트의 기준동작 데이터로부터 N 조각의 제2단계 후보기준동작 데이터를 선택될 수 있다. 상기 제2단계 후보기준동작 데이터의 상기 종합 차이도의 값은 제1 기설정 값보다 작고, N는 1보다 클 수 있다. 상기 사용자 동작 데이터와 N 조각의 제2단계 후보기준동작 데이터 사이의 N개의 거리들을 각각 계산할 수 있다. 각각 상기 N개의 거리들에 근거하여 N개의 확률을 계산할 수 있다. 확률 값이 제2 기설정 값보다 큰 제2단계 후보기준동작 데이터를 선택하여 상기 타겟 기준동작 데이터로 할 수 있다. 상기 타겟 기준동작데이터에 대응되는 기준동작을 결정하여 상기 타겟동작으로 할 수 있다.
본 개시의 다른 방면은 사용자 동작을 식별하기 위한 시스템을 개시한다. 사용자 동작을 식별하기 위한 시스템은 아래의 부재들을 포함할 수 있다. 사용자의 운동시 사용자 동작 데이터를 획득하기 위한 적어도 하나의 명령세트를 저장하는 적어도 하나의 저장매체. 상기 적어도 하나의 저장매체와 통신하는 적어도 하나의 프로세서. 상기 시스템이 운행할 때, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령 세트를 읽어내고 실시예들에서 개시한 상기 타겟동작을 식별하기 위한 방법을 실행할 수 있다.
본 개시는 예시적인 실시예들의 측면에서 더 설명하며, 이러한 실시예들은 도면들을 참조하면서 상세하게 설명된다. 이러한 실시예들은 한정적이 아니며, 이러한 실시예들에서, 동일한 참조부호는 동일한 구조를 표시한다.
도 1은 본 개시의 일부 실시예들에 따른 동작감시시스템의 응용장면의 개략도를 나타낸다.
도 2는 본 개시의 일부 실시예들에 따른 착용가능장치의 예시적인 하드웨어 및/또는 소프트웨어 부재들의 개략도를 나타낸다.
도3은 본 개시의 일부 실시예들에 따른 계산장치의 하드웨어 및/또는 소프트웨어 부재들의 개략도를 나타낸다.
도4는 본 개시의 일부 실시예들에 따른 착용가능장치의 예시적인 구조도를 나타낸다.
도 5는 본 개시의 일부 실시예들에 따른 타겟동작을 결정하는 예시적인 처리를 나타내는 흐름도이다.
도 6은 본 출원의 일부 실시예들에 따른 사용자의 동작시의 예시적인 좌표계도를 나타낸다.
도 7a는 본 개시의 일부 실시예들에 따른 기준동작 데이터에서의 동작식별 데이터의 예시적인 세그멘트 및 상기 슬라이딩 윈도우에 의해 상기 사용자 동작 데이터에서 수집된 상기 사용자 동작 서브데이터의 세그멘트의 시간축에서의 곡선을 나타낸다.
도 7b는 본 개시의 일부 실시예들에 따른 거리행렬과 상기 거리행렬의 왼쪽 상단 모서리로부터 오른쪽 하단 모서리까지의 최소 거리경로를 나타낸다.
도 7c는 본 개시의 일부 실시예들에 따른 사용자 동작 데이터가 복수의 사용자 동작 서브데이터를 포함하는 경우의 슬라이딩 윈도우를 통해 종합 차이도를 결정하는 개략도를 나타낸다.
본 개시의 실시예들에 관련되는 기술안을 설명하기 위해, 아래에서는 상기 실시예들의 설명에서 참조하는 도면들을 간단히 소개한다. 물론 아래에서 기재하는 도면은 단지 본 개시의 일부 예 또는 실시예들이다. 당업계의 통상의 기술자들에 있어서, 임의의 창조적인 노력을 하지 않고 이러한 도면들에 근거하여 본 개시를 기타 유사한 상황에 응용할 수 있다. 문맥상 명백하거나 특별히 설명하지 않는 한 도면 중의 동일한 부호는 동일한 구조나 동작을 표시한다.
여기에서 사용하는 용어 "시스템", "장치", "유닛" 및/또는 "모듈"은 상이한 부재, 소자, 부품, 부분 또는 상이한 수준의 조립체를 구분하기 위한 하나의 방법이다. 그러나 다른 단어가 동일한 목적을 달성할 수 있다면 그 단어는 다른 표현에 의해 대체될 수 있다.
본 개시와 첨부된 청구항에서 사용되는 바와 같이, 단수 형태 "하나", "일" 및 "상기"는 문맥에서 별도로 명확하게 지시하지 않는 한, 복수의 형태를 포함한다. 일반적으로, 본 명세서에서 사용된 용어 "포함", "포괄"은 명시된 절차들 및 소자들을 포함함을 의미하며, 이러한 절차들 및 소자들은 배타적인 리스트를 형성하지 않는다. 상기 방법 또는 장치는 기타 절차들 또는 소자들을 포함할 수 있다.
본 개시에서 사용하는 흐름도는 시스템이 본 개시의 일부 실시예에 따라 실행하는 동작을 설명한다. 전후 동작들이 정확히 순서에 따라 실행하지 않을 수 있음을 이해해야 한다. 반대로, 절차들은 반대 순서거나 동시에 실행될 수 있다. 그리고, 하나 이상의 기타 동작들을 흐름도에 추가할 수 있거나 하나 이상의 동작들은 흐름도에서 삭제될 수 있다.
본 개시는 타겟동작결정 시스템을 제공한다. 상기 타겟동작결정 시스템 중의 저장매체 내에 저장되는 한 세트의 명령어들은 상기 사용자의 동작의 기간에 사용자 동작 데이터를 획득하도록 실행될 수 있다. 상기 타겟동작결정 시스템은 착용가능장치(예를 들면, 옷, 손목밴드 및 헬멧), 의료테스트장치(예를 들면, 근전도 (EMG) 테스트기), 피트니스장치, 등에 응용될 수 있다. 사용자가 상기 장치를 착용한 후, 장치위의 센서들은 사용자의 신체위의 복수의 측정 위치들에 부착될 수 있으며, 따라서 사용자의 동작 데이터는 장치위의 상기 센서들에 의해 수집될 수 있다. 상기 센서들이 사용자 동작 데이터를 수집한 후, 타겟동작결정시스템 내의 프로세서는 저장매체와 통신하여 상기 저장매체 내에 저장된 명령어들에 접근하고 읽어낼 수 있다. 상기 타겟동작결정 시스템이 운행되는 경우, 상기 프로세서는 기지의 동작내용을 가지고 있는 저장매체 내의 기준동작 데이터에 접근할 수 있다. 이러한 기지의 동작내용의 기준동작 데이터에 근거하여, 상기 시스템은 미지의 동작내용의 사용자 동작 데이터에 대하여 타겟동작식별을 실행할 수 있다. 상기 타겟동작을 결정한 후, 상기 시스템은 상기 타겟동작에 관련되는 내용을 사용자에게 전송할 수 있다.
본 개시의 일부 실시예들에서, 상기 시스템은 즉시 또는 예정된 시간 내에 사용자 동작 데이터에 대해 타겟동작식별을 실행할 수 있으며, 상기 예정된 시간은 0.1초 또는 0.5초와 같은 짧은 시간일 수 있다. 이러한 방식으로, 상기 시스템 사용자 동작 데이터의 실시간 식별을 구현할 수 있으며, 사용자는 상기 동작을 실행한 후의 동작에 관한 관련내용을 즉시 수신할 수 있다.
본 개시의 일부 실시예들에서, 상기 사용자 동작 데이터는 착용가능장치(예를 들면, 옷, 손목밴드, 헬멧), 의료검측장치(예를 들면, EMG 테스트기), 피트니스장치, 등과 같은 장치들위의 센서들에 의해 수집되지 않고 기타 방식으로 획득될 수도 있다. 예를 들면, 비디오 내의 사용자 이미지는 인공지능 알고리즘에 의해 분석되어 사용자의 신체에서의 여러 측정 위치들의 동작 데이터를 얻을 수 있다. 간단히 말하면, 사용자 동작 데이터가 실시간으로 얻을 수 있기만 하면, 본 개시의 방법과 시스템은 상기 타겟동작을 결정하도록 구성될 수 있다.
컴퓨터 저장매체는 기저대 또는 반송파의 일부와 같은 컴퓨터 프로그램 코드를 포함하는 전파 데이터 신호를 포함할 수 있다. 전송신호는 전자기 형태, 광학 형태 또는 적절한 조합 형태를 포함하여 다양한 표현형식을 가질 수 있다. 컴퓨터 저장매체는 컴퓨터 판독가능한 저장매체 이외의 임의의 컴퓨터 판독가능한 매체로서, 상기 매체는 명령어와 연결되어 장치를 실행하거나, 장치이거나, 또는 장치에 연결되어 사용하기 위한 프로그램을 통신, 전파, 또는 전송하는 장치일 수 있다. 컴퓨터 저장 매체에 위치한 프로그램 코드는 라디오, 케이블, 광섬유 케이블, RF 또는 유사한 매체, 또는 전술한 임의의 조합을 포함하는 임의의 적절한 매체를 통해 전송될 수 있다. 예시적인 ROM은 마스크 ROM (MROM), 프로그래머블 ROM (PROM), 삭제가능 프로그래머블 ROM (PEROM), 전기적으로 삭제 가능 프로그래머블 ROM (EEPROM), 컴팩트 디스크 ROM (CD-ROM), 디지털 유니버설 디스크 ROM, 등을 포함할 수 있다. 예시적인 RAM은 동적 RAM (DRAM), 이중 속도 동기식 동적 RAM (DDR SDRAM), 정적 RAM (SRAM), 사이리스터 RAM (T-RAM), 0용량 (Z-RAM), 등을 포함할 수 있다.
예를 들면, 상기 프로세서는 다중코어 프로세서, 단일코어 프로세서,분산 프로세서, 중앙처리유닛(CPU), 응용 프로그램별 집적 회로(ASIC), 응용 프로그램별 명령어 프로세서 (ASIP), 그래픽 프로세서 (GPU), 물리적 프로세서 (PPU), 디지털 신호 프로세서 (DSP), 필드 프로그래어블 게이트 어레이(FPGA), 프로그래머블 로직회로(PLD), 컨트롤러, 마이크로컨트롤러유닛, 축소된 명령어 집합 컴퓨터(RISC), 마이크로프로세서 장치, 등,또는 이들의 임의의 조합일 수 있다.
도 1은 본 개시의 일부 실시예들에 따른 동작감시시스템의 응용장면의 개략도를 나타낸다. 도1에 표시하는 바와 같이, 타겟동작(또는 시스템(100))을 결정하기 위한 시스템(100)은 처리장치(110), 네트워크(120), 착용가능장치(130), 및 이동단말장치(140)를 포함할 수 있다. 상기 시스템(100)은 사용자의 동작을 특정하는 사용자 동작 데이터(예를 들면, EMG 신호, 자세신호, 응력 데이터, 및 ECG 신호, 호흡수 신호, 등과 같은 생리학적 감시 데이터)를 획득하고, 사용자 동작 데이터에 근거하여 운동을 할 때 사용자의 동작이 어느 타겟동작에 속하는지를 식별할 수 있다.
예를 들면, 상기 시스템(100)은 운동할 때 상기 사용자에 의해 실행되는 사용자의 동작을 식별할 수 있다. 사용자가 신체단련 운동을 위해 상기 착용가능장치(130)를 착용하는 경우, 상기 착용가능장치(130)는 사용자의 동작 데이터를 얻을 수 있다. 상기 처리장치(110) 또는 상기 이동단말장치(140)는 사용자의 동작 데이터를 수신하고 분석하여 사용자의 신체단련동작을 식별할 수 있으며, 예를 들면 사용자의 신체단련동작이 벤치 프레스(bench press), 이두근 컬(bicep curl), 또는 스쿼트(squat), 등인지 여부를 식별할 수 있으며, 따라서 상기 타겟동작에 관련되는 내용을 사용자에게 전송하며 식별된 동작(예를 들면, 벤치 프레스, 이두근 컬, 스쿼트, 등)의 사용자 동작은 상기 타겟동작이다. 특히, 상기 타겟동작에 관련되는 내용은 음성 또는 비디오에 의해 유도되는 타겟동작의 명칭, 상기 동작의 동작유형, 동작 량, 동작 시간, 사용자가 동작을 실행할 때의 사용자의 생리학적 파라미터 정보, 등을 포함할 수 있다. 또한, 상기 시스템(100)은 상기 사용자의 신체단련동작이 표준적인지, 등과 같은 사용자의 신체단련동작 데이터의 분석결과에 근거하여 사용자의 신체단련동작에 대하여 피드백을 생성할 수 있으며, 따라서 사용자의 신체단련을 안내한다.
다른 하나의 예로써, 상기 시스템(100)는 사용자가 달릴때 사용자에 의해 실행되는 사용자의 동작을 식별할 수 있다. 예를 들면, 사용자가 상기 착용가능장치(130)를 착용하여 달리지 운동을 실행할 때, 상기 시스템(100)은 사용자의 달리기 동작 데이터를 얻고 기준동작 데이터에 근거하여 사용자의 현재 운동이 달리기인지를 식별할 수 있다. 사용자가 너무 오래동안 달리거나 또는 상기 달리기 동작이 정확하지 않은 경우, 상기 신체단련장치는 그의 운동상태를 사용자에게 피드백하여 사용자가 달리기 동작 또는 달리기 시간을 조절하도록 제시할 수 있다.
일부 실시예들에서, 상기 처리장치(110)는 사용자 운동에 관련된 정보 및/또는 데이터를 처리하도록 구성될 수 있다. 예를 들면, 상기 처리장치(110)는 사용자의 동작신호(예를 들면, EMG 신호, 자세신호, ECG 신호, 호흡수 신호, 등)를 수신하고, 진일보 동작신호에 대응되는 특징 정보(예를 들면 EMG 신호에 대응되는 특징정보 또 동작신호 중의 자세신호에 대응되는 상기 특징 정보)를 추출할 수 있다. 일부 실시예들에서, 상기 처리장치(110)는 착용가능장치(130)에 의해 수신되는EMG 신호 또는 자세신호에 대해 신호분할, 신호 전처리(예를 들면, 신호 수정처리, 필터링처리, 등),등과 같은 특정된 신호처리를 실행할 수 있다. 일부 실시예들에서, 상기 처리장치(110)는사용자의 동작신호에 근거하여 사용자의 동작이 수정되었는지 여부를 결정할 수도 있다. 예를 들면, 상기 처리장치(110)는 EMG 신호에 대응되는 특징 정보(예를 들면, 진폭정보, 주파수정보, 등)에 근거하여 사용자의 동작이 수정되었는지 여부를 결정할 수 있다. 다른 하나의 예로써, 상기 처리장치(110)는 자세신호에 대응되는 특징 정보(예를 들면, 각속도, 각속도 방향, 각속도 가속도, 각도, 변위정보, 응력, 등)에 근거하여 사용자의 동작이 수정되었는지 여부를 결정할 수 있다. 또 다른 예로써, 상기 처리장치(110)는 EMG 신호에 대응되는 특징 정보 및 자세신호에 대응되는 특징 정보에 근거하여 사용자의 동작이 수정되었는지를 결정할 수 있다. 일부 실시예들에서, 상기 처리장치(110)는 사용자 운동시의 사용자의 생리학적 파라미터 정보가 건강표준에 부합되는지 여부를 결정할 수도 있다. 일부 실시예들에서, 상기 처리장치(110)는 상응한 명령어를 발행하여 사용자의 운동 상태에 피드백할 수도 있다. 예를 들면, 사용자가 달릴 때, 상기 시스템(100)은 사용자의 달리기 시간이 너무 긴지 여부를 감시한다. 이때, 상기 처리장치(110) 이동단말장치(140)에 명령어를 발행하여 사용자로 하여금 달리기 시간을 조절하도록 유도할 수 있다. 자세신호에 대응되는 특징정보는 상술한 각속도, 각속도 방향, 각속도 가속도, 각도, 변위정보, 응력, 등에 한정되지 않고, 다른 특징정보일 수도 있음에 유의해야 한다. 사용자의 신체의 관련 움직임을 반영할 수 있는 임의의 파라미터 정보는 자세신호에 대응되는 특징정보일 수 있다. 예를 들면, 자세 센서가 변형계 센서인 경우, 늘어난 길이에 따라 변화되는 변형계 센서의 저항의 크기를 측량함으로써 사용자 관절의 굽힘 각도와 굽힘 방향을 얻을 수 있다.
일부 실시예들에서, 상기 처리장치(110)는 근거리 또는 원격 장치일 수 있다. 예를 들면, 상기 처리장치(110)는 네트워크(120)를 통해 착용가능장치(130) 및/또는 상기 이동단말장치(140)에 저장된 정보 및/또는 데이터에 접근할 수 있다. 일부 실시예들에서, 상기 처리장치(110)는 착용가능장치(130) 및/또는 상기 이동단말장치(140)에 직접 연결되어 그에 저장된 정보 및/또는 데이터에 접근할 수 있다. 예를 들면, 상기 처리장치(110)는 착용가능장치(130) 내에 위치하여 네트워크(120)를 통해 이동단말장치(140)와 정보 교류를구현할 수 있다. 다른 하나의 예로써, 상기 처리장치(110)는 이동단말장치(140) 내에 위치하여 상기 착용가능장치(130)와 정보 교류를 구현할 수 있다. 일부 실시예들에서, 상기 처리장치(110)는 클라우드 플랫폼에 대해 실행할 수 있다.
일부 실시예들에서, 상기 처리장치(110)는 동작 감시와 관련되는 데이터 및/또는 정보를 처리하여 여기에서 기재하는 하나 이상 기능들을 실행할 수 있다. 일부 실시예들에서, 상기 처리장치(110)는 착용가능장치(130)에 의해 수집되는 사용자의 운동 기간의 동작신호를 얻을 수 있다. 일부 실시예들에서, 상기 처리장치(110)는 상기 착용가능장치(130) 또는 상기 이동단말장치(140)에 제어명령어를 전송할 수 있다. 상기 제어명령어는 착용가능장치(130)의 스위치 및 착용가능장치(130)의 센서들의 상태를 제어할 수 있으며, 이동단말장치(140)를 제어하여 유도정보를 전송할 수도 있다. 일부 실시예들에서, 상기 처리장치(110)는 하나 이상의 서브처리장치들(예를 들면, 단일코어 처리장치 또는 다중코어 처리장치)을 포함할 수 있다.
상기 네트워크(120)는 상기 운동감시시스템(100)의 데이터 및/또는 정보의 교환을 실행할 수 있다. 일부 실시예들에서, 상기 운동감시시스템(100)의 하나 이상 부재들은 데이터 및/또는 정보를 네트워크(120)를 통해 상기 운동감시시스템(100)의 기타 부재들에 전송할 수 있다. 예를 들면, 착용가능장치(130)에 의해 수집되는 동작신호는 네트워크(120)를 통해 상기 처리장치(110)에 전송될 수 있다. 다른 하나의 예로써, 상기 처리장치(110)에 의해 결정되는 상기 동작신호의 확인결과는 네트워크(120)를 통해 상기이동단말장치(140)에 전송될 수 있다. 일부 실시예들에서, 상기 네트워크(120)는 임의의 유형의 유선 또는 무선 네트워크일 수 있다.
상기 착용가능장치(130)는 착용기능을 구비하는 의복 또는 장치일 수 있다. 일부 실시예들에서, 상기 착용가능장치(130)는 상의장치(130-1), 바지장치(130-2), 손목밴드장치(130-3), 신발장치(130-4), 등을 포함할 수 있지만 이에 한정되지 않는다. 일부 실시예들에서, 상기 착용가능장치(130)는 M개의 센서들을 포함할 수 있으며, M은 하나보다 큰 정수이다. 상기 센서들은 사용자의 운동시에 생성되는 다양한 동작신호들(예를 들면, EMG 신호, 자세신호, 온도정보, 심장박동빈도, 심전도 신호, 등)을 얻을 수 있다. 일부 실시예들에서, 상기 센서들은 EMG 센서, 자세 센서, 온도 센서, 습도 센서, 심전도 센서, 혈중산소 포화도 센서, 홀 센서, 피부전기 센서, 회전 센서, 등 중의 하나 이상을 포함할 수 있으나 이에 한정되지 않는다. 예를 들면, 상기 상의장치(130-1)는 사람 신체의 근육(예를 들면, 상완이두근(biceps brachii), 상완삼두근(triceps brachii), 황배근(활배근), 승모근(trapezius), 등) 위치에 위치하는 EMG 센서를 포함할 수 있으며, 상기 EMG 센서는 사용자의 피부에 밀착될 수 있고 사용자의 동작시에 EMG 신호를 수집할 수 있다. 다른 하나의 예로써, 상기 상의장치(130-1)는 사람 신체의 좌측 흉근 부근에 위치하는 심전도 센서를 포함할 수도 있으며, 상기 심전도 센서는 사용자의 심전계 신호를 수집할 수 있다. 또 다른 예로써, 상기 바지장치(130-2)는 사람 신체의 근육(예를 들면, 대둔근(gluteus maximus ), 외측광근(vastus lateralis), 내광근(vastus medialis), 비복근(gastrocnemius), 등) 위치에 위치하는 자세센서를 포함할 수 있으며, 상기 자세 센서는 사용자의 자세신호를 수집할 수 있다. 일부 실시예들에서, 상기 착용가능장치(130)는 사용자의 동작에 피드백을 제공할 수도 있다. 예를 들면, 신체의 일정한 부분의 동작이 사용자가 움직일 때 표준에 부합되지 않는 경우, 그 부분에 대응되는 상기 EMG 센서는 자극신호(예를 들면, 전류자극 또는 타격 신호)를 생성하여 사용자를 리마인드할 수 있다.
상기 착용가능장치(130)는 도1에 표시하는 상의장치(130-1), 상기 바지장치(130-2), 상기 손목밴드장치(130-3), 또는 상기 신발장치(130-4)에 한정되지 않음에 유의해야 한다. 상기 착용가능장치(130)는 헬멧장치, 무릎대장치, 등과 같은 운동감시에 사용되는 기타 장치들을 포함할 수 있으며, 이는 여기의 기재에 한정되지 않는다. 본 개시에 기재된 운동감시방법을 이용할 수 있는 임의의 장치는 본 개시의 보호범위 내에 있다.
일부 실시예들에서, 상기 이동단말장치(140)는 상기 시스템(100) 내의 정보 또는 데이터를 얻을 수 있다. 일부 실시예들에서, 상기 이동단말장치(140)는 상기 처리장치(110)에 의해 처리되는 동작 데이터를 수신할 수 있으며, 처리된 동작 데이터에 근거하여 동작기록을 피드백할 수 있다. 예시적인 피드백 방식들은 음성유도, 이미지 유도, 비디오 표시, 문자유도, 등을 포함할 수 있으나 이에 한정되지 않는다. 일부 실시예들에서, 사용자는 이동단말장치(140)를 통해 그 자체의 운동시의 동작 기록을 얻을 수 있다. 예를 들면, 상기 이동단말장치(140)는 네트워크(120) (예를 들면, 유선연결, 무선연결)를 통해 상기 착용가능장치(130)에 연결될 수 있다. 상기 사용자는 상기 이동단말장치(140)를 통해 사용자의 운동시의 동작 기록을 얻을 수 있으며, 상기 동작 기록은 이동단말장치(140)를 통해 상기 처리장치(110)에 전송될 수 있다. 일부 실시예들에서, 상기 이동단말장치(140)는 이동장치(140-1), 태블릿 컴퓨터(140-2), 노트북 컴퓨터(140-3), 등, 또는 이들의 임의의 조합을 포함할 수 있다. 일부 실시예들에서, 상기 이동장치(140-1)는 휴대폰, 스마트 홈장치, 스마트 이동장치, 가상현실 장치, 증강현실 장치, 등, 또는 이들의 임의의 조합을 포함할 수 있다. 일부 실시예들에서, 상기 스마트 홈장치는 스마트 어플라이언스, 스마트 감시장치, 스마트 TV, 스마트 카메라, 등, 또는 이들의 임의의 조합을 포함할 수 있다. 일부 실시예들에서, 상기 스마트 이동장치는 스마트폰, 개인 디지털 어세스턴스(PDA), 게임장치, 내비게인션장치, OS 장치, 등, 또는 이들의 임의의 조합을 포함할 수 있다. 일부 실시예들에서, 상기 가상현실장치 및/또는 상기 증강현실장치는 가상현실 헤드셋, 가상현실 안경, 가상현실 안경, 증강현실 헬멧, 증강현실 안경, 증강현실 안경, 등., 또는 이들의 임의의 조합을 포함할 수 있다.
일부 실시예들에서, 상기 운동감시시스템(100)은 동작 데이터 프레젠테이션시스템(160)을 포함할 수도 있다. 상기동작데이터 프레젠테이션시스템(160)은 사용자의 동작에 관련되는 정보 및/또는 데이터를 처리하고 표시하도록 구성될 수 있다. 예를 들면, 사용자가 하는 어떤 유형의 운동은 나타낼 수 있으며, 또는 상기 정보 및/또는 데이터는 가상 캐릭터와 조합될 수 있으며 직관적으로 이동단말장치(140)의 사용자 인터페이스에 표시하여 사용자가 쉽게 보게 할 수 있다. 예를 들면, 상기 동작데이터 프레젠테이션시스템(160)은 사용자의 동작 데이터를 수신할 수 있다. 예를 들면, 상기 사용자의 동작 데이터는 EMG 신호, 자세신호, 심전도 신호, 호흡수 신호, 등과 같은 동작신호를 포함할 수 있다. 다른 하나의 예로써, 상기 사용자의 동작 데이터는 상기 처리장치(110)가 동작신호에 대하여 특징처리를 실행함으로써 얻은 특징 정보(예를 들면, EMG 신호에 대응되는 특징 정보, 동작신호 중의 자세신호에 대응되는 특징 정보)를 포함할 수 있다. 다른 하나의 예로써, 상기 사용자의 동작 데이터는 상기 처리장치(110)가 신호분할, 신호처리(예를 들면, 신호 수정처리, 필터링처리, 등), 등과 같은 특정된 신호처리를 실행한 후 얻은 단일 데이터를 포함할 수 있다. 상기 동작데이터 프레젠테이션시스템(160)은 동작 데이터와 기준동작 데이터를 비교하고, 상기 비교결과와 가상 캐릭터를 조합하여 상기 가상캐릭터의 애니메이션을 생성하고, 생성된 애니메이션을 상기 이동단말장치(140)에 전송하여 나타낼 수 있다. 상기 기준동작 데이터는 아래의 설명에서 상세히 설명할 수 있다. 예를 들면, 사용자가 이두박근 컬링(이두박근 컬링)을 하는 경우, 상기 동작데이터 프레젠테이션시스템(160)은 사용자가 이두박근 컬링을 할 때의 사용자의 동작 데이터를 수신할 수 있으며, 예를 들면 상완이두근의 EMG 신호, 승모근의 EMG 신호, 팔뚝의 운동자세, 등을 수신할 수 있다. 상기 동작데이터 프레젠테이션시스템(160)은 사용자의 동작 데이터를 상기 운동감시시스템(100) 내에 저장되어 있는 복수의 세트의 기준동작 데이터와 비교하여 사용자가 이두박근 컬링을 실행하는지를 결정할 수 있다. 또한, 상기 동작데이터 프레젠테이션시스템(160)은 이두박근 컬링을 하는 가상 캐릭터를 표시할 수 있으며, 사용자는 상기 가상 캐릭터의 애니메이션을 통해 사용자의 동작 데이터 또는 상기 동작 데이터와 상기 기준동작 데이터(예를 들면, 근력의 위치와 크기의 차이, 동작 자세의 차이, 등) 사이의 차이를 명확하고 직관적으로 보고 운동시의 동작을 조절할 수 있다.
일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 상기 처리장치(110) 내에 통합될 수 있다. 일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 상기 이동단말장치(140) 내에 통합될 수도 있다. 일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 상기 처리장치(110) 및 상기 이동단말장치(140)에 독립적으로 존재할 수도 있다. 상기 동작데이터 프레젠테이션시스템(160)은 상기 처리장치(110), 상기 착용가능장치(130), 및 상기 이동단말장치(140)와 통신연결하여 정보 및/또는 데이터를 전송하고 교환할 수 있다. 일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 상기 네트워크(120)를 통해 상기 처리장치(110), 상기 착용가능장치(130), 및/또는 상기 이동단말장치(140) 내에 저장된 정보 및/또는 데이터에 접근할 수 있다. 일부 실시예들에서, 상기 착용가능장치(130)는 상기 처리장치(110) 및/또는 이동단말장치(140)에 직접 연결되어 거기에 저장되어 있는 정보 및/또는 데이터에 접근할 수 있다. 예를 들면, 상기 동작데이터 프레젠테이션시스템(160)은 상기 처리장치(110) 내에 위치하여 네트워크(120)를 통해 상기 착용가능장치(130) 및 상기 이동단말장치(140)와 정보의 인터랙션을 진행할 수 있다. 다른 하나의 예로써, 상기 동작데이터 프레젠테이션시스템(160)은 이동단말장치(140) 내에 위치하여 네트워크를 통해 상기 처리장치(110) 및 상기 착용가능장치(130)와의 정보 인터랙션을 구현할 수 있다. 일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 클라우드 플랫폼에서 실행될 수 있으며, 네트워크를 통해 상기 처리장치(110), 상기 착용가능장치(130), 및 상기 이동단말장치(140)와의 정보 인터랙션을 구현할 수 있다.
프레젠테이션의 편의를 위해, 아래의 설명에서, 이동단말장치(140) 내에 위치하는 상기 동작데이터 프레젠테이션시스템(160)은 설명의 예로 들 수 있다.
일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 동작 데이터 프레젠테이션에 관련된 데이터 및/또는 정보를 처리하여 여기에 기재되는 하나 이상의 기능을 실행할 수 있다. 일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 사용자의 운동시의 동작 데이터, 예를 들면, 착용가능장치(130)에 의해 수집되는 사용자 운동시의 동작신호, 또는 상기 동작신호가 수집된 후에 사용자가 운동시 착용가능장치(130)에 의해 얻은 데이터는 상기 처리장치(110)에 의해 처리될 수 있다. 일부 실시예들에서, 상기 동작데이터 프레젠테이션시스템(160)은 이동단말장치(140)에 제어명령어를 전송하여 상기 이동단말장치(140)의 사용자 인터페이스의 디스플레이를 제어할 수 있다.
일부 실시예들에서, 상기 시스템(100)은 데이터베이스를 포함할 수 있다. 상기 데이터베이스는 데이터(예를 들면, 초기에 기설정된 역치조건, 등) 및/또는 명령어들(예를 들면, 피드백 명령어)을 포함할 수 있다. 일부 실시예들에서, 상기 데이터베이스는 착용가능장치(130) 및/또는 상기 이동단말장치(140)로부터 얻은 데이터를 저장할 수도 있다. 일부 실시예들에서, 상기 데이터베이스 상기 처리장치(110)에 의해 실행되거나 또는 사용되어 본 개시에 기재된 예시적인 방법들을 실행하기 위한 정보 및/또는 명령어들을 저장할 수 있다. 일부 실시예들에서, 상기 데이터베이스는 네트워크(120)에 연결되어 시스템(100)의 하나 이상의 부재들(예를 들면, 상기 처리장치(110), 상기 착용가능장치(130), 상기 이동단말장치(140), 등)과 통신할 수 있다. 시스템(100)의 하나 이상의 부재들은 상기 네트워크(120)를 통해 상기 데이터베이스 내에 저장된 데이터 또는 명령어들에 접근할 수 있다. 일부 실시예들에서, 상기 데이터베이스는 상기 시스템(100) 내의 하나 이상의 부재들과 연결되거나 직접 통신할 수 있다. 일부 실시예들에서, 상기 데이터베이스는 상기 처리장치(110)의 일부분일 수 있다.
도 2는 본 개시의 일부 실시예들에 따른 착용가능장치의 예시적인 하드웨어 및/또는 소프트웨어 부재들의 개략도를 나타낸다. 도2에 표시하는 바와 같이, 상기 착용가능장치(130)는 획득모듈(210), 처리모듈(220)(프로세서라고도 부를 수 있다), 제어모듈(230)(메인 컨트롤러, MCU, 콘트롤러라고도 부를 수 있다), 통신모듈(240), 전원공급모듈(250), 및 입출력모듈(260)을 포함할 수 있다.
상기 획득모듈(210)는 사용자의 운동시 동작신호를 얻도록 구성될 수도 있다. 일부 실시예들에서, 상기 획득모듈(210)은 센서 유닛을 포함할 수 있으며, 상기 센서 유닛은 사용자의 운동시의 하나 이상의 동작신호를 얻도록 구성될 수 있다. 일부 실시예들에서, 상기 센서 유닛은 EMG 센서, 자세 센서, 심전도 센서, 호흡 센서, 온도 센서, 습도 센서, 관성 센서, 혈중산소 포화도 센서, 홀 센서, 피부전기 센서, 회전 센서, 등 중의 하나 이상을 포함할 수 있으나, 이에 한정되지 않을 수 있다. 일부 실시예들에서, 상기 동작신호는 EMG 신호, 자세신호, 심전도 신호, a 호흡수, 온도 신호, 습도 신호, 등 중의 하나 이상을 포함할 수 있으나, 이에 한정되지 않을 수 있다. 상기 센서 유닛은 얻는 동작신호에 따라 상기 착용가능장치(130)의 상이한 위치들에 설치될 수 있다. 예를 들면, 일부 실시예들에서, 상기 EMG 센서(전자소자라고도 부른다)는 사람 근육의 위치에 설치될 수 있으며, 상기 EMG 센서는 사용자의 운동시의 EMG 신호를 수집하도록 구성될 수 있다. 상기 EMG 신호와 그의 상응한 특징 정보(예를 들면, 주파수정보, 진폭정보, 등)는 사용자의 운동시의 근육의 상태를 반영할 수 있다. 상기 자세 센서는 사람 신체의 상이한 위치(예를 들면, 몸통, 팔다리, 및 착용가능장치(130) 내의 연결부에 대응되는 위치들)에 설치될 수 있으며, 상기 자세 센서는 사용자의 운동시의 자세신호를 수집하도록 구성될 수 있다. 상기 자세신호와 그것의 상응한 특징 정보(예를 들면, 각속도 방향, 각속도 값, 각속도 가속도 값, 각도, 변위정보, 응력, 등)는 사용자의 운동 자세를 반영할 수 있다. 상기 ECG 센서는 사람 신체의 가슴 주위 위치에 배치될 수 있으며, 상기 ECG 센서는 사용자의 운동시의 ECG 데이터를 수집하도록 구성될 수 있다. 상기 호흡 센서는 사람 신체의 가슴 위치에 배치될 수 있으며, 상기 호흡 센서는 사용자의 운동시의 호흡 데이터(예를 들면, 호흡 주파수, 호흡 진폭, 등)를 수집하도록 구성될 수 있다. 상기 온도 센서는 사용자의 운동시의 온도 데이터(예를 들면, 신체표면 온도)를 수집하도록 구성될 수 있다. 상기 수집 센서는 사용자의 운동시의 외부환경의 습도 데이터를 수집하도록 구성될 수 있다.
상기 처리모듈(220)은 획득모듈(210), 상기 제어모듈(230), 상기 통신모듈(240), 상기 전원공급모듈(250), 및/또는 상기 입출력모듈(260)로부터 오는 데이터를 처리할 수 있다. 예를 들면, 상기 처리모듈(220)은 획득모듈(210)로부터 오는 사용자의 운동시의 동작신호를 처리할 수 있다. 일부 실시예들에서, 상기 처리모듈(220)은 상기 획득모듈(210)에 의해 획득되는 동작신호(예를 들면, EMG신호, 자세신호)를 사전에 처리할 수 있다. 예를 들면, 상기 처리모듈(220)은 사용자의 운동시의 EMG 신호 또는 상기 자세신호에 대해 분할처리를 실행할 수 있다. 다른 하나의 예로써, 상기 처리모듈(220)은 사용자의 운동시의 EMG 신호에 대해 전처리(예를 들면, 필터링처리, 신호 수정처리)를 실행하여 상기 EMG 신호의 품질을 향상시킬 수 있다. 또 다른 예로써, 상기 처리모듈(220)은 사용자의 운동시의 자세신호에 근거하여 상기 자세신호에 대응되는 특징 정보를 결정할 수 있다. 일부 실시예들에서, 상기 처리모듈(220)은 입출력모듈(260)로부터 오는 명령어 또는 조작을 처리할 수 있다. 일부 실시예들에서, 상기 처리된 데이터는 메모리 또는 하드디스크 내에 저장될 수 있다. 일부 실시예들에서, 상기 처리모듈(220)은 상기 처리된 데이터를 통신모듈(240) 또는 상기 네트워크(120)를 통해 상기 운동감시시스템(100)의 하나 이상의 부재들에 전송할 수 있다. 예를 들면, 상기 처리모듈(220)은 사용자의 운동의 감시결과를 상기 제어모듈(230)에 전송할 수 있으며, 상기 제어모듈(230)은 동작결정결과에 따라 후속 조작 또는 명령어들을 실행할 수 있다.
상기 제어모듈(230)은 착용가능장치(130)의 기타 모듈들에 연결될 수 있다. 일부 실시예들에서, 상기 제어모듈(230)은 상기 착용가능장치(130)의 기타 모듈들의 조작 상태들을 제어할 수 있다. 예를 들면, 상기 제어모듈(230)은 상기 전원공급모듈(250)의 전력제공상태(예를 들면, 정상모드, 전력저장모드), 전력제공시간, 등을 제어할 수 있다. 다른 하나의 예로써, 상기 제어모듈(230)은 사용자의 동작결정 결과에 따라 상기 입출력모듈(260)을 제어할 수 있으며, 따라서 상기 이동단말장치(140)를 제어하여 사용자의 운동의 피드백 결과를 상기 사용자에게 전송할 수 있다. 사용자사 용자의 운동시의 사용자의 동작(예를 들면, 상기 동작은 표준에 부합되지 않는다)에 문제가 있는 경우, 상기 제어모듈(230)은 상기 입출력모듈(260)을 제어할 수 있으며, 따라서 상기 이동단말장치(140)를 제어하여 사용자에게 피드백을 주고, 따라서 상기 사용자는 실시간의 그 자체의 운동상태를 알고 동작을 조절할 수 있다. 일부 실시예들에서, 상기 제어모듈(230)은 획득모듈(210) 또는 기타 모듈들의 하나 이상의 센서들을 제어하여 사람 신체에 피드백을 제공할 수도 있다. 예를 들면, 사용자의 운동시 특정된 근육이 힘을 지나치게 쓰면, 상기 제어모듈(230)은 근육의 위치에서의 전기모듈을 제어하여 사용자를 전기자극하여 사용자로 하여금 실시간으로 동작을 조절하도록 유도할 수 있다.
일부 실시예들에서, 상기 통신모듈(240)은 정보 또는 데이터를 교환하도록 구성될 수 있다. 일부 실시예들에서, 상기 통신모듈(240)은 상기 착용가능장치(130)의 부재들 사이에서 통신하도록 구성될 수 있다. 예를 들면, 상기 획득모듈(210)은 사용자 동작신호(예를 들면, EMG 신호, 자세신호, 등)를 상기 통신모듈(240)에 전송할 수 있으며, 상기 통신모듈(240)은 상기 동작신호를 상기 처리모듈(220)에 전송할 수 있다. 일부 실시예들에서, 상기 통신모듈(240)은 상기 착용가능장치(130)와 상기 시스템(100)의 부재들 사이에서 통신하도록 구성될 수도 있다. 예를 들면, 상기 통신모듈(240)는 상기 착용가능장치(130)의 상태정보(예를 들면, 스위치상태)를 상기 처리장치(110)에 전송할 수 있으며, 상기 처리장치(110)는 상태정보에 근거하여 상기 착용가능장치(130)를 감시할 수 있다. 상기 통신모듈(240)은 유선, 무선, 및 유선/무선 혼합 기술에 적응될 수 있다.
일부 실시예들에서, 상기 전원공급모듈(250)은 상기 시스템(100) 내의 기타 부재들에 전력을 제공할 수 있다.
상기 입출력모듈(260)은 신호를 획득하고, 전송하고 발송할 수 있다. 상기 입출력모듈(260)은 시스템(100) 내의 기타 부재들에 접속하거나 통신할 수 있다. 상기 운동감시시스템(100) 내의 기타 부재들은 상기 입출력모듈(260)을 통해 연결되거나 통신할 수 있다.
상기 시스템(100) 및 그의 모듈들의 상술한 기재는 단지 설명의 편의를 위한 것이며, 본 개시의 하나 이상의 실시예들을 상술한 실시예들의 범위에 한정하지 않음에 유의해야 한다. 본 분야의 통상의 기술자들에 있어서, 상기 시스템의 원리를 이해한 후, 상기 다양한 모듈들을 임의의 조합할 수 있거나, 또는 기타 모듈들과 연결되는 서브시스템을 형성하거나, 또는 하나 이상의 모듈들을 생략할 수 있음를 알 수 있다. 예를 들면, 상기 획득모듈(210)와 상기 처리모듈(220)은 상기 사용자 동작신호를 획득하고 처리하는 기능을 가질 수 있는 하나의 모듈로 통합될 수도 있다. 다른 하나의 예로써, 상기 처리모듈(220)은 상기 착용가능장치(130)에 설치되지 않고 상기 처리장치(110)에 통합될 수 있다. 이러한 변형은 본 개시의 하나 이상의 실시예들의 보호범위 내에 있다.
도3은 본 개시의 일부 실시예들에 따른 계산장치(300)의 하드웨어 및/또는 소프트웨어 부재들의 개략도를 나타낸다. 일부 실시예들에서, 상기 처리장치(110) 및/또는 상기 이동단말장치(140)는 상기 계산장치(300)에 대해 실행될 수 있다. 일부 실시예들에서, 상기 동작 데이터 프레젠테이션시스템(160)은 계산장치(300)에서 실행될 수 있다. 도3에 표시하는 바와 같이, 상기 계산장치(300)는 내부통신버스(310), 프로세서(320), 읽기전용 메모리(330), 랜덤엑세스 메모리(340), 통신포트(350), 입출력 인터페이스(360), 하드디스크(370), 및 사용자 인터페이스(380)를 포함할 수 있다.
상기 내부통신버스(310)는 상기 계산장치(300)의 다양한 부재들 사이에서 데이터 통신이 가능하게 할 수 있다. 예를 들면, 상기 프로세서(320)는 데이터를 메모리 또는 상기 내부통신버스(310)를 통해 상기 입출력 인터페이스(360)와 같은 기타 하드웨어 부재들에 전송할 수 있다 .
상기 프로세서(320)는 계산명령어(프로그램 코드)를 실행하고 여기에 기재된 상기 운동감시시스템(100)의 기능들을 실행할 수 있다. 상기 계산명령어는 프로그램, 대상, 부재, 데이터 구조, 절차, 모듈, 및 기능(기능은 본 개시에 기재된 특정된 기능이다)을 포함할 수 있다. 예를 들면, 상기 프로세서(320)는 사용자의 운동시 상기 착용가능장치(130) 또는/및 상기 운동감시시스템(100)의 상기 이동단말장치(140)로부터 획득하는 동작신호(예를 들면, EMG 신호, 자세신호)를 처리할 수 있으며, 사용자의 운동시 상기 동작신호에 근거하여 상기 사용자의 동작을 감시할 수 있다. 단지 설명만을 위해, 도3의 계산장치(300)는 하나의 프로세서만 설명하지만, 본 개시의 계산장치(300)는 복수의 프로세서들을 포함할 수도 있음에 유의해야 한다.
상기 계산장치(300)의 메모리(예를 들면, 읽기전용 메모리(ROM)(330), 랜덤 엑세스 메모리(RAM)(340), 하드디스크(370), 등)는 상기 운동감시시스템(100)의 임의의 기타 부재로부터 얻은 데이터/정보를 저장할 수 있다. 일부 실시예들에서, 계산장치(300)의 메모리는 착용가능장치(130)와 처리장치(110) 내에 위치할 수 있다.
상기 입출력 인터페이스(360)는 신호, 데이터, 또는 정보를 입력 또는 출력하도록 구성될 수 있다. 일부 실시예들에서, 상기 입출력 인터페이스(360)는 사용자가 상기 운동감시시스템(100)과 인터랙트하게 할 수 있다.
상기 하드디스크(370)는 상기 처리장치(110)에 의해 생성되거나 또는 상기 처리장치(110)로부터 수신하는 정보 및 데이터를 저장하도록 구성될 수 있다. 예를 들면, 상기 하드디스크(370)는 사용자의 사용자확인정보를 저장할 수 있다. 일부 실시예들에서, 상기 하드디스크(370)는 상기 처리장치(110) 또는 상기 착용가능장치(130) 내에 설치될 수 있다. 상기 사용자 인터페이스(380)는 상기 계산장치(300)와 상기 사용자 사이에서 인터랙션하거나 정보를 교환할 수 있다. 일부 실시예들에서, 상기 사용자 인터페이스(380)는 상기 운동감시시스템(100)에 의해 생성되는 운동기록들을 상기 사용자에게 보여주도록 구성될 수 있다. 일부 실시예들에서, 상기 사용자 인터페이스(380)는 스피커를 구비하는 디스플레이, LCD 디스플레이, LED 디스플레이, OLED 디스플레이, 전자잉크디스플레이(E-Ink), 등과 같은 실물 디스플레이를 포함할 수 있다.
예를 들면, 상기 시스템(100) 내의 상기 착용가능장치(130)은 임의의 구조에 적응될 수 있다. 예를 들면, 상기 착용가능장치(130)는 도4에 표시하는 착용가능장치(400)의 구조에 적응될 수 있다. 상기 착용가능장치(130)를 설명하기 위해, 도 4에서의 상기 착용가능장치(400)는 상술한 옷들을 예로 들 수 있다. 도4에 표시하는 바와 같이, 상기 착용가능장치(400)는 상의(410)를 포함할 수 있다. 상기 상의(410)는 상의 밑단(4110), 하나 이상의 상의처리모듈들(4120), 하나 이상의 상의피드백모듈들(4130), 하나 이상의 상의획득모듈들(4140), 등을 포함할 수 있다. 상기 상의 밑단(4110)은 사람 신체의 상체에 착용되는 옷일 수 있다. 일부 실시예들에서, 상기 상의 밑단(4110)은 반팔 티셔츠, 긴팔 티셔츠, 셔츠, 재킷, 등을 포함할 수 있다. 상기 하나 이상 상의처리모듈들(4120)와 상기 하나 이상의 상의획득모듈들(4140)은 사람 신체의 상이한 부분들에 핏팅되는 구역들의 상의 밑단(4110)에 위치할 수 있다. 상기 하나 이상의 상의피드백모듈들(4130)은 상의 밑단(4110)의 임의의 위치에 위치할 수 있으며, 상기 하나 이상의 상의피드백모듈들(4130)은 사용자의 상체의 운동상태정보를 피드백하도록 구성될 수 있다. 예시적인 피드백 기술들은 음성유도, 문자유도, 압력유도, 전기자극, 등을 포함할 수 있으나 이에 한정되지 않는다. 일부 실시예들에서, 상기 하나 이상의 상기 상의획득모듈들(4140)은 자세 센서, ECG 센서, EMG 센서, 온도 센서, 습도 센서, 산성염기 센서, 음파 변환기, 등 중의 하나 이상을 포함할 수 있으나 이에 한정되지 않는다. 상의획득모듈(4140) 중의 상기 센서들은 측정되는 상이한 신호들에 따라 사용자의 신체위의 상이한 위치에 설치될 수 있다. 예를 들면, 자세센서가 사용자의 운동시 자세신호를 획득하도록 구성된 경우, 상기 자세센서는 몸통, 팔, 관절에 대응되는 상의 밑단(4110)의 위치들에 설치될 수 있다. 다른 하나의 예로써, 상기 EMG 센서가 사용자의 운동시 EMG 신호를 획득하도록 구성되는 경우, 상기 EMG 센서는 사용자에 의해 측정되는 근육 부근에 위치할 수 있다. 일부 실시예들에서, 상기 자세센서는 가속도 3축 센서, 각속도 3축 센서, 자력 센서, 등, 또는 이들의 임의의 조합을 포함할 수 있지만 이에 한정되지 않는다. 예를 들면, 상기 자세센서는 가속도 3축 센서와 각속도 3축 센서를 포함할 수 있다. 일부 실시예들에서, 상기 자세센서는 변형계 센서를 포함할 수도 있다. 상기 변형계 센서는 측정되는 대상의 힘과 변형에 의해 생성되는 압력에 기초하는 센서일 수 있다. 일부 실시예들에서, 상기 변형계 센서는 변형계식 로드셀, 변형계식 압력센서, 변형계식 토크센서, 변형계식 변위센서, 변형계식 가속도센서, 등 중 하나 이상을 포함할 수 있지만 이에 한정되지 않는다. 예를 들면, 상기 변형계 센서는 사용자의 관절위치에 설치될 수 있으며, 늘린 길이에 따라 변하는 상기 변형계 센서의 저항을 측정함으로써, 사용자의 관절의 굽힘 각도 및 굽힘 방향을 얻을 수 있다. 상술한 상의 밑단(4110), 상기 상의처리모듈들(4120), 상기 상의피드백모듈들(4130), 및 상기 상의획득모듈들(4140) 이 외에, 상기 상의(410)은 전력제공모듈, 통신모듈, 입출력모듈, 등과 같은 기타 모듈들을 포함할 수 있음에 유의해야 한다. 상기 상의처리모듈들(4120)은 도2 중의 처리모듈(220)과 유사할 수 있으며, 상기 상의획득모듈들(4140)은 도2 중의 획득모듈(210)과 유사할 수 있다. 상기 상의(410)의 다양한 모듈의 더 많은 설명은, 도2 및 본 개시의 관련설명을 참조할 수 있으며, 여기에서는 중복하지 않는다.
도 5는 본 개시의 일부 실시예들에 따른 타겟동작을 결정하는 예시적인 처리를 나타내는 흐름도이다. 일부 실시예들에서, 상기 처리(500)는 상기 시스템(100)에 의해 실행될 수 있다. 예를 들면, 상기 처리장치(110) 및/또는 상기 이동장치(140) 내의 메모리는 하나 이상의 세트의 동작분석 및 식별 명령어들을 저장할 수 있다. 상기 세트의 명령어들은 복수의 명령어들을 포함할 수 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)의 프로세서는 운행시간에 상기 세트의 명령어들 중의 복수의 명령어들을 읽어내고 실행할 수 있으며, 복수의 명령어들의 안내하에서 상기 처리(500)를 실행한다. 상기 처리(500)는 실시간으로 완료될 수 있거나, 또는 각 조작은 상이한 기간 내에 완료될 수 있다. 상기 처리(500)은 아래의 조작들을 포함할 수 있다.
조작 510에서, 사용자의 운동시의 사용자 동작 데이터를 얻을 수 있다. 상기 사용자 동작 데이터는 미지의 사용자 동작에 대응될 수 있다.
상기 처리장치(110) 및/또는 상기 이동장치(140)는 사용자 위의 복수의 측정 위치들로부터 오는 상술한 동작 데이터를 측정할 수 있으며, 예를 들면, 사용자의 운동시의 원시 데이터를 얻을 수 있다. 특히, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 착용가능장치(130)와 직접 또는 네트워크(120)를 통해 통신하도록 연결될 수 있다. 상기 착용가능장치(130)는 복수의 센서들을 가질 수 있다. 사용자가 상기 착용가능장치(130)를 착용하는 경우, 복수의 센서들은 사용자의 신체위의 복수의 위치들에 부착될 수 있다. 따라서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 사용자의 동작 데이터를 획득하는 상응한 획득모듈들을 통해 복수의 측정 위치들에서 상기 사용자에 부착된 복수의 센서들의 측정결과를 얻을 수 있다.
상기 사용자 동작 데이터는 사용자의 운동시 사람신체 파라미터 정보에 근거하여 생성되는 동작 데이터일 수 있다. 일부 실시예들에서, 상기 사람 신체 파라미터 정보는 EMG신호, 자세신호, 심전계 신호, 온도 신호, 습도 신호, 혈중산소 농도, 호흡수, 등 중의 하나 이상을 포함할 수 있지만 이에 한정되지 않는다.
사용자 동작이 복수의 근육들과 관절들의 조정결과이기 때문에, 상응하게, 상기 사용자 동작 데이터는 사용자의 신체위의 M개의 위치들의 복수의 센서들에 의해 수집되는 데이터를 포함할 수 있으며, M은 1보다 큰 정수이다. 일부 실시예들에서, 각 개별 센서에 의해 수집된 데이터는 동작 서브데이터의 일부분일 수 있다. 예를 들면, 일부 실시예들에서, 상기 착용가능장치(130) 중의 복수의 센서들은 사용자의 운동시 복수의 신체부분의 신호들을 얻을 수 있다. 복수의 신체부분의 자세신호들의 조합은 사람 신체의 상이한 부분들 사이의 관련 운동상태를 반영할 수 있다. 예를 들면, 상기 착용가능장치(130) 중의 EMG 센서는 사용자의 운동시 EMG 신호를 수집할 수 있으며, 상기 착용가능장치(130) 중의 자세 센서는 사용자의 운동시의 자세신호를 수집할 수 있으며, 상기 착용가능장치(130) 중의 각도 센서와 각속도 센서는 사용자의 운동시 각 관절의 각도와 각속도를 수집할 수 있다. 상술한 센서들의 각 센서의 신호는 동작 서브데이터의 한조각으로서 기록된다. 전부 동작 서브데이터는 조합되어 동작 데이터를 형성할 수 있다.
예를 들면, 사람이 팔 컬링동작을 실행하는 경우, 상기 상응한 동작 데이터는 상기 착용가능장치(130)에 의해 측정되는 상기 상박의 각도 데이터와 각속도 데이터각도 데이터, 상기 상박과 상기 하박 사이의 각속도 데이터, 상완이두근의 EMG 데이터, 삼각근의 EMG 데이터, 승모근의 EMG 데이터, 및 등근육군의 데이터, 등을 포함할 수 있다. 다른 하나의 예로써, 사용자가 좌식 가슴조이기(chest clamping)를 할 때, 사람 신체의 흉곽근, 활배근, 등의 위치에 대응되는 상기 착용가능장치(130) 중의 EMG 센서는 사용자의 상응한 근육위치의 EMG 신호를 수집할 수 있다. 또 다른 예로써, 사용자가 스퀘트를 할 때, 사람 대퇴골근, 사두근, 등의 위치에 대응되는 상기 착용가능장치(130) 중의 EMG 센서는 사용자의 상응한 근육 위치의 EMG 신호를 수집할 수 있으며, 상기 근체의 각도 센서와 상기 각속도 센서는 허벅지와 종아리 사이의 각도와 각속도를 수집할 수 있다. 각 단일 센서에 의해 수집되는 데이터는 동작 서브데이터의 한 조각일 수 있다. 따라서, 상기 팔굽힘동작의 사용자 동작 데이터는 각각 사용자가 팔굽힘동작을 실행할 때 사용자의 신체의 복수의 위치들에서 수집되는 데이터에 대응되는 복수의 사용자 동작 서브데이터를 포함할 수 있다.
사용자가 상기 착용가능장치(130)를 착용하는 경우, 상기 착용가능장치(130)는 임의의 시간에 사용자의 운동의 측정을 시작할 수 있으며, 상기 사용자는 임의 시간에 운동을 시작하거나 또는 휴식을 시작할 수 있다. 따라서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 착용가능장치(130)가 한 세그먼트의 사용자의 랜덤 동작 데이터 또는 상기 앞서 언급한 신체단련동작을 수집하는지 여부를 모르며, 또한 상기 처리장치(110) 및/또는 상기 이동장치(140)가 상기 수집된 데이터 중의 상기 신체단련동작의 시작이 언제인지도 모른다. 따라서, 상기 착용가능장치(130)가 수집하는 것은 내용이 미지의 동작 데이터이다. 이는 상기 시스템(100)은 어떤 유형(즉, 상기 사용자 동작이 몇가지 기지의 타겟동작들을 포함하는지 여부, 각 타겟동작의 시작점)의 운동을 사용자가 하고 있고 언제 사용자가 운동을 시작하는지에 대하여 모르는 상태에 있다. 따라서, 상기 동작 데이터는 상기 동작의 내용을 표시하는 식별자를 가지지 않는다. 단지 설명의 편의를 위해, 본 개시는 상기 동작 데이터가 동작 식별자를 포함하는지 여부를 예를 들어 상기 동작 데이터의 내용이 알려진지 여부를 설명할 수 있다.
520조작에서, 내용이 알려진 하나 이상 세트의 후보기준동작 데이터에 근거하여 사용자 동작 데이터에 대해 동작식별을 실행함으로써 사용자 동작이 하나 이상 세트의 후보기준동작 데이터에 대응되는 기준동작(예를 들면, 타겟동작) 을 포함하는지 여부를 식별할 수 있다.
상기 타겟동작은 이두박근 컬링(biceps curling), 벤치 프레스(bench press), 스쿼트(squat), 차기(kick), 팔굽혀펴기(push-up), 데드리프드(deadlift), 복부 크렌치(abdominal crunches), 등과 같은 상기 사용자에 의해 실행되는 실제 동작들 중의 특정된 동작일 수 있다. 상기 기준동작은 참조인 (이를테면, 코치, 등)에 의해 실행되는 특정 동작에 표기한 동작 내용을 가지는 표준 동작일 수 있다. 일부 실시예들에서, 상기 타겟동작식별은 사용자 동작 데이터를 획득한 후 곧 또는 기설정된 시간 내에 실행될 수 있다. 상기 기설정된 시간은 매우 짧은 시간, 예를 들면, 1시간 또는 0.1, 0.5 초 이내 일 수 있다. 상기 타겟동작식별은 사용자 동작 데이터의 획득과 실시간으로 실행될 수 있다. 예를 들면, 사용자가 동작을 하는 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)의 프로세서는 사용자 동작 데이터를 획득하는 동시에 상기 사용자 동작 데이터를 상이한 척도로 늘이거나 압축하여 기준동작 데이터와 비교할 수 있으며, 따라서 동시에 사용자 동작 데이터에 대하여 동작식별을 진행할 수 있다. 상술한 비교방법은 본 개시의 다른 부분에 기재될 수 있다.
상기 기준동작 데이터는 복수의 센서들에 의해 측정되는 복수의 세트의 기준동작 데이터를 포함할 수 있다. 상기 기준동작 데이터를 수집할 때, 상기 사용자 동작 데이터의 수집과 유사하게, 복수의 센서들은 참조인의 M 측정 위치들에 부착될 수도 있으며, 예를 들면, 상기 참조인은 상기 착용가능장치(130)를 착용할 수 있다. 그 후 상기 참조인은 상기 특정된 동작을 실행할 수 있으며, 상기 데이터 획득장치(예를 들면, 상기 처리장치(110) 및/또는 상기 이동장치(140), 또는 기타 장치들)는 상기 착용가능장치(130) 중의 상응한 획득모듈을 통해 상응한 동작 데이터를 수신할 수 있다. 따라서, 상기 후보기준동작 데이터는 참조인 위의 M개의 측정 위치들로부터 측정되는 기지의 내용의 기준동작의 동작 데이터일 수 있으며, 예를 들면, 동작내용을 표기한 기준동작 데이터와 같은 동작 데이터일 수 있다. 예를 들면, 상기 상박굽힘의 기준동작 데이터는 참조인 위의 동일한 복수의 위치들로부터 수집되는 데이터를 포함할 수 있다. 상기 참조인은 신체단련 코치와 같은 기준동작 데이터를 수집하는 모델로써 이용되는 개인일 수 있다. 각 센서에 의해 수집되는 상기 데이터에 있어서, 상기 팔굽힘의 기준동작 데이터는 각각 참조인이 팔굽힘동작을 실행할 때 M개의 위치들 중의 하나에서 수집되는 데이터에 대응되는 M 조각의 기준동작 서브데이터를 포함할 수 있다. 일부 실시예들에서, 상기 참조인위의 M 측정 위치들은 상기 사용자 동작 데이터가 수집될 때 상기 사용자위의 M개의 측정 위치들과 1 대 1의 대응관계를 가진다. 상응하게, 사용자 동작 데이터의 상기 M 조각의 사용자 동작 서브데이터는 M 조각의 기준동작 서브데이터와 1 대 1의 대응관계를 가질 수 있다.
상기 기준동작 데이터는 기타 방식으로 생성될 수도 있다. 예를 들면, 가상 인물의 동작 데이터는 컴퓨터 모델링을 통해 얻을 수 있으며, 상기 기준동작 데이터는 인공지능 기술들(예를 들면, 올림피아(Mr. Olympia's) 선생의 동작시연 비디오에 대하여 인공적 핏팅을 실행한다)을 통해 상기 가상 인물을 비디오 중에 인공적으로 핏팅시킴으로써 얻을 수 있다. 모 동작 데이터가 모 동작을 표준적으로 표현하기만 하고, 모 동작 데이터의 동작내용이 알려지기만 하면, 상기 모 동작 데이터는 본 개시에서의 기준동작 데이터로써 사용될 수 있다. 상술한 바와 같이, 단지 설명의 편의를 위해, 본 개시는 내용을 표기한 동작 데이터를 예로 들어 기지의 내용의 동작 데이터를 기술할 수 있다.
520조작에서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 기준동작 데이터베이스에 접근할 수 있다. 상기 기준동작 데이터베이스는 복수의 세트의 기준동작 데이터를 포함할 수 있다. 복수의 세트의 기준동작 데이터는 복수의 기준동작들에 대응될 수 있다. 예를 들면, 각 세트의 기준동작 데이터는 하나의 기준동작에 대응될 수 있거나, 또는 각 세트의 기준동작 데이터는 복수의 기준동작들에 대응될 수 있거나, 또는 각 기준동작은 복수의 세트의 기준동작 데이터에 대응될 수 있다.
사용자 동작 데이터에 대해 타겟동작식별을 실행하는 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 사용자 동작 데이터를 2단계 선별조작을 통해 상기 기준동작 데이터베이스 중의 복수의 세트의 기준동작 데이터 중의 각 세트의 기준동작 데이터와 순차적으로 비교하여 상기 사용자 동작 데이터를 식별할 수 있다. 상기 2단계 선별조작은 2가지 상이한 선별조작들을 통해 복수의 세트의 기준동작 데이터를 선별할 수 있으며, 나중에 상기 사용자의 동작이 어느 기준동작을 포함하는지를 결정한다. 예를 들면, 상기 2단계 선별조작은 차이도 기반의 선별조작과 확률 기반의 선별조작의 조합을 포함할 수 있다.
구체적으로는, 제1 단계의 선별에서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 한 세드의 후보기준동작 데이터를 제1 단계 후보기준동작 데이터로써 선택할 수 있으며, 그 후 상기 선택된 후보기준동작 데이터를 이용하여 사용자 동작 데이터를 가지는 동작의 차이도를 결정하여 사용자 동작 데이터와 상기 제1 단계 후보기준동작 데이터 사이의 데이터 값들 차이가 충분히 작는지 여부를 결정한다. 상기 사용자 동작 데이터와 모 제1 단계 후보기준동작 데이터 사이의 차이도가 기설정된 값보다 작으면, 상기 제1 단계 후보기준동작 데이터는 제2단계 후보기준동작 데이터로 진급될 수 있다. 각 제2단계 후보기준동작 데이터는 하나 이상의 진급되는 기준동작들, 즉 상기 제2단계 기준동작에 대응된다.
상기 제2 단계선별은 확률선별일 수 있다. 상기 제2 단계선별에서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 사용자 동작이 상기 승급된 기준동작(제2단계 기준동작)을 포함하는 확률을 결정하고, 그 후 상기 사용자 동작이 상기 제2단계 기준동작을 포함하는지 여부를 결정할 수 있다. 사용자 동작가 타겟 기준동작 데이터에 대응되는 상기 타겟동작을 포함하는지 여부는 상기 제2 단계선별의 결과에 근거하여 결정될 수 있다. 특정된 조작은 아래에 기재된다.
521조작에서, 각 세트의 기준동작 데이터는 복수의 세트의 기준동작 데이터에서 차례로 상기 제1 단계 후보기준동작 데이터로써 선택될 수 있다.
522조작에서, 상기 제1 단계 후보기준동작 데이터와 상기 사용자 동작 데이터 사이의 차이도가 결정될 수 있다.
523조작에서, 차이도의 값이 제1 기설정 값보다 작은지 여부를 판단한다. 상기 차이도 값이 상기 제1 기설정 값 이상이면, 상기 사용자 동작과 상기 제1 단계 후보기준동작 데이터 사이의 전체적 차이는 상대적으로 크다고 인정될 수 있다. 그후 521조작이 실행될 수 있으며, 즉, 다음 세트의 기준 데이터는 기준동작 데이터베이스 중의 복수의 세트의 기준동작 데이터로부터 상기 제1 단계 후보기준동작 데이터로써 선택되고, 다음 세트의 기준 데이터는 데이터 값 단계에서 다시 사용자 동작 데이터와 비교될 수 있다. 다음 세트의 기준 데이터의 차이도 값이 상기 제1 기설정 값보다 작으면, 상기 사용자 동작과 상기 제1 단계 후보기준동작 데이터 사이의 전체적 차이는 작다고 인정될 수 있다. 그 후 조작(524)가 실행될 수 있으며, 즉, 상기 제1 단계 후보기준동작 데이터는 상기 제2단계 후보기준동작 데이터로써 결정될 수 있으며, 그 후 다음 단계 타겟동작 데이터식별이 실행될 수 있다.
525조작에서 상기 사용자 동작 데이터와 복수의 세트의 제2단계 후보기준동작 데이터의 각 제2단계 후보기준동작 데이터 사이의 거리가 결정될 수 있다.
526조작에서, 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터에 대응되는 타겟동작을 포함하는 확률은 각 거리에 근거하여 결정될 수 있다.
527조작에서, 확률들 값들 중의 최대 값이 제2 기설정 값보다 큰지 여부가 판단된다. 상기 제2 기설정 값보다 크지 않으면, 529조작이 실행될 수 있으며, 즉, 상기 사용자 동작이 제2단계 후보기준동작 데이터에 대응되는 기준동작을 포함하지 않음이 결정된다. 상기 최대 값이 상기 제2 기설정 값보다 크면, 528조작이 실행될 수 있으며, 즉, 사용자 동작이 최고 확률 값을 가지는 제2단계 후보기준동작 데이터에 대응되는 기준동작을 포함함이 결정되며, 상기 기준동작이 상기 타겟동작이다.
상기 제1 단계 후보기준동작 데이터를 선택하는 근거는 임의적이고 순차적인 것일 수 있거나, 또는 일정한 규칙에 따라 선택될 수 있으며, 이는 본 개시에 한정되지 않는다. 예를 들면, 전체 기준동작 데이터는 상기 기준동작 데이터베이스 내에서 사전에 번호를 표기할 수 있으며, 그 후 상기 처리장치(110) 및/또는 상기 이동장치(140)는 그 번호에 근거하여 상기 기준동작 데이터 아이템을 상기 제1 단계 후보기준동작 데이터로써의 아이템으로 선택할 수 있다.
상기 제1 단계 후보기준동작 데이터를 사용자 동작 데이터와 비교하는 경우, 슬라이딩 윈도우 비교방식이 적용될 수 있다. 예를 들면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 시간축에 따라 상기 사용자 동작 데이터 위에서 슬라이딩 윈도우를 슬라이딩하고 슬라이딩 윈도우 내에서 상기 사용자 동작 데이터의 한 세그먼트를 선택할 수 있다. 사용자 동작 데이터 내의 M조각의 사용자 동작 서브데이터가 병행으로 수집되기 때문에, 상기 슬라이딩 윈도우는 동시에 각 조각의 사용자 동작 서브데이터에 작용하여, 각 조각의 사용자 동작 서브데이터 위를 슬라이딩할 수 있다. 상기 슬라이딩 윈도우는 사전에 설정된 시간구간(예를 들면, 0.1 초, 0.5 초, 1 초, 등)에 대응될 수 있다. 따라서, 상기 M 조각의 사용자 동작 서브데이터에 있어서, 상기 슬라이딩 윈도우는 상기 사전에 설정된 시간구간내에 수집된 상기 사용자 동작 데이터의 M개의 데이터 세그먼를 포함할 수 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)는 각각 상기 M개의 사용자 동작 데이터 세그먼트들을 상기 제1 단계 후보기준동작 데이터에 대응되는 상기 M 조각의 기준동작 서브데이터의 일부 또는 전체 데이터와 비교하여 하나 이상의 비교 서브결과들을 얻고, 하나 이상의 비교 서브결과들에 가중치를 부여하여 합산함으로써 종합 차이도를 결정할 수 있다. 상기 종합 차이도는 상기 사용자 동작 데이터와 상기 기준동작 데이터 사이의 차이를 표시한다. 상기 종합 차이도의 값이 작을 수록, 상기 차이가 더 작으며, 이는 사용자 동작 데이터 세그먼트가 기준동작 데이터에 가까울 수록, 상기 사용자 동작 데이터 세그먼트에 대응되는 상기 사용자 동작이 상기 기준동작에 더 가까움을 의미하고, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 사용자 동작 데이터가 상기 기준동작을 포함함을 결정할 수 있다. 예를 들면, 사용자가 사용자의 운동시 이두박근 컬링을 실행하는 경우, 상기 사용자 동작 데이터는 상응한 사용자 동작 데이터 세그먼트를 포함할 수 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)가 상기 이두박근 컬링에 대응되는 사용자 동작 데이터 세그먼트를 이두박근 컬링에 대응되는 기준동작 데이터와 비교하는 경우, 상기 종합 차이도 값은 매우 작을 수 있다. 다른 한편으로는, 상기 종합 차이도의 값이 작을 수록 상기 사용자 동작 데이터 중의 사용자 동작 데이터 세그먼트의 위치가 상기 사용자 동작 데이터 중의 상기 타겟동작의 위치에 더 가까움을 의미할 수 있으며, 즉, 상기 사용자 동작 데이터 세그먼트에 대응되는 상기 사용자 동작은 시간상 사용자가 상기 타겟동작을 실행할 때의 시각에 접근함을 의미한다.
구체적으로, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 기설정된 폭을 가지는 슬라이딩 윈도우를 이용하여 기설정된 스탭크기로 시간축을 따라 상기 사용자 동작 데이터 위를 슬라이딩하며, 슬라이딩 윈도우 내에서 매번 사용자 동작 데이터 세그먼트를 선택할 수 있다. 예를 들면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 기설정된 스탭크기로 사용자 동작 데이터에서 기설정된 데이터 길이를 가지는 연속된 데이터의 한 세그먼트를 순차로 선택학 수 있다. 상기 타겟동작을 실행하는 속도가 상기 참조인에 의해 실행되는 표준동작의 속도와 다른 것을 고려하여, 상기 슬라이딩 윈도우의 길이는 사용자 동작속도와 음의 관계를 가져 상기 차이를 상쇄시킬 수 있다. 즉, 상기 사용자 동작속도가 더 빠르면, 슬라이딩 윈도우의 길이가 더 짧으며, 상기 사용자 동작속도가 더 느리면, 슬라이딩 윈도우 길이가 더 길다.
상기 기설정된 스탭크기는 상수값일 수 있다. 상기 종합 차이도의 값도 현재 사용자 동작 데이터 세그먼트에 대응되는 상기 사용자 동작과 상기 타겟동작 사이의 시간상 거리를 가리키기 때문에, 상기 기설정된 스탭크기는 상기 종합 차이도의 값에 근거하여 조절될 수 있다. 예를 들면, 상기 타겟동작을 식벽하는 효과를 향상시키기 위해, 상기 기설정된 스탭크기는 직전 시각의 상기 종합 차이도의 값의 크기와 양의 관계를 가질 수 있다. 상기 양의 관계는 상기 기설정 세트의 크기가 직전 시각의 상기 종합 차이도의 값에 비례됨을 표시하거나, 또는 직전 시각의 상기 종합 차이도의 값에 근거하여 모 스탭방식으로 현재 시각의 스탭크기를 선택할 수 있거나, 또는 현재 시각의 스탭크기가 직전 시각의 스탭크기보다 하나의 상수가 클 수 있는, 등을 표시할 수 있으며, 여기의 기재에 한정되지 않는다. 상기 기설정된 스탭크기는 상기 종합 차이도의 값의 변화경향과 양의 관계를 가질 수도 있다. 예를 들면, 현재 시각에서의 상기 종합 차이도 값과 직전 시각의 상기 종합 차이도 값 사이의 차이가 0보다 크면, 예를 들면, 상기 종합 차이도 값의 변화경향이 커지며, 이는 현재 사용자 동작 데이터 세그먼트에 대응되는 사용자 동작이 타겟동작으로부터 시간상 점점 멀어짐을 의미한다. 이때, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 스탭크기를 커지게 할 수 있다. 현재 시각의 상기 종합 차이도 값과 직전 시각의 상기 종합 차이도 값 사이의 차이가 0보다 작으면, 이는 상기 현재 사용자 동작 데이터 세그먼트에 대응되는 상기 사용자 동작이 상기 타겟동작으로부터 시간상 점점 가까워짐을 의미한다. 이때, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 스탭크기를 감소시킬 수 있다. 현재 시각의 상기 종합 차이도 값과 직전 시각의 상기 종합 차이도 값 사이의 차가 0과 같으면, 상기 스탭크기는 변하지 않을 수 있다.
상기 슬라이딩 윈도우의 폭이 사전에 설정되었기 때문에, 상기 사용자 동작 데이터로부터 절취된 상기 데이터 세그먼트의 길이는 기설정될 수도 있다. 따라서, 상기 사용자 동작 데이터 세그먼트는 전체 제1 단계 후보기준동작 데이터에 대응될 수 있다. 상기 사용자 동작 데이터 세그먼트는 상기 제1 단계 후보기준동작 데이터의 부분에 대응될 수도 있다. 일부 실시예들에서, 상기 기준동작 데이터는 동작식별 데이터의 하나 이상의 세그먼트를 포함할 수 있다. 상기 동작식별 데이터는 상기 기준동작의 특징 동작의 적어도 일부분에 대응되는 동작 데이터(예를 들면, 각속도 데이터, 속도 데이터, 등)일 수 있으며, 이는 기본상 특징 동작을 표시하도록 구성된다. 상기 특징 동작은 상기 기준동작에 대하여 독특한 것일 수 있다. 상기 기준동작은 상기 특징 동작의 일부분을 통해 결정될 수 있거나, 또는 상기 전체 데이터는 동작식별 데이터를 통해 상기 기준동작 데이터로써 결정될 수 있으며, 따라서 상기 동작식별 데이터와 유사한 데이터 세그먼트가 상기 사용자 동작 데이터 내에 나타나는 경우, 상기 사용자 동작은 상기 상응한 타겟동작을 포함한다고 인정될 수 있다. 동시에, 상기 동작식별 데이터는 상기 기준동작 데이터의 상기 기준동작 서브데이터의 일부분에만 존재할 수 있거나, 또는 상기 동작식별 데이터는 각 기준동작 서브데이터 내에 존재할 수 있다. 기준동작 서브데이터에 존재하는 상기 동작식별 데이터는 동작식별 서브데이터로 불리울 수 있다.
현재 시각의 상기 슬라이딩 윈도우에 있어서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 M개의 사용자 동작 데이터 세그먼트들을 각각 상응한 M 조각의 동작식별 서브데이터와 비교하여 상응한 M개의 차이도들을 얻는다. 상기 M개의 차이도들에 대해 가중치를 가하고 합산하여 상기 종합 차이도를 얻을 수 있다. 상기 종합 차이도가 상기 제1 기설정 값보다 작으면, 상기 제1 단계선별을 통과한 상기 제1 단계 후보기준동작 데이터가 결정될 수 있으며, 상기 제1 단계 후보기준동작 데이터는 상기 제2단계 후보기준동작 데이터로써 선택될 수 있다. 상기 종합 차이도의 값이 상기 제1 기설정 값보다 크면, 상기 슬라이딩 윈도우는 상기 기설정된 스탭크기로 다음 사용자 동작 데이터 세그먼트로 슬라이딩할 수 있으며, 그리고 상기 비교는 상기 종합 차이도 값이 상기 제1 기설정 값보다 작을 때까지 중복될 수 있거나 또는 상기 슬라이딩 윈도우가 상기 사용자 동작 데이터의 단부로 슬라이드한다.
특히, 제1 단계 후보기준동작 데이터의 모 조각의 동작식별 서브데이터의 모 세그먼트를 그의 상응한 사용자 동작 서브데이터와 비교하는 경우, 하기의 조작들이 실행될 수 있다.
상기 제1 단계 후보기준동작 데이터에서의 동작식별 서브데이터의 모 세그먼트에 있어서, 상기 데이터는 2차원 데이터이다. 예를 들면, 상기 팔걸링의 상기 제1 단계 후보기준동작 데이터는 상기 상박에 관련되는 상기 하박의 굽힘 각도에 관한 상이한 시각들에서의 동작식별 서브데이터를 포함할 수 있다. 상기 동작식별 서브데이터는 복수의 각도 값들과 복수의 상응한 시각들을 포함할 수 있으며, 따라서 상기 동작식별 서브데이터는 2차원의 데이터이다. 이러한 단일의 파라미터 동작식별 서브데이터에 있어서, 동작식별 서브데이터의 세그먼트가 상기 제1 단계 후보기준동작 데이터의 한 조각에 포함되는 경우, 상기 종합 차이도를 획득하기 위한 구체적인 처리는 아래와 같다. 도 7a는 본 개시의 일부 실시예들에 따른 기준동작 데이터에서의 동작식별 데이터의 예시적인 세그멘트 및 상기 슬라이딩 윈도우에 의해 상기 사용자 동작 데이터에서 수집된 상기 사용자 동작 서브데이터의 세그멘트의 시간축에서의 곡선을 나타낸다. 상기 기준동작 데이터 중의 상기 동작식별 서브데이터는 복수의 조작의 데이터 {aj}={a1, a2, a3, …an}를 포함할 수 있으며, n은 1보다 큰 정수이며, 각 조각의 데이터는 타임스탬프에 대응되고, j가 커짐에 따라, 각 데이터aj의 상기 타임스탬프에 대응되는 시각이 순차적으로 커진다. 즉, 상기 벡터{aj} 중의 데이터 점들은 시간순서로 배치될 수 있다. 상기 사용자 동작 서브데이터 세그먼트는 복수의 조각의 데이터 {bi}={b1, b2, a3, …bm}를 포함할 수 있으며, 그 중m은 1보다 큰 정수이며, 각 조각의 데이터는 타임스탬프에 대응되며, i 가 커짐에 따라, 각 데이터 bi의 상기 타임스탬프에 대응되는 시각은 순차적으로 커진다. 즉, 상기 벡터{bi} 중의상기 데이터 점들은 시간순서에 따라 배치될 수 있다. 일반적으로, 상기 슬라이딩 윈도우에 대응되는 시간 길이는 상기 동작식별 서브데이터에 대응되는 시간 길이보다 작으며, 상기 슬라이딩 윈도우에 대응되는 데이터의 수량은 상기 자동식별 데이터에 대응되는 데이터의 수량보다 작으며, 즉, m<n이다.
상기 기준동작 데이터와 상기 사용자 동작 데이터의 샘플링 빈도들과 동작 속도들이 같다고 가정하면, 동일한 시간 구간에 있어서, 상기 기준동작 데이터의 데이터 점들의 수량과 상기 사용자 동작 데이터의 데이터 점들의 수량은 같을 수 있다. 따라서, 상기 사용자 동작 서브데이터 세그먼트 {bi}는 상기 동작식별 서브데이터 {aj} 중의 동일한 길이의 데이터에 대응될 수 있다. 즉, {bi} 중의 각데이터 점은 {aj} 중의 데이터 점에 대응될 수 있다. {bi}와 {aj} 사이의 차이 도를 결정하는 경우, {bi}는 단지 시간축 t을 따라 그리면 되고, 하나의 데이터 점의 거리는 매번 슬라이딩할 수 있으며, 매번 슬라이딩할 때 {aj} 중의 상기 데이터 점과 상기 상응한 데이터 점 사이의 차이도 결정이 한번 진행될 수 있다. 그러나, 상기 기준동작 데이터와 상기 사용자 동작 데이터의 샘플링 빈도들 및/또는 상기 동작 속도들이 일치하지 않은 것을 고려하여, 사용자 동작의 데이터 점들과 상기 기준동작의 데이터 점들 사이에는 1 대 1의 대응이 아니다. 이때, {bi}의 동작-시간 관계는 다양한 시간 척도들에 따라 조절되어 조절된 동작-시간 관계가 상기 기준동작 데이터의 동작-시간 관계와 일치하게 해야 한다. 예를 들면, 상기 기준동작 데이터와 상기 사용자 동작 데이터의 샘플링 빈도들이 같고 동작 속도들은 일치하지 않으면, 사용자가 하나의 동작을 실행하는데 드는 시간이 상기 상응한 기준동작에 드는 시간과 다르다. 예를 들면, 상기 하드웨어 샘플링 빈도가 100개의 데이터 점/1초이면, 상기 기준동작에서의 관절의 속도는 1초 내에 0°로부터 90°로 변하고, 사용자 동작의 속도는 1초 내에 0°로부터 45°로만 변할 수 있으며, 100개의 데이터 점들에 있어서, 상기 기준동작 데이터는 90°의 각도 변화에 대응되고, 상기 사용자 동작 데이터는 45°의 각도 변화에 대응된다. 따라서, {bi}의 시간 범위는 다양한 시간 척도들에 근거하여 조절될 필요가 있으며, 예를 들면, 상이한 척도들에 근거하여 {bi}를 늘이거나 압축시키고, 그 후 전체 척도들에 대응되는 전체 차이도들이 결정될 때까지 각 척도에 대하여 상기 처리된 데이터 점과 {aj} 중 상응한 데이터 점 사이의 차이도를 한번 판별한다. 상기 구체적인 조작은 아래와 같다.
첫째로, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 사용자 동작 서브데이터 세그먼트 {bi}와 상기 동작식별 서브데이터 {aj}를 상기 동일한 시간축에 놓으므로써 상기 사용자 동작 서브데이터 중의 임의의 점 bi와 상기 동작식별 서브데이터 중의 임의의 점 aj 사이의 거리 Dji를 계산할 수 있으며, 도 7b에 표시하는 m×n의 거리 매트릭스 Dm×n를 결정한다. 상기 거리 매트릭스 중의 각 요소는 상기 사용자 동작 서브데이터 세그먼트의 i-th (i≤m) 점으로부터 상기 제1 단계 후보기준동작 데이터 중의 상기 동작식별 서브데이터의 j-th(i≤n) 점까지의 거리를 의미한다. 이두박근 컬링과 같은 신체단련동작을 사용자 동작의 예로 들면, 상기 사용자 동작 서브데이터 {bi}는 상기 상박과 상기 하박 사이의 각도들을 포함할 수 있으며, 상기 기준 데이터 중의 상기 상응한 동작식별 서브데이터 {aj}는 상기 상박과 상기 하박 사이의 각도들을 포함할 수 있다. 따라서, 상기 거리 Dji는 사용자의 상박과 하박 사이의 각도와 상기 동작식별 서브데이터에 의해 표시되는 각도 사이의 차이Dji=|aj-bi|를 표시할 수 있다. a5와 b6 사이의 거리 D56와 a5 와 b3 사이의 거리 D53는 도 7a에 표시된다. 물론, 상기 거리는 기타 방식으로 정의된 거리일 수 있다. 예를 들면, 상기 사용자 동작 서브데이터 중의 임의의 점 bi 와 상기 동작식별 서브데이터 중의 임의의 점 aj 사이의 거리는 유클리드 거리(Euclidean distance), 맨해튼 거리(Manhattan distance), P-모수(P-parametric distance), 코사인(cosine distance), 체비셰프(Chebyshev distance), 마르크스(Marxian distance), 편집(edit distance), 자카드 거리( Jaccard distance), 또는 임의의 기타 상관 거리일 수 있다. 이러한 방식으로, 상기 거리 매트릭스 Dm×n는 모든 척도들에서 사용자 동작 서브데이터 세그먼트 {bi} 중의 모든 점들과 동작식별 서브데이터 {aj} 중의 모든 점들 사이의 점 대 점 거리들을 포함할 수 있다.
두번째로, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 거리 매트릭스 Dm×n 중의 최소 거리경로 Pmin, 예를 들면, 최소 정규화 대가를 결정할 수 있다. 상기 거리경로는 아래의 벡터 P={pk}={p1, p2, ……pl}로 표현될 수 있으며, 이는 상기 거리 매트릭스 Dm×n의 일부 요소들에 의해 구성되는 서열이며, l는 거리경로 P 중의 요소들의 수량이다. 거리경로 P는 복수의 숫자들을 포함하고, 각 숫자는 Dm×n 중의 요소(예를 들면, 거리)일 수 있다. 임의의 2개의 인접된 수자는 상기 거리 매트릭스 Dm×n의 2개의 인접된 요소들이며, 상기 거리 매트릭스 Dm×n 중의 서열의 다음 숫자의 위치는 상기 거리 매트릭스 Dm×n 중의 서열의 직전의 숫자의 상응한 위치의 오른쪽 아래, 아래 또는. 사용자 동작 서브데이터 세그먼트 in 상기 슬라이딩 윈도우 중의 사용자 동작 서브데이터 세그먼트에 대응되는 시간이 상기 동작식별 서브데이터에 대응되는 시간보다 짧기 때문에, 상기 최소 거리경로 P의 양단부들은 상기 {bi}의 상기 제1 데이터 점 b1과 상기 최종 데이터 점 bm 에 대응될 수 있으며, 즉, 상기 서열 중의 상기 제1 숫자는 p1=D1x이고, 최종 숫자는 pl=Dmy이며, 그 중, x<n, y<n, x 와 y 는 각각 데이터 점들 in {aj} 중의 상응한 데이터 점들의 위치들을 표시한다. 상기 최소 거리경로 Pmin 는 상술한 조건들을 만족시키는 모든 경로들 중의 모든 요소들의 최소 합을 가지는 경로, 즉,
Figure pct00001
이다.
상기 슬라이딩 윈도우에 상이한 시간길이들과 상이한 데이터 샘플링 빈도들을 설정할 수 있음을 고려하여, 시간 윈도우 중의 상기 사용자 동작 데이터 세그먼트 중의 데이터 점들의 량은 다를 수 있다. 이는 상기 최소 거리경로 P 의 값이 상기 센서들의 데이터 샘플링 빈도와 시간 윈도우의 길이에 따라 다르게 할 수 있다. 이러한 요인들을 고려하여, 상기 차이도
Figure pct00002
Figure pct00003
로 정의될 수 있으며, 그 중
Figure pct00004
는 상기 최소 거리경로 Pmin의 요소들의 가중치를 가한 평균치이고,
Figure pct00005
는 1 행
Figure pct00006
열의 m개의 소자들로 구성된 가중치 벡터일 수 있으며,
Figure pct00007
는 스칼라일 수 있다. 예를 들면, 상기 차이도는 평균 거리로써 정의될 수 있으며, 즉, W 중의 모든 요소는
Figure pct00008
이다.
상기 계산을 통해, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 각각 복수의 스케일링(scaling)된 데이터 세그먼트들 중의 각 데이터 세그먼트와 상기 동작식별 서브데이터 사이의 차이도를 결정하는 조작을 완료할 수 있으며, 상기 데이터 세그먼트와 상기 동작식별 서브데이터 사이의 차이도들 중의 최소 차이도를 결정한다.
일부 실시예들에서, 계산량을 줄이고 사용자 동작 서브데이터의 조정척도를 결정하기 위해, 상기 슬라이딩 윈도우 내의 상기 사용자 동작 서브데이터 세그먼트의 차이를 결정하기 전에, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 동작식별 서브데이터와의 타겟비교 데이터 구간을 결정할 수 있으며, 상기 타겟비교 데이터 구간만을 상기 사용자 동작 서브데이터 세그먼트와 비교하여 차이도를 얻는다. 상기 타겟비교 데이터 구간은 복수의 동작식별 서브데이터 점들을 포함할 수 있다. 상기 타겟비교 데이터 구간은 상기 사용자 동작 데이터와 슬라이딩 윈도우에 의해 선택된 상기 동작식별 서브데이터 사이의 아래의 관계에 근거하여 결정될 수 있다.
1) 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 데이터 세그먼트의 시작과 말단은 상기 동작식별 서브데이터의 시작과 말단에 정확히 일치하며, 즉, 상기 사용자 동작 데이터 세그먼트는 정확히 상기 동작식별 서브데이터의 완전한 분포이다. 이런 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 먼저 상기 상응한 동작식별 서브데이터의 제1 데이터 점과 상기 최종 데이터 점에 대응되는 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 데이터 세그먼트의 제1 데이터 점과 상기 최종 데이터 점을 각각 결정할 수 있다. 상기 타겟비교 데이터 구간은 상기 전체 동작식별 서브데이터를 커버한다. 거리경로 P의 제약조건은 상기 서열의 각 숫자가 Dm×n의 요소이고, 임의의 2개의 인접된 숫자들은 거리 매트릭스 Dm×n 중의 2개의 인접된 소자들이고, 거리 매트릭스 Dm×n 중의 서열의 다음 숫자의 위치는 상기 거리 매트릭스 Dm×n 중의 직전 숫자의 상응한 위치의 오른쪽, 아래, 또는 오른쪽 아래임을 포함할 수 있다. 상기 최소 거리경로 P의 양단부는 p1=D11 및 pl=Dmn에 대응될 수 있다. 즉, 상기 거리 매트릭스의 상기 최소 거리경로 P는 거리 매트릭스의 왼쪽 아래 모퉁이로부터 아래 오른쪽까지의 최소 거리경로이다.
2) 상기 동작식별 서브데이터의 시작점에 대응되는 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 시작점, 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 말단점은 상기 동작식별 서브데이터 중의 모 데이터 점에 대응된다. 즉, 상기 사용자 동작 서브데이터는 스케일링(scaling)된 후의 상기 동작식별 서브데이터 중의 세그먼트에 대응되며, 이 세그먼트는 상기 동작식별 서브데이터의 시작점에 위치한다. 이런 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 상응한 동작식별 서브데이터의 제1 데이터 점에 대응되는 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 데이터 세그먼트의 제1 데이터 점을 먼저 결정할 수 있다. 그 후, 상기 타겟비교 데이터 구간은 상기 전체 동작식별 서브데이터를 커버할 수 있다. 거리경로 P의 상기 제약조건은 상기 서열의 각 숫자가 Dm×n 중의 요소이고; 임의의 2개의 인접된 숫자들은 상기 거리 매트릭스 Dm×n의 2개의 인접된 요소들이고, 상기 거리 매트릭스 Dm×n 중의 서열의 다음 숫자의 위치는 상기 거리 매트릭스 Dm×n 중의 직전의 숫자의 상응한 위치의 오른쪽, 아래 또는 오른쪽 아래임을 포함할 수 있다. 상기 최소 거리경로 P의 양단부는 p1=D11 및 pl=Dmy에 대응될 수 있다. 즉, 상기 거리 매트릭스의 상기 최소 거리경로 P는 상기 거리 매트릭스의 왼쪽 위로부터 오른쪽 아래로의 방향의 마지막 행의 모 점까지의 거리이다.
3) 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 시작점은 상기 동작식별 서브데이터의 모 데이터에 대응되며, 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 말단점은 상기 동작식별 서브데이터의 말단점에 대응된다. 즉, 스케일링(scaling)된 후, 상기 사용자 동작 서브데이터는 상기 동작식별 서브데이터의 말단 위치의 데이터의 세그먼트일 수 있다. 이런 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 먼저 상기 상응한 동작식별 서브데이터의 최종 데이터 점에 대응되는 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 데이터 세그먼트의 최정 데이터 점을 결정할 수 있다. 그 후, 상기 타겟비교 데이터 구간은 상기 전체 동작식별 서브데이터를 커버할 수 있다. 거리경로 P의 상기 제약조건은 상기 서열의 각 숫자가 Dm×n 중의 요소이고, 임의의 2개의 인접된 숫자들은 상기 거리 매트릭스 Dm×n의 2개의 인접된 요소들이고, 상기 거리 매트릭스 Dm×n 중의 서열의 다음 숫자의 위치는 상기 거리 매트릭스 Dm×n 중의 직전의 숫자의 상응한 위치의 오른쪽, 아래 또는 오른쪽 아래임을 포함할 수 있다. 상기 최소 거리경로 P의 양단부는 p1=D1x 및pl=Dmn에 대응될 수 있다. 즉, 상기 거리 매트릭스의 상기 최소 거리경로 P는 거리 매트릭스의 상기 제1 행 중의 모 점으로부터 오른쪽 아래 모퉁이까지의 최소 거리경로이다.
4) 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 상기 시작점과 상기 단말 데이터 점은 각각 상기 동작식별 서브데이터의 2개의 중간 데이터 점들에 대응되며, 상기 동작식별 서브데이터의의 상기 제1 데이터 점 및 최종 데이터 점에 대응되지 않는다. 즉, 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 시작점은 상기 동작식별 서브데이터의 시작이 아닐 수 있으며, 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터의 말단점은 동작식별 서브데이터의 말단이 아닐 수도 있다. 스케일링(scaling)된 후, 상기 사용자 동작 서브데이터는 상기 동작식별 서브데이터의 데이터 세그먼트일 수 있으며, 이 세그먼트는 상기 동작식별 서브데이터의 중간의 모 위치에 위치할 수 있다. 데이터 세그먼트의 "중간 데이터"는 상기 데이터의 시작점과 말단점을 제외한 임의의 위치의 데이터일 수 있다. 이런 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 먼저 상기 슬라이딩 윈도우에 의해 선택되는 상기 사용자 동작 서브데이터 세그먼트의 제1 데이터 점과 최종 데이터가 상기 상응한 동작식별 서브데이터의 제1 데이터 점과 최종 데이터 점이 아닐 수 있음을 결정할 수 있다. 그 후 타겟비교 데이터 구간은 상기 제1 데이터 점과 상기 최종 데이터 점을 제외한 상기 전체 동작식별 서브데이터를 커버할 수 있다. 거리경로 P의 상기 제약조건은 상기 서열의 각 숫자가 Dm×n 중의 요소이고, 임의의 2개의 인접된 숫자들은 상기 거리 매트릭스 Dm×n의 2개의 인접된 요소들이고, 상기 거리 매트릭스 Dm×n 중의 서열의 다음 숫자의 위치는 상기 거리 매트릭스 Dm×n 중의 직전의 숫자의 상응한 위치의 오른쪽, 아래 또는 오른쪽 아래임을 포함할 수 있다. 상기 최소 거리경로 P의 양단부는 pl=D1x 및pl=Dmy에 대응될 수 있으며,
Figure pct00009
이다. 즉, 상기 거리 매트릭스의 최소 거리경로 P는 상기 거리 매트릭스의 제1 행의 중간에서 모 점으로부터 시작하여 오른쪽 아래로 연장되고 최종 행의 모 점에서 끝난다.
일부 실시예들에서, 상기 동작식별 서브데이터는 기준동작의 시작 동작 또는 말단 동작에 대응될 수 있다. 이때, 사용자 동작 서브데이터에서 모 점이 상기 동작의 시작 점 또는 말단 점인지 여부를 결정하는 경우, 이는 점의 앞과 뒤의 각속도들을 변화시킴으로써 결정될 수 있다. 예를 들면, 사용자 동작 데이터 점이 상기 상응한 사용자 동작의 각속도가 0이고, 상기 사용자 동작 데이터 점 뒤의 점이 각속도가 0이 아님을 나타내는 경우, 이는 상기 사용자 동작 데이터 점으로부터 모 신체단련동작을 시작함을 증명할 수 있으며, 따라서 이는 상기 사용자 동작 데이터 점이 상기 사용자 동작의 시작점임을 결정할 수 있다. 다른 하나의 예로써, 사용자의 동작점의 각속도가 0이고, 직전 점의 각속도는 0이 아니며, 이는 사용자가 이 점에서 상기 동작을 정지했음을 증명할 수 있으며, 따라서 사용자의 동작점이 상기 동작의 말단점임을 결정할 수 있다.
상기 사용자 동작 데이터에 대해 타겟동작식별을 실행하는 것은 아래의 2가지 경우를 포함할 수 있음에 유의해야 한다. 1) 상기 동작식별 서브데이터는 세그먼트로 상기 사용자 동작 서브데이터 세그먼트와 비교하여 종합 차이도 값을 없을 수 있다. 상기 종합 차이도의 값이 상기 제1 기설정 값보다 작은 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 제1 단계 후보기준동작 데이터가 상기 제2단계 후보기준동작 데이터라고 결정할 수 있다. 2) 상기 동작식별 데이터는 세그먼트로 사용자 동작 데이터 세그먼트와 비교하여 종합 차이도 값을 얻을 수 있다. 상기 종합 차이도의 값이 제1 기설정 값보다 큰 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 슬라이딩 윈도우를 상기 기설정된 스탭크기로 다음 데이터 세그먼트로 슬라이딩하고, 그 후 상기 비교를 중복할 수 있다. 상기 제1 기설정 값은 상기 사용자 동작 데이터와 상기 제1 단계 후보기준동작 데이터에 대응되는 동작 사이의 거리가 충분히 작은지 여부를 결정하는 기준일 수 있다. 따라서, 상기 종합 차이도의 값이 상기 제1 기설정 값보다 작은 경우, 상기 사용자 동작 데이터와 상기 제1 단계 후보기준동작 데이터 사이의 거리는 상대적으로 작음을 증명할 수 있으며(즉, 유사성이 매우 높다), 상기 사용자 동작 데이터는 상기 제1 단계 후보기준동작 데이터에 대응되는 타겟동작 데이터를 포함한다고 인정할 수 있다. 이때, 상기 제1 단계 후보기준동작 데이터는 상기 제2단계 후보기준동작 데이터라고 결정할 수 있다. 상기 종합 차이도 값이 제1 기설정 값보다 큰 경우, 상기 사용자 동작 데이터와 상기 제1 단계 후보기준동작 데이터 사이의 유사성은 매우 낮음을 증명할 수 있으며, 상기 사용자 동작 데이터는 상기 기준동작에 대응되는 타겟동작 데이터를 포함하지 않는다고 결정할 수 있다.
위에서는 한 조각의 사용자 동작 서브데이터와 상기 상응한 동작식별 서브데이터 사이의 차이도를 결정하는 방법을 설명한다. 도 7c는 본 개시의 일부 실시예들에 따른 사용자 동작 데이터가 복수의 사용자 동작 서브데이터를 포함하는 경우의 슬라이딩 윈도우를 통해 종합 차이도를 결정하는 개략도를 나타낸다.
모 동작의 동작 데이터가 M개의 파라미터들을 측정하기 위한 데이터를 포함하고, M이 1보다 큰 정수이면, 상기 동작의 동작 데이터는 M 조각의 병행측정 서브데이터를 포함한다. 따라서, 상기 사용자 동작 데이터는 M 조각의 사용자 동작 서브데이터를 포함할 수 있다. 상기 제1 단계 후보기준동작 데이터는 M 조각의 제1 단계 후보기준동작 서브데이터를 포함할 수도 있다. 상기 제1 단계 후보기준동작 서브데이터의 각 조각은 파라미터 측정에 의해 얻은 전체 동작 데이터 중의 국부 동작 데이터에 대응되며 독립적인 동작식별 서브데이터의 적어도 하나의 세그먼트를 포함한다. 전체 동작식별 서브데이터는 공동으로 상기 기준동작의 동작식별 데이터를 구성한다.
모 조각의 사용자 동작 서브데이터에 대응되는 제1 단계 후보기준동작 서브데이터가 한 세그먼트의 동작식별 서브데이터를 포함하는 경우, 상기 사용자 동작 서브데이터와 상기 제1 단계 후보기준동작 서브데이터 사이의 상기 비교 서브결과는 아래의 조작에 따라 얻을 수 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)는 슬라이딩 윈도우를 이용하여 M 조각의 사용자 동작 서브데이터 중의 각 사용자 동작 서브데이터로부터 한 세그먼트의 사용자 동작 데이터를 선택하고, 상기 M 조각의 기준동작 서브데이터 중의 M개 세그먼트의 동작식별 서브데이터와 순차적으로 비교하여 차이도들을 결정할 수 있으며, 따라서 상기 비교 서브결과들을 얻을 수 있다. 그 후, 상기 M개의 비교 서브결과들은 가중치를 가하고 합산하여 종합 차이도를 얻을 수 있으며, 상기 사용자 동작 데이터가 상기 타겟동작을 포함하는지 여부는 상기 종합 차이도와 상기 제1 기설정 값에 근거하여 결정될 수 있다. 상기 M 조각의 사용자 동작 서브데이터의 각 조각에 있어서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상술한 방법에 따라 상기 사용자 동작 서브데이터와 상기 동작식별 서브데이터 사이의 차이도를 얻을 수 있다.
특히, M 조각의 사용자 동작 서브데이터 중의 각 조각에 있어서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 슬라이딩 윈도우를 이용해 하나의 사용자 동작 서브데이터 세그먼트를 수집할 수 있다. M 조각의 상기 사용자 동작 서브데이터에 대응되는 상기 슬라이딩 윈도우들은 슬라이딩할 때 연동되거나 또는 개별적으로 조작될 수 있다. 각 슬라이딩 윈도우는 동일한 폭을 가질 수 있으며, 즉, 각 슬라이딩 윈도우에 대응되는 사용자 동작 서브데이터 세그먼트는 통일적으로 데이터 점들을 포함(d는 1보다 큰 정수)할 수 있으며, 상술한 바와 같이, d개의 데이터 점들의 각 데이터 점은 타임스탬프에 대응된다. 물론, 상이한 슬라이딩 윈도우들의 폭들은 다를 수도 있으며, 각 슬라이딩 윈도우 내의 사용자 동작 서브데이터 세그먼트에 포함되는 데이터의 수량은 다를 수도 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 사용자 동작 서브데이터 세그먼트의 각 데이터 점과 상술한 방법에 따른 동작식별 서브데이터의 각 데이터 점 사이의 전체 거리를 결정할 수 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상술한 방법을 통해 전체 거리의 최소 정규화 대가를 얻으며, 그 후 상기 사용자 동작 서브데이터 세그먼트와 상기 동작식별 서브데이터 사이의 차이도를 결정할 수 있다. M 조각의 사용자 동작 서브데이터가 있기 때문에, 상술한 방법에 의하면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 총 M개의 차이도들을 얻을 수 있다. 나중에, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 M개의 비교 서브결과들에 대해 가중치를 가하고 합산하여 종합 차이도를 얻을 수 있다.
본 개시의 일부 실시예들에서, 상기 종합 차이도의 값을 얻은 후, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 직접 상기 사용자 동작 데이터가 상기 제1 단계 후보기준동작 데이터ㄹ르 포함하는 지여부를 결정할 수 있다. 예를 들면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 동작식별 데이터에 제1 기설정 값을 설정할 수 있으며, 상기 종합 차이도의 값이 제1 기설정 값보다 큰 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 M개의 슬라이딩 윈도우들 중의 각 슬라이딩 윈도우를 상기 기설정된 스탭크기로 다음 데이터 세그먼트로 슬라이딩하고, 그 후 중복하여 비교할 수 있다. 상기 종합 차이도 값이 상기 제1 기설정 값보다 작으면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 세트의 사용자 동작 서브데이터는 상기 제1 단계 후보기준동작 데이터를 포함한다고 인정할 수 있으며, 따라서 상술한 순환이 종료될 수 있다.
상기 제1 단계 후보기준동작 서브데이터가 동작식별 서브데이터의 복수의 세그먼트들(예를 들면, p 세그먼트, p는 1보다 큰 정수이다)을 포함하는 한 조각의 사용자 동작 서브데이터에 대응되는 경우, 상기 사용자 동작 서브데이터와 상기 제1 단계 후보기준동작 서브데이터 사이의 비교결과는 하기의 방법에 근거하여 얻을 수 있다. M 조각의 사용자 동작 서브데이터 중의 각 조각에 있어서, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 슬라이딩 윈도를 통해 상기 사용자 동작 서브데이터의 각 조각으로부터 하나의 사용자 동작 서브데이터 세그먼트를 샘플링할 수 있다. 상기 M 조각의 사용자 동작 서브데이터에 대응되는 슬라이딩 윈도들은 슬라이딩할 때 각기 연동되거나 또는 조작될 수 있다. 각 슬라이딩 윈도는 동일한 폭을 가질 수 있으며, 즉, 각 슬라이딩 윈도에 대응되는 상기 사용자 동작 서브데이터 세그먼트는 d(d는 1보다 큰 정수이다)개의 데이터 점들을 통일적으로 포함할 수 있으며, 상술한 바와 같이, d개의 데이터 점들 중의 각 데이터 점은 하나의 타임스탬프에 대응된다. 물론, 상이한 슬라이딩 윈도들의 폭은 다를 수도 있으며, 각 슬라이딩 윈도 중의 상기 사용자 동작 서브데이터 세그먼트에 포함되는 데이터의 수량은 다를 수도 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상술한 방법에 근거하여 사용자 동작 서브데이터 세그먼트와 상기 p개 동작식별 서브데이터 세그먼트 사이의 p개의 전체 거리들을 각각 계산할 수 있다. 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상술한 방법을 이용하여 p개의 전체 거리들의 최소 정규화 대가를 결정하여 상기 사용자 동작 서브데이터 세그먼트와 상기 동작식별 서브데이터 사이의 비교 서브결과로 할 수 있다. M 조각의 사용자 동작 서브데이터가 있기 때문에, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상술한 방법에 따라 총 M개의 비교 서브결과를 얻을 수 있다. 나중에, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 M개의 비교 서브결과들에 대해 가중합산을 실행하여 상기 종합 차이도 값을 얻을 수 있다.
본 개시의 일부 실시예들에서, 상기 종합 차이도의 값을 얻은 후, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 직접 상기 조의 사용자 동작 서브데이터가 상기 제1 단계 후보기준동작 데이터를 포함하는지 여부를 결정할 수 있다. 예를 들면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 동작식별 데이터에 대해 제1 기설정 값을 설정할 수 있고, 상기 종합 차이도 값이 제1 기설정 값보다 큰 경우, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 M개의 슬라이딩 윈도우들 중 각 슬라이딩 윈도를 상기 기설정된 스탭크기로 다음 데이터 세그먼트로 슬라이딩시킬 수 있으며, 그 후 상기 비교를 중복할 수 있다. 상기 종합 차이도의 값들이 상기 제1 기설정 값보다 작으면, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 상기 제1 단계 후보기준동작 데이터가 상기 제2단계 후보기준동작 데이터임을 결정할 수 있으며, 따라서 상술한 순환은 종료될 수 있다.
일부 실시예들에서, 상기 제2단계 후보기준동작 데이터를 결정한 후, 상기 처리장치(110) 및/또는 상기 이동장치(140)는 진일보 상기 사용자 동작이 상기 제2단계 후보기준동작 데이터에 대응되는 기준동작을 포함하는지 여부를 확인할 수 있다.
본 개시의 일부 실시예들에서, 제2 기설정 값도 설정될 수 있으며, 상기 제2 기설정 값은 상기 확률에 관련되는 값으로 사전에 설정될 수 있다. 상술한 처리를 통해 상기 처리장치(110) 및/또는 상기 이동장치(140)는 나중에 N (N는 1보다 큰 정수이다) 세트의 제1 단계 후보기준동작 데이터가 상기 제2단계 후보기준동작 데이터임을 결정할 수 있다고 가정한다. 구체적으로, 상기 사용자 동작 데이터와 상기 N 세트의 제2단계 후보기준동작 데이터 사이의 N개의 거리들(종합비교결과)은 각각 비교를 통해 계산될 수 있으며, 그 후 N개의 확률 값들은 각각 N개의 거리들을 통해 계산될 수 있다. 상기 N개의 확률 값들의 최대 값은 상기 제2 기설정 값과 비교될 수 있으며, 상기 사용자 동작 데이터가 최대 확률 값에 대응되는 제2단계 후보기준동작 데이터를 포함하는지 여부가 결정될 수 있다. 사용자 동작 데이터가 제 i의 제2단계 후보기준동작 데이터에 대응되는 상기 타겟동작을 포함하는 확률은 아래와 같이 표달할 수 있다.
Figure pct00010
Figure pct00011
는 상기 사용자 동작 데이터와 제j 제2단계 후보기준동작 데이터 사이의 거리 (예를 들면, 앞서 언급한 종합 정규화 대가 또는 종합 차이도)를 표시한다. 상기 사용자 동작 데이터와 상기 제2단계 후보기준동작 데이터 사이의 거리의 값이 작을 수록, 상기 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터에 대응되는 타겟동작을 포함하는 확률이 더 높을 수 있다. 예를 들면, 상기 사용자 동작 데이터를 3개의 제2단계 후보기준동작 데이터(즉, N=3라고 가정하면, 3개의 제2단계 후보기준동작 데이터의 숫자는 각각 1, 2, 및 3이다)와 비교함으로써, 상기 사용자 동작 데이터와 상기 제2단계 후보기준동작 데이터 1 사이의 거리가 D1임을 얻을 수 있고, 상기 사용자 동작 데이터와 상기 제2단계 후보기준동작 데이터 2 사이의 거리가 D2임을 얻을 수 있고, 상기 사용자 동작 데이터와 상기 제2단계 후보기준동작 데이터 3 사이의 거리가 D3임을 얻을 수 있다. 상기 사용자 동작 데이터와 상기 제2단계 후보기준동작 데이터 사이의 거리 값이 작을 수록, 상기 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터에 대응되는 타겟동작을 포함하는 확률이 더 높을 수 있다. 예를 들면, 상기 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터 1 에 대응되는 타겟동작을 포함하는 확률은 아래와 같이 결정될 수 있다.
Figure pct00012
상기 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터 2에 대응되는 타겟동작을 포함하는 확률은 아래와 같이 결정될 수 있다
Figure pct00013
상기 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터 3 에 대응되는 타겟동작을 포함하는 확률은 아래와 같이 결정될 수 있다.
Figure pct00014
이때, 상기 계산된 3개의 확률 값들의 최대 값은 상기 제2 기설정 값와 비교될 수 있다. 상기 최대 확률 값이 상기 제2 기설정 값보다 큰 경우, 상기 사용자 동작 데이터가 상기 제2단계 후보기준동작 데이터 n에 대응되는 타겟동작을 포함함이 결정되고, 상기 제2단계 후보기준동작 데이터 n은 상기 최대 확률 값에 대응되는 제2단계 후보기준동작 데이터이다. 최대 확률 값이 제2단계 기설정 값보다 작은 경우, 사용자 동작 데이터가 기준동작 데이터베이스에 대응되는 타겟동작을 포함하지 않음이 결정된다.
530조작에서, 타겟동작을 결정한 후, 타겟동작에 관련되는 내용이 상기 사용자에게 전송될 수 있다.
구체적으로, 사용자의 동작이 식별된 후, 상기 사용자의 동작의 동작이 감시될 수 있으며, 상기 감시되는 정보는 상기 사용자에게 전송될 수 있다. 사용자의 동작 을 감시하는 것은 사용자의 동작에 관련된 정보를 감시하는 것을 포함할 수 있다. 일부 실시예들에서, 사용자의 동작에 관련되는 정보는 하나 이상의 사용자 동작 유형, 동작량, 동작품질(예를 들면, 상기 사용자 동작이 표준에 부합되는지 여부), 동작시간, 등을 포함할 수 있다. 상기 동작유형은 사용자가 신체단련을 할 때의 신체단련동작일 수 있다. 일부 실시예들에서, 상기 동작유형은 좌식 가슴 조이기(seated chest clamping), 클램핑, 스쿼트, 데드리프트(deadlifts), 플랭크(planks), 달리기, 수영, 등 중 하나 이상을 포함할 수 있지만 이에 한정되지 않는다. 상기 동략 수량은 사용자의 운동시 실행하는 동작의 수량일 수 있다. 예를 들면, 사용자는 사용자의 운동시 좌식 가슴 조이기를 10회 실행할 수 있으며, 10회는 동작 수량이다. 상기 동작 품질 표준 신체단련동작에 상대적으로 사용자에 의해 실행되는 신체단련동작의 표준 등급일 수 있다. 예를 들면, 사용자가 스쿼트 동작을 실행하는 경우, 상기 처리장치(110)는 특정된 근육위치(대퇴골근, 사두근, 등)에 대응되는 동작신호(상기 EMG 신호와 상기 자세신호)의 특징 정보에 근거하여 사용자의 동작의 동작유형을 결정할 수 있으며, 표준 스쿼트 동작의 동작신호에 근거하여 사용자의 스쿼트 동작의 동작 품질을 결정할 수 있다. 동작시간은 사용자의 하나 이상의 동작 유형들 중의 각 동작유형에 대응되는 시간 또는 동작 과정의 총 시간일 수 있다.
정리하면, 본 개시에서 제공하는 타겟동작을 결정하는 방법과 시스템(100)은 사용자의 운동시 동작 데이터를 얻을 수 있으며, 그리고 상기 동작 데이터는 동작 내용을 표기한 기준동작 데이터와 비교함으로써, 따라서 사용자의 운동이 기준동작과 같은 타겟동작을 포함하는지 여부가 식별될 수 있다. 상기 방법과 시스템은 사용자가 어떤 동작을 했는지를 모르는(사용자가 주석유형의 동작을 실행하였는지 여부 및 언제 상기 주석 유형의 동작이 실행되었는지를 모른다) 상황에서 사용자 동작 데이터에 대해 타겟동작식별을 진행할 수 있으며, 상기 타겟동작에 관련되는 내용을 타겟동작을 결정한 후의 사용자에게 전송한다. 상술한 기술안을 통해, 상기 방법과 시스템은 전통적인 밥법 및 시스템보다 높은 지능을 가지며, 사용자의 체험을 향상시킨다.
이상에서 기본 원칙을 설명하였다. 물론 본 분야의 기술자들에 있어서 상기의 상세설명은 하나의 실시예뿐이고 본 개시에 대한 한정이 아니다. 여기에서 명기하지 않았지만 본 분야의 기술자들에 있어서 본 개시에 대하여 다양한 변화, 개진, 또는 수정이 가능하다. 이러한 변화, 개진, 또는 수정은 본 개시의 제시를 받았으며, 따라서, 이러한 변화, 개진, 또는 수정은 본 개시의 바람직한 실시예의 요지와 범위내에 있는 것이다.
또한 본 개시의 실시예들을 설명하는데 특정된 용어를 사용한다. 예를 들면, "하나의 실시예", "일 실시예", 및/또는 "일부 실시예"는 특정된 특징, 구조 또는 특성은 본 개시의 적어도 하나의 실시예에 연관됨을 의미한다. 따라서 본 명세어의 상이한 부분에서 기술한 2개 이상의 "하나의 실시예", "일 실시예", 또는 "하나의 변형 실시예"는 전부 동일한 실시예로 여길 필요가 없음을 강조하고 인정한다. 그리고 본 개시의 하나 이상의 실시예의 특정된 특징, 구조 또는 특성은 적당히 조합될 수 있다.

Claims (14)

  1. 사용자 동작을 식별하기 위한 방법으로서,
    사용자 위의 복수의 측정 위치들로부터 수집한 미지의 사용자 동작에 대응되는 사용자 동작 데이터를 획득하는 단계;
    타겟동작에 대응되는 적어도 하나의 세트의 타겟 기준동작 데이터에 근거하여 상기 사용자 동작 데이터를 획득할 때 상기 사용자 동작이 상기 타겟동작을 포함하는지를 식별하는 단계; 및
    상기 타겟동작에 관련되는 정보를 사용자에게 전송하는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  2. 제1항에 있어서,
    타겟동작을 포함하는 상기 사용자 동작을 식별하는 단계는:
    각각 적어도 하나의 기준동작에 대응되는 복수의 세트의 후보기준동작 데이터를 획득하는 단계;
    상기 사용자 동작 데이터에 근거하여 복수의 세트의 후보기준동작 데이터에 대해 차이도 기반의 선별조작과 확률 기반의 선별조작의 조합을 포함하는 2단계 선별조작을 실행하는 단계; 및
    상기 2단계 선별조작의 결과에 근거하여 상기 사용자 동작이 상기 타겟동작을 포함하는지를 결정하는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  3. 제1항에 있어서,
    타겟동작을 포함하는 상기 사용자 동작을 식별하는 단계는:
    각각 적어도 하나의 기준동작에 대응되는 복수의 세트의 기준동작 데이터를 획득하는 단계;
    복수의 세트의 기준동작 데이터로부터 차례로 각 세트의 기준동작 데이터를 후보기준동작 데이터로 선택하는 단계;
    상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 단계; 및
    상기 적어도 하나의 차이도를 가중합산함으로써 종합 차이도를 결정하는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  4. 제3항에 있어서,
    각 세트의 기준동작 데이터는 M 조각의 기준동작 서브데이터를 포함하고, 각 조각의 기준동작 서브데이터는 적어도 하나의 세그먼트의 동작식별 서브데이터를 포함하고, M은 1보다 큰 정수이며;
    상기 M 조각의 기준동작 서브데이터의 동작식별 서브데이터는 전체 동작식별 데이터를 형성하고, 각 세그먼트의 동작식별 서브데이터는 복수의 측정 위치들 중의 적어도 하나의 측정 위치의 상기 기준동작의 적어도 일부분에 대응되는,
    사용자 동작을 식별하기 위한 방법.
  5. 제3항에 있어서,
    상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 단계는:
    각 조각의 상기 동작식별 서브데이터에 대해 기설정 길이를 가지고 기설정 시간구간 내에 수집되는 상기 사용자 동작 데이터의 데이터 세그먼트를 포함하는 슬라이딩 윈도우를 선택하는 단계; 및
    현재 시각의 상기 슬라이딩 윈도우에 대해, 상기 데이터 세그먼트와 상기 상응한 동작식별 서브데이터 사이의 차이도를 결정하는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  6. 제5항에 있어서,
    타겟동작을 포함하는 상기 사용자 동작을 식별하는 단계는:
    제1 기설정 값보다 큰 상기 종합 차이도의 값을 결정하는 단계; 및
    상기 슬라이딩 윈도우를 기설정된 스탭크기로 다음 데이터 세그먼트로 슬라이딩하고, 상기 비교를 중복하는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  7. 제6항에 있어서,
    상기 슬라이딩 윈도우 중의 데이터 세그먼트에 대응되는 데이터 수집시간 길이는 사용자 동작속도와 음의 관계를 가지는,
    사용자 동작을 식별하기 위한 방법.
  8. 제7항에 있어서,
    상기 기설정된 스탭크기는
    상기 기설정된 스탭크기는 직전 시각의 상기 종합 차이도의 값의 크기와 양의 관계를 가지는 조건; 및
    상기 기설정된 스탭크기는 상기 종합 차이도의 값의 변화 경향과 양의 관계를 가지는 조건 중 하나 이상의 조건을 만족시키는,
    사용자 동작을 식별하기 위한 방법.
  9. 제5항에 있어서,
    상기 데이터 세그먼트는 복수의 사용자 동작 데이터 점들을 포함하고;
    상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 단계는:
    상기 동작식별 서브데이터로부터 복수의 식별데이터 점들을 포함하는 타겟비교 데이터 구간을 선택하는 단계,
    복수의 척도들에 따라 상기 데이터 세그먼트를 조절하여 복수의 조절된 데이터 세그먼트들을 획득하는 단계,
    상기 동작식별 서브데이터와 복수의 조절된 데이터 세그먼트들 중의 각 조절된 데이터 세그먼트 사이의 차이도를 각각 결정하는 단계, 및
    상기 동작식별 서브데이터와 복수의 조절된 데이터 세그먼트들 사이의 차이도들 중 최소 차이도를 결정하는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  10. 제5항에 있어서,
    상기 후보기준동작 데이터의 적어도 하나의 세그먼트의 동작식별 서브데이터를 한 세그먼트씩 상응한 사용자 동작 서브데이터 세그먼트와 비교함으로써 적어도 하나의 차이도를 결정하는 단계는:
    거리 매트릭스 [Dij]를 결정하는 단계로서, Dij는 타겟비교 데이터 구간의 제i데이터 점과 상기 데이터 세그먼트의 제j 데이터 점 사이의 거리를 표시하는, 상기 거리 매트릭스 [Dij]를 결정하는 단계;
    상기 거리 매트릭스의 최소 거리경로를 결정하는 단계로서, 상기 최소 거리경로는
    상기 최소 거리경로의 시작점은 상기 [Dij]의 첫 행으로부터 시작인 조건,
    상기 최소 거리경로에서 2개의 인접되는 점들은 상기 거리 매트릭스에서 인접되는 조건,
    상기 최소 거리경로에서 다음 점은 직전 점의 오른쪽, 아래 또는 오른쪽 아래에 있는 조건,
    상기 최소 거리경로의 말단점은 [Dij]의 최종 행에 있는 조건, 및
    상기 최소 거리경로는 최소 정규화 대가를 가지며, 상기 정규화 대가는 상기 거리 매트릭스의 상응한 최소 거리경로에서의 점들의 거리들에 의해 결정되는 조건을 만족시키는, 상기 거리 매트릭스의 최소 거리경로를 결정하는 단계; 및
    상기 차이도가 상기 정규화 대가에 관련되는 단계를 포함하는,
    사용자 동작을 식별하기 위한 방법.
  11. 제10항에 있어서,
    상기 데이터 세그먼트의 제1 데이터 점이 사용자 동작이 시작되는 데이터 점으로 결정되면, 상기 최소 거리경로의 시작점은 상기 데이터 세그먼트의 제1점과 상기 타겟비교 데이터 구간의 제1점 사이의 거리 D11인,
    사용자 동작을 식별하기 위한 방법.
  12. 제10항에 있어서,
    상기 데이터 세그먼트의 최종 데이터 점이 사용자 동작이 종료되는 데이터 점으로 결정되면, 상기 최소 거리경로의 말단점은 상기 데이터 세그먼트의 최종점과 상기 타겟비교 데이터 구간의 최종점 사이의 거리 Dmn인,
    사용자 동작을 식별하기 위한 방법.
  13. 제3항에 있어서,
    상기 사용자 동작이 상기 타겟동작을 포함하는지를 식별하는 단계는:
    복수의 세트의 기준동작 데이터로부터 N 조각의 제2단계 후보기준동작 데이터를 선택하는 단계로서, 상기 제2단계 후보기준동작 데이터의 상기 종합 차이도의 값은 제1 기설정 값보다 작고, N는 1보다 큰, 단계;
    상기 사용자 동작 데이터와 N 조각의 제2단계 후보기준동작 데이터 사이의 N개의 거리들을 각각 계산하는 단계;
    각각 상기 N개의 거리들에 근거하여 N개의 확률을 계산하는 단계;
    확률 값이 제2 기설정 값보다 큰 제2단계 후보기준동작 데이터를 상기 타겟 기준동작 데이터로 선택하는 단계; 및
    상기 타겟 기준동작데이터에 대응되는 기준동작을 상기 타겟동작으로 결정하는 단계를 더 포함하는,
    사용자 동작을 식별하기 위한 방법.
  14. 사용자 동작을 식별하기 위한 시스템으로서,
    사용자의 운동시 사용자 동작 데이터를 획득하기 위한 적어도 하나의 명령세트를 저장하는 적어도 하나의 저장매체; 및
    상기 적어도 하나의 저장매체와 통신하는 적어도 하나의 프로세서를 포함하며,
    상기 시스템이 운행할 때, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령 세트를 읽어내고 청구항 1내지 청구항 13 중 어느 한 항에 따른 상기 타겟동작을 식별하기 위한 방법을 실행하는,
    사용자 동작을 식별하기 위한 시스템.
KR1020237007354A 2021-03-19 2022-01-27 사용자 동작을 식별하기 위한 방법 및 시스템 KR20230044297A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CNPCT/CN2021/081931 2021-03-19
PCT/CN2021/081931 WO2022193330A1 (zh) 2021-03-19 2021-03-19 一种运动监控方法及其系统
PCT/CN2022/074379 WO2022193851A1 (zh) 2021-03-19 2022-01-27 识别用户动作的方法和系统

Publications (1)

Publication Number Publication Date
KR20230044297A true KR20230044297A (ko) 2023-04-03

Family

ID=83321834

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020237016055A KR20230086750A (ko) 2021-03-19 2021-03-19 운동감시방법및 운동감시시스템
KR1020237007354A KR20230044297A (ko) 2021-03-19 2022-01-27 사용자 동작을 식별하기 위한 방법 및 시스템
KR1020227032041A KR20220142495A (ko) 2021-03-19 2022-01-27 운동 데이터 처리방법 및 운동감시시스템

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020237016055A KR20230086750A (ko) 2021-03-19 2021-03-19 운동감시방법및 운동감시시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020227032041A KR20220142495A (ko) 2021-03-19 2022-01-27 운동 데이터 처리방법 및 운동감시시스템

Country Status (6)

Country Link
US (3) US20220365600A1 (ko)
EP (3) EP4201323A4 (ko)
JP (3) JP2023549242A (ko)
KR (3) KR20230086750A (ko)
CN (5) CN116981401A (ko)
WO (4) WO2022193330A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115624724A (zh) * 2022-11-01 2023-01-20 上海工程技术大学 一种基于虚拟现实的上肢康复训练系统
CN115714889A (zh) * 2022-11-22 2023-02-24 杭州卡路里体育有限公司 数据处理方法及装置
CN115826748A (zh) * 2022-11-26 2023-03-21 广东御腾网络科技发展有限公司 一种基于智能手环的动作识别方法及装置
CN116153510B (zh) * 2023-02-17 2024-04-16 河南翔宇医疗设备股份有限公司 矫正镜控制方法、装置、设备、存储介质及智能矫正镜
DE102023107589A1 (de) * 2023-03-27 2024-10-02 panthr healthtech GmbH Verfahren zur digitalen Steuerung von Bewegungsabläufen
CN116739631B (zh) * 2023-05-19 2024-06-21 南京财经大学 一种基于人工智能的交互式体育运动运营管理系统
CN117958804B (zh) * 2024-01-10 2024-07-09 广东工业大学 基于imu信号的睡姿识别方法、系统、介质及计算机
CN118098474A (zh) * 2024-04-19 2024-05-28 自贡市第一人民医院 一种内科护理临床监护设备数据优化处理方法
CN118195707B (zh) * 2024-05-17 2024-08-27 深圳方舟互动科技有限公司 用户行为分析方法、系统、装置及计算机可读存储介质

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4867364B2 (ja) * 2006-01-27 2012-02-01 横浜ゴム株式会社 生体電気情報計測装置
TWI393579B (zh) * 2009-11-13 2013-04-21 Inst Information Industry The state of the muscle movement state analysis system, methods and computer program products
KR20140062892A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 운동 서비스를 제공하기 위한 웨어러블 디바이스와 디스플레이 장치 및 이를 포함하는 운동 서비스 제공 시스템과 그 방법
US20140207017A1 (en) * 2013-01-23 2014-07-24 Altec, Inc. Signal quality monitor for electromyographic sensors
EP3190957B1 (en) * 2014-10-17 2021-06-23 G-Tech Medical, Inc. Methods for processing electromyographic signals of the gastrointestinal tract
KR20160084703A (ko) 2015-01-06 2016-07-14 삼성전자주식회사 운동 가이드 제공 방법
JP2016150119A (ja) * 2015-02-17 2016-08-22 日本電信電話株式会社 運動状態判定方法、装置、及びプログラム
CN104706359A (zh) * 2015-04-01 2015-06-17 深圳柔微传感科技有限公司 一种实现运动实时监测的方法和智能服装
US10854104B2 (en) 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
CN105635669B (zh) * 2015-12-25 2019-03-01 北京迪生数字娱乐科技股份有限公司 基于三维运动捕捉数据与实拍视频的动作对比系统及方法
JP6527830B2 (ja) * 2016-02-15 2019-06-05 日本電信電話株式会社 生体信号処理装置、方法、およびプログラム
CN105997064B (zh) * 2016-05-17 2018-10-23 成都奥特为科技有限公司 一种用于人体下肢表面肌电信号的辨识方法
CN106073793B (zh) 2016-06-13 2019-03-15 中南大学 基于微惯性传感器的姿态跟踪与识别方法
WO2018022602A1 (en) * 2016-07-25 2018-02-01 Ctrl-Labs Corporation Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
CN107361773B (zh) * 2016-11-18 2019-10-22 深圳市臻络科技有限公司 用于检测、缓解帕金森异常步态的装置
JP6831219B2 (ja) * 2016-11-25 2021-02-17 エヌ・ティ・ティ・コミュニケーションズ株式会社 バイタル信号取得装置、バイタル信号取得方法及びコンピュータプログラム
CN108143409B (zh) * 2016-12-06 2021-01-22 中国移动通信有限公司研究院 睡眠阶段分期方法及装置
CN207071088U (zh) * 2017-01-25 2018-03-06 杭州三目科技有限公司 一种基于服装的人体运动监测、分析和反馈装置
CN108211310B (zh) * 2017-05-25 2019-08-16 深圳市前海未来无限投资管理有限公司 运动效果的展示方法及装置
CN108211309A (zh) * 2017-05-25 2018-06-29 深圳市未来健身衣科技有限公司 健身运动的指导方法及装置
CN108566520B (zh) * 2017-05-25 2020-10-20 深圳市前海未来无限投资管理有限公司 视频数据和运动效果动画的同步方法及装置
CN108211308B (zh) * 2017-05-25 2019-08-16 深圳市前海未来无限投资管理有限公司 一种运动效果展示方法及装置
CN108209910A (zh) 2017-05-25 2018-06-29 深圳市未来健身衣科技有限公司 健身运动数据的反馈方法及装置
CN108983954B (zh) * 2017-05-31 2022-11-18 腾讯科技(深圳)有限公司 基于虚拟现实的数据处理方法、装置以及系统
JP6857573B2 (ja) * 2017-08-08 2021-04-14 日本電信電話株式会社 筋電計測装置、方法及びプログラム
CN107349594B (zh) 2017-08-31 2019-03-19 华中师范大学 一种虚拟舞蹈系统的动作评价方法
US20200310541A1 (en) * 2019-03-29 2020-10-01 Facebook Technologies, Llc Systems and methods for control schemes based on neuromuscular data
US11246531B2 (en) * 2018-05-10 2022-02-15 MAD Apparel, Inc. Fatigue measurement in a sensor equipped garment
US11590402B2 (en) * 2018-05-31 2023-02-28 The Quick Board, Llc Automated physical training system
CN109068081A (zh) * 2018-08-10 2018-12-21 北京微播视界科技有限公司 视频生成方法、装置、电子设备及存储介质
CN109191588B (zh) * 2018-08-27 2020-04-07 百度在线网络技术(北京)有限公司 运动教学方法、装置、存储介质及电子设备
CN110327048B (zh) * 2019-03-11 2022-07-15 浙江工业大学 一种基于可穿戴式惯性传感器的人体上肢姿态重建系统
US11232308B2 (en) * 2019-03-22 2022-01-25 Salesforce.Com, Inc. Two-stage online detection of action start in untrimmed videos
CN110478883B (zh) * 2019-08-21 2021-04-13 南京信息工程大学 一种健身动作教学及矫正系统及方法
CN110569775A (zh) * 2019-08-30 2019-12-13 武汉纺织大学 一种识别人体姿势的方法、系统、存储介质及电子设备
CN114432683A (zh) 2019-08-30 2022-05-06 华为技术有限公司 一种智能语音播放方法及设备
CN110609621B (zh) * 2019-09-17 2023-04-28 南京茂森电子技术有限公司 姿态标定方法及基于微传感器的人体运动捕获系统
CN111028317B (zh) * 2019-11-14 2021-01-01 腾讯科技(深圳)有限公司 虚拟对象的动画生成方法、装置、设备及存储介质
CN111317446B (zh) * 2020-02-27 2020-09-08 中国人民解放军空军特色医学中心 基于人体肌肉表面电信号的睡眠结构自动分析方法
CN111986775A (zh) 2020-08-03 2020-11-24 深圳追一科技有限公司 数字人的健身教练指导方法、装置、电子设备及存储介质
CN112214109B (zh) * 2020-09-30 2023-06-23 深圳市润谊泰益科技有限责任公司 基于肌电和姿态数据的复合控制方法、装置及系统

Also Published As

Publication number Publication date
CN115105056A (zh) 2022-09-27
WO2022193425A1 (zh) 2022-09-22
JP7508698B2 (ja) 2024-07-01
CN115105100A (zh) 2022-09-27
US20230154607A1 (en) 2023-05-18
JP2023549242A (ja) 2023-11-22
EP4167129A4 (en) 2024-01-24
EP4201323A1 (en) 2023-06-28
CN116261749A (zh) 2023-06-13
WO2022193851A1 (zh) 2022-09-22
CN115115751A (zh) 2022-09-27
JP2023540286A (ja) 2023-09-22
KR20220142495A (ko) 2022-10-21
KR20230086750A (ko) 2023-06-15
CN116981401A (zh) 2023-10-31
US20230233103A1 (en) 2023-07-27
WO2022193330A1 (zh) 2022-09-22
EP4085834B1 (en) 2024-10-02
EP4201323A4 (en) 2024-01-24
EP4085834A4 (en) 2023-08-16
JP2023521655A (ja) 2023-05-25
EP4167129A1 (en) 2023-04-19
US20220365600A1 (en) 2022-11-17
EP4085834A1 (en) 2022-11-09
WO2022193850A1 (zh) 2022-09-22
JP7455995B2 (ja) 2024-03-26

Similar Documents

Publication Publication Date Title
KR20230044297A (ko) 사용자 동작을 식별하기 위한 방법 및 시스템
Seeger et al. myHealthAssistant: a phone-based body sensor network that captures the wearer's exercises throughout the day
CN107961523A (zh) 基于心率检测的人体训练系统和智能健身系统
CN107029408A (zh) 运动分析方法、装置及电子设备
CN110477924B (zh) 适应性运动姿态感测系统与方法
CN115105819B (zh) 一种运动监控方法及其系统
KR102327390B1 (ko) 인체 밀착 수트를 활용한 헬스케어 시스템
CN117109567A (zh) 用于动感单车运动的骑行姿态监测方法、系统以及穿戴式骑行姿态监测设备
WO2022194281A1 (zh) 一种运动监控方法和设备
CN116304544A (zh) 运动数据标定方法和系统
RU2813471C1 (ru) Способы и системы идентификации действия пользователя
Ivanov et al. Recognition and Control of the Athlete's Movements Using a Wearable Electronics System
Asghar et al. Comparative Performance Analysis of Machine Learning Algorithms for Arm and Shoulder Exercises using Wrist-worn Band
TWI837620B (zh) 運動監控方法及系統
US20230337989A1 (en) Motion data display method and system
CN117651847A (zh) 运动数据标定方法和系统
WO2024040547A1 (zh) 一种运动监控系统、设备和方法
EP4445841A1 (en) Method and system for marking motion data and generating motion evaluation model
González-Villanueva et al. Computational model of human body motion performing a complex exercise by means of a fuzzy finite state machine
Zeng et al. Monitoring system for physical activity and fitness based on service robots and biomechanics
CN117653996A (zh) 一种运动监控系统、设备和方法
CN118829396A (zh) 一种运动监控系统、设备和方法
CN116785659A (zh) 一种运动监控方法和设备
Afandizadeh Zargari Advanced Machine Learning and AI Techniques for Enhancing Wearable Health Monitoring Systems
IL291425A (en) A wearable device for measuring accuracy in physical activity and a method therefor

Legal Events

Date Code Title Description
A201 Request for examination