WO2022145563A1 - User-customized exercise training method and system - Google Patents

User-customized exercise training method and system Download PDF

Info

Publication number
WO2022145563A1
WO2022145563A1 PCT/KR2021/000771 KR2021000771W WO2022145563A1 WO 2022145563 A1 WO2022145563 A1 WO 2022145563A1 KR 2021000771 W KR2021000771 W KR 2021000771W WO 2022145563 A1 WO2022145563 A1 WO 2022145563A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
avatar
motion
data
unit
Prior art date
Application number
PCT/KR2021/000771
Other languages
French (fr)
Korean (ko)
Inventor
유제광
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Publication of WO2022145563A1 publication Critical patent/WO2022145563A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • A63B2024/0015Comparing movements or motion sequences with computerised simulations of movements or motion sequences, e.g. for generating an ideal template as reference to be achieved by the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0625Emitting sound, noise or music
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0647Visualisation of executed movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0658Position or arrangement of display
    • A63B2071/0661Position or arrangement of display arranged on the user
    • A63B2071/0666Position or arrangement of display arranged on the user worn on the head or face, e.g. combined with goggles or glasses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Definitions

  • the present invention relates to a user-customized exercise training method and system, and more particularly, to a user-customized exercise training that provides a user with an exercise training prescription suitable for the user's physical characteristics and purpose, such as body type, physical strength, athletic ability, etc. It relates to methods and systems.
  • a system is being developed that implements the user's own appearance as an avatar, checks the user's own motion from a third-person point of view, or compares the user's motion with an expert's motion in real time.
  • the user's exercise immersion may decrease and it may be difficult to receive accurate correction of the motion.
  • An object of the present invention is to provide a user with a high-precision exercise training prescription according to the user's physical characteristics and purpose.
  • the user avatar and the training avatar can be compared and analyzed in real time, the user's convenience and exercise training effect are improved.
  • a user-customized exercise training system includes a sensing unit that collects motion data by sensing a user's physical characteristics and motion, analyzes the motion data and input data input by the user, and based on the analyzed data a calculator for generating an avatar for training, an interface for providing images and sound to a user, and receiving a user's input; and a control unit for controlling driving of each of the calculation unit and the interface unit, wherein the calculation unit analyzes the motion data and the input data to extract a difference between the motion data and the input data, and calculates a conversion factor and an avatar generator configured to generate a user avatar based on the analysis unit, the motion data, generate a target avatar based on the input data, and apply the transformation element to generate the training avatar.
  • the user avatar is synchronized to move in response to the user's movement through the image provided to the user, and the body shape of the training avatar is the same as that of the user avatar.
  • the motion data includes a numerical value of at least any one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , cardiorespiratory ability, coordination ability, body-motor intelligence, kinesthetic ability, etc.
  • the input data includes a target value for a specific motion element targeted by a user among the plurality of motion elements, and the avatar generator generates a target avatar that satisfies the target value for the specific motion factor.
  • the conversion factor includes an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
  • the interface unit may include a display unit providing an image to the user, a speaker providing sound to the user, and a controller receiving the user's input, wherein the display unit simultaneously displays the user avatar and the training avatar do.
  • the sensing unit includes a motion sensing unit for measuring the user's basic body information, biometric information, and movement information of the joints, and a gaze tracking unit for sensing the user's gaze by measuring the movement of the user's pupil.
  • the motion sensing unit includes at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
  • the display unit enlarges or highlights an area sensed by the eye tracking unit within the image range provided by the display unit, and displays the enlarged or emphasized area.
  • the display unit is provided in the form of a head mounted display.
  • a user-customized exercise training method includes collecting motion data by sensing a user's physical characteristics and movement, generating a user avatar based on the motion data, and selecting a target avatar through a user's input. generating, analyzing the motion data and the input data to extract a difference between the motion data and the input data, analyzing the difference to calculate a transform factor, applying the transform factor to the training avatar and prescribing an exercise to the user through the training avatar.
  • the motion data includes a numerical value of at least one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, It includes range of motion, flexibility, agility, balance ability, cardiorespiratory ability, coordination ability, body-motor intelligence, and kinesthetic ability.
  • the generating the target avatar includes: a user selecting a specific motion element that the user targets from among the plurality of motion elements, the user selecting a target value for the specific motion element, and the specific motion element and generating a target avatar that satisfies the target value for .
  • the difference is determined between the user avatar and the target avatar in terms of muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, agility, balance ability, cardiopulmonary It includes the difference value of at least one of ability, coordination ability, body-motor intelligence, and kinesthetic ability.
  • the conversion factor includes an amount of exercise, an operation maintenance time, a rest time, the number of motions, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
  • Prescribing exercise to the user may include synchronizing the user avatar displayed on an image provided through a display so that it moves in response to the user's movement, and allowing the user to use the training avatar displayed on the image. requesting to follow the movement.
  • the motion data is collected by measuring through at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor. .
  • Prescribing exercise to the user may further include: collecting feedback data of the user during exercise; and resetting exercise prescription content based on the feedback data.
  • the motion data further includes interest information obtained by tracking the user's gaze by measuring the motion of the user's pupil.
  • a training prescription is provided through a display to correspond to the user's physical characteristics during exercise training, user convenience can be increased and the user's exercise effect can be improved.
  • FIG. 1 is a block diagram schematically illustrating a user-customized exercise training system according to an embodiment of the present invention.
  • FIGS. 2A and 2B are diagrams illustrating a state in which a user exercises through a user-customized exercise training system.
  • FIG. 3 is a diagram exemplarily illustrating a user, a user avatar, a target avatar, and an avatar for training.
  • FIG. 4 is a diagram illustrating a user avatar and a training avatar displayed on the display unit.
  • FIG. 5 is a step diagram of a user-customized exercise training method according to an embodiment of the present invention.
  • a user-customized exercise training system includes a sensing unit that collects user's motion data, analyzes the motion data and input data input by the user, and generates an avatar for training based on the analyzed data.
  • a sensing unit that collects user's motion data, analyzes the motion data and input data input by the user, and generates an avatar for training based on the analyzed data.
  • the calculation unit includes an analysis unit that extracts a difference between the motion data and the input data and calculates a transformation factor, and generates a user avatar based on the motion data, and generates a target avatar based on the input data; and an avatar generator configured to generate the training avatar by applying the transformation factor.
  • the calculator since the calculator generates a training avatar that has the same motion elements as those of the user's avatar and a
  • FIG. 1 is a block diagram schematically illustrating a user-customized exercise training system according to an embodiment of the present invention.
  • a user-customized exercise training system 1000 may provide a customized exercise prescription to a user through an avatar displayed on an image.
  • the user-customized exercise training system 1000 includes a sensing unit 100 , a calculation unit 200 , a control unit 300 , and an interface unit 400 .
  • the sensing unit 100 collects motion data by sensing the user's physical characteristics and movement.
  • the sensing unit 100 includes a motion sensing unit 110 and an eye tracking unit 120 .
  • the motion sensing unit 110 collects motion data by measuring the user's basic body shape information, biometric information, and joint motion information.
  • the basic body shape information may include body type, height, weight, body composition, muscle mass, body water content, metabolic rate, and the like.
  • the biometric information may be a pulse, blood pressure, body heat, vital information, respiration rate, and the like.
  • the motion information of the joints may be an angle between the joints, an angular velocity, a linear velocity, and the like.
  • the motion sensing unit 110 may calculate motion data based on the measured basic body shape information, biometric information, and motion information of joints.
  • the motion data may be a numerical value of at least one of the plurality of motion elements.
  • the operation elements include the user's muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, quickness, balance ability, cardiopulmonary ability, coordination ability, body-motor intelligence, kinesthetic ability, and the like.
  • the motion sensing unit 110 includes a plurality of sensors.
  • the sensors may be installed at a predetermined distance from the user to photograph the user's movement, or may be worn, contacted, or attached to a part of the user's body to sense the user's movement.
  • the motion sensing unit 110 may include at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
  • the eye tracking unit 120 senses the user's gaze by measuring the movement of the user's pupil. Specifically, the eye tracking unit 120 may detect an area where the user gazes. The detected information is defined as interest information, and the interest information may be transmitted to the controller 300 .
  • motion data may be processed according to user data input to the user-customized exercise training system 1000 .
  • User data is data input by a user.
  • the user data may include the user's disease information, past medical diagnosis records, diet information, sleep amount information, and the like.
  • the calculator 200 includes an avatar generator 210 and an analyzer 220 .
  • the avatar generator 210 generates a plurality of avatars based on the motion data and the input data. A plurality of avatars are displayed on an image provided to the user.
  • the input data is data input into the system by the user, and may be, for example, information on items of interest or preferred operation element, and target values for the corresponding operation element.
  • the analysis unit 220 extracts the difference between the motion data and the input data. A transform factor is calculated based on the difference.
  • the calculated information is transmitted to the avatar generator 210 , and the avatar generator 210 may generate an avatar to which a transformation element is applied.
  • the calculation unit 200 will be described in more detail below.
  • the control unit 300 controls driving of each of the sensing unit 100 , the calculation unit 200 , and the interface unit 400 , and transmits data between the sensing unit 100 , the calculation unit 200 , and the interface unit 400 . send and receive
  • the interface unit 400 provides an image and sound to a user and receives a user's input.
  • the interface unit 400 includes a display unit 410 , a speaker 420 , and a controller 430 .
  • the display unit 410 provides an image to the user.
  • the display unit 410 may be provided in a form mounted on a TV, tablet, PC, mobile electronic device, or the like.
  • the display unit 410 may be applied to a VR device that provides a 3D image to a user.
  • the display unit 410 may be a head mounted display (HMD) worn on the user's head.
  • the display unit 410 may be provided in the form of an AR display such as smart glasses or HoloLens.
  • the display unit 410 may enlarge or emphasize a specific area measured by the eye tracking unit 120 among the images provided by the display unit 410 .
  • the eye tracking unit 120 senses that the user gazes at the leg of one avatar, and enlarges the leg part of the avatar, or processes the leg part in a different color for emphasis, or slows the movement of the leg.
  • Motion processing can be provided to the user.
  • the speaker 420 provides sound to the user.
  • the sound may be a sound effect, music, voice, or the like.
  • the controller 430 is a means for receiving a user's input. The user may express an opinion through the controller 430 .
  • the user may input motion data using the controller 430 .
  • the controller 430 may have a built-in gyro sensor or a geomagnetic sensor, and may sense a user's movement through the sensors.
  • various types of means may replace the controller 430 in the range of receiving a user's input.
  • the controller 430 may be replaced in the form of a keyboard, a mouse, a button, a remote control, a microphone, and the like.
  • controller 430 may be omitted.
  • the user-customized exercise training system 1000 may further include a storage unit (not shown).
  • the storage unit (not shown) includes user data, motion data collected from the sensing unit 100 , input data, a plurality of avatars generated by the avatar generating unit 210 , and conversion factor data calculated by the analyzing unit 220 , etc. can be saved.
  • FIG. 1 are diagrams exemplarily illustrating a state in which a user exercises through a user-customized exercise training system.
  • 2A and 2B a state in which the user US practices a golf swing through the corresponding system 1000 ( FIG. 1 ) is exemplarily shown.
  • 2A is a case in which the display unit 410 provides an image through a monitor or TV.
  • the user US may monitor his/her appearance through the image provided by the display unit 410 .
  • some sensors such as a camera and an infrared sensor, are disposed on the display unit 410 to sense the appearance of the user US.
  • some sensors such as a gyro sensor and a geomagnetic sensor, are provided in the form of a pad attached to a part of the body such as a shoulder, knee, and elbow of the user (US) in the form of a pad (PD). Senses the movement of (US).
  • the golf club held by the user may serve as a controller 430 including sensors.
  • the control unit 300 (FIG. 1) is provided in the form of a set-top box (SB) to serve as a central processing unit.
  • FIG. 2B illustrates a case in which the display unit 410 is provided in the form of a head mounted display (HMD).
  • HMD head mounted display
  • FIG. 3 is a diagram exemplarily illustrating a user, a user avatar, a target avatar, and an avatar for training.
  • the avatar generator 210 generates a user avatar AV1 , a target avatar AV2 , and a training avatar AV3 .
  • (a) is the appearance of the user (US)
  • (b) is the appearance of the user avatar (AV1)
  • (c) is the appearance of the target avatar (AV2)
  • (d) is the appearance of the training avatar (AV3) to be.
  • the avatar generator 210 generates the user avatar AV1 based on the motion data of the user US. Accordingly, the motion data of the user avatar AV1 is the same as the motion data of the user US.
  • the display unit 410 may provide an image by synchronizing the movement of the user avatar AV1 in response to the movement of the user US.
  • the target avatar AV2 is generated based on input data input by the user US.
  • the user US may input a target value for a specific motion element among a plurality of motion elements into the system 1000, and the avatar generator 210 may generate a target avatar AV2 that satisfies the corresponding value. have.
  • the avatar generator 210 may generate a target avatar ( AV2) is created.
  • the analysis unit 220 analyzes the user's motion data and input data, extracts a difference between the motion data and the input data, and calculates a conversion factor. That is, the analysis unit 220 extracts a difference between the user avatar AV1 and the target avatar AV2 to calculate a conversion factor.
  • the transformation element is defined as an element requiring transformation in order to match the operation elements of the target avatar AV2 to the operation elements of the user avatar AV1.
  • the conversion factor may include an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, a weight, calories consumed, an angular velocity and a linear velocity of each joint, and the like.
  • the user may check at least a part of the difference between the user avatar AV1 and the target avatar AV2 through the display unit 410 .
  • the display unit 410 may provide information such as a ratio of segment lengths of the user avatar AV1 and the target avatar AV2, linear velocity, angular velocity, and the like to the user.
  • the present invention is not particularly limited with respect to how the display unit 410 provides the difference information to the user.
  • the numerical value of the operation element of the user avatar AV1 is different from the numerical value of the operation element of the target avatar AV2 . That is, the human motion is determined by the physical condition, the physical condition, and the body-exercise intelligent condition, but the values of the conditions of the user avatar AV1 and the values of the conditions of the target avatar AV2 may be different.
  • examples of the physical condition may include height, length and weight of body segments, and the like, and examples of the physical condition may include physical conditions such as muscle strength, endurance, flexibility, and the like.
  • Examples of body-motor intellectual conditions may be sensory abilities and motor abilities, and the like.
  • the avatar generating unit 210 generates the training avatar AV3 by applying the transformation element.
  • the body shape of the training avatar AV3 is the same as that of the user avatar AV1.
  • FIG. 4 is a diagram illustrating a user avatar and a training avatar displayed on the display unit.
  • the training avatar AV3 may be displayed together with the user avatar AV1 through an image provided by the display unit 410 .
  • the training avatar AV3 provides an exercise prescription to the user US.
  • the user US may perform an exercise by following the movement of the training avatar AV3, and may check his/her own movement through the user avatar AV1.
  • the sensing unit 100 may collect feedback data including movement information and biometric information of the user US in real time during exercise.
  • the calculator 200 may correct the motion data or reset the contents of the exercise prescription based on the feedback data.
  • the display unit 410 provides the user with the operation of the user avatar AV1 and A difference in the operation of the training avatar AV3 may be provided to the user.
  • the display unit 410 enlarges the screen to display the difference between the motions, reproduces a screen on which the difference between the motions is displayed in slow motion, and displays the difference in motion by graphing it with a numerical value, etc. can be provided to users.
  • the movement of the user US cannot be the same as the movement of the target avatar AV2.
  • the exercise effect may not be the same as the predicted value. That is, an exercise prescription in which the input data of the user US is not properly reflected may be provided to the user US.
  • the calculator 400 has the same operation elements as the operation elements of the user avatar AV1, but a transformation element is applied to provide a customized exercise prescription to the user US. Since the dragon avatar AV3 is generated, the exercise effect of the user US may be improved.
  • FIG. 5 is a step diagram of a user-customized exercise training method according to an embodiment of the present invention.
  • reference numerals may be used for the same components as those described above, or descriptions may be omitted.
  • the user-customized exercise training method includes a motion data collection step (S10), a user avatar generation step (S20), a target avatar generation step (S30), a user avatar and a target avatar Comparing the differences (S40), generating an avatar for training by applying the differences (S50), and prescribing an exercise through the training avatar (S60).
  • motion data may be collected in the form of sensing the user's physical characteristics and motion, and the motion data may include the numerical value of at least one motion element among a plurality of motion elements. have.
  • the user avatar AV1 may be generated based on motion data.
  • the motion element of the user avatar AV1 may be the same as that of the user.
  • the target avatar AV2 may be generated according to a user input, and in the target avatar generating step S30 , the user selects a specific action element that the user targets from among the plurality of action elements. It includes the steps of selecting, the user selecting a target value for a specific motion element, and generating a target avatar AV2 that satisfies the target value for the specific motion element.
  • the difference is muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, reflexes, and balance between the user avatar (AV1) and the target avatar (AV2). It may include a difference value of at least one of ability, cardiopulmonary ability, coordination ability, body-motor intelligence, and kinesthetic ability, and the analysis unit 220 may calculate a conversion factor based on the difference value.
  • the training avatar AV3 has the same operation elements as the user avatar AV1.
  • the training avatar AV3 is the same as the body type of the user avatar AV1.
  • the display unit 410 may provide the user avatar (AV1) and the training avatar (AV2) to the user through the displayed image, and the user (US) is trained By following the movement of the dragon avatar AV3, an exercise can be performed, and one's own movement can be confirmed through the user's avatar AV1.
  • the present invention extracts a difference between a target avatar having a motion element targeted by the user and a user avatar having the same motion element as the user, and generates a training avatar having the same motion element as the user but to which the difference is applied. Since the user can be prescribed an exercise suitable for the user's physical condition through the training avatar, the present invention has high industrial applicability in terms of improving the user's exercise effect.

Abstract

A user-customized exercise training system according to an embodiment of the present invention comprises: a sensing unit which collects motion data of a user; a calculation unit which analyzes the motion data and input data input by the user, and generates a training avatar on the basis of the analyzed data; an interface unit which provides images and sound to the user and receives inputs of the user; and a control unit which transmits and receives data between the sensing unit, the calculation unit, and the interface unit, and controls the operations of each. The calculation unit comprises: an analysis unit which extracts differences between the motion data and the input data, and calculates a conversion factor; and an avatar generation unit which generates a user avatar on the basis of the motion data, generates a target avatar on the basis of the input data, and generates the training avatar by applying the conversion factor.

Description

사용자 맞춤형 운동 훈련 방법 및 시스템User-tailored exercise training method and system
본 발명은 사용자 맞춤형 운동 훈련 방법 및 시스템에 관한 것으로, 보다 상세하게는, 사용자의 체형, 체력, 운동 능력 등과 같은 신체적 특징 및 목적에 따라, 그에 적합한 운동 훈련 처방을 사용자에게 제공하는 사용자 맞춤형 운동 훈련 방법 및 시스템에 관한 것이다.The present invention relates to a user-customized exercise training method and system, and more particularly, to a user-customized exercise training that provides a user with an exercise training prescription suitable for the user's physical characteristics and purpose, such as body type, physical strength, athletic ability, etc. It relates to methods and systems.
최근, 가상현실 또는 영상을 통하여 운동을 하는 셀프 피트니스 시스템이 출시되고 있으며, 이에 대한 연구도 활발히 진행되고 있다.Recently, a self-fitness system for exercising through virtual reality or an image has been released, and research on this is being actively conducted.
나아가, 사용자 자신의 모습을 아바타로 구현하여, 사용자 자신의 동작을 3인칭 시점에서 체크하거나, 전문가의 동작과 사용자의 동작을 실시간으로 비교하는 시스템도 개발되고 있다.Furthermore, a system is being developed that implements the user's own appearance as an avatar, checks the user's own motion from a third-person point of view, or compares the user's motion with an expert's motion in real time.
이 경우, 시스템 상의 트레이너 또는 전문가의 신체적 특징이 운동 수행자인 사용자의 신체적 특징과 상이하여, 사용자로 하여금 운동 몰입도가 떨어지고, 동작에 대한 정확한 교정을 제공받기 어려울 수 있다.In this case, since the physical characteristics of the trainer or the expert on the system are different from the physical characteristics of the user who is an exercise performer, the user's exercise immersion may decrease and it may be difficult to receive accurate correction of the motion.
본 발명의 목적은 사용자의 신체적 특징 및 목적에 따라 정밀성이 높은 운동 훈련 처방을 사용자에게 제공하는 데 있다. 또한, 사용자 아바타와 훈련용 아바타를 실시간으로 비교 분석할 수 있도록 사용자에게 제공함으로써, 사용자의 사용 편의성 및 운동 훈련 효과를 향상시키는 데 있다.An object of the present invention is to provide a user with a high-precision exercise training prescription according to the user's physical characteristics and purpose. In addition, by providing the user so that the user avatar and the training avatar can be compared and analyzed in real time, the user's convenience and exercise training effect are improved.
본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템은 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집하는 센싱부, 상기 동작 데이터 및 사용자에 의하여 입력되는 입력 데이터를 분석하고, 분석한 데이터에 기초하여 훈련용 아바타를 생성하는 산출부, 사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신하는 인터페이스부, 및 상기 센싱부, 상기 산출부 및 상기 인터페이스부 간의 데이터를 송수신하고, 상기 센싱부, 상기 산출부 및 상기 인터페이스부 각각의 구동을 제어하는 제어부를 포함하고, 상기 산출부는, 상기 동작 데이터 및 상기 입력 데이터를 분석하여 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하고, 변환 요소를 산출하는 분석부, 및 상기 동작 데이터에 기초하여 사용자 아바타를 생성하고, 상기 입력 데이터에 기초하여 타겟 아바타를 생성하고, 상기 변환 요소를 적용하여 상기 훈련용 아바타를 생성하는 아바타 생성부를 포함한다.A user-customized exercise training system according to an embodiment of the present invention includes a sensing unit that collects motion data by sensing a user's physical characteristics and motion, analyzes the motion data and input data input by the user, and based on the analyzed data a calculator for generating an avatar for training, an interface for providing images and sound to a user, and receiving a user's input; and a control unit for controlling driving of each of the calculation unit and the interface unit, wherein the calculation unit analyzes the motion data and the input data to extract a difference between the motion data and the input data, and calculates a conversion factor and an avatar generator configured to generate a user avatar based on the analysis unit, the motion data, generate a target avatar based on the input data, and apply the transformation element to generate the training avatar.
상기 사용자 아바타는 사용자에게 제공되는 상기 영상을 통하여 상기 사용자의 움직임에 대응하여 움직이도록 동기화되고, 상기 훈련용 아바타의 체형은 상기 사용자 아바타의 체형과 동일하다.The user avatar is synchronized to move in response to the user's movement through the image provided to the user, and the body shape of the training avatar is the same as that of the user avatar.
상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함한다.The motion data includes a numerical value of at least any one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , cardiorespiratory ability, coordination ability, body-motor intelligence, kinesthetic ability, etc.
상기 입력 데이터는 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소에 대한 목표 수치를 포함하고, 상기 아바타 생성부는 상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성한다.The input data includes a target value for a specific motion element targeted by a user among the plurality of motion elements, and the avatar generator generates a target avatar that satisfies the target value for the specific motion factor.
상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함한다.The conversion factor includes an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
상기 인터페이스부는, 상기 사용자에게 영상을 제공하는 디스플레이부, 상기 사용자에게 사운드를 제공하는 스피커, 및 상기 사용자의 입력을 수신하는 컨트롤러를 포함하고, 상기 디스플레이부는 상기 사용자 아바타 및 상기 훈련용 아바타를 동시에 표시한다.The interface unit may include a display unit providing an image to the user, a speaker providing sound to the user, and a controller receiving the user's input, wherein the display unit simultaneously displays the user avatar and the training avatar do.
상기 센싱부는, 사용자의 기초체형정보, 생체정보 및 관절들의 움직임정보를 측정하는 동작센싱부, 및 사용자의 동공의 움직임을 측정하여 사용자의 시선을 센싱하는 시선추적부를 포함한다.The sensing unit includes a motion sensing unit for measuring the user's basic body information, biometric information, and movement information of the joints, and a gaze tracking unit for sensing the user's gaze by measuring the movement of the user's pupil.
상기 동작센싱부는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 포함한다.The motion sensing unit includes at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
상기 디스플레이부는 상기 디스플레이부가 제공하는 영상 범위 내에서, 상기 시선추적부에 의하여 센싱된 일 영역을 확대 또는 강조하여 표시한다.The display unit enlarges or highlights an area sensed by the eye tracking unit within the image range provided by the display unit, and displays the enlarged or emphasized area.
상기 디스플레이부는 헤드 마운트 디스플레이 형태로 제공된다.The display unit is provided in the form of a head mounted display.
본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법은 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집하는 단계, 상기 동작 데이터에 기초하여 사용자 아바타를 생성하는 단계, 사용자의 입력을 통하여 타겟 아바타를 생성하는 단계, 상기 동작 데이터 및 상기 입력 데이터를 분석하여, 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계, 상기 차이점을 분석하여 변환 요소를 산출하는 단계, 상기 변환 요소를 적용하여 훈련용 아바타를 생성하는 단계, 및 상기 훈련용 아바타를 통하여 사용자에게 운동을 처방하는 단계를 포함한다.A user-customized exercise training method according to an embodiment of the present invention includes collecting motion data by sensing a user's physical characteristics and movement, generating a user avatar based on the motion data, and selecting a target avatar through a user's input. generating, analyzing the motion data and the input data to extract a difference between the motion data and the input data, analyzing the difference to calculate a transform factor, applying the transform factor to the training avatar and prescribing an exercise to the user through the training avatar.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함한다.In the step of collecting the motion data, the motion data includes a numerical value of at least one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, It includes range of motion, flexibility, agility, balance ability, cardiorespiratory ability, coordination ability, body-motor intelligence, and kinesthetic ability.
상기 타겟 아바타를 생성하는 단계는, 사용자가 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소를 선택하는 단계, 사용자가 상기 특정 동작 요소에 대한 목표 수치를 선택하는 단계, 및 상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성하는 단계를 포함한다.The generating the target avatar includes: a user selecting a specific motion element that the user targets from among the plurality of motion elements, the user selecting a target value for the specific motion element, and the specific motion element and generating a target avatar that satisfies the target value for .
상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계에서, 상기 차이점은, 상기 사용자 아바타와 상기 타겟 아바타 간의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 중 적어도 어느 하나의 차이값을 포함한다.In the step of extracting the difference between the motion data and the input data, the difference is determined between the user avatar and the target avatar in terms of muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, agility, balance ability, cardiopulmonary It includes the difference value of at least one of ability, coordination ability, body-motor intelligence, and kinesthetic ability.
상기 변환 요소를 산출하는 단계에서, 상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함한다.In the step of calculating the conversion factor, the conversion factor includes an amount of exercise, an operation maintenance time, a rest time, the number of motions, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
상기 사용자에게 운동을 처방하는 단계는, 디스플레이를 통하여 제공되는 영상에 표시되는 상기 사용자 아바타가 상기 사용자의 움직임에 대응하여 움직이도록 동기화시키는 단계, 및 사용자로 하여금 상기 영상에 표시되는 상기 훈련용 아바타의 움직임을 따라하도록 요청하는 단계를 포함한다.Prescribing exercise to the user may include synchronizing the user avatar displayed on an image provided through a display so that it moves in response to the user's movement, and allowing the user to use the training avatar displayed on the image. requesting to follow the movement.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 통하여 측정함으로써 수집된다.In the step of collecting the motion data, the motion data is collected by measuring through at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor. .
상기 사용자에게 운동을 처방하는 단계는, 운동 중 사용자의 피드백 데이터를 수집하는 단계, 및 상기 피드백 데이터에 기초하여 운동 처방 내용을 재설정하는 단계를 더 포함한다.Prescribing exercise to the user may further include: collecting feedback data of the user during exercise; and resetting exercise prescription content based on the feedback data.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 사용자의 동공의 움직임을 측정하여 사용자의 시선을 추적함으로써 획득되는 관심 정보를 더 포함한다.In the step of collecting the motion data, the motion data further includes interest information obtained by tracking the user's gaze by measuring the motion of the user's pupil.
본 발명에 의하면, 운동 훈련을 함에 있어서, 사용자의 신체적 특징에 대응하도록 훈련 처방을 디스플레이를 통하여 제공하므로, 사용자 편의성이 증대될 수 있으며, 사용자의 운동 효과가 향상될 수 있다.According to the present invention, since a training prescription is provided through a display to correspond to the user's physical characteristics during exercise training, user convenience can be increased and the user's exercise effect can be improved.
도 1은 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템이 간략하게 도시된 블록도이다.1 is a block diagram schematically illustrating a user-customized exercise training system according to an embodiment of the present invention.
도 2a 및 도 2b는 사용자가 사용자 맞춤형 운동 훈련 시스템을 통하여 운동하는 모습이 도시된 도면이다.2A and 2B are diagrams illustrating a state in which a user exercises through a user-customized exercise training system.
도 3은 사용자, 사용자아바타, 타겟아바타, 및 훈련용아바타가 예시적으로 도시된 도면이다.3 is a diagram exemplarily illustrating a user, a user avatar, a target avatar, and an avatar for training.
도 4는 디스플레이부에 표시되는 사용자아바타 및 훈련용아바타가 도시된 도면이다.4 is a diagram illustrating a user avatar and a training avatar displayed on the display unit.
도 5는 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법의 단계도이다.5 is a step diagram of a user-customized exercise training method according to an embodiment of the present invention.
본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템은 사용자의 동작 데이터를 수집하는 센싱부, 상기 동작 데이터 및 사용자에 의하여 입력되는 입력 데이터를 분석하고, 분석한 데이터에 기초하여 훈련용 아바타를 생성하는 산출부, 사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신하는 인터페이스부, 및 상기 센싱부, 상기 산출부 및 상기 인터페이스부 간의 데이터를 송수신하고, 각각의 구동을 제어하는 제어부를 포함하고, 상기 산출부는, 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하고, 변환 요소를 산출하는 분석부, 및 상기 동작 데이터에 기초하여 사용자 아바타를 생성하고, 상기 입력 데이터에 기초하여 타겟 아바타를 생성하고, 상기 변환 요소를 적용하여 상기 훈련용 아바타를 생성하는 아바타 생성부를 포함한다. 본 발명은 산출부가 사용자 아바타의 동작 요소와 동일한 동작 요소를 갖되 변환요소가 적용되어 사용자에게 맞춤형 운동 처방을 제공할 수 있는 훈련용 아바타를 생성하므로, 사용자의 운동 효과가 향상되는 효과를 갖는다.A user-customized exercise training system according to an embodiment of the present invention includes a sensing unit that collects user's motion data, analyzes the motion data and input data input by the user, and generates an avatar for training based on the analyzed data. Comprising a calculator, an interface for providing images and sound to a user and receiving a user's input, and a controller for transmitting and receiving data between the sensing part, the calculator and the interface, and controlling each operation, The calculation unit includes an analysis unit that extracts a difference between the motion data and the input data and calculates a transformation factor, and generates a user avatar based on the motion data, and generates a target avatar based on the input data; and an avatar generator configured to generate the training avatar by applying the transformation factor. According to the present invention, since the calculator generates a training avatar that has the same motion elements as those of the user's avatar and a transformation factor is applied to provide a customized exercise prescription to the user, the user's exercise effect is improved.
이하에서 설명되는 모든 실시 예들은 본 발명의 이해를 돕기 위해 예시적으로 나타낸 것이며, 여기에 설명된 실시 예들과 다르게 변형되어 다양한 실시 형태로 실시될 수 있다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 공지 구성요소에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 구체적인 설명은 생략하도록 한다.All the embodiments described below are illustratively shown to help the understanding of the present invention, and may be modified differently from the embodiments described herein and implemented in various embodiments. In addition, in the description of the present invention, if it is determined that a detailed description of a related known function or known component may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
첨부된 도면은 발명의 이해를 돕기 위해서 실제 축척대로 도시된 것이 아니라 일부 구성요소의 치수가 과장되게 도시될 수 있으며, 각 구성요소들에 참조번호를 기재할 때, 동일한 구성요소들에 대해서는 다른 도면에 표시되더라도 가능한 한 동일한 부호로 표시하였다.The accompanying drawings are not drawn to scale in order to help the understanding of the invention, but the dimensions of some components may be exaggerated. Even if they are indicated in , they are indicated with the same symbols as possible.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component may be directly connected, coupled, or connected to the other component, but the component and the other component It should be understood that another element may be 'connected', 'coupled' or 'connected' between elements.
따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시 예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 발명에 대한 다양한 변형 실시 예들이 있을 수 있다. Accordingly, since the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention and do not represent all the technical spirit of the present invention, there may be various modified embodiments of the present invention. .
그리고, 본 명세서 및 청구범위에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정되어서는 안되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.In addition, the terms or words used in the present specification and claims should not be limited to conventional or dictionary meanings, and the inventor may properly define the concept of the term in order to best describe his invention. Based on the principle, it should be interpreted as meaning and concept consistent with the technical idea of the present invention.
또한, 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.In addition, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.
또한, 본 출원에서 사용된 단수의 표현은 문맥상 명백히 다른 것을 뜻하지 않는 한, 복수의 표현을 포함한다.Also, the singular expression used in this application includes the plural expression unless the context clearly dictates otherwise.
도 1은 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템이 간략하게 도시된 블록도이다.1 is a block diagram schematically illustrating a user-customized exercise training system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템(1000)은 영상에 표시되는 아바타를 통하여 사용자에게 맞춤형 운동 처방을 제공할 수 있다.Referring to FIG. 1 , a user-customized exercise training system 1000 according to an embodiment of the present invention may provide a customized exercise prescription to a user through an avatar displayed on an image.
사용자 맞춤형 운동 훈련 시스템(1000)은 센싱부(100), 산출부(200), 제어부(300) 및 인터페이스부(400)를 포함한다.The user-customized exercise training system 1000 includes a sensing unit 100 , a calculation unit 200 , a control unit 300 , and an interface unit 400 .
센싱부(100)는 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집한다. 구체적으로, 센싱부(100)는 동작센싱부(110) 및 시선추적부(120)를 포함한다.The sensing unit 100 collects motion data by sensing the user's physical characteristics and movement. Specifically, the sensing unit 100 includes a motion sensing unit 110 and an eye tracking unit 120 .
동작센싱부(110)는 사용자의 기초체형정보, 생체정보 및 관절들의 움직임 정보를 측정하여 동작 데이터를 수집한다. 예시적으로, 상기 기초체형정보는 체형, 키, 몸무게, 체성분, 근육량, 체내수분량, 대사량 등일 수 있다. 생체정보는, 맥박, 혈압, 체열, 바이탈(Vital) 정보, 호흡량 등일 수 있다. 관절들의 움직임 정보는 관절들 사이의 각도, 각속도, 선속도 등일 수 있다.The motion sensing unit 110 collects motion data by measuring the user's basic body shape information, biometric information, and joint motion information. Illustratively, the basic body shape information may include body type, height, weight, body composition, muscle mass, body water content, metabolic rate, and the like. The biometric information may be a pulse, blood pressure, body heat, vital information, respiration rate, and the like. The motion information of the joints may be an angle between the joints, an angular velocity, a linear velocity, and the like.
동작센싱부(110)는 측정된 기초체형정보, 생체정보 및 관절들의 움직임 정보를 통하여 동작 데이터를 산출할 수 있다. 구체적으로, 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치일 수 있다. 상기 동작 요소들은, 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함한다.The motion sensing unit 110 may calculate motion data based on the measured basic body shape information, biometric information, and motion information of joints. Specifically, the motion data may be a numerical value of at least one of the plurality of motion elements. The operation elements include the user's muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, quickness, balance ability, cardiopulmonary ability, coordination ability, body-motor intelligence, kinesthetic ability, and the like.
동작센싱부(110)는 복수의 센서들을 포함한다. 센서들은 사용자와 소정 거리 이격된 거리에 설치되어 사용자의 움직임을 촬영하거나, 사용자의 신체의 일부에 착용, 접촉 또는 부착되어 사용자의 움직임을 센싱할 수 있다. 예시적으로, 동작센싱부(110)는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 포함할 수 있다. The motion sensing unit 110 includes a plurality of sensors. The sensors may be installed at a predetermined distance from the user to photograph the user's movement, or may be worn, contacted, or attached to a part of the user's body to sense the user's movement. For example, the motion sensing unit 110 may include at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
시선추적부(120)는 사용자의 동공의 움직임을 측정하여 사용자의 시선을 센싱한다. 구체적으로, 시선추적부(120)는 사용자가 응시하는 영역을 검출할 수 있다. 검출된 정보는 관심 정보로 정의되며, 관심 정보는 제어부(300)에 전송될 수 있다.The eye tracking unit 120 senses the user's gaze by measuring the movement of the user's pupil. Specifically, the eye tracking unit 120 may detect an area where the user gazes. The detected information is defined as interest information, and the interest information may be transmitted to the controller 300 .
도면에 도시되지 않았으나, 본 발명의 다른 실시 예에 따르면, 사용자 맞춤형 운동 훈련 시스템(1000)에 기입력된 사용자 데이터에 의하여 동작 데이터가 가공될 수 있다. 사용자 데이터는 사용자에 의하여 입력되는 데이터이다. 예시적으로, 사용자 데이터는 사용자의 질환정보, 과거 의료 진단 기록, 식단 정보, 수면량 정보 등을 포함할 수 있다.Although not shown in the drawings, according to another embodiment of the present invention, motion data may be processed according to user data input to the user-customized exercise training system 1000 . User data is data input by a user. For example, the user data may include the user's disease information, past medical diagnosis records, diet information, sleep amount information, and the like.
산출부(200)는 아바타생성부(210) 및 분석부(220)를 포함한다. 아바타생성부(210)는 동작 데이터 및 입력 데이터를 기초로 하여 복수의 아바타들을 생성한다. 복수의 아바타들은 사용자에게 제공되는 영상에 표시된다. 입력데이터는 사용자에 의하여 시스템에 입력되는 데이터로, 예시적으로, 관심종목정보 또는 선호하는 동작요소정보, 및 해당 동작요소에 대한 목표 수치 등일 수 있다.The calculator 200 includes an avatar generator 210 and an analyzer 220 . The avatar generator 210 generates a plurality of avatars based on the motion data and the input data. A plurality of avatars are displayed on an image provided to the user. The input data is data input into the system by the user, and may be, for example, information on items of interest or preferred operation element, and target values for the corresponding operation element.
분석부(220)는 동작 데이터 및 입력 데이터 간의 차이점을 추출하고. 상기 차이점을 기초로 하여 변환 요소를 산출한다. 산출된 정보는 아바타생성부(210)에 전송되고, 아바타생성부(210)는 변환 요소가 적용된 아바타를 생성할 수 있다. 이하 도 3에서, 산출부(200)에 관하여 보다 상세히 후술된다.The analysis unit 220 extracts the difference between the motion data and the input data. A transform factor is calculated based on the difference. The calculated information is transmitted to the avatar generator 210 , and the avatar generator 210 may generate an avatar to which a transformation element is applied. Hereinafter, in FIG. 3 , the calculation unit 200 will be described in more detail below.
제어부(300)는 센싱부(100), 산출부(200), 인터페이스부(400) 각각의 구동을 제어하고, 센싱부(100), 산출부(200), 및 인터페이스부(400) 간의 데이터를 송수신한다.The control unit 300 controls driving of each of the sensing unit 100 , the calculation unit 200 , and the interface unit 400 , and transmits data between the sensing unit 100 , the calculation unit 200 , and the interface unit 400 . send and receive
인터페이스부(400)는 사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신한다. 구체적으로, 인터페이스부(400)는 디스플레이부(410), 스피커(420), 및 컨트롤러(430)를 포함한다.The interface unit 400 provides an image and sound to a user and receives a user's input. Specifically, the interface unit 400 includes a display unit 410 , a speaker 420 , and a controller 430 .
디스플레이부(410)는 사용자에게 영상을 제공한다. 본 실시 예에서, 디스플레이부(410)는 TV, 태블릿, PC, 모바일 전자기기 등에 탑재된 형태로 제공될 수 있다. 또한, 본 발명의 다른 실시 예에서, 디스플레이부(410)는 3차원 영상을 사용자에게 제공하는 VR 기기에 적용될 수 있다. 이 경우, 디스플레이부(410)는 사용자의 머리에 착용되는 헤드마운트 디스플레이(HMD, Head Mounted Display)일 수 있다. 또한, 본 발명의 또 다른 실시 예에서, 디스플레이부(410)는 스마트 글래스, 홀로렌즈와 같은 AR 디스플레이 형태로 제공될 수 있다.The display unit 410 provides an image to the user. In this embodiment, the display unit 410 may be provided in a form mounted on a TV, tablet, PC, mobile electronic device, or the like. Also, in another embodiment of the present invention, the display unit 410 may be applied to a VR device that provides a 3D image to a user. In this case, the display unit 410 may be a head mounted display (HMD) worn on the user's head. Also, in another embodiment of the present invention, the display unit 410 may be provided in the form of an AR display such as smart glasses or HoloLens.
본 실시 예에 따르면, 디스플레이부(410)는 디스플레이부(410)가 제공하는 영상 중 시선추적부(120)로부터 측정된 특정 영역을 확대 또는 강조할 수 있다. 예시적으로, 사용자가 일 아바타의 다리를 응시하는 것을 시선추적부(120)가 센싱하고, 상기 일 아바타의 다리 부분을 확대하거나, 다리 부분을 다른 색상으로 처리하여 강조하거나, 다리의 움직임을 슬로모션 처리하여 사용자에게 제공할 수 있다.According to the present embodiment, the display unit 410 may enlarge or emphasize a specific area measured by the eye tracking unit 120 among the images provided by the display unit 410 . For example, the eye tracking unit 120 senses that the user gazes at the leg of one avatar, and enlarges the leg part of the avatar, or processes the leg part in a different color for emphasis, or slows the movement of the leg. Motion processing can be provided to the user.
스피커(420)는 사용자에게 사운드를 제공한다. 사운드는 효과음, 음악, 목소리 등일 수 있다.The speaker 420 provides sound to the user. The sound may be a sound effect, music, voice, or the like.
컨트롤러(430)는 사용자의 입력을 수신하기 위한 수단이다. 사용자는 컨트롤러(430)를 통하여 의사를 표현할 수 있다.The controller 430 is a means for receiving a user's input. The user may express an opinion through the controller 430 .
본 발명의 다른 실시 예에서, 사용자는 컨트롤러(430)를 이용하여 동작 데이터를 입력할 수도 있다. 즉, 컨트롤러(430)는 자이로 센서 또는 지자계 센서 등을 내장할 수 있으며, 상기 센서들을 통하여 사용자의 움직임을 센싱할 수 있다.In another embodiment of the present invention, the user may input motion data using the controller 430 . That is, the controller 430 may have a built-in gyro sensor or a geomagnetic sensor, and may sense a user's movement through the sensors.
본 발명은 사용자의 입력을 수신하는 범위에서 다양한 형태의 수단들이 컨트롤러(430)를 대체할 수 있다. 본 발명의 다른 실시 예에서, 컨트롤러(430)는 키보드, 마우스, 버튼, 리모콘, 마이크 등의 형태로 대체될 수 있다.In the present invention, various types of means may replace the controller 430 in the range of receiving a user's input. In another embodiment of the present invention, the controller 430 may be replaced in the form of a keyboard, a mouse, a button, a remote control, a microphone, and the like.
본 발명의 또 다른 실시 예에서, 컨트롤러(430)는 생략될 수 있다.In another embodiment of the present invention, the controller 430 may be omitted.
도면에 도시되지 않았으나, 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템(1000)은 저장부(미도시)를 더 포함할 수 있다. 저장부(미도시)는 사용자 데이터, 센싱부(100)로부터 수집된 동작 데이터, 입력 데이터, 아바타생성부(210)에서 생성된 복수의 아바타들 및 분석부(220)에서 산출되는 변환요소 데이터 등을 저장할 수 있다.Although not shown in the drawings, the user-customized exercise training system 1000 according to an embodiment of the present invention may further include a storage unit (not shown). The storage unit (not shown) includes user data, motion data collected from the sensing unit 100 , input data, a plurality of avatars generated by the avatar generating unit 210 , and conversion factor data calculated by the analyzing unit 220 , etc. can be saved.
도 2a 및 도 2b는 사용자가 사용자 맞춤형 운동 훈련 시스템을 통하여 운동하는 모습이 예시적으로 도시된 도면이다. 도 2a 및 도 2b에서는 사용자(US)가 해당 시스템(1000, 도 1)을 통하여 골프 스윙을 연습하는 모습이 예시적으로 도시되었다.2A and 2B are diagrams exemplarily illustrating a state in which a user exercises through a user-customized exercise training system. 2A and 2B , a state in which the user US practices a golf swing through the corresponding system 1000 ( FIG. 1 ) is exemplarily shown.
도 2a는 디스플레이부(410)가 모니터 또는 TV를 통하여 영상을 제공하는 경우이다. 사용자(US)는 디스플레이부(410)가 제공하는 영상을 통하여 자신의 모습을 모니터링할 수 있다.2A is a case in which the display unit 410 provides an image through a monitor or TV. The user US may monitor his/her appearance through the image provided by the display unit 410 .
센싱부(100)가 포함하는 센서들 중 카메라, 적외선 센서와 같은 일부 센서들은 디스플레이부(410)의 상부에 배치되어 사용자(US)의 모습을 센싱한다.Among the sensors included in the sensing unit 100 , some sensors, such as a camera and an infrared sensor, are disposed on the display unit 410 to sense the appearance of the user US.
센싱부(100)가 포함하는 센서들 중 자이로 센서, 지자계 센서와 같은 일부 센서들은 사용자(US)의 어깨, 무릎, 팔꿈치 등 신체의 일부에 패드(PD) 형태로 부착된 형태로 제공되어 사용자(US)의 움직임을 센싱한다.Among the sensors included in the sensing unit 100, some sensors, such as a gyro sensor and a geomagnetic sensor, are provided in the form of a pad attached to a part of the body such as a shoulder, knee, and elbow of the user (US) in the form of a pad (PD). Senses the movement of (US).
사용자(US)가 들고 있는 골프채는 센서들을 포함하는 컨트롤러(430)의 역할을 수행할 수 있다. 제어부(300, 도 1)는 셋탑박스(SB)의 형태로 제공되어 중앙처리 장치의 역할을 수행한다.The golf club held by the user (US) may serve as a controller 430 including sensors. The control unit 300 (FIG. 1) is provided in the form of a set-top box (SB) to serve as a central processing unit.
도 2b는 디스플레이부(410)가 헤드마운트디스플레이(HMD) 형태로 제공되는 경우가 도시된다. 사용자(US)가 헤드마운트디스플레이(HMD)를 머리에 착용함으로써, 3D 영상이 사용자(US)에게 제공될 수 있다.2B illustrates a case in which the display unit 410 is provided in the form of a head mounted display (HMD). When the user US wears the head mounted display HMD on the head, a 3D image may be provided to the user US.
도 3은 사용자, 사용자아바타, 타겟아바타, 및 훈련용아바타가 예시적으로 도시된 도면이다.3 is a diagram exemplarily illustrating a user, a user avatar, a target avatar, and an avatar for training.
도 3을 참조하면, 아바타생성부(210)는 사용자아바타(AV1), 타겟아바타(AV2), 및 훈련용아바타(AV3)를 생성한다. (a)는 사용자(US)의 모습이고, (b)는 사용자아바타(AV1)의 모습이고, (c)는 타겟아바타(AV2)의 모습이고, (d)는 훈련용아바타(AV3)의 모습이다.Referring to FIG. 3 , the avatar generator 210 generates a user avatar AV1 , a target avatar AV2 , and a training avatar AV3 . (a) is the appearance of the user (US), (b) is the appearance of the user avatar (AV1), (c) is the appearance of the target avatar (AV2), (d) is the appearance of the training avatar (AV3) to be.
아바타생성부(210)는 사용자(US)의 동작데이터를 기초로 하여 사용자 아바타(AV1)를 생성한다. 따라서, 사용자아바타(AV1)의 동작 데이터는 사용자(US)의 동작데이터와 동일하다. 디스플레이부(410)는 사용자(US)의 움직임에 대응하여 사용자아바타(AV1)가 움직이도록 동기화하여 영상을 제공할 수 있다.The avatar generator 210 generates the user avatar AV1 based on the motion data of the user US. Accordingly, the motion data of the user avatar AV1 is the same as the motion data of the user US. The display unit 410 may provide an image by synchronizing the movement of the user avatar AV1 in response to the movement of the user US.
타겟아바타(AV2)는 사용자(US)에 의하여 입력된 입력 데이터를 기초로 하여 생성된다. 사용자(US)는 복수의 동작 요소들 중 특정 동작 요소에 대한 목표 수치를 시스템(1000)에 입력할 수 있으며, 아바타생성부(210)는 해당 수치를 충족하는 타겟아바타(AV2)를 생성할 수 있다. 예시적으로, 사용자(US)가 타이거우즈의 골프 스윙 자세를 배우고자 한다면, 아바타생성부(210)는 타이거우즈가 갖는 동작 요소들 중 스윙 자세에 기여하는 특정 동작 요소들의 수치를 반영한 타겟아바타(AV2)를 생성한다.The target avatar AV2 is generated based on input data input by the user US. The user US may input a target value for a specific motion element among a plurality of motion elements into the system 1000, and the avatar generator 210 may generate a target avatar AV2 that satisfies the corresponding value. have. Illustratively, if the user US wants to learn Tiger Woods' golf swing posture, the avatar generator 210 may generate a target avatar ( AV2) is created.
분석부(220)는 사용자의 동작 데이터 및 입력 데이터를 분석하여 동작 데이터 및 입력 데이터 간의 차이점을 추출하여 변환 요소를 산출한다. 즉, 분석부(220)는 사용자아바타(AV1) 및 타겟아바타(AV2) 간의 차이점을 추출하여 변환 요소를 산출한다. 변환요소는 타겟아바타(AV2)가 갖는 동작 요소들을 사용자아바타(AV1)가 갖는 동작 요소들에 정합시키기 위하여 변환이 요구되는 요소로 정의된다. 예시적으로, 변환요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도 및 선속도 등을 포함할 수 있다.The analysis unit 220 analyzes the user's motion data and input data, extracts a difference between the motion data and the input data, and calculates a conversion factor. That is, the analysis unit 220 extracts a difference between the user avatar AV1 and the target avatar AV2 to calculate a conversion factor. The transformation element is defined as an element requiring transformation in order to match the operation elements of the target avatar AV2 to the operation elements of the user avatar AV1. Illustratively, the conversion factor may include an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, a weight, calories consumed, an angular velocity and a linear velocity of each joint, and the like.
도면에 도시되지 않았으나, 본 발명의 다른 실시 예에 따르면, 사용자는 사용자아바타(AV1) 및 타겟아바타(AV2) 사이의 차이점을 적어도 일부를 디스플레이부(410)를 통하여 확인할 수 있다. 예시적으로, 디스플레이부(410)는 사용자아바타(AV1) 및 타겟아바타(AV2)의 분절 길이의 비율, 선속도, 각속도 등의 정보를 사용자에게 제공할 수 있다. 본 발명은 디스플레이부(410)가 사용자에게 상기 차이점 정보를 제공하는 방법에 관하여 특별히 한정되지 않는다.Although not shown in the drawings, according to another embodiment of the present invention, the user may check at least a part of the difference between the user avatar AV1 and the target avatar AV2 through the display unit 410 . For example, the display unit 410 may provide information such as a ratio of segment lengths of the user avatar AV1 and the target avatar AV2, linear velocity, angular velocity, and the like to the user. The present invention is not particularly limited with respect to how the display unit 410 provides the difference information to the user.
일반적으로, 사용자아바타(AV1)가 갖는 동작 요소의 수치는 타겟아바타(AV2)가 갖는 동작 요소의 수치와는 상이하다. 즉, 인간의 동작은 물리적 조건, 체력적 조건 및 신체-운동 지능적 조건에 의하여 결정되나, 사용자아바타(AV1)가 갖는 조건들의 수치와, 타겟아바타(AV2)가 갖는 조건들의 수치는 상이할 수 있다. 이 때, 물리적 조건의 예는, 신장, 신체분절의 길이 및 무게 등이고, 체력적 조건의 예는 근력, 지구력, 유연성 등 체력적 조건 등일 수 있다. 신체-운동 지능적 조건의 예는 감각능력 및 운동 능력 등일 수 있다. 예시적으로, 사용자(US)가 타이거 우즈의 스윙 자세를 배우고자 하는 경우, 타이거 우즈의 키, 팔/다리의 길이, 관절의 위치, 근육량, 몸무게, 가동범위, 운동 능력은 사용자(US)의 것과는 상이하다. 따라서, 타겟아바타(AV2)가 갖는 동작 요소들의 수치를 사용자아바타(AV1)가 갖는 동작 요소들에 정합시키기 위하여 변환해야 한다.In general, the numerical value of the operation element of the user avatar AV1 is different from the numerical value of the operation element of the target avatar AV2 . That is, the human motion is determined by the physical condition, the physical condition, and the body-exercise intelligent condition, but the values of the conditions of the user avatar AV1 and the values of the conditions of the target avatar AV2 may be different. . In this case, examples of the physical condition may include height, length and weight of body segments, and the like, and examples of the physical condition may include physical conditions such as muscle strength, endurance, flexibility, and the like. Examples of body-motor intellectual conditions may be sensory abilities and motor abilities, and the like. Illustratively, when the user (US) wants to learn the swing posture of Tiger Woods, the height of Tiger Woods, the length of arms/legs, the position of the joints, muscle mass, weight, range of motion, and exercise ability of the user (US) different from that Therefore, it is necessary to convert the numerical values of the operation elements of the target avatar AV2 to match the operation elements of the user avatar AV1.
아바타생성부(210)는 상기 변환 요소를 적용하여 훈련용아바타(AV3)를 생성한다. 본 실시 예에서, 훈련용아바타(AV3)의 체형은 사용자아바타(AV1)의 체형과 동일하다.The avatar generating unit 210 generates the training avatar AV3 by applying the transformation element. In this embodiment, the body shape of the training avatar AV3 is the same as that of the user avatar AV1.
도 4는 디스플레이부에 표시되는 사용자아바타 및 훈련용아바타가 도시된 도면이다.4 is a diagram illustrating a user avatar and a training avatar displayed on the display unit.
도 4를 참조하면, 훈련용아바타(AV3)는 디스플레이부(410)가 제공하는 영상을 통하여 사용자아바타(AV1)와 함께 표시될 수 있다. 훈련용아바타(AV3)는 사용자(US)에게 운동 처방을 제공한다. 사용자(US)는 훈련용아바타(AV3)의 움직임을 따라함으로써, 운동을 수행할 수 있으며, 사용자아바타(AV1)를 통하여 자신의 움직임을 확인할 수 있다.Referring to FIG. 4 , the training avatar AV3 may be displayed together with the user avatar AV1 through an image provided by the display unit 410 . The training avatar AV3 provides an exercise prescription to the user US. The user US may perform an exercise by following the movement of the training avatar AV3, and may check his/her own movement through the user avatar AV1.
본 실시 예에 따르면, 센싱부(100)는 운동 중 실시간으로 사용자(US)의 움직임정보 및 생체정보를 포함하는 피드백 데이터를 수집할 수 있다. 산출부(200)는 피드백 데이터에 기초하여 동작 데이터를 보정하거나, 운동 처방 내용을 재설정할 수 있다.또한, 도면에 도시되지 않았으나, 디스플레이부(410)는 사용자에게 사용자아바타(AV1)의 동작과 훈련용아바타(AV3)의 동작의 차이를 사용자에게 제공할 수도 있다. 예시적으로, 디스플레이부(410)는 상기 동작의 차이를 화면을 확대하여 표시하거나, 동작의 차이가 표시되는 화면을 슬로우 모션으로 재생하는 방법, 동작의 차이를 수치로 그래프화 하여 표시하는 방법 등으로 사용자에게 제공할 수 있다.According to the present embodiment, the sensing unit 100 may collect feedback data including movement information and biometric information of the user US in real time during exercise. The calculator 200 may correct the motion data or reset the contents of the exercise prescription based on the feedback data. In addition, although not shown in the drawing, the display unit 410 provides the user with the operation of the user avatar AV1 and A difference in the operation of the training avatar AV3 may be provided to the user. Illustratively, the display unit 410 enlarges the screen to display the difference between the motions, reproduces a screen on which the difference between the motions is displayed in slow motion, and displays the difference in motion by graphing it with a numerical value, etc. can be provided to users.
본 실시 예와는 다르게, 사용자(US)가 변환 요소가 적용되지 않은 타겟 아바타(AV2)의 움직임을 따라하는 경우, 사용자(US)의 움직임은 타겟 아바타(AV2)의 움직임과 동일할 수 없으며, 운동 효과도 예측한 수치와 동일하지 않을 수 있다. 즉, 사용자(US)에게 사용자(US)의 입력 데이터가 제대로 반영되지 않은 운동 처방이 제공될 수 있다. 그러나, 본 발명의 실시 예에 따르면, 산출부(400)가 사용자 아바타(AV1)의 동작 요소와 동일한 동작 요소를 갖되, 변환요소가 적용되어 사용자(US)에게 맞춤형 운동 처방을 제공할 수 있는 훈련용 아바타(AV3)를 생성하므로, 사용자(US)의 운동 효과가 향상될 수 있다.Unlike this embodiment, when the user US follows the movement of the target avatar AV2 to which the transformation element is not applied, the movement of the user US cannot be the same as the movement of the target avatar AV2. The exercise effect may not be the same as the predicted value. That is, an exercise prescription in which the input data of the user US is not properly reflected may be provided to the user US. However, according to an embodiment of the present invention, the calculator 400 has the same operation elements as the operation elements of the user avatar AV1, but a transformation element is applied to provide a customized exercise prescription to the user US. Since the dragon avatar AV3 is generated, the exercise effect of the user US may be improved.
도 5는 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법의 단계도이다. 후술되는 내용에서, 전술된 구성과 동일한 구성에 대하여 도면 부호를 병기하거나, 설명이 생략될 수 있다.5 is a step diagram of a user-customized exercise training method according to an embodiment of the present invention. In the following description, reference numerals may be used for the same components as those described above, or descriptions may be omitted.
도 5를 참조하면, 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법은, 동작 데이터 수집 단계(S10), 사용자아바타 생성 단계(S20), 타겟아바타 생성 단계(S30), 사용자아바타와 타겟아바타와의 차이점을 비교하는 단계(S40), 차이점을 적용하여 훈련용 아바타를 생성하는 단계(S50), 및 훈련용아바타를 통한 운동 처방 단계(S60)를 포함한다.Referring to FIG. 5 , the user-customized exercise training method according to an embodiment of the present invention includes a motion data collection step (S10), a user avatar generation step (S20), a target avatar generation step (S30), a user avatar and a target avatar Comparing the differences (S40), generating an avatar for training by applying the differences (S50), and prescribing an exercise through the training avatar (S60).
먼저, 동작 데이터 수집 단계(S10)에서, 동작 데이터는 사용자의 신체적 특징 및 움직임을 센싱하는 형태로 수집될 수 있으며, 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함할 수 있다.First, in the motion data collection step S10, motion data may be collected in the form of sensing the user's physical characteristics and motion, and the motion data may include the numerical value of at least one motion element among a plurality of motion elements. have.
사용자아바타 생성 단계(S20)에서, 사용자아바타(AV1)는 동작 데이터에 기초하여 생성될 수 있다. 사용자 아바타(AV1)의 동작 요소는 사용자의 동작 요소와 동일할 수 있다.In the user avatar generation step S20 , the user avatar AV1 may be generated based on motion data. The motion element of the user avatar AV1 may be the same as that of the user.
타겟아바타 생성 단계(S30)에서, 타겟아바타(AV2)는 사용자의 입력에 의하여 생성될 수 있으며, 타겟아바타 생성 단계(S30)는, 사용자가 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소를 선택하는 단계, 사용자가 특정 동작 요소에 대한 목표 수치를 선택하는 단계, 및 특정 동작 요소에 대한 목표 수치를 충족하는 타겟아바타(AV2)를 생성하는 단계를 포함한다.In the target avatar generating step S30 , the target avatar AV2 may be generated according to a user input, and in the target avatar generating step S30 , the user selects a specific action element that the user targets from among the plurality of action elements. It includes the steps of selecting, the user selecting a target value for a specific motion element, and generating a target avatar AV2 that satisfies the target value for the specific motion element.
사용자아바타 및 타겟아바타 간의 차이점을 비교하는 단계(S40)에서, 차이점은 사용자아바타(AV1)와 타겟아바타(AV2) 간의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 중 적어도 어느 하나의 차이값을 포함할 수 있으며, 분석부(220)는 상기 차이값을 기초로 하여 변환요소를 산출할 수 있다.In the step (S40) of comparing the differences between the user avatar and the target avatar, the difference is muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, reflexes, and balance between the user avatar (AV1) and the target avatar (AV2). It may include a difference value of at least one of ability, cardiopulmonary ability, coordination ability, body-motor intelligence, and kinesthetic ability, and the analysis unit 220 may calculate a conversion factor based on the difference value.
훈련용아바타를 생성하는 단계(S50)에서, 훈련용아바타(AV3)는 사용자아바타(AV1)와 동일한 동작 요소를 갖는다. 예시적으로, 훈련용아바타(AV3)는 사용자아바타(AV1)의 체형과 동일하다.In the step of generating the training avatar (S50), the training avatar AV3 has the same operation elements as the user avatar AV1. Exemplarily, the training avatar AV3 is the same as the body type of the user avatar AV1.
훈련용아바타를 통하여 운동 처방 단계(S60)에서, 디스플레이부(410)는 표시되는 영상을 통하여 사용자아바타(AV1) 및 훈련용아바타(AV2)를 사용자에게 제공할 수 있으며, 사용자(US)는 훈련용아바타(AV3)의 움직임을 따라함으로써, 운동을 수행할 수 있으며, 사용자아바타(AV1)를 통하여 자신의 움직임을 확인할 수 있다.In the exercise prescription step (S60) through the training avatar, the display unit 410 may provide the user avatar (AV1) and the training avatar (AV2) to the user through the displayed image, and the user (US) is trained By following the movement of the dragon avatar AV3, an exercise can be performed, and one's own movement can be confirmed through the user's avatar AV1.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시 예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made within the scope without departing from the technical spirit of the present invention.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
본 발명은 사용자가 목표로 하는 동작요소를 갖는 타겟 아바타와 사용자와 동일한 동작요소를 갖는 사용자 아바타와의 차이점을 추출하여, 사용자와 동일한 동작 요소를 갖되, 상기 차이점이 적용된 훈련용 아바타를 생성한다. 사용자는 훈련용 아바타를 통하여 사용자의 신체 조건에 부합하는 운동을 처방 받을 수 있으므로, 사용자의 운동 효과가 향상되는 효과를 갖는다는 측면에서 본 발명은 산업상 이용 가능성이 높다.The present invention extracts a difference between a target avatar having a motion element targeted by the user and a user avatar having the same motion element as the user, and generates a training avatar having the same motion element as the user but to which the difference is applied. Since the user can be prescribed an exercise suitable for the user's physical condition through the training avatar, the present invention has high industrial applicability in terms of improving the user's exercise effect.

Claims (19)

  1. 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집하는 센싱부;a sensing unit for collecting motion data by sensing the user's physical characteristics and movement;
    상기 동작 데이터 및 사용자에 의하여 입력되는 입력 데이터를 분석하고, 분석한 데이터에 기초하여 훈련용 아바타를 생성하는 산출부;a calculator that analyzes the motion data and input data input by a user, and generates an avatar for training based on the analyzed data;
    사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신하는 인터페이스부; 및an interface unit that provides images and sounds to a user and receives a user's input; and
    상기 센싱부, 상기 산출부 및 상기 인터페이스부 간의 데이터를 송수신하고, 상기 센싱부, 상기 산출부 및 상기 인터페이스부 각각의 구동을 제어하는 제어부를 포함하고,a control unit for transmitting and receiving data between the sensing unit, the calculating unit, and the interface unit, and controlling driving of each of the sensing unit, the calculating unit, and the interface unit;
    상기 산출부는,The calculation unit,
    상기 동작 데이터 및 상기 입력 데이터를 분석하여 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하고, 변환 요소를 산출하는 분석부; 및an analysis unit that analyzes the motion data and the input data to extract a difference between the motion data and the input data, and calculates a conversion factor; and
    상기 동작 데이터에 기초하여 사용자 아바타를 생성하고, 상기 입력 데이터에 기초하여 타겟 아바타를 생성하고, 상기 변환 요소를 적용하여 상기 훈련용 아바타를 생성하는 아바타 생성부를 포함하는 사용자 맞춤형 운동 훈련 시스템.and an avatar generator configured to generate a user avatar based on the motion data, generate a target avatar based on the input data, and apply the transformation element to generate the training avatar.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 사용자 아바타는 사용자에게 제공되는 상기 영상을 통하여 상기 사용자의 움직임에 대응하여 움직이도록 동기화되고,The user avatar is synchronized to move in response to the user's movement through the image provided to the user,
    상기 훈련용 아바타의 체형은 상기 사용자 아바타의 체형과 동일한 사용자 맞춤형 운동 훈련 시스템.The body shape of the training avatar is the same as that of the user avatar.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함하는 사용자 맞춤형 운동 훈련 시스템.The motion data includes the numerical value of at least any one of the plurality of motion elements, and the plurality of motion factors include the user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , a user-customized exercise training system including cardiopulmonary ability, coordination ability, body-motor intelligence, and kinesthetic ability.
  4. 제 3 항에 있어서,4. The method of claim 3,
    상기 입력 데이터는 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소에 대한 목표 수치를 포함하고,The input data includes a target value for a specific operation element targeted by the user among the plurality of operation elements,
    상기 아바타 생성부는 상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성하는 사용자 맞춤형 운동 훈련 시스템.The avatar generator generates a target avatar that satisfies the target value for the specific motion element.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함하는 사용자 맞춤형 운동 훈련 시스템.The conversion factor is a user-customized exercise training system including an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
  6. 제 1 항에 있어서,The method of claim 1,
    상기 인터페이스부는,The interface unit,
    상기 사용자에게 영상을 제공하는 디스플레이부;a display unit providing an image to the user;
    상기 사용자에게 사운드를 제공하는 스피커; 및a speaker providing sound to the user; and
    상기 사용자의 입력을 수신하는 컨트롤러를 포함하고,A controller for receiving the user's input,
    상기 디스플레이부는 상기 사용자 아바타 및 상기 훈련용 아바타를 동시에 표시하는 사용자 맞춤형 운동 훈련 시스템.The display unit is a user-customized exercise training system for simultaneously displaying the user avatar and the training avatar.
  7. 제 6 항에 있어서,7. The method of claim 6,
    상기 센싱부는,The sensing unit,
    사용자의 기초체형정보, 생체정보 및 관절들의 움직임정보를 측정하는 동작센싱부; 및a motion sensing unit for measuring the user's basic body type information, biometric information, and motion information of joints; and
    사용자의 동공의 움직임을 측정하여 사용자의 시선을 센싱하는 시선추적부를 포함하는 사용자 맞춤형 운동 훈련 시스템.A user-customized exercise training system including an eye tracking unit sensing the user's gaze by measuring the user's pupil movement.
  8. 제 7 항에 있어서,8. The method of claim 7,
    상기 동작센싱부는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 포함하는 사용자 맞춤형 운동 훈련 시스템.The motion sensing unit is a user-customized exercise training system comprising at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
  9. 제 7 항에 있어서,8. The method of claim 7,
    상기 디스플레이부는 상기 디스플레이부가 제공하는 영상 범위 내에서, 상기 시선추적부에 의하여 센싱된 일 영역을 확대 또는 강조하여 표시하는 사용자 맞춤형 운동 훈련 시스템.The display unit is a user-customized exercise training system for displaying an area sensed by the eye tracking unit by enlarging or emphasizing within the image range provided by the display unit.
  10. 제 6 항에 있어서,7. The method of claim 6,
    상기 디스플레이부는 헤드 마운트 디스플레이 형태로 제공되는 사용자 맞춤형 운동 훈련 시스템.The display unit is a user-customized exercise training system provided in the form of a head mounted display.
  11. 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집하는 단계;collecting motion data by sensing the user's physical characteristics and movement;
    상기 동작 데이터에 기초하여 사용자 아바타를 생성하는 단계;generating a user avatar based on the motion data;
    사용자의 입력을 통하여 타겟 아바타를 생성하는 단계;generating a target avatar through a user input;
    상기 동작 데이터 및 상기 입력 데이터를 분석하여, 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계;analyzing the motion data and the input data to extract a difference between the motion data and the input data;
    상기 차이점을 분석하여 변환 요소를 산출하는 단계;calculating a transformation factor by analyzing the difference;
    상기 변환 요소를 적용하여 훈련용 아바타를 생성하는 단계; 및generating an avatar for training by applying the transformation factor; and
    상기 훈련용 아바타를 통하여 사용자에게 운동을 처방하는 단계를 포함하는 사용자 맞춤형 운동 훈련 방법.and prescribing an exercise to the user through the training avatar.
  12. 제 11 항에 있어서,12. The method of claim 11,
    상기 동작 데이터를 수집하는 단계에서,In the step of collecting the motion data,
    상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함하는 사용자 맞춤형 운동 훈련 방법.The motion data includes a numerical value of at least any one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , cardiorespiratory ability, coordination ability, body-motor intelligence, a user-customized exercise training method including kinesthetic ability, etc.
  13. 제 12 항에 있어서,13. The method of claim 12,
    상기 타겟 아바타를 생성하는 단계는,The step of generating the target avatar comprises:
    사용자가 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소를 선택하는 단계;selecting, by the user, a specific operation element targeted by the user from among the plurality of operation elements;
    사용자가 상기 특정 동작 요소에 대한 목표 수치를 선택하는 단계; 및selecting a target value for the specific action element by the user; and
    상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성하는 단계를 포함하는 사용자 맞춤형 운동 훈련 방법.and generating a target avatar that satisfies the target value for the specific motion element.
  14. 제 11 항에 있어서,12. The method of claim 11,
    상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계에서,In the step of extracting the difference between the motion data and the input data,
    상기 차이점은, 상기 사용자 아바타와 상기 타겟 아바타 간의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 중 적어도 어느 하나의 차이값을 포함하는 사용자 맞춤형 운동 훈련 방법.The difference between the user avatar and the target avatar is at least one of muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, agility, balance ability, cardiorespiratory ability, coordination ability, body-motor intelligence, and kinesthetic ability. A user-customized exercise training method including any one difference value.
  15. 제 11 항에 있어서,12. The method of claim 11,
    상기 변환 요소를 산출하는 단계에서,In the step of calculating the transformation factor,
    상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함하는 사용자 맞춤형 운동 훈련 방법.The conversion factor is a user-customized exercise training method including the amount of exercise, the duration of the motion, the rest time, the number of motions, the breathing cycle, the weight, the calories consumed, the angular velocity of each joint, the linear velocity, and the like.
  16. 제 11 항에 있어서,12. The method of claim 11,
    상기 사용자에게 운동을 처방하는 단계는,Prescribing exercise to the user includes:
    디스플레이를 통하여 제공되는 영상에 표시되는 상기 사용자 아바타가 상기 사용자의 움직임에 대응하여 움직이도록 동기화시키는 단계; 및synchronizing the user avatar displayed on an image provided through a display to move in response to the user's movement; and
    사용자로 하여금 상기 영상에 표시되는 상기 훈련용 아바타의 움직임을 따라하도록 요청하는 단계를 포함하는 사용자 맞춤형 운동 훈련 방법.and requesting a user to follow the movement of the training avatar displayed on the image.
  17. 제 11 항에 있어서,12. The method of claim 11,
    상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 통하여 측정함으로써 수집되는 사용자 맞춤형 운동 훈련 방법.In the step of collecting the motion data, the motion data is collected by measuring through at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor. User-tailored workout training methods.
  18. 제 11 항에 있어서,12. The method of claim 11,
    상기 사용자에게 운동을 처방하는 단계는,Prescribing exercise to the user includes:
    운동 중 사용자의 피드백 데이터를 수집하는 단계; 및collecting user feedback data during exercise; and
    상기 피드백 데이터에 기초하여 운동 처방 내용을 재설정하는 단계를 더 포함하는 사용자 맞춤형 운동 훈련 방법,User-customized exercise training method further comprising the step of resetting the exercise prescription contents based on the feedback data;
  19. 제 18 항에 있어서,19. The method of claim 18,
    상기 동작 데이터를 수집하는 단계에서,In the step of collecting the motion data,
    상기 동작 데이터는 사용자의 동공의 움직임을 측정하여 사용자의 시선을 추적함으로써 획득되는 관심 정보를 더 포함하는 사용자 맞춤형 운동 훈련 방법.The motion data further includes interest information obtained by measuring the movement of the user's pupil and tracking the user's gaze.
PCT/KR2021/000771 2020-12-31 2021-01-20 User-customized exercise training method and system WO2022145563A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200188963A KR102556863B1 (en) 2020-12-31 2020-12-31 User customized exercise method and system
KR10-2020-0188963 2020-12-31

Publications (1)

Publication Number Publication Date
WO2022145563A1 true WO2022145563A1 (en) 2022-07-07

Family

ID=82259444

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/000771 WO2022145563A1 (en) 2020-12-31 2021-01-20 User-customized exercise training method and system

Country Status (2)

Country Link
KR (1) KR102556863B1 (en)
WO (1) WO2022145563A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102613638B1 (en) 2022-12-08 2023-12-14 주식회사 테렌즈랩스 Application-based health managing system installed in terminals

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527536A (en) * 2013-06-07 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント Image rendering in response to user movement on a head-mounted display
US20170103672A1 (en) * 2015-10-09 2017-04-13 The Regents Of The University Of California System and method for gesture capture and real-time cloud based avatar training
US20180207484A1 (en) * 2017-01-26 2018-07-26 International Business Machines Corporation Remote physical training
KR101904889B1 (en) * 2016-04-21 2018-10-05 주식회사 비주얼캠프 Display apparatus and method and system for input processing therof
KR102125748B1 (en) * 2018-08-23 2020-06-23 전자부품연구원 Apparatus and method for motion guide using 4d avatar

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2905947A1 (en) * 2013-03-13 2014-10-02 James Witt Method and apparatus for teaching repetitive kinesthetic motion
KR101931784B1 (en) 2018-08-29 2018-12-21 주식회사 큐랩 Virtual fitness system for multi-user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527536A (en) * 2013-06-07 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント Image rendering in response to user movement on a head-mounted display
US20170103672A1 (en) * 2015-10-09 2017-04-13 The Regents Of The University Of California System and method for gesture capture and real-time cloud based avatar training
KR101904889B1 (en) * 2016-04-21 2018-10-05 주식회사 비주얼캠프 Display apparatus and method and system for input processing therof
US20180207484A1 (en) * 2017-01-26 2018-07-26 International Business Machines Corporation Remote physical training
KR102125748B1 (en) * 2018-08-23 2020-06-23 전자부품연구원 Apparatus and method for motion guide using 4d avatar

Also Published As

Publication number Publication date
KR102556863B1 (en) 2023-07-20
KR20220098064A (en) 2022-07-11

Similar Documents

Publication Publication Date Title
KR100772497B1 (en) Golf clinic system and application method thereof
US8287434B2 (en) Method and apparatus for facilitating strength training
Bleser et al. A personalized exercise trainer for the elderly
KR20160054325A (en) Management system and the method for customized personal training
KR101999748B1 (en) IoT FITNESS EQUIPMENT, EXERCISE INSTRUCTION SYSTEM, AND EXERCISE INSTRUCTION METHOD USING THEREOF
JP2020174910A (en) Exercise support system
Gauthier et al. Human movement quantification using Kinect for in-home physical exercise monitoring
JP2021049208A (en) Exercise evaluation system
WO2022145563A1 (en) User-customized exercise training method and system
Nown et al. A mapping review of real-time movement sonification systems for movement rehabilitation
WO2022193425A1 (en) Exercise data display method and system
JP2016035651A (en) Home rehabilitation system
WO2014104463A1 (en) Natural interaction-based health and rehabilitation device
Hidayat et al. LOVETT scalling with MYO armband for monitoring finger muscles therapy of post-stroke people
WO2017217567A1 (en) Fitness monitoring system
JP2023162333A (en) Control method of training device
WO2016204334A1 (en) Exercise system based on immersive interactive contents and method therefor
JP2018187284A (en) Exercise state diagnostic system and exercise state diagnostic program
WO2022030619A1 (en) Guidance support system
WO2021261529A1 (en) Physical exercise assistance system
WO2022030708A1 (en) Music modulation auditory feedback system using wireless earphone and smart phone
Gupta et al. shoulder Rehabilitation using Virtual Physiotherapy System
JP7023004B2 (en) Motion analysis system, motion analysis program, and motion analysis method
JP2021068069A (en) Providing method for unmanned training
WO2023075052A1 (en) Artificial intelligence-based exercise coaching device using gamification

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21915363

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21915363

Country of ref document: EP

Kind code of ref document: A1