WO2018030734A1 - 3d simulation method and apparatus - Google Patents

3d simulation method and apparatus Download PDF

Info

Publication number
WO2018030734A1
WO2018030734A1 PCT/KR2017/008506 KR2017008506W WO2018030734A1 WO 2018030734 A1 WO2018030734 A1 WO 2018030734A1 KR 2017008506 W KR2017008506 W KR 2017008506W WO 2018030734 A1 WO2018030734 A1 WO 2018030734A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
parameter
user
trajectory
generating
Prior art date
Application number
PCT/KR2017/008506
Other languages
French (fr)
Korean (ko)
Inventor
정주호
정창근
유성재
Original Assignee
주식회사 비플렉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160101489A external-priority patent/KR101926170B1/en
Priority claimed from KR1020160101491A external-priority patent/KR101830371B1/en
Priority claimed from KR1020170030402A external-priority patent/KR101995484B1/en
Priority claimed from KR1020170030394A external-priority patent/KR101995482B1/en
Priority claimed from KR1020170079255A external-priority patent/KR101970674B1/en
Application filed by 주식회사 비플렉스 filed Critical 주식회사 비플렉스
Priority to CN201780037461.8A priority Critical patent/CN109310913B/en
Publication of WO2018030734A1 publication Critical patent/WO2018030734A1/en
Priority to US16/272,201 priority patent/US11497966B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities

Definitions

  • the present invention relates to a 3D simulation method and apparatus, and more particularly, to a method and apparatus for simulating a walking and driving motion of a user in three dimensions.
  • the present invention has been made in view of the above-described technical problem, the object of the present invention is to substantially compensate for the various problems caused by the limitations and disadvantages in the prior art, the walking and driving movement of the user 3
  • the present invention provides a method and apparatus for simulating dimensions, and a computer readable recording medium having recorded thereon a program for executing the method.
  • the 3D simulation method comprises: receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input; Generating a 3D model of a user based on the model parameter and the pose parameter; Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And generating the 3D simulation of the user by applying the motion trajectory to the 3D model.
  • the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
  • the model parameter is a parameter related to the appearance of the user;
  • the posture parameter is a parameter relating to the posture of the user;
  • the motion space parameter is a parameter relating to a spatial trajectory of the user's motion;
  • the motion time parameter is a parameter related to a time trajectory of the motion of the user.
  • the model parameter includes at least one of height, weight, foot length, leg length, age, gender, and wearing information.
  • the pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
  • the motion space parameter may include a vertical section of the support section, a vertical section of the support section, a vertical section of the vertical section, the maximum vertical force load ratio, the average vertical force load ratio, the impact amount, the left and right uniformity, the left and right balance, the stride, the landing feet, , Left and right pelvis angle and at least one of the left and right eye angle.
  • the motion time parameter includes at least one of one foot support time, one foot suspension time, and one minute repair.
  • the motion space parameter may include at least one of up and down oscillation width, up and down oscillation width, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right eye angle. Include.
  • the motion time parameter includes at least one of one foot support time, two feet support time, and one minute repair.
  • the generating of the motion trajectory of the user may include: motion motion data modeling a predetermined motion motion; And basic motion data independent of the motion space parameter and the motion time parameter.
  • the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. .
  • the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
  • the four-step data includes motion trajectory values of the up, down, left, and right axes of the joints.
  • said joint is at least one of the neck, shoulder, waist, knee, arm, elbow, ankle and toe.
  • the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion space parameter to reflect the motion motion data; And generating a second adjustment value by adjusting a gain value based on the motion time parameter to reflect the first adjustment value.
  • the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion time parameter by reflecting the motion motion data; And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
  • generating the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
  • the present invention includes a computer-readable recording medium on which a program for performing the method is recorded.
  • the 3D simulation apparatus includes a parameter input unit for receiving a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input; A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter; A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And a 3D simulation generator configured to generate the 3D simulation of the user by applying the motion trajectory to the 3D model.
  • a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like.
  • the user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
  • FIG. 1 illustrates a 3D simulation result according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
  • FIG. 3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
  • FIG. 4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
  • FIG 5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
  • FIG. 6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
  • FIG. 7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
  • FIG. 8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
  • FIG. 9 is an exemplary view of adjusting and reflecting a motion time parameter in exercise motion data according to an embodiment of the present invention.
  • FIG. 10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
  • FIG. 1 illustrates a 3D simulation result according to an embodiment of the present invention.
  • the 3D simulation apparatus 200 receives a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input, and generates a 3D model and a motion trajectory of a user who is exercising based on the input. This creates a 3D simulation.
  • the model parameters such as the user's height, foot length and leg length, posture parameters such as interpolation and interpolation angle, motion space parameters such as stride length, left and right uniformity and left and right balance, and motion time parameters such as air suspension time
  • the 3D simulation apparatus 200 3D simulated walking and driving motions of the user.
  • FIG. 2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
  • the 3D simulation apparatus 200 includes a parameter input unit 210, a 3D model generator 230, a motion trajectory generator 250, and a 3D simulation generator 270.
  • the parameter input unit 210 receives the model parameter 211, the posture parameter 213, the motion space parameter 215, and the motion time parameter 217 based on the external input.
  • the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
  • the exercise recognition device refer to Korean patent, 'A motion recognition method and device for pedestrian and driving monitoring' (application number: 10-2016-0101489, application date: 2016.08.09), 'pressure center path Method and Apparatus for Deriving Based Exercise Posture '(Application No .: 10-2016-0101491, Filed Date: 2016.08.09),' Method and Apparatus for Recognizing Exercise for Walking and Driving Monitoring '(Application No .: 10-2017-0030394 No.
  • the model parameter 211 is a parameter related to the user's appearance, and includes height, weight, foot length, leg length, age, gender, and wearing information. At least one of the.
  • the wear information includes the type, name and brand of the product worn by the user. Products worn by the user include accessories such as watches, clothes, shoes, and the like.
  • the posture parameter 213 is a parameter related to a posture of a user and includes at least one of interpolation (Step width), interpolation (Step angle), and head vertical angle. Interpolation is the average value between the legs, and interpolation is the leg angle average value. Up-and-down eye angle means an average value of the vertical angle of the head.
  • the motion space parameter 215 is a parameter related to the trajectory of the user's motion.
  • the motion space parameter 215 includes vertical oscillation during stance, vertical oscillation during flight, Instantaneous Vertical Loading Rate (IVLR), Average Vertical Loading Rate (AVLR), Impact, Impact, Stability, Balance, Step Length, At least one of a foot strike pattern, a pelvic vertical rotation, a pelvic lateral rotation, and a head lateral angle.
  • the motion space parameter 215 may include vertical oscillation during single stance, vertical oscillation during double stance, left and right uniformity, left and right balance, stride length, landing foot, and the like when the user walks. At least one of the upper and lower pelvis angle, left and right pelvis angle and left and right eye angle.
  • the vertical vibration width of the support section means the vertical movement distance (meter) in the support section
  • the vertical vibration width of the floating section means the vertical movement distance in the floating section.
  • the maximum vertical force load rate is the instantaneous vertical force load rate (Newton / second), which means the maximum slope of the support section of the ground reaction force.
  • Mean vertical force load ratio (Newton / second) means the average slope of the support section of ground reaction force. Impact amount refers to the impact force (Newton) of the support section of the ground reaction force.
  • Stability refers to whether the state of movement is consistently maintained for each leg of the left and right foot in time, strength, etc., and expressed in% using the coefficient of variation (CV) of each leg.
  • Values that can be used as index for evaluation index include maximum vertical force, vertical acceleration maximum, support section impact, support time, stray time, average vertical force load rate and maximum vertical force load rate.
  • Balance of left and right represents the left and right unbalance (%), and is obtained by the following equation.
  • Step length refers to the distance traveled forward during the support section and the floating section, and the foot strike pattern indicates which foot to land on.
  • the landing foot may be one of a fore foot, a rear foot, and a mid foot.
  • the pelvic vertical rotation and the pelvic lateral rotation mean the degree of vertical and horizontal distortion of the pelvis, respectively.
  • Head lateral angle is an average value of the left and right angles of the head.
  • the motion time parameter 217 is a parameter related to the time trajectory of the user's motion.
  • the motion time parameter 217 includes at least one of a single stance time, a single flight time, and a cadence per minute. It includes one.
  • the motion time parameter 217 includes at least one of a single stance time, a double stance time, and a minute's reward when the user walks.
  • the 3D model generator 230 generates a 3D model of the user based on the model parameter 211 and the attitude parameter 213.
  • the motion trajectory generation unit 250 generates a motion trajectory of the user based on the motion space parameter 215 and the motion time parameter 217. The detailed operation of the motion trajectory generation unit 250 will be described later in detail with reference to FIGS. 5 to 9.
  • the 3D simulation generator 270 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
  • FIG. 3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
  • the 3D model is generated by reflecting the height of the user among the model parameters 211.
  • FIG. 4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
  • the 3D model is generated by reflecting the interpolation and the interpolation angle of the user among the posture parameters 213.
  • FIG 5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
  • the movement movement is repeatedly performed in four stages including the left foot support section, the left foot float section, the right foot support section and the right foot float section.
  • FIG. 6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
  • the movement movement is repeatedly performed in four stages including a left foot support section, a biped support section, a right foot support section, and a foot support section.
  • FIG. 7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
  • the motion trajectory generation unit 700 includes the motion motion data 720 and the basic motion data 730.
  • the motion motion data 720 is pre-stored data by modeling a predetermined motion motion
  • the basic motion data 730 is data previously stored as motion data independent of the motion space parameter 715 and the motion time parameter 717.
  • the basic motion data 730 may be data about a tumbling motion such as an arm motion or an upper body distortion that has little change in movement.
  • the movement motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section.
  • the motion motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
  • Each step includes three-axis motion trajectory values of the vertical axis (z axis), the left and right axis (y axis), and the front and rear axis (x axis) for each joint.
  • the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
  • the motion trajectory generation unit 700 further includes a motion space parameter adjusting unit 750 and a motion time parameter adjusting unit 770.
  • the motion time parameter adjusting unit 770 generates a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 to the first adjustment value.
  • the motion time parameter adjusting unit 770 generates the first adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 in the motion motion data 720.
  • the motion space parameter adjusting unit 750 generates a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the first adjustment value.
  • the motion trajectory generation unit 700 further includes a motion trajectory merger 790.
  • the motion trajectory merging unit 790 merges the basic motion data and the second adjustment value to generate a motion trajectory of the user.
  • FIG. 8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
  • the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion.
  • the motion space parameter adjusting unit 750 generates a first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the 3-axis motion trajectory value of the waist.
  • the first adjustment value of the z-axis among the 3-axis motion trajectory values of the waist is reduced in amplitude compared to the general waist 3-axis motion trajectory value stored in the motion motion data 720.
  • FIG. 9 is an exemplary view of adjusting and adjusting motion time parameters in exercise motion data according to another exemplary embodiment of the present invention.
  • the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion.
  • the motion time parameter adjustment unit adjusts the gain value based on the motion time parameter to reflect the 3-axis motion trajectory value of the waist, thereby generating a first adjustment value.
  • the first adjustment value of the z-axis among the three-axis motion trajectory values of the waist is reduced in the right foot support time compared to the general waist three-axis motion trajectory values stored in the motion motion data.
  • FIG. 10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
  • the 3D simulation apparatus 200 receives a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input.
  • the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
  • the 3D simulation apparatus 200 generates a 3D model of the user based on the model parameter and the pose parameter.
  • the 3D simulation apparatus 200 generates a motion trajectory of the user based on the motion space parameter and the motion time parameter.
  • the generating of the motion trajectory of the user uses motion motion data modeling a predetermined motion motion and basic motion data independent of the motion space parameter and the motion time parameter.
  • the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section.
  • the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
  • the four-step data includes the motion trajectory values of the up, down, left and right axes, and front and rear axes for each joint.
  • the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
  • the generating of the motion trajectory of the user may be performed by reflecting and adjusting the gain value based on the motion space parameter in the motion motion data, thereby generating a first adjustment value and adjusting the gain value based on the motion time parameter.
  • the second adjustment value is generated by adjusting to reflect the value.
  • the generating of the motion trajectory of the user may include adjusting the gain value based on the motion time parameter to reflect the motion motion data, thereby generating a first adjustment value and generating the motion space parameter.
  • the second adjustment value is generated by adjusting the gain value based on the reflection on the first adjustment value.
  • the generating of the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
  • the 3D simulation apparatus 200 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
  • an apparatus may include a bus coupled to units of each of the apparatus as shown, at least one processor coupled to the bus, and a command, received And a memory coupled to the bus for storing messages or generated messages, and coupled to at least one processor for performing instructions as described above.
  • the system according to the present invention can be embodied as computer readable codes on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
  • the computer-readable recording medium may include a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM, DVD, etc.).
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like.
  • the user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.

Abstract

Disclosed are a 3D simulation apparatus and a method for same, the 3D simulation apparatus comprising: an parameter input unit for receiving input of model parameters, posture parameters, motion space parameters, and motion time parameters, based on external input; a 3D model-generating unit for generating a 3D model of a user based on the model parameters and the posture parameters; a motion track-generating unit for generating a motion track of the user based on the motion space parameters and the motion time parameters; and a 3D simulation generating-unit for generating a 3D simulation of the user by applying the motion track to the 3D model.

Description

3D 시뮬레이션 방법 및 장치3D simulation method and device
본 발명은 3D 시뮬레이션 방법 및 장치에 관한 것으로서, 보다 상세하게는 사용자의 보행 및 주행 운동을 3차원으로 시뮬레이션하는 방법 및 장치에 관한 것이다.The present invention relates to a 3D simulation method and apparatus, and more particularly, to a method and apparatus for simulating a walking and driving motion of a user in three dimensions.
일반적으로 현대인의 일상생활에서의 운동량은 적절한 신체 건강을 유지하기에 상당히 부족하다는 점이 꾸준히 지적되어 왔다. 이에 따라 효과적으로 건강을 촉진하는 체계적인 운동 방법에 대한 관심도가 높아지고 있다. 구체적으로, 체계적이고 효율적으로 신속하게 신체를 단련할 수 있도록 하는 운동, 장기적인 관점에서의 건강 촉진을 위한 자세의 교정 등과 같은 운동 및 인간 수명이 길어짐에 따라 신체 능력이 저하된 노인에게 적합한 운동 등 다양한 운동에 대한 관심이 높아지는 실정이다. 이와 같은 다양한 요구에 부합하는 운동 방법 중 하나로서, 누구나 쉽게 할 수 있는 보행 및 주행 운동이 있다.In general, it has been pointed out that the amount of exercise in daily life of modern people is quite insufficient to maintain proper physical health. Accordingly, there is a growing interest in systematic exercise methods that effectively promote health. Specifically, exercises such as exercises to quickly and systematically train the body, correction of postures to promote health in the long term, and exercises suitable for elderly people whose physical ability has deteriorated with a long lifespan Interest in sports is increasing. As one of the exercise methods that meet such various needs, there is a walking and driving exercise that can be easily performed by anyone.
신체적인 문제가 없는 사람이라면 누구나 보행 및 주행할 수 있기 때문에 대부분의 사람들은 무의식적으로 익숙해진 자세로 보행 및 주행을 하게 된다. 그런데 사람의 신체란 완벽하게 대칭적이지 않기 때문에, 대부분의 경우 불균형하고 올바르지 못한 자세로 보행 및 주행이 이루어진다. 이와 같은 잘못된 자세의 지속적인 보행 및 주행은 근육과 골격을 비뚤어지게 하고, 나아가 다양한 전신통증을 유발하는 원인이 되기도 한다. 일반인의 경우 이와 같은 잘못된 보행 및 주행 자세는 신체 건강을 저하시키는 문제를 발생시키며, 특히 자라나는 어린이나 신체 능력이 저하된 노인의 경우 체형 왜곡이나 건강 저하 문제가 더욱 심하게 나타난다. 한편 운동선수 및 무용수 등과 같이 일반인보다 더욱 향상된 신체 능력을 필요로 하는 전문인들에게는 신체 능력 향상에의 한계를 발생시키는 등의 문제가 있다.Anyone who has no physical problems can walk and drive, and most people walk and drive in unconsciously accustomed posture. However, since the human body is not perfectly symmetrical, in most cases, walking and driving are performed in an unbalanced and incorrect posture. Continued walking and driving in the wrong posture may skew muscles and skeletons, and may also cause various systemic pains. In general, such a poor walking and driving posture causes a problem of deteriorating physical health, especially in the case of a growing child or an elderly person whose physical ability is deteriorated, body distortion and deterioration of health are more severe. On the other hand, professionals such as athletes and dancers need more physical skills than the general public, there is a problem such as generating a limit to improve the physical ability.
이처럼 올바른 보행 및 주행 자세는 일반인부터 전문인에 이르기까지 중요하며, 따라서 보행 및 주행 자세를 어떻게 인식하며, 어떻게 교정을 효과적으로 수행할 것인지에 대한 다양한 연구가 이루어지고 있다. 이처럼 보행 및 주행 자세를 교정하기 위하여 보행 및 주행을 인식, 감지 및 분석하는 기술에 대한 요구가 점점 커지고 있다.As such, correct walking and driving posture is important from the general public to professionals. Therefore, various studies have been conducted on how to recognize the walking and driving posture and how to perform the correction effectively. As such, there is an increasing demand for a technology for recognizing, detecting, and analyzing walking and driving in order to correct walking and driving posture.
본 발명은 상술한 기술적 문제에 대응하기 위하여 안출된 것으로, 본 발명의 목적은 종래 기술에서의 한계와 단점에 의해 발생하는 다양한 문제점을 실질적으로 보완할 수 있는 것으로, 사용자의 보행 및 주행 운동을 3차원으로 시뮬레이션하는 방법 및 그 장치를 제공하는데 있고, 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.The present invention has been made in view of the above-described technical problem, the object of the present invention is to substantially compensate for the various problems caused by the limitations and disadvantages in the prior art, the walking and driving movement of the user 3 The present invention provides a method and apparatus for simulating dimensions, and a computer readable recording medium having recorded thereon a program for executing the method.
본 발명의 일 실시예에 따르면 3D 시뮬레이션 방법은 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 단계; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 단계; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 단계; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 단계를 포함한다.According to an embodiment of the present invention, the 3D simulation method comprises: receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input; Generating a 3D model of a user based on the model parameter and the pose parameter; Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And generating the 3D simulation of the user by applying the motion trajectory to the 3D model.
본 발명의 일 실시예에 따르면 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된다.According to an embodiment of the present invention, the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
본 발명의 일 실시예에 따르면 상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고; 상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고; 상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고; 상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터이다.According to an embodiment of the present invention, the model parameter is a parameter related to the appearance of the user; The posture parameter is a parameter relating to the posture of the user; The motion space parameter is a parameter relating to a spatial trajectory of the user's motion; The motion time parameter is a parameter related to a time trajectory of the motion of the user.
본 발명의 일 실시예에 따르면 상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the model parameter includes at least one of height, weight, foot length, leg length, age, gender, and wearing information.
본 발명의 일 실시예에 따르면 상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
본 발명의 일 실시예에 따르면 상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion space parameter may include a vertical section of the support section, a vertical section of the support section, a vertical section of the vertical section, the maximum vertical force load ratio, the average vertical force load ratio, the impact amount, the left and right uniformity, the left and right balance, the stride, the landing feet, , Left and right pelvis angle and at least one of the left and right eye angle.
본 발명의 일 실시예에 따르면 상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion time parameter includes at least one of one foot support time, one foot suspension time, and one minute repair.
본 발명의 일 실시예에 따르면 상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion space parameter may include at least one of up and down oscillation width, up and down oscillation width, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right eye angle. Include.
본 발명의 일 실시예에 따르면 상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion time parameter includes at least one of one foot support time, two feet support time, and one minute repair.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 소정의 운동 동작을 모델링한 운동 모션 데이터; 및 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용한다.According to an embodiment of the present invention, the generating of the motion trajectory of the user may include: motion motion data modeling a predetermined motion motion; And basic motion data independent of the motion space parameter and the motion time parameter.
본 발명의 일 실시예에 따르면 상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다.According to an embodiment of the present invention, when the predetermined exercise motion is driving, the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. .
본 발명의 일 실시예에 따르면 상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다.According to an embodiment of the present invention, when the predetermined exercise motion is walking, the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
본 발명의 일 실시예에 따르면 상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함한다.According to an embodiment of the present invention, the four-step data includes motion trajectory values of the up, down, left, and right axes of the joints.
본 발명의 일 실시예에 따르면 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절이다.According to one embodiment of the invention said joint is at least one of the neck, shoulder, waist, knee, arm, elbow, ankle and toe.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및 상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함한다.According to an embodiment of the present invention, the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion space parameter to reflect the motion motion data; And generating a second adjustment value by adjusting a gain value based on the motion time parameter to reflect the first adjustment value.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및 상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함한다.According to an embodiment of the present invention, the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion time parameter by reflecting the motion motion data; And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함한다.According to an embodiment of the present invention, generating the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
또한, 본 발명의 일 실시예에 따르면 상기 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 포함한다.In addition, according to an embodiment of the present invention includes a computer-readable recording medium on which a program for performing the method is recorded.
또한, 본 발명의 일 실시예에 따르면 3D 시뮬레이션 장치는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함한다.According to an embodiment of the present invention, the 3D simulation apparatus includes a parameter input unit for receiving a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input; A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter; A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And a 3D simulation generator configured to generate the 3D simulation of the user by applying the motion trajectory to the 3D model.
본 발명에 따르면, 운동 인식 장치 또는 사용자로부터 입력된 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터에 기초하여, 3D 모델 및 모션 궤적을 생성하여 운동 자세 등에 관한 3D 시뮬레이션을 제공함으로써, 운동 중인 사용자가 효과적이고 정확하게 운동 상태를 인식, 감지 및 분석할 수 있다. 따라서 본 발명에 따른 3D 시뮬레이션을 통하여 사용자는 자신의 보행 및 주행 등의 운동 상태를 효과적이고 정확하게 인식할 수 있으며, 3D 시뮬레이션 분석을 통해 자신의 운동 자세를 교정하는 데 활용할 수 있다.According to the present invention, a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like. The user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
도 1은 본 발명의 일 실시예에 따른 3D 시뮬레이션 결과를 도시한다.1 illustrates a 3D simulation result according to an embodiment of the present invention.
도 2은 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치의 블록도이다.2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 모델 파라미터를 반영한 사용자의 3D 모델을 도시한다.3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
도 4은 본 발명의 일 실시예에 따른 자세 파라미터를 반영한 사용자의 3D 모델을 도시한다.4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 운동 동작이 주행인 경우, 4단계 운동 모션을 도시한다.5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
도 6은 본 발명의 일 실시예에 따른 운동 동작이 보행인 경우, 4단계 운동 모션을 도시한다.6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 모션 궤적 생성부의 블록도이다.7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 공간 파라미터 를 반영하여 조정한 예시도이다.8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 시간 파라미터 를 반영하여 조정한 예시도이다.9 is an exemplary view of adjusting and reflecting a motion time parameter in exercise motion data according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 3D 시뮬레이션 방법의 흐름도이다.10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다. 도면에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면 상에서 각 구성 요소의 크기는 설명의 명료성을 위하여 과장되어 있을 수 있다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements, and the size of each element in the drawings may be exaggerated for clarity.
도 1은 본 발명의 일 실시예에 따른 3D 시뮬레이션 결과를 도시한다.1 illustrates a 3D simulation result according to an embodiment of the present invention.
본 실시예에 따르면, 3D 시뮬레이션 장치(200)는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받고, 이에 기초하여 운동 중인 사용자의 3D 모델 및 모션 궤적을 생성함으로써 3D 시뮬레이션을 생성한다. 도시된 예에서, 사용자의 키, 발길이 및 다리 길이 등의 모델 파라미터, 보간 및 보각 등의 자세 파라미터, 보폭, 좌우 균일도 및 좌우 균형도 등의 모션 공간 파라미터, 공중 부유시간 등의 모션 시간 파라미터에 기초하여, 3D 시뮬레이션 장치(200)는 사용자의 보행 및 주행 운동을 3D 시뮬레이션하였다.According to the present embodiment, the 3D simulation apparatus 200 receives a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input, and generates a 3D model and a motion trajectory of a user who is exercising based on the input. This creates a 3D simulation. In the illustrated example, the model parameters such as the user's height, foot length and leg length, posture parameters such as interpolation and interpolation angle, motion space parameters such as stride length, left and right uniformity and left and right balance, and motion time parameters such as air suspension time Based on this, the 3D simulation apparatus 200 3D simulated walking and driving motions of the user.
도 2은 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치의 블록도이다.2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
3D 시뮬레이션 장치(200)는 파라미터 입력부(210), 3D 모델 생성부(230), 모션 궤적 생성부(250) 및 3D 시뮬레이션 생성부(270)를 포함한다.The 3D simulation apparatus 200 includes a parameter input unit 210, a 3D model generator 230, a motion trajectory generator 250, and a 3D simulation generator 270.
파라미터 입력부(210)는 외부 입력에 기초하여, 모델 파라미터(211), 자세 파라미터(213), 모션 공간 파라미터(215) 및 모션 시간 파라미터(217)를 입력받는다. 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 사용자의 운동을 인식하여 입력된다. 운동 인식 장치와 관련된 상세한 내용은 기 출원된 한국 특허인 '보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치' (출원번호: 제10-2016-0101489호, 출원일: 2016.08.09), '압력 중심 경로 기반 운동 자세 도출 방법 및 장치' (출원번호: 제10-2016-0101491호, 출원일: 2016.08.09), '보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치' (출원번호: 제10-2017-0030394호, 출원일: 2017.03.10), '압력 중심 경로 기반 운동 자세 도출 방법 및 장치' (출원번호: 제10-2017-0030402호, 출원일: 2017.03.10) 및 '주행 시 부상 위험성 정량화 방법 및 장치' (출원번호: 제10-2017-0079255호, 출원일: 2017.06.22)에 기술되어 있으며, 상기 출원 특허는 본 명세서 내에 참조용으로 포함된다.The parameter input unit 210 receives the model parameter 211, the posture parameter 213, the motion space parameter 215, and the motion time parameter 217 based on the external input. The external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device. For more information on the exercise recognition device, refer to Korean patent, 'A motion recognition method and device for pedestrian and driving monitoring' (application number: 10-2016-0101489, application date: 2016.08.09), 'pressure center path Method and Apparatus for Deriving Based Exercise Posture '(Application No .: 10-2016-0101491, Filed Date: 2016.08.09),' Method and Apparatus for Recognizing Exercise for Walking and Driving Monitoring '(Application No .: 10-2017-0030394 No. 10, 2017.03.10), 'Method and Apparatus for Deriving Pressure-Based Path-Based Exercise Posture' (Application No .: 10-2017-0030402, Filing Date: 2017.03.10) and 'Method and Apparatus for Quantifying Risk of Injury in Driving' (Application No. 10-2017-0079255, Application Date: June 22, 2017), which application patent is incorporated herein by reference.
모델 파라미터(211)는 사용자의 외형에 관한 파라미터로서, 신장(Height), 몸무게(Weight), 발 길이(Foot length), 다리 길이(Leg length), 나이(Age), 성별(Gender) 및 착용 정보 중 적어도 하나를 포함한다. 착용 정보는 사용자가 착용한 제품의 유형, 이름 및 브랜드 등을 포함한다. 사용자가 착용한 제품은 시계 등의 악세사리, 옷, 신발 등을 포함한다.The model parameter 211 is a parameter related to the user's appearance, and includes height, weight, foot length, leg length, age, gender, and wearing information. At least one of the. The wear information includes the type, name and brand of the product worn by the user. Products worn by the user include accessories such as watches, clothes, shoes, and the like.
자세 파라미터(213)는 사용자의 자세에 관한 파라미터로서, 보간(Step width), 보각(Step angle) 및 상하 시선각(Head vertical angle) 중 적어도 하나를 포함한다. 보간은 다리 사이 간격 평균값이며, 보각은 다리 각도 평균값이다. 상하 시선각은 머리의 상하 각도 평균값을 의미한다.The posture parameter 213 is a parameter related to a posture of a user and includes at least one of interpolation (Step width), interpolation (Step angle), and head vertical angle. Interpolation is the average value between the legs, and interpolation is the leg angle average value. Up-and-down eye angle means an average value of the vertical angle of the head.
모션 공간 파라미터(215)는 사용자의 모션의 공간 궤적(Trajectory)에 관한 파라미터로서, 사용자가 주행 운동하는 경우, 지지구간 상하진동폭(Vertical oscillation during stance), 부유구간 상하진동폭(Vertical oscillation during flight), 최대 수직힘부하율(IVLR: Instantaneous Vertical Loading Rate), 평균 수직힘부하율(AVLR: Average Vertical Loading Rate), 충격량(Impact), 좌우균일도(Stability), 좌우균형도(Balance), 보폭(Step length), 착지발(Foot strike pattern), 상하골반각(Pelvic vertical rotation), 좌우골반각(Pelvic lateral rotation) 및 좌우시선각(Head lateral angle) 중 적어도 하나를 포함한다. 모션 공간 파라미터(215)는 사용자가 보행 운동하는 경우, 한발구간 상하진동폭(Vertical oscillation during single stance), 양발구간 상하진동폭(Vertical oscillation during double stance), 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.The motion space parameter 215 is a parameter related to the trajectory of the user's motion. When the user moves, the motion space parameter 215 includes vertical oscillation during stance, vertical oscillation during flight, Instantaneous Vertical Loading Rate (IVLR), Average Vertical Loading Rate (AVLR), Impact, Impact, Stability, Balance, Step Length, At least one of a foot strike pattern, a pelvic vertical rotation, a pelvic lateral rotation, and a head lateral angle. The motion space parameter 215 may include vertical oscillation during single stance, vertical oscillation during double stance, left and right uniformity, left and right balance, stride length, landing foot, and the like when the user walks. At least one of the upper and lower pelvis angle, left and right pelvis angle and left and right eye angle.
지지구간 상하진동폭은 지지구간에서 상하 이동 거리(meter)를 의미하며, 부유구간 상하진동폭은 부유구간에서 상하 이동 거리를 의미한다. 최대 수직힘부하율은 순간 수직 힘 부하율(Newton/second)로서, 지면 반력의 지지구간 최대 기울기를 의미한다. 평균 수직힘부하율(Newton/second)은 지면 반력의 지지구간 평균 기울기를 의미한다. 충격량은 지면 반력의 지지구간 충격력(Newton)을 의미한다.The vertical vibration width of the support section means the vertical movement distance (meter) in the support section, and the vertical vibration width of the floating section means the vertical movement distance in the floating section. The maximum vertical force load rate is the instantaneous vertical force load rate (Newton / second), which means the maximum slope of the support section of the ground reaction force. Mean vertical force load ratio (Newton / second) means the average slope of the support section of ground reaction force. Impact amount refers to the impact force (Newton) of the support section of the ground reaction force.
좌우균일도(Stability)는 시간, 힘 등에 있어서, 왼발 및 오른발 각각의 다리에 일관성있게 운동상태가 유지되는지를 의미하며, 각각의 다리의 변동 계수(CV: Coefficient)를 이용하여 %로 나타내며, 아래 식을 통해 구한다.Stability refers to whether the state of movement is consistently maintained for each leg of the left and right foot in time, strength, etc., and expressed in% using the coefficient of variation (CV) of each leg. Obtain through
Stability(Left) = 1 - std(Left indices) / mean(Left indices)Stability (Left) = 1-std (Left indices) / mean (Left indices)
Stability(Right) = 1 - std(Right indices) / mean(Right indices)Stability (Right) = 1-std (Right indices) / mean (Right indices)
평가지표인 index로 쓰일 수 있는 값은 수직힘 최대값, 수직 가속도 최대값, 지지구간 충격량, 지지시간, 부유시간, 평균 수직힘부하율 및 최대수직힘 부하율을 포함한다.Values that can be used as index for evaluation index include maximum vertical force, vertical acceleration maximum, support section impact, support time, stray time, average vertical force load rate and maximum vertical force load rate.
좌우균형도(Balance)는 좌우 불균형도(%)를 나타내며, 아래 식을 통해 구한다. Balance of left and right (Balance) represents the left and right unbalance (%), and is obtained by the following equation.
Balance = Left index / (Left index + Right index) * 100%Balance = Left index / (Left index + Right index) * 100%
보폭(Step length)은 지지구간 및 부유구간 동안 전진하여 이동한 거리를 의미하며, 착지발(Foot strike pattern)은 어떤 발로 착지하는지를 나타낸다. 예를 들어, 착지발은 발 앞꿈치(Fore foot), 발 뒤꿈치(Rear foot) 및 발 중간(Mid foot) 중 하나일 수 있다. 상하골반각(Pelvic vertical rotation) 및 좌우골반각(Pelvic lateral rotation)은 각각 골반의 상하 뒤틀림 및 좌우 뒤틀림 정도를 의미한다. 좌우시선각(Head lateral angle)은 머리의 좌우 각도 평균값이다.Step length refers to the distance traveled forward during the support section and the floating section, and the foot strike pattern indicates which foot to land on. For example, the landing foot may be one of a fore foot, a rear foot, and a mid foot. The pelvic vertical rotation and the pelvic lateral rotation mean the degree of vertical and horizontal distortion of the pelvis, respectively. Head lateral angle is an average value of the left and right angles of the head.
모션 시간 파라미터(217)는 사용자의 모션의 시간 궤적에 관한 파라미터로서, 사용자가 주행 운동하는 경우, 한발 지지시간(Single stance time), 한발 부유시간(Single flight time) 및 분당 보수(Cadence) 중 적어도 하나를 포함한다. 모션 시간 파라미터(217)는 사용자가 보행 운동하는 경우, 한발 지지시간(Single stance time), 양발 지지시간(Double stance time) 및 분당 보수 중 적어도 하나를 포함한다.The motion time parameter 217 is a parameter related to the time trajectory of the user's motion. When the user moves, the motion time parameter 217 includes at least one of a single stance time, a single flight time, and a cadence per minute. It includes one. The motion time parameter 217 includes at least one of a single stance time, a double stance time, and a minute's reward when the user walks.
3D 모델 생성부(230)는 모델 파라미터(211) 및 자세 파라미터(213)에 기초하여 사용자의 3D 모델을 생성한다.The 3D model generator 230 generates a 3D model of the user based on the model parameter 211 and the attitude parameter 213.
모션 궤적 생성부(250)는 모션 공간 파라미터(215) 및 모션 시간 파라미터(217)에 기초하여, 사용자의 모션 궤적을 생성한다. 모션 궤적 생성부(250)의 상세한 동작은 도 5 내지 도 9를 통해 이하에서 상세히 후술한다.The motion trajectory generation unit 250 generates a motion trajectory of the user based on the motion space parameter 215 and the motion time parameter 217. The detailed operation of the motion trajectory generation unit 250 will be described later in detail with reference to FIGS. 5 to 9.
3D 시뮬레이션 생성부(270)는 상기 3D 모델에 상기 모션 궤적을 적용하여 사용자의 3D 시뮬레이션을 생성한다.The 3D simulation generator 270 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
도 3은 본 발명의 일 실시예에 따른 모델 파라미터를 반영한 사용자의 3D 모델을 도시한다.3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
도시된 예에서, 모델 파라미터(211) 중 사용자의 신장을 반영하여 3D 모델을 생성하였다.In the illustrated example, the 3D model is generated by reflecting the height of the user among the model parameters 211.
도 4은 본 발명의 일 실시예에 따른 자세 파라미터를 반영한 사용자의 3D 모델을 도시한다.4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
도시된 예에서, 자세 파라미터(213) 중 사용자의 보간 및 보각을 반영하여 3D 모델을 생성하였다.In the illustrated example, the 3D model is generated by reflecting the interpolation and the interpolation angle of the user among the posture parameters 213.
도 5는 본 발명의 일 실시예에 따른 운동 동작이 주행인 경우, 4단계 운동 모션을 도시한다.5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
주행 운동인 경우, 운동 동작은 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계가 반복적으로 이루어진다.In the case of the driving movement, the movement movement is repeatedly performed in four stages including the left foot support section, the left foot float section, the right foot support section and the right foot float section.
도 6은 본 발명의 일 실시예에 따른 운동 동작이 보행인 경우, 4단계 운동 모션을 도시한다.6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
보행 운동인 경우, 운동 동작은 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계가 반복적으로 이루어진다.In the case of a walking movement, the movement movement is repeatedly performed in four stages including a left foot support section, a biped support section, a right foot support section, and a foot support section.
도 7은 본 발명의 일 실시예에 따른 모션 궤적 생성부의 블록도이다.7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
모션 궤적 생성부(700)는 운동 모션 데이터(720) 및 기본 모션 데이터(730)를 포함한다. 운동 모션 데이터(720)는 소정의 운동 동작을 모델링하여 기 저장된 데이터이며, 기본 모션 데이터(730)는 모션 공간 파라미터(715) 및 모션 시간 파라미터(717)에 독립적인 모션 데이터로서 기 저장된 데이터이다. 예를 들어, 기본 모션 데이터(730)는 움직임에 변동이 적은 팔 모션이나 상체 뒤틀림 등의 허우적거리는 모션에 대한 데이터일 수 있다.The motion trajectory generation unit 700 includes the motion motion data 720 and the basic motion data 730. The motion motion data 720 is pre-stored data by modeling a predetermined motion motion, and the basic motion data 730 is data previously stored as motion data independent of the motion space parameter 715 and the motion time parameter 717. For example, the basic motion data 730 may be data about a tumbling motion such as an arm motion or an upper body distortion that has little change in movement.
소정의 운동 동작이 주행인 경우, 운동 모션 데이터(720) 및 기본 모션 데이터(730)는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다. 소정의 운동 동작이 보행인 경우, 운동 모션 데이터(720) 및 기본 모션 데이터(730)는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다. 주행 또는 보행 운동에서 상기 4단계는 반복하여 재생된다. 각각의 단계는 각각의 관절에 대한 상하축(z축), 좌우축(y축) 및 전후축(x축)의 3축 모션 궤적 값을 포함한다. 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나이다.When the predetermined movement motion is driving, the movement motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. When the predetermined motion is walking, the motion motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section. In the running or walking movement, the above four steps are repeatedly reproduced. Each step includes three-axis motion trajectory values of the vertical axis (z axis), the left and right axis (y axis), and the front and rear axis (x axis) for each joint. The joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
모션 궤적 생성부(700)는 모션 공간 파라미터 조정부(750) 및 모션 시간 파라미터 조정부(770)를 더 포함한다.The motion trajectory generation unit 700 further includes a motion space parameter adjusting unit 750 and a motion time parameter adjusting unit 770.
모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 운동 모션 데이터(720)에 반영하여 조정함으로써, 제1 조정값을 생성한다. 예를 들어, 모션 공간 파라미터인 '부유구간 상하진동폭'의 값이 C이고, 해당 값의 최대 가능 값이 Cmax, 최소 가능 값이 Cmin 할 때, '부유구간 상하진동폭' 값에 의한 게인값은 (C - Cmin)/( Cmax - Cmin)으로 설정할 수 있다. 따라서 게인값은 0<=게인값<=1의 범위를 갖는다. 이상에서 게인값 설정을 예시하였지만, 다른 방법으로 게인값을 설정할 수 있음은 당업자에게 자명하다. 모션 시간 파라미터 조정부(770)는 모션 시간 파라미터(717)에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.The motion space parameter adjusting unit 750 generates the first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 in the motion motion data 720. For example, when the value of 'floating section up / down vibration', which is a motion space parameter, is C, and the maximum possible value of the corresponding value is C max and the minimum possible value is C min , the gain value by 'floating section up / down vibration width' value Is (C-C min ) / (C max -C min ) can be set. Therefore, the gain value has a range of 0 <= gain value <= 1. Although the gain value setting has been exemplified above, it is apparent to those skilled in the art that the gain value can be set by other methods. The motion time parameter adjusting unit 770 generates a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 to the first adjustment value.
한편, 본 발명의 다른 실시예에 따르면, 모션 시간 파라미터 조정부(770)는 모션 시간 파라미터(717)에 기초한 게인값을 운동 모션 데이터(720)에 반영하여 조정함으로써, 제1 조정값을 생성한다. 모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.Meanwhile, according to another exemplary embodiment of the present invention, the motion time parameter adjusting unit 770 generates the first adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 in the motion motion data 720. The motion space parameter adjusting unit 750 generates a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the first adjustment value.
모션 궤적 생성부(700)는 모션 궤적 병합부(790)를 더 포함한다. 모션 궤적 병합부(790)는 기본 모션 데이터 및 상기 제2 조정값을 병합함으로써, 사용자의 모션 궤적을 생성한다.The motion trajectory generation unit 700 further includes a motion trajectory merger 790. The motion trajectory merging unit 790 merges the basic motion data and the second adjustment value to generate a motion trajectory of the user.
도 8은 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 공간 파라미터 를 반영하여 조정한 예시도이다.8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
도시된 예에서, 주행 운동의 경우 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값은 파란 실선으로 도시되어 있다. 모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 허리의 3축 모션 궤적 값에 반영하여 조정함으로써, 제1 조정값을 생성한다. 도시된 예에서 허리의 3축 모션 궤적 값 중 z축의 제1 조정값은 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값 대비 진폭이 줄어들었음을 알 수 있다. In the example shown, the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion. The motion space parameter adjusting unit 750 generates a first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the 3-axis motion trajectory value of the waist. In the illustrated example, it can be seen that the first adjustment value of the z-axis among the 3-axis motion trajectory values of the waist is reduced in amplitude compared to the general waist 3-axis motion trajectory value stored in the motion motion data 720.
도 9는 본 발명의 다른 실시예에 따른 운동 모션 데이터에 모션 시간 파라미터를 반영하여 조정한 예시도이다.FIG. 9 is an exemplary view of adjusting and adjusting motion time parameters in exercise motion data according to another exemplary embodiment of the present invention.
도시된 예에서, 주행 운동의 경우 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값은 파란 실선으로 도시되어 있다. 모션 시간 파라미터 조정부는 모션 시간 파라미터에 기초한 게인값을 허리의 3축 모션 궤적 값에 반영하여 조정함으로써, 제1 조정값을 생성한다. 도시된 예에서 허리의 3축 모션 궤적 값 중 z축의 제1 조정값은 운동 모션 데이터에 저장된 일반적인 허리 3축 모션 궤적 값 대비 오른발 지지시간이 줄어들었음을 알 수 있다. In the example shown, the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion. The motion time parameter adjustment unit adjusts the gain value based on the motion time parameter to reflect the 3-axis motion trajectory value of the waist, thereby generating a first adjustment value. In the illustrated example, it can be seen that the first adjustment value of the z-axis among the three-axis motion trajectory values of the waist is reduced in the right foot support time compared to the general waist three-axis motion trajectory values stored in the motion motion data.
도 10은 본 발명의 일 실시예에 따른 3D 시뮬레이션 방법의 흐름도이다.10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
단계 1010에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는다. 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된다.In operation 1010, the 3D simulation apparatus 200 according to an embodiment of the present invention receives a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input. The external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
단계 1020에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200)는 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성한다.In operation 1020, the 3D simulation apparatus 200 generates a 3D model of the user based on the model parameter and the pose parameter.
단계 1030에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성한다. 상기 사용자의 모션 궤적을 생성하는 단계는 소정의 운동 동작을 모델링한 운동 모션 데이터 및 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용한다.In operation 1030, the 3D simulation apparatus 200 according to an embodiment of the present invention generates a motion trajectory of the user based on the motion space parameter and the motion time parameter. The generating of the motion trajectory of the user uses motion motion data modeling a predetermined motion motion and basic motion data independent of the motion space parameter and the motion time parameter.
상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다. 상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다. 상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함한다. 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절이다.When the predetermined exercise motion is driving, the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. When the predetermined exercise motion is walking, the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section. The four-step data includes the motion trajectory values of the up, down, left and right axes, and front and rear axes for each joint. The joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하고, 상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.The generating of the motion trajectory of the user may be performed by reflecting and adjusting the gain value based on the motion space parameter in the motion motion data, thereby generating a first adjustment value and adjusting the gain value based on the motion time parameter. The second adjustment value is generated by adjusting to reflect the value.
본 발명의 다른 실시예에 따르면, 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하고, 상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.According to another exemplary embodiment of the present disclosure, the generating of the motion trajectory of the user may include adjusting the gain value based on the motion time parameter to reflect the motion motion data, thereby generating a first adjustment value and generating the motion space parameter. The second adjustment value is generated by adjusting the gain value based on the reflection on the first adjustment value.
본 발명의 일 실시예에 따른 상기 사용자의 모션 궤적을 생성하는 단계는 상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함한다.The generating of the motion trajectory of the user according to an embodiment of the present invention further includes merging the basic motion data and the second adjustment value.
단계 1040에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성한다.In operation 1040, the 3D simulation apparatus 200 according to an embodiment of the present invention generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
이상에서 본 발명의 바람직한 실시예가 상세히 기술되었지만, 본 발명의 범위는 이에 한정되지 않고, 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서 정해져야 할 것이다.Although the preferred embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the appended claims.
예를 들어, 본 발명의 예시적인 실시예에 따른 장치는 도시된 바와 같은 장치 각각의 유닛들에 커플링된 버스, 상기 버스에 커플링된 적어도 하나의 프로세서를 포함할 수 있고, 명령, 수신된 메시지 또는 생성된 메시지를 저장하기 위해 상기 버스에 커플링되고, 전술한 바와 같은 명령들을 수행하기 위한 적어도 하나의 프로세서에 커플링된 메모리를 포함할 수 있다. For example, an apparatus according to an exemplary embodiment of the present invention may include a bus coupled to units of each of the apparatus as shown, at least one processor coupled to the bus, and a command, received And a memory coupled to the bus for storing messages or generated messages, and coupled to at least one processor for performing instructions as described above.
또한, 본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 상기 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the system according to the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. The computer-readable recording medium may include a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM, DVD, etc.). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
본 발명에 따르면, 운동 인식 장치 또는 사용자로부터 입력된 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터에 기초하여, 3D 모델 및 모션 궤적을 생성하여 운동 자세 등에 관한 3D 시뮬레이션을 제공함으로써, 운동 중인 사용자가 효과적이고 정확하게 운동 상태를 인식, 감지 및 분석할 수 있다. 따라서 본 발명에 따른 3D 시뮬레이션을 통하여 사용자는 자신의 보행 및 주행 등의 운동 상태를 효과적이고 정확하게 인식할 수 있으며, 3D 시뮬레이션 분석을 통해 자신의 운동 자세를 교정하는 데 활용할 수 있다.According to the present invention, a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like. The user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.

Claims (35)

  1. 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부;A parameter input unit configured to receive a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input;
    상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부;A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter;
    상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And
    상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a 3D simulation generator which generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
  2. 제 1항에 있어서,The method of claim 1,
    상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된 것을 특징으로 하는 3D 시뮬레이션 장치.The external input is an input from a user, or a 3D simulation apparatus, characterized in that the input by recognizing the movement of the user from the exercise recognition device.
  3. 제 1항에 있어서,The method of claim 1,
    상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고;The model parameter is a parameter relating to the appearance of the user;
    상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고;The posture parameter is a parameter relating to the posture of the user;
    상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고;The motion space parameter is a parameter relating to a spatial trajectory of the user's motion;
    상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터인 것을 특징으로 하는 3D 시뮬레이션 장치.The motion time parameter is a parameter relating to the time trajectory of the motion of the user.
  4. 제 1항에 있어서,The method of claim 1,
    상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The model parameter includes at least one of height, weight, foot length, leg length, age, gender and wearing information.
  5. 제 1항에 있어서,The method of claim 1,
    상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
  6. 제 1항에 있어서,The method of claim 1,
    상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion space parameters include the up and down vibration width of the support section, the up and down vibration width of the floating section, the maximum vertical force load ratio, average vertical force load ratio, impact amount, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right viewing angle. 3D simulation apparatus comprising at least one of.
  7. 제 1항에 있어서,The method of claim 1,
    상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion time parameter is a 3D simulation apparatus comprising at least one of a pair of support time, a stray floating time, and a minute per minute.
  8. 제 1항에 있어서,The method of claim 1,
    상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion space parameter is a 3D simulation, characterized in that it comprises at least one of the upper and lower oscillation amplitude of one foot section, the upper and lower oscillation width of both legs, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis, left and right pelvis Device.
  9. 제 1항에 있어서,The method of claim 1,
    상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion time parameter may include at least one of one foot support time, two feet support time, and one minute repair.
  10. 제 1항에 있어서,The method of claim 1,
    상기 모션 궤적 생성부는The motion trajectory generation unit
    소정의 운동 동작을 모델링한 운동 모션 데이터; 및Kinetic motion data modeling a predetermined kinetic motion; And
    상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And basic motion data independent of the motion space parameter and the motion time parameter.
  11. 제 10항에 있어서,The method of claim 10,
    상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 장치.And the motion motion data and the basic motion data are four-stage data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section when the predetermined motion movement is a driving.
  12. 제 10항에 있어서,The method of claim 10,
    상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 장치.And the motion motion data and the basic motion data are four-step data including a left foot support section, a two-foot support section, a right foot support section, and a two-foot support section when the predetermined movement motion is walking.
  13. 제 11항 또는 제12항에 있어서,The method of claim 11 or 12,
    상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The four-stage data includes a motion trajectory value of the vertical axis, the left and right axis, and the fore and aft axis of each joint.
  14. 제 13항에 있어서,The method of claim 13,
    상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절인 것을 특징으로 하는 3D 시뮬레이션 장치.And the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
  15. 제 10항에 있어서,The method of claim 10,
    상기 모션 궤적 생성부는The motion trajectory generation unit
    상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 모션 공간 파라미터 조정부; 및A motion space parameter adjustment unit generating a first adjustment value by reflecting and adjusting a gain value based on the motion space parameter in the kinetic motion data; And
    상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 모션 시간 파라미터 조정부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a motion time parameter adjusting unit configured to generate a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter to the first adjustment value.
  16. 제 10항에 있어서,The method of claim 10,
    상기 모션 궤적 생성부는The motion trajectory generation unit
    상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 모션 시간 파라미터 조정부; 및A motion time parameter adjusting unit generating a first adjustment value by reflecting and adjusting a gain value based on the motion time parameter in the motion motion data; And
    상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 모션 공간 파라미터 조정부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a motion space parameter adjusting unit configured to generate a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter in the first adjustment value.
  17. 제 15항 또는 제16항에 있어서,The method according to claim 15 or 16,
    상기 모션 궤적 생성부는The motion trajectory generation unit
    상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 모션 궤적 병합부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a motion trajectory merging unit for merging the basic motion data and the second adjustment value.
  18. 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 단계;Receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input;
    상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 단계;Generating a 3D model of a user based on the model parameter and the pose parameter;
    상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 단계; 및Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And
    상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 단계를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And generating a 3D simulation of the user by applying the motion trajectory to the 3D model.
  19. 제 18항에 있어서,The method of claim 18,
    상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된 것을 특징으로 하는 3D 시뮬레이션 방법.The external input is an input from a user, or 3D simulation method characterized in that the input by recognizing the movement of the user from the exercise recognition device.
  20. 제 18항에 있어서,The method of claim 18,
    상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고;The model parameter is a parameter relating to the appearance of the user;
    상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고;The posture parameter is a parameter relating to the posture of the user;
    상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고;The motion space parameter is a parameter relating to a spatial trajectory of the user's motion;
    상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터인 것을 특징으로 하는 3D 시뮬레이션 방법.The motion time parameter is a parameter relating to the time trajectory of the motion of the user.
  21. 제 18항에 있어서,The method of claim 18,
    상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The model parameter comprises at least one of height, weight, foot length, leg length, age, gender and wearing information.
  22. 제 18항에 있어서,The method of claim 18,
    상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The posture parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
  23. 제 18항에 있어서,The method of claim 18,
    상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion space parameters include the up and down vibration width of the support section, the up and down vibration width of the floating section, the maximum vertical force load ratio, average vertical force load ratio, impact amount, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right viewing angle. 3D simulation method comprising at least one of.
  24. 제 18항에 있어서,The method of claim 18,
    상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion time parameter includes at least one of a pair of supporting time, a pair of floating time, and a repair per minute.
  25. 제 18항에 있어서,The method of claim 18,
    상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion space parameter is a 3D simulation, characterized in that it comprises at least one of the upper and lower oscillation amplitude of one foot section, the upper and lower oscillation width of both legs, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis, left and right pelvis Way.
  26. 제 18항에 있어서,The method of claim 18,
    상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion time parameter includes at least one of one foot support time, two feet support time, and a minute's repair.
  27. 제 18항에 있어서,The method of claim 18,
    상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user
    소정의 운동 동작을 모델링한 운동 모션 데이터; 및Kinetic motion data modeling a predetermined kinetic motion; And
    상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용하는 것을 특징으로 하는 3D 시뮬레이션 방법.3D simulation method using basic motion data independent of the motion space parameter and the motion time parameter.
  28. 제 27항에 있어서,The method of claim 27,
    상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 방법.And the motion motion data and the basic motion data are four-stage data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section when the predetermined exercise motion is driving.
  29. 제 27항에 있어서,The method of claim 27,
    상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 방법.And the motion motion data and the basic motion data are four-step data including a left foot support section, a two-foot support section, a right foot support section, and a two-foot support section when the predetermined movement motion is walking.
  30. 제 28항 또는 제29항에 있어서,The method of claim 28 or 29,
    상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The four-stage data includes a motion trajectory value of the vertical axis, the left and right axis, and the fore and aft axis of each joint.
  31. 제 30항에 있어서,The method of claim 30,
    상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절인 것을 특징으로 하는 3D 시뮬레이션 방법.Wherein said joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
  32. 제 27항에 있어서,The method of claim 27,
    상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user
    상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및Generating a first adjustment value by reflecting and adjusting a gain value based on the motion space parameter in the kinetic motion data; And
    상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And generating a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter to the first adjustment value.
  33. 제 27항에 있어서,The method of claim 27,
    상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user
    상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및Generating a first adjustment value by reflecting and adjusting a gain value based on the motion time parameter in the kinetic motion data; And
    상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
  34. 제 32항 또는 제33항에 있어서,34. The method of claim 32 or 33,
    상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user
    상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And merging the basic motion data and the second adjustment value.
  35. 제 18항 내지 제 34항 중 어느 한 항에 의한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for performing the method according to any one of claims 18 to 34.
PCT/KR2017/008506 2016-08-09 2017-08-07 3d simulation method and apparatus WO2018030734A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780037461.8A CN109310913B (en) 2016-08-09 2017-08-07 Three-dimensional simulation method and device
US16/272,201 US11497966B2 (en) 2016-08-09 2019-02-11 Automatic coaching system and method for coaching user's exercise

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
KR1020160101489A KR101926170B1 (en) 2016-08-09 2016-08-09 Motion sensing method and apparatus for gait-monitoring
KR1020160101491A KR101830371B1 (en) 2016-08-09 2016-08-09 Motion posture deriving method and apparatus based path of COP
KR10-2016-0101489 2016-08-09
KR10-2016-0101491 2016-08-09
KR1020170030402A KR101995484B1 (en) 2017-03-10 2017-03-10 Motion posture deriving method and apparatus based path of COP
KR10-2017-0030394 2017-03-10
KR1020170030394A KR101995482B1 (en) 2017-03-10 2017-03-10 Motion sensing method and apparatus for gait-monitoring
KR10-2017-0030402 2017-03-10
KR1020170079255A KR101970674B1 (en) 2017-06-22 2017-06-22 Method and apparatus for quantifying risk of gait injury
KR10-2017-0079255 2017-06-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/008534 Continuation-In-Part WO2018030743A1 (en) 2016-08-09 2017-08-08 Method and apparatus for recognizing exercise

Publications (1)

Publication Number Publication Date
WO2018030734A1 true WO2018030734A1 (en) 2018-02-15

Family

ID=61162849

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2017/008506 WO2018030734A1 (en) 2016-08-09 2017-08-07 3d simulation method and apparatus
PCT/KR2017/008534 WO2018030743A1 (en) 2016-08-09 2017-08-08 Method and apparatus for recognizing exercise

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/008534 WO2018030743A1 (en) 2016-08-09 2017-08-08 Method and apparatus for recognizing exercise

Country Status (3)

Country Link
JP (1) JP6765505B2 (en)
CN (2) CN109310913B (en)
WO (2) WO2018030734A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109621331A (en) * 2018-12-13 2019-04-16 深圳壹账通智能科技有限公司 Fitness-assisting method, apparatus and storage medium, server
CN112130677A (en) * 2020-09-23 2020-12-25 深圳市爱都科技有限公司 Wearable terminal and hand-lifting identification method thereof
CN116491935A (en) * 2023-06-29 2023-07-28 深圳市微克科技有限公司 Exercise health monitoring method, system and medium of intelligent wearable equipment

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102022942B1 (en) * 2018-05-10 2019-09-19 주식회사 비플렉스 The Method of predicting IVLR(instantaneous vertical loading rate) and apparatus for quantifying risk of gait injury using it
CN111790133B (en) * 2019-04-03 2021-06-08 杭州乾博科技有限公司 Intelligent batting ball training end recognition method and system
ES2928789T3 (en) * 2019-05-07 2022-11-22 Bodytone Int Sport S L treadmill for sports training
KR102304300B1 (en) * 2019-05-08 2021-09-23 주식회사 비플렉스 A method and apparatus for detecting walking factor with portion acceleration sensor
CN110180158B (en) * 2019-07-02 2021-04-23 乐跑体育互联网(武汉)有限公司 Running state identification method and system and terminal equipment
CN113509173A (en) * 2020-04-10 2021-10-19 华为技术有限公司 Motion gesture recognition method, terminal device and storage medium
CN111569397B (en) * 2020-04-30 2021-06-15 东莞全创光电实业有限公司 Handle motion counting method and terminal
TWI741724B (en) * 2020-08-05 2021-10-01 美律實業股份有限公司 Body mass index interval estimation device and operation method thereof
JP2022120517A (en) * 2021-02-05 2022-08-18 パナソニックIpマネジメント株式会社 Acoustic device and acoustic control method
WO2023128511A1 (en) * 2021-12-28 2023-07-06 주식회사 디랙스 Exercise posture analyzing device and smart exercise device comprising same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330424A (en) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd Movement converter for three-dimensional skeleton structure
JP2009204568A (en) * 2008-02-29 2009-09-10 Seiko Instruments Inc Walk simulation apparatus
KR20120059824A (en) * 2010-12-01 2012-06-11 경희대학교 산학협력단 A method and system for acquiring real-time motion information using a complex sensor
JP2014519947A (en) * 2011-06-22 2014-08-21 ゴルフゾン カンパニー リミテッド Virtual golf simulation apparatus that provides a customized practice environment for a user, a server connected to the virtual golf simulation apparatus, and a method for providing a user customized practice environment using virtual golf simulation
US9307932B2 (en) * 2010-07-14 2016-04-12 Ecole Polytechnique Federale De Lausanne (Epfl) System and method for 3D gait assessment

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
JP3443077B2 (en) * 1999-09-20 2003-09-02 ソニー株式会社 Robot motion pattern generation device and motion pattern generation method, and robot
WO2005021107A1 (en) * 2003-08-27 2005-03-10 Steffan Klein Personel training system and method
KR100620118B1 (en) * 2004-03-31 2006-09-13 학교법인 대양학원 Walking pattern analysis apparatus and method using inertial sensor
JP5028751B2 (en) * 2005-06-09 2012-09-19 ソニー株式会社 Action recognition device
GB0602127D0 (en) * 2006-02-02 2006-03-15 Imp Innovations Ltd Gait analysis
US7561960B2 (en) * 2006-04-20 2009-07-14 Honeywell International Inc. Motion classification methods for personal navigation
US7610166B1 (en) * 2006-07-21 2009-10-27 James Solinsky Geolocation system and method for determining mammal locomotion movement
KR100894895B1 (en) * 2007-05-21 2009-04-30 연세대학교 산학협력단 Movement, Gait, and Posture Assessment and Intervention System and Method, MGPAISM
KR100962530B1 (en) * 2007-09-28 2010-06-14 한국전자통신연구원 Apparatus and method for measuring the physiological signal
CN101881625B (en) * 2008-08-19 2012-09-12 幻音科技(深圳)有限公司 Stride correction method, ranging method and step-counting device
US9392966B2 (en) * 2008-09-04 2016-07-19 Koninklijke Philips N.V. Fall prevention system
KR101101003B1 (en) * 2009-12-14 2011-12-29 대구대학교 산학협력단 Monitoring system and method for moving and balancing of human body using sensor node
KR101633362B1 (en) * 2010-01-18 2016-06-28 삼성전자 주식회사 Humanoid robot and walking control method thereof
JP2012024275A (en) * 2010-07-22 2012-02-09 Omron Healthcare Co Ltd Walking posture determination device
EP2422698A1 (en) * 2010-08-26 2012-02-29 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Method and system for determining the walking or running speed of a person
WO2013043014A2 (en) * 2011-09-23 2013-03-28 주식회사 크리에이츠 Virtual sport system using start sensor
US9101812B2 (en) * 2011-10-25 2015-08-11 Aquimo, Llc Method and system to analyze sports motions using motion sensors of a mobile device
JP5915285B2 (en) * 2012-03-15 2016-05-11 セイコーエプソン株式会社 Status detection device, electronic device, measurement system, and program
CN103729614A (en) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 People recognition method and device based on video images
JP2014236774A (en) * 2013-06-06 2014-12-18 セイコーエプソン株式会社 Organism information processing device and organism information processing method
JP6358889B2 (en) * 2013-09-26 2018-07-18 株式会社メガチップス Pedestrian observation system, program, and traveling direction estimation method
JP6134680B2 (en) * 2014-03-19 2017-05-24 日本電信電話株式会社 Walking support device, gait measuring device, method and program
JP2016034480A (en) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 Notification device, exercise analysis system, notification method, notification program, exercise support method, and exercise support device
JP2016034481A (en) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 Information analysis device, exercise analysis system, information analysis method, analysis program, image generation device, image generation method, image generation program, information display device, information display system, information display program, and information display method
JP6080078B2 (en) * 2014-08-18 2017-02-15 高知県公立大学法人 Posture and walking state estimation device
HK1203120A2 (en) * 2014-08-26 2015-10-16 高平 A gait monitor and a method of monitoring the gait of a person
US10448867B2 (en) * 2014-09-05 2019-10-22 Vision Service Plan Wearable gait monitoring apparatus, systems, and related methods
TWM499888U (en) * 2014-11-10 2015-05-01 Alexandave Ind Co Ltd Postural stability evaluation and rehabilitation system
CN104382599B (en) * 2014-12-05 2017-01-18 京东方科技集团股份有限公司 Method, equipment and wearable device for measuring activities of cervical vertebrae
EP3231484A4 (en) * 2014-12-11 2018-07-11 Sony Corporation Program and information processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330424A (en) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd Movement converter for three-dimensional skeleton structure
JP2009204568A (en) * 2008-02-29 2009-09-10 Seiko Instruments Inc Walk simulation apparatus
US9307932B2 (en) * 2010-07-14 2016-04-12 Ecole Polytechnique Federale De Lausanne (Epfl) System and method for 3D gait assessment
KR20120059824A (en) * 2010-12-01 2012-06-11 경희대학교 산학협력단 A method and system for acquiring real-time motion information using a complex sensor
JP2014519947A (en) * 2011-06-22 2014-08-21 ゴルフゾン カンパニー リミテッド Virtual golf simulation apparatus that provides a customized practice environment for a user, a server connected to the virtual golf simulation apparatus, and a method for providing a user customized practice environment using virtual golf simulation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109621331A (en) * 2018-12-13 2019-04-16 深圳壹账通智能科技有限公司 Fitness-assisting method, apparatus and storage medium, server
CN112130677A (en) * 2020-09-23 2020-12-25 深圳市爱都科技有限公司 Wearable terminal and hand-lifting identification method thereof
CN112130677B (en) * 2020-09-23 2023-05-12 深圳市爱都科技有限公司 Wearable terminal and lifting hand recognition method thereof
CN116491935A (en) * 2023-06-29 2023-07-28 深圳市微克科技有限公司 Exercise health monitoring method, system and medium of intelligent wearable equipment
CN116491935B (en) * 2023-06-29 2023-08-29 深圳市微克科技有限公司 Exercise health monitoring method, system and medium of intelligent wearable equipment

Also Published As

Publication number Publication date
WO2018030743A1 (en) 2018-02-15
CN109310913A (en) 2019-02-05
CN109414608B (en) 2021-04-02
CN109310913B (en) 2021-07-06
JP6765505B2 (en) 2020-10-07
CN109414608A (en) 2019-03-01
JP2019531772A (en) 2019-11-07

Similar Documents

Publication Publication Date Title
WO2018030734A1 (en) 3d simulation method and apparatus
US10105571B2 (en) Systems and methods for sensing balanced-action for improving mammal work-track efficiency
JP2852925B2 (en) Physical exercise proficiency education system
CN107632698B (en) Motion analysis system and method based on image
CN107080540A (en) For analyzing the gait of people and the system and method for postural balance
US20180085045A1 (en) Method and system for determining postural balance of a person
CN1231753A (en) Method for following and imaging a subject&#39;s three-dimensional position and orientation, method for presenting a virtual space to a subject,and systems for implementing said methods
TW201113005A (en) Method and system for monioring sport related fitness by estimating muscle power and joint force of limbs
JP6943294B2 (en) Technique recognition program, technique recognition method and technique recognition system
JP2007144107A (en) Exercise assisting system
Spelmezan et al. Wearable automatic feedback devices for physical activities
JP2020146344A (en) State detection device, state detection method, and program
WO2017217567A1 (en) Fitness monitoring system
JP7020479B2 (en) Information processing equipment, information processing methods and programs
Zhou Role of human body posture recognition method based on wireless network Kinect in line dance aerobics and gymnastics training
WO2022145563A1 (en) User-customized exercise training method and system
WO2020241738A1 (en) Training assisting method and device
KR102418958B1 (en) 3D simulation method and apparatus
Felton et al. Are planar simulation models affected by the assumption of coincident joint centers at the hip and shoulder?
JP2021083562A (en) Information processing device, calculation method, and program
KR20210040671A (en) Apparatus for estimating displacement center of gravity trajectories and method thereof
KR102351534B1 (en) Apparatus and method for estimating balace abilities
Han et al. Estimation of the center of bodymass during forward stepping using body acceleration
Krombholz et al. The role of anthropometric parameters on single-leg balance performance in young sub-elite soccer players
JP2022150491A (en) Work support system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17839752

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17839752

Country of ref document: EP

Kind code of ref document: A1