WO2018030734A1 - 3d simulation method and apparatus - Google Patents
3d simulation method and apparatus Download PDFInfo
- Publication number
- WO2018030734A1 WO2018030734A1 PCT/KR2017/008506 KR2017008506W WO2018030734A1 WO 2018030734 A1 WO2018030734 A1 WO 2018030734A1 KR 2017008506 W KR2017008506 W KR 2017008506W WO 2018030734 A1 WO2018030734 A1 WO 2018030734A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- motion
- parameter
- user
- trajectory
- generating
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
Definitions
- the present invention relates to a 3D simulation method and apparatus, and more particularly, to a method and apparatus for simulating a walking and driving motion of a user in three dimensions.
- the present invention has been made in view of the above-described technical problem, the object of the present invention is to substantially compensate for the various problems caused by the limitations and disadvantages in the prior art, the walking and driving movement of the user 3
- the present invention provides a method and apparatus for simulating dimensions, and a computer readable recording medium having recorded thereon a program for executing the method.
- the 3D simulation method comprises: receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input; Generating a 3D model of a user based on the model parameter and the pose parameter; Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And generating the 3D simulation of the user by applying the motion trajectory to the 3D model.
- the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
- the model parameter is a parameter related to the appearance of the user;
- the posture parameter is a parameter relating to the posture of the user;
- the motion space parameter is a parameter relating to a spatial trajectory of the user's motion;
- the motion time parameter is a parameter related to a time trajectory of the motion of the user.
- the model parameter includes at least one of height, weight, foot length, leg length, age, gender, and wearing information.
- the pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
- the motion space parameter may include a vertical section of the support section, a vertical section of the support section, a vertical section of the vertical section, the maximum vertical force load ratio, the average vertical force load ratio, the impact amount, the left and right uniformity, the left and right balance, the stride, the landing feet, , Left and right pelvis angle and at least one of the left and right eye angle.
- the motion time parameter includes at least one of one foot support time, one foot suspension time, and one minute repair.
- the motion space parameter may include at least one of up and down oscillation width, up and down oscillation width, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right eye angle. Include.
- the motion time parameter includes at least one of one foot support time, two feet support time, and one minute repair.
- the generating of the motion trajectory of the user may include: motion motion data modeling a predetermined motion motion; And basic motion data independent of the motion space parameter and the motion time parameter.
- the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. .
- the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
- the four-step data includes motion trajectory values of the up, down, left, and right axes of the joints.
- said joint is at least one of the neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion space parameter to reflect the motion motion data; And generating a second adjustment value by adjusting a gain value based on the motion time parameter to reflect the first adjustment value.
- the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion time parameter by reflecting the motion motion data; And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
- generating the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
- the present invention includes a computer-readable recording medium on which a program for performing the method is recorded.
- the 3D simulation apparatus includes a parameter input unit for receiving a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input; A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter; A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And a 3D simulation generator configured to generate the 3D simulation of the user by applying the motion trajectory to the 3D model.
- a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like.
- the user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
- FIG. 1 illustrates a 3D simulation result according to an embodiment of the present invention.
- FIG. 2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
- FIG. 3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
- FIG. 4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
- FIG 5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
- FIG. 6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
- FIG. 7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
- FIG. 8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
- FIG. 9 is an exemplary view of adjusting and reflecting a motion time parameter in exercise motion data according to an embodiment of the present invention.
- FIG. 10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
- FIG. 1 illustrates a 3D simulation result according to an embodiment of the present invention.
- the 3D simulation apparatus 200 receives a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input, and generates a 3D model and a motion trajectory of a user who is exercising based on the input. This creates a 3D simulation.
- the model parameters such as the user's height, foot length and leg length, posture parameters such as interpolation and interpolation angle, motion space parameters such as stride length, left and right uniformity and left and right balance, and motion time parameters such as air suspension time
- the 3D simulation apparatus 200 3D simulated walking and driving motions of the user.
- FIG. 2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
- the 3D simulation apparatus 200 includes a parameter input unit 210, a 3D model generator 230, a motion trajectory generator 250, and a 3D simulation generator 270.
- the parameter input unit 210 receives the model parameter 211, the posture parameter 213, the motion space parameter 215, and the motion time parameter 217 based on the external input.
- the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
- the exercise recognition device refer to Korean patent, 'A motion recognition method and device for pedestrian and driving monitoring' (application number: 10-2016-0101489, application date: 2016.08.09), 'pressure center path Method and Apparatus for Deriving Based Exercise Posture '(Application No .: 10-2016-0101491, Filed Date: 2016.08.09),' Method and Apparatus for Recognizing Exercise for Walking and Driving Monitoring '(Application No .: 10-2017-0030394 No.
- the model parameter 211 is a parameter related to the user's appearance, and includes height, weight, foot length, leg length, age, gender, and wearing information. At least one of the.
- the wear information includes the type, name and brand of the product worn by the user. Products worn by the user include accessories such as watches, clothes, shoes, and the like.
- the posture parameter 213 is a parameter related to a posture of a user and includes at least one of interpolation (Step width), interpolation (Step angle), and head vertical angle. Interpolation is the average value between the legs, and interpolation is the leg angle average value. Up-and-down eye angle means an average value of the vertical angle of the head.
- the motion space parameter 215 is a parameter related to the trajectory of the user's motion.
- the motion space parameter 215 includes vertical oscillation during stance, vertical oscillation during flight, Instantaneous Vertical Loading Rate (IVLR), Average Vertical Loading Rate (AVLR), Impact, Impact, Stability, Balance, Step Length, At least one of a foot strike pattern, a pelvic vertical rotation, a pelvic lateral rotation, and a head lateral angle.
- the motion space parameter 215 may include vertical oscillation during single stance, vertical oscillation during double stance, left and right uniformity, left and right balance, stride length, landing foot, and the like when the user walks. At least one of the upper and lower pelvis angle, left and right pelvis angle and left and right eye angle.
- the vertical vibration width of the support section means the vertical movement distance (meter) in the support section
- the vertical vibration width of the floating section means the vertical movement distance in the floating section.
- the maximum vertical force load rate is the instantaneous vertical force load rate (Newton / second), which means the maximum slope of the support section of the ground reaction force.
- Mean vertical force load ratio (Newton / second) means the average slope of the support section of ground reaction force. Impact amount refers to the impact force (Newton) of the support section of the ground reaction force.
- Stability refers to whether the state of movement is consistently maintained for each leg of the left and right foot in time, strength, etc., and expressed in% using the coefficient of variation (CV) of each leg.
- Values that can be used as index for evaluation index include maximum vertical force, vertical acceleration maximum, support section impact, support time, stray time, average vertical force load rate and maximum vertical force load rate.
- Balance of left and right represents the left and right unbalance (%), and is obtained by the following equation.
- Step length refers to the distance traveled forward during the support section and the floating section, and the foot strike pattern indicates which foot to land on.
- the landing foot may be one of a fore foot, a rear foot, and a mid foot.
- the pelvic vertical rotation and the pelvic lateral rotation mean the degree of vertical and horizontal distortion of the pelvis, respectively.
- Head lateral angle is an average value of the left and right angles of the head.
- the motion time parameter 217 is a parameter related to the time trajectory of the user's motion.
- the motion time parameter 217 includes at least one of a single stance time, a single flight time, and a cadence per minute. It includes one.
- the motion time parameter 217 includes at least one of a single stance time, a double stance time, and a minute's reward when the user walks.
- the 3D model generator 230 generates a 3D model of the user based on the model parameter 211 and the attitude parameter 213.
- the motion trajectory generation unit 250 generates a motion trajectory of the user based on the motion space parameter 215 and the motion time parameter 217. The detailed operation of the motion trajectory generation unit 250 will be described later in detail with reference to FIGS. 5 to 9.
- the 3D simulation generator 270 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
- FIG. 3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
- the 3D model is generated by reflecting the height of the user among the model parameters 211.
- FIG. 4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
- the 3D model is generated by reflecting the interpolation and the interpolation angle of the user among the posture parameters 213.
- FIG 5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
- the movement movement is repeatedly performed in four stages including the left foot support section, the left foot float section, the right foot support section and the right foot float section.
- FIG. 6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
- the movement movement is repeatedly performed in four stages including a left foot support section, a biped support section, a right foot support section, and a foot support section.
- FIG. 7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
- the motion trajectory generation unit 700 includes the motion motion data 720 and the basic motion data 730.
- the motion motion data 720 is pre-stored data by modeling a predetermined motion motion
- the basic motion data 730 is data previously stored as motion data independent of the motion space parameter 715 and the motion time parameter 717.
- the basic motion data 730 may be data about a tumbling motion such as an arm motion or an upper body distortion that has little change in movement.
- the movement motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section.
- the motion motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
- Each step includes three-axis motion trajectory values of the vertical axis (z axis), the left and right axis (y axis), and the front and rear axis (x axis) for each joint.
- the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- the motion trajectory generation unit 700 further includes a motion space parameter adjusting unit 750 and a motion time parameter adjusting unit 770.
- the motion time parameter adjusting unit 770 generates a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 to the first adjustment value.
- the motion time parameter adjusting unit 770 generates the first adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 in the motion motion data 720.
- the motion space parameter adjusting unit 750 generates a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the first adjustment value.
- the motion trajectory generation unit 700 further includes a motion trajectory merger 790.
- the motion trajectory merging unit 790 merges the basic motion data and the second adjustment value to generate a motion trajectory of the user.
- FIG. 8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
- the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion.
- the motion space parameter adjusting unit 750 generates a first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the 3-axis motion trajectory value of the waist.
- the first adjustment value of the z-axis among the 3-axis motion trajectory values of the waist is reduced in amplitude compared to the general waist 3-axis motion trajectory value stored in the motion motion data 720.
- FIG. 9 is an exemplary view of adjusting and adjusting motion time parameters in exercise motion data according to another exemplary embodiment of the present invention.
- the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion.
- the motion time parameter adjustment unit adjusts the gain value based on the motion time parameter to reflect the 3-axis motion trajectory value of the waist, thereby generating a first adjustment value.
- the first adjustment value of the z-axis among the three-axis motion trajectory values of the waist is reduced in the right foot support time compared to the general waist three-axis motion trajectory values stored in the motion motion data.
- FIG. 10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
- the 3D simulation apparatus 200 receives a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input.
- the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
- the 3D simulation apparatus 200 generates a 3D model of the user based on the model parameter and the pose parameter.
- the 3D simulation apparatus 200 generates a motion trajectory of the user based on the motion space parameter and the motion time parameter.
- the generating of the motion trajectory of the user uses motion motion data modeling a predetermined motion motion and basic motion data independent of the motion space parameter and the motion time parameter.
- the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section.
- the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
- the four-step data includes the motion trajectory values of the up, down, left and right axes, and front and rear axes for each joint.
- the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- the generating of the motion trajectory of the user may be performed by reflecting and adjusting the gain value based on the motion space parameter in the motion motion data, thereby generating a first adjustment value and adjusting the gain value based on the motion time parameter.
- the second adjustment value is generated by adjusting to reflect the value.
- the generating of the motion trajectory of the user may include adjusting the gain value based on the motion time parameter to reflect the motion motion data, thereby generating a first adjustment value and generating the motion space parameter.
- the second adjustment value is generated by adjusting the gain value based on the reflection on the first adjustment value.
- the generating of the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
- the 3D simulation apparatus 200 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
- an apparatus may include a bus coupled to units of each of the apparatus as shown, at least one processor coupled to the bus, and a command, received And a memory coupled to the bus for storing messages or generated messages, and coupled to at least one processor for performing instructions as described above.
- the system according to the present invention can be embodied as computer readable codes on a computer readable recording medium.
- the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
- the computer-readable recording medium may include a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM, DVD, etc.).
- the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like.
- the user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
Abstract
Disclosed are a 3D simulation apparatus and a method for same, the 3D simulation apparatus comprising: an parameter input unit for receiving input of model parameters, posture parameters, motion space parameters, and motion time parameters, based on external input; a 3D model-generating unit for generating a 3D model of a user based on the model parameters and the posture parameters; a motion track-generating unit for generating a motion track of the user based on the motion space parameters and the motion time parameters; and a 3D simulation generating-unit for generating a 3D simulation of the user by applying the motion track to the 3D model.
Description
본 발명은 3D 시뮬레이션 방법 및 장치에 관한 것으로서, 보다 상세하게는 사용자의 보행 및 주행 운동을 3차원으로 시뮬레이션하는 방법 및 장치에 관한 것이다.The present invention relates to a 3D simulation method and apparatus, and more particularly, to a method and apparatus for simulating a walking and driving motion of a user in three dimensions.
일반적으로 현대인의 일상생활에서의 운동량은 적절한 신체 건강을 유지하기에 상당히 부족하다는 점이 꾸준히 지적되어 왔다. 이에 따라 효과적으로 건강을 촉진하는 체계적인 운동 방법에 대한 관심도가 높아지고 있다. 구체적으로, 체계적이고 효율적으로 신속하게 신체를 단련할 수 있도록 하는 운동, 장기적인 관점에서의 건강 촉진을 위한 자세의 교정 등과 같은 운동 및 인간 수명이 길어짐에 따라 신체 능력이 저하된 노인에게 적합한 운동 등 다양한 운동에 대한 관심이 높아지는 실정이다. 이와 같은 다양한 요구에 부합하는 운동 방법 중 하나로서, 누구나 쉽게 할 수 있는 보행 및 주행 운동이 있다.In general, it has been pointed out that the amount of exercise in daily life of modern people is quite insufficient to maintain proper physical health. Accordingly, there is a growing interest in systematic exercise methods that effectively promote health. Specifically, exercises such as exercises to quickly and systematically train the body, correction of postures to promote health in the long term, and exercises suitable for elderly people whose physical ability has deteriorated with a long lifespan Interest in sports is increasing. As one of the exercise methods that meet such various needs, there is a walking and driving exercise that can be easily performed by anyone.
신체적인 문제가 없는 사람이라면 누구나 보행 및 주행할 수 있기 때문에 대부분의 사람들은 무의식적으로 익숙해진 자세로 보행 및 주행을 하게 된다. 그런데 사람의 신체란 완벽하게 대칭적이지 않기 때문에, 대부분의 경우 불균형하고 올바르지 못한 자세로 보행 및 주행이 이루어진다. 이와 같은 잘못된 자세의 지속적인 보행 및 주행은 근육과 골격을 비뚤어지게 하고, 나아가 다양한 전신통증을 유발하는 원인이 되기도 한다. 일반인의 경우 이와 같은 잘못된 보행 및 주행 자세는 신체 건강을 저하시키는 문제를 발생시키며, 특히 자라나는 어린이나 신체 능력이 저하된 노인의 경우 체형 왜곡이나 건강 저하 문제가 더욱 심하게 나타난다. 한편 운동선수 및 무용수 등과 같이 일반인보다 더욱 향상된 신체 능력을 필요로 하는 전문인들에게는 신체 능력 향상에의 한계를 발생시키는 등의 문제가 있다.Anyone who has no physical problems can walk and drive, and most people walk and drive in unconsciously accustomed posture. However, since the human body is not perfectly symmetrical, in most cases, walking and driving are performed in an unbalanced and incorrect posture. Continued walking and driving in the wrong posture may skew muscles and skeletons, and may also cause various systemic pains. In general, such a poor walking and driving posture causes a problem of deteriorating physical health, especially in the case of a growing child or an elderly person whose physical ability is deteriorated, body distortion and deterioration of health are more severe. On the other hand, professionals such as athletes and dancers need more physical skills than the general public, there is a problem such as generating a limit to improve the physical ability.
이처럼 올바른 보행 및 주행 자세는 일반인부터 전문인에 이르기까지 중요하며, 따라서 보행 및 주행 자세를 어떻게 인식하며, 어떻게 교정을 효과적으로 수행할 것인지에 대한 다양한 연구가 이루어지고 있다. 이처럼 보행 및 주행 자세를 교정하기 위하여 보행 및 주행을 인식, 감지 및 분석하는 기술에 대한 요구가 점점 커지고 있다.As such, correct walking and driving posture is important from the general public to professionals. Therefore, various studies have been conducted on how to recognize the walking and driving posture and how to perform the correction effectively. As such, there is an increasing demand for a technology for recognizing, detecting, and analyzing walking and driving in order to correct walking and driving posture.
본 발명은 상술한 기술적 문제에 대응하기 위하여 안출된 것으로, 본 발명의 목적은 종래 기술에서의 한계와 단점에 의해 발생하는 다양한 문제점을 실질적으로 보완할 수 있는 것으로, 사용자의 보행 및 주행 운동을 3차원으로 시뮬레이션하는 방법 및 그 장치를 제공하는데 있고, 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.The present invention has been made in view of the above-described technical problem, the object of the present invention is to substantially compensate for the various problems caused by the limitations and disadvantages in the prior art, the walking and driving movement of the user 3 The present invention provides a method and apparatus for simulating dimensions, and a computer readable recording medium having recorded thereon a program for executing the method.
본 발명의 일 실시예에 따르면 3D 시뮬레이션 방법은 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 단계; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 단계; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 단계; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 단계를 포함한다.According to an embodiment of the present invention, the 3D simulation method comprises: receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input; Generating a 3D model of a user based on the model parameter and the pose parameter; Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And generating the 3D simulation of the user by applying the motion trajectory to the 3D model.
본 발명의 일 실시예에 따르면 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된다.According to an embodiment of the present invention, the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
본 발명의 일 실시예에 따르면 상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고; 상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고; 상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고; 상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터이다.According to an embodiment of the present invention, the model parameter is a parameter related to the appearance of the user; The posture parameter is a parameter relating to the posture of the user; The motion space parameter is a parameter relating to a spatial trajectory of the user's motion; The motion time parameter is a parameter related to a time trajectory of the motion of the user.
본 발명의 일 실시예에 따르면 상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the model parameter includes at least one of height, weight, foot length, leg length, age, gender, and wearing information.
본 발명의 일 실시예에 따르면 상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
본 발명의 일 실시예에 따르면 상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion space parameter may include a vertical section of the support section, a vertical section of the support section, a vertical section of the vertical section, the maximum vertical force load ratio, the average vertical force load ratio, the impact amount, the left and right uniformity, the left and right balance, the stride, the landing feet, , Left and right pelvis angle and at least one of the left and right eye angle.
본 발명의 일 실시예에 따르면 상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion time parameter includes at least one of one foot support time, one foot suspension time, and one minute repair.
본 발명의 일 실시예에 따르면 상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion space parameter may include at least one of up and down oscillation width, up and down oscillation width, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right eye angle. Include.
본 발명의 일 실시예에 따르면 상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the motion time parameter includes at least one of one foot support time, two feet support time, and one minute repair.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 소정의 운동 동작을 모델링한 운동 모션 데이터; 및 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용한다.According to an embodiment of the present invention, the generating of the motion trajectory of the user may include: motion motion data modeling a predetermined motion motion; And basic motion data independent of the motion space parameter and the motion time parameter.
본 발명의 일 실시예에 따르면 상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다.According to an embodiment of the present invention, when the predetermined exercise motion is driving, the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. .
본 발명의 일 실시예에 따르면 상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다.According to an embodiment of the present invention, when the predetermined exercise motion is walking, the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
본 발명의 일 실시예에 따르면 상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함한다.According to an embodiment of the present invention, the four-step data includes motion trajectory values of the up, down, left, and right axes of the joints.
본 발명의 일 실시예에 따르면 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절이다.According to one embodiment of the invention said joint is at least one of the neck, shoulder, waist, knee, arm, elbow, ankle and toe.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및 상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함한다.According to an embodiment of the present invention, the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion space parameter to reflect the motion motion data; And generating a second adjustment value by adjusting a gain value based on the motion time parameter to reflect the first adjustment value.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및 상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함한다.According to an embodiment of the present invention, the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion time parameter by reflecting the motion motion data; And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함한다.According to an embodiment of the present invention, generating the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
또한, 본 발명의 일 실시예에 따르면 상기 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 포함한다.In addition, according to an embodiment of the present invention includes a computer-readable recording medium on which a program for performing the method is recorded.
또한, 본 발명의 일 실시예에 따르면 3D 시뮬레이션 장치는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함한다.According to an embodiment of the present invention, the 3D simulation apparatus includes a parameter input unit for receiving a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input; A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter; A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And a 3D simulation generator configured to generate the 3D simulation of the user by applying the motion trajectory to the 3D model.
본 발명에 따르면, 운동 인식 장치 또는 사용자로부터 입력된 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터에 기초하여, 3D 모델 및 모션 궤적을 생성하여 운동 자세 등에 관한 3D 시뮬레이션을 제공함으로써, 운동 중인 사용자가 효과적이고 정확하게 운동 상태를 인식, 감지 및 분석할 수 있다. 따라서 본 발명에 따른 3D 시뮬레이션을 통하여 사용자는 자신의 보행 및 주행 등의 운동 상태를 효과적이고 정확하게 인식할 수 있으며, 3D 시뮬레이션 분석을 통해 자신의 운동 자세를 교정하는 데 활용할 수 있다.According to the present invention, a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like. The user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
도 1은 본 발명의 일 실시예에 따른 3D 시뮬레이션 결과를 도시한다.1 illustrates a 3D simulation result according to an embodiment of the present invention.
도 2은 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치의 블록도이다.2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 모델 파라미터를 반영한 사용자의 3D 모델을 도시한다.3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
도 4은 본 발명의 일 실시예에 따른 자세 파라미터를 반영한 사용자의 3D 모델을 도시한다.4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 운동 동작이 주행인 경우, 4단계 운동 모션을 도시한다.5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
도 6은 본 발명의 일 실시예에 따른 운동 동작이 보행인 경우, 4단계 운동 모션을 도시한다.6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 모션 궤적 생성부의 블록도이다.7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 공간 파라미터 를 반영하여 조정한 예시도이다.8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 시간 파라미터 를 반영하여 조정한 예시도이다.9 is an exemplary view of adjusting and reflecting a motion time parameter in exercise motion data according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 3D 시뮬레이션 방법의 흐름도이다.10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다. 도면에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면 상에서 각 구성 요소의 크기는 설명의 명료성을 위하여 과장되어 있을 수 있다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements, and the size of each element in the drawings may be exaggerated for clarity.
도 1은 본 발명의 일 실시예에 따른 3D 시뮬레이션 결과를 도시한다.1 illustrates a 3D simulation result according to an embodiment of the present invention.
본 실시예에 따르면, 3D 시뮬레이션 장치(200)는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받고, 이에 기초하여 운동 중인 사용자의 3D 모델 및 모션 궤적을 생성함으로써 3D 시뮬레이션을 생성한다. 도시된 예에서, 사용자의 키, 발길이 및 다리 길이 등의 모델 파라미터, 보간 및 보각 등의 자세 파라미터, 보폭, 좌우 균일도 및 좌우 균형도 등의 모션 공간 파라미터, 공중 부유시간 등의 모션 시간 파라미터에 기초하여, 3D 시뮬레이션 장치(200)는 사용자의 보행 및 주행 운동을 3D 시뮬레이션하였다.According to the present embodiment, the 3D simulation apparatus 200 receives a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input, and generates a 3D model and a motion trajectory of a user who is exercising based on the input. This creates a 3D simulation. In the illustrated example, the model parameters such as the user's height, foot length and leg length, posture parameters such as interpolation and interpolation angle, motion space parameters such as stride length, left and right uniformity and left and right balance, and motion time parameters such as air suspension time Based on this, the 3D simulation apparatus 200 3D simulated walking and driving motions of the user.
도 2은 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치의 블록도이다.2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
3D 시뮬레이션 장치(200)는 파라미터 입력부(210), 3D 모델 생성부(230), 모션 궤적 생성부(250) 및 3D 시뮬레이션 생성부(270)를 포함한다.The 3D simulation apparatus 200 includes a parameter input unit 210, a 3D model generator 230, a motion trajectory generator 250, and a 3D simulation generator 270.
파라미터 입력부(210)는 외부 입력에 기초하여, 모델 파라미터(211), 자세 파라미터(213), 모션 공간 파라미터(215) 및 모션 시간 파라미터(217)를 입력받는다. 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 사용자의 운동을 인식하여 입력된다. 운동 인식 장치와 관련된 상세한 내용은 기 출원된 한국 특허인 '보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치' (출원번호: 제10-2016-0101489호, 출원일: 2016.08.09), '압력 중심 경로 기반 운동 자세 도출 방법 및 장치' (출원번호: 제10-2016-0101491호, 출원일: 2016.08.09), '보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치' (출원번호: 제10-2017-0030394호, 출원일: 2017.03.10), '압력 중심 경로 기반 운동 자세 도출 방법 및 장치' (출원번호: 제10-2017-0030402호, 출원일: 2017.03.10) 및 '주행 시 부상 위험성 정량화 방법 및 장치' (출원번호: 제10-2017-0079255호, 출원일: 2017.06.22)에 기술되어 있으며, 상기 출원 특허는 본 명세서 내에 참조용으로 포함된다.The parameter input unit 210 receives the model parameter 211, the posture parameter 213, the motion space parameter 215, and the motion time parameter 217 based on the external input. The external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device. For more information on the exercise recognition device, refer to Korean patent, 'A motion recognition method and device for pedestrian and driving monitoring' (application number: 10-2016-0101489, application date: 2016.08.09), 'pressure center path Method and Apparatus for Deriving Based Exercise Posture '(Application No .: 10-2016-0101491, Filed Date: 2016.08.09),' Method and Apparatus for Recognizing Exercise for Walking and Driving Monitoring '(Application No .: 10-2017-0030394 No. 10, 2017.03.10), 'Method and Apparatus for Deriving Pressure-Based Path-Based Exercise Posture' (Application No .: 10-2017-0030402, Filing Date: 2017.03.10) and 'Method and Apparatus for Quantifying Risk of Injury in Driving' (Application No. 10-2017-0079255, Application Date: June 22, 2017), which application patent is incorporated herein by reference.
모델 파라미터(211)는 사용자의 외형에 관한 파라미터로서, 신장(Height), 몸무게(Weight), 발 길이(Foot length), 다리 길이(Leg length), 나이(Age), 성별(Gender) 및 착용 정보 중 적어도 하나를 포함한다. 착용 정보는 사용자가 착용한 제품의 유형, 이름 및 브랜드 등을 포함한다. 사용자가 착용한 제품은 시계 등의 악세사리, 옷, 신발 등을 포함한다.The model parameter 211 is a parameter related to the user's appearance, and includes height, weight, foot length, leg length, age, gender, and wearing information. At least one of the. The wear information includes the type, name and brand of the product worn by the user. Products worn by the user include accessories such as watches, clothes, shoes, and the like.
자세 파라미터(213)는 사용자의 자세에 관한 파라미터로서, 보간(Step width), 보각(Step angle) 및 상하 시선각(Head vertical angle) 중 적어도 하나를 포함한다. 보간은 다리 사이 간격 평균값이며, 보각은 다리 각도 평균값이다. 상하 시선각은 머리의 상하 각도 평균값을 의미한다.The posture parameter 213 is a parameter related to a posture of a user and includes at least one of interpolation (Step width), interpolation (Step angle), and head vertical angle. Interpolation is the average value between the legs, and interpolation is the leg angle average value. Up-and-down eye angle means an average value of the vertical angle of the head.
모션 공간 파라미터(215)는 사용자의 모션의 공간 궤적(Trajectory)에 관한 파라미터로서, 사용자가 주행 운동하는 경우, 지지구간 상하진동폭(Vertical oscillation during stance), 부유구간 상하진동폭(Vertical oscillation during flight), 최대 수직힘부하율(IVLR: Instantaneous Vertical Loading Rate), 평균 수직힘부하율(AVLR: Average Vertical Loading Rate), 충격량(Impact), 좌우균일도(Stability), 좌우균형도(Balance), 보폭(Step length), 착지발(Foot strike pattern), 상하골반각(Pelvic vertical rotation), 좌우골반각(Pelvic lateral rotation) 및 좌우시선각(Head lateral angle) 중 적어도 하나를 포함한다. 모션 공간 파라미터(215)는 사용자가 보행 운동하는 경우, 한발구간 상하진동폭(Vertical oscillation during single stance), 양발구간 상하진동폭(Vertical oscillation during double stance), 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.The motion space parameter 215 is a parameter related to the trajectory of the user's motion. When the user moves, the motion space parameter 215 includes vertical oscillation during stance, vertical oscillation during flight, Instantaneous Vertical Loading Rate (IVLR), Average Vertical Loading Rate (AVLR), Impact, Impact, Stability, Balance, Step Length, At least one of a foot strike pattern, a pelvic vertical rotation, a pelvic lateral rotation, and a head lateral angle. The motion space parameter 215 may include vertical oscillation during single stance, vertical oscillation during double stance, left and right uniformity, left and right balance, stride length, landing foot, and the like when the user walks. At least one of the upper and lower pelvis angle, left and right pelvis angle and left and right eye angle.
지지구간 상하진동폭은 지지구간에서 상하 이동 거리(meter)를 의미하며, 부유구간 상하진동폭은 부유구간에서 상하 이동 거리를 의미한다. 최대 수직힘부하율은 순간 수직 힘 부하율(Newton/second)로서, 지면 반력의 지지구간 최대 기울기를 의미한다. 평균 수직힘부하율(Newton/second)은 지면 반력의 지지구간 평균 기울기를 의미한다. 충격량은 지면 반력의 지지구간 충격력(Newton)을 의미한다.The vertical vibration width of the support section means the vertical movement distance (meter) in the support section, and the vertical vibration width of the floating section means the vertical movement distance in the floating section. The maximum vertical force load rate is the instantaneous vertical force load rate (Newton / second), which means the maximum slope of the support section of the ground reaction force. Mean vertical force load ratio (Newton / second) means the average slope of the support section of ground reaction force. Impact amount refers to the impact force (Newton) of the support section of the ground reaction force.
좌우균일도(Stability)는 시간, 힘 등에 있어서, 왼발 및 오른발 각각의 다리에 일관성있게 운동상태가 유지되는지를 의미하며, 각각의 다리의 변동 계수(CV: Coefficient)를 이용하여 %로 나타내며, 아래 식을 통해 구한다.Stability refers to whether the state of movement is consistently maintained for each leg of the left and right foot in time, strength, etc., and expressed in% using the coefficient of variation (CV) of each leg. Obtain through
Stability(Left) = 1 - std(Left indices) / mean(Left indices)Stability (Left) = 1-std (Left indices) / mean (Left indices)
Stability(Right) = 1 - std(Right indices) / mean(Right indices)Stability (Right) = 1-std (Right indices) / mean (Right indices)
평가지표인 index로 쓰일 수 있는 값은 수직힘 최대값, 수직 가속도 최대값, 지지구간 충격량, 지지시간, 부유시간, 평균 수직힘부하율 및 최대수직힘 부하율을 포함한다.Values that can be used as index for evaluation index include maximum vertical force, vertical acceleration maximum, support section impact, support time, stray time, average vertical force load rate and maximum vertical force load rate.
좌우균형도(Balance)는 좌우 불균형도(%)를 나타내며, 아래 식을 통해 구한다. Balance of left and right (Balance) represents the left and right unbalance (%), and is obtained by the following equation.
Balance = Left index / (Left index + Right index) * 100%Balance = Left index / (Left index + Right index) * 100%
보폭(Step length)은 지지구간 및 부유구간 동안 전진하여 이동한 거리를 의미하며, 착지발(Foot strike pattern)은 어떤 발로 착지하는지를 나타낸다. 예를 들어, 착지발은 발 앞꿈치(Fore foot), 발 뒤꿈치(Rear foot) 및 발 중간(Mid foot) 중 하나일 수 있다. 상하골반각(Pelvic vertical rotation) 및 좌우골반각(Pelvic lateral rotation)은 각각 골반의 상하 뒤틀림 및 좌우 뒤틀림 정도를 의미한다. 좌우시선각(Head lateral angle)은 머리의 좌우 각도 평균값이다.Step length refers to the distance traveled forward during the support section and the floating section, and the foot strike pattern indicates which foot to land on. For example, the landing foot may be one of a fore foot, a rear foot, and a mid foot. The pelvic vertical rotation and the pelvic lateral rotation mean the degree of vertical and horizontal distortion of the pelvis, respectively. Head lateral angle is an average value of the left and right angles of the head.
모션 시간 파라미터(217)는 사용자의 모션의 시간 궤적에 관한 파라미터로서, 사용자가 주행 운동하는 경우, 한발 지지시간(Single stance time), 한발 부유시간(Single flight time) 및 분당 보수(Cadence) 중 적어도 하나를 포함한다. 모션 시간 파라미터(217)는 사용자가 보행 운동하는 경우, 한발 지지시간(Single stance time), 양발 지지시간(Double stance time) 및 분당 보수 중 적어도 하나를 포함한다.The motion time parameter 217 is a parameter related to the time trajectory of the user's motion. When the user moves, the motion time parameter 217 includes at least one of a single stance time, a single flight time, and a cadence per minute. It includes one. The motion time parameter 217 includes at least one of a single stance time, a double stance time, and a minute's reward when the user walks.
3D 모델 생성부(230)는 모델 파라미터(211) 및 자세 파라미터(213)에 기초하여 사용자의 3D 모델을 생성한다.The 3D model generator 230 generates a 3D model of the user based on the model parameter 211 and the attitude parameter 213.
모션 궤적 생성부(250)는 모션 공간 파라미터(215) 및 모션 시간 파라미터(217)에 기초하여, 사용자의 모션 궤적을 생성한다. 모션 궤적 생성부(250)의 상세한 동작은 도 5 내지 도 9를 통해 이하에서 상세히 후술한다.The motion trajectory generation unit 250 generates a motion trajectory of the user based on the motion space parameter 215 and the motion time parameter 217. The detailed operation of the motion trajectory generation unit 250 will be described later in detail with reference to FIGS. 5 to 9.
3D 시뮬레이션 생성부(270)는 상기 3D 모델에 상기 모션 궤적을 적용하여 사용자의 3D 시뮬레이션을 생성한다.The 3D simulation generator 270 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
도 3은 본 발명의 일 실시예에 따른 모델 파라미터를 반영한 사용자의 3D 모델을 도시한다.3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
도시된 예에서, 모델 파라미터(211) 중 사용자의 신장을 반영하여 3D 모델을 생성하였다.In the illustrated example, the 3D model is generated by reflecting the height of the user among the model parameters 211.
도 4은 본 발명의 일 실시예에 따른 자세 파라미터를 반영한 사용자의 3D 모델을 도시한다.4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
도시된 예에서, 자세 파라미터(213) 중 사용자의 보간 및 보각을 반영하여 3D 모델을 생성하였다.In the illustrated example, the 3D model is generated by reflecting the interpolation and the interpolation angle of the user among the posture parameters 213.
도 5는 본 발명의 일 실시예에 따른 운동 동작이 주행인 경우, 4단계 운동 모션을 도시한다.5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
주행 운동인 경우, 운동 동작은 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계가 반복적으로 이루어진다.In the case of the driving movement, the movement movement is repeatedly performed in four stages including the left foot support section, the left foot float section, the right foot support section and the right foot float section.
도 6은 본 발명의 일 실시예에 따른 운동 동작이 보행인 경우, 4단계 운동 모션을 도시한다.6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
보행 운동인 경우, 운동 동작은 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계가 반복적으로 이루어진다.In the case of a walking movement, the movement movement is repeatedly performed in four stages including a left foot support section, a biped support section, a right foot support section, and a foot support section.
도 7은 본 발명의 일 실시예에 따른 모션 궤적 생성부의 블록도이다.7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
모션 궤적 생성부(700)는 운동 모션 데이터(720) 및 기본 모션 데이터(730)를 포함한다. 운동 모션 데이터(720)는 소정의 운동 동작을 모델링하여 기 저장된 데이터이며, 기본 모션 데이터(730)는 모션 공간 파라미터(715) 및 모션 시간 파라미터(717)에 독립적인 모션 데이터로서 기 저장된 데이터이다. 예를 들어, 기본 모션 데이터(730)는 움직임에 변동이 적은 팔 모션이나 상체 뒤틀림 등의 허우적거리는 모션에 대한 데이터일 수 있다.The motion trajectory generation unit 700 includes the motion motion data 720 and the basic motion data 730. The motion motion data 720 is pre-stored data by modeling a predetermined motion motion, and the basic motion data 730 is data previously stored as motion data independent of the motion space parameter 715 and the motion time parameter 717. For example, the basic motion data 730 may be data about a tumbling motion such as an arm motion or an upper body distortion that has little change in movement.
소정의 운동 동작이 주행인 경우, 운동 모션 데이터(720) 및 기본 모션 데이터(730)는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다. 소정의 운동 동작이 보행인 경우, 운동 모션 데이터(720) 및 기본 모션 데이터(730)는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다. 주행 또는 보행 운동에서 상기 4단계는 반복하여 재생된다. 각각의 단계는 각각의 관절에 대한 상하축(z축), 좌우축(y축) 및 전후축(x축)의 3축 모션 궤적 값을 포함한다. 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나이다.When the predetermined movement motion is driving, the movement motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. When the predetermined motion is walking, the motion motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section. In the running or walking movement, the above four steps are repeatedly reproduced. Each step includes three-axis motion trajectory values of the vertical axis (z axis), the left and right axis (y axis), and the front and rear axis (x axis) for each joint. The joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
모션 궤적 생성부(700)는 모션 공간 파라미터 조정부(750) 및 모션 시간 파라미터 조정부(770)를 더 포함한다.The motion trajectory generation unit 700 further includes a motion space parameter adjusting unit 750 and a motion time parameter adjusting unit 770.
모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 운동 모션 데이터(720)에 반영하여 조정함으로써, 제1 조정값을 생성한다. 예를 들어, 모션 공간 파라미터인 '부유구간 상하진동폭'의 값이 C이고, 해당 값의 최대 가능 값이 Cmax, 최소 가능 값이 Cmin 할 때, '부유구간 상하진동폭' 값에 의한 게인값은 (C - Cmin)/( Cmax
- Cmin)으로 설정할 수 있다. 따라서 게인값은 0<=게인값<=1의 범위를 갖는다. 이상에서 게인값 설정을 예시하였지만, 다른 방법으로 게인값을 설정할 수 있음은 당업자에게 자명하다. 모션 시간 파라미터 조정부(770)는 모션 시간 파라미터(717)에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.The motion space parameter adjusting unit 750 generates the first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 in the motion motion data 720. For example, when the value of 'floating section up / down vibration', which is a motion space parameter, is C, and the maximum possible value of the corresponding value is C max and the minimum possible value is C min , the gain value by 'floating section up / down vibration width' value Is (C-C min ) / (C max -C min ) can be set. Therefore, the gain value has a range of 0 <= gain value <= 1. Although the gain value setting has been exemplified above, it is apparent to those skilled in the art that the gain value can be set by other methods. The motion time parameter adjusting unit 770 generates a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 to the first adjustment value.
한편, 본 발명의 다른 실시예에 따르면, 모션 시간 파라미터 조정부(770)는 모션 시간 파라미터(717)에 기초한 게인값을 운동 모션 데이터(720)에 반영하여 조정함으로써, 제1 조정값을 생성한다. 모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.Meanwhile, according to another exemplary embodiment of the present invention, the motion time parameter adjusting unit 770 generates the first adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 in the motion motion data 720. The motion space parameter adjusting unit 750 generates a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the first adjustment value.
모션 궤적 생성부(700)는 모션 궤적 병합부(790)를 더 포함한다. 모션 궤적 병합부(790)는 기본 모션 데이터 및 상기 제2 조정값을 병합함으로써, 사용자의 모션 궤적을 생성한다.The motion trajectory generation unit 700 further includes a motion trajectory merger 790. The motion trajectory merging unit 790 merges the basic motion data and the second adjustment value to generate a motion trajectory of the user.
도 8은 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 공간 파라미터 를 반영하여 조정한 예시도이다.8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
도시된 예에서, 주행 운동의 경우 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값은 파란 실선으로 도시되어 있다. 모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 허리의 3축 모션 궤적 값에 반영하여 조정함으로써, 제1 조정값을 생성한다. 도시된 예에서 허리의 3축 모션 궤적 값 중 z축의 제1 조정값은 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값 대비 진폭이 줄어들었음을 알 수 있다. In the example shown, the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion. The motion space parameter adjusting unit 750 generates a first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the 3-axis motion trajectory value of the waist. In the illustrated example, it can be seen that the first adjustment value of the z-axis among the 3-axis motion trajectory values of the waist is reduced in amplitude compared to the general waist 3-axis motion trajectory value stored in the motion motion data 720.
도 9는 본 발명의 다른 실시예에 따른 운동 모션 데이터에 모션 시간 파라미터를 반영하여 조정한 예시도이다.FIG. 9 is an exemplary view of adjusting and adjusting motion time parameters in exercise motion data according to another exemplary embodiment of the present invention.
도시된 예에서, 주행 운동의 경우 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값은 파란 실선으로 도시되어 있다. 모션 시간 파라미터 조정부는 모션 시간 파라미터에 기초한 게인값을 허리의 3축 모션 궤적 값에 반영하여 조정함으로써, 제1 조정값을 생성한다. 도시된 예에서 허리의 3축 모션 궤적 값 중 z축의 제1 조정값은 운동 모션 데이터에 저장된 일반적인 허리 3축 모션 궤적 값 대비 오른발 지지시간이 줄어들었음을 알 수 있다. In the example shown, the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion. The motion time parameter adjustment unit adjusts the gain value based on the motion time parameter to reflect the 3-axis motion trajectory value of the waist, thereby generating a first adjustment value. In the illustrated example, it can be seen that the first adjustment value of the z-axis among the three-axis motion trajectory values of the waist is reduced in the right foot support time compared to the general waist three-axis motion trajectory values stored in the motion motion data.
도 10은 본 발명의 일 실시예에 따른 3D 시뮬레이션 방법의 흐름도이다.10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
단계 1010에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는다. 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된다.In operation 1010, the 3D simulation apparatus 200 according to an embodiment of the present invention receives a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input. The external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
단계 1020에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200)는 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성한다.In operation 1020, the 3D simulation apparatus 200 generates a 3D model of the user based on the model parameter and the pose parameter.
단계 1030에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성한다. 상기 사용자의 모션 궤적을 생성하는 단계는 소정의 운동 동작을 모델링한 운동 모션 데이터 및 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용한다.In operation 1030, the 3D simulation apparatus 200 according to an embodiment of the present invention generates a motion trajectory of the user based on the motion space parameter and the motion time parameter. The generating of the motion trajectory of the user uses motion motion data modeling a predetermined motion motion and basic motion data independent of the motion space parameter and the motion time parameter.
상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다. 상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다. 상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함한다. 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절이다.When the predetermined exercise motion is driving, the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. When the predetermined exercise motion is walking, the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section. The four-step data includes the motion trajectory values of the up, down, left and right axes, and front and rear axes for each joint. The joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하고, 상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.The generating of the motion trajectory of the user may be performed by reflecting and adjusting the gain value based on the motion space parameter in the motion motion data, thereby generating a first adjustment value and adjusting the gain value based on the motion time parameter. The second adjustment value is generated by adjusting to reflect the value.
본 발명의 다른 실시예에 따르면, 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하고, 상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.According to another exemplary embodiment of the present disclosure, the generating of the motion trajectory of the user may include adjusting the gain value based on the motion time parameter to reflect the motion motion data, thereby generating a first adjustment value and generating the motion space parameter. The second adjustment value is generated by adjusting the gain value based on the reflection on the first adjustment value.
본 발명의 일 실시예에 따른 상기 사용자의 모션 궤적을 생성하는 단계는 상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함한다.The generating of the motion trajectory of the user according to an embodiment of the present invention further includes merging the basic motion data and the second adjustment value.
단계 1040에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성한다.In operation 1040, the 3D simulation apparatus 200 according to an embodiment of the present invention generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
이상에서 본 발명의 바람직한 실시예가 상세히 기술되었지만, 본 발명의 범위는 이에 한정되지 않고, 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서 정해져야 할 것이다.Although the preferred embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the appended claims.
예를 들어, 본 발명의 예시적인 실시예에 따른 장치는 도시된 바와 같은 장치 각각의 유닛들에 커플링된 버스, 상기 버스에 커플링된 적어도 하나의 프로세서를 포함할 수 있고, 명령, 수신된 메시지 또는 생성된 메시지를 저장하기 위해 상기 버스에 커플링되고, 전술한 바와 같은 명령들을 수행하기 위한 적어도 하나의 프로세서에 커플링된 메모리를 포함할 수 있다. For example, an apparatus according to an exemplary embodiment of the present invention may include a bus coupled to units of each of the apparatus as shown, at least one processor coupled to the bus, and a command, received And a memory coupled to the bus for storing messages or generated messages, and coupled to at least one processor for performing instructions as described above.
또한, 본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 상기 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the system according to the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. The computer-readable recording medium may include a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM, DVD, etc.). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
본 발명에 따르면, 운동 인식 장치 또는 사용자로부터 입력된 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터에 기초하여, 3D 모델 및 모션 궤적을 생성하여 운동 자세 등에 관한 3D 시뮬레이션을 제공함으로써, 운동 중인 사용자가 효과적이고 정확하게 운동 상태를 인식, 감지 및 분석할 수 있다. 따라서 본 발명에 따른 3D 시뮬레이션을 통하여 사용자는 자신의 보행 및 주행 등의 운동 상태를 효과적이고 정확하게 인식할 수 있으며, 3D 시뮬레이션 분석을 통해 자신의 운동 자세를 교정하는 데 활용할 수 있다.According to the present invention, a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like. The user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
Claims (35)
- 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부;A parameter input unit configured to receive a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input;상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부;A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter;상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a 3D simulation generator which generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
- 제 1항에 있어서,The method of claim 1,상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된 것을 특징으로 하는 3D 시뮬레이션 장치.The external input is an input from a user, or a 3D simulation apparatus, characterized in that the input by recognizing the movement of the user from the exercise recognition device.
- 제 1항에 있어서,The method of claim 1,상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고;The model parameter is a parameter relating to the appearance of the user;상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고;The posture parameter is a parameter relating to the posture of the user;상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고;The motion space parameter is a parameter relating to a spatial trajectory of the user's motion;상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터인 것을 특징으로 하는 3D 시뮬레이션 장치.The motion time parameter is a parameter relating to the time trajectory of the motion of the user.
- 제 1항에 있어서,The method of claim 1,상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The model parameter includes at least one of height, weight, foot length, leg length, age, gender and wearing information.
- 제 1항에 있어서,The method of claim 1,상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
- 제 1항에 있어서,The method of claim 1,상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion space parameters include the up and down vibration width of the support section, the up and down vibration width of the floating section, the maximum vertical force load ratio, average vertical force load ratio, impact amount, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right viewing angle. 3D simulation apparatus comprising at least one of.
- 제 1항에 있어서,The method of claim 1,상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion time parameter is a 3D simulation apparatus comprising at least one of a pair of support time, a stray floating time, and a minute per minute.
- 제 1항에 있어서,The method of claim 1,상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion space parameter is a 3D simulation, characterized in that it comprises at least one of the upper and lower oscillation amplitude of one foot section, the upper and lower oscillation width of both legs, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis, left and right pelvis Device.
- 제 1항에 있어서,The method of claim 1,상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The motion time parameter may include at least one of one foot support time, two feet support time, and one minute repair.
- 제 1항에 있어서,The method of claim 1,상기 모션 궤적 생성부는The motion trajectory generation unit소정의 운동 동작을 모델링한 운동 모션 데이터; 및Kinetic motion data modeling a predetermined kinetic motion; And상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And basic motion data independent of the motion space parameter and the motion time parameter.
- 제 10항에 있어서,The method of claim 10,상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 장치.And the motion motion data and the basic motion data are four-stage data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section when the predetermined motion movement is a driving.
- 제 10항에 있어서,The method of claim 10,상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 장치.And the motion motion data and the basic motion data are four-step data including a left foot support section, a two-foot support section, a right foot support section, and a two-foot support section when the predetermined movement motion is walking.
- 제 11항 또는 제12항에 있어서,The method of claim 11 or 12,상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.The four-stage data includes a motion trajectory value of the vertical axis, the left and right axis, and the fore and aft axis of each joint.
- 제 13항에 있어서,The method of claim 13,상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절인 것을 특징으로 하는 3D 시뮬레이션 장치.And the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- 제 10항에 있어서,The method of claim 10,상기 모션 궤적 생성부는The motion trajectory generation unit상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 모션 공간 파라미터 조정부; 및A motion space parameter adjustment unit generating a first adjustment value by reflecting and adjusting a gain value based on the motion space parameter in the kinetic motion data; And상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 모션 시간 파라미터 조정부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a motion time parameter adjusting unit configured to generate a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter to the first adjustment value.
- 제 10항에 있어서,The method of claim 10,상기 모션 궤적 생성부는The motion trajectory generation unit상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 모션 시간 파라미터 조정부; 및A motion time parameter adjusting unit generating a first adjustment value by reflecting and adjusting a gain value based on the motion time parameter in the motion motion data; And상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 모션 공간 파라미터 조정부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a motion space parameter adjusting unit configured to generate a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter in the first adjustment value.
- 제 15항 또는 제16항에 있어서,The method according to claim 15 or 16,상기 모션 궤적 생성부는The motion trajectory generation unit상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 모션 궤적 병합부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.And a motion trajectory merging unit for merging the basic motion data and the second adjustment value.
- 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 단계;Receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input;상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 단계;Generating a 3D model of a user based on the model parameter and the pose parameter;상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 단계; 및Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 단계를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And generating a 3D simulation of the user by applying the motion trajectory to the 3D model.
- 제 18항에 있어서,The method of claim 18,상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된 것을 특징으로 하는 3D 시뮬레이션 방법.The external input is an input from a user, or 3D simulation method characterized in that the input by recognizing the movement of the user from the exercise recognition device.
- 제 18항에 있어서,The method of claim 18,상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고;The model parameter is a parameter relating to the appearance of the user;상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고;The posture parameter is a parameter relating to the posture of the user;상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고;The motion space parameter is a parameter relating to a spatial trajectory of the user's motion;상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터인 것을 특징으로 하는 3D 시뮬레이션 방법.The motion time parameter is a parameter relating to the time trajectory of the motion of the user.
- 제 18항에 있어서,The method of claim 18,상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The model parameter comprises at least one of height, weight, foot length, leg length, age, gender and wearing information.
- 제 18항에 있어서,The method of claim 18,상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The posture parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
- 제 18항에 있어서,The method of claim 18,상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion space parameters include the up and down vibration width of the support section, the up and down vibration width of the floating section, the maximum vertical force load ratio, average vertical force load ratio, impact amount, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right viewing angle. 3D simulation method comprising at least one of.
- 제 18항에 있어서,The method of claim 18,상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion time parameter includes at least one of a pair of supporting time, a pair of floating time, and a repair per minute.
- 제 18항에 있어서,The method of claim 18,상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion space parameter is a 3D simulation, characterized in that it comprises at least one of the upper and lower oscillation amplitude of one foot section, the upper and lower oscillation width of both legs, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis, left and right pelvis Way.
- 제 18항에 있어서,The method of claim 18,상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The motion time parameter includes at least one of one foot support time, two feet support time, and a minute's repair.
- 제 18항에 있어서,The method of claim 18,상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user소정의 운동 동작을 모델링한 운동 모션 데이터; 및Kinetic motion data modeling a predetermined kinetic motion; And상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용하는 것을 특징으로 하는 3D 시뮬레이션 방법.3D simulation method using basic motion data independent of the motion space parameter and the motion time parameter.
- 제 27항에 있어서,The method of claim 27,상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 방법.And the motion motion data and the basic motion data are four-stage data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section when the predetermined exercise motion is driving.
- 제 27항에 있어서,The method of claim 27,상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 방법.And the motion motion data and the basic motion data are four-step data including a left foot support section, a two-foot support section, a right foot support section, and a two-foot support section when the predetermined movement motion is walking.
- 제 28항 또는 제29항에 있어서,The method of claim 28 or 29,상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.The four-stage data includes a motion trajectory value of the vertical axis, the left and right axis, and the fore and aft axis of each joint.
- 제 30항에 있어서,The method of claim 30,상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절인 것을 특징으로 하는 3D 시뮬레이션 방법.Wherein said joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- 제 27항에 있어서,The method of claim 27,상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및Generating a first adjustment value by reflecting and adjusting a gain value based on the motion space parameter in the kinetic motion data; And상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And generating a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter to the first adjustment value.
- 제 27항에 있어서,The method of claim 27,상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및Generating a first adjustment value by reflecting and adjusting a gain value based on the motion time parameter in the kinetic motion data; And상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
- 제 32항 또는 제33항에 있어서,34. The method of claim 32 or 33,상기 사용자의 모션 궤적을 생성하는 단계는Generating the motion trajectory of the user상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.And merging the basic motion data and the second adjustment value.
- 제 18항 내지 제 34항 중 어느 한 항에 의한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for performing the method according to any one of claims 18 to 34.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201780037461.8A CN109310913B (en) | 2016-08-09 | 2017-08-07 | Three-dimensional simulation method and device |
US16/272,201 US11497966B2 (en) | 2016-08-09 | 2019-02-11 | Automatic coaching system and method for coaching user's exercise |
Applications Claiming Priority (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160101489A KR101926170B1 (en) | 2016-08-09 | 2016-08-09 | Motion sensing method and apparatus for gait-monitoring |
KR1020160101491A KR101830371B1 (en) | 2016-08-09 | 2016-08-09 | Motion posture deriving method and apparatus based path of COP |
KR10-2016-0101489 | 2016-08-09 | ||
KR10-2016-0101491 | 2016-08-09 | ||
KR1020170030402A KR101995484B1 (en) | 2017-03-10 | 2017-03-10 | Motion posture deriving method and apparatus based path of COP |
KR10-2017-0030394 | 2017-03-10 | ||
KR1020170030394A KR101995482B1 (en) | 2017-03-10 | 2017-03-10 | Motion sensing method and apparatus for gait-monitoring |
KR10-2017-0030402 | 2017-03-10 | ||
KR1020170079255A KR101970674B1 (en) | 2017-06-22 | 2017-06-22 | Method and apparatus for quantifying risk of gait injury |
KR10-2017-0079255 | 2017-06-22 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/008534 Continuation-In-Part WO2018030743A1 (en) | 2016-08-09 | 2017-08-08 | Method and apparatus for recognizing exercise |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018030734A1 true WO2018030734A1 (en) | 2018-02-15 |
Family
ID=61162849
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/008506 WO2018030734A1 (en) | 2016-08-09 | 2017-08-07 | 3d simulation method and apparatus |
PCT/KR2017/008534 WO2018030743A1 (en) | 2016-08-09 | 2017-08-08 | Method and apparatus for recognizing exercise |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/008534 WO2018030743A1 (en) | 2016-08-09 | 2017-08-08 | Method and apparatus for recognizing exercise |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6765505B2 (en) |
CN (2) | CN109310913B (en) |
WO (2) | WO2018030734A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109621331A (en) * | 2018-12-13 | 2019-04-16 | 深圳壹账通智能科技有限公司 | Fitness-assisting method, apparatus and storage medium, server |
CN112130677A (en) * | 2020-09-23 | 2020-12-25 | 深圳市爱都科技有限公司 | Wearable terminal and hand-lifting identification method thereof |
CN116491935A (en) * | 2023-06-29 | 2023-07-28 | 深圳市微克科技有限公司 | Exercise health monitoring method, system and medium of intelligent wearable equipment |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102022942B1 (en) * | 2018-05-10 | 2019-09-19 | 주식회사 비플렉스 | The Method of predicting IVLR(instantaneous vertical loading rate) and apparatus for quantifying risk of gait injury using it |
CN111790133B (en) * | 2019-04-03 | 2021-06-08 | 杭州乾博科技有限公司 | Intelligent batting ball training end recognition method and system |
ES2928789T3 (en) * | 2019-05-07 | 2022-11-22 | Bodytone Int Sport S L | treadmill for sports training |
KR102304300B1 (en) * | 2019-05-08 | 2021-09-23 | 주식회사 비플렉스 | A method and apparatus for detecting walking factor with portion acceleration sensor |
CN110180158B (en) * | 2019-07-02 | 2021-04-23 | 乐跑体育互联网(武汉)有限公司 | Running state identification method and system and terminal equipment |
CN113509173A (en) * | 2020-04-10 | 2021-10-19 | 华为技术有限公司 | Motion gesture recognition method, terminal device and storage medium |
CN111569397B (en) * | 2020-04-30 | 2021-06-15 | 东莞全创光电实业有限公司 | Handle motion counting method and terminal |
TWI741724B (en) * | 2020-08-05 | 2021-10-01 | 美律實業股份有限公司 | Body mass index interval estimation device and operation method thereof |
JP2022120517A (en) * | 2021-02-05 | 2022-08-18 | パナソニックIpマネジメント株式会社 | Acoustic device and acoustic control method |
WO2023128511A1 (en) * | 2021-12-28 | 2023-07-06 | 주식회사 디랙스 | Exercise posture analyzing device and smart exercise device comprising same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330424A (en) * | 1996-06-07 | 1997-12-22 | Matsushita Electric Ind Co Ltd | Movement converter for three-dimensional skeleton structure |
JP2009204568A (en) * | 2008-02-29 | 2009-09-10 | Seiko Instruments Inc | Walk simulation apparatus |
KR20120059824A (en) * | 2010-12-01 | 2012-06-11 | 경희대학교 산학협력단 | A method and system for acquiring real-time motion information using a complex sensor |
JP2014519947A (en) * | 2011-06-22 | 2014-08-21 | ゴルフゾン カンパニー リミテッド | Virtual golf simulation apparatus that provides a customized practice environment for a user, a server connected to the virtual golf simulation apparatus, and a method for providing a user customized practice environment using virtual golf simulation |
US9307932B2 (en) * | 2010-07-14 | 2016-04-12 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for 3D gait assessment |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6430997B1 (en) * | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
JP3443077B2 (en) * | 1999-09-20 | 2003-09-02 | ソニー株式会社 | Robot motion pattern generation device and motion pattern generation method, and robot |
WO2005021107A1 (en) * | 2003-08-27 | 2005-03-10 | Steffan Klein | Personel training system and method |
KR100620118B1 (en) * | 2004-03-31 | 2006-09-13 | 학교법인 대양학원 | Walking pattern analysis apparatus and method using inertial sensor |
JP5028751B2 (en) * | 2005-06-09 | 2012-09-19 | ソニー株式会社 | Action recognition device |
GB0602127D0 (en) * | 2006-02-02 | 2006-03-15 | Imp Innovations Ltd | Gait analysis |
US7561960B2 (en) * | 2006-04-20 | 2009-07-14 | Honeywell International Inc. | Motion classification methods for personal navigation |
US7610166B1 (en) * | 2006-07-21 | 2009-10-27 | James Solinsky | Geolocation system and method for determining mammal locomotion movement |
KR100894895B1 (en) * | 2007-05-21 | 2009-04-30 | 연세대학교 산학협력단 | Movement, Gait, and Posture Assessment and Intervention System and Method, MGPAISM |
KR100962530B1 (en) * | 2007-09-28 | 2010-06-14 | 한국전자통신연구원 | Apparatus and method for measuring the physiological signal |
CN101881625B (en) * | 2008-08-19 | 2012-09-12 | 幻音科技(深圳)有限公司 | Stride correction method, ranging method and step-counting device |
US9392966B2 (en) * | 2008-09-04 | 2016-07-19 | Koninklijke Philips N.V. | Fall prevention system |
KR101101003B1 (en) * | 2009-12-14 | 2011-12-29 | 대구대학교 산학협력단 | Monitoring system and method for moving and balancing of human body using sensor node |
KR101633362B1 (en) * | 2010-01-18 | 2016-06-28 | 삼성전자 주식회사 | Humanoid robot and walking control method thereof |
JP2012024275A (en) * | 2010-07-22 | 2012-02-09 | Omron Healthcare Co Ltd | Walking posture determination device |
EP2422698A1 (en) * | 2010-08-26 | 2012-02-29 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | Method and system for determining the walking or running speed of a person |
WO2013043014A2 (en) * | 2011-09-23 | 2013-03-28 | 주식회사 크리에이츠 | Virtual sport system using start sensor |
US9101812B2 (en) * | 2011-10-25 | 2015-08-11 | Aquimo, Llc | Method and system to analyze sports motions using motion sensors of a mobile device |
JP5915285B2 (en) * | 2012-03-15 | 2016-05-11 | セイコーエプソン株式会社 | Status detection device, electronic device, measurement system, and program |
CN103729614A (en) * | 2012-10-16 | 2014-04-16 | 上海唐里信息技术有限公司 | People recognition method and device based on video images |
JP2014236774A (en) * | 2013-06-06 | 2014-12-18 | セイコーエプソン株式会社 | Organism information processing device and organism information processing method |
JP6358889B2 (en) * | 2013-09-26 | 2018-07-18 | 株式会社メガチップス | Pedestrian observation system, program, and traveling direction estimation method |
JP6134680B2 (en) * | 2014-03-19 | 2017-05-24 | 日本電信電話株式会社 | Walking support device, gait measuring device, method and program |
JP2016034480A (en) * | 2014-07-31 | 2016-03-17 | セイコーエプソン株式会社 | Notification device, exercise analysis system, notification method, notification program, exercise support method, and exercise support device |
JP2016034481A (en) * | 2014-07-31 | 2016-03-17 | セイコーエプソン株式会社 | Information analysis device, exercise analysis system, information analysis method, analysis program, image generation device, image generation method, image generation program, information display device, information display system, information display program, and information display method |
JP6080078B2 (en) * | 2014-08-18 | 2017-02-15 | 高知県公立大学法人 | Posture and walking state estimation device |
HK1203120A2 (en) * | 2014-08-26 | 2015-10-16 | 高平 | A gait monitor and a method of monitoring the gait of a person |
US10448867B2 (en) * | 2014-09-05 | 2019-10-22 | Vision Service Plan | Wearable gait monitoring apparatus, systems, and related methods |
TWM499888U (en) * | 2014-11-10 | 2015-05-01 | Alexandave Ind Co Ltd | Postural stability evaluation and rehabilitation system |
CN104382599B (en) * | 2014-12-05 | 2017-01-18 | 京东方科技集团股份有限公司 | Method, equipment and wearable device for measuring activities of cervical vertebrae |
EP3231484A4 (en) * | 2014-12-11 | 2018-07-11 | Sony Corporation | Program and information processing system |
-
2017
- 2017-08-07 CN CN201780037461.8A patent/CN109310913B/en active Active
- 2017-08-07 WO PCT/KR2017/008506 patent/WO2018030734A1/en active Application Filing
- 2017-08-08 CN CN201780037342.2A patent/CN109414608B/en active Active
- 2017-08-08 WO PCT/KR2017/008534 patent/WO2018030743A1/en active Application Filing
- 2017-08-08 JP JP2019506629A patent/JP6765505B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330424A (en) * | 1996-06-07 | 1997-12-22 | Matsushita Electric Ind Co Ltd | Movement converter for three-dimensional skeleton structure |
JP2009204568A (en) * | 2008-02-29 | 2009-09-10 | Seiko Instruments Inc | Walk simulation apparatus |
US9307932B2 (en) * | 2010-07-14 | 2016-04-12 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for 3D gait assessment |
KR20120059824A (en) * | 2010-12-01 | 2012-06-11 | 경희대학교 산학협력단 | A method and system for acquiring real-time motion information using a complex sensor |
JP2014519947A (en) * | 2011-06-22 | 2014-08-21 | ゴルフゾン カンパニー リミテッド | Virtual golf simulation apparatus that provides a customized practice environment for a user, a server connected to the virtual golf simulation apparatus, and a method for providing a user customized practice environment using virtual golf simulation |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109621331A (en) * | 2018-12-13 | 2019-04-16 | 深圳壹账通智能科技有限公司 | Fitness-assisting method, apparatus and storage medium, server |
CN112130677A (en) * | 2020-09-23 | 2020-12-25 | 深圳市爱都科技有限公司 | Wearable terminal and hand-lifting identification method thereof |
CN112130677B (en) * | 2020-09-23 | 2023-05-12 | 深圳市爱都科技有限公司 | Wearable terminal and lifting hand recognition method thereof |
CN116491935A (en) * | 2023-06-29 | 2023-07-28 | 深圳市微克科技有限公司 | Exercise health monitoring method, system and medium of intelligent wearable equipment |
CN116491935B (en) * | 2023-06-29 | 2023-08-29 | 深圳市微克科技有限公司 | Exercise health monitoring method, system and medium of intelligent wearable equipment |
Also Published As
Publication number | Publication date |
---|---|
WO2018030743A1 (en) | 2018-02-15 |
CN109310913A (en) | 2019-02-05 |
CN109414608B (en) | 2021-04-02 |
CN109310913B (en) | 2021-07-06 |
JP6765505B2 (en) | 2020-10-07 |
CN109414608A (en) | 2019-03-01 |
JP2019531772A (en) | 2019-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018030734A1 (en) | 3d simulation method and apparatus | |
US10105571B2 (en) | Systems and methods for sensing balanced-action for improving mammal work-track efficiency | |
JP2852925B2 (en) | Physical exercise proficiency education system | |
CN107632698B (en) | Motion analysis system and method based on image | |
CN107080540A (en) | For analyzing the gait of people and the system and method for postural balance | |
US20180085045A1 (en) | Method and system for determining postural balance of a person | |
CN1231753A (en) | Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject,and systems for implementing said methods | |
TW201113005A (en) | Method and system for monioring sport related fitness by estimating muscle power and joint force of limbs | |
JP6943294B2 (en) | Technique recognition program, technique recognition method and technique recognition system | |
JP2007144107A (en) | Exercise assisting system | |
Spelmezan et al. | Wearable automatic feedback devices for physical activities | |
JP2020146344A (en) | State detection device, state detection method, and program | |
WO2017217567A1 (en) | Fitness monitoring system | |
JP7020479B2 (en) | Information processing equipment, information processing methods and programs | |
Zhou | Role of human body posture recognition method based on wireless network Kinect in line dance aerobics and gymnastics training | |
WO2022145563A1 (en) | User-customized exercise training method and system | |
WO2020241738A1 (en) | Training assisting method and device | |
KR102418958B1 (en) | 3D simulation method and apparatus | |
Felton et al. | Are planar simulation models affected by the assumption of coincident joint centers at the hip and shoulder? | |
JP2021083562A (en) | Information processing device, calculation method, and program | |
KR20210040671A (en) | Apparatus for estimating displacement center of gravity trajectories and method thereof | |
KR102351534B1 (en) | Apparatus and method for estimating balace abilities | |
Han et al. | Estimation of the center of bodymass during forward stepping using body acceleration | |
Krombholz et al. | The role of anthropometric parameters on single-leg balance performance in young sub-elite soccer players | |
JP2022150491A (en) | Work support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17839752 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17839752 Country of ref document: EP Kind code of ref document: A1 |