KR102071532B1 - An Apparatus and Method For Exercise Posture Correction Device Using Deep Learning - Google Patents
An Apparatus and Method For Exercise Posture Correction Device Using Deep Learning Download PDFInfo
- Publication number
- KR102071532B1 KR102071532B1 KR1020180129777A KR20180129777A KR102071532B1 KR 102071532 B1 KR102071532 B1 KR 102071532B1 KR 1020180129777 A KR1020180129777 A KR 1020180129777A KR 20180129777 A KR20180129777 A KR 20180129777A KR 102071532 B1 KR102071532 B1 KR 102071532B1
- Authority
- KR
- South Korea
- Prior art keywords
- joint
- exercise
- exercise posture
- load
- lstm network
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/803—Motion sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2230/00—Measuring physiological parameters of the user
- A63B2230/01—User's weight
- A63B2230/015—User's weight used as a control parameter for the apparatus
Abstract
Description
본 발명은 딥러닝을 이용한 운동자세 교정 장치 및 방법에 관한 것으로서, 보다 상세하게는 인공지능을 이용한 운동자세 교정을 통해 개인별 운동 능력을 증진시킬 수 있는, 딥러닝을 이용한 운동자세 교정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for correcting exercise posture using deep learning, and more particularly, to an apparatus and method for correcting exercise posture using deep learning that can enhance individual exercise ability through exercise posture correction using artificial intelligence. It is about.
최근 현대인들은 바쁜 생활로 인한 스트레스 해소, 체중 감량, 건강 증진, 또는 자세 교정 등을 위해 헬스장이나 홈트레이닝(Home training)을 이용한다. 특히, 다른 운동에 비해 공간의 제약이 크지 않으면서 에너지 소모가 많은 웨이트 트레이닝(weight training)은 많은 이들에게 인기가 많은 운동이다.Recently, modern people use gym or home training to relieve the stress caused by busy life, lose weight, improve health, or correct posture. In particular, weight training, which consumes a lot of energy and does not have much space constraint, is a popular exercise for many people.
하지만, 초보자가 전문가의 도움없이 웨이트 트레이닝 장비를 이용할 경우 잘못된 운동자세로 운동할 가능성이 크고, 자신이 올바른 자세로 목표 근육에 자극을 주면서 운동을 하고 있는 것인지 인지하지 못한 채로 운동할 가능성도 크다. 사람의 관절은 주변 근육의 작용에 의해 움직이고 또 안정된 상태를 유지할 수 있다. 따라서, 잘못된 운동자세로 장시간 운동을 하면 관절에 과부하가 걸리거나 관절 주변의 조직이 손상되어 관절의 균형을 깨뜨릴 수도 있고, 근육의 기능을 감퇴시킬 수도 있다.However, if you are a beginner using weight training equipment without the help of a professional, you are more likely to exercise in the wrong position, and you are more likely to exercise without knowing whether you are exercising while stimulating your target muscles in the correct posture. Human joints can move and remain stable under the action of surrounding muscles. Therefore, if you exercise for a long time in the wrong posture, the joints are overloaded, or the tissues around the joints may be damaged and the balance of the joints may be compromised, or muscle function may be reduced.
이처럼, 웨이트 트레이닝 장비를 이용한 운동은 정확한 운동자세로 운동 종류에 알맞은 근육을 이용해야 관절에 무리가 가지 않은 상태에서 효과적으로 운동을 수행할 수 있다.As such, the exercise using the weight training equipment should use the muscle suitable for the exercise type with the correct exercise posture so that the exercise can be performed effectively without any difficulty in the joint.
이에, 초보자들은 전문가의 도움을 받아 개인 지도(Personal Training)를 받는 방법을 이용하기도 한다. 하지만, 전문가들에게 조차도 신체적 특징이 각기 다른 수많은 회원들에게 최적의 운동자세를 제공하면서 자세를 교정시켜 주는 것은 쉬운 일이 아니다.Therefore, beginners may use a method of personal training with the help of experts. However, even for professionals, it is not easy to correct posture while providing the optimal posture for members with different physical characteristics.
따라서, 딥러닝을 이용하여 사용자의 운동자세 및 운동 습관을 분석하여 사용자의 운동자세 교정에 도움을 줄 수 있는 기술 개발의 필요성이 대두된다.Therefore, there is a need to develop a technology that can help the user correct the exercise posture by analyzing the user's exercise posture and exercise habit using deep learning.
또한, 각기 다른 신체적 특징을 갖는 사용자들이 정확한 운동자세로 운동을 함으로써 운동 능력을 증진시킬 수 있는 기술 개발이 시급하다.In addition, there is an urgent need to develop a technology that enables users with different physical characteristics to improve exercise ability by exercising in a correct exercise posture.
본 발명이 해결하고자 하는 과제는 사용자별 신체적 특징에 맞는 운동자세 교정이 가능한 딥러닝을 이용한 운동자세 교정 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an apparatus and method for correcting exercise posture using deep learning capable of correcting the exercise posture according to the physical characteristics of each user.
본 발명이 해결하고자 하는 또 다른 과제는 실시간으로 잘못된 운동자세를 교정함으로써 관절의 손상을 최소화함과 동시에 운동 능력을 증진시킬 수 있는 딥러닝을 이용한 운동자세 교정 장치 및 방법을 제공하는 것이다.Another problem to be solved by the present invention is to provide an apparatus and method for correcting exercise posture using deep learning which can minimize the damage to the joint and improve the exercise ability by correcting the wrong exercise posture in real time.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 딥러닝을 이용한 운동자세 교정 장치는 모션 센서로부터 실시간으로 골격 기반 영상을 수신하는 수신부; 및 상기 모션 센서로부터 수신한 골격 기반 영상에 기초하여 관절에 가해지는 부하를 연산하는 처리부를 포함하며, 상기 처리부는, 상기 골격 기반 영상으로부터 다층 이차원 LSTM 네트워크를 사용하여 운동 관절을 검출하는 관절 검출부; 상기 운동 관절에 대한 부하를 연산하는 연산부; 최대 부하 임계값과 상기 연산된 부하를 비교하여 운동 자세를 판단하는 부하 판단부; 및 상기 운동 자세에 따른 교정 정보를 생성하는 운동자세 코칭부를 포함할 수 있다.In order to solve the above problems, the exercise posture correcting apparatus using deep learning according to an embodiment of the present invention includes a receiver for receiving a skeleton-based image in real time from a motion sensor; And a processor configured to calculate a load applied to the joint based on the skeleton-based image received from the motion sensor, wherein the processor comprises: a joint detector to detect a motion joint using a multilayer two-dimensional LSTM network from the skeleton-based image; A calculator for calculating a load on the exercise joint; A load determination unit that determines an exercise posture by comparing a maximum load threshold with the calculated load; And an exercise posture coaching unit configured to generate correction information according to the exercise posture.
이 경우, 상기 다층 이차원 LSTM 네트워크는 상기 골격 기반 영상을 입력받아 보정된 관절 좌표를 생성하는 제1층 LSTM 네트워크와, 상기 제1층 LSTM 네트워크로부터 상기 보정된 관절 좌표를 입력으로 하여 운동 관절을 검출하는 제2층 LSTM 네트워크를 포함할 수 있다.In this case, the multilayer two-dimensional LSTM network detects a motion joint by inputting the corrected joint coordinates from the first layer LSTM network that receives the skeletal-based image to generate corrected joint coordinates and the first layer LSTM network. A second layer LSTM network may be included.
또한, 상기 제1층 LSTM 네트워크는 상기 관절 좌표의 공간적인 좌표의 이상여부를 판단하는 공간적 망각 게이트와 상기 관절 좌표의 시간적인 이상여부를 판단하는 시간적 망각 게이트를 포함할 수 있다.The first layer LSTM network may include a spatial forgetting gate that determines whether the spatial coordinates of the joint coordinates are abnormal, and a temporal forgetting gate that determines whether the joint coordinates are temporally abnormal.
또한, 상기 제2층 LSTM 네트워크는 유용성 정보를 연산하고, 상기 유용성 정보에 기초하여 운동 관절 여부를 판단할 수 있다.In addition, the second layer LSTM network may calculate the usability information and determine whether to have a motion joint based on the usability information.
또한, 상기 부하 연산부는, 상기 운동 관절에 대한 부하가 최대 부하 임계치 이상인 경우, 관절에 과부하가 발생한 것으로 판단할 수 있다.The load calculator may determine that the joint is overloaded when the load on the exercise joint is greater than or equal to the maximum load threshold.
또한, 상기 부하 판단부는, 사용자의 무게를 미리 입력 받고, 상기 무게 별로 상기 최대 부하 임계치를 다르게 설정할 수 있다.The load determination unit may receive a user's weight in advance and set the maximum load threshold differently for each weight.
또한, 상기 운동자세 교정 장치는 외부 출력 장치를 더 포함하고, 상기 처리부는 상기 외부 출력 장치에 상기 교정 정보를 전송하여 출력하도록 할 수 있다.The exercise posture correcting apparatus may further include an external output device, and the processor may transmit and output the calibration information to the external output device.
한편, 본 발명에 실시예에 따른 딥러닝을 이용한 운동자세 교정 방법은 모션 센서로부터 실시간으로 골격 기반 영상을 수신하는 단계; 및 상기 골격 기반 영상에 기초하여 관절에 가해지는 부하를 연산하는 처리 단계를 포함하며, 상기 처리 단계는, 상기 골격 기반 영상으로부터 다층 이차원 LSTM 네트워크를 사용하여 운동 관절을 검출하는 관절 검출 단계; 상기 운동 관절에 대한 부하를 연산하는 연산 단계; 최대 부하 임계값과 상기 연산된 부하를 비교하여 운동 자세를 판단하는 부하 판단 단계; 및 상기 운동 자세에 따른 교정 정보를 생성하는 운동자세 코칭 단계를 포함할 수 있다. On the other hand, exercise posture correction method using deep learning according to an embodiment of the present invention comprises the steps of receiving a skeleton-based image from the motion sensor in real time; And a processing step of calculating a load applied to the joint based on the skeletal-based image, wherein the processing step includes: detecting a joint from the skeletal-based image using a multi-layer two-dimensional LSTM network; Calculating a load on the exercise joint; A load determination step of determining an exercise posture by comparing a maximum load threshold value with the calculated load; And an exercise posture coaching step of generating correction information according to the exercise posture.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
본 발명은 사용자의 관절에 걸리는 토크와 무게를 계산하여 모범 데이터와 사용자의 데이터를 비교 분석함으로서 사용자가 자신의 신체 조건에 맞춰 운동을 변형하여도 자신에게 맞는 운동자세가 유지될 수 있도록 운동자세를 교정할 수 있다.The present invention calculates the torque and weight applied to the joints of the user by comparing and analyzing the model data and the user's data by adjusting the exercise posture so that the user can maintain the exercise posture that suits his / her physical condition You can correct it.
본 발명은 사용자가 올바른 운동자세로 운동할 수 있도록 잘못된 자세에 대한 알림을 실시간으로 제공함으로서 관절의 손상을 최소함과 동시에 운동 능력을 증진시킬 수 있다.The present invention can minimize the damage to the joint and improve the exercise ability by providing a notification in real time for the wrong posture so that the user can exercise in the correct exercise posture.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.
도 1은 본 발명의 실시예에 따른 운동자세 교정 시스템의 개략도이다.
도 2는 본 발명의 실시예에 따른 운동자세 교정 장치의 블록도이다.
도 3은 본 발명의 실시예에 따른 운동자세 교정 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 실시예에 따른 다층 이차원 LSTM 네트워크를 설명하기 위한 블록도이다.
도 5는 본 발명의 실시예에 따른 관절 인덱싱 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 연산부에 의해 토크 및 각도를 계산하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따라 운동 관절을 검출하는 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 실시예에 따른 운동자세 교정 장치의 관절 좌표를 구하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 다층 이차원 LSTM 네트워크의 셀을 설명하기 위한 블록도이다.
도 10는 본 발명의 실시예에 따른 운동자세 교정 장치를 학습시키는 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 다층 이차원 LSTM 네트워크를 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 다층 이차원 LSTM 네트워크의 운동 관절 검출 결과를 나타내는 도면이다.
도 13은 본 발명의 실시예에 따른 운동 관절 검출을 설명하기 위한 도면이다.1 is a schematic diagram of an exercise posture correcting system according to an embodiment of the present invention.
2 is a block diagram of an exercise posture correcting apparatus according to an embodiment of the present invention.
Figure 3 is a flow chart for explaining the exercise posture correcting method according to an embodiment of the present invention.
4 is a block diagram illustrating a multilayer two-dimensional LSTM network according to an embodiment of the present invention.
5 is a view for explaining a joint indexing process according to an embodiment of the present invention.
6 is a view for explaining a method of calculating the torque and the angle by the calculating unit according to an embodiment of the present invention.
7 is a flowchart illustrating a method of detecting a motion joint according to an embodiment of the present invention.
8 is a view for explaining a process of obtaining the joint coordinates of the exercise posture correcting apparatus according to the embodiment of the present invention.
9 is a block diagram illustrating a cell of a multilayer two-dimensional LSTM network according to an embodiment of the present invention.
10 is a view for explaining a process of learning the exercise posture correcting apparatus according to an embodiment of the present invention.
FIG. 11 is a diagram for describing a multilayer two-dimensional LSTM network according to another embodiment of the present invention. FIG.
FIG. 11 is a diagram illustrating a result of detecting motion joints of a multilayer two-dimensional LSTM network according to an embodiment of the present invention. FIG.
13 is a view for explaining the detection of the motion joint according to an embodiment of the present invention.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following merely illustrates the principles of the invention. Therefore, those skilled in the art, although not explicitly described or illustrated herein, can embody the principles of the invention and invent various devices included in the concept and scope of the invention. In addition, all conditional terms and embodiments listed herein are in principle clearly intended to be understood only for the purpose of understanding the concept of the invention and are not to be limited to the specifically listed embodiments and states. do.
또한, 이하의 설명에서 제1, 제2 등과 같은 서수식 표현은 서로 동등하고 독립된 객체를 설명하기 위한 것이며, 그 순서에 주(main)/부(sub) 또는 주(master)/종(slave)의 의미는 없는 것으로 이해되어야 한다.In addition, in the following description, ordinal expressions such as first and second are used to describe objects that are equivalent and independent of each other, and in order of the main / sub or master / slave. It should be understood as meaningless.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above objects, features, and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby the technical spirit of the invention may be easily implemented by those skilled in the art. .
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be combined or combined with each other, partly or wholly, various technically possible interlocking and driving as can be understood by those skilled in the art, each of the embodiments may be independently implemented with respect to each other It may be possible to carry out together in an association.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 운동자세 교정 장치의 개략도이다. 도 2는 본 발명의 일 실시예에 따른 운동자세 교정 장치의 블록도이다.1 is a schematic diagram of the exercise posture correcting apparatus according to an embodiment of the present invention. 2 is a block diagram of the exercise posture correcting apparatus according to an embodiment of the present invention.
도 1을 참조하면, 운동자세 교정 시스템(1000)은 모션 센서(200), 운동자세 교정 장치(100) 및 데이터 베이스(900)를 포함한다. 바람직하게는 운동자세 교정 시스템(1000)은 안경 디스플레이 장치 또는 무선 이어폰 등의 외부 출력 장치(300)를 더 포함할 수 있다.Referring to FIG. 1, the workout
운동자세 교정 시스템(1000)은 LSTM(Long Short Term Memory) 기반의 학습 모델을 사용하여 운동 교정, 치료 등의 목적으로 모션 센서(200)를 이용해 획득한 골격 기반 영상(Skeleton-based Image)에 기초하여 운동 관절에 가해지는 부하를 연산하고, 바람직한 운동자세인지를 판단할 수 있는 시스템이다. The exercise
도 1을 참조하면, 운동자세 교정 시스템(1000)은 실시간으로 골격 기반 영상을 생성하는 모션 센서(200) 및 모션 센서(200)를 통해 획득된 골격 기반 영상에 기초하여 바람직한 운동 자세인지를 확인할 수 있는 운동자세 교정 장치(100) 및 데이터 베이스(900)를 포함할 수 있다.Referring to FIG. 1, the exercise
모션 센서(200)는 골격 기반 영상을 획득하기 위한 것으로서, 예컨데, 골격 정보를 제공하는 마이크로소프트사의 키넥트 등을 활용할 수 있다. 이 경우, 모션 센서(200)는 RGB 카메라, 적외선 카메라 및 적외선 프로젝터를 포함할 수 있으며, 적외선 카메라 및 적외선 프로젝터를 통하여 RGB 카메라로 촬영한 영상에 적외선을 이용하여 센싱한 깊이 정보를 활용하여 도 4의 (a)와 같은 골격 기반 영상을 획득할 수 있다. 단, 모션 센서(200)은 RGB 카메라, 적외선 카메라로부터 촬영된 영상 만을 제공할 수도 있으며, 운동자세 교정 장치(100)에서 이를 모션 센서 업체에서 제공하는 API로 처리하여 골격 기반 영상을 획득할 수도 있으나, 본 명세서에서는 모션 센서(200)에서 골격 기반 영상을 수신하는 경우와 촬영 영상만을 주고 API로 처리하는 경우를 포괄하여 골격 기반 영상을 '획득' 또는 '수신' 한다고 표현한다.The
단, 이러한 골격 기반 영상은 노이즈와 골격 부분의 가림(Occlusion)으로 인하여 촬영 각도에 따라 부정확한 골격 기반 영상이 획득되게 된다. 도 1에서는, 모션 센서(200)가 운동자세 교정 장치(100)와 별개의 구성인 것처럼 도시하였으나, 모션 센서(200)는 운동자세 교정 장치(100)와 물리적으로 하나의 디바이스에 포함된 구성, 예컨대, 휴대폰이 상술한 운동 자세 교정 장치(100)에 해당하고, 휴대폰의 카메라를 이용하여 본 발명의 실시예에 따른 모션 센서(200)가 구현될 수도 있다.However, due to the noise and occlusion of the skeletal part, the skeletal-based image is incorrectly acquired according to the photographing angle. In FIG. 1, the
운동자세 교정 장치(100)는 획득된 골격 기반 영상을 바탕으로 보정된 정확한 골격 기반 영상 및 운동 관절을 획득하고, 운동 관절에 가해지는 부하를 연산하고, 최대 부하 임계값과 비교하여, 바람직한 운동인지 여부를 확인하고, 교정 정보를 출력하게 된다. 운동자세 교정 장치(100)의 구성 및 상세 동작에 대해서는 후술한다.The exercise
또한, 이 경우, 외부 출력 장치(300)는 운동 시에 유선으로 연결되는 경우에는 운동에 방해가 될 수 있으므로, 상술한 운동자세 교정 장치(100)와 블루투스, WiFi 등의 무선 통신 수단으로 연결되는 것이 바람직하다. In addition, in this case, when the
한편, 데이터 베이스(900)는 운동자세 교정 장치(100)로부터의 다양한 정보를 저장하는 구성으로서, 모션 센서(200)로부터 수신한 신체 영상 및 관절 데이터(JD) 등을 저장할 수 있다. 또한, 데이터 베이스(900)는 운동자세 교정 시스템(1000)에서 사용되는 다양한 프로그램을 저장할 수 있다.On the other hand, the
이 경우, 데이터 베이스(900)는 상술한 운동 자세 교정 장치(100)와 물리적으로 하나의 디바이스로 구현될 수도 있다. 예컨대, 운동 자세 교정 장치(100)가 PC에 구현되고, 데이터 베이스(900)는 상기 PC 내의 저장 장치 내에 구현될 수도 있다. 또는, 데이터 베이스(900)는 상기 운동 자세 교정 장치(100) 외부의 서버로 구현될 수도 있다.In this case, the
이하에서는 도 2를 참조하여, 운동자세 교정 장치(100)를 상세하게 설명한다. 도 2에 도시된 바와 같이, 운동자세 교정 장치(100)는 수신부(110), 제어부(120), 처리부(130) 및 디스플레이부(140)를 포함한다. Hereinafter, the exercise
수신부(110)는 모션 센서(200)로부터 촬영된 골격 기반 영상을 수신할 수 있다. The
처리부(131)는 제어부(120)의 제어 하에 수신부(110)로부터 수신한 골격 기반 영상에 기초하여 원본 영상 보정, 운동 관절 검출, 부하 연산, 상태 판단 및 코칭 가이드 생성을 수행할 수 있다. 보다 상세하게, 도 2를 참조하면, 처리부(131)는 관절 검출부(130), 연산부(132), 부하 판단부(133) 및 자세 코칭부(134)를 포함할 수 있다. 처리부(131)에 의해 처리된 다양한 정보들은 운동자세 교정 장치(100)의 디스플레이부(140) 또는 외부 출력 장치(300)를 통해 표시 및 출력되고, 제어부(120)는 운동자세 교정 장치(100)의 각 구성들을 제어할 수 있다.The
이 경우, 관절 검출부(130)는 수신부(110)로부터 수신된 골격 기반 영상으로부터 운동 관절을 검출한다. 관절 검출부(130)는 예컨대, 도 4에 개시된 바와 같은 다층 이차원 LSTM 네트워크를 사용하여 운동 관절을 검출한다. 관절 검출부의 운동 관절 검출 동작에 대해서는 후술한다.In this case, the
연산부(132)는 골격 기반 영상으로부터 검출된 운동 관절에 기초하여 운동 관절의 토크를 계산하여 운동 관절에 가해지는 부하를 연산하고, 부하 판단부(133)는 연산된 운동 부하와 최대 부하를 비교한다. 이 경우, 연산된 운동 부하가 최대 부하 이상인 경우에는 운동 자세가 바르지 못한 것으로 판별할 수 있다. The
연산부(132)의 연산에 의해 관절의 부하상태를 판단할 수 있다. 또한, 자세 코칭부는 사용자 관절의 부하상태에 기초하여 운동자세를 코칭할 수 있다.The load state of the joint may be determined by the operation of the
상술한 바와 같이, 처리부(131)에 의해 복수의 관절 정보에 대한 처리가 완료되면 디스플레이부(140)를 통해 운동자세 교정에 대한 정보를 표시할 수 있다. 한편, 사용자에게 보다 생생한 코칭 정보를 전달하기 위하여, 운동자세 교정 장치(100)는 외부 출력 장치(300)을 통하여 코칭 정보를 전달할 수도 있다. 예컨대, 외부 출력 장치(300)가 안경 디스플레이인 경우, 이미지의 형태로, 외부 출력 장치(300)가 무선 이어폰인 경우에는 소리의 형태로 출력될 수 있다. 또는 이미지 및 소리의 혼합된 형태로 출력될 수 있다.As described above, when the processing of the plurality of joint information is completed by the
일반적으로 운동자세를 판단하는데 있어서, 사람들은 전문가들의 도움을 받아 운동자세 코칭을 받는 개인 지도(Personal Training) 방법을 이용하지만, 전문가들에게 조차도 신체적 특징이 각기 다른 수많은 사람들에게 최적의 운동자세를 제공하면서 자세를 교정시켜 주는 일엔 어려움이 존재하였다.In general, in determining the exercise posture, people use a personal training method, which is coached by an expert with the help of a professional, but even an expert provides the optimal exercise posture for a large number of people with different physical characteristics. There was a difficulty in correcting posture.
본 발명의 일 실시예에 따른 운동자세 교정 장치(100)는 실시간으로 촬영된 신체 영상과 미리 저장된 기준 영상과의 모델링을 통해 관절의 부하상태를 판단할 수 있고, 디스플레이를 통해 실시간으로 올바른 운동자세에 대한 안내를 제공받을 수 있다.The exercise
또한, 본 발명의 일 실시예에 따른 운동자세 교정 장치(100)는 모션 센서(200)로부터 실시간으로 촬영된 신체 영상과 데이터 베이스(900)에 미리 저장된 기준 영상을 비교하여 관절 상태를 판단함으로써 신속한 운동자세 교정이 가능하다.In addition, the exercise
또한, 본 발명의 일 실시예에 따른 운동자세 교정 장치(100)는 사람의 운동 중인 관절에 대한 토크를 계산함으로써 부하를 연산하여 운동 관절에 가해지는 부하를 정확하게 측정할 수 있고, 이에 따라, 관절에 무리가 가지 않으면서 효과적인 운동 방법을 제공할 수 있다.In addition, the exercise
이하에서는, 본 발명의 일 실시예에 따른 처리부(130)의 동작을 설명하기 위해 도 3 내지 도 6을 함께 참조한다.Hereinafter, to describe the operation of the
도 3은 본 발명의 일 실시예에 따른 운동자세 교정 방법을 설명하기 위한 순서도이다. 도 4는 본 발명의 일 실시예에 따른 관절 검출부(131)에 포함된 이차원 다층 LSTM 네트워크를 설명하기 위한 블록도이다. 도 5는 본 발명의 일 실시예에 따른 관절 검출부(131)의 관절 인덱스를 설명하기 위한 도면이다. 도 6는 본 발명의 일 실시예에 따른 부하 연산부의 연산을 설명하기 위한 도면이다.Figure 3 is a flow chart for explaining the exercise posture correcting method according to an embodiment of the present invention. 4 is a block diagram illustrating a two-dimensional multilayer LSTM network included in the
먼저, 모션 센서(200)를 이용하여 실시간으로 촬영된 골격 기반 영상을 수신하여 관절별 인덱스를 부여하고, 다층 이차원 LSTM 네트워크에 입력한다(S100).First, the skeleton-based image captured in real time using the
골격 기반 영상은 도 4의 (a)와 같은 이미지로 기본적으로 모션 센서에서 제공된다. 즉, 골격 기반 영상은 관절(510) 및 관절 연결선(520)을 포함하는데, 이에 대하여 관절 검출부(131)는 도 4 (a)와 같이 관절별로 인덱스(530)를 부여한다. The skeleton-based image is basically provided by a motion sensor as an image as shown in FIG. That is, the skeleton-based image includes a joint 510 and a joint connecting line 520, and the joint detecting
도 5(a)의 인덱스(530)는 연산 시 관절과 관절 사이의 관계를 쉽게 도출하기 위하여 도 5(b)와 같은 트리 구조로 번호를 부여한 것이다. 도 5(b)의 번호와 같이 인덱싱할 수도 있으나, 신뢰성을 향상시키기 위하여 도 5(c)와 같이 동일한 관절을 중복하여 배치하여 이 중으로 연결 관계가 반영되도록 연산하여 신뢰성을 향상시킬 수도 있다.The index 530 of FIG. 5 (a) is numbered in a tree structure as shown in FIG. 5 (b) in order to easily derive the relationship between the joints and the joints during the calculation. It may be indexed as shown in FIG. 5 (b), but in order to improve reliability, the same joints may be overlapped with each other as shown in FIG.
골격 기반 영상을 도 8과 같이 이차원 입력으로 제1층 LSTM 네트워크(410)의 입력층에 입력한다. The skeleton-based image is input to the input layer of the first
한편, 입력된 2차원 입력에 기초하여, 이차원 다층 LSTM 네트워크를 사용하여 운동 관절을 검출한다(S200). 이 경우, 이차원 다층 LSTM 네트워크는 제1층 LSTM 네트워크(410) 및 제2층 LSTM 네트워크(420)을 포함하며, 구체적인 동작은 추후 설명하도록 한다.On the other hand, based on the input two-dimensional input, using the two-dimensional multilayer LSTM network to detect the motion joint (S200). In this case, the two-dimensional multilayer LSTM network includes a first
한편, 운동 관절이 검출된 후, 부하 연산부(132)는 검출된 운동 관절의 부하를 연산한다. (단계 S300) On the other hand, after the motion joint is detected, the
예컨대, 도 5을 참조하면, 도 5는 사용자가 운동하면서 움직이는 관절 각각에 걸리는 토크와 무게를 표시한 것이다. 이 때, 부하 연산부(132)는 신체 영상에서 검출된 복수의 관절 데이터(JD)에 대한 토크를 각각 산출할 수 있다.For example, referring to FIG. 5, FIG. 5 shows torques and weights applied to respective joints moving while the user moves. In this case, the
이 경우, 부하 연산부(132)는 먼저 각 관절에서의 반작용의 힘을 아래 수학식 1과 같이 구한다. In this case, the
(수학식 1)(Equation 1)
이 때, Rj는 j 관절에서의 반작용 힘, WL은 인체 각 분절의 무게Where R j is the reaction force at the j joint and W L is the weight of each segment of the human body
한편, 부하 연산부(132)는 아래 수학식 2와 같이 각 관절의 부하(토크)를 연산한다. On the other hand, the
(수학식 2)(Equation 2)
이 때, Mj는 관절에서의 토크, jCML은 관절에서 분절의 무게 중심 까지의 길이, θj는 관절의 수평면에서 우측으로 분절과 이루는 각도를 의미하고, JJ-1은 분절의 길이를 의미한다. Where M j is the torque at the joint, jCM L is the length from the joint to the center of gravity of the segment, θ j is the angle with the segment from the horizontal plane of the joint to the right, and JJ-1 is the length of the segment. do.
부하 연산부의 연산 이후에는 부하 판단부(133)은 연산된 부하를 최대 부하 임계값과 비교한다. (단계 S400) After the calculation of the load calculator, the
최대 부하 임계값은 모범적인 운동 자세를 취하는 헬스 트레이너나 운동 전문가들의 골격 기반 영상에 기초하여 연산된 부하에 의하여 결정된다. 우선 모범적인 운동 사례를 통하여 관절마다의 최대 부하를 계산하게 되고, 사용자가 무게를 입력한 뒤 운동을 하게 되면 최대 부하를 이상인 경우에 사용자에게 경고를 하여서 교정을 할 수 있도록 한다. 이와 같은 방법으로 데드리프트, 벤치프레스 등 중량이 높은 운동을 교정할 수 있다.The maximum load threshold is determined by the load computed based on skeletal-based images of a fitness trainer or exercise specialist who takes a good workout posture. First, the maximum exercise for each joint is calculated through exemplary exercise cases, and if the user enters the weight and then exercises, the user is warned to correct when the maximum load is over. In this way, heavier exercises such as deadlifts and bench presses can be corrected.
마지막으로, 자세 코칭부(134)는 부하 판단부(133)의 판단 결과에 기초하여 교정 정보를 생성하고, 생성된 교정 정보를 운동자세 교정 장치(100)의 디스플레이 또는 외부 출력 장치에 전송하여 출력하게 된다. (단계 S500) 예컨대, 외부 출력 장치(300)가 안경 디스플레이인 경우, 이미지의 형태로, 외부 출력 장치(300)가 무선 이어폰인 경우에는 소리의 형태로 출력될 수 있다. 또는 이미지 및 소리의 혼합된 형태로 출력될 수 있다. Finally, the
따라서, 본 발명에 따르면, 사용자별 신체적 특징에 맞는 운동자세 교정이 가능한 딥러닝을 이용한 운동자세 교정 장치 및 방법이 된다.Therefore, according to the present invention, there is provided an exercise posture correcting apparatus and method using deep learning that can perform exercise posture correction according to physical characteristics for each user.
또한, 실시간으로 잘못된 운동자세를 교정함으로써 관절의 손상을 최소화함과 동시에 운동 능력을 증진시킬 수 있다.In addition, by correcting the wrong posture in real time to minimize the damage of the joint and at the same time can improve the exercise ability.
이하에서는 도 7 내지 도 10을 참조하여, 본 발명의 실시예에 따른 관절 검출 동작을 상세히 설명한다.Hereinafter, a joint detecting operation according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 7 to 10.
도 7은 본 발명의 실시예에 따른 관절 검출 동작을 설명하는 흐름도이다. 도 8은 본 발명의 실시예에 따른 이차원 입력을 설명하는 블록도이다. 도 9는 본 발명의 실시예에 따른 LSTM 네트워크의 셀 구조를 설명하는 도면이다. 도 10은 본 발명의 실시예에 따른 LSTM 네트워크의 학습을 설명하는 블록도이다.7 is a flowchart illustrating a joint detection operation according to an embodiment of the present invention. 8 is a block diagram illustrating a two-dimensional input according to an embodiment of the present invention. 9 is a diagram illustrating a cell structure of an LSTM network according to an embodiment of the present invention. 10 is a block diagram illustrating learning of an LSTM network according to an embodiment of the present invention.
도 7에 따르면, 본 발명의 실시예에 따른 관절 검출 동작은 먼저, 입력된 이차원 입력을 제1층 LSTM 네트워크(410)에 입력하여, 초기값 을 구하고 전역 컨택스트 메모리에 업데이트 한다. (단계 S210)According to FIG. 7, in the joint detecting operation according to the embodiment of the present invention, first, the input two-dimensional input is input to the first
보다 구체적으로, 이차원 입력은 도 8과 같이 정의된다. 공간적 입력인 가로축은 골격 기반 영상의 관절에 부여된 인덱스에 따라 결정되며, 시간적 입력인 세로축은 단위 시간의 골격 기반 영상 또는 골격 기반 영상의 시간 프레임에 따라 결정된다. 따라서, 도 8과 같이 나열된 이차원 입력을 제1층 LSTM 네트워크(410)에 입력하게 된다.More specifically, the two-dimensional input is defined as shown in FIG. The horizontal axis, which is a spatial input, is determined according to an index given to a joint of a skeleton-based image, and the vertical axis, which is a temporal input, is determined according to a time frame of a skeleton-based image or a skeleton-based image of unit time. Accordingly, the two-dimensional inputs listed as shown in FIG. 8 are input to the first
한편, 제1층 LSTM 네트워크(410)의 각 셀은 도 9과 같은 구조를 가지며, 이를 수학식으로 표시하면 아래 수학식 3 내지 수학식 5과 같다. On the other hand, each cell of the first
(수학식 3)(Equation 3)
(수학식 4)(Equation 4)
(수학식 5)(Equation 5)
여기서, W 함수는 파라미터들로 이루어진 아핀 변환을 의미하며, 파라미터들은 추후에 설명되는 방법으로 학습된다. 그리고, ⊙는 요소별 곱을 나타내는 하다마드 곱(Hadamard Product) 연산이며, 입력 게이트 ij,t⊙uj,t는 '현재 정보를 기억하기' 위한 역할을 하는 게이트이다. Here, the W function means an affine transformation of parameters, and the parameters are learned in a manner described later. And, ⊙ is a Hadamard Product operation that represents the product of each element, the input gate i j, t ⊙u j, t is a gate that serves to 'remember the current information'.
본 발명 중의 특징 중의 하나인, fT j,t, fS j,t는 '과거 정보를 잊기' 위한 게이트로서, 본 발명에서는 공간적 망각 게이트(forget gate)인 fT j,t 및 시간적 망각 게이트(forget gate)인 fS j,t 두 개의 망각 게이트를 사용한다. 이 경우, 공간적 및 시간적 2 개의 망각 게이트를 사용함으로써, 공간적 및 시간적으로 이전 단계와 대비해 볼 때에 공간적으로 연결 관계가 이상하거나, 시간적으로 연결 관계가 이상한 경우에는 그 경우의 현재 데이터(관절의 영상내 좌표)는 출력되지 않고 차단되도록 구성된다. 여기서, 공간은, 앞서 설명한 인덱스(530)에 기초하여 정의되며, 시간은 영상의 프레임에 기초하여 정의된다.One of the features of the present invention, f T j, t , f S j, t is a gate for 'forgetting past information', and in the present invention, f T j, t and temporal forgetting gate are spatial forget gates. We use two forget gates, f S j, t (forget gate). In this case, by using two spatial and temporal forgetting gates, the current data in that case (in the image of the joint) is abnormal when the spatial relationship is abnormal or the temporal connection is abnormal in comparison with the previous step in space and time. Coordinates) are configured to be blocked without being output. Here, the space is defined based on the index 530 described above, and the time is defined based on the frame of the image.
한편, 도 9를 참조하면, 셀에는 다음 셀의 예측 값과 현재 입력 값의 차이가 반영된다. 구체적으로, pj,t는 예측 게이트로서 활성화 함수 tanh를 취한 값이며, x'j,t 현재 입력 값에 tanh를 취한 값이다. 따라서, 신뢰 게이트 τj,t는 예측 값과 현재 입력 값의 차이를 반영하게 된다. 이는 본 발명의 특징으로, 신뢰 게이트의 값에 망각 게이트와 하마다드 곱 연산이 되어 반영되며, 신뢰 게이트 값에 기초하여 차단 여부가 결정되도록 구성된다.Meanwhile, referring to FIG. 9, the difference between the prediction value of the next cell and the current input value is reflected in the cell. Specifically, p j, t is a value of the activation function tanh as the prediction gate, and is a value of tanh of the current input value of x ' j, t . Therefore, the confidence gate τ j, t reflects the difference between the predicted value and the current input value. This is a feature of the present invention, and the value of the confidence gate is reflected by the forgetting gate and Hamadad product calculation, it is configured to determine whether to block based on the trust gate value.
pj,t, x'j,t, τj,t는 각각 아래와 같은 수식으로 구하게 된다.p j, t , x ' j, t , τ j, t can be found by the following equation.
(수학식 6)(Equation 6)
(수학식 7)(Equation 7)
(수학식 8)(Equation 8)
Mx는 아핀 변환을 의미하며, G 함수는 요소별 연산으로서, 아래 수학식 9와 같이 연산된다. M x means an affine transformation, and the G function is an element-specific operation, which is calculated as in
(수학식 9)(Equation 9)
여기서, λ는 가우시안 함수의 확산(spread)를 조절하기 위한 요소이다.Here, λ is an element for controlling the spread of the Gaussian function.
마지막으로, 앞서 수학식 2로 표시한 바와 같이, C는 LSTM에서 셀 상태를 나타내는 변수로, 여기에 공간적 및 시간적 망각 게이트, 신뢰 게이트 및 입력 값, 공간적 이전 출력(hj-1,t), 시간적 이전 출력(hj,t-1)에 기초하여 출력 값(hj,t)이 출력되게 된다.Finally, as represented by
마지막으로 목적 함수를 최소화하는 값으로 제1층 LSTM 네트워크(410)를 학습시킨다. 여기서, 제1층 LSTM 네트워크(410)는 소프트맥스 층(Softmax layer)을 사용하여 실제 움직임과 예측 움직임과의 차이를 최소화하도록 네트워크를 학습시킨다. 목적 함수(L)는 하기 수학식에 의해 결정되며, y는 모든 점의 움직임들을 평균하여 연산하고, 는 j,t에서 예측한 움직임을 나타낸다.Finally, the first
(수학식 10)(Equation 10)
이 때, 는 y와 의 차이를 측정하는 음의 로그우도 손실(negative log-likelihood loss)이다. 위와 같은 방법으로 hj,t가 얻어지면, 이 결과 값들을 이용하여 아래의 초기값 을 구하고, 전역 컨텍스트 메모리(Global Context Memory, 420)에 초기값으로서 저장된다.At this time, With y Negative log-likelihood loss that measures the difference between If h j, t is obtained in the same way as above , then the initial value of Is obtained and stored as an initial value in the
(수학식 11)(Equation 11)
한편, hj,t는 제2층 LSTM 네트워크(420)의 입력층에 입력된다. 제2층 LSTM 네트워크(420)에서는 각각에 대한 유용성 점수(r(n) j,t)를 이용하여 관심있는 관절(운동 관절)을 검출하게 된다. (단계 S220)On the other hand, h j, t is input to the input layer of the second
이 경우, 유용성 점수(r(n) j,t)는 아래의 수학식 12, 13로부터 찾는다.In this case, the usability score r (n) j, t is found from the following equations (12) and (13).
(수학식 12)(Equation 12)
(수학식 13)(Equation 13)
제2층 LSTM 네트워크(420)는 기본적으로 제1층 LSTM 네트워크와 유사하나, 유용성 점수를 활용하여, 셀 상태 값을 아래 수학식 14와 같이 업데이트 한다.The second
(수학식 14)(Equation 14)
이 경우, 위의 식에서 알 수 있는 바와 같이, 유용성 점수에 의하여 관심 있는(운동이 발생하고 있는) 현재 데이터는 출력되게 되고, 관심 없는 현재 데이터는 차단되게 된다.In this case, as can be seen from the above equation, the current data of interest (exercise occurring) is outputted by the usability score, and the current data of interest is blocked.
그리고, 아래 수학식 15에 의하여 개선된 값으로 전역 컨텍스트 메모리(430)가 업데이트 된다.In addition, the
(수학식 15)(Equation 15)
여기서, F(n)은 n번 제2층 LSTM 네트워크의 연산이 반복되는 경우에 업데이트 되는 전역 컨텍스트 메모리(430)에 저장되는 값이다. Here, F (n) is a value stored in the
아래와 같은 수학식 14와 같은 소프트맥스 층을 이용한 분류기(440)에서 해당 관절이 운동하는 운동 관절인지 여부를 분류하게 된다. (단계 S230)In the
(수학식 16)(Equation 16)
그리고, 다시, 수학식 10을 이용하여, 로그 우도 손실 함수가 최소값이 되는 파라미터들을 학습하게 된다. 한편, 도 9에 나타낸 바와 같이, 개선된 F(n)이 전역 컨텍스트 메모리에 저장되고, 연산된 결과값 hj,t는 다시 제2층 LSTM 네트워크(420)로 입력되어 제2층 LSTM 네트워크(420)의 학습이 반복된다.Then, again, using
이 때, 도 10(a)와 같이 전체 네트워크를 직접 최적화하는 것이 자연스럽고 직관적이지만, 본 발명의 실시예와 같이 2개의 모듈이 상호작용하여 파라미터들이 많은 상황에서는 구현하기 어려워 도 10(b)와 같이 단계적으로 네트워크를 최적화한다. 단계적으로 네트워크가 최적화되어 있어서, n+1단계에서는 n단계까지의 네트워크가 최적화 되어있기 때문에 더욱 효율적이고 효과적으로 최적화할 수 있다.At this time, it is natural and intuitive to directly optimize the entire network as shown in FIG. 10 (a), but it is difficult to implement in a situation where two modules interact with each other as in the embodiment of the present invention. Step by step optimize your network. Since the network is optimized in stages, in the n + 1 stage, the network up to n stages can be optimized more efficiently and effectively.
도 12는 제2층 LSTM 네트워크에 의하여 학습된 결과를 보여주고 있다. 제2층 LSTM 네트워크에 의하여 1 회만 반복적으로 검출되는 경우(Attention iteration #1)에는 휴대폰 셀프 카메라를 찍는 동작에서 다리의 관절까지 운동 관절로 검출된 것을 알 수 있으나, 2회 반복 검출하는 경우에는 정확하게 상체의 팔 부분이 운동 관절로 표시됨을 보여주고 있다.12 shows the results learned by the second layer LSTM network. If it is detected by the second layer LSTM network only once (Attention iteration # 1), it can be seen that the motion joint was detected by the joint of the leg in the operation of taking a self-camera of the mobile phone. It shows that the upper arm is represented by the motion joint.
또한, 물건을 놓는 자세에서도 정확하게 움직이는 관절을 운동 관절로 표시하는 것을 볼 수 있다. 마지막으로 서로를 차는 장면에서도 정확하게 무릎과 다리 부분을 운동 관절로 검출할 수 있다. 반복을 계속하는 경우에는 좀 더 정확도가 향상될 수 있으나, 효율성을 위하여 적절한 회수를 반복하게 하는 것이 바람직하다.In addition, it can be seen that the joint that moves accurately in the posture of placing the object as the motion joint. Finally, even in the kicking scene, the knees and legs can be accurately detected by the exercise joint. If the repetition continues, more accuracy can be improved, but it is desirable to repeat the appropriate number of times for efficiency.
이하에서는 도 11을 참조하여, 2개의 스트림을 활용하여 판정하는 예를 설명한다. 다른 실시예에서는 2개층의 LSTM 네트워크를 이용하여 운동 관절을 검출하였는데, 본 실시예에서는 하나의 층(제3층 LSTM 네트워크, 450)가 더 추가된다. Hereinafter, an example of determining by utilizing two streams will be described with reference to FIG. 11. In another embodiment, the motion joint was detected using two layers of LSTM networks. In this embodiment, one layer (the third layer LSTM network 450) is further added.
이 경우, 전체적으로 제3층 LSTM 네트워크의 동작은 기본적으로 제2층 LSTM 네트워크와 동일하다. In this case, the operation of the third layer LSTM network as a whole is basically the same as the second layer LSTM network.
단, 차이점은, 신체를 5부분으로 분할하고(좌우 팔/다리, 몸통, 도 11의 JDG) 위의 수학식 10을 적용할 때에, 각 관절을 전부 대입하지 않고 각 부분에 해당하는 관절의 대표 값(예를 들면, 평균 좌표 값)을 활용하여 관심 있는 관절을 추출한다는 것이 다르다. 그리고, 제2층 LSTM 네트워크의 전역 컨텍스트 메모리는 세부 관심 컨텍스트 메모리라 하고, 제3층 LSTM 네트워크의 전역 컨텍스트 메모리는 개략적 관심 컨텍스트 메모리라 한다.However, the difference is that when the body is divided into 5 parts (left and right arms / legs, torso, and JDG in FIG. 11) and the
이 경우, 제2층 LSTM 네트워크를 세부 관심 스트림으로, 제3층 LSTM 네트워크를 개괄적 관심 스트림으로 하는 2개의 스트림을 활용하여 보다 정확한 운동 분류가 가능해진다. In this case, more accurate motion classification is possible by utilizing two streams of the second layer LSTM network as the detailed interest stream and the third layer LSTM network as the general interest stream.
이하에서는 도 13을 참조하여 스쿼트 운동 시의 운동 관절 검출 및 부하 판단 예시에 대하여 설명한다. Hereinafter, with reference to FIG. 13 will be described an example of the motion joint detection and load determination during the squat exercise.
도 13을 참조하면, 스쿼트 운동에 대한 모범적인 관절 데이터(JD)를 갖는 기준 영상으로서, 기준 영상을 3차원 좌표 상에 배치한 후 골격 영상을 검출한다. 이때, 기준 영상의 사용자가 들고 있는 웨이트 트레이닝 장비의 무게 정보를 입력받고, 그 무게 정보에 대응하는 최대 부하를 설정한다. 예를 들면, 70kg의 장비를 들고 있는 사용자의 무릎 관절에 걸리는 최대 부하가 140kg이라고 가정했을 때, 들고 있는 무게의 2배의 무게를 무릎 관절에 걸리는 최대부하의 임계치로 볼 수 있다.Referring to FIG. 13, as a reference image having exemplary joint data (JD) for squat motion, a reference image is disposed on three-dimensional coordinates and then a skeleton image is detected. At this time, the weight information of the weight training equipment held by the user of the reference image is input, and the maximum load corresponding to the weight information is set. For example, assuming that the maximum load on the knee joint of a user holding 70 kg of equipment is 140 kg, the weight twice the weight of the user can be regarded as the threshold of the maximum load on the knee joint.
이에, 사용자가 무게를 입력하고 운동을 할 경우, 현재 들고있는 장비 무게의 2배이상의 부하가 무릎 관절에 가해질 경우 자세 코칭부가 이를 사용자에게 알리고 자세를 교정할 수 있도록 알림을 제공한다. 도 11에서는 수행하는 운동을 스쿼트로 제한하였지만, 데드리프트, 벤치프레스 등 중량이 높은 장비를 사용하는 운동이라면 다양하게 적용가능하다.Thus, when the user enters the weight and exercise, the posture coaching part informs the user and corrects the posture when a load of more than twice the weight of the current equipment is applied to the knee joint. In FIG. 11, the exercise is limited to squats. However, if the exercise is performed using heavy equipment such as deadlifts and bench presses, the present invention may be variously applied.
따라서, 본 발명의 일 실시예에 따른 운동자세 교정 장치(100)는 사용자의 관절에 걸리는 토크와 무게를 계산하여 모범 데이터와 사용자의 데이터를 비교 분석함으로서 사용자가 자신의 신체 조건에 맞춰 운동을 변형하여도 자신에게 맞는 운동자세가 유지될 수 있도록 운동자세를 교정할 수 있다.Therefore, the exercise
또한, 본 발명의 일 실시예에 따른 운동자세 교정 장치(100)는 사용자가 올바른 운동자세로 운동할 수 있도록 잘못된 자세에 대한 알림을 실시간으로 제공함으로서 관절의 손상을 최소함과 동시에 운동 능력을 증진시킬 수 있다.In addition, the exercise
또한, 본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 상기 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Further, the system according to the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. The computer readable recording medium may include a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, DVD, etc.). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention. . Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
1000: 운동자세 교정 시스템
100: 운동자세 교정 장치
110: 수신부
120: 제어부
130: 관절 검출부
131: 처리부
132: 연산부
133: 부하 판단부
134: 자세 코칭부
140: 디스플레이부
200: 모션 센서
900: 데이터 베이스
JC: 관절 좌표
JD: 관절 데이터
JDG: 관절 데이터 그룹1000: exercise posture correction system
100: exercise posture correction device
110: receiver
120: control unit
130: joint detection unit
131: processing unit
132: arithmetic unit
133: load determination unit
134: posture coaching unit
140: display unit
200: motion sensor
900: database
JC: Joint Coordinates
JD: Joint Data
JDG: Joint Data Group
Claims (15)
상기 모션 센서로부터 수신한 골격 기반 영상에 기초하여 관절에 가해지는 부하를 연산하는 처리부를 포함하며,
상기 처리부는,
상기 골격 기반 영상으로부터 다층 이차원 LSTM 네트워크를 사용하여 운동 관절을 검출하는 관절 검출부;
상기 운동 관절에 대한 부하를 연산하는 부하 연산부;
최대 부하 임계값과 상기 연산된 부하를 비교하여 운동 자세를 판단하는 부하 판단부; 및
상기 운동 자세에 따른 교정 정보를 생성하는 운동자세 코칭부를 포함하고,
상기 다층 이차원 LSTM 네트워크는 상기 골격 기반 영상을 입력받아 보정된 관절 좌표를 생성하는 제1층 LSTM 네트워크와, 상기 제1층 LSTM 네트워크로부터 상기 보정된 관절 좌표를 입력으로 하여 운동 관절을 검출하는 제2층 LSTM 네트워크를 포함하는,
딥러닝을 이용한 운동자세 교정 장치.Receiving unit for receiving a skeleton-based image in real time from the motion sensor; And
It includes a processing unit for calculating the load applied to the joint based on the skeleton-based image received from the motion sensor,
The processing unit,
A joint detector for detecting a motion joint using a multilayer two-dimensional LSTM network from the skeletal-based image;
A load calculator configured to calculate a load on the exercise joint;
A load determination unit that determines an exercise posture by comparing a maximum load threshold with the calculated load; And
An exercise posture coaching unit for generating correction information according to the exercise posture,
The multilayer two-dimensional LSTM network receives a first layer LSTM network that receives the skeletal-based image to generate corrected joint coordinates, and a second that detects a motion joint by inputting the corrected joint coordinates from the first layer LSTM network. Including Layer LSTM Network,
Exercise posture correcting device using deep learning.
상기 제1층 LSTM 네트워크는 상기 관절 좌표의 공간적인 좌표의 이상여부를 판단하는 공간적 망각 게이트와 상기 관절 좌표의 시간적인 이상여부를 판단하는 시간적 망각 게이트를 포함하는,
딥러닝을 이용한 운동자세 교정 장치.The method of claim 1,
The first layer LSTM network includes a spatial forgetting gate that determines whether the spatial coordinates of the joint coordinates are abnormal and a temporal forgetting gate that determines whether the joint coordinates are temporally abnormal.
Exercise posture correcting device using deep learning.
상기 제2층 LSTM 네트워크는 유용성 정보를 연산하고, 상기 유용성 정보에 기초하여 운동 관절 여부를 판단하는,
딥러닝을 이용한 운동자세 교정 장치.The method of claim 1,
The second layer LSTM network calculates usefulness information, and determines whether or not a motion joint is based on the usefulness information.
Exercise posture correcting device using deep learning.
상기 부하 판단부는, 상기 운동 관절에 대한 부하가 최대 부하 임계치 이상인 경우, 관절에 과부하가 발생한 것으로 판단하는,
딥러닝을 이용한 운동자세 교정 장치.The method of claim 1,
The load determination unit, when the load on the exercise joint is greater than the maximum load threshold, determines that the overload occurs in the joint,
Exercise posture correcting device using deep learning.
상기 부하 판단부는,
사용자의 무게를 미리 입력 받고, 상기 무게 별로 상기 최대 부하 임계치를 다르게 설정하는,
딥러닝을 이용한 운동자세 교정 장치.The method of claim 5,
The load determination unit,
Receiving the user's weight in advance and setting the maximum load threshold differently for each weight;
Exercise posture correcting device using deep learning.
상기 운동자세 교정 장치는 외부 출력 장치를 더 포함하고, 상기 처리부는 상기 외부 출력 장치에 상기 교정 정보를 전송하여 출력하도록 하는,
딥러닝을 이용한 운동자세 교정 장치.The method of claim 1,
The exercise posture correcting apparatus further includes an external output device, and the processor transmits and outputs the calibration information to the external output device.
Exercise posture correcting device using deep learning.
상기 처리 단계는, 상기 골격 기반 영상으로부터 다층 이차원 LSTM 네트워크를 사용하여 운동 관절을 검출하는 관절 검출 단계;
상기 운동 관절에 대한 부하를 연산하는 부하 연산 단계;
최대 부하 임계값과 상기 연산된 부하를 비교하여 운동 자세를 판단하는 부하 판단 단계; 및
상기 운동 자세에 따른 교정 정보를 생성하는 운동자세 코칭 단계를 포함하고,
상기 다층 이차원 LSTM 네트워크는 상기 골격 기반 영상을 입력받아 보정된 관절 좌표를 생성하는 제1층 LSTM 네트워크와, 상기 제1층 LSTM 네트워크로부터 상기 보정된 관절 좌표를 입력으로 하여 운동 관절을 검출하는 제2층 LSTM 네트워크를 포함하는,
딥러닝을 이용한 운동자세 교정 방법.Receiving a skeleton-based image in real time from a motion sensor; And a processing step of calculating a load applied to a joint based on the skeleton-based image.
The processing step may include: detecting a joint using a multi-layer two-dimensional LSTM network from the skeletal-based image;
A load calculation step of calculating a load on the exercise joint;
A load determination step of determining an exercise posture by comparing a maximum load threshold value with the calculated load; And
An exercise posture coaching step of generating correction information according to the exercise posture,
The multilayer two-dimensional LSTM network receives a first layer LSTM network that receives the skeletal-based image to generate corrected joint coordinates, and a second that detects a motion joint by inputting the corrected joint coordinates from the first layer LSTM network. Including Layer LSTM Network,
Exercise posture correction method using deep learning.
상기 제1층 LSTM 네트워크는 상기 관절 좌표의 공간적인 좌표의 이상여부를 판단하는 공간적 망각 게이트와 상기 관절 좌표의 시간적인 이상여부를 판단하는 시간적 망각 게이트를 포함하는,
딥러닝을 이용한 운동자세 교정 방법.The method of claim 8,
The first layer LSTM network includes a spatial forgetting gate that determines whether the spatial coordinates of the joint coordinates are abnormal and a temporal forgetting gate that determines whether the joint coordinates are temporally abnormal.
Exercise posture correction method using deep learning.
상기 제2층 LSTM 네트워크는 유용성 정보를 연산하고, 상기 유용성 정보에 기초하여 운동 관절 여부를 판단하는,
딥러닝을 이용한 운동자세 교정 방법.The method of claim 8,
The second layer LSTM network calculates usefulness information, and determines whether or not a motion joint is based on the usefulness information.
Exercise posture correction method using deep learning.
상기 부하 판단 단계는,
상기 운동 관절에 대한 부하가 최대 부하 임계치 이상인 경우, 관절에 과부하가 발생한 것으로 판단하는,
딥러닝을 이용한 운동자세 교정 방법.The method of claim 8,
The load determination step,
When the load on the exercise joint is greater than or equal to the maximum load threshold, it is determined that the overload occurs in the joint,
Exercise posture correction method using deep learning.
상기 부하 판단 단계는,
사용자의 무게를 미리 입력 받고, 상기 무게 별로 상기 최대 부하 임계치를 다르게 설정하는,
딥러닝을 이용한 운동자세 교정 방법.The method of claim 12,
The load determination step,
Receiving the user's weight in advance and setting the maximum load threshold differently for each weight;
Exercise posture correction method using deep learning.
상기 처리 단계는 외부 출력 장치에 상기 교정 정보를 전송하여 출력하도록 하는,
딥러닝을 이용한 운동자세 교정 방법.The method of claim 8,
The processing step is to transmit and output the calibration information to an external output device,
Exercise posture correction method using deep learning.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180129777A KR102071532B1 (en) | 2018-10-29 | 2018-10-29 | An Apparatus and Method For Exercise Posture Correction Device Using Deep Learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180129777A KR102071532B1 (en) | 2018-10-29 | 2018-10-29 | An Apparatus and Method For Exercise Posture Correction Device Using Deep Learning |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102071532B1 true KR102071532B1 (en) | 2020-01-30 |
Family
ID=69321278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180129777A KR102071532B1 (en) | 2018-10-29 | 2018-10-29 | An Apparatus and Method For Exercise Posture Correction Device Using Deep Learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102071532B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210112024A (en) | 2020-03-04 | 2021-09-14 | 김호동 | Table tennis posture correction system and operation method based on deep learning |
KR20210115465A (en) | 2020-03-13 | 2021-09-27 | 김호동 | Artificial intelligence smart table tennis system and operation method |
KR20210117385A (en) | 2020-03-18 | 2021-09-29 | 김호동 | Table tennis target training system and operation method using artificial intelligence |
KR20220037107A (en) * | 2020-09-17 | 2022-03-24 | 주식회사 지누소프트 | Method and apparatus of coaching home training service |
WO2022092589A1 (en) * | 2020-10-27 | 2022-05-05 | 엘지전자 주식회사 | Exercise coaching device based on artificial intelligence |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100772497B1 (en) * | 2006-10-09 | 2007-11-01 | 박찬애 | Golf clinic system and application method thereof |
JP2016179048A (en) * | 2015-03-24 | 2016-10-13 | 国立大学法人埼玉大学 | Joint load visualization system |
KR101909693B1 (en) * | 2017-06-07 | 2018-10-24 | (주)앤트로스 | Fitness system providing virtual fitness trainer based on augmented reality |
-
2018
- 2018-10-29 KR KR1020180129777A patent/KR102071532B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100772497B1 (en) * | 2006-10-09 | 2007-11-01 | 박찬애 | Golf clinic system and application method thereof |
JP2016179048A (en) * | 2015-03-24 | 2016-10-13 | 国立大学法人埼玉大学 | Joint load visualization system |
KR101909693B1 (en) * | 2017-06-07 | 2018-10-24 | (주)앤트로스 | Fitness system providing virtual fitness trainer based on augmented reality |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210112024A (en) | 2020-03-04 | 2021-09-14 | 김호동 | Table tennis posture correction system and operation method based on deep learning |
KR20210115465A (en) | 2020-03-13 | 2021-09-27 | 김호동 | Artificial intelligence smart table tennis system and operation method |
KR20210117385A (en) | 2020-03-18 | 2021-09-29 | 김호동 | Table tennis target training system and operation method using artificial intelligence |
KR20220037107A (en) * | 2020-09-17 | 2022-03-24 | 주식회사 지누소프트 | Method and apparatus of coaching home training service |
KR102472086B1 (en) * | 2020-09-17 | 2022-11-30 | 주식회사 지누소프트 | Method and apparatus of coaching home training service |
WO2022092589A1 (en) * | 2020-10-27 | 2022-05-05 | 엘지전자 주식회사 | Exercise coaching device based on artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102071532B1 (en) | An Apparatus and Method For Exercise Posture Correction Device Using Deep Learning | |
US20230089962A1 (en) | Training system and methods for designing, monitoring and providing feedback of training | |
US11069144B2 (en) | Systems and methods for augmented reality body movement guidance and measurement | |
US11633659B2 (en) | Systems and methods for assessing balance and form during body movement | |
TWI603294B (en) | Systems and methods for analyzing a motion based on images | |
JP7057959B2 (en) | Motion analysis device | |
JP6973388B2 (en) | Information processing equipment, information processing methods and programs | |
KR101931784B1 (en) | Virtual fitness system for multi-user | |
CN103678859B (en) | Motion comparison method and motion comparison system | |
Anilkumar et al. | Pose estimated yoga monitoring system | |
KR20160130085A (en) | Exercising Method and System Using a Smart Mirror | |
JP2013500758A (en) | Method and apparatus for providing a training program to a subject | |
US11726550B2 (en) | Method and system for providing real-time virtual feedback | |
US20220245836A1 (en) | System and method for providing movement based instruction | |
WO2020084667A1 (en) | Recognition method, recognition program, recognition device, learning method, learning program, and learning device | |
KR20180110443A (en) | Apparatus and method for providing calorie information | |
US20210060385A1 (en) | Advancement Manager In A Handheld User Device | |
KR101636171B1 (en) | Skeleton tracking method and keleton tracking system using the method | |
Kanase et al. | Pose estimation and correcting exercise posture | |
KR102369945B1 (en) | Device and method to discriminate excersice stance using pressure | |
KR20220058790A (en) | Exercise posture analysis method using dual thermal imaging camera, guide method for posture correction and computer program implementing the same method | |
US10607359B2 (en) | System, method, and apparatus to detect bio-mechanical geometry in a scene using machine vision for the application of a virtual goniometer | |
Chariar et al. | AI trainer: Autoencoder based approach for squat analysis and correction | |
US20140073383A1 (en) | Method and system for motion comparison | |
KR102301575B1 (en) | Music modulation auditory feedback system using wireless earphones and smart phones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |