KR102433074B1 - Balance training system with heterogeneous sensors and method for determining correct posture using the same - Google Patents
Balance training system with heterogeneous sensors and method for determining correct posture using the same Download PDFInfo
- Publication number
- KR102433074B1 KR102433074B1 KR1020190177103A KR20190177103A KR102433074B1 KR 102433074 B1 KR102433074 B1 KR 102433074B1 KR 1020190177103 A KR1020190177103 A KR 1020190177103A KR 20190177103 A KR20190177103 A KR 20190177103A KR 102433074 B1 KR102433074 B1 KR 102433074B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- coordinate
- user
- sensor module
- posture
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B26/00—Exercising apparatus not covered by groups A63B1/00 - A63B25/00
- A63B26/003—Exercising apparatus not covered by groups A63B1/00 - A63B25/00 for improving balance or equilibrium
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/1036—Measuring load distribution, e.g. podologic studies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1124—Determining motor skills
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4005—Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
- A61B5/4023—Evaluating sense of balance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6823—Trunk, e.g., chest, back, abdomen, hip
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0062—Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/09—Rehabilitation or training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0247—Pressure sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/18—Inclination, slope or curvature
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/50—Force related parameters
- A63B2220/56—Pressure
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
Abstract
본 일 실시 예에 따른 이종의 센서 모듈을 포함하는 균형 훈련 시스템에 의해 수행되는 올바른 자세를 판단하기 위한 방법은, 깊이 센서 모듈을 기반으로 사용자의 영상 정보를 획득하는 단계; 영상 정보를 기반으로 사용자를 위해 미리 설정된 복수의 골격을 위한 골격 위치 정보를 획득하는 단계; 골격 위치 정보를 기반으로 적어도 하나의 관심 골격에 상응하는 적어도 하나의 제1 좌표 정보를 생성하는 단계; 적어도 하나의 제1 좌표 정보 및 몸통 센서 모듈의 출력 정보인 제2 좌표 정보를 기반으로 적어도 한 쌍의 기울기 정보를 생성하는 단계; 적어도 한 쌍의 기울기 정보와 미리 설정된 정상 데이터를 기반으로 사용자의 자세의 정상 여부를 판단하는 단계; 및 자세의 정상 여부에 대한 판단을 기반으로 사용자를 위한 알람 정보를 생성하는 단계를 포함한다.A method for determining a correct posture performed by a balance training system including a heterogeneous sensor module according to an embodiment includes: acquiring image information of a user based on a depth sensor module; obtaining skeleton position information for a plurality of skeletons preset for a user based on image information; generating at least one piece of first coordinate information corresponding to at least one bone of interest based on the bone location information; generating at least one pair of inclination information based on at least one piece of first coordinate information and second coordinate information that is output information of the body sensor module; determining whether the user's posture is normal based on at least one pair of inclination information and preset normal data; and generating alarm information for the user based on the determination of whether the posture is normal.
Description
본 명세서는 재활 환자를 위한 균형 훈련 장치에 관한 것으로, 더 구체적으로 이종의 센서가 구비된 균형 훈련 시스템 및 이를 이용한 올바른 자세를 판단하기 위한 방법에 관한 것이다.The present specification relates to a balance training apparatus for a rehabilitation patient, and more particularly, to a balance training system equipped with heterogeneous sensors and a method for determining a correct posture using the same.
편마비 환자 등 뇌졸중을 포함하는 뇌신경계 질환의 환자들의 경우, 균형 감각의 이상으로서 신체가 뒤틀리는 등의 문제가 발생할 수 있다.In the case of patients with cranial nervous system diseases including stroke, such as hemiplegic patients, problems such as body twisting may occur due to an abnormal sense of balance.
균형 감각에 이상이 오면 어느 정도의 균형 이상이 있는지 등을 평가하여 균형 상태를 판단하고, 균형 이상의 치료 방법으로서 균형의 재활 훈련을 수행하여야 한다.If there is an abnormality in the sense of balance, it is necessary to evaluate the degree of balance abnormality, etc. to determine the state of balance, and to perform rehabilitation training for balance as a treatment method for the abnormality.
균형 평가 및 균형 훈련을 위한 다양한 장치들이 나오고 있으나, 대부분 무게가 무겁고 지정된 위치에서만 균형 평가 및 균형 훈련을 수행할 수 있거나, 간편하게 이동시켜 사용하는 장치라 하더라도 제한된 균형 평가 및 균형 훈련 방식만을 제공하고 있는 문제점이 있다.There are various devices for balance evaluation and balance training, but most of them are heavy and can perform balance evaluation and balance training only in a designated location, or even devices that are easily moved and used only provide limited balance evaluation and balance training methods. There is a problem.
종래 제안으로는 등록특허공보 제10-1932553 호에서 낙상 위험 평가 시스템에 관하여 언급된다.As a conventional proposal, reference is made to a fall risk assessment system in Korean Patent Publication No. 10-1932553.
본 명세서의 목적은 이종의 센서가 구비된 균형 훈련 시스템 및 이를 이용한 올바른 자세를 판단하기 위한 방법을 제공하여 재활 환자의 자세를 더 정확하게 분석하는데 있다.An object of the present specification is to more accurately analyze the posture of a rehabilitation patient by providing a balance training system equipped with heterogeneous sensors and a method for determining a correct posture using the same.
본 일 실시 예에 따른 이종의 센서 모듈을 포함하는 균형 훈련 시스템에 의해 수행되는 올바른 자세를 판단하기 위한 방법은, 깊이 센서 모듈을 기반으로 사용자의 영상 정보를 획득하는 단계; 영상 정보를 기반으로 사용자를 위해 미리 설정된 복수의 골격을 위한 골격 위치 정보를 획득하는 단계; 골격 위치 정보를 기반으로 적어도 하나의 관심 골격에 상응하는 적어도 하나의 제1 좌표 정보를 생성하는 단계; 적어도 하나의 제1 좌표 정보 및 몸통 센서 모듈의 출력 정보인 제2 좌표 정보를 기반으로 적어도 한 쌍의 기울기 정보를 생성하는 단계; 적어도 한 쌍의 기울기 정보와 미리 설정된 정상 데이터를 기반으로 사용자의 자세의 정상 여부를 판단하는 단계; 및 자세의 정상 여부에 대한 판단을 기반으로 사용자를 위한 알람(alarm) 정보를 생성하는 단계를 포함한다.A method for determining a correct posture performed by a balance training system including a heterogeneous sensor module according to an embodiment includes: acquiring image information of a user based on a depth sensor module; obtaining skeleton position information for a plurality of skeletons preset for a user based on image information; generating at least one piece of first coordinate information corresponding to at least one bone of interest based on the bone location information; generating at least one pair of inclination information based on at least one piece of first coordinate information and second coordinate information that is output information of the body sensor module; determining whether the user's posture is normal based on at least one pair of inclination information and preset normal data; and generating alarm information for the user based on the determination of whether the posture is normal.
본 일 실시 예에 따르면, 이종의 센서가 구비된 균형 훈련 시스템을 기반으로 균형 훈련 시스템에 있는 환자가 올바른 자세로 훈련하는지를 더 정확하게 분석할 수 있다. 이에 따라, 재활환자에게 더 효과적인 재활 프로그램을 제공할 수 있다.According to the present embodiment, based on the balance training system provided with heterogeneous sensors, it is possible to more accurately analyze whether the patient in the balance training system trains in the correct posture. Accordingly, it is possible to provide a more effective rehabilitation program to the rehabilitation patient.
도 1은 본 명세서의 일 실시 예에 따른 균형 훈련 시스템을 보여주는 도면이다.
도 2는 본 일 실시 예에 따른 센서 플레이트를 상세하게 보여주는 도면이다.
도 3은 본 일 실시 예에 따른 정적 평가를 수행하는 방식을 나타낸 도면이다.
도 4는 본 일 실시 예에 따른 동적 평가를 수행하는 방식을 나타낸 도면이다.
도 5는 본 일 실시 예에 따른 압력 평가를 수행하는 방식을 나타낸 도면이다.
도 6은 COP의 측정 결과에 관한 평가 화면이다.
도 7은 체중 지지율 및 압력 분포에 관한 평가 화면이다.
도 8은 안정도의 한계의 평가 결과에 관한 평가 화면이다.
도 9는 몸통 센서 모듈(120)에 의해 획득된 기울기 센서 데이터의 결과값을 나타낸 도면이다.
도 10은 본 일 실시 예에 따른 종래 기술의 문제점을 보여주는 도면이다.
도 11은 본 일 실시 예에 따른 사용자의 깊이 센서 모듈 및 몸통 센서 모듈와 연관된 관심 골격을 설명하기 위한 도면이다.
도 12는 본 일 실시 예에 따른 균형 훈련 시스템에 의해 관리되는 관심 골격에 관한 위치 정보를 나타내는 스켈레톤 이미지 정보의 일 예이다.
도 13은 본 일 실시 예에 따른 균형 훈련 시스템에 의해 수행되는 올바른 자세를 판단하는 방법에 관한 순서도이다.
도 14는 본 일 실시 예에 따른 균형 훈련 시스템에 의해 수행되는 올바른 자세를 판단하는 방법을 좀 더 구체화한 순서도이다.1 is a view showing a balance training system according to an embodiment of the present specification.
2 is a view showing in detail the sensor plate according to the present embodiment.
3 is a diagram illustrating a method of performing static evaluation according to an exemplary embodiment.
4 is a diagram illustrating a method of performing dynamic evaluation according to an exemplary embodiment.
5 is a diagram illustrating a method of performing pressure evaluation according to an exemplary embodiment.
6 is an evaluation screen regarding the measurement result of COP.
7 is an evaluation screen regarding weight support rate and pressure distribution.
8 is an evaluation screen regarding the evaluation result of the limit of stability.
9 is a diagram illustrating a result value of the inclination sensor data obtained by the
10 is a view showing a problem of the prior art according to an embodiment of the present invention.
11 is a view for explaining a skeleton of interest associated with a depth sensor module and a torso sensor module of a user according to an exemplary embodiment.
12 is an example of skeleton image information indicating location information on a skeleton of interest managed by the balance training system according to the present embodiment.
13 is a flowchart of a method for determining a correct posture performed by the balance training system according to an embodiment of the present invention.
14 is a more detailed flowchart of a method of determining a correct posture performed by the balance training system according to an embodiment of the present invention.
전술한 특성 및 이하 상세한 설명은 모두 본 명세서의 설명 및 이해를 돕기 위한 예시적인 사항이다. 즉, 본 명세서는 이와 같은 실시 예에 한정되지 않고 다른 형태로 구체화될 수 있다. 다음 실시 형태들은 단지 본 명세서를 완전히 개시하기 위한 예시이며, 본 명세서가 속하는 기술 분야의 통상의 기술자들에게 본 명세서를 전달하기 위한 설명이다. 따라서, 본 명세서의 구성 요소들을 구현하기 위한 방법이 여럿 있는 경우에는, 이들 방법 중 특정한 것 또는 이와 동일성 있는 것 가운데 어떠한 것으로든 본 명세서의 구현이 가능함을 분명히 할 필요가 있다.The foregoing characteristics and the following detailed description are all exemplary matters for helping the description and understanding of the present specification. That is, the present specification is not limited to such an embodiment and may be embodied in other forms. The following embodiments are merely examples for fully disclosing the present specification, and are descriptions for conveying the present specification to those skilled in the art to which the present specification belongs. Therefore, when there are several methods for implementing the elements of the present specification, it is necessary to make it clear that the implementation of the present specification is possible in any one of these methods or the equivalent thereto.
본 명세서에서 어떤 구성이 특정 요소들을 포함한다는 언급이 있는 경우, 또는 어떤 과정이 특정 단계들을 포함한다는 언급이 있는 경우는, 그 외 다른 요소 또는 다른 단계들이 더 포함될 수 있음을 의미한다. 즉, 본 명세서에서 사용되는 용어들은 특정 실시 형태를 설명하기 위한 것일 뿐이고, 본 명세서의 개념을 한정하기 위한 것이 아니다. 나아가, 발명의 이해를 돕기 위해 설명한 예시들은 그것의 상보적인 실시 예도 포함한다.In the present specification, when it is stated that a configuration includes specific elements, or when a process includes specific steps, it means that other elements or other steps may be further included. That is, the terms used in this specification are only for describing specific embodiments, and are not intended to limit the concepts of the present specification. Furthermore, the examples described to help the understanding of the invention also include complementary embodiments thereof.
본 명세서에서 사용되는 용어들은 본 명세서가 속하는 기술 분야의 통상의 기술자들이 일반으로 이해하는 의미를 갖는다. 보편적으로 사용되는 용어들은 본 명세서의 맥락에 따라 일관적인 의미로 해석되어야 한다. 또한, 본 명세서에서 사용되는 용어들은, 그 의미가 명확히 정의된 경우가 아니라면, 지나치게 이상적이거나 형식적인 의미로 해석되지 않아야 한다. 이하 첨부된 도면을 통하여 본 명세서의 실시 예가 설명된다.Terms used in this specification have meanings commonly understood by those of ordinary skill in the art to which this specification belongs. Commonly used terms should be interpreted in a consistent sense according to the context of the present specification. In addition, the terms used herein should not be construed in an overly idealistic or formal meaning unless the meaning is clearly defined. Hereinafter, embodiments of the present specification will be described with reference to the accompanying drawings.
도 1은 본 명세서의 일 실시 예에 따른 균형 훈련 시스템을 보여주는 도면이다.1 is a view showing a balance training system according to an embodiment of the present specification.
도 1을 참조하면, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 센서 플레이트(110), 몸통(trunk) 센서 모듈(120), 베이스 모듈(130), 핸드레일(140) 및 깊이(depth) 센서 모듈(150)를 포함할 수 있다.Referring to FIG. 1 , the
센서 플레이트(110) 플레이트 내에 복수의 센서가 배치될 수 있다. 예를 들어, 복수의 센서는 압력을 측정하는 센서를 포함할 수 있다.A plurality of sensors may be disposed in the
센서 플레이트(110)의 일 측 또는 양 측에는 회로 기판(printed circuit board, 이하 'PCB') 및 회로 기판(미도시)을 위한 하우징(110a)이 구비될 수 있다. A printed circuit board (hereinafter, 'PCB') and a
센서 플레이트(110)는 하나 이상의 자석을 포함할 수 있다. 이 경우, 하나 이상의 자석은 베이스 모듈(130) 상에 배치되는 센서 플레이트(110)를 고정시키기 위해 사용될 수 있다.The
또한, 하나 이상의 자석은 센서 플레이트(110)의 양 끝 단(즉, 일측 및 타측에 배치되고 일측 및 타측에 배치된 자석의 극성은 서로 상이하여 센서 플레이트(10)의 일측 및 타측이 서로 부착될 수 있도록 구성될 수 있다. In addition, one or more magnets are disposed at both ends of the sensor plate 110 (that is, on one side and the other side, and the polarities of the magnets disposed on one side and the other side are different from each other so that one side and the other side of the
센서 플레이트(110)는 베이스 모듈(130) 상에 부착하여 사용되거나, 센서 플레이트(110) 단독으로 사용될 수도 있다. 즉, 센서 플레이트(110)는 베이스 모듈(130) 상에 탈부착 가능하다.The
센서 플레이트(110)에는 외부 전원을 연결할 수 있도록 유선 전원 연결을 위한 구성이 포함될 수 있다. 이 경우, 유선 전원 연결 구성은 USB 타입이거나 센서 플레이트(110) 자체에 분리 가능한 내부 전원을 포함할 수 있다. 또는, 유선 전원 연결 구성은 충전 어댑터를 이용하여 충전되는 구성으로 이해될 수 있다.The
센서 플레이트(110)는 제어모듈(160)과 유선 혹은 무선 통신을 기반으로 연결될 수 있다. 또한, 센서 플레이트(110)는 유선 혹은 무선 통신을 기반으로 몸통 센서 모듈(120)과 연결될 수 있다. 여기서, 유선 혹은 무선 통신 방식은 블루투스 통신을 포함한 다양한 통신 프로토콜을 기반으로 구현될 수 있음은 이해될 것이다.The
센서 플레이트(110)는 전원의 상태를 표시하는 등을 포함할 수 있으며, 충전 상태, 또는 연결 상태를 나타낼 수 있다. 또한, 센서 플레이트(110)는 컴퓨터 또는 몸통 센서 모듈(120)과 연결 상태를 표시하기 위한 등을 포함할 수 있다.The
본 일 실시 예에 따르면, 센서 플레이트(110)는 균형 평가/훈련 시, 단독으로 사용되거나, 베이스 모듈(130) 및 핸드레일(140)과 함께 사용될 수 있으므로, 이동이 가능한 형태로서 다양한 환자의 상황에 맞춤으로 활용할 수 있는 효과가 있다.According to this embodiment, the
몸통 센서 모듈(120)은 기울기를 측정할 수 있는 센서를 포함될 수 있으며, 특히, 기울기를 측정하는 센서로서, 3축 가속도 센서 및 3축 자이로 센서를 기반으로 구현되는 IMU(Inertial Measurement Unit) 센서로 이해될 수 있다.The
몸통 센서 모듈(20)를 이용하여 사용자의 상체의 기울기를 측정할 수 있다. 이는 사용자의 균형 평가나 균형 훈련 시 센서 플레이트(110)로부터 획득되는 족압 데이터만으로는 사용자가 올바른 자세에서 훈련하는 것인지를 판단하기 어렵기 때문이다.The inclination of the user's upper body may be measured using the
사용자는 균형 평가나 균형 훈련 시, 올바르지 않은 자세이나 평가 또는 훈련에서 요구하는 압력 센서 데이터를 획득하기 위하여 상체를 기울임으로써 센서 플레이트(110) 상에서 기울인 쪽의 압력이 보다 높게 측정될 수 있도록 할 수도 있다.During balance evaluation or balance training, the user may tilt the upper body to obtain an incorrect posture or pressure sensor data required for evaluation or training, so that the pressure on the inclined side on the
이 경우, 센서 플레이트(110)만을 이용하여 사용자의 균형 평가 또는 균형 훈련을 할 경우에는 올바르지 않은 자세임에도 올바른 것으로서 결과가 도출될 수도 있다.In this case, when the user's balance evaluation or balance training is performed using only the
이에 따라, 사용자가 균형 평가 또는 균형 훈련 시, 상체의 기울임 등을 이용하여 압력을 더하는 것인지를 판단하기 위하여 몸통 센서 모듈(20)이 함께 활용될 수 있다.Accordingly, the
사용자의 상체 기울기를 측정하기 위하여 가장 바람직한 위치는 척추 5번 과 7번 사이의 위치로서, 해당 위치에 몸통 센서 모듈(120)가 배치되는 경우, 상체 기울기가 '0'으로 도출될 수 있다. In order to measure the user's upper body inclination, the most preferable position is between the 5th and 7th vertebrae, and when the
본 일 실시 예에 따르면, 몸통 센서 모듈(120)는 척추 5번과 7번 사이에 배치될 수 있다. 그러나, 몸통 센서 모듈(120)의 배치 위치는 상기 예에 한정되지 않으며, 사용자의 상체 기울기가 '0'이 되도록 하는 위치 또는 기울기가 '0'이 아니더라도 기준이 되는 위치에 배치될 수 있다.According to this embodiment, the
또한, 몸통 센서 모듈(120) 내에 하나의 몸통 센서만을 포함할 수 있으며, 복수의 몸통 센서를 포함할 수도 있다.In addition, only one body sensor may be included in the
몸통 센서 모듈(120) 내에 복수의 몸통 센서를 포함하는 경우에는 사용자에 대한 균형 평가 또는 균형 훈련 시에, 사용자의 자세가 휘어져 있는 자세인지 여부를 판단할 수 있도록 몸통 센서가 일정 거리 이상 떨어져서 배치될 수 있다.When a plurality of torso sensors are included in the
제어모듈(160)는 몸통 센서 모듈(120)의 기울기 값을 기반으로 사용자가 올바른 자세로 서 있는지를 판단할 수 있다. The
예를 들어, 하나의 몸통 센서만을 이용하는 경우, 몸통 센서 모듈(120)의 오차범위에서 사용자의 자세가 휘어 있는 경우라면, 사용자의 자세는 올바른 자세인 것으로 결과가 도출될 수 있다.For example, in the case of using only one body sensor, if the user's posture is bent within the error range of the
즉, 사용자의 자세가 올바르지 않음에도 잘못된 결과가 도출됨으로써, 사용자는 지속적으로 올바르지 않은 자세로 훈련이나 평가를 진행하게 될 수 있다.That is, since incorrect results are derived even when the user's posture is not correct, the user may continuously perform training or evaluation with the incorrect posture.
예를 들어, 몸통 센서 모듈(20) 내 복수의 센서가 배치되는 경우, 사용자의 몸통 기울기를 정확하게 측정할 수 있도록 몸통 센서 모듈(20) 내에 복수의 센서가 일정한 거리만큼 떨어져서 배치될 수 있다.For example, when a plurality of sensors are disposed within the
다른 예로, 몸통 센서 모듈(20) 내에는 하나의 센서가 포함되고, 사용자의 몸통에 착용되는 밴드가 넓게 구성되어, 밴드 상에 일정 거리 이상 떨어져서 복수의 몸통 센서 모듈이 포함될 수 있다.As another example, one sensor is included in the
또 다른 예로는, 몸통 센서 모듈(120) 내에는 하나의 센서가 포함되고, 사용자의 몸통에 착용되는 밴드 및 몸통 센서 모듈(20)이 복수 개로 구성되어, 하나의 몸통 센서 모듈(120)이 포함된 밴드가 복수 개로 사용자에게 부착될 수 있다. As another example, one sensor is included in the
이 경우, 밴드를 상체 및 하체에 나누어 부착한다면, 후술하는 '앉았다 일어나기(sit to stand)' 훈련에서 사용자가 완전하게 앉았는지, 완전하게 일어났는지도 판단하기가 용이해지는 효과가 있다.In this case, if the band is divided and attached to the upper body and lower body, there is an effect of making it easier to determine whether the user has completely sat down or has completely stood up in 'sit to stand' training, which will be described later.
몸통 센서 모듈(120)은 제어모듈(160)과 연결되어 몸통 센서 모듈(120)에 의해 획득된 기울기 데이터를 제어모듈(160)로 전달할 수 있다. The
예를 들어, 몸통 센서 모듈(120)은 X-Y-Z축에 따라 배치된 3축 자이로스코프 센서를 기반으로 X축 좌표 정보, Y축 좌표 정보 및 Z축 좌표 정보를 획득할 수 있다. For example, the
또한, 몸통 센서 모듈(120)은 3축 기울기 센서를 기반으로 좌우 방향(X-X')의 기울기 정보(즉, 롤(Roll) 정보), 전후 방향(Y-Y') 방향의 기울기 정보(즉, 피치(Pitch) 정보) 및 수직 방향(Z)의 기울기 정보(즉, 요(Yaw) 정보)를 획득할 수 있다. In addition, the
또는, 몸통 센서 모듈(120)에 의해 획득된 기울기 데이터는 센서 플레이트(110)로 전달된 후, 센서 플레이트(110)에 의해 획득되는 압력 데이터와 함께 제어모듈(160)로 전달될 수 있다. Alternatively, the inclination data obtained by the
예를 들어, 제어모듈(160)로 전달되는 기울기 데이터와 압력 데이터는 로우(raw) 데이터 자체로 송신될 수 있고, 미리 정해진 방식에 따라 전처리된 데이터의 형태로 송신될 수도 있다.For example, the slope data and pressure data transmitted to the
몸통 센서 모듈(120)에 대한 전원 공급은 외부 전원에 관한 유선 전원 연결 구성이 포함될 수 있으며, 이 때의 유선 전원 연결 구성은 USB 타입일 수 있다. 다른 실시 예로, 몸통 센서 모듈(20) 자체에 분리 가능한 내부 전원을 포함할 수도 있으며, 또 다른 실시 예로 몸통 센서 모듈(20)는 충전 어댑터를 이용하여 충전하여 사용할 수도 있다.Power supply to the
몸통 센서 모듈(120)는 사용자의 상체 기울기를 측정하는 센서를 포함하며, 사용자에게 탈부착 가능하도록 구성된다. 사용자에게 탈부착하는 방식으로는 몸통에 착용하는 밴드를 활용할 수 있다. 밴드는 사용자가 탈부착할 수 있으며, 밴드에 배치되는 몸통 센서 모듈(120) 또한 밴드에서 분리될 수 있다.The
밴드는 내부에 몸통 센서 모듈(20)를 삽입할 수 있도록 하는 포켓 형태를 포함할 수 있으며, 또는, 밴드 자체에 몸통 센서 모듈(120)를 탈부착할 수 있다.The band may include a pocket shape for inserting the
몸통 센서 모듈(120)에는, 전원의 상태를 표시하는 등을 포함할 수 있으며, 충전 상태, 또는 연결 상태를 나타낼 수 있다. 또한, 몸통 센서 모듈(120)에는 센서 플레이트(110)와의 연결 상태를 표시하는 등을 포함할 수 있으며, 센서 플레이트(110)와 연결 중, 연결, 대기 중 등을 나타낼 수 있다. The
균형 훈련 시스템으로서, 센서 플레이트(110)만이 사용될 수 있으며, 센서 플레이트(110) 및 몸통 센서 모듈(120)이 함께 사용될 수도 있다.As the balance training system, only the
베이스 모듈(130) 및 핸드레일(140)은 부착되어 있는 형태로 도시되나, 핸드레일(140)은 베이스 모듈(130)에서 분리 가능하다. 따라서, 핸드레일(140)이 사용 상 필요한 경우에만 조립하여 사용할 수 있고, 베이스 모듈(130)만을 활용하여 사용할 수도 있다.Although the
베이스 모듈(130)은 지면에 지지되며, 센서 플레이트(110)가 장착되기 위한 홈이 포함될 수 있다. 예를 들어, 센서 플레이트(110)를 베이스 모듈(130)에 고정시키기 위한 자석이 포함되는 경우, 베이스 모듈(130)은 자성체로 구성될 수 있다.The
핸드레일(140)은 상술한 바와 같이, 베이스 모듈(130)과 분리가 가능하며, 조립식으로 구성될 수 있다. 핸드레일(40)은 후술하는 앉았다 일어나기 훈련에서 사용자가 붙잡고 일어기 위해 사용될 수 있다. 또한, 핸드레일(40)은 센서 플레이트(10) 상에 서서 하는 평가나 훈련에서도 지지하기 위해 사용될 수 있다.As described above, the
깊이(depth) 센서 모듈(150)는 RGB 카메라, 적외선 뎁스 센서 및 적외선 프로젝터를 포함할 수 있다. The
예를 들어, 적외선 프로젝터는 일정한 간격으로 수많은 점의 적외선들을 사람을 향해 분사하고, 적외선 뎁스 센서는 사람에 부딪혀 반사된 적외선들을 센싱하여 각 점에서의 카메라와 사물 간의 거리 정보를 획득할 수 있다. 한편, RGB 카메라는 사람의 이미지 정보를 획득할 수 있다.깊이 센서 모듈(150)은 사용자의 골격을 측정하기 위한 장치이며, 획득된 영상 정보를 기반으로 미리 정해진 관심 골격에 대한 스켈레톤 이미지 정보를 생성할 수 있다. 여기서, 스켈레톤 이미지 정보에 관하여는 후술되는 도 14를 참조하여 더 상세하게 설명된다.For example, an infrared projector may emit infrared rays from numerous points toward a person at regular intervals, and an infrared depth sensor may sense infrared rays reflected by colliding with a person to obtain distance information between a camera and an object at each point. Meanwhile, the RGB camera may acquire human image information. The
본 명세서에서, 깊이 센서 모듈(150)은 임의의 사물을 촬영하여 사물에 대한 이미지 및 위치 정보를 생성할 수 있다.In this specification, the
깊이 센서 모듈(150)는 사용자의 정면(Y 방향)에 위치한 모니터(160)의 상부 혹은 미리 정해진 위치에 배치될 수 있다. 예를 들어, 깊이 센서 모듈(150)는 Y-Y'-Z 평면 상에 배치될 수 있다.The
본 일 실시 예에 따르면, 몸통 센서 모듈(120)의 오차 범위 내에서 사용자의 부정확 자세가 정확한 자세로 판단되는 경우를 방지하기 위해 깊이 센서 모듈(120)로부터 획득되는 위치 정보를 사용하는 방법이 제공될 수 있다.According to the present embodiment, there is provided a method of using position information obtained from the
예를 들어, 깊이 센서 모듈(150)은 입력되는 사용자의 영상 정보를 기반으로 중심(O)에서 좌우 방향(X-X')으로 치우친 기울기 정보 및 중심(O)에서 전후 방향(Y-Y') 방향으로 치우친 기울기 정보를 획득할 수 있다.For example, the
제어 장치(160)는 센서 플레이트(110) 내의 복수의 압력 센서, 몸통 센서 모듈(120) 및 깊이 센서 모듈(150)로부터 획득된 정보를 수신할 수 있다.The
예를 들어, 제어 장치(160)는 복수의 압력 센서에서 측정된 압력값을 이용하여 사용자의 균형 수준을 판단하기 위한 COP를 산출할 수 있다. 여기서, 제어 장치(160)는 안드로이드 운영 체게 기반의 PC 박스로 이해될 수 있다.For example, the
한편, 제어 장치(160)는 몸통 센서 모듈(120)로부터 측정된 기울기 및 미리 설정된 기준 기울기 값을 비교하여 사용자의 균형 수준을 판단할 수 있다. 제어 장치(160)에 의해 판단된 균형 수준의 결과 정보는 메모리에 저장된 콘텐츠에 반영되어 모니터(160)를 통해 표시될 수 있다. Meanwhile, the
나아가, 제어 장치(160)는 몸통 센서 모듈(120)로부터 획득된 기울기 정보 및 깊이 센서 모듈(150)로부터 획득된 기울기 정보를 기반으로 사용자의 자세가 올바른 자세인지 여부를 판단할 수 있다. 이에 대하여는 후술되는 도 15 및 도 16을 참조하여 더 상세하게 설명된다.Furthermore, the
또한, 제어 장치(160)는 후술하는 다양한 콘텐츠 상에서 사용자가 균형 유지를 할 수 있도록 유도하여, 균형 능력을 배양하는 훈련을 진행하게 된다.In addition, the
한편, 안드로이드 환경에서 딥러닝 모델 기반으로 환자의 골격 데이터 추출을 위하여, 본 일 실시 예에 따른 제어 장치(160)에는 딥러닝 경량화 기술이 적용될 수 있다.Meanwhile, in order to extract skeletal data of a patient based on a deep learning model in an Android environment, a deep learning lightweight technology may be applied to the
예를 들어, 딥러닝 경량화 기술은 기존의 검증된 네트워크 레이어의 최적화 배치를 기반으로 구현될 수 있다. 또는 각 레이어의 활성화 함수의 분포를 통해 레이어 검출 작업 및 제거 작업이 수행될 수 있다.For example, deep learning lightweight technology can be implemented based on the optimized deployment of the existing verified network layer. Alternatively, the layer detection operation and the layer removal operation may be performed through the distribution of the activation function of each layer.
본 일 실시 예에 따른 제어 장치(160)에는 3D 단일 인식 가능한 신체 자세 추정 기술이 적용될 수 있다. 예를 들어, 3D 단일 인식 가능한 신체 자세 추정 기술을 위하여, 유사한 모양의 손가락 특징을 활용한 분할 학습 기반(Part based learning) 기법, 각 손가락의 운동 방향성을 고려한 레이어 셔플링(Layer Shuffling) 기법이 사용될 수 있다.A 3D single recognizable body posture estimation technique may be applied to the
본 명세서에서 언급되는 균형 훈련 시스템은 균형 평가와 균형 훈련을 위한 영상 콘텐츠를 제공하는 이동 가능한 모니터(160)를 더 포함할 수 있다.The balance training system referred to herein may further include a
도 2는 본 일 실시 예에 따른 센서 플레이트를 상세하게 보여주는 도면이다.2 is a view showing in detail the sensor plate according to the present embodiment.
도 2를 참조하면, 회로 기판 및 회로 기판을 위한 하우징(210a)이 센서 플레이트(2100)의 양 측에 구비되는 경우, 센서 플레이트(210)의 유연한 소재와 센서 플레이트(210)의 양 끝 단에 극성이 서로 상이한 자석이 포함되는 구성에 따라, 센서 플레이트(210)를 접어 양 끝 단에 배치된 자석으로 고정시켜 센서 플레이트(210)를 편리하게 휴대할 수 있는 특징이 있다.2, when the circuit board and the
다른 예로, 회로 기판 및 회로 기판을 위한 하우징(210a)이 센서 플레이트(210)의 일 측에만 구비되는 경우, 사용자가 회로 기판의 하우징이 배치된 위치를 기준으로 하여 센서 플레이트(210)의 전후 좌우를 명확히 구분하는 것에 도움을 줄 수 있다. As another example, when the circuit board and the
사용자는 회로 기판 및 회로 기판의 하우징이 양 측에 구비되지 않고, 일 측에만 구비되더라도, 휴대 시 하우징을 파지하고 이동할 수 있기 때문에 휴대성이 향상될 수 있다.Even if the circuit board and the housing of the circuit board are not provided on both sides, but only on one side, portability can be improved because the user can hold and move the housing while carrying it.
도 3은 본 일 실시 예에 따른 정적 평가를 수행하는 방식을 나타낸 도면이다. 3 is a diagram illustrating a method of performing static evaluation according to an exemplary embodiment.
도 3의 (a)는 가만히 서 있는 상태에 대한 평가로서 눈을 활용하는 평가이며, 몸통 센서 모듈(20)을 함께 활용할 수 있으며, 측정횟수 및 측정 시간을 설정할 수 있고, 평가결과로는 COP(Center Of Pressure)의 이동길이, COP의 이동길이 이미지, COP의 이동 면적, COP의 평균 속력을 도출할 수 있다.3 (a) is an evaluation using the eyes as an evaluation of a standing state, and the
도 3의 (b)는 하나의 다리를 든 상태에 대한 평가로서, 눈과 다리를 활용하는 평가이며, 다리는 오른쪽과 왼쪽을 구분하며, 몸통 센서 모듈(20)을 함께 활용할 수 있으며, 측정 횟수 및 측정 시간을 설정할 수 있고, 평가결과로는 COP의 이동길이, COP의 이동길이 이미지, COP의 이동 면적, COP의 평균 속력을 도출할 수 있다.3 (b) is an evaluation of a state in which one leg is raised, an evaluation using eyes and a leg, the leg separates the right and left sides, the
도 3의 (c)는 가만히 앉아 있는 상태에 대한 평가로서, 눈을 활용하는 평가이며, 몸통 센서 모듈(20)을 함께 활용할 수 있으며, 측정 횟수 및 측정 시간을 설정할 수 있고, 평가결과로는 COP의 이동길이, COP의 이동길이 이미지, COP의 이동 면적, COP의 평균 속력을 도출할 수 있다.3 (c) is an evaluation of a sitting state, an evaluation using the eyes, the
도 4는 본 일 실시 예에 따른 동적 평가를 수행하는 방식을 나타낸 도면이다.4 is a diagram illustrating a method of performing dynamic evaluation according to an exemplary embodiment.
도 4의 (a)는 안정도의 한계에 대한 평가로서, 한자리에서 전방위로 어느 정도까지 이동 가능한지를 측정하는 평가이며, 평가결과로는, COP의 이동 면적 및 COP의 면적 이미지를 도출할 수 있다.4 (a) is an evaluation of the limit of stability, an evaluation of measuring how far it can move in all directions in one place, and as an evaluation result, it is possible to derive an image of the movement area of the COP and the area of the COP.
도 4의 (b)는 사용자의 걷는 상태에 대한 평가로서, 오른쪽과 왼쪽 다리를 구분하며, 평가결과로서, COP의 이동 방향 및 압력 분포를 도출할 수 있다.4 (b) is an evaluation of the user's walking state, and the right and left legs are divided, and as an evaluation result, the movement direction and pressure distribution of the COP can be derived.
도 4의 (b)의 사용자의 걷는 상태에 대한 평가를 게이트(gait) 평가라고 정의하며, 게이트 평가 시에는 센서 플레이트(110)를 두고 센서 플레이트(110)를 밟고 지나가도록 하여 평가한다.The evaluation of the user's walking state of FIG. 4 (b) is defined as a gate evaluation, and in the gate evaluation, the
이 때, 사용자의 오른쪽 다리 및 왼쪽 다리를 구분하여 평가 결과를 도출하여야 하는데, 평가 상에서 특정 발로 센서 플레이트(110)를 밟고 지나가라고 안내 했음에도 불구하고 다른 쪽 발로 평가를 수행하는 등의 경우에는 평가 결과가 At this time, the evaluation result should be derived by dividing the user's right leg and left leg, and in the case of performing evaluation with the other foot despite the instruction to step on the
정확하게 도출되지 않는 문제점이 있다.There is a problem that cannot be accurately derived.
따라서, 센서 플레이트(110) 상에는 사용 방향을 표시하는 화살표를 표시함으로써 사용자가 이를 확인하고 센서 플레이트(110)의 방향을 구분하여 배치한 후, 평가를 수행함으로써 센서 플레이트(110) 상의 오른 측면과 왼 측면 중 어느 면을 밟고 지나가는지 감지하여 이를 통해 사용자가 평가를 수행하는 발이 어느 쪽인지 구분할 수 있는 효과가 있다.Therefore, by displaying an arrow indicating the direction of use on the
그러나, 어느 쪽 발로 지나가는 것인지 판단하기 위하여 센서 플레이트(110) 상의 위치로 구분한다 하더라도, 센서 플레이트(110) 상의 오른쪽 부분을 왼발로 밟고 지나가거나, 센서 플레이트(110) 상의 왼쪽 부분을 오른발로 밟고 지나가는 등에는 평가 결과의 오류가 존재할 수 있다.However, even if the position on the
따라서, 상기와 같은 문제점을 해결하기 위하여, 게이트 평가 전 센서 플레이트(110) 상에 두 발을 모두 올려 서 있도록 한 다음, 두 발의 COP 및/또는 족저압 등을 통해 사용자의 각 발의 형태를 측정한 후, 측정 결과를 기반으로 하여 센서 플레이트(110)의 배치 위치나, 게이트 평가를 수행하여야 하는 발의 안내 멘트 없이도, 사용자가 어느 쪽 발이든 평가를 수행하는 발을 자동으로 인식하여 평가 결과를 도출해낼 수 있다.Therefore, in order to solve the above problems, both feet are placed on the
도 5는 본 일 실시 예에 따른 압력 평가를 수행하는 방식을 나타낸 도면이다.5 is a diagram illustrating a method of performing pressure evaluation according to an exemplary embodiment.
도 5의 (a)는 족저압(Plantar pressure)에 대한 평가로서, 측정 시간을 설정할 수 있으며, 평가결과로서, 체중 지지율 및 압력 분포를 도출할 수 있다.5A is an evaluation of plantar pressure, a measurement time may be set, and as an evaluation result, a weight support rate and a pressure distribution may be derived.
도 5의 (b)는 앉은 자세 압력(sit pressure)에 대한 평가로서, 측정시간을 설정할 수 있으며, COP의 이동 면적, 체중 지지율 및 압력 분포를 도출할 수 있다.5 (b) is an evaluation of the sitting pressure, the measurement time can be set, and the movement area of the COP, the weight support rate, and the pressure distribution can be derived.
도 6은 COP의 측정 결과에 관한 평가 화면이다. 도 6의 (a)는 COP의 이동 경로를 나타내며, COP의 이동 길이, COP의 이동 면적, COP의 평균 속력을 나타내고 있으며, 도 6의 (b)는 사용자의 발에서 COP가 이동한 경로를 나타내고 있는 것을 확인할 수 있다.6 is an evaluation screen regarding the measurement result of COP. Fig. 6 (a) shows the movement path of the COP, and shows the movement length of the COP, the movement area of the COP, and the average speed of the COP. can confirm that there is
도 7은 체중 지지율 및 압력 분포에 관한 평가 화면이다. 도 7의 (a)는 족저압의 체중 지지율 및 압력 분포를 나타내고 있으며, 도 7의 (b)는 앉은 자세 압력의 체중 지지율 및 압력 분포를 나타내고 있는 것을 확인할 수 있다. 7 is an evaluation screen regarding weight support rate and pressure distribution. It can be seen that FIG. 7(a) shows the weight bearing rate and pressure distribution of plantar pressure, and FIG. 7(b) shows the weight bearing rate and pressure distribution of the sitting posture pressure.
도 7을 참조하면, 센서 플레이트(110)와 동일한 형태의 화면에서 센서 플레이트(110)를 4등분하여 체중 지지율을 나타내며, 압력 분포는 색으로 표시하여, 푸른색에서 붉은색으로 갈수록 높은 압력에 해당됨을 나타낸다.Referring to FIG. 7 , the
도 8은 안정도의 한계의 평가 결과에 관한 평가 화면이다. 즉, 도 8은 도 6의 (a)의 안정도의 한계에 대한 평가 결과를 나타낸 도면으로, COP의 이동면적을 센서 플레이트(110)와 동일한 형태의 화면에서 나타내고 있으며, 수치로도 COP의 이동면적을 나타내고 있는 것을 확인할 수 있다.8 is an evaluation screen regarding the evaluation result of the limit of stability. That is, FIG. 8 is a view showing the evaluation result of the stability limit of FIG. 6( a ). The movement area of the COP is shown on the screen of the same shape as the
도 9는 몸통 센서 모듈(120)에 의해 획득된 기울기 센서 데이터의 결과값을 나타낸 도면이다. 도 9는 기울기 센서 데이터의 좌표 위치를 센서 플레이트(110)와 동일한 형태의 화면과 수치로 나타내고 있는 것을 확인할 수 있다.9 is a diagram illustrating a result value of the inclination sensor data obtained by the
도 10은 본 일 실시 예에 따른 종래 기술의 문제점을 보여주는 도면이다. 도 10을 참조하면, 도 10과 같이 사용자의 기울기 정보 획득을 위해 하나의 몸통 센서가 이용될 때, 몸통 센서 모듈(120)의 오차범위에서 사용자의 자세가 휘어 있는 경우일지라도, 사용자의 자세는 올바른 자세인 것으로 결과가 도출될 수 있다.10 is a view showing a problem of the prior art according to an embodiment of the present invention. Referring to FIG. 10 , when one torso sensor is used to obtain the user's inclination information as shown in FIG. 10 , even if the user's posture is bent within the error range of the
도 11은 본 일 실시 예에 따른 사용자의 깊이 센서 및 몸통 센서와 연관된 관심 골격을 설명하기 위한 도면이다.11 is a view for explaining a skeleton of interest associated with a depth sensor and a torso sensor of a user according to an exemplary embodiment.
도 1 내지 도 11을 참조하면, 경추(1110)는 1번부터 7번으로 구성되고, 흉추(1120)는 1번부터 12번으로 구성되고, 요추(1130)는 1번부터 5번으로 구성되고, 천추(1150)는 1번부터 4번으로 구성될 수 있다.1 to 11, the
도 12는 본 일 실시 예에 따른 균형 훈련 시스템에 의해 관리되는 관심 골격에 관한 위치 정보를 나타내는 스켈레톤 이미지 정보의 일 예이다. 12 is an example of skeleton image information indicating location information on a skeleton of interest managed by the balance training system according to the present embodiment.
도 1 내지 도 12를 참조하면, 본 일 실시 예에 따른 균형 훈련 시스템은 깊이 센서 모듈(예로, 도 1의 150)를 통해 획득된 사용자의 영상정보를 기반으로 미리 정해진 복수의 골격 위치 정보를 획득할 수 있다.1 to 12 , the balance training system according to this embodiment acquires a plurality of predetermined skeletal position information based on the user's image information obtained through the depth sensor module (eg, 150 in FIG. 1 ). can do.
구체적으로, 본 일 실시 예에 따른 균형 훈련 시스템은 사용자의 영상 정보로부터 사람의 관절들 각각의 위치(H, T, n1~n8)를 추출할 수 있다. 이 경우, 몸통 센서 모듈의 부착 위치(T)는 미리 설정되고, 나머지 관절들 위치는 본 일 실시 예에 따른 균형 훈련 시스템에 기 탑재된 알고리즘을 기반으로 추출될 수 있다.Specifically, the balance training system according to the present embodiment may extract the respective positions (H, T, n1 to n8) of the human joints from the user's image information. In this case, the attachment position (T) of the torso sensor module is preset, and the positions of the remaining joints may be extracted based on an algorithm preloaded in the balance training system according to the present embodiment.
한편, 본 일 실시 예에 따른 균형 훈련 시스템은 추출된 관절들 각각의 위치 정보를 기반으로 스켈레톤 이미지 정보를 형성할 수 있다. 이 경우, 도 12의 스켈레톤 이미지 정보의 생성을 위한 기준점(혹은 시작점)은 몸통 센서 모듈의 부착 위치(T)일 수 있다. On the other hand, the balance training system according to the present embodiment may form the skeleton image information based on the extracted position information of each of the joints. In this case, the reference point (or starting point) for generating the skeleton image information of FIG. 12 may be the attachment position T of the body sensor module.
다시 말해, 도 12의 스켈레톤 이미지 정보는 몸통 센서 부착 위치(T)를 기준점으로 관절들 각각의 위치(H, n1~n8)로 확장되면서 형성되므로, 하나의 깊이 센서 모듈을 사용하면서도 상대적으로 높은 정확도를 갖는 스켈레톤 이미지 정보가 획득될 수 있다.In other words, since the skeleton image information of FIG. 12 is formed while extending to the positions (H, n1 to n8) of each joint with the body sensor attachment position (T) as a reference point, relatively high accuracy while using one depth sensor module Skeleton image information with may be obtained.
일 예로, 스켈레톤 이미지 정보는 사용자의 영상 정보에 신체 포즈 추정(body pose estimation) 기법이 적용되어 생성될 수 있다.한편, 미리 정해진 적어도 하나의 관심 골격의 위치(예로, 도 12의 n1~n4)를 위한 적어도 하나의 좌표 정보가 획득될 수 있다. 이 경우, 적어도 하나의 좌표 정보는 해당 관심 골격의 위치에 관한 X축에 대한 값 및 Y축에 관한 값을 포함할 수 있다.As an example, the skeleton image information may be generated by applying a body pose estimation technique to the user's image information. Meanwhile, at least one predetermined position of the skeleton of interest (eg, n1 to n4 in FIG. 12 ) At least one piece of coordinate information for can be obtained. In this case, the at least one piece of coordinate information may include a value on the X-axis and a value on the Y-axis with respect to the position of the corresponding skeleton of interest.
예를 들어, 도 12의 n1은 경추(1110)에 상응하고, 도 12의 몸통 센서 모듈(120)이 부착되는 위치(T)는 흉추(1120)의 5번 내지 7번에 상응할 수 있다. 또한, 도 12의 n2 및 n3는 요추(1130)에 상응하고, 도 12의 n3 및 n4는 천추(1140)에 상응할 수 있다.For example, n1 of FIG. 12 may correspond to the
도 13은 본 일 실시 예에 따른 균형 훈련 시스템에 의해 수행되는 올바른 자세를 판단하는 방법에 관한 순서도이다.13 is a flowchart of a method for determining a correct posture performed by the balance training system according to an embodiment of the present invention.
도 1 내지 도 13을 참조하면, S1310 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템은 깊이 센서 모듈을 기반으로 획득된 사용자의 입력 영상(즉, 재활 훈련 영상)을 수신할 수 있다.1 to 13 , in step S1310, the balance training system according to the present embodiment may receive a user input image (ie, a rehabilitation training image) obtained based on the depth sensor module.
S1320 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템은 깊이 센서 모듈을 기반으로 사용자의 입력 영상 정보와 연관된 골격 위치 값을 추출할 수 있다. In step S1320, the balance training system according to the present embodiment may extract a skeletal position value associated with the user's input image information based on the depth sensor module.
S1330 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템은 미리 정해진 복수의 위치(즉, 도 12의 n1, n2, n3)에 상응하는 위치 값을 추출할 수 있다.In step S1330, the balance training system according to the present embodiment may extract position values corresponding to a plurality of predetermined positions (ie, n1, n2, n3 in FIG. 12).
S1340 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템은 몸통 센서 모듈로부터 획득되는 좌우(X-X') 기울기 값과 전후(Y-Y') 기울기 값을 산출할 수 있다. In step S1340, the balance training system according to the present embodiment may calculate a left and right (X-X') inclination value and a front-back (Y-Y') inclination value obtained from the torso sensor module.
또한, 본 일 실시 예에 따른 균형 훈련 시스템은 깊이 센서 모듈로부터 미리 정해진 관심 골격(즉, 도 12의 n1, n2, n3) 각각의 좌우(X-X') 기울기 값과 전후(Y-Y') 기울기 값을 산출할 수 있다.In addition, the balance training system according to the present embodiment includes the left and right (X-X') inclination values and the front and back (Y-Y') of each of the skeletons of interest (ie, n1, n2, n3 in FIG. 12) predetermined from the depth sensor module. ) to calculate the slope value.
예를 들어, 본 일 실시 예에 따른 균형 훈련 시스템은 각 센서 모듈의 X 좌표 값을 이용하여, 각 골격의 X 좌표 기울기 값을 산출할 수 있다. 마찬가지로, 본 일 실시 예에 따른 균형 훈련 시스템은 각 센서 모듈의 Y 좌표 값을 이용하여, 각 골격의 Y 좌표 기울기 값을 산출할 수 있다.For example, the balance training system according to the present embodiment may calculate the X-coordinate inclination value of each skeleton by using the X-coordinate value of each sensor module. Similarly, the balance training system according to the present embodiment may calculate the Y coordinate inclination value of each skeleton by using the Y coordinate value of each sensor module.
본 명세서에서, 기울기 값은 몸통 센서 모듈의 위치 값과 상응하는 주요골격의 위치 값의 차이 값을 몸통 센서 모듈의 위치 값으로 나눈 값으로 이해될 수 있다. In this specification, the inclination value may be understood as a value obtained by dividing the difference value between the position value of the body sensor module and the position value of the corresponding main skeleton by the position value of the body sensor module.
S1350 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템은 각 골격의 X 좌표 기울기 값 및 제1 기준 값을 비교하여 X 좌표에 대한 자세 정상 여부를 판단할 수 있다.In step S1350, the balance training system according to the present embodiment may determine whether the posture with respect to the X coordinate is normal by comparing the inclination value of the X coordinate of each skeleton and the first reference value.
S1360 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템은 Y 좌표 기울기 값 및 제2 기준 값을 비교하여 Y 좌표에 대한 자세 정상 여부를 판단할 수 있다.In step S1360, the balance training system according to the present embodiment may determine whether the posture with respect to the Y coordinate is normal by comparing the Y coordinate inclination value and the second reference value.
본 일 실시 예에 따르면, 각 관절마다 복수의 센서를 부착하지 않고도 사용자의 자세가 정상인지 여부를 판단할 수 있다.According to the present embodiment, it may be determined whether the user's posture is normal without attaching a plurality of sensors to each joint.
몸이 불편한 환자의 경우, 복수의 센서를 부착한다는 것이 피로감과 불편함을 유발할 수 있으나, 본 일 실시 예에 따르면, 몸에 부착되는 몸통 센서는 착용이 간단하므로 상기와 같은 문제를 방지할 수 있다. 나아가, 환자의 골격을 측정하기 위한 깊이(depth) 센서를 적용되기 때문에 환자의 자세가 측정될 수 있으므로, 기존보다 편리하고 정확하게 환자의 자세를 판단을 할 수 있는 장점이 있다.For a patient with an uncomfortable body, attaching a plurality of sensors may cause fatigue and discomfort. . Furthermore, since a depth sensor for measuring the patient's skeleton is applied, the patient's posture can be measured, and thus, there is an advantage in that the patient's posture can be determined more conveniently and accurately than before.
도 14는 본 일 실시 예에 따른 균형 훈련 시스템에 의해 수행되는 올바른 자세를 판단하는 방법을 좀 더 구체화한 순서도이다.14 is a more detailed flowchart of a method of determining a correct posture performed by the balance training system according to an embodiment of the present invention.
도 1 내지 도 14를 참조하면, S1410 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 깊이 센서 모듈(150)로부터 사용자의 영상 정보를 획득할 수 있다.1 to 14 , in step S1410 , the
S1420 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 깊이 센서 모듈(150)로부터 획득된 사용자의 영상 정보를 기반으로 미리 설정된 복수의 골격(예로, 도 12의 H, T, n1~n8)에 관한 골격 위치 정보를 획득할 수 있다.In step S1420, the
예를 들어, 복수의 골격(예로, 도 12의 H, T, n1~n8)에 관한 골격 위치 정보를 기반으로 하나의 스켈레톤 이미지 정보가 형성될 수 있다. For example, one skeleton image information may be formed based on skeleton position information regarding a plurality of skeletons (eg, H, T, n1 to n8 in FIG. 12 ).
여기서, 몸통 센서 모듈을 위해 미리 설정된 부착 위치(T)는 스켈레톤 이미지 정보의 형성을 위한 기준점이자 스켈레톤 이미지 생성의 시작점으로 이해될 수 있다..Here, the attachment position (T) preset for the body sensor module may be understood as a reference point for forming the skeleton image information and a starting point for generating the skeleton image.
S1430 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 골격 위치 정보를 기반으로 적어도 하나의 관심 골격(예로, 도 12의 n1~n3)에 상응하는 적어도 하나의 제1 좌표 정보를 생성할 수 있다.In step S1430, the
예를 들어, 적어도 하나의 제1 좌표 정보는 도 12의 n1 위치에 상응하는 X좌표 값(x1) 및 Y 좌표 값(y1), 도 12의 n2 위치에 상응하는 X좌표 값(x2) 및 Y 좌표 값(y2), 그리고 도 12의 n3 위치에 상응하는 X좌표 값(x3) 및 Y 좌표 값(y3)을 포함할 수 있다. For example, the at least one piece of first coordinate information may include an X-coordinate value (x1) and a Y-coordinate value (y1) corresponding to the n1 position in FIG. 12, and an X-coordinate value (x2) and Y corresponding to the n2 position in FIG. 12 . It may include a coordinate value y2, and an X-coordinate value (x3) and a Y-coordinate value (y3) corresponding to the n3 position of FIG. 12 .
S1440 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 적어도 하나의 제1 좌표 정보 및 몸통 센서 모듈(120)의 출력 정보인 제2 좌표 정보를 기반으로 적어도 한 쌍의 기울기 정보를 생성할 수 있다.In step S1440 , the
여기서, 제2 좌표 정보는 도 12의 T 위치에 상응하는 X좌표 값(T_x) 및 Y 좌표 값(T_y)을 포함할 수 있다.Here, the second coordinate information may include an X-coordinate value (T_x) and a Y-coordinate value (T_y) corresponding to the T position of FIG. 12 .
예를 들어, 도 12의 n1 위치에 상응하는 한 쌍의 기울기 정보는 X축 기울기 정보(X_n1)와 Y축 기울기 정보(Y_n1)를 포함할 수 있다.For example, the pair of inclination information corresponding to the n1 position of FIG. 12 may include X-axis inclination information (X_n1) and Y-axis inclination information (Y_n1).
일 예로, 도 12의 n1 위치와 연관된 X축 기울기 정보(X_n1)는 도 12의 T 위치에 상응하는 X좌표 값(T_x)과 도 12의 n1 위치에 상응하는 X좌표 값(x1)의 차이를 도 12의 T 위치에 상응하는 X좌표 값(T_x)으로 나눈 값으로 이해될 수 있다.As an example, the X-axis inclination information (X_n1) associated with the n1 position of FIG. 12 is the X-coordinate value (T_x) corresponding to the T position of FIG. 12 and the X-coordinate value (x1) corresponding to the n1 position of FIG. It may be understood as a value divided by the X-coordinate value (T_x) corresponding to the T position of FIG. 12 .
일 예로, 도 12의 n1 위치와 연관된 Y축 기울기 정보(Y_n1)는 도 12의 T 위치에 상응하는 Y좌표 값(T_y)과 도 12의 n1 위치에 상응하는 Y좌표 값(y1)의 차이를 도 12의 T 위치에 상응하는 Y좌표 값(T_y)으로 나눈 값으로 이해될 수 있다.As an example, the Y-axis inclination information (Y_n1) associated with the n1 position of FIG. 12 is the difference between the Y-coordinate value (T_y) corresponding to the T position of FIG. 12 and the Y-coordinate value (y1) corresponding to the n1 position of FIG. It may be understood as a value divided by the Y coordinate value (T_y) corresponding to the T position of FIG. 12 .
예를 들어, 도 12의 n2 위치에 상응하는 한 쌍의 기울기 정보는 X축 기울기 정보(X_n2)와 Y축 기울기 정보(Y_n2)를 포함할 수 있다.For example, the pair of inclination information corresponding to the n2 position of FIG. 12 may include X-axis inclination information (X_n2) and Y-axis inclination information (Y_n2).
일 예로, 도 12의 n2 위치와 연관된 X축 기울기 정보(X_n2)는 도 12의 T 위치에 상응하는 X좌표 값(T_x)과 도 12의 n2 위치에 상응하는 X좌표 값(x2)의 차이를 도 12의 T 위치에 상응하는 X좌표 값(T_x)으로 나눈 값으로 이해될 수 있다.As an example, the X-axis inclination information (X_n2) associated with the n2 position of FIG. 12 is the X-coordinate value (T_x) corresponding to the T position of FIG. 12 and the X-coordinate value (x2) corresponding to the n2 position of FIG. It may be understood as a value divided by the X-coordinate value (T_x) corresponding to the T position of FIG. 12 .
일 예로, 도 12의 n2 위치와 연관된 Y축 기울기 정보(Y_n2)는 도 12의 T 위치에 상응하는 Y좌표 값(T_y)과 도 12의 n2 위치에 상응하는 Y좌표 값(y2)의 차이를 도 12의 T 위치에 상응하는 Y좌표 값(T_y)으로 나눈 값으로 이해될 수 있다.As an example, the Y-axis inclination information (Y_n2) associated with the n2 position of FIG. 12 is the difference between the Y-coordinate value (T_y) corresponding to the T position of FIG. 12 and the Y-coordinate value (y2) corresponding to the n2 position of FIG. 12 . It may be understood as a value divided by the Y coordinate value (T_y) corresponding to the T position of FIG. 12 .
예를 들어, 도 12의 n3 위치에 상응하는 한 쌍의 기울기 정보는 X축 기울기 정보(X_n3)와 Y축 기울기 정보(Y_n3)를 포함할 수 있다.For example, the pair of inclination information corresponding to the n3 position of FIG. 12 may include X-axis inclination information (X_n3) and Y-axis inclination information (Y_n3).
일 예로, 도 12의 n3 위치와 연관된 X축 기울기 정보(X_n3)는 도 12의 T 위치에 상응하는 X좌표 값(T_x)과 도 12의 n3 위치에 상응하는 X좌표 값(x3)의 차이를 도 12의 T 위치에 상응하는 X좌표 값(T_x)으로 나눈 값으로 이해될 수 있다.As an example, the X-axis inclination information (X_n3) associated with the n3 position of FIG. 12 is the X-coordinate value (T_x) corresponding to the T position of FIG. 12 and the X-coordinate value (x3) corresponding to the n3 position of FIG. It may be understood as a value divided by the X-coordinate value (T_x) corresponding to the T position of FIG. 12 .
일 예로, 도 12의 n3 위치와 연관된 Y축 기울기 정보(Y_n3)는 도 12의 T 위치에 상응하는 Y좌표 값(T_y)과 도 12의 n3 위치에 상응하는 Y좌표 값(y3)의 차이를 도 12의 T 위치에 상응하는 Y좌표 값(T_y)으로 나눈 값으로 이해될 수 있다.As an example, the Y-axis inclination information (Y_n3) associated with the n3 position of FIG. 12 is the Y-coordinate value (T_y) corresponding to the T position of FIG. 12 and the Y-coordinate value (y3) corresponding to the n3 position of FIG. It may be understood as a value divided by the Y coordinate value (T_y) corresponding to the T position of FIG. 12 .
S1450 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 적어도 한 쌍의 기울기 정보 및 미리 설정된 정상 데이터를 기반으로 사용자 자세의 정상 여부를 판단할 수 있다.In step S1450, the
여기서, 적어도 한 쌍의 기울기 정보는 적어도 하나의 관심 골격(예로, 도 12의 n1~n3)과 연관될 수 있다. 또한, 미리 설정된 정상 데이터는 적어도 하나의 관심 골격(예로, 도 12의 n1~n3)과 연관될 수 있다. Here, at least one pair of slope information may be associated with at least one skeletal interest (eg, n1 to n3 of FIG. 12 ). Also, the preset normal data may be associated with at least one skeletal interest (eg, n1 to n3 of FIG. 12 ).
예를 들어, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 n1 위치에 상응하는 한 쌍의 기울기 정보와 n1 위치와 연관된 정상 데이터의 차이가 미리 설정된 임계 값보다 큰지 여부를 판단할 수 있다. For example, the
만일 임계 값보다 크다고 판단되면, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 사용자가 n1 위치에 올바르지 못한 자세를 취하고 있음을 확인할 수 있다.If it is determined to be greater than the threshold value, the
다른 예로, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 n2 위치에 상응하는 한 쌍의 기울기 정보와 n2 위치와 연관된 정상 데이터의 차이가 미리 설정된 임계 값보다 큰지 여부를 판단할 수 있다. As another example, the
만일 임계 값보다 크다고 판단되면, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 사용자가 n2 위치에 올바르지 못한 자세를 취하고 있음을 확인할 수 있다.If it is determined that it is greater than the threshold value, the
또 다른 예로, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 n3 위치에 상응하는 한 쌍의 기울기 정보와 n3 위치와 연관된 정상 데이터의 차이가 미리 설정된 임계 값보다 큰지 여부를 판단할 수 있다. As another example, the
만일 임계 값보다 크다고 판단되면, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 사용자가 n3 위치에 올바르지 못한 자세를 취하고 있음을 확인할 수 있다.If it is determined to be greater than the threshold value, the
S1450 단계는 위 언급된 내용에 한정되는 것이 아니며, 각 위치에서 획득된 기울기 값들에 대한 평균 값과 미리 설정된 정상 데이터를 비교하는 방식으로도 구현이 가능할 수 있음은 이해될 것이다.It will be understood that step S1450 is not limited to the above, and may be implemented in a manner of comparing the average value of the inclination values obtained at each location with preset normal data.
S1460 단계에서, 본 일 실시 예에 따른 균형 훈련 시스템(100)은 사용자의 자세의 정상 여부에 대한 판단 정보를 기반으로 알람(alarm) 정보를 생성할 수 있다. 즉, S1460 단계는 사용자가 특정 위치에 올바르지 못한 자세를 취하는 경우에 수행되는 단계로 이해될 수 있다.In step S1460, the
본 명세서의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나, 본 명세서의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로, 본 명세서의 범위는 상술한 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present specification, specific embodiments have been described, but various modifications are possible without departing from the scope of the present specification. Therefore, the scope of the present specification should not be limited to the above-described embodiments and should be defined by the claims and equivalents of the claims of the present invention as well as the claims to be described later.
100: 균형 훈련 시스템 110: 센서 플레이트
120: 몸통 센서 모듈 130: 베이스 모듈
140: 핸드 레일 150: 깊이 센서 모듈
160: 제어 모듈100: balance training system 110: sensor plate
120: body sensor module 130: base module
140: hand rail 150: depth sensor module
160: control module
Claims (10)
상기 깊이 센서 모듈을 기반으로 사용자의 영상 정보를 획득하는 단계;
상기 영상 정보를 기반으로 상기 사용자를 위해 미리 설정된 복수의 골격을 위한 골격 위치 정보를 획득하는 단계;
상기 골격 위치 정보를 기반으로 적어도 하나의 관심 골격에 상응하는 적어도 하나의 제1 좌표 정보를 생성하는 단계;
상기 적어도 하나의 제1 좌표 정보 및 상기 몸통 센서 모듈의 출력 정보인 제2 좌표 정보를 기반으로 적어도 한 쌍의 기울기 정보를 생성하는 단계;
상기 적어도 한 쌍의 기울기 정보와 미리 설정된 정상 데이터를 기반으로 상기 사용자의 자세의 정상 여부를 판단하는 단계; 및
상기 자세의 정상 여부에 대한 판단을 기반으로 상기 사용자를 위한 알람(alarm) 정보를 생성하는 단계를 포함하되,
상기 적어도 하나의 제1 좌표 정보는 상기 적어도 하나의 관심 골격과 연관된 제1 위치에 상응하는 제1 X 좌표 값 및 제1 Y 좌표 값을 포함하고,
상기 제2 좌표 정보는 상기 몸통 센서 모듈의 부착 위치에 상응하는 제4 X 좌표 값 및 제4 Y 좌표 값을 포함하고, 그리고
상기 적어도 한 쌍의 기울기 정보는, 상기 제1 X 좌표 및 상기 제4 X 좌표에 기초한 X축 기울기 정보 및 상기 제1 Y 좌표 및 상기 제4 Y 좌표에 기초한 Y 축 기울기 정보를 포함하는, 방법.A method for determining a correct posture performed by a balance training system comprising a trunk sensor module and a depth sensor module, the method comprising:
acquiring image information of a user based on the depth sensor module;
obtaining skeleton position information for a plurality of skeletons preset for the user based on the image information;
generating at least one piece of first coordinate information corresponding to at least one bone of interest based on the bone location information;
generating at least one pair of inclination information based on the at least one piece of first coordinate information and second coordinate information that is output information of the body sensor module;
determining whether the posture of the user is normal based on the at least one pair of inclination information and preset normal data; and
Comprising the step of generating an alarm (alarm) information for the user based on the determination of whether the posture is normal,
the at least one first coordinate information includes a first X coordinate value and a first Y coordinate value corresponding to a first position associated with the at least one skeletal interest;
The second coordinate information includes a fourth X coordinate value and a fourth Y coordinate value corresponding to an attachment position of the body sensor module, and
The at least one pair of inclination information includes X-axis inclination information based on the first X coordinate and the fourth X coordinate, and Y-axis inclination information based on the first Y coordinate and the fourth Y coordinate.
상기 사용자에 상응하는 스켈레톤 이미지 정보는 상기 복수의 골격을 위한 상기 골격 위치 정보는 기반으로 생성되는 방법.The method of claim 1,
The skeleton image information corresponding to the user is generated based on the skeleton position information for the plurality of skeletons.
상기 스켈레톤 이미지 정보는 상기 골격 위치 정보 중에서 상기 몸통 센서 모듈을 위해 미리 설정된 부착 위치를 기준점으로 생성되는 방법.3. The method of claim 2,
The method in which the skeleton image information is generated using a preset attachment position for the torso sensor module among the skeleton position information as a reference point.
상기 적어도 하나의 제1 좌표 정보는 상기 적어도 하나의 관심 골격과 연관된 제2 위치에 상응하는 제2 X 좌표 값 및 제2 Y 좌표 값 및 상기 적어도 하나의 관심 골격과 연관된 제3 위치에 상응하는 제3 X 좌표 값 및 제3 Y 좌표 값을 더 포함하는 방법.The method of claim 1,
The at least one first coordinate information includes a second X coordinate value and a second Y coordinate value corresponding to a second position associated with the at least one skeleton of interest, and a second X coordinate value and a second Y coordinate value corresponding to a third position associated with the at least one skeleton of interest. A method further comprising 3 X coordinate values and a third Y coordinate value.
상기 사용자의 자세의 정상 여부를 판단하는 단계는,
상기 적어도 한 쌍의 기울기 정보와 상기 정상 데이터의 차이가 미리 설정된 임계 값보다 크다고 판단되면, 상기 자세를 비정상으로 판단하는 단계; 및
상기 적어도 한 쌍의 기울기 정보와 상기 정상 데이터의 차이가 미리 설정된 임계 값보다 작다고 판단되면, 상기 자세를 정상으로 판단하는 단계를 포함하는 방법.The method of claim 1,
The step of determining whether the posture of the user is normal,
determining that the posture is abnormal when it is determined that a difference between the at least one pair of inclination information and the normal data is greater than a preset threshold value; and
and determining that the posture is normal when it is determined that a difference between the at least one pair of inclination information and the normal data is smaller than a preset threshold value.
상기 베이스 모듈 상에 배치되고, 사용자의 족압을 측정하기 위한 다수의 압력 센서를 포함하는 센서 플레이트;
상기 센서 플레이트와 연결되는 제어 장치;
상기 제어 장치와 연결되고, 상기 사용자의 영상 정보를 획득하고, 상기 사용자를 위한 적어도 하나의 관심 골격에 상응하는 적어도 하나의 제1 좌표 정보를 획득하는 깊이 센서 모듈;
상기 제어 장치와 연결되고, 상기 사용자를 위한 미리 설정된 위치에 부착되고, 상기 미리 설정된 위치에 관한 제2 좌표 정보를 획득하는 몸통 센서 모듈을 포함하되,
상기 제어 장치는, 상기 적어도 하나의 제1 좌표 정보 및 상기 제2 좌표 정보를 기반으로 적어도 한 쌍의 기울기 정보를 생성하고, 상기 한 쌍의 기울기 정보 및 미리 설정된 정상 데이터를 기반으로 상기 사용자의 자세가 정상인지 판단하고, 상기 영상 정보를 기반으로 상기 사용자를 위해 미리 설정된 복수의 골격을 위한 골격 위치 정보를 생성하는 균형 훈련 시스템.base module;
a sensor plate disposed on the base module and including a plurality of pressure sensors for measuring a user's foot pressure;
a control device connected to the sensor plate;
a depth sensor module connected to the control device, acquiring image information of the user, and acquiring at least one piece of first coordinate information corresponding to at least one skeleton of interest for the user;
a body sensor module connected to the control device, attached to a preset position for the user, and configured to obtain second coordinate information regarding the preset position,
The control device generates at least one pair of inclination information based on the at least one piece of first coordinate information and the second coordinate information, and the user's posture based on the pair of inclination information and preset normal data A balance training system for determining whether is normal, and generating skeletal position information for a plurality of skeletons preset for the user based on the image information.
상기 적어도 하나의 관심 골격은 상기 골격 위치 정보를 기반으로 결정되는 균형 훈련 시스템.9. The method of claim 8,
The at least one skeleton of interest is a balance training system that is determined based on the skeleton position information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220093038A KR20220112222A (en) | 2019-11-26 | 2022-07-27 | Balance training system with heterogeneous sensors and method for determining correct posture using the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190153337 | 2019-11-26 | ||
KR1020190153337 | 2019-11-26 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220093038A Division KR20220112222A (en) | 2019-11-26 | 2022-07-27 | Balance training system with heterogeneous sensors and method for determining correct posture using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210064999A KR20210064999A (en) | 2021-06-03 |
KR102433074B1 true KR102433074B1 (en) | 2022-08-17 |
Family
ID=76396770
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190177103A KR102433074B1 (en) | 2019-11-26 | 2019-12-27 | Balance training system with heterogeneous sensors and method for determining correct posture using the same |
KR1020220093038A KR20220112222A (en) | 2019-11-26 | 2022-07-27 | Balance training system with heterogeneous sensors and method for determining correct posture using the same |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220093038A KR20220112222A (en) | 2019-11-26 | 2022-07-27 | Balance training system with heterogeneous sensors and method for determining correct posture using the same |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102433074B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102613638B1 (en) | 2022-12-08 | 2023-12-14 | 주식회사 테렌즈랩스 | Application-based health managing system installed in terminals |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101521025B1 (en) * | 2013-11-14 | 2015-05-19 | 조선대학교산학협력단 | Real-time coaching system based on three dimensional motion analysis of horse rider |
KR101959079B1 (en) * | 2018-10-08 | 2019-03-18 | 주식회사 마이베네핏 | Method for measuring and evaluating body performance of user |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102313801B1 (en) * | 2014-09-30 | 2021-10-19 | (주)바텍이우홀딩스 | Apparatus and method for guiding correct posture of medical image system |
KR101858116B1 (en) * | 2015-11-30 | 2018-05-15 | 전북대학교산학협력단 | A postural balance training system |
-
2019
- 2019-12-27 KR KR1020190177103A patent/KR102433074B1/en active IP Right Grant
-
2022
- 2022-07-27 KR KR1020220093038A patent/KR20220112222A/en not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101521025B1 (en) * | 2013-11-14 | 2015-05-19 | 조선대학교산학협력단 | Real-time coaching system based on three dimensional motion analysis of horse rider |
KR101959079B1 (en) * | 2018-10-08 | 2019-03-18 | 주식회사 마이베네핏 | Method for measuring and evaluating body performance of user |
Also Published As
Publication number | Publication date |
---|---|
KR20220112222A (en) | 2022-08-10 |
KR20210064999A (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3581095A2 (en) | Thoracic measuring device, scoliosis correction system, remote spinal diagnostic system, and wearable measuring device | |
Bertolotti et al. | A wearable and modular inertial unit for measuring limb movements and balance control abilities | |
US11253200B2 (en) | Garment system providing biometric monitoring | |
CN105688396A (en) | Exercise information display system and exercise information display method | |
US20130171596A1 (en) | Augmented reality neurological evaluation method | |
JP6521093B2 (en) | Walking motion display system and program | |
US20170135612A1 (en) | Feedback Wearable | |
US20200205698A1 (en) | Systems and methods to assess balance | |
KR20190014641A (en) | System and method for Gait analysis | |
Ahn et al. | Optimization of a pre-impact fall detection algorithm and development of hip protection airbag system | |
US20200375503A1 (en) | Lower limb muscle strength evaluation method, non-transitory computer-readable recording medium storing lower limb muscle strength evaluation program, lower limb muscle strength evaluation device, and lower limb muscle strength evaluation system | |
JP2014208257A (en) | Gait analysis system | |
KR20220112222A (en) | Balance training system with heterogeneous sensors and method for determining correct posture using the same | |
CN109045651A (en) | Golf correction system | |
KR20190104085A (en) | Method and system for step recommender based on pose calibration | |
JP2020518296A (en) | Multimodal sensor fusion platform | |
US20170000383A1 (en) | Objective balance error scoring system | |
JPWO2013105155A1 (en) | Information processing apparatus, control method therefor, and standing balance diagnosis system | |
Cui et al. | Wearable Gait Lab System providing quantitative statistical support for human balance tests | |
JP2020081413A (en) | Motion detection device, motion detection system, motion detection method and program | |
Callejas-Cuervo et al. | Balance analysis in adolescents based on a motion capture platform | |
EP3829374A1 (en) | Garment system providing biometric monitoring | |
JP2019165874A (en) | Recovery force evaluation device and program | |
Verchenko | Design of a control system of experimental plant for pelvis movement imitation | |
Ribeiro | IMUs–Validation, Gait Analysis and System’s Implementation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |