KR20160024124A - Gait correction system and control method for the same - Google Patents
Gait correction system and control method for the same Download PDFInfo
- Publication number
- KR20160024124A KR20160024124A KR1020140110560A KR20140110560A KR20160024124A KR 20160024124 A KR20160024124 A KR 20160024124A KR 1020140110560 A KR1020140110560 A KR 1020140110560A KR 20140110560 A KR20140110560 A KR 20140110560A KR 20160024124 A KR20160024124 A KR 20160024124A
- Authority
- KR
- South Korea
- Prior art keywords
- walking
- information
- user
- gait
- state information
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
- A61B5/1122—Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F5/00—Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Nursing (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Vascular Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Rehabilitation Tools (AREA)
Abstract
Description
본 발명은 보행 교정 유도 시스템 및 그 제어 방법에 관한 것이다. 더욱 상세하게는 보행 교정 시 사용자에게서 재미를 유도하여 보행 교정 유도 효과를 향상시킬 수 있는 보행 교정 유도 시스템 및 그 제어 방법에 관한 것이다. The present invention relates to a gait correction induction system and a control method thereof. More particularly, the present invention relates to a gait correction guidance system and a control method thereof, which can improve the gait correction inducing effect by inducing fun in a user during a gait correction.
인간의 보행 동작을 살펴보면, 한쪽 다리로 체중을 지지하는 지지 동작과, 체중이 지지되는 동안 반대쪽 다리를 이동하는 스윙 동작이 번갈아 나타난다. Looking at the human gait movement, the support movement supporting the weight with one leg alternates with the swing movement moving the other leg while the weight is supported.
지지 동작과 스윙 동작을 반복하며 보행할 때 올바른 보행 자세로 보행하는 것이 중요하다. 외족지 보행 또는 내족지 보행 등과 같이, 올바르지 못한 보행 자세는 보행 시 불필요한 에너지 소비를 발생시키고, 신체 관절 특히 무릎 관절 및 발목 관절에 무리를 줄 수 있으며, 신체 전반에 걸친 자세와 골격의 변형을 가져오기 때문이다. It is important to walk in a correct walking position when walking, repeating the supporting and swinging movements. Inadequate walking postures, such as external toe walking or toe toe walking, can cause unnecessary energy consumption when walking and can inflame the body joints, especially the knee joints and ankle joints, resulting in posture and skeletal deformation throughout the body I will come.
이처럼 무릎 관절 및 발목 관절에 무리가 가게 되면, 퇴행성 관절염이나 척추 질환에 노출될 가능성이 높아진다. 따라서, 이러한 질병들을 예방하고 자세의 변형을 막기 위해서는 잘못된 보행 자세의 교정을 유도할 필요성이 있다. 나아가서 신체 자세의 개선에 따른 아름답고 바른 자세로의 보정효과와 미용적 효과를 가져올 필요성이 있다. Such crowded knee and ankle joints are more likely to be exposed to degenerative arthritis or spinal disease. Therefore, it is necessary to induce correction of a false walking posture in order to prevent such diseases and to prevent deformation of the posture. Further, there is a need to bring about a correction effect and a cosmetic effect in a beautiful and correct posture according to the improvement of the body posture.
본 발명이 해결하고자 하는 과제는 보행 교정 시 사용자에게서 재미를 부가하여 보행 교정 유도 효과를 향상시킬 수 있는 보행 교정 유도 시스템 및 그 제어 방법에 관한 것이다.SUMMARY OF THE INVENTION The present invention is directed to a gait correction inducing system and a control method thereof that can improve the effect of guiding a gait by adding a fun to a user during gait correction.
상술한 과제를 해결하기 위하여 보행 교정 시스템의 제어 방법의 일 실시 예는 사용자 정보에 기초하여 기준 보행 상태 정보를 획득하는 단계, 보행 감지 장치로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득하는 단계, 상기 기준 보행 상태 정보 및 상기 현재 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하는 단계, 및 상기 모니터링 화면을 출력하는 단계를 포함할 수 있다. According to an embodiment of the present invention, there is provided a method of controlling a walking correction system, comprising: acquiring reference walking state information based on user information; acquiring current walking state information based on a walking signal received from a walking sensor Configuring a monitoring screen including a comparison result between the reference walking state information and the current walking state information, and outputting the monitoring screen.
상기 사용자 정보는 사용자로부터 입력받은 정보 또는, 상기 사용자를 촬영한 영상을 분석하여 인식된 정보, 또는 다양한 데이터 베이스로부터 전송받거나 획득한 정보일 수 있다. The user information may be information received from a user, information analyzed by analyzing the image of the user, or information received or obtained from various databases.
상기 사용자 정보는 상기 사용자의 몸무게, 키, 나이 및 다리 길이 중 적어도 하나를 포함하며, 상기 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이 및 무릎 관절에서 발목 관절까지의 길이를 포함할 수 있다. The user information includes at least one of the body weight, the key, the age, and the leg length of the user, and the leg length may include the length from the hip joint to the knee joint and the length from the knee joint to the ankle joint.
상기 기준 보행 상태 정보는 상기 사용자 정보 및 연산식을 이용하여 산출되거나 상기 사용자 정보에 기초하여 표준 데이터 베이스에서 검색될 수 있다. The reference walking status information may be calculated using the user information and the calculation formula or may be retrieved from the standard database based on the user information.
상기 보행 감지 장치는 사용자의 하지에 착용되거나 신발에 부착될 수 있다. The walking sensor may be worn on the user's lower limb or attached to the shoe.
상기 모니터링 화면은 2차원 영상, 3차원 영상, 실사 영상, 또는 이들의 조합에 기초하여 구성될 수 있다. The monitoring screen may be configured based on a two-dimensional image, a three-dimensional image, a real image, or a combination thereof.
상기 모니터링 화면을 구성하는 단계는 상기 기준 보행 상태 정보를 나타내는 오브젝트들와 상기 현재 보행 상태 정보를 나타내는 오브젝트들을 배치하는 단계, 상기 현재 보행 상태 정보를 나타내는 오브젝트에 강조 효과를 적용하는 단계, 상기 현재 보행 상태 정보에 따른 보행 점수와 상기 보행 점수에 따른 보상 시스템을 적용하는 단계, 및 모니터링 정보를 표시하는 단계를 포함하며, 상기 모니터링 정보는 현재까지의 보행 거리, 현재까지의 신체 운동량, 보행 정확도에 따라 부여된 현재까지의상기 보행 점수, 상기 보상 시스템 및 하지 관절의 움직임 정보 중 적어도 하나를 포함할 수 있다. Wherein the step of constructing the monitoring screen comprises the steps of: placing objects representing the reference walking state information and objects representing the current walking state information; applying an emphasis effect to an object representing the current walking state information; Applying the compensation system according to the walking information, the walking information according to the information, the compensation system according to the walking information, and displaying the monitoring information, wherein the monitoring information is given according to the walking distance to the present, The compensation system, and the motion information of the lower limbs.
상기 모니터링 화면은 사용자의 위치, 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상 및 음악을 각각 배경화면 및 배경음악 등으로 하여 구성될 수 있다. The monitoring screen may be configured to include a selected image and music based on at least one of a user's location, a current time, and a current season as a background screen and background music.
상기 오브젝트들을 배치하는 단계는 영상 획득부를 통해 실사 영상을 획득하는 단계, 및 상기 실사 영상에서 검출된 보행로에 맞추어 상기 오브젝트들을 배치하는 단계를 포함할 수 있다. The step of arranging the objects may include acquiring a real image through the image acquisition unit, and arranging the objects in accordance with the walkway detected in the real image.
사용자의 보행이 완료된 경우, 보행 분석 정보를 포함하는 보행 분석 결과 화면을 출력하는 단계를 더 포함하되, 상기 보행 분석 정보는 스텝 별 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수 중 적어도 하나를 포함할 수 있다. And outputting a gait analysis result screen including gait analysis information when the user's gait is completed, wherein the gait analysis information includes at least one of gait accuracy, total energy consumption, total gait distance, total gait time, And water.
상기 분석 정보에 위치정보 또는 지도정보가 추가적으로 조합되어 사용자의 이동경로 및 위치에 따른 다양한 컨텐츠와 복합적으로 작동하여 다양한 가상현실, 증간현실 구현을 포함할 수 있다. The analysis information may further include location information or map information, which may be combined with various contents according to the movement path and location of the user to include various virtual reality and incremental reality implementations.
사용자의 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면이 실시간으로 출력되고, 다양한 이펙트와 포인트 획득 등의 적용을 통하여 사용자에게서 재미를 부가할 수 있으며, 보행 교정에 적극적으로 참여하도록할 수 있다.The monitoring screen including the comparison result between the current walking state information of the user and the reference walking state information is outputted in real time and it is possible to add fun to the user by applying various effects and the point acquisition etc. and actively participate in the walking correction .
도 1은 일 실시 예에 따른 보행 교정 유도 시스템의 구성을 도시한 도면이다.
도 2는 도 1의 감지 장치가 신발에 부착된 모습과 출력 장치의 외형 및 출력 장치의 외형을 예시한 도면이다.
도 3은 건강한 사람의 보행 중 평균 발목 관절의 내/외전 각의 범위를 나이 별로 도시한 도면이다.
도 4는 일 실시 예에 따른 보행 감지 장치의 구성을 도시한 도면이다.
도 5는 일 실시 예에 따른 출력 장치의 구성을 도시한 도면이다.
도 6은 도 5의 제어부의 구성을 도시한 도면이다.
도 7은 사용자 정보 입력 화면을 예시한 도면이다.
도 8a 내지 도 8c는 일 실시 예에 따른 강조 효과가 적용된 모니터링 화면들을 예시한 도면들로서, 올바른 보행 유도를 위한 사용자의 정상 보행을 인식하기 위한 사용자 보행 인식 초기화 화면과 실제 걸음걸이 모니터링 데이터가 겹쳐진 모니터링 화면들을 예시한 도면들이다.
도 9a 및 도 9b는 다른 실시 예에 따른 강조 효과가 적용된 모니터링 화면들을 예시한 도면들이다.
도 10은 증강현실 기반의 모니터링 화면을 예시한 도면이다.
도 11은 보행 분석 결과 화면을 예시한 도면이다.
도 12는 일 실시 예에 따른 보행 교정 유도 시스템의 제어 방법 중 출력 장치측에서 이루어지는 제어 방법을 도시한 흐름도이다.FIG. 1 is a view showing a configuration of a walking correction guidance system according to an embodiment.
FIG. 2 is a view illustrating the appearance of the sensing device of FIG. 1 attached to the shoe, the external appearance of the output device, and the external appearance of the output device.
Fig. 3 is a view showing the range of the inward / outward angle of the ankle joint by the age of a healthy person.
FIG. 4 is a diagram illustrating a configuration of a walking detection apparatus according to an embodiment.
5 is a diagram showing a configuration of an output apparatus according to an embodiment.
FIG. 6 is a diagram showing the configuration of the control unit of FIG. 5;
7 is a diagram illustrating an example of a user information input screen.
8A to 8C are diagrams illustrating monitoring screens to which the emphasis effect is applied according to an exemplary embodiment. FIG. 8A to FIG. 8C are diagrams illustrating monitoring screens to which a highlighting effect is applied according to an exemplary embodiment. The user walking recognition initialization screen for recognizing a normal walking of a user, FIG.
9A and 9B are views illustrating monitoring screens to which a highlight effect according to another embodiment is applied.
10 is a view illustrating an augmented reality-based monitoring screen.
FIG. 11 is a diagram illustrating a gait analysis result screen.
FIG. 12 is a flowchart showing a control method performed on the output device side among the control methods of the walking correction guidance system according to the embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. And is intended to illustrate the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.
이하, 첨부된 도면들을 참조하여 본 발명의 실시 예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, like reference numerals designate like elements.
도 1은 일 실시 예에 따른 보행 교정 유도 시스템(1)의 구성을 도시한 도면이다. 1 is a diagram showing the configuration of a walking
도 1을 참조하면, 일 실시 예에 따른 보행 교정 유도 시스템(1)은 보행 감지 장치(100) 및 출력 장치(200)를 포함할 수 있다. Referring to FIG. 1, a walking
보행 감지 장치(100)는 사용자의 보행을 감지할 수 있다. 이를 위해 보행 감지 장치(100)는 하지 중 발등, 발목 안쪽, 발목 바깥쪽, 발목 뒤쪽에 대응되는 위치 중 한 곳에 배치될 수 있다. 또는 예시된 위치들 중에서 둘 이상의 위치에 배치될 수도 있다. The
일 실시 예에 따르면, 보행 감지 장치(100)는 도 2에 도시된 바와 같이, 사용자의 신발에 배치될 수 있다. 이 때, 보행 감지 장치(100)는 신발에 탈착(脫着) 가능하도록 구현될 수 있다. 일 예로, 보행 감지 장치(100)의 몸체(미도시)에는 결합 돌기(미도시)가 배치될 수 있다. 그리고 신발에는 결합 홈(미도시)이 배치될 수 있다. 이 경우, 보행 감지 장치(100)의 몸체에 배치된 결합 돌기와 신발에 배치된 결합 돌기를 결합시킴으로써, 보행 감지 장치(100)를 신발에 결합시킬 수 있다. 다른 예로, 보행 감지 장치(100)의 몸체와 신발에는 각각 벨크로(Velcro)가 배치될 수 있다. 이 경우, 보행 감지 장치(100)의 몸체에 배치된 벨크로와 신발에 배치된 벨크로를 접촉시킴으로써, 보행 감지 장치(100)를 신발에 접착시킬 수 있다. 또 다른 예로, 보행 감지 장치(100)의 몸체에 집개가 배치될 수 있다. 사용자는 이 집개를 이용하여 신발의 소정 위치에 보행 감지 장치(100)를 결합시킬 수 있다. According to one embodiment, the
다른 실시 예에 따르면, 보행 감지 장치(100)는 사용자의 하지에 배치될 수 있다. 이 때, 보행 감지 장치(100)는 사용자의 하지에 착용될 수 있도록 구현될 수 있다. 예를 들어, 보행 감지 장치(100)는 사용자의 발목에 착용될 수 있도록 밴드나 벨트 등의 고정 수단을 더 포함할 수 있다. 이 때, 밴드나 벨트는 착용이 용이하도록 신축성 있는 소재로 만들어질 수 있다. According to another embodiment, the
이처럼 사용자의 하지나 신발에 부착된 보행 감지 장치(100)는 사용자가 보행하는 경우, 보행을 감지하여 보행 신호를 출력한다. 보행 감지 장치(100)에서 출력된 보행 신호는 유선 통신 방식 또는 무선 통신 방식에 따라 출력 장치(200)로 전송된다. 이하의 설명에서는 보행 신호가 무선 통신 방식에 따라 출력 장치(200)로 전송되는 경우를 예로 들어 설명하기로 한다. As described above, when the user is walking, the
한편, 보행 감지 장치(100)와 후술될 출력 장치(200) 간에는 페어링(paring) 과정이 수행될 수 있다. 페어링 과정은 보행 감지 장치(100)의 기기 정보를 출력 장치(200)에 등록하고, 출력 장치(200)의 기기 정보를 보행 감지 장치(100)에 등록하는 과정이다. 페어링 과정이 완료되면, 페어링 과정이 완료된 기기 간에만 데이터가 송수신되므로, 기기 간에 송수신되는 데이터에 대한 보안성을 향상시킬 수 있다. 그러나 보행 감지 장치(100)와 출력 장치(200) 간에 반드시 페어링 과정이 수행되어야 하는 것은 아니며, 페어링 과정은 생략될 수도 있음은 물론이다. 보행 감지 장치(100)의 구성에 대한 보다 구체적인 설명은 도 4를 참조하여 후술하기로 한다. Meanwhile, a paring process may be performed between the walking
다시 도 1을 참조하면, 출력 장치(200)는 보행 감지 장치(100)의 보행 신호로부터 사용자의 현재 보행 상태 정보를 획득하고, 사용자 정보에 기초하여 기준 보행 상태 정보를 획득할 수 있다. 사용자 정보는 사용자의 이름, 성별, 나이, 사용자의 키, 몸무게, 및 다리 길이 중 적어도 하나를 포함할 수 있다. 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이(이하, 'L1'이라 한다) 및 무릎 관절에서 발목 관절까지의 길이(이하, 'L2'라 한다)를 예로 들 수 있다. 이러한 사용자 정보는 사용자에 의해 입력되거나, 사용자의 전신 또는 하지 사진 등으로부터 이미지 인식 프로그램 등을 사용하여 임의로 추출될 수 있다. 외부 장치(미도시)나 온/오프라인의 데이터 베이스(DB) 예를 들어, 병원 서버로부터 수신될 수 있다. Referring again to FIG. 1, the
일 실시 예에 따르면, 출력 장치(200)는 상술한 사용자 정보와 기 저장된 연산식을 이용하여 기준 보행 상태 정보를 산출할 수 있다. 다른 실시 예에 따르면, 출력 장치(200)는 사용자 정보에 대응하는 기준 보행 상태 정보를 표준 데이터 베이스에서 검색할 수 있다. 표준 데이터 베이스란 모델, 군인, 어린이, 성인, 노인 등과 같이 다양한 피험자군의 평균 보행 동작을 분석한 결과를 저장하고 있는 데이터 베이스를 의미한다. 또 다른 실시 예에 따르면, 출력 장치(200)는 기준 보행 상태 정보 중 일부는 연산식을 이용하여 획득하고, 나머지는 표준 데이터 베이스를 검색하여 획득할 수도 있다. According to one embodiment, the
한편, 기준 보행 상태 정보는 사용자의 보행 자세 교정을 유도하는데 기준이 되는 정보를 말하는 것으로, 정적 보행 정보(static gait information), 동적 보행 정보(dynamic gait information) 및 시공간 보행 정보(spatio-temporal gait information)를 예로 들 수 있다. On the other hand, the reference gait state information refers to information that is a reference for guiding the user's gait correction, and includes static gait information, dynamic gait information, and spatio-temporal gait information ).
정적 보행 정보는 사용자의 정적 보행(static gait)과 관련된 정보를 말한다. 정적 보행이란 사용자의 무게 중심의 이동이 작고 속도가 느린 보행 방법을 말한다. Static gait information refers to information related to a user's static gait. Static walking refers to a walking method in which the movement of the user's center of gravity is small and slow.
동적 보행 정보는 사용자의 동적 보행(dynamic gait)과 관련된 정보를 말한다. 동적 보행이란 직진 시 인체의 무게 중심의 위치가 발에서 떠나 스스로 균형을 깨고 앞으로 넘어지듯이 걷는 보행 방법을 말한다. The dynamic walking information refers to information related to the dynamic gait of the user. Dynamic walking refers to a walking method in which the position of the center of gravity of the human body at the time of going straight is to walk away from the foot and fall down and fall forward.
시공간 보행 정보로는 보행 속도(gait velocity), 보폭(stride length), 보폭 시간(stride time), 지지 시간(stance time), 스윙 시간(swing time) 및 보행 각도를 예로 들 수 있다. 여기서, 각 용어에 대하여 간단히 설명하면 다음과 같다. Examples of time-space walking information include gait velocity, stride length, stride time, stance time, swing time, and walking angle. Here, each term will be briefly described as follows.
한쪽 발꿈치가 땅에 닿는 시기(heel strike)에서 반대쪽 발뒤꿈치가 땅에 닿는 시기까지의 동작을 보(步) 또는 한 발짝(step)이라고 하는데, 앞에 위치한 발의 뒤꿈치에서 뒤에 위치한 발의 뒤꿈치까지의 수평 거리를 보장(step length) 또는 보폭이라 하며, 요하는 시간을 보 시간(step time)이라 한다. The movement from the heel strike to the time when the other heel touches the ground is called a step or step. The horizontal distance from the heel of the front foot to the heel of the foot behind Is called a step length or stride, and the time required is called a step time.
그리고 한쪽 발뒤꿈치가 땅에 닿는 시기(heel strike)에서부터 같은 쪽 발뒤꿈치가 땅에 닿는 시기까지의 동작을 활보(闊步) 또는 한 걸음(stride)이라고 하는데, 양 발 사이의 앞뒤 거리를 활보장(stride length)이라 하고, 양 발 사이의 좌우 거리를 활보격 또는 양발 너비(stride width)라 한다. 그리고 보행 진행 방향과 발의 장축 방향이 이루는 각도를 발목 각도(foot angle) 또는 보행 각도(angle of gait)라 한다. 이하의 설명에서는 보폭, 보폭 시간, 양발 너비 및 보행 각도를 각각 '기준 보폭', '기준 보폭 시간', '기준 양발 너비' 및 '기준 보행 각도'라 칭하기로 한다. The movement from the heel strike to the heel of the same heel to the ground is called stride or stride, and the distance between the two heights is guaranteed stride length "), and the left and right distance between the two feet is called a stride width or a stride width. The angle between the walking direction and the long axis direction of the foot is called a foot angle or an angle of gait. In the following description, the stride, the stride time, the foot width, and the walking angle will be referred to as "reference stride", "reference stride time", "reference heel width", and "reference walking angle", respectively.
기준 보폭은 엉덩이 관절에서 무릎 관절까지의 길이(L1) 및 무릎 관절에서 발목 관절까지의 길이(L2)를 연산식에 대입하여 산출될 수 있다. 기준 보폭을 산출하기 위한 연산식은 공지된 기술이므로, 이에 대한 설명은 생략하기로 한다. The reference stride length can be calculated by substituting the length (L1) from the hip joint to the knee joint and the length (L2) from the knee joint to the ankle joint into the equation. The calculation formula for calculating the reference stride is a well-known technique, and a description thereof will be omitted.
기준 보행 각도는 나이에 따라 다르게 나타날 수 있다. 기준 보행 각도는 여러 명의 건강한 사람들에 대한 보행 데이터를 획득한 다음, 이를 분석하여 얻을 수 있다. 도 3은 건강한 사람의 보행 중 평균 발목 관절의 내/외전 각의 범위를 나이 별로 나타낸 것이다. 도 3을 참조하면, 건강한 사람의 보행 중 평균 발목 관절의 내/외전 각은 0°~15°의 범위에 속하는 것을 알 수 있다. 따라서, 예시된 범위와 사용자의 보행 각도를 비교하여, 사용자의 보행이 외족지 보행(toe-out gait)에 해당하는지, 내족지 보행(toe-in gait)에 해당하는지를 판단할 수 있다. The reference walking angle can vary depending on age. The reference walking angle can be obtained by obtaining gait data for several healthy persons and analyzing them. FIG. 3 shows the range of the inner / outer abduction angle of the average ankle joint by the age of a healthy person. Referring to FIG. 3, it can be seen that the average / abduction angle of an average ankle joint in a healthy person's walking ranges from 0 ° to 15 °. Therefore, it is possible to determine whether the user's walking corresponds to the toe-out gait or the toe-in gait by comparing the illustrated range with the user's walking angle.
다시 도 1을 참조하면, 출력 장치(200)는 보행 감지 장치(100)로부터 수신한 보행 신호에 기초하여 사용자의 현재 보행 상태 정보를 획득할 수 있다. 현재 보행 상태 정보로는 현재 보폭, 현재 보행 각도, 현재 보행 속도, 보행 거리 및 보행에 따른 신체 운동량 및 보행 패턴 정보를 예로 들 수 있다. Referring again to FIG. 1, the
일 실시 예에 따르면, 출력 장치(200)는 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하고, 구성된 모니터링 화면을 출력할 수 있다. 상기 모니터링 화면은 보행 상태 모니터링 프로그램이나 보행 교정을 유도하는 프로그램 또는 게임이 실행되는 동안에 제공되는 화면일 수 있다. 보행 상태 모니터링 프로그램이나 보행 교정을 유도하는 게임은 사용자로부터 실행 명령이 입력된 경우에 실행되거나, 감지 장치(100)로부터 보행 신호가 수신된 경우에 자동으로 실행될 수 있다. According to one embodiment, the
출력 장치(200)는 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 시각적 신호뿐만 아니라, 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합으로 출력할 수 있다. 이를 위해 출력 장치(200)는 영상 출력부, 음향 출력부, 진동 출력부, 광 출력부, 향기 출력부, 미각 출력부, 또는 이들의 조합을 포함할 수 있다. The
상술한 바와 같은 출력 장치(200)는 유무선 통신 장치를 포함할 수 있다. 유무선 통신 장치로는 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 왑폰(WAP phone: Wireless application protocol phone), 스마트폰(Smart phone), 스마트패드 및 모바일 게임기(mobile play-station) 등의 이동 단말기를 예로 들 수 있다. 예시된 바와 같은 출력 장치(200)는 사용자의 신체 일부 예를 들어, 머리, 손목, 손가락, 팔, 또는 허리에 착용될 수 있는 착용형 장치일 수 있다. 출력 장치(200)의 구성에 대한 보다 구체적인 설명은 도 5 및 도 6을 참조하여 후술하기로 한다. The
도 4는 일 실시 예에 따른 보행 감지 장치(100)의 구성을 도시한 도면이다. FIG. 4 is a diagram illustrating a configuration of a
도 4를 참조하면, 일 실시 예에 따른 보행 감지 장치(100)는 버튼부(110), 감지부(120), 제어부(130), 통신부(140), 및 전원 공급부(150)를 포함할 수 있다. 4, the
버튼부(110)는 적어도 하나의 버튼을 포함할 수 있다. 예를 들어, 버튼부(110)는 보행 감지 장치(100) 내의 각 구성요소들로 전원을 공급하기 위한 전원 버튼을 포함할 수 있다. 이러한 전원 버튼은 예를 들어, 온/오프 버튼으로 구현될 수 있다. 도 4는 보행 감지 장치(100)가 버튼부(110)를 포함하는 경우를 도시하였지만, 버튼부(110)가 반드시 구비되어야 하는 것은 아니며, 경우에 따라 생략될 수도 있다. The button unit 110 may include at least one button. For example, the button unit 110 may include a power button for supplying power to each component in the
감지부(120)는 사용자가 보행하는 경우, 사용자의 보행을 감지하여, 보행 신호를 출력할 수 있다. 이를 위해 감지부(120)는 복수의 센서를 포함할 수 있다. 예를 들어, 감지부(120)는 3축 가속도 센서(3-axis accelerometer), 3축 자이로 센서(3-axis gyroscope), 3축 지자기 센서(3-axis magnetometer) 및 지자기 이미징 센서(magnetometer)를 포함할 수 있다. The sensing unit 120 may sense a user's walking and output a walking signal when the user is walking. For this, the sensing unit 120 may include a plurality of sensors. For example, the sensing unit 120 may include a 3-axis accelerometer, a 3-axis gyroscope, a 3-axis magnetometer, and a geomagnetic imaging sensor. .
3축 가속도 센서는 x, y, z축 방향의 가속도를 감지할 수 있다. 3축 가속도 센서에서 감지된 신호는 현재 보행 상태 정보 예를 들어, 현재 보행 속도 및 보행 거리를 산출하는데 사용될 수 있다. The 3-axis acceleration sensor can detect the acceleration in the x, y, and z axis directions. The signal detected by the three-axis acceleration sensor can be used to calculate the current walking state information, for example, the current walking speed and the walking distance.
3축 자이로 센서는 x, y, z축에 대한 각속도(roll, pitch, yaw)를 감지할 수 있다. 3축 자이로 센서에서 감지된 신호는 현재 보행 상태 정보 예를 들어, 현재 보행 각도를 산출하는데 사용될 수 있다. The 3-axis gyro sensor can detect angular velocities (roll, pitch, yaw) on the x, y, and z axes. The signal detected by the triaxial gyro sensor can be used to calculate the current gait state information, for example, the current gait angle.
3축 지자기 센서와 지자기 이미징 센서는 x, y, z축에 대한 기울기를 감지할 수 있다. 3축 지자기 센서 및 지자기 이미징 센서에서 감지된 신호는 현재 보행 상태 정보 예를 들어, 현재 보행 각도를 산출하는데 사용될 수 있다. The three axis geomagnetic sensor and the geomagnetic imaging sensor can detect the tilt of the x, y, and z axes. The signals sensed by the triaxial geomagnetic sensor and the geomagnetism imaging sensor can be used to calculate current gait information, for example, the current gait angle.
제어부(130)는 보행 감지 장치(100) 내의 각 구성요소들을 연결하고 제어할 수 있다. 일 예로, 제어부(130)는 버튼부(110)에 마련된 전원 버튼의 온/오프를 감지할 수 있다. 감지결과 전원 버튼이 온된 경우, 제어부(130)는 출력 장치(200)와 페어링 과정이 이루어지도록 각 구성요소들을 제어할 수 있다. 다른 예로, 제어부(130)는 감지부(120)에 의해 감지된 신호를 처리할 수 있다. 구체적으로, 제어부(130)는 감지부(120)에 의해 감지된 신호를 증폭하고, 증폭된 신호에서 노이즈를 제거할 수 있다. 그리고 노이즈가 제거된 아날로그 신호를 디지털 신호로 변환할 수 있다. 이를 위해 제어부(130)는 도면에 도시되지는 않았으나, 증폭부, 필터부, 및 A/D 변환부 중 적어도 하나를 포함할 수 있다. The control unit 130 may connect and control each component in the
통신부(140)는 출력 장치(200)와 데이터 및/또는 제어신호를 송수신할 수 있다. 예를 들면, 통신부(140)는 보행 감지 장치(100)와 출력 장치(200) 간의 페어링(paring) 과정에 필요한 데이터 및/또는 제어신호를 송수신할 수 있다. 다른 예로, 통신부(140)는 보행 감지 장치(100)의 제어부(130)에 의해 처리된 보행 신호를 출력 장치(200)로 전송할 수 있다. 이 때, 통신부(140)와 출력 장치(200) 간에 송수신되는 데이터, 제어신호 및/또는 보행 신호는 유선 통신 방식 또는 무선 통신 방식에 따라 송수신될 수 있다. 무선 통신 방식으로는 와이파이(WiFi), 블루투스(Bluetooth), 지그비(ZigBee), 및 울트라와이드밴드(Ultrawideband)를 예로 들 수 있다. The communication unit 140 may transmit and receive data and / or control signals to and from the
전원 공급부(150)는 보행 감지 장치(100)의 각 구성요소들로 전원을 공급할 수 있다. 전원 공급부(150)는 버튼부(110)의 전원 버튼이 온(on)된 경우, 보행 감지 장치(100)의 각 구성요소들로 전원을 공급할 수 있다. 이러한 전원 공급부(150)는 예를 들어, 배터리를 포함할 수 있다. 일 예로, 행 감지 장치(100)와 물리적으로 분리 가능하도록 구현될 수 있다. 다른 예로, 배터리는 보행 감지 장치(100)와 하드웨어적으로 일체형으로 구현될 수도 있다. 이 경우, 배터리는 무선전력전송 기술에 따라 공급되는 전력에 의해 충전될 수 있다. The
도 5는 일 실시 예에 따른 출력 장치(200)의 구성을 도시한 도면이다. 5 is a diagram showing a configuration of an
도 5를 참조하면, 일 실시 예에 따른 출력 장치(200)는 입력부(210), 출력부(220), 제어부(230), 통신부(240), 저장부(250) 및 영상 획득부(260)를 포함할 수 있다. 5, the
입력부(210)는 사용자로부터 사용자 정보나 명령을 입력받을 수 있다. 사용자 정보로는 사용자의 이름, 성별, 나이, 사용자의 키, 몸무게, 및 다리 길이를 예로 들 수 있다. 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이(L1), 및 무릎 관절에서 발목 관절까지의 길이(L2)를 포함할 수 있다. 입력부(210)는 입력 수단 예를 들어, 마우스, 키보드, 조이스틱, 터치패드, 터치 스크린(touchscreen), 또는 이들의 조합을 포함할 수 있다. 이 때, 키보드는 하드웨어적으로 구현될 수도 있고, 소프트웨어적으로 구현될 수도 있다. 이러한 입력부(210)는 도 5에 도시된 바와 같이, 출력 장치(200)에 배치될 수도 있고, 출력 장치(200)와 유선 통신 및/또는 무선 통신이 가능한 별도의 장치에 배치될 수도 있다. 예를 들면, 입력부(210)는 리모트 컨트롤러에 배치될 수 있다. The input unit 210 can receive user information and commands from a user. Examples of user information include the user's name, sex, age, user's key, weight, and leg length. The leg length may include the length from the hip joint to the knee joint (L1), and the length from the knee joint to the ankle joint (L2). The input unit 210 may include input means such as a mouse, a keyboard, a joystick, a touchpad, a touchscreen, or a combination thereof. At this time, the keyboard may be implemented in hardware or in software. The input unit 210 may be disposed in the
출력부(220)는 명령 처리 결과를 시각적 신호, 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합으로 출력할 수 있다. 이를 위해 출력부(220)는 도면에 도시되지는 않았으나, 영상 출력부, 음향 출력부, 진동 출력부, 광 출력부, 향기 출력부, 미각 출력부, 또는 이들의 조합을 포함할 수 있다. The output unit 220 can output the command processing result as a visual signal, an audible signal, a tactile signal, a smell signal, a taste signal, or a combination thereof. To this end, the output unit 220 may include an image output unit, an acoustic output unit, a vibration output unit, a light output unit, a perfume output unit, a taste output unit, or a combination thereof, though not shown in the figure.
영상 출력부로는 평판 디스플레이, 플렉서블 디스플레이 및 마이크로 디스플레이를 예로 들 수 있다. 평판 디스플레이나 플렉서블 디스플레이는 불투명한 디스플레이일 수도 있고, 투명한 디스플레이일 수도 있다. 마이크로 디스플레이는 광학계를 이용한 디스플레이로, 헤드 마운트 디스플레이(Head Mounted Display, HMD)에 배치될 수 있다. 이러한 영상 출력부는 출력 기능만을 가질 수도 있고, 입력 기능 및 출력 기능을 모두 가질 수도 있다. 예를 들어, 영상 출력부가 터치 스크린으로 구현되는 경우, 영상 출력부는 입력 기능과 출력 기능을 모두 갖는 것으로 볼 수 있다. Examples of the image output section include a flat panel display, a flexible display, and a microdisplay. A flat panel display or a flexible display may be an opaque display or a transparent display. The microdisplay is a display using an optical system and can be disposed in a head mounted display (HMD). The video output unit may have only an output function, and may have both an input function and an output function. For example, when the video output unit is implemented as a touch screen, the video output unit may have both an input function and an output function.
음향 출력부로는 스피커를 예로 들 수 있다. 광 출력부로는 발광다이오드(Light Emitting Diode; LED)를 예로 들 수 있다. 향기 출력부는 특정 향을 함유한 물질을 포함하는 복수의 카트리지와, 각 카트리지에 포함된 물질을 조합하여 외부로 살포하는 공기 압축기를 포함할 수 있다. 미각 출력부는 특정 맛을 함유한 물질을 포함하는 복수의 카트리지와, 각 카트리지에 포함된 물질을 조합하여 외부로 살포하는 공기 압축기를 포함할 수 있다. An example of the sound output unit is a speaker. The light output unit may be a light emitting diode (LED). The perfume output portion may include a plurality of cartridges including a substance containing a specific fragrance and an air compressor that externally distributes a combination of materials contained in each cartridge. The taste output unit may include a plurality of cartridges including a substance containing a specific taste and an air compressor that externally distributes a combination of materials contained in each cartridge.
상술한 바와 같은 출력부(220)는 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 표시할 수 있다. 상기 모니터링 화면은 보행 상태 모니터링 프로그램이나 보행 교정을 유도하는 게임의 실행 중에 제공되는 화면일 수 있다. 모니터링 화면은 2차원 영상, 3차원 영상, 실사 영상, 또는 이들의 조합으로 이루어질 수 있다. 모니터링 영상의 종류는 사전에 설정된 설정 값에 따라 결정될 수 있다. 설정 값은 사용자에 의해 변경 가능하도록 구현될 수 있다. 모니터링 화면에 대한 보다 구체적인 설명은 도 7 내지 도 11을 참조하여 후술하기로 한다. The output unit 220 as described above may display a monitoring screen including a result of comparison between the current walking state information and the reference walking state information. The monitoring screen may be a walking condition monitoring program or a screen provided during execution of a game to induce walking correction. The monitoring screen may be a two-dimensional image, a three-dimensional image, a real image, or a combination thereof. The type of the monitoring image can be determined according to a preset setting value. The set value can be changed by the user. A more detailed description of the monitoring screen will be given later with reference to Figs. 7 to 11. Fig.
통신부(240)는 보행 감지 장치(100)와 데이터 및/또는 제어신호를 송수신할 수 있다. 예를 들면, 통신부(240)는 보행 감지 장치(100)와 출력 장치(200) 간의 페어링 과정에 필요한 데이터 및/또는 제어신호를 송수신할 수 있다. 다른 예로, 통신부(240)는 보행 감지 장치(100)로부터 보행 신호를 수신할 수 있다. 수신된 보행 신호는 후술될 제어부(230)로 제공될 수 있다. 통신부(240)와 보행 감지 장치 간(100)에 송수신되는 데이터, 제어신호 및/도는 보행 신호는 유선 통신 방식 또는 무선 통신 방식에 따라 송수신될 수 있다. The communication unit 240 can transmit and receive data and / or control signals to and from the walking
영상 획득부(260)는 영상을 획득할 수 있다. 예를 들어, 영상 획득부(260)는 사용자의 모습을 촬영한 영상 및 사용자의 전방을 촬영한 영상을 획득할 수 있다. 이를 위해 영상 획득부(260)는 하나 이상의 카메라를 포함할 수 있다. 영상 획득부(260)에서 획득된 영상은 후술될 제어부(230)로 제공될 수 있다. The
저장부(250)는 출력 장치(200)가 동작하는데 필요한 데이터나 알고리즘을 저장할 수 있다. 예를 들면, 저장부(250)는 보행 상태 모니터링 프로그램, 영상 획득부(260)에 의해 획득된 영상에서 사람이나 보행로를 검출하는데 필요한 데이터나 알고리즘, 사용자 정보를 이용하여 기준 보행 상태 정보를 산출하는데 필요한 연산식, 감지 장치(100)로부터 수신한 보행 신호에서 현재 보행 상태 정보를 산출하는데 필요한 연산식, 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도를 산출하는데 필요한 연산식을 저장할 수 있다. 또한 저장부(250)는 모니터링 화면을 구성하는데 필요한 그래픽 데이터 등을 저장할 수 있다. 이러한 저장부(250)는 휘발성 메모리, 비휘발성 메모리, 하드디스크드라이브, 광디스크드라이브, 또는 이들의 조합을 포함할 수 있다. The
제어부(230)는 사용자 정보에 기초하여 기준 보행 상태 정보를 획득할 수 있으며, 감지 장치(100)로부터 수신한 보행 신호로부터 현재 보행 상태 정보를 획득할 수 있다. 또한, 제어부(230)는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 비교 결과가 시각적 신호, 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합으로 출력되도록 출력 장치(200)의 각 구성요소들을 제어할 수 있다. 여기서, 제어부(230)에 대한 보다 구체적인 설명을 위해 도 6을 참조하기로 한다. The control unit 230 can acquire the reference walking state information based on the user information and can obtain the current walking state information from the walking signal received from the
도 6은 도 5의 제어부(230)의 구성을 도시한 도면이다. FIG. 6 is a diagram showing the configuration of the control unit 230 of FIG.
도 6을 참조하면, 제어부(230)는 영상 분석부(231), 기준 보행 상태 정보 획득부(232), 현재 보행 상태 정보 획득부(233), 계산부(234) 및 화면 구성부(235)를 포함할 수 있다. 6, the control unit 230 includes an
영상 분석부(231)는 영상을 입력받을 수 있다. 상기 영상은 영상 획득부(260)에 의해 획득된 영상이거나 외부 장치로부터 수신된 영상일 수 있다. 영상 분석부(231)는 입력받은 영상을 분석하여, 사용자 정보나 보행로를 인식할 수 있다. 예를 들면, 사람의 키, 다리 길이, 체중 등을 검출할 수 있다. 검출된 정보는 기준 보행 상태 정보 획득부(232)로 제공될 수 있다. 만약, 영상에서 보행로가 검출된 경우, 검출된 정보는 화면 구성부(235)로 제공될 수 있다. The
기준 보행 상태 정보 획득부(232)는 입력부(210)를 통해 입력된 사용자 정보 및/또는 영상 분석부(231)에 의해 검출된 사용자 정보에 기초하여, 기준 보행 상태 정보를 획득할 수 있다. 예를 들어, 기준 보행 상태 정보 획득부(232)는 사용자 정보와 기 저장된 연산식을 이용하여 기준 보행 상태 정보를 산출할 수 있다. 다른 예로, 기준 보행 상태 정보 획득부(232)는 사용자 정보에 대응하는 기준 보행 상태 정보를 표준 데이터 베이스에서 검색할 수 있다. 예시된 방식으로 획득될 수 있는 기준 보행 상태 정보로는 기준 보폭, 기준 보행 각도, 기준 보행 속도, 기준 보행 거리 및 기준 신체 운동량을 예로 들 수 있다. 획득된 기준 보행 상태 정보는 후술될 계산부(234) 및 화면 구성부(235)로 각각 제공된다. The reference walking state
현재 보행 상태 정보 획득부(233)는 보행 감지 장치(100)로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득할 수 있다. 예를 들어, 현재 보폭, 현재 보행 각도, 현재 보행 속도, 현재까지의 보행 거리 및 현재까지의 신체 운동량 중 적어도 하나를 획득할 수 있다. 산출된 현재 보행 상태 정보는 후술될 계산부(234) 및 화면 구성부(235)로 각각 제공된다. The current walking state information obtaining section 233 can obtain the current walking state information based on the walking signal received from the
계산부(234)는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도를 산출할 수 있다. 예를 들어, 제어부(230)는 기준 보폭과 현재 보폭 간의 유사도를 산출할 수 있으며, 기준 보행 각도와 현재 보행 각도 간의 유사도를 산출할 수 있다. 이 후, 계산부(234)는 산출된 유사도에 따라 점수를 계산할 수 있다. 초기 프로그램 또는 게임의 실행시 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도를 산출한 후에는 계산부(234)의 부하를 최소화하여 전력소모를 최소화함으로써, 출력 장치(200)의 사용시간을 최대화한다. 이를 위해 정상보행 정보에 해당되는 보행패턴 데이터의 범위를 설정하고, 이 설정 범위를 벗어나는 보행이 감지될 경우에만, 데이터를 취득 및 저장함으로써 데이터 저장 곤간 사용을 최소화하고 최적으로 사용한다. 전력의 공급 및 데이터 저장 공간이 충분한 경우에는 사용자 설정 및 상황에 따라 데이터 취득 범위, 데이터 저장의 빈도 및 감도 레벨 중 적어도 하나를 수동 또는 자동으로 조절할 수 있다. The
만약 기준 보폭과 현재 보폭의 유사도가 0~100%로 표현된다면, 해당 범위는 10개의 레벨로 나누어질 수 있다. 기준 보폭과 현재 보폭 간의 유사도가 높을수록 높은 레벨에 해당한다고 한다면, 레벨이 높아질수록 높은 점수를 부여하는 방식이 사용될 수 있다. 예를 들어, 기준 보폭과 현재 보폭의 유사도가 0~10% 사이의 값을 갖는다면, 계산부(234)는 두 값의 유사도가 레벨1에 해당하는 것으로 판단할 수 있으며, 현재 보폭에 대해 1점을 부여할 수 있다. 만약, 기준 보폭과 현재 보폭의 유사도가 11~20% 사이의 값을 갖는다면, 계산부(234)는 두 값의 유사도가 레벨2에 해당하는 것으로 판단할 수 있으며, 현재 보폭에 대해 2점을 부여할 수 있다. If the similarity between the reference stride and the current stride is expressed as 0 to 100%, the range can be divided into 10 levels. If the similarity between the reference stride and the current stride is higher, the higher the level, the higher the score, the higher the score can be used. For example, if the similarity between the reference stride and the current stride has a value between 0 and 10%, the calculating
이와 마찬가지로, 기준 보행 각도와 현재 보행 각도 간의 유사도가 0~100%로 표현된다면, 해당 범위는 10개의 레벨로 나누어질 수 있다. 기준 보행 각도와 현재 보행 각도 간의 유사도가 높을수록 높은 레벨에 해당한다고 한다면, 레벨이 높아질수록 높은 점수를 부여하는 방식이 사용될 수 있다. 예를 들어, 기준 보행 각도와 현재 보행 각도의 유사도가 11~20% 사이의 값을 갖는다면, 제어부(230)는 두 값의 유사도가 레벨2에 해당하는 것으로 판단할 수 있으며, 현재 보행 각도에 대해 2점을 부여할 수 있다. Likewise, if the similarity between the reference walking angle and the current walking angle is expressed as 0 to 100%, the range can be divided into 10 levels. If the degree of similarity between the reference walking angle and the current walking angle corresponds to a higher level, a method of giving a higher score as the level is higher can be used. For example, if the similarity between the reference walking angle and the current walking angle is between 11 and 20%, the controller 230 can determine that the similarity of the two values corresponds to the level 2, Two points can be given for
상술한 바와 같이, 계산부(234)는 현재 보폭 및 현재 보행 각도에 각각 대해 점수를 부여한 다음, 부여된 점수들을 합산할 수 있다. 일 실시 예에 따르면, 계산부(234)는 현재 보폭 및 현재 보행 각도에 각각 부여된 점수를 단순히 합산할 수 있다. 다른 실시 예에 따르면, 계산부(234)는 현재 보폭 및 현재 보행 각도에 각각 부여된 점수의 가중치 합을 계산할 수 있다. 예를 들면, 계산부(234)는 현재 보폭에 대한 점수에 비해 현재 보행 각도에 대한 점수에 더 높은 가중치를 적용한 후, 합산할 수 있다. 합산된 점수 정보는 후술될 화면 구성부(235)로 제공될 수 있다. As described above, the
이상의 실시 예에서는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도에 비례하여 점수를 계산하는 경우를 예로 들어 설명하였다. 그러나 점수를 계산하는 방식은 이것으로 한정되는 것은 아니다. 다른 실시 예에 따르면, 기준 보행 상태 정보와 현재 보행 상태 정보가 서로 일치하는 경우에는 점수를 부여하고, 두 정보가 서로 일치하지 않는 경우에는 점수를 차감하는 방식이 사용될 수도 있다. 이러한 방식으로 계산된 점수 정보는 후술될 화면 구성부(235)로 제공된다. In the above embodiment, the score is calculated in proportion to the degree of similarity between the reference gait state information and the current gait state information. However, the method of calculating the score is not limited to this. According to another embodiment, a score may be given when the reference walking state information and the current walking state information match each other, and a score may be subtracted when the two pieces of information do not coincide with each other. The score information calculated in this manner is provided to the screen configuration unit 235 to be described later.
화면 구성부(235)는 영상 분석부(231), 기준 보행 상태 정보 획득부(232), 현재 보행 상태 정보 획득부(233) 및 계산부(234) 중 적어도 하나에서 제공된 데이터에 기초하여, 보행 상태를 모니터링할 수 있는 모니터링 화면을 구성할 수 있다. 구체적으로, 화면 구성부(235)는 2차원 영상, 3차원 영상, 실사 영상, 또는 이들을 조합하여 모니터링 화면을 구성할 수 있다. 구성된 모니터링 화면은 출력부(220)의 영상 출력부를 통해 표시될 수 있다. The screen configuration unit 235 is configured to perform a walk based on the data provided by at least one of the
다음으로, 도 7 내지 도 11을 참조하여 모니터링 화면에 대해서 설명하기로 한다. Next, the monitoring screen will be described with reference to FIGS. 7 to 11. FIG.
보행 상태 모니터링 프로그램이 실행되면, 도 7에 도시된 바와 같이, 사용자 정보를 입력받기 위한 화면이 영상 출력부를 통해 표시된다. When the walking state monitoring program is executed, a screen for receiving user information is displayed through a video output unit as shown in FIG.
도 7을 참조하면, 화면의 상단에는 사용자 정보를 입력받기 위한 복수의 입력란이 배치될 수 있다. 예를 들면, 다리 길이, 나이, 키, 및 몸무게를 입력받기 위한 복수의 입력란이 배치될 수 있다. 여기서 다리 길이와 관련해서는 엉덩이 관절에서 무릎 관절까지의 길이(L1)를 입력하는 입력란과 무릎 관절에서 발목 관절까지의 길이(L2)를 입력하는 입력란이 배치될 수 있다. 도 7은 다리 길이와 관련하여 2개의 입력란이 배치된 경우를 도시하고 있지만, 왼쪽 다리의 L1 및 L2, 오른쪽 다리의 L1 및 L2를 구분하여 입력할 수 있도록, 다리 길이와 관련하여 총 4개의 입력란이 배치될 수도 있다. Referring to FIG. 7, a plurality of input boxes for receiving user information may be disposed at the top of the screen. For example, a plurality of input lines for inputting the leg length, age, key, and weight may be arranged. Here, regarding the leg length, an input line for inputting the length (L1) from the hip joint to the knee joint and an input line for inputting the length (L2) from the knee joint to the ankle joint may be arranged. Fig. 7 shows a case in which two input lines are arranged in relation to the leg length. However, in order to separately input L1 and L2 of the left leg and L1 and L2 of the right leg, May be disposed.
도 7을 참조하면, 화면의 하단에는 엉덩이 관절에서 무릎 관절까지의 길이(L1) 및 무릎 관절에서 발목 관절까지의 길이(L2)를 설명하는 그림이 표시될 수 있다. 다른 실시예에 따르면, 해당 L1 및 L2 측정 방법을 설명하는 텍스트로 대체될 수도 있다. Referring to FIG. 7, a figure explaining the length L1 from the hip joint to the knee joint and the length L2 from the knee joint to the ankle joint may be displayed at the bottom of the screen. According to another embodiment, it may be replaced by a text describing the corresponding L1 and L2 measurement method.
사용자 정보는 수동으로 입력받거나 자동으로 입력받을 수 있다. 사용자 정보를 수동으로 입력받을 것인지, 자동으로 입력받을 것인지는 사용자가 사전에 설정할 수 있다. 사용자 정보 입력 모드가 수동 입력 모드로 설정된 경우에는 도 7과 같이, 각 입력란이 공란으로 표시된 화면이 영상 표시부를 통해 표시된다. 사용자 정보 입력 모드가 자동 입력 모드로 설정된 경우에는 도 7의 화면을 표시하기에 앞서, 영상 분석이 선행될 수 있다. 예를 들어, 사용자를 촬영한 영상을 분석하여 사람을 검출한 다음, 검출 결과에 기초하여 다리 길이, 키, 몸무게 등의 사용자 정보를 인식할 수 있다. 이처럼 사용자 정보가 인식되면, 도 7의 나이 입력란을 제외한 각 입력란에는 인식된 정보가 표시될 수 있다. 이 후, 사용자는 나이 입력란에 나이를 입력하여, 사용자 정보 입력을 완료할 수 있다. User information can be input manually or automatically. The user can set in advance whether to receive user information manually or automatically. When the user information input mode is set to the manual input mode, as shown in FIG. 7, a screen in which each input field is blank is displayed through the image display unit. If the user information input mode is set to the automatic input mode, the image analysis may precede the display of FIG. For example, after a person is detected by analyzing a captured image of a user, user information such as leg length, height, and weight can be recognized based on the detection result. When the user information is recognized as described above, the recognized information may be displayed in each input field except for the age field of FIG. Thereafter, the user can input the age into the age field and complete the user information input.
사용자 정보 입력이 완료되면, 입력 받은 사용자 정보에 기초하여 기준 보행 상태 정보가 획득된다. 기준 보행 상태 정보는 사용자 정보와 연산식을 이용하여 산출되거나, 사용자 정보를 기초로 표준 데이터 베이스를 검색함으로써 획득될 수 있다. When the user information input is completed, the reference walking state information is obtained based on the inputted user information. The reference walking state information may be calculated using user information and an equation, or may be obtained by searching a standard database based on user information.
기준 보행 상태 정보가 획득되면, 기준 보행 상태 정보를 포함하는 모니터링 화면이 구성되어, 영상 출력부를 통해 표시된다. 모니터링 화면은 2차원 영상, 3차원 영상, 실사 영상, 또는 이들을 조합한 영상일 수 있다. 모니터링 화면의 종류는 사용자에 의해 사전에 설정될 수 있다. 설정된 값은 보행 상태 모니터링 중에 변경 가능하도록 구현될 수 있다. 모니터링 화면의 종류가 2차원 영상으로 설정된 경우에는 도 8a 내지 도 8c에 도시된 화면들이 영상 출력부를 통해 표시될 수 있다. When the reference walking state information is obtained, a monitoring screen including the reference walking state information is configured and displayed through the video output unit. The monitoring screen may be a two-dimensional image, a three-dimensional image, a real image, or a combination thereof. The type of the monitoring screen can be set in advance by the user. The set value can be implemented so as to be changeable during the gait monitoring. When the type of the monitoring screen is set as a two-dimensional image, the screens shown in FIGS. 8A to 8C can be displayed through the image output unit.
도 8a 내지 도 8c는 2차원 영상을 포함하는 모니터링 화면들을 도시한 도면이다. 구체적으로, 도 8a는 사용자의 보행이 시작되기 전에 사용자의 정상 보행 정보를 획득하기 위해 표시되는 사용자 보행 인식 초기화 화면이다. 도 8b는 보행 시작 시에 표시되는 모니터링 화면이다. 그리고 도 8c는 보행 중에 표시되는 모니터링 화면이다. 8A to 8C are views showing monitoring screens including a two-dimensional image. Specifically, FIG. 8A is a user walking recognition initialization screen displayed to acquire normal walking information of the user before the user starts walking. 8B is a monitoring screen displayed at the start of walking. And Fig. 8C is a monitoring screen displayed while walking.
도 8a를 참조하면, 모니터링 화면의 중앙에는 기준 보행 상태 정보를 나타내는 GUI 오브젝트(이하, '오브젝트'라 한다)가 배치된다. 예를 들면, 기준 발자국 오브젝트들(40L, 40R) 및 기준 화살표 오브젝트들(43L, 43R)이 배치될 수 있다. Referring to FIG. 8A, a GUI object (hereinafter, referred to as an 'object') indicating the reference walking state information is disposed at the center of the monitoring screen. For example, the reference footprint objects 40L and 40R and the reference arrow objects 43L and 43R can be arranged.
기준 발자국 오브젝트들(40L, 40R)은 왼발 기준 발자국 오브젝트(40L)와 오른발 기준 발자국 오브젝트(40R)를 포함할 수 있다. 왼발 기준 발자국 오브젝트(40L)와 오른발 기준 오브젝트(40R) 간의 앞뒤 간격은 기준 보폭을 나타낸다. The reference footprint objects 40L and 40R may include a left foot
기준 화살표 오브젝트들(43L, 43R) 중에서 왼발 기준 발자국 오브젝트들(40L)의 장축을 따라 배치된 기준 화살표 오브젝트(43L)의 방향은 왼발에 대한 기준 보행 각도를 나타낸다. The direction of the
화살표 오브젝트들(43L, 43R) 중에서 오른발 기준 발자국 오브젝트들(40R)의 장축을 따라 배치된 화살표 오브젝트(43R)의 방향은 오른발에 대한 기준 보행 각도를 나타낸다. The direction of the
상술한 왼발 기준 발자국 오브젝트(40L), 오른발 기준 발자국 오브젝트(40R), 및 기준 화살표 오브젝트들(43L, 43R)은 예를 들어, 점선으로 표시될 수 있다.The left foot
이러한 상태에서 사용자의 보행이 시작되면, 도 8b와 같이, 기준 보행 상태 정보 및 현재 보행 상태 정보를 포함하는 모니터링 화면이 구성되어, 영상 출력부를 통해 표시된다. When the user starts walking in this state, a monitoring screen including the reference walking state information and the current walking state information is configured and displayed through the video output unit as shown in FIG. 8B.
도 8b를 참조하면, 모니터링 화면에는 현재 보행 상태 정보를 나타내는 오브젝트가 배치된다. 예를 들면, 제1 발자국 오브젝트들(41L, 41R) 및 제1 화살표 오브젝트들(44L, 44R)이 표시될 수 있다. Referring to FIG. 8B, an object representing current walking state information is placed on the monitoring screen. For example, the first footprint objects 41L and 41R and the first arrow objects 44L and 44R can be displayed.
제1 발자국 오브젝트들(41L, 41R)은 제1 왼발 발자국 오브젝트(41L)와 제1 오른발 발자국 오브젝트(41R)를 포함할 수 있다. 이 때, 제1 왼발 발자국 오브젝트(41L)와 제1 오른발 발자국 오브젝트(41R) 간의 앞위 간격은 현재 보폭을 나타낸다. The first footprint objects 41L and 41R may include a first
제1 화살표 오브젝트들(44L, 44R) 중에서 제1 왼발 발자국 오브젝트(41L)의 장축을 따라 배치된 제1 화살표 오브젝트(44L)의 방향은 왼발의 현재 보행 각도를 나타낸다. The direction of the
제1 화살표 오브젝트들(44L, 44R) 중에서 제1 오른발 발자국 오브젝트(41R)의 장축을 따라 배치된 제1 화살표 오브젝트(44R)의 방향은 오른발의 현재 보행 각도를 나타낸다. 이처럼 제1 발자국 오브젝트들(41L, 41R)에 대하여 각각 제1 화살표 오브젝트(44L, 44R)을 중첩하여 표시하면, 사용자는 기준 보행 각도와 현재 보행 각도 간의 차이를 한 눈에 파악할 수 있다. The direction of the
이외에도, 제1 왼발 발자국 오브젝트(41L)의 주변에는 기준 화살표 오브젝트(43L)와 제1 화살표 오브젝트(41L) 사이의 각도를 나타내는 각도 값(θ41L)이 표시될 수 있다. 마찬가지로, 제1 오른발 발자국 오브젝트(41R)의 주변에는 기준 화살표 오브젝트(43R)과 제1 화살표 오브젝트(41R) 사이의 각도를 나타내는 각도 값(θ41R)이 표시될 수 있다. 이처럼 각도 값을 표시하면, 제1 화살표 오브젝트들(41L, 41R)만 표시하는 경우에 비하여, 사용자가 양발의 현재 보행 각도를 보다 정확하게 인지할 수 있다. In addition, an angle value? 41L indicating the angle between the
도 8b를 참조하면 알 수 있듯이, 제1 발자국 오브젝트들(41L, 41R) 및 제1 화살표 오브젝트들(44L, 44R)은 기준 발자국 오브젝트들(40L, 40R) 및 기준 화살표 오브젝트들(43L, 43R)과 구분되어 표시될 수 있다. 예를 들어, 제1 발자국 오브젝트들(41L, 41R) 및 제1 화살표 오브젝트들(44L, 44R)은 모두 실선으로 표시될 수 있다. 8B, the first footprint objects 41L and 41R and the first arrow objects 44L and 44R correspond to the reference footprint objects 40L and 40R and the reference arrow objects 43L and 43R, As shown in FIG. For example, the first footprint objects 41L and 41R and the first arrow objects 44L and 44R may all be represented by solid lines.
이에 더하여, 제1 발자국 오브젝트들(41L, 41R)에는 기준 발자국 오브젝트들(40L, 40R)에 비하여 강조 효과가 적용될 수 있다. 예를 들어, 제1 발자국 오브젝트들(41L, 41R)의 색상은 기준 발자국 오브젝트들(40L, 40R)의 색상과 다른 색상으로 표현될 수 있다. In addition, the emphasis effect can be applied to the first footprint objects 41L and 41R in comparison with the reference footprint objects 40L and 40R. For example, the colors of the first footprint objects 41L and 41R may be expressed in different colors from those of the reference footprint objects 40L and 40R.
한편, 모니터링 화면에는 현재 보폭 및 현재 보행 각도 외에도, 모니터링 정보가 표시될 수 있다. 모니터링 정보로는 현재까지의 보행 거리, 현재까지의 신체 운동량, 보행 정확도에 따라 부여된 현재까지의 보행 점수, 및 하지 관절의 움직임 정보 등이 더 표시될 수 있다. 도 8b를 참조하면, 화면의 좌측 상단, 좌측 하단, 우측 하단 및 우측 상단에 각각 보행 점수(48), 보행 거리(46), 신체 운동량(46) 및 하지 관절의 움직임 정보(49)가 표시된 경우를 도시하고 있다. On the other hand, in addition to the current stride and the current walking angle, monitoring information may be displayed on the monitoring screen. The monitoring information may further include a walking distance to the present, a body exercise amount to the present, a walking score to the present according to the walking accuracy, and motion information of the lower limbs. 8B, when a walking
보행 점수는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도에 따라 부여된다. 보행 점수는 보행이 진행됨에 따라 변할 수 있다. 현재 보행 상태 정보와 기준 보행 상태 정보 간의 유사도가 높거나 두 정보가 서로 일치하는 경우, 보행 점수는 가산된다. 만약 현재 보행 상태 정보와 기준 보행 상태 정보 간의 유사도가 낮거나 두 정보가 서로 일치하지 않는 경우, 보행 점수는 가산되지 않거나 차감될 수 있다. 따라서, 보행 상태의 정확도에 따라 보행 점수를 차감하거나 누적하면, 사용자로 하여금 재미를 유도할 수 있으므로, 보행 교정 효과를 향상시킬 수 있다. 실시 예에 따르면, 보행 점수는 마일리지나 사이버 머니처럼 화폐 기능을 가질 수 있으며, 사전에 등록된 업체에서 구입한 물품의 대금으로 지급될 수 있다. 이처럼 보행 점수가 화폐 기능을 가지도록 구현하면, 보행 상태 교정에 대한 동기를 유발할 수 있다. The walking score is given according to the degree of similarity between the reference walking state information and the current walking state information. The walking score may change as the walk progresses. If the degree of similarity between the current walking state information and the reference walking state information is high, or if the two information coincide with each other, the walking score is added. If the similarity between the current walking condition information and the reference walking condition information is low or the two pieces of information do not coincide with each other, the walking score may not be added or deducted. Therefore, if the walking score is subtracted or accumulated according to the accuracy of the walking state, the user can induce fun, thereby improving the walking correction effect. According to the embodiment, the walking score may have a monetary function like mileage or cyber money, and may be paid for the goods purchased from the pre-registered company. If the walking score is implemented with the monetary function, it can induce motivation for the gait correction.
신체 운동량으로는 현재까지의 에너지 소모량을 예로 들 수 있다. 에너지 소모량은 칼로리 단위로 표시될 수 있다. The amount of physical exercise is energy consumption up to present. Energy consumption can be expressed in calories.
하지 관절의 움직임 정보는 예를 들어, 2차원 골격 구조 애니메이션(2D skeletal animation)으로 표시될 수 있다. 하지 관절의 움직임 정보를 표시하기 위해서는 발목 관절의 위치, 무릎 관절의 위치, 엉더이 관절의 위치에 대한 정보가 필요한데, 이러한 정보는 사용자의 다리 길이(L1, L2) 및 현재 보행 각도에 기초하여 산출될 수 있다. The motion information of the lower limb joint can be displayed, for example, as a 2D skeletal animation. In order to display the motion information of the lower limb, information on the position of the ankle joint, the position of the knee joint, and the position of the joint of the torso is required. This information is calculated based on the user's leg lengths L1 and L2 and the current walking angle .
보행 점수, 보행 거리, 신체 운동량 및 하지 관절의 움직임 정보는 보행이 진행됨에 따라 실시간으로 갱신될 수 있다. The walking score, the walking distance, the body motion amount, and the motion information of the lower limb joint can be updated in real time as the walking progresses.
도 8b의 모니터링 화면이 표시된 상태에서, 사용자가 보행을 계속하는 경우, 도 8c와 같이, 기준 보행 상태 정보, 이전 보행 상태 정보 및 현재 보행 상태 정보를 포함하는 모니터링 화면이 구성되어, 영상 출력부를 통해 표시된다. When the user continues to walk while the monitoring screen of FIG. 8B is displayed, as shown in FIG. 8C, a monitoring screen including reference walking state information, previous walking state information, and current walking state information is configured, Is displayed.
도 8c를 참조하면, 제1 발자국 오브젝트들(41L, 41R)은 이전 보행 상태 정보를 나타내는 오브젝트에 해당하므로, 도 8b에서 적용되었던 강조 효과가 취소된 것을 알 수 있다. 즉, 제1 발자국 오브젝트들(41L, 41R)의 색상이 기준 발자국 오브젝트들(40L, 40R)의 색상과 동일한 것을 알 수 있다. Referring to FIG. 8C, since the first footprint objects 41L and 41R correspond to objects representing the previous walking state information, it can be seen that the emphasis effect applied in FIG. 8B is canceled. That is, it can be seen that the colors of the first footprint objects 41L and 41R are the same as the colors of the reference footprint objects 40L and 40R.
또한, 도 8c는 도 8b에 비하여 제2 발자국 오브젝트들(45L, 45R) 및 제2 화살표 오브젝트들(45L, 45R)이 추가된 것을 알 수 있다. 이 때, 제2 발자국 오브젝트들(45L, 45R)은 현재 보행 상태 정보를 나타내는 오브젝트들이므로, 기준 발자국 오브젝트들(40L, 40R) 및 제1 발자국 오브젝트들(41L, 41R)과는 달리, 강조 효과가 적용된 것을 알 수 있다. In addition, FIG. 8C shows that the second footprint objects 45L and 45R and the second arrow objects 45L and 45R are added in comparison with FIG. 8B. Unlike the reference footprint objects 40L and 40R and the first footprint objects 41L and 41R, since the second footprint objects 45L and 45R are objects representing current walking state information, Is applied.
또한, 제2 발자국 오브젝트들(45L, 45R)의 주변에는 기준 화살표 오브젝트(43L, 43R)과 제2 화살표 오브젝트(45L, 45R) 사이의 각도를 나타내는 각도 값(θ42L, θ42R)이 표시될 수 있다. 이처럼 제2 발자국 오브젝트들(45L, 45R)의 주변에도 각도 값이 표시되면, 사용자는 자신의 현재 보행 상태가 기준 보행 상태에 가깝게 교정되고 있는지를 한 눈에 확인할 수 있다. In addition, angle values? 42L and? 42R indicating the angles between the reference arrow objects 43L and 43R and the second arrow objects 45L and 45R are displayed around the second footprint objects 45L and 45R . As described above, when the angle values are also displayed in the vicinity of the second footprint objects 45L and 45R, the user can confirm at a glance whether his current walking state is being corrected to a reference walking state.
도 8c를 참조하면, 제1 오른발 발자국 오브젝트(41R)의 보행 각도(θ41R)에 비하여, 제2 오른발 발자국 오브젝트(42R)의 보행 각도(θ42R)가 감소한 것을 알 수 있다. 마찬가지로, 제1 왼발 발자국 오브젝트(41L)의 보행 각도(θ41L)에 비하여 제2 왼발 발자국 오브젝트(42L)의 보행 각도(θ42L)가 감소한 것을 알 수 있다. 이로부터 사용자의 현재 보행 상태가 기준 보행 상태에 가까워지도록 교정되고 있음을 알 수 있다. Referring to Figure 8c, the first can be seen that compared to the gait angle (θ 41R) of the right foot footprint object (41R), the walk angle (θ 42R) of the second object, the right foot step (42R) decreased. Similarly, it can be seen that the first walking down the angle (θ 42L) of the second step the left foot objects (42L) than the walk angle (θ 41L) of the left foot footprint objects (41L). From this, it can be seen that the user's current walking state is being corrected to approach the reference walking state.
이상, 도 8a 내지 도 8c에서는 현재 보행 상태 정보를 나타내는 발자국 오브젝트의 색상을 기준 보행 상태 정보를 나타내는 발자국 오브젝트의 색상이나 이전 보행 상태 정보를 나타내는 발자국 오브젝트의 색상과 다르게 표시하는 경우를 예로 들어 설명하였다. 그러나 현재 보행 상태 정보를 나타내는 발자국 오브젝트에 적용될 수 있는 강조 효과는 이것으로 한정되는 것은 아니다. 8A to 8C, the color of the footstep object indicating the current walking status information is displayed differently from the color of the footstep object representing the reference walking status information or the color of the footstep object representing the previous walking status information . However, the emphasis effect that can be applied to the footprint object indicating the present walking state information is not limited to this.
도 9a 및 도 9b는 다른 실시 예에 따른 강조 효과가 적용된 모니터링 화면들을 도시한 도면이다. 9A and 9B are views showing monitoring screens to which a highlight effect according to another embodiment is applied.
도 9a의 모니터링 화면에는 기준 보행 상태 정보를 나타내는 기준 발자국 오브젝트들(40L, 40R), 이전 보행 상태 정보를 나타내는 제1 발자국 오브젝트(41L, 41R) 및 현재 보행 상태 정보를 나타내는 제2 오른발 발자국 오브젝트(42R)가 도시되어 있다.9A, the reference footstep objects 40L and 40R representing the reference walking state information, the first footstep objects 41L and 41R representing the previous walking state information, and the second right footstep object < RTI ID = 0.0 & 42R are shown.
도 9a를 참조하면, 제2 오른발 발자국 오브젝트(42R)의 주변에는 물방울이 퍼지는 것과 같은 효과가 추가될 수 있다. 이 때, 제2 오른발 발자국 오브젝트(42R)가 나타내는 현재 보행 각도와, 오른발 기준 발자국 오브젝트(40R)가 나타내는 기준 보행 각도가 서로 일치하지 않으므로, 물방울의 색상은 부정적인 이미지의 색상 예를 들어, 붉은 색으로 표현될 수 있다. 또한, 제2 오른발 발자국 오브젝트(42R)의 주변에는 부정적인 문구 예를 들어, 'Bad!'라는 문구가 표시될 수 있다. Referring to Fig. 9A, the effect of spreading water droplets around the second
도 9b의 모니터링 화면에는 기준 보행 상태 정보를 나타내는 기준 발자국 오브젝트들(40L, 40R), 이전 보행 상태 정보를 나타내는 제1 발자국 오브젝트(41L, 41R)와 제2 오른발 발자국 오브젝트(42R), 현재 보행 상태 정보를 나타내는 제2 왼발 발자국 오브젝트(42L)가 도시되어 있다. The monitoring screen of FIG. 9B includes reference footprint objects 40L and 40R indicating reference walk status information, first footprint objects 41L and 41R representing previous walk status information, a second
도 9b를 참조하면, 제2 오른발 발자국 오브젝트(42R)는 이전 보행 상태 정보를 나타내는 오브젝트이므로, 물방울 퍼짐 효과 및 문구로 이루어진 강조 효과가 사라진 것을 알 수 있다. Referring to FIG. 9B, since the second right footed footstep object 42R is an object representing the previous walking state information, it can be seen that the effect of the droplet spreading and the emphasis effect of the phrase disappear.
이에 비하여, 제2 왼발 발자국 오브젝트(42L)의 주변에는 물방울 퍼짐 효과가 적용된 것을 알 수 있다. 이 때, 제2 왼발 발자국 오브젝트(42L)가 나타내는 현재 보행 각도와, 왼발 기준 발자국 오브젝트(40L)이 나타내는 기준 보행 각도가 거의 일치하므로, 물방울의 색상은 긍정적인 이미지의 색상 예를 들어, 파란 색으로 표현될 수 있다. 또한, 제2 왼발 발자국 오브젝트(42L)의 주변에는 긍정적인 문구 예를 들어, 'Good!'라는 문구가 표시될 수 있다. On the other hand, it can be seen that a water droplet spreading effect is applied to the periphery of the second
이처럼 물방울 퍼짐 효과와 문구를 이용하여 강조 효과를 적용하면, 현재 보행 상태에 대한 시각적인 효과를 극대화할 수 있다. By applying the emphasis effect using the water droplet spreading effect and the phrase like this, the visual effect on the current walking state can be maximized.
한편, 도 9a의 모니터링 화면이 영상 출력부를 통해 표시될 때에는 부정적인 느낌의 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합이 출력될 수 있다. On the other hand, when the monitoring screen of FIG. 9A is displayed through the video output unit, a negative sensation signal, a tactile sense signal, a smell sense signal, a taste sensation signal, or a combination thereof may be output.
그리고, 도 9b의 모니터링 화면이 영상 출력부를 통해 표시될 때에는 긍정적인 느낌의 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합이 출력될 수 있다. When the monitoring screen of FIG. 9B is displayed through the video output unit, a positive sensation signal, a tactile sensation signal, an olfactory sense signal, a taste sensation signal, or a combination thereof may be output.
이상으로, 도 8a 내지 도 9b를 참조하여, 출력 장치(200)를 통해 표시되는 모니터링 화면들을 설명하였다. 도 8a 내지 도 8c에 도시되지는 않았으나, 도 8a 내지 도 8c에서 기준 보행 상태 정보를 나타내는 오브젝트들, 이전 보행 상태 정보를 나타내는 오브젝트들 및 현재 보행 상태를 나타내는 오브젝트들은 배경 화면으로 선택된 영상에 중첩되어 표시될 수 있다. 이 때, 모니터링 화면의 배경 화면은 사용자의 위치(즉, 출력 장치의 위치), 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상이 사용될 수 있다. 배경 화면으로 사용되는 영상은 출력 장치(200) 내에 저장되어 있는 영상들 중에서 선택된 것이거나, 영상을 저장하는 영상 서버(미도시)로부터 제공받은 것일 수 있다. Thus, the monitoring screens displayed through the
다른 실시 예에 따르면, 기준 보행 상태 정보를 나타내는 오브젝트들, 이전 보행 상태 정보를 나타내는 오브젝트들 및 현재 보행 상태를 나타내는 오브젝트들은 실사 화면에 중첩되어 표시될 수 있다. 즉, 출력 장치(200)는 도 10과 같은 증강현실 기반의 모니터링 화면을 표시할 수 있다. According to another embodiment, the objects representing the reference walking state information, the objects representing the previous walking state information, and the objects representing the current walking state can be superimposed on the real world screen. That is, the
도 10의 모니터링 화면을 출력하기 위해서는, 영상 획득부(260)를 통해 주변을 촬영하는 작업과, 촬영된 영상에서 보행로를 검출하는 작업이 선행될 수 있다. 그리고 검출된 보행로에 맞추어 오브젝트들을 배치하여 모니터링 화면을 구성할 수 있다. 도 10의 증강현실 기반의 모니터링 화면은 도 8a 내지 도 9b에 도시된 모니터링 화면들과는 다르게, 오브젝트들(40L, 40R, 41L, 41R, 43L, 43R)이 보행로에 맞추어 원근감 있게 표시된 것을 알 수 있다. In order to output the monitoring screen of Fig. 10, the operation of photographing the periphery through the
도 11은 보행 분석 결과 화면을 예시한 도면이다. 보행 분석 결과 화면에는 보행 분석 정보가 표시될 수 있다. 보행 분석 정보로는 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수를 예로 들 수 있다. FIG. 11 is a diagram illustrating a gait analysis result screen. The gait analysis result screen may display gait analysis information. Examples of gait analysis information include walking accuracy, total energy consumption, total walking distance, total walking time, and total number of steps.
보행 정확도는 예를 들어, 각 보(step)의 정확도를 나타내는 히스토그램(50)으로 표현될 수 있다. 히스토그램(50)의 가로축은 보행 시간을 나타내며, 가로축에는 보행 시작 시간 및 보행 종료 시간이 표시될 수 있다. 도 11을 참조하면 보행 시작 시간은 오후 7시 이며, 보행 종료 시간은 오후 7시 5분인 것을 알 수 있다. 히스토그램(50)의 세로축은 각 보(step)의 정확도를 나타낸다. 즉, 세로축의 값은 각 보와 기준 보행 상태 정보 간의 유사도 값이거나, 유사도 값에 대응하는 값일 수 있다. 히스토그램의 막대는 각 보(step) 별로 생성될 수 있다. 일 예로, 각 보에 대한 막대는 서로 동일한 색상으로 표현될 수 있다. 다른 예로, 정확도가 기준값 이상인 막대와 그렇지 않은 막대는 서로 다른 색상으로 표시될 수 있다. The walking accuracy can be expressed, for example, by a
히스토그램(50)의 하부에는 나머지 보행 분석 정보들(51) 예를 들어, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수가 나란히 표시될 수 있다. 그러나 표시되는 보행 분석 정보(51)의 종류가 반드시 이것으로 한정되는 것은 아니며, 표시되는 보행 분석 정보의 종류는 사용자에 의해 설정 가능하도록 구현될 수도 있다. For example, the total energy consumption, the total walking distance, the total walking time, and the total number of steps may be displayed side by side in the lower part of the
화면의 하단에는 안내 메시지 창(52)이 배치될 수 있다. 안내 메시지 창(52)에는 보행 분석 결과에 대한 간단한 안내 메시지가 표시될 수 있다. 예를 들면, 보행 정확도가 높은지 그렇지 않은지를 알리는 안내 메시지가 표시될 수 있다. 이외에도 안내 메시지 창(52)에는 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수가 목표치에 도달하였는지 그렇지 않은지를 알리는 안내 메시지가 표시될 수도 있다. 목표치는 사용자 정보를 고려하여 출력 장치(200)에서 자동으로 연산되거나, 사용자에 의해 직접 설정될 수 있다. And a
상술한 바와 같은 보행 분석 정보에는 위치 정보 또는 지도 정보가 추가적으로 조합되어 사용자의 이동 경로 및 위치에 따른 다양한 컨텐츠와 복합적으로 작동죌 수 있다. 그 결과, 다양한 가상현실 및/또는 증강현실을 구현할 수 있다. The position information or the map information may be additionally combined with the gait analysis information as described above to operate in combination with various contents according to the movement path and position of the user. As a result, various virtual reality and / or augmented reality can be realized.
도 12는 일 실시 예에 따른 보행 교정 유도 시스템(1)의 제어 방법 중 출력 장치(200) 측에서 이루어지는 제어 방법을 도시한 흐름도이다. 12 is a flowchart showing a control method performed by the
우선, 출력 장치(200)의 제어부(230)는 보행 감지 장치(100)와 페어링 과정을 수행한다(S600). 페어링은 출력 장치(200)의 기기 정보를 보행 감지 장치(100)에 등록하고, 보행 감지 장치(100)의 기기 정보를 출력 장치(200)에 등록하는 것을 말한다. 상기 S600 단계는 출력 장치(200)가 보행 감지 장치(100)를 검색하는 단계, 검색된 보행 감지 장치(100)로 페어링 요청 신호를 전송하는 단계, 보행 감지 장치(100)의 기기 정보가 포함된 응답 신호를 수신하는 단계, 및 보행 감지 장치(100)의 기기 정보를 저장하는 단계를 포함할 수 있다. First, the controller 230 of the
이 후, 제어부(230)는 보행 상태 모니터링이 시작되었는지를 판단한다(S610). 예를 들어, 보행 상태 모니터링 프로그램이 실행된 경우, 보행 상태 모니터링이 시작된 것으로 판단할 수 있다. 보행 상태 모니터링 프로그램은 입력부(210)를 통해 명령이 입력되거나, 보행 감지 장치(100)로부터 보행 신호가 수신되는 경우에 실행될 수 있다. Thereafter, the control unit 230 determines whether the walking state monitoring is started (S610). For example, when the walking state monitoring program is executed, it can be determined that the walking state monitoring is started. The walking condition monitoring program can be executed when a command is input through the input unit 210 or when a walking signal is received from the
보행 상태 모니터링이 시작되면, 제어부(230)는 사용자 정보 입력 모드가 자동 입력 모드인지를 판단할 수 있다(S620). 사용자 정보 입력 모드는 사전에 사용자에 의해 설정될 수 있다. When the walking state monitoring is started, the controller 230 can determine whether the user information input mode is the automatic input mode (S620). The user information input mode can be set by the user in advance.
S620 단계의 판단 결과, 사용자 정보 입력 모드가 자동 입력 모드가 아닌 경우 즉, 수동 입력 모드인 경우, 제어부(230)의 화면 구성부(235)는 사용자 정보를 입력받기 위한 화면을 구성하여 영상 출력부를 통해 표시한다. 예를 들면, 도 7과 같은 화면을 구성하여 영상 출력부를 통해 표시한다. 도 7의 화면이 표시되면, 사용자는 입력부(210)를 조작하여 각 입력란에 다리 길이, 나이, 키, 몸무게 등의 사용자 정보를 입력할 수 있다. If it is determined in step S620 that the user information input mode is not the automatic input mode, that is, the manual input mode, the screen configuration unit 235 of the control unit 230 forms a screen for receiving user information, . For example, a screen as shown in FIG. 7 is constructed and displayed through the video output unit. When the screen of FIG. 7 is displayed, the user can operate the input unit 210 to input user information such as leg length, age, key, and weight in each input box.
S620 단계의 판단 결과, 사용자 정보 입력 모드가 자동 입력 보드인 경우, 제어부(230)의 영상 분석부(231)는 영상을 입력받고(S640), 입력받은 영상을 분석하여 사용자 정보를 인식한다(S645). If it is determined in step S620 that the user information input mode is the automatic input board, the
이 후, 제어부(230)의 기준 보행 상태 정보 획득부(232)는 S630 단계에서 입력된 사용자 정보, 또는 S645 단계에서 인식된 사용자 정보에 기초하여 기준 보행 상태 정보를 획득한다(S650). 일 실시 예에 따르면, 상기 S630 단계는 사용자 정보와 기 저장된 연산식을 이용하여 기준 보행 상태 정보를 산출하는 단계를 포함할 수 있다. 다른 실시 예에 따르면, 상기 S630 단계는 사용자 정보에 대응하는 기준 보행 상태 정보를 표준 데이터 베이스에서 검색하는 단계를 포함할 수 있다. S650 단계에서 획득되는 기준 보행 상태 정보로는 기준 보폭, 기준 보행 각도, 기준 보행 속도, 기준 보행 거리 및 기준 신체 운동량을 예로 들 수 있다. Thereafter, the reference walking state
이 후, 제어부(230)의 현재 보행 상태 정보 획득부(233)는 보행 감지 장치(100)로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득한다(S660). S660 단계에서 획득되는 현재 보행 상태 정보로는 현재 보폭, 현재 보행 각도, 현재 보행 속도, 현재까지의 보행 거리 및 현재까지의 신체 운동량을 예로 들 수 있다. Thereafter, the current walking state information obtaining unit 233 of the control unit 230 obtains the current walking state information based on the walking signal received from the walking sensing apparatus 100 (S660). The current walking state information obtained in step S660 includes the current pace, the current walking angle, the current walking speed, the walking distance to the present, and the body motion amount to the present.
이 후, 제어부(230)의 화면 구성부(235)는 기 설정된 모니터링 화면의 종류를 확인한다(S670). 그 다음, 확인 결과에 따라 기준 보행 상태 정보, 이전 보행 상태 정보 및 현재 보행 상태 정보를 포함하는 모니터링 화면을 구성하여, 영상 출력부를 통해 표시한다(S680)Thereafter, the screen configuration unit 235 of the control unit 230 confirms the type of the preset monitoring screen (S670). Next, a monitoring screen including the reference walking state information, the previous walking state information, and the current walking state information is constructed according to the confirmation result, and displayed through the video output unit (S680)
예를 들어, 모니터링 화면의 종류가 2차원 영상으로 설정되어 있다면, 모니터링 화면은 사용자의 위치(즉, 출력 장치의 위치), 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상 및 음악을 각각 배경화면 및 배경음악으로 하여 구성될 수 있다. 만약, 모니터링 화면의 종류가 실사 화면으로 설정되어 있다면, 모니터링 화면은 영상 획득부(260)를 통해 획득되는 실사 영상을 배경화면으로 하여 구성될 수 있다. For example, if the kind of the monitoring screen is set as a two-dimensional image, the monitoring screen displays the selected image and music on the basis of at least one of the user's location (i.e., the location of the output device) Screen and background music. If the type of the monitoring screen is set as a real screen, the monitoring screen may be configured as a real screen image obtained through the
모니터링 화면을 구성하는 단계(S680)는 기준 보행 상태 정보를 나타내는 오브젝트를 배치하는 단계, 현재 보행 상태 정보를 나타내는 오브젝트를 배치하는 단계, 현재 보행 상태 정보를 나타내는 오브젝트에 강조 효과를 적용하는 단계, 현재 보행 상태 정보에 따른 보행 점수와 보행 점수에 따른 보상 시스템(예를 들어, 포인트, 마일리지 또는 사이버 버니)을 적용하는 단계, 모니터링 정보를 표시하는 단계를 포함할 수 있다. The step of constructing the monitoring screen (S680) includes the steps of arranging an object representing the reference walking state information, arranging an object representing the current walking state information, applying a highlighting effect to the object representing the current walking state information, Applying a compensation system (e.g., point, mileage, or cyber-birdie) based on the walking score and the walking score according to the walking state information, and displaying the monitoring information.
현재 보행 상태 정보를 나타내는 오브젝트는 다양한 방법으로 강조될 수 있다. 예를 들면, 도 8c에 도시된 바와 같이, 현재 보행 상태 정보를 나타내는 오브젝트의 색상, 크기, 테두리의 종류, 또는 이들의 조합을 나머지 오브젝트들과 다르게 표현되도록 한다. 또는, 도 9a 및 도 9b에 도시된 바와 같이, 현재 보행 상태 정보를 나타내는 오브젝트의 주변에 물방울 및/또는 텍스트 등의 다른 오브젝트들이 표시되도록 한다. 이 때, 물방울 및/또는 텍스트의 색상이나 크기는 기준 보행 상태 정보와의 일치 여부에 따라 서로 다르게 표현될 수 있다. An object representing current walking state information can be highlighted in various ways. For example, as shown in FIG. 8C, the color, the size, the type of frame, or a combination of the objects representing the current walking state information is displayed differently from the rest of the objects. Alternatively, as shown in FIGS. 9A and 9B, other objects such as water drops and / or text are displayed around the object representing the current walking state information. At this time, the color or size of the water droplet and / or the text may be expressed differently depending on whether or not the water droplet and / or the text coincides with the reference gait state information.
한편, 모니터링 화면에는 모니터링 정보로서, 보행 정확도에 따라 부여된 현재까지의 보행 점수, 상기 보행 점수에 따른 보상 시스템(예를 들어, 포인트, 마일리지 또는 사이버 머니 등), 보행 거리, 신체 운동량 및 하지 관절의 움직임 정보 중 적어도 하나가 더 표시될 수 있는데, 제어부(230)의 화면 구성부(690)는 보행 신호가 지속적으로 수신됨에 따라, 정보들을 갱신하여 모니터링 화면에 표시한다. On the other hand, as the monitoring information, the monitoring screen displays, as monitoring information, a walking score to the present, a compensation system (e.g., points, mileage or cyber money, etc.) The controller 630 of the control unit 230 updates the information and displays it on the monitoring screen as the walking signal is continuously received.
이 후, 제어부(230)는 보행이 완료되었는지를 판단할 수 있다(S690). 예를 들어, 보행 완료 명령이 입력된 경우 보행이 완료된 것으로 판단할 수 있다. 다른 예로, 사전 지정된 시간 동안 보행 감지 장치(100)로부터 보행 신호가 수신되지 않은 경우, 보행이 완료된 것으로 판단할 수 있다. Thereafter, the control unit 230 can determine whether the walking is completed (S690). For example, it can be determined that the walking is completed when the walking completion command is input. As another example, when the gait signal is not received from the
S690 단계의 판단 결과, 보행이 완료되지 않았다면, 제어부(230)는 상술한 S660 내지 S680 단계를 반복할 수 있다. As a result of the determination in step S690, if the walking is not completed, the controller 230 may repeat steps S660 through S680.
S690 단계의 판단 결과, 보행이 완료되었다면, 제어부(230)의 화면 구성부(690)는 도 11과 같은 보행 분석 결과 화면을 구성하여, 영상 출력부를 통해 표시할 수 있다. 보행 분석 결과 화면은 보행 분석 정보를 포함할 수 있다. 보행 분석 정보로는 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수를 예로 들 수 있다. As a result of the determination in step S690, if the walking is completed, the screen configuration unit 690 of the controller 230 configures the walking analysis result screen as shown in FIG. 11 and displays the screen through the video output unit. The gait analysis result screen may include gait analysis information. Examples of gait analysis information include walking accuracy, total energy consumption, total walking distance, total walking time, and total number of steps.
이상으로 본 발명의 실시 예들을 설명하였다. 전술한 실시예들에 더하여, 본 발명의 실시 예들은 전술한 실시예의 적어도 하나의 처리 요소를 제어하기 위한 컴퓨터 판독 가능한 코드/명령을 포함하는 매체 예를 들면, 컴퓨터 판독 가능한 매체를 통해 구현될 수도 있다. 상기 매체는 상기 컴퓨터 판독 가능한 코드의 저장 및/또는 전송을 가능하게 하는 매체/매체들에 대응할 수 있다. The embodiments of the present invention have been described above. In addition to the embodiments described above, embodiments of the present invention may be embodied in a medium, such as a computer-readable medium, including computer readable code / instructions for controlling at least one processing element of the above described embodiments have. The medium may correspond to media / media enabling storage and / or transmission of the computer readable code.
상기 컴퓨터 판독 가능한 코드는, 매체에 기록될 수 있을 뿐만 아니라, 인터넷을 통해 전송될 수도 있는데, 상기 매체는 예를 들어, 마그네틱 저장 매체(예를 들면, ROM, 플로피 디스크, 하드 디스크 등) 및 광학 기록 매체(예를 들면, CD-ROM, Blu-Ray, DVD)와 같은 기록 매체, 반송파(carrier wave)와 같은 전송매체를 포함할 수 있다. 상기 매체들은 분산 네트워크일 수도 있으므로, 컴퓨터로 읽을 수 있는 코드는 분산 방식으로 저장/전송되고 실행될 수 있다. 또한 더 나아가, 단지 일 예로써, 처리 요소는 프로세서 또는 컴퓨터 프로세서를 포함할 수 있고, 상기 처리 요소는 하나의 디바이스 내에 분산 및/또는 포함될 수 있다. The computer readable code may be recorded on a medium as well as transmitted over the Internet, including, for example, a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.) A recording medium such as a recording medium (e.g., CD-ROM, Blu-Ray, DVD), or a transmission medium such as a carrier wave. Since the media may be a distributed network, the computer readable code may be stored / transmitted and executed in a distributed manner. Still further, by way of example only, processing elements may include a processor or a computer processor, and the processing elements may be distributed and / or contained within a single device.
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood that the invention may be practiced. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
1: 보행 교정 유도 시스템
100: 보행 감지 장치
200: 출력 장치1: Walking guidance system
100: Walking detection device
200: Output device
Claims (10)
보행 감지 장치로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득하는 단계;
상기 기준 보행 상태 정보 및 상기 현재 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하는 단계; 및
상기 모니터링 화면을 출력하는 단계를 포함하는, 보행 교정 유도 시스템의 제어 방법. Obtaining reference walk condition information based on user information;
Obtaining current walking state information based on a walking signal received from the walking sensor;
Configuring a monitoring screen including a comparison result between the reference walking state information and the current walking state information; And
And outputting the monitoring screen.
상기 사용자 정보는
사용자로부터 입력받은 정보, 상기 사용자를 촬영한 영상을 분석하여 인식된 정보, 또는 다양한 데이터 베이스로부터 전송받거나 획득한 정보인, 보행 교정 유도 시스템. The method according to claim 1,
The user information
Wherein the information is information received from a user, information obtained by analyzing an image taken by the user, or information received or obtained from various databases.
상기 사용자 정보는 상기 사용자의 몸무게, 키, 나이 및 다리 길이 중 적어도 하나를 포함하며,
상기 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이 및 무릎 관절에서 발목 관절까지의 길이를 포함하는, 보행 교정 유도 시스템. 3. The method of claim 2,
Wherein the user information includes at least one of a weight, a key, an age, and a leg length of the user,
Wherein the leg length includes a length from the hip joint to the knee joint and a length from the knee joint to the ankle joint.
상기 기준 보행 상태 정보는
상기 사용자 정보 및 연산식을 이용하여 산출되거나 상기 사용자 정보에 기초하여 표준 데이터 베이스에서 검색되는, 보행 교정 유도 시스템의 제어 방법. The method according to claim 1,
The reference walk status information
Wherein the user information is calculated using the user information and the calculation formula or is searched in the standard database based on the user information.
상기 보행 감지 장치는 사용자의 하지에 착용되거나 신발에 부착되는, 보행 교정 유도 시스템의 제어 방법. The method according to claim 1,
Wherein the walking detection device is worn on the user's base or attached to the shoe.
상기 모니터링 화면은
2차원 영상, 3차원 영상, 실사 영상, 또는 이들의 조합에 기초하여 구성되는, 보행 교정 유도 시스템의 제어 방법.The method according to claim 1,
The monitoring screen
A two-dimensional image, a three-dimensional image, a real image, or a combination thereof.
상기 모니터링 화면을 구성하는 단계는
상기 기준 보행 상태 정보를 나타내는 오브젝트들와 상기 현재 보행 상태 정보를 나타내는 오브젝트들을 배치하는 단계;
상기 현재 보행 상태 정보를 나타내는 오브젝트에 강조 효과를 적용하는 단계; 및
상기 현재 보행 상태 정보에 따른 보행 점수와 상기 보행 점수에 따른 보상 시스템을 적용하는 단계; 및
모니터링 정보를 표시하는 단계를 포함하며,
상기 모니터링 정보는 현재까지의 보행 거리, 현재까지의 신체 운동량, 상기 보행 점수, 상기 보상 시스템 및 하지 관절의 움직임 정보 중 적어도 하나를 포함하는, 보행 교정 유도 시스템의 제어 방법. The method according to claim 1,
The step of configuring the monitoring screen
Placing objects representing the reference walking state information and objects representing the current walking state information;
Applying a highlighting effect to an object representing the current walking state information; And
Applying a compensation system according to the walking distance according to the current walking state information and the walking distance; And
Displaying the monitoring information,
Wherein the monitoring information includes at least one of a walking distance to the present, a body movement amount to the present, a walking score, motion information of the compensation system and motion of the lower limb.
상기 모니터링 화면은 사용자의 위치, 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상 및 음악을 각각 배경화면 및 배경음악으로 하여 구성되는, 보행 교정 유도 시스템의 제어 방법. 8. The method of claim 7,
Wherein the monitoring screen comprises video and music selected on the basis of at least one of a user's location, a current time, and a current season as wallpaper and background music, respectively.
상기 오브젝트들을 배치하는 단계는
영상 획득부를 통해 실사 영상을 획득하는 단계; 및
상기 실사 영상에서 검출된 보행로에 맞추어 상기 오브젝트들을 배치하는 단계를 포함하는, 보행 교정 유도 시스템의 제어 방법. 8. The method of claim 7,
The step of arranging the objects
Acquiring a real image through an image acquisition unit; And
And arranging the objects in accordance with the walkway detected in the real image.
사용자의 보행이 완료된 경우, 보행 분석 정보를 포함하는 보행 분석 결과 화면을 출력하는 단계를 더 포함하되,
상기 보행 분석 정보는 스텝 별 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수 중 적어도 하나를 포함하는, 보행 교정 유도 시스템의 제어 방법.The method according to claim 1,
And outputting a gait analysis result screen including gait analysis information when the user's gait is completed,
Wherein the gait analysis information includes at least one of stepwise walking accuracy, total energy consumption, total walking distance, total walking time, and total step number.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140110560A KR101638819B1 (en) | 2014-08-25 | 2014-08-25 | Gait correction system and control method for the same |
PCT/KR2015/008494 WO2016024829A1 (en) | 2014-08-14 | 2015-08-13 | System for guiding correction of walking gait and control method thereof |
US15/503,869 US20170273616A1 (en) | 2014-08-14 | 2015-08-13 | System for guiding correction of walking gait and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140110560A KR101638819B1 (en) | 2014-08-25 | 2014-08-25 | Gait correction system and control method for the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160024124A true KR20160024124A (en) | 2016-03-04 |
KR101638819B1 KR101638819B1 (en) | 2016-07-14 |
Family
ID=55535840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140110560A KR101638819B1 (en) | 2014-08-14 | 2014-08-25 | Gait correction system and control method for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101638819B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106725503A (en) * | 2016-11-21 | 2017-05-31 | 上海斐讯数据通信技术有限公司 | A kind of healthy corrective shoes based on Internet of Things, sport monitoring device and method |
KR101878254B1 (en) * | 2016-10-31 | 2018-07-13 | 부산외국어대학교 산학협력단 | Smart Shoes System And Method for Realizing The Same |
WO2019138410A1 (en) | 2018-01-15 | 2019-07-18 | Blustain Raphi | Step analysis device |
KR20190130761A (en) * | 2018-05-15 | 2019-11-25 | (주)블루클라우드 | User-recognized walking motion measurement system and method for measuring walking motion using the same |
KR20200063527A (en) * | 2018-11-28 | 2020-06-05 | 이주형 | Checking apparatus for walking patterns with attachable to shoes |
KR20210058283A (en) * | 2019-11-14 | 2021-05-24 | 한국과학기술연구원 | Smart Gait Simulator for Elderly Healthcare |
KR20210060804A (en) * | 2019-11-19 | 2021-05-27 | 대한민국(국립재활원장) | Virtual Reality Based Overground Walking Training System and Method |
KR20220042631A (en) * | 2020-09-28 | 2022-04-05 | 경북대학교 산학협력단 | Apparatus and method for gait measurement based on gait video |
WO2024063457A1 (en) * | 2022-09-20 | 2024-03-28 | Samsung Electronics Co., Ltd. | Methods and systems for determining a step count of a user |
KR102673959B1 (en) | 2023-07-11 | 2024-06-12 | 박재훈 | Systems and methods that allow pedestrians to improve accurate walking on their own |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018124549A1 (en) * | 2016-12-27 | 2018-07-05 | 주식회사 쓰리디아이 | Simulation device for virtual experience of air leisure-sports and control method thereof |
KR102264334B1 (en) * | 2019-10-30 | 2021-06-14 | (주)인트인 | Inducing method of mastication movement and a recording medium recording a program for executing thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070100592A (en) * | 2006-04-07 | 2007-10-11 | 삼성전자주식회사 | System for analyzing walking motion |
KR20080102466A (en) | 2007-05-21 | 2008-11-26 | 연세대학교 산학협력단 | Movement, gait, and posture assessment and intervention system and method, mgpaism |
JP2010017447A (en) * | 2008-07-14 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Walking movement analyzer, walking movement analyzing method, walking movement analyzing program and its recording medium |
-
2014
- 2014-08-25 KR KR1020140110560A patent/KR101638819B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070100592A (en) * | 2006-04-07 | 2007-10-11 | 삼성전자주식회사 | System for analyzing walking motion |
KR20080102466A (en) | 2007-05-21 | 2008-11-26 | 연세대학교 산학협력단 | Movement, gait, and posture assessment and intervention system and method, mgpaism |
JP2010017447A (en) * | 2008-07-14 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Walking movement analyzer, walking movement analyzing method, walking movement analyzing program and its recording medium |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101878254B1 (en) * | 2016-10-31 | 2018-07-13 | 부산외국어대학교 산학협력단 | Smart Shoes System And Method for Realizing The Same |
CN106725503A (en) * | 2016-11-21 | 2017-05-31 | 上海斐讯数据通信技术有限公司 | A kind of healthy corrective shoes based on Internet of Things, sport monitoring device and method |
WO2019138410A1 (en) | 2018-01-15 | 2019-07-18 | Blustain Raphi | Step analysis device |
EP3740096A4 (en) * | 2018-01-15 | 2021-09-29 | Blustain, Raphi | Step analysis device |
KR20190130761A (en) * | 2018-05-15 | 2019-11-25 | (주)블루클라우드 | User-recognized walking motion measurement system and method for measuring walking motion using the same |
KR20200063527A (en) * | 2018-11-28 | 2020-06-05 | 이주형 | Checking apparatus for walking patterns with attachable to shoes |
KR20210058283A (en) * | 2019-11-14 | 2021-05-24 | 한국과학기술연구원 | Smart Gait Simulator for Elderly Healthcare |
KR20210060804A (en) * | 2019-11-19 | 2021-05-27 | 대한민국(국립재활원장) | Virtual Reality Based Overground Walking Training System and Method |
WO2021101138A3 (en) * | 2019-11-19 | 2021-07-15 | 대한민국(국립재활원장) | Virtual reality-based ground walking training system and method |
KR20220042631A (en) * | 2020-09-28 | 2022-04-05 | 경북대학교 산학협력단 | Apparatus and method for gait measurement based on gait video |
WO2024063457A1 (en) * | 2022-09-20 | 2024-03-28 | Samsung Electronics Co., Ltd. | Methods and systems for determining a step count of a user |
KR102673959B1 (en) | 2023-07-11 | 2024-06-12 | 박재훈 | Systems and methods that allow pedestrians to improve accurate walking on their own |
Also Published As
Publication number | Publication date |
---|---|
KR101638819B1 (en) | 2016-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101638819B1 (en) | Gait correction system and control method for the same | |
US20170273616A1 (en) | System for guiding correction of walking gait and control method thereof | |
JP6583605B2 (en) | Exercise information generation apparatus, exercise information generation method, and exercise information generation program | |
JP6387425B2 (en) | Gait analysis system and method | |
JP6332830B2 (en) | Exercise support system, exercise support method, and exercise support program | |
CN111228752B (en) | Method for automatically configuring sensor, electronic device, and recording medium | |
CN104540560A (en) | Apparatus and method for gait training | |
US20200253320A1 (en) | Smart footwear with wireless charging | |
CN102469959A (en) | Walking posture determination device | |
JP2007144107A (en) | Exercise assisting system | |
CN102921162A (en) | Self-help balance and gait training system and method | |
KR101975585B1 (en) | Walking coaching system and coaching method using the flexible sensor | |
JP6649323B2 (en) | Gait analysis system and method | |
US20170086710A1 (en) | Activity amount measuring apparatus, activity amount measuring method, and activity amount measuring program | |
CN110246565A (en) | Posture and improvement devices, systems, and methods of deeply breathing | |
CN106821384A (en) | It is a kind of walk appearance training shoe-pad | |
CN111388968B (en) | Gait balance training device and system based on virtual reality | |
US10424218B2 (en) | Storage medium having stored thereon respiratory instruction program, respiratory instruction apparatus, respiratory instruction system, and respiratory instruction processing method | |
Kim et al. | Walking simulation for VR game character using remote sensoring device based on AHRS-motion recognition | |
KR101623773B1 (en) | System for inducing gait correction and control method for the same | |
US20230368447A1 (en) | Knee trajectory information generation device, knee trajectory information generation method, and recording medium | |
US20230371849A1 (en) | Gait information generation device, gait information generation method, and recording medium | |
US20240115163A1 (en) | Calculation device, calculation method, and program recording medium | |
KR102597581B1 (en) | Virtual Exercise Device and Virtual Exercise System | |
WO2022208838A1 (en) | Biometric information processing device, information processing system, biometric information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |