KR20190130761A - User-recognized walking motion measurement system and method for measuring walking motion using the same - Google Patents

User-recognized walking motion measurement system and method for measuring walking motion using the same Download PDF

Info

Publication number
KR20190130761A
KR20190130761A KR1020180055277A KR20180055277A KR20190130761A KR 20190130761 A KR20190130761 A KR 20190130761A KR 1020180055277 A KR1020180055277 A KR 1020180055277A KR 20180055277 A KR20180055277 A KR 20180055277A KR 20190130761 A KR20190130761 A KR 20190130761A
Authority
KR
South Korea
Prior art keywords
user
walking
motion
guide image
unit
Prior art date
Application number
KR1020180055277A
Other languages
Korean (ko)
Other versions
KR102125254B1 (en
Inventor
권선주
Original Assignee
(주)블루클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)블루클라우드 filed Critical (주)블루클라우드
Priority to KR1020180055277A priority Critical patent/KR102125254B1/en
Publication of KR20190130761A publication Critical patent/KR20190130761A/en
Application granted granted Critical
Publication of KR102125254B1 publication Critical patent/KR102125254B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06K9/00342

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Disclosed are a system for measuring a user recognition walking motion and a method for measuring a walking motion using the same. The system for measuring a user recognition walking motion comprises: an image output unit for projecting a virtual walking guide image for inducing a walking motion of a user; a motion detection unit for detecting the walking motion of the user corresponding to the walking guide image; and a motion determination unit for receiving the motion detection information of the user from the motion detection unit and determining whether the motion detection information of the user meets a preset condition.

Description

사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법{USER-RECOGNIZED WALKING MOTION MEASUREMENT SYSTEM AND METHOD FOR MEASURING WALKING MOTION USING THE SAME}USER-RECOGNIZED WALKING MOTION MEASUREMENT SYSTEM AND METHOD FOR MEASURING WALKING MOTION USING THE SAME}

본 발명은 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법에 관한 것이다. 더 구체적으로, 사용자의 보행 동작을 유도하는 화상을 투사하고, 상기 투사된 화상에 대응한 사용자의 보행 동작을 감지 및 측정한다. 측정한 보행 동작 기록을 통계를 산출하고 산출한 통계치를 출력하는 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법에 관한 것이다.The present invention relates to a user recognition walking motion measuring system and a walking motion measuring method using the same. More specifically, the image projecting the walking motion of the user is projected, and the walking motion of the user corresponding to the projected image is sensed and measured. The present invention relates to a user recognition walking motion measuring system for calculating statistics and outputting the calculated walking motion record, and a walking motion measuring method using the same.

과거에는 주로 의사나 기타 관찰자의 육안으로 환자의 이상보행을 확인하였다. 그러나 이 방식은 의사의 경험과 관찰에 의해서 진단되는 방법으로 같은 조건에서도 분석 결과가 달라질 수 있다는 한계점을 지니고 있다. 또한, 이상 보행에 대한 치료가 진행되더라도 과거의 보행 상태와 비교하기에 어려움을 가지고 있다. 보행 분석이 제대로 이루어지지 않는다면 몸의 비대칭성을 유발하는 등 환자에게 큰 불편함을 안겨왔다.In the past, the patient's abnormal gait was confirmed by the naked eye of a doctor or other observer. However, this method is diagnosed by the doctor's experience and observation, and has the limitation that the analysis result may be different under the same conditions. In addition, even if the treatment for abnormal walking progresses, it is difficult to compare with the past walking state. If the gait analysis is not done properly, it has caused great discomfort to the patient such as causing body asymmetry.

보행 측정 및 분석은 관절모멘트를 계산하여 사용하고, 근육활동을 규명하기 위해 근전도에 관한 연구도 활발히 이루어져 왔다. 또한, 최근에는 최적화 기법을 통한 근력 예측이 가능해지면 컴퓨터 모델링과 함께 발전하기도 했다.Gait measurement and analysis has been actively conducted on the EMG to calculate and use the joint moment, and to identify muscle activity. In recent years, it has evolved with computer modeling when it is possible to estimate muscle strength through optimization techniques.

그러나 서술한 보행 측정 및 분석은 값비싼 장비와 의료진이 구비된 기관에서만 가능한 한계점이 있다. 일반인들이 실생활에서 자신의 보행 자세에 대한 측정 및 분석은 전무한 것이 현실의 상황이다.However, the gait measurement and analysis described is limited only to institutions equipped with expensive equipment and medical staff. It is a reality that ordinary people do not measure and analyze their walking posture in real life.

KR 10-1661700 B1 (2106.09.26.)KR 10-1661700 B1 (2106.09.26.)

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로 가상의 보행 가이드 화상을 투사하여 사용자의 보행을 유도하는 것에 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object thereof is to induce a user to walk by projecting a virtual walking guide image.

또한, 상기 가이드 화상에 대응하여 보행하는 사용자의 동작을 인식 또는 감지하여 사용자의 보행 동작을 측정 및 기록하고자 한다.In addition, the user's walking motion is recognized or detected in response to the guide image to measure and record the walking motion of the user.

또한, 상기 기록된 보행 동작을 분석하여 보행 동작에 대한 통계치를 산출하여 사용자가 직접 자신의 보행 동작에 대한 상태를 인식할 수 있도록 한다.In addition, by analyzing the recorded walking motion to calculate the statistics for the walking motion so that the user can directly recognize the state of his walking motion.

본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템은, 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 화상출력부; 상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작을 감지하는 동작감지부; 및 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부를 포함할 수 있다.According to an embodiment of the present invention, a user recognition walking motion measuring system includes: an image output unit configured to project a virtual walking guide image for inducing a walking motion of a user; A motion detector configured to detect a walking motion of the user corresponding to the walking guide image; And an operation determining unit configured to receive the motion detection information of the user from the motion detection unit and determine whether the motion detection information of the user meets a preset condition.

또한, 상기 보행 가이드 화상은 상기 사용자가 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선 일 수 있다.The walking guide image may be an object indicating a position where the user steps on or a guide line indicating a direction in which the user walks.

또한, 상기 동작판단부는 상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식할 수 있다.The operation determining unit may recognize that the user has stepped on the object when the foot of the user is positioned in the area of the object.

또한, 상기 동작감지부는 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정할 수 있다.The motion detection unit may measure the position of the foot of the user when the user operates in response to the walking guide image.

또한, 사용자 인식 보행 동작 측정 시스템은 상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함할 수 있다.In addition, the user recognition walking motion measuring system outputs one or more of a statistical value, a statistical graph, or the actual walking record of the user, calculated based on the distance between the foot of the user and the position of the walking guide image. It may include wealth.

또한, 상기 동작감지부는 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자의 지정된 신체부위의 위치를 추가로 측정할 수 있다.The motion detecting unit may further measure a position of a specified body part of the user when the user operates in response to the walking guide image.

또한, 사용자 인식 보행 동작 측정 시스템은 상기 사용자의 상기 신체부위와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함할 수 있다.In addition, the user recognition gait motion measurement system outputs one or more of a statistical value calculated on the basis of the distance between the body part of the user and the position of the walking guide image, a statistical graph or the actual walking record of the user; It may include wealth.

또한, 상기 화상출력부는 상기 동작판단부가 상기 사용자의 발이 내딛는 중이라고 판단하면, 다음 걸음을 위한 다음 보행 가이드 화상이 투사할 수 있다.The image output unit may project the next walking guide image for the next step when the operation determining unit determines that the user's foot is stepping on.

또한, 상기 동작판단부는 상기 사용자의 한 무릎이 일정 높이만큼 올라가면 상기 사용자가 발을 내딛는 중이라고 판단할 수 있다.In addition, the operation determining unit may determine that the user is stepping on the foot when one knee of the user is raised by a certain height.

또한, 사용자 인식 보행 동작 측정 시스템은 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 디스플레이부를 더 포함할 수 있다.In addition, the user recognition gait motion measurement system may further include a display unit for displaying a content screen for guiding the user.

또한, 상기 디스플레이부는 상기 사용자가 따라할 예시동작 및 지시문구를 출력하고, 상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도할 수 있다.The display unit may output an exemplary operation and an instruction phrase to be followed by the user, and the image output unit may induce the operation of the user by projecting a point at which the user performs the exemplary operation.

또한, 상기 화상출력부는 상기 사용자의 동작을 통해 메뉴 선택이 가능한 인터페이스 화면을 출력할 수 있다.The image output unit may output an interface screen on which a menu can be selected through an operation of the user.

한편 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은, 화상출력부가 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 투사 단계; 동작감지부가 상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작 및 상기 사용자의 신체 부위의 위치를 감지하는 감지 단계; 및 동작판단부가 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계를 포함할 수 있다.On the other hand, the user recognition walking motion measuring method according to an embodiment of the present invention, the projection step of projecting the virtual walking guide image to guide the walking operation of the user; A sensing step of detecting a walking motion of the user and a position of a body part of the user corresponding to the walking guide image by a motion detecting unit; And determining, by the operation determining unit, receiving the motion detection information of the user from the motion detection unit to determine whether the motion detection information of the user meets a preset condition.

또한, 상기 보행 가이드 화상은 상기 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선 일 수 있다.In addition, the walking guide image may be an object indicating the position of stepping on the foot or a guide line indicating the direction in which the user walks.

또한, 상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식할 수 있다.In addition, when the foot of the user is located in the area of the object, it can be recognized that the user stepped on the object.

또한, 통계산출부가 상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계를 포함할 수 있고, 상기 감지 단계는, 상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정할 수 있다.The method may include outputting at least one of a statistical value, a statistical graph, or an actual walking record of the user, calculated based on a distance between the position of the foot of the user and the position of the walking guide image. The detecting may include measuring a position of a foot of the user when the user operates when the user operates in response to the walking guide image.

또한, 상기 감지 단계는, 상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자의 지정된 신체부위의 위치를 측정할 수 있다.In the detecting step, the motion detection unit may measure the position of the designated body part of the user when the user operates in response to the walking guide image.

또한, 디스플레이부가 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 단계를 포함하고, 상기 콘텐츠 화면은 상기 사용자가 따라할 예시동작 및 지시문구를 출력하며, 상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도할 수 있다.The display device may further include displaying a content screen for guiding the user, wherein the content screen outputs an example operation and an instruction phrase to be followed by the user, and the image output unit outputs the example operation. The user's motion can be induced by projecting a point.

또한, 상기 화상출력부가 상기 사용자의 동작을 통해 선택이 가능한 인터페이스 화면을 투사하는 단계를 포함할 수 있다.The image output unit may include projecting an interface screen selectable through the user's operation.

본 발명에 따른 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법은 가상의 보행 가이드 화상을 지면에 투사하여 사용자의 보행을 유도하여 보행 동작에 있어 장비나 장치를 추가할 필요가 없다.The user recognition walking motion measuring system and the walking motion measuring method using the same according to the present invention do not need to add equipment or a device in walking motion by inducing a user's walking by projecting a virtual walking guide image on the ground.

또한, 보행 가이드 화상을 투사하므로, 보행 가이드 화상을 추가하거나 수정할 수 있으므로 사용자에게 다양한 보행을 유도할 수 있다.In addition, since the walking guide image is projected, the walking guide image can be added or modified, so that various walking can be induced to the user.

또한, 상기 가이드 화상에 대응하여 보행하는 사용자의 동작을 인식 또는 감지하여 사용자의 보행 동작을 측정 및 기록할 수 있다.In addition, the gait motion of the user may be measured and recorded by recognizing or detecting a motion of the user walking in correspondence to the guide image.

또한, 상기 기록된 보행 동작을 분석하여 보행 동작에 대한 통계치를 산출하여 사용자가 직접 자신의 보행 동작에 대한 상태를 인식할 수 있다.In addition, by analyzing the recorded walking motion to calculate a statistical value for the walking motion, the user can directly recognize the state of his walking motion.

도 1은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 동작도이다.
도 3은 본 발명의 일 실시예에 따른 지면에 보행 가이드 화상(G)이 투사되는 것을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 머리 중심 위치를 측정한 것을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 사용자의 보행 동작의 통계를 나타내는 화면을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 보행 기록의 이격 거리를 나타낸 도면이다.
도 7 내지 도 8은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 사용 상태를 나타낸 도면이다.
도 9 내지 도 12는 본 발명의 다른 실시예에 따른 사용자 인식 보행 동작 측정 방법을 나타내는 순서도이다.
1 is a view showing a user recognition walking motion measurement system according to an embodiment of the present invention.
2 is an operation of the user recognition walking motion measurement system according to an embodiment of the present invention.
3 is a view showing that the walking guide image (G) is projected on the ground according to an embodiment of the present invention.
4 is a view showing a measurement of the position of the head center of the user according to an embodiment of the present invention.
5 is a diagram illustrating a screen showing statistics of a walking motion of a user according to an exemplary embodiment of the present invention.
FIG. 6 is a diagram illustrating a separation distance of a walking record according to an embodiment of the present invention. FIG.
7 to 8 are diagrams illustrating a state of use of the user recognition gait motion measurement system according to an embodiment of the present invention.
9 to 12 are flowcharts illustrating a method of measuring a user recognition walking motion according to another exemplary embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예가 상세하게 설명된다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고, 도면에서 본 발명의 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략되었다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the embodiments of the present invention.

본 명세서에서 사용된 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도로 사용된 것이 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions may include plural expressions unless the context clearly indicates otherwise.

본 명세서에서, "포함하다", "가지다" 또는 "구비하다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.As used herein, the terms "comprise", "have" or "include" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification. Or other features or numbers, steps, operations, components, parts or combinations thereof may be understood as not precluding the possibility of addition or possibility in advance.

또한, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.

또한, 이하의 실시예들은 당 업계에서 평균적인 지식을 가진 자에게 보다 명확하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the following embodiments are provided to more clearly explain to those skilled in the art, the shape and size of the elements in the drawings may be exaggerated for more clear description.

이하, 첨부된 도면을 참조하여, 본 발명에 따른 바람직한 실시예에 대하여 설명한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템을 나타내는 도면이다. 도 2는 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 동작도이다.1 is a view showing a user recognition walking motion measurement system according to an embodiment of the present invention. 2 is an operation of the user recognition walking motion measurement system according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)은 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상(G)을 투사하는 화상출력부(100), 보행 가이드 화상(G)에 대응한 상기 사용자의 보행 동작 및 상기 사용자의 지정된 신체 부위의 위치를 감지하는 동작감지부(200) 및 동작감지부(200)로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부(300)를 포함할 수 있다. 또한, 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 디스플레이부(400)를 포함할 수 있다.1 and 2, the user recognition walking motion measuring system 10 according to the present embodiment includes an image output unit 100 for projecting a virtual walking guide image G for inducing a walking motion of a user. Receiving the motion detection information of the user from the motion detection unit 200 and the motion detection unit 200 for detecting the walking motion of the user corresponding to the guide image (G) and the location of the specified body part of the user the user The operation determining unit 300 may determine whether the motion detection information of the controller satisfies a preset condition. In addition, the display unit 400 may display a content screen for guiding the user.

본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)은 화상출력부(100)를 통해 가상의 보행 가이드 화상(G)이 사용자의 위치의 지면으로 투사된다. 투사되는 보행 가이드 화상(G)은 사용자의 보행 동작을 유도하는 화상이 투사될 수 있다. 사용자는 투사된 보행 가이드 화상(G)에 대응하여 보행 동작을 할 수 있고, 사용자의 보행 동작은 동작감지부(200)가 측정 및 감지할 수 있다.In the user recognition walking motion measurement system 10 according to an exemplary embodiment of the present invention, the virtual walking guide image G is projected onto the ground of the user's position through the image output unit 100. The projected walking guide image G may project an image inducing a walking operation of the user. The user may perform a walking operation in response to the projected walking guide image G, and the motion detection unit 200 may measure and detect the walking operation of the user.

또한, 사용자의 보행 공간에 투사되는 보행 가이드 화상은 ICT(Information and Communication Technology)에 기반하는 보행 프로그램으로 사용자의 감각과 인지를 유발하여 실제와 유사한 경험 및 감성을 확장하고, 사용자와 사물, 사용자와 가상의 오브젝트가 인터랙션 하는 실감형 인터랙티브 콘텐츠일 수 있다. 상기 실감형 인터랙티브 콘텐츠는 보행 프로그램에 따라 사용자가 취해야할 보행 동작을 유도하기 위한 가상의 오브젝트(보행 가이드 화상(G), 예를 들어 사용자가 걸어가야 할 방향을 제시하는 안내선 또는 사용자가 보행 시 내딛어야 하는 지점을 나타낸 오브젝트)에 대한 좌표정보와 순서, 좌표의 변화 간격 등에 관한 정보가 포함될 수 있다. 이 좌표정보는 사용자의 나이, 성별, 체력, 운동량, 훈련 중인 운동프로그램 등에 따라 사용자에 최적화되어 제공될 수 있다.In addition, the walking guide image projected in the walking space of the user is a walking program based on ICT (Information and Communication Technology), which induces the user's senses and perceptions, and expands the experience and emotion similar to the real life, It may be realistic interactive content that virtual objects interact with. The immersive interactive content may be a virtual object (walking guide image G, for example, a guide line presenting a direction to be walked by the user or a user walking in order to induce a walking action to be taken by the user according to a walking program). Coordinate information) and information about the coordinates, the order, the interval of change of the coordinates, and the like. The coordinate information may be optimally provided to the user according to the user's age, gender, physical fitness, exercise amount, exercise program under training, and the like.

동작감지부(200)는 전방의 보행공간(보행 가이드 화상(G)이 투사되는 공간)에서 사용자의 보행 동작을 인식할 수 있다. 동작감지부(200)는 적어도 하나 이상의 카메라, 뎁쓰 카메라, 적외선 센서 또는 이들의 조합으로 구성되어서 사용자와 사용자의 보행 동작, 사용자의 지정된 신체 부위의 위치를 감지할 수 있다. 여기서, 사용자의 지정된 신체 부위는 미리 설정할 수 있으며, 예컨대, 발, 심장 부위, 머리, 무릎 등이 설정될 수 있다. 도 1 및 도 2에 나타난 동작감지부(200)는 사용자의 전방에서 감지하는 것이지만 이에 한정되는 것은 아니며, 사용자의 주위(전후좌우)에 복수의 동작감지부(200)가 설치되어 멀티뷰 이미지를 생성하여 사용자의 보행 동작을 인식할 수도 있다. 즉, 동작감지부(200)는 사용자의 보행공간을 3차원의 입체적 혹은 멀티뷰로 감지할 수 있다. 사용자 인식 보행 동작 측정 시스템(10)은 동작감지부(200)가 측정 및 수집한 사용자의 보행 동작, 사용자의 위치 및 공간 정보를 이용하여 사용자에게 최적화되고 생동감 있는 입체적인 보행 인터페이스를 제공하고 정밀한 사용자의 보행 동작 인식을 가능케 한다. 상기 카메라는 3차원 영상을 생성하기 위한 좌영상 및 우영상을 촬영하는 카메라일 수 있으며, 복수의 카메라를 이용하여 멀티뷰를 구현할 수 있다. 또한, 뎁쓰 카메라의 뎁쓰값이나 3차원 영상에서 좌우영상의 시차에 대한 데이터를 추출하여, 오브젝트와의 거리를 환산하는데 이용할 수 있다.The motion detection unit 200 may recognize the walking motion of the user in the front walking space (the space where the walking guide image G is projected). The motion detector 200 may include at least one camera, a depth camera, an infrared sensor, or a combination thereof to detect a walking motion of the user and the user and a location of a specified body part of the user. Here, the designated body part of the user may be set in advance, for example, the foot, the heart part, the head, the knee, and the like may be set. The motion detection unit 200 shown in FIGS. 1 and 2 is detected in front of the user, but is not limited thereto. A plurality of motion detection units 200 may be installed around the user (front, rear, left and right) to display a multi-view image. It may be generated to recognize the walking motion of the user. That is, the motion detection unit 200 may detect the walking space of the user in three-dimensional or multi-view. The user recognition gait motion measurement system 10 provides an optimized and lively three-dimensional gait interface for the user by using the user's walking motion, the user's location and spatial information measured and collected by the motion detection unit 200, and provides a precise user's Enable walking motion recognition. The camera may be a camera for photographing a left image and a right image for generating a 3D image, and may implement a multiview using a plurality of cameras. Also, data about parallax of the left and right images may be extracted from a depth camera of a depth camera and a 3D image, and used to convert a distance from an object.

예를 들어 동작감지부(200)는 인식범위 내의 인체를 향해 적외선을 송출하고, 인체로부터 반사되는 적외선 신호를 감지하여 인체의 중요 관절 부위를 복수 개의 점으로 표시할 수 있다. 이에 따라 인체의 움직임, 속도 및 위치 등을 인식할 수 있다. 또한, 동작감지부(200)는 인식범위 내에 여러 사람이 위치하는 경우 가장 가까운 거리에 있는 사람을 인식하는 등의 방법으로 한 명의 사람을 분리할 수 있고, 여러 사람을 각각 별개로 분리하여 인식할 수 있다.For example, the motion detection unit 200 may transmit infrared rays toward the human body within the recognition range, detect the infrared signal reflected from the human body, and display important joint parts of the human body as a plurality of points. Accordingly, the movement, speed, and position of the human body can be recognized. In addition, the motion detection unit 200 may separate one person by a method such as recognizing a person at the closest distance when several people are located within a recognition range, and separately recognizes several people separately. Can be.

이러한 동작감지부(200)는 모션 캡쳐(Motion Capture) 또는 음성 인식이 가능한 장치에 의해 될 수 있다. 예를 들어, 컴퓨테이셔널 카메라(Computational Camera)일 수 있다. 컴퓨테이셔널 카메라는, 피사체의 반사광이 렌즈를 통해 투과된 카메라 암상자에서 이미지를 얻는 방식인 전통적 카메라 방식에서 한 단계 더 나아가 렌즈를 통해 들어오는 피사체의 이미지에 연산을 통해, 이미지를 재가공하여 정보가 포함된 이미지를 만들어 내는 카메라이다. 이러한 컴퓨테이셔널 카메라 중 3D 뎁쓰(Depth) 인식카메라가 있으며 인식거리에 따라 제스쳐 인식, 장애물 인식, 3D 스캔등에 사용될 수 있다.The motion detection unit 200 may be a device capable of motion capture or voice recognition. For example, it may be a Computational Camera. Computational cameras go one step further than the traditional camera method, in which the reflected light of the subject is obtained from a camera arm box transmitted through the lens, and the information is processed by reprocessing the image through an operation on the image of the subject coming through the lens. Camera to create a captured image. Among such computational cameras, there is a 3D depth recognition camera and can be used for gesture recognition, obstacle recognition, 3D scanning, etc. according to the recognition distance.

동작감지부(200)에서 생성한 동작 감지 정보는 동작감지부(200)가 감지한 사용자의 동작 및 위치를 나타내기 위한 디지털 데이터일 수 있으며, 상기 동작 감지 정보는 사용자의 중요 관절 부위를 표현한 복수 개의 점들의 위치 정보, 미리 지정된 사용자의 신체 부위 정보 및 깊이(Depth) 정보를 포함할 수 있다.The motion detection information generated by the motion detection unit 200 may be digital data indicating the motion and location of the user detected by the motion detection unit 200, and the motion detection information is a plurality of expressions representing important joint parts of the user. Location information of the three dots, body part information of a predetermined user, and depth information may be included.

화상출력부(100)는 사용자가 위치하는 공간으로 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상(G)을 투사할 수 있다. 화상출력부(100)는 프로젝터부(110) 및 반사부(120)를 포함할 수 있다. 이러한 화상출력부(100)는 낮은 천장과 같이 충분한 투사거리가 확보되지 않는 장소에서도 영상을 충분히 확대하여 투사할 수 있고, 높이의 변화에도 같은 위치에 보행 동작을 유도하는 보행 가이드 화상(G)을 투사할 수 있다.The image output unit 100 may project a virtual walking guide image G for inducing a walking operation of the user to a space where the user is located. The image output unit 100 may include a projector 110 and a reflector 120. The image output unit 100 can sufficiently project the image even in a place where a sufficient projection distance is not secured, such as a low ceiling, and provide a walking guide image G for inducing a walking operation at the same position even with a change in height. Can project.

프로젝터부(110)는 실감형 인터랙티브 콘텐츠에 기반한 보행 프로그램을 수행하기 위한 가상의 오브젝트(보행 가이드 화상(G))을 반사부(120)로 투사할 수 있다. 프로젝트부(110)는 HDMI, RGB, BNC, Wireless HD 등 다양한 방식의 유무선 인터페이스와 호환될 수 있다. 프로젝터부(110)의 위치 및 투사 각도는 보행 프로그램의 종류에 따라 투사되는 보행 가이드 화상(G)의 크기와 위치를 조정할 수 있도록 다양하게 변경될 수 있다. 이를테면, 프로젝터부(110)는 레일이나 브라켓 등을 통해 상하좌우 이동 및 360도 회전이 가능할 수 있다.The projector unit 110 may project a virtual object (walking guide image G) for performing a walking program based on the sensational interactive content to the reflecting unit 120. The project unit 110 may be compatible with various wired and wireless interfaces such as HDMI, RGB, BNC, and Wireless HD. The position and the projection angle of the projector 110 may be variously changed to adjust the size and position of the walking guide image G projected according to the type of the walking program. For example, the projector 110 may move up, down, left and right and rotate 360 degrees through a rail or a bracket.

반사부(120)는 프로젝터부(110)로부터 투사된 보행 가이드 화상(G)을 사용자의 보행공간의 지면으로 반사 시킬 수 있다. 반사부(120)는 실시예에 따라 평면거울, 볼록거울, 오목거울 또는 비정형 거울 중의 어느 하나로 형성될 수 있으며, 보행 프로그램의 종류와 특징에 따라 프로젝터부(110)에서 보행 가이드 화상(G)이 투사될 바닥면까지의 투사거리를 조절함으로써 보행공간의 크기를 조절할 수 있다. 예를 들어, 반사부(120)가 평면거울로 구현되는 경우에는 프로젝터부(110)에서 바닥면에 바로 투사될 때보다 프로젝터부(110)에서 상기 평면거울 사이의 거리의 2배만큼 투사거리가 늘어나는 효과를 얻을 수 있다. 또한, 반사부(120)가 볼록거울로 구현되는 경우에는 프로젝터부(110)에서 바닥면에 바로 투사될 때보다 프로젝터부(110)에서 상기 볼록거울 사이의 거리와 볼록거울의 배율에 따른 거리만큼 투사거리가 늘어나는 효과를 얻을 수 있다. 또한, 반사부(120)가 오목거울로 구현되는 경우에는 프로젝터부(110)에서 바닥면에 바로 투사될 때보다 투사거리는 짧아지지만 프로젝터부(110)에서 투사되는 빛을 집중시켜 밝은 곳에서도 선명한 영상을 얻을 수 있는 효과가 있다. 또한, 반사부(120)가 비정형거울로 구현되는 경우에는 투사거리를 늘려 확대된 증강된 가상 운동공간을 확보할 수 있고, 거울에 반사되어 바닥면에 투사되는 각도가 수직이 아니어서 발생할 수 있는 화면의 왜곡을 보정할 수도 있다. 일례로서, 반사부(120)는 투사되는 거리에 따른 영상의 왜곡이 발생하지 않도록 일반거울보다 반사계수가 높은 도료를 아크릴이나 플라스틱에 도포하여 사용할 수 있다.The reflector 120 may reflect the walking guide image G projected from the projector 110 onto the ground of the walking space of the user. The reflector 120 may be formed of any one of a flat mirror, a convex mirror, a concave mirror, or an atypical mirror, and according to the type and characteristic of a walking program, the walking guide image G may be formed in the projector 110. The size of the walking space can be adjusted by adjusting the projection distance to the floor to be projected. For example, when the reflector 120 is implemented as a planar mirror, the projection distance is twice as large as the distance between the planar mirrors in the projector unit 110 than when the projector unit 110 is directly projected onto the floor. Increased effect can be obtained. In addition, when the reflecting unit 120 is implemented as a convex mirror, the distance between the convex mirror and the distance according to the magnification of the convex mirror in the projector unit 110 is greater than when the projector unit 110 is directly projected onto the bottom surface. The effect of increasing the projection distance can be obtained. In addition, when the reflecting unit 120 is implemented as a concave mirror, the projection distance is shorter than when the projector unit 110 is directly projected on the bottom surface, but the image projected by the projector unit 110 concentrates the light projected by the clear image even in a bright place. There is an effect that can be obtained. In addition, when the reflector 120 is implemented as an atypical mirror, the projection distance can be increased to secure an enlarged virtual motion space, and the angle reflected by the mirror to be projected on the floor is not vertical. You can also correct distortion on the screen. As an example, the reflector 120 may apply a paint having a higher reflection coefficient than that of a general mirror to acrylic or plastic so that distortion of an image according to a projected distance does not occur.

또한, 반사부(120)는 상하좌우로 이동하거나 회전이 가능하여 전후 또는 좌우로 반사되는 각도를 조절할 수 있다. 일례로서, 반사부(120)는 레일이나 브라켓 등을 통해 상하좌우 이동 및 360도 회전이 가능할 수 있다. 이를 통해 사용자 인식 보행 동작 측정 시스템(10)의 설치 이후에도 보행하고자 하는 주변환경에 따라 보행 가이드 화상(G)이 투사되는 위치를 다양하게 변경할 수 있다.In addition, the reflector 120 may move up, down, left, and right or rotate to adjust an angle reflected back and forth or left and right. As an example, the reflector 120 may be moved up, down, left and right and rotated 360 degrees through a rail or bracket. Through this, even after installation of the user recognition walking motion measuring system 10, the location where the walking guide image G is projected may be variously changed according to the surrounding environment to be walked.

한편, 도 1에는 반사부(120)가 하나의 반사거울로 형성되는 것이 도시되어 있으나 이는 하나의 예시로서, 반사부(120)는 복수 개의 반사 거울을 구비하여 상기 반사거울 간에 보행 가이드 화상(G)을 반사하도록 배치하여, 프로젝터부(110)와 지면 사이의 투사 거리를 더욱 길게 확장할 수 있다. 일례로서, 프로젝터부(110)를 사용자 인식 컨텐츠 제공 시스템(10)의 아랫부분에 설치하고 중간에 몇 개의 반사거울을 지그재그로 설치한 후 천정에 설치된 반사 거울을 통해서 최종적으로 바닥면에 투사하도록 구성될 수 있다.Meanwhile, FIG. 1 shows that the reflector 120 is formed as one reflection mirror, but this is just one example. The reflector 120 includes a plurality of reflection mirrors to guide a walking guide image G between the reflection mirrors. ), The projection distance between the projector 110 and the ground can be further extended. As an example, the projector 110 is installed in the lower part of the user recognition content providing system 10, and some reflective mirrors are zigzag in the middle, and then finally projected to the floor through a reflective mirror installed on the ceiling. Can be.

또한, 화상출력부(100)는 복수 개의 프로젝터부(110)를 포함할 수도 있다. 이 경우 여러 개의 화면을 각각 다른 반사부(120)를 통해서 출력하여, 서로 오버랩되어 출력되거나 인접하여 출력되도록 하는 영상효과를 만들어낼 수 있다.In addition, the image output unit 100 may include a plurality of projectors 110. In this case, a plurality of screens may be output through different reflecting units 120, respectively, to produce an image effect of being overlapped with each other or being output adjacently.

한편, 다른 실시예로서 화상출력부(100)는 반사부(120)가 생략되어 프로젝터부(110)에서 투사된 보행 가이드 화상(G)이 바닥면으로 바로 투사될 수 있다.Meanwhile, in another embodiment, the image output unit 100 may omit the reflection unit 120 so that the walking guide image G projected from the projector 110 may be directly projected onto the floor.

동작판단부(300)는 동작감지부(200)로부터 사용자의 동작 감지 정보를 수신하여 상기 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단할 수 있다. 동작 감지 정보는 상술한 것처럼, 주요 관절 부위의 위치 및 움직임 정보, 어깨, 머리, 가슴, 무릎, 발, 손과 같은 미리 지정된 신체 부위의 위치 및 움직임 정보일 수 있다. The motion determining unit 300 may receive the motion detection information of the user from the motion detection unit 200 and determine whether the motion detection information meets a preset condition. As described above, the motion detection information may be location and motion information of a main joint part and location and motion information of a predetermined body part such as a shoulder, a head, a chest, a knee, a foot, and a hand.

미리 설정된 조건은 보행 동작 시 나타나는 사용자의 동작 조건 또는 사용자가 내딛는 발의 위치일 수 있다. 예컨대, 보행 동작 시 나타나는 사용자의 동작 조건은 사용자의 한 무릎이 일정 높이 이상 올라오는 것, 지면에 투사되는 가상의 오브젝트 위치에 사용자의 발이 위치하는 것일 수 있다. 여기서 일정 높이는 설정된 값이며, 일례로 무릎의 위치가 10cm 이상 높이로 올라가면 설정 조건에 부합이라고 동작판단부(300)는 부합이라고 판단할 수 있다. 또한, 지면에 투사되는 보행 가이드 화상(G)을 따라 사용자가 보행 동작을 한다면, 사용자가 다음 발을 내딛어야 하는 지점에 실제 발을 내딛는 것이 설정 조건일 수 있다. 이 경우, 동작감지부(200)가 사용자가 다음 발을 내딛어야 하는 지점의 위치 또는 영역내에 사용자의 발을 감지하면, 동작판단부(300)는 부합이라고 판단할 수 있다.The preset condition may be an operation condition of the user that appears during the walking operation or a position of the foot of the user. For example, an operation condition of the user that appears during the walking operation may be that one knee of the user rises above a certain height, or the user's foot is positioned at a virtual object position projected onto the ground. Here, the predetermined height is a set value. For example, when the position of the knee rises to a height of 10 cm or more, the operation determining unit 300 may determine that the setting condition is met. In addition, when the user walks along the walking guide image G projected on the ground, it may be a setting condition that the user actually steps on the next foot. In this case, when the motion detecting unit 200 detects the user's foot in the position or area of the point where the user should step on the next foot, the operation determining unit 300 may determine that it is a match.

동작판단부(300)가 부합이라고 판단하면, 보행 프로그램에 따라 설정된 다음 소정의 이벤트가 실행될 수 있다. 일례로, 보행 가이드 화상(G)은 사용자가 보행 동작 전에 모든 화상이 투사될 수도 있고, 사용자의 걸음에 따라 보행 가이드 화상(G)이 나타나거나 강조될 수도 있다. 이 경우, 사용자가 보행 중이고, 상술한 사용자가 발을 내딛어야 하는 지점에 발을 내딛어 동작판단부(300)가 부합이라고 판단하면, 화상출력부(100)는 사용자가 다음에 내딛어야 하는 지점(다음 발을 내딛어야 하는 투사된 가상의 오브젝트)을 투사하거나 강조하는 이벤트를 실행할 수 있다.If it is determined that the operation determining unit 300 matches, the next predetermined event set according to the walking program may be executed. For example, in the walking guide image G, all images may be projected before the user walks, and the walking guide image G may be displayed or emphasized as the user walks. In this case, when the user is walking and the user determines that the operation determination unit 300 is matched by stepping on the point where the user should step on, the image output unit 100 determines the point where the user should step next ( You can fire an event that projects or highlights the projected virtual object that should take the next step.

즉, 보행 동작 측정 시퀀스는 조건판단부(300)가 수신되는 보행 감지 정보가 설정된 조건에 따라 부합이라고 판단하면 진행될 수 있으며, 조건판단부(300)가 부합이라고 판단하지 않으면 다음의 이벤트는 발생하지 않는 것일 수 있다.That is, the walking motion measurement sequence may be progressed when the condition determination unit 300 determines that the received walking detection information is met according to a set condition, and if the condition determination unit 300 does not determine that it matches, the next event does not occur. It may not be.

디스플레이부(400)는 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시할 수 있다. 여기서 콘텐츠 화면은 사용자가 보행 프로그램을 실행 시키기 위한 인터페이스 화면일 수 있고, 보행 프로그램에서 사용자가 따라할 예시동작 및 지시문구일 수도 있다. 또한, 디스플레이부(400)는 동작감지부(200)가 감지한 사용자의 동작을 출력할 수 있고, 보행 중 사용자의 위치나 방향 변화에 따른 움직임 및 사용자가 운동한 결과에 대한 정보를 실시간으로 출력할 수 있다.The display unit 400 may display a content screen for guiding a user. Herein, the content screen may be an interface screen for the user to execute a walking program, or may be an exemplary operation and instructions to be followed by the user in the walking program. In addition, the display unit 400 may output the user's motion detected by the motion detection unit 200, and outputs information on the movement and the result of the user's exercise according to the user's position or direction change while walking. can do.

도 3은 본 발명의 일 실시예에 따른 지면에 보행 가이드 화상(G)이 투사되는 것을 나타낸 도면이다.3 is a diagram illustrating that the walking guide image G is projected onto the ground according to an embodiment of the present invention.

도 3을 참조하면, 지면에 투사되는 보행 가이드 화상(G)은 사용자의 출발 지점(G0), 보행 가이드 지점(G1, G2), 사용자가 동작으로 선택할 수 있는 메뉴 인터페이스(I1), 실행 시간을 측정하는 인터페이스(I2)를 포함할 수 있다. 여기서 보행 가이드 화상(G)은 출발 전에 모든 화상이 출력될 수 있거나 사용자의 보행하는 위치에 따라 단계적으로 출력될 수도 있다. 사용자가 출발 지점(G0)에서 서 있으면, 동작감지부(200)가 사용자의 위치를 감지하고, 감지된 사용자의 위치가 투사된 출발 지점(G0) 영역의 위치와 일치한다면 동작판단부(300)는 사용자가 출발 동작 조건에 부합하는 동작을 했다고 판단할 수 있다.Referring to FIG. 3, the walking guide image G projected onto the ground may include a user's starting point G0, walking guide points G1 and G2, a menu interface I1 selectable by the user, and an execution time. It may include an interface I2 for measuring. Here, the walking guide image G may be output all images before departure or may be output stepwise according to the walking position of the user. If the user stands at the starting point G0, the motion detecting unit 200 detects the position of the user, and if the detected user's position matches the position of the projected starting point G0 area, the operation determining unit 300. The user may determine that the user has performed an operation in accordance with the starting operation condition.

투사되는 오브젝트(G0, G1, G2, I1)는 소정의 면적을 가지는 영역으로 출력된다. 사용자 인식 보행 동작 측정 시스템(10)은 투사되는 오브젝트(G0, G1, G2, I1)의 경계점들의 위치를 이용해 투사된 오브젝트(G0, G1, G2, I1)의 영역을 시스템(10) 상에서 확정할 수 있다. 동작감지부(200)는 사용자의 발의 위치를 측정할 수 있고, 확정된 오브젝트 영역(G0, G1, G2, I1) 내에 사용자의 발의 위치가 측정되면 동작판단부(300)는 사용자가 투사된 오브젝트(G0, G1, G2, I1)에 걸음을 내딛었거나, 사용자가 투사된 오브젝트를 밟았다고 판단할 수 있다.The projected objects G0, G1, G2, and I1 are output to an area having a predetermined area. The user recognition walking motion measuring system 10 may determine the area of the projected objects G0, G1, G2, and I1 on the system 10 by using the positions of the boundary points of the projected objects G0, G1, G2, and I1. Can be. The motion detection unit 200 may measure the position of the user's foot. When the position of the user's foot is measured within the determined object areas G0, G1, G2, and I1, the operation determining unit 300 may determine the object projected by the user. It may be determined that the user has stepped on (G0, G1, G2, I1) or the user has stepped on the projected object.

투사되는 보행 가이드 화상이 동시에 투사되는 것이 아니라 단계적으로 투사되는 것인 경우, 동작판단부(300)가 사용자가 첫번째 오브젝트(G1)을 밟았다고 판단한 상태에서 사용자의 반대편 무릎이 일정 높이 이상 올라가는 것을 동작감지부(200)가 감지하면, 상기 사용자의 반대편 무릎이 일정 높이 이상 올라가는 동작 감지 정보를 수신한 동작판단부(300)는 사용자가 첫번째 오브젝트(G1)에 발을 디딘 상태에서 두번째 오브젝트(G2)를 향해 보행을 하는 상태의 조건으로 판단할 수 있다. 이 경우, 화상출력부(100)는 두번째 오브젝트(G2)를 투사하거나, 투사되어 있는 상태이면 두번째 오브젝트(G2)를 강조할 수 있는 동작을 할 수 있다.When the projected walking guide image is not projected at the same time but is projected in stages, when the operation determining unit 300 determines that the user has stepped on the first object G1, the user's opposite knee is raised above a certain height. When the sensing unit 200 detects the motion determining unit 300 that receives the motion sensing information in which the opposite knee of the user rises by a predetermined height or more, the operation determining unit 300 receives the second object G2 while the user steps on the first object G1. It can be judged as a condition of the state of walking toward. In this case, the image output unit 100 may project the second object G2 or, if the projected state, may emphasize the second object G2.

사용자가 출발 조건을 만족하여 투사되는 보행 가이드 화상(G1, G2)을 따라 보행을 하면, 동작감지부(200)는 사용자가 보행 중 내딛는 발의 위치를 측정하고 기록할 수 있다. 또한, 동작감지부(200)는 상술했듯이 사용자의 지정된 신체부위의 위치를 측정할 수 있다. 지정된 신체부위는 발의 위치일 수도 있지만, 사용자의 가슴중심 또는 머리 중심일 수 있다.When the user walks along the walking guide images G1 and G2 that satisfy the departure condition, the motion detection unit 200 may measure and record the position of the foot that the user stands while walking. In addition, the motion detection unit 200 may measure the position of the designated body part of the user as described above. The designated body part may be the position of the foot, but may be the chest center or the head center of the user.

도 4는 본 발명의 일 실시예에 따른 사용자의 머리 중심(P1, P2, P3) 위치를 측정한 것을 나타낸 것이다. 사람에 따라 보행 자세는 다를 수 있다. 바른 자세로 일직선으로 보행하는 사람이 있을 수 있고, 올바르지 않는 자세로 지그재그로 보행하는 사람이 있을 수도 있다. 또한, 하체는 일직선으로 가되, 상체 움직임이 좌우로 흔들리며 보행하는 사람도 있을 수 있다. 이러한 다양한 올바르지 않은 보행 자세의 측정을 위해 보행 중 발현되는 상체 밸런스를 측정할 수 있다. 도 4를 참조하면, 동작감지부(200)는 상체 밸런스 측정을 위해서 보행하는 사용자의 머리 중심 위치(P1, P2, P3)를 측정할 수 있다. 후술할 통계산출부는 측정된 머리 중심 위치(P1, P2. P3) 추적하여 생성한 추적선(TL)과 보행 가이드 화상(G1)의 중심선(GL)과 비교할 수 있도록 하여 사용자로 하여금 보행 상체 밸런스를 인지할 수 있게 할 수 있다.Figure 4 shows the measurement of the position of the center of the head (P1, P2, P3) of the user according to an embodiment of the present invention. The walking posture may differ from person to person. There may be people walking in a straight line in the right posture, or people walking in a zigzag in the wrong posture. In addition, the lower body is in a straight line, the upper body movement may swing from side to side may be a person walking. In order to measure such various incorrect walking postures, the upper body balance expressed during walking can be measured. Referring to FIG. 4, the motion detection unit 200 may measure head center positions P1, P2, and P3 of a user walking to measure upper body balance. The statistical calculation unit, which will be described later, allows the user to compare the walking upper body balance with the tracking line TL generated by tracking the measured head center positions P1, P2 and P3 and the center line GL of the walking guide image G1. You can make it perceivable.

또한, 추적선(TL)과 보행 가이드 화상(G1)의 중심선(GL)과의 수직 이격 거리를 측정할 수 있으며, 측정된 이격 거리는 후술할 통계산출부가 사용자의 상체 밸런스 통계 산출에 이용될 수 있다.In addition, the vertical separation distance between the tracking line TL and the center line GL of the walking guide image G1 may be measured, and the measured separation distance may be used to calculate the upper body balance statistics of the user. .

도 5는 본 발명의 일 실시예에 따른 사용자의 보행 동작의 통계를 나타내는 화면을 도시한 도면이다.5 is a diagram illustrating a screen showing statistics of a walking motion of a user according to an exemplary embodiment of the present invention.

도 5를 참조하면, 사용자 인식 보행 동작 측정 시스템(10)은 사용자가 내딛는 발의 위치와 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함할 수 있다.Referring to FIG. 5, the user recognition walking motion measuring system 10 may determine one or more of a statistical value, a statistical graph, or a user's actual walking record calculated based on a distance between the foot of the user and the position of the walking guide image. It may include a statistical calculation unit for outputting.

통계산출부는 보행 동작 측정이 완료되면, 측정한 보행 동작 기록을 기초로 하여, 보행 동작 결과 화면(R1)을 나타낼 수 있다. 보행 동작 결과 화면(R1)에는 사용자의 보행 동작 밸런스를 스코어로 나타날 수 있다. 스코어는 결과 데이터에 따라 보행 밸런스를 0점 내지 100점으로 환산하여 나타낼 수 있다. 또한, 사용자가 보행 동작을 제한시간 내에 완료하지 못하였을 경우, 스코어가 0점으로 나타날 수 있다.When the walking calculation is completed, the statistical calculation unit may display the walking motion result screen R1 based on the measured walking motion record. The walking motion result screen R1 may display the walking motion balance of the user as a score. The score may be represented by converting the walking balance into 0 to 100 points according to the result data. In addition, when the user does not complete the walking operation within the time limit, the score may be displayed as 0.

통계산출부는 환산된 보행 밸런스 점수를 기초로 통계 그래프를 나타낼 수 있다. 예를 들면, 통계 그래프는 평균 점수를 기준으로 하여 점수별 분포 곡선을 나타낼 수 있다. 여기서 보행 밸런스의 스코어 환산 가중치 또는 그래프 환산 가중치는 하나의 예시일 뿐이며, 이에 한정되지는 않는다.The statistical calculation unit may display a statistical graph based on the converted walking balance score. For example, the statistical graph may represent a distribution curve for each score based on the average score. Here, the score conversion weight or the graph conversion weight of the walking balance is only one example, but is not limited thereto.

보행 동작 결과 화면(R1)은 하체 밸런스 기록(R2)과 상체 밸런스 기록(R3)을 포함할 수 있다. 하체 밸런스 기록(R2)는 투사된 보행 가이드 화상의 중심선과 사용자가 보행 중 밟은 지면의 위치(즉, 내딛은 발의 위치)의 흔적을 함께 나타날 수 있다. 이 경우, 사용자가 보행 중 자신의 하체 밸런스에 어떤 문제점이 있는지 직접 확인할 수 있다.The walking operation result screen R1 may include a lower body balance record R2 and an upper body balance record R3. The lower body balance recording R2 may show the centerline of the projected walking guide image together with the traces of the position of the ground (ie, the position of the stepped foot) that the user stepped on while walking. In this case, the user can directly check what is wrong with his lower body balance while walking.

상체 밸런스 기록(R3)는 하체 밸런스 기록(R2)와 같이 투사된 보행 가이드 화상의 중심선과 사용자가 보행 중 상체의 중심 흔적을 함께 나타날 수 있다. 이 경우, 사용자가 보행 중 자신의 상체 밸런스에 어떤 문제점이 있는지 직접 확인할 수 있다.The upper body balance record R3 may show the centerline of the projected walking guide image together with the center trace of the upper body while the user walks, as in the lower body balance record R2. In this case, the user may directly check whether there is a problem in his upper body balance while walking.

이와 달리, 보행 동작 결과 화면(R1)은 발의 위치 기록(R2)과, 보행 가이드 화상과의 이격거리 기록(R3)을 포함할 수도 있다.Alternatively, the walking operation result screen R1 may include a foot position recording R2 and a distance recording R3 from the walking guide image.

도 6은 본 발명의 일 실시예에 따른 하체 밸런스 기록의 이격 거리를 나타낸 도면이다.6 is a diagram showing the separation distance of the lower body balance recording according to an embodiment of the present invention.

도 6을 참조하면, 기록된 발자국 흔적이 보행 가이드 화상의 중심선에서 수직으로 벗어난 이격 거리가 측정될 수 있다. 통계산출부는 이격 거리에 기초하여 보행 밸런스 점수를 산출할 수 있다. 예를 들어 모든 발자국 흔적이 이격 거리를 측정하고, 이격 거리가 1cm 늘어날수록 2점씩 차감할 수 있다. 각각의 이격 거리를 합하여 총 50cm 이상 되면 보행 밸런스 점수를 0점으로 처리할 수 있다.Referring to FIG. 6, the separation distance at which the recorded footprint trace is vertically deviated from the center line of the walking guide image may be measured. The statistical calculation unit may calculate a walking balance score based on the separation distance. For example, every footprint trace measures the separation distance, and as the separation distance increases by 1 cm, two points can be subtracted. If the total distance is 50cm or more, the walking balance score can be treated as 0 points.

도 7 내지 도 8은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 사용 상태를 나타낸 도면이다.7 to 8 are diagrams showing a state of use of the user recognition gait motion measurement system according to an embodiment of the present invention.

도 7 내지 도 8을 참조하면, 화상출력부(100)는 사용자의 동작을 통해 메뉴 선택이 가능한 인터페이스 화면을 출력할 수 있다. 사용자가 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 사용자 인식 보행 동작 측정 시스템(10)는 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다. 즉, 동작감지부(200)가 사용자의 동작을 인식하여 사용자가 어느 한쪽 다리의 무릎을 굽힌 상태를 제1 선택시간 동안 유지하는 경우, 사용자 인식 보행 동작 측정 시스템(10)는 인터페이스 화면상에서 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다. 일례로서, 상기 제1 선택시간은 2초로 설정될 수 있다.7 to 8, the image output unit 100 may output an interface screen on which a menu can be selected through a user's operation. When the user raises his foot on the interface screen and keeps his knees bent for the first selection time, the user recognition walking motion measuring system 10 compares the position of the foot corresponding to the bent knee of the user with the interface screen. It can generate a predetermined event. That is, when the motion detection unit 200 recognizes the user's motion and maintains the user's knee bent on one leg for the first selection time, the user recognition gait motion measuring system 10 may display the user's motion on the interface screen. The button event corresponding to the position of the foot corresponding to the bent knee may be generated. As an example, the first selection time may be set to 2 seconds.

다른 실시예로서, 상기 사용자가 인터페이스 화면상에 두 발을 올리고 양 무릎을 굽히는 경우, 상기 제1 선택시간을 상기 사용자가 상기 인터페이스 화면상에 한쪽 발을 올리고 무릎을 굽힌 경우의 제1 선택시간보다 짧게 설정할 수 있다. 일례로서, 이 경우의 제1 선택시간은 1.7초로 설정될 수 있다. 본 발명의 일실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)과 관련하여, 사용자가 무릎을 굽혀서 인터페이스 화면상의 특정 버튼을 선택하는 것을 "빠른 선택"과 같은 용어로 정의할 수 있고, 상기 제1 선택시간은 "빠른 선택시간”과 같은 용어로 정의할 수 있다.In another embodiment, when the user raises both feet on the interface screen and bends both knees, the first selection time is greater than the first selection time when the user raises one foot on the interface screen and bends the knee. Can be set short. As an example, the first selection time in this case may be set to 1.7 seconds. In relation to the user recognition gait motion measurement system 10 according to an exemplary embodiment of the present invention, a user may bend a knee to select a particular button on an interface screen in terms of "quick selection", 1 The selection time can be defined in terms such as "quick selection time".

다른 실시예로서, 사용자 인식 보행 동작 측정 시스템(10)는 상기 사용자가 인터페이스 화면상에 발을 올려놓은 후 상기 사용자의 무릎이 굽혀지면, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다.In another embodiment, if the user's knee is bent after the user puts the foot on the interface screen, the user recognition walking motion measuring system 10 may determine the position of the foot corresponding to the bent knee of the user and the interface screen. By comparison, certain events can be generated.

또한, 다른 실시예로서, 사용자 인식 보행 동작 측정 시스템(10)는 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하고, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생 시킬 수 있다. 즉, 동작감지부(200)가 사용자의 동작을 인식하여 사용자가 어느 한쪽 다리의 무릎을 굽혔다가 펴는 경우, 사용자 인식 보행 동작 측정 시스템(10)는 인터페이스 화면상에서 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다.In another embodiment, when the user places a foot on the interface screen, the user recognition walking motion measuring system 10 compares the position of the foot of the user with the interface screen and places the foot on the interface screen. When the user's knee corresponding to the foot is bent and extended, a predetermined event may be generated according to a result of comparing the position of the foot corresponding to the user's bent and extended knee with the interface screen. That is, when the motion detection unit 200 recognizes the user's motion and the user bends and straightens the knee of one leg, the user recognition walking motion measuring system 10 may have a foot corresponding to the user's bent and extended knee on the interface screen. You can fire an event for a button that matches its position.

도 9 내지 도 12는 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법을 나타내는 순서도이다. 도 6 내지 9에 도시된 사용자 인식 보행 동작 측정 방법은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)에 의해 수행될 수 있다.9 to 12 are flowcharts illustrating a method for measuring a user recognition walking motion according to an embodiment of the present invention. 6 to 9 may be performed by the user recognition walking motion measurement system 10 according to an embodiment of the present invention.

사용자 인식 보행 동작 측정 시스템(10)을 설명하면서 서술한 내용과 공통된 것은 생략한다.Description of the user recognition walking motion measurement system 10 will be omitted.

도 9를 참조하면, 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은, 화상출력부(100)가 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 투사 단계(S900), 동작감지부(200)가 보행 가이드 화상에 대응한 사용자의 보행 동작 및 사용자의 신체 부위의 위치를 감지하는 감지 단계(S910) 및 동작판단부(300)가 동작감지부(200)로부터 사용자의 동작 감지 정보를 수신하여 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계(S920)를 포함할 수 있다.Referring to FIG. 9, in the user recognition gait motion measuring method according to an exemplary embodiment of the present disclosure, a projection step (S900) of the image output unit 100 projecting a virtual walking guide image for inducing a gait motion of a user, The motion detecting unit 200 detects the walking operation of the user corresponding to the walking guide image and the position of the body part of the user (S910) and the operation determining unit 300 moves the user from the motion detecting unit 200. The method may include determining whether the user's motion detection information meets a preset condition by receiving the detection information (S920).

도 9에 도시된 투사 단계(S900), 감지 단계(S910) 및 판단 단계(S920)가 포함된 사용자 인식 보행 동작 측정 방법은 일반적으로 보행을 측정하는 방법인 제3자가 관찰하거나 보행 기구를 사용하여 보행을 측정하는 방법과 차별점을 가질 수 있다. 보행 기구를 사용하여 보행을 측정하는 방법은 측정 데이터 면에서 장점이 있을 수 있으나, 전문적인 기관에서만 사용하므로 일반인들이 사용하기에 어려운 면이 있다. 제3자가 관찰하는 방법은 관찰자에 따라, 관찰자의 컨디션에 따라 부정확한 관찰기록이 도출되므로 측정 신뢰도가 낮다.A user recognition walking motion measuring method including a projection step S900, a detection step S910, and a determination step S920 illustrated in FIG. 9 is generally observed by a third party, which is a method of measuring walking, or by using a walking device. There may be a difference between the method of measuring gait. The method of measuring gait using a walking apparatus may have advantages in terms of measurement data, but it is difficult to be used by the general public because it is used only by a professional institution. The third party's observation method is low in measurement reliability because inaccurate observation records are derived depending on the observer and the condition of the observer.

하지만, 도 9의 사용자 인식 보행 동작 측정 방법은, 일반적인 가상의 보행 가이드 화상을 투사하므로, 유도되는 보행 동작을 사용자가 눈으로 직접 볼 수 있으므로, 측정 방법의 사용자의 이해가 손쉬울 수 있다. 또한, 보행 가이드 화상은 직선, S자, 원형 등 다양한 변형이 쉽게 이루어질 수 있어 보행 프로그램을 제시할 수 있고, 각 보행 프로그램 마다 사용자의 보행 측정 목적에 특화된 사용자 맞춤형 보행 측정이 가능하다. 특히, 보행 동작 및 위치 감지는 전문적인 기관에서만 제공했던 세밀한 분석 결과를 기관의 도움 없이 사용자가 직접 확인할 수 있다.However, since the user recognition walking motion measuring method of FIG. 9 projects a general virtual walking guide image, the user may directly see the induced walking motion by eye, and thus, the user may easily understand the measuring method. In addition, the gait guide image can be easily modified in a variety of lines, S-shape, circular, etc. can present a gait program, and each gait program can be customized customized gait measurement for the purpose of gait measurement of the user. In particular, gait motion and position detection allows the user to directly check the detailed analysis results provided only by specialized institutions without the help of the institution.

도 10을 참조하면, 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은 통계산출부 사용자가 내딛는 발의 위치와 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계(S1030)을 포함할 수 있다.Referring to FIG. 10, a method of measuring user recognition walking motion according to an exemplary embodiment of the present invention may include a statistical value, a statistical graph, or a user calculated based on a separation distance between a foot of a user of the statistical calculation unit and a position of a walking guide image. And outputting one or more of the actual walking records of (S1030).

이 때, 감지 단계(S1010)에서는, 동작감지부(200)가 사용자의 보행 가이드 화상에 대응하여 사용자가 동작하면, 사용자가 내딛는 발의 위치를 측정하여 기록할 수 있다. 사용자는 보행 가이드 화상의 중심선과 동작감지부(200)가 측정 및 기록한 발의 흔적을 확인하여 자신의 보행 자세가 어떤 문제가 있는지 확인할 수 있다.At this time, in the detection step (S1010), when the user operates in response to the walking guide image of the user, the user may measure and record the position of the foot that the user steps on. The user may check the center line of the walking guide image and the traces of the feet measured and recorded by the motion detection unit 200 to determine whether there is a problem with his walking posture.

도 11을 참조하면 본 발명의 다른 실시예에 따른 사용자의 인식 보행 동작 측정 방법은 통계산출부가 사용자의 신체 부위와 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계(S1130)을 포함할 수 있다.Referring to FIG. 11, a method of measuring a user's recognition walking motion according to another embodiment of the present invention may include a statistical value calculated based on a distance between a user's body part and a location of a walking guide image, a statistical graph, or a user's recognition walking motion. And outputting one or more of the actual walking records (S1130).

이 때, 감지 단계(S1110)에서는, 동작감지부(200)가 사용자의 보행 가이드 화상에 대응하여 사용자가 동작하면, 사용자의 지정된 신체 부위의 위치를 측정할 수 있다. 여기서 신체 부위는 상술한 것처럼, 상체 밸런스를 측정할 수 있는 부위로 예컨대, 머리중심, 가슴중심일 수 있다. 통계산출부는 기록된 신체 부위의 중심 위치의 흔적과 보행 가이드 화상의 중심선을 나타내어 사용자가 보행 중 상체 밸런스의 현황을 확인할 수 있도록 할 수 있다.At this time, in the detection step (S1110), when the user operates in response to the walking guide image of the user, the position of the designated body part of the user may be measured. As described above, the body part may be, for example, a head center or a chest center as a part capable of measuring the upper body balance. The statistical calculation unit may display the trace of the central position of the recorded body part and the center line of the walking guide image so that the user may check the status of the upper body balance while walking.

도 12를 참조하면, 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은 디스플레이부(400)가 사용자에게 안내를 위한 콘텐츠 화면을 표시하는 단계(S1200)을 포함할 수 있다. 여기서 콘텐츠 화면은 사용자가 따라할 예시동작 및 지시문구일 수 있다.Referring to FIG. 12, the method of measuring a user recognition walking motion according to an exemplary embodiment of the present disclosure may include a step (S1200) of displaying, by the display unit 400, a content screen for guiding the user. Herein, the content screen may be an exemplary operation and instruction phrase to be followed by the user.

다음으로, 화상출력부(100)가 사용자의 동작을 통해 선택이 가능한 인터페이스 화면을 투사하는 단계(S1210)을 포함할 수 있다. 사용자는 투사된 인터페이스 화면에 대응하여 동작을 통해 인터페이스 화면의 메뉴를 선택할 수 있다.Next, the image output unit 100 may include a step (S1210) of projecting the interface screen that can be selected through the user's operation. The user may select a menu of the interface screen through an operation corresponding to the projected interface screen.

보행 동작 측정 메뉴가 선택되면, 보행 가이드 화상을 투사하는 투사 단계(S1230)로 이어질 수 있다. 사용자는 보행 가이드 화상이 투사되면, 디스플레이부(400)에 출력되는 예시동작 및 지시문구를 보며, 보행을 시작할 수 있다.When the walking motion measurement menu is selected, it may be continued to the projection step S1230 of projecting the walking guide image. When the walking guide image is projected, the user may start walking by seeing an exemplary operation and an instruction phrase output to the display unit 400.

보행이 시작되면, 동작감지부(200)가 사용자의 보행을 측정 및 감지하여 동작판단부(300)로 동작 감지 정보를 송신할 수 있고, 동작판단부(300)는 수신한 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계(S1240)가 수행될 수 있다.When the gait is started, the motion detector 200 may measure and detect a user's gait and transmit motion detection information to the motion determination unit 300, and the motion determination unit 300 receives the received motion detection information in advance. A determination step (S1240) of determining whether the set condition is satisfied may be performed.

동작판단부(300)가 수신한 동작 감지 정보가 미리 설정된 조건에 부합한다고 판단하면, 화상출력부(100)는 다음의 이벤트에 따른 보행 가이드 화상을 투사할 수 있다.If it is determined that the motion detection information received by the operation determining unit 300 meets a preset condition, the image output unit 100 may project a walking guide image according to the following event.

예를 들면, 보행 가이드 화상에 따라 사용자의 무릎의 위치가 일정 높이, 예컨대 10cm 이상 올라가면, 사용자 인식 보행 동작 시스템(10)은 사용자가 보행 동작 중이라고 판단하고, 현재 발을 딛고 있는 위치의 다음 발을 딛을 지점에 보행 가이드 화상을 투사하거나, 미리 투사된 보행 가이드 화상을 강조할 수 있다.For example, when the position of the user's knee rises by a certain height, for example, 10 cm or more, according to the walking guide image, the user recognition walking operation system 10 determines that the user is walking, and moves the next foot at the position where the user is currently walking. The walking guide image may be projected at the point where it is to be placed, or the walking guide image which is previously projected may be emphasized.

동작판단부(300)는 동작 조건에 부합되지 않고 종료 조건에 부합된다면, 수행 중인 보행 프로그램을 종료(S1260)하고, 통계산출부가 보행 측정 통계를 디스플레이부(400)로 출력하게 할 수 있다.If the operation determining unit 300 does not meet the operating condition and meets the end condition, the operation determining unit 300 may terminate the running walking program (S1260), and may cause the statistical calculation unit to output walking measurement statistics to the display unit 400.

한편, 도 9 내지 도 12에 도시된 단계들의 순서는 예시적인 것으로서 본 발명의 효과를 상실하지 않는 범위에서 그 순서가 다양하게 변경될 수 있고, 실시예에 따라 특정 단계가 생략될 수도 있다.On the other hand, the order of the steps shown in Figures 9 to 12 are exemplary and may be variously changed in a range that does not lose the effects of the present invention, specific steps may be omitted depending on the embodiment.

본 명세서에 기재된 다양한 실시예들은 하드웨어, 미들웨어, 마이크로코드, 소프트웨어 및/또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 실시예들은 하나 이상의 주문형 반도체(ASIC)들, 디지털 신호 프로세서(DSP)들, 디지털 신호 프로세싱 디바이스(DSPD)들, 프로그램어블 논리 디바이스(PLD)들, 필드 프로그램어블 게이트 어레이(FPGA)들, 프로세서들, 컨트롤러들, 마이크로컨트롤러들, 마이크로프로세서들, 여기서 제시되는 기능들을 수행하도록 설계되는 다른 전자 유닛들 또는 이들의 조합 내에서 구현될 수 있다.Various embodiments described herein can be implemented by hardware, middleware, microcode, software and / or combinations thereof. For example, various embodiments may include one or more application specific semiconductors (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs). ), Processors, controllers, microcontrollers, microprocessors, other electronic units designed to perform the functions presented herein, or a combination thereof.

또한, 예를 들어, 다양한 실시예들은 명령들을 포함하는 컴퓨터-판독가능한 매체에 수록되거나 인코딩될 수 있다. 컴퓨터-판독가능한 매체에 수록 또는 인코딩된 명령들은 프로그램 가능한 프로세서 또는 다른 프로세서로 하여금 예컨대, 명령들이 실행될 때 방법을 수행하게끔 할 수 있다. 컴퓨터-판독가능한 매체는 컴퓨터 저장 매체 및 하나의 장소로부터 다른 장소로 컴퓨터 프로그램의 이송을 용이하게 하는 임의의 매체를 포함하는 통신 매체 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 예를 들어, 이러한 컴퓨터-판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광학디스크 저장 매체, 자기 디스크 저장 매체 또는 기타 자기 저장 디바이스 또는 원하는 프로그램 코드를 컴퓨터에 의해 액세스가능한 명령들 또는 데이터 구조들의 형태로 반송하거나 저장하는데 이용될 수 있는 임의의 다른 매체를 포함할 수 있다.Also, for example, various embodiments may be embedded in or encoded on a computer-readable medium containing instructions. Instructions embedded in or encoded on a computer-readable medium may cause a programmable processor or other processor to perform a method, such as when the instructions are executed. Computer-readable media includes both computer storage media and communication media including any medium that facilitates transfer of a computer program from one place to another. The storage medium may be any available medium that can be accessed by a computer. For example, such computer-readable media may include RAM, ROM, EEPROM, CD-ROM, or other optical disk storage media, magnetic disk storage media or other magnetic storage device, or instructions or data accessible by a computer to the desired program code. It can include any other medium that can be used to carry or store in the form of structures.

이러한 하드웨어, 소프트웨어, 펌웨어 등은 본 명세서에 기술된 다양한 동작들 및 기능들을 지원하도록 동일한 디바이스 내에서 또는 개별 디바이스들 내에서 구현될 수 있다. 추가적으로, 본 발명에서 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.Such hardware, software, firmware, etc. may be implemented within the same device or within separate devices to support the various operations and functions described herein. In addition, the components, units, modules, components, etc., described herein as "parts" may be implemented separately or separately as discrete but interoperable logic devices. The depiction of different features for modules, units, etc. is intended to highlight different functional embodiments and does not necessarily mean that they must be realized by individual hardware or software components. Rather, functionality associated with one or more modules or units may be performed by separate hardware or software components or integrated into common or separate hardware or software components.

특정한 순서로 동작들이 도면에 도시되어 있지만, 이러한 동작들이 원하는 결과를 달성하기 위해 도시된 특정한 순서, 또는 순차적인 순서로 수행되거나, 또는 모든 도시된 동작이 수행되어야 할 필요가 있는 것으로 이해되지 말아야 한다. 임의의 환경에서는, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 상술한 실시예에서 다양한 구성요소들의 구분은 모든 실시예에서 이러한 구분을 필요로 하는 것으로 이해되어서는 안되며, 기술된 구성요소들이 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있다는 것이 이해되어야 한다.Although the operations are shown in the drawings in a specific order, it should not be understood that these operations are performed in the specific order shown, or sequential order, to achieve the desired result, or that all illustrated actions need to be performed. . In some circumstances, multitasking and parallel processing may be advantageous. Moreover, the division of various components in the above-described embodiments should not be understood as requiring such division in all embodiments, and the described components are generally integrated together into a single software product or packaged into multiple software products. It should be understood that it can.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

100: 화상출력부
200: 동작감지부
300: 동작판단부
400: 디스플레이부
100: image output unit
200: motion detection unit
300: operation determination unit
400: display unit

Claims (19)

사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 화상출력부;
상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작을 감지하는 동작감지부; 및
상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부를 포함하는 사용자 인식 보행 동작 측정 시스템.
An image output unit for projecting a virtual walking guide image for inducing a walking operation of the user;
A motion detector configured to detect a walking motion of the user corresponding to the walking guide image; And
And a motion determining unit configured to receive motion detection information of the user from the motion detection unit and determine whether the motion detection information of the user meets a preset condition.
제1항에 있어서,
상기 보행 가이드 화상은 상기 사용자가 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선인 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 1,
And the walking guide image is an object representing a position where the user steps on or a guide line representing a direction in which the user walks.
제2항에 있어서,
상기 동작판단부는,
상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 2,
The operation determining unit,
And when the foot of the user is located in the area of the object, recognizing that the user has stepped on the object.
제1항에 있어서,
상기 동작감지부는,
상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 1,
The motion detection unit,
And a step of measuring a position of a foot which the user stands when the user operates in response to the walking guide image.
제4항에 있어서,
상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 4, wherein
And a statistical calculation unit configured to output one or more of a statistical value, a statistical graph, or an actual walking record of the user, calculated based on a distance between the foot of the user and the position of the walking guide image. Measuring system.
제1항에 있어서,
상기 동작감지부는,
상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자의 지정된 신체부위의 위치를 추가로 측정하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 1,
The motion detection unit,
And the user further measures the position of the designated body part of the user when the user operates in response to the walking guide image.
제6항에 있어서,
상기 사용자의 상기 신체부위와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 6,
And a statistical calculation unit configured to output at least one of a statistical value, a statistical graph, or an actual walking record of the user, calculated based on a distance between the body part of the user and the position of the walking guide image. Measuring system.
제1항에 있어서,
상기 화상출력부는,
상기 동작판단부가 상기 사용자의 발이 내딛는 중이라고 판단하면, 다음 걸음을 위한 다음 보행 가이드 화상이 투사하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 1,
The image output unit,
And if the operation determining unit determines that the user's foot is stepping, the next walking guide image for the next step is projected.
제8항에 있어서,
상기 동작판단부는,
상기 사용자의 한 무릎이 일정 높이만큼 올라가면 상기 사용자가 발을 내딛는 중이라고 판단하는 것인 사용자 인식 신체 측정 시스템.
The method of claim 8,
The operation determining unit,
And determine that the user is stepping on the foot when the user's knee rises by a predetermined height.
제1항에 있어서,
상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 디스플레이부를 더 포함하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 1,
And a display unit for displaying a content screen for guiding the user.
제10항에 있어서,
상기 디스플레이부는 상기 사용자가 따라할 예시동작 및 지시문구를 출력하고,
상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 10,
The display unit outputs an example operation and instructions to the user to follow,
The image output unit is a user recognition gait motion measurement system to induce the user's motion by projecting the point where the user will perform the exemplary operation.
제1항에 있어서,
상기 화상출력부는,
상기 사용자의 동작을 통해 메뉴 선택이 가능한 인터페이스 화면을 출력하는 것인 사용자 인식 보행 동작 측정 시스템.
The method of claim 1,
The image output unit,
And outputting an interface screen on which a menu can be selected through the user's operation.
화상출력부가 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 투사 단계;
동작감지부가 상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작 및 상기 사용자의 신체 부위의 위치를 감지하는 감지 단계; 및
동작판단부가 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계를 포함하는 것인 사용자 인식 보행 동작 측정 방법.
A projection step of the image output unit projecting a virtual walking guide image for inducing a walking operation of the user;
A sensing step of detecting a walking motion of the user and a position of a body part of the user corresponding to the walking guide image by a motion detecting unit; And
And determining whether the motion determining unit receives the motion detection information of the user from the motion detection unit to determine whether the motion detection information of the user meets a preset condition.
제13항에 있어서,
상기 보행 가이드 화상은 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선인 것인 사용자 인식 보행 동작 측정 방법.
The method of claim 13,
The walking guide image is a user recognition walking motion measuring method that is an object indicating a position to step on the foot or a guide line indicating the direction in which the user walks.
제14항에 있어서,
상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식하는 것인 사용자 인식 보행 동작 측정 방법.
The method of claim 14,
And when the foot of the user is located in the area of the object, recognizing that the user has stepped on the object.
제13항에 있어서,
통계산출부가 상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계를 포함하고,
상기 감지 단계는,
상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정하는 것인 사용자 인식 보행 동작 측정 방법.
The method of claim 13,
And a statistical calculation unit outputting at least one of a statistical value, a statistical graph, or an actual walking record of the user, calculated based on a distance between the foot of the user and the position of the walking guide image.
The detecting step,
And the motion detecting unit measures a position of a foot which the user stands when the user operates in response to the walking guide image.
제16항에 있어서,
상기 감지 단계는,
상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자의 지정된 신체부위의 위치를 측정하는 것인 사용자 인식 보행 동작 측정 방법.
The method of claim 16,
The detecting step,
And the motion detecting unit measures a position of a specified body part of the user when the user operates in response to the walking guide image.
제13항에 있어서,
디스플레이부가 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 단계를 포함하고,
상기 콘텐츠 화면은 상기 사용자가 따라할 예시동작 및 지시문구를 출력하며, 상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도하는 것인 사용자 인식 보행 동작 측정 방법.
The method of claim 13,
A display unit displaying a content screen for guiding the user;
And the content screen outputs an example action and an instruction phrase to be followed by the user, and the image output unit induces the user's action by projecting a point at which the user will perform the example action.
제13항에 있어서,
상기 화상출력부가 상기 사용자의 동작을 통해 선택이 가능한 인터페이스 화면을 투사하는 단계를 포함하는 것인 사용자 인식 보행 동작 측정 방법.
The method of claim 13,
And projecting, by the image output unit, an interface screen selectable through the user's operation.
KR1020180055277A 2018-05-15 2018-05-15 User-recognized walking motion measurement system and method for measuring walking motion using the same KR102125254B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180055277A KR102125254B1 (en) 2018-05-15 2018-05-15 User-recognized walking motion measurement system and method for measuring walking motion using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180055277A KR102125254B1 (en) 2018-05-15 2018-05-15 User-recognized walking motion measurement system and method for measuring walking motion using the same

Publications (2)

Publication Number Publication Date
KR20190130761A true KR20190130761A (en) 2019-11-25
KR102125254B1 KR102125254B1 (en) 2020-06-22

Family

ID=68730573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180055277A KR102125254B1 (en) 2018-05-15 2018-05-15 User-recognized walking motion measurement system and method for measuring walking motion using the same

Country Status (1)

Country Link
KR (1) KR102125254B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210085518A (en) * 2019-12-30 2021-07-08 (주)유비텍 Personalized internet of things medical system
US20220280834A1 (en) * 2021-03-05 2022-09-08 John S. Keeney Agility ladder projection systems, devices, and methods
KR20220150032A (en) 2021-05-03 2022-11-10 원광대학교산학협력단 Apparatus and method for meridian muscle activity
US12017112B2 (en) * 2021-03-05 2024-06-25 John S. Keeney Agility ladder projection systems, devices, and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160024124A (en) * 2014-08-25 2016-03-04 주식회사 웨어러블헬스케어 Gait correction system and control method for the same
KR101661700B1 (en) 2015-11-23 2016-10-04 주식회사 지오아이티 Gait analysis treadmill
KR20170140726A (en) * 2016-06-13 2017-12-21 (주)블루클라우드 User recognition content providing system and operating method thereof
JP2018050989A (en) * 2016-09-29 2018-04-05 パラマウントベッド株式会社 Rehabilitation support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160024124A (en) * 2014-08-25 2016-03-04 주식회사 웨어러블헬스케어 Gait correction system and control method for the same
KR101661700B1 (en) 2015-11-23 2016-10-04 주식회사 지오아이티 Gait analysis treadmill
KR20170140726A (en) * 2016-06-13 2017-12-21 (주)블루클라우드 User recognition content providing system and operating method thereof
JP2018050989A (en) * 2016-09-29 2018-04-05 パラマウントベッド株式会社 Rehabilitation support device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210085518A (en) * 2019-12-30 2021-07-08 (주)유비텍 Personalized internet of things medical system
US20220280834A1 (en) * 2021-03-05 2022-09-08 John S. Keeney Agility ladder projection systems, devices, and methods
US12017112B2 (en) * 2021-03-05 2024-06-25 John S. Keeney Agility ladder projection systems, devices, and methods
KR20220150032A (en) 2021-05-03 2022-11-10 원광대학교산학협력단 Apparatus and method for meridian muscle activity

Also Published As

Publication number Publication date
KR102125254B1 (en) 2020-06-22

Similar Documents

Publication Publication Date Title
US8282481B2 (en) System and method for cyber training of martial art on network
US10783712B2 (en) Visual flairs for emphasizing gestures in artificial-reality environments
JP6045139B2 (en) VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM
CN106448277B (en) Simulation rock-climbing learning system and method based on interactive palisades
JP5579014B2 (en) Video information processing apparatus and method
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
US20180046874A1 (en) System and method for marker based tracking
JP2019141620A (en) Fixation point determination method and device on three-dimensional object
JP6074494B2 (en) Shape recognition device, shape recognition program, and shape recognition method
WO2012039467A1 (en) Exercise assistance system
KR101860753B1 (en) User recognition content providing system and operating method thereof
JP5624625B2 (en) Exercise support system
JP2013228557A (en) Display device and control method thereof
CN109731292A (en) A kind of balanced capacity test and training system and method based on virtual reality technology
KR20170010157A (en) Method for guiding actions of an user in interactive exercise programs and the apparatus thereof
KR102125254B1 (en) User-recognized walking motion measurement system and method for measuring walking motion using the same
EP2979635B1 (en) Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium
EP3564929A1 (en) Measurement device and program
JP6747172B2 (en) Diagnosis support device, diagnosis support method, and computer program
JP4985531B2 (en) Mirror system
JP2010266510A (en) Mirror system
KR102184972B1 (en) Apparatus and method for measuring distance between pupil centers
KR20210127860A (en) Virtual Reality (VR) Martial Arts Training System
KR20150073754A (en) Motion training apparatus and method for thereof
CN113197542A (en) Online self-service vision detection system, mobile terminal and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant