KR102125254B1 - 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법 - Google Patents

사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법 Download PDF

Info

Publication number
KR102125254B1
KR102125254B1 KR1020180055277A KR20180055277A KR102125254B1 KR 102125254 B1 KR102125254 B1 KR 102125254B1 KR 1020180055277 A KR1020180055277 A KR 1020180055277A KR 20180055277 A KR20180055277 A KR 20180055277A KR 102125254 B1 KR102125254 B1 KR 102125254B1
Authority
KR
South Korea
Prior art keywords
user
walking
motion
gait
guide image
Prior art date
Application number
KR1020180055277A
Other languages
English (en)
Other versions
KR20190130761A (ko
Inventor
권선주
Original Assignee
(주)블루클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)블루클라우드 filed Critical (주)블루클라우드
Priority to KR1020180055277A priority Critical patent/KR102125254B1/ko
Publication of KR20190130761A publication Critical patent/KR20190130761A/ko
Application granted granted Critical
Publication of KR102125254B1 publication Critical patent/KR102125254B1/ko

Links

Images

Classifications

    • G06K9/00342
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법이 개시된다. 상기 사용자 인식 보행 동작 측정 시스템은, 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 화상출력부, 상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작을 감지하는 동작감지부 및 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부를 포함한다.

Description

사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법{USER-RECOGNIZED WALKING MOTION MEASUREMENT SYSTEM AND METHOD FOR MEASURING WALKING MOTION USING THE SAME}
본 발명은 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법에 관한 것이다. 더 구체적으로, 사용자의 보행 동작을 유도하는 화상을 투사하고, 상기 투사된 화상에 대응한 사용자의 보행 동작을 감지 및 측정한다. 측정한 보행 동작 기록을 통계를 산출하고 산출한 통계치를 출력하는 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법에 관한 것이다.
과거에는 주로 의사나 기타 관찰자의 육안으로 환자의 이상보행을 확인하였다. 그러나 이 방식은 의사의 경험과 관찰에 의해서 진단되는 방법으로 같은 조건에서도 분석 결과가 달라질 수 있다는 한계점을 지니고 있다. 또한, 이상 보행에 대한 치료가 진행되더라도 과거의 보행 상태와 비교하기에 어려움을 가지고 있다. 보행 분석이 제대로 이루어지지 않는다면 몸의 비대칭성을 유발하는 등 환자에게 큰 불편함을 안겨왔다.
보행 측정 및 분석은 관절모멘트를 계산하여 사용하고, 근육활동을 규명하기 위해 근전도에 관한 연구도 활발히 이루어져 왔다. 또한, 최근에는 최적화 기법을 통한 근력 예측이 가능해지면 컴퓨터 모델링과 함께 발전하기도 했다.
그러나 서술한 보행 측정 및 분석은 값비싼 장비와 의료진이 구비된 기관에서만 가능한 한계점이 있다. 일반인들이 실생활에서 자신의 보행 자세에 대한 측정 및 분석은 전무한 것이 현실의 상황이다.
KR 10-1661700 B1 (2106.09.26.)
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로 가상의 보행 가이드 화상을 투사하여 사용자의 보행을 유도하는 것에 목적이 있다.
또한, 상기 가이드 화상에 대응하여 보행하는 사용자의 동작을 인식 또는 감지하여 사용자의 보행 동작을 측정 및 기록하고자 한다.
또한, 상기 기록된 보행 동작을 분석하여 보행 동작에 대한 통계치를 산출하여 사용자가 직접 자신의 보행 동작에 대한 상태를 인식할 수 있도록 한다.
본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템은, 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 화상출력부; 상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작을 감지하는 동작감지부; 및 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부를 포함할 수 있다.
또한, 상기 보행 가이드 화상은 상기 사용자가 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선 일 수 있다.
또한, 상기 동작판단부는 상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식할 수 있다.
또한, 상기 동작감지부는 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정할 수 있다.
또한, 사용자 인식 보행 동작 측정 시스템은 상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함할 수 있다.
또한, 상기 동작감지부는 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자의 지정된 신체부위의 위치를 추가로 측정할 수 있다.
또한, 사용자 인식 보행 동작 측정 시스템은 상기 사용자의 상기 신체부위와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함할 수 있다.
또한, 상기 화상출력부는 상기 동작판단부가 상기 사용자의 발이 내딛는 중이라고 판단하면, 다음 걸음을 위한 다음 보행 가이드 화상이 투사할 수 있다.
또한, 상기 동작판단부는 상기 사용자의 한 무릎이 일정 높이만큼 올라가면 상기 사용자가 발을 내딛는 중이라고 판단할 수 있다.
또한, 사용자 인식 보행 동작 측정 시스템은 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 디스플레이부를 더 포함할 수 있다.
또한, 상기 디스플레이부는 상기 사용자가 따라할 예시동작 및 지시문구를 출력하고, 상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도할 수 있다.
또한, 상기 화상출력부는 상기 사용자의 동작을 통해 메뉴 선택이 가능한 인터페이스 화면을 출력할 수 있다.
한편 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은, 화상출력부가 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 투사 단계; 동작감지부가 상기 보행 가이드 화상에 대응한 상기 사용자의 보행 동작 및 상기 사용자의 신체 부위의 위치를 감지하는 감지 단계; 및 동작판단부가 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계를 포함할 수 있다.
또한, 상기 보행 가이드 화상은 상기 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선 일 수 있다.
또한, 상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식할 수 있다.
또한, 통계산출부가 상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계를 포함할 수 있고, 상기 감지 단계는, 상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정할 수 있다.
또한, 상기 감지 단계는, 상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자의 지정된 신체부위의 위치를 측정할 수 있다.
또한, 디스플레이부가 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 단계를 포함하고, 상기 콘텐츠 화면은 상기 사용자가 따라할 예시동작 및 지시문구를 출력하며, 상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도할 수 있다.
또한, 상기 화상출력부가 상기 사용자의 동작을 통해 선택이 가능한 인터페이스 화면을 투사하는 단계를 포함할 수 있다.
본 발명에 따른 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법은 가상의 보행 가이드 화상을 지면에 투사하여 사용자의 보행을 유도하여 보행 동작에 있어 장비나 장치를 추가할 필요가 없다.
또한, 보행 가이드 화상을 투사하므로, 보행 가이드 화상을 추가하거나 수정할 수 있으므로 사용자에게 다양한 보행을 유도할 수 있다.
또한, 상기 가이드 화상에 대응하여 보행하는 사용자의 동작을 인식 또는 감지하여 사용자의 보행 동작을 측정 및 기록할 수 있다.
또한, 상기 기록된 보행 동작을 분석하여 보행 동작에 대한 통계치를 산출하여 사용자가 직접 자신의 보행 동작에 대한 상태를 인식할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 동작도이다.
도 3은 본 발명의 일 실시예에 따른 지면에 보행 가이드 화상(G)이 투사되는 것을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 머리 중심 위치를 측정한 것을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 사용자의 보행 동작의 통계를 나타내는 화면을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 보행 기록의 이격 거리를 나타낸 도면이다.
도 7 내지 도 8은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 사용 상태를 나타낸 도면이다.
도 9 내지 도 12는 본 발명의 다른 실시예에 따른 사용자 인식 보행 동작 측정 방법을 나타내는 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예가 상세하게 설명된다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고, 도면에서 본 발명의 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략되었다.
본 명세서에서 사용된 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도로 사용된 것이 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
본 명세서에서, "포함하다", "가지다" 또는 "구비하다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.
또한, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
또한, 이하의 실시예들은 당 업계에서 평균적인 지식을 가진 자에게 보다 명확하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
이하, 첨부된 도면을 참조하여, 본 발명에 따른 바람직한 실시예에 대하여 설명한다.
도 1은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템을 나타내는 도면이다. 도 2는 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 동작도이다.
도 1 및 도 2를 참조하면, 본 실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)은 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상(G)을 투사하는 화상출력부(100), 보행 가이드 화상(G)에 대응한 상기 사용자의 보행 동작 및 상기 사용자의 지정된 신체 부위의 위치를 감지하는 동작감지부(200) 및 동작감지부(200)로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부(300)를 포함할 수 있다. 또한, 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 디스플레이부(400)를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)은 화상출력부(100)를 통해 가상의 보행 가이드 화상(G)이 사용자의 위치의 지면으로 투사된다. 투사되는 보행 가이드 화상(G)은 사용자의 보행 동작을 유도하는 화상이 투사될 수 있다. 사용자는 투사된 보행 가이드 화상(G)에 대응하여 보행 동작을 할 수 있고, 사용자의 보행 동작은 동작감지부(200)가 측정 및 감지할 수 있다.
또한, 사용자의 보행 공간에 투사되는 보행 가이드 화상은 ICT(Information and Communication Technology)에 기반하는 보행 프로그램으로 사용자의 감각과 인지를 유발하여 실제와 유사한 경험 및 감성을 확장하고, 사용자와 사물, 사용자와 가상의 오브젝트가 인터랙션 하는 실감형 인터랙티브 콘텐츠일 수 있다. 상기 실감형 인터랙티브 콘텐츠는 보행 프로그램에 따라 사용자가 취해야할 보행 동작을 유도하기 위한 가상의 오브젝트(보행 가이드 화상(G), 예를 들어 사용자가 걸어가야 할 방향을 제시하는 안내선 또는 사용자가 보행 시 내딛어야 하는 지점을 나타낸 오브젝트)에 대한 좌표정보와 순서, 좌표의 변화 간격 등에 관한 정보가 포함될 수 있다. 이 좌표정보는 사용자의 나이, 성별, 체력, 운동량, 훈련 중인 운동프로그램 등에 따라 사용자에 최적화되어 제공될 수 있다.
동작감지부(200)는 전방의 보행공간(보행 가이드 화상(G)이 투사되는 공간)에서 사용자의 보행 동작을 인식할 수 있다. 동작감지부(200)는 적어도 하나 이상의 카메라, 뎁쓰 카메라, 적외선 센서 또는 이들의 조합으로 구성되어서 사용자와 사용자의 보행 동작, 사용자의 지정된 신체 부위의 위치를 감지할 수 있다. 여기서, 사용자의 지정된 신체 부위는 미리 설정할 수 있으며, 예컨대, 발, 심장 부위, 머리, 무릎 등이 설정될 수 있다. 도 1 및 도 2에 나타난 동작감지부(200)는 사용자의 전방에서 감지하는 것이지만 이에 한정되는 것은 아니며, 사용자의 주위(전후좌우)에 복수의 동작감지부(200)가 설치되어 멀티뷰 이미지를 생성하여 사용자의 보행 동작을 인식할 수도 있다. 즉, 동작감지부(200)는 사용자의 보행공간을 3차원의 입체적 혹은 멀티뷰로 감지할 수 있다. 사용자 인식 보행 동작 측정 시스템(10)은 동작감지부(200)가 측정 및 수집한 사용자의 보행 동작, 사용자의 위치 및 공간 정보를 이용하여 사용자에게 최적화되고 생동감 있는 입체적인 보행 인터페이스를 제공하고 정밀한 사용자의 보행 동작 인식을 가능케 한다. 상기 카메라는 3차원 영상을 생성하기 위한 좌영상 및 우영상을 촬영하는 카메라일 수 있으며, 복수의 카메라를 이용하여 멀티뷰를 구현할 수 있다. 또한, 뎁쓰 카메라의 뎁쓰값이나 3차원 영상에서 좌우영상의 시차에 대한 데이터를 추출하여, 오브젝트와의 거리를 환산하는데 이용할 수 있다.
예를 들어 동작감지부(200)는 인식범위 내의 인체를 향해 적외선을 송출하고, 인체로부터 반사되는 적외선 신호를 감지하여 인체의 중요 관절 부위를 복수 개의 점으로 표시할 수 있다. 이에 따라 인체의 움직임, 속도 및 위치 등을 인식할 수 있다. 또한, 동작감지부(200)는 인식범위 내에 여러 사람이 위치하는 경우 가장 가까운 거리에 있는 사람을 인식하는 등의 방법으로 한 명의 사람을 분리할 수 있고, 여러 사람을 각각 별개로 분리하여 인식할 수 있다.
이러한 동작감지부(200)는 모션 캡쳐(Motion Capture) 또는 음성 인식이 가능한 장치에 의해 될 수 있다. 예를 들어, 컴퓨테이셔널 카메라(Computational Camera)일 수 있다. 컴퓨테이셔널 카메라는, 피사체의 반사광이 렌즈를 통해 투과된 카메라 암상자에서 이미지를 얻는 방식인 전통적 카메라 방식에서 한 단계 더 나아가 렌즈를 통해 들어오는 피사체의 이미지에 연산을 통해, 이미지를 재가공하여 정보가 포함된 이미지를 만들어 내는 카메라이다. 이러한 컴퓨테이셔널 카메라 중 3D 뎁쓰(Depth) 인식카메라가 있으며 인식거리에 따라 제스쳐 인식, 장애물 인식, 3D 스캔등에 사용될 수 있다.
동작감지부(200)에서 생성한 동작 감지 정보는 동작감지부(200)가 감지한 사용자의 동작 및 위치를 나타내기 위한 디지털 데이터일 수 있으며, 상기 동작 감지 정보는 사용자의 중요 관절 부위를 표현한 복수 개의 점들의 위치 정보, 미리 지정된 사용자의 신체 부위 정보 및 깊이(Depth) 정보를 포함할 수 있다.
화상출력부(100)는 사용자가 위치하는 공간으로 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상(G)을 투사할 수 있다. 화상출력부(100)는 프로젝터부(110) 및 반사부(120)를 포함할 수 있다. 이러한 화상출력부(100)는 낮은 천장과 같이 충분한 투사거리가 확보되지 않는 장소에서도 영상을 충분히 확대하여 투사할 수 있고, 높이의 변화에도 같은 위치에 보행 동작을 유도하는 보행 가이드 화상(G)을 투사할 수 있다.
프로젝터부(110)는 실감형 인터랙티브 콘텐츠에 기반한 보행 프로그램을 수행하기 위한 가상의 오브젝트(보행 가이드 화상(G))을 반사부(120)로 투사할 수 있다. 프로젝트부(110)는 HDMI, RGB, BNC, Wireless HD 등 다양한 방식의 유무선 인터페이스와 호환될 수 있다. 프로젝터부(110)의 위치 및 투사 각도는 보행 프로그램의 종류에 따라 투사되는 보행 가이드 화상(G)의 크기와 위치를 조정할 수 있도록 다양하게 변경될 수 있다. 이를테면, 프로젝터부(110)는 레일이나 브라켓 등을 통해 상하좌우 이동 및 360도 회전이 가능할 수 있다.
반사부(120)는 프로젝터부(110)로부터 투사된 보행 가이드 화상(G)을 사용자의 보행공간의 지면으로 반사 시킬 수 있다. 반사부(120)는 실시예에 따라 평면거울, 볼록거울, 오목거울 또는 비정형 거울 중의 어느 하나로 형성될 수 있으며, 보행 프로그램의 종류와 특징에 따라 프로젝터부(110)에서 보행 가이드 화상(G)이 투사될 바닥면까지의 투사거리를 조절함으로써 보행공간의 크기를 조절할 수 있다. 예를 들어, 반사부(120)가 평면거울로 구현되는 경우에는 프로젝터부(110)에서 바닥면에 바로 투사될 때보다 프로젝터부(110)에서 상기 평면거울 사이의 거리의 2배만큼 투사거리가 늘어나는 효과를 얻을 수 있다. 또한, 반사부(120)가 볼록거울로 구현되는 경우에는 프로젝터부(110)에서 바닥면에 바로 투사될 때보다 프로젝터부(110)에서 상기 볼록거울 사이의 거리와 볼록거울의 배율에 따른 거리만큼 투사거리가 늘어나는 효과를 얻을 수 있다. 또한, 반사부(120)가 오목거울로 구현되는 경우에는 프로젝터부(110)에서 바닥면에 바로 투사될 때보다 투사거리는 짧아지지만 프로젝터부(110)에서 투사되는 빛을 집중시켜 밝은 곳에서도 선명한 영상을 얻을 수 있는 효과가 있다. 또한, 반사부(120)가 비정형거울로 구현되는 경우에는 투사거리를 늘려 확대된 증강된 가상 운동공간을 확보할 수 있고, 거울에 반사되어 바닥면에 투사되는 각도가 수직이 아니어서 발생할 수 있는 화면의 왜곡을 보정할 수도 있다. 일례로서, 반사부(120)는 투사되는 거리에 따른 영상의 왜곡이 발생하지 않도록 일반거울보다 반사계수가 높은 도료를 아크릴이나 플라스틱에 도포하여 사용할 수 있다.
또한, 반사부(120)는 상하좌우로 이동하거나 회전이 가능하여 전후 또는 좌우로 반사되는 각도를 조절할 수 있다. 일례로서, 반사부(120)는 레일이나 브라켓 등을 통해 상하좌우 이동 및 360도 회전이 가능할 수 있다. 이를 통해 사용자 인식 보행 동작 측정 시스템(10)의 설치 이후에도 보행하고자 하는 주변환경에 따라 보행 가이드 화상(G)이 투사되는 위치를 다양하게 변경할 수 있다.
한편, 도 1에는 반사부(120)가 하나의 반사거울로 형성되는 것이 도시되어 있으나 이는 하나의 예시로서, 반사부(120)는 복수 개의 반사 거울을 구비하여 상기 반사거울 간에 보행 가이드 화상(G)을 반사하도록 배치하여, 프로젝터부(110)와 지면 사이의 투사 거리를 더욱 길게 확장할 수 있다. 일례로서, 프로젝터부(110)를 사용자 인식 컨텐츠 제공 시스템(10)의 아랫부분에 설치하고 중간에 몇 개의 반사거울을 지그재그로 설치한 후 천정에 설치된 반사 거울을 통해서 최종적으로 바닥면에 투사하도록 구성될 수 있다.
또한, 화상출력부(100)는 복수 개의 프로젝터부(110)를 포함할 수도 있다. 이 경우 여러 개의 화면을 각각 다른 반사부(120)를 통해서 출력하여, 서로 오버랩되어 출력되거나 인접하여 출력되도록 하는 영상효과를 만들어낼 수 있다.
한편, 다른 실시예로서 화상출력부(100)는 반사부(120)가 생략되어 프로젝터부(110)에서 투사된 보행 가이드 화상(G)이 바닥면으로 바로 투사될 수 있다.
동작판단부(300)는 동작감지부(200)로부터 사용자의 동작 감지 정보를 수신하여 상기 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단할 수 있다. 동작 감지 정보는 상술한 것처럼, 주요 관절 부위의 위치 및 움직임 정보, 어깨, 머리, 가슴, 무릎, 발, 손과 같은 미리 지정된 신체 부위의 위치 및 움직임 정보일 수 있다.
미리 설정된 조건은 보행 동작 시 나타나는 사용자의 동작 조건 또는 사용자가 내딛는 발의 위치일 수 있다. 예컨대, 보행 동작 시 나타나는 사용자의 동작 조건은 사용자의 한 무릎이 일정 높이 이상 올라오는 것, 지면에 투사되는 가상의 오브젝트 위치에 사용자의 발이 위치하는 것일 수 있다. 여기서 일정 높이는 설정된 값이며, 일례로 무릎의 위치가 10cm 이상 높이로 올라가면 설정 조건에 부합이라고 동작판단부(300)는 부합이라고 판단할 수 있다. 또한, 지면에 투사되는 보행 가이드 화상(G)을 따라 사용자가 보행 동작을 한다면, 사용자가 다음 발을 내딛어야 하는 지점에 실제 발을 내딛는 것이 설정 조건일 수 있다. 이 경우, 동작감지부(200)가 사용자가 다음 발을 내딛어야 하는 지점의 위치 또는 영역내에 사용자의 발을 감지하면, 동작판단부(300)는 부합이라고 판단할 수 있다.
동작판단부(300)가 부합이라고 판단하면, 보행 프로그램에 따라 설정된 다음 소정의 이벤트가 실행될 수 있다. 일례로, 보행 가이드 화상(G)은 사용자가 보행 동작 전에 모든 화상이 투사될 수도 있고, 사용자의 걸음에 따라 보행 가이드 화상(G)이 나타나거나 강조될 수도 있다. 이 경우, 사용자가 보행 중이고, 상술한 사용자가 발을 내딛어야 하는 지점에 발을 내딛어 동작판단부(300)가 부합이라고 판단하면, 화상출력부(100)는 사용자가 다음에 내딛어야 하는 지점(다음 발을 내딛어야 하는 투사된 가상의 오브젝트)을 투사하거나 강조하는 이벤트를 실행할 수 있다.
즉, 보행 동작 측정 시퀀스는 조건판단부(300)가 수신되는 보행 감지 정보가 설정된 조건에 따라 부합이라고 판단하면 진행될 수 있으며, 조건판단부(300)가 부합이라고 판단하지 않으면 다음의 이벤트는 발생하지 않는 것일 수 있다.
디스플레이부(400)는 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시할 수 있다. 여기서 콘텐츠 화면은 사용자가 보행 프로그램을 실행 시키기 위한 인터페이스 화면일 수 있고, 보행 프로그램에서 사용자가 따라할 예시동작 및 지시문구일 수도 있다. 또한, 디스플레이부(400)는 동작감지부(200)가 감지한 사용자의 동작을 출력할 수 있고, 보행 중 사용자의 위치나 방향 변화에 따른 움직임 및 사용자가 운동한 결과에 대한 정보를 실시간으로 출력할 수 있다.
도 3은 본 발명의 일 실시예에 따른 지면에 보행 가이드 화상(G)이 투사되는 것을 나타낸 도면이다.
도 3을 참조하면, 지면에 투사되는 보행 가이드 화상(G)은 사용자의 출발 지점(G0), 보행 가이드 지점(G1, G2), 사용자가 동작으로 선택할 수 있는 메뉴 인터페이스(I1), 실행 시간을 측정하는 인터페이스(I2)를 포함할 수 있다. 여기서 보행 가이드 화상(G)은 출발 전에 모든 화상이 출력될 수 있거나 사용자의 보행하는 위치에 따라 단계적으로 출력될 수도 있다. 사용자가 출발 지점(G0)에서 서 있으면, 동작감지부(200)가 사용자의 위치를 감지하고, 감지된 사용자의 위치가 투사된 출발 지점(G0) 영역의 위치와 일치한다면 동작판단부(300)는 사용자가 출발 동작 조건에 부합하는 동작을 했다고 판단할 수 있다.
투사되는 오브젝트(G0, G1, G2, I1)는 소정의 면적을 가지는 영역으로 출력된다. 사용자 인식 보행 동작 측정 시스템(10)은 투사되는 오브젝트(G0, G1, G2, I1)의 경계점들의 위치를 이용해 투사된 오브젝트(G0, G1, G2, I1)의 영역을 시스템(10) 상에서 확정할 수 있다. 동작감지부(200)는 사용자의 발의 위치를 측정할 수 있고, 확정된 오브젝트 영역(G0, G1, G2, I1) 내에 사용자의 발의 위치가 측정되면 동작판단부(300)는 사용자가 투사된 오브젝트(G0, G1, G2, I1)에 걸음을 내딛었거나, 사용자가 투사된 오브젝트를 밟았다고 판단할 수 있다.
투사되는 보행 가이드 화상이 동시에 투사되는 것이 아니라 단계적으로 투사되는 것인 경우, 동작판단부(300)가 사용자가 첫번째 오브젝트(G1)을 밟았다고 판단한 상태에서 사용자의 반대편 무릎이 일정 높이 이상 올라가는 것을 동작감지부(200)가 감지하면, 상기 사용자의 반대편 무릎이 일정 높이 이상 올라가는 동작 감지 정보를 수신한 동작판단부(300)는 사용자가 첫번째 오브젝트(G1)에 발을 디딘 상태에서 두번째 오브젝트(G2)를 향해 보행을 하는 상태의 조건으로 판단할 수 있다. 이 경우, 화상출력부(100)는 두번째 오브젝트(G2)를 투사하거나, 투사되어 있는 상태이면 두번째 오브젝트(G2)를 강조할 수 있는 동작을 할 수 있다.
사용자가 출발 조건을 만족하여 투사되는 보행 가이드 화상(G1, G2)을 따라 보행을 하면, 동작감지부(200)는 사용자가 보행 중 내딛는 발의 위치를 측정하고 기록할 수 있다. 또한, 동작감지부(200)는 상술했듯이 사용자의 지정된 신체부위의 위치를 측정할 수 있다. 지정된 신체부위는 발의 위치일 수도 있지만, 사용자의 가슴중심 또는 머리 중심일 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자의 머리 중심(P1, P2, P3) 위치를 측정한 것을 나타낸 것이다. 사람에 따라 보행 자세는 다를 수 있다. 바른 자세로 일직선으로 보행하는 사람이 있을 수 있고, 올바르지 않는 자세로 지그재그로 보행하는 사람이 있을 수도 있다. 또한, 하체는 일직선으로 가되, 상체 움직임이 좌우로 흔들리며 보행하는 사람도 있을 수 있다. 이러한 다양한 올바르지 않은 보행 자세의 측정을 위해 보행 중 발현되는 상체 밸런스를 측정할 수 있다. 도 4를 참조하면, 동작감지부(200)는 상체 밸런스 측정을 위해서 보행하는 사용자의 머리 중심 위치(P1, P2, P3)를 측정할 수 있다. 후술할 통계산출부는 측정된 머리 중심 위치(P1, P2. P3) 추적하여 생성한 추적선(TL)과 보행 가이드 화상(G1)의 중심선(GL)과 비교할 수 있도록 하여 사용자로 하여금 보행 상체 밸런스를 인지할 수 있게 할 수 있다.
또한, 추적선(TL)과 보행 가이드 화상(G1)의 중심선(GL)과의 수직 이격 거리를 측정할 수 있으며, 측정된 이격 거리는 후술할 통계산출부가 사용자의 상체 밸런스 통계 산출에 이용될 수 있다.
도 5는 본 발명의 일 실시예에 따른 사용자의 보행 동작의 통계를 나타내는 화면을 도시한 도면이다.
도 5를 참조하면, 사용자 인식 보행 동작 측정 시스템(10)은 사용자가 내딛는 발의 위치와 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함할 수 있다.
통계산출부는 보행 동작 측정이 완료되면, 측정한 보행 동작 기록을 기초로 하여, 보행 동작 결과 화면(R1)을 나타낼 수 있다. 보행 동작 결과 화면(R1)에는 사용자의 보행 동작 밸런스를 스코어로 나타날 수 있다. 스코어는 결과 데이터에 따라 보행 밸런스를 0점 내지 100점으로 환산하여 나타낼 수 있다. 또한, 사용자가 보행 동작을 제한시간 내에 완료하지 못하였을 경우, 스코어가 0점으로 나타날 수 있다.
통계산출부는 환산된 보행 밸런스 점수를 기초로 통계 그래프를 나타낼 수 있다. 예를 들면, 통계 그래프는 평균 점수를 기준으로 하여 점수별 분포 곡선을 나타낼 수 있다. 여기서 보행 밸런스의 스코어 환산 가중치 또는 그래프 환산 가중치는 하나의 예시일 뿐이며, 이에 한정되지는 않는다.
보행 동작 결과 화면(R1)은 하체 밸런스 기록(R2)과 상체 밸런스 기록(R3)을 포함할 수 있다. 하체 밸런스 기록(R2)는 투사된 보행 가이드 화상의 중심선과 사용자가 보행 중 밟은 지면의 위치(즉, 내딛은 발의 위치)의 흔적을 함께 나타날 수 있다. 이 경우, 사용자가 보행 중 자신의 하체 밸런스에 어떤 문제점이 있는지 직접 확인할 수 있다.
상체 밸런스 기록(R3)는 하체 밸런스 기록(R2)와 같이 투사된 보행 가이드 화상의 중심선과 사용자가 보행 중 상체의 중심 흔적을 함께 나타날 수 있다. 이 경우, 사용자가 보행 중 자신의 상체 밸런스에 어떤 문제점이 있는지 직접 확인할 수 있다.
이와 달리, 보행 동작 결과 화면(R1)은 발의 위치 기록(R2)과, 보행 가이드 화상과의 이격거리 기록(R3)을 포함할 수도 있다.
도 6은 본 발명의 일 실시예에 따른 하체 밸런스 기록의 이격 거리를 나타낸 도면이다.
도 6을 참조하면, 기록된 발자국 흔적이 보행 가이드 화상의 중심선에서 수직으로 벗어난 이격 거리가 측정될 수 있다. 통계산출부는 이격 거리에 기초하여 보행 밸런스 점수를 산출할 수 있다. 예를 들어 모든 발자국 흔적이 이격 거리를 측정하고, 이격 거리가 1cm 늘어날수록 2점씩 차감할 수 있다. 각각의 이격 거리를 합하여 총 50cm 이상 되면 보행 밸런스 점수를 0점으로 처리할 수 있다.
도 7 내지 도 8은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템의 사용 상태를 나타낸 도면이다.
도 7 내지 도 8을 참조하면, 화상출력부(100)는 사용자의 동작을 통해 메뉴 선택이 가능한 인터페이스 화면을 출력할 수 있다. 사용자가 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 사용자 인식 보행 동작 측정 시스템(10)는 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다. 즉, 동작감지부(200)가 사용자의 동작을 인식하여 사용자가 어느 한쪽 다리의 무릎을 굽힌 상태를 제1 선택시간 동안 유지하는 경우, 사용자 인식 보행 동작 측정 시스템(10)는 인터페이스 화면상에서 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다. 일례로서, 상기 제1 선택시간은 2초로 설정될 수 있다.
다른 실시예로서, 상기 사용자가 인터페이스 화면상에 두 발을 올리고 양 무릎을 굽히는 경우, 상기 제1 선택시간을 상기 사용자가 상기 인터페이스 화면상에 한쪽 발을 올리고 무릎을 굽힌 경우의 제1 선택시간보다 짧게 설정할 수 있다. 일례로서, 이 경우의 제1 선택시간은 1.7초로 설정될 수 있다. 본 발명의 일실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)과 관련하여, 사용자가 무릎을 굽혀서 인터페이스 화면상의 특정 버튼을 선택하는 것을 "빠른 선택"과 같은 용어로 정의할 수 있고, 상기 제1 선택시간은 "빠른 선택시간”과 같은 용어로 정의할 수 있다.
다른 실시예로서, 사용자 인식 보행 동작 측정 시스템(10)는 상기 사용자가 인터페이스 화면상에 발을 올려놓은 후 상기 사용자의 무릎이 굽혀지면, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다.
또한, 다른 실시예로서, 사용자 인식 보행 동작 측정 시스템(10)는 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하고, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생 시킬 수 있다. 즉, 동작감지부(200)가 사용자의 동작을 인식하여 사용자가 어느 한쪽 다리의 무릎을 굽혔다가 펴는 경우, 사용자 인식 보행 동작 측정 시스템(10)는 인터페이스 화면상에서 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다.
도 9 내지 도 12는 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법을 나타내는 순서도이다. 도 6 내지 9에 도시된 사용자 인식 보행 동작 측정 방법은 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 시스템(10)에 의해 수행될 수 있다.
사용자 인식 보행 동작 측정 시스템(10)을 설명하면서 서술한 내용과 공통된 것은 생략한다.
도 9를 참조하면, 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은, 화상출력부(100)가 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 투사 단계(S900), 동작감지부(200)가 보행 가이드 화상에 대응한 사용자의 보행 동작 및 사용자의 신체 부위의 위치를 감지하는 감지 단계(S910) 및 동작판단부(300)가 동작감지부(200)로부터 사용자의 동작 감지 정보를 수신하여 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계(S920)를 포함할 수 있다.
도 9에 도시된 투사 단계(S900), 감지 단계(S910) 및 판단 단계(S920)가 포함된 사용자 인식 보행 동작 측정 방법은 일반적으로 보행을 측정하는 방법인 제3자가 관찰하거나 보행 기구를 사용하여 보행을 측정하는 방법과 차별점을 가질 수 있다. 보행 기구를 사용하여 보행을 측정하는 방법은 측정 데이터 면에서 장점이 있을 수 있으나, 전문적인 기관에서만 사용하므로 일반인들이 사용하기에 어려운 면이 있다. 제3자가 관찰하는 방법은 관찰자에 따라, 관찰자의 컨디션에 따라 부정확한 관찰기록이 도출되므로 측정 신뢰도가 낮다.
하지만, 도 9의 사용자 인식 보행 동작 측정 방법은, 일반적인 가상의 보행 가이드 화상을 투사하므로, 유도되는 보행 동작을 사용자가 눈으로 직접 볼 수 있으므로, 측정 방법의 사용자의 이해가 손쉬울 수 있다. 또한, 보행 가이드 화상은 직선, S자, 원형 등 다양한 변형이 쉽게 이루어질 수 있어 보행 프로그램을 제시할 수 있고, 각 보행 프로그램 마다 사용자의 보행 측정 목적에 특화된 사용자 맞춤형 보행 측정이 가능하다. 특히, 보행 동작 및 위치 감지는 전문적인 기관에서만 제공했던 세밀한 분석 결과를 기관의 도움 없이 사용자가 직접 확인할 수 있다.
도 10을 참조하면, 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은 통계산출부 사용자가 내딛는 발의 위치와 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계(S1030)을 포함할 수 있다.
이 때, 감지 단계(S1010)에서는, 동작감지부(200)가 사용자의 보행 가이드 화상에 대응하여 사용자가 동작하면, 사용자가 내딛는 발의 위치를 측정하여 기록할 수 있다. 사용자는 보행 가이드 화상의 중심선과 동작감지부(200)가 측정 및 기록한 발의 흔적을 확인하여 자신의 보행 자세가 어떤 문제가 있는지 확인할 수 있다.
도 11을 참조하면 본 발명의 다른 실시예에 따른 사용자의 인식 보행 동작 측정 방법은 통계산출부가 사용자의 신체 부위와 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계(S1130)을 포함할 수 있다.
이 때, 감지 단계(S1110)에서는, 동작감지부(200)가 사용자의 보행 가이드 화상에 대응하여 사용자가 동작하면, 사용자의 지정된 신체 부위의 위치를 측정할 수 있다. 여기서 신체 부위는 상술한 것처럼, 상체 밸런스를 측정할 수 있는 부위로 예컨대, 머리중심, 가슴중심일 수 있다. 통계산출부는 기록된 신체 부위의 중심 위치의 흔적과 보행 가이드 화상의 중심선을 나타내어 사용자가 보행 중 상체 밸런스의 현황을 확인할 수 있도록 할 수 있다.
도 12를 참조하면, 본 발명의 일 실시예에 따른 사용자 인식 보행 동작 측정 방법은 디스플레이부(400)가 사용자에게 안내를 위한 콘텐츠 화면을 표시하는 단계(S1200)을 포함할 수 있다. 여기서 콘텐츠 화면은 사용자가 따라할 예시동작 및 지시문구일 수 있다.
다음으로, 화상출력부(100)가 사용자의 동작을 통해 선택이 가능한 인터페이스 화면을 투사하는 단계(S1210)을 포함할 수 있다. 사용자는 투사된 인터페이스 화면에 대응하여 동작을 통해 인터페이스 화면의 메뉴를 선택할 수 있다.
보행 동작 측정 메뉴가 선택되면, 보행 가이드 화상을 투사하는 투사 단계(S1230)로 이어질 수 있다. 사용자는 보행 가이드 화상이 투사되면, 디스플레이부(400)에 출력되는 예시동작 및 지시문구를 보며, 보행을 시작할 수 있다.
보행이 시작되면, 동작감지부(200)가 사용자의 보행을 측정 및 감지하여 동작판단부(300)로 동작 감지 정보를 송신할 수 있고, 동작판단부(300)는 수신한 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계(S1240)가 수행될 수 있다.
동작판단부(300)가 수신한 동작 감지 정보가 미리 설정된 조건에 부합한다고 판단하면, 화상출력부(100)는 다음의 이벤트에 따른 보행 가이드 화상을 투사할 수 있다.
예를 들면, 보행 가이드 화상에 따라 사용자의 무릎의 위치가 일정 높이, 예컨대 10cm 이상 올라가면, 사용자 인식 보행 동작 시스템(10)은 사용자가 보행 동작 중이라고 판단하고, 현재 발을 딛고 있는 위치의 다음 발을 딛을 지점에 보행 가이드 화상을 투사하거나, 미리 투사된 보행 가이드 화상을 강조할 수 있다.
동작판단부(300)는 동작 조건에 부합되지 않고 종료 조건에 부합된다면, 수행 중인 보행 프로그램을 종료(S1260)하고, 통계산출부가 보행 측정 통계를 디스플레이부(400)로 출력하게 할 수 있다.
한편, 도 9 내지 도 12에 도시된 단계들의 순서는 예시적인 것으로서 본 발명의 효과를 상실하지 않는 범위에서 그 순서가 다양하게 변경될 수 있고, 실시예에 따라 특정 단계가 생략될 수도 있다.
본 명세서에 기재된 다양한 실시예들은 하드웨어, 미들웨어, 마이크로코드, 소프트웨어 및/또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 실시예들은 하나 이상의 주문형 반도체(ASIC)들, 디지털 신호 프로세서(DSP)들, 디지털 신호 프로세싱 디바이스(DSPD)들, 프로그램어블 논리 디바이스(PLD)들, 필드 프로그램어블 게이트 어레이(FPGA)들, 프로세서들, 컨트롤러들, 마이크로컨트롤러들, 마이크로프로세서들, 여기서 제시되는 기능들을 수행하도록 설계되는 다른 전자 유닛들 또는 이들의 조합 내에서 구현될 수 있다.
또한, 예를 들어, 다양한 실시예들은 명령들을 포함하는 컴퓨터-판독가능한 매체에 수록되거나 인코딩될 수 있다. 컴퓨터-판독가능한 매체에 수록 또는 인코딩된 명령들은 프로그램 가능한 프로세서 또는 다른 프로세서로 하여금 예컨대, 명령들이 실행될 때 방법을 수행하게끔 할 수 있다. 컴퓨터-판독가능한 매체는 컴퓨터 저장 매체 및 하나의 장소로부터 다른 장소로 컴퓨터 프로그램의 이송을 용이하게 하는 임의의 매체를 포함하는 통신 매체 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 예를 들어, 이러한 컴퓨터-판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광학디스크 저장 매체, 자기 디스크 저장 매체 또는 기타 자기 저장 디바이스 또는 원하는 프로그램 코드를 컴퓨터에 의해 액세스가능한 명령들 또는 데이터 구조들의 형태로 반송하거나 저장하는데 이용될 수 있는 임의의 다른 매체를 포함할 수 있다.
이러한 하드웨어, 소프트웨어, 펌웨어 등은 본 명세서에 기술된 다양한 동작들 및 기능들을 지원하도록 동일한 디바이스 내에서 또는 개별 디바이스들 내에서 구현될 수 있다. 추가적으로, 본 발명에서 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.
특정한 순서로 동작들이 도면에 도시되어 있지만, 이러한 동작들이 원하는 결과를 달성하기 위해 도시된 특정한 순서, 또는 순차적인 순서로 수행되거나, 또는 모든 도시된 동작이 수행되어야 할 필요가 있는 것으로 이해되지 말아야 한다. 임의의 환경에서는, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 상술한 실시예에서 다양한 구성요소들의 구분은 모든 실시예에서 이러한 구분을 필요로 하는 것으로 이해되어서는 안되며, 기술된 구성요소들이 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있다는 것이 이해되어야 한다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.
100: 화상출력부
200: 동작감지부
300: 동작판단부
400: 디스플레이부

Claims (19)

  1. 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 화상출력부;
    상기 보행 가이드 화상에 대응한 상기 사용자의 발의 위치 및 머리 위치를 포함하는 상기 사용자의 보행 동작을 감지하는 동작감지부;
    상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 동작판단부; 및
    상기 보행 가이드 화상의 중심선과 상기 발의 위치를 통한 상기 사용자의 하체 밸런스 기록, 및 상기 보행 가이드 화상의 중심선과 상기 머리 위치를 통한 상기 사용자의 상체 밸런스 기록을 산출하는 통계산출부;를 포함하는 것인 사용자 인식 보행 동작 측정 시스템.
  2. 제1항에 있어서,
    상기 보행 가이드 화상은 상기 사용자가 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선인 것인 사용자 인식 보행 동작 측정 시스템.
  3. 제2항에 있어서,
    상기 동작판단부는,
    상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식하는 것인 사용자 인식 보행 동작 측정 시스템.
  4. 제1항에 있어서,
    상기 동작감지부는,
    상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정하는 것인 사용자 인식 보행 동작 측정 시스템.
  5. 제4항에 있어서,
    상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 통계산출부를 포함하는 것인 사용자 인식 보행 동작 측정 시스템.
  6. 삭제
  7. 제1항에 있어서,
    상기 통계 산출부는,
    상기 하체 밸런스 기록과 상기 상체 밸런스 기록에 대한 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 것인 사용자 인식 보행 동작 측정 시스템.
  8. 제1항에 있어서,
    상기 화상출력부는,
    상기 동작판단부가 상기 사용자의 발이 내딛는 중이라고 판단하면, 다음 걸음을 위한 다음 보행 가이드 화상이 투사하는 것인 사용자 인식 보행 동작 측정 시스템.
  9. 제8항에 있어서,
    상기 동작판단부는,
    상기 사용자의 한 무릎이 일정 높이만큼 올라가면 상기 사용자가 발을 내딛는 중이라고 판단하는 것인 사용자 인식 보행 동작 측정 시스템.
  10. 제1항에 있어서,
    상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 디스플레이부를 더 포함하는 것인 사용자 인식 보행 동작 측정 시스템.
  11. 제10항에 있어서,
    상기 디스플레이부는 상기 사용자가 따라할 예시동작 및 지시문구를 출력하고,
    상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도하는 것인 사용자 인식 보행 동작 측정 시스템.
  12. 제1항에 있어서,
    상기 화상출력부는,
    상기 사용자의 동작을 통해 메뉴 선택이 가능한 인터페이스 화면을 출력하는 것인 사용자 인식 보행 동작 측정 시스템.
  13. 화상출력부가 사용자의 보행 동작을 유도하는 가상의 보행 가이드 화상을 투사하는 투사 단계;
    동작감지부가 상기 보행 가이드 화상에 대응한 상기 사용자의 발의 위치 및 머리 위치를 포함하는 상기 사용자의 보행 동작을 감지하는 감지 단계;
    동작판단부가 상기 동작감지부로부터 상기 사용자의 동작 감지 정보를 수신하여 상기 사용자의 동작 감지 정보가 미리 설정된 조건에 부합하는지 판단하는 판단 단계; 및
    통계산출부가 상기 보행 가이드 화상의 중심선과 상기 발의 위치를 통한 상기 사용자의 하체 밸런스 기록, 및 상기 보행 가이드 화상의 중심선과 상기 머리 위치를 통한 상기 사용자의 상체 밸런스 기록을 산출하는 단계를 포함하는 것인 사용자 인식 보행 동작 측정 방법.
  14. 제13항에 있어서,
    상기 보행 가이드 화상은 발을 딛는 위치를 나타내는 오브젝트 또는 상기 사용자가 걸어가는 방향을 나타내는 안내선인 것인 사용자 인식 보행 동작 측정 방법.
  15. 제14항에 있어서,
    상기 오브젝트의 영역에 상기 사용자의 발이 위치하면, 상기 사용자가 상기 오브젝트를 밟은 것으로 인식하는 것인 사용자 인식 보행 동작 측정 방법.
  16. 제13항에 있어서,
    상기 통계산출부가 상기 사용자가 내딛는 발의 위치와 상기 보행 가이드 화상의 위치와의 이격 거리에 기초하여 산출된 통계치, 통계 그래프 또는 상기 사용자의 실제 보행 기록 중 하나 이상을 출력하는 단계를 포함하고,
    상기 감지 단계는,
    상기 동작감지부가 상기 사용자가 상기 보행 가이드 화상에 대응하여 상기 사용자가 동작할 때, 상기 사용자가 내딛는 발의 위치를 측정하는 것인 사용자 인식 보행 동작 측정 방법.
  17. 삭제
  18. 제13항에 있어서,
    디스플레이부가 상기 사용자에게 안내를 하기 위한 콘텐츠 화면을 표시하는 단계를 포함하고,
    상기 콘텐츠 화면은 상기 사용자가 따라할 예시동작 및 지시문구를 출력하며, 상기 화상출력부는 상기 사용자가 상기 예시동작을 할 지점을 투사하여 상기 사용자의 동작을 유도하는 것인 사용자 인식 보행 동작 측정 방법.
  19. 제13항에 있어서,
    상기 화상출력부가 상기 사용자의 동작을 통해 선택이 가능한 인터페이스 화면을 투사하는 단계를 포함하는 것인 사용자 인식 보행 동작 측정 방법.
KR1020180055277A 2018-05-15 2018-05-15 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법 KR102125254B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180055277A KR102125254B1 (ko) 2018-05-15 2018-05-15 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180055277A KR102125254B1 (ko) 2018-05-15 2018-05-15 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법

Publications (2)

Publication Number Publication Date
KR20190130761A KR20190130761A (ko) 2019-11-25
KR102125254B1 true KR102125254B1 (ko) 2020-06-22

Family

ID=68730573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180055277A KR102125254B1 (ko) 2018-05-15 2018-05-15 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법

Country Status (1)

Country Link
KR (1) KR102125254B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102374649B1 (ko) * 2019-12-30 2022-03-16 (주)유비텍 개인 맞춤형 IoT 의료 시스템
US20220280834A1 (en) * 2021-03-05 2022-09-08 John S. Keeney Agility ladder projection systems, devices, and methods
KR102584715B1 (ko) 2021-05-03 2023-10-06 원광대학교산학협력단 경근 활성도 평가 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018050989A (ja) * 2016-09-29 2018-04-05 パラマウントベッド株式会社 リハビリテーション支援装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638819B1 (ko) * 2014-08-25 2016-07-14 주식회사 웨어러블헬스케어 보행 교정 유도 시스템 및 그 제어 방법
KR101661700B1 (ko) 2015-11-23 2016-10-04 주식회사 지오아이티 보행분석 트레드밀
KR101860753B1 (ko) * 2016-06-13 2018-05-24 (주)블루클라우드 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018050989A (ja) * 2016-09-29 2018-04-05 パラマウントベッド株式会社 リハビリテーション支援装置

Also Published As

Publication number Publication date
KR20190130761A (ko) 2019-11-25

Similar Documents

Publication Publication Date Title
JP5579014B2 (ja) 映像情報処理装置および方法
US8282481B2 (en) System and method for cyber training of martial art on network
WO2012039467A1 (ja) 運動支援システム
KR102125254B1 (ko) 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
JP2019141620A (ja) 三次元物体上の注視点決定方法及び装置
KR101860753B1 (ko) 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법
JP6074494B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
KR102099316B1 (ko) 헬스케어를 위한 증강현실 디스플레이 장치 및 이를 이용한 헬스케어 시스템
JP6045139B2 (ja) 映像生成装置、映像生成方法及びプログラム
US20190220659A1 (en) Information processing apparatus, information processing method, and storage medium
JP5624625B2 (ja) 運動支援システム
JP5400077B2 (ja) 運動支援システム
CN109731292A (zh) 一种基于虚拟现实技术的平衡能力测试与训练系统及方法
KR101985438B1 (ko) 신체 능력의 측정 및 증진을 위한 스마트 기기
US20190318645A1 (en) Measurement device
US20160029938A1 (en) Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium
JP4985531B2 (ja) ミラーシステム
JP2010266510A (ja) ミラーシステム
KR101504103B1 (ko) 깊이맵 센서를 이용한 3차원 캐릭터 가상공간 내비게이션 동작 합성 및 제어 방법
KR102184972B1 (ko) 동공 중심간 거리를 측정하는 장치 및 방법
CN109166257A (zh) 一种购物车商品核验方法及其装置
KR20150073754A (ko) 동작 훈련 장치 및 동작 훈련 방법
JP6975001B2 (ja) 傾き測定装置及び傾き測定方法
JP5552010B2 (ja) 可動域訓練システム
JP2009169109A (ja) ミラーシステム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant