KR101638819B1 - 보행 교정 유도 시스템 및 그 제어 방법 - Google Patents

보행 교정 유도 시스템 및 그 제어 방법 Download PDF

Info

Publication number
KR101638819B1
KR101638819B1 KR1020140110560A KR20140110560A KR101638819B1 KR 101638819 B1 KR101638819 B1 KR 101638819B1 KR 1020140110560 A KR1020140110560 A KR 1020140110560A KR 20140110560 A KR20140110560 A KR 20140110560A KR 101638819 B1 KR101638819 B1 KR 101638819B1
Authority
KR
South Korea
Prior art keywords
walking
information
user
state information
current
Prior art date
Application number
KR1020140110560A
Other languages
English (en)
Other versions
KR20160024124A (ko
Inventor
양효실
손량희
심우영
Original Assignee
주식회사 웨어러블헬스케어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨어러블헬스케어 filed Critical 주식회사 웨어러블헬스케어
Priority to KR1020140110560A priority Critical patent/KR101638819B1/ko
Priority to US15/503,869 priority patent/US20170273616A1/en
Priority to PCT/KR2015/008494 priority patent/WO2016024829A1/ko
Publication of KR20160024124A publication Critical patent/KR20160024124A/ko
Application granted granted Critical
Publication of KR101638819B1 publication Critical patent/KR101638819B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F5/00Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Nursing (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Vascular Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Rehabilitation Tools (AREA)

Abstract

보행 교정 시 사용자에게서 재미를 부가하여 보행 교정 효과를 향상시킬 수 있는 보행 교정 유도 시스템 및 그 제어 방법이 제공된다.
보행 교정 유도 시스템의 제어 방법의 일 실시예는 사용자 정보에 기초하여 기준 보행 상태 정보를 획득하는 단계, 보행 감지 장치로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득하는 단계, 상기 기준 보행 상태 정보 및 상기 현재 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하는 단계, 및 상기 모니터링 화면을 출력하는 단계를 포함할 수 있다.

Description

보행 교정 유도 시스템 및 그 제어 방법{Gait correction system and control method for the same}
본 발명은 보행 교정 유도 시스템 및 그 제어 방법에 관한 것이다. 더욱 상세하게는 보행 교정 시 사용자에게서 재미를 유도하여 보행 교정 유도 효과를 향상시킬 수 있는 보행 교정 유도 시스템 및 그 제어 방법에 관한 것이다.
인간의 보행 동작을 살펴보면, 한쪽 다리로 체중을 지지하는 지지 동작과, 체중이 지지되는 동안 반대쪽 다리를 이동하는 스윙 동작이 번갈아 나타난다.
지지 동작과 스윙 동작을 반복하며 보행할 때 올바른 보행 자세로 보행하는 것이 중요하다. 외족지 보행 또는 내족지 보행 등과 같이, 올바르지 못한 보행 자세는 보행 시 불필요한 에너지 소비를 발생시키고, 신체 관절 특히 무릎 관절 및 발목 관절에 무리를 줄 수 있으며, 신체 전반에 걸친 자세와 골격의 변형을 가져오기 때문이다.
이처럼 무릎 관절 및 발목 관절에 무리가 가게 되면, 퇴행성 관절염이나 척추 질환에 노출될 가능성이 높아진다. 따라서, 이러한 질병들을 예방하고 자세의 변형을 막기 위해서는 잘못된 보행 자세의 교정을 유도할 필요성이 있다. 나아가서 신체 자세의 개선에 따른 아름답고 바른 자세로의 보정효과와 미용적 효과를 가져올 필요성이 있다.
한국공개특허공보 제10-2008-0102466호 (발명의 명칭: 운동, 균형 및 보행측정방법 및 치료시스템, 공개일: 2008.11.26)
본 발명이 해결하고자 하는 과제는 보행 교정 시 사용자에게서 재미를 부가하여 보행 교정 유도 효과를 향상시킬 수 있는 보행 교정 유도 시스템 및 그 제어 방법에 관한 것이다.
상술한 과제를 해결하기 위하여 보행 교정 시스템의 제어 방법의 일 실시 예는 사용자 정보에 기초하여 기준 보행 상태 정보를 획득하는 단계, 보행 감지 장치로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득하는 단계, 상기 기준 보행 상태 정보 및 상기 현재 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하는 단계, 및 상기 모니터링 화면을 출력하는 단계를 포함할 수 있다.
상기 사용자 정보는 사용자로부터 입력받은 정보 또는, 상기 사용자를 촬영한 영상을 분석하여 인식된 정보, 또는 다양한 데이터 베이스로부터 전송받거나 획득한 정보일 수 있다.
상기 사용자 정보는 상기 사용자의 몸무게, 키, 나이 및 다리 길이 중 적어도 하나를 포함하며, 상기 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이 및 무릎 관절에서 발목 관절까지의 길이를 포함할 수 있다.
상기 기준 보행 상태 정보는 상기 사용자 정보 및 연산식을 이용하여 산출되거나 상기 사용자 정보에 기초하여 표준 데이터 베이스에서 검색될 수 있다.
상기 보행 감지 장치는 사용자의 하지에 착용되거나 신발에 부착될 수 있다.
상기 모니터링 화면은 2차원 영상, 3차원 영상, 실사 영상, 또는 이들의 조합에 기초하여 구성될 수 있다.
상기 모니터링 화면을 구성하는 단계는 상기 기준 보행 상태 정보를 나타내는 오브젝트들와 상기 현재 보행 상태 정보를 나타내는 오브젝트들을 배치하는 단계, 상기 현재 보행 상태 정보를 나타내는 오브젝트에 강조 효과를 적용하는 단계, 상기 현재 보행 상태 정보에 따른 보행 점수와 상기 보행 점수에 따른 보상 시스템을 적용하는 단계, 및 모니터링 정보를 표시하는 단계를 포함하며, 상기 모니터링 정보는 현재까지의 보행 거리, 현재까지의 신체 운동량, 보행 정확도에 따라 부여된 현재까지의상기 보행 점수, 상기 보상 시스템 및 하지 관절의 움직임 정보 중 적어도 하나를 포함할 수 있다.
상기 모니터링 화면은 사용자의 위치, 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상 및 음악을 각각 배경화면 및 배경음악 등으로 하여 구성될 수 있다.
상기 오브젝트들을 배치하는 단계는 영상 획득부를 통해 실사 영상을 획득하는 단계, 및 상기 실사 영상에서 검출된 보행로에 맞추어 상기 오브젝트들을 배치하는 단계를 포함할 수 있다.
사용자의 보행이 완료된 경우, 보행 분석 정보를 포함하는 보행 분석 결과 화면을 출력하는 단계를 더 포함하되, 상기 보행 분석 정보는 스텝 별 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수 중 적어도 하나를 포함할 수 있다.
상기 분석 정보에 위치정보 또는 지도정보가 추가적으로 조합되어 사용자의 이동경로 및 위치에 따른 다양한 컨텐츠와 복합적으로 작동하여 다양한 가상현실, 증간현실 구현을 포함할 수 있다.
사용자의 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면이 실시간으로 출력되고, 다양한 이펙트와 포인트 획득 등의 적용을 통하여 사용자에게서 재미를 부가할 수 있으며, 보행 교정에 적극적으로 참여하도록할 수 있다.
도 1은 일 실시 예에 따른 보행 교정 유도 시스템의 구성을 도시한 도면이다.
도 2는 도 1의 감지 장치가 신발에 부착된 모습과 출력 장치의 외형 및 출력 장치의 외형을 예시한 도면이다.
도 3은 건강한 사람의 보행 중 평균 발목 관절의 내/외전 각의 범위를 나이 별로 도시한 도면이다.
도 4는 일 실시 예에 따른 보행 감지 장치의 구성을 도시한 도면이다.
도 5는 일 실시 예에 따른 출력 장치의 구성을 도시한 도면이다.
도 6은 도 5의 제어부의 구성을 도시한 도면이다.
도 7은 사용자 정보 입력 화면을 예시한 도면이다.
도 8a 내지 도 8c는 일 실시 예에 따른 강조 효과가 적용된 모니터링 화면들을 예시한 도면들로서, 올바른 보행 유도를 위한 사용자의 정상 보행을 인식하기 위한 사용자 보행 인식 초기화 화면과 실제 걸음걸이 모니터링 데이터가 겹쳐진 모니터링 화면들을 예시한 도면들이다.
도 9a 및 도 9b는 다른 실시 예에 따른 강조 효과가 적용된 모니터링 화면들을 예시한 도면들이다.
도 10은 증강현실 기반의 모니터링 화면을 예시한 도면이다.
도 11은 보행 분석 결과 화면을 예시한 도면이다.
도 12는 일 실시 예에 따른 보행 교정 유도 시스템의 제어 방법 중 출력 장치측에서 이루어지는 제어 방법을 도시한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시 예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다.
도 1은 일 실시 예에 따른 보행 교정 유도 시스템(1)의 구성을 도시한 도면이다.
도 1을 참조하면, 일 실시 예에 따른 보행 교정 유도 시스템(1)은 보행 감지 장치(100) 및 출력 장치(200)를 포함할 수 있다.
보행 감지 장치(100)는 사용자의 보행을 감지할 수 있다. 이를 위해 보행 감지 장치(100)는 하지 중 발등, 발목 안쪽, 발목 바깥쪽, 발목 뒤쪽에 대응되는 위치 중 한 곳에 배치될 수 있다. 또는 예시된 위치들 중에서 둘 이상의 위치에 배치될 수도 있다.
일 실시 예에 따르면, 보행 감지 장치(100)는 도 2에 도시된 바와 같이, 사용자의 신발에 배치될 수 있다. 이 때, 보행 감지 장치(100)는 신발에 탈착(脫着) 가능하도록 구현될 수 있다. 일 예로, 보행 감지 장치(100)의 몸체(미도시)에는 결합 돌기(미도시)가 배치될 수 있다. 그리고 신발에는 결합 홈(미도시)이 배치될 수 있다. 이 경우, 보행 감지 장치(100)의 몸체에 배치된 결합 돌기와 신발에 배치된 결합 돌기를 결합시킴으로써, 보행 감지 장치(100)를 신발에 결합시킬 수 있다. 다른 예로, 보행 감지 장치(100)의 몸체와 신발에는 각각 벨크로(Velcro)가 배치될 수 있다. 이 경우, 보행 감지 장치(100)의 몸체에 배치된 벨크로와 신발에 배치된 벨크로를 접촉시킴으로써, 보행 감지 장치(100)를 신발에 접착시킬 수 있다. 또 다른 예로, 보행 감지 장치(100)의 몸체에 집개가 배치될 수 있다. 사용자는 이 집개를 이용하여 신발의 소정 위치에 보행 감지 장치(100)를 결합시킬 수 있다.
다른 실시 예에 따르면, 보행 감지 장치(100)는 사용자의 하지에 배치될 수 있다. 이 때, 보행 감지 장치(100)는 사용자의 하지에 착용될 수 있도록 구현될 수 있다. 예를 들어, 보행 감지 장치(100)는 사용자의 발목에 착용될 수 있도록 밴드나 벨트 등의 고정 수단을 더 포함할 수 있다. 이 때, 밴드나 벨트는 착용이 용이하도록 신축성 있는 소재로 만들어질 수 있다.
이처럼 사용자의 하지나 신발에 부착된 보행 감지 장치(100)는 사용자가 보행하는 경우, 보행을 감지하여 보행 신호를 출력한다. 보행 감지 장치(100)에서 출력된 보행 신호는 유선 통신 방식 또는 무선 통신 방식에 따라 출력 장치(200)로 전송된다. 이하의 설명에서는 보행 신호가 무선 통신 방식에 따라 출력 장치(200)로 전송되는 경우를 예로 들어 설명하기로 한다.
한편, 보행 감지 장치(100)와 후술될 출력 장치(200) 간에는 페어링(paring) 과정이 수행될 수 있다. 페어링 과정은 보행 감지 장치(100)의 기기 정보를 출력 장치(200)에 등록하고, 출력 장치(200)의 기기 정보를 보행 감지 장치(100)에 등록하는 과정이다. 페어링 과정이 완료되면, 페어링 과정이 완료된 기기 간에만 데이터가 송수신되므로, 기기 간에 송수신되는 데이터에 대한 보안성을 향상시킬 수 있다. 그러나 보행 감지 장치(100)와 출력 장치(200) 간에 반드시 페어링 과정이 수행되어야 하는 것은 아니며, 페어링 과정은 생략될 수도 있음은 물론이다. 보행 감지 장치(100)의 구성에 대한 보다 구체적인 설명은 도 4를 참조하여 후술하기로 한다.
다시 도 1을 참조하면, 출력 장치(200)는 보행 감지 장치(100)의 보행 신호로부터 사용자의 현재 보행 상태 정보를 획득하고, 사용자 정보에 기초하여 기준 보행 상태 정보를 획득할 수 있다. 사용자 정보는 사용자의 이름, 성별, 나이, 사용자의 키, 몸무게, 및 다리 길이 중 적어도 하나를 포함할 수 있다. 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이(이하, 'L1'이라 한다) 및 무릎 관절에서 발목 관절까지의 길이(이하, 'L2'라 한다)를 예로 들 수 있다. 이러한 사용자 정보는 사용자에 의해 입력되거나, 사용자의 전신 또는 하지 사진 등으로부터 이미지 인식 프로그램 등을 사용하여 임의로 추출될 수 있다. 외부 장치(미도시)나 온/오프라인의 데이터 베이스(DB) 예를 들어, 병원 서버로부터 수신될 수 있다.
일 실시 예에 따르면, 출력 장치(200)는 상술한 사용자 정보와 기 저장된 연산식을 이용하여 기준 보행 상태 정보를 산출할 수 있다. 다른 실시 예에 따르면, 출력 장치(200)는 사용자 정보에 대응하는 기준 보행 상태 정보를 표준 데이터 베이스에서 검색할 수 있다. 표준 데이터 베이스란 모델, 군인, 어린이, 성인, 노인 등과 같이 다양한 피험자군의 평균 보행 동작을 분석한 결과를 저장하고 있는 데이터 베이스를 의미한다. 또 다른 실시 예에 따르면, 출력 장치(200)는 기준 보행 상태 정보 중 일부는 연산식을 이용하여 획득하고, 나머지는 표준 데이터 베이스를 검색하여 획득할 수도 있다.
한편, 기준 보행 상태 정보는 사용자의 보행 자세 교정을 유도하는데 기준이 되는 정보를 말하는 것으로, 정적 보행 정보(static gait information), 동적 보행 정보(dynamic gait information) 및 시공간 보행 정보(spatio-temporal gait information)를 예로 들 수 있다.
정적 보행 정보는 사용자의 정적 보행(static gait)과 관련된 정보를 말한다. 정적 보행이란 사용자의 무게 중심의 이동이 작고 속도가 느린 보행 방법을 말한다.
동적 보행 정보는 사용자의 동적 보행(dynamic gait)과 관련된 정보를 말한다. 동적 보행이란 직진 시 인체의 무게 중심의 위치가 발에서 떠나 스스로 균형을 깨고 앞으로 넘어지듯이 걷는 보행 방법을 말한다.
시공간 보행 정보로는 보행 속도(gait velocity), 보폭(stride length), 보폭 시간(stride time), 지지 시간(stance time), 스윙 시간(swing time) 및 보행 각도를 예로 들 수 있다. 여기서, 각 용어에 대하여 간단히 설명하면 다음과 같다.
한쪽 발꿈치가 땅에 닿는 시기(heel strike)에서 반대쪽 발뒤꿈치가 땅에 닿는 시기까지의 동작을 보(步) 또는 한 발짝(step)이라고 하는데, 앞에 위치한 발의 뒤꿈치에서 뒤에 위치한 발의 뒤꿈치까지의 수평 거리를 보장(step length) 또는 보폭이라 하며, 요하는 시간을 보 시간(step time)이라 한다.
그리고 한쪽 발뒤꿈치가 땅에 닿는 시기(heel strike)에서부터 같은 쪽 발뒤꿈치가 땅에 닿는 시기까지의 동작을 활보(闊步) 또는 한 걸음(stride)이라고 하는데, 양 발 사이의 앞뒤 거리를 활보장(stride length)이라 하고, 양 발 사이의 좌우 거리를 활보격 또는 양발 너비(stride width)라 한다. 그리고 보행 진행 방향과 발의 장축 방향이 이루는 각도를 발목 각도(foot angle) 또는 보행 각도(angle of gait)라 한다. 이하의 설명에서는 보폭, 보폭 시간, 양발 너비 및 보행 각도를 각각 '기준 보폭', '기준 보폭 시간', '기준 양발 너비' 및 '기준 보행 각도'라 칭하기로 한다.
기준 보폭은 엉덩이 관절에서 무릎 관절까지의 길이(L1) 및 무릎 관절에서 발목 관절까지의 길이(L2)를 연산식에 대입하여 산출될 수 있다. 기준 보폭을 산출하기 위한 연산식은 공지된 기술이므로, 이에 대한 설명은 생략하기로 한다.
기준 보행 각도는 나이에 따라 다르게 나타날 수 있다. 기준 보행 각도는 여러 명의 건강한 사람들에 대한 보행 데이터를 획득한 다음, 이를 분석하여 얻을 수 있다. 도 3은 건강한 사람의 보행 중 평균 발목 관절의 내/외전 각의 범위를 나이 별로 나타낸 것이다. 도 3을 참조하면, 건강한 사람의 보행 중 평균 발목 관절의 내/외전 각은 0°~15°의 범위에 속하는 것을 알 수 있다. 따라서, 예시된 범위와 사용자의 보행 각도를 비교하여, 사용자의 보행이 외족지 보행(toe-out gait)에 해당하는지, 내족지 보행(toe-in gait)에 해당하는지를 판단할 수 있다.
다시 도 1을 참조하면, 출력 장치(200)는 보행 감지 장치(100)로부터 수신한 보행 신호에 기초하여 사용자의 현재 보행 상태 정보를 획득할 수 있다. 현재 보행 상태 정보로는 현재 보폭, 현재 보행 각도, 현재 보행 속도, 보행 거리 및 보행에 따른 신체 운동량 및 보행 패턴 정보를 예로 들 수 있다.
일 실시 예에 따르면, 출력 장치(200)는 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하고, 구성된 모니터링 화면을 출력할 수 있다. 상기 모니터링 화면은 보행 상태 모니터링 프로그램이나 보행 교정을 유도하는 프로그램 또는 게임이 실행되는 동안에 제공되는 화면일 수 있다. 보행 상태 모니터링 프로그램이나 보행 교정을 유도하는 게임은 사용자로부터 실행 명령이 입력된 경우에 실행되거나, 감지 장치(100)로부터 보행 신호가 수신된 경우에 자동으로 실행될 수 있다.
출력 장치(200)는 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 시각적 신호뿐만 아니라, 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합으로 출력할 수 있다. 이를 위해 출력 장치(200)는 영상 출력부, 음향 출력부, 진동 출력부, 광 출력부, 향기 출력부, 미각 출력부, 또는 이들의 조합을 포함할 수 있다.
상술한 바와 같은 출력 장치(200)는 유무선 통신 장치를 포함할 수 있다. 유무선 통신 장치로는 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 왑폰(WAP phone: Wireless application protocol phone), 스마트폰(Smart phone), 스마트패드 및 모바일 게임기(mobile play-station) 등의 이동 단말기를 예로 들 수 있다. 예시된 바와 같은 출력 장치(200)는 사용자의 신체 일부 예를 들어, 머리, 손목, 손가락, 팔, 또는 허리에 착용될 수 있는 착용형 장치일 수 있다. 출력 장치(200)의 구성에 대한 보다 구체적인 설명은 도 5 및 도 6을 참조하여 후술하기로 한다.
도 4는 일 실시 예에 따른 보행 감지 장치(100)의 구성을 도시한 도면이다.
도 4를 참조하면, 일 실시 예에 따른 보행 감지 장치(100)는 버튼부(110), 감지부(120), 제어부(130), 통신부(140), 및 전원 공급부(150)를 포함할 수 있다.
버튼부(110)는 적어도 하나의 버튼을 포함할 수 있다. 예를 들어, 버튼부(110)는 보행 감지 장치(100) 내의 각 구성요소들로 전원을 공급하기 위한 전원 버튼을 포함할 수 있다. 이러한 전원 버튼은 예를 들어, 온/오프 버튼으로 구현될 수 있다. 도 4는 보행 감지 장치(100)가 버튼부(110)를 포함하는 경우를 도시하였지만, 버튼부(110)가 반드시 구비되어야 하는 것은 아니며, 경우에 따라 생략될 수도 있다.
감지부(120)는 사용자가 보행하는 경우, 사용자의 보행을 감지하여, 보행 신호를 출력할 수 있다. 이를 위해 감지부(120)는 복수의 센서를 포함할 수 있다. 예를 들어, 감지부(120)는 3축 가속도 센서(3-axis accelerometer), 3축 자이로 센서(3-axis gyroscope), 3축 지자기 센서(3-axis magnetometer) 및 지자기 이미징 센서(magnetometer)를 포함할 수 있다.
3축 가속도 센서는 x, y, z축 방향의 가속도를 감지할 수 있다. 3축 가속도 센서에서 감지된 신호는 현재 보행 상태 정보 예를 들어, 현재 보행 속도 및 보행 거리를 산출하는데 사용될 수 있다.
3축 자이로 센서는 x, y, z축에 대한 각속도(roll, pitch, yaw)를 감지할 수 있다. 3축 자이로 센서에서 감지된 신호는 현재 보행 상태 정보 예를 들어, 현재 보행 각도를 산출하는데 사용될 수 있다.
3축 지자기 센서와 지자기 이미징 센서는 x, y, z축에 대한 기울기를 감지할 수 있다. 3축 지자기 센서 및 지자기 이미징 센서에서 감지된 신호는 현재 보행 상태 정보 예를 들어, 현재 보행 각도를 산출하는데 사용될 수 있다.
제어부(130)는 보행 감지 장치(100) 내의 각 구성요소들을 연결하고 제어할 수 있다. 일 예로, 제어부(130)는 버튼부(110)에 마련된 전원 버튼의 온/오프를 감지할 수 있다. 감지결과 전원 버튼이 온된 경우, 제어부(130)는 출력 장치(200)와 페어링 과정이 이루어지도록 각 구성요소들을 제어할 수 있다. 다른 예로, 제어부(130)는 감지부(120)에 의해 감지된 신호를 처리할 수 있다. 구체적으로, 제어부(130)는 감지부(120)에 의해 감지된 신호를 증폭하고, 증폭된 신호에서 노이즈를 제거할 수 있다. 그리고 노이즈가 제거된 아날로그 신호를 디지털 신호로 변환할 수 있다. 이를 위해 제어부(130)는 도면에 도시되지는 않았으나, 증폭부, 필터부, 및 A/D 변환부 중 적어도 하나를 포함할 수 있다.
통신부(140)는 출력 장치(200)와 데이터 및/또는 제어신호를 송수신할 수 있다. 예를 들면, 통신부(140)는 보행 감지 장치(100)와 출력 장치(200) 간의 페어링(paring) 과정에 필요한 데이터 및/또는 제어신호를 송수신할 수 있다. 다른 예로, 통신부(140)는 보행 감지 장치(100)의 제어부(130)에 의해 처리된 보행 신호를 출력 장치(200)로 전송할 수 있다. 이 때, 통신부(140)와 출력 장치(200) 간에 송수신되는 데이터, 제어신호 및/또는 보행 신호는 유선 통신 방식 또는 무선 통신 방식에 따라 송수신될 수 있다. 무선 통신 방식으로는 와이파이(WiFi), 블루투스(Bluetooth), 지그비(ZigBee), 및 울트라와이드밴드(Ultrawideband)를 예로 들 수 있다.
전원 공급부(150)는 보행 감지 장치(100)의 각 구성요소들로 전원을 공급할 수 있다. 전원 공급부(150)는 버튼부(110)의 전원 버튼이 온(on)된 경우, 보행 감지 장치(100)의 각 구성요소들로 전원을 공급할 수 있다. 이러한 전원 공급부(150)는 예를 들어, 배터리를 포함할 수 있다. 일 예로, 행 감지 장치(100)와 물리적으로 분리 가능하도록 구현될 수 있다. 다른 예로, 배터리는 보행 감지 장치(100)와 하드웨어적으로 일체형으로 구현될 수도 있다. 이 경우, 배터리는 무선전력전송 기술에 따라 공급되는 전력에 의해 충전될 수 있다.
도 5는 일 실시 예에 따른 출력 장치(200)의 구성을 도시한 도면이다.
도 5를 참조하면, 일 실시 예에 따른 출력 장치(200)는 입력부(210), 출력부(220), 제어부(230), 통신부(240), 저장부(250) 및 영상 획득부(260)를 포함할 수 있다.
입력부(210)는 사용자로부터 사용자 정보나 명령을 입력받을 수 있다. 사용자 정보로는 사용자의 이름, 성별, 나이, 사용자의 키, 몸무게, 및 다리 길이를 예로 들 수 있다. 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이(L1), 및 무릎 관절에서 발목 관절까지의 길이(L2)를 포함할 수 있다. 입력부(210)는 입력 수단 예를 들어, 마우스, 키보드, 조이스틱, 터치패드, 터치 스크린(touchscreen), 또는 이들의 조합을 포함할 수 있다. 이 때, 키보드는 하드웨어적으로 구현될 수도 있고, 소프트웨어적으로 구현될 수도 있다. 이러한 입력부(210)는 도 5에 도시된 바와 같이, 출력 장치(200)에 배치될 수도 있고, 출력 장치(200)와 유선 통신 및/또는 무선 통신이 가능한 별도의 장치에 배치될 수도 있다. 예를 들면, 입력부(210)는 리모트 컨트롤러에 배치될 수 있다.
출력부(220)는 명령 처리 결과를 시각적 신호, 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합으로 출력할 수 있다. 이를 위해 출력부(220)는 도면에 도시되지는 않았으나, 영상 출력부, 음향 출력부, 진동 출력부, 광 출력부, 향기 출력부, 미각 출력부, 또는 이들의 조합을 포함할 수 있다.
영상 출력부로는 평판 디스플레이, 플렉서블 디스플레이 및 마이크로 디스플레이를 예로 들 수 있다. 평판 디스플레이나 플렉서블 디스플레이는 불투명한 디스플레이일 수도 있고, 투명한 디스플레이일 수도 있다. 마이크로 디스플레이는 광학계를 이용한 디스플레이로, 헤드 마운트 디스플레이(Head Mounted Display, HMD)에 배치될 수 있다. 이러한 영상 출력부는 출력 기능만을 가질 수도 있고, 입력 기능 및 출력 기능을 모두 가질 수도 있다. 예를 들어, 영상 출력부가 터치 스크린으로 구현되는 경우, 영상 출력부는 입력 기능과 출력 기능을 모두 갖는 것으로 볼 수 있다.
음향 출력부로는 스피커를 예로 들 수 있다. 광 출력부로는 발광다이오드(Light Emitting Diode; LED)를 예로 들 수 있다. 향기 출력부는 특정 향을 함유한 물질을 포함하는 복수의 카트리지와, 각 카트리지에 포함된 물질을 조합하여 외부로 살포하는 공기 압축기를 포함할 수 있다. 미각 출력부는 특정 맛을 함유한 물질을 포함하는 복수의 카트리지와, 각 카트리지에 포함된 물질을 조합하여 외부로 살포하는 공기 압축기를 포함할 수 있다.
상술한 바와 같은 출력부(220)는 현재 보행 상태 정보와 기준 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 표시할 수 있다. 상기 모니터링 화면은 보행 상태 모니터링 프로그램이나 보행 교정을 유도하는 게임의 실행 중에 제공되는 화면일 수 있다. 모니터링 화면은 2차원 영상, 3차원 영상, 실사 영상, 또는 이들의 조합으로 이루어질 수 있다. 모니터링 영상의 종류는 사전에 설정된 설정 값에 따라 결정될 수 있다. 설정 값은 사용자에 의해 변경 가능하도록 구현될 수 있다. 모니터링 화면에 대한 보다 구체적인 설명은 도 7 내지 도 11을 참조하여 후술하기로 한다.
통신부(240)는 보행 감지 장치(100)와 데이터 및/또는 제어신호를 송수신할 수 있다. 예를 들면, 통신부(240)는 보행 감지 장치(100)와 출력 장치(200) 간의 페어링 과정에 필요한 데이터 및/또는 제어신호를 송수신할 수 있다. 다른 예로, 통신부(240)는 보행 감지 장치(100)로부터 보행 신호를 수신할 수 있다. 수신된 보행 신호는 후술될 제어부(230)로 제공될 수 있다. 통신부(240)와 보행 감지 장치 간(100)에 송수신되는 데이터, 제어신호 및/또는 보행 신호는 유선 통신 방식 또는 무선 통신 방식에 따라 송수신될 수 있다.
영상 획득부(260)는 영상을 획득할 수 있다. 예를 들어, 영상 획득부(260)는 사용자의 모습을 촬영한 영상 및 사용자의 전방을 촬영한 영상을 획득할 수 있다. 이를 위해 영상 획득부(260)는 하나 이상의 카메라를 포함할 수 있다. 영상 획득부(260)에서 획득된 영상은 후술될 제어부(230)로 제공될 수 있다.
저장부(250)는 출력 장치(200)가 동작하는데 필요한 데이터나 알고리즘을 저장할 수 있다. 예를 들면, 저장부(250)는 보행 상태 모니터링 프로그램, 영상 획득부(260)에 의해 획득된 영상에서 사람이나 보행로를 검출하는데 필요한 데이터나 알고리즘, 사용자 정보를 이용하여 기준 보행 상태 정보를 산출하는데 필요한 연산식, 감지 장치(100)로부터 수신한 보행 신호에서 현재 보행 상태 정보를 산출하는데 필요한 연산식, 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도를 산출하는데 필요한 연산식을 저장할 수 있다. 또한 저장부(250)는 모니터링 화면을 구성하는데 필요한 그래픽 데이터 등을 저장할 수 있다. 이러한 저장부(250)는 휘발성 메모리, 비휘발성 메모리, 하드디스크드라이브, 광디스크드라이브, 또는 이들의 조합을 포함할 수 있다.
제어부(230)는 사용자 정보에 기초하여 기준 보행 상태 정보를 획득할 수 있으며, 감지 장치(100)로부터 수신한 보행 신호로부터 현재 보행 상태 정보를 획득할 수 있다. 또한, 제어부(230)는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 비교 결과가 시각적 신호, 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합으로 출력되도록 출력 장치(200)의 각 구성요소들을 제어할 수 있다. 여기서, 제어부(230)에 대한 보다 구체적인 설명을 위해 도 6을 참조하기로 한다.
도 6은 도 5의 제어부(230)의 구성을 도시한 도면이다.
도 6을 참조하면, 제어부(230)는 영상 분석부(231), 기준 보행 상태 정보 획득부(232), 현재 보행 상태 정보 획득부(233), 계산부(234) 및 화면 구성부(235)를 포함할 수 있다.
영상 분석부(231)는 영상을 입력받을 수 있다. 상기 영상은 영상 획득부(260)에 의해 획득된 영상이거나 외부 장치로부터 수신된 영상일 수 있다. 영상 분석부(231)는 입력받은 영상을 분석하여, 사용자 정보나 보행로를 인식할 수 있다. 예를 들면, 사람의 키, 다리 길이, 체중 등을 검출할 수 있다. 검출된 정보는 기준 보행 상태 정보 획득부(232)로 제공될 수 있다. 만약, 영상에서 보행로가 검출된 경우, 검출된 정보는 화면 구성부(235)로 제공될 수 있다.
기준 보행 상태 정보 획득부(232)는 입력부(210)를 통해 입력된 사용자 정보 및/또는 영상 분석부(231)에 의해 검출된 사용자 정보에 기초하여, 기준 보행 상태 정보를 획득할 수 있다. 예를 들어, 기준 보행 상태 정보 획득부(232)는 사용자 정보와 기 저장된 연산식을 이용하여 기준 보행 상태 정보를 산출할 수 있다. 다른 예로, 기준 보행 상태 정보 획득부(232)는 사용자 정보에 대응하는 기준 보행 상태 정보를 표준 데이터 베이스에서 검색할 수 있다. 예시된 방식으로 획득될 수 있는 기준 보행 상태 정보로는 기준 보폭, 기준 보행 각도, 기준 보행 속도, 기준 보행 거리 및 기준 신체 운동량을 예로 들 수 있다. 획득된 기준 보행 상태 정보는 후술될 계산부(234) 및 화면 구성부(235)로 각각 제공된다.
현재 보행 상태 정보 획득부(233)는 보행 감지 장치(100)로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득할 수 있다. 예를 들어, 현재 보폭, 현재 보행 각도, 현재 보행 속도, 현재까지의 보행 거리 및 현재까지의 신체 운동량 중 적어도 하나를 획득할 수 있다. 산출된 현재 보행 상태 정보는 후술될 계산부(234) 및 화면 구성부(235)로 각각 제공된다.
계산부(234)는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도를 산출할 수 있다. 예를 들어, 제어부(230)는 기준 보폭과 현재 보폭 간의 유사도를 산출할 수 있으며, 기준 보행 각도와 현재 보행 각도 간의 유사도를 산출할 수 있다. 이 후, 계산부(234)는 산출된 유사도에 따라 점수를 계산할 수 있다. 초기 프로그램 또는 게임의 실행시 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도를 산출한 후에는 계산부(234)의 부하를 최소화하여 전력소모를 최소화함으로써, 출력 장치(200)의 사용시간을 최대화한다. 이를 위해 정상보행 정보에 해당되는 보행 패턴 데이터의 범위를 설정하고, 이 설정 범위를 벗어나는 보행이 감지될 경우에만, 데이터를 취득 및 저장함으로써 데이터 저장 공간 사용을 최소화하고 최적으로 사용한다. 전력의 공급 및 데이터 저장 공간이 충분한 경우에는 사용자 설정 및 상황에 따라 데이터 취득 범위, 데이터 저장의 빈도 및 감도 레벨 중 적어도 하나를 수동 또는 자동으로 조절할 수 있다.
만약 기준 보폭과 현재 보폭의 유사도가 0~100%로 표현된다면, 해당 범위는 10개의 레벨로 나누어질 수 있다. 기준 보폭과 현재 보폭 간의 유사도가 높을수록 높은 레벨에 해당한다고 한다면, 레벨이 높아질수록 높은 점수를 부여하는 방식이 사용될 수 있다. 예를 들어, 기준 보폭과 현재 보폭의 유사도가 0~10% 사이의 값을 갖는다면, 계산부(234)는 두 값의 유사도가 레벨1에 해당하는 것으로 판단할 수 있으며, 현재 보폭에 대해 1점을 부여할 수 있다. 만약, 기준 보폭과 현재 보폭의 유사도가 11~20% 사이의 값을 갖는다면, 계산부(234)는 두 값의 유사도가 레벨2에 해당하는 것으로 판단할 수 있으며, 현재 보폭에 대해 2점을 부여할 수 있다.
이와 마찬가지로, 기준 보행 각도와 현재 보행 각도 간의 유사도가 0~100%로 표현된다면, 해당 범위는 10개의 레벨로 나누어질 수 있다. 기준 보행 각도와 현재 보행 각도 간의 유사도가 높을수록 높은 레벨에 해당한다고 한다면, 레벨이 높아질수록 높은 점수를 부여하는 방식이 사용될 수 있다. 예를 들어, 기준 보행 각도와 현재 보행 각도의 유사도가 11~20% 사이의 값을 갖는다면, 제어부(230)는 두 값의 유사도가 레벨2에 해당하는 것으로 판단할 수 있으며, 현재 보행 각도에 대해 2점을 부여할 수 있다.
상술한 바와 같이, 계산부(234)는 현재 보폭 및 현재 보행 각도에 각각 대해 점수를 부여한 다음, 부여된 점수들을 합산할 수 있다. 일 실시 예에 따르면, 계산부(234)는 현재 보폭 및 현재 보행 각도에 각각 부여된 점수를 단순히 합산할 수 있다. 다른 실시 예에 따르면, 계산부(234)는 현재 보폭 및 현재 보행 각도에 각각 부여된 점수의 가중치 합을 계산할 수 있다. 예를 들면, 계산부(234)는 현재 보폭에 대한 점수에 비해 현재 보행 각도에 대한 점수에 더 높은 가중치를 적용한 후, 합산할 수 있다. 합산된 점수 정보는 후술될 화면 구성부(235)로 제공될 수 있다.
이상의 실시 예에서는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도에 비례하여 점수를 계산하는 경우를 예로 들어 설명하였다. 그러나 점수를 계산하는 방식은 이것으로 한정되는 것은 아니다. 다른 실시 예에 따르면, 기준 보행 상태 정보와 현재 보행 상태 정보가 서로 일치하는 경우에는 점수를 부여하고, 두 정보가 서로 일치하지 않는 경우에는 점수를 차감하는 방식이 사용될 수도 있다. 이러한 방식으로 계산된 점수 정보는 후술될 화면 구성부(235)로 제공된다.
화면 구성부(235)는 영상 분석부(231), 기준 보행 상태 정보 획득부(232), 현재 보행 상태 정보 획득부(233) 및 계산부(234) 중 적어도 하나에서 제공된 데이터에 기초하여, 보행 상태를 모니터링할 수 있는 모니터링 화면을 구성할 수 있다. 구체적으로, 화면 구성부(235)는 2차원 영상, 3차원 영상, 실사 영상, 또는 이들을 조합하여 모니터링 화면을 구성할 수 있다. 구성된 모니터링 화면은 출력부(220)의 영상 출력부를 통해 표시될 수 있다.
다음으로, 도 7 내지 도 11을 참조하여 모니터링 화면에 대해서 설명하기로 한다.
보행 상태 모니터링 프로그램이 실행되면, 도 7에 도시된 바와 같이, 사용자 정보를 입력받기 위한 화면이 영상 출력부를 통해 표시된다.
도 7을 참조하면, 화면의 상단에는 사용자 정보를 입력받기 위한 복수의 입력란이 배치될 수 있다. 예를 들면, 다리 길이, 나이, 키, 및 몸무게를 입력받기 위한 복수의 입력란이 배치될 수 있다. 여기서 다리 길이와 관련해서는 엉덩이 관절에서 무릎 관절까지의 길이(L1)를 입력하는 입력란과 무릎 관절에서 발목 관절까지의 길이(L2)를 입력하는 입력란이 배치될 수 있다. 도 7은 다리 길이와 관련하여 2개의 입력란이 배치된 경우를 도시하고 있지만, 왼쪽 다리의 L1 및 L2, 오른쪽 다리의 L1 및 L2를 구분하여 입력할 수 있도록, 다리 길이와 관련하여 총 4개의 입력란이 배치될 수도 있다.
도 7을 참조하면, 화면의 하단에는 엉덩이 관절에서 무릎 관절까지의 길이(L1) 및 무릎 관절에서 발목 관절까지의 길이(L2)를 설명하는 그림이 표시될 수 있다. 다른 실시예에 따르면, 해당 L1 및 L2 측정 방법을 설명하는 텍스트로 대체될 수도 있다.
사용자 정보는 수동으로 입력받거나 자동으로 입력받을 수 있다. 사용자 정보를 수동으로 입력받을 것인지, 자동으로 입력받을 것인지는 사용자가 사전에 설정할 수 있다. 사용자 정보 입력 모드가 수동 입력 모드로 설정된 경우에는 도 7과 같이, 각 입력란이 공란으로 표시된 화면이 영상 표시부를 통해 표시된다. 사용자 정보 입력 모드가 자동 입력 모드로 설정된 경우에는 도 7의 화면을 표시하기에 앞서, 영상 분석이 선행될 수 있다. 예를 들어, 사용자를 촬영한 영상을 분석하여 사람을 검출한 다음, 검출 결과에 기초하여 다리 길이, 키, 몸무게 등의 사용자 정보를 인식할 수 있다. 이처럼 사용자 정보가 인식되면, 도 7의 나이 입력란을 제외한 각 입력란에는 인식된 정보가 표시될 수 있다. 이 후, 사용자는 나이 입력란에 나이를 입력하여, 사용자 정보 입력을 완료할 수 있다.
사용자 정보 입력이 완료되면, 입력 받은 사용자 정보에 기초하여 기준 보행 상태 정보가 획득된다. 기준 보행 상태 정보는 사용자 정보와 연산식을 이용하여 산출되거나, 사용자 정보를 기초로 표준 데이터 베이스를 검색함으로써 획득될 수 있다.
기준 보행 상태 정보가 획득되면, 기준 보행 상태 정보를 포함하는 모니터링 화면이 구성되어, 영상 출력부를 통해 표시된다. 모니터링 화면은 2차원 영상, 3차원 영상, 실사 영상, 또는 이들을 조합한 영상일 수 있다. 모니터링 화면의 종류는 사용자에 의해 사전에 설정될 수 있다. 설정된 값은 보행 상태 모니터링 중에 변경 가능하도록 구현될 수 있다. 모니터링 화면의 종류가 2차원 영상으로 설정된 경우에는 도 8a 내지 도 8c에 도시된 화면들이 영상 출력부를 통해 표시될 수 있다.
도 8a 내지 도 8c는 2차원 영상을 포함하는 모니터링 화면들을 도시한 도면이다. 구체적으로, 도 8a는 사용자의 보행이 시작되기 전에 사용자의 정상 보행 정보를 획득하기 위해 표시되는 사용자 보행 인식 초기화 화면이다. 도 8b는 보행 시작 시에 표시되는 모니터링 화면이다. 그리고 도 8c는 보행 중에 표시되는 모니터링 화면이다.
도 8a를 참조하면, 모니터링 화면의 중앙에는 기준 보행 상태 정보를 나타내는 GUI 오브젝트(이하, '오브젝트'라 한다)가 배치된다. 예를 들면, 기준 발자국 오브젝트들(40L, 40R) 및 기준 화살표 오브젝트들(43L, 43R)이 배치될 수 있다.
기준 발자국 오브젝트들(40L, 40R)은 왼발 기준 발자국 오브젝트(40L)와 오른발 기준 발자국 오브젝트(40R)를 포함할 수 있다. 왼발 기준 발자국 오브젝트(40L)와 오른발 기준 오브젝트(40R) 간의 앞뒤 간격은 기준 보폭을 나타낸다.
기준 화살표 오브젝트들(43L, 43R) 중에서 왼발 기준 발자국 오브젝트들(40L)의 장축을 따라 배치된 기준 화살표 오브젝트(43L)의 방향은 왼발에 대한 기준 보행 각도를 나타낸다.
화살표 오브젝트들(43L, 43R) 중에서 오른발 기준 발자국 오브젝트들(40R)의 장축을 따라 배치된 화살표 오브젝트(43R)의 방향은 오른발에 대한 기준 보행 각도를 나타낸다.
상술한 왼발 기준 발자국 오브젝트(40L), 오른발 기준 발자국 오브젝트(40R), 및 기준 화살표 오브젝트들(43L, 43R)은 예를 들어, 점선으로 표시될 수 있다.
이러한 상태에서 사용자의 보행이 시작되면, 도 8b와 같이, 기준 보행 상태 정보 및 현재 보행 상태 정보를 포함하는 모니터링 화면이 구성되어, 영상 출력부를 통해 표시된다.
도 8b를 참조하면, 모니터링 화면에는 현재 보행 상태 정보를 나타내는 오브젝트가 배치된다. 예를 들면, 제1 발자국 오브젝트들(41L, 41R) 및 제1 화살표 오브젝트들(44L, 44R)이 표시될 수 있다.
제1 발자국 오브젝트들(41L, 41R)은 제1 왼발 발자국 오브젝트(41L)와 제1 오른발 발자국 오브젝트(41R)를 포함할 수 있다. 이 때, 제1 왼발 발자국 오브젝트(41L)와 제1 오른발 발자국 오브젝트(41R) 간의 앞뒤 간격은 현재 보폭을 나타낸다.
제1 화살표 오브젝트들(44L, 44R) 중에서 제1 왼발 발자국 오브젝트(41L)의 장축을 따라 배치된 제1 화살표 오브젝트(44L)의 방향은 왼발의 현재 보행 각도를 나타낸다.
제1 화살표 오브젝트들(44L, 44R) 중에서 제1 오른발 발자국 오브젝트(41R)의 장축을 따라 배치된 제1 화살표 오브젝트(44R)의 방향은 오른발의 현재 보행 각도를 나타낸다. 이처럼 제1 발자국 오브젝트들(41L, 41R)에 대하여 각각 제1 화살표 오브젝트(44L, 44R)을 중첩하여 표시하면, 사용자는 기준 보행 각도와 현재 보행 각도 간의 차이를 한 눈에 파악할 수 있다.
이외에도, 제1 왼발 발자국 오브젝트(41L)의 주변에는 기준 화살표 오브젝트(43L)와 제1 화살표 오브젝트(41L) 사이의 각도를 나타내는 각도 값(θ41L)이 표시될 수 있다. 마찬가지로, 제1 오른발 발자국 오브젝트(41R)의 주변에는 기준 화살표 오브젝트(43R)과 제1 화살표 오브젝트(41R) 사이의 각도를 나타내는 각도 값(θ41R)이 표시될 수 있다. 이처럼 각도 값을 표시하면, 제1 화살표 오브젝트들(41L, 41R)만 표시하는 경우에 비하여, 사용자가 양발의 현재 보행 각도를 보다 정확하게 인지할 수 있다.
도 8b를 참조하면 알 수 있듯이, 제1 발자국 오브젝트들(41L, 41R) 및 제1 화살표 오브젝트들(44L, 44R)은 기준 발자국 오브젝트들(40L, 40R) 및 기준 화살표 오브젝트들(43L, 43R)과 구분되어 표시될 수 있다. 예를 들어, 제1 발자국 오브젝트들(41L, 41R) 및 제1 화살표 오브젝트들(44L, 44R)은 모두 실선으로 표시될 수 있다.
이에 더하여, 제1 발자국 오브젝트들(41L, 41R)에는 기준 발자국 오브젝트들(40L, 40R)에 비하여 강조 효과가 적용될 수 있다. 예를 들어, 제1 발자국 오브젝트들(41L, 41R)의 색상은 기준 발자국 오브젝트들(40L, 40R)의 색상과 다른 색상으로 표현될 수 있다.
한편, 모니터링 화면에는 현재 보폭 및 현재 보행 각도 외에도, 모니터링 정보가 표시될 수 있다. 모니터링 정보로는 현재까지의 보행 거리, 현재까지의 신체 운동량, 보행 정확도에 따라 부여된 현재까지의 보행 점수, 및 하지 관절의 움직임 정보 등이 더 표시될 수 있다. 도 8b를 참조하면, 화면의 좌측 상단, 좌측 하단, 우측 상단 및 우측 하단에 각각 보행 점수(48), 보행 거리(46), 신체 운동량(46) 및 하지 관절의 움직임 정보(49)가 표시된 경우를 도시하고 있다.
보행 점수는 기준 보행 상태 정보와 현재 보행 상태 정보 간의 유사도에 따라 부여된다. 보행 점수는 보행이 진행됨에 따라 변할 수 있다. 현재 보행 상태 정보와 기준 보행 상태 정보 간의 유사도가 높거나 두 정보가 서로 일치하는 경우, 보행 점수는 가산된다. 만약 현재 보행 상태 정보와 기준 보행 상태 정보 간의 유사도가 낮거나 두 정보가 서로 일치하지 않는 경우, 보행 점수는 가산되지 않거나 차감될 수 있다. 따라서, 보행 상태의 정확도에 따라 보행 점수를 차감하거나 누적하면, 사용자로 하여금 재미를 유도할 수 있으므로, 보행 교정 효과를 향상시킬 수 있다. 실시 예에 따르면, 보행 점수는 마일리지나 사이버 머니처럼 화폐 기능을 가질 수 있으며, 사전에 등록된 업체에서 구입한 물품의 대금으로 지급될 수 있다. 이처럼 보행 점수가 화폐 기능을 가지도록 구현하면, 보행 상태 교정에 대한 동기를 유발할 수 있다.
신체 운동량으로는 현재까지의 에너지 소모량을 예로 들 수 있다. 에너지 소모량은 칼로리 단위로 표시될 수 있다.
하지 관절의 움직임 정보는 예를 들어, 2차원 골격 구조 애니메이션(2D skeletal animation)으로 표시될 수 있다. 하지 관절의 움직임 정보를 표시하기 위해서는 발목 관절의 위치, 무릎 관절의 위치, 엉더이 관절의 위치에 대한 정보가 필요한데, 이러한 정보는 사용자의 다리 길이(L1, L2) 및 현재 보행 각도에 기초하여 산출될 수 있다.
보행 점수, 보행 거리, 신체 운동량 및 하지 관절의 움직임 정보는 보행이 진행됨에 따라 실시간으로 갱신될 수 있다.
도 8b의 모니터링 화면이 표시된 상태에서, 사용자가 보행을 계속하는 경우, 도 8c와 같이, 기준 보행 상태 정보, 이전 보행 상태 정보 및 현재 보행 상태 정보를 포함하는 모니터링 화면이 구성되어, 영상 출력부를 통해 표시된다.
도 8c를 참조하면, 제1 발자국 오브젝트들(41L, 41R)은 이전 보행 상태 정보를 나타내는 오브젝트에 해당하므로, 도 8b에서 적용되었던 강조 효과가 취소된 것을 알 수 있다. 즉, 제1 발자국 오브젝트들(41L, 41R)의 색상이 기준 발자국 오브젝트들(40L, 40R)의 색상과 동일한 것을 알 수 있다.
또한, 도 8c는 도 8b에 비하여 제2 발자국 오브젝트들(45L, 45R) 및 제2 화살표 오브젝트들(45L, 45R)이 추가된 것을 알 수 있다. 이 때, 제2 발자국 오브젝트들(45L, 45R)은 현재 보행 상태 정보를 나타내는 오브젝트들이므로, 기준 발자국 오브젝트들(40L, 40R) 및 제1 발자국 오브젝트들(41L, 41R)과는 달리, 강조 효과가 적용된 것을 알 수 있다.
또한, 제2 발자국 오브젝트들(45L, 45R)의 주변에는 기준 화살표 오브젝트(43L, 43R)과 제2 화살표 오브젝트(45L, 45R) 사이의 각도를 나타내는 각도 값(θ42L, θ42R)이 표시될 수 있다. 이처럼 제2 발자국 오브젝트들(45L, 45R)의 주변에도 각도 값이 표시되면, 사용자는 자신의 현재 보행 상태가 기준 보행 상태에 가깝게 교정되고 있는지를 한 눈에 확인할 수 있다.
도 8c를 참조하면, 제1 오른발 발자국 오브젝트(41R)의 보행 각도(θ41R)에 비하여, 제2 오른발 발자국 오브젝트(42R)의 보행 각도(θ42R)가 감소한 것을 알 수 있다. 마찬가지로, 제1 왼발 발자국 오브젝트(41L)의 보행 각도(θ41L)에 비하여 제2 왼발 발자국 오브젝트(42L)의 보행 각도(θ42L)가 감소한 것을 알 수 있다. 이로부터 사용자의 현재 보행 상태가 기준 보행 상태에 가까워지도록 교정되고 있음을 알 수 있다.
이상, 도 8a 내지 도 8c에서는 현재 보행 상태 정보를 나타내는 발자국 오브젝트의 색상을 기준 보행 상태 정보를 나타내는 발자국 오브젝트의 색상이나 이전 보행 상태 정보를 나타내는 발자국 오브젝트의 색상과 다르게 표시하는 경우를 예로 들어 설명하였다. 그러나 현재 보행 상태 정보를 나타내는 발자국 오브젝트에 적용될 수 있는 강조 효과는 이것으로 한정되는 것은 아니다.
도 9a 및 도 9b는 다른 실시 예에 따른 강조 효과가 적용된 모니터링 화면들을 도시한 도면이다.
도 9a의 모니터링 화면에는 기준 보행 상태 정보를 나타내는 기준 발자국 오브젝트들(40L, 40R), 이전 보행 상태 정보를 나타내는 제1 발자국 오브젝트(41L, 41R) 및 현재 보행 상태 정보를 나타내는 제2 오른발 발자국 오브젝트(42R)가 도시되어 있다.
도 9a를 참조하면, 제2 오른발 발자국 오브젝트(42R)의 주변에는 물방울이 퍼지는 것과 같은 효과가 추가될 수 있다. 이 때, 제2 오른발 발자국 오브젝트(42R)가 나타내는 현재 보행 각도와, 오른발 기준 발자국 오브젝트(40R)가 나타내는 기준 보행 각도가 서로 일치하지 않으므로, 물방울의 색상은 부정적인 이미지의 색상 예를 들어, 붉은 색으로 표현될 수 있다. 또한, 제2 오른발 발자국 오브젝트(42R)의 주변에는 부정적인 문구 예를 들어, 'Bad!'라는 문구가 표시될 수 있다.
도 9b의 모니터링 화면에는 기준 보행 상태 정보를 나타내는 기준 발자국 오브젝트들(40L, 40R), 이전 보행 상태 정보를 나타내는 제1 발자국 오브젝트(41L, 41R)와 제2 오른발 발자국 오브젝트(42R), 현재 보행 상태 정보를 나타내는 제2 왼발 발자국 오브젝트(42L)가 도시되어 있다.
도 9b를 참조하면, 제2 오른발 발자국 오브젝트(42R)는 이전 보행 상태 정보를 나타내는 오브젝트이므로, 물방울 퍼짐 효과 및 문구로 이루어진 강조 효과가 사라진 것을 알 수 있다.
이에 비하여, 제2 왼발 발자국 오브젝트(42L)의 주변에는 물방울 퍼짐 효과가 적용된 것을 알 수 있다. 이 때, 제2 왼발 발자국 오브젝트(42L)가 나타내는 현재 보행 각도와, 왼발 기준 발자국 오브젝트(40L)이 나타내는 기준 보행 각도가 거의 일치하므로, 물방울의 색상은 긍정적인 이미지의 색상 예를 들어, 파란 색으로 표현될 수 있다. 또한, 제2 왼발 발자국 오브젝트(42L)의 주변에는 긍정적인 문구 예를 들어, 'Good!'라는 문구가 표시될 수 있다.
이처럼 물방울 퍼짐 효과와 문구를 이용하여 강조 효과를 적용하면, 현재 보행 상태에 대한 시각적인 효과를 극대화할 수 있다.
한편, 도 9a의 모니터링 화면이 영상 출력부를 통해 표시될 때에는 부정적인 느낌의 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합이 출력될 수 있다.
그리고, 도 9b의 모니터링 화면이 영상 출력부를 통해 표시될 때에는 긍정적인 느낌의 청각적 신호, 촉각적 신호, 후각적 신호, 미각적 신호, 또는 이들의 조합이 출력될 수 있다.
이상으로, 도 8a 내지 도 9b를 참조하여, 출력 장치(200)를 통해 표시되는 모니터링 화면들을 설명하였다. 도 8a 내지 도 8c에 도시되지는 않았으나, 도 8a 내지 도 8c에서 기준 보행 상태 정보를 나타내는 오브젝트들, 이전 보행 상태 정보를 나타내는 오브젝트들 및 현재 보행 상태를 나타내는 오브젝트들은 배경 화면으로 선택된 영상에 중첩되어 표시될 수 있다. 이 때, 모니터링 화면의 배경 화면은 사용자의 위치(즉, 출력 장치의 위치), 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상이 사용될 수 있다. 배경 화면으로 사용되는 영상은 출력 장치(200) 내에 저장되어 있는 영상들 중에서 선택된 것이거나, 영상을 저장하는 영상 서버(미도시)로부터 제공받은 것일 수 있다.
다른 실시 예에 따르면, 기준 보행 상태 정보를 나타내는 오브젝트들, 이전 보행 상태 정보를 나타내는 오브젝트들 및 현재 보행 상태를 나타내는 오브젝트들은 실사 화면에 중첩되어 표시될 수 있다. 즉, 출력 장치(200)는 도 10과 같은 증강현실 기반의 모니터링 화면을 표시할 수 있다.
도 10의 모니터링 화면을 출력하기 위해서는, 영상 획득부(260)를 통해 주변을 촬영하는 작업과, 촬영된 영상에서 보행로를 검출하는 작업이 선행될 수 있다. 그리고 검출된 보행로에 맞추어 오브젝트들을 배치하여 모니터링 화면을 구성할 수 있다. 도 10의 증강현실 기반의 모니터링 화면은 도 8a 내지 도 9b에 도시된 모니터링 화면들과는 다르게, 오브젝트들(40L, 40R, 41L, 41R, 43L, 43R)이 보행로에 맞추어 원근감 있게 표시된 것을 알 수 있다.
도 11은 보행 분석 결과 화면을 예시한 도면이다. 보행 분석 결과 화면에는 보행 분석 정보가 표시될 수 있다. 보행 분석 정보로는 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수를 예로 들 수 있다.
보행 정확도는 예를 들어, 각 보(step)의 정확도를 나타내는 히스토그램(50)으로 표현될 수 있다. 히스토그램(50)의 가로축은 보행 시간을 나타내며, 가로축에는 보행 시작 시간 및 보행 종료 시간이 표시될 수 있다. 도 11을 참조하면 보행 시작 시간은 오후 7시 이며, 보행 종료 시간은 오후 7시 5분인 것을 알 수 있다. 히스토그램(50)의 세로축은 각 보(step)의 정확도를 나타낸다. 즉, 세로축의 값은 각 보와 기준 보행 상태 정보 간의 유사도 값이거나, 유사도 값에 대응하는 값일 수 있다. 히스토그램의 막대는 각 보(step) 별로 생성될 수 있다. 일 예로, 각 보에 대한 막대는 서로 동일한 색상으로 표현될 수 있다. 다른 예로, 정확도가 기준값 이상인 막대와 그렇지 않은 막대는 서로 다른 색상으로 표시될 수 있다.
히스토그램(50)의 하부에는 나머지 보행 분석 정보들(51) 예를 들어, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수가 나란히 표시될 수 있다. 그러나 표시되는 보행 분석 정보(51)의 종류가 반드시 이것으로 한정되는 것은 아니며, 표시되는 보행 분석 정보의 종류는 사용자에 의해 설정 가능하도록 구현될 수도 있다.
화면의 하단에는 안내 메시지 창(52)이 배치될 수 있다. 안내 메시지 창(52)에는 보행 분석 결과에 대한 간단한 안내 메시지가 표시될 수 있다. 예를 들면, 보행 정확도가 높은지 그렇지 않은지를 알리는 안내 메시지가 표시될 수 있다. 이외에도 안내 메시지 창(52)에는 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수가 목표치에 도달하였는지 그렇지 않은지를 알리는 안내 메시지가 표시될 수도 있다. 목표치는 사용자 정보를 고려하여 출력 장치(200)에서 자동으로 연산되거나, 사용자에 의해 직접 설정될 수 있다.
상술한 바와 같은 보행 분석 정보에는 위치 정보 또는 지도 정보가 추가적으로 조합되어 사용자의 이동 경로 및 위치에 따른 다양한 컨텐츠와 복합적으로 작동죌 수 있다. 그 결과, 다양한 가상현실 및/또는 증강현실을 구현할 수 있다.
도 12는 일 실시 예에 따른 보행 교정 유도 시스템(1)의 제어 방법 중 출력 장치(200) 측에서 이루어지는 제어 방법을 도시한 흐름도이다.
우선, 출력 장치(200)의 제어부(230)는 보행 감지 장치(100)와 페어링 과정을 수행한다(S600). 페어링은 출력 장치(200)의 기기 정보를 보행 감지 장치(100)에 등록하고, 보행 감지 장치(100)의 기기 정보를 출력 장치(200)에 등록하는 것을 말한다. 상기 S600 단계는 출력 장치(200)가 보행 감지 장치(100)를 검색하는 단계, 검색된 보행 감지 장치(100)로 페어링 요청 신호를 전송하는 단계, 보행 감지 장치(100)의 기기 정보가 포함된 응답 신호를 수신하는 단계, 및 보행 감지 장치(100)의 기기 정보를 저장하는 단계를 포함할 수 있다.
이 후, 제어부(230)는 보행 상태 모니터링이 시작되었는지를 판단한다(S610). 예를 들어, 보행 상태 모니터링 프로그램이 실행된 경우, 보행 상태 모니터링이 시작된 것으로 판단할 수 있다. 보행 상태 모니터링 프로그램은 입력부(210)를 통해 명령이 입력되거나, 보행 감지 장치(100)로부터 보행 신호가 수신되는 경우에 실행될 수 있다.
보행 상태 모니터링이 시작되면, 제어부(230)는 사용자 정보 입력 모드가 자동 입력 모드인지를 판단할 수 있다(S620). 사용자 정보 입력 모드는 사전에 사용자에 의해 설정될 수 있다.
S620 단계의 판단 결과, 사용자 정보 입력 모드가 자동 입력 모드가 아닌 경우 즉, 수동 입력 모드인 경우, 제어부(230)의 화면 구성부(235)는 사용자 정보를 입력받기 위한 화면을 구성하여 영상 출력부를 통해 표시한다. 예를 들면, 도 7과 같은 화면을 구성하여 영상 출력부를 통해 표시한다. 도 7의 화면이 표시되면, 사용자는 입력부(210)를 조작하여 각 입력란에 다리 길이, 나이, 키, 몸무게 등의 사용자 정보를 입력할 수 있다.
S620 단계의 판단 결과, 사용자 정보 입력 모드가 자동 입력 모드인 경우, 제어부(230)의 영상 분석부(231)는 영상을 입력받고(S640), 입력받은 영상을 분석하여 사용자 정보를 인식한다(S645).
이 후, 제어부(230)의 기준 보행 상태 정보 획득부(232)는 S630 단계에서 입력된 사용자 정보, 또는 S645 단계에서 인식된 사용자 정보에 기초하여 기준 보행 상태 정보를 획득한다(S650). 일 실시 예에 따르면, 상기 S630 단계는 사용자 정보와 기 저장된 연산식을 이용하여 기준 보행 상태 정보를 산출하는 단계를 포함할 수 있다. 다른 실시 예에 따르면, 상기 S630 단계는 사용자 정보에 대응하는 기준 보행 상태 정보를 표준 데이터 베이스에서 검색하는 단계를 포함할 수 있다. S650 단계에서 획득되는 기준 보행 상태 정보로는 기준 보폭, 기준 보행 각도, 기준 보행 속도, 기준 보행 거리 및 기준 신체 운동량을 예로 들 수 있다.
이 후, 제어부(230)의 현재 보행 상태 정보 획득부(233)는 보행 감지 장치(100)로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득한다(S660). S660 단계에서 획득되는 현재 보행 상태 정보로는 현재 보폭, 현재 보행 각도, 현재 보행 속도, 현재까지의 보행 거리 및 현재까지의 신체 운동량을 예로 들 수 있다.
이 후, 제어부(230)의 화면 구성부(235)는 기 설정된 모니터링 화면의 종류를 확인한다(S670). 그 다음, 확인 결과에 따라 기준 보행 상태 정보, 이전 보행 상태 정보 및 현재 보행 상태 정보를 포함하는 모니터링 화면을 구성하여, 영상 출력부를 통해 표시한다(S680)
예를 들어, 모니터링 화면의 종류가 2차원 영상으로 설정되어 있다면, 모니터링 화면은 사용자의 위치(즉, 출력 장치의 위치), 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상 및 음악을 각각 배경화면 및 배경음악으로 하여 구성될 수 있다. 만약, 모니터링 화면의 종류가 실사 화면으로 설정되어 있다면, 모니터링 화면은 영상 획득부(260)를 통해 획득되는 실사 영상을 배경화면으로 하여 구성될 수 있다.
모니터링 화면을 구성하는 단계(S680)는 기준 보행 상태 정보를 나타내는 오브젝트를 배치하는 단계, 현재 보행 상태 정보를 나타내는 오브젝트를 배치하는 단계, 현재 보행 상태 정보를 나타내는 오브젝트에 강조 효과를 적용하는 단계, 현재 보행 상태 정보에 따른 보행 점수와 보행 점수에 따른 보상 시스템(예를 들어, 포인트, 마일리지 또는 사이버 머니)을 적용하는 단계, 모니터링 정보를 표시하는 단계를 포함할 수 있다.
현재 보행 상태 정보를 나타내는 오브젝트는 다양한 방법으로 강조될 수 있다. 예를 들면, 도 8c에 도시된 바와 같이, 현재 보행 상태 정보를 나타내는 오브젝트의 색상, 크기, 테두리의 종류, 또는 이들의 조합을 나머지 오브젝트들과 다르게 표현되도록 한다. 또는, 도 9a 및 도 9b에 도시된 바와 같이, 현재 보행 상태 정보를 나타내는 오브젝트의 주변에 물방울 및/또는 텍스트 등의 다른 오브젝트들이 표시되도록 한다. 이 때, 물방울 및/또는 텍스트의 색상이나 크기는 기준 보행 상태 정보와의 일치 여부에 따라 서로 다르게 표현될 수 있다.
한편, 모니터링 화면에는 모니터링 정보로서, 보행 정확도에 따라 부여된 현재까지의 보행 점수, 상기 보행 점수에 따른 보상 시스템(예를 들어, 포인트, 마일리지 또는 사이버 머니 등), 보행 거리, 신체 운동량 및 하지 관절의 움직임 정보 중 적어도 하나가 더 표시될 수 있는데, 제어부(230)의 화면 구성부(690)는 보행 신호가 지속적으로 수신됨에 따라, 정보들을 갱신하여 모니터링 화면에 표시한다.
이 후, 제어부(230)는 보행이 완료되었는지를 판단할 수 있다(S690). 예를 들어, 보행 완료 명령이 입력된 경우 보행이 완료된 것으로 판단할 수 있다. 다른 예로, 사전 지정된 시간 동안 보행 감지 장치(100)로부터 보행 신호가 수신되지 않은 경우, 보행이 완료된 것으로 판단할 수 있다.
S690 단계의 판단 결과, 보행이 완료되지 않았다면, 제어부(230)는 상술한 S660 내지 S680 단계를 반복할 수 있다.
S690 단계의 판단 결과, 보행이 완료되었다면, 제어부(230)의 화면 구성부(690)는 도 11과 같은 보행 분석 결과 화면을 구성하여, 영상 출력부를 통해 표시할 수 있다. 보행 분석 결과 화면은 보행 분석 정보를 포함할 수 있다. 보행 분석 정보로는 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수를 예로 들 수 있다.
이상으로 본 발명의 실시 예들을 설명하였다. 전술한 실시예들에 더하여, 본 발명의 실시 예들은 전술한 실시예의 적어도 하나의 처리 요소를 제어하기 위한 컴퓨터 판독 가능한 코드/명령을 포함하는 매체 예를 들면, 컴퓨터 판독 가능한 매체를 통해 구현될 수도 있다. 상기 매체는 상기 컴퓨터 판독 가능한 코드의 저장 및/또는 전송을 가능하게 하는 매체/매체들에 대응할 수 있다.
상기 컴퓨터 판독 가능한 코드는, 매체에 기록될 수 있을 뿐만 아니라, 인터넷을 통해 전송될 수도 있는데, 상기 매체는 예를 들어, 마그네틱 저장 매체(예를 들면, ROM, 플로피 디스크, 하드 디스크 등) 및 광학 기록 매체(예를 들면, CD-ROM, Blu-Ray, DVD)와 같은 기록 매체, 반송파(carrier wave)와 같은 전송매체를 포함할 수 있다. 상기 매체들은 분산 네트워크일 수도 있으므로, 컴퓨터로 읽을 수 있는 코드는 분산 방식으로 저장/전송되고 실행될 수 있다. 또한 더 나아가, 단지 일 예로써, 처리 요소는 프로세서 또는 컴퓨터 프로세서를 포함할 수 있고, 상기 처리 요소는 하나의 디바이스 내에 분산 및/또는 포함될 수 있다.
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다.
1: 보행 교정 유도 시스템
100: 보행 감지 장치
200: 출력 장치

Claims (10)

  1. 사용자 정보에 기초하여 기준 보행 상태 정보를 획득하는 단계;
    보행 감지 장치로부터 수신한 보행 신호에 기초하여 현재 보행 상태 정보를 획득하는 단계;
    상기 기준 보행 상태 정보 및 상기 현재 보행 상태 정보 간의 비교 결과를 포함하는 모니터링 화면을 구성하는 단계; 및
    상기 모니터링 화면을 출력하는 단계를 포함하되,
    상기 모니터링 화면은 상기 기준 보행 상태 정보를 나타내는 오브젝트들, 상기 현재 보행 상태 정보를 나타내는 오브젝트들 및 이전 보행 상태 정보를 나타내는 오브젝트들이 서로 다른 방식으로 구분되어 표시되고, 사용자의 보행 정확도에 따라 부여된 보행 점수가 보행이 진행됨에 따라 누적되어 표시되는 게임 화면이고,
    상기 각 오브젝트들은 스텝 별로 구분되어 표시되는, 보행 교정 유도 시스템의 제어 방법.
  2. 제1항에 있어서,
    상기 사용자 정보는 상기 사용자로부터 입력받은 정보, 상기 사용자를 촬영한 영상을 분석하여 인식된 정보, 또는 다양한 데이터 베이스로부터 전송받거나 획득한 정보이고,
    상기 사용자 정보는 상기 사용자의 몸무게, 키, 나이 및 다리 길이 중 적어도 하나를 포함하며,
    상기 다리 길이는 엉덩이 관절에서 무릎 관절까지의 길이 및 무릎 관절에서 발목 관절까지의 길이를 포함하는, 보행 교정 유도 시스템의 제어 방법.
  3. 제1항에 있어서,
    상기 사용자의 보행이 시작되기 전에 상기 사용자의 정상 보행 정보를 획득하기 위한 사용자 보행 인식 초기화 화면을 표시하는 단계; 및
    상기 정상 보행 정보에 해당되는 보행 패턴 데이터의 범위가 설정된 후 상기 설정된 범위를 벗어나는 보행이 감지될 경우에만 상기 사용자의 보행 데이터를 취득하거나 저장하는 단계를 더 포함하는, 보행 교정 유도 시스템의 제어 방법.
  4. 제1항에 있어서,
    상기 기준 보행 상태 정보는
    상기 사용자 정보 및 연산식을 이용하여 산출되거나 상기 사용자 정보에 기초하여 표준 데이터 베이스에서 검색되는, 보행 교정 유도 시스템의 제어 방법.
  5. 제1항에 있어서,
    상기 보행 감지 장치는 사용자의 하지에 착용되거나 신발의 외부에 탈착되는, 보행 교정 유도 시스템의 제어 방법.
  6. 제1항에 있어서,
    상기 모니터링 화면은
    2차원 그래픽 영상, 3차원 그래픽 영상, 실사 영상, 또는 이들의 조합에 기초하여 구성되며,
    상기 모니터링 화면의 종류는 상기 사용자에 의해 설정되는, 보행 교정 유도 시스템의 제어 방법.
  7. 제1항에 있어서,
    상기 모니터링 화면을 구성하는 단계는
    상기 현재 보행 상태 정보를 나타내는 오브젝트에 강조 효과를 적용하는 단계;
    상기 보행 점수에 따른 보상 시스템을 상기 사용자에게 적용하는 단계; 및
    모니터링 정보를 표시하는 단계를 포함하며,
    상기 모니터링 정보는 현재까지의 보행 거리, 현재까지의 신체 운동량, 상기 보행 점수, 상기 보상 시스템 및 하지 관절의 움직임 정보 중 적어도 하나를 포함하는, 보행 교정 유도 시스템의 제어 방법.
  8. 제1항에 있어서,
    상기 모니터링 화면은 사용자의 위치, 현재 시간 및 현재 계절 중 적어도 하나에 기초하여 선택된 영상 및 음악을 각각 배경화면 및 배경음악으로 하여 구성되는, 보행 교정 유도 시스템의 제어 방법.
  9. 제1항에 있어서,
    상기 오브젝트들은 영상 획득부를 통해 획득된 실사 영상에서 보행로가 검출되는 경우, 상기 검출된 보행로에 맞추어 원근감을 갖도록 표시되는, 보행 교정 유도 시스템의 제어 방법.
  10. 제1항에 있어서,
    사용자의 보행이 완료된 경우, 보행 분석 정보 및 안내 메시지 창 중 적어도 하나를 포함하는 보행 분석 결과 화면을 출력하는 단계를 더 포함하되,
    상기 보행 분석 정보는 스텝 별 보행 정확도, 전체 에너지 소모량, 전체 보행 거리, 전체 보행 시간 및 전체 스텝 수 중 적어도 하나를 포함하며,
    상기 스텝 별 보행 정확도는 가로축이 보행 시간을 나타내고 세로축이 각 스텝 별 보행 정확도를 나타내는 히스토그램으로 표현되고,
    상기 안내 메시지 창에는 상기 보행 분석 정보와 관련된 안내 메시지가 표시되는, 보행 교정 유도 시스템의 제어 방법.
KR1020140110560A 2014-08-14 2014-08-25 보행 교정 유도 시스템 및 그 제어 방법 KR101638819B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140110560A KR101638819B1 (ko) 2014-08-25 2014-08-25 보행 교정 유도 시스템 및 그 제어 방법
US15/503,869 US20170273616A1 (en) 2014-08-14 2015-08-13 System for guiding correction of walking gait and control method thereof
PCT/KR2015/008494 WO2016024829A1 (ko) 2014-08-14 2015-08-13 보행 교정 유도 시스템 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140110560A KR101638819B1 (ko) 2014-08-25 2014-08-25 보행 교정 유도 시스템 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20160024124A KR20160024124A (ko) 2016-03-04
KR101638819B1 true KR101638819B1 (ko) 2016-07-14

Family

ID=55535840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140110560A KR101638819B1 (ko) 2014-08-14 2014-08-25 보행 교정 유도 시스템 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR101638819B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124549A1 (ko) * 2016-12-27 2018-07-05 주식회사 쓰리디아이 항공 레포츠 가상 체험을 위한 시뮬레이션 장치 및 그 제어방법
KR20210051391A (ko) * 2019-10-30 2021-05-10 (주)인트인 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878254B1 (ko) * 2016-10-31 2018-07-13 부산외국어대학교 산학협력단 컴퓨터를 포함하는 스마트 신발 시스템 및 이의 구현방법
CN106725503A (zh) * 2016-11-21 2017-05-31 上海斐讯数据通信技术有限公司 一种基于物联网的健康矫正鞋、运动监测装置和方法
CN111712154B (zh) * 2018-01-15 2023-01-10 拉菲.布鲁斯坦 步伐分析设备
KR102125254B1 (ko) * 2018-05-15 2020-06-22 (주)블루클라우드 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
KR102202681B1 (ko) * 2018-11-28 2021-01-12 이주형 신발에 탈착 가능한 보행 유형 확인 장치
KR102412841B1 (ko) * 2019-11-14 2022-06-27 한국과학기술연구원 고령자 헬스케어를 위한 스마트 보행 시뮬레이터
KR102317196B1 (ko) * 2019-11-19 2021-10-25 대한민국 가상현실 기반 지면 보행 훈련 시스템 및 방법
KR102570184B1 (ko) * 2020-09-28 2023-08-25 경북대학교 산학협력단 보행 영상 기반의 보행 측정 방법 및 이의 장치
WO2024063457A1 (en) * 2022-09-20 2024-03-28 Samsung Electronics Co., Ltd. Methods and systems for determining a step count of a user

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017447A (ja) 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 歩行動作分析装置、歩行動作分析方法、歩行動作分析プログラムおよびその記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101252634B1 (ko) * 2006-04-07 2013-04-09 삼성전자주식회사 보행자세 분석 시스템
KR100894895B1 (ko) 2007-05-21 2009-04-30 연세대학교 산학협력단 운동, 균형 및 보행측정방법 및 치료시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017447A (ja) 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 歩行動作分析装置、歩行動作分析方法、歩行動作分析プログラムおよびその記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124549A1 (ko) * 2016-12-27 2018-07-05 주식회사 쓰리디아이 항공 레포츠 가상 체험을 위한 시뮬레이션 장치 및 그 제어방법
KR20210051391A (ko) * 2019-10-30 2021-05-10 (주)인트인 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체
KR102264334B1 (ko) 2019-10-30 2021-06-14 (주)인트인 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체

Also Published As

Publication number Publication date
KR20160024124A (ko) 2016-03-04

Similar Documents

Publication Publication Date Title
KR101638819B1 (ko) 보행 교정 유도 시스템 및 그 제어 방법
US20170273616A1 (en) System for guiding correction of walking gait and control method thereof
JP6583605B2 (ja) 運動情報生成装置及び運動情報生成方法、運動情報生成プログラム
JP6387425B2 (ja) 歩行分析システム及び方法
JP6332830B2 (ja) 運動支援システム及び運動支援方法、運動支援プログラム
JP3570163B2 (ja) 動作及び行動の認識方法及び装置及びシステム
CN111228752B (zh) 用于自动配置传感器的方法、电子设备和记录介质
KR20170073655A (ko) 사용자의 올바른 런닝을 훈련하는 방법 및 시스템
CN104540560A (zh) 用于步态训练的构造及方法
JP2015109937A (ja) 動作情報処理装置
JP2007144107A (ja) 運動補助システム
JP6649323B2 (ja) 歩行解析システム及び方法
US20170086710A1 (en) Activity amount measuring apparatus, activity amount measuring method, and activity amount measuring program
CN110246565A (zh) 姿势和深呼吸改善装置、系统和方法
CN111388968B (zh) 一种基于虚拟现实的步态平衡训练装置及系统
US10424218B2 (en) Storage medium having stored thereon respiratory instruction program, respiratory instruction apparatus, respiratory instruction system, and respiratory instruction processing method
KR101623773B1 (ko) 보행 교정 유도 시스템 및 그 제어 방법
US20230371849A1 (en) Gait information generation device, gait information generation method, and recording medium
US20230368447A1 (en) Knee trajectory information generation device, knee trajectory information generation method, and recording medium
US20240115163A1 (en) Calculation device, calculation method, and program recording medium
KR102597581B1 (ko) 가상운동기 및 가상운동시스템
US20240138757A1 (en) Pelvic inclination estimation device, estimation system, pelvic inclination estimation method, and recording medium
WO2022208838A1 (ja) 生体情報処理装置、情報処理システム、生体情報処理方法、および記録媒体
JP7056249B2 (ja) 運動データ処理装置、運動データ処理方法及び運動データ処理プログラム
KR20230102022A (ko) Mems 센서 활용을 통해, 골프 스윙 단계를 구분하여 스윙 데이터를 취득하고 분석하는 시스템 및 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant