KR20170140726A - 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법 - Google Patents

사용자 인식 컨텐츠 제공 시스템 및 그 동작방법 Download PDF

Info

Publication number
KR20170140726A
KR20170140726A KR1020160073414A KR20160073414A KR20170140726A KR 20170140726 A KR20170140726 A KR 20170140726A KR 1020160073414 A KR1020160073414 A KR 1020160073414A KR 20160073414 A KR20160073414 A KR 20160073414A KR 20170140726 A KR20170140726 A KR 20170140726A
Authority
KR
South Korea
Prior art keywords
user
interface screen
knee
foot
bent
Prior art date
Application number
KR1020160073414A
Other languages
English (en)
Other versions
KR101860753B1 (ko
Inventor
권찬영
Original Assignee
(주)블루클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)블루클라우드 filed Critical (주)블루클라우드
Priority to KR1020160073414A priority Critical patent/KR101860753B1/ko
Priority to PCT/KR2017/006112 priority patent/WO2017217725A1/ko
Publication of KR20170140726A publication Critical patent/KR20170140726A/ko
Application granted granted Critical
Publication of KR101860753B1 publication Critical patent/KR101860753B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

사용자 인식 컨텐츠 제공 시스템 및 그 동작방법이 개시된다. 상기 사용자 인식 컨텐츠 제공 시스템은, 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 인터페이스화면제공부, 상기 사용자의 동작을 인식하는 동작인식센서부, 및 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하고, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 제어부를 포함하는 것을 특징으로 한다.

Description

사용자 인식 컨텐츠 제공 시스템 및 그 동작방법{USER RECOGNITION CONTENT PROVIDING SYSTEM AND OPERATING METHOD THEREOF}
본 발명은 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법에 관한 것으로서, 특히 프로젝터부가 인터페이스 화면을 투사하고 동작인식센서부가 사용자의 동작을 인식함으로써 무릎의 굽힘 동작에 따라 소정의 이벤트를 발생시킬 수 있는 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법에 관한 것이다.
최근 들어 건강과 웰빙에 대한 관심이 증대되면서 운동이 중요하다는 점은 누구나 인식하고 있다. 그러나 시간과 공간적인 제약 때문에 규칙적으로 체육관이나 헬스클럽 등을 찾아 운동을 하기는 쉽지 않다.
이와 관련하여 가상공간이나 증강현실이 구현된 전자기기를 활용한 운동시스템이 최근 각광받고 있다. 그러나 이러한 종래의 기술들은 가상공간을 형성하는 콘텐츠를 제공하여 사용자에게 현실감 있는 체험을 할 수 있도록 하는 장치나 방법에 대해서 제시하고 있으나, 사용자의 동작을 인식하기 위해 사용자의 몸에 추가적인 도구를 착용해야 하는 번거로움이 있고, 사용자의 동작을 직접 인식하지 못하여 사용자의 동작에 능동적으로 대응하지 못하는 문제점이 있다. 이에 따라, 실감형 인터랙티브 콘텐츠를 제공하면서도 간편하고 편리한 동작으로 운동시스템을 조작할 수 있는 기술이 요구되고 있다.
본 발명은, 프로젝터부가 인터페이스 화면을 투사하고 동작인식센서부가 사용자의 동작을 인식함으로써 무릎의 굽힘 동작에 따라 소정의 이벤트를 발생시킬 수 있는 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법을 제공하는 것을 목적으로 한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 사용자 인식 컨텐츠 제공 시스템은, 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 인터페이스화면제공부, 상기 사용자의 동작을 인식하는 동작인식센서부, 및 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 제어부를 포함하는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템은, 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 인터페이스화면제공부, 상기 사용자의 동작을 인식하는 동작인식센서부, 및 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하고, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 제어부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 사용자 인식 컨텐츠 제공 시스템은, 상기 제어부의 제어에 따라, 상기 인터페이스 화면 또는 상기 소정의 이벤트에 대응되는 콘텐츠 화면을 표시하는 디스플레이부를 더 포함할 수 있다.
또한 바람직하게는, 상기 제어부는, 상기 동작인식센서부에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치에 따라 상기 사용자의 무릎이 굽혀졌는지 여부를 판단할 수 있다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법은, 인터페이스화면제공부가 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 단계, 동작인식센서부가 상기 사용자의 동작을 인식하는 단계, 및 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 단계를 포함하는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법은, 인터페이스화면제공부가 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 단계, 동작인식센서부가 상기 사용자의 동작을 인식하는 단계, 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 제어부가 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하는 단계, 및 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 제어부가 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되면, 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 단계를 더 포함할 수 있다.
또한 바람직하게는, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자의 굽혀진 무릎 및 상기 사용자의 굽혀진 무릎에 대응되는 발 중 적어도 하나의 높이가 상승하면 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 더 포함할 수 있다.
또한 바람직하게는, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자의 골반, 척추 및 어깨 중 적어도 하나의 높이가 상승하면 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 더 포함할 수 있다.
또한 바람직하게는, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자의 굽혀진 무릎의 위치, 상기 사용자의 골반의 위치, 및 상기 사용자의 어깨의 위치 중 적어도 하나의 누적 변화량을 측정하여 상기 누적 변화량이 미리 설정된 임계치를 초과하면, 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 더 포함할 수 있다.
또한 바람직하게는, 상기 제어부는, 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓은 상태가 제2 선택시간 동안 유지되는 경우, 상기 사용자가 상기 인터페이스 화면상에 올려놓은 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다.
또한 바람직하게는, 상기 제어부는, 상기 동작인식센서부에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치에 따라 상기 사용자의 무릎이 굽혀졌는지 여부를 판단할 수 있다.
또한 바람직하게는, 상기 제어부는, 상기 인터페이스화면제공부의 위치, 상기 인터페이스화면제공부가 상기 인터페이스 화면을 투사하는 방향, 상기 인터페이스 화면이 투사되는 공간의 바닥면 및 상기 동작인식센서부의 위치 중 적어도 하나를 고려하여 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교 분석할 수 있다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 컴퓨터로 읽을 수 있는 기록매체는, 상기 사용자 인식 컨텐츠 제공 시스템의 동작방법을 수행하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록매체인 것을 특징으로 한다.
상기와 같은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법은, 프로젝터부가 인터페이스 화면을 투사하고 동작인식센서부가 사용자의 동작을 인식함으로써 무릎의 굽힘 동작에 따라 소정의 이벤트를 발생시킬 수 있는 효과가 있다.
또한, 상기와 같은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법은, 사용자의 동작을 인식하기 위해 사용자의 몸에 추가적인 도구를 착용해야 하는 번거로움 없이 간단하면서도 효과적인 운동 동작을 통해 사용자 인식 컨텐츠 제공 시스템을 조작할 수 있는 효과가 있다.
또한, 상기와 같은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법은, 사용자의 발의 위치와 무릎의 굽힘 동작을 다양하게 조합하여 사용자의 특정 오브젝트의 선택의지를 효과적으로 파악함으로써, 오브젝트 선택의 성공률을 극대화 시킬 수 있다.
도 1은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도(Flowchart)이다.
도 3은 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다.
도 4a 내지 도 4c는 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 사용 상태를 나타내는 도면이다.
도 5는 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다.
도 6은 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다.
도 7은 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다.
도 8은 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다.
도 9는 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다.
도 10은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템에 의해 투사되는 인터페이스 화면을 나타내는 도면이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 도면에 기재된 내용을 참조하여야 한다.
이하 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템을 나타내는 도면이다. 본 실시예에 따른 사용자 인식 컨텐츠 제공 시스템은, 사용자의 동작을 인식하여 운동 메뉴를 선택하고, 선택된 메뉴에 대응하는 운동 컨텐츠를 제공하는 운동시스템을 예를 들어 설명한다. 도 1을 참조하면, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 동작인식센서부(200), 인터페이스화면제공부(300) 및 디스플레이부(400)를 포함할 수 있다. 도 1에 도시되지는 않았으나 상기 사용자 인식 컨텐츠 제공 시스템(10)은 동작인식센서부(200)와 인터페이스화면제공부(300)를 제어하여 운동프로그램을 제공하는 제어부(도 4a의 100)를 더 포함할 수 있다.
본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 인터페이스화면제공부(300)를 통해 원하는 운동프로그램의 인터페이스 화면을 바닥에 투사함으로써, 하나의 컨텐츠 제공 시스템으로 사용자가 원하는 다양한 형태의 운동 프로그램을 실행할 수 있다. 즉, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 인터페이스화면제공부(300)를 통해 사용자의 동작을 안내하는 실감형 인터랙티브 콘텐츠에 기반한 운동프로그램의 인터페이스 화면을 사용자의 운동공간에 표시할 수 있고, 사용자가 일정한 동작을 취하면 동작인식센서부(200)가 사용자의 움직임을 감지하여 상기 제어부(100)에 전달할 수 있다. 제어부(100)는 동작인식센서부(200)에 의해 감지된 사용자의 주요 포인트(손, 발, 머리, 관절)의 좌표정보를 인식하여 운동프로그램과 사용자의 동작이 일치하는지 판단할 수 있다. 제어부(100)는 상기 운동프로그램과 사용자의 움직임을 동기화시켜 사용자가 현실과 동질감을 느낄 수 있는 운동환경을 제공할 수 있다.
상기 인터페이스화면제공부(300)에 의해 사용자의 운동공간에 투사되는 운동프로그램은 ICT(Information and Communication Technology)를 기반으로 인간의 감각과 인지를 유발하여 실제와 유사한 경험 및 감성을 확장하고, 사람과 사물, 사람과 가상의 오브젝트가 인터랙션을 하는 실감형 인터랙티브 콘텐츠에 기반할 수 있다. 상기 실감형 인터랙티브 콘텐츠에는 운동프로그램에 따라 사용자가 취해야 할 동작을 유도하기 위한 가상의 오브젝트(예를 들어 팔을 굽혔다가 뛰는 전신 운동의 하나인 버피운동에서 팔을 굽혔을 때 바닥에 손이 닿아야 하는 부분)에 대한 좌표정보와 순서, 좌표의 변화 간격 등에 관한 정보가 포함될 수 있다. 이 좌표정보는 사용자의 나이, 성별, 체력, 운동량, 훈련 중인 운동프로그램 등에 따라 사용자에 최적화되어 제공될 수 있다. 상기 운동프로그램은 사용자의 운동동작에 대한 시퀀스를 저장하고 있으며, 상기 제어부(100)는 저장하고 있는 프로그램의 운동동작에 대한 시퀀스를 인터페이스화면제공부(300)를 통해서 출력할 수 있다. 상기 시퀀스는 테이블 형태, XML 형태의 마크업 언어(markup language), 데이터 구조와 같은 다양한 형태로 저장될 수 있다.
동작인식센서부(200)는, 전방의 운동공간에서 사용자의 동작을 인식할 수 있다. 상기 동작인식센서부(200)는 적어도 하나 이상의 카메라, 뎁쓰 카메라, 적외선 센서 또는 이들의 조합으로 구성되어서 사용자와 사용자의 움직임을 전방에서 감지할 수 있다. 한편, 사용자의 주위(전후좌우)에 복수의 동작인식센서부(200)가 설치되어 멀티뷰 이미지를 생성하여 사용자의 동작을 인식할 수도 있다. 즉, 동작인식센서부(200)는 사용자의 운동공간을 3차원의 입체적 혹은 멀티뷰로 감지할 수 있다. 동작인식센서부(200)는 이렇게 수집된 사용자, 사용자의 움직임 및 공간 정보를 제어부(100)에 전송하여 사용자에게 최적화된 보다 생동감 있는 입체적인 운동인터페이스를 제공하고 정밀한 사용자의 동작인식을 가능케 한다. 상기 카메라는 3차원 영상을 생성하기 위해서 좌영상 및 우영상을 촬영하는 카메라일 수 있으며, 복수의 카메라를 이용하여 멀티뷰를 구현하는 것으로 볼 수도 있다. 또한 뎁쓰 카메라의 뎁쓰값이나 3차원 영상에서 좌우영상의 시차에 대한 데이터를 추출하여, 오브젝트와의 거리를 환산하는데 활용할 수 있다. 거리가 가까우면 뎁쓰값이 크고, 거리가 멀면 뎁쓰값이 작게 되는 원리를 이용한 것이다.
일례로서, 상기 동작인식센서부(200)는, 인식범위 내의 인체로 적외선을 송출한 후 인체로부터 반사되는 적외선 신호를 감지함으로써, 인체의 중요 관절 부위를 복수 개의 점(예: 20개)으로 표시할 수 있고 이에 따라 인체의 움직임, 속도 및 위치 등을 인식할 수 있다. 또한, 상기 동작인식센서부(200)는, 인식범위 내에 여러 사람이 위치하는 경우 가장 가까운 거리에 있는 사람을 인식하는 등의 방법으로 한 명의 사람을 분리할 수도 있고, 여러 사람을 각각 별개로 분리하여 인식할 수도 있다. 일례로서, 상기 동작인식센서부(200)는 모션 캡쳐(Motion Capture) 및 음성 인식이 가능한 마이크로소프트(Microsoft)사의 "키넥트" 장치에 의해 구현될 수 있고, 동작인식센서부(200)에서 생성되는 동작 인식 신호는 동작인식센서부(200)에서 감지된 인체의 움직임 및 위치를 나타내기 위한 디지털 데이터로서, 예를 들면, 감지된 인체의 중요 관절 부위를 표현한 복수 개의 점들의 위치 정보 및 깊이(Depth) 정보를 포함할 수 있다.
인터페이스화면제공부(300)는, 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사할 수 있다. 일례로서, 인터페이스화면제공부(300)는 프로젝터부(310) 및 반사부(320)를 포함할 수 있다. 인터페이스화면제공부(300)는, 낮은 천장과 같이 충분한 투사거리가 확보되지 않는 장소에서도 영상을 충분히 확대하여 투사할 수 있고, 높이의 변화에도 같은 위치에 운동프로그램에 따른 영상을 투사할 수 있다.
상기 프로젝터부(310)는 실감형 인터랙티브 콘텐츠에 기반한 운동프로그램을 수행하기 위한 인터페이스 화면을 상기 반사부(320)로 투사할 수 있다. 프로젝터부(310)는 HDMI, RGB, BNC, Wireless HD 등 다양한 방식의 유무선 인터페이스를 통해 상기 제어부(100)와 데이터를 주고받을 수 있다. 프로젝터부(310)는 제어부(100)와의 연결을 통해 실감형 인터랙티브 콘텐츠에 기반한 운동프로그램을 위한 인터페이스 화면을 상기 반사부(320)로 투사할 수 있다. 프로젝터부(310)의 위치 및 투사 각도는 운동프로그램의 종류에 따라 투사되는 인터페이스 화면의 크기와 위치를 조정할 수 있도록 하기 위해 다양하게 변경될 수 있다. 일례로서, 상기 프로젝터부(310)는 레일이나 브라켓 등을 통해 상하좌우 이동 및 360도 회전이 가능할 수 있다.
반사부(320)는, 프로젝터부(310)로부터 투사된 인터페이스 화면을 반사하여 사용자의 운동공간의 바닥면으로 반사할 수 있다. 반사부(320)는 실시예에 따라 평면거울, 볼록거울, 오목거울 또는 비정형 거울 중의 어느 하나로 형성될 수 있으며, 운동프로그램의 종류와 특징에 따라 프로젝터부(310)에서 인터페이스 화면이 투사될 바닥면까지의 투사거리를 조절함으로써 운동공간의 크기를 조절할 수 있다. 예를 들어, 반사부(320)가 평면거울로 구현되는 경우에는 프로젝터부(310)에서 바닥면에 바로 투사될 때보다 프로젝터부(310)에서 상기 평면거울 사이의 거리의 2배만큼 투사거리가 늘어나는 효과를 얻을 수 있다. 또한, 반사부(320)가 볼록거울로 구현되는 경우에는 프로젝터부(310)에서 바닥면에 바로 투사될 때보다 프로젝터부(310)에서 상기 볼록거울 사이의 거리와 볼록거울의 배율에 따른 거리만큼 투사거리가 늘어나는 효과를 얻을 수 있다. 또한, 반사부(320)가 오목거울로 구현되는 경우에는 프로젝터부(310)에서 바닥면에 바로 투사될 때보다 투사거리는 짧아지지만 프로젝터부(310)에서 투사되는 빛을 집중시켜 밝은 곳에서도 선명한 영상을 얻을 수 있는 효과가 있다. 또한, 반사부(320)가 비정형거울로 구현되는 경우에는 투사거리를 늘려 확대된 증강된 가상 운동공간을 확보할 수 있고, 거울에 반사되어 바닥면에 투사되는 각도가 수직이 아니어서 발생할 수 있는 화면의 왜곡을 보정할 수도 있다. 일례로서, 상기 반사부(320)는 투사되는 거리에 따른 영상의 왜곡이 발생하지 않도록 일반거울보다 반사계수가 높은 도료를 아크릴이나 플라스틱에 도포하여 사용할 수 있다.
또한, 반사부(320)는 상하좌우로 이동하거나 회전이 가능하여 전후 또는 좌우로 반사되는 각도를 조절할 수 있다. 일례로서, 상기 반사부(320)는 레일이나 브라켓 등을 통해 상하좌우 이동 및 360도 회전이 가능할 수 있다. 이를 통해 사용자 인식 컨텐츠 제공 시스템(10)의 설치 이후에도 운동하고자 하는 주변환경에 따라 운동프로그램의 인터페이스 화면이 투사되는 위치를 다양하게 변경할 수 있다.
한편, 도 1에는 상기 반사부(320)가 하나의 반사거울로 형성되는 것이 도시되어 있으나 이는 예시적인 것으로서, 상기 반사부(320)는 복수 개의 반사거울을 구비하여 상기 반사거울 간에 상기 인터페이스 화면을 반사하도록 배치함으로써, 상기 프로젝터부(310)와 바닥면 사이의 투사 거리를 더욱 길게 확장할 수 있다. 일례로서, 프로젝터부(310)를 사용자 인식 컨텐츠 제공 시스템(10)의 아랫부분에 설치하고 중간에 몇 개의 반사거울을 지그재그로 설치한 후 천정에 설치된 반사거울을 통해서 최종적으로 바닥면에 투사하도록 구성될 수 있다.
또한, 인터페이스화면제공부(300)는 복수 개의 프로젝터부(310)를 포함할 수도 있다. 이 경우 여러 개의 화면을 각각 다른 반사부(320)를 통해서 출력함으로써, 서로 오버랩되어 출력되거나 인접하여 출력되도록 하는 영상효과를 만들어낼 수 있다.
한편, 다른 실시예로서 상기 인터페이스화면제공부(300)는 반사부(320)가 생략되어 프로젝터부(310)에서 투사된 인터페이스 화면이 바닥면으로 바로 투사될 수 있다.
디스플레이부(400)는, 제어부(100)의 제어에 따라, 상기 인터페이스 화면을 표시하거나 제어부(100)에 의해 발생되는 소정의 이벤트에 대응되는 콘텐츠 화면을 표시할 수 있다. 디스플레이부(400)는 사용자의 동작이 동작인식센서부(200)에 의해 인식된 결과를 출력할 수 있고, 운동 중 사용자의 위치나 방향 변화에 따른 움직임 및 사용자가 운동한 결과에 대한 정보를 실시간으로 출력할 수 있다. 디스플레이부(400)는 사용자의 움직임에 따른 운동량 정보, 사용자 정보, 운동 평가 및 결과, 소모된 칼로리 정보, 개인의 헬스 정보, 자신의 운동내용 확인 또는 이들의 조합을 포함한 정보를 표시하여 사용자가 운동도중이나 운동 후에 확인할 수 있도록 하여 사용자가 보다 효율적으로 운동할 수 있는 환경을 제공할 수 있다.
제어부(100)는, 동작인식센서부(200)에 의해 감지된 사용자를 인식하여 등록된 사용자 정보를 추출하고, 사용자에게 제공될 운동프로그램을 준비할 수 있다. 제어부(100)는 유무선인터페이스부(미도시)를 통해 다운로드한 사용자 정보를 바탕으로 실감형 인터랙티브 콘텐츠에 기반하여 생성된 운동프로그램의 가상 오브젝트로 구성된 인터페이스 화면을 인터페이스화면제공부(300)를 통해 사용자에게 제공할 수 있다. 제어부(100)는 동작인식센서부(200)를 통해 사용자의 동작을 인식하여 운동프로그램의 시작과 종료를 포함한 운동동작에 대한 시퀀스에 따라 사용자의 실제 운동프로그램에서의 동작을 인식할 수 있다. 또한, 제어부(100)는, 동작인식센서부(200)에 의해 감지된 운동공간에 대한 3차원 입체적 정보를 바탕으로 사용자 환경에 최적화된 보다 생동감 있는 입체적인 인터페이스 화면을 제공할 수 있다.
제어부(100)는, 사용자의 운동 동작 및 신체 인식 상태 등을 사용자가 즉각적으로 알 수 있도록 인터페이스화면제공부(300)를 통해 바닥면에 투사할 수도 있다. 제어부(100)는, 동작인식센서부(200)를 통해 사용자의 운동동작을 정확하게 인식할 수 있으며, 해당 운동프로그램에서 제공되는 정확한 기준동작과 상기 동작인식센서부(200)가 인식한 사용자의 운동동작을 실시간으로 비교하여, 상기 사용자의 운동동작이 상기 기준동작과 일치하지 않는 경우에는 인터페이스화면제공부(300) 또는 디스플레이부(400)를 통해 자세 교정의 메시지와 함께 교정된 신체 이미지를 함께 표시하여 정확한 운동동작으로 유도할 수 있다. 제어부(100)는, 상기 사용자의 동작인식에 의해 운동동작 화면이 변화할 경우에는 동작인식 순간에 음향효과나 화면효과를 이용하여 사용자에게 동작평가 정보를 제공함으로써 동작인식 시점을 알려줄 수 있다.
제어부(100)는, 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다. 즉, 동작인식센서부(200)가 사용자의 동작을 인식하여 사용자가 어느 한쪽 다리의 무릎을 굽힌 상태를 제1 선택시간 동안 유지하는 경우, 제어부(100)는 인터페이스 화면상에서 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다. 일례로서, 상기 제1 선택시간은 2초로 설정될 수 있다.
다른 실시예로서, 상기 사용자가 상기 인터페이스 화면상에 두 발을 올리고 양 무릎을 굽히는 경우, 상기 제어부(100)는 상기 제1 선택시간을 상기 사용자가 상기 인터페이스 화면상에 한쪽 발을 올리고 무릎을 굽힌 경우의 제1 선택시간보다 짧게 설정할 수 있다. 일례로서, 이 경우의 제1 선택시간은 1.7초로 설정될 수 있다. 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)과 관련하여, 사용자가 무릎을 굽혀서 인터페이스 화면상의 특정 버튼을 선택하는 것을 “빠른 선택”과 같은 용어로 정의할 수 있고, 상기 제1 선택시간은 “빠른 선택시간”과 같은 용어로 정의할 수 있다.
다른 실시예로서, 상기 제어부(100)는, 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓은 후 상기 사용자의 무릎이 굽혀지면, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다.
또한, 다른 실시예로서, 상기 제어부(100)는 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하고, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시킬 수 있다. 즉, 동작인식센서부(200)가 사용자의 동작을 인식하여 사용자가 어느 한쪽 다리의 무릎을 굽혔다가 펴는 경우, 제어부(100)는 인터페이스 화면상에서 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다. 이에 대해서는 도 3 및 도 4a 내지 도 4c를 참조하여 추가로 상술하기로 한다.
일례로서, 상기 제어부(100)는 동작인식센서부(200)에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치에 따라 상기 사용자의 무릎이 굽혀졌는지 여부를 판단할 수 있다. 즉, 상술한 바와 같이, 동작인식센서부(200)는 인체의 중요 관절 부위를 복수 개의 점(예: 20개)으로 표시할 수 있으므로 사용자의 발, 무릎 및 골반의 위치 및 각도를 비교하여 사용자의 무릎이 굽혀졌는지 여부를 판단할 수 있다.
또한, 상기 제어부(100)는, 인터페이스화면제공부(300)의 위치, 상기 인터페이스화면제공부(300)가 상기 인터페이스 화면을 투사하는 방향, 상기 인터페이스 화면이 투사되는 공간의 바닥면 및 상기 동작인식센서부(200)의 위치 중 적어도 하나를 고려하여 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교 분석할 수 있다. 제어부(100)가 인터페이스 화면상에서 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼을 정확하게 판단하기 위해서는, 인터페이스화면제공부(300)와 동작인식센서부(200)의 상대적인 위치 및 인터페이스 화면의 투사 각도 및 방향 등과 같은 정보들을 고려해야 하기 때문이다. 즉, 제어부(100)는 동작인식센서부(200)와 인터페이스화면제공부(300)를 동기화하여, 인터페이스 화면을 투사하는 인터페이스화면제공부(300)와 동작인식센서부(200)의 공간좌표 인식에 대한 동기화 프로세스를 제공할 수 있다.
또한, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은, 상기 사용자 인식 컨텐츠 제공 시스템(10)의 높이나 기울기 또는 이들의 조합을 포함하는 자세정보를 감지하여 제어부(100)로 전송하는 자세감지부(미도시)를 더 포함할 수 있다. 제어부(100)는, 공간 바닥면으로부터의 높이, 기울기 등의 위치정보를 기반으로 인터페이스화면제공부(300)를 제어하여 가상의 운동공간으로 투사되는 영상의 크기, 거리 및 위치를 자동으로 보정할 수 있다. 즉, 상기 제어부(100)는 사용자 인식 컨텐츠 제공 시스템(10)의 높이나 기울기가 변경되더라도 가상공간에 투사되는 영상의 크기, 거리 및 위치가 항상 동일하도록 제어할 수 있다.
제어부(100)는, 사용자의 움직임, 성별, 나이, 체력, 컨디션 등에 따라 운동 강도가 자동으로 조절되도록 할 수 있다. 제어부(100)는 사용자가 운동프로그램을 수행하는 스피드에 반응하여 점점 빠르게 동작하면 자동적으로 운동 프로그램의 반응 속도를 빠르게 하고, 반면에 스피드가 느려지면 운동 프로그램의 반응 속도를 천천히 하여 사용자에게 최적화된 운동인터페이스를 제공할 수 있다.
한편, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 원격관리시스템(미도시)에 유선 또는 무선으로 연결되어 사용자 각 개인의 나이, 성별, 체력, 운동량, 훈련 중인 운동프로그램 등 다양한 사용자 정보와 실감형 인터랙티브 콘텐츠를 다운로드 받을 수 있도록 네트워크 인터페이스를 제공하는 유무선인터페이스부(미도시)를 더 포함할 수 있다.
상기 원격관리시스템은 각 개인의 운동정보를 원격관리시스템에 연결된 데이터베이스(미도시)에 저장하여 관리할 수 있고, 운동프로그램을 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 제공하거나 사용자에 의해 제작된 운동 프로그램을 제공받을 수 있다. 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은, 사용자 정보와 운동공간에 대한 정보를 바탕으로 상기 원격관리시스템으로부터 상기 운동프로그램을 다운로드할 수 있고, 제어부(100)에 저장되어 있는 실감형 인터랙티브 콘텐츠 기반 운동프로그램을 사용할 수도 있다.
본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 실시간으로 사용자를 인식하고, 해당 사용자의 정보와 공간정보를 상기 원격관리시스템과 송수신하여 사용자의 운동정보를 원격관리시스템에서 심리스(seamless)하게 관리할 수 있다. 사용자가 별도의 조작을 할 필요 없이 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)과 원격관리시스템이 연동하여 자동으로 심리스하게 사용자의 개인정보와 운동정보를 통해서 건강관리를 수행할 수 있게 되는 것이다. 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 사용자별 평균운동량, 강도, 운동주기 등과 같은 데이터를 지속적으로 축적하여 운동 이력을 관리할 수 있다. 이에 따라 사용자는 시간적, 공간적 제약 없이 운동성과를 확인하고 효과적으로 관리할 수 있다.
또한, 상기 유무선인터페이스부는 IrDA, Bluetooth, UWB 및 ZigBee 등을 포함하는 무선 통신망을 통해 스마트 단말, 리모트컨트롤러 및 전용 단말기를 포함하는 외부기기와 통신을 수행할 수 있다. 상기 유무선인터페이스부는 상기 외부기기로부터 운동프로그램을 입력받을 수도 있고, 또는 제어신호를 입력받아 이를 기반으로 상기 인터페이스화면제공부(300)의 동작을 제어할 수도 있다. 사용자는 무선 통신망을 통해 스마트폰, 태블릿 PC 등과 같은 스마트단말이나 리모트컨트롤러 또는 전용 제어 단말기를 포함하는 외부기기를 이용하여 가상의 운동공간으로 투사되는 영상의 크기, 거리 및 위치를 무선으로 원격에서 조절할 수 있다. 이와 같이 외부기기를 이용할 경우, 영상의 크기, 거리 및 위치를 조절하는 하드웨어적 제어 이외에도 실행되는 운동프로그램을 바꾸거나 운동프로그램 내 운동레벨을 높이는 등의 소프트웨어적 제어도 가능할 수 있다.
또한, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)은 전원공급부(미도시)를 더 포함할 수 있다. 상기 전원공급부는 제어부(100), 동작인식센서부(200), 인터페이스화면제공부(300) 및 디스플레이부(400) 등의 구성요소에 전원을 공급할 수 있다. 전원공급부는 전원 케이블을 이용하여 외부에서 전원을 공급받아 상기 구성요소로 공급하거나, 충전식 내장 배터리로 구현되어 상기 구성요소로 전원을 공급할 수 있다.
도 2는 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도(Flowchart)이다. 도 2에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(20)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다.
도 2를 참조하면, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(20)은, 인터페이스화면제공부(300)가 사용자의 운동공간을 향해 인터페이스 화면을 투사하는 단계(S21)를 포함할 수 있다.
다음으로, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(20)은, 동작인식센서부(200)가 상기 사용자의 동작을 인식하는 단계(S22)를 포함할 수 있다.
다음으로, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(20)은, 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 제어부(100)가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 단계(S23)를 포함할 수 있다.
일례로서, 상기 제어부(100)는 동작인식센서부(200)에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치를 분석하여 상기 사용자의 발, 무릎 및 골반이 이루는 각도가 제1 기준각도(예: 90도) 이하인 경우 사용자의 무릎이 굽혀진 것으로 판단할 수 있다. 제어부(100)는 동작인식센서부(200)에 의해 사용자가 어느 한쪽 다리의 무릎을 굽힌 상태를 제1 선택시간 동안 유지한 것으로 인식된 경우, 인터페이스 화면상에서 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다.
또한, 제어부(100)는, 상기 사용자가 상기 인터페이스 화면상에 두 발을 올리고 양 무릎을 굽히는 경우, 상기 제1 선택시간을 상기 사용자가 상기 인터페이스 화면상에 한쪽 발을 올리고 무릎을 굽힌 경우의 제1 선택시간보다 짧게 설정할 수 있다.
또한, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(20)은, 사용자가 인터페이스 화면상의 특정 버튼에 발을 올려놓은 후 버튼에 올려놓은 발에 대응되는 무릎을 굽히는 경우, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다. 즉, 제어부(100)는 사용자의 무릎이 굽혀졌는지 여부를 사용자가 인터페이스 화면상의 특정 버튼에 발을 올려놓은 이후에 판단할 수 있다. 또한, 제어부(100)는 사용자가 인터페이스 화면상의 특정 버튼에 발을 올려놓은 상태를 유지하면서 무릎을 굽힌 경우, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다.
일례로서, 사용자가 무릎을 굽혀 선택한 버튼이 팔굽혀펴기 버튼인 경우, 제어부(100)는 팔굽혀펴기 운동프로그램에 대응되는 화면을 디스플레이부(400)를 통해 표시하여 사용자가 팔굽혀펴기 운동을 할 수 있도록 하며, 실시예에 따라 인터페이스화면제공부(300)도 팔굽혀펴기 운동과 관련된 화면을 바닥면에 투사할 수 있다.
도 3은 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다. 도 3에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(30)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(30)은, 인터페이스화면제공부(300)가 사용자의 운동공간을 향해 인터페이스 화면을 투사하는 단계(S31)를 포함할 수 있다.
다음으로, 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(30)은, 동작인식센서부(200)가 상기 사용자의 동작을 인식하는 단계(S32)를 포함할 수 있다.
다음으로, 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(30)은, 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 제어부(100)가 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하는 단계(S33)를 포함할 수 있다.
즉, 제어부(100)는 동작인식센서부(200)를 통해 사용자의 발의 위치를 알 수 있고, 인터페이스화면제공부(300)를 통해 투사된 인터페이스 화면상에서 어떤 버튼이 사용자에 의해 선택되었는지 판단할 수 있다.
다음으로, 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(30)은, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 제어부(100)가 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S34)를 포함할 수 있다.
일례로서, 상기 제어부(100)는 동작인식센서부(200)에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치를 분석하여 상기 사용자의 발, 무릎 및 골반이 이루는 각도가 제1 기준각도(예: 90도) 이하인 경우 사용자의 무릎이 굽혀진 것으로 판단할 수 있고, 상기 사용자의 발, 무릎 및 골반이 이루는 각도가 제2 기준각도(예: 150도) 이상인 경우 사용자의 무릎이 펴진 것으로 판단할 수 있다. 제어부(100)는 동작인식센서부(200)에 의해 사용자의 굽혀진 무릎이 펴진 것으로 인식된 경우, 인터페이스 화면상에서 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치와 일치하는 버튼의 이벤트를 발생시킬 수 있다.
일례로서, 제어부(100)는 사용자의 무릎이 굽혀졌다 펴졌는지 여부를 사용자가 인터페이스 화면상의 특정 버튼에 발을 올려놓은 이후에 판단할 수 있다. 또한, 제어부(100)는 사용자가 인터페이스 화면상의 특정 버튼에 발을 올려놓은 상태를 유지하면서 무릎을 굽혔다 편 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수 있다.
도 4a 내지 도 4c는 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 사용 상태를 나타내는 도면이다.
도 4a를 참조하면, 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)의 인터페이스화면제공부(300)는 사용자가 위치한 바닥면에 인터페이스 화면(S)을 투사할 수 있다. 도 4a에 도시된 바와 같이, 인터페이스 화면(S)은 복수 개의 버튼들(B)을 포함할 수 있으나 이는 예시적인 것으로서 상기 인터페이스 화면(S)은 다양한 형태로 변경될 수 있다. 실시예에 따라, 상기 인터페이스 화면(S) 상에는 발자국이 표시된 준비위치가 존재할 수 있고, 사용자가 준비위치로 이동하는 경우 선택 가능한 운동 프로그램 버튼들이 인터페이스 화면(S)에 표시될 수도 있다.
도 4b를 참조하면, 사용자는 인터페이스 화면(S) 상의 어느 하나의 버튼(B)을 선택하여 발을 올려놓고 무릎을 굽힐 수 있다. 즉, 사용자는 준비위치로 이동한 후 전방의 버튼들(B) 중 어느 하나를 선택하여 발을 올려놓으면서 무릎을 굽힐 수 있다. 사용자가 인터페이스 화면상의 특정 버튼(B)에 발을 올려놓으면 제어부(100)가 동작인식센서부(200)를 통해 발을 올려놓은 버튼(B)을 감지할 수 있고, 사용자가 무릎을 굽히는 것도 동작인식센서부(200)가 감지할 수 있다.
도 2를 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(20)은, 사용자가 도 4b와 같이 인터페이스 화면(S) 상의 어느 하나의 버튼(B)에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼이 선택된 것으로 판단하고, 소정의 이벤트를 실행시킬 수 있다.
도 4c를 참조하면, 사용자는 자신의 선택의지를 명확히 표시하기 위해 한쪽 발을 선택 버튼 위에 올린 채로 도 4b에서 굽혔던 무릎을 펼 수 있다. 도 3을 참조하여 상술한 본 발명의 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(30)은, 사용자가 도 4b와 같이 무릎을 굽힌 후 도 4c와 같이 무릎을 펴는 경우 사용자가 굽혔다가 편 무릎에 대응되는 발의 위치와 일치하는 버튼이 선택된 것으로 판단하고, 소정의 이벤트를 실행시킬 수 있다.
한편, 실시예에 따라, 사용자는 양쪽 다리로 2개의 버튼을 선택할 수도 있고 양쪽 다리의 무릎을 모두 굽혀서 2개의 버튼을 선택할 수도 있다. 이에 따라, 사용자는 2개의 버튼을 조합하여 명령을 내릴 수도 있다.
도 5는 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다. 도 5에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(40)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다.
도 5를 참조하면, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(40)은, 인터페이스화면제공부(300)가 사용자의 운동공간을 향해 인터페이스 화면을 투사하는 단계(S41), 동작인식센서부(200)가 상기 사용자의 동작을 인식하는 단계(S42) 및 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 제어부(100)가 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하는 단계(S43)를 포함할 수 있다. 상기 S41, S42 및 S43 단계는 도 3을 참조하여 상술한 S31, S32 및 S33 단계와 유사하므로 자세한 설명은 생략한다.
다음으로, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(40)은, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우(S44 -> YES), 상기 제어부(100)가 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S45)를 포함할 수 있다. 상기 S45 단계는 도 3을 참조하여 상술한 S34 단계와 유사하므로 자세한 설명은 생략한다.
본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(40)은, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우(S44 -> NO), 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되면, 상기 제어부(100)가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 단계(S46)를 더 포함할 수 있다.
즉, 사용자가 인터페이스 화면상에 발을 올린 후 무릎을 펴지 않고 무릎을 굽힌 상태로 제1 선택시간 이상 유지하면, 제어부(100)는 사용자의 굽혀진 무릎에 대응되는 발의 위치와 일치하는 버튼이 선택된 것으로 판단하고 소정의 이벤트를 발생시킬 수 있다.
또한, 제어부(100)는, 상기 사용자가 상기 인터페이스 화면상에 두 발을 올리고 양 무릎을 굽히는 경우, 상기 제1 선택시간을 상기 사용자가 상기 인터페이스 화면상에 한쪽 발을 올리고 무릎을 굽힌 경우의 제1 선택시간보다 짧게 설정할 수 있다.
도 6은 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다. 도 6에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(50)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다.
도 6을 참조하면, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(50)은, 인터페이스화면제공부(300)가 사용자의 운동공간을 향해 인터페이스 화면을 투사하는 단계(S51), 동작인식센서부(200)가 상기 사용자의 동작을 인식하는 단계(S52) 및 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 제어부(100)가 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하는 단계(S53)를 포함할 수 있다. 상기 S51, S52 및 S53 단계는 도 3을 참조하여 상술한 S31, S32 및 S33 단계와 유사하므로 자세한 설명은 생략한다.
다음으로, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(50)은, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우(S54 -> YES), 상기 제어부(100)가 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S55)를 포함할 수 있다. 상기 S55 단계는 도 3을 참조하여 상술한 S34 단계와 유사하므로 자세한 설명은 생략한다.
본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(50)은, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우(S54 -> NO), 상기 사용자의 굽혀진 무릎 및 상기 사용자의 굽혀진 무릎에 대응되는 발 중 적어도 하나의 높이가 상승하면 상기 제어부(100)가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S56)를 더 포함할 수 있다.
즉, 사용자의 복장 상태와 주변의 환경 등에 의해 사용자의 무릎이 굽혀졌다 펴진 것이 감지가 되지 않을 수 있고, 때로는 사용자가 무릎을 굽혔다가 충분히 펴지 않고 발을 떼는 경우가 있으므로, 이러한 점을 감안하여 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(50)의 S56 단계가 수행될 수 있다.
상기 제어부(100)는, 사용자가 무릎을 굽혔다가 충분히 펴지 않고 발을 뗐을 경우에는, 무릎 관절의 높이 및 발의 높이 중 적어도 하나의 높이가 소정 거리 이상 상승하면 무릎이 완전히 펴지지 않아도 무릎이 정상적으로 펴진 것과 같이 인정하여 S56 단계를 수행할 수 있다. 일례로서, 상기 제어부(100)는 사용자의 무릎의 높이가 일정 거리 상승하는 경우, 무릎이 정상적으로 펴진 것과 같이 인정할 수 있다.
도 7은 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다. 도 7에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(60)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다.
도 7을 참조하면, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(60)에 포함되는 S61, S62, S63, S64 및 S65 단계는 도 6을 참조하여 상술한 S51, S52, S53, S54 및 S55 단계와 유사하므로 자세한 설명은 생략한다.
본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(60)은, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우(S64 -> NO), 상기 사용자의 골반, 척추 및 어깨 중 적어도 하나의 높이가 상승하면 상기 제어부(100)가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S66)를 더 포함할 수 있다.
즉, 사용자의 복장 상태와 주변의 환경 등에 의해 사용자의 무릎이 굽혀졌다 펴진 것이 감지가 되지 않을 수 있고, 때로는 사용자가 무릎을 굽혔다가 충분히 펴지 않고 발을 떼는 경우가 있으므로, 이러한 점을 감안하여 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(60)의 S66 단계가 수행될 수 있다.
상기 제어부(100)는, 사용자가 무릎을 굽혔다가 충분히 펴지 않고 발을 뗐을 경우에는, 사용자의 골반, 척추 및 어깨 중 적어도 하나의 높이가 일정 거리 이상 상승하면, 무릎이 완전히 펴지지 않아도 무릎이 정상적으로 펴진 것과 같이 인정하여 S66 단계를 수행할 수 있다. 일례로서, 상기 제어부(100)는 사용자의 골반과 어깨의 높이가 동시에 올라가는 경우, 무릎이 정상적으로 펴진 것과 같이 인정할 수 있다.
도 8은 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다. 도 8에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(70)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다.
도 8을 참조하면, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(70)에 포함되는 S71, S72, S73, S74 및 S75 단계는 도 6을 참조하여 상술한 S51, S52, S53, S54 및 S55 단계와 유사하므로 자세한 설명은 생략한다.
본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(70)은, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우(S74 -> NO), 상기 사용자의 굽혀진 무릎의 위치, 상기 사용자의 골반의 위치, 및 상기 사용자의 어깨의 위치 중 적어도 하나의 누적 변화량을 측정하여 상기 누적 변화량이 미리 설정된 임계치를 초과하면, 상기 제어부(100)가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S76)를 더 포함할 수 있다.
즉, 사용자의 복장 상태와 주변의 환경 등에 의해 사용자의 무릎이 굽혀졌다 펴진 것이 감지가 되지 않을 수 있는데, 사용자가 몸을 움직여서 버튼을 선택하려는 동작을 하는 과정에서 사용자의 무릎, 골반 및 어깨 중 적어도 하나의 누적 위치 변화량이 미리 설정된 임계치를 초과하는 경우에는, 사용자의 노력을 보상하는 차원에서 무릎이 정상적으로 펴진 것과 같이 인정하여 S76 단계가 수행될 수 있다. 제어부(100)는 동작인식센서부(200)에 의해 감지되는 사용자의 동작을 분석하여 상기 누적 위치 변화량을 측정할 수 있다. 일례로서, 상기 누적 위치 변화량은 사용자가 인터페이스 화면상의 특정 버튼에 발을 올려놓는 동안 측정될 수 있다.
도 9는 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 나타내는 순서도이다. 도 9에 도시된 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)에 의해 수행될 수 있다. 도 9에 도시된 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은, 도 3 및 도 6 내지 도 8을 참조하여 상술한 사용자 인식 컨텐츠 제공 시스템의 동작방법을 결합한 것이다.
도 9를 참조하면, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)에 포함되는 S81, S82 및 S83 단계는 도 6을 참조하여 상술한 S51, S52 및 S53 단계와 유사하므로 자세한 설명은 생략한다.
본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우(S84 -> YES), 상기 제어부(100)가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계(S88)를 포함할 수 있다.
다음으로, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은, 상기 사용자의 굽혀진 무릎이 펴지지 않은 경우(S84 -> NO), 상기 사용자의 굽혀진 무릎 및 상기 사용자의 굽혀진 무릎에 대응되는 발 중 적어도 하나의 높이가 상승하면(S85 -> YES) 상기 S88 단계가 수행될 수 있다.
다음으로, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은, 상기 사용자의 굽혀진 무릎 및 상기 사용자의 굽혀진 무릎에 대응되는 발 중 적어도 하나의 높이가 상승하지 않은 경우(S85 -> NO), 상기 사용자의 골반, 척추 및 어깨 중 적어도 하나의 높이가 상승하면(S86 -> YES) 상기 S88 단계가 수행될 수 있다.
다음으로, 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은, 상기 사용자의 골반, 척추 및 어깨 중 적어도 하나의 높이가 상승하지 않은 경우(S86 -> NO), 상기 사용자의 굽혀진 무릎의 위치, 상기 사용자의 골반의 위치, 및 상기 사용자의 어깨의 위치 중 적어도 하나의 누적 변화량을 측정하여 상기 누적 변화량이 미리 설정된 임계치를 초과하면(S87 -> YES), 상기 S88 단계가 수행될 수 있다. 상기 누적 변화량이 미리 설정된 임계치를 초과하지 않는 경우(S87 -> NO)에는, 다시 S84 단계로 돌아갈 수 있다.
도 9에 도시된 본 발명의 또 다른 실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법(80)은, 도 3 및 도 6 내지 도 8을 참조하여 상술한 사용자 인식 컨텐츠 제공 시스템의 동작방법을 결합한 것으로서, 알고리즘이 더욱 정교하여 사용자가 의도하는 입력을 누락시키지 않을 수 있다.
한편, 도 9에 도시된 S85, S86, S87 단계의 순서는 예시적인 것으로서 실시예에 따라 다양하게 변경될 수 있다. 또한, 실시예에 따라 도 5를 참조하여 상술한 S46 단계도 S85, S86, S87 단계와 함께 조합될 수 있다. 또한, S84, S85, S86, S87 단계는 제어부(100)에 의해 미리 설정된 소정의 시간 내에 결과를 판단할 수 있다.
한편, 본 발명에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법은, 도 2 내지 도 9를 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 수행하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록매체에 의해 수행될 수 있다. 또한, 본 발명에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법은, 하드웨어와 결합되어 도 2 내지 도 9를 참조하여 상술한 사용자 인식 컨텐츠 제공 시스템의 동작방법을 실행시키기 위하여 매체에 저장된 컴퓨터프로그램에 의해 수행될 수 있다. 본 발명에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법을 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함하며, 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수도 있다.
한편, 도 2 내지 도 9에 도시된 단계들의 순서는 예시적인 것으로서 본 발명의 효과를 상실하지 않는 범위에서 그 순서가 다양하게 변경될 수 있고, 실시예에 따라 특정 단계가 생략될 수도 있다.
도 10은 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템에 의해 투사되는 인터페이스 화면을 나타내는 도면이다.
도 10에 도시된 바와 같이, 상기 인터페이스 화면에는 발자국이 표시된 준비위치가 포함될 수 있고, 다양한 운동 프로그램에 대응되는 버튼들이 표시될 수 있다. 도 10에 도시된 화면은 예시적인 것으로서, 화면의 레이아웃이나 구성, 인터페이스, 구체적인 동작 등은 다양하게 변경될 수 있다.
한편, 도 2 내지 도 9를 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템의 동작방법과 관련하여, 상기 제어부(100)는, 상기 사용자가 상기 인터페이스 화면상에 발을 올려놓은 상태가 제2 선택시간 동안 유지되는 경우, 상기 사용자가 상기 인터페이스 화면상에 올려놓은 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시킬 수도 있다. 일례로서, 상기 제2 선택시간은 3초로 설정될 수 있으며, 제1 선택시간보다 길게 설정될 수 있다. 즉, 제어부(100)는 사용자가 인터페이스 화면상의 버튼을 선택할 때 무릎을 굽히는 동작 이외에도, 사용자가 특정 버튼에 발을 올려놓은 후 제2 선택시간 이상 유지하는 경우에도 해당 버튼이 선택된 것으로 판단할 수 있다.
다른 실시예로서, 상기 사용자가 상기 인터페이스 화면상의 특정 버튼에 두 발을 올려놓은 경우, 상기 제어부(100)는 상기 제2 선택시간을 상기 사용자가 상기 인터페이스 화면상의 특정 버튼에 한쪽 발을 올린 경우의 제2 선택시간보다 짧게 설정할 수 있다. 본 발명의 일실시예에 따른 사용자 인식 컨텐츠 제공 시스템(10)과 관련하여, 사용자가 인터페이스 화면상의 특정 버튼 위에 발을 올려놓은 상태를 제2 선택시간 동안 유지하여 특정 버튼을 선택하는 것을 “느린 선택”과 같은 용어로 정의할 수 있고, 상기 제2 선택시간은 “느린 선택시간”과 같은 용어로 정의할 수 있다.
전술한 바와 같이, 본 발명에 기재된 다양한 실시예들에 따르면, 사용자의 발의 위치, 무릎의 굽힘 동작, 및 무릎의 피는 동작과 각 동작에서의 유지시간을 다양하게 조합하여, 사용자의 특정 오브젝트의 선택의지를 효과적으로 파악할 수 있다. 이에 따라, 사용자의 오브젝트 선택의 성공률을 극대화 시킬 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 사용자 인식 컨텐츠 제공 시스템은, 사용자의 동작을 인식하여 운동 메뉴를 선택하고, 선택된 메뉴에 대응하는 운동 컨텐츠를 제공하는 운동시스템을 예를 들어 설명하였다. 그러나, 이에 한정되는 것은 아니고, 다른 다양한 어플리케이션, 예컨대, 사용자가 위치하는 공간에 인터페이스 화면을 투시하고, 사용자가 인터페이스 화면에 투시된 메뉴를 선택함으로써, 다양한 광고를 선택하는 광고장치에도 적용할 수 있다. 또한, 재활이 필요한 사용자에게, 사용자가 위치하는 공간에 인터페이스 화면을 투시하고, 재활이 필요한 사용자가 인터페이스 화면에 투시된 메뉴를 선택함으로써, 다양한 재활 동작을 제공하는 재활 의료장치에도 적용할 수 있다.
본 명세서에 기재된 다양한 실시예들은 하드웨어, 미들웨어, 마이크로코드, 소프트웨어 및/또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 실시예들은 하나 이상의 주문형 반도체(ASIC)들, 디지털 신호 프로세서(DSP)들, 디지털 신호 프로세싱 디바이스(DSPD)들, 프로그램어블 논리 디바이스(PLD)들, 필드 프로그램어블 게이트 어레이(FPGA)들, 프로세서들, 컨트롤러들, 마이크로컨트롤러들, 마이크로프로세서들, 여기서 제시되는 기능들을 수행하도록 설계되는 다른 전자 유닛들 또는 이들의 조합 내에서 구현될 수 있다.
또한, 예를 들어, 다양한 실시예들은 명령들을 포함하는 컴퓨터-판독가능한 매체에 수록되거나 인코딩될 수 있다. 컴퓨터-판독가능한 매체에 수록 또는 인코딩된 명령들은 프로그램 가능한 프로세서 또는 다른 프로세서로 하여금 예컨대, 명령들이 실행될 때 방법을 수행하게끔 할 수 있다. 컴퓨터-판독가능한 매체는 컴퓨터 저장 매체, 및 하나의 장소로부터 다른 장소로 컴퓨터 프로그램의 이송을 용이하게 하는 임의의 매체를 포함하는 통신 매체 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 예를 들어, 이러한 컴퓨터-판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광학 디스크 저장 매체, 자기 디스크 저장 매체 또는 기타 자기 저장 디바이스, 또는 원하는 프로그램 코드를 컴퓨터에 의해 액세스가능한 명령들 또는 데이터 구조들의 형태로 반송하거나 저장하는데 이용될 수 있는 임의의 다른 매체를 포함할 수 있다.
이러한 하드웨어, 소프트웨어, 펌웨어 등은 본 명세서에 기술된 다양한 동작들 및 기능들을 지원하도록 동일한 디바이스 내에서 또는 개별 디바이스들 내에서 구현될 수 있다. 추가적으로, 본 발명에서 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.
특정한 순서로 동작들이 도면에 도시되어 있지만, 이러한 동작들이 원하는 결과를 달성하기 위해 도시된 특정한 순서, 또는 순차적인 순서로 수행되거나, 또는 모든 도시된 동작이 수행되어야 할 필요가 있는 것으로 이해되지 말아야 한다. 임의의 환경에서는, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 상술한 실시예에서 다양한 구성요소들의 구분은 모든 실시예에서 이러한 구분을 필요로 하는 것으로 이해되어서는 안되며, 기술된 구성요소들이 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있다는 것이 이해되어야 한다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.
100: 제어부 200: 동작인식센서부
300: 인터페이스화면제공부 310: 프로젝터부
320: 반사부 400: 디스플레이부

Claims (14)

  1. 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 인터페이스화면제공부;
    상기 사용자의 동작을 인식하는 동작인식센서부; 및
    상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 제어부를 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템.
  2. 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 인터페이스화면제공부;
    상기 사용자의 동작을 인식하는 동작인식센서부; 및
    상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하고, 상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 제어부를 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템.
  3. 제1항 또는 제2항에 있어서, 상기 사용자 인식 컨텐츠 제공 시스템은,
    상기 제어부의 제어에 따라, 상기 인터페이스 화면 또는 상기 소정의 이벤트에 대응되는 콘텐츠 화면을 표시하는 디스플레이부를 더 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템.
  4. 제3항에 있어서, 상기 제어부는,
    상기 동작인식센서부에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치에 따라 상기 사용자의 무릎이 굽혀졌는지 여부를 판단하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템.
  5. 인터페이스화면제공부가 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 단계;
    동작인식센서부가 상기 사용자의 동작을 인식하는 단계; 및
    상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되는 경우, 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 단계를 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  6. 인터페이스화면제공부가 사용자가 위치하는 공간을 향해 인터페이스 화면을 투사하는 단계;
    동작인식센서부가 상기 사용자의 동작을 인식하는 단계;
    상기 사용자가 상기 인터페이스 화면상에 발을 올려놓는 경우, 제어부가 상기 사용자의 발의 위치와 상기 인터페이스 화면을 비교하는 단계; 및
    상기 인터페이스 화면상에 올려놓은 발에 대응되는 상기 사용자의 무릎이 굽혔다 펴지는 경우, 상기 제어부가 상기 사용자의 굽혔다 펴진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  7. 제6항에 있어서,
    상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자가 상기 인터페이스 화면상에 발을 올리고 무릎을 굽힌 상태가 제1 선택시간 동안 유지되면, 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 단계를 더 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  8. 제6항에 있어서,
    상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자의 굽혀진 무릎 및 상기 사용자의 굽혀진 무릎에 대응되는 발 중 적어도 하나의 높이가 상승하면 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 더 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  9. 제6항에 있어서,
    상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자의 골반, 척추 및 어깨 중 적어도 하나의 높이가 상승하면 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 더 포함하는 것을 특징으로 하는 컨텐츠 제공 시스템의 동작방법.
  10. 제6항에 있어서,
    상기 사용자의 굽혀진 무릎이 펴지지 않은 경우, 상기 사용자의 굽혀진 무릎의 위치, 상기 사용자의 골반의 위치, 및 상기 사용자의 어깨의 위치 중 적어도 하나의 누적 변화량을 측정하여 상기 누적 변화량이 미리 설정된 임계치를 초과하면, 상기 제어부가 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교한 결과에 따라 소정의 이벤트를 발생시키는 단계를 더 포함하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  11. 제5항 내지 제10항 중 어느 한 항에 있어서, 상기 제어부는,
    상기 사용자가 상기 인터페이스 화면상에 발을 올려놓은 상태가 제2 선택시간 동안 유지되는 경우, 상기 사용자가 상기 인터페이스 화면상에 올려놓은 발의 위치를 상기 인터페이스 화면과 비교하여 소정의 이벤트를 발생시키는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  12. 제5항 또는 제6항 중 어느 한 항에 있어서, 상기 제어부는,
    상기 동작인식센서부에 의해 측정된 상기 사용자의 발, 무릎 및 골반의 위치에 따라 상기 사용자의 무릎이 굽혀졌는지 여부를 판단하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  13. 제5항 또는 제6항 중 어느 한 항에 있어서, 상기 제어부는,
    상기 인터페이스화면제공부의 위치, 상기 인터페이스화면제공부가 상기 인터페이스 화면을 투사하는 방향, 상기 인터페이스 화면이 투사되는 공간의 바닥면 및 상기 동작인식센서부의 위치 중 적어도 하나를 고려하여 상기 사용자의 굽혀진 무릎에 대응되는 발의 위치를 상기 인터페이스 화면과 비교 분석하는 것을 특징으로 하는 사용자 인식 컨텐츠 제공 시스템의 동작방법.
  14. 제5항 내지 제10항 중 어느 한 항에 기재된 사용자 인식 컨텐츠 제공 시스템의 동작방법을 수행하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록매체.
KR1020160073414A 2016-06-13 2016-06-13 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법 KR101860753B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160073414A KR101860753B1 (ko) 2016-06-13 2016-06-13 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법
PCT/KR2017/006112 WO2017217725A1 (ko) 2016-06-13 2017-06-13 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160073414A KR101860753B1 (ko) 2016-06-13 2016-06-13 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20170140726A true KR20170140726A (ko) 2017-12-21
KR101860753B1 KR101860753B1 (ko) 2018-05-24

Family

ID=60663647

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160073414A KR101860753B1 (ko) 2016-06-13 2016-06-13 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법

Country Status (2)

Country Link
KR (1) KR101860753B1 (ko)
WO (1) WO2017217725A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190130761A (ko) * 2018-05-15 2019-11-25 (주)블루클라우드 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
KR102049096B1 (ko) * 2019-03-27 2019-11-26 주식회사 마이베네핏 혼합 현실 기반의 운동 시스템
KR102051004B1 (ko) * 2019-05-03 2019-12-03 주식회사 마이베네핏 최적화된 음향을 제공하는 혼합 현실 기반 운동 시스템
KR20200122202A (ko) * 2019-04-17 2020-10-27 주식회사 지티온 신체 움직임 인식을 이용한 가상 인터렉티브 컨텐츠 실행 시스템
KR20200126578A (ko) 2019-04-30 2020-11-09 부산대학교 산학협력단 스마트 거울, 스마트 거울 재활 시스템 및 스마트 거울을 이용한 재활 훈련 방법
KR102366102B1 (ko) * 2021-08-20 2022-02-24 주식회사 조이펀 3차원 캐릭터 기반 실감형 인터렉티브 운동 컨텐츠 제공 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12017112B2 (en) * 2021-03-05 2024-06-25 John S. Keeney Agility ladder projection systems, devices, and methods
KR102354559B1 (ko) 2021-08-24 2022-01-21 한국기술교육대학교 산학협력단 콘텐츠 제어용 다종 인터페이스 장치
KR102510412B1 (ko) 2022-01-21 2023-03-16 서정협 양방향 증강현실 콘텐츠 생성 시스템
KR102434017B1 (ko) 2022-03-30 2022-08-22 유디포엠(주) 증강현실 콘텐츠 출력 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960006880A (ko) * 1994-08-01 1996-03-22 유재원 영양평가 및 운동처방에 의한 종합 건강 관리 시스템
KR101196761B1 (ko) * 2010-03-08 2012-11-05 에스케이플래닛 주식회사 제스처 인식을 이용한 콘텐츠 전송 방법 및 그 단말기
US11133096B2 (en) * 2011-08-08 2021-09-28 Smith & Nephew, Inc. Method for non-invasive motion tracking to augment patient administered physical rehabilitation
KR101694402B1 (ko) * 2014-11-21 2017-01-24 대한민국 투사 영상을 이용한 보행 재활 치료 보조 시스템 및 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190130761A (ko) * 2018-05-15 2019-11-25 (주)블루클라우드 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
KR102049096B1 (ko) * 2019-03-27 2019-11-26 주식회사 마이베네핏 혼합 현실 기반의 운동 시스템
KR20200122202A (ko) * 2019-04-17 2020-10-27 주식회사 지티온 신체 움직임 인식을 이용한 가상 인터렉티브 컨텐츠 실행 시스템
KR20200126578A (ko) 2019-04-30 2020-11-09 부산대학교 산학협력단 스마트 거울, 스마트 거울 재활 시스템 및 스마트 거울을 이용한 재활 훈련 방법
KR102051004B1 (ko) * 2019-05-03 2019-12-03 주식회사 마이베네핏 최적화된 음향을 제공하는 혼합 현실 기반 운동 시스템
KR102366102B1 (ko) * 2021-08-20 2022-02-24 주식회사 조이펀 3차원 캐릭터 기반 실감형 인터렉티브 운동 컨텐츠 제공 시스템

Also Published As

Publication number Publication date
KR101860753B1 (ko) 2018-05-24
WO2017217725A1 (ko) 2017-12-21

Similar Documents

Publication Publication Date Title
KR101860753B1 (ko) 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법
KR102099316B1 (ko) 헬스케어를 위한 증강현실 디스플레이 장치 및 이를 이용한 헬스케어 시스템
US20180046874A1 (en) System and method for marker based tracking
Nilsson et al. Tapping-in-place: Increasing the naturalness of immersive walking-in-place locomotion through novel gestural input
US9891435B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
TWI638280B (zh) 自動配置感測器的方法、電子設備及記錄媒體
CN113994396A (zh) 基于增强现实和/或姿势检测技术的用户引导系统
CN114078190B (zh) 健身运动的引导设备
US20220198780A1 (en) Information processing apparatus, information processing method, and program
US8779908B2 (en) System and method for social dancing
US10853966B2 (en) Virtual space moving apparatus and method
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
KR102125254B1 (ko) 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
KR20180058139A (ko) 스마트 헬스 서비스 시스템 및 스마트 헬스 서비스 방법
KR20220127568A (ko) 홈 트레이닝 서비스 제공 방법 및 그를 수행하는 디스플레이 장치
WO2022089769A1 (en) Device with a display and a contactless temperature sensing unit
CN109166257A (zh) 一种购物车商品核验方法及其装置
KR20220120731A (ko) 거울형 디스플레이를 활용한 어포던스 헬스케어 콘텐츠 제공방법 및 장치
EP4270317A1 (en) Foot shape measurement apparatus and computer program
JP2023168557A (ja) プログラム、方法、情報処理装置
KR20120009657A (ko) 골프 시뮬레이션 시스템 및 그 제어방법
EP3493541B1 (en) Selecting an omnidirectional image for display
KR102287939B1 (ko) 동영상을 이용하여 3차원 이미지를 렌더링하는 장치 및 방법
KR20160150215A (ko) 실감형 인터랙티브 콘텐츠에 기반한 운동시스템 및 그 방법
KR20150073754A (ko) 동작 훈련 장치 및 동작 훈련 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant