KR101745498B1 - 인터랙티브 콘텐츠 제공시스템 및 방법 - Google Patents

인터랙티브 콘텐츠 제공시스템 및 방법 Download PDF

Info

Publication number
KR101745498B1
KR101745498B1 KR1020150075170A KR20150075170A KR101745498B1 KR 101745498 B1 KR101745498 B1 KR 101745498B1 KR 1020150075170 A KR1020150075170 A KR 1020150075170A KR 20150075170 A KR20150075170 A KR 20150075170A KR 101745498 B1 KR101745498 B1 KR 101745498B1
Authority
KR
South Korea
Prior art keywords
interactive content
motion
clients
content providing
user
Prior art date
Application number
KR1020150075170A
Other languages
English (en)
Other versions
KR20160139742A (ko
Inventor
이용렬
Original Assignee
(주)지엘어소시에이츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지엘어소시에이츠 filed Critical (주)지엘어소시에이츠
Priority to KR1020150075170A priority Critical patent/KR101745498B1/ko
Publication of KR20160139742A publication Critical patent/KR20160139742A/ko
Application granted granted Critical
Publication of KR101745498B1 publication Critical patent/KR101745498B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B5/00Apparatus for jumping
    • A63B5/11Trampolines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

인터랙티브 콘텐츠 제공시스템이 개시된다. 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템은, 인터랙션 공간을 둘러싸는 형태로 배치되며 적어도 하나의 디스플레이 장치를 각각 구비한 복수 개의 클라이언트, 상기 복수 개의 클라이언트 중 적어도 일부에 구비되며 상기 인터랙션 공간 내에서 움직이는 적어도 하나의 객체를 인식하여 상기 적어도 하나의 객체에 상응하는 이미지 데이터를 수집하는 적어도 하나의 동작인식장치, 상기 적어도 하나의 객체의 모션 데이터를 센싱하기 위한 적어도 하나의 모션센서, 및 상기 복수 개의 클라이언트들 중 적어도 일부에 상기 적어도 하나의 객체와 인터랙션이 수행되는 인터랙티브 콘텐츠가 디스플레이되도록 제어하는 제어 시스템을 포함하며, 상기 제어 시스템은, 상기 이미지 데이터 및 상기 모션 데이터에 기초하여 상기 적어도 하나의 객체에 대응되는 방향정보를 추적하고, 상기 복수 개의 클라이언트들 중 상기 방향정보에 상응하는 클라이언트에서 상기 인터랙티브 콘텐츠가 선택적으로 디스플레이되도록 제어하는 것을 특징으로 한다.

Description

인터랙티브 콘텐츠 제공시스템 및 방법{Interactive content providing system and method thereof}
본 발명은 인터랙티브 콘텐츠 제공시스템 및 그 방법에 관한 것으로, 보다 상세하게는 소정의 공간(인터랙션 공간) 내에서 움직이는 적어도 하나의 객체의 위치정보 및 상기 적어도 하나의 객체의 방향(예컨대, 시선방향)을 보다 정밀하고 지속적으로 각각 추적하고, 추적된 객체의 위치 및 방향에 따라 실시간으로 인터랙션이 수행되는 인터랙티브 콘텐츠를 제공할 수 있는 기술적 사상에 관한 것이다.
소정의 공간 내에서 움직이는 객체(사용자)의 동작을 인식하고, 인식된 동작을 적용하여 사용자에게 보다 실감나는 체험이나 놀이 등을 제공할 수 있는 인터랙티브 콘텐츠(예컨대, 게임 등)가 확산되고 있다.
이러한 인터랙티브 콘텐츠를 제공하기 위해서는 사용자(객체)의 움직임을 인식할 수 있는 동작인식장치가 필수적인데, 이러한 동작인식장치 중 최근 마이크로소프트사에서 개발된 키넥트(kinect)가 대표적으로 널리 보급되어 있다.
상기 키넥트는 이전의 동작인식장치들과 달리 사용자가 별도의 센서 컨트롤러를 들거나 부착하는 방식이 아니라 사용자의 동작을 별도의 외부 가속도 센서 없이 직접 인식적으로 인식하는 방식을 채택하고 있는데, 적외선 센서, RGB 카메라, 깊이 센서 등의 세 가지 센서를 통해 사용자의 동작을 비교적 정확하게 인식하는 것이 가능하여 응용범위가 빠르고 폭넓게 확장되고 있다.
그러나, 상기 키넥트의 경우 기본적으로 비전기반의 영상인식을 실시하고 있는데, 이러한 방식에서는 공간에 대한 입체적인 인식에 한계가 나타날 수밖에 없는 문제점이 있다. 이러한 일 예가 도 1에 도시된다.
도 1은 일반적인 동작인식장치(예컨대, 키넥트)의 인식범위의 일 예를 나타낸다.
도 1을 참조하면, 일반적으로 동작인식장치가 객체를 인식할 수 있는 인터랙션 공간은 상기 동작인식장치의 정면에 평면적으로 구성되게 되며, 입체적인 인식이 어려운 것을 알 수 있다. 즉, 도면에 도시된 바와 같이 상기 인터랙션 공간 내에 복수의 객체(예컨대, a, b)가 겹쳐지도록 위치하는 경우 즉, 어느 한 객체(예컨대, b)가 상기 동작인식장치에 구비된 카메라의 시야에서 가려지게 되는 경우 상기 동작인식장치는 해당 객체(예컨대, b)의 추적을 소실하게 되며, 상기 b를 더 이상 인식할 수 없게 되는 문제점이 있다.
이러한 문제점에 의해 상기 동작인식장치를 이용한 인터랙티브 콘텐츠의 경우 사용자의 수가 한 명 또는 두 명으로 제한적일 수밖에 없으며, 특히 두 명 이상의 사용자가 상기 인터랙티브 콘텐츠를 이용하는 경우에도 사용자들의 위치 역시 상기 동작인식장치의 정면에서 벗어나지 않도록 지극히 제한될 수밖에 없는 즉, 사용자들의 위치는 사실상 고정적일 수밖에 없는 한계가 있다.
한편, 트램펄린은 탄력있는 트램펄린 상에서 점프하는 재미로 인해 예전부터 오랜 시간동안 아이들의 놀이기구로 인기를 얻고 있다. 그러나, 일반적인 트램펄린을 이용한 놀이기구의 경우 단순히 트램펄린 상에서 사용자가 점프하는 것 외에는 다른 콘텐츠가 적용되는 경우가 많지 않은 아쉬움이 존재한다.
하지만 상기 동작인식장치를 이용해 상기 트램펄린과 상기 인터랙티브 콘텐츠를 연동하고자 하는 경우, 상기 트램펄린 상에서의 사용자의 움직임은 상대적으로 격렬하고 그 방향 등을 예측하기 어려우며, 전술한 동작인식장치의 한계로 인해 트램펄린과 인터랙티브 콘텐츠를 연동하고자 하는 시도가 없었다.
따라서, 입체적 공간 내에서 객체(사용자)의 3차원 위치정보 및 상기 객체(사용자)의 방향정보(예컨대, 시선방향)을 용이하게 추적할 수 있도록 함으로써, 사용자의 움직임과 시선방향에 반응하는 인터랙티브 콘텐츠를 제공할 수 있는 기술적 사상이 요구된다.
또한, 상기 적어도 하나의 동작인식장치들에 더하여 하나의 객체가 착용(또는 부착)할 수 있는 모션센서를 이용함으로써, 소정의 공간 내에 위치한 객체들(복수의 사용자들)의 격렬하고 예측 불가능한 움직임(예컨대, 트램펄린 등에서의 움직임)을 보다 정확하고 지속적으로 추적할 수 있도록 하는 기술적 사상이 요구된다.
또한 이를 통해 트램펄린과 인터랙티브 콘텐츠를 연동하여 보다 활동적이고 흥미로운 인터랙티브 콘텐츠를 제공할 수 있도록 하는 기술적 사상이 요구된다.
한국등록특허(등록번호 10-1339644, "움직이는 객체의 위치인식장치 및 방법")
따라서, 본 발명이 이루고자 하는 기술적인 과제는 입체적 공간 내에서 객체(사용자)의 3차원 위치정보 및 상기 객체(사용자)의 방향정보(예컨대, 시선방향)을 용이하게 추적할 수 있도록 함으로써, 사용자의 움직임과 시선방향에 반응하는 인터랙티브 콘텐츠를 제공할 수 있도록 하는 것이다.
또한, 상기 적어도 하나의 동작인식장치들에 더하여 하나의 객체가 착용(또는 부착)할 수 있는 모션센서를 이용함으로써, 소정의 공간 내에 위치한 객체들(복수의 사용자들)의 격렬하고 예측 불가능한 움직임(예컨대, 트램펄린 등에서의 움직임)을 보다 정확하고 지속적으로 추적할 수 있도록 하는 기술적 사상을 제공하는 것이다.
또한 이를 통해 트램펄린과 인터랙티브 콘텐츠를 연동하여 보다 활동적이고 흥미로운 인터랙티브 콘텐츠를 제공할 수 있도록 하는 것이다.
상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템은, 인터랙션 공간을 둘러싸는 형태로 배치되며 디스플레이 장치를 각각 구비한 복수 개의 클라이언트, 상기 복수 개의 클라이언트 중 적어도 일부에 구비되며 상기 인터랙션 공간 내에서 움직이는 객체를 인식하여 상기 객체에 상응하는 이미지 데이터를 수집하는 적어도 하나의 동작인식장치, 상기 객체의 모션 데이터를 센싱하기 위한 적어도 하나의 모션센서, 및 상기 복수 개의 클라이언트들 중 적어도 일부에 상기 객체와 인터랙션이 수행되는 인터랙티브 콘텐츠가 디스플레이되도록 제어하는 제어 시스템을 포함하며, 상기 제어 시스템은, 상기 이미지 데이터 및 상기 모션 데이터에 기초하여 상기 객체에 대응되는 방향정보를 추적하고, 상기 복수 개의 클라이언트들 중 상기 방향정보에 상응하는 클라이언트에서 상기 인터랙티브 콘텐츠가 선택적으로 디스플레이되도록 제어하는 것을 특징으로 할 수 있다.
또한, 상기 인터랙티브 콘텐츠 제공시스템은, 상기 인터랙션 공간 내에 트램펄린이 구비되며, 상기 제어 시스템은, 상기 이미지 데이터 및 상기 모션 데이터에 기초하여 상기 객체에 대응되는 위치정보를 더 추적하고, 상기 인터랙티브 콘텐츠에서 상기 위치정보 중 상기 트램펄린 상에서 상기 객체의 높이에 기초한 인터랙션이 수행되는 것을 특징으로 할 수 있다.
또한, 상기 복수 개의 클라이언트는, 상기 적어도 하나의 디스플레이 장치의 적어도 일부가 상기 트램펄린의 높이보다 높이 위치하도록 배치되는 것을 특징으로 할 수 있다.
또한, 상기 제어 시스템은, 콘텐츠를 저장하는 저장부, 상기 복수 개의 동작인식장치 각각으로부터 상기 이미지 데이터 또는 상기 모션센서로부터 상기 모션 데이터 중 적어도 하나를 수신하는 수신부, 상기 복수 개의 동작인식장치로부터 수신된 각각의 이미지 데이터를 이용하여 상기 객체의 위치정보 또는 방향정보 중 적어도 하나를 추적하는 위치부, 및 상기 복수 개의 클라이언트들 중 적어도 일부에 상기 객체와 인터랙션이 수행되는 인터랙티브 콘텐츠가 디스플레이되도록 제어하는 제어부를 포함할 수 있다.
또한, 상기 모션센서는, 자이로 3축, 가속도 3축 및 지자기 3축을 포함하는 9축 모션센서인 것을 특징으로 할 수 있다.
또한, 상기 모션센서는, 상기 객체가 착용할 수 있는 웨어러블 디바이스에 구비되는 것을 특징으로 할 수 있다.
또한, 상기 적어도 하나의 동작인식장치는, 각각의 인식범위가 서로 다른 방향으로부터 상기 인터랙션 공간을 향해 서로 겹치는 것을 특징으로 할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 기술적 사상에 따른 인터랙티브 콘텐츠 제공방법은, 인터랙티브 콘텐츠 제공시스템이, 인터랙션 공간을 둘러싸는 형태로 배치되며 디스플레이 장치를 각각 구비한 복수 개의 클라이언트들 중 적어도 일부에 구비된 적어도 하나의 동작인식장치로부터 수집된 상기 인터랙션 공간 내의 객체에 상응하는 이미지 데이터 및 상기 객체의 모션 데이터에 기초하여 상기 객체에 대응되는 방향정보를 판단하는 단계, 및 상기 인터랙티브 콘텐츠 제공시스템이 상기 복수 개의 클라이언트들 중 상기 방향정보에 상응하는 클라이언트에서 상기 인터랙티브 콘텐츠가 선택적으로 디스플레이되도록 제어하는 단계를 포함할 수 있다.
또한, 상기 인터랙티브 콘텐츠 제공방법은, 상기 인터랙티브 콘텐츠 제공시스템이 상기 이미지 데이터 및 상기 모션 데이터에 기초하여 상기 객체에 대응되는 위치정보를 판단하는 단계, 및 상기 인터랙티브 콘텐츠 제공시스템이 상기 인터랙티브 콘텐츠에서 상기 위치정보를 이용하여 상기 인터랙션 공간 내에 구비되는 트램펄린 상에서 상기 객체의 점프 액션에 기초한 인터랙션을 수행하는 단계를 더 포함할 수 있다.
또한, 본 발명의 기술적 사상을 수행하기 위해 데이터 처리장치에 설치되어 상기 인터랙티브 콘텐츠 제공방법을 수행하기 위한 기록매체에 기록된 컴퓨터 프로그램이 제공될 수 있다.
본 발명의 기술적 사상에 의하면, 입체적 공간 내에서 객체(사용자)의 3차원 위치정보 및 상기 객체(사용자)의 방향정보(예컨대, 시선방향)을 용이하게 추적할 수 있도록 함으로써, 사용자의 움직임과 시선방향에 반응하는 인터랙티브 콘텐츠를 제공할 수 있는 효과가 있다.
또한, 상기 적어도 하나의 동작인식장치들에 더하여 하나의 객체가 착용(또는 부착)할 수 있는 모션센서를 이용함으로써, 소정의 공간 내에 위치한 객체들(복수의 사용자들)의 격렬하고 예측 불가능한 움직임(예컨대, 트램펄린 등에서의 움직임)을 보다 정확하고 지속적으로 추적할 수 있어 트램펄린과 인터랙티브 콘텐츠를 용이하게 연동할 수 있는 효과가 있다.
또한 이를 통해 트램펄린과 인터랙티브 콘텐츠를 연동하여 보다 활동적이고 흥미로운 인터랙티브 콘텐츠를 사용자에게 제공할 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 일반적인 동작인식장치(예컨대, 키넥트)의 인식범위의 일 예를 나타낸다.
도 2는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템의 개략적인 구성을 나타낸다.
도 3은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템의 개략적인 구현 예를 나타낸다.
도 4는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템의 평면도를 나타낸다.
도 5는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 포함되는 클라이언트의 구현 예를 나타낸다.
도 6은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 포함된 클라이언트에 구비되는 디스플레이 장치의 적용 예를 나타낸다.
도 7은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 의해 제공되는 인터랙티브 콘텐츠의 구현 예를 나타낸다.
도 8은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 포함되는 제어 시스템의 개략적인 구성을 나타낸다.
도 9는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템이 인터랙션 공간 내에서 객체를 인식하는 방식의 일 예를 나타낸다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
또한, 본 명세서에서 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다.
반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 2는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템의 개략적인 구성을 나타낸다.
도 2를 참조하면, 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템(100)은 디스플레이 장치가 구비되는 복수 개의 클라이언트(110), 상기 복수 개의 클라이언트 중 적어도 일부에 구비되며 상기 인터랙션 공간에서 움직이는 객체를 인식하여 상기 객체에 상응하는 이미지 데이터를 수집하는 적어도 하나의 동작인식장치(120), 상기 객체에 대한 모션 데이터를 센싱하기 위한 적어도 하나의 모션센서(130), 및 상기 복수 개의 클라이언트(110)들 중 적어도 일부에 인터랙티브 콘텐츠가 디스플레이되도록 제어하는 제어 시스템(140)을 포함할 수 있다.
상기 인터랙티브 콘텐츠 제공시스템(100) 및/또는 상기 제어 시스템(140)은 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 인터랙티브 콘텐츠 제공시스템(100)은 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다.
또한 상기 제어 시스템(140)은 예컨대, 컴퓨터 등과 같이 네트워크와 연결되어 후술할 동작인식장치 및/또는 모션센서와 본 발명의 기술적 사상을 구현하기 위해 필요한 데이터를 송수신할 수 있는 모든 형태의 데이터 프로세싱 장치에 설치되어 본 발명의 기술적 사상을 구현하기 위한 동작들을 수행할 수 있다.
구현 예에 따라, 상기 제어 시스템(140)은 소정의 서버로 구현될 수도 있으며, 이러한 경우 상기 제어 시스템(140)은 상기 단말기, 상기 동작인식장치 및/또는 상기 모션센서와 네트워크를 통해 통신을 수행하면서 소정의 데이터를 송수신함으로써 본 발명의 기술적 사상을 구현할 수 있다.
또는, 상기 제어 시스템(140)은 일부의 구성은 소정의 서버에 포함되고, 나머지 일부의 구성은 상기 단말기에 설치되어 상기 서버 및 상기 단말기가 유기적으로 결합하여 본 발명의 기술적 사상을 구현할 수도 있다. 이하 설명의 편의를 위해 본 명세서에서는 상기 제어 시스템(140)이 서버로 구현되는 경우를 위주로 설명하지만 본 발명의 권리범위가 이에 한정되는 것은 아니다.
한편 상기 복수 개의 클라이언트(110)에서 디스플레이 되는 인터랙티브 콘텐츠는 후술할 본 발명의 기술적 사상에 따라 상기 인터랙션 공간 내에 위치한 객체의 위치정보(3차원 위치) 및/또는 방향정보(시선방향)가 추적되면, 추적된 해당 객체의 위치정보 및/또는 방향정보에 따라 실시간으로 상기 인터랙티브 콘텐츠에 포함된 가상 객체 또는 가상 공간이 조작되거나 영향을 받도록 하는 콘텐츠를 의미할 수 있다. 예컨대, 별도의 콘트롤러를 구비하지 않고, 감지되는 사용자의 위치(예컨대, 사용자의 이동/점프 여부에 따른 위치) 및/또는 방향(예컨대, 시선방향)으로 조작이나 인터랙션이 가능한 소정의 콘텐츠나 플레이가 가능한 게임 콘텐츠가 상기 인터랙티브 콘텐츠로 정의될 수 있다.
또한 본 명세서에서 인터랙션 공간이라 함은, 상기 인터랙티브 콘텐츠 제공시스템(100)에 의해 객체가 감지될 수 있는 소정의 범위를 의미할 수 있다. 예컨대, 상기 인터랙션 공간은 상기 복수 개의 클라이언트(110)에 의해 둘러싸인 내부 공간을 의미할 수 있다.
한편 상기 동작인식장치(120)는 사용자(객체)의 움직임을 인식할 수 있는 장치를 의미할 수 있으며, 예컨대 마이크로소프트사에서 개발된 키넥트(kinect)로 구현될 수 있다. 이하 본 명세서에서는 설명의 편의를 위해 상기 동작인식장치(120)가 상기 키넥트로 구현되는 경우를 예로 들어 설명하지만 본 발명의 권리범위가 이에 한정되는 것은 아니며, 필요에 따라 상기 키넥트 외에 사용자가 별도의 센서 컨트롤러를 들거나 부착하지 사용자의 동작을 별도의 외부 가속도 센서 없이 직접 인식적으로 인식할 수 있는 장치이면 어떤 형태로 구현되어도 무방하다. 예를 들어 상기 동작인식장치(120)는 적외선 센서, RGB 카메라, 깊이 센서 등 다양한 센서를 통해 사용자의 동작을 직접적으로 인식할 수 있는 장치를 의미할 수 있다.
또한 본 명세서에서 상기 동작인식장치(120)에 의해 수집되는 상기 이미지 데이터는, 상기 동작인식장치(120)에 구비된 소정의 영상인식수단(예컨대, 카메라 등)을 통해 상기 공간 내에서 인식되는 상기 객체의 위치, 방향(예컨대, 시선방향), 및/또는 움직임에 대한 데이터를 포함하는 의미로 사용될 수 있다. 즉, 상기 이미지 데이터는 상기 복수 개의 동작인식장치(120) 각각에 의해 인식되는 상기 객체에 대한 데이터를 의미할 수 있다.
또한 본 명세서에서 상기 모션 데이터는 상기 모션센서(130)에 의해 센싱되는 상기 객체의 위치에 대한 정보 및/또는 상기 객체의 방향(예컨대, 시선방향)에 대한 정보를 포함하는 의미로 사용될 수 있다. 상기 모션센서(130)에 대해서는 후술하도록 한다.
또한 본 명세서에서 인터랙션을 수행한다고 함은, 인터랙티브 콘텐츠 내에 특정 요소(예컨대, 가상 객체 등)가 사용자(객체)의 움직임에 따른 위치정보(예컨대, 점프하는 사용자의 높이 등) 및/또는 사용자의 방향정보(예컨대, 시선방향)에 따라 조작 또는 제어되는 일련의 과정을 포함하는 의미일 수 있다.
또한 이하에서는 상기 인터랙티브 콘텐츠 제공시스템(100)에 의해 감지되는, 상기 인터랙션 공간 내에 위치한 객체가 사용자(즉, 사람)인 경우를 예로 들어 설명하지만 본 발명의 권리범위가 이에 한정되는 것은 아니다.
이하 도 3 내지 도 4를 참조하여 본 발명의 실시 예에 다른 인터랙티브 콘텐츠 제공시스템(100)의 구현 형태 및 구현 예를 설명하도록 한다.
도 3은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템의 개략적인 구현 예를 나타내며, 도 4는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템의 평면도를 나타낸다.
도 3 및 도 4를 참조하면, 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템(100)은 소정의 인터랙션 공간(10)을 중심으로, 상기 인터랙션 공간(10)을 둘러싸는 형태로 복수 개의 클라이언트(110)들이 배치될 수 있다. 이때 상기 인터랙션 공간(10)은 반드시 원형일 필요는 없으며, 사용자에게 공급될 콘텐츠의 종류나 상기 복수 개의 클라이언트(110)들의 개수, 및/또는 주변환경에 따라 4각형, 8각형 등 다양한 형태로 구현될 수 있음은 물론이다.
상기 클라이언트(110)의 개략적인 형태와 구현 예를 도 5를 참조하여 설명하도록 한다.
도 5는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 포함되는 클라이언트의 구현 예를 나타내며, 도 6은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 포함된 클라이언트에 구비되는 디스플레이 장치의 적용 예를 나타낸다.
도 5를 참조하면, 상기 복수 개의 클라이언트(110)들은 각각 콘텐츠의 디스플레이가 가능하도록 디스플레이 장치(예컨대, 111 및/또는 11-1)가 구비된 키오스크 형상으로 구현될 수 있다. 물론, 상기 복수 개의 클라이언트(110)의 형상이 도면에 도시된 키오스크 형상에 한정되는 것은 아니며, 상기 복수 개의 클라이언트(110)에 의해 둘러싸인 상기 인터랙션 공간(10) 내에 위치한 사용자가 상기 인터랙션 공간(10) 주변을 통해 디스플레이되는 인터랙티브 콘텐츠를 용이하게 볼 수 있으면 어떤 형상으로 구현되어도 무방할 수 있다. 또한 상기 디스플레이 장치 역시 도면에는 두 개의 디스플레이 장치(예컨대, 111 및/또는 11-1)가 구비되는 경우가 도시되어 있으나 이에 한정되는 것은 아니며, 필요에 따라 상기 상기 클라이언트(110)에 구비되는 디스플레이 장치의 개수는 하나 또는 복수 개 등 다양하게 구비될 수 있다.
또한 상기 복수 개의 클라이언트(110)는 상기 제어 시스템(140)으로부터 공급되는 인터랙티브 콘텐츠를 각각 수신하고 독립적인 렌더링 프로세스를 수행하며, 상기 제어 시스템(140)으로부터 주기적인 동기화 신호를 받아 인터랙티브 콘텐츠를 디스플레이하기 위해 필요한 하드웨어 및/또는 소프트웨어 리소스가 구비되어 있을 수 있다.
한편 후술할 바와 같이 상기 인터랙션 공간(10) 내에 트램펄린이 구비되는 경우, 사용자는 상기 트램펄린 상에서 점핑 동작을 계속해서 수행할 수 있다. 이러한 경우, 사용자가 점핑 동작을 수행하지 않고 상기 트램펄린 상에 그냥 서 있을 때와 점핑 동작을 수행할 때 사용자의 시선높이에 차이가 발생할 수 있으며, 특히 그냥 바닥에서 점프를 하는 것 보다 상기 트램펄린 상에 점프할 때의 높이 차이가 현저할 수 있다. 따라서 이처럼 상기 트램펄린이 상기 인터랙션 공간(10)에 구비되는 경우에는, 도 6에 도시된 바와 같이 상기 클라이언트(110)에 구비된 상기 디스플레이 장치(예컨대, 111 및/또는 111-1)의 위치가 적어도 트램펄린(1)의 높이보다는 높게 배치되어 사용자가 용이하게 상기 디스플레이 장치를 볼 수 있도록 구현될 수 있다.
전술한 바와 같이, 상기 복수 개의 클라이언트(110)들이 상기 인터랙션 공간(10)을 둘러싸는 형태로 배치되어 있으므로, 상기 인터랙션 공간(10) 내에서 사용자의 시선방향에 따라 상기 복수 개의 클라이언트(110)들 중 해당 방향에 대응되는 특정 클라이언트에는 나머지 다른 클라이언트들과 다른 인터랙션이 수행될 수 있다. 이러한 경우 종래와 같이 단순히 정면만을 바라보며 인터랙션을 수행하는 콘텐츠에 비해 사용자는 보다 실감나고 입체적인 인터랙티브 콘텐츠를 즐길 수 있는 효과가 있다. 특히 사용자(객체)가 트램펄린 상에서 점프하며 여러 방향으로 시선을 이동 하면서 인터랙티브 콘텐츠를 즐길 수 있어, 보다 활동적이고 적극적인 인터랙션의 수행과 함께 종래의 단순 점프만을 반복하는 트램펄린의 활용도를 현저하게 높일 수 있는 효과를 가질 수도 있다. 이러한 인터랙티브 콘텐츠의 구현 예를 도 7을 참조하여 설명하도록 한다.
도 7은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 의해 제공되는 인터랙티브 콘텐츠의 구현 예를 나타낸다.
도 7을 참조하면, 상기 인터랙션 공간(10)에 트램펄린(1)이 구비되고, 상기 트램펄린(1)을 둘러싸는 형태로 복수 개의 클라이언트들이 배치될 수 있다. 도면에는 설명의 편의를 위해 두 개의 클라이언트들(예컨대, 110a 및 110b)만 도시되었으나, 도 3에서 설명한 바와 같이 상기 복수 개의 클라이언트들의 개수는 다양하게 설치될 수 있음은 물론이다.
이때, 사용자는 상기 트램펄린(1) 상에서 점프하면서 자신의 위치(예컨대, 점프 높이)와 시선방향을 이용하여 상기 복수 개의 클라이언트들을 보며 인터랙티브 콘텐츠를 이용할 수 있다. 그 중, 상기 사용자의 시선방향이 상기 복수 개의 클라이언트들 중 특정 클라이언트(예컨대, 110a)를 향하는 경우, 상기 특정 클라이언트(예컨대, 110a)에 구비된 디스플레이 장치(예컨대, 111a)에 상기 사용자에 상응하는 가상 객체(x)가 디스플레이 되어 사용자의 움직임(예컨대, 점프 높이 등)에 따라 인터랙션이 수행될 수 있다. 그리고, 상기 특정 클라이언트(예컨대, 110a) 외의 나머지 클라이언트(예컨대, 110b)에는 상기 가상 객체(x)가 없는 즉, 상기 사용자와 직접적인 인터랙션이 수행되지 않는 콘텐츠가 디스플레이될 수 있다.
그리고 상기 사용자의 시선방향이 상기 특정 클라이언트(예컨대, 110a)로부터 상기 나머지 클라이언트(예컨대, 110b)로 이동하는 경우에는, 상기 나머지 클라이언트(예컨대, 110b)에 구비된 디스플레이 장치(예컨대, 111b)로 상기 가상 객체(x)가 디스플레이되며 인터랙션을 수행할 수 있다. 즉, 본 발명의 기술적 사상에 의하면 상기 복수 개의 클라이언트들 중 사용자의 시선방향에 따라 선택적으로 특정 클라이언트에서 사용자와 직접적인 인터랙션이 수행될 수 있다.
이를 위한 제어 시스템(140)의 구성 및 작용을 도 8 내지 도 9를 참조하여 설명하도록 한다.
도 8은 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템에 포함되는 제어 시스템의 개략적인 구성을 나타내며, 도 9는 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템이 인터랙션 공간 내에서 객체를 인식하는 방식의 일 예를 나타낸다.
도 8을 참조하면, 본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공시스템(100)에 포함되는 상기 제어 시스템(140)은 저장부(141), 수신부(142), 위치부(143) 및/또는 제어부(144)를 포함할 수 있다.
상기 저장부(141)에는 상기 복수 개의 클라이언트(110)들에 의해 디스플레이될 수 있는 콘텐츠가 저장되어 있을 수 있다. 상기 콘텐츠는 전술한 바와 같은 인터랙티브 콘텐츠일 수 있다.
상기 수신부(142)는 상기 적어도 하나의 동작인식장치(120)들 각각으로부터 이미지 데이터를 수신하며, 상기 모션센서(130)로부터 상기 모션 데이터를 수신할 수 있다.
상기 위치부(143)는 상기 적어도 하나의 동작인식장치(120)들로부터 각각 수신된 이미지 데이터들을 통합하여 해당 객체(사용자)의 3차원 위치정보를 산출할 수 있다.
전술한 바와 같이, 상기 복수 개의 클라이언트(110)들 중 적어도 일부에는 상기 동작인식장치(120)가 복수 개 구비될 수 있다. 예컨대 도 9에 도시된 바와 같이, 상기 동작인식장치(120)는 상기 인터랙션 공간(10)을 중심으로 전, 후, 좌, 우에 배치되어 상기 인터랙션 공간(10)을 입체적으로 감지할 수 있다.
이때, 상기 복수 개의 동작인식장치(120)들 각각의 감지범위는 서로 겹쳐지도록 배치되는 것이 바람직할 수 있다. 즉, 상기 복수 개의 동작인식장치(120)들은 동일 공간 내에 위치한 객체를 서로 다른 방향에서 감지함으로써, 상기 공간을 입체적으로 감지하고 상기 공간 내에 복수의 객체(예컨대, a, b, c)가 위치하는 경우에도 강인하게 상기 복수의 객체(예컨대, a, b, c)를 감지할 수 있다.
이처럼 상기 복수 개의 동작인식장치(120) 각각이 서로 다른 방향에서 상기 공간 내에 위치한 객체 즉, 사용자를 감지하면, 상기 위치부(143)는 각각의 동작인식장치(120)에 의해 감지된 상기 이미지 데이터를 통합함으로써 상기 공간 내에서 해당 사용자에 대한 3차원 위치정보(예컨대, 사용자의 높이 및/또는 방향(시선방향) 등)를 산출할 수 있다.
이때 상기 인터랙션 공간(10) 내에 위치한 상기 복수의 사용자들(예컨대, a, b, c)은 어느 한 위치에서 고정되어 있는 것이 아니라, 상기 공간 내에서 불규칙적인 움직임을 나타낼 수 있다. 전술한 바와 같이 상기 인터랙션 공간(10)에 트램펄린이 구비되는 경우, 상기 복수의 사용자들(예컨대, a, b, c)은 트램펄린에서 점프하면서 그 움직임이 상대적으로 격렬하고 불규칙적일 수 있다. 종래에는 소정의 객체의 움직임을 인식하여 소정의 인터랙티브 콘텐츠(예컨대, 게임 등)를 제공하는 경우, 전술한 바와 같이 동작인식장치(120)의 정면 감지범위를 벗어나거나 객체들끼리 겹치는 경우 해당 객체에 대한 추적이 소실될 수 있어, 사용자에게 지속적인 인터랙티브 콘텐츠의 제공이 어려운 문제점이 있었다.
그러나 본 발명의 기술적 사상에 의하면, 상기 복수의 사용자들(예컨대, a, b, c)이 위치한 공간 즉, 상기 인터랙션 공간(10)을 서로 다른 방향에서 복수 개의 동작인식장치(120)들이 각각 감지함으로써, 감지의 사각지대를 크게 줄이면서 상기 복수의 사용자들(예컨대, a, b, c)이 서로 겹치는 경우에도 지속적인 추적이 용이해질 수 있는 효과가 있다.
하지만 이처럼 복수 개의 동작인식장치(120)를 이용하는 경우에도, 상기 공간 내에 위치한 복수의 사용자들의 밀집도에 따른 사각이 발생할 수 있는 여지가 여전히 남아 있으며, 이에 따라 상기 복수의 사용자들 중 적어도 하나의 객체의 추적이 중단될 수 있는 위험이 존재한다.
특히, 상기 동작인식장치(120)가 전술한 키넥트로 구현되는 경우, 상기 키넥트는 추적대상(객체)이 소실되는 경우 해당 객체에 대한 ID를 말소시켜버리기 ‹š문에 추적대상(객체)을 구분하여 상기 인터랙티브 콘텐츠의 정보를 연계하는 정보구조체를 유지할 수 없다.
따라서 상기 복수 개의 동작인식장치(120) 상기 모션센서(130)를 이용함으로써 중간에 소정의 객체에 대한 상기 복수 개의 동작인식장치(120)에 의한 감지가 중단(위치정보 소실)되더라도 해당 객체를 지속적으로 추적(감지)하며, 또한 상기 객체의 위치, 방향(시선방향) 등을 보다 정확하게 추적할 수 있도록 할 수 있다.
상기 모션센서(130)는 사용자에 부착되거나 또는 사용자에 의해 착용될 수 있는 웨어러블 디바이스의 형태로 구현될 수 있다. 예컨대, 상기 모션센서(130)는 사용자의 안전을 위한 안전장비(예를 들어, 헬멧, 관절 보호구 등)에 구비되어 사용자에 의해 착용되는 형태로 구현될 수 있다.
이처럼 사용자에 의해 착용(또는 부착)되는 모션센서(130)는 상기 사용자(즉, 객체)의 위치정보 및/또는 방향정보(시선방향)를 포함하는 모션 데이터를 센싱하여 상기 제어 시스템(140)으로 전송할 수 있다. 그러면, 상기 제어 시스템(140)은 후술할 바와 같이 상기 동작인식장치(120)에 의해 인식된 이미지 데이터 및 상기 모션 데이터를 이용하여 해당 사용자의 3차원 위치 및 시선방향 등을 보다 정밀하게 추적할 수 있으며, 이에 따라 트램펄린 상에서 움직이는 사용자의 위치나 방향이 즉각적으로 반영되는 인터랙티브 콘텐츠를 제공할 수 있다.
또한 도 9에 도시된 바와 같이 상기 인터랙션 공간(10)에 복수의 사용자들(예컨대, a, b, c)이 존재하는 경우, 상기 모션센서(130)는 상기 복수의 사용자들(예컨대, a, b, c) 각각이 착용(또는 부착)할 수 있다. 예컨대, 사용자 a는 모션센서(130-1), 사용자 b는 모션센서(130-2), 사용자 c는 모션센서(130-3)을 착용(또는 부착)할 수 있으며, 각각의 모션센서가 각각의 사용자에 대한 모션 데이터를 센싱할 수 있다.
일 실시 예에 의하면, 상기 모션센서(130)는 자이로 3축(ROLL, PITCH, YAW), 가속도 3축(가속도 x, 가속도 y, 가속도 z), 및 지자기 3축(지자기 x, 지자기 y, 지자기 z)를 각각 센싱할 수 있는 9축 모션센서로 구현될 수 있다.
이러한 모션센서(130)는 전술한 동작인식장치(120)와 별개로 해당 객체(사용자)에 대한 안정적인 데이터로그를 축적할 수 있으며, 이에 따라 상기 동작인식장치(120)에서 객체의 추적이 중단된 경우에도 해당 객체(사용자)의 대략적인 위치 데이터를 지속적으로 추적하고 모니터링할 수 있다.
예를 들면, 상기 동작인식장치(120)가 사용자(객체)의 위치정보를 소실하여 기존 부여된 해당 사용자에 대한 ID가 말소되면, 다시 해당 사용자가 감지된다 하더라도 해당 사용자는 새로운 ID가 부여되게 된다. 이러한 경우에도 상기 모션센서(130)를 통한 위치 데이터 대조를 통해 ID를 갱신함으로써 지속적으로 해당 사용자를 선별하고 추적할 수 있다.
또한, 상기 모션센서(130)를 통해 센싱되는 모션 데이터 중 자이로 센서에 의해 센싱되는 데이터는 상기 동작인식장치(120)로부터 감지되는 해당 사용자의 방향(예컨대, 시선방향) 추적 데이터에 비해 상대적으로 엄밀한 시선축(gaze direction) 정보를 추출할 수 있어 입체적 공간 내에서 해당 사용자의 방향(예컨대, 시선방향)을 보다 정확하고 정밀하게 추적할 수 있는 효과도 가질 수 있다.
상기 제어부(144)는 상기 저장부(141)에 저장된 콘텐츠(인터랙티브 콘텐츠)가 상기 복수 개의 클라이언트(110)들 중 적어도 일부에서 디스플레이되도록 제어할 수 있다. 특히, 상기 위치부(143)에 의해 사용자의 위치정보(3차원 위치정보) 및/또는 방향정보(시선방향)가 추적되면, 추적되는 위치정보(3차원 위치정보) 및/또는 방향정보(시선방향)가 상기 인터랙티브 콘텐츠 내의 상기 가상 객체(x)에 실시간으로 적용하여 상기 복수 개의 클라이언트(110)들 중 상기 방향정보에 상응하는 특정 클라이언트에서 사용자와 인터랙션이 수행될 수 있도록 할 수 있다.
본 발명의 실시 예에 따른 인터랙티브 콘텐츠 제공방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드 디스크, 플로피 디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (10)

  1. 인터랙션 공간을 둘러싸는 형태로 배치되며 디스플레이 장치를 각각 구비한 복수 개의 클라이언트;
    상기 복수 개의 클라이언트 중 적어도 일부에 구비되며 상기 인터랙션 공간 내에서 움직이는 객체를 인식하여 상기 객체에 상응하는 이미지 데이터를 수집하는 적어도 하나의 동작인식장치;
    상기 객체의 모션 데이터를 센싱하기 위한 적어도 하나의 모션센서; 및
    상기 복수 개의 클라이언트들 중 적어도 일부에 상기 객체와 인터랙션이 수행되는 인터랙티브 콘텐츠가 디스플레이되도록 제어하는 제어 시스템을 포함하며,
    상기 제어 시스템은,
    상기 이미지 데이터 및 상기 모션 데이터에 기초하여 상기 객체에 대응되는 방향정보 및 상기 객체에 대응되는 위치정보를 추적하고,
    상기 복수 개의 클라이언트들 중 상기 방향정보에 상응하는 클라이언트에서 상기 인터랙티브 콘텐츠가 선택적으로 디스플레이되며,
    상기 인터랙티브 콘텐츠에서 상기 위치정보를 이용하여 트램펄린 상에서 상기 객체의 점프 액션을 감지하고, 감지된 점프 액션에 기초한 인터랙션이 수행되도록 제어하는 것을 특징으로 하는 인터랙티브 콘텐츠 제공시스템.
  2. 삭제
  3. 제1항에 있어서, 상기 복수 개의 클라이언트는,
    상기 디스플레이 장치의 적어도 일부가 상기 트램펄린의 높이보다 높이 위치하도록 배치되는 것을 특징으로 하는 인터랙티브 콘텐츠 제공시스템.
  4. 제1항에 있어서, 상기 제어 시스템은,
    콘텐츠를 저장하는 저장부;
    상기 복수 개의 동작인식장치 각각으로부터 상기 이미지 데이터 또는 상기 모션센서로부터 상기 모션 데이터 중 적어도 하나를 수신하는 수신부;
    상기 복수 개의 동작인식장치로부터 수신된 각각의 이미지 데이터를 이용하여 상기 객체의 위치정보 또는 방향정보 중 적어도 하나를 추적하는 위치부; 및
    상기 복수 개의 클라이언트들 중 적어도 일부에 상기 적어도 하나의 객체와 인터랙션이 수행되는 인터랙티브 콘텐츠가 디스플레이되도록 제어하는 제어부를 포함하는 인터랙티브 콘텐츠 제공시스템.
  5. 제1항에 있어서, 상기 모션센서는,
    자이로 3축, 가속도 3축 및 지자기 3축을 포함하는 9축 모션센서인 것을 특징으로 하는 인터랙티브 콘텐츠 제공시스템.
  6. 제1항에 있어서, 상기 모션센서는,
    상기 객체가 착용할 수 있는 웨어러블 디바이스에 구비되는 것을 특징으로 하는 인터랙티브 콘텐츠 제공시스템.
  7. 제1항에 있어서, 상기 적어도 하나의 동작인식장치는,
    각각의 인식범위가 서로 다른 방향으로부터 상기 인터랙션 공간을 향해 서로 겹치는 것을 특징으로 하는 인터랙티브 콘텐츠 제공시스템.
  8. 인터랙티브 콘텐츠 제공방법에 있어서,
    인터랙티브 콘텐츠 제공시스템이, 인터랙션 공간을 둘러싸는 형태로 배치되며 디스플레이 장치를 각각 구비한 복수 개의 클라이언트들 중 적어도 일부에 구비된 적어도 하나의 동작인식장치로부터 수집된 상기 인터랙션 공간 내의 객체에 상응하는 이미지 데이터 및 상기 객체의 모션 데이터에 기초하여 상기 객체에 대응되는 방향정보를 판단하는 단계;
    상기 인터랙티브 콘텐츠 제공시스템이 상기 이미지 데이터 및 상기 모션 데이터에 기초하여 상기 적어도 하나의 객체에 대응되는 위치정보를 판단하는 단계; 및
    상기 인터랙티브 콘텐츠 제공시스템이 상기 복수 개의 클라이언트들 중 상기 방향정보에 상응하는 클라이언트에서 상기 인터랙티브 콘텐츠가 선택적으로 디스플레이되도록 제어하는 단계를 포함하며,
    상기 인터랙티브 콘텐츠 제공방법은,
    상기 인터랙티브 콘텐츠 제공시스템이 상기 인터랙티브 콘텐츠에서 상기 위치정보를 이용하여 상기 인터랙션 공간 내에 구비되는 트램펄린 상에서 상기 객체의 점프 액션을 감지하고, 감지된 점프 액션에 기초한 인터랙션을 수행하는 단계를 더 포함하는 인터랙티브 콘텐츠 제공방법.
  9. 삭제
  10. 데이터 처리장치에 설치되어 제8항에 기재된 방법을 수행하기 위한 기록매체에 기록된 컴퓨터 프로그램.
KR1020150075170A 2015-05-28 2015-05-28 인터랙티브 콘텐츠 제공시스템 및 방법 KR101745498B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150075170A KR101745498B1 (ko) 2015-05-28 2015-05-28 인터랙티브 콘텐츠 제공시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150075170A KR101745498B1 (ko) 2015-05-28 2015-05-28 인터랙티브 콘텐츠 제공시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20160139742A KR20160139742A (ko) 2016-12-07
KR101745498B1 true KR101745498B1 (ko) 2017-07-11

Family

ID=57573280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150075170A KR101745498B1 (ko) 2015-05-28 2015-05-28 인터랙티브 콘텐츠 제공시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101745498B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101974911B1 (ko) * 2018-10-29 2019-05-03 (주)앤트로스 트램펄린을 이용한 증강현실 기반 스포츠 게임 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216527A (ja) 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体
JP2002032788A (ja) 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101339644B1 (ko) 2012-11-29 2013-12-09 한국과학기술연구원 움직이는 객체의 위치인식장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216527A (ja) 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体
JP2002032788A (ja) 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体

Also Published As

Publication number Publication date
KR20160139742A (ko) 2016-12-07

Similar Documents

Publication Publication Date Title
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
US10241573B2 (en) Signal generation and detector systems and methods for determining positions of fingers of a user
US20240024782A1 (en) Apparatus for adapting virtual gaming with real world information
EP3469466B1 (en) Directional interface object
US10864433B2 (en) Using a portable device to interact with a virtual space
US11163358B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US9789391B2 (en) Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8834245B2 (en) System and method for lock on target tracking with free targeting capability
US10357714B2 (en) Gesture-based user interface for navigating a menu
US20080098448A1 (en) Controller configured to track user&#39;s level of anxiety and other mental and physical attributes
US11517821B2 (en) Virtual reality control system
EP2243525A2 (en) Method and system for creating a shared game space for a networked game
US10025375B2 (en) Augmented reality controls for user interactions with a virtual world
EP2243526A2 (en) Method and system for controlling movements of objects in a videogame
KR101929826B1 (ko) 게임 시스템
US20220362667A1 (en) Image processing system, non-transitory computer-readable storage medium having stored therein image processing program, and image processing method
KR101828314B1 (ko) 다중 객체 추적 시스템 및 그 방법
KR20180090515A (ko) 게임 제어장치 및 이를 포함하는 가상현실 게임 시스템
JP6248219B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018147465A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
KR101745498B1 (ko) 인터랙티브 콘텐츠 제공시스템 및 방법
KR102218088B1 (ko) 가상 현실 제어 시스템
JP6263292B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6330072B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
Al Zayer Universal Usability of Virtual Reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal