KR20200091258A - 가상 현실 제어 시스템 - Google Patents

가상 현실 제어 시스템 Download PDF

Info

Publication number
KR20200091258A
KR20200091258A KR1020190008307A KR20190008307A KR20200091258A KR 20200091258 A KR20200091258 A KR 20200091258A KR 1020190008307 A KR1020190008307 A KR 1020190008307A KR 20190008307 A KR20190008307 A KR 20190008307A KR 20200091258 A KR20200091258 A KR 20200091258A
Authority
KR
South Korea
Prior art keywords
player
gesture
wearable display
display device
output
Prior art date
Application number
KR1020190008307A
Other languages
English (en)
Other versions
KR102237608B1 (ko
Inventor
권철
육종현
Original Assignee
(주)스코넥엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스코넥엔터테인먼트 filed Critical (주)스코넥엔터테인먼트
Priority to KR1020190008307A priority Critical patent/KR102237608B1/ko
Publication of KR20200091258A publication Critical patent/KR20200091258A/ko
Application granted granted Critical
Publication of KR102237608B1 publication Critical patent/KR102237608B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Abstract

일 양상에 따르면 플레이어가 착용하도록 제공되어 플레이어에게 가상 현실의 적어도 일부에 대한 가상 이미지를 제공하는 착용형 디스플레이 장치로, 외부로부터 마커의 좌표 정보를 획득하는 통신부; 플레이어에게 시각적인 정보를 출력하는 디스플레이부; 및 상기 디스플레이부를 제어하는 제어부;를 포함하되, 상기 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 플레이어가 수행한 제스쳐에 대응하는 이벤트를 제공하는 착용형 디스플레이 장치가 제공될 수 있다.

Description

가상 현실 제어 시스템{VIRTUAL REALITY CONTROL SYSTEM}
본 발명은 가상 현실 제어 시스템에 관한 것이다.
착용형 디스플레이 장치를 이용한 가상 현실의 제공은 비 착용형 디스플레이 장치를 이용한 가상 현실과 달리 사용자의 시야가 착용형 디스플레이 장치에 제공되는 디스플레이로 제한되게 된다.
종래의 비 착용형 디스플레이 장치를 이용한 가상 현실에서는 플레이어가 키보드, 마우스, 조이스틱등과 같은 입력 장치들에 대한 시야를 확보할 수 있기 때문에 입력 장치에서 제공하는 버튼이나 조그셔틀 등을 눈으로 확인하고 선택할 수 있어 정확한 입력이 가능했다.
반면 착용형 디스플레이 장치를 이용한 가상 현실에서는 사용자의 시야가 디스플레이로 제한되기 때문에 플레이어가 컨트롤러나 착용형 디스플레이 장치에 제공되는 손의 촉감에 의지해 버튼을 찾아 조작하거나 버튼의 위치에 대한 기억에 의지해 버튼을 찾아 조작하였다.
이러한 경우 플레이어의 숙련도에 따라 부정확한 조작이 입력되어 플레이어의 의도한 조작이 입력되지 않는 경우가 발생할 수 있다.
일 과제는 플레이어의 제스쳐에 대응하는 이벤트를 가상 현실에 제공하여 보다 정확한 입력을 획득하는 가상 현실 제어 시스템을 제공하는 것이다.
일 과제는 제스쳐를 이용하여 착용형 디스플레이 장치 및 컨트롤러 등에 제공되는 버튼으로 제한되는 입력보다 많은 입력 방법을 제공하는 가상 현실 제어 시스템을 제공하는 것이다.
일 양상에 따르면 플레이어가 착용하도록 제공되어 플레이어에게 가상 현실의 적어도 일부에 대한 가상 이미지를 제공하는 착용형 디스플레이 장치로, 외부로부터 마커의 좌표 정보를 획득하는 통신부; 플레이어에게 시각적인 정보를 출력하는 디스플레이부; 및 상기 디스플레이부를 제어하는 제어부;를 포함하되, 상기 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 플레이어가 수행한 제스쳐에 대응하는 이벤트를 제공하는 착용형 디스플레이 장치가 제공될 수 있다.
다른 양상에 따르면 플레이어에게 상기 플레이어가 착용한 착용형 디스플레이 장치를 통하여 가상 현실의 적어도 일부에 대한 가상 이미지를 제공하는 가상 현실 제어 시스템으로, 제1 플레이어가 착용하는 제1 착용형 디스플레이 장치; 및 제2 플레이어 착용하는 제2 착용형 디스플레이 장치;를 포함하되, 상기 제1 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 제1 플레이어가 수행한 제스쳐에 대응하는 이벤트가 상기 제2 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에게 제공되는 가상 현실 제어 시스템이 제공될 수 있다.
플레이어의 제스쳐에 대응하는 이벤트를 가상 현실에 제공하여 보다 정확한 입력을 획득할 수 있다.
제스쳐를 이용하여 착용형 디스플레이 장치 및 컨트롤러 등에 제공되는 버튼으로 제한되는 입력보다 많은 입력 방법을 제공할 수 있다.
도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.
도 3은 일 실시예에 따른 서버를 나타내는 블록도이다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치를 나타내는 블록도이다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치를 나타내는 블록도이다.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 8은 일 실시예에 따른 가상 현실의 구현예를 나타내는 예시도이다.
도 9는 일 실시예에 따른 종래의 입력 장치를 이용한 UI 조작을 나타내는 도면이다.
도 10은 일 실시예에 따른 제스쳐를 이용한 이벤트 제공 방법을 나타내는 순서도이다.
도 11은 일 실시예에 따른 미리 정해진 영역 설정을 나타내는 도면이다.
도 12는 일 실시예에 따른 마커의 위치를 이용한 제스쳐 수행 여부 판단을 나타내는 도면이다.
도 13은 일 실시예에 따른 이동 경로에 기초한 제스쳐의 수행 여부를 나타내는 도면이다.
도 14는 일 실시예에 따른 서로 다른 착용형 디스플레이 장치를 이용한 제스쳐 판단을 나타내는 도면이다.
도 15는 일 실시예에 따른 제스쳐에 대응하는 UI의 제공을 나타내는 도면이다.
도 16은 일 실시예에 따른 제스쳐 수행에 따른 이벤트 제공을 나타내는 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
가상 현실은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.
이러한 가상 현실은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 현실을 융하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.
이하에서 설명되는 가상 현실을 설명함에 있어서 가상 현실은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 환경을 의미할 수 있다.
이하에서는 도 1을 참조하여 일 실시예에 따른 가상 현실을 제공하기 위한 시스템에 대해서 설명하도록 한다.
도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.
도 1을 참조하면, 시스템은 디텍팅 시스템(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다.
일 실시예에 따르면 디텍팅 시스템(100)은 서버(200)와 연결될 수 있다.
디텍팅 시스템(100)은 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.
일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다.
예를 들어 대상체는 플레이어의 신체 부위, 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.
또한 일 실시예에 따른 추적 대상체의 추적은 실제 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다.
예를 들어 추적 대상체의 추적은 실제 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로 획득될 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 따르면 디텍팅 시스템(100)은 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 시스템(1000) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.
서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 시스템(100)으로부터 디텍팅 정보, 디텍팅 시스템(100)이 획득한 이미지 정보 및 디텍팅 시스템(100)의 상태 정보 중 적어도 하나를 획득할 수 있다.
그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.
일 실시예에 따르면 서버(200)는 상기 보조 컴퓨팅 장치(300) 또는 상기 착용형 디스플레이 장치(400)를 제어할 수 있다.
일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.
다른 예로 서버(200)는 디텍팅 시스템(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.
또한 서버(200)는 디텍팅 정보에 기초하여 가상환경에서의 대상체 위치를 나타내는 가상 위치 정보를 생성할 수 있다.
또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 어플리케이션의 인증을 수행할 수 있다.
일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.
또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다.
예를 들어 서버(200)는 디텍팅 시스템(100)과 연결되어 디텍팅 정보에 기초하여 가상 위치 정보를 획득하는 디텍팅 서버, 시스템에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 시스템의 각 구성 중 적어도 하나의 구성에서 실행되는 어플리케이션에 대한 인증을 수행하는 라이센스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.
보조 컴퓨팅 장치는(300)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 제공될 이미지를 제공할 수 있다.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다.
일 실시예에 따르면, 상기 보조 컴퓨팅 장치(300)는 미리 설치된 프로그램 및 디텍팅 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력 신호에 기초하여 입력 정보를 획득할 수 있다.
입력 정보는 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.
또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어(P)가 착용 가능한 백팩PC의 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 장치(300)가 위치할 수 있는 가방에 결착된 형태로 제공될 수 있으며, 플레이어(P)가 가방을 맴으로써 보조 컴퓨팅 장치(300)를 소지하는 형태로 제공될 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 장치(400)는 사용자에게 가상 현실에 대한 이미지를 제공할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 사용자에게 시각적으로 출력할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴튜팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.
입력 장치(500)는 가상 현실에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력 신호를 제공할 수 있다.
입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.
또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.
도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다.
예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.
이상에서 설명된 시스템은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 시스템이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.
다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 시스템을 예시로 하여 설명하도록 한다.
이하에서는 도 2를 참조하여 일 실시예에 따른 디텍팅 시스템(100)에 대하여 설명하도록 한다.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.
도 2를 참조하면, 상기 디텍팅 시스템(100)은 발광부(110), 센싱부(120) 및 마커(M)를 포함할 수 있다.
발광부(110)는 상기 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다.
일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.
보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.
센싱부(120)는 외부로부터 신호를 획득할 수 있다.
일 예로 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.
다른 예로 센싱부(120)는 대상체에 제공되는 마커(M)가 반사한 광에 대한 신호를 획득할 수 있다.
예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.
도 3은 일 실시예에 따른 서버(200)를 나타내는 블록도이다.
도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.
서버 통신부(210)는 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.
서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결될 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
서버 저장부(220)는 데이터를 저장할 수 있다.
서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다.
예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.
서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.
일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.
서버 제어부(240)는 예시적으로 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다.
또한 서버 제어부(240)는 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한 소프트웨어 코드는 서버 저장부(220)에 저장되고, 서버 저장부(240) 또는 구성요소 등에 의해 실행될 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.
또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치(300)를 나타내는 블록도이다.
도 4를 참조하면, 상기 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.
상기 보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.
보조 컴퓨팅 입력부(330)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치(400)를 나타내는 블록도이다.
도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.
착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.
착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 프로그램을 저장할 수 있다.
또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.
착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.
일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.
다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.
착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.
상기 착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.
착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.
일 예로 착용형 디스플레이 화면 출력부 (450)는 가상 현실에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 현실에 대한 이미지를 출력할 수 있다.
착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.
착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.
착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.
도 6을 참조하면 분할 공간 정합을 위한 시스템은 적어도 하나의 플레이어(P)가 플레이하는 플레이 공간(PA)이 제공될 수 있다.
또한 플레이 공간(PA)에서 플레이하는 플레이어(P)에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.
또한 플레이어(P) 각각에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.
일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.
또한 플레이 공간(PA)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.
일 예로 도 6에 도시된 바와 같이 플레이 공간(PA)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.
이러한 디텍팅 장치(100)는 플레이 공간(PA)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.
또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.
또한 디텍팅 장치(100)는 플레이 공간(PA)을 지향하도록 제공될 수 있다.
디텍팅 장치(100)는 미리 설치된 플레임에 고정되어 설치 될 수 있다.
일 예로 도 6에 도시된 바와 같이 플레이 공간(PA) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.
디텍팅 장치(100)는 플레이 공간(PA)에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.
일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 센싱부(120)의 센싱 범위에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.
서버(200)는 디텍팅 정보에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
도 6에 도시된 바와 같이 플레이 공간(PA)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
또한 서버(200)는 대상체들의 현실 위치 정보(RP)에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보(VP)를 획득할 수 있다.
일 예로 서버(200)는 플레이들의 현실 세계에서의 현실 위치 정보(RP)에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 캐릭터(C)의 가상 위치 정보(VP)로 획득할 수 있다.
서버(200)는 현실 위치 정보(RP) 및 가상 위치 정보(VP) 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 현실 위치 정보(RP)에 기초하여 가상 위치 정보(VP)를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 현실에서의 캐릭터(C)의 위치인 가상 위치 정보를 획득할 수 있다. 또는 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 현실에서의 가상 카메라의 위치인 가상 위치 정보를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 포함된 가상 위치 정보 및 가상 지향 방향에 기초하여 가상 이미지 영역을 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실에서 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 가상 이미지를 사용자에게 출력할 수 있다.
또한 서버(300)는 관람용 디스플레이 장치(700)로 가상 이미지를 제공할 수 있다.
서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.
또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 이미지를 획득할 수 있으며, 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.
일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 관람용 디스플레이 장치(700)로 제공할 수 있다.
또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보(VP)를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 카메라 위치에 기초하여 가상 이미지를 획득할 수 있다. 또한 서버(300)는 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.
관람용 디스플레이 장치(700)는 서버(300)로부터 획득한 가상 이미지를 출력할 수 있다.
또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.
또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.
입력 장치(500)는 각각의 플레이어(P)가 소지하도록 제공될 수 있다.
일 예로 플레이어(P1)는 입력 장치(400)를 손에 휴대할 수 있다.
일 실시예에 따르면 서버 장치(400)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(400)의 현실 위치 정보를 획득할 수 있다. 또한 입력 장치(400)의 현실 위치 정보는 플레이 공간(PA) 상에서의 입력 장치의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 입력 장치(400)의 현실 위치 정보에 기초하여 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 총이 입력 장치의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.
또한 또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치(500)를 통한 플레이어의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치를 플레이어(P1) 누른 경우 가상환경에서 플레이어(P)에 대응하는 캐릭터(C)가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.
도 7을 참조하면 대상체는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.
마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.
대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체 임을 식별 가능할 수 있다.
또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.
예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.
또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 들에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.
또한 마커(M) 는 상기 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.
또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.
일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.
일 예로 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다. 또한 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.
또한 시스템이 복수의 대상체(130)에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.
일 예로 시스템에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있다. 또한 입력 장치(500)에는 제2 패턴으로 마커가(130) 제공될 수 있다.
제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.
또한 대상체에 제공되는 마커(M)의 패턴은 사용자의 식별에도 사용될 수 있다.
일 예로 제1 패턴은 제1 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제2 패턴은 제1 사용자의 입력 장치(500)로 식별될 수 있다. 또한 제3 패턴은 제2 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제4 패턴은 제2 사용자의 입력 장치(500)로 식별될 수 있다.
대상체의 추적에 대해서 설명하면 서버 장치(200)는 디텍팅 시스템(100)으로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버 장치(200)는 디텍팅 정보에 기초하여 대상체의 위치를 추적할 수 있다.
디텍팅 시스템(100)이 서버 장치(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 시스템(100)의 발광부(110)는 플레이 공간(PA)의 적어도 일부 영역에 신호를 발신할 수 있다.
일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 플레이 공간(PA)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.
또한 센싱부(120)는 외부로부터 획득한 정보를 서버 장치(200)로 제공할 수 있다.
일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버 장치(200)로 제공할 수 있다.
도 7에는 하나의 센싱부(120) 만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버 장치(200)로 제공할 수 있다.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 판단할 수 있다. 또한 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.
일 예로 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.
하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버 장치(200)는 복수의 패턴을 식별할 수 있다.
이러한 패턴은 서버 장치(200)에 미리 저장될 수 있으며, 서버 장치(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버 장치(200)에는 미리 저장된 패턴을 각각에 대한 대표점(RP)가 설정될 수 있다. 대표점(RP)는 패턴을 대표하는 점(point)일 수 있다.
복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되게 되며, 서버 장치(200)는 패턴을 대표하는 대표점(RP)을 패턴에 대응하는 대상체의 위치로 획득할 수 있다.
따라서, 서버 장치(200)는 대상체의 위치에 대한 정보를 획득하여 대상체를 추적할 수 있다.
일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.
일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다.
일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.
일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다.
일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀수에 기초하여 사물의 크기를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.
일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공유형의 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.
도 8은 일 실시예에 따른 가상 현실의 구현예를 나타내는 예시도이다.
도 8을 참조하면, 시스템은 착용형 디스플레이 장치(400)를 통하여 가상 현실의 적어도 일부에 대한 가상 이미지를 제공할 수 있다.
가상 현실은 배경, 지형 오브젝트, 가상 오브젝트 및 캐릭터 등을 포함할 수 있다.
일 예로 가상 현실에는 플레이어에 대응하는 캐릭터가 제공될 수 있다.
다른 예로 가상 현실에는 플레이어가 소지한 컨트롤러에 대응하는 총 등의 가상 오브젝트가 제공될 수 있다.
지형 오브젝트는 가상 현실의 미리 정해진 위치에 제공될 수 있다.
또한 지형 오브젝트는 캐릭터가 이동 가능한 지형 오브젝트 및 이동 불가능한 지형 오브젝트를 포함할 수 있다.
일 예로 이동 가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동한 경우 플레이어에 대응하는 캐릭터가 이동할 수 있는 지형 오브젝트일 수 있다. 또한 이동 블가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동하더라도 플레이어에 대응하는 캐릭터가 해당 지형 오브젝트로 이동하지 않는 지형 오브젝트일 수 있다.
또한 캐릭터는 미리 프로그래밍된 프로그램에 의해 제공되는 NPC 캐릭터 및 플레이어 캐릭터를 포함할 수 있다.
가상 현실에 있어서 위치 정보는 현실 위치 정보 및 가상 위치 정보 중 적어도 하나를 포함할 수 있다.
현실 위치 정보는 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함할 수 있다.
일 예로 현실 위치 정보는 플레이 공간(PA) 상에 위치한 대상의 위치 좌표일 수 있다.
서버(200)는 플레이 공간(PA)에 대한 좌표값을 미리 저장할 수 있다.
서버(200)는 플레이 공간(PA)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
서버(200)는 디텍팅 정보 및 플레이 공간(PA)에 대한 좌표계에 기초하여 대상체의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 플레이 공간(PA)에서의 좌표값을 현실 위치 정보로 획득할 수 있다.
일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 마커의 패턴을 판단할 수 있으며, 마커의 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커의 패턴 및 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 대상체의 대표점을 획득할 수 있으며, 대상체의 대표점의 좌표값을 대상체의 현실 위치 정보로 획득할 수 있다.
서버(200)는 현실 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실(VW)에 대한 좌표값을 미리 저장할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실(VW)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
보조 컴퓨팅 장치(300)는 현실 위치 정보 및 가상 현실(VW)에 대한 좌표계에 기초하여 대상체의 가상 현실(VW)에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 현실(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 현실 위치 정보에 포함된 좌표값에 대응하는 가상 현실(VW)에서의 좌표값을 획득할 수 있으며, 획득한 가상 현실(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자에게 출력할 가상 이미지를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 정보를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 현실 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 카상 카메라의 시야로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 카메라의 시야에 대응하는 가상 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 획득한 가상 이미지를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자에게 출력할 수 있다.
도 9는 일 실시예에 따른 종래의 입력 장치를 이용한 UI 조작을 나타내는 도면이다.
종래의 가상 현실 게임은 모니터와 같은 비 착용형 디스플레이 장치와 키보드, 마우스 등과 같은 입력장치의 미리 정해진 키를 누르거나 UI를 통하여 제공되는 특정 오브젝트를 마우스 등으로 선택하면 게임 내에서 해당 키 또는 오브젝트에 대응하는 이벤트를 제공할 수 있다.
예를 들어 FPS 게임에서 사용자가 플레이 중에 키보드의 탭 키를 누르면 킬/데스 등과 같은 현재 스코어에 대한 정보를 제공할 수 있다.
종래의 PC겜이나 콘솔 게임 등과 같이 비착용형 디스플레이 장치를 이용하는 경우 사용자의 시야가 디스플레이 장치로 한정되지 않고 키보드, 마우스 및 패드와 같은 주변기기 및 주변기기에 제공하는 버튼 등에 대한 시야를 확보할 수 있기 때문에 주변 기기를 이용한 미리 정해진 버튼 등을 통하여 UI, 기능, 이벤트 등에 대한 선택을 입력하는 것에 제약이 적었다.
반면 착용형 디스플레이 장치(400)를 통하여 제공되는 몰입형 가상 현실에서는 플레이어의 시야가 착용형 디스플레이 장치(400)를 통하여 출력되는 이미지로 한정되기 때문에 사용자가 주변기기 등에 제공되는 특정 키의 위치를 눈으로 확인할 수 없다는 문제가 발생하여 사용자로부터 주변기기 등에 제공되는 특정 키를 통하여 부가가 적인 정보의 확인 의사를 입력 받는데 제약이 있을 수 있다.
일 실시예에 따르면 상술한 문제점을 해결하기 위하여 플레이어의 신체에 제공되는 마커(M)의 위치에 기초하여 제스쳐를 수행하였는 지 여부를 판단하고, 수행한 제스쳐에 대응하는 기능을 제공함으로써 주변기기 및 주변기기에 제공하는 버튼을 제스쳐로 대체하여 제공할 수 있다.
도 10은 일 실시예에 따른 제스쳐를 이용한 이벤트 제공 방법을 나타내는 순서도이다.
도 10을 참조하면 제스쳐를 이용한 이벤트 제공 방법은 이벤트 위치를 설정하는 단계(S100), 제스쳐 수행 여부를 판단하는 단계(S200) 및 제스쳐에 대응하는 이벤트를 제공하는 단계(S300)를 포함할 수 있다.
일 실시예에 따르면 이벤트 위치를 설정하는 단계가 수행될 수 있다(S100).
도 11은 일 실시예에 따른 미리 정해진 영역 설정을 나타내는 도면이다.
도 11을 참조하면 보조 컴퓨팅 장치(300)는 제스쳐에 대응하는 미리 정해진 위치를 미리 저장할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 현실 공간에서 미리 정해진 (X1, Y1, Z1)의 좌표를 제스쳐에 대응하는 미리 정해진 위치로 미리 저장할 수 있다.
일 실시예에 따르면 미리 정해진 위치는 복수의 좌표의 그룹으로 정해질 수 있다.
일 예로 미리 정해진 위치는 (X1, Y1, Z1), (X2, Y2, Z2) 및 (X3, Y3, Z3)과 같이일 때 복수의 좌표의 그룹으로 정해질 수 있다.
또한 일 실시예에 따르면 미리 정해진 위치는 좌표의 범위로 정해질 수 있다.
일 예로 미리 정해진 위치는 (X1, Y1, Z1)~ (X1+-a, Y1+-a, Zb1+-a)의 범위로 제공될 수 있다.
다른 예로 미리 정해진 위치는 (X1, Y1, Z1)를 중심으로 미리 정해진 반경이내의 좌표로 제공될 수 있다.
또 다른 예로 미리 정해진 위치는 (X1, Y1, Z1)를 중심으로 다각형의 공간 범위 내의 좌표로 제공될 수 있다.
일 실시예에 따르면 미리 정해진 위치는 절대 좌표뿐만 아니라 상대적인 좌표로 제공될 수 있다.
일 실시예에 따르면 미리 정해진 위치는 플레이어의 미리 정해진 신체 위치, 플레이어가 착용한 장치 중 미리 정해진 장치 및 미리 정해진 마커(M) 중 적어도 하나로부터 미리 정해진 방향으로 미리 정해진 거리만큼 이격된 위치일 수 있다.
일 예로 플레이어가 착용하고 있는 착용형 디스플레이 장치(400)로부터 미리 정해진 방향으로 미리 정해진 거리만큼 이격된 위치가 미리 정해진 위치로 설정될 수 있다.
보다 구체적인 예를 들어 착용형 디스플레이 장치(400)로부터 왼쪽으로 10cm 이격된 위치가 미리 정해진 위치로 설정될 수 있다.
또한 미리 정해진 위치가 상대적인 위치로 제공되는 경우 기준이 되는 위치가 변경되는 경우 미리 정해진 위치가 변경될 수 있다.
일 예로 착용형 디스플레이 장치(400)의 위치가 기준이 되는 위치인 경우 착용형 디스플레이 장치(400)의 위치가 변경되면 이에 대응하여 미리 정해진 위치가 변경될 수 있다.
일 예로 착용형 디스플레이 장치(400)의 좌표가 (Xa1, Ya1, Za1)이고, 미리 정해진 위치가 (Xb1, Yb1, Zb1)일 때 착용형 디스플레이 장치(400)의 좌표가 (Xa2, Ya2, Za2)로 변경된 경우 미리 정해진 위치는 (Xb2, Yb2, Zb2)로 변경될 수 있다. 또한 미리 정해진 위치 (Xb2, Yb2, Zb2)는 (Xb1+(Xa2- Xa1), Yb1+(Ya2- Xa1), Zb1+(Za2- Za1))일 수 있다.
보다 구체적인 예를 들어 착용형 디스플레이 장치(400)로부터 왼쪽으로 10cm 이격된 위치가 미리 정해진 위치로 설정될 수 있다.
이러한 경우 착용형 디스플레이 장치(400)의 좌표가 (0, 0, 0)이고, 미리 정해진 위치가 (10, 10, 0)일 때 착용형 디스플레이 장치(400)가 X축 방향으로 5cm 이동한 경우 착용형 디스플레이 장치(400)의 좌표는 (5, 0, 0)일 수 있으며, 착용형 디스플레이 장치(400)의 위치 변화에 따라 미리 정해진 위치는 (15, 10, 0)으로 변경될 수 있다.
보조 컴퓨팅 장치(300)는 마커(M)의 현실 위치 정보에 기초하여 마커(M)가 미리 정해진 위치에 위치하는 지 여부를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 마커(M)의 현실 위치 정보에 포함된 좌표가 미리 정해진 좌표와 일치하는 경우 플레이어가 제스쳐를 수행한 것으로 판단할 수 있다.
일 실시예에 따르면 이러한 미리 정해진 위치는 하나의 위치가 아니라 복수의 위치로 구성되는 위치 범위로 제공될 수 있다.
착용형 디스플레이 장치(400)로부터 미리 정해진 방향으로 미리 정해진 거리 이격된 위치를 중심으로 미리 정해진 반경의 범위가 미리 정해진 위치로 설정될 수 있다.
일 예로 착용형 디스플레이 장치(400)로부터 왼쪽으로 10cm 이격된 위치를 중심으로 5cm 반경의 범위가 미리 정해진 위치로 설정될 수 있다.
다른 예로 착용형 디스플레이 장치(400)로부터 왼쪽으로 10cm 이격된 위치를 중심으로 미리 정해진 공간이 미리 정해진 위치로 설정될 수 있다.
이를 좌표를 통하여 표현하면 착용형 디스플레이 장치(400)의 좌표가 (Xa1, Ya1, Za1)인 경우 미리 정해진 위치는 (Xb1, Yb1, Zb1)~ (Xb1+-a, Yb1+-a, Zb1+-a)의 범위로 제공될 수 있다.
보다 구체적인 예를 들어 착용형 디스플레이 장치(400)의 좌표가 (0, 0, 0)인 경우 미리 정해진 위치는 (5, -5, -5)~ (15, 5, 5)의 범위로 제공될 수 있다.
또는 이를 구형좌표를 통하여 표현하면 착용형 디스플레이 장치(400)의 좌표가 (Xa1, Ya1, Za1)인 경우 미리 정해진 위치는 착용형 디스플레이 장치(400)의 좌표를 원점으로 하여 (r, , ) =0~360, =0~360의 범위로 제공될 수 있다.
구형좌표에서 원점은 보조 컴퓨팅 장치(300)에 미리 설정된 원점이 적용될 수 있으나, 이에 한정되는 것은 아니며 임의의 마커(M)가 원점으로 제공될 수 있다.
또한 임의의 마커(M)가 원점으로 제공되는 경우 구형좌표에서 원점은 마커(M)의 이동에 따라 변경될 수 있다.
일 실시예에 따르면 제스쳐 수행 여부를 판단하는 단계가 수행될 수 있다(S200).
플레이어는 제스쳐에 대응하는 기능을 활성화하기 위하여 신체 중 적어도 일부를 이용하여 제스쳐를 수행할 수 있다.
또한 플레이어가 신체를 이용하여 제스쳐를 수행하면 플레이어의 신체 및/또는 플레이가 착용한 장치에 제공되는 마커(M)가 사용자의 신체 이동에 따라 이동할 수 있다.
보조 컴퓨팅 장치(300)는 마커(M)의 좌표 정보 및 가상 캐릭터의 위치 정보 중 적어도 하나에 기초하여 제스쳐의 수행 여부를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 서버(200)로부터 마커(M)의 좌표 정보를 획득할 수 있으며, 마커(M)의 좌표 정보에 기초하여 제스쳐 수행 여부를 판단할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 획득한 디텍팅 신호에 기초하여 현실 세계에서의 마커(M)의 위치 정보를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 마커(M)의 좌표 정보에 기초하여 마커(M)의 위치를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 마커(M)의 위치가 미리 정해진 위치에 위치한 경우 플레이어가 제스쳐를 수행한 것으로 판단할 수 있다.
도 12는 일 실시예에 따른 마커(M)의 위치를 이용한 제스쳐 수행 여부 판단을 나타내는 도면이다.
도 12를 참조하면 보조 컴퓨팅 장치(300)는 마커(M)의 현실 위치 정보에 포함된 좌표가 미리 정해진 위치에 대한 좌표에 포함되는 경우 플레이어가 제스쳐를 수행한 것으로 판단할 수 있다.
일 예로 기준 위치인 플레이어의 머리로부터 미리 정해진 방향으로 미리 정해진 거리 이격된 위치를 중심으로 미리 정해진 영역이 설정된 경우 보조 컴퓨팅 장치(300)는 마커(M)의 좌표가 미리 정해진 영역에 포함된 경우 플레이어가 제스쳐를 수행한 것으로 판단할 수 있다.
또한 일 실시예에 따르면 마커(M)의 이동 경로에 기초하여 제스쳐의 수행 여부를 판단할 수 있다.
도 13은 일 실시예에 따른 이동 경로에 기초한 제스쳐의 수행 여부를 나타내는 도면이다.
도 13을 참조하면 보조 컴퓨팅 장치(300)는 마커(M)의 이동 경로에 기초하여 제스쳐 수행 여부를 판단할 수 있다.
일 예로 도 13에 도시된 바와 같이 보조 컴퓨팅 장치(300)는 제1 시점에 마커(M)가 시작 지점인 제1 위치에 위치한 후 제1 시점보다 이후 시점인 제2 시점에 마커(M)가 종료 지점인 제2 위치로 위치한 경우 마커(M)의 제1 위치에서 제2 위치로의 이동 경로를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 제1 위치에서 제2 위치로의 이동에 대응하는 제스쳐가 미리 설정되어 있는지 여부를 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 제1 위치에서 제2 위치로의 이동에 대응하는 제스쳐가 미리 설정되어 있는 경우 플레이어가 제스쳐를 수행한 것으로 판단할 수 있다.
또한 일 실시예에 따르면 시작 지점으로부터 종료 지점으로의 이동에서 미리 정해진 경로로 이동하는 것을 더 고려하여 미리 정해진 제스쳐를 수행한 것으로 판단할 수 있다.
플레이어에 따라 시작 지점으로부터 종료 지점으로 이동하더라도 다양한 경로로 이동할 수 있다.
일 예로 시작 지점으로부터 종료 지점까지 최단 거리의 직선 거리도 이동하는 경우가 있을 수 있으며, 시작 지점으로부터 종료 지점까지 곡선으로 우회하여 이동하는 경우 등 다양한 이동 경로에 따라 이동할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 마커(M)가 시작 지점으로부터종료 지점까지 미리 정해진 경로를 따라 이동하는 경우 제스쳐를 취한 것으로 판단할 수 있다.
미리 정해진 경로는 임의의 시작 지점으로부터 방향으로 이동하여 종료 지점으로 이동하도록 적어도 하나의 중간 경유지의 좌표가 미리 설정된 것일 수 있다.
일 예로 시작 지점의 좌표가 (X1, Y1, Z1)이고, 종료 지점의 좌표가 (X2, Y2, Z2)이고, 중간 경유지의 좌표가 (X2, Y2*1/2, Z2)일 때 보조 컴퓨팅 장치(300)는 마커(M)가 (X1, Y1, Z1)에서 (X2, Y2*1/2, Z2)를 거쳐 (X2, Y2, Z2)로 이동한 경우 제스쳐를 수행한 것으로 판단할 수 있다.
이러한 경우 보조 컴퓨팅 장치(300)는 미리 정해진 마커(M)가 시작 지점에서 종료지점으로 이동하더라도 중간 경유지를 거치지 않는 경우 제스쳐를 수행한 것으로 판단하지 않을 수 있다.
또한 일 실시예에 따르면 마커(M)의 이동 경로에 기초한 제스쳐 수행 여부 판단에 있어서, 미리 정해진 마커(M)의 이동이 반드시 특정 지점에서 시작해야 하는 것으로 한정되는 것은 아니며, 임의의 다양한 지점에서 시작될 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 마커(M)가 임의의 위치에서 미리 정해진 방향으로 미리 정해진 거리 이동한 경우 플레이어가 제스쳐를 수행한 것으로 판단 할 수 있다.
또한 일 실시예에 따르면 미리 정해진 마커(M)가 아닌 다른 마커(M)가 미리 정해진 위취에 위치하거나 미리 정해진 경로를 이동하더라도 제스쳐를 수행한 것으로 판단하지 않을 수 있다.
예를 들어 미리 정해진 마커(M)가 오른손에 제공되는 마커(M)인 경우 왼발에 제공되는 마커(M)가 미리 정해진 경로를 이동하더라도 미리 정해진 제스쳐를 수행한 것으로 판단하지 않을 수 있다.
플레이어에 의한 제스쳐는 플레이어의 숙련도와 신체 조건 등에 의해 플레이어 마다 정확한 제스쳐를 수행하기 어려운 경우가 발생할 수 있다.
보조 컴퓨팅 장치(300)는 마커(M)의 미리 정해진 경로와 유사도가 미리 정해진 유사도 이상인 경우 제스쳐를 수행한 것으로 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 마커의 이동 경로와 미리 정해진 이동 경로가 일치하지 않더라도 마커(M)의 이동 경로와 미리 정해진 이동 경로를 비교한 결과 유사도가 미리 정해진 유사도 이상인 경우 제스쳐를 수행한 것으로 판단할 수 있다.
일 실시예에 따르면 가상 캐릭터의 신체에 기초하여 제스쳐 수행여부를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 캐릭터의 특정 신체 부위가 미리 정해진 위치에 위치한 경우 제스쳐를 수행 것으로 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 캐릭터의 특정 신체 부위가 특정 지점으로부터 미리 정해진 경로를 따라 이동하는 경우 제스쳐를 취한 것으로 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 화면 출력부(450)를 통하여 출력되는 가상 캐릭터의 신체 부위 및/또는 가상 오브젝트 간의 위치 관계에 기초하여 미리 정해진 제스쳐를 수행한 것으로 판단할 수 있다.
가상 현실에서 플레이어에 대응하여 제공되는 가상 캐릭터의 외형은 플레이어의 외형과 서로 상이할 수 있다. 예를 들어 가상 캐릭터의 신체 볼륨은 플레이어의 신체 볼륨과 서로 상이할 수 있다.
플레이어가 양 손바닥을 서로 맞닿게하는 제스쳐를 취한다고 가정하였을 때 플레이어의 손바닥 두께와 가상 캐릭터의 손바닥 두께가 서로 달라 서로 간의 오차가 발생할 수 있다.
예를 들어 플레이어의 손바닥 두께보다 가상 캐릭터의 손바닥 두께가 더 두꺼운 경우 현실 세계에서 플레이어의 손바닥이 서로 맞닿지 않은 상태에서도 가상 캐릭터의 손바닥 두께로인하여 가상 캐릭터는 손바닥이 맞닿게 되는 경우가 발생할 수 있다.
따라서 플레이어가 신체를 이용하여 수행하는 제스쳐를 판단하는 경우와 가상 캐릭터의 신체에 기초하여 제스쳐를 판단하는 경우 판단 기준이 되는 거리는 가상 캐릭터와 플레이어의 볼륨 차이에 따라 상이할 수 있다.
일 실시예에 따르면 복수의 신체부위를 이용하여 동일한 동작을 수행하는 경우 제스쳐를 수행한 것으로 판단할 수 있다.
보조 컴퓨팅 장치(300)는 양손이 동일한 제스쳐를 취하는 경우 일정 시간 범위 이내의 오차가 발생한 경우 동일한 제스쳐를 취한 것으로 판단할 수 있다.
보다 구체적인 예를 들어 오른손에 대응되는 마커(M)와 왼손에 대응되는 마커(M)가 위에서 아래로 동시에 이동하는 제스쳐가 설정된 경우 오른손에 대응되는 마커(M)가 위에서 아래로 이동하는 시점 및 왼손에 대응되는 마커(M)가 위에서 아래로 이동하는 시점의 시간 차이가 미리 정해진 시간 범위 이내인 경우 동일한 제스쳐를 취한 것으로 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 오른손에 대응되는 마커(M)가 위에서 이동하여 아래로 이동을 마친 시점과 왼손에 대응되는 마커(M)가 위에서 이동하여 아래도 이동을 마친 시점의 시간 차이가 미리 정해진 시간 차이 이내인 경우 동일한 제스쳐를 취한 것으로 판단할 수 있다.
일 실시예에 따르면 착용형 디스플레이 장치(400)에 제공되는 이미지 센서를 통하여 외부를 촬영한 이미지에 기초하여 제스쳐를 판단할 수 있다.
도 14는 일 실시예에 따른 서로 다른 착용형 디스플레이 장치를 이용한 제스쳐 판단을 나타내는 도면이다.
착용형 디스플레이 장치(400)에 제공되는 외부에 대한 이미지를 획득하는 이미지 센서로 제스쳐를 판단하는 경우 서브 컴퓨팅 장치(300)는 이미지 센서를 통하여 획득한 이미지에 포함된 마커(M), 신체부위 및 장비 중 적어도 하나를 이용하여 제스쳐 수행여부를 판단할 수 있다.
일 실시예에 따르면 서로 다른 착용형 디스플레이 장치(400)가 서로 다른 플레이어의 제스쳐 수행에 대한 정보를 획득하여 공유함으로써 제스쳐의 수행 여부를 판단할 수 있다.
일 예로 제1 플레이어 및 제2 플레이어가 마주보고 있는 경우 제1 플레이어에 대한 이미지를 제2 플레이어가 착용한 제2 착용형 디스플레이 장치(400b)를 통하여 획득하고, 제2 플레이어에 대한 이미지를 제1 플레이어가 착용한 제1 착용형 디스플레이 장치(400a)를 통하여 획득할 수 있다.
제1 착용형 디스플레이 장치(400a) 및 제2 착용형 디스플레이 장치(400b)는 획득한 이미지를 보조 컴퓨팅 장치(300) 및 서버(200) 중 적어도 하나로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 제1 착용형 디스플레이 장치(400a)로부터 획득한 이미지에 기초하여 제2 플레이어가 제스쳐를 수행했는 지 여부를 판단할 수 있으며, 제2 착용형 디스플레이 장치(400b)로부터 획득한 이미지에 기초하여 제1 플레이어가 제스쳐를 수행하였는 지 여부를 판단할 수 있다.
일 실시예에 따르면 제스쳐에 대응하는 이벤트를 제공하는 단계가 수행될 수 있다(S300).
보조 컴퓨팅 장치(300)는 제스쳐를 수행한 것으로 판단된 경우 제스쳐에 대응하는 이벤트를 제공하도록 제어할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 제1 플레이어가 제1 제스쳐를 수행한 경우 제1 플레이어가 착용한 제1 착용형 디스플레이 장치를 통하여 제1 이벤트를 제공하도록 제어할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어가 제스쳐를 수행한 것으로 판단된 경우 제스쳐에 대응하는 UI를 활성화하도록 착용형 디스플레이 장치를 제어할 수 있다.
제스쳐에 대응하는 UI의 활성화는 제스쳐에 대응하는 UI를 디스플레이를 통하여 출력하는 것일 수 있다. 이러한 UI의 활성화가 반드시 시각적으로 UI 디자인을 출력하는 것을 포함하는 것은 아니며, 시각적으로 UI 디자인이 출력되지 않더라도 UI를 통하여 제공되는 기능을 플레이어가 선택한 것으로 판단되는 경우 해당 기능을 제공하는 것을 포함할 수 있다.
도 15는 일 실시예에 따른 제스쳐에 대응하는 UI의 제공을 나타내는 도면이다.
일 예로 보조 컴퓨팅 장치(300)는 플레이어가 손을 플레이어의 눈으로부터 우측으로 미리 정해진 거리 이격된 위치에 위치하는 경우 착용형 디스플레이 화면 출력부(450)를 통하여 미리 정해진 위치에 정보 UI가 출력되도록 제어할 수 있다. 보조 컴퓨팅 장치(300)는 정보 UI 중 플레이어의 눈으로부터 미리 정해진 거리 이격된 위치에 위치한 손에 대응하는 정보 UI를 디스플레이부를 통하여 출력하도록 제어할 수 있다.
제스쳐에 대응하는 UI는 다양하게 제공될 수 있다.
일 실시예에 따르면 UI는 정보 UI, 설정UI 등이 제공될 수 있다.
정보 UI는 플레이어에게 정보를 제공하기 위한 UI일 수 있다.
설정 UI는 플레이어에게 설정을 변경할 수 있는 설정 툴(setting tool)을 제공하기 위한 UI일 수 있다.
설정 툴은 설정을 변경할 수 있는 인터페이스일 수 있다.
예를 들어 설정 툴은 메지시 창의 크기를 조절할 수 있는 창 크기 변경 툴, 오브젝트의 위치를 변경할 수 있는 위치 변경 툴, 소리의 볼륨을 변경할 수 있는 볼륨 변경 툴, 해상도 등의 디스플레이 설정을 변경할 수 있는 디스플레이 설정 툴 등과 같은 다양한 툴을 포함할 수 있다.
일 실시예에 따른 UI가 상술한 형태의 UI로 한정되는 것은 아니며, 선택에 따라 다양한 UI가 제공될 수 있다.
일 실시예에 따르면 하나의 제스쳐에는 적어도 하나의 UI가 설정될 수 있다.
일 실시예에 따르면 하나의 제스쳐에는 UI는 정보 UI, 설정UI 중 적어도 하나의 UI가 설정될 수 있다.
보조 컴퓨팅 장치(300)는 플레이어가 제스쳐를 수행한 것으로 판단된 경우 제스쳐에 대응하는 기능을 활성화하도록 제어할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 플레이어가 귀 근처로 손을 가져가는 제스쳐를 취한 경우 보이스 채팅 기능을 활성화하도록 제어할 수 있다. 보이스 채팅 기능의 활성화는 다른 플레이어의 소리 데이터 출력, 마이크 활성화, 다른 플레이어가 해당 플레이어에게 전송한 소리 데이터의 출력 등을 포함할 수 있다.
보다 구체적인 예를 들어 보조 컴퓨팅 장치(300)는 플레이어의 손이 귀 근처로 이동하는 제스쳐를 수행한 경우 플레이어가 착용하고 있는 착용형 디스플레이 장치에 구비된 마이크를 통하여 플레이어의 음성 데이터를 획득할 수 있다.
또는 보조 컴퓨팅 장치(300)는 플레이어의 손이 귀 근처로 이동하는 제스쳐를 수행하고 이를 유지하는 동안 플레이어가 착용하고 있는 착용형 디스플레이 장치에 구비된 마이크를 통하여 플레이어의 음성 데이터를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 획득한 플레이어의 음성 데이터를 서버(200)로 전송하여 다른 플레이어에게 음성 데이터를 출력하도록 요청할 수 있다. 서버(200)는 획득한 음성 데이터를 연결된 보조 컴퓨팅 장치(300)로 전송하여 착용형 디스플레이 장치(400)를 통하여 음성 데이터를 출력하도록 요청할 수 있다. 따라서 다른 플레이어들이 착용한 착용형 디스플레이 장치(400)를 통하여 제스쳐를 수행한 플레이어가 입력한 음성 데이터가 출력될 수 있다.
또한 몇몇 실시예에 따르면 보이스 채팅이 활성화되는 경우 적어도 일부의 소리 출력이 제한될 수 있다.
일 예로 보이스 채팅이 활성된 경우 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치의 음성 출력부를 통하여 출력되던 게임 사운드의 출력을 제한할 수 있다.
게임 사운드의 출력을 제한하는 것은 게임 사운드의 출력을 중단하거나 게임 사운드의 볼륨 현재 볼륨보다 작게 출력하는 것일 수 있다.
또한 게임 사운드는 게임에 미리 프로그래밍되어 있는 소리일 수 있다. 예를 들어 게임 사운드는 배경 음악(BGM, background music), 음향 효과, NPC에 의해 발생하는 소리, NPC의 음향 데이터 등일 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어가 제스쳐를 수행한 것으로 판단된 경우 제스쳐에 대응하는 플레이 이벤트를 활성화 하도록 제어할 수 있다.
일 실시예에 따르면 플레이 이벤트의 활성화는 게임내에 제공되는 가상 캐릭터에 대한 이벤트를 활성화하는 것일 수 있다.
일 예로 플레이 이벤트의 활성화는 조준경 모드 및 일반 모드의 전환, 무기의 장전, 장비의 교체, 장비의 획득 및 버림, 가상 오브젝트의 터치, 명령의 입력 및 이모티콘의 출력 등일 수 있다.
일 실시예에 따르면 플레이어가 제스쳐를 수행한 것으로 판단된 경우 착용형 디스플레이 장치(400)에 제공되는 착용형 디스플레이 화면 출력부(450)을 통하여 출력되는 화면이 제1 모드에서 제2 모드로 변경될 수 있다.
도 16은 일 실시예에 따른 제스쳐 수행에 따른 이벤트 제공을 나타내는 도면이다.
도 16을 참조하면 보조 컴퓨팅 장치(300)는 플레이어가 소지한 컨트롤러가 플레이어의 눈을 기준으로 미리 정해진 위치에 위치하는 경우 디스플레이부를 통하여 출력되는 가상 시야를 일반 시야에서 조준경을 착용한 상태에서의 시야로 전환하여 출력할 수 있다.
또한 일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어가 제스쳐를 수행한 것으로 판단된 경우 제스쳐에 대응하는 이모티콘 출력하도록 제어할 수 있다.
또한 보조 컴퓨팅 장치(300)는 서버(200)로 제스쳐에 대응하는 이모티콘을 출력해 줄 것을 요청할 수 있으며, 서버(200)는 다른 보조 컴퓨팅 장치(300)로 해당 이모티콘을 출력하도록 요청할 수 있다. 또한 이모티콘의 출력을 요청 받은 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(300)가 착용형 디스플레이 화면 출력부(450)를 통하여 해당 이모티콘을 출력하도록 제어할 수 있다.
일 예로 제1플레이어가 앞으로 손짓을 하는 제스쳐를 수행 경우 앞으로 손짓을 하는 제스쳐에 대응하는 "전진" 이모티콘이 플레이어들이 착용한 착용형 디스플레이 장치(300)에 제공되는 착용형 디스플레이 화면 출력부(450)를 통하여 출력될 수 있다.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.

Claims (14)

  1. 플레이어가 착용하도록 제공되어 플레이어에게 가상 현실의 적어도 일부에 대한 가상 이미지를 제공하는 착용형 디스플레이 장치로,
    외부로부터 마커의 좌표 정보를 획득하는 통신부;
    플레이어에게 시각적인 정보를 출력하는 디스플레이부; 및
    상기 디스플레이부를 제어하는 제어부;를 포함하되,
    상기 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 플레이어가 수행한 제스쳐에 대응하는 이벤트를 제공하는
    착용형 디스플레이 장치.
  2. 제1 항에 있어서,
    상기 제어부는 상기 마커의 좌표 정보에 기초하여 상기 플레이어의 미리 정해진 제스쳐 수행 여부를 판단하고, 상기 플레이어가 미리 정해진 제스쳐를 수행한 것으로 판단된 경우 상기 플레이어가 수행한 제스쳐에 대응하는 이벤트를 제공하도록 제어하는
    착용형 디스플레이 장치.
  3. 제2 항에 있어서,
    상기 이벤트는 유저 인터페이스의 출력, 기능의 활성, 기능의 해제 및 모드의 변경 중 적어도 하나를 포함하는
    착용형 디스플레이 장치.
  4. 제1 항에 있어서,
    상기 제어부는 상기 마커의 좌표 정보에 기초하여 상기 제스쳐의 수행여부를 판단하고, 상기 제스쳐를 수행한 것으로 판단된 경우 상기 이벤트를 제공하도록 제어하는
    착용형 디스플레이 장치.
  5. 제4 항에 있어서,
    상기 제어부는 상기 마커의 좌표 정보가 미리 정해진 좌표 정보를 포함하는 경우 상기 플레이어가 제스쳐를 수행한 것으로 판단하는
    착용형 디스플레이 장치.
  6. 제4 항에 있어서,
    상기 제어부는 상기 마커의 좌표 정보에 기초하여 상기 마커의 이동 경로를 획득하고, 상기 마커의 이동 경로가 미리 정해진 이동 경로와 일치하는 경우 상기 플레이어가 제스쳐를 수행한 것으로 판단하는
    착용형 디스플레이 장치.
  7. 제4 항에 있어서,
    상기 제어부는 상기 마커의 좌표 정보에 기초하여 미리 정해진 복수의 마커가 동시에 미리 정해진 방향 및/또는 미리 정해진 거리로 이동하는 경우 상기 플레이어가 제스펴를 수행한 것으로 판단하는
    착용형 디스플레이 장치.
  8. 제1 항에 있어서,
    상기 이벤트는 게임 플레이 정보의 출력이고,
    상기 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 디스플레이부를 통하여 상기 제스쳐에 대응하는 게임 플레이 정보가 출력되는
    착용형 디스플레이 장치.
  9. 제1 항에 있어서,
    상기 이벤트는 상기 디스플레이부를 통하여 출력되는 이미지의 모드 변경이고,
    상기 디스플레부를 통하여 출력되는 제1 모드의 이미지가 상기 제스쳐를 수행한 것으로 판단된 경우 제2 모드의 이미지로 변경되어 출력되는
    착용형 디스플레이 장치.
  10. 제1 항에 있어서,
    상기 이벤트는 상기 디스플레이부를 통하여 출력되는 이미지의 모드 변경이고,
    상기 디스플레부를 통하여 출력되는 제1 모드의 이미지가 상기 제스쳐를 수행한 것으로 판단된 경우 제2 모드의 이미지로 변경되어 출력되는
    착용형 디스플레이 장치.
  11. 제1 항에 있어서,
    상기 이벤트는 상기 디스플레이부를 통하여 출력되는 가상 캐릭터에 부여된 무기의 변경이고,
    상기 플레이어가 상기 제스쳐를 수행한 것으로 판단된 경우 상기 디스플레부를 통하여 출력되는 가상 캐릭터가 소지하는 무기의 이미지가 제1 이미지에서 제2 이미지로 변경되어 출력되는
    착용형 디스플레이 장치.
  12. 플레이어에게 상기 플레이어가 착용한 착용형 디스플레이 장치를 통하여 가상 현실의 적어도 일부에 대한 가상 이미지를 제공하는 가상 현실 제어 시스템으로,
    제1 플레이어가 착용하는 제1 착용형 디스플레이 장치; 및
    제2 플레이어 착용하는 제2 착용형 디스플레이 장치;를 포함하되,
    상기 제1 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 제1 플레이어가 수행한 제스쳐에 대응하는 이벤트가 상기 제2 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에게 제공되는
    가상 현실 제어 시스템.
  13. 제 12 항에 있어서,
    상기 이벤트는 음성 입력 및 출력이고,
    상기 제1 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 제1 플레이어가 상기 미리 정해진 제스쳐를 수행하는 동안 상기 제1 착용형 디스플레이 장치에 제공되는 음향 센서 모듈을 통하여 입력된 상기 제1 플레이어의 음성 데이터가 상기 제2 착용형 디스플레이부에 제공되는 음향 출력부를 통하여 상기 제2 플레이어에게 출력되는
    가상 현실 제어 시스템.
  14. 제 12 항에 있어서,
    상기 이벤트는 이모티콘의 출력이고,
    상기 제1 플레이어가 미리 정해진 제스쳐를 수행한 경우 상기 미리 정해진 제스쳐에 대응하는 이모티콘이 상기 제2 착용형 디스플레이부에 제공되는 화면 출력부를 통하여 상기 제2 플레이어에게 출력되는
    가상 현실 제어 시스템.
KR1020190008307A 2019-01-22 2019-01-22 가상 현실 제어 시스템 KR102237608B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008307A KR102237608B1 (ko) 2019-01-22 2019-01-22 가상 현실 제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008307A KR102237608B1 (ko) 2019-01-22 2019-01-22 가상 현실 제어 시스템

Publications (2)

Publication Number Publication Date
KR20200091258A true KR20200091258A (ko) 2020-07-30
KR102237608B1 KR102237608B1 (ko) 2021-04-09

Family

ID=71839100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008307A KR102237608B1 (ko) 2019-01-22 2019-01-22 가상 현실 제어 시스템

Country Status (1)

Country Link
KR (1) KR102237608B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102477531B1 (ko) * 2021-12-02 2022-12-14 (주)스코넥엔터테인먼트 음성인식 기능이 구비된 가상 환경 제어 시스템
WO2024049588A1 (en) * 2022-09-01 2024-03-07 Snap Inc. Character and costume assignment for co-located users

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
KR101839851B1 (ko) * 2014-12-31 2018-05-04 주식회사 소니 인터랙티브 엔터테인먼트 사용자의 손가락의 위치를 결정하기 위한 신호 발생 및 검출기 시스템 및 방법
KR20180049225A (ko) * 2013-06-07 2018-05-10 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 감소된 홉을 이용해 두부 장착형 시스템 내에서 증강 가상 현실 장면을 생성하기 위한 시스템 및 방법
KR20180108739A (ko) * 2016-08-30 2018-10-04 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Vr 제어 방법, 장치, 전자 기기, 프로그램 및 저장매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180049225A (ko) * 2013-06-07 2018-05-10 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 감소된 홉을 이용해 두부 장착형 시스템 내에서 증강 가상 현실 장면을 생성하기 위한 시스템 및 방법
KR101839851B1 (ko) * 2014-12-31 2018-05-04 주식회사 소니 인터랙티브 엔터테인먼트 사용자의 손가락의 위치를 결정하기 위한 신호 발생 및 검출기 시스템 및 방법
KR20180108739A (ko) * 2016-08-30 2018-10-04 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Vr 제어 방법, 장치, 전자 기기, 프로그램 및 저장매체
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102477531B1 (ko) * 2021-12-02 2022-12-14 (주)스코넥엔터테인먼트 음성인식 기능이 구비된 가상 환경 제어 시스템
WO2024049588A1 (en) * 2022-09-01 2024-03-07 Snap Inc. Character and costume assignment for co-located users

Also Published As

Publication number Publication date
KR102237608B1 (ko) 2021-04-09

Similar Documents

Publication Publication Date Title
KR102181587B1 (ko) 가상 환경 제어 시스템
US11547941B2 (en) Apparatus for adapting virtual gaming with real world information
EP3659132B1 (en) Position-based location indication and device control
WO2018016553A1 (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
US20180048950A1 (en) Accessory Device that Provides Sensor Input to a Media Device
US10025375B2 (en) Augmented reality controls for user interactions with a virtual world
US11561609B2 (en) Virtual reality control system
US20170087455A1 (en) Filtering controller input mode
US20180028917A1 (en) Split control focus during a sustained user interaction
KR102237608B1 (ko) 가상 현실 제어 시스템
TW201403391A (zh) 遠端互動系統及其控制
CN108355347A (zh) 交互控制方法、装置、电子设备及存储介质
EP3550418A1 (en) Application control program, application control method, and application control system
KR102218088B1 (ko) 가상 현실 제어 시스템
KR102218089B1 (ko) 가상 현실 제어 시스템
KR102212507B1 (ko) 가상 현실 제어 시스템
CN113041619A (zh) 虚拟车辆的控制方法、装置、设备及介质
KR102212508B1 (ko) 가상 환경 제어 시스템
KR102594054B1 (ko) 가상 현실 제어 시스템 및 이를 제어하는 방법
US11908097B2 (en) Information processing system, program, and information processing method
JP2018014109A (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
KR102218091B1 (ko) 가상 현실 제어 시스템
JP6189495B1 (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
KR20160139742A (ko) 인터랙티브 콘텐츠 제공시스템 및 방법
CN117237436A (zh) 用于确定至少两个用户之间的相对位姿关系的方法与系统

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right