KR20190078524A - 가상 환경 제어 시스템 - Google Patents

가상 환경 제어 시스템 Download PDF

Info

Publication number
KR20190078524A
KR20190078524A KR1020180167749A KR20180167749A KR20190078524A KR 20190078524 A KR20190078524 A KR 20190078524A KR 1020180167749 A KR1020180167749 A KR 1020180167749A KR 20180167749 A KR20180167749 A KR 20180167749A KR 20190078524 A KR20190078524 A KR 20190078524A
Authority
KR
South Korea
Prior art keywords
player
virtual
face data
server
wearable display
Prior art date
Application number
KR1020180167749A
Other languages
English (en)
Inventor
이후정
김재영
Original Assignee
(주)스코넥엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스코넥엔터테인먼트 filed Critical (주)스코넥엔터테인먼트
Priority to PCT/KR2018/016683 priority Critical patent/WO2019132521A1/ko
Priority to US16/958,524 priority patent/US11517821B2/en
Publication of KR20190078524A publication Critical patent/KR20190078524A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/575Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player for trading virtual items
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)

Abstract

본 발명은 가상 환경 제어 시스템에 관한 것으로 일 양상에 따르면 미리 저장된 제1 플레이어의 얼굴 데이터에 기초하여 제1 특징값을 획득하고, 미리 저장된 제2 플레이어의 얼굴 데이터에 기초하여 제2 특징값을 획득하는 제어부; 제1 플레이어에게 착용되는 제1 착용형 디스플레이 화면 출력부; 및 제2 플레이어에게 착용되는 제2 착용형 디스플레이 화면 출력부;를 포함하되, 상기 제1 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에 대응하는 제2 플레이 캐릭터가 출력되고, 상기 제2 착용형 디스플레이 장치를 통하여 상기 제1 플레이어에 대응하는 상기 제2 플레이 캐릭터가 출력되는 경우 상기 제1 플레이 캐릭터에는 상기 제1 특징값이 적용된 얼굴 데이터가 제공되고 상기 제2 플레이 캐릭터에는 상기 제2 특징값이 적용된 얼굴 데이터가 제공되는 가상 환경 제어 시스템이 제공될 수 있다.

Description

가상 환경 제어 시스템{VIRTUAL REALITY CONTROL SYSTEM}
본 발명은 가상 환경 제어 시스템에 관한 것이다.
가상 환경에서의 멀티 플레이는 복수의 플레이어가 하나의 가상 환경에서 주어진 미션을 플레이하게되는 데 주로 서로가 협동을 하거나 경쟁을 하여 미션을 수행하게 된다.
이러한 멀티 플레이에서 플레이어가 서로 간에 경쟁을 하거나 협동을 하기 위해서는 다수의 플레이어를 서로 식별할 수 있어야한다.
종래의 멀티 플레이를 지원하는 가상 환경 등에서는 플레이어간에 서로를 식별하기 위하여 제공되는 닉네임 등의 식별 정보를 제공하여 구별하였다.
하지만 이러한 닉네임 등의 식별 정보는 닉네임과 플레이어와의 매칭을 인지하지 못하는 경우 해당 플레이어로 인식하기 어려운 문제점이 있었다.
일 과제는 가상 환경에 제공되는 가상 캐릭터의 얼굴 데이터를 플레이어의 얼굴 데이터에 기초하여 제공함으로써 플레이어들을 보다 용이하게 식별할 수 있는 가상 환경 제어 시스템을 제공하는 것에 있다.
일 양상에 따르면 미리 저장된 제1 플레이어의 얼굴 데이터에 기초하여 제1 특징값을 획득하고, 미리 저장된 제2 플레이어의 얼굴 데이터에 기초하여 제2 특징값을 획득하는 제어부; 제1 플레이어에게 착용되는 제1 착용형 디스플레이 화면 출력부; 및 제2 플레이어에게 착용되는 제2 착용형 디스플레이 화면 출력부;를 포함하되, 상기 제1 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에 대응하는 제2 플레이 캐릭터가 출력되고, 상기 제2 착용형 디스플레이 장치를 통하여 상기 제1 플레이어에 대응하는 상기 제2 플레이 캐릭터가 출력되는 경우 상기 제1 플레이 캐릭터에는 상기 제1 특징값이 적용된 얼굴 데이터가 제공되고 상기 제2 플레이 캐릭터에는 상기 제2 특징값이 적용된 얼굴 데이터가 제공되는 가상 환경 제어 시스템이 제공될 수 있다.
가상 환경에 제공되는 가상 캐릭터의 얼굴 데이터를 플레이어의 얼굴 데이터에 기초하여 제공함으로써 플레이어간의 식별이 보다 용이하게 제공될 수 있다.
도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.
도 3은 일 실시예에 따른 서버를 나타내는 블록도이다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치를 나타내는 블록도이다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치를 나타내는 블록도이다.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 8은 일 실시예에 따른 가상 환경의 구현예를 나타내는 예시도이다.
도 9는 일 실시예에 따른 얼굴 정합을 나타내는 예시도이다.
도 10은 일 실시예에 따른 플레이 캐릭터 획득 방법을 나타내는 순서도이다.
도 11은 일 실시예에 따른 얼굴 센서부를 통한 얼굴 데이터의 획득을 나타내는 도면이다.
도 12는 일 실시예에 따른 식별 정보를 이용한 미리 저장된 얼굴 데이터의 획득을 나타내는 도면이다.
도 13은 일 실시예에 따른 가상 캐릭터의 선택을 나타내는 도면이다.
도 14는 일 실시예에 따른 가상 캐릭터의 선택을 나타내는 도면이다.
도 15는 일 실시예에 따른 가상 캐릭터의 예시도이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
가상 환경은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.
이러한 가상 환경은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 환경을 융하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.
이하에서 설명되는 가상 환경을 설명함에 있어서 가상 환경은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 환경을 의미할 수 있다.
이하에서는 도 1을 참조하여 일 실시예에 따른 가상 환경을 제공하기 위한 시스템에 대해서 설명하도록 한다.
도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.
도 1을 참조하면, 시스템은 디텍팅 시스템(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다.
일 실시예에 따르면 디텍팅 시스템(100)은 서버(200)와 연결될 수 있다.
디텍팅 시스템(100)은 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.
일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다.
예를 들어 대상체는 플레이어의 신체 부위, 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.
또한 일 실시예에 따른 추적 대상체의 추적은 실제 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다.
예를 들어 추적 대상체의 추적은 실제 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로 획득될 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 따르면 디텍팅 시스템(100)은 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 시스템(1000) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.
서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 시스템(100)으로부터 디텍팅 정보, 디텍팅 시스템(100)이 획득한 이미지 정보 및 디텍팅 시스템(100)의 상태 정보 중 적어도 하나를 획득할 수 있다.
그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.
일 실시예에 따르면 서버(200)는 상기 보조 컴퓨팅 장치(300) 또는 상기 착용형 디스플레이 장치(400)를 제어할 수 있다.
일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.
다른 예로 서버(200)는 디텍팅 시스템(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.
또한 서버(200)는 디텍팅 정보에 기초하여 가상환경에서의 대상체 위치를 나타내는 가상 위치 정보를 생성할 수 있다.
또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 어플리케이션의 인증을 수행할 수 있다.
일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.
또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다.
예를 들어 서버(200)는 디텍팅 시스템(100)과 연결되어 디텍팅 정보에 기초하여 가상 위치 정보를 획득하는 디텍팅 서버, 시스템에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 시스템의 각 구성 중 적어도 하나의 구성에서 실행되는 어플리케이션에 대한 인증을 수행하는 라이센스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.
보조 컴퓨팅 장치는(300)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 제공될 이미지를 제공할 수 있다.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다.
일 실시예에 따르면, 상기 보조 컴퓨팅 장치(300)는 미리 설치된 프로그램 및 디텍팅 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력 신호에 기초하여 입력 정보를 획득할 수 있다.
입력 정보는 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.
또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어(P)가 착용 가능한 백팩PC의 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 장치(300)가 위치할 수 있는 가방에 결착된 형태로 제공될 수 있으며, 플레이어(P)가 가방을 맴으로써 보조 컴퓨팅 장치(300)를 소지하는 형태로 제공될 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 장치(400)는 사용자에게 가상 환경에 대한 이미지를 제공할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 사용자에게 시각적으로 출력할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴튜팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.
입력 장치(500)는 가상 환경에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력 신호를 제공할 수 있다.
입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.
또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.
도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다.
예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.
이상에서 설명된 시스템은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 시스템이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.
다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 시스템을 예시로 하여 설명하도록 한다.
이하에서는 도 2를 참조하여 일 실시예에 따른 디텍팅 시스템(100)에 대하여 설명하도록 한다.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.
도 2를 참조하면, 상기 디텍팅 시스템(100)은 발광부(110), 센싱부(120) 및 마커(M)를 포함할 수 있다.
발광부(110)는 상기 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다.
일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.
보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.
센싱부(120)는 외부로부터 신호를 획득할 수 있다.
일 예로 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.
다른 예로 센싱부(120)는 대상체에 제공되는 마커(M)가 반사한 광에 대한 신호를 획득할 수 있다.
예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.
도 3은 일 실시예에 따른 서버(200)를 나타내는 블록도이다.
도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.
서버 통신부(210)는 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.
서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결될 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
서버 저장부(220)는 데이터를 저장할 수 있다.
서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다.
예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.
서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.
일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.
서버 제어부(240)는 예시적으로 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다.
또한 서버 제어부(240)는 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한 소프트웨어 코드는 서버 저장부(220)에 저장되고, 서버 저장부(240) 또는 구성요소 등에 의해 실행될 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.
또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치(300)를 나타내는 블록도이다.
도 4를 참조하면, 상기 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.
상기 보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.
보조 컴퓨팅 입력부(330)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치(400)를 나타내는 블록도이다.
도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.
착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.
착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 프로그램을 저장할 수 있다.
또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.
착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.
일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.
다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.
착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.
상기 착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.
착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.
일 예로 착용형 디스플레이 화면 출력부 (450)는 가상 환경에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 환경에 대한 이미지를 출력할 수 있다.
착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.
착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.
착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.
도 6을 참조하면 분할 공간 정합을 위한 시스템은 적어도 하나의 플레이어(P)가 플레이하는 플레이 공간(PA)이 제공될 수 있다.
또한 플레이 공간(PA)에서 플레이하는 플레이어(P)에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.
또한 플레이어(P) 각각에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.
일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.
또한 플레이 공간(PA)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.
일 예로 도 6에 도시된 바와 같이 플레이 공간(PA)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.
이러한 디텍팅 장치(100)는 플레이 공간(PA)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.
또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.
또한 디텍팅 장치(100)는 플레이 공간(PA)을 지향하도록 제공될 수 있다.
디텍팅 장치(100)는 미리 설치된 플레임에 고정되어 설치 될 수 있다.
일 예로 도 6에 도시된 바와 같이 플레이 공간(PA) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.
디텍팅 장치(100)는 플레이 공간(PA)에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.
일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 센싱부(120)의 센싱 범위에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.
서버(200)는 디텍팅 정보에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
도 6에 도시된 바와 같이 플레이 공간(PA)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
또한 서버(200)는 대상체들의 현실 위치 정보(RP)에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보(VP)를 획득할 수 있다.
일 예로 서버(200)는 플레이들의 현실 세계에서의 현실 위치 정보(RP)에 포함된 좌표에 대응하는 가상 환경에서의 좌표를 캐릭터(C)의 가상 위치 정보(VP)로 획득할 수 있다.
서버(200)는 현실 위치 정보(RP) 및 가상 위치 정보(VP) 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 현실 위치 정보(RP)에 기초하여 가상 위치 정보(VP)를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 환경에서의 캐릭터(C)의 위치인 가상 위치 정보를 획득할 수 있다. 또는 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 환경에서의 가상 카메라의 위치인 가상 위치 정보를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 포함된 가상 위치 정보 및 가상 지향 방향에 기초하여 가상 이미지 영역을 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경에서 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 가상 이미지를 사용자에게 출력할 수 있다.
또한 서버(300)는 관람용 디스플레이 장치(700)로 가상 이미지를 제공할 수 있다.
서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.
또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 이미지를 획득할 수 있으며, 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.
일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 관람용 디스플레이 장치(700)로 제공할 수 있다.
또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보(VP)를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 카메라 위치에 기초하여 가상 이미지를 획득할 수 있다. 또한 서버(300)는 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.
관람용 디스플레이 장치(700)는 서버(300)로부터 획득한 가상 이미지를 출력할 수 있다.
또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.
또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.
입력 장치(500)는 각각의 플레이어(P)가 소지하도록 제공될 수 있다.
일 예로 플레이어(P1)는 입력 장치(400)를 손에 휴대할 수 있다.
일 실시예에 따르면 서버 장치(400)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(400)의 현실 위치 정보를 획득할 수 있다. 또한 입력 장치(400)의 현실 위치 정보는 플레이 공간(PA) 상에서의 입력 장치의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 입력 장치(400)의 현실 위치 정보에 기초하여 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 총이 입력 장치의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.
또한 또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치(500)를 통한 플레이어의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치를 플레이어(P1) 누른 경우 가상환경에서 플레이어(P)에 대응하는 캐릭터(C)가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.
도 7을 참조하면 대상체는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.
마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.
대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체 임을 식별 가능할 수 있다.
또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.
예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.
또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 들에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.
또한 마커(M) 는 상기 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.
또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.
일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.
일 예로 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다. 또한 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.
또한 시스템이 복수의 대상체(130)에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.
일 예로 시스템에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있다. 또한 입력 장치(500)에는 제2 패턴으로 마커가(130) 제공될 수 있다.
제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.
또한 대상체에 제공되는 마커(M)의 패턴은 사용자의 식별에도 사용될 수 있다.
일 예로 제1 패턴은 제1 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제2 패턴은 제1 사용자의 입력 장치(500)로 식별될 수 있다. 또한 제3 패턴은 제2 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제4 패턴은 제2 사용자의 입력 장치(500)로 식별될 수 있다.
대상체의 추적에 대해서 설명하면 서버 장치(200)는 디텍팅 시스템(100)으로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버 장치(200)는 디텍팅 정보에 기초하여 대상체의 위치를 추적할 수 있다.
디텍팅 시스템(100)이 서버 장치(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 시스템(100)의 발광부(110)는 플레이 공간(PA)의 적어도 일부 영역에 신호를 발신할 수 있다.
일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 플레이 공간(PA)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.
또한 센싱부(120)는 외부로부터 획득한 정보를 서버 장치(200)로 제공할 수 있다.
일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버 장치(200)로 제공할 수 있다.
도 7에는 하나의 센싱부(120) 만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버 장치(200)로 제공할 수 있다.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 판단할 수 있다. 또한 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.
일 예로 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.
하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버 장치(200)는 복수의 패턴을 식별할 수 있다.
이러한 패턴은 서버 장치(200)에 미리 저장될 수 있으며, 서버 장치(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버 장치(200)에는 미리 저장된 패턴을 각각에 대한 대표점(RP)가 설정될 수 있다. 대표점(RP)는 패턴을 대표하는 점(point)일 수 있다.
복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되게 되며, 서버 장치(200)는 패턴을 대표하는 대표점(RP)을 패턴에 대응하는 대상체의 위치로 획득할 수 있다.
따라서, 서버 장치(200)는 대상체의 위치에 대한 정보를 획득하여 대상체를 추적할 수 있다.
일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.
일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다..
일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.
일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다.
일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀수에 기초하여 사물의 크기를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.
일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공유형의 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향 및 위치 변화량에 기초하여
보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.
도 8은 일 실시예에 따른 가상 환경의 구현예를 나타내는 예시도이다.
도 8을 참조하면, 시스템은 착용형 디스플레이 장치(400)를 통하여 가상 환경의 적어도 일부에 대한 가상 이미지를 제공할 수 있다.
가상 환경은 배경, 지형 오브젝트, 가상 오브젝트 및 캐릭터 등을 포함할 수 있다.
일 예로 가상 환경에는 플레이어에 대응하는 캐릭터가 제공될 수 있다.
다른 예로 가상 환경에는 플레이어가 소지한 컨트롤러에 대응하는 총 등의 가상 오브젝트가 제공될 수 있다.
지형 오브젝트는 가상 환경의 미리 정해진 위치에 제공될 수 있다.
또한 지형 오브젝트는 캐릭터가 이동 가능한 지형 오브젝트 및 이동 불가능한 지형 오브젝트를 포함할 수 있다.
일 예로 이동 가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동한 경우 플레이어에 대응하는 캐릭터가 이동할 수 있는 지형 오브젝트일 수 있다. 또한 이동 블가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동하더라도 플레이어에 대응하는 캐릭터가 해당 지형 오브젝트로 이동하지 않는 지형 오브젝트일 수 있다.
또한 캐릭터는 미리 프로그래밍된 프로그램에 의해 제공되는 NPC 캐릭터 및 플레이어 캐릭터를 포함할 수 있다.
가상 환경에 있어서 위치 정보는 현실 위치 정보 및 가상 위치 정보 중 적어도 하나를 포함할 수 있다.
현실 위치 정보는 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함할 수 있다.
일 예로 현실 위치 정보는 플레이 공간(PA) 상에 위치한 대상의 위치 좌표일 수 있다.
서버(200)는 플레이 공간(PA)에 대한 좌표값을 미리 저장할 수 있다.
서버(200)는 플레이 공간(PA)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
서버(200)는 디텍팅 정보 및 플레이 공간(PA)에 대한 좌표계에 기초하여 대상체의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 플레이 공간(PA)에서의 좌표값을 현실 위치 정보로 획득할 수 있다.
일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 마커의 패턴을 판단할 수 있으며, 마커의 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커의 패턴 및 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 대상체의 대표점을 획득할 수 있으며, 대상체의 대표점의 좌표값을 대상체의 현실 위치 정보로 획득할 수 있다.
서버(200)는 현실 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경(VW)에 대한 좌표값을 미리 저장할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경(VW)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
보조 컴퓨팅 장치(300)는 현실 위치 정보 및 가상 환경(VW)에 대한 좌표계에 기초하여 대상체의 가상 환경(VW)에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 환경(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 현실 위치 정보에 포함된 좌표값에 대응하는 가상 환경(VW)에서의 좌표값을 획득할 수 있으며, 획득한 가상 환경(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자에게 출력할 가상 이미지를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 정보를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 현실 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 카상 카메라의 시야로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 환경에서 가상 카메라의 시야에 대응하는 가상 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 획득한 가상 이미지를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자에게 출력할 수 있다.
도 9는 일 실시예에 따른 얼굴 정합을 나타내는 예시도이다.
일 실시예에 따르면 가상 환경에서 플레이어간에 서로를 구분하는 방법으로는 각각의 플레이어 및/또는 팀별로 서로 다른 색상의 가상 캐릭터로 제공하여 플레이어 및/또는 팀별로 서로를 식별할 수 있다.
일 예로 제1 플레이어에 대응하는 제1 가상 캐릭터와 제2 플레이어에 대응하는 제2 가상 캐릭터의 색상을 서로 상이하게 제공함으로써 피아를 식별할 수 있게 할 수 있다.
또는 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터를 제1 색상으로 제공하고 제2 팀에 소속된 플레이어 대응하는 가상 캐릭터의 색상을 제2 색상으로 제공하여 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터 및 제2 팀에 소속된 플레이어에 대응하는 가상 캐릭터를 서로 식별할 수 있도록 제공할 수 있다.
일 실시예에 따르면 가상 환경에서 각각의 플레이어 및/또는 팀을 서로를 구분하도록 각각의 플레이어 및/또는 팀에 대응하는 식별 정보를 제공하여 하나의 플레이어가 식별 정보에 기초하여 각각의 플레이어 및/또는 팀을 서로 식별할 수 있다.
또는 제1 플레이어에 대응하는 제1 가상 캐릭터 및/또는 제1 가상 캐릭터와 인접한 미리 정해진 영역에 제1 플레이어 및/또는 제1 가상 캐릭터에 대한 식별 정보를 제공할 수 있으며, 제2 플레이어에 대응하는 제2 가상 캐릭터 및/또는 제2 가상 캐릭터와 인접한 미리 정해진 영역에 제2 플레이어 및/또는 제2 가상 캐릭터에 대한 식별 정보를 제공하여 제1 가상 캐릭터 및 제2 가상 캐릭터를 식별하도록 식별 정보를 제공할 수 있다.
또는 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터 및/또는 가상 캐릭터와 인접한 미리 정해진 영역에 제1 팀에 대한 식별 정보를 제공하고 제2 팀에 소속된 플레이어 대응하는 가상 캐릭터 및/또는 가상 캐릭터와 인접한 미리 정해진 영역에 제2 팀에 대한 식별 정보를 제공하여 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터 및 제2 팀에 소속된 플레이어에 대응하는 가상 캐릭터를 서로 식별할 수 있도록 제공할 수 있다.
이러한 색상을 이용한 각각의 플레이어를 식별하는 경우 플레이어에 부여된 색을 기억하지 않으면 어느 플레이어인지 식별하는데 곤란함이 있을 수 있다.
일상생황에서 다른 사람을 인식하는 다양한 방법이 있을 수 있으나 주로 사용되는 것은 얼굴을 통한 인식일 수 있다. 즉, 다른 사람의 얼굴 특징을 통하여 서로를 식별하고 인식할 수 있다.
이러한 얼굴 특징은 다양하게 제공될 수 있는데 일반적으로 게임에서는 가상 캐릭터 별로 획일적으로 제공되거나 가상 캐릭터 별로 얼굴 특징이 서로 상이할 뿐 플레이어에 따라 얼굴 특징이 서로 상이하게 제공되지 않는다.
일 실시예에 따르면 플레이어 별로 얼굴 특징을 상이하게 제공함으로써 하나의 플레이어를 다른 플레이어와 용이하게 식별할 수 있다.
또한 일 실시예에 따르면 가상 캐릭터의 얼굴 데이터에 플레이어의 얼굴 특징을 반영함으로써 해당 플레이어의 가상 캐릭터임을 보다 명확하게 식별할 수 있다.
도 10은 일 실시예에 따른 플레이 캐릭터 획득 방법을 나타내는 순서도이다.
도 10을 참조하면 플레이 캐릭터를 획득하는 방법은 플레이어 얼굴 데이터를 획득하는 단계(S100), 플레이어 얼굴 데이터에 기초하여 얼굴 특징값을 획득하는 단계(S200), 가상 캐릭터에 대한 정보를 획득하는 단계(S300), 얼굴 특징값에 기초하여 가상 캐릭터의 얼굴 데이터를 획득하는 단계(S400), 플레이 캐릭터를 저장하는 단계(S500), 플레이 캐릭터를 출력하는 단계(S600)을 포함할 수 있다.
일 실시예에 따르면 플레이어 얼굴 데이터를 획득하는 단계가 수행될 수 있다(S100).
일 실시예에 따르면 가상 환경 시스템에는 얼굴 센서부(800)가 제공될 수 있으며, 얼굴 센서부(800)를 통하여 플레이어의 얼굴 데이터를 획득할 수 있다.
서버(200)는 플레이어의 얼굴 특징값을 획득하기 위해서 플레이어의 얼굴 데이터를 획득할 수 있다.
도 11은 일 실시예에 따른 얼굴 센서부(800)를 통한 얼굴 데이터의 획득을 나타내는 도면이다.
일 실시예에 따르면 플레이어의 얼굴 데이터를 획득하기 위한 얼굴 센서부(800)가 제공될 수 있으며, 얼굴 센서부(800)를 통하여 플레이어의 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 얼굴 센서부(800)는 카메라 및 이미지 등으로 제공될 수 있다.
일 예로 얼굴 센서부(800)가 카메라로 제공되는 경우 카메라로 플레이어의 얼굴을 촬영하여 플레이어의 얼굴에 대한 얼굴 데이터를 획득할 수 있다.
도 13은 일 실시예에 따른 플레이어의 얼굴 데이터를 나타내는 예시도이다.
도 13에 도시된 바와 같이 서버(200)는 얼굴 센서부(800)를 통하여 플레이어의 얼굴을 스캔한 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 서버(200)에 미리 저장된 얼굴 데이터 중 획득한 플레이어 식별 정보에 대응하는 얼굴 데이터를 획득할 수 있다.
도 12는 일 실시예에 따른 식별 정보를 이용한 미리 저장된 얼굴 데이터의 획득을 나타내는 도면이다.
서버(200)는 얼굴 센서부(800)를 통하여 획득한 얼굴 데이터를 미리 저장할 수 있다.
또한 일 실시예에 따르면 얼굴 데이터는 별도의 얼굴 데이터 서버에 미리 저장될 수 있다.
일 실시예에 따르면 서버(200)는 ID 센서부(900)를 통하여 플레이어 식별 정보를 획득할 수 있다.
일 예로 서버(200)는 ID 센서부(900)에 제공되는 입력 장치를 통하여 플레이어가 입력한 플레이어 식별 정보를 획득할 수 있다.
다른 예로 서버(200)는 ID 센서부(900)를 통하여 플레이어가 소지한 휴대용 기록 매체에 기록된 플레이어 식별 정보를 스캔하여 획득할 수 있다.
보다 구체적인 예를 들어 서버(200)는 ID 센서부(900)에 제공되는 바코드 리더기를 통하여 플레이어가 소지한 ID 카드에 기록된 바코드를 스캔하여 플레이어 식별 정보를 획득할 수 있다.
또한 서버(200)는 ID 센서부(900)를 통하여 플레이어가 입력한 플레이어 식별 정보를 획득할 수 있다. 또한 서버(200)는 미리 저장된 얼굴 데이터 중 플레이어 식별 정보에 대응하는 얼굴 데이터를 획득할 수 있다.
또한 별도의 얼굴 데이터 서버가 제공되는 경우 서버(200)는 얼굴 데이터 서버로 플레이어 식별 정보에 대응하는 얼굴 데이터의 전송을 요청할 수 있으며, 얼굴 데이터 서버로부터 플레이어 식별 정보에 대응하는 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 휴대용 기록매체로부터 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 ID 센서부(900)를 통하여 플레이어가 소지한 휴대용 기록 매체에 기록된 얼굴 데이터를 획득할 수 있다.
일 예로 서버(200)는 ID 센서부(900)를 통하여 플레이어가 소지한 휴대용 기록 매체에 기록된 얼굴 데이터를 스캔하여 획득할 수 있다.
보다 구체적인 예를 들어 서버(200)는 ID 센서부(900)에 제공되는 바코드 리더기를 통하여 플레이어가 소지한 ID 카드에 기록된 바코드를 스캔하여 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 플레이어 얼굴 데이터에 기초하여 얼굴 특징값을 획득하는 단계가 수행될 수 있다(S200).
얼굴 데이터의 특징값은 눈 색, 머리카락 색, 눈썹 색, 얼굴 피부 색, 코의 높이, 너비, 눈의 크기, 눈과 눈 사이의 거리, 눈의 위치 등에 대한 값을 획득할 수 있다
서버(200)는 미리 정해진 가상 캐릭터 얼굴 데이터 변수값에 획득한 얼굴 데이터의 특징값을 적용하여 가상 캐릭터에 대한 얼굴 데이터를 획득할 수 있다.
일 예로 얼굴 데이터는 코의 높이, 코의 노비, 눈의 크기, 눈과 눈 사이의 거리, 눈의 위치에 대한 변수를 포함할 수 있으며, 서버 저장부(220)에는 얼굴 데이터의 변수에 대한 변수값이 미리 저장될 수 있다, 서버 제어부(240)는 미리 저장된 얼굴 데이터의 변수값을 획득한 얼굴 데이터의 특징값으로 변경할 수 있다.
일 예로 획득한 얼굴 데이터의 코의 높이가 10cm 인 경우 서버 제어부(240)는 가상 캐릭터의 얼굴 데이터의 코의 높이 변수를 10cm로 설정할 수 있다.
특징값이 서로 상이한 플레이어들 간의 가상 캐릭터의 얼굴 데이터는 서로 상이할 수 있다.
일 예로 제1 플레이어로부터 획득한 얼굴 데이터의 특징값과 제2 플레이어로부터 획득한 얼굴 데이터의 특징값이 서로 상이한 경우 제1 캐릭터의 얼굴 데이터 및 제2 캐릭터의 얼굴 데이터는 서로 상이할 수 있다.
또한 제1 캐릭터는 제1 플레이어로부터 획득한 특징값을 적용하여 얼굴 데이터를 획득하기 때문에 다른 플레이어가 제1 캐릭터를 볼 때 제1 플레이어의 특징적인 모습(예를 들어 코의 높이 등)을 통하여 제1 플레이어에 대응하는 캐릭터임을 식별할 수 있다.
서버(200)는 획득한 특징값을 보조 컴퓨팅 장치(300)로 전송할 수 있다.
이상에서 설명된 특징값의 획득이 반드시 서버(200)에서 실행되는 것으로 정되는 것은 아니며, 선택에 따라 다양한 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300)가 단계S100에서 획득한 얼굴 데이터를 획득하여 단계S200을 수행하여 특징값을 획득할 수 있다.
일 실시예에 따르면 가상 캐릭터에 대한 정보를 획득하는 단계가 수행될 수 있다(S300).
일 실시예에 따르면 미리 저장된 복수의 가상 캐릭터 중 선택된 캐릭터에 대한 정보를 획득할 수 있다.
일 실시예에 따르면 가상 환경 내에는 복수의 가상 캐릭터 중 적어도 하나의 캐릭터를 선택할 수 있는 단계가 제공될 수 있다.
일 예로 게임 내에서 미리 정해진 스텝에서는 플레이어가 복수의 캐릭터에 대한 식별 정보가 제공될 수 있다.
도 14는 일 실시예에 따른 가상 캐릭터의 선택을 나타내는 도면이다.
도 14를 참조하여 설명하면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통하여 가상 환경에서 복수의 가상 캐릭터에 대한 이미지를 제공하도록 제어할 수 있다.
또한 도 14에는 도시 되지 않았지만, 복수의 가상 캐릭터 별로 각각에 대한 식별 정보가 제공될 수 있다.
또한 보조 컴퓨팅 장치(300)는 컨트롤러(500)를 통하여 적어도 하나의 가상 캐릭터에 대한 플레이어의 선택을 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 플레이어가 컨트롤러(500)를 지향한 방향에 대응하는 가상 캐릭터를 플레이어가 선택한 가상 캐릭터로 획득할 수 있다.
다른 예로 보조 컴퓨팅 장치(300)는 플레이어가 컨트롤러(500)에 제공되는 미리 정해진 선택 버튼을 눌려 입력한 경우 플레이어가 미리 정해진 선택 버튼을 눌력 입력한 시점에 컨트롤러(500)가 지향하는 방향에 대응하는 가상 캐릭터를 플레이어가 선택한 가상 캐릭터로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 선택된 가상 캐릭터에 대한 캐릭터 정보를 획득할 수 있다.
일 실시예에 따르면 캐릭터 정보는 캐릭터의 외형에 대한 정보로 가상 캐릭터의 얼굴 데이터를 제외한 몸체에 대한 데이터일 수 있다. 또는 캐릭터 정보는 캐릭터의 가상 캐릭터의 얼굴 데이터를 포함하되, 가상 캐릭터의 얼굴 데이터는 가상 캐릭터에 미리 부여된 기본 특징값이 설정된 얼굴 데이터가 제공될 수 있다.
일 실시예에 따르면 얼굴 특징값에 기초하여 가상 캐릭터의 얼굴 데이터를 획득하는 단계가 수행될 수 있다(S400).
서버(200)는 플레이어의 얼굴 특징값에 기초하여 가상 캐릭터의 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 가상 캐릭터의 얼굴 데이터는 눈 색, 머리카락 색, 눈썹 색, 얼굴 피부 색, 코의 높이, 너비, 눈의 크기, 눈과 눈 사이의 거리, 눈의 위치 등에 대한 변수값을 포함할 수 있다.
서버(200)는 가상 캐릭터의 얼굴 데이터에 포함된 변수값을 플레이어의 얼굴 데이터에 기초하여 획득한 특징값으로 변경하여 가상 캐릭터의 얼굴 데이터를 획득할 수 있다.
일 예로 서버(200)는 가상 캐릭터의 얼굴 데이터에 포함된 코의 높이 변수값을 플레이어의 얼굴 데이터에서 획득한 변수값으로 변경하여 가상 캐릭터의 얼굴 데이터를 획득할 수 있다.
일 실시예에 따르면 플레이 캐릭터를 저장하는 단계가 수행될 수 있다(S500).
서버(200)는 가상 캐릭터의 얼굴 데이터 및 가상 캐릭터의 몸체 데이터에 기초하여 가상 캐릭터를 획득할 수 있다.
또한 서버(200)는 가상 캐릭터를 서버 저장부(220)에 저장할 수 있다.
또한 서버(200)는 가상 캐릭터를 보조 컴퓨팅 장치(300)로 전송할 수 있다.
일 예로 서버(200)는 제1 플레이어에 대응하는 제1 가상 캐릭터를 제2 플레이어가 사용하는 제2 보조 컴퓨팅 장치로 전송할 수 있다.
다른 예로 서버(200)는 제2 플레이어에 대응하는 제2 가상 캐릭터를 제1 플레이어가 사용하는 제1 보조 컴퓨팅 장치로 전송할 수 있다.
또 다른 예로 서버(200)는 서버(200)와 연결된 제1 보조 컴퓨팅 장치 및 제2 보조 컴퓨팅 장치로 제1 가상 캐릭터 및 제2 가상 캐릭터를 전송할 수 있다.
일 실시예에 따르면 플레이 캐릭터를 출력하는 단계가 수행될 수 있다(S600).
일 실시예에 따르면 하나의 플레이어가 착용한 착용형 디스플레이 장치(400)를 통하여 다른 플레이어에 대응하는 가상 캐릭터의 이미지가 출력될 수 있다.
도 15는 일 실시예에 따른 가상 캐릭터(C)의 예시도이다.
도 15에 도시된 바와 같이 가상 환경에서 출력되는 가상 캐릭터의 얼굴 데이터는 플레이어의 얼굴 데이터에 기초하여 획득된 특징값이 반영된 얼굴 데이터가 제공될 수 있다.
일 예로 제1 플레이어 및 제2 플레이어가 가상 환경을 플레이할 때, 가상 환경에서 제1 플레이어의 시야에 제2 플레이어에 대응하는 가상 캐릭터가 포함된 경우 제1 플레이어가 착용한 착용형 디스플레이 장치(400)를 통하여 제2 플레이어에 대응하는 가상 캐릭터가 출력될 수 있다.
또한 제2 플레이어의 시야에 제1 플레이어에 대응하는 가상 캐릭터가 포함된 경우 제2 플레이어가 착용한 착용형 디스플레이 장치(400)를 통하여 제1 플레이어에 대응하는 가상 캐릭터가 출력될 수 있다.
제1 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에 대응하는 제2 플레이 캐릭터가 출력되는 경우 제2 플레이어에 대응하는 가상 캐릭터의 얼굴 데이터는 제2 플레이어의 특징값이 반영된 얼굴 데이터가 출력될 수 있다.
또한 제2 착용형 디스플레이 장치를 통하여 상기 제1 플레이어에 대응하는 상기 제2 플레이 캐릭터가 출력되는 경우 제2 플레이어에 대응하는 가상 캐릭터의 얼굴 데이터는 제2 플레이어의 특징값이 반영된 얼굴 데이터가 출력될 수 있다.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.

Claims (6)

  1. 미리 저장된 제1 플레이어의 얼굴 데이터에 기초하여 제1 특징값을 획득하고, 미리 저장된 제2 플레이어의 얼굴 데이터에 기초하여 제2 특징값을 획득하는 제어부;
    제1 플레이어에게 착용되는 제1 착용형 디스플레이 화면 출력부; 및
    제2 플레이어에게 착용되는 제2 착용형 디스플레이 화면 출력부;를 포함하되,
    상기 제1 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에 대응하는 제2 플레이 캐릭터가 출력되고,
    상기 제2 착용형 디스플레이 장치를 통하여 상기 제1 플레이어에 대응하는 상기 제2 플레이 캐릭터가 출력되는 경우
    상기 제1 플레이 캐릭터에는 상기 제1 특징값이 적용된 얼굴 데이터가 제공되고
    상기 제2 플레이 캐릭터에는 상기 제2 특징값이 적용된 얼굴 데이터가 제공되는
    가상 환경 제어 시스템.

  2. 제1 항에 있어서,
    상기 얼굴 데이터는 눈 색, 머리카락 색, 눈썹 색, 얼굴 피부 색, 코 높이, 미간 거리, 입술 길이, 입술 두께, 코와 입술의 거리 중 적어도 하나를 포함하는
    가상 환경 제어 시스템.
  3. 제2 항에 있어서,
    플레이어의 얼굴 데이터를 획득하는 얼굴 센서부를 더 포함하고,
    상기 미리 저장된 제1 플레이어의 얼굴 데이터 및 상기 미리 저장된 제2 플레이어의 얼굴 데이터는 상기 얼굴 센서부로부터 획득되어 미리 저장되는
    가상 환경 제어 시스템.
  4. 제2 항에 있어서,
    플레이어 식별 정보를 획득하는 ID 센서부를 더 포함하고,
    상기 미리 저장된 제1 플레이어의 얼굴 데이터는 미리 저장된 얼굴 데이터 중 상기 ID 센서부를 통하여 획득한 제1 플레이어 식별 정보에 대응하는 얼굴 데이터이고, 상기 미리 저장된 제2 플레이어의 얼굴 데이터는 미리 저장된 얼굴 데이터 중 상기 ID 센서부를 통하여 획득한 제2 플레이어 식별 정보에 대응하는 얼굴 데이터인
    가상 환경 제어 시스템.
  5. 제1 항에 있어서,
    상기 제어부는 가상 캐릭터의 변수값에 상기 특징값을 적용하여 상기 플레이 캐릭터의 얼굴 데이터를 획득하는
    가상 환경 제어 시스템.
  6. 제5 항에 있어서,
    상기 변수값은 눈 색, 머리카락 색, 눈썹 색, 얼굴 피부 색, 코 높이, 미간 거리, 입술 길이, 입술 두께, 코와 입술의 거리 중 적어도 하나를 포함하는
    가상 환경 제어 시스템.
KR1020180167749A 2017-12-26 2018-12-21 가상 환경 제어 시스템 KR20190078524A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2018/016683 WO2019132521A1 (ko) 2017-12-26 2018-12-26 가상 환경 제어 시스템
US16/958,524 US11517821B2 (en) 2017-12-26 2018-12-26 Virtual reality control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762610455P 2017-12-26 2017-12-26
US62/610,455 2017-12-26

Publications (1)

Publication Number Publication Date
KR20190078524A true KR20190078524A (ko) 2019-07-04

Family

ID=67259656

Family Applications (8)

Application Number Title Priority Date Filing Date
KR1020180097687A KR102181587B1 (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180097685A KR102092464B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
KR1020180097682A KR102130892B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법
KR1020180097686A KR20190078475A (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180097683A KR102085440B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템
KR1020180097684A KR102085441B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템
KR1020180167749A KR20190078524A (ko) 2017-12-26 2018-12-21 가상 환경 제어 시스템
KR1020200132667A KR20200123049A (ko) 2017-12-26 2020-10-14 가상 환경 제어 시스템

Family Applications Before (6)

Application Number Title Priority Date Filing Date
KR1020180097687A KR102181587B1 (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180097685A KR102092464B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
KR1020180097682A KR102130892B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법
KR1020180097686A KR20190078475A (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180097683A KR102085440B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템
KR1020180097684A KR102085441B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200132667A KR20200123049A (ko) 2017-12-26 2020-10-14 가상 환경 제어 시스템

Country Status (2)

Country Link
US (2) US11517821B2 (ko)
KR (8) KR102181587B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373891B1 (ko) * 2020-12-02 2022-03-15 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN110548288B (zh) * 2019-09-05 2020-11-10 腾讯科技(深圳)有限公司 虚拟对象的受击提示方法、装置、终端及存储介质
KR102212510B1 (ko) * 2019-10-21 2021-02-04 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
US11080930B2 (en) * 2019-10-23 2021-08-03 Skonec Entertainment Co., Ltd. Virtual reality control system
KR102318698B1 (ko) * 2019-12-27 2021-10-28 주식회사 믹서 구면좌표계 기반 가상의 대상체가 배치된 가상공간 형성 방법 및 프로그램
CN113457150B (zh) * 2021-07-16 2023-10-24 腾讯科技(深圳)有限公司 信息提示方法和装置、存储介质及电子设备
KR102477531B1 (ko) * 2021-12-02 2022-12-14 (주)스코넥엔터테인먼트 음성인식 기능이 구비된 가상 환경 제어 시스템
KR102594054B1 (ko) * 2021-12-09 2023-10-25 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 이를 제어하는 방법

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659691A (en) 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
JPH10283151A (ja) 1997-04-10 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法
JPH11272156A (ja) * 1998-03-25 1999-10-08 Sega Enterp Ltd 仮想三次元音像生成装置及びその方法並びに媒体
JP3653463B2 (ja) * 2000-11-09 2005-05-25 日本電信電話株式会社 複数のユーザによる仮想空間共有システム
JP2003271992A (ja) * 2002-03-13 2003-09-26 Fukui Computer Kk 仮想モデルハウス体験システム、仮想モデルハウス体験方法、仮想モデルハウス体験プログラムおよび仮想モデルハウス体験プログラムが格納されたコンピュータ読み取り可能な記憶媒体
JP3708535B2 (ja) 2004-03-12 2005-10-19 コナミ株式会社 射的ゲーム装置
JP4500632B2 (ja) 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP4015173B1 (ja) * 2006-06-16 2007-11-28 株式会社コナミデジタルエンタテインメント ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP5203694B2 (ja) 2007-12-28 2013-06-05 ブラザー工業株式会社 画像処理装置、シート搬送装置
JP2010022646A (ja) * 2008-07-22 2010-02-04 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
JP2010068872A (ja) 2008-09-16 2010-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US8760391B2 (en) * 2009-05-22 2014-06-24 Robert W. Hawkins Input cueing emersion system and method
WO2011112941A1 (en) * 2010-03-12 2011-09-15 Tagwhat, Inc. Purchase and delivery of goods and services, and payment gateway in an augmented reality-enabled distribution network
KR20120084252A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
ES2656868T3 (es) * 2011-10-05 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo portátil, sistema y método de realidad virtual
US9786176B2 (en) * 2012-06-22 2017-10-10 Zonal Systems, Llc System and method for placing virtual geographic zone markers
JP2014097219A (ja) * 2012-11-15 2014-05-29 Nintendo Co Ltd ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
EP3100455A2 (en) * 2012-12-17 2016-12-07 Balakrishna, Anil Kumar Display apparatus
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
KR102516124B1 (ko) 2013-03-11 2023-03-29 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US20150116316A1 (en) * 2013-10-28 2015-04-30 Brown University Virtual reality methods and systems
KR102227659B1 (ko) 2014-03-12 2021-03-15 삼성전자주식회사 Hmd 장치를 통하여 가상 이미지를 디스플레이하는 시스템 및 방법
US9599821B2 (en) 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
EP3216195B1 (en) 2014-11-06 2020-08-19 IOT Holdings, Inc. Method and system for event pattern guided mobile content services
KR101664609B1 (ko) 2014-12-05 2016-10-10 주식회사 건파워 서바이벌 게임 오프라인 시스템 및 이의 전사자 리스폰 방법
US9910275B2 (en) 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
KR101666561B1 (ko) * 2015-07-13 2016-10-24 한국과학기술원 증강 공간 내 부분 공간 획득 시스템 및 방법
JP6240135B2 (ja) * 2015-10-26 2017-11-29 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
JP5887458B1 (ja) 2015-11-04 2016-03-16 株式会社Cygames プレイヤの移動履歴に基づいてノンプレイヤキャラクタの経路探索を行うゲームシステム等
KR20170069790A (ko) 2015-12-11 2017-06-21 삼성전자주식회사 가상 현실 서비스에서 오디오 신호를 처리하는 방법 및 이를 위한 전자 장치
US9984510B1 (en) * 2016-03-02 2018-05-29 Meta Company System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements
US9983697B1 (en) * 2016-05-18 2018-05-29 Meta Company System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
US20180015375A1 (en) 2016-07-12 2018-01-18 Paul Marino Computer-implemented multiplayer combat video game method and apparatus
JP6152997B1 (ja) 2016-07-25 2017-06-28 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6773126B2 (ja) * 2016-11-21 2020-10-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
CN107450747B (zh) 2017-07-25 2018-09-18 腾讯科技(深圳)有限公司 虚拟角色的位移控制方法和装置
CN108037859A (zh) 2017-11-17 2018-05-15 珠海市君天电子科技有限公司 一种壁纸控制方法、装置、电子设备及存储介质
US10671238B2 (en) * 2017-11-17 2020-06-02 Adobe Inc. Position-dependent modification of descriptive content in a virtual reality environment
WO2020015611A1 (zh) * 2018-07-20 2020-01-23 广东虚拟现实科技有限公司 虚拟内容的交互显示方法、终端设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373891B1 (ko) * 2020-12-02 2022-03-15 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 방법

Also Published As

Publication number Publication date
KR102181587B1 (ko) 2020-11-20
KR20190078471A (ko) 2019-07-04
KR102085440B1 (ko) 2020-03-05
KR20200123049A (ko) 2020-10-28
US11648478B2 (en) 2023-05-16
KR102130892B1 (ko) 2020-07-07
US20210065460A1 (en) 2021-03-04
KR20190078476A (ko) 2019-07-04
KR20190078472A (ko) 2019-07-04
KR20190078473A (ko) 2019-07-04
KR20190078475A (ko) 2019-07-04
US20200338453A1 (en) 2020-10-29
KR102085441B1 (ko) 2020-03-05
KR102092464B1 (ko) 2020-03-23
US11517821B2 (en) 2022-12-06
KR20190078474A (ko) 2019-07-04

Similar Documents

Publication Publication Date Title
KR20190078524A (ko) 가상 환경 제어 시스템
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
KR101691633B1 (ko) 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법
US7401783B2 (en) Camera based man machine interfaces
US20140160162A1 (en) Surface projection device for augmented reality
CN104838338B (zh) 将客体与主体相关联
CN116300091A (zh) 用于使用位置向量解析半球模糊度的方法和系统
CN107274438A (zh) 支持移动虚拟现实应用的单Kinect多人跟踪系统及方法
US20070002037A1 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
KR102012835B1 (ko) 문자의 필기를 인식하고 증강현실 객체의 조작이 가능한 증강현실 시스템
CN110140100A (zh) 三维增强现实对象用户界面功能
CN104854540A (zh) 将控制设备绑定到计算系统
KR102237608B1 (ko) 가상 현실 제어 시스템
KR102218088B1 (ko) 가상 현실 제어 시스템
KR102012831B1 (ko) 3차원 자세정보를 이용하여 증강현실 객체의 조작이 가능한 증강현실 시스템
KR102218089B1 (ko) 가상 현실 제어 시스템
KR102212508B1 (ko) 가상 환경 제어 시스템
KR102212507B1 (ko) 가상 현실 제어 시스템
KR102373891B1 (ko) 가상 현실 제어 시스템 및 방법
JP7000397B2 (ja) 仮想現実制御システム
Plopski et al. Tracking systems: Calibration, hardware, and peripherals
EP4261561A1 (en) Location and space aware adaptive synchronization
US20230334691A1 (en) Employing patterned light to determine relative poses
CN116529652A (zh) 增强现实空间音频体验

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application