KR102212507B1 - Virtual reality control system - Google Patents

Virtual reality control system Download PDF

Info

Publication number
KR102212507B1
KR102212507B1 KR1020190008308A KR20190008308A KR102212507B1 KR 102212507 B1 KR102212507 B1 KR 102212507B1 KR 1020190008308 A KR1020190008308 A KR 1020190008308A KR 20190008308 A KR20190008308 A KR 20190008308A KR 102212507 B1 KR102212507 B1 KR 102212507B1
Authority
KR
South Korea
Prior art keywords
player
item
wearable display
virtual
character
Prior art date
Application number
KR1020190008308A
Other languages
Korean (ko)
Other versions
KR20200091259A (en
Inventor
권철
육종현
Original Assignee
(주)스코넥엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스코넥엔터테인먼트 filed Critical (주)스코넥엔터테인먼트
Priority to KR1020190008308A priority Critical patent/KR102212507B1/en
Publication of KR20200091259A publication Critical patent/KR20200091259A/en
Application granted granted Critical
Publication of KR102212507B1 publication Critical patent/KR102212507B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Abstract

본 발명은 가상 현실 제공 시스템에 관한 것으로 일 실시예에 따르면 제1 플레이어가 착용하는 제1 착용형 디스플레이 장치; 제2 플레이어가 착용하는 제2 착용형 디스플레이 장치; 상기 제1 착용형 디스플레이 장치를 제어하는 제1 제어부; 및 상기 제2 착용형 디스플레이 장치를 제어하는 제2 제어부;를 포함하되, 상기 제1 플레이어 및 상기 제2 플레이어가 밀집된 것으로 판단된 경우 상기 제1 착용형 디스플레이 장치 및 상기 제2 디스플레이 장치를 통하여 밀집된 상기 제1 플레이어 및 상기 제2 플레이어의 분산을 유도하기 위한 이벤트를 제공하는 가상 현실 제공 시스템이 제공될 수 있다.The present invention relates to a system for providing virtual reality, according to an embodiment, comprising: a first wearable display device worn by a first player; A second wearable display device worn by a second player; A first control unit controlling the first wearable display device; And a second control unit for controlling the second wearable display device; wherein, when it is determined that the first player and the second player are dense, the first and second players are concentrated through the first wearable display device and the second display device. A virtual reality providing system that provides an event for inducing dispersion of the first player and the second player may be provided.

Description

가상 현실 제어 시스템{VIRTUAL REALITY CONTROL SYSTEM}Virtual reality control system {VIRTUAL REALITY CONTROL SYSTEM}

본 발명은 가상 현실 제어 시스템에 관한 것이다.The present invention relates to a virtual reality control system.

플레이어가 미리 정해진 플레이공간에서 착용형 디스플레이를 착용하고 플레이하는 가상 현실 제공 시스템에서 플레이어는 착용형 디스플레이에서 제공하는 이미지로 시야를 제한 받게 된다. In a virtual reality providing system in which a player wears and plays a wearable display in a predetermined play space, the player is limited in view to an image provided by the wearable display.

따라서, 플레이어는 착용형 디스플레이 장치에서 제공되는 정보를 통하여 플레이를 하게 되고 실제 다른 사용자의 모습을 육안으로 확인할 수 없을 상황이 될 수 있다.Accordingly, the player plays through the information provided by the wearable display device, and there may be a situation in which it is impossible to check the appearance of another user with the naked eye.

또한 착용형 디스플레이를 이용한 가상 현실 제공의 경우 컨트롤러 등과 같은 다양한 장비를 플레이어가 착용 또는 소지하게 될 수 있다.In addition, in the case of providing virtual reality using a wearable display, the player may wear or possess various equipment such as a controller.

이러한 착용형 디스플레이 장치를 이용한 가상 현실 제공에서 플레이어들이 플레이게 되면 서로 간에 일정 공간내에 밀집하는 현상이 발생할 수 있다. 이러한 밀집 현상이 발생하게 되는 경우 플레이어간에 충돌이 발생하여 부상을 당하거나 장비간의 충돌 등에 의해 장비가 파손되는 문제가 발생할 수 있다.In the provision of virtual reality using such a wearable display device, when players play, a phenomenon in which players are concentrated in a certain space may occur. When such a clustering phenomenon occurs, a collision may occur between players, resulting in injury or equipment damage due to a collision between equipment.

일 과제는 플레이어가 밀집된 것으로 판단된 경우 밀집된 플레이어를 분산하기 위한 이벤트를 제공하는 가상 현실 제공 시스템을 제공하는 것이다.One task is to provide a virtual reality providing system that provides an event for distributing the crowded players when it is determined that the players are crowded.

일 실시예에 따르면 제1 플레이어가 착용하는 제1 착용형 디스플레이 장치; 제2 플레이어가 착용하는 제2 착용형 디스플레이 장치; 상기 제1 착용형 디스플레이 장치를 제어하는 제1 제어부; 및 상기 제2 착용형 디스플레이 장치를 제어하는 제2 제어부;를 포함하되, 상기 제1 플레이어 및 상기 제2 플레이어가 밀집된 것으로 판단된 경우 상기 제1 착용형 디스플레이 장치 및 상기 제2 디스플레이 장치를 통하여 밀집된 상기 제1 플레이어 및 상기 제2 플레이어의 분산을 유도하기 위한 이벤트를 제공하는 가상 현실 제공 시스템이 제공될 수 있다.According to an embodiment, a first wearable display device worn by a first player; A second wearable display device worn by a second player; A first control unit controlling the first wearable display device; And a second control unit for controlling the second wearable display device; wherein, when it is determined that the first player and the second player are dense, the first and second players are concentrated through the first wearable display device and the second display device. A virtual reality providing system that provides an event for inducing dispersion of the first player and the second player may be provided.

플레이어가 밀집된 것으로 판단된 경우 밀집된 플레이어를 분산하기 위한 이벤트를 제공하여 밀집된 플레이어의 분산을 유도할 수 있다.When it is determined that the players are concentrated, an event for distributing the concentrated players may be provided to induce dispersion of the concentrated players.

도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.
도 3은 일 실시예에 따른 서버를 나타내는 블록도이다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치를 나타내는 블록도이다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치를 나타내는 블록도이다.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 8은 일 실시예에 따른 가상 현실의 구현예를 나타내는 예시도이다.
도 9는 일 실시예에 따른 가상 현실에서의 아이템 제공 및 획득을 나타내는 도면이다.
도 10은 일 실시예에 따른 플레이어 분산 유도를 위한 아이템 제공 방법을 나타내는 순서도이다.
도 11은 일 실시예에 따른 가상 현실에서의 가상 캐릭터의 밀집을 나타내는 도면이다.
도 12는 일 실시예에 따른 가상 캐릭터의 공간 점유에 기초한 플레이어 밀집 판단을 나타내는 도면이다.
도 13은 일 실시예에 따른 가상 현실에서의 아이템 제공을 나타내는 도면이다.
도 14는 일 실시예에 따른 가상 현실에서의 플레이어 동선을 고려한 아이템 제공 위치를 나타내는 도면이다.
도 15는 일 실시예에 따른 가상 현실에서의 아이템 제공을 이용한 플레이어 분산 유도를 나타내는 도면이다.
도 16은 일 실시예에 따른 이벤트 제공을 이용한 플레이어 분산 유도를 나타내는 도면이다.
1 is an environment diagram illustrating a system according to an exemplary embodiment.
2 is a block diagram illustrating a detecting system according to an embodiment.
3 is a block diagram showing a server according to an embodiment.
4 is a block diagram illustrating an auxiliary computing device according to an embodiment.
5 is a block diagram illustrating a wearable display device according to an exemplary embodiment.
6 is an exemplary diagram illustrating an implementation of a system according to an embodiment.
7 is a schematic diagram illustrating an object tracking method according to an exemplary embodiment.
8 is an exemplary diagram illustrating an implementation example of virtual reality according to an exemplary embodiment.
9 is a diagram illustrating provision and acquisition of items in virtual reality according to an exemplary embodiment.
10 is a flowchart illustrating a method of providing an item for inducing player distribution according to an exemplary embodiment.
11 is a diagram illustrating a concentration of virtual characters in virtual reality according to an exemplary embodiment.
12 is a diagram illustrating player density determination based on space occupancy of a virtual character according to an exemplary embodiment.
13 is a diagram illustrating provision of an item in virtual reality according to an exemplary embodiment.
14 is a diagram illustrating an item providing position in consideration of player movement in virtual reality according to an exemplary embodiment.
15 is a diagram illustrating player dispersion induction using item provision in virtual reality according to an embodiment.
16 is a diagram illustrating player dispersion induction using event provision according to an embodiment.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above objects, features and advantages of the present invention will become more apparent through the following detailed description in conjunction with the accompanying drawings. However, in the present invention, various changes may be made and various embodiments may be provided. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail.

도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thicknesses of layers and regions are exaggerated for clarity, and in addition, an element or layer is "on" or "on" of another component or layer. What is referred to includes not only directly above another component or layer, but also a case where another layer or other component is interposed in the middle. Throughout the specification, the same reference numerals represent the same elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described with the same reference numerals.

본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of known functions or configurations related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from another component.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "unit" for constituent elements used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not themselves have distinct meanings or roles.

가상 현실은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.Unlike the real world, virtual reality may be an artificial environment created by a program.

이러한 가상 현실은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 현실을 융하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.Such virtual reality is a VR that creates a virtual space separated from reality by a program and provides an image for it, AR that overlaps a virtual image based on the real world and provides a single image, and the real world and virtual reality. It can be classified into MR, which provides a virtual space by fusion and provides an image for it.

이하에서 설명되는 가상 현실을 설명함에 있어서 가상 현실은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 환경을 의미할 수 있다.In describing the virtual reality described below, the virtual reality may mean an environment providing various types of virtual spaces as well as the VR, AR, and MR described above.

이하에서는 도 1을 참조하여 일 실시예에 따른 가상 현실을 제공하기 위한 시스템에 대해서 설명하도록 한다.Hereinafter, a system for providing virtual reality according to an exemplary embodiment will be described with reference to FIG. 1.

도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.1 is an environment diagram illustrating a system according to an exemplary embodiment.

도 1을 참조하면, 시스템은 디텍팅 시스템(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다. Referring to FIG. 1, the system may include a detecting system 100, a server 200, an auxiliary computing device 300, a wearable display device 400, and an input device 500.

일 실시예에 따르면 디텍팅 시스템(100)은 서버(200)와 연결될 수 있다.According to an embodiment, the detecting system 100 may be connected to the server 200.

디텍팅 시스템(100)은 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.The detecting system 100 may acquire detecting information by tracking an object.

일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다.An object according to an embodiment may be an object that affects an image output through the wearable display device 400.

예를 들어 대상체는 플레이어의 신체 부위, 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.For example, the object may include at least one of a body part of a player, a wearable display device 400, a user, an input device 500, an object located around the user, and an object having a reference point or a feature point.

또한 일 실시예에 따른 추적 대상체의 추적은 실제 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다.In addition, tracking of a tracked object according to an embodiment may mean obtaining information on a location of the object in an actual environment.

예를 들어 추적 대상체의 추적은 실제 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로 획득될 수 있으나, 이에 한정되는 것은 아니다.For example, tracking of a tracked object may obtain information on a location that changes according to movement of the object in an actual environment. The location information on the object may be obtained at an acquired predetermined period, but is not limited thereto.

일 실시예에 따르면 디텍팅 시스템(100)은 디텍팅 정보를 서버(200)에 제공할 수 있다.According to an embodiment, the detecting system 100 may provide detecting information to the server 200.

일 실시예에 따르면 서버(200)는 디텍팅 시스템(1000) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.According to an embodiment, the server 200 may be connected to the detecting system 1000 and the auxiliary computing device 300.

서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.The server 200 may obtain information from the connected configuration.

일 실시예에 따르면 서버(200)는 디텍팅 시스템(100)으로부터 디텍팅 정보, 디텍팅 시스템(100)이 획득한 이미지 정보 및 디텍팅 시스템(100)의 상태 정보 중 적어도 하나를 획득할 수 있다. According to an embodiment, the server 200 may acquire at least one of detecting information from the detecting system 100, image information obtained by the detecting system 100, and status information of the detecting system 100. .

그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.In addition, the server 200 may acquire various information according to some embodiments to be described later.

일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.According to an embodiment, the server 200 may control a connected configuration.

일 실시예에 따르면 서버(200)는 상기 보조 컴퓨팅 장치(300) 또는 상기 착용형 디스플레이 장치(400)를 제어할 수 있다.According to an embodiment, the server 200 may control the auxiliary computing device 300 or the wearable display device 400.

일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.For example, the server 200 may control driving of an application installed on the auxiliary computing device 300. For a more specific example, the server 200 may control starting and/or ending of an application installed in the auxiliary computing device 300.

다른 예로 서버(200)는 디텍팅 시스템(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.As another example, the server 200 may provide various settings required for the operation of the detecting system 100.

또한 서버(200)는 디텍팅 정보에 기초하여 가상환경에서의 대상체 위치를 나타내는 가상 위치 정보를 생성할 수 있다.Also, the server 200 may generate virtual location information indicating the location of an object in a virtual environment based on the detecting information.

또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 어플리케이션의 인증을 수행할 수 있다. In addition, the server 200 may perform authentication of an application driven by the auxiliary computing device 300.

일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.The functions of the server 200 according to an embodiment are not limited to the above-described functions, and a server 200 performing various functions may be provided according to the embodiment.

또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다. In addition, the server 200 according to an embodiment is not necessarily provided in one physical configuration, and may be provided as a plurality of devices that perform each function by subdividing the above-described functions.

예를 들어 서버(200)는 디텍팅 시스템(100)과 연결되어 디텍팅 정보에 기초하여 가상 위치 정보를 획득하는 디텍팅 서버, 시스템에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 시스템의 각 구성 중 적어도 하나의 구성에서 실행되는 어플리케이션에 대한 인증을 수행하는 라이센스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.For example, the server 200 is a detecting server that is connected to the detecting system 100 to obtain virtual location information based on the detecting information, an operation server that controls at least some of the configurations provided to the system, and It is subdivided into a license server that authenticates an application running in at least one of each of the components of the system, and can be performed in each server.

보조 컴퓨팅 장치는(300)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.The auxiliary computing device 300 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500.

보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 제공될 이미지를 제공할 수 있다.The auxiliary computing device 300 may provide an image to be provided to a user through the wearable display device 400 through a preinstalled application.

또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다. In addition, the auxiliary computing device 300 may provide acoustic information to be provided to a user through the wearable display device 400.

일 실시예에 따르면, 상기 보조 컴퓨팅 장치(300)는 미리 설치된 프로그램 및 디텍팅 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.According to an embodiment, the auxiliary computing device 300 may acquire an image to be provided to a user based on a pre-installed program and detecting information.

또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력 신호에 기초하여 입력 정보를 획득할 수 있다.Also, the auxiliary computing device 300 may acquire input information based on an input signal obtained from the input device 500.

입력 정보는 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.The input information may include user selection information on an object, etc., information on an operation input through the input device 500, orientation information on an orientation direction of the input device 500, and the like.

또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire an image to be provided to the user in consideration of the acquired input information.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어(P)가 착용 가능한 백팩PC의 형태로 제공될 수 있다.According to an embodiment, the auxiliary computing device 300 may be provided in the form of a backpack PC wearable by the player P.

일 예로 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 장치(300)가 위치할 수 있는 가방에 결착된 형태로 제공될 수 있으며, 플레이어(P)가 가방을 맴으로써 보조 컴퓨팅 장치(300)를 소지하는 형태로 제공될 수 있다.As an example, the auxiliary computing device 300 may be provided in a form attached to a bag in which the auxiliary computing device 300 can be located, and the player P has the auxiliary computing device 300 by hovering the bag. Can be provided as

착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.The wearable display device 400 may be connected to the auxiliary computing device 300.

착용형 디스플레이 장치(400)는 사용자에게 가상 현실에 대한 이미지를 제공할 수 있다.The wearable display device 400 may provide a user with an image of virtual reality.

착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 사용자에게 시각적으로 출력할 수 있다.The wearable display device 400 may visually output a virtual image acquired from the auxiliary computing device 300 to a user.

또한 착용형 디스플레이 장치(400)는 보조 컴튜팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.In addition, the wearable display device 400 may output sound information obtained from the auxiliary comforting device 300.

입력 장치(500)는 가상 현실에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.The input device 500 may obtain a signal for a user's input to be reflected in virtual reality.

입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.The input device 500 may be connected to the auxiliary computing device 300.

입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력 신호를 제공할 수 있다.The input device 500 may provide an input signal corresponding to a user's input to the auxiliary computing device 300.

입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.The input device 500 includes an acceleration sensor, a gyroscope, a gyro sensor, MEMS, a geomagnetic sensor, an inertial sensor (IMIU), a light sensor, an illuminance sensor, a photo sensor, an infrared sensor, and a color for acquiring a signal corresponding to a user's motion. It may include a sensor, a depth sensor, and an electromagnetic wave sensor.

또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.In addition, the input device 500 may include a button, a switch, a jog shuttle, and a wheel for obtaining a signal for a user's selection.

또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.In addition, the input device 500 may be connected to the auxiliary computing device 300 through at least one of wired communication and wireless communication.

또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.In addition, the input device 500 may include a communication module for communication with the auxiliary computing device 300.

도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다. Although the input device 500 is shown to be connected to the auxiliary computing device 300 in FIG. 1, the present invention is not limited thereto, and the input device 500 may be provided in various connection types according to selection.

예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.For example, the input device 500 may be connected to components such as the server 200 and the wearable display 400 to provide an input signal.

이상에서 설명된 시스템은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 시스템이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.The system described above is only an example for convenience of description, and the system according to an embodiment is not limited to the configuration and connection relationship shown in FIG. 1, and may be provided in various forms according to selection.

일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.For example, the auxiliary computing device 300 and the wearable display device 400 may be provided in one configuration, and in this case, an operation performed by the auxiliary computing device 300 may be implemented in the wearable display device 400. have.

다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 시스템을 예시로 하여 설명하도록 한다.However, in the following description of various embodiments, for convenience of description, the above-described system will be described as an example.

이하에서는 도 2를 참조하여 일 실시예에 따른 디텍팅 시스템(100)에 대하여 설명하도록 한다.Hereinafter, the detecting system 100 according to an exemplary embodiment will be described with reference to FIG. 2.

도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.2 is a block diagram illustrating a detecting system according to an embodiment.

도 2를 참조하면, 상기 디텍팅 시스템(100)은 발광부(110), 센싱부(120) 및 마커(M)를 포함할 수 있다.Referring to FIG. 2, the detecting system 100 may include a light emitting unit 110, a sensing unit 120, and a marker M.

발광부(110)는 상기 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다. The light emitting unit 110 may transmit a signal to or around the object to track the object.

일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.For example, the light-emitting unit 110 may be provided as a light-emitting device that transmits optical signals such as visible light and infrared light to the outside.

보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.For a more specific example, the light emitting unit may be provided as a visible light LED and an infrared LED.

센싱부(120)는 외부로부터 신호를 획득할 수 있다.The sensing unit 120 may obtain a signal from the outside.

일 예로 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.For example, the sensing unit 120 may acquire a signal corresponding to the signal transmitted by the light emitting unit 110.

다른 예로 센싱부(120)는 대상체에 제공되는 마커(M)가 반사한 광에 대한 신호를 획득할 수 있다.As another example, the sensing unit 120 may acquire a signal for light reflected by the marker M provided to the object.

예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.For example, the sensing unit 120 may be provided as an image sensor, an optical sensor, an illuminance sensor, a photo sensor, an infrared sensor, a color sensor, a depth sensor, an electromagnetic wave sensor, and the like.

도 3은 일 실시예에 따른 서버(200)를 나타내는 블록도이다.3 is a block diagram showing the server 200 according to an embodiment.

도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.Referring to FIG. 3, the server 200 may include a server communication unit 210, a server storage unit 220, a server input unit 230, a server control unit 240, and a server display unit 250.

서버 통신부(210)는 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.The server communication unit 210 may be connected to at least one of the detecting system 100, the auxiliary computing device 300, and the wearable display device 400 to obtain or provide data.

서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결될 수 있다.The server communication unit 210 may be connected to at least one of the detecting system 100, the auxiliary computing device 300, and the wearable display device 400 in at least one of wired communication and wireless communication.

예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다. For example, wireless communication is Wi-Fi network, 3G, LTE network, 5G, mobile communication network such as LoRa, wave (Wireless Access in Vehicular Environment), beacon, zigbee, Bluetooth , Bluetooth Low Energy (BLE), etc. may be included.

또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.In addition, wired communication may include a twisted pair cable, a coaxial cable, or an optical cable.

서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.The server communication unit 210 may be provided as a communication module for providing at least one communication method of wired communication and wireless communication.

서버 저장부(220)는 데이터를 저장할 수 있다.The server storage unit 220 may store data.

서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.The server storage unit 220 may store information obtained from the outside.

또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다. In addition, the server storage unit 220 may store information necessary for the operation of the server 200.

예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.For example, the server storage unit 220 includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. The same magneto-optical media, and ROM, RAM, flash memory, SSD, CD-ROM, DVD-ROM, or USB may be provided.

서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.The server input unit 230 may obtain a signal corresponding to a user's input.

사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.The user's input may be, for example, pressing, clicking, touching, or dragging a button.

서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.The server input unit 230 may be implemented as, for example, a keyboard, a keypad, a button, a jog shuttle, and a wheel.

서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.The server control unit 240 may oversee the operation of the server 200.

일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.For example, the server controller 240 may control an operation of a component included in the server 200.

서버 제어부(240)는 예시적으로 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다. The server control unit 240 may be exemplarily implemented as a microprocessor, a microcontroller, a DSP, a processor, and an electric unit for performing a controller function.

또한 서버 제어부(240)는 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한 소프트웨어 코드는 서버 저장부(220)에 저장되고, 서버 저장부(240) 또는 구성요소 등에 의해 실행될 수 있다.In addition, the server control unit 240 may be implemented with a separate software module that performs at least one function or operation in embodiments such as a procedure or function according to a software implementation. The software code can be implemented by a software application written in an appropriate programming language. In addition, the software code may be stored in the server storage unit 220 and executed by the server storage unit 240 or components.

서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다. The server display unit 250 may output visual information.

서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.The server display unit 250 may be provided as a monitor, TV, or display panel that outputs visual information.

또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.In addition, when the server display unit 250 is provided as a touch screen, the server display unit 250 may perform the function of the server input unit 230.

도 4는 일 실시예에 따른 보조 컴퓨팅 장치(300)를 나타내는 블록도이다.4 is a block diagram illustrating an auxiliary computing device 300 according to an exemplary embodiment.

도 4를 참조하면, 상기 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.Referring to FIG. 4, the auxiliary computing device 300 may include an auxiliary computing communication unit 310, an auxiliary computing storage unit 320, an auxiliary computing input unit 330, and an auxiliary computing control unit 340.

상기 보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.The auxiliary computing communication unit 310 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500.

보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.The auxiliary computing communication unit 310 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500 in at least one of wired communication and wireless communication.

보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다. The auxiliary computing communication unit 310 may exchange information with at least one of the connected server 200, the wearable display device 400, and the input device 500.

예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다. For example, wireless communication is Wi-Fi network, 3G, LTE network, 5G, mobile communication network such as LoRa, wave (Wireless Access in Vehicular Environment), beacon, zigbee, Bluetooth , Bluetooth Low Energy (BLE), etc. may be included.

또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.In addition, wired communication may include a twisted pair cable, a coaxial cable, or an optical cable.

보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.The auxiliary computing communication unit 310 may be provided as a communication module for providing at least one communication method of wireless communication and wired communication.

보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.The auxiliary computing storage unit 320 may store information obtained from the outside.

또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.In addition, the auxiliary computing storage unit 320 may store data necessary for the operation of the auxiliary computing device 300.

보조 컴퓨팅 입력부(330)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.The auxiliary computing input unit 330 may acquire a signal corresponding to a user's input.

사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.The user's input may be, for example, pressing, clicking, touching, or dragging a button.

예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.For example, the auxiliary computing input unit 330 may be implemented as a keyboard, a keypad, a button, a jog shuttle, and a wheel.

보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.The auxiliary computing control unit 340 may oversee the operation of the auxiliary computing device 300.

도 5는 일 실시예에 따른 착용형 디스플레이 장치(400)를 나타내는 블록도이다.5 is a block diagram illustrating a wearable display device 400 according to an exemplary embodiment.

도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.5, the wearable display device 400 includes a wearable display communication unit 410, a wearable display storage unit 420, a wearable display sensor unit 430, a wearable display control unit 440, and a wearable display device. A display output unit 450 may be included.

착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.The wearable display communication unit 410 may be connected to the auxiliary computing device 300.

착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다. The wearable display communication unit 410 may be connected to the auxiliary computing device 300 through at least one of wired communication and wireless communication.

착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.The wearable display storage unit 420 may store data.

착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 프로그램을 저장할 수 있다.The wearable display storage unit 420 may store a program required for the operation of the wearable display device 400.

또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.In addition, the wearable display storage unit 420 may store information obtained from the outside.

착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.The wearable display sensor unit 430 may acquire a state of the wearable display device 400 and a signal corresponding to a user's input.

일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.The wearable display sensor unit 430 according to an embodiment may include a wearable display motion sensor module 431 and a wearable display acoustic sensor module 432.

착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.The wearable display motion sensor module 431 may acquire a signal regarding the state of the wearable display device 400.

일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.For example, the wearable display motion sensor module 431 may acquire rotation information about rotation of the wearable display device 400.

다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.As another example, the wearable display motion sensor module 431 may obtain movement information regarding the movement of the wearable display device 400.

착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.Wearable display motion sensor module 431 is an acceleration sensor, gyroscope, gyro sensor, MEMS, geomagnetic sensor, inertial sensor (IMIU), image sensor, light sensor, illuminance sensor, photo sensor, infrared sensor, color sensor, depth sensor Alternatively, it may include an electromagnetic wave sensor or the like.

착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.The wearable display acoustic sensor module 432 may acquire a signal corresponding to a sound introduced from the outside.

일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.For example, the wearable display acoustic sensor module 432 may be a microphone.

상기 착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.The wearable display control unit 440 may oversee the operation of the wearable display device 400.

착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.The wearable display screen output unit 450 may output visual information to a user.

일 예로 착용형 디스플레이 화면 출력부 (450)는 가상 현실에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 현실에 대한 이미지를 출력할 수 있다.For example, the wearable display screen output unit 450 may output an image for virtual reality. In addition, as another example, the wearable display screen output unit 450 may output an image of 3D virtual reality.

착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.The wearable display screen output unit 450 may be provided as an image output device such as a liquid crystal display (LCD), an electronic paper, an LED display, an OLED display, a curved display, and a stereoscope (a three-dimensional display using binocular parallax).

착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.The wearable display sound output unit 460 may output auditory information.

착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.The wearable display sound output unit 460 may be provided as a sound device such as a tuner, a playback device, an amplifier, and a speaker.

도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.6 is an exemplary diagram illustrating an implementation of a system according to an embodiment.

도 6을 참조하면 분할 공간 정합을 위한 시스템은 적어도 하나의 플레이어(P)가 플레이하는 플레이 공간(PA)이 제공될 수 있다.Referring to FIG. 6, in the system for matching divided spaces, a play space PA in which at least one player P plays may be provided.

또한 플레이 공간(PA)에서 플레이하는 플레이어(P)에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.In addition, an auxiliary computing device 300, a wearable display device 400, and an input device 500 may be provided to the player P playing in the play space PA.

또한 플레이어(P) 각각에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.In addition, a marker M may be provided to an object provided to each of the players P.

일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.For example, when the object is the wearable display device 400 and the input device 500, markers M having different patterns may be provided to the wearable display device 400 and the input device 500.

또한 플레이 공간(PA)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.In addition, at least one detecting device 100 may be provided in the play space PA.

일 예로 도 6에 도시된 바와 같이 플레이 공간(PA)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.As an example, as illustrated in FIG. 6, a plurality of detecting devices 100 may be provided in the play space PA.

이러한 디텍팅 장치(100)는 플레이 공간(PA)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.The detecting device 100 may surround the play space PA and be spaced apart at predetermined intervals.

또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.In addition, the detecting device 100 may be provided spaced apart from the ground by a predetermined height.

또한 디텍팅 장치(100)는 플레이 공간(PA)을 지향하도록 제공될 수 있다.In addition, the detecting device 100 may be provided to face the play space PA.

디텍팅 장치(100)는 미리 설치된 플레임에 고정되어 설치 될 수 있다.The detecting device 100 may be installed by being fixed to a pre-installed frame.

일 예로 도 6에 도시된 바와 같이 플레이 공간(PA) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.For example, as illustrated in FIG. 6, a frame for installing the detecting device 100 may be provided around the play space PA. In addition, the detecting device 100 may be installed while being fixed to the frame.

디텍팅 장치(100)는 플레이 공간(PA)에 대한 디텍팅 정보를 획득할 수 있다.The detecting device 100 may acquire detecting information on the play space PA.

디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.The sensing unit 120 included in the detecting device 100 may acquire detecting information on at least a part of the play space PA.

일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 센싱부(120)의 센싱 범위에 대한 디텍팅 정보를 획득할 수 있다.For example, the sensing unit 120 included in the detecting device 100 may acquire detecting information on a sensing range of the sensing unit 120 in the play space PA.

디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.The detecting device 100 may provide detecting information to the server 200.

일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.For example, the detecting device 100 may provide the detecting information acquired by the sensing unit 120 to the server 200.

서버(200)는 디텍팅 정보에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.The server 200 may obtain current location information of the object based on the detecting information.

도 6에 도시된 바와 같이 플레이 공간(PA)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.As shown in FIG. 6, when a plurality of detecting devices 100 are provided in the play space PA, the server 200 may obtain detecting information from the plurality of detecting devices 100, and Current location information of the object may be obtained based on the detecting information.

또한 서버(200)는 대상체들의 현실 위치 정보(RP)에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보(VP)를 획득할 수 있다.Also, the server 200 may obtain virtual location information VP for at least one object based on the real location information RP of the objects.

일 예로 서버(200)는 플레이들의 현실 세계에서의 현실 위치 정보(RP)에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 캐릭터(C)의 가상 위치 정보(VP)로 획득할 수 있다.For example, the server 200 may acquire coordinates in virtual reality corresponding to coordinates included in real position information RP in the real world of the players as virtual position information VP of the character C.

서버(200)는 현실 위치 정보(RP) 및 가상 위치 정보(VP) 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may provide at least one of real location information RP and virtual location information VP to the auxiliary computing device 300.

보조 컴퓨팅 장치(300)는 현실 위치 정보(RP)에 기초하여 가상 위치 정보(VP)를 획득할 수 있다.The auxiliary computing device 300 may acquire virtual location information VP based on the real location information RP.

또한 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a virtual image based on the virtual location information (VP).

일 예로 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 현실에서의 캐릭터(C)의 위치인 가상 위치 정보를 획득할 수 있다. 또는 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 현실에서의 가상 카메라의 위치인 가상 위치 정보를 획득할 수 있다.For example, the auxiliary computing device 300 may obtain virtual location information, which is the location of the character C in virtual reality, based on the virtual location information VP. Alternatively, the auxiliary computing device 300 may acquire virtual location information, which is the location of the virtual camera in virtual reality, based on the virtual location information VP.

보조 컴퓨팅 장치(300)는 가상 위치 정보에 포함된 가상 위치 정보 및 가상 지향 방향에 기초하여 가상 이미지 영역을 획득할 수 있다.The auxiliary computing device 300 may acquire a virtual image area based on the virtual location information and the virtual orientation direction included in the virtual location information.

보조 컴퓨팅 장치(300)는 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.The auxiliary computing device 300 may acquire a virtual image for the virtual image area.

보조 컴퓨팅 장치(300)는 가상 현실에서 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.The auxiliary computing device 300 may acquire a virtual image for a virtual image area in virtual reality.

보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.The auxiliary computing device 300 may provide a virtual image to the wearable display device 400.

착용형 디스플레이 장치(400)는 가상 이미지를 사용자에게 출력할 수 있다.The wearable display device 400 may output a virtual image to a user.

또한 서버(300)는 관람용 디스플레이 장치(700)로 가상 이미지를 제공할 수 있다.In addition, the server 300 may provide a virtual image to the viewing display device 700.

서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.The server 300 may provide the virtual image acquired from the auxiliary computing device 300 to the connected viewing display device 700.

또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 이미지를 획득할 수 있으며, 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.In addition, when the server 300 is connected to the plurality of auxiliary computing devices 300, the server 300 may acquire a virtual image from at least one auxiliary computing device 300 among the plurality of auxiliary computing devices 300, and obtain One virtual image may be provided to the connected viewing display device 700.

일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 관람용 디스플레이 장치(700)로 제공할 수 있다.For example, the server 300 may obtain a selection of the auxiliary computing device 300 to acquire a virtual image from among the auxiliary computing devices 300 connected to the server 300 through the server input unit 230, and selected auxiliary computing devices. The virtual image acquired from the device 300 may be provided to the viewing display device 700.

또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보(VP)를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 카메라 위치에 기초하여 가상 이미지를 획득할 수 있다. 또한 서버(300)는 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.In addition, the server 300 may obtain virtual location information (VP) from the auxiliary computing device 300 and obtain a virtual image based on the acquired virtual location information and a preset virtual camera location. In addition, the server 300 may provide the acquired virtual image to the connected viewing display device 700.

관람용 디스플레이 장치(700)는 서버(300)로부터 획득한 가상 이미지를 출력할 수 있다.The viewing display device 700 may output a virtual image acquired from the server 300.

또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.In addition, the input device 500 may be provided in connection with at least one of the server 200, the auxiliary computing device 300, and the wearable display device 400.

또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.In addition, the input device 500 may be provided with at least one marker M.

입력 장치(500)는 각각의 플레이어(P)가 소지하도록 제공될 수 있다.The input device 500 may be provided to be carried by each player P.

일 예로 플레이어(P1)는 입력 장치(400)를 손에 휴대할 수 있다.For example, the player P1 may carry the input device 400 in his or her hand.

일 실시예에 따르면 서버 장치(400)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(400)의 현실 위치 정보를 획득할 수 있다. 또한 입력 장치(400)의 현실 위치 정보는 플레이 공간(PA) 상에서의 입력 장치의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the server device 400 may obtain real location information of the input device 400 based on the detecting information obtained from the detecting device 100. In addition, the actual location information of the input device 400 may include at least one of location information of the input device on the play space PA and direction information of the input device 500.

보조 컴퓨팅 장치(300)는 입력 장치(400)의 현실 위치 정보에 기초하여 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.The auxiliary computing device 300 may determine an orientation direction of a virtual object corresponding to the input device in the virtual environment based on the real location information of the input device 400.

또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a virtual image in which the orientation direction of the virtual object corresponding to the input device is considered in the virtual environment.

일 예로 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 총이 입력 장치의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.For example, the auxiliary computing device 300 may acquire a virtual image in which a gun corresponding to the input device is directed in a direction corresponding to the direction of the input device in the virtual environment.

또한 또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치(500)를 통한 플레이어의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a virtual image in which an event occurrence is considered according to an event generation command of a player through the input device 500 in a virtual environment.

일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치를 플레이어(P1) 누른 경우 가상환경에서 플레이어(P)에 대응하는 캐릭터(C)가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.As an example, the auxiliary computing device 300 acquires a virtual image of firing a gun held by the character C corresponding to the player P in a virtual environment when the player P1 is pressed on the switch provided to the input device 500 can do.

도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.7 is a schematic diagram illustrating an object tracking method according to an exemplary embodiment.

도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.Referring to FIG. 7, in the object tracking method, information on an object may be obtained using a sensor provided externally, and a location of the object may be determined based on the acquired information on the object.

이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.Hereinafter, a case where the object is the wearable display device 400 will be described by way of example with reference to FIG. 7.

도 7을 참조하면 대상체는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.Referring to FIG. 7, an object may be provided with a marker M for identifying the object.

마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.The marker M may be provided to an object to provide a criterion for identifying and tracking the object.

대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체 임을 식별 가능할 수 있다.In order to track an object, it is necessary to identify an object and a composition other than the object, and it may be possible to identify the object by providing a marker M to the object.

또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.In addition, when a plurality of objects are provided, it is necessary to identify each object, and for this purpose, a marker M provided to one object may be provided to be distinguishable from a marker M provided to another object.

예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.For example, the marker M provided to one object may be provided in a different pattern from the marker M provided to another object.

또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 들에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.In addition, the pattern may include patterns in various meanings, such as a pattern formed by providing a plurality of markers M at different positions and a light pattern provided on one display panel.

또한 마커(M) 는 상기 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.In addition, the marker M may be provided as a passive marker that reflects or absorbs an optical signal transmitted from the light emitting unit 110 and an active marker capable of transmitting an optical signal by itself.

일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.For example, the passive marker may include a three-dimensional model to which a light reflective material is attached, a paper on which a recognizable code is printed, a reflective tape, or the like.

또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.In addition, the active marker may include an LED module, a radio wave generator, and the like.

일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.According to an embodiment, at least one marker M may be provided to the object.

일 예로 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다. 또한 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.For example, when the system tracks the location of only one object, only one marker M may be provided to the object. In addition, even when the system tracks the position of only one object, a plurality of markers M may be provided to the object.

또한 시스템이 복수의 대상체(130)에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.In addition, when the system tracks the positions of the plurality of objects 130, a plurality of markers M may be provided to form a pattern on one object to identify each of the plurality of objects.

일 예로 시스템에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있다. 또한 입력 장치(500)에는 제2 패턴으로 마커가(130) 제공될 수 있다. For example, when an object tracking a location in the system is provided as two types of the wearable display device 400 and the input device 500, the marker M may be provided in the wearable display device 400 as a first pattern. . In addition, the input device 500 may be provided with a marker 130 in a second pattern.

제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.The first pattern and the second pattern are different patterns, and when the first pattern is detected during location tracking, it can be identified by the wearable display device 400, and when the second pattern is detected, it is identified by the input device 500. can do.

이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.In the above, when a plurality of objects are provided, it has been described that the markers M provided to each of the plurality of objects are provided by forming a pattern to identify each of the plurality of objects, but the present invention is not limited thereto. Even in the case, the markers M provided to the object may be provided by forming a pattern.

또한 대상체에 제공되는 마커(M)의 패턴은 사용자의 식별에도 사용될 수 있다.Also, the pattern of the marker M provided to the object may be used for user identification.

일 예로 제1 패턴은 제1 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제2 패턴은 제1 사용자의 입력 장치(500)로 식별될 수 있다. 또한 제3 패턴은 제2 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제4 패턴은 제2 사용자의 입력 장치(500)로 식별될 수 있다.For example, the first pattern may be identified as the wearable display device 400 of the first user, and the second pattern may be identified as the input device 500 of the first user. In addition, the third pattern may be identified as the wearable display device 400 of the second user, and the fourth pattern may be identified as the input device 500 of the second user.

대상체의 추적에 대해서 설명하면 서버 장치(200)는 디텍팅 시스템(100)으로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버 장치(200)는 디텍팅 정보에 기초하여 대상체의 위치를 추적할 수 있다. When the tracking of the object is described, the server device 200 may obtain information on the object from the detecting system 100 and may obtain detection information on the location of the object based on the obtained information. Also, the server device 200 may track the location of the object based on the detecting information.

디텍팅 시스템(100)이 서버 장치(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 시스템(100)의 발광부(110)는 플레이 공간(PA)의 적어도 일부 영역에 신호를 발신할 수 있다.When describing a technology in which the detecting system 100 provides information on an object to the server device 200, the light emitting unit 110 of the detecting system 100 transmits a signal to at least a partial area of the play space PA. Can send.

일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 플레이 공간(PA)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.For example, when the light emitting unit 110 is an infrared LED, the light emitting unit 100 may transmit an infrared signal to at least a portion of the play space PA.

또한 센싱부(120)는 외부로부터 획득한 정보를 서버 장치(200)로 제공할 수 있다.In addition, the sensing unit 120 may provide information obtained from the outside to the server device 200.

일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버 장치(200)로 제공할 수 있다.For example, when the sensing unit 120 is a camera, the sensing unit 120 may provide an image signal acquired from the outside to the server device 200.

도 7에는 하나의 센싱부(120) 만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버 장치(200)로 제공할 수 있다.Although only one sensing unit 120 is shown in FIG. 7, it is not limited thereto, and as described in FIG. 6, a plurality of sensing units 120 may be provided, and each of the plurality of sensing units 120 May provide the obtained information to the server device 200.

서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.The server device 200 may determine the location of the object based on the information acquired from the sensing unit 120.

서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 판단할 수 있다. 또한 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.The server device 200 may determine whether information about the marker M is included in the information acquired from the sensing unit 120. In addition, when the information about the marker M is included in the information acquired from the sensing unit 120, the server device 200 may identify the object based on the pattern of the marker M.

일 예로 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.For example, when the first pattern is included in the information acquired from the sensing unit 120, the server device 200 may identify the wearable display device 400.

하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버 장치(200)는 복수의 패턴을 식별할 수 있다. A plurality of patterns may exist in the information acquired from one sensing unit 120, and the server device 200 may identify a plurality of patterns.

이러한 패턴은 서버 장치(200)에 미리 저장될 수 있으며, 서버 장치(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.Such a pattern may be stored in advance in the server device 200, and the server device 200 may determine that the pattern exists when a previously stored pattern exists in the acquired information, and select an object corresponding to the pattern. Can be identified.

서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.The server device 200 may determine the location of the object based on the information acquired from the sensing unit 120.

서버 장치(200)에는 미리 저장된 패턴을 각각에 대한 대표점(RP)가 설정될 수 있다. 대표점(RP)는 패턴을 대표하는 점(point)일 수 있다.In the server device 200, a representative point RP for each of the patterns stored in advance may be set. The representative point RP may be a point representing a pattern.

복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되게 되며, 서버 장치(200)는 패턴을 대표하는 대표점(RP)을 패턴에 대응하는 대상체의 위치로 획득할 수 있다.When a pattern through a plurality of markers (M) is provided, coordinate information for a plurality of markers (M) included in the pattern is obtained, and the server device 200 places a representative point (RP) representing the pattern in the pattern. It can be acquired by the location of the corresponding object.

따라서, 서버 장치(200)는 대상체의 위치에 대한 정보를 획득하여 대상체를 추적할 수 있다.Accordingly, the server device 200 may track the object by obtaining information on the location of the object.

일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.The location tracking of an object according to an embodiment is not limited to the above-described method, and various types of location tracking methods may be used according to selection.

일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다..According to an embodiment, when the sensing unit 120 is provided as an image sensor, the sensing unit 120 may acquire an image of the outside, and may acquire location information of an object based on the acquired image. .

일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.For example, when the sensing unit 120 shown in FIG. 7 is provided to the wearable display device 400, the sensing unit 120 is provided on one side of the wearable display device 400 to Image information about the outside of the wearable display device 400 may be obtained by oriented from the inside to the outside.

또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.In addition, the wearable display device 400 may provide image information acquired by the auxiliary computing device 300.

일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.According to an embodiment, the wearable display device 400 may provide image information to the auxiliary computing device 300 at a predetermined period.

일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.For example, the wearable display device 400 may provide image information to the auxiliary computing device 300 at the same period as the period in which image information is acquired through the sensing unit 120.

보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다. The auxiliary computing device 300 may acquire at least one feature point from the acquired image information.

일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.According to an embodiment, the auxiliary computing device 300 may acquire an object included in image information as a feature point.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.According to an embodiment, the auxiliary computing device 300 may acquire, as a feature point, an object having a predetermined size or more among objects included in the image information.

보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀수에 기초하여 사물의 크기를 판단할 수 있다.The auxiliary computing device 300 may identify an object included in the image information, and acquire an object having a predetermined size or more among the identified objects as a feature point. Also, the auxiliary computing device 300 may determine the size of the object based on the number of pixels occupied by the object included in the image information.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.According to an embodiment, the auxiliary computing device 300 may acquire a preset type of object among objects included in image information as a feature point.

일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공유형의 사물을 특징점으로 획득할 수 있다.For example, when a ball-type object is preset, the auxiliary computing device 300 may acquire a shared object such as a baseball, soccer ball, and basketball, etc. included in the image information as a feature point.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.According to an embodiment, the auxiliary computing device 300 may acquire a marker included in image information as a feature point.

보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.The auxiliary computing device 300 may identify a marker such as a barcode or a QR code included in the image information and obtain it as a feature point.

또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.Also, the auxiliary computing device 300 may determine the location of the feature point included in the image information.

보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.The auxiliary computing device 300 may determine at least one of a change in position and a change in size of the feature point based on image information acquired from the wearable display device 400.

보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.The auxiliary computing device 300 may determine the moving direction and the moving distance of the wearable display device 400 based on the position change direction, the position change amount, and the size change amount of the feature point.

일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.For example, the auxiliary computing device 300 may determine a change in the location of the feature point based on image information acquired from the wearable display device 400.

보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향 및 위치 변화량에 기초하여 The auxiliary computing device 300 is based on the position change direction and the position change amount of the feature point.

보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.The auxiliary computing device 300 may determine a moving direction and a moving distance of the wearable display device 400 based on the amount of change in the position of the feature point.

보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.The auxiliary computing device 300 may determine the moving direction and the moving distance of the wearable display device 400 based on the position change direction, the position change amount, and the size change amount of the feature point.

일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.For example, the auxiliary computing device 300 includes a location of a feature point included in first image information acquired at a first point of view and a location of a feature point included in second image information acquired at a second point of view later than the first point of view. As a result of comparing, when the position of the feature point in the first image information moves to the right in the second image information, it may be determined that the wearable display device 400 has moved to the left.

또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.In addition, the auxiliary computing device 300 may determine the moving distance of the feature point when the location of the feature point is changed.

보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.The auxiliary computing device 300 may determine the moving distance of the feature point based on the number of pixels between the location of the feature point in the first image information and the location of the feature point in the second image information.

또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.Alternatively, the auxiliary computing device 300 may determine the moving distance of the feature point based on the coordinates of the feature point in the first image information and the coordinates of the feature point in the second image.

또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.In addition, as an example, the auxiliary computing device 300 may determine a moving direction and a moving distance of the wearable display device 400 based on the amount of change in size.

보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.The auxiliary computing device 300 compares the size of the feature point included in the first image information acquired at the first view point and the size of the feature point included in the second image information acquired at a second view point later than the first view point. As a result, when the position of the feature point in the first image information moves to the right in the second image information, it may be determined that the wearable display device 400 has moved to the left.

따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.Accordingly, the auxiliary computing device 300 may track the position of the object based on a change in the position relative to the object from the preset initial position.

도 8은 일 실시예에 따른 가상 현실의 구현예를 나타내는 예시도이다.8 is an exemplary diagram illustrating an implementation example of virtual reality according to an exemplary embodiment.

도 8을 참조하면, 시스템은 착용형 디스플레이 장치(400)를 통하여 가상 현실의 적어도 일부에 대한 가상 이미지를 제공할 수 있다.Referring to FIG. 8, the system may provide a virtual image of at least a part of virtual reality through the wearable display device 400.

가상 현실은 배경, 지형 오브젝트, 가상 오브젝트 및 캐릭터 등을 포함할 수 있다.Virtual reality may include a background, a terrain object, a virtual object, and a character.

일 예로 가상 현실에는 플레이어에 대응하는 캐릭터가 제공될 수 있다.For example, a character corresponding to a player may be provided in the virtual reality.

다른 예로 가상 현실에는 플레이어가 소지한 컨트롤러에 대응하는 총 등의 가상 오브젝트가 제공될 수 있다.As another example, in virtual reality, a virtual object such as a gun corresponding to a controller held by a player may be provided.

지형 오브젝트는 가상 현실의 미리 정해진 위치에 제공될 수 있다.The terrain object may be provided at a predetermined location in virtual reality.

또한 지형 오브젝트는 캐릭터가 이동 가능한 지형 오브젝트 및 이동 불가능한 지형 오브젝트를 포함할 수 있다.In addition, the terrain object may include a terrain object in which a character can move and a terrain object that cannot be moved.

일 예로 이동 가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동한 경우 플레이어에 대응하는 캐릭터가 이동할 수 있는 지형 오브젝트일 수 있다. 또한 이동 블가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동하더라도 플레이어에 대응하는 캐릭터가 해당 지형 오브젝트로 이동하지 않는 지형 오브젝트일 수 있다.For example, the movable terrain object may be a terrain object to which a character corresponding to the player can move when the player moves to a location corresponding to the corresponding terrain object. Also, the non-movable terrain object may be a terrain object in which a character corresponding to the player does not move to the corresponding terrain object even if the player moves to a location corresponding to the corresponding terrain object.

또한 캐릭터는 미리 프로그래밍된 프로그램에 의해 제공되는 NPC 캐릭터 및 플레이어 캐릭터를 포함할 수 있다.Also, the character may include an NPC character and a player character provided by a preprogrammed program.

가상 현실에 있어서 위치 정보는 현실 위치 정보 및 가상 위치 정보 중 적어도 하나를 포함할 수 있다.In virtual reality, the location information may include at least one of real location information and virtual location information.

현실 위치 정보는 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함할 수 있다.The real location information may include at least one of a location coordinate and a direction of an object.

일 예로 현실 위치 정보는 플레이 공간(PA) 상에 위치한 대상의 위치 좌표일 수 있다.For example, the real location information may be a location coordinate of an object located on the play space PA.

서버(200)는 플레이 공간(PA)에 대한 좌표값을 미리 저장할 수 있다.The server 200 may store coordinate values for the play space PA in advance.

서버(200)는 플레이 공간(PA)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.The server 200 may pre-store a coordinates system for the play space PA. The coordinate system may be at least one of a planar coordinate system, a rectangular coordinate system, a polar coordinate system, a spatial coordinate system, a cylindrical coordinate system, and a spherical coordinate system.

서버(200)는 디텍팅 정보 및 플레이 공간(PA)에 대한 좌표계에 기초하여 대상체의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 플레이 공간(PA)에서의 좌표값을 현실 위치 정보로 획득할 수 있다.The server 200 may obtain a coordinate value in the play space PA of the object based on the detecting information and a coordinate system for the play space PA. In addition, the server 200 may acquire a coordinate value of the acquired object in the play space PA as real location information.

일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 마커의 패턴을 판단할 수 있으며, 마커의 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커의 패턴 및 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 대상체의 대표점을 획득할 수 있으며, 대상체의 대표점의 좌표값을 대상체의 현실 위치 정보로 획득할 수 있다.For example, when the detecting information is an infrared image, the server 200 may determine the marker's play space (PA) based on the location of the marker corresponding to the object in the infrared image and the installation location of the detecting device 100 providing the infrared image. ) Can be obtained. In addition, the server 200 may determine the pattern of the marker based on the coordinate value in the play space PA of the marker, and may identify an object corresponding to the pattern of the marker. In addition, the server 200 may obtain the representative point of the object based on the pattern of the marker and the coordinate value in the play space PA of the marker, and obtain the coordinate value of the representative point of the object as the real location information of the object. I can.

서버(200)는 현실 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may provide real location information to the auxiliary computing device 300.

보조 컴퓨팅 장치(300)는 가상 현실(VW)에 대한 좌표값을 미리 저장할 수 있다.The auxiliary computing device 300 may previously store coordinate values for virtual reality (VW).

보조 컴퓨팅 장치(300)는 가상 현실(VW)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.The auxiliary computing device 300 may pre-store a coordinates system for the virtual reality VW. The coordinate system may be at least one of a planar coordinate system, a rectangular coordinate system, a polar coordinate system, a spatial coordinate system, a cylindrical coordinate system, and a spherical coordinate system.

보조 컴퓨팅 장치(300)는 현실 위치 정보 및 가상 현실(VW)에 대한 좌표계에 기초하여 대상체의 가상 현실(VW)에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 현실(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.The auxiliary computing device 300 may acquire a coordinate value in the virtual reality VW of the object based on the real location information and a coordinate system for the virtual reality VW. Also, the auxiliary computing device 300 may acquire a coordinate value of the acquired object in virtual reality VW as virtual location information.

일 예로 보조 컴퓨팅 장치(300)는 현실 위치 정보에 포함된 좌표값에 대응하는 가상 현실(VW)에서의 좌표값을 획득할 수 있으며, 획득한 가상 현실(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.For example, the auxiliary computing device 300 may obtain a coordinate value in virtual reality (VW) corresponding to a coordinate value included in the real location information, and the obtained coordinate value in virtual reality (VW) is virtual location information. Can be obtained with.

보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자에게 출력할 가상 이미지를 획득할 수 있다.The auxiliary computing device 300 may acquire a virtual image to be output to the user based on the virtual location information.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 정보를 획득할 수 있다.According to an embodiment, the auxiliary computing device 300 may obtain virtual location information of the wearable display device 400 as virtual location information of a virtual camera, based on the virtual location information of the virtual camera and the orientation direction of the virtual camera. Thus, the field of view information of the virtual camera can be obtained.

보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 현실 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.The auxiliary computing device 300 may obtain the orientation direction of the virtual camera based on the orientation direction included in the actual location information of the wearable display device 400.

또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 카상 카메라의 시야로 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a predetermined area in the direction of the virtual camera as the field of view of the car camera.

또한 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 카메라의 시야에 대응하는 가상 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a virtual image corresponding to the field of view of the virtual camera in virtual reality.

보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.The auxiliary computing device 300 may provide a virtual image to the wearable display device 400.

착용형 디스플레이 장치(400)는 획득한 가상 이미지를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자에게 출력할 수 있다.The wearable display device 400 may output the acquired virtual image to a user through the wearable display screen output unit 450.

도 9는 일 실시예에 따른 가상 현실에서의 아이템 제공 및 획득을 나타내는 도면이다.9 is a diagram illustrating provision and acquisition of items in virtual reality according to an exemplary embodiment.

도 9를 참조하여 설명하면 가상 현실에는 플레이어가 획득 가능한 아이템이 제공될 수 있다.Referring to FIG. 9, an item obtainable by a player may be provided in virtual reality.

일 예로 FPS 게임의 경우 HP, 탄약, 무기 등과 같은 아이템이 제공될 수 있으며, 이러한 아이템은 플레이어가 획득할 수 있도록 가상 현실 내의 일 영역에 제공될 수 있다.For example, in the case of an FPS game, items such as HP, ammunition, and weapons may be provided, and such items may be provided in a region within a virtual reality so that the player can acquire them.

종래의 가상 현실 게임의 경우 아이템이 제공되었으나, 미리 정해진 아이템 제공 위치에서만 제공되었다.In the case of a conventional virtual reality game, an item was provided, but only at a predetermined item providing location.

또한 가상 현실을 이용한 게임에서 제한된 공간을 제공하는 경우 플레이어들이 하나의 장소에 밀집하는 경우가 발생할 수 있다.In addition, when a limited space is provided in a game using virtual reality, players may be concentrated in one place.

이러한 경우 플레이어간에 이동이나 플레이로 인하여 충돌이 일어날 수 있으며, 이러한 충돌로 인하여 사고 위험이 증가하는 문제가 발생할 수 있다.In this case, a collision may occur due to movement or play between players, and the collision may increase the risk of an accident.

따라서, 플레이어들이 가능한 밀집하지 않도록 분산시키는 것이 필요할 수 있다.Thus, it may be necessary to disperse the players so that they are not as dense as possible.

이러한 플레이어의 분산을 위해서는 화살표 등을 제공하여 이동을 안내하는 방법이 있을 수 있으나 이는 플레이어가 무시할 수 있는 사항으로 플레이어가 자발적으로 참여하지 않는 경우 이동시킬 수 없는 한계가 있다.In order to disperse such players, there may be a method of guiding movement by providing an arrow or the like, but this is a matter that can be ignored by the player, and there is a limitation in that it cannot be moved if the player does not voluntarily participate.

하지만 플레이에 필요한 아이템의 경우에는 플레이어에게 필요한 것으로 플레이어가 보다 원활한 플레이를 위해서는 이러한 아이템을 습득해야 할 수 있다.However, in the case of items necessary for play, the player needs them, and the player may need to acquire these items for smoother play.

따라서 아이템이 가상 현실에 제공되는 경우 플레이어는 아이템을 습득하기 위하여 아이템이 제공되는 위치로 이동할 수 있으며, 이에 따라 플레이어들이 분산될 수 있다.Therefore, when an item is provided in virtual reality, the player can move to a location where the item is provided to acquire the item, and accordingly, the players can be distributed.

또한 가상 현실에 제공되는 아이템은 모든 플레이어가 획득 및/또는 사용 가능한 공용 아이템 및 해당 플레이어만 사용 가능한 전용 아이템을 포함할 수 있다.In addition, items provided in the virtual reality may include common items that can be acquired and/or used by all players and exclusive items that can be used only by the corresponding player.

전용 아이템의 경우 해당 플레이어만 획득할 수 있거나, 모든 플레이어가 획득 가능하더라도 해당 플레이어만 사용 가능한 아이템일 수 있다.In the case of a dedicated item, only the corresponding player can be obtained, or even if all players can obtain it, the item can be used only by the corresponding player.

이러한 전용 아이템을 분산하여 제공하게 되면 플레이어가 아이템을 획득하기 위해 이동할 수 있으며, 이에 따라서 플레이어의 분산을 유도할 수 있다.If these exclusive items are distributed and provided, the player can move to acquire the item, thereby inducing the distribution of the player.

일 예로 제1 플레이어의 전용 아이템은 플레이어가 밀집해있는 위치로부터 좌측에 제공하고, 제2 플레이어의 전용 아이템은 플레이어가 밀집해있는 위치로부터 우측에 제공하는 경우 제1 플레이어는 전용 아이템을 획득하기 위하여 좌측으로 이동하고, 제2 플레이어는 전용 아이템을 획득하기 위하여 우측으로 이동함으로써 제1 플레이어 및 제2 플레이어가 서로 분산되도록 유도할 수 있다.As an example, when the first player's exclusive item is provided to the left from the location where the player is concentrated, and the second player's exclusive item is provided on the right side from the location where the player is concentrated, the first player can obtain the exclusive item. By moving to the left and the second player to the right to obtain a dedicated item, the first player and the second player can be induced to be dispersed from each other.

가상 현실에서 플레이어의 아이템 획득은 점유, 터치, 등을 통하여 획득될 수 있다.In virtual reality, the player's item acquisition may be acquired through occupation, touch, or the like.

일 예로 가상 현실에서 플레이어에 대응하는 가상 캐릭터가 아이템이 제공되는 위치로 이동하여 아이템이 제공되는 위치를 점유하는 경우 가상 캐릭터가 아이템을 획득할 수 있다.For example, when a virtual character corresponding to a player in virtual reality moves to a location where an item is provided and occupies a location where the item is provided, the virtual character may acquire the item.

도 9를 참조하여 설명하면 플레이어가 제1 위치(X,Y,Z)에 위치한 경우 가상 현실에서 가상 캐릭터는 가상 현실에서 제1 위치 (X,Y,Z)에 위치할 수 있다. 또한 아이템은 가상 현실에서 제2 위치 (X,Y,Z)에 위치할 수 있다.Referring to FIG. 9, when the player is located in the first position (X,Y,Z), in virtual reality, the virtual character may be located in the first position (X,Y,Z) in virtual reality. Also, the item may be located in the second position (X, Y, Z) in virtual reality.

플레이어가 제1 위치에서 제2 위치(X,Y,Z)로 이동하는 경우 가상 캐릭터는 가상 현실에서 제2 위치로 (X,Y,Z)로 이동할 수 있다.When the player moves from the first position to the second position (X, Y, Z), the virtual character may move from the virtual reality to the second position (X, Y, Z).

따라서 가상 현실에서 가상 캐릭터는 제1 위치에서 아이템이 위치한 제2 위치로 이동하여 아이템이 제공되는 위치를 점유할 수 있다.Accordingly, in virtual reality, the virtual character may move from the first position to the second position where the item is located and occupy the position where the item is provided.

보조 컴퓨팅 장치(300)는 가상 캐릭터의 위치가 아이템이 제공되는 위치로부터 미리 정해진 거리 이내인 경우 가상 캐릭터가 아이템을 획득한 것으로 설정할 수 있다.When the location of the virtual character is within a predetermined distance from the location where the item is provided, the auxiliary computing device 300 may set the virtual character to obtain the item.

다른 예로 가상 현실에서 플레이어에 대응하는 가상 캐릭터가 아이템을 터치하는 경우 가상 캐릭터가 아이템을 획득할 수 있다.As another example, when a virtual character corresponding to a player touches an item in virtual reality, the virtual character may acquire the item.

가상 캐릭터과 아이템의 거리가 가상 캐릭터가 아이템을 터치 가능한 거리 이상으로 이격되어 있는 경우 플레이어는 이동하여 가상 캐릭터를 아이템을 터치 가능한 거리로 이동하여 아이템을 터치하여 획득할 수 있다.When the distance between the virtual character and the item is separated by more than the distance at which the virtual character can touch the item, the player may move and move the virtual character to the distance at which the item can be touched, and obtain the item by touching the item.

보조 컴퓨팅 장치(300)는 가상 캐릭터의 랜더링된 외형의 적어도 일부가 아이템의 랜더링된 외형과 미리 정해진 거리 이내인 경우 가상 캐릭터가 아이템을 획득한 것으로 설정할 수 있다.When at least a part of the rendered appearance of the virtual character is within a predetermined distance from the rendered appearance of the item, the auxiliary computing device 300 may set the virtual character to acquire the item.

일 예로 가상 캐릭터의 손, 발, 머리 등과 같은 외형을 구성하는 렌더링된 이미지의 좌표들 중 어느 하나의 좌표와 아이템의 외형을 구성하는 렌더링된 이미지의 좌표 중 어느 하나의 좌표와의 거리가 미리 정해진 거리 이내인 경우 가상 캐릭터가 아이템을 획득한 것으로 설정할 수 있다.For example, a distance between one of the coordinates of the rendered image constituting the appearance of a virtual character, such as hands, feet, and head, and one of the coordinates of the rendered image constituting the appearance of the item, is predetermined. If it is within the distance, it can be set as the virtual character acquired the item.

또는 보조 컴퓨팅 장치(300)는 가상 캐릭터의 신체 일부에 대한 대표 위치가 아이템의 대표 위치와 미리 정해진 거리 이내인 경우 가상 캐릭터가 아이템을 획득한 것으로 판단할 수 있다.Alternatively, the auxiliary computing device 300 may determine that the virtual character has acquired the item when the representative position of the body part of the virtual character is within a predetermined distance from the representative position of the item.

일 예로 가상 캐릭터의 손에 대한 대표 위치가 아이템의 대표 위치와 미리 정해진 거리 이내인 경우 가상 캐릭터가 아이템을 획득한 것으로 판단할 수 있다.For example, when the representative position of the virtual character's hand is within a predetermined distance from the representative position of the item, it may be determined that the virtual character has acquired the item.

가상 캐릭터가 아이템을 터치하여 아이템을 획득하는 경우 획득한 아이템에 따라 가상 오브젝트의 이미지, 가상 캐릭터의 설정, 가상 캐릭터가 소유하고 있는 아이템의 수량 등을 변경할 수 있다.When a virtual character touches an item to obtain an item, the image of the virtual object, the setting of the virtual character, and the quantity of items owned by the virtual character may be changed according to the acquired item.

일 예로 보조 컴퓨팅 장치(300)는 아이템이 무기인 경우 가상 캐릭터가 사용하는 무기를 획득한 무기로 변경할 수 있으며, 가상 현실에서 제공되는 무기의 이미지를 획득한 이미지로 변경하여 출력하도록 제어할 수 있다.As an example, when the item is a weapon, the auxiliary computing device 300 may change the weapon used by the virtual character into an acquired weapon, and may change the image of the weapon provided in virtual reality into an acquired image and control it to output. .

또한 보조 컴퓨팅 장치(300)는 무기를 획득한 경우 무기 사용시 출력되는 이미지 및 무기 피격 시 피격자에게 가해지는 데미지 등에 대한 설정을 획득한 아이템에 대응하는 설정으로 변경할 수 있다. In addition, when a weapon is acquired, the auxiliary computing device 300 may change settings for an image output when using a weapon and a damage inflicted to a victim when a weapon is attacked to a setting corresponding to the acquired item.

보다 구체적으로 예를 들어 보조 컴퓨팅 장치(300)는 현재 무기가 소총이고, 획득한 아이템이 레이져건인 경우 가상 캐릭터가 소지한 무기의 이미지를 소총의 이미지에서 레이져건의 이미지로 변경할 수 있으며, 무기 피격 시 피격자에게 가해지는 데이미에 대한 설정을 소총에 대한 설정에서 레이져건에 대한 설정으로 변경할 수 있다.More specifically, for example, if the current weapon is a rifle and the acquired item is a laser gun, for example, the auxiliary computing device 300 may change the image of the weapon possessed by the virtual character from the image of the rifle to the image of the laser gun. It is possible to change the setting for the dame applied to the victim during the event from the setting for the rifle to the setting for the laser gun.

다른 예로 보조 컴퓨팅 장치(300)는 아이템이 체력 회복 아이템인 경우 가상 캐릭터의 현재 HP에서 아이템에 부여된 HP값을 만큼 추가하여 가상 캐릭터의 HP를 설정할 수 있다.As another example, when the item is a physical strength recovery item, the auxiliary computing device 300 may set the HP of the virtual character by adding an HP value assigned to the item from the current HP of the virtual character.

또 다른 예로 보조 컴퓨팅 장치(300)는 아이템이 탄약, 수류탄 등과 같은 소모성 아이템인 경우 가상 캐릭터에서 해당 아이템의 수량을 아이템에 부여된 수량만큼 추가하여 설정할 수 있다.As another example, when the item is a consumable item such as an ammunition or a grenade, the auxiliary computing device 300 may add and set the quantity of the corresponding item by the quantity given to the item in the virtual character.

또 다른 예로 보조 컴퓨팅 장치(300)는 아이템이 버프 아이템인 경우 가상 캐릭터에게 해당 버프를 설정할 수 있다.As another example, when the item is a buff item, the auxiliary computing device 300 may set a corresponding buff to a virtual character.

도 10은 일 실시예에 따른 플레이어 분산 유도를 위한 아이템 제공 방법을 나타내는 순서도이다.10 is a flowchart illustrating a method of providing an item for inducing player distribution according to an exemplary embodiment.

도 10을 참조하면 플레이어 분산 유도를 위한 아이템 제공 방법은 가상 캐릭터의 밀집 여부를 판단하는 단계(S100), 아이템 제공 위치를 판단하는 단계(S200) 및 가상 현실에 아이템을 제공하는 단계(S300)을 포함할 수 있다.Referring to FIG. 10, the method of providing items for inducing player dispersion includes determining whether or not a virtual character is concentrated (S100), determining an item provision location (S200), and providing an item to virtual reality (S300). Can include.

일 실시예에 따르면 밀집 여부를 판단하는 단계가 수행될 수 있다(S100). According to an embodiment, the step of determining whether or not it is dense may be performed (S100).

보조 컴퓨팅 장치(300)는 플레이어 및 가상 캐릭터 중 적어도 하나의 밀집 여부를 판단할 수 있다.The auxiliary computing device 300 may determine whether at least one of the player and the virtual character is concentrated.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 현실 환경에서 플레이어가 밀집되어 있는 지 여부를 판단할 수 있다.According to an embodiment, the auxiliary computing device 300 may determine whether players are concentrated in a real environment.

보조 컴퓨팅 장치(300)는 디텍팅 장치(100)를 통하여 플레이어의 좌표 정보를 획득할 수 있다.The auxiliary computing device 300 may acquire coordinate information of the player through the detecting device 100.

일 예로 보조 컴퓨팅 장치(300)는 제1 플레이어, 제2 플레이어 및 제3 플레이어가 플레이하는 경우 제1 플레이어의 좌표 정보, 제2 플레이어의 좌표 정보 및 제3 플레이어의 좌표 정보를 획득할 수 있다.For example, when a first player, a second player, and a third player play, the auxiliary computing device 300 may obtain coordinate information of a first player, coordinate information of a second player, and coordinate information of a third player.

보조 컴퓨팅 장치(300)는 플레이어들의 좌표 정보에 기초하여 플레이어의 밀집 여부를 판단할 수 있다.The auxiliary computing device 300 may determine whether the players are concentrated based on coordinate information of the players.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어들의 좌표 정보에 포함된 좌표값의 차이가 미리 정해진 값 이하인 경우 플레이어가 밀집한 것으로 판단할 수 있다.According to an embodiment, when the difference between the coordinate values included in the coordinate information of the players is less than a predetermined value, the auxiliary computing device 300 may determine that the players are concentrated.

보조 컴퓨팅 장치(300)는 좌표 정보에 포함된 축의 좌표값 중 어느하나의 축에 대한 좌표값의 차이가 미리 정해진 값 이하인 경우 플레이어가 밀집한 것으로 판단할 수 있다.The auxiliary computing device 300 may determine that the player is dense when the difference between the coordinate values with respect to any one of the coordinate values of the axes included in the coordinate information is less than a predetermined value.

일 예로 (X,Y,Z) 좌표에서 미리 정해진 좌표값이 차이값이 5이고, 제1 플레이어의 좌표값이 (0,0,0)이고, 제2 플레이어의 좌표값이 (0,1,0)이고, 제1 플레이어의 좌표값이 (0,2,0)인 경우 제1 플레이어, 제2 플레이어 및 제3 플레이어의Y축 값의 차이가 5 이하이기 때문에 서버(200)는 제1 플레이어, 제2 플레이어 및 제3 플레이어가 밀집한 것으로 판단할 수 있다.For example, in the (X,Y,Z) coordinate, the difference value is 5, the coordinate value of the first player is (0,0,0), and the coordinate value of the second player is (0,1, 0), and if the coordinate value of the first player is (0,2,0), the difference between the Y-axis values of the first player, the second player, and the third player is 5 or less, so the server 200 is the first player. , It may be determined that the second player and the third player are concentrated.

일 실시예에 따르면 서버(200)는 플레이어들의 좌표 정보에 포함된 좌표값 중 미리 정해진 축의 좌표값의 차이가 미리 정해진 값 이하인 경우 플레이어가 밀집한 것으로 판단할 수 있다.According to an embodiment, the server 200 may determine that the players are dense when the difference between the coordinate values of the predetermined axis among the coordinate values included in the coordinate information of the players is less than or equal to the predetermined value.

일 예로 (X,Y,Z) 좌표에서 미리 정해진 축이 X축이고, 미리 정해진 좌표값이 차이값이 5일 때, 제1 플레이어의 좌표값이 (0,0,0)이고, 제2 플레이어의 좌표값이 (1,6,0)이고, 제1 플레이어의 좌표값이 (2,12,0)인 경우 제1 플레이어, 제2 플레이어 및 제3 플레이어의Y축 값의 차이가 5 이하이기 때문에 서버(200)는 제1 플레이어, 제2 플레이어 및 제3 플레이어가 밀집한 것으로 판단할 수 있다.For example, in the (X,Y,Z) coordinate, when the predetermined axis is the X axis and the difference value is 5, the coordinate value of the first player is (0,0,0), and the second player's If the coordinate value is (1,6,0) and the coordinate value of the first player is (2,12,0), the difference between the Y-axis values of the first player, the second player, and the third player is 5 or less. The server 200 may determine that the first player, the second player, and the third player are concentrated.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어들의 좌표 정보에 기초하여 산출된 플레이어간 거리가 미리 정해진 거리 이하인 경우 플레이어가 밀집한 것으로 판단할 수 있다.According to an embodiment, when the distance between players calculated based on coordinate information of the players is less than or equal to a predetermined distance, the auxiliary computing device 300 may determine that the players are dense.

좌표 정보가 3차원 직교 좌표계로 제공되는 경우 플레이어간의 거리는 하기 식에 기초하여 산출될 수 있다.When coordinate information is provided in a three-dimensional orthogonal coordinate system, the distance between players may be calculated based on the following equation.

식1)Equation 1)

Figure 112019007951590-pat00001
Figure 112019007951590-pat00001

여기서, X1은 제1 플레이어의 X축 좌표값, Y1은 제1 플레이어의 Y축 좌표값, Z1은 제1 플레이어의 Z축값일 수 있으며, X2는 제2 플레이어의 X축 좌표값, Y2은 제2 플레이어의 Y축 좌표값, Z2은 제2 플레이어의 Z축값일 수 있다. 또한 제1 플레이어는 복수의 플레이어 중 임의의 플레이어일 수 있으며, 제2 플레이어는 복수의 플레이어 중 제1 플레이어를 제외한 다른 플레이어 중 임의의 플레이어일 수 있다.Here, X1 may be the X-axis coordinate value of the first player, Y1 may be the Y-axis coordinate value of the first player, Z1 may be the Z-axis value of the first player, X2 is the X-axis coordinate value of the second player, and Y2 is the second player's X-axis coordinate value. 2 The Y-axis coordinate value of the player, Z2, may be the Z-axis value of the second player. In addition, the first player may be an arbitrary player among a plurality of players, and the second player may be an arbitrary player among other players other than the first player among the plurality of players.

일 예로 제1 플레이어의 좌표 정보가 (1,1,1) 이고, 제2 플레이어의 좌표 정보가 (5,1,1)인 경우 제1 플레이어 및 제2 플레이어의 거리는 4로 산출될 수 있다.For example, when the coordinate information of the first player is (1,1,1) and the coordinate information of the second player is (5,1,1), the distance between the first player and the second player may be calculated as 4.

보조 컴퓨팅 장치(300)는 산출된 플레이어간의 거리가 미리 정해진 거리 이내인 경우 플레이어들이 밀집한 것으로 판단할 수 있다.When the calculated distance between players is within a predetermined distance, the auxiliary computing device 300 may determine that the players are concentrated.

일 예로 미리 정해진 거리가 5이고, 플레이어들 간의 거리가 4인 경우 플레이어가 밀집한 것으로 판단할 수 있다.For example, if the predetermined distance is 5 and the distance between players is 4, it may be determined that the players are dense.

시스템에서 플레이 공간(PA)는 다양한 높이로 제공될 수 있으나, 평평한 형태로 제공될 수 있다.In the system, the play space PA may be provided in various heights, but may be provided in a flat form.

플레이 공간(PA)이 평평한 형태로 제공되는 경우 Z축의 값의 차이는 플레이어 간의 키의 차이나 마커(M)가 제공된 위치의 차이에 의한 것으로 실질적인 플레이어간의 거리와는 무관할 수 있다.When the play space PA is provided in a flat form, the difference in the value of the Z-axis is due to a difference in keys between players or a difference in a position at which the marker M is provided, and may be independent of the actual distance between players.

일 실시예에 따르면 좌표 정보가 3차원 직교 좌표계 및 2차원 직교 좌표계로 제공되는 경우 X축 및 Y축을 이용하여 플레이어의 거리를 산출할 수 있다.According to an embodiment, when coordinate information is provided in a 3D orthogonal coordinate system and a 2D orthogonal coordinate system, the distance of the player may be calculated using the X and Y axes.

보조 컴퓨팅 장치(300)가 플레이어간의 거리는 하기 식에 기초하여 산출하는 경우 플레이어간의 거리는 하기 식에 기초하여 산출될 수 있다.When the auxiliary computing device 300 calculates the distance between players based on the following equation, the distance between the players may be calculated based on the following equation.

식2)Equation 2)

Figure 112019007951590-pat00002
Figure 112019007951590-pat00002

여기서, X1은 제1 플레이어의 X축 좌표값, Y1은 제1 플레이어의 Y축 좌표값일 수 있으며, X2는 제2 플레이어의 X축 좌표값, Y2은 제2 플레이어의 Y축 좌표값일 수 있다. 또한 제1 플레이어는 복수의 플레이어 중 임의의 플레이어일 수 있으며, 제2 플레이어는 복수의 플레이어 중 제1 플레이어를 제외한 다른 플레이어 중 임의의 플레이어일 수 있다.Here, X1 may be the X-axis coordinate value of the first player, Y1 may be the Y-axis coordinate value of the first player, X2 may be the X-axis coordinate value of the second player, and Y2 may be the Y-axis coordinate value of the second player. In addition, the first player may be an arbitrary player among a plurality of players, and the second player may be an arbitrary player among other players other than the first player among the plurality of players.

일 예로 제1 플레이어의 좌표 정보가 (1,1,1) 이고, 제2 플레이어의 좌표 정보가 (5,1,3)인 경우 제1 플레이어 및 제2 플레이어의 거리는 4로 산출될 수 있다.For example, when the coordinate information of the first player is (1,1,1) and the coordinate information of the second player is (5,1,3), the distance between the first player and the second player may be calculated as 4.

보조 컴퓨팅 장치(300)는 산출된 플레이어간의 거리가 미리 정해진 거리 이내인 경우 플레이어들이 밀집한 것으로 판단할 수 있다,When the calculated distance between players is within a predetermined distance, the auxiliary computing device 300 may determine that the players are concentrated.

보조 컴퓨팅 장치(300)는 미리 정해진 수 이상의 플레이어가 미리 정해진 거리 이내인 경우 플레이들이 밀집한 것으로 판단할 수 있다.The auxiliary computing device 300 may determine that the players are concentrated when a predetermined number of players or more are within a predetermined distance.

일 예로 보조 컴퓨팅 장치(300)는 두명의 플레이어간의 미리 정해진 거리 이내인 경우 플레이어들이 밀집한 것으로 판단할 수 있다.For example, when the auxiliary computing device 300 is within a predetermined distance between two players, it may be determined that the players are concentrated.

다른 예로 세명 이상의 플레이어가 미리 정해진 거리 이내인 경우 플레이어가 밀집된 것으로 판단하는 경우 복수의 플레이어 중 어느 하나의 플레이어를 기준으로 두명의 플레이어가 미리 정해진 거리 이내인 경우 플레이어가 밀집된 것으로 판단할 수 있다.As another example, when three or more players are within a predetermined distance, it is determined that the players are concentrated. When two players are within a predetermined distance based on any one of the plurality of players, it may be determined that the players are concentrated.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 캐릭터의 위치에 기초하여 플레이어가 밀집되어 있는지 여부를 판단할 수 있다.According to an embodiment, the auxiliary computing device 300 may determine whether the players are concentrated based on the position of the virtual character in the virtual reality.

보조 컴퓨팅 장치(300)는 가상 현실에서의 가상 캐릭터의 위치에 대한 정보를 획득할 수 있다.The auxiliary computing device 300 may obtain information on the location of the virtual character in virtual reality.

보조 컴퓨팅 장치(300)는 가상 현실에서 가상 캐릭터의 좌표에 기초하여 플레이어의 밀집 여부를 판단할 수 있다.The auxiliary computing device 300 may determine whether the player is concentrated in virtual reality based on the coordinates of the virtual character.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 캐릭터들의 좌표 정보에 기초하여 산출된 가상 캐릭터간 거리가 미리 정해진 거리 이하인 경우 플레이어가 밀집한 것으로 판단할 수 있다.According to an embodiment, when the distance between virtual characters calculated based on coordinate information of the virtual characters is less than or equal to a predetermined distance, the auxiliary computing device 300 may determine that the players are dense.

좌표 정보가 3차원 직교 좌표계로 제공되는 경우 가상 캐릭터간의 거리는 하기 식에 기초하여 산출될 수 있다.When the coordinate information is provided in a three-dimensional orthogonal coordinate system, the distance between virtual characters may be calculated based on the following equation.

가상 캐릭터간의 거리 산출은 앞서 설명한 플레이어간 거리 산출에서 플레이어의 현실 공간에서의 좌표값 대신 가상 현실에서의 가상 캐릭터의 좌표값을 이용하여 산출될 수 있다.The calculation of the distance between the virtual characters may be calculated using the coordinate values of the virtual characters in the virtual reality instead of the coordinate values in the real space of the player in the calculation of the distance between the players described above.

보조 컴퓨팅 장치(300)는 산출된 가상 캐릭터간의 거리가 미리 정해진 거리 이내인 경우 플레이어들이 밀집한 것으로 판단할 수 있다When the calculated distance between virtual characters is within a predetermined distance, the auxiliary computing device 300 may determine that the players are concentrated.

보조 컴퓨팅 장치(300)는 미리 정해진 수 이상의 가상 캐릭터가 미리 정해진 거리 이내인 경우 플레이들이 밀집한 것으로 판단할 수 있다.The auxiliary computing device 300 may determine that the plays are dense when a predetermined number or more of virtual characters are within a predetermined distance.

일 예로 보조 컴퓨팅 장치(300)는 두개의 가상 캐릭터간의 미리 정해진 거리 이내인 경우 플레이어들이 밀집한 것으로 판단할 수 있다.As an example, the auxiliary computing device 300 may determine that the players are clustered within a predetermined distance between two virtual characters.

다른 예로 세개 이상의 가상 캐릭터가 미리 정해진 거리 이내인 경우 플레이어가 밀집된 것으로 판단하는 경우 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터를 기준으로 두개의 가상 캐릭터가 미리 정해진 거리 이내인 경우 플레이어가 밀집된 것으로 판단할 수 있다.As another example, when three or more virtual characters are within a predetermined distance, when it is determined that the player is dense, when two virtual characters are within a predetermined distance based on any one of the plurality of virtual characters, the player is determined to be dense. I can.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 캐릭터가 점유한 공간에 기초하여 플레이어의 밀집 여부를 판단할 수 있다.According to an embodiment, the auxiliary computing device 300 may determine whether a player is concentrated based on a space occupied by a virtual character.

도 11은 일 실시예에 따른 가상 현실에서의 가상 캐릭터의 밀집을 나타내는 도면이다.11 is a diagram illustrating a concentration of virtual characters in virtual reality according to an exemplary embodiment.

도 11를 참조하면 가상 현실의 바닥 면은 복수의 공간으로 구분될 수 있다.Referring to FIG. 11, the floor surface of the virtual reality may be divided into a plurality of spaces.

보조 컴퓨팅 장치(300)는 분할된 공간 각각에 포함된 좌표값 또는 좌표 범위 및 가상 캐릭터의 좌표 정보에 기초하여 가상 캐릭터가 공간에 위치 하였는 지 여부를 판단할 수 있다.The auxiliary computing device 300 may determine whether the virtual character is located in the space based on a coordinate value or a coordinate range included in each divided space, and coordinate information of the virtual character.

일 예로 임의의 공간에 포함된 좌표가 2차원 좌표계에서 (0,0)~(10,10)일 때, 제1 가상 캐릭터의 가상 현실에서의 좌표가(1,1,10)인 경우 제1 가상 캐릭터가 해당 공간에 위치한 것으로 판단할 수 있다.For example, when the coordinates included in an arbitrary space are (0,0) to (10,10) in a two-dimensional coordinate system, when the coordinates of the first virtual character in the virtual reality are (1,1,10), the first It can be determined that the virtual character is located in the corresponding space.

보조 컴퓨팅 장치(300)는 복수의 공간 중 하나의 공간에 미리 정해진 수 이상의 가상 캐릭터가 위치한 경우 플레이어가 밀집한 것으로 판단할 수 있다.When a predetermined number or more of virtual characters are located in one of the plurality of spaces, the auxiliary computing device 300 may determine that the players are concentrated.

일 예로 보조 컴퓨팅 장치(300)는 하나의 공간에 세개의 가상 캐릭터가 위치한 경우 플레이어가 밀집한 것으로 판단할 수 있다.As an example, when three virtual characters are located in one space, the auxiliary computing device 300 may determine that the players are concentrated.

도 12는 일 실시예에 따른 가상 캐릭터의 공간 점유에 기초한 플레이어 밀집 판단을 나타내는 도면이다.12 is a diagram illustrating player density determination based on space occupancy of a virtual character according to an exemplary embodiment.

보조 컴퓨팅 장치(300)는 가상 캐릭터의 점유한 공간의 인접 여부에 기초하여 플레이어의 밀집 여부를 판단할 수 있다.The auxiliary computing device 300 may determine whether the players are concentrated based on whether the space occupied by the virtual character is adjacent.

보조 컴퓨팅 장치(300)는 하나의 가상 캐릭터가 점유한 공간을 기준으로 미리 정해진 범위 내에 다른 캐릭터가 점유한 공간이 미리 정해진 개수 이상 존재하는 경우 플레이어가 밀집한 것으로 판단할 수 있다.The auxiliary computing device 300 may determine that the players are dense when there are more than a predetermined number of spaces occupied by other characters within a predetermined range based on the space occupied by one virtual character.

도 12를 참조하여 설명하면 보조 컴퓨팅 장치(300)는 제1 가상 캐릭터가 점유한 제1 공간을 기준으로 제1 공간과 인접한 두개의 공간을 제2 가상 캐릭터 및 제3 가상 캐릭터가 점유한 경우 플레이어가 밀집한 것으로 판단할 수 있다.Referring to FIG. 12, when the second virtual character and the third virtual character occupy two spaces adjacent to the first space based on the first space occupied by the first virtual character, the auxiliary computing device 300 It can be judged as dense.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 미리 정해진 범위에 포함된 공간 중 미리 정해진 수 이상의 공간이 가상 캐릭터에 의해 점유된 경우 플레이어가 밀집한 것으로 판단할 수 있다.According to an embodiment, the auxiliary computing device 300 may determine that the players are densely occupied by a virtual character when a predetermined number or more of spaces included in a predetermined range are occupied by a virtual character.

일 예로 도 12에 도시된 바와 같이 미리 정해진 범위 내에 포함된 4개의 공간 중 세개의 공간이 가상 캐릭터에 의해 점유된 경우 플레이어가 밀집한 것으로 판단할 수 있다.As an example, as illustrated in FIG. 12, when three of the four spaces included in a predetermined range are occupied by a virtual character, it may be determined that the player is dense.

일 실시예에 따르면 아이템 제공 위치를 판단하는 단계가 수행될 수 있다(S200).According to an embodiment, the step of determining an item provision location may be performed (S200).

도 13은 일 실시예에 따른 가상 현실에서의 아이템 제공 위치를 나타내는 도면이다.13 is a diagram illustrating an item providing position in virtual reality according to an exemplary embodiment.

보조 컴퓨팅 장치(300)는 플레이어가 밀집한 위치로부터 이격된 위치에 아이템 제공 위치를 설정할 수 있다.The auxiliary computing device 300 may set an item providing location at a location spaced apart from the location where the player is concentrated.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어들이 밀집한 위치한 위치로부터 미리 정해진 방향으로 미리 정해진 거리 이격된 위치에 아이템 제공 위치를 설정할 수 있다.According to an embodiment, the auxiliary computing device 300 may set an item providing location at a location spaced apart from a location where players are concentrated by a predetermined distance in a predetermined direction.

일 예로 보조 컴퓨팅 장치(300)는 플레이어가 위치한 위치로부터 제1 방향으로 제1 거리 이격된 위치에 제1 아이템 제공 위치를 설정할 수 있고, 제2 방향으로 제2 거리 이격된 위치에 제2 아이템 제공 위치를 설정할 수 있고, 제3 방향으로 제3 거리 이격된 위치에 제3 아이템 제공 위치를 설정할 수 있다.For example, the auxiliary computing device 300 may set a location for providing a first item at a location spaced a first distance in a first direction from a location at which the player is located, and provide a second item at a location spaced a second distance in a second direction A location can be set, and a location for providing a third item can be set at a location separated by a third distance in the third direction.

또한 일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어가 밀집한 영역으로부터 이격된 위치 중 다른 가상 오브젝트가 제공되지 않는 영역에 아이템 제공 위치를 설정할 수 있다.In addition, according to an embodiment, the auxiliary computing device 300 may set an item providing position in a region where other virtual objects are not provided among positions spaced apart from the region where the player is concentrated.

도 14는 일 실시예에 따른 가상 현실에서의 플레이어 동선을 고려한 아이템 제공 위치를 나타내는 도면이다.14 is a diagram illustrating an item providing position in consideration of player movement in virtual reality according to an exemplary embodiment.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 아이템 획득을 위하여 플레이가 이동시 플레이어간에 교차가 발생하지 않도록 플레이어의 동선을 고려하여 아이템 제공 위치를 판단할 수 있다.According to an embodiment, the auxiliary computing device 300 may determine the location of providing the item in consideration of the movement of the player so that when the player moves in order to acquire the item, there is no intersection between the players.

플레이어가 아이템을 획득하기 위하여 이동하는 동선이 교차하는 경우 아이템 획득을 위하여 이동하면서 충돌이 발생할 수 있다.When the movement lines in which the player moves to obtain an item crosses, a collision may occur while moving to obtain an item.

만약 좌우에 위치한 제1 플레이어 및 제2 플레이 중 우측에 위치한 제1 플레이어의 왼쪽에 아이템을 제공하고, 왼쪽에 위치한 제2 플레이어의 오른쪽에 아이템을 제공하게 되는 경우 우측에 위치한 제1 플레이어가 아이템 획득을 위하여 왼쪽으로 이동하고, 왼쪽에 위치한 제2 플레이어가 아이템 획득을 위하여 오른쪽으로 이동하는 경우 두 플레이어가 마주쳐 이동 중 충돌하는 사고가 발생할 수 있다.If an item is provided to the left of the first player located on the right and the item is provided to the right of the second player located on the left, the first player located on the right acquires the item. When the second player moves to the left for the purpose and moves to the right to obtain an item, an accident may occur in which two players encounter and collide while moving.

이러한 사고를 방지하기 위하여 플레이어간의 이동 동선이 겹치지 않도록 아이템 제공 위치를 설정할 수 있다.In order to prevent such an accident, it is possible to set an item provision location so that the movement lines between players do not overlap.

예를 들어 좌우에 위치한 제1 플레이어 및 제2 플레이어 중 우측에 위치한 제1 플레이어에 대한 아이템은 제1 플레이어의 오른쪽에 제공하고, 왼쪽에 위치한 제2 플레이어에 대한 아이템은 제2 플레이어의 왼쪽에 제공하여 서로 간의 동선이 교차하지 않도록 아이템 제공 위치를 설정할 수 있다.For example, among the first and second players on the left and right, items for the first player on the right are provided to the right of the first player, and items for the second player on the left are provided on the left of the second player. Thus, it is possible to set the location of providing items so that movement lines do not cross each other.

일 실시예에 따르면 가상 현실에 아이템을 제공하는 단계가 수행될 수 있다(S300).According to an embodiment, the step of providing an item to virtual reality may be performed (S300).

도 15는 일 실시예에 따른 가상 현실에서의 아이템 제공을 이용한 플레이어 분산 유도를 나타내는 도면이다.15 is a diagram illustrating player dispersion induction using item provision in virtual reality according to an embodiment.

일 실시예에 따르면 아이템 제공뿐만 아니라 이벤트의 제공을 통하여 플레이어의 분산을 유도할 수 있다.According to an embodiment, it is possible to induce distribution of players through not only providing items but also providing events.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이벤트 제공을 통하여 플레이어의 분산을 유도할 수 있다.According to an embodiment, the auxiliary computing device 300 may induce distribution of players through event provision.

일 실시예에 따르면 보조 컴퓨팅 장치(300)는 설정된 아이템 제공 위치에 아이템을 제공하여 플레이어의 분산을 유도할 수 있다.According to an embodiment, the auxiliary computing device 300 may induce distribution of players by providing an item to a set item providing location.

또한 일 실시예에 따르면 보조 컴퓨팅 장치(300)는 제1 플레이어에 대한 아이템 위치에 제1 플레이에 대한 아이템을 제공하고, 제2 플레이어에 대한 아이템 위치에 제2 플레이에 대한 아이템을 제공하고, 제3 플레이어에 대한 아이템 위치에 제3 플레이에 대한 아이템을 제공함으로써 플레이어 개개인이 본인에게 해당하는 아이템을 획득하기위해 이동함으로써 밀집된 플레이어가 분산되도록 유도할 수 있다.In addition, according to an embodiment, the auxiliary computing device 300 provides an item for a first play at an item position for a first player, an item for a second play at an item position for the second player, and 3 By providing an item for the third play at the item location for the player, it is possible to induce a group of players to be dispersed by moving each player to obtain an item corresponding to the player.

또한 일 실시예에 따르면 보조 컴퓨팅 장치(300)는 제1 플레이어가 착용한 제1 착용형 디스플레이 장치(400a)를 통하여 제1 플레이어에게 배정된 제1 아이템을 출력하고, 제2 플레이어가 착용한 제2 착용형 디스플레이 장치(400b)를 통하여 제2 플레이어에게 배정된 제2 아이템을 출력하고, 제3 플레이어가 착용한 제3 착용형 디스플레이 장치(400c)를 통하여 제3 플레이어에게 배정된 제3 아이템을 출력할 수 있다.In addition, according to an embodiment, the auxiliary computing device 300 outputs a first item assigned to the first player through the first wearable display device 400a worn by the first player, and 2 Output the second item assigned to the second player through the wearable display device 400b, and display the third item assigned to the third player through the third wearable display device 400c worn by the third player. Can be printed.

도 16은 일 실시예에 따른 이벤트 제공을 이용한 플레이어 분산 유도를 나타내는 도면이다.16 is a diagram illustrating player dispersion induction using event provision according to an embodiment.

도 16을 참조하면 보조 컴퓨팅 장치(300)는 플레이어가 밀집된 것으로 판단된 경우 플레이어의 분산을 유도하기 위하여 플레이어가 밀집된 위치에 이벤트를 제공할 수 있다.Referring to FIG. 16, when it is determined that the players are concentrated, the auxiliary computing device 300 may provide an event to a location where the players are concentrated to induce dispersion of the players.

이벤트는 NPC의 공격 및 디버프 등과 같이 가상 캐릭터에게 유해한 효과를 부여하는 이벤트일 수 있다.The event may be an event that gives a harmful effect to a virtual character, such as an NPC's attack and debuff.

따라서, 플레이어가 가상 캐릭터에 부여되는 이벤트를 회피하기 위하여 위치를 이동하게 됨으로써 플레이어의 분산을 유도할 수 있다.Therefore, it is possible to induce dispersion of the player by moving the position of the player to avoid an event given to the virtual character.

보조 컴퓨팅 장치(300)는 플레이어가 현실 환경에서 밀집한 영역에 대응하는 가상 현실에서의 밀집영역을 설정할 수 있다.The auxiliary computing device 300 may set the dense area in virtual reality corresponding to the dense area in the real environment by the player.

일 예로 보조 컴퓨팅 장치(300)는 플레이어들의 위치의 중심점 또는 중심점을 중심으로 반경에 대응하는 가상 현실에서의 영역을 밀집 영역으로 설정할 수 있다.For example, the auxiliary computing device 300 may set an area in the virtual reality corresponding to a radius around the center point or the center point of the player's location as the dense area.

일 실시예에 따르면 제1 플레이어가 제1 위치에 위치하고 제2 플레이어가 제2 위치에 위치하고, 제3 플레이어가 제3 위치에 위치한 경우 제1 위치, 제2 위치 및 제3 위치의 중심점으로부터 미리 정해진 범위를 밀집 영역으로 설정할 수 있다.According to an embodiment, when a first player is located in a first position, a second player is located in a second position, and a third player is located in a third position, a predetermined distance is determined from the center points of the first position, the second position, and the third position. The range can be set as a dense area.

일 예로 중심점으로부터 미리 정해진 반경의 영역이 밀집 영역으로 설정될 수 있다.For example, an area having a predetermined radius from the center point may be set as the dense area.

다른 예로 중심점을 중심으로 다각형의 영역이 밀집 영역으로 설정될 수 있다.As another example, a polygonal area around a center point may be set as a dense area.

또는 가상 현실의 바닥이 분할된 영역으로 제공되는 경우 밀집된 것으로 판단되는 플레이어가 위치한 영역을 밀집 영역으로 설정할 수 있다.Alternatively, when the floor of the virtual reality is provided as a divided area, the area in which the player determined to be dense is located may be set as the dense area.

예를 들어 도 13에 도시된 바와 같이 가상 현실에서 플레이어가 위치한 미리 정해진 영역을 밀집 영역으로 설정할 수 있다.For example, as shown in FIG. 13, a predetermined area in which the player is located in the virtual reality may be set as the dense area.

다시 도 16을 참조하여 설명하면 NPC의 공격 및 디버프 등의 경우 하나의 지점을 대상으로 이벤트를 제공할 수 있으나, 경우에 따라서 광범위한 영역에 이벤트를 제공할 수 있다.Referring back to FIG. 16, in the case of NPC attacks and debuffs, an event may be provided for one point, but in some cases, an event may be provided in a wide area.

일 예로 특정 위치를 중심으로 미리 정해진 반경을 이벤트 영역으로 설정할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이벤트 발생 시 이벤트 영역에 위치한 가상 캐릭터에게 이벤트를 적용할 수 있다.As an example, a predetermined radius around a specific location may be set as the event area. Also, when an event occurs, the auxiliary computing device 300 may apply the event to a virtual character located in the event area.

일 예로 이벤트가 NPC의 공격인 경우 보조 컴퓨팅 장치(300)는 이벤트 영역에 위치한 가상 캐릭터의 HP에서 미리 정해진 값을 차감할 수 있다.For example, when the event is an attack by an NPC, the auxiliary computing device 300 may deduct a predetermined value from the HP of the virtual character located in the event area.

다른 예로 이벤트 디버프인 경우 보조 컴퓨팅 장치(300)는 이벤트 영역에 위치한 가상 캐릭터에 해당 디버프를 적용할 수 있다.As another example, in case of an event debuff, the auxiliary computing device 300 may apply the corresponding debuff to a virtual character located in the event area.

예를 들어 디버프가 데미지 감소인 경우 보조 컴퓨팅 장치(300)는 이벤트 영역에 위치한 가상 캐릭터의 데미지를 해당 디버프에 설정된 값만큼 차감하여 적용할 수 있다.For example, when the debuff is damage reduction, the auxiliary computing device 300 may apply the damage of the virtual character located in the event area by subtracting the damage of the virtual character by a value set in the corresponding debuff.

또는 보조 컴퓨팅 장치(300)는 제1 플레이어가 제1 위치에 위치하고 제2 플레이어가 제2 위치에 위치하고, 제3 플레이어가 제3 위치에 위치한 경우 제1 위치, 제2 위치 및 제3 위치의 중심점에 공격 이벤트를 발생하도록 제어할 수 있다.Alternatively, when the first player is in the first position, the second player is in the second position, and the third player is in the third position, the auxiliary computing device 300 is the center point of the first position, the second position, and the third position. It can be controlled to generate an attack event.

따라서 제1 플레이어, 제2 플레이어 및 제3 플레이어는 공격 이벤트를 회피 하기 위하여 밀집된 위치로부터 분산되어 이동할 수 있다.Accordingly, the first player, the second player, and the third player can move dispersively from the dense location to avoid the attack event.

상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.In the above, the configuration and features of the present invention have been described based on the embodiments according to the present invention, but the present invention is not limited thereto, and various changes or modifications can be made within the spirit and scope of the present invention. It will be apparent to those skilled in the art, and therefore, such changes or modifications are found to belong to the appended claims.

Claims (8)

제1 플레이어 및 제2 플레이어가 가상 현실을 체험하는 플레이 공간;
상기 제1 플레이어가 착용하는 제1 착용형 디스플레이 장치;
상기 제2 플레이어가 착용하는 제2 착용형 디스플레이 장치;및
상기 제1 착용형 디스플레이 장치 및 상기 제2 착용형 디스플레이 장치 중 적어도 하나를 제어하는 적어도 하나의 제어부;를 포함하고,
상기 제어부는,
상기 제1 플레이어 및 상기 제2 플레이어에게 상기 제1 착용형 디스플레이 장치 및 상기 제2 착용형 디스플레이 장치를 통해 상기 제1 플레이어에 대응되는 제1 캐릭터, 상기 제2 플레이어에 대응되는 제2 캐릭터 및 상기 플레이 공간에 대응하며 적어도 하나의 분할공간을 포함하는 가상 공간을 제공하고,
상기 분할 공간에 상기 제1 플레이어 및 상기 제2 플레이어가 밀집된 것으로 판단된 경우 상기 가상 공간 중 상기 분할 공간이 아닌 부분에 포함되는 미리 설정된 위치에 이벤트를 발생시키고,
상기 미리 설정된 위치는 상기 제1 플레이어 및 상기 제2 플레이어의 분산을 유도하기 위해 상기 제1 캐릭터 및 상기 제2 캐릭터를 포함하는 영역으로부터 미리 설정된 방향으로 미리 설정된 거리만큼 이격되며,
상기 미리 설정된 위치는 상기 제1 플레이어에게 전속되는 제1 아이템이 제공되는 제1 위치 및 상기 제2 플레이어에게 전속되는 제2 아이템이 제공되는 제2 위치를 포함하는,
가상 현실 제공 시스템.
A play space in which the first player and the second player experience virtual reality;
A first wearable display device worn by the first player;
A second wearable display device worn by the second player; And
Including; at least one control unit for controlling at least one of the first wearable display device and the second wearable display device,
The control unit,
To the first player and the second player, through the first wearable display device and the second wearable display device, a first character corresponding to the first player, a second character corresponding to the second player, and the Provide a virtual space corresponding to the play space and including at least one divided space,
When it is determined that the first player and the second player are concentrated in the divided space, an event is generated at a preset location included in a portion of the virtual space other than the divided space,
The preset position is spaced apart by a preset distance in a preset direction from an area including the first character and the second character in order to induce dispersion of the first player and the second player,
The preset location includes a first location where a first item exclusive to the first player is provided and a second location where a second item exclusive to the second player is provided,
Virtual reality delivery system.
삭제delete 제1 항에 있어서,
상기 제어부는 상기 제1 착용형 디스플레이 장치를 통해 상기 제1 플레이어에게 전속되는 상기 제1 아이템을 상기 제1 캐릭터 및 상기 제2 캐릭터를 포함하는 영역으로부터 제1 방향으로 제1 거리만큼 이격된 상기 제1 위치에 출력하고, 상기 제2 플레이어에게 전속되는 상기 제2 아이템을 상기 제1 캐릭터 및 상기 제2 캐릭터를 포함하는 영역으로부터 상기 제1 방향과 다른 제2 방향으로 제2 거리만큼 이격된 상기 제2 위치에 출력하는,
가상 현실 제공 시스템.
The method of claim 1,
The control unit transmits the first item exclusively to the first player through the first wearable display device by a first distance in a first direction from an area including the first character and the second character. The second item, which is output to the first position and is exclusively assigned to the second player, is separated from the region including the first character and the second character by a second distance in a second direction different from the first direction. Output in 2 positions,
Virtual reality delivery system.
제1 항에 있어서,
상기 제어부는 상기 제1 착용형 디스플레이 장치 및 상기 제2 착용형 디스플레이 장치 중 적어도 하나를 통해 상기 제1 플레이어와 상기 제2 플레이어와의 위치 관계를 고려하여 결정된 상기 미리 설정된 위치에 상기 제1 아이템 또는 상기 제2 아이템을 출력하는
가상 현실 제공 시스템.
The method of claim 1,
The control unit includes the first item or the first item at the preset position determined in consideration of the positional relationship between the first player and the second player through at least one of the first wearable display device and the second wearable display device. To output the second item
Virtual reality delivery system.
제3 항에 있어서,
상기 제어부는 상기 제1 플레이어로부터 상기 제1 플레이어에 대응하는 상기 제1 아이템의 위치까지 이동하는 동선과 상기 제2 플레이어가 상기 제2 플레이어에 대응하는 제2 아이템의 위치까지 이동하는 동선이 서로 중복되지 않도록 상기 제1 아이템 및 상기 제2 아이템을 제공하는
가상 현실 제공 시스템.
The method of claim 3,
The control unit overlaps a movement line moving from the first player to a position of the first item corresponding to the first player and a movement line moving from the second player to the position of a second item corresponding to the second player Providing the first item and the second item so as not to be
Virtual reality delivery system.
제1 항에 있어서,
상기 이벤트는 논플레이어 캐릭터가 상기 제1 캐릭터, 상기 제2 캐릭터 및 상기 제1 캐릭터와 상기 제2 캐릭터를 포함하는 영역 중 적어도 하나로 공격을 제공하는 것인
가상 현실 제공 시스템.
The method of claim 1,
The event is that the non-player character provides an attack to at least one of the first character, the second character, and an area including the first character and the second character.
Virtual reality delivery system.
제6 항에 있어서,
상기 논플레이어 캐릭터는 밀집된 것으로 판단된 상기 제1 및 제2 캐릭터 중 적어도 하나 및 밀집된 상기 제1 및 제2 캐릭터가 위치한 영역 중 적어도 일부의 영역 중 적어도 하나를 대상으로 공격을 제공하는
가상 현실 제공 시스템.
The method of claim 6,
The non-player character provides an attack against at least one of at least one of the first and second characters determined to be dense and at least some of the areas in which the densely concentrated first and second characters are located.
Virtual reality delivery system.
삭제delete
KR1020190008308A 2019-01-22 2019-01-22 Virtual reality control system KR102212507B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008308A KR102212507B1 (en) 2019-01-22 2019-01-22 Virtual reality control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008308A KR102212507B1 (en) 2019-01-22 2019-01-22 Virtual reality control system

Publications (2)

Publication Number Publication Date
KR20200091259A KR20200091259A (en) 2020-07-30
KR102212507B1 true KR102212507B1 (en) 2021-02-04

Family

ID=71839192

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008308A KR102212507B1 (en) 2019-01-22 2019-01-22 Virtual reality control system

Country Status (1)

Country Link
KR (1) KR102212507B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081644A (en) * 2016-11-18 2018-05-24 株式会社バンダイナムコエンターテインメント Simulation system and program
US20180276891A1 (en) * 2017-03-24 2018-09-27 Pcms Holdings, Inc. System and method for providing an in-context notification of a real-world event within a virtual reality experience

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081644A (en) * 2016-11-18 2018-05-24 株式会社バンダイナムコエンターテインメント Simulation system and program
US20180276891A1 (en) * 2017-03-24 2018-09-27 Pcms Holdings, Inc. System and method for providing an in-context notification of a real-world event within a virtual reality experience

Also Published As

Publication number Publication date
KR20200091259A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
KR102181587B1 (en) Virtual reality control system
US20240024782A1 (en) Apparatus for adapting virtual gaming with real world information
CN110199325B (en) Simulation system, processing method, and information storage medium
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
US9764226B2 (en) Providing enhanced game mechanics
KR102185016B1 (en) Virtual Reality Control System for chemical accident response training
US20120329558A1 (en) Method and apparatus for using a common pointing input to control 3d viewpoint and object targeting
US9004997B1 (en) Providing enhanced game mechanics
WO2007100204A1 (en) Stereovision-based virtual reality device
CN105359061A (en) Computer graphics presentation system and method
KR102237608B1 (en) Virtual reality control system
KR102212507B1 (en) Virtual reality control system
KR102218088B1 (en) Virtual Reality Control System
KR102212508B1 (en) Virtual reality control system
KR102218089B1 (en) Virtual Reality Control System
KR101745498B1 (en) Interactive content providing system and method thereof
KR102218091B1 (en) Virtual Reality Control System
KR102594054B1 (en) Virtual Reality Control System and Method of controlling thereof
KR102212511B1 (en) Virtual Reality Control System
KR101506668B1 (en) Apparatus and method for displaying virtual object

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)