KR20220000165A - Method for broadcasting virtual reality game and virtual reality system for performing the same - Google Patents

Method for broadcasting virtual reality game and virtual reality system for performing the same Download PDF

Info

Publication number
KR20220000165A
KR20220000165A KR1020200077793A KR20200077793A KR20220000165A KR 20220000165 A KR20220000165 A KR 20220000165A KR 1020200077793 A KR1020200077793 A KR 1020200077793A KR 20200077793 A KR20200077793 A KR 20200077793A KR 20220000165 A KR20220000165 A KR 20220000165A
Authority
KR
South Korea
Prior art keywords
audience
virtual
playground
image
virtual reality
Prior art date
Application number
KR1020200077793A
Other languages
Korean (ko)
Other versions
KR102433085B1 (en
Inventor
김성균
Original Assignee
주식회사 리얼리티매직
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리얼리티매직 filed Critical 주식회사 리얼리티매직
Priority to KR1020200077793A priority Critical patent/KR102433085B1/en
Publication of KR20220000165A publication Critical patent/KR20220000165A/en
Application granted granted Critical
Publication of KR102433085B1 publication Critical patent/KR102433085B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F11/00Game accessories of general use, e.g. score counters, boxes
    • A63F11/0074Game concepts, rules or strategies
    • A63F2011/0097Watching television being part of the game, e.g. using the television broadcasting of a sporting event
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6669Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms

Abstract

The present application relates to a method for generating a relay screen for a virtual reality game and a virtual reality system for performing the same. The method for generating the relay screen according to one aspect of the present application comprises the following steps of: for audience near a playground where a VR game is played, detecting location of the audience in a real space with respect to the playground; setting a camera location variable in a virtual space, where the VR game is played, based on the location of the audience; generating a virtual camera in the virtual space according to the camera location variable; obtaining a video of the virtual space photographed by the virtual camera; and transmitting the relay screen photographing the virtual space to a smart device of the audience. The virtual reality system broadcasts the VR game with high sense of realism.

Description

가상 현실 게임용 중계 화면 생성 방법 및 이를 수행하는 가상 현실 시스템{METHOD FOR BROADCASTING VIRTUAL REALITY GAME AND VIRTUAL REALITY SYSTEM FOR PERFORMING THE SAME}A method for generating a relay screen for a virtual reality game and a virtual reality system for performing the same

본 출원은 가상 현실 게임용 중계 화면 생성 방법 및 이를 수행하는 가상 현실 시스템에 관한 것이다. The present application relates to a method of generating a relay screen for a virtual reality game and a virtual reality system for performing the same.

실제와 유사한 환경을 갖는 컴퓨터 그래픽으로 만들어진 가상 현실(VR: Virtual Reality) 서비스는 최근 대규모 투자가 진행됨에 따라 차세대 대표 서비스로 각광받고 있다. 가상 현실 기술의 적용 분야는 교육, 의료, 국방, 교통 등의 다양한 분야에 걸쳐 있으나, 사용자에게 높은 몰입도와 체험감을 제공할 수 있어 특히 게임 및 엔터테인먼트 분야에서 가장 두각을 보이고 있다.A virtual reality (VR) service made with computer graphics having an environment similar to the real one is spotlighted as a next-generation representative service as a large-scale investment is in progress. The field of application of virtual reality technology spans various fields such as education, medical care, national defense, and transportation.

초기 가상 현실 게임은 주로 개인용 플랫폼을 중심으로 개발이 이루어졌으나, 최근에는 테마 파크 등을 중심으로 하는 장소 기반 엔터테인먼트(Location-Based Entertainment) 형태로 발전하고 있다. Initially, virtual reality games were developed mainly for personal platforms, but recently, they are developing into a location-based entertainment form centered on theme parks and the like.

장소 기반 VR 플랫폼은 개인용 VR 플랫폼이 게임에 익숙한 게이머를 주고객층으로 하는 것과 달리 다양한 고객층을 대상으로 하는데, VR 게임을 처음 접하거나 VR에 익숙하지 않은 초심자의 경우에는 압도적으로 높은 몰입감을 제공하는 VR 서비스의 장점으로 인해 오히려 멀미나 공포심 등이 유발될 수 있어 이에 대한 대응 방안이 요청되고 있다. A place-based VR platform targets a variety of customer groups, unlike personal VR platforms that target gamers who are familiar with games. Because of the advantages of , it can cause motion sickness or fear, so countermeasures are being requested.

본 출원의 일 과제는, VR 게임을 높은 현장감으로 중계하는 가상 현실 게임용 중계 화면 생성 방법 및 이를 수행하는 가상 현실 시스템을 제공하는 이다. An object of the present application is to provide a method for generating a relay screen for a virtual reality game that relays a VR game with a high sense of presence, and a virtual reality system for performing the same.

본 출원이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 출원이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present application is not limited to the above-mentioned problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present application belongs from the present specification and the accompanying drawings. .

본 출원의 일 양상에 따르면, VR 게임이 수행되는 플레이그라운드 주변의 관객에 대해, 상기 플레이그라운드에 대한 현실 공간 상의 상기 관객의 위치를 검출하는 단계; 상기 곽객의 위치에 기초하여 상기 VR 게임이 수행되는 가상 공간 상의 케메라 위치 변수를 설정하는 단계; 상기 카메라 위치 변수에 따라 상기 가상 공간 상에 가상 카메라를 생성하는 단계; 상기 가상 카메라로 촬상된 상기 가상 공간 영상을 획득하는 단계; 및 상기 가상 공간 영상을 중계 영상을 상기 관객이 소지한 스마트 기기로 전송하는 단계;를 포함하는 가상 현실 게임용 중계 방법이 제공될 수 있다.According to an aspect of the present application, with respect to the audience around the playground where the VR game is performed, the method comprising: detecting a position of the audience in a real space with respect to the playground; setting a Kemera location variable in a virtual space in which the VR game is performed based on the location of the Kwak-Gak; generating a virtual camera in the virtual space according to the camera position variable; acquiring the virtual space image captured by the virtual camera; and transmitting the virtual space image to a smart device possessed by the audience.

본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the problems of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. will be able

본 출원의 실시예에 따르면, 관객의 위치에서 플레이그라운드를 보는 시야각(FOV: Field-Of-View)를 고려하여 관객에게도 가상 공간 내의 영상을 제공함으로써, 플레이어 뿐만 아니라 관객에까지도 VR을 체감할 수 있도록 할 수 있다. According to the embodiment of the present application, VR can be experienced not only by the player but also by the audience by providing an image in the virtual space to the audience in consideration of the Field-Of-View (FOV) from the audience's position to view the playground. can make it

본 발명의 효과가 상술한 효과로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effect of the present invention is not limited to the above-described effect, and the tasks not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and accompanying drawings.

도 1은 본 명세서의 실시예에 따른 가상 현실 시스템의 블록도이다.
도 2는 본 명세서의 실시예에 따른 가상 현실 시스템의 개략도이다.
도 3은 본 명세서의 실시예에 따른 중계 화면 생성 방법의 일 예의 순서도이다.
도 4는 본 명세서의 실시예에 따른 VR 게임이 수행되는 현실 공간의 예시에 관한 도면이다.
도 5는 본 명세서의 실시예에 따른 VR 게임이 수행되는 가상 공간의 예시에 관한 도면이다.
도 6은 본 명세서의 실시예에 따른 플레이어 화면의 예시도이다.
도 7 및 도 8은 본 명세서의 실시예에 따른 중계 화면의 예시들에 관한 도면이다.
1 is a block diagram of a virtual reality system according to an embodiment of the present specification.
2 is a schematic diagram of a virtual reality system according to an embodiment of the present specification.
3 is a flowchart of an example of a method for generating a relay screen according to an embodiment of the present specification.
4 is a diagram illustrating an example of a real space in which a VR game is performed according to an embodiment of the present specification.
5 is a diagram illustrating an example of a virtual space in which a VR game is performed according to an embodiment of the present specification.
6 is an exemplary diagram of a player screen according to an embodiment of the present specification.
7 and 8 are diagrams illustrating examples of a relay screen according to an embodiment of the present specification.

본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 의해 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.The embodiments described herein are for clearly explaining the spirit of the present invention to those of ordinary skill in the art to which the present invention pertains, so the present invention is not limited by the embodiments described herein, and the present invention It should be construed as including modifications or variations that do not depart from the spirit of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in this specification have been selected as widely used general terms as possible in consideration of the functions in the present invention, but they may vary depending on the intention, custom, or emergence of new technologies of those of ordinary skill in the art to which the present invention belongs. can However, if a specific term is defined and used in an arbitrary sense, the meaning of the term will be separately described. Therefore, the terms used in this specification should be interpreted based on the actual meaning of the terms and the contents of the entire specification, rather than the names of simple terms.

본 명세서에 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 발명의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 발명이 도면에 의해 한정되는 것은 아니다.The drawings attached to this specification are for easily explaining the present invention, and the shapes shown in the drawings may be exaggerated as necessary to help understand the present invention, so the present invention is not limited by the drawings.

본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.In the present specification, when it is determined that a detailed description of a known configuration or function related to the present invention may obscure the gist of the present invention, a detailed description thereof will be omitted if necessary.

본 명세서는 가상 현실 게임용 플레이어 감정 분석 방법, 플레이어 감정 기반 가상 현실 서비스 운용 방법 및 가상 현실 시스템(1000)에 관한 것이다. The present specification relates to a player emotion analysis method for a virtual reality game, a player emotion-based virtual reality service operating method, and the virtual reality system 1000 .

이하에서는 본 명세서의 실시예에 따른 가상 현실 시스템(1000)에 관하여 도 1 및 도 2를 참조하여 설명하기로 한다.Hereinafter, a virtual reality system 1000 according to an embodiment of the present specification will be described with reference to FIGS. 1 and 2 .

가상 현실 시스템(1000)은 사용자에게 가상 현실을 제공하는 시스템이다. 여기서, 가상 현실(VR: Virtual Reality)이라 현실 세계와 달리 컴퓨터 프로그램에 의해 만들어진 시각 및 청각 정보 등을 이용하여 제공되는 인공 환경을 의미할 수 있다. The virtual reality system 1000 is a system that provides virtual reality to a user. Here, virtual reality (VR) may mean an artificial environment provided by using visual and auditory information created by a computer program, unlike the real world.

가상 현실은 주로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 협의의 가상 현실, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 증강 현실(AR: Augmented Reality) 및 현실 세계와 가상 현실을 융합하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 혼합 현실(MR: Mixed Reality)로 구분될 수 있으나, 본 명세서에서 '가상 현실'이라는 용어는 별도의 언급이 없는 한 광의의 가상 현실로 해석될 수 있다.Virtual reality is mainly a virtual reality that provides an image by creating a virtual space separated from reality by a program, and Augmented Reality (AR: Augmented Reality) that provides a single image by overlapping virtual images based on the real world ) and mixed reality (MR: Mixed Reality), which provides a virtual space by fusing the real world and virtual reality and provides an image for it, the term 'virtual reality' is It can be interpreted as virtual reality in a broad sense.

본 명세서에서는 가상 현실 시스템(1000)은 예를 들어 가상 현실로 만들어진 비디오 게임(이하 'VR 게임'이라 함)을 사용자(이하 '플레이어(3)'라 함)에게 제공할 수 있다.In the present specification, the virtual reality system 1000 may provide, for example, a video game made in virtual reality (hereinafter referred to as a 'VR game') to a user (hereinafter referred to as a 'player 3').

도 1은 본 명세서의 실시예에 따른 가상 현실 시스템(1000)의 블록도이고, 도 2는 본 명세서의 실시예에 따른 가상 현실 시스템(1000)의 개략도이다. 1 is a block diagram of a virtual reality system 1000 according to an embodiment of the present specification, and FIG. 2 is a schematic diagram of a virtual reality system 1000 according to an embodiment of the present specification.

도 1 및 도 2를 참조하면, 가상 현실 시스템(1000)은 헤드 마운트 디스플레이(HMD(1100): Head-Mounted Display), 게임 콘트롤러(1200), 보조 컴퓨팅 장치(1300), 측위 모듈(1400), 디스플레이 모듈(1500), 마커(1700) 및 서버(1600)를 포함할 수 있다. 1 and 2, the virtual reality system 1000 includes a head mounted display (HMD 1100: Head-Mounted Display), a game controller 1200, an auxiliary computing device 1300, a positioning module 1400, It may include a display module 1500 , a marker 1700 , and a server 1600 .

HMD(1100)는 플레이어(3)의 두부에 착용되는 기기로서, 가상 현실 서비스의 사용자에 대한 출력 인터페이스로의 기능을 수행할 수 있다.The HMD 1100 is a device worn on the head of the player 3 and may function as an output interface for a user of a virtual reality service.

주로 HMD(1100)는 플레이어(3)에게 가상 환경에 관한 시각적 정보, 즉 가상 이미지를 출력할 수 있다. 예시적으로 HMD(1100)는 착용자의 양 눈에 서로 격리된 두 개의 이미지를 출력하는 스테레오스코픽 디스플레이를 통해 플레이어(3)에게 3차원 영상을 제공할 수 있다.Mainly, the HMD 1100 may output visual information about the virtual environment, ie, a virtual image, to the player 3 . For example, the HMD 1100 may provide a 3D image to the player 3 through a stereoscopic display that outputs two images isolated from each other to both eyes of the wearer.

또 HMD(1100)는 선택적으로 음성을 출력하는 스피커를 포함하여 착용자에게 가상 환경에 관한 음성 출력을 할 수도 있다.In addition, the HMD 1100 may include a speaker that selectively outputs a voice to output a voice related to the virtual environment to the wearer.

HMD(1100)는 상술한 출력 인터페이스로서의 역할 이외에도 착용자에 대한 센서로서 기능할 수도 있다. 예를 들어, HMD(1100)에는 자이로 센서나 가속도 센서 등이 탑재되고, HMD(1100)는 이를 이용해 사용자의 두부의 움직임이나 두부의 자세를 감지할 수 있다. The HMD 1100 may function as a sensor for the wearer in addition to the above-described role as the output interface. For example, the HMD 1100 is equipped with a gyro sensor, an acceleration sensor, or the like, and the HMD 1100 can detect the movement of the user's head or the posture of the head using this.

이외에도 HMD(1100)에는 가상 현실 시스템(1000)의 측위 모델이 착용자의 두부의 위치나 자세, 모션 등을 추적하는데 이용되는 마커 등이 그 외관에 설치될 수 있다.In addition, a marker used for tracking the position, posture, and motion of the wearer's head by the positioning model of the virtual reality system 1000 may be installed on the exterior of the HMD 1100 .

게임 콘트롤러(1200)는 가상 현실 서비스의 사용자에 대한 입력 인터페이스로의 기능을 수행한다. The game controller 1200 functions as an input interface for a user of the virtual reality service.

게임 콘트롤러(1200)는 주로 스틱 형상이나 도 2에 도시된 바와 같은 총(gun) 형상으로 제공되며 플레이어(3)에 의해 파지될 수 있다. The game controller 1200 is mainly provided in a stick shape or a gun shape as shown in FIG. 2 and can be gripped by the player 3 .

게임 콘트롤러(1200)는 플레이어(3)의 조작을 입력받는 조작 버튼을 포함할 수 있다. 예를 들어, 플레이어(3)는 게임 콘트롤러(1200)의 조작 버튼을 통해 가상 공간 상에서 총을 발사할 수 있다.The game controller 1200 may include an operation button for receiving an operation of the player 3 . For example, the player 3 may fire a gun in the virtual space through an operation button of the game controller 1200 .

또 게임 콘트롤러(1200)는 플레이어(3)의 조작에 따라 조정되는 게임 콘트롤러(1200)의 자세를 감지하는 자이로 센서나 가속도 센서 등을 포함할 수 있다. 예를 들어, 플레이어(3)는 게임 콘트롤러(1200)의 자세를 조절하여 가상 공간 상에서 총의 발사 방향을 조정할 수 있다.In addition, the game controller 1200 may include a gyro sensor or an acceleration sensor that detects the posture of the game controller 1200 adjusted according to the manipulation of the player 3 . For example, the player 3 may adjust the firing direction of the gun in the virtual space by adjusting the posture of the game controller 1200 .

이외에도 게임 콘틀롤러(1200)에는 가상 현실 시스템(1000)의 측위 모델이 게임 콘트롤러(1200)의 위치나 자세, 모션 등을 추적하는데 이용되는 마커 등이 그 외관에 설치될 수 있다.In addition, a marker used for tracking the position, posture, motion, etc. of the game controller 1200 by the positioning model of the virtual reality system 1000 may be installed on the exterior of the game controller 1200 .

측위 모듈(1400)은 현실 공간 상에서 플레이어(3)나 게임 콘트롤러(1200)의 위치를 측정할 수 있다. The positioning module 1400 may measure the position of the player 3 or the game controller 1200 in real space.

VR 게임 내의 가상 공간은 VR 게임이 수행되는 현실 공간인 플레이그라운드(1)와 매칭될 수 있는데, 예를 들어 플레이어(3)가 현실 공간에서는 도 2에 도시된 바와 같이 플레이그라운드(1) 상에 위치할 때 가상 현실 시스템(1000)은 플레이어(3)가 조종하는 캐릭터(이하 '플레이어(3) 캐릭터' 또는 '아바타'라고 함)를 가상 공간에서는 플레이그라운드(1) 상의 위치에 대응하는 가상 위치에 배치하거나, 플레이어(3)가 플레이그라운드(1) 상에 이동하면 아바타 역시 가상 공간 내에서 이동시킬 수 있다.The virtual space in the VR game may be matched with the playground 1, which is a real space in which the VR game is performed. For example, in the real space, the player 3 plays the playground 1 on the When positioned, the virtual reality system 1000 sets the character (hereinafter referred to as 'player 3 character' or 'avatar') controlled by the player 3 to a virtual position corresponding to the position on the playground 1 in the virtual space. , or when the player 3 moves on the playground 1, the avatar can also be moved in the virtual space.

측위 모듈(1400)은 이처럼 가상 현실 시스템(1000)이 가상 공간 내의 아바타를 처리하기 위한 기초 정보로서 플레이어(3)나 게임 콘트롤러(1200)의 위치를 측위할 수 있다. As such, the positioning module 1400 may position the player 3 or the game controller 1200 as basic information for the virtual reality system 1000 to process the avatar in the virtual space.

측위 모듈(1400)은 예시적으로 플레이그라운드(1) 내의 플레이어(3)나 HMD(1100)나 게임 콘트롤러(1200)에 설치된 마커를 추적하는 카메라일 수 있다. 여기서, 카메라는 RGB 카메라를 비롯한 적외선 카메라나 열상 카메라를 모두 포함하는 개념이며, 측위 모듈(1400)은 카메라 이외에도 다양한 형태로 구현될 수 있다.The positioning module 1400 may be, for example, a camera that tracks a marker installed in the player 3 in the playground 1 , the HMD 1100 , or the game controller 1200 . Here, the camera is a concept including all infrared cameras and thermal cameras, including RGB cameras, and the positioning module 1400 may be implemented in various forms other than the camera.

측위 모듈(1400)은 플레이그라운드(1) 내의 플레이어(3)를 촬상하기 적절한 각도를 갖도록 플레이그라운드(1)이 주변에 배치되는 구조물(2)에 설치될 수 있다.The positioning module 1400 may be installed in the structure 2 around which the playground 1 is disposed so as to have an angle suitable for imaging the player 3 in the playground 1 .

보조 컴퓨팅 장치(1300)와 서버(1600)는 가상 현실을 구현하기 위한 각종 연산 및 정보 처리를 수행할 수 있다. 예를 들어, 이들은 측위 모듈(1400)이나 HMD(1100), 게임 콘트롤러(1200)에서 검출된 각종 정보를 처리하여 플레이어(3)나 게임 콘트롤러(1200)의 위치나 자세, 모션, 플레이어(3)의 시야각 등을 산출하고, 산출된 정보를 이용하여 가상 현실을 형성하는 시각적/청각적 정보를 생성한다. The auxiliary computing device 1300 and the server 1600 may perform various calculations and information processing for realizing virtual reality. For example, they process the various information detected by the positioning module 1400, the HMD 1100, and the game controller 1200 to determine the position, posture, motion, and motion of the player 3 or the game controller 1200, the player 3 The visual/auditory information that forms the virtual reality is generated by calculating the viewing angle of the .

도 1 및 도 2에는 보조 컴퓨팅 장치(1300)와 서버(1600)가 별개의 구성인 것으로 도시하고 있으나, 가상 현실 시스템(1000)에서 보조 컴퓨팅 장치(1300)가 생략되고 보조 컴퓨팅 장치(1300)의 기능이 서버(1600)나 HMD(1100)로 통합될 수도 있다.1 and 2 , the auxiliary computing device 1300 and the server 1600 are illustrated as separate components, but in the virtual reality system 1000 , the auxiliary computing device 1300 is omitted and the auxiliary computing device 1300 is Functions may be integrated into the server 1600 or HMD 1100 .

다만, VR 게임 서비스에서는 몰입도의 향상을 위해 시청각적 피드백의 실시간성이 중요할 수 있는데, 서버(1600)와 HMD(1100) 간의 무선 통신을 이용하는 경우 지연 시간이 발생할 수 있는 반면, 플레이어(3)에 의해 소지되어 HMD(1100)와 유선으로 연결이 가능한 보조 컴퓨팅 장치(1300)가 VR 이미지나 음성을 생성하여 이를 HMD(1100)로 유선 전송하면 저지연 시청각 피드백이 가능한 장점이 있을 수 있다.However, in the VR game service, real-time audiovisual feedback may be important to improve immersion. When using wireless communication between the server 1600 and the HMD 1100, a delay time may occur, whereas the player 3 ) carried by the HMD 1100 and the auxiliary computing device 1300 capable of being connected by wire to generate a VR image or voice and transmit it to the HMD 1100 by wire, there may be an advantage that low-delay audiovisual feedback is possible.

여기서, 보조 컴퓨팅 장치(1300)나, 서버(1600) 또는 연산 기능을 갖는 HMD(1100)는 제어기를 포함할 수 있으며, 본 명세서에서 제어기는 컴퓨터 프로그램을 수행하는 칩이나 프로세서, 각종 연산 및 정보 처리를 수행할 수 있는 전기적 회로와 같은 하드웨어적 형태는 물론 소프트웨어적 형태 내지는 하드웨어와 소프트웨어가 결합된 형태를 포괄하는 것으로 해석될 수 있다.Here, the auxiliary computing device 1300 , the server 1600 , or the HMD 1100 having an arithmetic function may include a controller, and in this specification, the controller is a chip or processor that executes a computer program, various arithmetic and information processing. It can be interpreted as encompassing not only a hardware form such as an electrical circuit capable of performing the above, but also a software form or a form in which hardware and software are combined.

한편, 후술되는 본 명세서의 실시예에 따른 방법들에서 가상 현실 시스템(1000)이 수행하는 동작들은 특별한 언급이 없는한 상술한 제어기의 제어에 따라 수행되는 것으로 이해될 수 있음을 밝혀둔다. Meanwhile, it should be noted that operations performed by the virtual reality system 1000 in the methods according to embodiments of the present specification to be described below may be understood to be performed under the control of the above-described controller unless otherwise specified.

디스플레이 모듈(1500)은 VR 게임과 관련된 다양한 정보를 출력할 수 있다. 이하는 디스플레이 모듈(1500)에 의해 출력될 수 있는 영상들의 대표적인 몇몇 예시들이다.The display module 1500 may output various information related to the VR game. The following are some representative examples of images that may be output by the display module 1500 .

일 예로, 디스플레이 모듈(1500)은 VR 게임에 대한 중계 영상을 출력할 수 있다.For example, the display module 1500 may output a relay image for a VR game.

여기서, 중계 영상이란 VR 플랫폼의 주변에 있는 관객(4)이 VR 게임을 감상하도록 제공되는 영상일 수 있다. Here, the relay image may be an image provided for the audience 4 in the vicinity of the VR platform to enjoy the VR game.

예를 들어, 중계 영상은 중계 영상은 플레이어(3)의 HMD(1100)를 통해 제공되는 영상과 동일한 영상일 수 있다. 만약 플레이어(3)가 복수 명인 경우라면, 중계 영상은 복수의 플레이어(3) 중 어느 하나의 플레이어(3)의 HMD(1100)로 제공되는 영상이거나 또는 복수의 플레이어(3)에게 제공되는 영상들의 조합된 형태일 수 있다.For example, the relay image may be the same image as the image provided through the HMD 1100 of the player 3 . If there are a plurality of players 3, the relay image is an image provided to the HMD 1100 of any one player 3 among a plurality of players 3, or a video image provided to a plurality of players 3 It may be in a combined form.

다른 예를 들어, 중계 영상은 플레이어(3)에게 제공되는 영상과는 다른 VR 게임 내의 인-게임 영상일 수 있다. 즉, VR 공간 내에서 플레이어(3)에 할당된 가상 카메라와는 위치나 앵글이 다른 가상 카메라로 촬상된 영상, 즉, FOV가 다른 영상일 수 있다. 구체적으로 플레이어(3)에게는 기본적으로 1인칭 FOV의 영상이 제공되는 반면, 중계 영상은 탑 뷰, 원거리 뷰 등과 같은 다른 위치 및 각도에서 VR 공간을 촬상한 영상일 수 있다. As another example, the relay image may be an in-game image in a VR game different from the image provided to the player 3 . That is, an image captured by a virtual camera having a different position or angle from the virtual camera allocated to the player 3 in the VR space, that is, an image having a different FOV. Specifically, while the first-person FOV image is basically provided to the player 3 , the relay image may be an image captured in VR space from different positions and angles, such as a top view or a far view.

또 다른 예를 들어, 중계 영상에는, VR 게임 내의 메타 정보들을 표시하는 영상일 수도 있다. 예를 들어, 중계 영상에는 플레이어(3) 또는 플레이어들(3)의 위치나 행동 등이 담긴 지도, 플레이어(3)의 스코어나 체력, 순위를 비롯한 다양한 상태의 표시나 게임의 진행 상황이나 남은 시간 등이 표시될 수 있다. 이때에는 현실 이미지가 함께 제공되는 것도 가능하다. 예를 들어, 플레이어(3)의 사진 등이 함께 표시될 수 있는 것이다.As another example, the relay image may be an image displaying meta information in a VR game. For example, the relay image includes a map containing the location or behavior of the player 3 or the players 3 , the player 3's score, stamina, display of various states including ranking, or the progress or remaining time of the game etc. may be displayed. In this case, it is also possible to provide a real image together. For example, a picture of the player 3 may be displayed together.

다시 또 다른 예를 들어, 중계 영상에는 관객(3)이 있느 객석이나 VR 게임을 중계하는 중계진과 관련된 영상이 포함될 수도 있다. As another example, the relay image may include an image related to a seat in which the audience 3 is present or a relay crew relaying a VR game.

뿐만 아니라 중계 영상은 위 예시들이 조합된 형태로 제공될 수도 있음은 물론이며, 추가적으로 광고나 홍보를 위한 영상이 중계 영상에 포함될 수도 있다. In addition, the relay image may be provided in the form of a combination of the above examples, and an additional advertisement or promotional image may be included in the relay image.

다른 예로, 디스플레이 모듈(1500)은 관리자가 VR 게임의 운영을 하는데 필요한 정보들을 표시할 수도 있다. As another example, the display module 1500 may display information necessary for a manager to operate a VR game.

여기서, 관리자는 테마 파크 등의 장소 기반 VR 플랫폼에서 VR 서비스의 운영을 담당하는 인력을 의미할 수 있다. 일반적으로 장소 기반 VR 플랫폼 운영시에는 플레이어(3) 중 VR에 익숙치 못한 초심자가 있을 수 있으며, 이들이 VR 서비스를 즐길 수 있도록 관리자는 VR과 관련된 각종 장비의 착용이나 VR 서비스의 진행 방법 등을 안내하는 등의 부수적인 서비스를 제공할 수 있다.Here, the manager may mean a person in charge of operation of a VR service in a place-based VR platform such as a theme park. In general, when operating a place-based VR platform, there may be beginners who are unfamiliar with VR among the players (3). Ancillary services such as

특히, 어린이나 게임에 익숙치 못한 노약자나 고소 공포증이나 폐쇄 공포증이 있는 이용자들의 경우에는 VR의 몰입감으로 인해 VR 서비스를 즐기지 못하거나 심한 경우에는 불안감이나 공포감을 느끼고, 멀미나 구토감을 일으키기도 하므로, 관리자가 이러한 VR 서비스의 이용자의 상태를 신속하게 파악하여 그에 따른 고객 응대를 하는 것은 VR 서비스에서 매우 중요한 요소 중 하나로 볼 수 있다.In particular, in the case of children, the elderly who are unfamiliar with the game, or users with phobia of heights or claustrophobia, they cannot enjoy the VR service due to the immersion of VR or, in severe cases, feel anxiety or fear, and cause motion sickness or vomiting. It can be seen as one of the most important factors in VR service for the company to quickly identify the status of users of these VR services and respond accordingly.

디스플레이 모듈(1500)은 관리자에게 현재 VR 서비스를 이용하는 플레이어(3)의 상태나 플레이어(3)에게 필요한 조치에 대한 정보나 지시를 제공할 수 있다. 예시적으로 관리자를 위한 영상에는 게임의 시작, 게임의 진행 중, 게임의 종료 등을 반영하는 시각 정보, 플레이어(3)가 도움을 요청하고 있는지 여부를 반영하는 시각 정보, 게임의 진행 시간이나 종료까지의 잔여 시간, 현재 플레이하고 있는 플레이어(3)의 수, 현재 진행되고 있는 게임의 종류 등이 포함될 수 있다.The display module 1500 may provide the manager with information or instructions on the status of the player 3 currently using the VR service or the action required for the player 3 . Illustratively, the video for the manager includes visual information that reflects the start of the game, the progress of the game, the end of the game, etc., visual information that reflects whether the player 3 is requesting help, and the time or end of the game. The remaining time until , the number of players 3 currently playing, the type of game currently being played, etc. may be included.

상술한 디스플레이 모듈(1500)은 관객(4)이 중계 영상을 시청하기 위한 전광판으로 설치될 수 있다. 예시적으로 디스플레이 모듈(1500)은 플레이그라운드(1) 주변에 구조물(2)에 설치될 수 있다. 여기서, 구조물은 통상적으로 사각형의 플레이그라운드(1)를 둘러쌓는 기둥 형태로 제공될 수 있다. 디스플레이 모듈(1500)은 주로 플레이그라운드(1)의 외측을 향해 플레이그라운드(1) 주변의 관객이 이를 관람하기 적절한 형태로 배치될 수 있다. 또 디스플레이 모듈(1500)은 복수일 수도 있으며, 복수인 디스플레이 모듈(1500)은 플레이그라운드(1)의 중심을 기준으로 서로 다른 방향을 향해 다른 위치에 배치되어 플레이그라운드(1) 주변의 관객(4)이 가능한한 다양한 시점에서 디스플레이 모듈(1500)을 바라볼 수 있도록 배치되는 것이 바람직할 수 있다. 따라서, 디스플레이 모듈(1500)은 주로 플레이그라운드(1)가 사각형으로 제공될 때에는 각 사각형의 변들의 상측에 위치하는 구조물에 플레이그라운드(1)의 외측을 향하도록 설치될 수 있다.The above-described display module 1500 may be installed as an electric billboard for the audience 4 to view the relay image. For example, the display module 1500 may be installed in the structure 2 around the playground 1 . Here, the structure may be provided in the form of a column surrounding the play ground 1 of a typical square shape. The display module 1500 may be mainly disposed toward the outside of the playground 1 in a form suitable for an audience around the playground 1 to view it. In addition, there may be a plurality of display modules 1500 , and the plurality of display modules 1500 are arranged at different positions in different directions with respect to the center of the playground 1 , and the audience 4 around the playground 1 . ) may be preferably arranged so that the display module 1500 can be viewed from as many different viewpoints as possible. Accordingly, when the playground 1 is mainly provided in a quadrangle, the display module 1500 may be installed in a structure positioned above the sides of each quadrangle to face the outside of the playground 1 .

디스플레이 모듈(1500)이 VR 게임 내의 영상을 중계 영상으로 출력할 때에는, 중계 영상은 디스플레이 모듈(1500)의 설치위치를 고려하여 선택될 수 있을 것이다.When the display module 1500 outputs an image in the VR game as a relay image, the relay image may be selected in consideration of the installation location of the display module 1500 .

예를 들어, VR 게임 내의 영상을 촬상하는 가상 카메라의 위치는 디스플레이 모듈(1500)의 위치와 연동될 수 있다. 구체적으로 설명하면, 디스플레이 모듈(1500)에 표시되는 중계 영상을 촬상하는 가상 카메라의 촬상 방향은, 현실 공간에서 디스플레이 모듈(1500)이 설치된 위치로부터 플레이그라운드(1)를 향하는 방향에 대응될 수 있다. 또 디스플레이 모듈(1500)에 표시되는 중계 영상을 촬상하는 가상 카메라의 촬상 위치는, 현실 공간에서 플레이그라운드(1)에 대한 디스플레이 모듈(1500)이 설치된 위치와 가상 공간에서 가상 카메라가 플레이그라운드(1)에 대응하는 가상 공간 상의 지역에 대한 가상 카메라의 촬상 위치와 대응될 수 있다. 여기서, '대응된다'라는 의미는 반드시 동일한 것을 의미하지는 않음에 유념할 필요가 있다. 예시적으로, 플레이그라운드(1)의 중앙과 디스플레이 모듈(1500)의 위치 관계가 가상 공간에서 플레이그라운드(1)의 중앙에 해당하는 지점과 가상 카메라의 위치 관계와 동일하지는 않을 수도 있는 것이다. 다만, 플레이그라운드(1)의 중앙으로부터 디스플레이 모듈(1500)이 위치하는 방향과 가상 공간 상의 플레이그라운드(1)의 중앙에 해당하는 지점으로부터 가상 카메라가 위치하는 방향과 동일하거나 미리 정해진 오차 범위 내일 수 있는 것이다. 따라서, 도 2를 참조하면, 관객(4)에 가까운 디스플레이 모듈(1500)로 출력되는 중계 영상은 플레이그라운드(1)의 변들 중 관객(4)에 가까운 변으로부터 플레이그라운드(1)의 중심을 향하는 방향과 가상 카메라의 촬상 위치로부터 플레이그라운드(1)의 중심에 해당하는 가상 공간 내의 지점을 향하는 방향이 동일/유사하게 위치하는 가상 카메라가 플레이그라운드(1)의 중심에 해당하는 가상 공간 내의 지점을 향하는 방향으로 촬상한 영상이고, 도 2에서 관객(4)에 먼 디스플레이 모듈(1500)로 출력되는 중계 영상은 플레이그라운드(1)의 변들 중 관객(4)에 먼 변으로부터 플레이그라운드(1)의 중심을 향하는 방향과 가상 카메라의 촬상 위치로부터 플레이그라운드(1)의 중심에 해당하는 가상 공간 내의 지점을 향하는 방향이 동일/유사하게 위치하는 가상 카메라가 플레이그라운드(1)의 중심에 해당하는 가상 공간 내의 지점을 향하는 방향으로 촬상한 영상일 수 있다.For example, a location of a virtual camera that captures an image in a VR game may be linked with a location of the display module 1500 . More specifically, the imaging direction of the virtual camera that captures the relay image displayed on the display module 1500 may correspond to the direction from the location where the display module 1500 is installed to the playground 1 in real space. . In addition, the imaging position of the virtual camera that captures the relay image displayed on the display module 1500 is the location where the display module 1500 is installed with respect to the playground 1 in real space and the virtual camera is located in the playground 1 in the virtual space. ) may correspond to an imaging position of the virtual camera with respect to a region in the virtual space corresponding to the . Here, it should be noted that the meaning of 'corresponding' does not necessarily mean the same thing. For example, the positional relationship between the center of the playground 1 and the display module 1500 may not be the same as the positional relationship between the center of the playground 1 and the virtual camera in the virtual space. However, the direction in which the display module 1500 is located from the center of the playground 1 and the direction in which the virtual camera is located from a point corresponding to the center of the playground 1 in the virtual space may be the same as or within a predetermined error range. there will be Accordingly, referring to FIG. 2 , the relay image output to the display module 1500 close to the audience 4 is directed toward the center of the playground 1 from the side closest to the audience 4 among the sides of the playground 1 . A virtual camera having the same/similar direction from the imaging position of the virtual camera to a point in the virtual space corresponding to the center of the playground 1 determines the point in the virtual space corresponding to the center of the playground 1. It is an image taken in the direction it faces, and the relay image output to the display module 1500 far from the audience 4 in FIG. 2 is one of the sides of the playground 1 that is far from the audience 4 A virtual camera in which the direction toward the center and the direction from the imaging position of the virtual camera to a point in the virtual space corresponding to the center of the playground 1 are identical/similar is the virtual space corresponding to the center of the playground 1 It may be an image captured in a direction toward a point within.

이처럼 디스플레이 모듈(1500)이 디스플레이 모듈(1500)의 설치 위치에 대응하는 중계 영상을 출력하면, 관객이 보다 몰입감을 갖고 VR 게임을 관람할 수 있게 된다. As such, when the display module 1500 outputs a relay image corresponding to the installation position of the display module 1500, the audience can watch the VR game with a more immersive feeling.

또는 복수의 플레이어(3)가 있고, 복수의 디스플레이 모듈(1500)이 있는 경우에는, 디스플레이 모듈(1500)은 각각의 플레이어(3)에 대응되는 중계 영상을 출력할 수도 있다. 예를 들어, 각 디스플레이 모듈(1500)들이 각 플레이어(3)의 HMD(1100) 영상을 출력하는 것도 가능할 수 있다. 또는 각 플레이어(3)를 바라보는 가상 카메라로 촬영된 영상일 수도 있다.Alternatively, when there are a plurality of players 3 and a plurality of display modules 1500 , the display module 1500 may output a relay image corresponding to each player 3 . For example, it may be possible for each display module 1500 to output an image of the HMD 1100 of each player 3 . Alternatively, it may be an image captured by a virtual camera looking at each player 3 .

이상에서 설명한 중계 영상들은 서버(1600)에 의해 생성되어 디스플레이 모듈(1500)로 전송된 것일 수 있음을 밝혀둔다. It should be noted that the relay images described above may be generated by the server 1600 and transmitted to the display module 1500 .

마커(1700)는 플레이그라운드(1)의 외부에 위치하는 스마트 기기나 카메라, 센서 등에 플라이그라운드(1)에 대한 상대적인 위치를 인식할 수 있는 수단으로 제공될 수 있다. The marker 1700 may be provided as a means for recognizing the relative position of the flyground 1 to a smart device, a camera, or a sensor located outside the playground 1 .

본 출원에서는, 플레이그라운드(1) 주변의 관객(4)이 스마트 기기(2000)를 통해 중계 영상을 관람할 수 있다. 여기서, 스마트 기기(2000)의 대표적인 예로는, 스마트 폰, 태블릿, 노트북 등을 들 수 있다. 본 출원에서 스마트 기기(2000)는 서버(1600)로부터 직접적으로 또는 간접적으로 영상을 전달받고, 이를 출력하여 관객(4)이 플레이그라운드(1)를 육안으로 관람하거나 플레이그라운드(1) 주위에 설치된 디스플레이 모듈(1500)에 따른 VR 공간을 표현하는 인-게임 영상을 보는 것에 더해 별도의 중계 영상을 관객에게 제공할 수 있다. 이러한 영상은 역시 서버(1600)에서 전송되는 정보를 이용한 것일 수 있다. In the present application, the audience 4 around the playground 1 can view the relayed image through the smart device 2000 . Here, as a representative example of the smart device 2000, a smart phone, a tablet, a laptop computer, etc. may be mentioned. In the present application, the smart device 2000 receives an image directly or indirectly from the server 1600, and outputs it to allow the audience 4 to visually watch the playground 1 or to install it around the playground 1 In addition to viewing the in-game image representing the VR space according to the display module 1500 , a separate relay image may be provided to the audience. Such an image may also be obtained using information transmitted from the server 1600 .

보다 구체적으로 스마트 기기(2000)가 출력하는 영상을 설명하면, 일 예로 스마트 기기(2000)는 디스플레이 모듈(1500)과 관련하여 설명한 중계 영상들의 예시을 중계 영상으로 출력할 수 있다.More specifically, when describing an image output by the smart device 2000 , as an example, the smart device 2000 may output examples of relay images described in relation to the display module 1500 as a relay image.

또는 스마트 기기(2000)는 VR 인-게임 영상과 플레이그라운드(1)와 플레이어(3)가 담긴 현실 영상을 조합한 증강 영상 형태의 중계 영상을 출력하는 것도 가능하다. 구체적으로, 스마트 기기(2000)는 스마트 기기(2000)의 카메라를 이용하여 플레이그라운드(1) 및 플레이어(3)가 포함된 영상을 촬영하고, 서버(1600)로부터 VR 공간 내의 이미지를 전달받고, 촬상한 현실 공간에 관한 영상과 전달 받은 가상 공간에 관한 영상을 조합한 영상을 생성하고, 이를 출력할 수 있다. 조합 영상은 예시적으로 AR 영상일 수 있다. 예를 들어, 조합 영상은 현실 영상 중 플레이어(3)에 해당하는 영역을 가상 현실 내의 아바타로 대체한 증강 영상일 수 있다. Alternatively, the smart device 2000 may output a relay image in the form of an augmented image in which a VR in-game image and a real image containing the playground 1 and the player 3 are combined. Specifically, the smart device 2000 shoots an image including the playground 1 and the player 3 using the camera of the smart device 2000, and receives the image in the VR space from the server 1600, An image obtained by combining the captured image on the real space and the received image on the virtual space may be generated, and the image may be output. The combined image may be, for example, an AR image. For example, the combined image may be an augmented image in which a region corresponding to the player 3 in the real image is replaced with an avatar in the virtual reality.

스마트 기기(2000)가 중계 영상으로 가상 공간 내의 영상을 증강한 영상을 출력하기 위해서는 스마트 기기(2000)에 의해 촬영된 영상과 가상 공간의 가상 카메라에 의해 촬영된 영상 간의 정합이 필요하므로, 가상 카메라의 위치가 스마트 기기(2000)의 플레이그라운드(1)에 대한 위치를 고려하여 정해질 필요가 있다. 뿐만 아니라 스마트 기기(2000)가 AR 영상이 아닌 VR 영상을 출력할 때에도, 관객(4)이 현실 공간에서 플레이그라운드(1)를 바라보는 관점의 VR 영상을 제공하기 위해서도 가상 카메라의 위치와 FOV가 현실 공간에서 스마트 기기(2000)의 촬영 지점과 촬상 FOV에 대응되어야, 관객(4)에게 몰입도 높은 영상이 제공될 수 있다.In order for the smart device 2000 to output the augmented image in the virtual space as a relay image, it is necessary to match the image captured by the smart device 2000 and the image captured by the virtual camera in the virtual space, so the virtual camera The location of the smart device 2000 needs to be determined in consideration of the location of the playground 1 . In addition, when the smart device 2000 outputs a VR image rather than an AR image, the position and FOV of the virtual camera are also A highly immersive image can be provided to the audience 4 only when it corresponds to the shooting point and the imaging FOV of the smart device 2000 in the real space.

마커(1700)는 상술한 바와 같이 플레이그라운드(1) 외부에서 스마트 기기(2000)를 통해 중계 영상을 볼 때, 스마트 기기(2000)의 촬영 위치/각도와 스마트 기기(2000)로 제공될 중계 영상을 촬상하는 가상 카메라의 위치/각도를 정합시키기 위한 구성 요소로 기능할 수 있다.As described above, the marker 1700 shows the shooting position/angle of the smart device 2000 and the relay image to be provided to the smart device 2000 when viewing the relay image through the smart device 2000 outside the playground 1 as described above. It can function as a component for matching the position/angle of the virtual camera that captures the .

구체적으로 마커(1700)는 외부에서 인식하기 용이한 특징점을 갖는 형태나 패턴으로 구조물(2)에 설치될 수 있다. 도 2에서는 마커(1700)가 구조물의 기둥들을 따라 연장되는 선상 패턴을 갖는 것으로 도시하였으나, 반드시 이로 한정되는 것은 아니며, 외부에서 인식될 수 있는 영상적 특징을 갖는 형태나 패턴이면 어떠한 것도 가능할 수 있다.Specifically, the marker 1700 may be installed on the structure 2 in a shape or pattern having a feature point that is easy to recognize from the outside. In FIG. 2 , the marker 1700 is illustrated as having a linear pattern extending along the pillars of the structure, but it is not necessarily limited thereto, and any shape or pattern having an externally recognizable image characteristic may be possible. .

스마트 기기(2000)는 플레이그라운드(1)를 향해 촬상하는 경우에 얻어지는 이미지 내에 포함된 마커(1700)의 오리엔테이션나 크기, 위치에 기초하여 플레이그라운드(1)에 대한 상대적 촬상 위치 및 자세를 판단할 수 있다. 예를 들어, 스마트 기기(2000)에서 촬상된 이미지에 포함된 마커(1700)의 패턴이나 형태의 방향에 따라 플레이그라운드(1)에 대한 촬상 각도를 스마트 기기(2000)가 직접 또는 서버(1600)가 해당 영상을 전달받아 유사한 방식으로 판단할 수 있다. 다른 예를 들어, 플레이그라운드(1)에 대한 거리는 마커(1700)의 크기나 마커(1700) 간의 간격 등을 통해 알 수 있을 것이다. The smart device 2000 determines the imaging position and posture relative to the playground 1 based on the orientation, size, and position of the marker 1700 included in the image obtained when imaging toward the playground 1. can For example, according to the direction of the pattern or shape of the marker 1700 included in the image captured by the smart device 2000, the smart device 2000 directly or the server 1600 determines the imaging angle for the playground 1 can receive the video and judge it in a similar way. For another example, the distance to the playground 1 may be known through the size of the markers 1700 or the distance between the markers 1700 .

한편, 도 2에서와 같이 플레이그라운드(1)가 여러 변을 가지는 형태의 다각형으로 제공되는 경우라면, 각 변 방향에 설치되는 마커(1700)에는 해당 마커(1700)가 어느 변측에 위치하는 마커(1700)인지를 반영하는 시각적 표시가 포함될 수도 있다. 여기서, 시각적 표시는 특정 패턴이나 특징점은 물론, 마커(1700)의 색상 등일 수도 있다. 따라서, 서버(1600)나 스마트 기기(2000)는 촬상된 영상 내의 마커(1700)의 특성에 따라 현재 촬상 위치와 방향이 플레이그라운드(1)로부터 어느 쪽인지를 판단할 수 있게 된다.On the other hand, as in FIG. 2 , if the playground 1 is provided as a polygon having multiple sides, the marker 1700 installed in each side direction includes a marker ( 1700 ) located on any side. 1700) may include visual indications reflecting cognition. Here, the visual indication may be a color of the marker 1700 as well as a specific pattern or feature point. Accordingly, the server 1600 or the smart device 2000 can determine the current imaging position and direction from the playground 1 according to the characteristics of the marker 1700 in the captured image.

이하에서는 본 명세서의 실시예에 따른 가상 현실 게임용 중계 화면 생성 방법에 관하여 설명한다. 본 방법은 주로 가상 현실 게임에 적용될 수 있으나, 반드시 게임용이어야만 하는 것은 아님을 미리 밝혀둔다. Hereinafter, a method for generating a relay screen for a virtual reality game according to an embodiment of the present specification will be described. Although this method can be mainly applied to a virtual reality game, it should be noted in advance that it is not necessarily for a game.

한편, 이하의 설명에서 수행되는 동작들은 다른 구성 요소가 수행하는 것으로 별도로 언급하거나 문맥상 그러한 것이 분명한 경우를 제외하고는 가상 현실 시스템(1000), 특히 서버(1600)에 의해 수행되는 것으로 이해되어야 할 것이다. Meanwhile, the operations performed in the following description should be understood as being performed by the virtual reality system 1000, particularly the server 1600, unless otherwise noted as being performed by other components or otherwise clear from the context. will be.

도 3은 본 명세서의 실시예에 따른 중계 화면 생성 방법의 일 예의 순서도이다. 3 is a flowchart of an example of a method for generating a relay screen according to an embodiment of the present specification.

도 3을 참조하면, 본 명세서의 실시예에 따른 중계 화면 생성 방법은 현실 공간 상의 관객(4) 위치를 검출하는 단계(S1100), 현실 공간 상의 관객(4)의 시야각을 검출하는 단계(S1150), 현실 공간에서의 관객(4)의 위치에 따라 가상 공간 상의 카메라 위치 변수를 결정하는 단계(S1200), 현실 공간에서의 관객(4)의 시야각에 따라 가상 공간 상의 카메라 자세 변수를 결정하는 단계(S1250), 카메라 변수들에 기초하여 가상 공간 영상을 생성하는 단계(S1300) 및 가상 공간 영상을 중계 영상으로 전송하는 단계(S1400)를 포함할 수 있다. Referring to FIG. 3 , the method of generating a relay screen according to an embodiment of the present specification includes the steps of detecting the position of the audience 4 in the real space (S1100), and detecting the viewing angle of the audience 4 in the real space (S1150). , determining the camera position variable in the virtual space according to the position of the audience 4 in the real space (S1200), determining the camera posture variable in the virtual space according to the viewing angle of the audience 4 in the real space ( S1250), generating a virtual space image based on camera variables (S1300), and transmitting the virtual space image as a relay image (S1400) may include.

이하에서는 상술한 중계 화면 생성 방법의 일 예의 각 단계들에 관하여 도 4 내지도 도 8을 참조하여 설명한다.Hereinafter, each step of an example of the above-described method for generating a relay screen will be described with reference to FIGS. 4 to 8 .

도 4는 본 명세서의 실시예에 따른 VR 게임이 수행되는 현실 공간의 예시에 관한 도면이고, 도 5는 본 명세서의 실시예에 따른 VR 게임이 수행되는 가상 공간의 예시에 관한 도면이고, 도 6은 본 명세서의 실시예에 따른 플레이어 화면의 예시도이고, 도 7 및 도 8은 본 명세서의 실시예에 따른 중계 화면의 예시들에 관한 도면이다. 4 is a diagram of an example of a real space in which a VR game is performed according to an embodiment of the present specification, FIG. 5 is a diagram of an example of a virtual space in which a VR game is performed according to an embodiment of the present specification, and FIG. 6 is an exemplary view of a player screen according to an embodiment of the present specification, and FIGS. 7 and 8 are diagrams related to examples of a relay screen according to an embodiment of the present specification.

먼저 가상 현실 시스템(1000)은 현실 공간 상의 관객(4) 위치를 검출할 수 있다(S1100). 여기서, 관객(4)이란 플레이그라운드(1) 주변에서 VR 게임을 현장 관람하는 사람을 의미할 수 있으며, 본 명세서에서는 관객(4)은 육안으로 VR 플랫폼, 즉 플레이그라운드(1) 내에서 플레이어(3)들의 행동이나 디스플레이 모듈(1500)을 통한 중계 영상을 시청하기도 하지만 스마트 기기(2000)를 소지하여 이를 통한 VR 게임에 관한 중계 영상을 관람할 수 있는 사람을 의미할 수 있다.First, the virtual reality system 1000 may detect the position of the audience 4 in the real space (S1100). Here, the audience 4 may mean a person who watches a VR game in the vicinity of the playground 1, and in this specification, the audience 4 is a player ( 3) may refer to a person who may watch a relay image through the actions or display module 1500, but who possesses the smart device 2000 and can view a relay image related to a VR game through the action.

또 현실 공간 상의 관객(4)의 위치란, 플레이그라운드(1)에 대한 상대적인 위치로 이해될 수 있다. 예시적으로, 현실 공간 상의 관객(4)의 위치는 플레이그라운드(1)의 일 지점(예를 들어, 중심)에 대한 관객(4)이 있는 지점까지의 위치를 의미할 수 있다. 관객(4)이 있는 지점까지의 위치란, 관객(4)의 몸의 중심이나 눈의 위치일 수 있으나, 관객(4)이 가진 소지한 스마트 기기(2000)의 위치로 근사되어 해석될 수도 있다. In addition, the position of the audience 4 in the real space may be understood as a relative position with respect to the playground 1 . Exemplarily, the location of the audience 4 in the real space may mean a location from a point (eg, a center) of the playground 1 to a point where the audience 4 is. The position to the point where the audience 4 is located may be the center of the body or the eyes of the audience 4 , but may also be approximated and interpreted as the location of the smart device 2000 possessed by the audience 4 . .

관객(4)의 위치를 검출하는 방법은 다양하게 수행될 수 있으며, 이하는 그 대표적인 예시이다.A method of detecting the position of the audience 4 may be performed in various ways, and the following is a representative example thereof.

먼저 관객(4)이 소지한 스마트 기기(2000)의 카메라가 플레이그라운드(1)를 촬영할 수 있다. 촬영된 이미지에는 플레이그라운드(1)에 설치된 구조물(2)에 표시된 마커(1700)가 촬영될 수 있다. 마커(1700)의 크기나 방향을 분석하면 플레이그라운드(1)로부터 관객(4)이 있는 위치, 보다 자세히는 관객(4)이 소지한 스마트 기기(2000)의 위치가 산출될 수 있다. 촬상된 이미지 내의 마커(1700)를 인식한 뒤, 인식된 마커(1700)의 속성(위치, 크기, 방향) 등을 통한 관객(4)의 위치를 산출하는 것은 스마트 기기(2000)에서 수행될 수도 있고, 또는 스마트 기기(2000)가 이미지를 서버(1600)로 전송여 서버(1600)가 관객 위치 산출을 수행하는 것도 가능하다. First, the camera of the smart device 2000 possessed by the audience 4 may photograph the playground 1 . The marker 1700 displayed on the structure 2 installed in the playground 1 may be photographed in the photographed image. By analyzing the size or direction of the marker 1700 , the location of the audience 4 from the playground 1 , and more specifically, the location of the smart device 2000 carried by the audience 4 may be calculated. After recognizing the marker 1700 in the captured image, calculating the position of the audience 4 through the properties (position, size, direction) of the recognized marker 1700 may be performed in the smart device 2000 Alternatively, the smart device 2000 transmits the image to the server 1600 so that the server 1600 may calculate the audience location.

한편, 플레이그라운드(1)에 대한 관객 위치의 검출이 반드시 상술한 예시에 따라 수행되어야만 하는 것은 아니다. 예를 들면, HMD(1100)나 게임 콘트롤러(1200) 또는 플레이어(3)의 신체에 부착되는 각종 마커 등을 통해 관객 위치 검출이 수행되는 것도 가능하다. 다른 예를 들면, 마커리스(markerless) 방식의 이미지 인식을 통해 관객 위치 검출이 수행될 수도 있다. 예시적으로 이미지로부부터 객체에 대한 인식(identification), 검출(detection), 위치인식(localization) 또는 세그멘테이션(segementation) 등을 수행하는 딥 러닝 알고리즘을 이용하여 구조물(2)에 설치되는 별도의 마커(1700)를 인식하는 대신 구조물(2)이나 플레이그라운드(1)의 특징점을 통한 이들의 검출을 통해 관객 위치 검출이 수행되는 것도 가능하다. 구체적인 설명을 하면, 욜로(Yolo) 등의 알고리즘을 통해 구조물을 인식하면 바운딩 박스의 크기를 통해 플레이그라운드(1)에 대한 관객(4)의 거리를 인식할 수 있다. 또 관절 인식 인공 신경망의 변형을 통해 구조물(2)의 특징적인 부분(예를 들어, 꼭지점이나 모서리 등)을 인식하고, 해당 특징부의 위치 관계들에 기초하여 플레이그라운드(1)에 대한 관객(4)의 상대 위치를 분석하는 것도 가능하다. 물론, 이미지를 입력받아 플레이그라운드(1)에 대한 관객(4)의 상대 위치를 출력하는 엔드투엔드(end-to-end) 형태의 인공 신경망을 학습시켜 이를 이용해 이미지로부터 직접적으로 관객의 상대 위치를 산출하는 것도 가능하다. 이러한 기법들은 또 반드시 마커리스 형태의 이미지 인식에만 적용되어야 하는 것은 아니며, 상술한 마커(1700)를 이용한 관객 위치 검출에도 이용될 수 있다. 한편, 상술한 각종 연산들은 서버(1600)나 스마트 기기(2000)에서 수행될 수 있을 것이다.On the other hand, the detection of the audience position with respect to the playground 1 does not necessarily have to be performed according to the above-described example. For example, it is also possible that the audience position detection is performed through the HMD 1100 , the game controller 1200 , or various markers attached to the body of the player 3 . As another example, the audience position detection may be performed through image recognition in a markerless method. Illustratively, a separate marker installed in the structure 2 using a deep learning algorithm that performs identification, detection, localization, or segmentation of an object from an image Instead of recognizing 1700 , it is also possible for the audience position detection to be performed through their detection through feature points of the structures 2 or playground 1 . Specifically, if the structure is recognized through an algorithm such as Yolo, the distance of the audience 4 to the playground 1 can be recognized through the size of the bounding box. In addition, the characteristic part (for example, vertex or corner, etc.) of the structure 2 is recognized through the transformation of the joint recognition artificial neural network, and the audience 4 for the playground 1 is based on the positional relationships of the corresponding features. ), it is also possible to analyze the relative position of Of course, it learns an end-to-end artificial neural network that receives an image and outputs the relative position of the audience 4 with respect to the playground 1 and uses it to learn the relative position of the audience directly from the image. It is also possible to calculate These techniques do not necessarily have to be applied only to image recognition of a markerless type, and may also be used to detect the position of an audience using the above-described marker 1700 . Meanwhile, the various operations described above may be performed by the server 1600 or the smart device 2000 .

관객(4)의 위치 검출과 유사하게, 가상 현실 시스템(1000)은 가상 현실 공간 상의 관객(4)의 시야각을 검출할 수 있다(S1150).Similar to detecting the position of the audience 4 , the virtual reality system 1000 may detect the viewing angle of the audience 4 in the virtual reality space ( S1150 ).

여기서, 관객(4)의 시야각이란, 관객(4)이 플레이그라운드(1)를 바라보는 방향을 의미하며, 근사적으로는 관객(4)이 가진 소지한 스마트 기기(2000)의 자세값으로 이해될 수 있다. 예시적으로 관객(4)이 스마트 기기(2000)를 통해 중계 영상을 관람할 때 관객(4)이 실제로 육안으로 보는 실제 공간의 시야에 대응하는 가상 공간의 이미지를 스마트 기기(2000)로 제공할 수 있으며, 이때 관객(4)이 스마트 기기(2000)를 통해 시청하는 화면이 실제 육안으로 플레이그라운드(1)를 보는 각도 등과 정합되도록 하려면, 스마트 기기(2000)의 스크린이 관객의 시야에서 차지하는 영역에 실제 스마트 기기(2000)의 스크린에 의해 가려진 현실 공간에 대응하는 가상 공간이 디스플레이되는 것이 관람 몰입도를 향상시킬 수 있다. 따라서, 관객(4)의 시야각은 관객(4)이 스마트 기기(2000)를 보는 시야각일 수 있으며, 통상적인 스마트 기기(2000)를 통한 중계 시나리오에서는 스마트 기기(2000)를 관객(4)의 시야와 플레이그라운드(1)의 사이에 두고, 관객(4)이 스마트 기기(2000)를 시청하는 형태일 수 있으며, 이에 따라 관객(4)의 시야각은 스마트 기기(2000)의 디스플레이 방향, 즉 스마트 기기(2000)의 자세에 의해 결정될 수 있으므로, 결과적으로 관객(4)의 시야각은 관객(4)이 소지한 스마트 기기(2000)의 자세에 근사될 수 있는 것이다. Here, the viewing angle of the audience 4 means the direction in which the audience 4 looks at the playground 1, and is roughly understood as the posture value of the smart device 2000 possessed by the audience 4 can be For example, when the audience 4 views the relay image through the smart device 2000, the smart device 2000 may provide an image of the virtual space corresponding to the view of the real space that the audience 4 actually sees with the naked eye. At this time, in order to ensure that the screen viewed by the audience 4 through the smart device 2000 matches the actual viewing angle of the playground 1 with the naked eye, the screen of the smart device 2000 is located in the area occupied by the audience. Displaying a virtual space corresponding to the real space covered by the screen of the real smart device 2000 may improve viewing immersion. Accordingly, the viewing angle of the audience 4 may be the viewing angle at which the audience 4 views the smart device 2000 , and in a typical relay scenario through the smart device 2000 , the viewer 4 views the smart device 2000 as the viewing angle. It may be placed between and the playground 1, and the audience 4 may view the smart device 2000, and accordingly, the viewing angle of the audience 4 may be in the display direction of the smart device 2000, that is, the smart device. Since it can be determined by the posture of 2000 , as a result, the viewing angle of the spectator 4 can be approximated to the posture of the smart device 2000 carried by the spectator 4 .

따라서, 스마트 기기(2000)는 스마트 기기(2000)에 탑재된 가속도계나 자이로센서 등을 통해 자세값을 획득하고, 이에 기초하여 관객(4)의 시야각(또는 시야범위)를 검출할 수 있다. Accordingly, the smart device 2000 may obtain a posture value through an accelerometer or a gyro sensor mounted on the smart device 2000 and detect the viewing angle (or viewing range) of the audience 4 based on this.

플레이그라운드(1)에 대한 관객(4)의 위치와 시야각(여기서, 시야각은 시야범위, FOV 등으로 해석될 수 있음을 밝혀둠)을 검출하면, 가상 현실 시스템(1000)은 이를 통해 관객에게 제공할 VR 영상을 촬상할 가상 공간 내의 가상 카메라에 관한 각종 파라미터를 산출할 수 있다. Upon detecting the position and viewing angle of the audience 4 with respect to the playground 1 (here, it has been shown that the viewing angle can be interpreted as a viewing range, FOV, etc.), the virtual reality system 1000 provides the audience with this Various parameters related to a virtual camera in a virtual space for capturing a VR image to be performed may be calculated.

가상 현실 시스템(1000)은 현실 공간에서의 관객(4)의 위치에 따라 가상 공간 상의 카메라 위치 변수를 결정할 수 있다(S1200).The virtual reality system 1000 may determine a camera position variable in the virtual space according to the position of the audience 4 in the real space ( S1200 ).

구체적으로, 서버(1600)는 플레이그라운드(1)의 일 지점(주로 중심)으로부터 관객(4)의 상대 위치를 검출하면, 플레이그라운드(1)의 일 지점에 대응하는 가상 공간 상의 일 지점으로부터 산출된 상대 위치에 위치하는 곳을 가상 카메라의 설치 위치(즉, 촬상 위치)로 설정할 수 있다. Specifically, when the server 1600 detects the relative position of the audience 4 from a point (mainly the center) of the playground 1 , it is calculated from a point on the virtual space corresponding to the one point of the playground 1 . A location located in a relative position may be set as an installation location (ie, an imaging location) of the virtual camera.

다음으로, 가상 현실 시스템(1000)은 현실 공간에서의 관객(4)의 시야각(시야 방향)에 따라 가상 공간 상의 카메라 자세 변수를 결정할 수 있다(S1200).Next, the virtual reality system 1000 may determine the camera posture variable in the virtual space according to the viewing angle (viewing direction) of the audience 4 in the real space ( S1200 ).

구체적으로, 서버(1600)는 관객(4)이 플레이그라운드(1)를 바라보는 방향이 가상 카메라가 플레이그라운드(1)에 대응하는 가상 공간 상의 영역을 바라보는 방향이 되도록 가상 카메라의 자세 파라미터를 설정할 수 있다.Specifically, the server 1600 sets the posture parameter of the virtual camera so that the direction in which the audience 4 looks at the playground 1 is the direction in which the virtual camera looks at the area in the virtual space corresponding to the playground 1 . can be set.

가상 현실 시스템(1000)은 가상 카메라와 관련된 각종 파라미터들이 결정되면, 이를 고려하여 가상 카메라를 통해 가상 공간을 촬상함으로써 중계에 이용될 가상 공간 영상을 획득할 수 있다(S1300). 여기서, 가상 공간 영상이 반드시 중계 영상으로 그대로 쓰여야 하는 것은 아니며, 상술한 가상 공간 영상을 중계 영상으로 이용하는 다양한 예시에 따라 가상 공간 영상을 이용해 중계 영상을 생성할 수도 있다.When various parameters related to the virtual camera are determined, the virtual reality system 1000 may acquire a virtual space image to be used for relaying by imaging the virtual space through the virtual camera in consideration of the determination ( S1300 ). Here, the virtual space image does not necessarily have to be used as the relay image, and the relay image may be generated using the virtual space image according to various examples of using the virtual space image as the relay image.

중계 영상이 생성되면, 마지막으로 가상 현실 시스템(1000)은 스마트 기기(2000)로 직접적으로 또는 간접적으로 중계 영상을 전송하고(S1400), 이에 따라 관객(4)은 스마트 기기(2000)를 통해 중계를 볼 수 있다.When the relay image is generated, finally, the virtual reality system 1000 directly or indirectly transmits the relay image to the smart device 2000 ( S1400 ), and accordingly, the audience 4 relays it through the smart device 2000 . can be seen

도 4를 살펴보면, 제1 관객(4a)과 제2 관객(4b)가 플레이그라운드(1) 주변에서 VR 게임을 스마트 기기(2000)를 통해 중계받아 시청하고 있다. 이때, 제1 관객(4a)과 제2 관객(4b)는 서로 다른 지점에서 플레이그라운드(1)를 바라보고 있으므로, 가상 공간 영상을 중계할 때에도 관객(4)의 위치를 고려하여 각자의 위치에서 현실을 보는 것에 정합되는 형태의 가상 공간 영상을 중계 영상으로 관객(4)에게 제공하여 관객 몰입도를 개선할 수 있다.Referring to FIG. 4 , the first audience 4a and the second audience 4b are watching the VR game relayed through the smart device 2000 around the playground 1 . At this time, since the first audience 4a and the second audience 4b are looking at the playground 1 from different points, even when relaying the virtual space image, considering the location of the audience 4, It is possible to improve audience immersion by providing a virtual space image in a form consistent with seeing reality as a relay image to the audience 4 .

따라서, 상술한 방법을 거치면, 도 5에 도시된 바와 같이 제1 관객(4a)와 제2 관객(4b)의 중계 영상 생성을 위한 가상 카메라는 가상 카메라가 가상 공간 상에서 플레이그라운드(1)에 대응하는 영역으로부터 갖는 위치 관계와 각 관객(4)이 플레이그라운드(1)에 대하여 갖는 상대적 위치 관?悶? 서로 대응되도록 하는 위치에 배치될 수 있다. Therefore, through the above-described method, as shown in FIG. 5 , the virtual camera for generating a relay image of the first audience 4a and the second audience 4b corresponds to the virtual camera corresponding to the playground 1 in the virtual space. The positional relationship from the playing area and the relative positional relationship that each audience 4 has with respect to the playground 1? They may be positioned so as to correspond to each other.

한편, 도 5에서는 디스플레이 모듈(1500)에 대응하는 가상 카메라 역시 가상 공간에 배치되고 있음을 도시하고 있다.Meanwhile, FIG. 5 illustrates that a virtual camera corresponding to the display module 1500 is also disposed in a virtual space.

이처럼 배치된 가상 카메라는 각각 도 7 및 도 8에서와 같은 영상을 생성할 수 있다. The virtual cameras arranged in this way may generate images as shown in FIGS. 7 and 8 , respectively.

도 7 및 도 8의 영상은 마치 관객(4)이 가상 공간으로 들어가, 가상 공간에서 실제로 VR 게임을 관람하는 것과 같은 효과를 제공할 수 있는 장점이 있다. 따라서, 통상적으로 도 6과 같이 플레이어(3)가 보는 영상을 중계 영상으로 제공하는 것에 비해 훨씬 높은 관람 몰입도를 줄 수 있는 장점이 있다. The images of FIGS. 7 and 8 have the advantage of providing an effect as if the audience 4 enters the virtual space and actually watches a VR game in the virtual space. Accordingly, there is an advantage of providing a much higher level of immersion in viewing compared to providing an image viewed by the player 3 as a relay image as shown in FIG. 6 .

또한, 특정 관객(4)이 플레이그라운드(1) 주변에서 이동하거나 스마트 기기(2000)의 자세를 바꿔가며 자기가 보고 싶은 각도와 위치에서 VR 게임 내의 인-게임 영상을 관람할 수도 있어 보다 자유로운 관람을 가능케할 수도 있다.In addition, a specific audience 4 can move around the playground 1 or change the posture of the smart device 2000 to view the in-game video in the VR game at an angle and position that they want to see, allowing for more free viewing. may make it possible

이때, 전광판에는 게임 시청에 필요한 다양한 정보가 표시될 수 있으며, 일 예로는, 플레이어(3)의 화면인 도 6과 같은 화면이 디스플레이 모듈(1500)로 표시되거나, 디스플레이 모듈(1500)에 대응하는 가상 카메라에서 촬영한 영상이 출력될 수도 있다.At this time, various information necessary for viewing the game may be displayed on the electric sign board. For example, a screen as shown in FIG. 6 that is the screen of the player 3 is displayed by the display module 1500 or corresponding to the display module 1500 . An image captured by the virtual camera may be output.

또 스마트 기기(2000)에서는 각 화면의 전환(예를 들어, 플레이어(3) 화면과 스마트 기기(2000)에 대응하여 생성된 가상 카메라의 촬상 화면)을 위한 모드 변환 인터페이스 등이 구현되어 관객(4)이 ??때로 원하는 화면을 바꿔가며 시청하도록 하는 것도 가능하다. 한편, 관객(4)은 스마트 기기(2000)를 보는 동시에 육안으로 플레이그라운드(1)를 관람하면서 플레이어(3)들의 현실 공간에서 행동도 함께 참고하여 시청할 수 있어 게임 관람의 흥미도가 향상될 수 있다. In addition, in the smart device 2000, a mode conversion interface for switching each screen (eg, the screen of the player 3 and the imaging screen of the virtual camera generated in response to the smart device 2000) is implemented, and the audience 4 ), it is also possible to change the desired screen from time to time to watch. On the other hand, the audience 4 can watch the smart device 2000 while viewing the playground 1 with the naked eye while also referring to the actions of the players 3 in the real space, so that the interest in viewing the game can be improved. have.

이상에서 설명한 본 발명의 실시예에 따른 방법들은 단독으로 또는 서로 조합되어 이용될 수 있다. 본 발명의 실시예에 따른 방법에서 설명된 각 단계들은 모두 필수적인 것은 아니므로 각 방법들이 그 단계들을 전부 포함하는 것은 물론 일부만 포함하여 수행되는 것도 가능하다. 또 각 단계들이 설명된 순서는 설명의 편의를 위한 것에 불과하므로, 본 발명에서 설명된 방법에서 각 단계들이 반드시 설명된 순서대로 진행되어야 하는 것은 아니다. The methods according to the embodiments of the present invention described above may be used alone or in combination with each other. Since each step described in the method according to the embodiment of the present invention is not essential, each method may be performed including all of the steps as well as only some of the steps. In addition, since the order in which each step is described is only for convenience of description, each step in the method described in the present invention does not necessarily have to be performed in the described order.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 이상에서 설명한 본 발명의 실시예들은 서로 별개로 또는 조합되어 구현되는 것도 가능하다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments of the present invention described above may be implemented separately or in combination with each other.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

1: 플레이그라운드 2: 구조물
3: 플레이어 4: 관객
1000: 가상 현실 시스템 1100: HMD
1200: 게임 콘트롤러 1300: 보조 컴퓨팅 장치
1400: 측위 모듈 1500: 디스플레이 모듈
1600: 서버 1700: 마커
2000: 스마트 기기
1: Playground 2: Structures
3: Player 4: Audience
1000: virtual reality system 1100: HMD
1200: game controller 1300: secondary computing device
1400: positioning module 1500: display module
1600: server 1700: marker
2000: smart device

Claims (7)

VR 게임이 수행되는 플레이그라운드 주변의 관객에 대해, 상기 플레이그라운드에 대한 현실 공간 상의 상기 관객의 위치를 검출하는 단계;
상기 곽객의 위치에 기초하여 상기 VR 게임이 수행되는 가상 공간 상의 케메라 위치 변수를 설정하는 단계;
상기 카메라 위치 변수에 따라 상기 가상 공간 상에 가상 카메라를 생성하는 단계;
상기 가상 카메라로 촬상된 상기 가상 공간 영상을 획득하는 단계; 및
상기 가상 공간 영상을 중계 영상을 상기 관객이 소지한 스마트 기기로 전송하는 단계;를 포함하는
가상 현실 게임용 중계 방법.
detecting a position of the audience in a real space with respect to the playground with respect to the audience around the playground where the VR game is performed;
setting a Kemera location variable in a virtual space in which the VR game is performed based on the location of the Kwak-Gak;
generating a virtual camera in the virtual space according to the camera position variable;
acquiring the virtual space image captured by the virtual camera; and
Transmitting a video relaying the virtual space image to a smart device possessed by the audience; including
A relay method for virtual reality games.
제1 항에 있어서,
상기 카메라의 위치 변수를 설정하는 단계는, 상기 플레이그라운드에 대한 상기 관객의 위치 관계와 상기 플레이그라운드에 해당하는 상기 가상 공간 상의 영역에 대한 상기 가상 카메라의 설치 위치 관계가 대응되도록 상기 카메라 위치 변수를 설정하는
가상 현실 게임용 중계 방법.
According to claim 1,
The setting of the position variable of the camera may include setting the camera position variable so that the positional relation of the audience with respect to the playground corresponds to the installation position relation of the virtual camera with respect to the area on the virtual space corresponding to the playground. to set
A relay method for virtual reality games.
제1 항에 있어서,
상기 스마트 기기에 의해 상기 플레이그라운드를 포함도록 촬상된 이미지를 수신하는 단계;를 더 포함하고,
상기 관객의 위치를 검출하는 단계에서, 상기 이미지에 기초하여 상기 관객의 위치를 검출하는
가상 현실 게임용 중계 방법.
According to claim 1,
Receiving the image captured by the smart device to include the playground; further comprising,
In the step of detecting the position of the audience, detecting the position of the audience based on the image
A relay method for virtual reality games.
제3 항에 있어서,
상기 제3 항에 있어서,
상기 이미지에 포함된 상기 플레이그라운드 주변에 설치된 구조물 또는 상기 구조물에 마련된 마커의 형태에 기초하여 상기 관객의 위치를 검출하는 단계;를 더 포함하는
가상 현실 게임용 중계 방법.
4. The method of claim 3,
According to claim 3,
Detecting the position of the audience based on the shape of a structure installed around the playground or a marker provided on the structure included in the image; further comprising
A relay method for virtual reality games.
제1 항에 있어서,
상기 현실 공간 상의 상기 관객의 시야 정보를 검출하는 단계;
상기 관객의 시야 정보에 기초하여 상기 VR 게임이 수행되는 가상 공간 상의 케메라 자세 변수를 설정하는 단계;를 더 포함하는
가상 현실 게임용 중계 방법.
According to claim 1,
detecting visual field information of the audience in the real space;
Setting a camera posture variable in a virtual space in which the VR game is performed based on the visual field information of the audience; further comprising
A relay method for virtual reality games.
제5 항에 있어서,
상기 카메라의 자세 변수를 설정하는 단계는, 상기 플레이그라운드에 대한 상기 관객의 시야와 상기 플레이그라운드에 해당하는 상기 가상 공간 상의 영역에 대한 상기 가상 카메라의 시야가 대응되도록 상기 카메라 자세 변수를 설정하는
가상 현실 게임용 중계 방법.
6. The method of claim 5,
The setting of the camera posture variable may include setting the camera posture variable so that the viewer's view of the playground and the virtual camera's view of the virtual space corresponding to the playground correspond to each other.
A relay method for virtual reality games.
제5 항에 있어서,
상기 관객에게 상기 중계 영상을 제공하는 상기 스마트 기기의 자세 정보를 수신하는 단계;를 더 포함하고,
상기 관객의 시야 정보를 검출하는 단계에서, 상기 스마트 기기의 자세 정보에 기초하여 상기 관객의 시야 정보를 검출하는
가상 현실 게임용 중계 방법.
6. The method of claim 5,
Receiving the posture information of the smart device that provides the relay image to the audience; further comprising,
In the step of detecting the visual field information of the audience, detecting the visual field information of the audience based on the posture information of the smart device
A relay method for virtual reality games.
KR1020200077793A 2020-06-25 2020-06-25 Method for broadcasting virtual reality game and virtual reality system for performing the same KR102433085B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200077793A KR102433085B1 (en) 2020-06-25 2020-06-25 Method for broadcasting virtual reality game and virtual reality system for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200077793A KR102433085B1 (en) 2020-06-25 2020-06-25 Method for broadcasting virtual reality game and virtual reality system for performing the same

Publications (2)

Publication Number Publication Date
KR20220000165A true KR20220000165A (en) 2022-01-03
KR102433085B1 KR102433085B1 (en) 2022-08-17

Family

ID=79348399

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200077793A KR102433085B1 (en) 2020-06-25 2020-06-25 Method for broadcasting virtual reality game and virtual reality system for performing the same

Country Status (1)

Country Link
KR (1) KR102433085B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180311585A1 (en) * 2017-04-28 2018-11-01 Sony Interactive Entertainment Inc. Second Screen Virtual Window Into VR Environment
KR101929504B1 (en) * 2017-12-12 2018-12-14 주식회사 에프에이치엘게임즈 Broadcasting service system for electronic sports based on virtual reality
KR20200056791A (en) * 2018-11-15 2020-05-25 한국전자통신연구원 Apparatus and method for generating augmented image based on multiple image maker

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180311585A1 (en) * 2017-04-28 2018-11-01 Sony Interactive Entertainment Inc. Second Screen Virtual Window Into VR Environment
KR101929504B1 (en) * 2017-12-12 2018-12-14 주식회사 에프에이치엘게임즈 Broadcasting service system for electronic sports based on virtual reality
KR20200056791A (en) * 2018-11-15 2020-05-25 한국전자통신연구원 Apparatus and method for generating augmented image based on multiple image maker

Also Published As

Publication number Publication date
KR102433085B1 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
US10857455B2 (en) Spectator management at view locations in virtual reality environments
TWI786701B (en) Method and system for eye tracking with prediction and late update to gpu for fast foveated rendering in an hmd environment and non-transitory computer-readable medium
US9728011B2 (en) System and method for implementing augmented reality via three-dimensional painting
CN106664401B (en) System and method for providing a user feedback when interacting with content
CN108292490B (en) Display control device and display control method
US20180304153A1 (en) Image generating device, method of controlling image generating device, display system, image generation control program, and computer-readable storage medium
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
US9317956B2 (en) Apparatus and method for providing mixed reality contents for learning through story-based virtual experience
US20040041822A1 (en) Image processing apparatus, image processing method, studio apparatus, storage medium, and program
US20180373328A1 (en) Program executed by a computer operable to communicate with head mount display, information processing apparatus for executing the program, and method executed by the computer operable to communicate with the head mount display
US20180196506A1 (en) Information processing method and apparatus, information processing system, and program for executing the information processing method on computer
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
CN105378596A (en) Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
WO2009117450A1 (en) Enhanced immersive soundscapes production
US20190005732A1 (en) Program for providing virtual space with head mount display, and method and information processing apparatus for executing the program
CN114502921A (en) Spatial instructions and guidance in mixed reality
JP6470859B1 (en) Program for reflecting user movement on avatar, information processing apparatus for executing the program, and method for distributing video including avatar
CN103785169A (en) Mixed reality arena
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP6248219B1 (en) Information processing method, computer, and program for causing computer to execute information processing method
JP2018147465A (en) Information processing method, device, and program for causing computer to execute the method
KR102358997B1 (en) The service platform for multi-user supporting extended reality experience
KR102433085B1 (en) Method for broadcasting virtual reality game and virtual reality system for performing the same
JP6263292B1 (en) Information processing method, computer, and program for causing computer to execute information processing method
KR102433080B1 (en) Player location-based lighting production method for virtual reality game and virtual reality system for performing the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant