KR102636728B1 - Performance Media Content Providing System Combining Interactive VR Technology - Google Patents

Performance Media Content Providing System Combining Interactive VR Technology Download PDF

Info

Publication number
KR102636728B1
KR102636728B1 KR1020230160970A KR20230160970A KR102636728B1 KR 102636728 B1 KR102636728 B1 KR 102636728B1 KR 1020230160970 A KR1020230160970 A KR 1020230160970A KR 20230160970 A KR20230160970 A KR 20230160970A KR 102636728 B1 KR102636728 B1 KR 102636728B1
Authority
KR
South Korea
Prior art keywords
screen
unit
output
content
rendering
Prior art date
Application number
KR1020230160970A
Other languages
Korean (ko)
Inventor
배진희
Original Assignee
주식회사 앰버린
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 앰버린 filed Critical 주식회사 앰버린
Priority to KR1020230160970A priority Critical patent/KR102636728B1/en
Application granted granted Critical
Publication of KR102636728B1 publication Critical patent/KR102636728B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)

Abstract

본 발명은 3차원게임엔진을 기반으로 한 공연미디어 콘텐츠 제공 시스템에 관한 것으로 구체적으로는 3차원게임엔진을 기반으로 하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공하는 것이다.
본 발명은 3차원게임엔진을 기반으로하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공함으로서 현실 세계와 가상 세계를 융합시킨 새로운 공간에서 환경에 구애받지 않고 공연 미디어 콘텐츠를 즐길 수 있도록 하는 효과가 있다.
The present invention relates to a performance media content provision system based on a 3D game engine. Specifically, it provides performance media content combining XR technology based on a 3D game engine.
The present invention provides performance media content that combines XR technology based on a 3D game engine, and has the effect of allowing performance media content to be enjoyed regardless of the environment in a new space that fuses the real world and the virtual world.

Description

인터렉티브 VR 기술이 결합된 공연미디어 콘텐츠 제공 시스템{Performance Media Content Providing System Combining Interactive VR Technology}Performance media content provision system combining interactive VR technology {Performance Media Content Providing System Combining Interactive VR Technology}

본 발명은 공연미디어 콘텐츠 제공 시스템에 관한 것으로 구체적으로는 3차원게임엔진을 기반으로 하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공하는 것이다. The present invention relates to a performance media content provision system. Specifically, it provides performance media content combining XR technology based on a 3D game engine.

AR은 실제 세계에 부가적인 정보를 띄워 현실을 증강하는 개념으로, 현실을 투영한 채 그 위에 3D 콘텐츠를 덧입혀 보여주는 방식으로 구현하는 방식이다. VR은 시뮬레이션 환경을 만들기 위해 컴퓨터 기술을 사용하는 것으로, 사용자의 시야를 완벽히 차단하고 가상으로 만든 세계만 경험하게 하게 한다. MR혼합현실은 실시간 렌더링 콘텐츠를 실제 오브제나 인물의 주변과 바닥 스크린에 배치해, 물이 공간에 몰입할 수 있는 풍부한 가상 환경을 조성하는 것이다. XR은 VR, AR, MR을 아우르는 것으로 미래에 등장할 또 다른 형태의 현실도 다 포함할 수 있는 용어로 쓰인다.AR is a concept that augments reality by displaying additional information in the real world. It is implemented by projecting reality and displaying 3D content on top of it. VR uses computer technology to create a simulation environment, completely blocking the user's view and allowing them to experience only a virtual world. MR mixed reality places real-time rendering content around real objects or people and on the floor screen, creating a rich virtual environment where people can immerse themselves in the water space. XR encompasses VR, AR, and MR and is used as a term that can also include other forms of reality that will appear in the future.

초고속, 초연결, 초저지연을 특징으로 하는 5G 시대가 본격적으로 열리게 되었고 VR, AR, MR을 포괄하는 XR 시장은 LIVE 형태로 보다 빠르게 가상의 세계를 시청자에게 전달하고, 시청자가 그 상황에 집중하여 몰입할 수 있으며 실감 나는 경험을 할 수 있다. 온,오프라인 콘텐츠와 연계했을 때 표현의 한계가 없어지고 인터렉티브 미디어 아트와의 연계성 또한 자유롭다.The 5G era, characterized by ultra-high speed, ultra-connectivity, and ultra-low latency, has begun in earnest, and the XR market, which encompasses VR, AR, and MR, delivers the virtual world to viewers more quickly in LIVE format and allows viewers to focus on the situation and You can immerse yourself and have a realistic experience. When linked with online and offline content, there are no limits to expression and connectivity with interactive media art is also free.

앞으로 사람들은 현실 세계와 가상 세계를 융합시킨 새로운 공간에서 환경에 구애받지 않고 기술에 얽매이지 않는 매끄러운 방식으로 상호작용할 것으로 예측되며 이에 따라 공연미디어 업계에서도 가상 세계와 융합시킨 기술을 개발하고 있으나 아직 이에 대한 기술이 미흡한 실정이다.In the future, it is predicted that people will interact in a new space that fuses the real world and the virtual world in a smooth way that is not limited by the environment or technology. Accordingly, the performance media industry is also developing technology that fuses the virtual world, but this is not yet possible. The technology for this is insufficient.

한국등록특허공보 제10-183927호 (2018.03.09)Korean Patent Publication No. 10-183927 (2018.03.09)

본 발명의 목적은 3차원게임엔진을 기반으로하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공함으로서 현실 세계와 가상 세계를 융합시킨 새로운 공간에서 환경에 구애받지 않고 공연 미디어 콘텐츠를 즐길 수 있도록 하기 위한 것이다.The purpose of the present invention is to provide performance media content that combines XR technology based on a 3D game engine, so that performance media content can be enjoyed regardless of the environment in a new space that fuses the real world and the virtual world. .

상기와 같은 문제를 해결하기 위해 본 발명은 카메라로부터 촬영된 촬영데이터를 수신하고, 3차원게임엔진부(120)로 제공하여 생성된 3차원 가상생성물과 설정된 대상 간에 인터랙션을 수행하고, 스크린연출출력부(700)에 출력될 공연컨텐츠를 제작하기 위한 증강현실스크린출력관리서버(100)와, 송출될 위치에 구축되어 증강현실스크린출력관리서버(100)로부터 렌더링된 결과물을 수신하여 스크린연출출력부(700)에 공연콘텐츠를 송출하기 위한 통신망(200)과,스크린연출출력부(700)를 포함하는 실공간 내에 설정된 대상을 촬영하기 위한 카메라(300)와, 적외선을 이용한 위치추적방식을 통해 설정된 대상의 위치를 트래킹하기 위한 카메라트래킹부(400)와,스크린연출출력부(700)의 일측에 위치하는 조명(600)과,통신망(200)를 통해 증강현실스크린출력관리서버(100)에 의해 구현된 공연콘텐츠를 전송받아 출력되기 위한 스크린연출출력부(700)를 포함하고, 상기 증강현실스크린출력관리서버(100)는 카메라로부터 촬영된 촬영데이터를 수신받고, 공간 확장이 가능하도록 하기 위해 공간 증강을 위한 인터렉티브 VR을 제공하기 위한 3차원게임엔진부(120)를 포함하는 것을 특징으로 하는 3차원게임엔진을 기반으로 한 공연미디어 컨텐츠 제공 시스템을 제공한다.In order to solve the above problems, the present invention receives shooting data captured from a camera, provides it to the 3D game engine unit 120, performs interaction between the generated 3D virtual creation and the set target, and produces a screen rendering output. An augmented reality screen output management server 100 for producing performance content to be output to the unit 700, and a screen production output unit configured to receive the rendered result from the augmented reality screen output management server 100 and constructed at a location to be transmitted. A communication network 200 for transmitting performance content to (700), a camera 300 for photographing a target set in real space including a screen production output unit 700, and a camera 300 set through a location tracking method using infrared rays. By the camera tracking unit 400 for tracking the location of the target, the lighting 600 located on one side of the screen rendering output unit 700, and the augmented reality screen output management server 100 through the communication network 200. It includes a screen rendering and output unit 700 for receiving and outputting the implemented performance content, and the augmented reality screen output management server 100 receives shooting data taken from a camera and provides space to enable space expansion. A performance media content provision system based on a 3D game engine is provided, which includes a 3D game engine unit 120 for providing interactive VR for augmentation.

본 발명은 3차원게임엔진을 기반으로하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공함으로서 현실 세계와 가상 세계를 융합시킨 새로운 공간에서 환경에 구애받지 않고 공연 미디어 콘텐츠를 즐길 수 있도록 하는 효과가 있다.The present invention provides performance media content that combines XR technology based on a 3D game engine, and has the effect of allowing performance media content to be enjoyed regardless of the environment in a new space that fuses the real world and the virtual world.

도 1은 본 발명의 전체적인 구성을 나타낸 구성도이다.
도 2는 본 발명의 증강현실스크린출력관리서버(100)의 구성을 나타낸 도면이다.
도 3은 본 발명의 전체적인 구성을 도식화한 도면이다.
도 4 및 도 5는 본 발명의 실시예를 나타낸 도면이다.
1 is a configuration diagram showing the overall configuration of the present invention.
Figure 2 is a diagram showing the configuration of the augmented reality screen output management server 100 of the present invention.
Figure 3 is a diagram schematizing the overall configuration of the present invention.
Figures 4 and 5 are diagrams showing an embodiment of the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Terms and words used in this specification and claims should not be construed as limited to their usual or dictionary meanings, and the inventor may appropriately define the concept of terms to explain his or her invention in the best way. It must be interpreted as meaning and concept consistent with the technical idea of the present invention based on principles.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

본 발명은 3차원게임엔진을 기반으로 한 공연미디어 콘텐츠 제공 시스템에 관한 것으로 구체적으로는 3차원게임엔진을 기반으로 하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공하는 것이다. The present invention relates to a performance media content provision system based on a 3D game engine. Specifically, it provides performance media content combining XR technology based on a 3D game engine.

상기 게임엔진은 PC에서 비디오 게임 등의 게임을 구동시키기 위해 필요한 실시간 그래픽 표시 기능을 갖추어 상호 작용 응용 프로그램을 구현하는 핵심 소프트웨어이다.The game engine is core software that implements interactive applications with real-time graphic display functions necessary to run games such as video games on a PC.

도 1은 본 발명의 전체적인 구성을 나타낸 구성도로서 본 발명은 증강현실스크린출력관리서버(100), 통신망(200), 카메라(300), 카메라트래킹부(400), 증강현실장비(500), 조명(600), 스크린연출출력부(700)를 포함하여 구성된다.Figure 1 is a configuration diagram showing the overall configuration of the present invention. The present invention includes an augmented reality screen output management server 100, a communication network 200, a camera 300, a camera tracking unit 400, an augmented reality equipment 500, It is comprised of lighting 600 and a screen display output unit 700.

각 구성요소를 구체적으로 설명하면 다음과 같다.Each component is described in detail as follows.

증강현실스크린출력관리서버(100)는 카메라(300)로부터 촬영된 촬영데이터를 수신하고, 3차원게임엔진부(120)로 제공하여 생성된 3차원 가상생성물과 설정된 대상 간에 인터랙션을 수행하고, 스크린연출출력부(700)에 출력될 콘텐츠를 제작하기 위한 것이다.The augmented reality screen output management server 100 receives the captured data from the camera 300, provides it to the 3D game engine unit 120, performs interaction between the generated 3D virtual creation and the set target, and displays the data on the screen. This is to produce content to be output to the production output unit 700.

상기 카메라(300)로부터 촬영된 촬영데이터는 실공간에 대한 실공간인식정보, 설정된 대상 인식정보, 설정된 대상 움직임정보 등을 포함하는 데이터이다.The shooting data captured by the camera 300 is data including real space recognition information about real space, set target recognition information, and set target movement information.

도 2는 본 발명의 증강현실스크린출력관리서버(100)의 구성을 나타낸 도면이다. Figure 2 is a diagram showing the configuration of the augmented reality screen output management server 100 of the present invention.

상기 증강현실스크린출력관리서버(100)는 기본정보입력부(110), 3차원게임엔진부(120), 스크린출력설정부(130), 렌더링부(140), 조명제어부(150)를 포함하여 구성된다.The augmented reality screen output management server 100 includes a basic information input unit 110, a 3D game engine unit 120, a screen output setting unit 130, a rendering unit 140, and a lighting control unit 150. do.

기본정보입력부(110)는 스크린연출출력부(700)로 스크린출력을 하기 위한 콘텐츠기본정보를 입력받기 위한 것이다.The basic information input unit 110 is used to receive basic content information for screen output to the screen rendering output unit 700.

상기 콘텐츠기본정보는 행사 및 공연 기본 정보, 콘텐츠 컨셉, 종류, 시놉시스, 행사의 주 콘텐츠가 되는 영상 및 오디오 데이터 등을 포함하는 정보이다.The basic content information includes basic event and performance information, content concept, type, synopsis, and video and audio data that become the main content of the event.

3차원게임엔진부(120)는 카메라로부터 촬영된 촬영데이터를 수신받고, 공간 확장이 가능하도록 하기 위해 공간 증강을 위한 인터렉티브 VR을 제공하기 위한 것이다.The 3D game engine unit 120 is intended to receive shooting data captured from a camera and provide interactive VR for space augmentation to enable space expansion.

상기 3차원게임엔진부(120)는 바람직하게는 언리얼 엔진으로서, 퍼픽셀 라이팅, 퍼픽셀 스펙큘러, HDR 렌더링의 최신 광원효과와, 실제 현실속에서 주고 받는 명함느낌이 나도록 부드럽고 사실적인 물리적인 특성에 기반하는 머터리얼시스템과, 지속적인 업데이트, 다양한 기술지원, 언리얼 개발자간의 네트워크 지원, 뛰어난 개발도구들을 제공하고, 엔진의 구성이 유연해서 여러 기술을 조합하고 확장시킬 수 있도록 구성된다.The 3D game engine unit 120 is preferably an Unreal Engine, and has the latest light source effects such as perpixel lighting, perpixel specular, and HDR rendering, and soft and realistic physical characteristics to create the feeling of business cards being exchanged in real life. It provides a material system based on , continuous updates, various technical support, network support between Unreal developers, and excellent development tools, and the engine configuration is flexible so that various technologies can be combined and expanded.

인터렉티브 VR(Interactive VR)은 언리얼엔진은 이용함으로써 운영체제(Operation System)와의 연동이 간편하며 실시간으로 수정할 수 있도록 하는 것이다.Interactive VR uses Unreal Engine to easily link with the operating system and allow for real-time modifications.

특히, 상기 게임엔진은 대부분의 운영체제와 호환이 되어 간편하게 연동할 수 있어 연동시간이 단축되며, 실시간 수정이 가능함에 따라 시간이 수정시간이 단축된다. In particular, the game engine is compatible with most operating systems and can be easily linked, shortening the linking time, and editing time is shortened as real-time editing is possible.

그러므로 상기 인터렉티브 VR(Interactive VR)를 통해 연동시간과 수정시간이 단축됨에 따라 제작시간을 단축할 수 있는 것이다.Therefore, the production time can be shortened as the linking time and modification time are shortened through the interactive VR.

상기 인터렉티브 VR(Interactive VR)은 단계별로 인터렉티브를 하며, 시각적이며 행동적인 인터렉티브를 인터렉티브 디바이스(Interactive Device)를 통해 부가함으로써, 확장성이 매우 높다. The Interactive VR is interactive in stages and has very high scalability by adding visual and behavioral interactivity through an interactive device.

스크린출력설정부(130)는 3차원 공간 내에 생성될 콘텐츠를 스크린연출출력부(700)의 스크린으로 출력하기 위해 구현된 콘텐츠를 실제 송출될 위치와 동일한 스크린의 공간으로 구현되도록 세팅하기 위한 것이다.The screen output setting unit 130 is used to output content to be generated in a three-dimensional space to the screen of the screen production output unit 700, and to set the implemented content to be implemented in the same screen space as the actual location to be transmitted.

상기 스크린출력설정부(130)에서 구현된 콘텐츠는 3D 또는 2D 형태 모두 가능하도록 형성되는 것이며, 콘텐츠 내에 세팅공간구현, 화각구현, 관점설정 등의 요소가 포함되어 구현될 수 있다.The content implemented in the screen output setting unit 130 can be formed in either 3D or 2D form, and can be implemented by including elements such as setting space implementation, viewing angle implementation, and viewpoint setting within the content.

상기 스크린출력설정부(130)는 3차원공간생성부(131), 콘텐츠스크린구현부(132), 스크린구현세팅부(133)를 포함하여 구성된다.The screen output setting unit 130 includes a three-dimensional space creation unit 131, a content screen implementation unit 132, and a screen implementation setting unit 133.

3차원공간생성부(131)는 스크린연출출력부(700)의 스크린과 동일한 공간으로 모델링한 3차원공간을 생성하기 위한 것이다.The three-dimensional space creation unit 131 is used to create a three-dimensional space modeled as the same space as the screen of the screen rendering and output unit 700.

즉 3차원공간생성부(131)는 추출된 정보를 가져와 3차원 그래픽 툴을 이용하여 실제 스크린을 3차원 공간으로 재구성하거나, 전시공간에 해당되는 미디어 스크린의 설계도면 파일을 생성하여 3차원 그래픽 툴을 이용하여 실제 스크린과 동일한 공간으로 구현한다. 여기서, 3차원 공간은 실제 스크린 그대로를 축소하여 재구성하여 모델링한 가상 공간이다.That is, the 3D space creation unit 131 takes the extracted information and reorganizes the actual screen into a 3D space using a 3D graphic tool, or generates a design drawing file of the media screen corresponding to the exhibition space and uses a 3D graphic tool. It is implemented in the same space as the actual screen using . Here, the 3D space is a virtual space modeled by reducing and reconstructing the actual screen.

3차원공간은 실제 스크린과 동일한 형상과 공간, 비율로 생성된 가상의 객체로서, 카메라(300)로부터 촬영된 촬영데이터로부터 공간값을 분석하여 생성되는 가상의 공간이다.The three-dimensional space is a virtual object created with the same shape, space, and ratio as the actual screen, and is a virtual space created by analyzing spatial values from shooting data captured by the camera 300.

콘텐츠스크린구현부(132)는 3차원공간 내에 생성될 콘텐츠를 스크린연출출력부(700)에 적용하는 경우와 동일한 조건으로 구현하기 위한 것이다.The content screen implementation unit 132 is intended to implement the content to be created in a three-dimensional space under the same conditions as when applying it to the screen rendering and output unit 700.

스크린구현세팅부(133)는 구현된 콘텐츠를 실제 송출될 위치와 동일한 스크린(스크린연출출력부(700))의 공간으로 구현되도록 세팅하기 위한 것이다.The screen presentation setting unit 133 is used to set the implemented content to be implemented in the same screen space (screen presentation output unit 700) as the actual location to be transmitted.

상기 스크린구현세팅부(133)는 구현된 콘텐츠를 실제 송출 위치와 동일한 공간을 구현하기 위한 세팅이 완료되면, 현재 스크린에 세팅된 조건을 검출하고, 미리 설정된, 콘텐츠가 송출될 실제 환경과 동일한 공간을 조성하기 위해 요구되는 세팅 조건(예컨대, 화각, 뷰포인트, 공간 등)에 만족하는가를 판단하고, 상기 세팅 조건에 만족되지 않는 조건을 검출할 수 있다. When the setting for implementing the implemented content in the same space as the actual transmission location is completed, the screen implementation setting unit 133 detects the conditions currently set on the screen and preset the same space as the actual environment where the content will be transmitted. It is possible to determine whether the setting conditions (eg, angle of view, viewpoint, space, etc.) required to create are satisfied, and to detect conditions that do not satisfy the setting conditions.

만약 세팅조건에 만족되지 않는 조건이 검출되면, 재조정 요구 알림정보를 사용자에 제공하고, 스크린에 만족되지 않는 조건을 출력할 수 있다.If a condition that does not satisfy the setting conditions is detected, readjustment request notification information may be provided to the user, and the unsatisfied condition may be displayed on the screen.

상기 스크린구현세팅부(133)는 콘텐츠우선순위설정기능(133a), 데이터변환기능(133b)을 포함한다.The screen implementation setting unit 133 includes a content priority setting function 133a and a data conversion function 133b.

콘텐츠우선순위설정기능(133a)은 VR 콘텐츠로 구성 및 제작될 타겟 데이터를 설정하고, 설정한 타겟 데이터에 대한 콘텐츠 우선순위를 설정하기 위한 것이다.The content priority setting function 133a is used to set target data to be composed and produced as VR content and to set content priorities for the set target data.

데이터변환기능(133b)은 오디오 데이터를 비주얼 데이터로 변환하기 위한 것이다.The data conversion function 133b is for converting audio data into visual data.

구체적으로는 데이터변환기능(133b)은 오디오데이터 및 외부 환경에 대한 정보에 기초하여, 기 분류된 비주얼데이터 카테고리 중 상기 오디오데이터에 대응되는 비주얼데이터 카테고리 내에 속한 적어도 하나의 비주얼데이터를 선택하여 오디오데이터를 비주얼데이터로 변환할 수 있다.Specifically, the data conversion function 133b selects at least one visual data belonging to the visual data category corresponding to the audio data from among the pre-classified visual data categories based on the audio data and information about the external environment to convert the audio data into audio data. can be converted into visual data.

또한 데이터변환기능(133b)의 기 분류된 비주얼데이터 카테고리는 오디오데이터의 장르를 기반으로 분류된 제1 카테고리들을 포함하고, 상기 제1 카테고리들 각각은, 외부 환경을 기반으로 분류된 제2 카테고리들을 포함할 수 있다.In addition, the pre-classified visual data category of the data conversion function 133b includes first categories classified based on the genre of the audio data, and each of the first categories includes second categories classified based on the external environment. It can be included.

예를 들면 오디오데이터는 주파수영역별로 소리를 색인화하여 장르를 분류할 수 있으며, 장르로 분류된 오디오데이터를 기반으로 비주얼데이터를 특정 카테고리들로 사전에 분류할 수 있다.For example, audio data can be classified into genres by indexing sounds by frequency domain, and visual data can be pre-classified into specific categories based on audio data classified by genre.

상기 스크린구현세팅부(133)는 설정값변경기능(133c)을 더 포함하며, 다수개가 설치된 스크린연출출력부(700)를 통해 출력되는 각 콘텐츠의 위치별 방문자유지수치를 설정된 시간대별로 [수학식 1] 을 통하여 계산함으로서 어느 시간대에 일관성 있게 방문자들이 방문하는지 여부를 판단할 수 있다. 이를 통해 특정 시간대의 방문자유지수치가 사전에 설정된 방문자유지수치의 기준값보다 낮은 기준값을 가지는 시간대에 대한 데이터를 저장하고, 저장된 데이터들을 분석하여 설정된 기준값보다 낮은 방문자유지수치를 가진 시간대가 소정 횟수 이상 발생하는 경우 해당 시간대의 콘텐츠를 다른 콘텐츠로 변경할 수 있다.The screen implementation setting unit 133 further includes a setting value change function 133c, and the visitor retention value for each location of each content output through a plurality of installed screen presentation output units 700 is calculated according to the set time period [Equation 1] By calculating through , it is possible to determine whether visitors consistently visit at any given time. Through this, data about time zones in which the visitor retention value of a specific time zone has a lower standard value than the preset standard value of the visitor retention value is stored, and the saved data is analyzed to generate time zones with a visitor retention value lower than the set standard value more than a certain number of times. In this case, the content in that time zone can be changed to other content.

Figure 112023128920090-pat00001
Figure 112023128920090-pat00001

(여기서, G는 방문자유지수치, K는 스크린연출출력부(700)의 전체 개수, Dm은 m번째 스크린연출출력부(700)의 방문자밀집도측정값, Da는 산출된 모든 방문자밀집도측정값의 평균을 나타낸다.)(Here, G is the visitor retention value, K is the total number of screen rendering output units 700, D m is the visitor density measurement value of the mth screen rendering output unit 700, and D a is all calculated visitor density measurement values. represents the average.)

이러한 방문자유지수치는 설정된 시간간격마다 각 스크린연출출력부(700)가 위치하는 위치에 방문하는 방문객의 방문밀집정보를 저장하고, 저장된 방문밀집정보의 분산을 구한 뒤 분산이 작을수록 일관성 있게 방문객이 유지되는 것으로 판정하고, 분산이 클수록 일관성이 없게 방문객이 유지되는 것으로 판단할 수 있다. These visitor retention figures are calculated by storing the visit density information of visitors visiting the location of each screen display output unit 700 at each set time interval, calculating the variance of the stored visit density information, and the smaller the variance, the more consistent the number of visitors. It can be determined that it is maintained, and the larger the variance, the more inconsistently the visitors are maintained.

또한 이는 공연 공간이 여러 군데인 경우에 각각 설치된 스크린연출출력부(700)에서 적용되는 것이 바람직하며 방문자가 유동적으로 이동할 수 있는 경우에 적용될 수 있으나 이의 공간적 요소 등을 제한하지 않는다.In addition, this is preferably applied in the case where there are multiple performance spaces, each installed screen production output unit 700, and can be applied in the case where visitors can move fluidly, but does not limit the spatial elements.

예를 들면, For example,

1) 측정시간대가 A 시간대이고, 스크린연출출력부(700)의 전체 개수가 3개이고, 1번째 스크린연출출력부(700)의 방문자밀집도측정값은 5, 2째 스크린연출출력부(700)의 방문자밀집도측정값은 4, 3번째 스크린연출출력부(700)의 방문자밀집도측정값은 4, 산출된 모든 방문자밀집도측정값의 평균은 4.5 인 경우,1) The measurement time zone is time zone A, the total number of screen presentation output units 700 is 3, the visitor density measurement value of the first screen presentation output unit 700 is 5, and the visitor density measurement value of the second screen presentation output unit 700 is 5. If the visitor density measurement value is 4, the visitor density measurement value of the third screen display output unit 700 is 4, and the average of all calculated visitor density measurement values is 4.5,

Figure 112023128920090-pat00002
Figure 112023128920090-pat00002

방문자유지수치G는 26.7이다.The visitor retention figure G is 26.7.

2) 측정시간대가 B 시간대이고, 스크린연출출력부(700)의 전체 개수가 3개이고, 1번째 스크린연출출력부(700)의 방문자밀집도측정값은 5, 2째 스크린연출출력부(700)의 방문자밀집도측정값은 3, 3번째 스크린연출출력부(700)의 방문자밀집도측정값은 5, 산출된 모든 방문자밀집도측정값의 평균은 4.2 인 경우2) The measurement time zone is time zone B, the total number of screen presentation output units 700 is 3, the visitor density measurement value of the first screen presentation output unit 700 is 5, and the visitor density measurement value of the second screen presentation output unit 700 is 5. The visitor density measurement value is 3, the visitor density measurement value of the third screen display output unit 700 is 5, and the average of all calculated visitor density measurement values is 4.2.

Figure 112023128920090-pat00003
Figure 112023128920090-pat00003

방문자유지수치G는 22.05이다.The visitor retention figure G is 22.05.

분산이 작을수록 방문자유지수치가 커지므로 높은 점수, 즉 높은 방문자유지수치로 판단할 수 있으며, 분산이 커질수록 방문자유지수치가 작아져 낮은 점수, 즉 방문자유지수치가 낮은 것으로 판단할 수 있다. The smaller the variance, the larger the visitor retention value, so it can be judged as a high score, i.e., a high visitor retention value. The larger the variance, the smaller the visitor retention value, so it can be judged as a low score, i.e., a low visitor retention value.

즉 1)과 2)의 결과를 비교하면 1)의 방문자유지수치가 더 높기 때문에 A시간대에 더 일관성있게 방문자가 유지되고 있는 것으로 확인할 수 있다.In other words, when comparing the results of 1) and 2), it can be confirmed that visitors are maintained more consistently in time zone A because the visitor retention value of 1) is higher.

렌더링부(140)는 스크린출력설정부(130)에 의해 세팅완료된 데이터를 렌더링하기 위한 것이다.The rendering unit 140 is for rendering data set by the screen output setting unit 130.

상기 렌더링부(140)는 생성된 연출이미지를 실시간으로 시뮬레이션하고 실제 영상과 통합할 수 있으며 이를 통해 결과물의 오류를 줄이고 완성도를 높이는 효과가 있다.The rendering unit 140 can simulate the generated directed image in real time and integrate it with the actual image, which has the effect of reducing errors and increasing completeness of the result.

조명제어부(150)는 조명(600)의 위치를 제어하기 위한 것으로 스크린구현세팅부(133) 내의 조명과 실제 조명인 조명(600)의 움직임을 일치화시키기 위한 것이다.The lighting control unit 150 is used to control the position of the lighting 600 and to match the movement of the lighting in the screen implementation setting unit 133 with the actual lighting, 600.

통신망(200)는 송출될 위치에 구축되어 증강현실스크린출력관리서버(100)로부터 렌더링된 결과물을 수신하여 스크린연출출력부(700)에 콘텐츠를 송출하기 위한 것이다.The communication network 200 is built at a location to be transmitted, receives the rendered result from the augmented reality screen output management server 100, and transmits the content to the screen rendering and output unit 700.

카메라(300)는 스크린연출출력부(700)를 포함하는 실공간 내에 설정된 대상을 촬영하기 위한 것이다.The camera 300 is used to photograph an object set in a real space including the screen rendering and output unit 700.

카메라트래킹부(400)는 카메라(300)의 일측에 위치하되 적외선을 이용한 위치추적방식을 통해 설정된 대상의 위치를 트래킹하기위한 것이다.The camera tracking unit 400 is located on one side of the camera 300 and is used to track the location of a set target through a location tracking method using infrared rays.

증강현실장비(500)은 사용자가 착용하는 것으로 스크린연출출력부(700)에 구현된 콘텐츠를 시각화하도록 하는 것이다. 상기 증강현실장비(500)는 통상적이 VR 장비, XR 장비 등을 포함하는 것으로 사용자가 착용하되 가상공간콘텐츠를 시각화할 수 있도록 하는 것이다.The augmented reality equipment 500 is worn by the user to visualize content implemented on the screen rendering and output unit 700. The augmented reality equipment 500 typically includes VR equipment, XR equipment, etc., and is worn by a user to visualize virtual space content.

조명(600)은 스크린연출출력부(700)의 일측에 위치하되 조명제어부(150)에 의해 제어되는 것이다. The lighting 600 is located on one side of the screen rendering and output unit 700 and is controlled by the lighting control unit 150.

상기 조명(600)은 인물에 그래픽과 인물의 색감을 맞추어 가상과 현실의 경계를 무너뜨리도록 하기 위해 형성되는 것이다. The lighting 600 is formed to match the graphics and colors of the person to break down the boundary between virtuality and reality.

스크린연출출력부(700)는 소정 크기의 스크린으로 형성되며 통신망(200)를 통해 스크린출력설정부(130)에 의해 구현된 콘텐츠를 전송받아 출력되기 위한 것이다. 상기 스크린연출출력부(700)는 소정 개수가 형성될 수 있으며 디스플레이 등 콘텐츠를 출력하기 위한 어떤 장비든 무관하다.The screen rendering and output unit 700 is formed as a screen of a predetermined size and is used to receive and output content implemented by the screen output setting unit 130 through the communication network 200. The screen presentation output unit 700 may be formed in a predetermined number and may be any device for outputting content, such as a display.

본 발명은 화재감지부(800)와 쿨링시스템(900)를 더 포함할 수 있다(도면 미도시됨).The present invention may further include a fire detection unit 800 and a cooling system 900 (not shown).

화재감지부(800)는 화재감지센서를 통해 증강현실스크린출력관리서버(100), 통신망(200), 카메라(300), 카메라트래킹부(400), 증강현실장비(500), 조명(600), 스크린연출출력부(700)의 온도를 측정하여 화재 감지 여부를 감지하기 위한 것이다.The fire detection unit 800 uses a fire detection sensor to detect the augmented reality screen output management server 100, communication network 200, camera 300, camera tracking unit 400, augmented reality equipment 500, and lighting 600. , This is to detect whether a fire is detected by measuring the temperature of the screen display output unit 700.

상기 화재감지부(800)는 [수학식 2]를 통하여 안전수치를 계산하고 계산된 안전수치가 기준 값 이상인 경우 쿨링시스템(900)의 작동하기 위한 작동신호를 쿨링시스템(900)으로 전송할 수 있다.The fire detection unit 800 calculates the safety value through [Equation 2], and when the calculated safety value is higher than the standard value, an operation signal for operating the cooling system 900 can be transmitted to the cooling system 900. .

Figure 112023128920090-pat00004
Figure 112023128920090-pat00004

(여기서, W는 안전수치, r은 기준수치, x는 안전도가중치, j는 기준값이하상측정횟수, t는 화재감지부(800)의 오작동빈도수, v는 화재감지부(800)의 작동횟수를 의미한다.)(Here, W is the safety value, r is the standard value, it means.)

여기서 기준수치는 안전수치의 만점이라고 간주되는 점수를 의미한다. 다시 말해 안전수치의 만점이 50점인 경우 기준수치는 50, 안전수치의 만점이 10점인 경우 기준수치는 10이 된다. 이는 본 발명의 시스템을 관리하는 사람에 의해 설정되는 안전수치의 만점이 기준수치로써 설정되며, 기준수치의 크기에는 제한을 두지 않는 것이 바람직하다.Here, the standard value refers to the score that is considered to be the perfect safety value. In other words, if the safety score is 50 points, the standard value is 50, and if the safety value is 10 points, the standard value is 10. This means that the perfect score of the safety value set by the person managing the system of the present invention is set as the standard value, and it is desirable that there is no limit to the size of the standard value.

또한 안전도가중치는 화재감지부(800)의 작동 상태이 정상적으로 일어나고 있을수록 1에 가까운 값을 나타내며, 화재감지부(800)의 고장 또는 오작동이 빈번한 경우 0에 가까운 값을 나타낸다. 이때 안전도가중치는 관리자에 의해 설정될 수 도 있으며 이에 대한 값은 제한을 두지 않는 것이 바람직하다.In addition, the safety weight indicates a value closer to 1 when the fire detection unit 800 is operating normally, and when failure or malfunction of the fire detection unit 800 occurs frequently, it shows a value closer to 0. At this time, the safety weight may be set by the administrator, and it is desirable not to limit its value.

화재감지부(800)의 작동횟수는 관리자에 의해 설정된 시간단위마다 화재감지센서가 작동된 횟수를 의미하며, 오작동빈도수는 화재감지센서가 오작동되는 빈도수를 의미하며, 기준값이하측정횟수는 관리자에 의해 설정된 온도보다 측정된 온도 값이 높았을때의 횟수를 의미한다.The operation frequency of the fire detection unit 800 refers to the number of times the fire detection sensor is activated per time unit set by the administrator, the malfunction frequency refers to the frequency with which the fire detection sensor malfunctions, and the number of measurements below the standard value is determined by the administrator. This refers to the number of times the measured temperature value was higher than the set temperature.

예를 들면 안전수치의 만점이 50이고, 기준수치가 50, 안전도가중치가 0.8, 화재감지부(800)로 측정된 온도의 기준값이하측정횟수가 15회, 화재감지부(800)의 오작동빈도수가 3회, 화재감지부(800)의 작동횟수가 30회인 경우 For example, the perfect score for the safety value is 50, the standard value is 50, the safety weight is 0.8, the number of times the temperature measured by the fire detection unit 800 is below the standard value is 15, and the frequency of malfunction of the fire detection unit 800 is 15. 3 times, when the number of operations of the fire detection unit (800) is 30 times

Figure 112023128920090-pat00005
Figure 112023128920090-pat00005

로 계산될 수 있다.It can be calculated as

상기 안전수치는 화재감지부(800)의 작동횟수 대비 기준값이하측정횟수가 높을수록, 오작동빈도수가 작을수록, 안전도가중치가 높을수록 높은 값을 가지게 된다.The safety value has a higher value as the number of measurements below the standard value is higher compared to the number of operations of the fire detection unit 800, the lower the malfunction frequency, and the higher the safety weight.

쿨링시스템(900)은 화재감지부(800)를 통하여 화재 감지 시 작동되는 것으로 화재를 방지하기 위해 설치될 수 있다.The cooling system 900 operates when a fire is detected through the fire detection unit 800 and can be installed to prevent fire.

상기 쿨링시스템(900)은 화재 시 작동되는 통상적인 쿨링시스템이어도 무방하며 이에 대한 구체적인 설명은 생략한다.The cooling system 900 may be a typical cooling system that operates in the event of a fire, and detailed description thereof will be omitted.

도 3은 본 발명의 전체적인 구성을 도식화한 도면이다. 이를 참고하면 4개의 조명(600)이 위치하고, 4개의 스크린연출출력부(700)인 LED가 형성될 수 있으며 카메라(300)와 카메라트래킹부(400)에 의해 트래킹된 정보를 증강현실스크린출력관리서버(100)로 전송되며 3차원게임엔진을 기반으로 하여 XR 기술을 결합시킨 공연미디어 콘텐츠를 제공받을 수 있다.Figure 3 is a diagram schematizing the overall configuration of the present invention. Referring to this, four lights 600 are located, four screen display output units 700, which are LEDs, can be formed, and the information tracked by the camera 300 and the camera tracking unit 400 can be managed to output an augmented reality screen. It is transmitted to the server 100 and can be provided with performance media content that combines XR technology and is based on a 3D game engine.

도 4는 스크린연출출력부(700)인 LED wall과 LED Floor의 예시도면이다.Figure 4 is an example diagram of the LED wall and LED floor, which are the screen display output unit 700.

도 5는 공연무대 연출시 본 발명의 시스템 중 카메라(300), 스크린연출출력부(700) 등의 구성요소가 위치하는 예시를 나타낸 도면이다.Figure 5 is a diagram showing an example of the location of components such as the camera 300 and the screen production output unit 700 in the system of the present invention when producing a performance stage.

이상과 같은 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.The embodiments described in the present specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention and do not represent the entire technical idea of the present invention, so various equivalents and modifications can be substituted for them. It should be understood that there may be examples.

100 증강현실스크린출력관리서버
110 기본정보입력부
120 3차원게임엔진부
130 스크린출력설정부
131 3차원공간생성부
132 콘텐츠스크린구현부
133 스크린구현세팅부
140 렌더링부
150 조명제어부
200 통신망
300 카메라
400 카메라트래킹부
500 증강현실장비
600 조명
700 스크린연출출력부
800 화재감지부
900 쿨링시스템
100 Augmented reality screen output management server
110 Basic information input unit
120 3D Game Engine Department
130 Screen output setting section
131 3D space creation unit
132 Content Screen Implementation Department
133 Screen Implementation Settings Department
140 Rendering Department
150 Lighting control unit
200 communication network
300 camera
400 Camera tracking unit
500 augmented reality equipment
600 lights
700 Screen production output unit
800 fire detection unit
900 cooling system

Claims (2)

카메라로부터 촬영된 촬영데이터를 수신하고, 3차원게임엔진부(120)로 제공하여 생성된 3차원 가상생성물과 설정된 대상 간에 인터랙션을 수행하고, 스크린연출출력부(700)에 출력될 공연컨텐츠를 제작하기 위한 증강현실스크린출력관리서버(100)와,
송출될 위치에 구축되어 증강현실스크린출력관리서버(100)로부터 렌더링된 결과물을 수신하여 스크린연출출력부(700)에 공연콘텐츠를 송출하기 위한 통신망(200)과,
스크린연출출력부(700)를 포함하는 실공간 내에 설정된 대상을 촬영하기 위한 카메라(300)와,
적외선을 이용한 위치추적방식을 통해 설정된 대상의 위치를 트래킹하기 위한 카메라트래킹부(400)와,
스크린연출출력부(700)의 일측에 위치하는 조명(600)과,
증강현실스크린출력관리서버(100)에 의해 구현된 공연콘텐츠를 통신망(200)를 통해 전송받아 출력되기 위한 스크린연출출력부(700)를 포함하고,

상기 증강현실스크린출력관리서버(100)는
스크린연출출력부(700)로 출력하기 위한 콘텐츠기본정보를 입력받기 위한 기본정보입력부(110)와,
카메라(300)로부터 촬영된 촬영데이터를 수신받고, 공간 확장이 가능하도록 하기 위해 공간 증강을 위한 인터렉티브 VR을 제공하기 위한 3차원게임엔진부(120)와,
3차원 공간 내에 생성될 콘텐츠를 스크린연출출력부(700)로 출력하기 위해 구현된 컨텐츠를 실제 송출될 위치와 동일한 스크린연출출력부(700)의 공간으로 구현되도록 세팅하기 위한 스크린출력설정부(130)와,
스크린출력설정부(130)에 의해 세팅완료된 데이터를 렌더링하기 위한 렌더링부(140)와,
조명(600)의 위치를 제어하기 위한 것으로 스크린구현세팅부(133) 내의 조명과 실제 조명인 조명(600)의 움직임을 일치화시키기 위한 조명제어부(150)를 포함하고,
상기 스크린출력설정부(130)는
스크린연출출력부(700)의 스크린과 동일한 공간으로 모델링한 3차원공간을 생성하기 위한 3차원공간생성부(131)와,
3차원공간 내에 생성될 콘텐츠를 스크린연출출력부(700)에 적용되는 조건과 동일한 조건으로 구현하기 위한 콘텐츠스크린구현부(132)와,
구현된 콘텐츠를 스크린연출출력부(700)으로 구현되도록 세팅하기 위한 스크린구현세팅부(133)를 포함하고,

상기 스크린구현세팅부(133)는
다수개가 설치된 스크린연출출력부(700)를 통해 출력되는 각 콘텐츠의 위치별 방문자유지수치를 설정된 시간대별로 [수학식 1] 을 통하여 계산함으로서 어느 시간대에 일관성 있게 방문자들이 방문하는지 여부를 판단하기 위한 설정값변경기능(133c)을 더 포함하며.

[수학식 1]은
Figure 112024006204271-pat00006

(여기서, G는 방문자유지수치, K는 스크린연출출력부(700)의 전체 개수, Dm은 m번째 스크린연출출력부(700)의 방문자밀집도측정값, Da는 산출된 모든 방문자밀집도측정값의 평균을 나타낸다.)
이고,

상기 [수학식 1]에 의해 계산된 방문자유지수치는 설정된 시간간격마다 각 스크린연출출력부(700)가 위치하는 위치에 방문하는 방문객의 방문밀집정보를 저장하고, 저장된 방문밀집정보의 분산을 구한 뒤 분산이 작을수록 일관성 있게 방문객이 유지되는 것으로 판정하고, 분산이 클수록 일관성이 없게 방문객이 유지되는 것으로 판단하는 것을 특징으로 하는 인터렉티브 VR 기술이 결합된 공연미디어 콘텐츠 제공 시스템.
Receives shooting data captured from the camera, provides it to the 3D game engine unit 120, performs interaction between the generated 3D virtual creation and the set target, and produces performance content to be output to the screen production output unit 700. An augmented reality screen output management server (100) for
A communication network (200) built at a location to be transmitted to receive the rendered results from the augmented reality screen output management server (100) and transmit the performance content to the screen production output unit (700);
A camera 300 for photographing a target set in real space including a screen rendering and output unit 700,
A camera tracking unit 400 for tracking the location of a target set through a location tracking method using infrared rays,
Lighting 600 located on one side of the screen display output unit 700,
It includes a screen production output unit 700 for receiving and output performance content implemented by the augmented reality screen output management server 100 through a communication network 200,

The augmented reality screen output management server 100 is
A basic information input unit 110 for receiving basic content information for output to the screen display output unit 700,
A 3D game engine unit 120 for receiving shooting data captured from the camera 300 and providing interactive VR for space augmentation to enable space expansion,
In order to output content to be created in a three-dimensional space to the screen rendering and output unit 700, a screen output setting unit 130 is configured to set the implemented content to be implemented in the same space of the screen rendering and output unit 700 as the actual location to be transmitted. )and,
A rendering unit 140 for rendering data set by the screen output setting unit 130,
To control the position of the lighting 600, it includes a lighting control unit 150 to match the movement of the lighting in the screen implementation setting unit 133 and the actual lighting, 600,
The screen output setting unit 130 is
a three-dimensional space creation unit 131 for generating a three-dimensional space modeled as the same space as the screen of the screen rendering and output unit 700;
a content screen implementation unit 132 for implementing content to be created in a three-dimensional space under the same conditions as those applied to the screen production output unit 700;
It includes a screen implementation setting unit 133 for setting the implemented content to be implemented as a screen presentation output unit 700,

The screen implementation setting unit 133 is
A setting for determining whether visitors consistently visit at any given time by calculating the visitor retention value for each location of each content output through a plurality of installed screen display output units 700 using [Equation 1] for each set time zone. It further includes a value change function (133c).

[Equation 1] is
Figure 112024006204271-pat00006

(Here, G is the visitor retention value, K is the total number of screen rendering output units 700, D m is the visitor density measurement value of the mth screen rendering output unit 700, and D a is all calculated visitor density measurement values. represents the average.)
ego,

The visitor retention value calculated by the above [Equation 1] stores the visitation density information of visitors visiting the location of each screen rendering output unit 700 at each set time interval, and calculates the distribution of the stored visitation density information. A performance media content provision system combined with interactive VR technology, characterized in that the smaller the variance, the more consistently visitors are determined to be maintained, and the larger the variance, the more inconsistently the visitors are determined to be maintained.
제1항에 있어서,
화재감지센서를 통해 증강현실스크린출력관리서버(100), 통신망(200), 카메라(300), 카메라트래킹부(400), 증강현실장비(500), 조명(600), 스크린연출출력부(700)의 온도를 측정하여 화재 감지 여부를 감지하기 위한 화재감지부(800)와,
화재감지부(800)를 통하여 화재 감지 시 작동되는 것으로 화재를 방지하기 위해 설치되는 쿨링시스템(900)을 더 포함하는 것을 특징으로 하는 인터렉티브 VR 기술이 결합된 공연미디어 콘텐츠 제공 시스템.
According to paragraph 1,
Through the fire detection sensor, the augmented reality screen output management server (100), communication network (200), camera (300), camera tracking unit (400), augmented reality equipment (500), lighting (600), and screen rendering output unit (700) ) a fire detection unit 800 for detecting whether a fire is detected by measuring the temperature of the
A performance media content providing system combined with interactive VR technology, characterized in that it further includes a cooling system (900) installed to prevent fire, which is activated when a fire is detected through the fire detection unit (800).
KR1020230160970A 2023-07-28 2023-11-20 Performance Media Content Providing System Combining Interactive VR Technology KR102636728B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230160970A KR102636728B1 (en) 2023-07-28 2023-11-20 Performance Media Content Providing System Combining Interactive VR Technology

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230099156A KR102605956B1 (en) 2023-07-28 2023-07-28 A system for providing performance media content based on a 3D game engine
KR1020230160970A KR102636728B1 (en) 2023-07-28 2023-11-20 Performance Media Content Providing System Combining Interactive VR Technology

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020230099156A Division KR102605956B1 (en) 2023-07-28 2023-07-28 A system for providing performance media content based on a 3D game engine

Publications (1)

Publication Number Publication Date
KR102636728B1 true KR102636728B1 (en) 2024-02-14

Family

ID=88972210

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020230099156A KR102605956B1 (en) 2023-07-28 2023-07-28 A system for providing performance media content based on a 3D game engine
KR1020230160970A KR102636728B1 (en) 2023-07-28 2023-11-20 Performance Media Content Providing System Combining Interactive VR Technology

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020230099156A KR102605956B1 (en) 2023-07-28 2023-07-28 A system for providing performance media content based on a 3D game engine

Country Status (1)

Country Link
KR (2) KR102605956B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0183927B1 (en) 1996-09-20 1999-04-15 삼성전자주식회사 Decoder
KR20220064140A (en) * 2020-11-11 2022-05-18 엔티콘 주식회사 Method and device for providing perfomance contents based on augmented reality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100863074B1 (en) * 2006-07-04 2008-10-13 한인호 System and method for mlultimedid contents service
KR102387314B1 (en) * 2013-03-11 2022-04-14 매직 립, 인코포레이티드 System and method for augmented and virtual reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0183927B1 (en) 1996-09-20 1999-04-15 삼성전자주식회사 Decoder
KR20220064140A (en) * 2020-11-11 2022-05-18 엔티콘 주식회사 Method and device for providing perfomance contents based on augmented reality

Also Published As

Publication number Publication date
KR102605956B1 (en) 2023-11-24

Similar Documents

Publication Publication Date Title
US11669152B2 (en) Massive simultaneous remote digital presence world
US10854007B2 (en) Space models for mixed reality
CN110419061B (en) Mixed reality system and method for generating virtual content using the same
CN100534158C (en) Generating images combining real and virtual images
US20060050069A1 (en) Virtual reality presentation device and information processing method
Gonçalves et al. Systematic review of comparative studies of the impact of realism in immersive virtual experiences
NL2002841A (en) Immersive collaborative environment using motion capture, head mounted display, and cave.
US11636655B2 (en) Artificial reality environment with glints displayed by an extra reality device
US20230260233A1 (en) Coordination of Interactions of Virtual Objects
Lugrin et al. CaveUDK: a VR game engine middleware
WO2020050103A1 (en) Virtual viewpoint control device and method for controlling same
CN115087945A (en) Systems, methods, and media for automatically triggering real-time visualization of a physical environment in artificial reality
CN117425870A (en) Dynamic mixed reality content in virtual reality
Hülsmann et al. Simulating wind and warmth in virtual reality: conception, realization and evaluation for a cave environment
KR102636728B1 (en) Performance Media Content Providing System Combining Interactive VR Technology
KR102609850B1 (en) Virtual reality-based audio and visual content production and exhibition systemsS
US11733772B2 (en) Viewing a virtual world through a virtual window
Nesamalar et al. An introduction to virtual reality techniques and its applications
KR102499247B1 (en) Goal-executors in synthetic reality settings
JP2017134492A (en) Image creation device, image creation method and image creation program
Newendorp et al. Configuring virtual reality displays in a mixed-reality environment for lvc training
Doğan et al. Augmentation of virtual agents in real crowd videos
B. Owen et al. Integrating the audience into a theatre performance using mobile devices
JP7138392B1 (en) Virtual space sensory system
Wąsowicz Representing Built Environments with Digital Tools: Problems with Human Perception

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant