KR102492989B1 - A digital theme park simulation device that provides a digital twin-based metaverse - Google Patents

A digital theme park simulation device that provides a digital twin-based metaverse Download PDF

Info

Publication number
KR102492989B1
KR102492989B1 KR1020210192824A KR20210192824A KR102492989B1 KR 102492989 B1 KR102492989 B1 KR 102492989B1 KR 1020210192824 A KR1020210192824 A KR 1020210192824A KR 20210192824 A KR20210192824 A KR 20210192824A KR 102492989 B1 KR102492989 B1 KR 102492989B1
Authority
KR
South Korea
Prior art keywords
digital
virtual
exhibition
projection
space
Prior art date
Application number
KR1020210192824A
Other languages
Korean (ko)
Inventor
이재운
정해운
Original Assignee
주식회사 닷밀
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 닷밀 filed Critical 주식회사 닷밀
Priority to KR1020210192824A priority Critical patent/KR102492989B1/en
Application granted granted Critical
Publication of KR102492989B1 publication Critical patent/KR102492989B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a digital theme park simulation device for providing a digital twin-based metaverse, which is to perform a digital theme park virtual simulation that provides a plurality of pieces of digital content including a metaverse to visitors. The digital theme park simulation device comprises: a modeling unit for creating a virtual model for a digital theme park and a digital content creation device in a virtual space; a projection mapping unit for performing pre-visualization of digital content provided to visitors through an exhibition space in the digital theme park; and a scenario simulation unit for creating a scenario for each digital content provided by the digital theme park and performing a simulation based on the created scenario and the virtual model.

Description

디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치{A digital theme park simulation device that provides a digital twin-based metaverse}A digital theme park simulation device that provides a digital twin-based metaverse

본 발명은 디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치에 관한 것으로서, 보다 상세하게는, 가상 공간을 이용하여 디지털 테마파크가 제공하는 디지털 콘텐츠를 시뮬레이션할 수 있는 디지털 콘텐츠 시뮬레이션 기술에 관한 것이다.The present invention relates to a digital theme park simulation device providing a digital twin-based metaverse, and more particularly, to a digital content simulation technology capable of simulating digital content provided by a digital theme park using a virtual space. will be.

최근 메타버스와 관련된 기술에 대한 관심 및 수요가 높아지고 있으며, 이에 따라, 메타버스를 실생활의 다양한 분야에 적용하기 위한 개발이 적극적으로 이루어지고 있다. 대표적으로, 게임 산업계에서는 서로 원격지에 위치한 유저들이 메타버스 공간을 이용한 협동 게임을 즐길 수 있도록 하는 신규 콘텐츠 보급을 목표로 하고 있다.Recently, interest and demand for technologies related to the metaverse are increasing, and accordingly, development to apply the metaverse to various fields in real life is being actively conducted. Representatively, the game industry aims to disseminate new content that allows users located in remote locations to enjoy cooperative games using the metaverse space.

한편, 메타버스 환경이 그 어떠한 목적으로 생성되었더라도 가상 공간에서의 활동이 현실과 완벽히 동기화되는 메타버스 환경은 구현하는데 오랜 시간이 소요될 수 있으며, 구현에 성공한다고 하더라도 실체가 있는 현실에는 다양한 제약이 존재하여 장기간 유지하기 어려운 문제가 있으므로, 완성도 높게 구현되었으면서도 누구나 언제든지 참여할 수 있는 디지털 문화 공간이 필요하다고 할 수 있다.On the other hand, even if the metaverse environment is created for any purpose, it may take a long time to implement a metaverse environment in which activities in the virtual space are perfectly synchronized with reality, and even if the implementation is successful, there are various limitations in the reality where there is substance. Therefore, there is a problem that is difficult to maintain for a long time, so it can be said that there is a need for a digital cultural space that is implemented with a high degree of completion and that anyone can participate at any time.

또한, 디지털 콘텐츠들을 제공하는 디지털 문화 공간을 조성하기 위해서는 메타버스 환경 개발에 따른 어려움뿐만 아니라, 현실 공간에 투입되는 장비 및 비용과 관련된 문제 또한 발생하게 되므로, 디지털 콘텐츠 제공을 위한 시설물 구현 및 시나리오 진행 등을 차질없게 하는 시뮬레이션이 선행될 필요가 있다.In addition, in order to create a digital cultural space that provides digital contents, not only difficulties arise due to the development of the metaverse environment, but also problems related to equipment and costs put into the real space, so implementation of facilities and scenarios for providing digital contents It is necessary to precede the simulation that makes the back go smoothly.

이에 본 발명의 발명자는 그런 문제점을 해결하기 위해서 오랫동안 연구하고 시행착오를 거치며 개발한 끝에 본 발명을 완성하기에 이르렀다.Accordingly, the inventor of the present invention has completed the present invention after long research and development through trial and error in order to solve such problems.

본 발명은 상술한 바와 같은 문제점을 해결하기 위해, 디지털 테마파크에서 제공되는 디지털 콘텐츠를 사전 시각화하고, 각 디지털 콘텐츠에 적용되는 시나리오를 미리 수행해볼 수 있는 디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치를 제공하는 것을 목적으로 한다.In order to solve the problems described above, the present invention is a digital theme park that provides a digital twin-based metaverse that can pre-visualize digital content provided in the digital theme park and perform scenarios applied to each digital content in advance. It is an object of the present invention to provide a simulation execution device.

상술한 문제점을 해결하기 위한 본 발명의 일 국면은, 메타버스를 포함하는 복수의 디지털 콘텐츠를 관람객에게 제공하는 디지털 테마파크에 대한 가상 시뮬레이션을 수행하기 위한 것으로서,One aspect of the present invention for solving the above problems is to perform a virtual simulation of a digital theme park that provides a plurality of digital contents including a metaverse to visitors,

가상 공간에 디지털 테마파크 및 디지털 콘텐츠 생성 장치에 대한 가상 모델을 생성하는 모델링부;a modeling unit for generating a virtual model for a digital theme park and a digital content generating device in a virtual space;

디지털 테마파크 내의 전시 공간을 통해 관람객에게 제공되는 디지털 콘텐츠에 대한 사전 시각화를 수행하는 프로젝션 맵핑부; 및A projection mapping unit that performs pre-visualization of digital content provided to visitors through an exhibition space in a digital theme park; and

디지털 테마파크에서 제공하는 디지털 콘텐츠 별 시나리오를 생성하고, 상기 생성된 시나리오 및 가상 모델에 기초하는 시뮬레이션을 수행하는 시나리오 시뮬레이션부를 포함한다.A scenario simulation unit for generating scenarios for each digital content provided by the digital theme park and performing simulation based on the generated scenarios and virtual models.

바람직한 실시예에서, 상기 모델링부는,In a preferred embodiment, the modeling unit,

상기 전시 공간, 상기 전시 공간에 디지털 콘텐츠를 생성하기 위한 영상 투사면 및 영상 투사 장치에 대한 가상 모델을 생성할 수 있다.A virtual model for the exhibition space, an image projection surface for generating digital content in the exhibition space, and an image projection device may be created.

바람직한 실시예에서, 상기 프로젝션 맵핑부는,In a preferred embodiment, the projection mapping unit,

가상 모델로서 생성된 영상 투사면 및 영상 투사 장치를 이용해 프로젝션 맵핑을 수행 가능하고, 프로젝션 맵핑 수행 과정을 시각화하여 출력하는 사용자 인터페이스를 사용자 단말로 제공할 수 있다.Projection mapping can be performed using the image projection surface and the image projection device created as a virtual model, and a user interface for visualizing and outputting the projection mapping process can be provided to the user terminal.

바람직한 실시예에서, 상기 시나리오 시뮬레이션부는,In a preferred embodiment, the scenario simulation unit,

상기 사전 시각화된 디지털 콘텐츠에 대한 시나리오 시뮬레이션을 수행하여, 시나리오 진행에 따라 관람객에게 제공되는 디지털 콘텐츠를 사용자 단말을 통해 확인할 수 있도록 한다.A scenario simulation is performed on the pre-visualized digital content so that the digital content provided to the audience can be checked through the user terminal according to the progress of the scenario.

바람직한 실시예에서, 상기 프로젝션 맵핑부는,In a preferred embodiment, the projection mapping unit,

디지털 콘텐츠를 상기 전시 공간에 위치한 현장 관람객의 시점에 기초하는 초실감 콘텐츠로 구현시키는 렌더링 수행 장치로부터, 디지털 콘텐츠에 대한 사전 시각화를 수행하기 위해 필요한 투사 영상을 제공받을 수 있다.A projection image necessary for pre-visualization of the digital content may be provided from a rendering device that implements the digital content as ultra-realistic content based on the viewpoint of an on-site visitor located in the exhibition space.

바람직한 실시예에서, 상기 렌더링 수행 장치는,In a preferred embodiment, the rendering execution device,

별도로 구현되는 가상 공간을 통해 영상 렌더링을 수행하는 것으로서,As performing image rendering through a separately implemented virtual space,

가상 공간에 3차원으로 구현되는 전시 객체를 생성하는 전시 객체 생성부;an exhibition object creation unit that creates a three-dimensional exhibition object in a virtual space;

가상 공간 상의 특정 위치에서 전시 객체를 촬영하기 위한 촬영 객체를 생성하는 촬영 객체 생성부;a photographing object creation unit generating a photographing object for photographing an exhibition object at a specific location in a virtual space;

가상 공간에서 촬영 객체가 촬영하는 장면이 출력되는 가상 투사면을 생성하는 가상 투사면 생성부;a virtual projection surface generating unit generating a virtual projection surface on which a scene captured by a photographing object is output in a virtual space;

가상 공간 상에 가상 투사면을 바라보는 관람 시점을 생성하는 관람 시점 생성부; 및a viewing viewpoint generating unit generating a viewing viewpoint looking at a virtual projection surface in a virtual space; and

상기 설정된 관람 시점에 기초하여 전시 객체를 리모델링하는 렌더링부를 포함하고,A rendering unit for remodeling an exhibition object based on the set viewing point of view;

상기 렌더링부는,The rendering unit,

상기 촬영 객체로부터 관람객에게 제공되어야 하는 기준 투사 영상을 전달받으며, 상기 생성된 관람 시점에서 가상 투사면을 바라보았을 때 상기 기준 투사 영상에 나타나는 전시 객체와 동질감을 갖는 전시 객체가 출력되도록 전시 객체를 리모델링할 수 있다.A reference projection image to be provided to the viewer is received from the photographing object, and the exhibition object is remodeled so that an exhibition object having a sense of identity with the exhibition object appearing in the reference projection image is output when looking at the virtual projection surface at the viewing point of view. can do.

본 발명은 디지털 테마파크에서 제공되는 디지털 콘텐츠를 사전 시각화하고, 각 디지털 콘텐츠에 적용되는 시나리오를 미리 수행해볼 수 있는 이점이 있다.The present invention has an advantage of pre-visualizing digital content provided in a digital theme park and performing scenarios applied to each digital content in advance.

본 발명은 디지털 테마파크에 포함되는 각 전시 공간의 구조물 및 전시 공간을 통해 제공되는 디지털 콘텐츠를 가상 공간에서 미리 구현함으로써, 추후 디지털 테마 파크를 조성하는데 소요되는 시간 및 비용을 최소화할 수 있는 효과가 있다.The present invention has the effect of minimizing the time and cost required to create a digital theme park later by implementing digital contents provided through the structure and exhibition space of each exhibition space included in the digital theme park in advance in a virtual space. .

본 발명은 관람객 시점에 따라 왜곡되지 않는 투사 영상을 이용하여 초실감 콘텐츠를 완성도 높게 구현할 수 있도록 하는 효과가 있다.The present invention has an effect of enabling ultra-realistic content to be implemented with a high level of perfection by using a projection image that is not distorted according to the viewer's point of view.

본 발명은 관람객 시점에 기초하여 전시 객체에 대한 렌더링을 실시간으로 수행할 수 있는 효과가 있다.The present invention has an effect of performing rendering of an exhibition object in real time based on a viewer's point of view.

도 1 및 도 2는 본 발명에 따른 디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치의 구성을 나타내는 블록도이다.
도 3 내지 도 5는 디지털 테마파크에서 제공되는 디지털 콘텐츠의 시뮬레이션 과정을 설명하기 위한 참조도이다.
도 6은 종래의 원근투영기법을 이용한 렌더링을 통해 제공되는 초실감 콘텐츠를 설명하기 위한 참조도이다.
도 7은 본 발명에 따른 렌더링 수행 시스템을 설명하기 위한 구성도이다.
도 8 및 도 9는 본 발명에 따른 렌더링 수행 장치의 구성을 나타내는 블록도이다.
도 10 및 도 11은 본 발명에 따른 촬영 객체에 의해 촬영되는 장면을 나타내는 참조도이다.
도 12는 본 발명에 따른 가상 투사면의 생성 예시를 설명하기 위한 참조도이다.
1 and 2 are block diagrams showing the configuration of a digital theme park simulation device providing a digital twin-based metaverse according to the present invention.
3 to 5 are reference diagrams for explaining a simulation process of digital content provided in a digital theme park.
6 is a reference diagram for explaining ultra-realistic content provided through rendering using a conventional perspective projection technique.
7 is a configuration diagram for explaining a rendering system according to the present invention.
8 and 9 are block diagrams showing the configuration of a rendering apparatus according to the present invention.
10 and 11 are reference views illustrating scenes captured by a capturing object according to the present invention.
12 is a reference diagram for explaining an example of generating a virtual projection surface according to the present invention.

본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다.In describing the present invention, a detailed description thereof will be omitted if it is determined that a related known function may unnecessarily obscure the subject matter of the present invention as it is obvious to those skilled in the art.

도 1 및 도 2는 본 발명에 따른 디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치(300)(이하, 시뮬레이션 수행 장치라 칭함)의 구성을 나타내는 블록도이다.1 and 2 are block diagrams showing the configuration of a simulation performing device 300 (hereinafter referred to as a simulation performing device) of a digital theme park that provides a digital twin-based metaverse according to the present invention.

먼저, 도 1을 참조하면, 시뮬레이션 수행 장치(300)는 모델링부(310), 프로젝션 맵핑부(320) 및 시나리오 시뮬레이션부(330)를 포함하여 구성되며, 사용자 단말(30)에 사용자 인터페이스를 제공하고, 사용자 단말(30)에 제공되는 사용자 인터페이스를 통한 사용자 입력에 기초하여 시뮬레이션을 수행할 수 있다.First, referring to FIG. 1 , a simulation device 300 includes a modeling unit 310, a projection mapping unit 320, and a scenario simulation unit 330, and provides a user interface to the user terminal 30. And, simulation may be performed based on a user input through a user interface provided to the user terminal 30 .

또한, 도 2를 참조하면, 시뮬레이션 수행 장치(300)는 프로젝션 맵핑부(320)에 렌더링된 투사 영상을 제공하기 위한 렌더링 수행 장치(100)를 더 포함하여 구성될 수 있으며, 각 구성요소 간의 유기적 관계에 대한 부분을 아래에 설명하고자 한다.In addition, referring to FIG. 2 , the simulation performing device 300 may further include a rendering performing device 100 for providing a rendered projection image to the projection mapping unit 320, and organic interaction between each component may occur. The part about the relationship is explained below.

모델링부(310)는 가상 공간에 디지털 테마파크 및 디지털 콘텐츠 생성 장치에 대한 가상 모델을 생성할 수 있다. 구체적으로, 모델링부(310)는 디지털 테마파크 내의 디지털 콘텐츠가 전시되는 전시 공간, 상기 전시 공간에 디지털 콘텐츠를 생성하기 위한 영상 투사면, 영상 투사 장치, 조명, 특수 효과 장치, 사운드 장치 등에 대한 가상 모델을 생성할 수 있다. 이와 관련하여, 도 3 및 도 4는 디지털 테마파크에서 제공되는 디지털 콘텐츠의 시뮬레이션 과정을 설명하기 위한 참조도이다.The modeling unit 310 may create a virtual model for a digital theme park and a digital content generating device in a virtual space. Specifically, the modeling unit 310 is a virtual model for an exhibition space where digital content is displayed in a digital theme park, an image projection surface for generating digital content in the exhibition space, an image projection device, lighting, special effect devices, sound devices, and the like. can create In this regard, FIGS. 3 and 4 are reference diagrams for explaining a simulation process of digital content provided in a digital theme park.

도 3 및 도 4를 참조하면, 디지털 테마파크에서 디지털 콘텐츠를 제공하기 위한 전시 공간(바닥면)이 모델링되어 있는 상태이며, 모델링된 전시 공간 상에는 현실의 전시 공간에서 디지털 콘텐츠를 구현하기 위한 영상 투사면(도 3 참조) 및 영상 투사면에 영상을 투사하기 위한 영상 투사 장치(도 4 참조)가 모델링된 모습을 확인할 수 있다.3 and 4, an exhibition space (floor surface) for providing digital contents in a digital theme park is modeled, and on the modeled exhibition space, an image projection surface for implementing digital contents in a real exhibition space. (See FIG. 3 ) and an image projection device (see FIG. 4 ) for projecting an image onto an image projection surface can be seen modeled.

프로젝션 맵핑부(320)는 디지털 테마파크 내의 전시 공간을 통해 관람객에게 제공되는 디지털 콘텐츠에 대한 사전 시각화를 수행할 수 있다. 구체적으로, 프로젝션 맵핑부(320)는 가상 모델로서 생성된 영상 투사면 및 영상 투사 장치를 이용해 프로젝션 맵핑을 수행 가능하고, 프로젝션 맵핑 수행 과정을 시각화하여 출력하는 사용자 인터페이스를 사용자 단말로 제공할 수 있다. 위에서 언급된 도 3 및 도 4에는 사용자 단말로 제공되는 사용자 인터페이스가 도시되어 있으며, 사용자는 상기 사용자 인터페이스를 통해 가상 모델 각각에 대한 다양한 옵션을 설정하고, 가상 공간 상에서 디지털 콘텐츠를 구현할 수 있다.The projection mapping unit 320 may perform preliminary visualization of digital content provided to visitors through an exhibition space in a digital theme park. Specifically, the projection mapping unit 320 may perform projection mapping using the image projection surface and the image projection device created as a virtual model, and may provide a user interface for visualizing and outputting the projection mapping process to the user terminal. . 3 and 4 mentioned above show a user interface provided to a user terminal, and a user can set various options for each virtual model and implement digital content in a virtual space through the user interface.

본 발명의 바람직한 실시예에 따르면, 프로젝션 맵핑부(320)는 전시 공간의 면적 변경, 영상 투사면의 형태 및 위치 설정 및 영상 투사 장치의 위치 및 개수 설정 등이 가능하며, 구체적으로는, 영상 투사 장치의 영상 투사 면적, 영상 투사 방향, 해상도, 블랜딩 영역, 키스톤, 밝기 등의 옵션 또한 설정 가능하다.According to a preferred embodiment of the present invention, the projection mapping unit 320 can change the area of the exhibition space, set the shape and position of the image projection surface, and set the position and number of image projection devices. Specifically, the image projection Options such as the device's image projection area, image projection direction, resolution, blending area, keystone, and brightness can also be set.

또한, 본 발명의 바람직한 실시예에 따르면, 프로젝션 맵핑부(320)는 가상 모델로 구현된 조명에 대한 조명 유형, 조명 위치, 조명 각도, 조명 색상, 조명 색온도, 조명 밝기로 구성되는 조명 옵션을 설정 가능하다.In addition, according to a preferred embodiment of the present invention, the projection mapping unit 320 sets lighting options consisting of lighting type, lighting position, lighting angle, lighting color, lighting color temperature, and lighting brightness for lighting implemented as a virtual model. possible.

또한, 본 발명의 바람직한 실시예에 따르면, 프로젝션 맵핑부(320)는 영상 투사 장치에 대한 세부 옵션을 설정 가능한 사용자 인터페이스를 사용자 단말로 제공할 수 있다. 구체적으로, 사용자는 상기 사용자 단말로 제공되는 사용자 인터페이스를 통해 디지털 콘텐츠 생성에 이용할 영상 투사 장치의 브랜드 또는 모델명을 선택할 수 있으며, 영상 투사 장치의 크기, 밝기, 전력소모량, 무게, 키스톤 범위 등을 포함하는 세부 옵션을 설정할 수 있다. 또한, 사용자는 제공되는 사용자 인터페이스를 통해 영상 투사 장치의 렌즈 초점 및 영상 투사 거리에 기초하여 산출되는 영상 밝기 및 영상 투사 범위에 대한 정보를 제공받을 수 있다. 여기에서, 상기 사용자에게 제공되는 영상 밝기 및 영상 투사 범위에 대한 정보는 사용자 인터페이스의 특정 부분에서 직관적인 레이아웃으로 제공될 수 있다.In addition, according to a preferred embodiment of the present invention, the projection mapping unit 320 may provide a user interface capable of setting detailed options for the image projection device to the user terminal. Specifically, the user may select the brand or model name of the image projection device to be used to create digital content through the user interface provided to the user terminal, including the size, brightness, power consumption, weight, and keystone range of the image projection device. Detailed options can be set. In addition, the user may be provided with information about image brightness and image projection range calculated based on the lens focus of the image projection device and the image projection distance through the provided user interface. Here, the information on the image brightness and the image projection range provided to the user may be provided in an intuitive layout in a specific part of the user interface.

도 5는 디지털 콘텐츠가 제공되는 전시 공간 및 전시 공간을 상술한 가상모델로 생성된 공간 및 장치들을 통해 가상 공간에 구현한 예를 나타내고 있다. 도 5를 참조하면, (A)는 가상 공간 상에 구현된 전시 공간 및 디지털 콘텐츠를 나타내고, (B)는 사전 시각화된 (A)를 이용해 추후 조성될 수 있는 현실의 전시 공간을 나타내는 것으로 이해할 수 있다.5 shows an example of implementing an exhibition space where digital contents are provided and an exhibition space in a virtual space through spaces and devices created with the above-described virtual model. Referring to FIG. 5, it can be understood that (A) represents an exhibition space and digital content implemented in a virtual space, and (B) represents a real exhibition space that can be created later using the pre-visualized (A). there is.

또한, 프로젝션 맵핑부(320)는 디지털 콘텐츠를 상기 전시 공간에 위치한 현장 관람객의 시점에 기초하는 초실감 콘텐츠로 구현시키는 렌더링 수행 장치(100)로부터, 디지털 콘텐츠에 대한 사전 시각화를 수행하기 위해 필요한 투사 영상을 제공받을 수 있다. 여기에서, 렌더링 수행 장치(100)는 별도로 구현되는 가상 공간을 통해 영상 렌더링을 수행하는 장치이며, 상기 별도로 구현되는 가상 공간에 생성되는 가상 투사면 및 관람 시점을 이용한 영상 렌더링을 수행하여, 현장 관람객의 시점에 기초하는 투사 영상을 생성할 수 있도록 한다. 또한, 렌더링 수행 장치(100)에 대한 구체적인 부분은 후술하기로 한다.In addition, the projection mapping unit 320 performs projection necessary to perform pre-visualization of the digital content from the rendering device 100, which implements the digital content as ultra-realistic content based on the viewpoint of the on-site visitor located in the exhibition space. video can be provided. Here, the rendering performance device 100 is a device that performs image rendering through a separately implemented virtual space, and performs image rendering using a virtual projection surface created in the separately implemented virtual space and a viewing point, A projection image based on the viewpoint of can be generated. In addition, specific details of the rendering apparatus 100 will be described later.

시나리오 시뮬레이션부(330)는 디지털 테마파크에서 제공하는 디지털 콘텐츠 별 시나리오를 생성하고, 상기 생성된 시나리오 및 가상 모델에 기초하는 시뮬레이션을 수행할 수 있다. 구체적으로, 시나리오 시뮬레이션부(330)는 상기 사전 시각화된 디지털 콘텐츠에 대한 시나리오 시뮬레이션을 수행하여, 시나리오 진행에 따라 관람객에게 제공되는 디지털 콘텐츠를 사용자 단말을 통해 확인할 수 있도록 한다.The scenario simulation unit 330 may generate a scenario for each digital content provided by the digital theme park and perform a simulation based on the generated scenario and virtual model. Specifically, the scenario simulation unit 330 performs a scenario simulation on the pre-visualized digital content so that the viewer can check the digital content provided to the viewer through the user terminal according to the progress of the scenario.

본 발명의 바람직한 실시예에 따르면, 시나리오 시뮬레이션부(330)는 단일 또는 복수의 투사 영상이 적용되는 디지털 콘텐츠에 대한 시나리오 시뮬레이션뿐만 아니라, 일부 영역이 중첩되는 다중 프로젝션 맵핑 시뮬레이션 및 홀로그램으로 구현되는 투사 영상을 이용하는 디지털 콘텐츠의 시뮬레이션을 수행할 수 있다. 다른 예로, 가상모델로 생성된 조명의 옵션 설정값 변화에 따른 시뮬레이션을 수행할 수 있으며, 특수 효과 장치를 통해 제공되는 레이저 효과 및 안개 효과 적용에 따른 예측 시뮬레이션 또한 수행할 수 있다.According to a preferred embodiment of the present invention, the scenario simulation unit 330 not only simulates scenarios for digital content to which single or multiple projection images are applied, but also simulates multi-projection mapping in which some areas overlap, and projects images implemented as holograms. It is possible to perform simulation of digital contents using . As another example, a simulation according to a change in option setting values of lighting generated by a virtual model may be performed, and a prediction simulation according to application of a laser effect and a fog effect provided through a special effect device may also be performed.

또한, 본 발명의 바람직한 실시예에 따르면, 시나리오 시뮬레이션부(330)는 상기 사전 시각화된 디지털 콘텐츠에 대한 시나리오 시뮬레이션을 수행하기 전에 가상 공간 상의 관람 시점을 설정할 수 있다. 여기에서, 관람 시점은 현장 관람객이 전시 공간의 디지털 콘텐츠를 관람하는 위치를 의미할 수 있으며, 현실과 동일한 비율로 생성된 가상의 전시 공간에 관람 시점을 생성하게 되므로, 관람객이 보게 될 디지털 콘텐츠를 미리 확인할 수 있으며, 확인 결과 설정 변경이 필요한 경우에는 프로젝션 맵핑부를 통해 영상 투사 장치 및 영상 투사면 등에 대한 설정을 변경하여 시나리오의 완성도를 높힐 수 있다. 또한, 상기 관람 시점은 사용자 인터페이스를 통한 사용자 입력에 기초하여 생성될 수 있으며, 렌더링 수행 장치(100)로부터 제공받은 투사 영상을 프로젝션 맵핑에 이용하는 경우에는 렌더링 수행 장치(100)가 영상 렌더링 과정에서 미리 생성한 관람 시점에 대한 정보를 함께 전달받아 활용할 수 도 있다.Also, according to a preferred embodiment of the present invention, the scenario simulation unit 330 may set a viewing point in the virtual space before performing scenario simulation on the pre-visualized digital content. Here, the viewing point may refer to a position where on-site visitors watch digital content in the exhibition space, and since the viewing point is created in a virtual exhibition space created at the same ratio as the reality, the digital content to be seen by the audience is created. It can be checked in advance, and as a result of the check, if settings need to be changed, the completeness of the scenario can be improved by changing the settings of the image projection device and the image projection surface through the projection mapping unit. In addition, the viewing viewpoint may be created based on a user input through a user interface, and when the projection image provided from the rendering device 100 is used for projection mapping, the rendering device 100 may perform the image rendering in advance. Information about the created viewing point can also be received and used.

아래에서는, 프로젝션 맵핑부(320)에 렌더링된 투사 영상을 제공하기 위한 렌더링 수행 장치(100)에 대해서 설명하기로 한다.Below, the rendering apparatus 100 for providing a rendered projection image to the projection mapping unit 320 will be described.

도 6은 종래의 원근투영기법을 이용한 렌더링을 통해 제공되는 초실감 콘텐츠를 설명하기 위한 참조도이다.6 is a reference diagram for explaining ultra-realistic content provided through rendering using a conventional perspective projection technique.

도 6을 참조하면, 종래의 원근투영기법을 이용한 렌더링을 수행하는 경우, 특정 시점에서 렌더링이 최적화되어 실감형 콘텐츠인 투사 영상을 바라보았을 때 객체의 원근감 및 형태가 왜곡되지 않고 정상적으로 보여지는 특징이 있다. 이러한 방법은 도 6의 (A)와 같이 전시 공간에 설치된 실제 구조물 사이에 영상을 투사하여 실감형 콘텐츠를 구성하는 경우 적절하게 이용될 수 있다. 상술한 실제 구조물 사이에 위치한 관람객은 투사 영상이 왜곡되어 보이지 않는 범위 내의 위치에서 실감형 콘텐츠를 관람하게 되므로, 도 6의 (B)와 같이 위화감 없는 정상적인 실감형 콘텐츠를 관람할 수 있다. 하지만, 관람객에게 더 넓은 공간이 허용되는 전시 공간 등에서 이러한 방법을 적용하여 실감형 콘텐츠를 구성하는 경우에는 관람객이 바라보는 시점에 따라 투사 영상이 왜곡되어 보이게 되므로, 실감형 콘텐츠가 의도된 대로 제공되지 못한다는 문제점이 있다.Referring to FIG. 6, when rendering is performed using a conventional perspective projection technique, rendering is optimized at a specific point in time, and when viewing a projected image, which is immersive content, the perspective and shape of an object are normally displayed without being distorted. there is. This method can be appropriately used when constructing realistic content by projecting an image between real structures installed in an exhibition space, as shown in FIG. 6(A). Since the viewer located between the above-mentioned actual structures watches the realistic content from a position within the range where the projected image is distorted and cannot be seen, it is possible to view the normal realistic content without discomfort as shown in FIG. 6(B). However, when realistic content is configured by applying this method in an exhibition space where a wider space is allowed for visitors, the projected image is distorted depending on the viewer's point of view, so the realistic content is not provided as intended. There is a problem with not being able to.

도 7은 본 발명에 따른 렌더링 수행 시스템을 설명하기 위한 구성도이다.7 is a configuration diagram for explaining a rendering system according to the present invention.

도 7을 참조하면, 본 발명에 따른 렌더링 수행 시스템은 단말(10), 영상 투사 장치(20) 및 초실감 콘텐츠를 제공하기 위해 특정 위치의 관람객 시점에 최적화된 렌더링을 수행하는 장치(100)(이하, 렌더링 수행 장치라 칭함)를 포함하여 구성된다.Referring to FIG. 7 , the rendering system according to the present invention includes a terminal 10, an image projection device 20, and a device 100 that performs rendering optimized for a viewer's viewpoint at a specific location to provide ultra-realistic content ( Hereinafter referred to as a rendering execution device).

단말(10)은 관람객의 위치 정보를 렌더링 수행 장치(100)에 전송하기 위한 장치로서, 예를 들면, 관람객이 휴대하는 스마트폰, 위치 정보를 송신하는 기능을 수행하는 태그(tag) 및 이들과 동등한 기능을 수행하는 다른 장치를 포함할 수 있다. 일반적으로 각 관람객은 하나의 단말(10)을 소지하게 되며, 전시 공간에 위치한 관람객이 복수인 경우에는 복수의 관람객 위치 정보가 렌더링 수행 장치(100)에 전송될 수 있다.The terminal 10 is a device for transmitting the viewer's location information to the rendering device 100, and includes, for example, a smartphone carried by the viewer, a tag that performs a function of transmitting location information, and Other devices performing equivalent functions may be included. In general, each visitor has one terminal 10, and when there are a plurality of visitors located in the exhibition space, location information of a plurality of visitors may be transmitted to the rendering device 100.

본 발명에 따른 렌더링 수행 장치(100)는 단말(10)로부터 전송받은 관람객 위치 정보에 기초하여 가상 공간에 3차원으로 구현된 전시 객체를 2차원 평면으로 나타내는 렌더링 작업을 수행하며, 렌더링 작업의 결과물인 투사 영상을 전시 공간에 설치된 영상 투사 장치(20)로 제공할 수 있다. 여기에서, 관람객에게 제공되는 초실감 콘텐츠가 여러 개의 투사 영상으로 구성되는 것일 경우, 복수의 영상 투사 장치(20-1, 20-2, 20-3 …)의 설치가 요구될 수 있으며, 렌더링 수행 장치(100) 또한 각각의 영상 투사 장치(20)에 적합한 렌더링을 수행하여 서로 다른 투사 영상을 제공할 수 있다.The rendering apparatus 100 according to the present invention performs a rendering operation to represent an exhibition object implemented in 3D in a virtual space as a 2D plane based on the visitor location information transmitted from the terminal 10, and the result of the rendering operation The projection image may be provided to the image projection device 20 installed in the exhibition space. Here, when the ultra-realistic content provided to the viewer consists of multiple projected images, installation of a plurality of image projection devices (20-1, 20-2, 20-3...) may be required, and rendering is performed. The device 100 may also provide different projection images by performing rendering suitable for each image projection device 20 .

도 8 및 도 9는 본 발명에 따른 렌더링 수행 장치(100)의 구성을 나타내는 블록도이다.8 and 9 are block diagrams showing the configuration of the rendering apparatus 100 according to the present invention.

도 8을 참조하면, 본 발명에 따른 렌더링 수행 장치(100)는 전시 객체 생성부(110), 촬영 객체 생성부(120), 가상 투사면 생성부(130), 관람 시점 생성부(140) 및 렌더링부(150)를 포함하여 구성된다. 또한, 도 9를 참조하면, 본 발명의 일 실시예에 따른 렌더링 수행 장치(100)는 위치 정보 수신부(160) 및 투사 영상 전송부(170)를 더 포함하여 구성될 수 있다.Referring to FIG. 8 , the rendering apparatus 100 according to the present invention includes an exhibition object generator 110, a photographing object generator 120, a virtual projection surface generator 130, a viewing viewpoint generator 140, and It is configured to include a rendering unit 150 . Also, referring to FIG. 9 , the rendering apparatus 100 according to an embodiment of the present invention may further include a location information receiver 160 and a projection image transmitter 170.

전시 객체 생성부(110)는 가상 공간에 3차원으로 구현되는 전시 객체를 생성할 수 있다. 여기에서, 상기 전시 객체는 사용자 단말로부터 렌더링 수행 장치(100)로 직접 입력되는 전시 객체 데이터에 기초하여 생성될 수 있다. 또한, 상기 전시 객체는 초실감 콘텐츠를 구현하기 위해 전시 공간에 투사되는 투사 영상을 구성하는 가상 객체로서, 특정한 사물만을 의미하는 것은 아니며, 가상 공간 상에 모델링되는 모든 가상 객체를 의미할 수 있다. 예를 들어, 도 6의 (B)는 실제 투사된 투사 영상을 도시한 것이며, 암석 구조물, 구현된 날씨 및 지면 등으로 구성된 전시 객체를 포함하고 있다.The exhibition object creation unit 110 may create a 3D exhibition object in a virtual space. Here, the exhibition object may be created based on exhibition object data directly input from the user terminal to the rendering apparatus 100 . In addition, the exhibition object is a virtual object constituting a projected image projected on an exhibition space to implement ultra-realistic content, and does not mean only a specific object, but may mean all virtual objects modeled on the virtual space. For example, (B) of FIG. 6 shows an actual projected image, and includes an exhibition object composed of a rock structure, implemented weather, and the ground.

촬영 객체 생성부(120)는 가상 공간 상의 특정 위치에서 전시 객체를 촬영하기 위한 촬영 객체를 생성할 수 있다. 상기 촬영 객체는 전시 공간에 투사할 투사 영상 자체를 촬영하기 위한 목적으로 생성되는 것으로, 사용자 입력에 기초하여 변경되는 촬영 객체의 위치에 따라서 어떠한 투사 영상을 전시 공간에 투사할 것인지 결정할 수 있게 된다. 이와 관련하여 도 10 및 도 11은 본 발명에 따른 촬영 객체(121)에 의해 촬영되는 장면을 나타내는 참조도이다. 도 10 및 도 11을 참조하여 설명하면, (A)는 촬영 객체(121)가 가상 공간에 구현된 전시 객체(111-1, 111-2, 111-3)를 촬영하는 모습을 3인칭 시점으로 나타낸 것이며, (B)는 촬영 객체(121) 시점에서 촬영되는 장면(즉, 전시 공간에 제공되는 투사 영상)을 나타낸 것이다. 도 10 및 도 11을 비교해보면, 촬영 객체(121)의 촬영 위치가 변화함에 따라 촬영되는 전시 객체(111-1, 111-2, 111-3)의 위치 및 형태 또한 변화하게 된다.The capturing object creation unit 120 may create a capturing object for capturing an exhibition object at a specific location in the virtual space. The photographing object is created for the purpose of photographing the projected image itself to be projected onto the exhibition space, and it is possible to determine which projected image to project into the exhibition space according to the position of the photographed object that is changed based on a user input. In this regard, FIGS. 10 and 11 are reference views illustrating a scene captured by the capturing object 121 according to the present invention. Referring to FIGS. 10 and 11, (A) is a third-person view of a photographing object 121 photographing exhibition objects 111-1, 111-2, and 111-3 implemented in a virtual space. (B) shows a scene captured from the viewpoint of the photographing object 121 (ie, a projection image provided to the exhibition space). Comparing FIGS. 10 and 11 , as the photographing position of the photographing object 121 changes, the positions and shapes of the photographed exhibition objects 111-1, 111-2, and 111-3 also change.

가상 투사면 생성부(130)는 가상 공간에서 촬영 객체가 촬영하는 장면이 출력되는 가상 투사면을 생성할 수 있다. 상기 가상 투사면은 전시 공간에 위치한 관람객의 위치에 따라 왜곡되어 보일 수 있는 투사 영상의 왜곡 상태를 확인하고, 확인된 결과에 따라 전시 객체를 리모델링하여 왜곡을 보정하기 위한 것이다.The virtual projection surface generating unit 130 may generate a virtual projection surface on which a scene captured by a photographing object is output in a virtual space. The virtual projection surface is for checking the distortion state of the projection image, which may appear distorted according to the position of the viewer located in the exhibition space, and correcting the distortion by remodeling the exhibition object according to the checked result.

일 실시예에서, 상기 가상 투사면은 전시 공간과 대응되도록 좌표계가 구성된 별도의 가상 공간에 생성될 수 있다. 구체적으로, 상술한 전시 객체 및 촬영 객체가 구현되는 가상 공간을 제1 가상 공간이라고 정의하고, 가상 투사면이 구현되는 가상 공간을 제2 가상 공간이라고 정의할 수 있다. 이와 관련하여, 도 7은 본 발명에 따른 가상 투사면(131)의 생성 예시를 설명하기 위한 참조도이다.In one embodiment, the virtual projection surface may be created in a separate virtual space in which a coordinate system is configured to correspond to the exhibition space. Specifically, a virtual space in which the above-described exhibition object and photographing object are implemented may be defined as a first virtual space, and a virtual space in which a virtual projection surface is implemented may be defined as a second virtual space. In this regard, FIG. 7 is a reference diagram for explaining an example of generating a virtual projection surface 131 according to the present invention.

도 12를 참조하면, 도 12의 (B)는 가상 투사면(131)이 생성되는 제2 가상 공간이며, 상기 제2 가상 공간에는 가상 투사면(131)에 출력되는 장면(투사 영상)이 실제 전시 공간에 투사되었을 경우의 상황을 시뮬레이션할 수 있는 전시 보조 객체(도 12의 (B))가 구현될 수 있다. 상술한 도 1의 예시와 같이 영상 투사 방식을 이용한 실감형 콘텐츠는 전시 공간에 마련되는 실제 구조물과 같이 구성될 수 있으며, 상기 전시 보조 객체는 제2 가상 공간에서 상기 실제 구조물과 같은 역할을 함으로써, 사용자가 관람객에게 제공할 초실감 컨텐츠를 전시하기에 앞서 시뮬레이션할 수 있도록 한다(도 12의 (A) 참조). 제2 가상 공간은 상술한 바와 같이 실제 전시 공간과 대응되도록 좌표계가 구성되므로, 전시 보조 객체 및 가상 투사면(131)을 실제 크기와 동일한 비율로 구현하여 시뮬레이션 할 수 있는 장점이 있다.Referring to FIG. 12, (B) of FIG. 12 is a second virtual space in which a virtual projection surface 131 is created, and in the second virtual space, a scene (projected image) output on the virtual projection surface 131 is actually displayed. An exhibition auxiliary object ((B) of FIG. 12) capable of simulating a situation when projected on an exhibition space may be implemented. As in the example of FIG. 1 described above, realistic content using an image projection method may be configured like a real structure provided in an exhibition space, and the exhibition auxiliary object plays the same role as the real structure in a second virtual space, Allows the user to simulate the ultra-realistic content to be provided to the audience before displaying it (see FIG. 12(A)). As described above, since the coordinate system of the second virtual space is configured to correspond to the actual exhibition space, there is an advantage in that the exhibition auxiliary object and the virtual projection surface 131 can be implemented and simulated in the same ratio as the actual size.

일 실시예에서, 가상 투사면 생성부(130)는 생성하는 가상 투사면에 대한 질감을 구현하여 적용할 수 있다. 구체적으로, 투사 영상이 투사되는 전시 공간의 영상 투사면은 초실감 콘텐츠를 구현하기 위해 특정한 질감을 나타낼 수 있으며, 이러한 질감 또한 가상 공간 상에서 적용하여 투사 영상을 시뮬레이션 할 수 있도록 한다. 예를 들어, 가상 투사면의 질감을 거친 질감으로 구현하여 적용한 상태에서, 촬영 객체가 모래 또는 자갈로 구성된 지면을 포함하는 전시 객체를 촬영하게 되면, 더 실감있는 투사 영상을 제공할 수 있다.In one embodiment, the virtual projection surface generating unit 130 may implement and apply a texture to the virtual projection surface to be created. Specifically, the image projection surface of the exhibition space on which the projected image is projected may exhibit a specific texture to realize ultra-realistic content, and this texture can also be applied in virtual space to simulate the projected image. For example, when an exhibition object including a ground made of sand or gravel is photographed in a state in which the texture of the virtual projection surface is implemented and applied as a rough texture, a more realistic projection image can be provided.

관람 시점 생성부(140)는 가상 공간 상에 가상 투사면을 바라보는 관람 시점을 생성할 수 있다. 상기 관람 시점은 가상 공간의 특정 위치에서 가상 투사면을 바라보았을 경우 전시되어야 하는 투사 영상 대비 어떠한 왜곡이 발생하는지 확인하기 위한 것이다. 상술한 실시예에 따르면, 가상 투사면이 제2 가상 공간에 생성됨에 따라, 관람 시점 또한 제2 가상 공간에 생성된다. 또한, 관람 시점은 실제 전시 공간과 대응되도록 좌표계가 구성되는 제2 가상 공간 상에 생성되므로, 실제 전시 공간에 있는 관람객의 위치에서 초실감 콘텐츠를 구성하는 투사 영상을 바라보았을 때의 왜곡을 확인할 수 있도록 한다. 상기 과정을 통해 확인된 왜곡은 렌더링부(150)를 통해 보정되며, 이에 대한 구체적인 부분은 후술하기로 한다.The viewing viewpoint generating unit 140 may create a viewing viewpoint looking at a virtual projection surface in a virtual space. The viewing point is to check what kind of distortion occurs compared to the projected image to be displayed when the virtual projection surface is viewed from a specific position in the virtual space. According to the above-described embodiment, as the virtual projection surface is created in the second virtual space, the viewing viewpoint is also created in the second virtual space. In addition, since the viewpoint of viewing is created on the second virtual space in which the coordinate system is configured to correspond to the actual exhibition space, it is possible to check the distortion when viewing the projected image constituting the ultra-realistic content from the viewer's position in the actual exhibition space. let it be The distortion confirmed through the above process is corrected through the rendering unit 150, and details thereof will be described later.

본 발명의 바람직한 실시예에 따르면, 관람 시점 생성부(140)는 전시 공간에 위치하는 관람객의 위치와 대응되는 가상 공간 좌표(제2 가상 공간 좌표)에 관람 시점을 생성하고, 가상 공간(제2 가상 공간) 상에 생성된 관람 시점을 상기 전시 공간에 위치하는 관람객의 위치 정보에 기초하여 실시간으로 이동시킨다. 이에 따라, 관람객이 전시 공간 내에서 이동하여도 이동 위치에 기초하여 실시간으로 보정된 투사 영상을 전시 공간에 제공할 수 있게 된다.According to a preferred embodiment of the present invention, the viewing viewpoint generation unit 140 creates a viewing viewpoint at virtual space coordinates (second virtual space coordinates) corresponding to the position of the visitor located in the exhibition space, and creates a viewing viewpoint in the virtual space (second virtual space coordinates). The viewing point created in the virtual space) is moved in real time based on the location information of the viewer located in the exhibition space. Accordingly, even if the viewer moves within the exhibition space, a projection image corrected in real time based on the movement position can be provided to the exhibition space.

또한, 관람 시점 생성부(140)는 전시 공간에 복수의 관람객이 위치하는 경우, 군집된 관람객에 대해서 산출된 평균 위치 정보에 기초하는 관람 시점을 생성할 수 있다. 구체적으로, 동일한 전시 공간에 여러 관람객이 각각의 위치에서 투사 영상을 관람하게 되는 경우, 관람객 각각에 맞춰 완벽하게 보정된 투사 영상을 제공하기는 어렵게 된다. 따라서, 군집된 관람객에 대한 평균 위치를 산출하여 관람 시점을 생성하는 방법을 적용할 수 있다.In addition, when a plurality of visitors are located in the exhibition space, the viewing viewpoint generation unit 140 may generate a viewing viewpoint based on average location information calculated for the crowd of visitors. Specifically, in the case where several visitors watch a projection image at their respective locations in the same exhibition space, it is difficult to provide a perfectly calibrated projection image for each viewer. Therefore, a method of generating a viewing point by calculating an average position for the clustered spectators can be applied.

렌더링부(150)는 상기 설정된 관람 시점에 기초하여 전시 객체를 리모델링할 수 있다. 여기에서, 렌더링부(150)는 상기 촬영 객체로부터 관람객에게 제공되어야 하는 기준 투사 영상을 전달받으며, 상기 생성된 관람 시점에서 가상 투사면을 바라보았을 때 상기 기준 투사 영상에 나타나는 전시 객체와 동질감을 갖는 전시 객체가 출력되도록 전시 객체를 리모델링할 수 있다. 여기에서, 관람 시점의 위치에 따라 가상 투사면에서의 왜곡이 확인되는 전시 객체에 대한 리모델링은 상기 기준 투사 영상에 나타나는 전시 객체의 정보에 기초하여 수행된다. 상기 전시 객체 정보는 전시 객체의 명암, 색상, 위치 및 형태 정보를 포함할 수 있다.The rendering unit 150 may remodel the exhibition object based on the set viewing viewpoint. Here, the rendering unit 150 receives a reference projection image to be provided to the viewer from the photographing object, and has a sense of identity with the exhibition object appearing in the reference projection image when looking at the virtual projection surface at the generated viewing point. The exhibition object may be remodeled so that the exhibition object is output. Here, remodeling of an exhibition object whose distortion is confirmed on the virtual projection surface according to the location of the viewing point is performed based on information about the exhibition object appearing in the reference projection image. The exhibition object information may include contrast, color, location, and shape information of the exhibition object.

일 실시예에서, 렌더링부(150)는 비축상(off-axis) 투영법을 이용해 전시 객체에 대한 위치, 형태 및 색상 중 적어도 하나를 변화시키는 리모델링을 수행할 수 있으며, 이를 통해, 특히 투사 영상의 원근감을 보정하여 관람객의 투사 영상에 대한 이질감을 제거할 수 있다.In one embodiment, the rendering unit 150 may perform remodeling that changes at least one of the position, shape, and color of the exhibition object using an off-axis projection method, and through this, in particular, the projection image It is possible to remove the sense of heterogeneity of the viewer's projected image by correcting the sense of perspective.

결과적으로, 렌더링부(150)에 의해 전시 객체 리모델링이 수행된 후, 촬영 객체가 촬영하는 장면 또는 가상 투사면에는 왜곡된 전시 객체가 나타나게 되며, 관람 시점에 따라 왜곡된 전시 객체를 포함하는 투사 영상이 전시 공간에 제공되어 초실감 콘텐츠를 구현할 수 있게 된다.As a result, after the exhibition object remodeling is performed by the rendering unit 150, the distorted exhibition object appears on the scene captured by the shooting object or on the virtual projection surface, and the projected image including the exhibition object is distorted according to the viewing point of view. It is provided in this exhibition space to realize ultra-realistic content.

위치 정보 수신부(160)는 전시 공간에 위치하는 관람객의 위치 정보를 수신할 수 있다. 예를 들어, 무선 통신을 통해 단말(10)(도7 참조)로부터 직접 위치 정보를 수신할 수 있으며, 별도로 구비된 위치 정보 수집 장치로부터 관람객의 위치 정보를 수신할 수 있다.The location information receiving unit 160 may receive location information of visitors located in the exhibition space. For example, location information may be directly received from the terminal 10 (see FIG. 7) through wireless communication, and location information of a spectator may be received from a separately provided location information collecting device.

투사 영상 전송부(170)는 상기 촬영 객체가 촬영하는 장면을 실시간으로 전시 공간의 영상 투사 장치(20)(도 7 참조)에 전송할 수 있다. 정리하면, 관람객의 위치 정보 수신 과정에서부터 관람 시점의 생성 및 이동, 렌더링 및 촬영 장면(투사 영상)을 영상 투사 장치(20)에 전송하기까지의 과정은 실시간으로 이루어짐으로써, 전시 공간에 초실감 콘텐츠가 구현될 수 있도록 한다. The projected image transmission unit 170 may transmit the scene captured by the object to the image projection device 20 (see FIG. 7) in the exhibition space in real time. In summary, the process from receiving the location information of the visitor to generating and moving the viewing point, rendering, and transmitting the shooting scene (projection image) to the image projection device 20 is performed in real time, providing ultra-realistic content in the exhibition space. to be implemented.

본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is apparent to those skilled in the art that the present invention can be embodied in other specific forms without departing from the characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (6)

메타버스를 포함하는 복수의 디지털 콘텐츠를 관람객에게 제공하는 디지털 테마파크에 대한 가상 시뮬레이션을 수행하기 위한 것으로서,
가상 공간에 디지털 테마파크 및 디지털 콘텐츠 생성 장치에 대한 가상 모델을 생성하는 모델링부;
디지털 테마파크 내의 전시 공간을 통해 관람객에게 제공되는 디지털 콘텐츠에 대한 사전 시각화를 수행하는 프로젝션 맵핑부; 및
디지털 테마파크에서 제공하는 디지털 콘텐츠 별 시나리오를 생성하고, 상기 생성된 시나리오 및 가상 모델에 기초하는 시뮬레이션을 수행하는 시나리오 시뮬레이션부를 포함하는 것을 특징으로 하고,
상기 프로젝션 맵핑부는,
디지털 콘텐츠를 상기 전시 공간에 위치한 현장 관람객의 시점에 기초하는 초실감 콘텐츠로 구현시키는 렌더링 수행 장치로부터, 디지털 콘텐츠에 대한 사전 시각화를 수행하기 위해 필요한 투사 영상을 제공받고,
상기 렌더링 수행 장치는,
별도로 구현되는 가상 공간을 통해 영상 렌더링을 수행하는 것으로서,
가상 공간에 3차원으로 구현되는 전시 객체를 생성하는 전시 객체 생성부;
가상 공간 상의 특정 위치에서 전시 객체를 촬영하기 위한 촬영 객체를 생성하는 촬영 객체 생성부;
가상 공간에서 촬영 객체가 촬영하는 장면이 출력되는 가상 투사면을 생성하는 가상 투사면 생성부;
가상 공간 상에 가상 투사면을 바라보는 관람 시점을 생성하는 관람 시점 생성부; 및
상기 생성된 관람 시점에 기초하여 전시 객체를 리모델링하는 렌더링부를 포함하고,
상기 렌더링부는,
상기 촬영 객체로부터 관람객에게 제공되어야 하는 기준 투사 영상을 전달받으며, 상기 생성된 관람 시점에서 가상 투사면을 바라보았을 때 상기 기준 투사 영상에 나타나는 전시 객체와 동질감을 갖는 전시 객체가 출력되도록 전시 객체를 리모델링하는 것인,
디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치.
As for performing a virtual simulation of a digital theme park that provides a plurality of digital contents including a metaverse to visitors,
a modeling unit for generating a virtual model for a digital theme park and a digital content generating device in a virtual space;
A projection mapping unit that performs pre-visualization of digital content provided to visitors through an exhibition space in a digital theme park; and
It is characterized by including a scenario simulation unit that generates a scenario for each digital content provided by the digital theme park and performs a simulation based on the generated scenario and virtual model,
The projection mapping unit,
Receive a projected image necessary for pre-visualization of digital content from a rendering device that implements digital content as ultra-realistic content based on the viewpoint of an on-site visitor located in the exhibition space;
The rendering execution device,
As performing image rendering through a separately implemented virtual space,
an exhibition object creation unit that creates a three-dimensional exhibition object in a virtual space;
a photographing object creation unit generating a photographing object for photographing an exhibition object at a specific location in a virtual space;
a virtual projection surface generating unit generating a virtual projection surface on which a scene captured by a photographing object is output in a virtual space;
a viewing viewpoint generating unit generating a viewing viewpoint looking at a virtual projection surface in a virtual space; and
A rendering unit for remodeling an exhibition object based on the generated viewing point of view;
The rendering unit,
A reference projection image to be provided to the viewer is received from the photographing object, and the exhibition object is remodeled so that an exhibition object having a sense of identity with the exhibition object appearing in the reference projection image is output when looking at the virtual projection surface at the viewing point of view. to do,
A simulation device for a digital theme park that provides a digital twin-based metaverse.
제1항에 있어서,
상기 모델링부는,
상기 전시 공간, 상기 전시 공간에 디지털 콘텐츠를 생성하기 위한 영상 투사면 및 영상 투사 장치에 대한 가상 모델을 생성하는 것을 특징으로 하는,
디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치.
According to claim 1,
The modeling unit,
Characterized in that creating a virtual model for the exhibition space, an image projection surface and an image projection device for generating digital content in the exhibition space,
A simulation device for a digital theme park that provides a digital twin-based metaverse.
제2항에 있어서,
상기 프로젝션 맵핑부는,
가상 모델로서 생성된 영상 투사면 및 영상 투사 장치를 이용해 프로젝션 맵핑을 수행 가능하고, 프로젝션 맵핑 수행 과정을 시각화하여 출력하는 사용자 인터페이스를 사용자 단말로 제공하는 것을 특징으로 하는,
디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치.
According to claim 2,
The projection mapping unit,
Characterized in that projection mapping can be performed using the image projection surface and the image projection device created as a virtual model, and a user interface for visualizing and outputting the projection mapping process is provided to the user terminal.
A simulation device for a digital theme park that provides a digital twin-based metaverse.
제1항에 있어서,
상기 시나리오 시뮬레이션부는,
상기 사전 시각화된 디지털 콘텐츠에 대한 시나리오 시뮬레이션을 수행하여, 시나리오 진행에 따라 관람객에게 제공되는 디지털 콘텐츠를 사용자 단말을 통해 확인할 수 있도록 하는 것을 특징으로 하는,
디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크의 시뮬레이션 수행 장치.
According to claim 1,
The scenario simulation unit,
Characterized in that, by performing a scenario simulation for the pre-visualized digital content, the digital content provided to the audience according to the progress of the scenario can be checked through a user terminal,
A simulation device for a digital theme park that provides a digital twin-based metaverse.
삭제delete 삭제delete
KR1020210192824A 2021-12-30 2021-12-30 A digital theme park simulation device that provides a digital twin-based metaverse KR102492989B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210192824A KR102492989B1 (en) 2021-12-30 2021-12-30 A digital theme park simulation device that provides a digital twin-based metaverse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210192824A KR102492989B1 (en) 2021-12-30 2021-12-30 A digital theme park simulation device that provides a digital twin-based metaverse

Publications (1)

Publication Number Publication Date
KR102492989B1 true KR102492989B1 (en) 2023-01-31

Family

ID=85109025

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210192824A KR102492989B1 (en) 2021-12-30 2021-12-30 A digital theme park simulation device that provides a digital twin-based metaverse

Country Status (1)

Country Link
KR (1) KR102492989B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102637820B1 (en) * 2023-06-20 2024-02-19 주식회사 닷밀 System for Providing Remote Control of Media Art Content and Device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120133422A (en) * 2011-05-31 2012-12-11 (주)지엘어소시에이츠 3d based real-time exhibit space simulator
KR20190067070A (en) * 2017-12-06 2019-06-14 노소영 System and method for projection mapping in virtual space

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120133422A (en) * 2011-05-31 2012-12-11 (주)지엘어소시에이츠 3d based real-time exhibit space simulator
KR20190067070A (en) * 2017-12-06 2019-06-14 노소영 System and method for projection mapping in virtual space

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102637820B1 (en) * 2023-06-20 2024-02-19 주식회사 닷밀 System for Providing Remote Control of Media Art Content and Device

Similar Documents

Publication Publication Date Title
US11245872B2 (en) Merged reality spatial streaming of virtual spaces
CN100534158C (en) Generating images combining real and virtual images
US11100695B1 (en) Methods and systems for creating an immersive character interaction experience
Bulman et al. Mixed reality applications in urban environments
CN104484327A (en) Project environment display method
CN104782122A (en) Controlled three-dimensional communication endpoint
KR102505666B1 (en) A device that performs rendering optimized for the viewer's point of view in a specific location to provide ultra-realistic content
US10304234B2 (en) Virtual environment rendering
Andreadis et al. Real-time motion capture technology on a live theatrical performance with computer generated scenery
KR102492989B1 (en) A digital theme park simulation device that provides a digital twin-based metaverse
US11587284B2 (en) Virtual-world simulator
KR102492985B1 (en) A digital theme park implementation system that provides a digital twin-based metaverse
Gaitatzes et al. Media productions for a dome display system
CN113516761B (en) Method and device for manufacturing naked eye 3D content with optical illusion
US20220358027A1 (en) Tool for mobile app development and testing using a physical mobile device
CN108574833B (en) Projection system, method and server
Lee et al. Real-time 3D video avatar in mixed reality: An implementation for immersive telecommunication
CN206023911U (en) Virtual reality system
Melenbrink et al. Fulldome Interfacing
JP2021508133A (en) Mapping pseudo-hologram providing device and method using individual video signal output
Cruz-Neira et al. An integrated immersive simulator for the dismounted soldier
KR102637820B1 (en) System for Providing Remote Control of Media Art Content and Device
KR102494896B1 (en) System for operating an ultra-realistic content exhibition space using IoT ticket
KR20230029130A (en) Apparatus and method for creating dynamic, live-type metaverse virtual interior space
Chen et al. Development of an Augmented Reality System with Reflection Implementation for Landscape Design Visualization using a Planar Reflection Method in Real-Time Rendering

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant