KR102654323B1 - Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production - Google Patents

Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production Download PDF

Info

Publication number
KR102654323B1
KR102654323B1 KR1020220162552A KR20220162552A KR102654323B1 KR 102654323 B1 KR102654323 B1 KR 102654323B1 KR 1020220162552 A KR1020220162552 A KR 1020220162552A KR 20220162552 A KR20220162552 A KR 20220162552A KR 102654323 B1 KR102654323 B1 KR 102654323B1
Authority
KR
South Korea
Prior art keywords
image
camera
curved
flat
layer
Prior art date
Application number
KR1020220162552A
Other languages
Korean (ko)
Inventor
김성수
Original Assignee
주식회사 비브스튜디오스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비브스튜디오스 filed Critical 주식회사 비브스튜디오스
Priority to KR1020220162552A priority Critical patent/KR102654323B1/en
Application granted granted Critical
Publication of KR102654323B1 publication Critical patent/KR102654323B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking

Abstract

본 발명은 버추얼 프로덕션에서 2차원 이미지의 입체화 처리를 위한 방법, 장치 및 시스템에 관한 것이다. 본 발명의 일 실시예에 따른 장치는, 버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치로서, 2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및 상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함한다.The present invention relates to a method, device, and system for stereoscopic processing of two-dimensional images in virtual production. A device according to an embodiment of the present invention provides content in a virtual space captured by a virtual camera that is linked according to the movement and lens status of the camera that captures the first image, which is a live-action image, during virtual production-based shooting. A device for reproducing a second image containing a light-emitting diode (LED) wall so that the second image is displayed, comprising: a memory storing information about a two-dimensional flat image; and a control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image.

Description

버추얼 프로덕션에서 2차원 이미지의 입체화 처리를 위한 방법, 장치 및 시스템{APPARATUS, METHOD ADN SYSTEM FOR THREE-DIMENSIONALLY PROCESSING TWO DIMENSION IMAGE IN VIRTUAL PRODUCTION}Method, device and system for three-dimensional processing of two-dimensional images in virtual production {APPARATUS, METHOD ADN SYSTEM FOR THREE-DIMENSIONALLY PROCESSING TWO DIMENSION IMAGE IN VIRTUAL PRODUCTION}

본 발명은 버추얼 프로덕션에서 2차원 이미지의 입체화 처리 기술에 관한 것으로서, 더욱 상세하게는 버추얼 프로덕션(virtual production) 기반 영상 촬영 시에 LED(light-emitting diode) 벽체에 표시되는 2차원 이미지가 카메라에서 보다 입체적인 모습으로 촬영될 수 있도록 해당 2차원 이미지를 처리하는 기술에 관한 것이다.The present invention relates to a three-dimensional processing technology for two-dimensional images in virtual production. More specifically, when shooting video based on virtual production, the two-dimensional image displayed on the LED (light-emitting diode) wall is more accurate than that of the camera. It is about technology for processing two-dimensional images so that they can be captured in three-dimensional form.

최근 코로나로 인해 국가 간 이동과 사람들의 모임이 제한되면서 가상 현실(virtual reality) 기반의 비대면 기술에 대한 관심이 커지고 있다. 이러한 추세에 따라, 방송, 영화, 공연 등의 영상 제작 분야에서도 버추얼 프로덕션(virtual production) 기술을 도입하는 시도들이 늘고 있다.Recently, as travel between countries and gatherings of people have been restricted due to the coronavirus, interest in non-face-to-face technology based on virtual reality is growing. According to this trend, attempts to introduce virtual production technology are increasing in video production fields such as broadcasting, movies, and performances.

이때, 버추얼 프로덕션은 게임 엔진 등에 의해 생성되는 가상 공간의 컨텐츠인 실시간 렌더링 CG(computer graphics) 기술과, 카메라의 움직임 및 렌즈 상태를 반영하는 카메라 트래킹(camera tracking) 기술을 기반으로 하며, 즉각적인 시각화와 영상 합성을 통해 영상 제작 공정의 효율성과 그래픽 품질을 제고하는 기술을 의미한다. 최근에는 실제 카메라의 움직임이 반영된 그래픽을 실시간으로 LED(light-emitting diode) 벽체(wall)를 통해 표시하고 해당 LED 벽체의 전면에 위치한 배우와 함께 LED 벽체의 적어도 일부를 촬영하는 개념으로 주로 사용되고 있다. 이러한 버추얼 프로덕션은 촬영 공간, 시간, 날씨 등과 같은 제약을 줄일 수 있을 뿐 아니라, 영상 제작의 후반 작업(post production)의 시간을 줄일 수 있으므로, 영상 제작의 생산성 향상에 이바지할 수 있다.At this time, virtual production is based on real-time rendering CG (computer graphics) technology, which is the content of a virtual space created by a game engine, and camera tracking technology that reflects the movement of the camera and the state of the lens, and provides immediate visualization and It refers to a technology that improves the efficiency and graphics quality of the video production process through video synthesis. Recently, it has been mainly used as a concept of displaying graphics reflecting actual camera movements through an LED (light-emitting diode) wall in real time and filming at least part of the LED wall with an actor located in front of the LED wall. . Such virtual production can not only reduce constraints such as shooting space, time, and weather, but also reduce the time of post-production of video production, contributing to improving the productivity of video production.

한편, 2차원 이미지의 소스를 LED 벽체에 표시하여 해당 LED 벽체의 적어도 일부를 카메라로 촬영하는 방식의 버추얼 프로덕션이 수행되는 경우가 있다. 하지만, 이 경우에 2차원 이미지의 소스의 한계로 인해, 카메라에서 촬영된 영상은 LED 벽체의 표시 부분이 입체적인 영상이 아닌 평면적인 영상으로 보이게 되면서, 전체적으로 부자연스럽게 보이게 되는 문제점이 발생한다.Meanwhile, there are cases where virtual production is performed by displaying the source of a two-dimensional image on an LED wall and photographing at least a portion of the LED wall with a camera. However, in this case, due to the limitations of the two-dimensional image source, the image captured by the camera causes the display portion of the LED wall to appear as a flat image rather than a three-dimensional image, resulting in a problem that the overall image appears unnatural.

다만, 상술한 내용은 단순히 본 발명에 대한 배경 정보를 제공할 뿐 기 공개된 기술에 해당하는 것은 아니다.However, the above-described content merely provides background information on the present invention and does not correspond to previously disclosed technology.

상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 2차원 이미지의 소스를 LED 벽체에 표시하여 카메라로 해당 LED 벽체의 적어도 일부를 촬영하는 버추얼 프로덕션 수행 시에 카메라에서 촬영되는 영상이 보다 입체적으로 보일 수 있도록 해당 2차원 이미지의 소스를 처리하는 기술을 제공하는데 그 목적이 있다.In order to solve the problems of the prior art as described above, the present invention displays the source of a two-dimensional image on an LED wall and performs a virtual production in which at least a part of the LED wall is photographed with a camera, so that the image captured by the camera is more visible. The purpose is to provide technology to process the source of the two-dimensional image so that it can be viewed three-dimensionally.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예에 따른 장치는, 버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치로서, 2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및 상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함한다.A device according to an embodiment of the present invention for solving the above problems is a virtual camera that is linked according to the movement and lens status of the camera that captures the first image, which is a live-action image, during virtual production-based shooting. A device that reproduces the second image containing the content of the virtual space captured by the light-emitting diode (LED) wall so that the second image is displayed, a memory that stores information about the two-dimensional flat image. ; and a control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image.

상기 제어부는 상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하며, 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate를 캡쳐하도록 제어할 수 있다.The control unit arranges a flat plate for the flat image in a virtual space, and arranges the flat plate at a position where the center point of the flat plate is spaced apart from the reference position in the virtual space, and then according to the curved separation distance. A concave hemispherical curved plate relative to the flat plate is created at a position spaced apart from the flat plate using the flat plate, and the virtual camera is linked according to the movement of the camera and the state of the lens to create the curved plate. You can control capture.

상기 곡면 Plate는 상기 곡면 이격 거리가 커질수록 커지는 면적을 가질 수 있다.The curved plate may have an area that increases as the distance between the curved surfaces increases.

상기 제어부는 상기 가상 카메라가 상기 기준 위치에서 상기 평면 Plate 및 상기 곡면 Plate를 바라볼 때에 각각이 동일하게 매칭되는 위치에 상기 곡면 Plate가 생성되도록 제어할 수 있다.The control unit may control the curved plate to be created at a position where each of the flat plate and the curved plate are identically matched when the virtual camera views the flat plate and the curved plate from the reference position.

상기 제어부는 상기 평면 Plate를 이루는 각 정점(Vertex)과 상기 곡면 Plate를 이루는 각 정점이 상기 기준 위치를 원점으로 하여 대응하는 위치에 상기 곡면 Plate가 생성되도록 제어할 수 있다.The control unit can control the curved plate to be created at a position where each vertex forming the flat plate and each vertex forming the curved plate have the reference position as the origin.

상기 제어부는 상기 기준 위치에서 상기 평면 Plate의 각 정점에 대한 연장선을 그을 때, 해당 연장선이 상기 평면 Plate과 만나는 상기 평면 Plate의 정점에 표시되는 이미지와, 해당 연장선이 상기 곡면 Plate와 만나는 상기 곡면 Plate의 정점에 표시되는 이미지가 동일하도록 하는 위치에 상기 곡면 Plate가 생성되도록 제어할 수 있다.When the control unit draws an extension line for each vertex of the flat plate at the reference position, the control unit displays an image displayed at the vertex of the flat plate where the extension line meets the flat plate, and the curved plate where the extension line meets the curved plate. The curved plate can be controlled to be created at a location such that the image displayed at the vertex is the same.

상기 제어부는 상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate가 배치되도록 제어할 수 있다.The control unit can control the arrangement of the flat plate using information about the camera setting state at the time the flat image is captured.

상기 제어부는 상기 평면 이미지에서 각 구분 이미지의 레이어에 대한 별도의 상기 곡면 Plate들을 각각 서로 다른 곡면 이격 거리에 따라 생성하며, 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하도록 제어할 수 있다.The control unit generates separate curved plates for each layer of each separate image in the flat image according to different curved separation distances, and the virtual camera is linked according to the movement of the camera and the state of the lens to create the curved plates. You can control capture.

상기 제어부는 제1 구분 이미지의 제1 레이어와, 제1 구분 이미지보다 원경인 제2 구분 이미지의 제2 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧게 설정되도록 제어할 수 있다.The control unit determines that, for the first layer of the first segment image and the second layer of the second segment image that is farther than the first segment image, the curved surface separation distance of the first layer is shorter than the curved surface separation distance of the second layer. You can control it to be set.

상기 제어부는 근경인 제1 구분 이미지의 제1 레이어와, 중경인 제2 구분 이미지의 제2 레이어와, 원경인 제3 구분 이미지의 제3 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧고, 상기 제2 레이어의 곡면 이격 거리가 상기 제3 레이어의 곡면 이격 거리보다 짧게 설정되도록 제어할 수 있다.The control unit determines the curved separation distance of the first layer with respect to the first layer of the first segment image that is the near-ground, the second layer of the second segment image that is the mid-view, and the third layer of the third segment image that is the distance. It is shorter than the curved surface separation distance of the second layer, and the curved surface separation distance of the second layer can be controlled to be set shorter than the curved surface separation distance of the third layer.

상기 제어부는 상기 곡면 Plate들 중에 적어도 하나에 대해 깊이 맵을 이용하여 해당 곡면 Plate의 적어도 하나의 정점이 해당 곡면 Plate로부터 기준 위치 측의 방향으로 돌출되도록 하여 해당 곡면 Plate에 대해 두께감이 부여되도록 제어할 수 있다.The control unit uses a depth map for at least one of the curved plates to control at least one vertex of the curved plate to protrude from the curved plate in the direction of the reference position, thereby providing a sense of thickness to the curved plate. You can.

본 발명의 일 실시예에 따른 방법은, 버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치에서 수행되는 방법으로서, 2차원의 평면 이미지에 대한 입체화의 영상 처리를 수행하는 단계; 및 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되어 상기 LED 벽체에 표시되도록 처리하는 단계;를 포함한다.The method according to an embodiment of the present invention is to capture content in a virtual space captured by a virtual camera that is linked according to the movement and lens status of the camera that captures the first image, which is a real-life image, during virtual production-based shooting. A method performed in a device for reproducing a second image such that the second image containing a light-emitting diode (LED) is displayed on a wall, comprising: performing three-dimensional image processing on a two-dimensional flat image; and processing the image resulting from the three-dimensional image processing to be included in the second image and displayed on the LED wall.

상기 수행하는 단계는, 상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치하는 단계; 및 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하는 단계;를 포함하며, 상기 처리하는 단계는 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate를 캡쳐하는 단계를 포함할 수 있다.The performing step includes placing a flat plate for the flat image in a virtual space, where the center point of the flat Plate is spaced from a reference position in the virtual space; and generating a concave hemispherical curved plate with respect to the flat plate at a position spaced apart from the flat plate according to the curved surface separation distance using the flat plate. The processing step includes: It may include capturing the curved plate while the virtual camera is linked according to movement and lens status.

상기 수행하는 단계는 상기 가상 카메라가 상기 기준 위치에서 상기 평면 Plate 및 상기 곡면 Plate를 바라볼 때에 각각이 동일하게 매칭되는 위치에 상기 곡면 Plate를 생성하는 단계를 포함할 수 있다.The performing step may include generating the curved plate at a position where each of the flat plate and the curved plate are identically matched when the virtual camera views the flat plate and the curved plate from the reference position.

상기 수행하는 단계는 상기 평면 Plate를 이루는 각 정점(Vertex)과 상기 곡면 Plate를 이루는 각 정점이 상기 기준 위치를 원점으로 하여 대응하는 위치에 상기 곡면 Plate를 생성하는 단계를 포함할 수 있다. The performing step may include creating the curved plate at a position where each vertex forming the flat plate and each vertex forming the curved plate correspond to the reference position as the origin.

상기 수행하는 단계는 상기 기준 위치에서 상기 평면 Plate의 각 정점에 대한 연장선을 그을 때, 해당 연장선이 상기 평면 Plate과 만나는 상기 평면 Plate의 정점에 표시되는 이미지와, 해당 연장선이 상기 곡면 Plate와 만나는 상기 곡면 Plate의 정점에 표시되는 이미지가 동일하도록 하는 위치에 상기 곡면 Plate를 생성하는 단계를 포함할 수 있다.The step of performing the above is when drawing an extension line for each vertex of the flat plate at the reference position, an image displayed at the vertex of the flat plate where the extension line meets the flat plate, and the image displayed at the vertex of the flat plate where the extension line meets the curved plate. It may include creating the curved plate at a location such that the images displayed at the vertices of the curved plate are the same.

상기 수행하는 단계는 상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate를 배치하는 단계를 포함할 수 있다.The performing step may include arranging the planar plate using information about the camera setting state at the time the planar image is captured.

상기 수행하는 단계는 상기 평면 이미지에서 각 구분 이미지의 레이어에 대한 별도의 상기 곡면 Plate들을 각각 서로 다른 곡면 이격 거리에 따라 생성하는 단계를 포함하며, 상기 처리하는 단계는 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하는 단계를 포함할 수 있다.The performing step includes generating separate curved plates for each layer of each separate image in the flat image according to different curved surface separation distances, and the processing step depends on the movement of the camera and the state of the lens. Accordingly, it may include capturing the curved plates while the virtual camera is linked.

상기 수행하는 단계는 제1 구분 이미지의 제1 레이어와, 제1 구분 이미지보다 원경인 제2 구분 이미지의 제2 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧게 설정하는 단계를 포함할 수 있다.The step of performing the above is that, for the first layer of the first segment image and the second layer of the second segment image that is farther than the first segment image, the curved surface separation distance of the first layer is the curved surface separation distance of the second layer. It may include a shorter setting step.

상기 수행하는 단계는 근경인 제1 구분 이미지의 제1 레이어와, 중경인 제2 구분 이미지의 제2 레이어와, 원경인 제3 구분 이미지의 제3 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧고, 상기 제2 레이어의 곡면 이격 거리가 상기 제3 레이어의 곡면 이격 거리보다 짧게 설정하는 단계를 포함할 수 있다.The performing step is a curved separation distance of the first layer with respect to the first layer of the first segment image that is the near-ground, the second layer of the second segment image that is the mid-ground, and the third layer of the third segment image that is the distance. may include setting the curved surface separation distance of the second layer to be shorter than the curved surface separation distance of the second layer and the curved surface separation distance of the third layer to be shorter than the curved surface separation distance of the third layer.

상기 수행하는 단계는 상기 곡면 Plate들 중에 적어도 하나에 대해 깊이 맵을 이용하여 해당 곡면 Plate의 적어도 하나의 정점이 해당 곡면 Plate로부터 기준 위치 측의 방향으로 돌출되도록 하여 해당 곡면 Plate에 대해 두께감을 부여하는 단계를 포함할 수 있다.The performing step uses a depth map for at least one of the curved plates to cause at least one vertex of the curved plate to protrude from the curved plate in the direction of the reference position, thereby giving a sense of thickness to the curved plate. May include steps.

본 발명의 일 실시에에 따른 시스템은 버추얼 프로덕션(virtual production) 기반 촬영을 위해 사용되는 시스템으로서, 실사 영상인 제1 영상을 촬영하는 카메라; 및 상기 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 재생 장치;를 포함하며, 상기 재생 장치는, 2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및 상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함한다.A system according to an embodiment of the present invention is a system used for virtual production-based shooting, and includes a camera for shooting a first image, which is a live-action image; and reproducing the second image so that the second image containing the contents of the virtual space captured by the virtual camera linked according to the movement of the camera and the state of the lens is displayed on the light-emitting diode (LED) wall. A device comprising: a memory storing information about a two-dimensional flat image; and a control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image.

본 발명의 일 실시예에 따른 프로그램은 적어도 하나의 프로세서에 의해서 실행되고, 상기 적어도 하나의 프로세서가 상술한 방법을 실행시키도록 매체 저장된 프로그램이다.A program according to an embodiment of the present invention is a program stored on a medium that is executed by at least one processor and causes the at least one processor to execute the above-described method.

상기와 같이 구성되는 본 발명은 2차원 이미지의 소스를 LED 벽체에 표시하여 카메라로 해당 LED 벽체의 적어도 일부를 촬영하는 버추얼 프로덕션 수행 시에 해당 2차원 이미지의 소스를 처리하여 카메라에서 촬영되는 영상이 보다 입체적으로 보일 수 있게 하는 이점이 있다.The present invention configured as described above displays the source of a two-dimensional image on an LED wall and processes the source of the two-dimensional image when performing a virtual production in which at least a portion of the LED wall is photographed with a camera so that the image captured by the camera is It has the advantage of making it look more three-dimensional.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 시스템(10)의 대략적인 블록 구성도를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 시스템(10)을 이용한 버추얼 프로덕션 촬영의 개념도를 나타낸다.
도 3 및 도 4는 도 2에 따른 촬영 중에 카메라(200)의 이동에 따라 연동되는 가상 카메라(VC)의 이동에 대한 다양한 예를 나타낸다.
도 5은 재생 장치(300)의 블록 구성도를 나타낸다.
도 6은 소실점에 대한 일 예를 나타낸다.
도 7은 포그 현상에 대한 일 예를 나타낸다.
도 8은 카메라가 LED 벽체의 측면 방향에서 촬영할 경우에 대한 일 예를 나타낸다.
도 9는 LED 벽체가 절곡된 표면 형태를 가질 때에 카메라로 촬영할 경우에 대한 일 예를 나타낸다.
도 10은 LED 벽체에 단순히 2차원 이미지의 소스를 표시한 상태에서 카메라로 촬영할 때에 나타나는 시차 효과(Parallax Effect) 부재에 대한 일 예를 나타낸다.
도 11 및 도 12는 애너모픽(Anamorphic) 왜곡에 대한 개념도의 예들을 나타낸다.
도 13은 평면 Plate(기준 평면)를 이용하여 곡면 Plate를 생성하는 개념도를 나타낸다.
도 14는 가상 카메라로 평면 Plate를 촬영할 경우에 대한 일 예를 나타낸다.
도 15는 가상 카메라로 곡면 Plate를 촬영할 경우에 대한 일 예를 나타낸다.
도 16은 가상 공간에서 도 7의 평면 소스에 대해 거리 별로 구분된 다수의 구분 이미지에 대한 각 레이어(Lyaer)를 생성하는 모습에 대한 일 예를 나타낸다.
도 17은 가상 공간에서 도 16에 따라 각 구분 이미지의 레이어에 대해 각 곡면 Plate를 생성하는 모습을 나타낸다.
도 18은 가상 공간에서 가상 카메라(VC)가 도 17에 따라 생성된 각 곡면 Plate를 대향하면서 좌측에서 우측으로 이동하면서 촬영한 제2 영상의 예들을 나타낸다.
도 19는 도 16에 따라 생성된 각 레이어(Layer 1, Layer 2, Layer 3)에 대해 깊이 맵(Depth Map)을 적용하는 과정에 대한 모습의 일 예를 나타낸다.
도 20은 도 16에 따라 생성된 레이어들(Layer 1, Layer 2, Layer 3) 중에 제3 레이어(Layer 3)에 대해 깊이 맵(Depth Map)을 적용한 모습의 일 예를 나타낸다.
도 21 및 도 22는 도 16에 따라 생성된 레이어들(Layer 1, Layer 2, Layer 3) 중에 제1 레이어(Layer 1)에 대해 깊이 맵(Depth Map)을 적용한 후 가상 카메라로 촬영한 결과인 제2 영상에 대한 예들을 나타낸다.
도 23은 본 발명의 일 실시예에 따른 처리 방법의 동작 순서도를 나타낸다.
도 24는 평면 Plate를 사용하는 제1 방식과, Layered Plate를 사용하는 제2 방식에 따른 촬영 모습에 대한 일 예를 나타낸다.
도 25는 제1 방식에 따른 촬영 결과에 대한 일 예를 나타낸다.
도 26은 제2 방식에 따른 촬영 결과에 대한 일 예를 나타낸다.
도 27은 제1 및 제2 방식에 따른 촬영에 대한 예들을 나타낸다.
Figure 1 shows a schematic block diagram of a system 10 according to an embodiment of the present invention.
Figure 2 shows a conceptual diagram of virtual production shooting using the system 10 according to an embodiment of the present invention.
FIGS. 3 and 4 show various examples of movement of the virtual camera (VC) linked with the movement of the camera 200 during filming according to FIG. 2.
Figure 5 shows a block diagram of the playback device 300.
Figure 6 shows an example of a vanishing point.
Figure 7 shows an example of a fog phenomenon.
Figure 8 shows an example when a camera takes pictures from the side of an LED wall.
Figure 9 shows an example of shooting with a camera when the LED wall has a bent surface shape.
Figure 10 shows an example of the absence of the parallax effect that appears when shooting with a camera while simply displaying the source of a two-dimensional image on an LED wall.
Figures 11 and 12 show examples of conceptual diagrams for anamorphic distortion.
Figure 13 shows a conceptual diagram of creating a curved plate using a flat plate (reference plane).
Figure 14 shows an example of photographing a flat plate with a virtual camera.
Figure 15 shows an example of photographing a curved plate with a virtual camera.
FIG. 16 shows an example of generating each layer (Lyaer) for a plurality of separate images divided by distance with respect to the plane source of FIG. 7 in virtual space.
Figure 17 shows the creation of each curved plate for the layer of each separate image according to Figure 16 in virtual space.
FIG. 18 shows examples of second images captured while the virtual camera (VC) moves from left to right while facing each curved plate created according to FIG. 17 in virtual space.
FIG. 19 shows an example of the process of applying a depth map to each layer (Layer 1, Layer 2, and Layer 3) created according to FIG. 16.
FIG. 20 shows an example of applying a depth map to the third layer (Layer 3) among the layers (Layer 1, Layer 2, and Layer 3) created according to FIG. 16.
Figures 21 and 22 are the results of shooting with a virtual camera after applying a depth map to the first layer (Layer 1) among the layers (Layer 1, Layer 2, and Layer 3) created according to Figure 16. Examples of the second image are shown.
Figure 23 shows an operational flowchart of a processing method according to an embodiment of the present invention.
Figure 24 shows an example of a shooting image according to a first method using a flat plate and a second method using a layered plate.
Figure 25 shows an example of a photographing result according to the first method.
Figure 26 shows an example of a photographing result according to the second method.
Figure 27 shows examples of imaging according to the first and second methods.

본 발명의 상기 목적과 수단 및 그에 따른 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.The above purpose and means of the present invention and the resulting effects will become clearer through the following detailed description in conjunction with the accompanying drawings, and thus the technical idea of the present invention will be easily understood by those skilled in the art. It will be possible to implement it. Additionally, in describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 경우에 따라 복수형도 포함한다. 본 명세서에서, "포함하다", "구비하다", "마련하다" 또는 "가지다" 등의 용어는 언급된 구성요소 외의 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing embodiments and is not intended to limit the invention. In this specification, singular forms also include plural forms, as appropriate, unless specifically stated otherwise in the context. In this specification, terms such as “comprise,” “provide,” “provide,” or “have” do not exclude the presence or addition of one or more other components other than the mentioned components.

본 명세서에서, "또는", "적어도 하나" 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, "A 또는 B", "A 및 B 중 적어도 하나"는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.In this specification, terms such as “or” and “at least one” may represent one of words listed together, or a combination of two or more. For example, “A or B”, “at least one of A and B” may include only A or B, or both A and B.

본 명세서에서, "예를 들어" 등에 따르는 설명은 인용된 특성, 변수, 또는 값과 같이 제시한 정보들이 정확하게 일치하지 않을 수 있고, 허용 오차, 측정 오차, 측정 정확도의 한계와 통상적으로 알려진 기타 요인을 비롯한 변형과 같은 효과로 본 발명의 다양한 실시 예에 따른 발명의 실시 형태를 한정하지 않아야 할 것이다.In this specification, descriptions under "for example" and the like may not exactly match the information presented, such as the cited characteristics, variables, or values, and may be subject to tolerances, measurement errors, limits of measurement accuracy and other commonly known factors. Effects such as modifications, including, should not limit the embodiments of the invention according to various embodiments of the present invention.

본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 기재된 경우, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성 요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.In this specification, when a component is described as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but other components may exist in between. It must be understood that it may be possible. On the other hand, when a component is mentioned as being 'directly connected' or 'directly connected' to another component, it should be understood that there are no other components in between.

본 명세서에서, 어떤 구성요소가 다른 구성요소의 '상에' 있다거나 '접하여' 있다고 기재된 경우, 다른 구성요소에 상에 직접 맞닿아 있거나 또는 연결되어 있을 수 있지만, 중간에 또 다른 구성요소가 존재할 수 있다고 이해되어야 할 것이다. 반면, 어떤 구성요소가 다른 구성요소의 '바로 위에' 있다거나 '직접 접하여' 있다고 기재된 경우에는, 중간에 또 다른 구성요소가 존재하지 않은 것으로 이해될 수 있다. 구성요소 간의 관계를 설명하는 다른 표현들, 예를 들면, '~사이에'와 '직접 ~사이에' 등도 마찬가지로 해석될 수 있다.In this specification, when a component is described as being ‘on’ or ‘in contact with’ another component, it may be in direct contact with or connected to the other component, but there may be another component in between. It must be understood that it can be done. On the other hand, if a component is described as being 'right above' or 'in direct contact' with another component, it can be understood that there is no other component in the middle. Other expressions that describe the relationship between components, such as 'between' and 'directly between', can be interpreted similarly.

본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.In this specification, terms such as 'first' and 'second' may be used to describe various components, but the components should not be limited by the above terms. Additionally, the above term should not be interpreted as limiting the order of each component, but may be used for the purpose of distinguishing one component from another component. For example, a 'first component' may be named a 'second component', and similarly, a 'second component' may also be named a 'first component'.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하도록 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the attached drawings.

먼저, 본 발명을 이해하기 위해 3가지 다른 관점으로 버추얼 프로덕션 기술에 대해 살펴본다.First, to understand the present invention, we will look at virtual production technology from three different perspectives.

1. 영상 제작 단계 관점1. Video production stage perspective

일반적으로 게임 엔진이라 불리는 실시간 그래픽 렌더링 기술은 최근 실사 수준의 품질을 보일 만큼 진화를 거듭하고 있다. 이러한 즉각적이고 고품질의 시각화 기술은 사전 기획(Pre) - 제작(Production) - 후반 작업(Post)으로 구분되는 영상 제작 파이프라인의 여러 지점에 각기 다른 용도로 활용될 수 있다.Real-time graphics rendering technology, commonly referred to as game engines, has recently evolved to the point where it can achieve photo-realistic quality. This immediate, high-quality visualization technology can be used for different purposes at various points in the video production pipeline, which is divided into pre-planning (Pre) - production (production) - post-production (Post).

먼저, 사전 기획 단계에서는 스토리에 대한 시각화(Pre Vis)나 공간/장비에 대한 시뮬레이션(Tech Vis)에 게임 엔진을 적극적으로 사용할 수 있다. 즉, 계획 단계에서 컨텐츠의 전개뿐만 아니라 공간, 카메라의 움직임, 컷 편집 등을 미리 구현해보고 각종 이슈들을(세트 크기, 동선, 렌즈 화각 등) 사전에 점검하는 것이다. 특히, 최근에는 영화를 중심으로 VR Scouting 기법을 통해 가상 환경 안에서 구성 요소를 편집하거나 가상 카메라를 들고 촬영 시뮬레이션을 하는 등 가상 현실 기술의 활용 범위가 늘어나고 있다.First, in the pre-planning stage, the game engine can be actively used for story visualization (Pre Vis) or space/equipment simulation (Tech Vis). In other words, in the planning stage, not only the development of content, but also space, camera movement, cut editing, etc. are implemented in advance and various issues (set size, movement line, lens angle of view, etc.) are checked in advance. In particular, recently, the scope of use of virtual reality technology has been increasing, focusing on movies, such as editing components in a virtual environment through VR scouting techniques or simulating shooting with a virtual camera.

다음으로, 제작 단계에서는 후반(Post)에서 이루어지던 CG(computer graphics) 합성을 촬영과 동시에 진행하여 라이브로 송출하거나 후반 합성 부담을 줄이는 형태로 버추얼 프로덕션 기술이 사용된다. 이를 위해, 카메라의 움직임을 파악하는 트래킹 장치와 함께 실사 영상과 CG를 실시간으로 합성해 주는 XR 솔루션이 사용된다.Next, at the production stage, virtual production technology is used to perform CG (computer graphics) compositing, which was done in post, at the same time as filming and transmit it live, or to reduce the burden of post-compositing. For this purpose, an XR solution that synthesizes real-time video and CG in real time is used along with a tracking device that detects camera movement.

마지막으로, 후반 작업 단계에서는 촬영 중 생성된 트래킹 정보 등의 상태 데이터를 활용할 수 있다. 이를 이용하여 촬영이 끝난 이후라도 추가적인 이팩트나 CG 요소를 생성할 수 있고 문제가 있거나 수정이 필요한 장면을 더 빠르게 보정할 수 있다. Lastly, in the post-production stage, status data such as tracking information generated during filming can be utilized. Using this, additional effects or CG elements can be created even after filming is completed, and scenes that have problems or need correction can be corrected more quickly.

2. CG 합성 방식 관점2. CG compositing method perspective

버추얼 프로덕션 기술 중 핵심은 실제 공간과 가상 공간을 동기화하여 이질감 없이 실시간으로 CG와 실사 영상을 합성하거나 LED에 표출하는 시각화 기능이다. 따라서, CG가 합성되는 유형에 따라 VR(virtual reality), AR(augmented reality), XR(extended reality)이라는 용어가 사용되기도 한다.The core of virtual production technology is the visualization function that synchronizes real space and virtual space and synthesizes CG and live-action images in real time or displays them on LED without any sense of heterogeneity. Therefore, depending on the type of CG synthesis, the terms VR (virtual reality), AR (augmented reality), and XR (extended reality) are sometimes used.

먼저, VR은 크로마키(chroma key) 스튜디오를 기반으로 하는 실시간 공간 합성을 의미한다. 가령, 어떤 인물과 가상 공간을 동시에 3인칭으로 보여주기 위해, VR 방식의 버추얼 프로덕션 기술이 사용될 수 있다. 즉, 실시간 트래킹이 되는 카메라를 통해 마치 가상 현실 안에서 직접 촬영하는 것과 같은 효과를 얻을 수 있다. 이와 같은 연출이 가능한 이유는 가상 공간이 합성된 영상이 실시간으로 생성되어 카메라 감독과 연출자에게 제공되어 즉각적인 판단과 대응이 가능하기 때문이다. First, VR refers to real-time spatial synthesis based on chroma key studio. For example, VR-type virtual production technology can be used to show a person and a virtual space simultaneously in the third person. In other words, you can achieve the same effect as shooting directly in virtual reality through a camera with real-time tracking. The reason why this kind of production is possible is because the video synthesized from the virtual space is created in real time and provided to the camera director and director, allowing immediate judgment and response.

AR의 경우, VR과 반대로 실사 영상 위에 특정 그래픽을 더하는 방식을 의미하며, 최근에는 방송, 공연, 제품 론칭쇼 등의 이벤트에 많이 활용되고 있다. 특히, Realtime Ray Tracing이나 DLSS와 같은 렌더링 기술의 발전으로 인해 게임 엔진의 CG 품질이 점차 실사에 근접해짐에 따라 물리적으로 구현하기 어려운 장면이나 비용이 많이 들어가는 연출 등을 AR 그래픽으로 표현하려는 시도들이 늘어나고 있다. 가령, 실제 무대 공간에 자동차 1대만 있는 영상에 AR 요소들을 추가하여 새로운 자동차가 바닥에서 나오거나 새로운 건물이 생성되는 등의 특수한 연출이 가능하다.In the case of AR, as opposed to VR, it refers to a method of adding specific graphics to live video, and has recently been widely used in events such as broadcasts, performances, and product launch shows. In particular, as the CG quality of game engines gradually approaches real-life due to the development of rendering technologies such as Realtime Ray Tracing and DLSS, attempts to express scenes that are difficult to implement physically or production that costs a lot of money with AR graphics are increasing. there is. For example, by adding AR elements to a video with only one car in the actual stage space, special productions such as a new car emerging from the floor or a new building being created are possible.

XR의 경우, 2020년부터 비대면 이벤트를 중심으로 본격적으로 사용되고 있다. AR이나 VR과 달리, XR은 원경과 근경을 모두 CG로 합성하여 완전히 가상 공간 안에 있는 것과 같은 표현이 가능하다. 이를 위해, LED 벽체를 배경에 배치하여 원경 장면을 출력하고, 피촬영자의 앞에 AR 그래픽을 더하여 공간감을 표현하며, LED 벽체의 물리적 경계 밖을 CG로 확장하여 마치 무한대의 공간에 있는 것과 같은 표현도 가능하다. In the case of XR, it has been used in earnest since 2020, focusing on non-face-to-face events. Unlike AR or VR, XR synthesizes both distant and near scenes with CG, allowing the user to express themselves as if they were completely in a virtual space. To this end, an LED wall is placed in the background to output a distant scene, AR graphics are added in front of the subject to express a sense of space, and the physical boundaries of the LED wall are expanded with CG to create an expression as if one is in an infinite space. possible.

3. 활용 목적 관점3. Purpose of use perspective

AR, VR 및 XR 기술은 방송, 공연, 영화 등 다양한 영역에서 사용될 수 있다. 유사한 XR 기술이지만 방송, 공연 등 이벤트 중심의 촬영과 영화, 드라마 등의 극 영상 촬영에서의 사용 시 그 접근법에 차이가 존재한다.AR, VR, and XR technologies can be used in various areas such as broadcasting, performances, and movies. Although it is a similar XR technology, there is a difference in the approach when used in event-oriented filming such as broadcasting and performances and dramatic video filming such as movies and dramas.

먼저, 이벤트 촬영에서 버추얼 프로덕션 기술은 주로 신선한 비주얼 이펙트를 빠르게 생성하거나 별도의 후반 작업 없이 현장에서 바로 합성된 영상을 얻기 위해 사용된다. 이러한 영상은 바로 라이브로 송출되거나 짧은 편집 기간을 거쳐 빠르게 소비된다. 따라서, 컨텐츠의 품질이나 기술적 한계에 대한 관용도는 비교적 넓은 편이나 카메라 움직임 속도, 영상 지연율(Latency)에 대한 요구 수준이 높다. 반면, 영화와 같은 극 영상 제작에서는 전문적인 촬영 기법에 대한 충실한 지원과 함께 최종 영상의 품질에 좀 더 포커스를 맞추고 있다. 가령, 공연과 같은 이벤트 촬영에서는 LED 벽체의 LED 소자가 보이거나 모아레 현상(카메라 CCD의 격자와 LED 소자 격자 간 간섭)이 조금씩 보이는 수준은 용인되지만 영화에서는 절대로 안 된다. 또한 LED 벽체의 외부 영역을 실시간으로 확장하여 채우는 표현도 자세히 보면 약간의 유격과 색상차가 있으므로 이벤트 촬영에만 주로 사용되고 있다. 카메라의 경우 전자는 B4마운트의 방송용 카메라와 줌렌즈가 사용되지만 후자는 대형 CCD의 시네마 카메라와 단렌즈가 주로 사용된다. First, in event filming, virtual production technology is mainly used to quickly create fresh visual effects or obtain synthesized video directly on site without additional post-production work. These videos are broadcast live immediately or consumed quickly after a short editing period. Therefore, tolerance for content quality or technical limitations is relatively wide, but requirements for camera movement speed and video latency are high. On the other hand, in dramatic video production such as movies, more focus is placed on the quality of the final video along with faithful support for professional filming techniques. For example, when shooting an event such as a performance, it is acceptable to see LED elements on an LED wall or to slightly show moiré phenomenon (interference between the grid of the camera CCD and the grid of LED elements), but it is absolutely not allowed in movies. In addition, if you look closely at the expression that expands and fills the external area of the LED wall in real time, there is a slight gap and color difference, so it is mainly used only for event photography. In the case of cameras, B4 mount broadcast cameras and zoom lenses are used for the former, but large CCD cinema cameras and single lenses are mainly used for the latter.

한편, 버추얼 프로덕션 기술 중에 하나인 In Camera VFX 기술은 대형 LED 벽체 공간에 카메라 움직임을 반영한 CG를 매핑하고 촬영 지점을 이동하거나 공간 상태를 바꿔가며 다양한 장면을 촬영하는 방식을 의미한다. 공연에서의 XR 촬영과 유사한 부분도 있으나 보다 크고 고사양의 LED 벽체를 기반으로 자연스러운 공간 조명과 반사 표현에 좀 더 집중하는 형태로 장치들이 구성된다.Meanwhile, In Camera VFX technology, one of the virtual production technologies, refers to a method of mapping CG that reflects camera movements on a large LED wall space and filming various scenes by moving the shooting point or changing the spatial state. There are some similarities to XR shooting at performances, but the devices are constructed in a form that focuses more on natural spatial lighting and reflection based on larger, higher-spec LED walls.

도 1은 본 발명의 일 실시예에 따른 시스템(10)의 대략적인 블록 구성도를 나타낸다.Figure 1 shows a schematic block diagram of a system 10 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 시스템(10)(이하, "본 시스템"이라 지칭함)은 상술한 버추얼 프로덕션의 촬영을 위해 사용되는 시스템으로서, 도 1에 도시된 바와 같이, 발광 소자 벽체(light-emitting diode wall; LED wall)(100), 카메라(camera)(200) 및 재생 장치(player)(300)를 포함할 수 있다.System 10 (hereinafter referred to as “this system”) according to an embodiment of the present invention is a system used for filming the above-described virtual production, and as shown in FIG. 1, a light-emitting device wall (light- It may include an emitting diode wall (LED wall) 100, a camera 200, and a player 300.

본 시스템(10)에서, 재생 장치(300)를 통해 재생되는 다양한 미디어(즉, 영상)가 LED 벽체(100)의 전면에 위치한 표시부를 통해 표시되며, 이러한 상태에서 LED 벽체(100)의 표시부 중 적어도 일부와, LED 벽체(100)의 전방에 위치한 인물(A) 또는 사물(O)을 함께 카메라(200)로 촬영한다. 물론, 카메라(200의 촬영 중에 필요할 경우, 조명 효과, 번개 효과, 음향 효과, 바람 효과, 안개(fog) 효과, 눈(snow) 효과, 또는 비(rain) 효과 등에 해당하는 외부 환경 요소가 특수 효과 장치(미도시)를 통해 첨가될 수 있다. 이때, 제어 장치(미도시)를 통해 재생 장치(300)와 특수 효과 장치를 제어함으로써 버추얼 프로덕션의 영상 촬영이 보다 원활하게 수행될 수 있다.In this system 10, various media (i.e., images) played through the playback device 300 are displayed through the display unit located on the front of the LED wall 100, and in this state, one of the display units of the LED wall 100 At least a portion of the person (A) or object (O) located in front of the LED wall 100 is photographed together with the camera 200. Of course, external environmental elements such as lighting effects, lightning effects, sound effects, wind effects, fog effects, snow effects, or rain effects may be added to the camera (if necessary during filming of 200). It can be added through a device (not shown). At this time, video shooting for virtual production can be performed more smoothly by controlling the playback device 300 and the special effect device through a control device (not shown).

구체적으로, LED 벽체(100)는 재생 장치(300)에 의해 재생되는 미디어를 LED 방식으로 전면의 표시부에 표시하는 거대한 디스플레이 장치로서, 벽체 형상을 가질 수 있다. 물론, LED 벽체(100)는 서로 다른 각도로 미디어를 표시하는 서로 다른 각도의 벽체들을 포함하거나, 바닥면에서 상부를 향해 미디어를 표시하는 벽체도 포함할 수 있으나, 이에 한정되는 것은 아니다. Specifically, the LED wall 100 is a large display device that displays media played by the playback device 300 on the front display using an LED method, and may have a wall shape. Of course, the LED wall 100 may include walls with different angles that display media at different angles, or may also include walls that display media from the bottom to the top, but is not limited thereto.

LED 벽체(100)는 n개(단, n은 2이상의 자연수) 구역으로 나눠진 소단위 디스플레이(110)를 포함할 수 있다. 즉, LED 벽체(100)는 소단위 디스플레이(110)들을 통해 하나의 대형 디스플레이를 구현할 수 있다. 이때, LED 벽체(100)는 재생 장치(300)의 종류에 따라 다양한 미디어를 표시할 수 있다. 즉, 다수의 재생 장치(300) 중 제어 장치(미도시)의 제어에 따라 선택된 미디어가 재생 장치(300)에 의해 재생되며, 이와 같이 재생되는 미디어가 LED 벽체(100)를 통해 표시될 수 있다.The LED wall 100 may include a small unit display 110 divided into n zones (where n is a natural number of 2 or more). In other words, the LED wall 100 can implement one large display through small unit displays 110. At this time, the LED wall 100 can display various media depending on the type of playback device 300. That is, the media selected among the plurality of playback devices 300 under the control of a control device (not shown) is played by the playback device 300, and the media played in this way can be displayed through the LED wall 100. .

예를 들어, 이미지(image), 비디오(video) 및 카메라 트래킹(camera tracking) 연동 영상 중 적어도 하나의 미디어가 LED 벽체(100)를 통해 표시될 수 있다. 다만, 본 발명에서는 2차원 이미지의 소스를 후술에 따라 영상 처리한 입체적인 이미지가 LED 벽체(100)를 통해 표시하는 내용을 다루므로, 이하에서는 이미지에 관련된 미디어가 재생 장치(300)의 영상 처리 및 재생에 따라 LED 벽체(100)에 표시되는 것으로 설명하도록 한다. 즉, 본 발명에서, LED 벽체(100)를 통해 표시되는 영상 처리된 이미지의 화면을 카메라(200)에서 촬영할 경우, 카메라(200)에서 촬영된 영상은 해당 영상 처리에 따라 원래의 2차원 이미지의 소스보다 입체적으로 보일 수 있게 된다. 이러한 2차원 이미지의 소스에 대한 입체적 표시 효과를 위한 영상 처리에 대해서는 후술하도록 한다.For example, at least one media among images, videos, and camera tracking images may be displayed through the LED wall 100. However, since the present invention deals with the content of a three-dimensional image displayed through the LED wall 100 by processing the source of a two-dimensional image as described later, hereinafter, media related to the image are used for image processing and image processing of the playback device 300. The explanation will be that it is displayed on the LED wall 100 according to playback. That is, in the present invention, when the screen of the image-processed image displayed through the LED wall 100 is captured by the camera 200, the image captured by the camera 200 is the original two-dimensional image according to the image processing. It can appear more three-dimensional than the source. Image processing for a three-dimensional display effect for the source of such two-dimensional images will be described later.

카메라(200)는 실제 공간(물리 공간)에 존재하는 대상물에 대한 광학 작용에 의해 실사 영상인 제1 영상을 촬영한다. 즉, 카메라(200)는 LED 벽체(100)의 표시부 중 적어도 일부와, LED 벽체(100)의 전방에 위치한 인물(A) 또는 사물(O)을 함께 촬영할 수 있다. 이에 따라, 촬영된 제1 영상 내에는 인물(A) 또는 사물(O)과, LED 벽체(100)의 표시부에서 표시되어 인물(A) 또는 사물(O)의 배경 요소가 되는 미디어가 함께 포함될 수 있다. 물론, 필요에 따라 카메라(200)는 복수 개가 마련될 수 있다. 일례로, 제1 영상은 시간에 따라 다양한 이미지가 변화되는 비디오일 수 있다. 이와 같이 카메라(200)에서 촬영된 실사 영상인 제1 영상은 녹화 장치(미디어)로 전달되어 녹화될 수 있다.The camera 200 captures a first image, which is a real-life image, by optical action on an object existing in real space (physical space). That is, the camera 200 can photograph at least a portion of the display portion of the LED wall 100 and a person (A) or object (O) located in front of the LED wall 100. Accordingly, the captured first image may include a person (A) or an object (O) and media that is displayed on the display unit of the LED wall 100 and becomes a background element of the person (A) or object (O). there is. Of course, a plurality of cameras 200 may be provided as needed. For example, the first image may be a video in which various images change over time. In this way, the first image, which is a live-action image captured by the camera 200, can be transmitted to a recording device (media) and recorded.

또한, 카메라(200)의 움직임 및 렌즈 상태를 트래킹 장치(미도시)에 의해 파악될 수 있다. 이러한 트래킹 정보는 카메라 트래킹 연동 영상을 재생하는 재생 장치(300)로 전달될 수 있다. 일례로, 트래킹 장치는 카메라(200)에 설치(연결)된 장치로서, 카메라(200)의 움직임 및 렌즈 상태를 트래킹(tracking)하여 해당 트래킹에 대한 데이터인 트래킹 정보를 생성한다. 이때, 트래킹 정보에 포함된 카메라(200)의 움직임에 대한 데이터는 카메라(200)의 위치 및 각도 등에 관련된 데이터를 포함할 수 있다. 또한, 트래킹 정보에 포함된 렌즈 상태에 대한 데이터는 카메라(200)의 렌즈의 줌(zoom) 및 포커스(focus) 등에 관련된 데이터를 포함할 수 있다.Additionally, the movement of the camera 200 and the state of the lens can be determined by a tracking device (not shown). This tracking information can be transmitted to the playback device 300 that plays the camera tracking linked video. For example, a tracking device is a device installed (connected) to the camera 200 and tracks the movement and lens state of the camera 200 to generate tracking information, which is data for the tracking. At this time, data about the movement of the camera 200 included in the tracking information may include data related to the position and angle of the camera 200. Additionally, data on the lens state included in the tracking information may include data related to the zoom and focus of the lens of the camera 200.

일례로, 트래킹 장치는 실시간 비전 센싱을 기반으로 하는 광학식 방식이거나, 기계의 회전 값을 조합해 계산하는 인코더 방식 등으로 구현될 수 있다. 이러한 트래킹 장치는 제조사 고유의 전송 프로토콜을 가지는 동시에 FreeD라는 UDP 방식의 공용 프로토콜로 카메라(200)의 위치, 각도 및 렌즈 상태(줌 및 포커스)에 대한 데이터를 포함하는 트래킹 정보를 전달할 수 있다. For example, the tracking device can be implemented using an optical method based on real-time vision sensing or an encoder method that calculates by combining the rotation value of the machine. This tracking device has the manufacturer's own transmission protocol and can transmit tracking information including data on the position, angle, and lens status (zoom and focus) of the camera 200 using a common UDP-type protocol called FreeD.

재생 장치(300)는 컴퓨팅(computing)이 가능한 전자 장치로서, 실시간 렌더링 CG(computer graphics)를 위한 정보(즉, LED 벽체(100)에 표시될 미디어에 대한 정보)를 저장하고 있고 해당 미디어를 재생할 수 있다. 특히, 재생 장치(300)는 트래킹 장치로부터 전달된 카메라(200)의 트래킹 정보에 기반한 연동 영상(이하, 이를 "카메라 트래킹 연동 연상"이라고 지칭할 수도 있음)가 LED 벽체(100)에 표시되도록 재생할 수 있다. 이때, 카메라 트래킹 연동 영상을 재생하는 재생 장치(300)를 "N 플레이어"라고도 지칭할 수 있다.The playback device 300 is an electronic device capable of computing, stores information for real-time rendering CG (computer graphics) (i.e., information about media to be displayed on the LED wall 100), and plays the media. You can. In particular, the playback device 300 plays the linked image based on the tracking information of the camera 200 transmitted from the tracking device (hereinafter, this may be referred to as “camera tracking linked association”) so that it is displayed on the LED wall 100. You can. At this time, the playback device 300 that plays the camera tracking linked video may also be referred to as “N Player.”

이때, 카메라 트래킹 연동 영상은 카메라(200)의 움직임 및 렌즈 상태를 반영하여 재생되는 미디어의 컨텐츠가 변경되는 영상이다. 즉, 카메라(200)가 움직이거나 렌즈 상태가 변동되는 경우, 가상 공간의 컨텐츠를 촬영(캡처)하는 가상 카메라(VC)가 해당 변경에 따라 함께 가상 공간 내에서 연동되면서, 해당 가상 공간 내의 컨텐츠에 대한 위치 또는 각도 등이 변경된 영상(즉, 카메라 트래킹 연동 영상)이 가상 카메라(VC)에서 촬영되며, 이와 같이 촬영된 카메라 트래킹 연동 연상이 재생 장치(200)에 의해 재생되면서 LED 벽체(100)에 표시될 수 있다. 이를 위해, 카메라(200)의 움직임 및 렌즈 상태를 파악하는 트래킹 장치가 해당 트래킹 정보를 재생 장치(300)로 전달하며, 재생 장치(300)는 전달받은 트래킹 정보에 기반한 카메라 트래킹 연동 영상을 재생한다.At this time, the camera tracking linked video is an video in which the contents of the media being played are changed by reflecting the movement of the camera 200 and the state of the lens. In other words, when the camera 200 moves or the lens state changes, the virtual camera (VC) that photographs (captures) the contents of the virtual space is linked within the virtual space according to the change, thereby affecting the content within the virtual space. An image whose position or angle has been changed (i.e., camera tracking-linked video) is captured by a virtual camera (VC), and the camera tracking-linked image captured in this way is played by the playback device 200 and displayed on the LED wall 100. can be displayed. To this end, a tracking device that determines the movement and lens status of the camera 200 transmits the tracking information to the playback device 300, and the playback device 300 plays a camera tracking linked video based on the received tracking information. .

예를 들어, 전자 장치는 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 태블릿 PC(tablet personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 스마트패드(smart pad) 또는 미디어 재생 장치 등일 수 있으나, 이에 한정되는 것은 아니다.For example, electronic devices include desktop personal computers, laptop personal computers, tablet personal computers, netbook computers, workstations, and smart pads. Or it may be a media playback device, but it is not limited thereto.

일례로, 재생 장치(300)는 LED 벽체(100)의 n개 소단위 디스플레이를 각각 담당하여 재생하도록 구비될 수 있다. 특히, N 플레이어의 경우, 카메라 트래킹 연동 영상에 따른 데이터가 많으므로, 각 소단위 디스플레이를 담당하여 분할된 카메라 트래킹 연동 영상을 재생하는 n개의 N 플레이어가 구비될 수도 있다. For example, the playback device 300 may be equipped to play each of the n small unit displays of the LED wall 100. In particular, in the case of the N player, since there is a lot of data related to camera tracking linked video, n N players may be provided to play the divided camera tracking linked video in charge of each small unit display.

즉, N 플레이어는 LED에 표시되는 가상 공간 영상을 n개의 구역으로 나누어 재생하는 플레이어이다. 따라서, n개의 N 플레이어는 n개의 렌더링 가능한 각 전자 장치에서 실행되며 각 N 플레이어는 제어 프로그램과 실시간 통신하며 제어 신호를 주고받게 된다. 다만, N 플레이어의 경우, 단순히 큰 영상을 큰 화면에 분할하여 표시하는 방식이 아닐 수 있다. 가령, In Camera VFX 촬영을 위해, N 플레이어는 실제 카메라(200)의 움직임 및 렌즈 상태를 가상 카메라에 그대로 투영하여 실제 카메라(200)의 렌즈에 담기는 영역(프러스텀)을 다른 영역 보다 높은 해상도로 시각화하고, LED 벽체(100)의 형태를 반영 및 왜곡할 수 있다. 이에 따라, 카메라(200)의 뷰 파인더의 시선에서 봤을 때에는(즉, 카메라(200)에서 촬영된 제1 영상에서는), LED 벽체(100)에서 표시되는 미디어에 따른 가상 공간이 마치 실제 입체 공간처럼 표시될 수 있다.In other words, the N player is a player that divides the virtual space image displayed on the LED into n zones and plays it. Accordingly, n N players run on each of the n rendering capable electronic devices, and each N player communicates with the control program in real time and exchanges control signals. However, in the case of N Player, it may not be possible to simply split and display a large video on a large screen. For example, for In Camera VFX shooting, N Player projects the movement and lens state of the real camera 200 onto the virtual camera and sets the area (frustum) contained in the lens of the real camera 200 to a higher resolution than other areas. It can be visualized, and the shape of the LED wall 100 can be reflected and distorted. Accordingly, when viewed from the perspective of the viewfinder of the camera 200 (i.e., in the first image captured by the camera 200), the virtual space according to the media displayed on the LED wall 100 appears as if it were an actual three-dimensional space. can be displayed.

도 2는 본 발명의 일 실시예에 따른 시스템(10)을 이용한 버추얼 프로덕션 촬영의 개념도를 나타낸다.Figure 2 shows a conceptual diagram of virtual production shooting using the system 10 according to an embodiment of the present invention.

즉, 도 2를 참조하면, 카메라(200)를 통해 실사 영상인 제1 영상(V1)이 촬영되는데, 이때 트래킹 장치가 카메라(200)의 움직임 및 렌즈 상태에 대한 트래킹 정보를 생성하며, 생성된 트래킹 정보는 재생 장치(300)로 전달된다. 물론, 트래킹 장치와 재생 장치(300)의 사이에 트래킹 정보를 트래킹 장치로부터 수신하여 재생 장치(300)로 전달하는 서버(미도시)가 포함될 수 있다. 이후, 재생 장치(300)에서는 전달받은 트래킹 정보에 기반하여 연동되는 가상 공간의 컨텐츠(B)를 담은 제2 영상(V2)(즉, 카메라 트래킹 연동 영상)의 미디어가 LED 벽체(100)에 표시되도록 재생한다. That is, referring to FIG. 2, the first image V1, which is a live-action image, is captured through the camera 200. At this time, the tracking device generates tracking information about the movement of the camera 200 and the state of the lens, and the generated Tracking information is transmitted to the playback device 300. Of course, a server (not shown) that receives tracking information from the tracking device and transmits it to the playback device 300 may be included between the tracking device and the playback device 300. Afterwards, in the playback device 300, the media of the second video V2 (i.e., camera tracking linked video) containing the content B of the virtual space linked based on the received tracking information is displayed on the LED wall 100. Play it as much as possible.

이때, 가상 공간의 컨텐츠(B)는 게임 엔진 등에 의해 생성되는 실시간 렌더링 CG(computer graphics)로서, 카메라(200)의 움직임 및 렌즈 상태를 트래킹하는 트래킹 정보에 연동되어 변화될 수 있는 컨텐츠에 해당한다. 일례로, 가상 공간의 컨텐츠는 언리얼 엔진(unreal engine) 또는 Unity3d 엔진 등에 의해 제작된 미디어일 수 있으나, 이에 한정되는 것은 아니다.At this time, the content (B) of the virtual space is real-time rendering CG (computer graphics) generated by a game engine, etc., and corresponds to content that can be changed in conjunction with tracking information that tracks the movement of the camera 200 and the state of the lens. . For example, the content of the virtual space may be media produced by Unreal Engine or Unity3d Engine, but is not limited thereto.

가상 공간의 컨텐츠(B)는 상술한 사전 기획 단계에서 미리 마련된 CG 컨텐츠로서, 카메라 트래킹 연동 영상의 컨텐츠에 해당하며, 3차원 가상 컨텐츠가 있는 가상 공간에서 가상 카메라(VC)가 3차원 가상 컨텐츠 중에서 촬영(획득)한 부분에 해당한다. 이때, 재생 장치(300)는 가상 공간 내 기준 위치에서 가상 카메라(VC)가 트래킹 정보에 연동하여 움직임 및 렌즈 상태가 변경되면서 해당 가상 공간의 컨텐츠(B)를 촬영하도록 함으로써, 제2 영상(V2)을 생성하여 재생할 수 있다.The content (B) of the virtual space is CG content prepared in advance in the above-mentioned pre-planning stage, and corresponds to the content of the camera tracking linked video. In a virtual space with 3D virtual content, the virtual camera (VC) It corresponds to the part that was filmed (acquired). At this time, the playback device 300 causes the virtual camera (VC) to change movement and lens status in conjunction with tracking information at a reference position in the virtual space, thereby capturing the content (B) of the virtual space, thereby capturing the second image (V2). ) can be created and played.

도 3 및 도 4는 도 2에 따른 촬영 중에 카메라(200)의 이동에 따라 연동되는 가상 카메라(VC)의 이동에 대한 다양한 예를 나타낸다. 다만, 도 4는 도 3에서 기준 위치(R)가 변경된 경우를 나타낸다.FIGS. 3 and 4 show various examples of movement of the virtual camera (VC) linked with the movement of the camera 200 during filming according to FIG. 2. However, FIG. 4 shows a case where the reference position (R) in FIG. 3 is changed.

한편, 재생 장치(300)에서 재생되어 LED 벽체(100)에 표시되는 제2 영상(V2)은 카메라(200)의 움직임 및 렌즈 상태를 반영한 가상 공간의 컨텐츠를 담고 있다. 즉, 본 발명에서, 제2 영상(V2)은 2차원 이미지의 소스를 후술할 영상 처리한 가상 공간의 미디어를 대상으로, 트래킹 정보에 기반하여 움직임 및 렌즈 상태가 연동되는 가상 카메라(VC)가 해당 가상 공간의 미디어를 해당 트래킹 정보에 따라 연동되면서 촬영(캡쳐)함으로써 생성된 것일 수 있다.Meanwhile, the second image V2 played by the playback device 300 and displayed on the LED wall 100 contains content in a virtual space that reflects the movement of the camera 200 and the state of the lens. That is, in the present invention, the second image (V2) is a virtual camera (VC) whose movement and lens state are linked based on tracking information targeting media in a virtual space in which the source of the two-dimensional image has been image-processed, which will be described later. It may be created by filming (capturing) media in the virtual space while being linked according to the tracking information.

이에 따라, 재생 장치(300)는 트래킹 정보에 기반하여 연동되는 가상 공간의 컨텐츠(B)를 담은 제2 영상(V2)을 생성하여 LED 벽체(100)에서 표시되도록 재생하며, 이러한 재생 상태에서 카메라(100)에 의해 촬영된 제1 영상(V1) 내에는 인물(A) 또는 사물(O)과, LED 벽체(100에 표시되는 제2 영상(V2)의 컨텐츠(B)(즉, 2차원 이미지의 소스를 후술에 따라 영상 처리한 입체적인 이미지의 컨텐츠)가 함께 포함될 수 있다.Accordingly, the playback device 300 generates a second image (V2) containing the content (B) of the virtual space linked based on the tracking information and plays it to be displayed on the LED wall 100, and in this playback state, the camera In the first image (V1) captured by (100), there is a person (A) or object (O), and the content (B) of the second image (V2) displayed on the LED wall (100) (i.e., a two-dimensional image The content of a three-dimensional image obtained by processing the source as described later may also be included.

일례로, 도 3 및 도 4에 도시된 바와 같이, 카메라(200)가 제1 위치에서 제2 위치로 이동하는 경우, 기준 지점(R)을 기준으로 해당 위치 변경을 반영하여 가상 카메라(VC)도 위치가 변경되면서 가상 공간의 컨텐츠(B)가 촬영되어 제2 영상에 포함될 수 있다. For example, as shown in FIGS. 3 and 4, when the camera 200 moves from the first position to the second position, the virtual camera (VC) reflects the position change based on the reference point (R). As the location changes, content B in the virtual space may be captured and included in the second image.

즉, 도 3의 경우, 가상 공간의 자동차의 컨텐츠(B)의 측면에 대해 기준 지점(R)을 잡아 촬영 중인 가상 카메라(VC)가 카메라(200)의 일 방향의 움직임에 연동될 수 있다. 이에 따라, 가상 공간의 자동차의 컨텐츠(B)의 측면에 대해 해당 일 방향을 따라 위치가 변경되면서 촬영한 해당 컨텐츠(B)의 측면 부분이 제2 영상에 포함될 수 있다. 또한, 도 4의 경우, 가상 공간의 자동차의 컨텐츠(B)의 정면에 대해 기준 지점(R)을 잡아 촬영 중인 가상 카메라(VC)가 카메라(200)의 일 방향의 움직임에 연동될 수 있다. 이에 따라, 가상 공간의 자동차의 컨텐츠(B)의 정면에 대해 해당 일 방향을 따라 위치가 변경되면서 촬영한 해당 컨텐츠(B)의 정면 부분이 제2 영상에 포함될 수 있다.That is, in the case of FIG. 3, the virtual camera (VC) that is taking pictures by capturing the reference point (R) on the side of the content (B) of the car in the virtual space may be linked to the movement of the camera 200 in one direction. Accordingly, the side portion of the content B captured while the position of the content B of the car in the virtual space is changed along one direction may be included in the second image. Additionally, in the case of FIG. 4 , a virtual camera (VC) that is taking pictures by capturing a reference point (R) in front of the content (B) of a car in a virtual space may be linked to the movement of the camera 200 in one direction. Accordingly, the front portion of the content B captured while changing the position along one direction relative to the front of the content B of the car in the virtual space may be included in the second image.

도 5은 재생 장치(300)의 블록 구성도를 나타낸다.Figure 5 shows a block diagram of the playback device 300.

이러한 재생 장치(300), 도 5에 도시된 바와 같이, 입력부(310), 통신부(320), 디스플레이(330), 메모리(340) 및 제어부(350)를 포함할 수 있다.As shown in FIG. 5, the playback device 300 may include an input unit 310, a communication unit 320, a display 330, a memory 340, and a control unit 350.

입력부(310)는 다양한 사용자의 입력에 대응하여, 입력데이터를 발생시키며, 다양한 입력수단을 포함할 수 있다. 예를 들어, 입력부(310)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 터치 패드(touch pad), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The input unit 310 generates input data in response to various user inputs and may include various input means. For example, the input unit 310 includes a keyboard, key pad, dome switch, touch panel, touch key, touch pad, and mouse. It may include (mouse), menu button, etc., but is not limited thereto.

통신부(320)는 다른 장치와의 통신을 수행하는 구성이다. 가령, 통신부(320)는 FreeD의 프로토콜을 통해 트래킹 정보를 트래킹 장치 또는 서버 등으로부터 수신할 수 있다. 예를 들어, 통신부(320)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energy), NFC(near field communication), 와이파이(WiFi) 통신 등의 무선 통신을 수행하거나, 케이블 통신 등의 유선 통신을 수행할 수 있으나, 이에 한정되는 것은 아니다.The communication unit 320 is a component that performs communication with other devices. For example, the communication unit 320 may receive tracking information from a tracking device or server through the FreeD protocol. For example, the communication unit 320 supports 5th generation communication (5G), long term evolution-advanced (LTE-A), long term evolution (LTE), Bluetooth, bluetooth low energy (BLE), near field communication (NFC), Wireless communication such as WiFi communication may be performed, or wired communication such as cable communication may be performed, but is not limited thereto.

디스플레이(330)는 다양한 영상 데이터를 화면으로 표시하는 것으로서, 비발광형 패널이나 발광형 패널로 구성될 수 있다. 가령, 디스플레이(330)는 제1 영상 또는 제2 영상을 표시할 수 있다. 예를 들어, 디스플레이(330)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 디스플레이(330)는 입력부(310)와 결합되어 터치 스크린(touch screen) 등으로 구현될 수도 있다.The display 330 displays various image data on a screen and may be composed of a non-emissive panel or an emissive panel. For example, the display 330 may display a first image or a second image. For example, the display 330 may be a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a micro electromechanical system (MEMS). It may include, but is not limited to, a mechanical systems display, an electronic paper display, etc. Additionally, the display 330 may be combined with the input unit 310 and implemented as a touch screen or the like.

메모리(340)는 재생 장치(300)의 동작에 필요한 각종 정보를 저장한다. 가령, 메모리(340)의 저장 정보로는 제1 영상, 트래킹 정보, 실시간 렌더링 CG에 대한 정보, 제2 영상, 합성 영상, 제어 프로그램, 후술할 처리 방법에 관련된 정보 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.The memory 340 stores various information necessary for the operation of the playback device 300. For example, the stored information in the memory 340 may include a first image, tracking information, information about real-time rendering CG, a second image, a composite image, a control program, and information related to a processing method to be described later, but is limited thereto. It doesn't work.

예를 들어, 메모리(340)는 그 유형에 따라 하드디스크 타입(hard disk type), 마그네틱 매체 타입(magnetic media type), CD-ROM(compact disc read only memory), 광 기록 매체 타입(optical Media type), 자기-광 매체 타입(magneto-optical media type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 플래시 저장부 타입(flash memory type), 롬 타입(read only memory type), 또는 램 타입(random access memory type) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 메모리(340)는 그 용도/위치에 따라 캐시(cache), 버퍼, 주기억장치, 또는 보조기억장치이거나 별도로 마련된 저장 시스템일 수 있으나, 이에 한정되는 것은 아니다.For example, the memory 340 is classified into hard disk type, magnetic media type, CD-ROM (compact disc read only memory), and optical media type depending on its type. ), magneto-optical media type, multimedia card micro type, flash memory type, ROM type (read only memory type), or random RAM type. access memory type), etc., but is not limited thereto. Additionally, the memory 340 may be a cache, buffer, main memory, or auxiliary memory, or a separately provided storage system depending on its purpose/location, but is not limited thereto.

제어부(350)는 재생 장치(300)의 다양한 제어 동작을 수행할 수 있다. 즉, 제어부(350)는 메모리(340)에 저장된 제어 프로그램 및 후술할 처리 방법에 대한 수행을 제어할 수 있다. 또한, 제어부(350)는 재생 장치(300)의 나머지 구성, 즉 입력부(310), 통신부(320), 디스플레이(330), 메모리(340) 등의 동작을 제어할 수 있다. 예를 들어, 제어부(350)는 하드웨어인 적어도 하나의 프로세서(processor)를 포함하며, 해당 프로세서에서 수행되는 소프트웨어인 프로세스(process) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 일례로, 프로세서는 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The control unit 350 can perform various control operations of the playback device 300. That is, the control unit 350 can control the execution of a control program stored in the memory 340 and a processing method to be described later. Additionally, the control unit 350 can control the operations of the remaining components of the playback device 300, that is, the input unit 310, communication unit 320, display 330, and memory 340. For example, the control unit 350 may include at least one processor, which is hardware, and a process, which is software executed on the processor, but is not limited thereto. For example, processors include microprocessors, central processing units (CPUs), processor cores, multiprocessors, application-specific integrated circuits (ASICs), and field programmable gate arrays (FPGAs). ), etc., but is not limited thereto.

이하, 2차원 이미지(또는 "평면 이미지"라고도 지칭함)의 소스(또는 "평면 소스"라고도 지칭함)를 LED 벽체(100)에 표시할 경우에 카메라(100)에서 촬영되는 제1 영상이 보다 입체적으로 보일 수 있도록 해당 2차원 이미지의 소스를 영상 처리(즉, 평면 소스의 입체화)하는 방법에 대해 설명하도록 한다.Hereinafter, when a source (also referred to as a “flat source”) of a two-dimensional image (also referred to as a “flat image”) is displayed on the LED wall 100, the first image captured by the camera 100 is displayed in a more three-dimensional manner. We will explain how to image process the source of the two-dimensional image (i.e., make the flat source three-dimensional) so that it can be viewed.

먼저, 평면 소스 입체화를 위한 기술의 필요성에 대해 설명하도록 한다.First, we will explain the necessity of technology for flat source three-dimensionalization.

<평면 소스의 입체화를 위한 기술의 필요성><Necessity of technology for three-dimensionalization of flat sources>

버추얼 프로덕션의 촬영을 위해, LED 벽체(100)에 표시되는 퀄리티 있는 실사급 렌더링 소스를 빠르게 확보하기 어려운 한계가 있다. 이는 기존의 '후반 합성 방식'과 버추얼 프로덕션의 '실시간 렌더링' 사이에는 가상 공간을 구성하는 기본 단위인 3D Asset 제작 방식에 차이가 있기 때문이다. 즉, 기존 '프리 렌더링' 방식에서의 3D Asset은 Mesh의 정점(Vertex) 수를 늘려가며 물체의 형태를 만든 후 그대로 렌더링에 사용한다. 반면, 게임 엔진을 기반으로 하는 버추얼 프로덕션의 '실시간 렌더링'을 위해서는 물체의 형태를 결정하는 복잡한 Vertex 정보를 최대한 Texture 형식으로 변환하여 Mesh의 Vertex 수를 줄이는 단순화, 즉 최적화 과정을 거쳐야 한다. 이에 따라, 버추얼 프로덕션에서는 이러한 과정에서의 추가적인 제작 기술, 인력 및 시간 등이 필요하다. 따라서, 최근 들어, VFX 업체들은 리얼 타임용 Asset들을 판매하는 상용 마켓(가령, Quixel 등)을 이용하거나 자체적인 Asset 라이브러리를 구축하고 있다. 그럼에도 현실 속 장소나 특징적인 배경을 담고 있는 실사 촬영 소스을 자유롭게 이용하거나 극사실 수준의 퀄리티를 가진 Asset을 빠르게 확보하는 데에는 상당한 어려움을 겪고 있다.For filming virtual production, there is a limitation that it is difficult to quickly secure a high-quality photo-realistic rendering source displayed on the LED wall 100. This is because there is a difference in the method of producing 3D assets, which are the basic unit of virtual space, between the existing 'post-compositing method' and the 'real-time rendering' of virtual production. In other words, 3D assets in the existing 'free rendering' method create the shape of an object by increasing the number of vertices of the mesh and then use it for rendering. On the other hand, for 'real-time rendering' of virtual production based on a game engine, the complex vertex information that determines the shape of the object must be converted to a texture format as much as possible to reduce the number of vertices in the mesh, or go through an optimization process. Accordingly, virtual production requires additional production technology, manpower, and time in this process. Therefore, recently, VFX companies are using commercial markets that sell real-time assets (such as Quixel) or building their own asset libraries. Nevertheless, there are significant difficulties in freely using live-action filming sources containing real-world locations or characteristic backgrounds or quickly securing assets of hyper-realistic quality.

(1) 실시간 렌더링 용 3D Asset 최적화의 어려움(1) Difficulties in optimizing 3D assets for real-time rendering

버추얼 프로덕션의 실시간 렌더링을 위한 3D Asset 제작의 핵심은 가벼워야 한다는 점이다. 즉, 고사양 서버에서 프레임(frame)당 수분(minute)에서 몇 시간(hour)의 렌더링 시간이 허용되는 프리 렌더링(사전 렌더링) 방식과 달리, 게임 엔진은 초당 30frame 내지 60frame에 이르는 장면을 매 순간 렌더링하는 방식이다. 따라서, 배경을 구성하는 3D Asset의 형태를 구성하는 정점(Vertex)의 수는 최소화되어야 하며 시각적 디테일을 결정하는 여러 정보들은 상대적으로 부하가 적은 normal map, ambient occlusion map 등의 PBR Texture 를 통해 표현되어야 한다. 이처럼 실시간 렌더링 용 3D Asset 제작은 성능 최적화를 위한 별도의 과정과 함께, 그 전문성을 가진 인력을 필요로 한다. 한가지 덧붙이면, 이러한 최적화 작업에 익숙한 게임 회사들의 제작 파이프라인과 달리, 영화나 드라마의 CG를 주로 다루는 VFX 기업들의 경우, Asset 최적화 작업이 가능한 인력이나 전문성이 부족한 상황이다.The key to creating 3D assets for real-time rendering of virtual production is that they must be lightweight. In other words, unlike the pre-rendering method, which allows rendering times of minutes to hours per frame on high-end servers, the game engine renders scenes at 30 to 60 frames per second every moment. This is the way to do it. Therefore, the number of vertices that make up the shape of the 3D asset that makes up the background should be minimized, and various information that determines visual details should be expressed through PBR Textures such as normal map and ambient occlusion map, which have relatively low load. do. In this way, the production of 3D assets for real-time rendering requires a separate process for performance optimization and human resources with expertise. One thing to add is that, unlike the production pipeline of game companies that are familiar with such optimization work, VFX companies that mainly deal with CG for movies and dramas lack the manpower or expertise to perform asset optimization work.

(2) 실사 수준의 CG 퀄리티를 내기 어려움(게임 엔진 특유의 CG스러움 개선 필요)(2) Difficult to produce CG quality at the level of real-life action (Need to improve the game engine’s unique CG quality)

버추얼 프로덕션은 기본적으로 Unreal 또는 Unity3d와 같은 게임 엔진을 통해 공간의 위치, 배경의 구성, 빛의 각도 등의 시각적 요소들을 촬영 현장에서 즉각적으로 변경할 수 있다는 큰 장점을 가지고 있다. 그래픽의 품질 또한 Realtime Raytracing이나 DLSS과 같은 하드웨어 가속 기술 등으로 인해 빠른 속도로 개선이 되고 있다.Virtual production basically has the great advantage of being able to instantly change visual elements such as spatial location, background composition, and light angle at the filming site through a game engine such as Unreal or Unity3d. The quality of graphics is also improving rapidly due to hardware acceleration technologies such as Realtime Raytracing and DLSS.

하지만, 실시간 렌더링의 CG 품질은 필연적으로 기존의 프리 렌더링 방식이나 실사 촬영과 비교하여 다소 떨어질 수밖에 없다. 특히, 빛의 반사나 표면의 디테일 혹은 그림자의 자연스러움 등은 여전한 숙제로 남아있다. 따라서, 현재의 게임 엔진 기반 버추얼 프로덕션 기술은 약간의 CG스러움이 허용되는 SF영화나 판타지 장르에서 주로 많이 사용되고 있다.However, the CG quality of real-time rendering is inevitably somewhat lower compared to existing pre-rendering methods or live-action shooting. In particular, light reflection, surface details, and the naturalness of shadows still remain as tasks. Therefore, current game engine-based virtual production technology is mainly used in science fiction movies and fantasy genres where a little CG is allowed.

물론, 사진 기반 공간 스캔(Photogrammetry)이나 레이저 스캔을 통해 현실 공간 자체를 통째로 스캔하고 그것을 최적화하여 사용할 경우, 게임 엔진을 통해서도 상당한 수준의 실사급 표현이 가능해진다. 이 역시 별도의 공간 스캔 작업과 Asset 최적화 과정을 반드시 필요로 하며 상당한 시간과 테크닉을 필요로 한다. 따라서, 버추얼 프로덕션 시장을 더욱 확대하고, 효율성 극대화라는 장점을 발휘하기 위해서는, 실사 수준의 배경 Asset을 빠르고 효과적으로 제작할 수 있도록 하는 다양한 기술들이 필요하다.Of course, if you scan the entire real space itself through photogrammetry or laser scanning and use it optimally, a significant level of photorealistic expression is possible through a game engine. This also requires separate spatial scanning and asset optimization processes, and requires considerable time and technique. Therefore, in order to further expand the virtual production market and maximize efficiency, various technologies are needed to quickly and effectively produce photorealistic background assets.

따라서, 본 발명에서는 일반적인 2차원 이미지의 소스를 활용하여 빠르고 손쉽게 공간 구성용 Asset을 제작하는 기술을 제안하고자 한다. 즉, 기존의 3D Asset을 통한 공간 구성이 아닌, 평면 소스(사진, 영상)에 거리 별 계층을 만들고 두께감을 부여하는 방법을 제공함으로써, CG 디자이너들로 하여금 조건과 상황에 따라 선택할 수 있는 옵션의 범위를 확장하고자 한다.Therefore, in the present invention, we would like to propose a technology for quickly and easily creating assets for space composition by utilizing sources of general two-dimensional images. In other words, by providing a method of creating a hierarchy by distance and giving a sense of thickness to flat sources (photos, videos), rather than configuring space through existing 3D assets, CG designers can choose options depending on conditions and situations. We want to expand the scope.

다음으로, 평면 소스가 가지는 입체감 제약 문제에 대해 설명하도록 한다.Next, we will explain the three-dimensional constraint problem of flat sources.

<평면 소스의 입체감 제약 문제><Three-dimensional constraint issue for flat sources>

CG의 가상 공간은 입체적 정보로 구성된 Mesh 데이터로 채워진다. Mesh는 정점(Vertex)이라는 3차원 상의 점으로 구성되며 표면은 texture라는 이미지로 덮히게 된다. 이때. Mesh의 표면이 빛에 반응하는 방식, 즉 재질감(Material)은 Shader 코드로 결정되며, 이를 통해 Mesh로 구성된 가상 공간 안에서 자유로운 이동 및 탐색이 가능하다. The virtual space of CG is filled with mesh data composed of three-dimensional information. Mesh is composed of three-dimensional points called vertices, and the surface is covered with an image called texture. At this time. The way the surface of the mesh reacts to light, i.e. the material, is determined by the shader code, which allows free movement and exploration within the virtual space composed of the mesh.

반면, 일반적인 사진이나 영상으로 대표되는 '평면 소스'는 특정 공간이 카메라 렌즈의 화각을 기반으로 하는 네모틀 (Frustum)로 압축된 상태이며 자유로운 변형은 불가하다. 즉, 원경의 물체와 근경의 물체가 거리에 관계없이 Frustum이라 는 평면상에 모두 압축되어 기록되는 것이다. 이렇게 촬영된 평면 소스의 경우, 사진의 가운데에서 서서 본다고 가정하면 가까운 물체는 크게 보이고 먼 물체는 작게 보이는 원근감으로 인해 어느정도 공간으로 인식되게 된다. 다만 커다란 사진 액자를 앞에 놓고 볼 때, 사진의 중심을 벗어나 좌우로 이동하게 될 경우, 그 즉시 우리 눈은 그것이 입체가 아니고 평면 이라는 것을 인지하게 된다. 이러한 입체감 붕괴 이슈를 이해하기 위해서는 먼저 사람이 공간을 입체로 인지하는 방식에 대한 이해가 필요하다.On the other hand, 'flat sources', such as general photos or videos, are a state in which a specific space is compressed into a square frame (Frustum) based on the angle of view of the camera lens, and free transformation is not possible. In other words, both distant and near objects are compressed and recorded on a plane called frustum, regardless of distance. In the case of a flat source photographed in this way, assuming that you are standing in the center of the photo and looking at it, it is perceived as a space to some extent due to perspective, where nearby objects appear large and distant objects appear small. However, when looking at a large photo frame in front of us, if we move left or right beyond the center of the photo, our eyes immediately recognize that it is not three-dimensional but flat. In order to understand this issue of three-dimensional disruption, it is first necessary to understand how people perceive space in three dimensions.

사람이 공간을 평면이 아닌 입체적으로 느끼게 하는 것은 '공간 감각'이다. 2개의 눈으로 들어오는 평면의 정보들을 조합 하여 거리감을 파악하거나 Parallax Effect(시차 효과) 혹은 소실점 등의 부분적인 정보들을 통해 공간을 추론하는 과정을 거친다. 물론 달팽이 관을 통한 평형 인식을 통한 물리적 움직임까지도 더해져 자신과 공간의 관계를 실시간으로 파악할 수 있게 되는 것이다.‘Spatial sense’ is what allows people to feel space as three-dimensional rather than flat. It goes through the process of combining the information on the plane coming from the two eyes to determine the sense of distance, or inferring space through partial information such as the Parallax Effect or vanishing point. Of course, physical movement through equilibrium recognition through the cochlea is also added, making it possible to understand the relationship between oneself and space in real time.

여기서 중요한 점은 사람이 공간감을 형성할 때, 단일 방식에만 절대적으로 의존하는 것이 아니라 실시간으로 여러 정보 들을 조합하여 추론을 통해 판단한다는 것이다. 시감각과 평형감각의 정보가 상이할 경우, 발생하는 멀미가 좋은 예시이다. The important point here is that when people form a sense of space, they do not absolutely rely on a single method, but rather combine various information in real time and make a judgment through inference. A good example is motion sickness, which occurs when information from the sense of vision and sense of balance are different.

따라서, 본 발명에서는 2차원 이미지의 소스에 대해 최대한 입체처럼 보이게 하는 방법을 제안하고자 한다. 이를 위해, 아래에 나열된 '사람이 공간감을 형성하는 방법'들 중 최대한 많은 요소들을 사용하여 기존의 평면 소스를 변형하여 빠르고 손쉽게 공간 구성용 Asset을 제작할 수 있는 기술을 제시하고자 한다.Accordingly, the present invention seeks to propose a method of making the source of a two-dimensional image look as three-dimensional as possible. To this end, we would like to present a technology that can quickly and easily create assets for space composition by modifying existing flat sources using as many elements as possible from the 'methods of how people create a sense of space' listed below.

다음으로, 사람이 공간감을 형성하는 방법에 대해 설명하도록 한다.Next, we will explain how people create a sense of space.

<사람이 공간감을 형성하는 방법><How people form a sense of space>

1) 양안 시차에 의한 입체 공간 인지1) Three-dimensional space perception due to binocular parallax

첫번째로, 사람은 두 눈 사이의 거리로 인해 생기는 상의 차이(즉, 양안 시차)를 통해 입체적인 공간을 인지함으로써 공간감을 인식할 수 있다. 이같은 원리를 이용하여 2개의 카메라로 촬영한 2개의 영상을 각각 좌우 눈으로 인지하도록 하는 3D 영화가 유행한 적이 있다. 다만, 본 발명에서는 3D 입체 영상은 다루지 않는다. (3D 입체 영상은 멀미감, 제작 효율성 등으로 인해 최근에는 잘 사용되지 않고 있음)First, people can perceive a sense of space by perceiving three-dimensional space through the difference in images caused by the distance between the two eyes (i.e., binocular parallax). Using this principle, 3D movies that allow the left and right eyes to perceive two images shot with two cameras have become popular. However, the present invention does not cover 3D stereoscopic images. (3D stereoscopic images are not used much these days due to motion sickness, production efficiency, etc.)

2) 좌우 이동 시 Parallax Effect(시차 효과)로 인한 공간감 인식2) Recognition of spatial sense due to Parallax Effect when moving left or right

두번째로, 사람은 Parallax Effect(시차 효과)를 기반으로 공간감을 인식할 수 있다. 이때, 시차 효과는, 특정 공간을 보면서 좌우로 이동할 경우, 근경의 물체는 빠르게 지나가고 원경의 물체는 느리게 지나가는 현상을 의미한다. 영화에서도 카메라가 천천히 옆으로 이동하면서 공간의 깊이감을 표현 하는 기법이 자주 사용된다. 현실 세계에서 이같은 시차 효과는 너무나도 당연한 것이지만, 만약 큰 사진을 앞에 놓고 좌 우로 이동할 경우, 근경과 원경 관계없이 모든 사물이 동일한 속도로 지나갈 것이다. 그럴 경우, 사람은 그것을 공간이 아닌 벽 혹은 평면이라 인식하게 된다. 이 같은 이유로 일반 사진이나 영상을 대형 LED 벽체에 틀어 놓고 촬영하는 기법은 매우 조심스럽게 활용되어야 한다. 특히, 카메라를 고정하고 촬영하는 경우는 관계없으나, 카메라를 움직이는 순간 상당한 부자 연스러움이 느껴지게 되며, 마치 그림 세트를 배경으로 찍은 5~60대 영화처럼 보이게 된다.Second, people can perceive a sense of space based on the Parallax Effect. At this time, the parallax effect refers to the phenomenon that when moving left or right while looking at a specific space, objects in the near field pass quickly and objects in the distance pass slowly. In movies, the technique of expressing the depth of space by slowly moving the camera sideways is often used. In the real world, this parallax effect is very natural, but if you move left and right with a large photo in front of you, all objects will pass at the same speed regardless of the near or far distance. In that case, people perceive it as a wall or plane rather than space. For this reason, the technique of shooting general photos or videos by displaying them on a large LED wall must be used very carefully. In particular, it doesn't matter if you film with the camera fixed, but as soon as you move the camera, it feels quite unnatural, and it looks like a movie made in the 50s or 60s with a painting set in the background.

도 6은 소실점에 대한 일 예를 나타낸다.Figure 6 shows an example of a vanishing point.

3) 소실점(Vanishing Point)과 Perspective에 의한 깊이감 인지3) Perception of depth through vanishing point and perspective

세번째로, 도 6에 도시된 바와 같이, 사람은 소실점(Vanishing Point)을 기반으로 깊이감을 인지함으로써 공간감을 인식할 수 있다. 이때, 소실점은 평행하는 두 직선이 멀어질수록 가까워져 결국 만나게 되는 현상을 의미한다. 이러한 소실점은 기찻길의 선로가 멀어질수록 한곳으로 모이는 현상으로 설명할 수 있다. 실제로 사람은 공간 속 에 배치된 물체들의 형태나 바닥의 패턴 등을 통해 자연스럽게 소실점과 Perspective를 인식하고 그것을 바탕으로 멀고 가까움을 판단할 수 있다. 이같은 가상의 시차 구조(Perspective)는 보는 사람의 위치에 따라 실시간으로 변하게 된다. 하지만, 평면 사진의 경우, 촬영 지점을 기준으로 소실점이 이미 고정되어 있으므로, 사람의 보는 위치가 바뀌어도 소실점이 변하지 않게 되고 사람의 뇌는 즉각적으로 입체가 아니라고 인식하게 된다.Third, as shown in FIG. 6, a person can perceive a sense of space by perceiving a sense of depth based on a vanishing point. At this time, the vanishing point refers to the phenomenon where two parallel straight lines become closer as they become farther apart and eventually meet. This vanishing point can be explained as a phenomenon in which train tracks converge in one place as they become farther apart. In fact, people can naturally recognize vanishing points and perspectives through the shapes of objects placed in space or the patterns of the floor, and judge distance or nearness based on that. This virtual parallax structure (perspective) changes in real time depending on the viewer's location. However, in the case of flat photos, the vanishing point is already fixed based on the shooting point, so even if the person's viewing position changes, the vanishing point does not change, and the human brain immediately recognizes that it is not three-dimensional.

4) 빛의 방향과 물체의 명암을 통한 입체 형태 파악4) Identify three-dimensional shape through the direction of light and the light and dark of the object

네번째로, 사람은 빛의 방향과 물체의 명암을 통해 입체 여부를 파악함으로써 공간감을 인식할 수 있다. 즉, 광원과 마주한 면은 밝고 반대면은 어두워진다는 원리로 사람은 특정 물체의 입체감을 추정할 수 있다. 평면 사진의 경우, 명암이 표현되어 있긴 하지만, 촬영 당시 대상에 드리워진 조명이므로, 결과적으로 빛의 방향을 바꿀 수 없다는 한계를 가지고 있다.Fourth, people can perceive a sense of space by determining whether it is three-dimensional through the direction of light and the light and dark of an object. In other words, people can estimate the three-dimensional effect of a specific object based on the principle that the side facing the light source is bright and the side opposite is dark. In the case of flat photos, although contrast is expressed, it has the limitation of not being able to change the direction of light because it is the light that was cast on the subject at the time of photography.

5) 안구의 초점 변화를 통한 거리감 인식5) Perception of distance through changes in eye focus

다섯번째로, 사람은 안구의 초점 변화를 통해 거리감을 인식함으로써 공간감을 인지할 수 있다. 영화 촬영 시에도 카메라의 초점을 근경의 인물에서 원 경으로 조정하는 방식으로 공간감을 표현하기도 한다. 실제 공간이든 가상 공간 속에서든 초점을 변경하며 대상을 파악하기 위해서는, 대상이 입체(즉, 부피감)을 가지고 있어야 한다. 하지만, 사진의 경우, 입체 정보인 Mesh와 달리 Frustum이라는 평면틀 안에 모든 깊이 정보가 압축되어 있으므로 부피감을 가질 수 없고, 초점 또한 바꿀 수 없다.Fifth, people can perceive a sense of space by perceiving distance through changes in eye focus. Even when filming a movie, a sense of space is expressed by adjusting the camera's focus from a close-up person to a distant person. In order to grasp an object by changing focus, whether in real or virtual space, the object must have three dimensions (i.e., a sense of volume). However, in the case of photos, unlike Mesh, which is three-dimensional information, all depth information is compressed in a flat frame called Frustum, so it cannot have a sense of volume and the focus cannot be changed.

도 7은 포그 현상에 대한 일 예를 나타낸다.Figure 7 shows an example of a fog phenomenon.

6) 대기 먼지의 밀도로 인한 포그 현상으로 깊이감 추정6) Estimation of depth due to fog phenomenon due to density of atmospheric dust

마지막으로, 사람은 대기 먼지의 밀도로 인해 나타나는 포그 현상을 기반으로 깊이감을 추정함으로써 공간감을 인식할 수 있다. 즉, 풍경 사진에서 근경의 물체는 채도와 콘트라스트가 높고 명확하게 보이는 반면 원경의 산은 채도와 콘트라스트가 낮고 흐리게 보이게 된다.Lastly, people can perceive a sense of space by estimating depth based on the fog phenomenon that appears due to the density of atmospheric dust. In other words, in a landscape photo, objects in the background have high saturation and contrast and appear clear, while mountains in the distance have low saturation and contrast and appear blurry.

다음으로, 평면 소스가 가지는 한계에 대해 설명하도록 한다.Next, we will explain the limitations of planar sources.

<평면 소스의 한계><Limitations of planar sources>

살펴본 것처럼 사람이 공간을 인지하는 방식은 복합적인데 반해, 평면 소스(사진이나 영상)에는 제한적인 수준의 입체감 요소들(원근감, 소실점, 대기 포그 정도)만이 포함되어 있다. 따라서, 입체 공간인 CG의 환경을 구성하는데 있어서도, 일반적으로 평면적인 사진이나 영상을 그대로 사용하기보다는, 완전한 3차원 정보인 3D Mesh 오브젝트가 주로 사용된다. 평면 소스(2D 사진, 영상)의 경우, 먼산이나 하늘과 같이 원경을 표현하기 위한 '파노라마 이미지' 정도가 제한적으로 사용된다. 하지만, 최근 대형 LED 스튜디오(즉, LED 벽체를 이용한 촬영 공간을 제공하는 스튜디오)에서는 평면 소스를 그대로 이용한 촬영 방식도 많이 사용되고 있다. 하지만, 앞서 살펴본 입체성의 제약으로 인해 상당한 어려움을 겪고 있으며, 아래는 LED 스튜디오에서 평면 소스를 활용한 촬영 시 발생되는 제약 사례들이다.As we have seen, the way humans perceive space is complex, whereas flat sources (photos or videos) contain only a limited level of three-dimensional elements (perspective, vanishing point, and atmospheric fog). Therefore, in constructing a CG environment that is a three-dimensional space, 3D Mesh objects, which are complete three-dimensional information, are mainly used rather than using flat photos or videos as is. In the case of flat sources (2D photos, videos), 'panoramic images' are used to a limited extent to express distant scenes such as distant mountains or the sky. However, in recent large-scale LED studios (i.e., studios that provide a shooting space using LED walls), shooting methods using flat sources are also widely used. However, there are significant difficulties due to the three-dimensional limitations discussed earlier, and below are examples of limitations that occur when shooting using a flat source in an LED studio.

도 8은 카메라가 LED 벽체의 측면 방향에서 촬영할 경우에 대한 일 예를 나타낸다.Figure 8 shows an example when a camera takes pictures from the side of an LED wall.

(1) LED 벽체의 양측면에서 사진 속 투시 구조(Perspective)가 무너짐(1) The perspective structure in the photo collapses on both sides of the LED wall.

대형 LED 벽체(LED Wall)에 사진을 크게 배치하고 촬영할 경우, 스튜디오의 중앙에서는 비교적 자연스러운 촬영 결과물을 얻을 수 있다. 그 이유는 렌즈와 센서를 통해 촬영된 모든 평면 이미지는 그것의 정중앙에서만 실제와 동일한 원근감을 느낄 수 있기 때문이다. 하지만, 도 8에 도시된 바와 같이, 카메라가 LED 벽체의 좌우 측면에 인접하도록 이동된 상태에서 촬영이 수행될 경우, 카메라에 촬영된 제1 영상(V1) 내에서 해당 평면 이미지의 사진 속 투시 구조가 실제와 달라지게 되면서 상당한 이질감이 나타나게 된다.When taking photos by placing them on a large LED wall, relatively natural shooting results can be obtained in the center of the studio. This is because all flat images captured through lenses and sensors can only provide the same sense of perspective as reality only in the very center of the image. However, as shown in Figure 8, when shooting is performed with the camera moved to be adjacent to the left and right sides of the LED wall, the perspective structure in the photo of the corresponding planar image within the first image (V1) captured by the camera As it becomes different from reality, a significant sense of heterogeneity appears.

도 9는 LED 벽체가 절곡된 표면 형태를 가질 때에 카메라로 촬영할 경우에 대한 일 예를 나타낸다.Figure 9 shows an example of shooting with a camera when the LED wall has a bent surface shape.

(2) LED 벽체의 표면 형태에 따라 평면 소스가 왜곡됨(2) The flat source is distorted depending on the surface shape of the LED wall.

촬영을 위해 LED 벽체에 일반 평면 소스를 배치하는 경우, LED 벽체 표면의 형태에 따라 해당 이미지가 그대로 매핑 된다. 하지만, 도 9에 도시된 바와 같이, 평면 이미지가 LED 벽체의 절곡된 부분에 배치되는 경우, 카메라에서 촬영된 제1 영상(V1)에서도 해당 이미지가 절곡된 것처럼 보이게 된다. 이는 물리적으로 당연한 이야기이지만, 이러한 제약은 값비싼 LED 스튜디오를 온전히 활용하는데 매우 큰 제약 사항이 된다.When a general flat source is placed on an LED wall for filming, the image is mapped as is according to the shape of the LED wall surface. However, as shown in FIG. 9, when a flat image is placed on a bent portion of the LED wall, the image appears to be bent even in the first image V1 captured by the camera. Although this is physically natural, this limitation becomes a very serious limitation in fully utilizing an expensive LED studio.

도 10은 LED 벽체에 단순히 2차원 이미지의 소스를 표시한 상태에서 카메라로 촬영할 때에 나타나는 시차 효과(Parallax Effect) 부재에 대한 일 예를 나타낸다.Figure 10 shows an example of the absence of the parallax effect that appears when shooting with a camera while simply displaying the source of a two-dimensional image on an LED wall.

(3) 시차 효과(Parallax Effect)의 부재로 공간이 아닌 단순 벽처럼 인식됨(3) Due to the absence of parallax effect, it is perceived as a simple wall rather than a space.

시차 효과(Parallax Effect)란 특정 공간에서 좌우로 이동 시 근경의 물체는 빠르게, 원경의 물체는 느리게 지나가는 것처럼 보이는 현상이다. 사람은 이러한 시차 효과를 통해 대상 공간의 깊이감을 대략적으로 인식할 수 있다. 하지만, 도 10에 도시된 바와 같이, 평면 이미지를 단순히 LED 벽체에 배경으로 배치하고 다양한 위치에 촬영할 경우, 당연히 해당 배경의 시차 효과가 나타나지 않는다. 이에 따라, 이를 시청하는 사람들은 즉시로 LED 벽체에서 표시되는 배경을 공간감 있는 배경이 벽이라 인지하게 된다. 일례로, 드라마 '지리산'의 산행 장면의 CG 합성이 어색하다는 비난이 이슈화된 바 있는데, 이때도 합성용 배경으로 실사 영상이 사용되고, 카메라가 움직이는 순간 부자연스러운 시차 효과로 인해 공감감이 깨지는 문제가 발생한 것이다.The Parallax Effect is a phenomenon in which, when moving left or right in a specific space, objects in the near field appear to pass quickly and objects in the distance appear to pass slowly. People can roughly perceive the depth of the target space through this parallax effect. However, as shown in FIG. 10, when a flat image is simply placed on an LED wall as a background and photographed at various locations, the parallax effect of the background naturally does not appear. Accordingly, people watching this immediately perceive the background displayed on the LED wall as a wall with a sense of space. For example, criticism that the CG compositing of the mountaineering scene in the drama 'Jiri Mountain' was awkward became an issue. In this case, too, live footage was used as the background for compositing, and the moment the camera moved, the unnatural parallax effect broke the sense of empathy. It happened.

(4) 소스의 촬영 당시 조건과 LED 벽체의 구성을 동일하게 해야함(4) The conditions at the time of source shooting and the configuration of the LED wall must be the same.

따라서, 평면 소스를 효과적으로 사용하기 위한 방법 중 하나로, 평면 소스 촬영 시의 카메라 구성(배치, 화각, 거리 등)과 실물 LED 벽체의 구성을 완전히 동일하게 하는 것은 방법이 있다. 이 경우, 자동차 실내 촬영과 같이 특수한 장면에서는 상당히 자연스러운 촬영 결과를 얻을 수 있다. 하지만, 이 방법 또한 차량의 전면 혹인 실내와 같이 매우 제한된 좁은 영역 안에서만 촬영이 가능하다. 또한, LED 스튜디오를 자동차 씬 등 매우 제한된 용도로만 사용해야하는 문제가 있다.Therefore, one way to effectively use a flat source is to make the camera configuration (placement, angle of view, distance, etc.) when shooting the flat source completely the same as the composition of the actual LED wall. In this case, quite natural shooting results can be obtained in special scenes, such as shooting inside a car. However, this method can also only shoot within a very limited and narrow area, such as the front of a vehicle or the interior. Additionally, there is a problem in that LED studios must be used only for very limited purposes, such as automobile scenes.

다음으로, 평면 소스이 활용 가능성에 대해 설명하도록 한다.Next, we will explain the possibility of using planar sources.

<평면 소스의 활용 가능성><Possibility of using planar sources>

앞서 살펴본 것처럼, LED 스튜디오에서 평면 소스를 사용하는 방법에는 상당한 제약이 따른다. 즉, 카메라를 고정하거나 움직임이 있더라도 최소화해야만 자연스러운 결과가 보장된다. 이를 어기고 카메라를 자유롭게 움직이며 촬영할 경우, 1950년대 영화와 같은 촌스러운 합성이 느껴지게 될 것이다.As we saw earlier, there are significant limitations to using planar sources in an LED studio. In other words, natural results are guaranteed only when the camera is fixed or any movement is minimized. If you break this and film while moving the camera freely, you will end up with an unsophisticated composite look like a 1950s movie.

하지만, 빠르고 쉽게 고품질(사실적 표현, 고해상도)의 데이터를 확보할 수 있는 평면 소스들을 LED 벽체의 배경, 또는 버추얼 프로덕션 컨텐츠의 공간 요소로 사용하고자 하는 요구들은 지속적으로 커지고 있는 실정이다 .따라서, 본 발명에서는 평면 소스의 장점과 단점 분석을 기반으로, 평면 소스가 입체처럼 보이게 하는 여러 요소들을 부여하여 장점을 극대화하고자 한다.However, the demand to use flat sources that can quickly and easily secure high-quality (realistic expression, high resolution) data as the background of an LED wall or as a spatial element of virtual production content is continuously growing. Accordingly, the present invention Based on the analysis of the advantages and disadvantages of flat sources, we try to maximize the advantages by giving various elements that make the flat source look three-dimensional.

다음으로, 버추얼 프로덕션의 실시간 공간 렌더링 특성을 이용하는 동시에, 최대한 많은 입체감 형성 요소들을 평면 소스에 적용하여, 촬영의 자유도를 높일 수 있도록 하는 본 발명의 일 실시예에 따른 처리 방법(이하, "본 방법"이라 지칭함)에 대해서 설명하도록 한다.Next, a processing method according to an embodiment of the present invention that utilizes the real-time spatial rendering characteristics of virtual production and at the same time increases the degree of freedom in shooting by applying as many three-dimensional effect forming elements as possible to the flat source (hereinafter referred to as “the present method”) (referred to as ").

본 방법은 재생 장치(300)의 제어부(350)의 제어에 따라 수행되는 영상 처리 방법으로서, 평면 이미지의 소스(즉, 평면 소스)에 대해 입체화가 이루어지도록 해당 평면 이미지를 영상 처리하는 방법이다. 즉, 본 방법은 평면 이미지와 관련하여 카메라(100)에서 촬영되는 제1 영상이 보다 입체적으로 보일 수 있도록 해당 평면 이미지에 대한 입체화의 영상 처리를 수행한다. 이에 따라, 평면 이미지의 소스를 본 방법에 따라 영상 처리한 이미지가 재생 장치(300)에 의해 재생되어 LED 벽체(100)에 표시되면서, LED 벽체(100)의 표시부를 촬영하는 카메라(100)의 제1 영상은 보다 입체적으로 보일 수 있게 된다.This method is an image processing method performed under the control of the control unit 350 of the playback device 300, and is a method of image processing a source of a flat image (i.e., a flat source) so that the source of the flat image becomes three-dimensional. That is, this method performs three-dimensional image processing on the flat image so that the first image captured by the camera 100 can be viewed in a more three-dimensional manner. Accordingly, the image processed according to the method of viewing the source of the flat image is reproduced by the playback device 300 and displayed on the LED wall 100, and the camera 100 for photographing the display portion of the LED wall 100 The first image can be viewed in a more three-dimensional manner.

이를 위해, 본 방법에서 활용되는 평면 소스의 입체화 과정에 대해서 설명하도록 한다. 이러한 입체화 과정은 재생 장치(300)의 제어부(350)의 제어에 따라 수행될 수 있다.To this end, we will explain the three-dimensionalization process of the planar source used in this method. This three-dimensionalization process may be performed under the control of the control unit 350 of the playback device 300.

<평면 소스의 입체화 과정><Three-dimensionalization process of a flat source>

도 11 및 도 12는 애너모픽(Anamorphic) 왜곡에 대한 개념도의 예들을 나타낸다.Figures 11 and 12 show examples of conceptual diagrams for anamorphic distortion.

(1) 제1 과정: 평면 소스를 버추얼 프로덕션의 가상 공간 안에 배치(1) First process: Placing flat sources in the virtual space of virtual production

먼저, 평면 소스를 LED 벽체(100)에 그대로 표출하는 것이 아닌, Virtual Production 컨텐츠의 가공 공간 안에 배치한다. 이때, Virtual Production의 방식 중 ICVFX(In camera VFX)는 LED 벽체(100)의 형태와 관계없이, 카메라(200)의 시점에서는 CG가 정상적으로 보일 수 있도록, 카메라(200)에 대향하는 LED 벽체(100)의 위치 또는 형태에 따라 해당 CG를 영상 처리하여 LED 벽체(100)에 출력될 그래픽을 역으로 왜곡하는 기법이다. 이러한 방식을 "Anamorphic 왜곡(또는 Anamorphic 매핑)"이라고 지칭하기도 한다.First, rather than displaying the flat source as is on the LED wall 100, it is placed within the processing space of the Virtual Production content. At this time, among the Virtual Production methods, ICVFX (In camera VFX) uses the LED wall 100 facing the camera 200 so that the CG can be viewed normally from the perspective of the camera 200, regardless of the shape of the LED wall 100. ) is a technique to reversely distort the graphics to be output on the LED wall 100 by processing the corresponding CG according to the position or shape of the image. This method is sometimes referred to as “Anamorphic distortion (or anamorphic mapping).”

일례로, 도 11을 참조하면, LED 벽체(100)의 하부 쪽으로 절곡된 디스플레이에 표시되는 CG 부분은 해당 하부 방향을 따라 길게 늘어나게 표시되도록 영상 처리될 수 있으며, LED 벽체(100)에서 좌측 방향으로 절곡된 디스플레이에 표시되는 CG 부분은 해당 좌측 방향을 따라 늘어나게 표시되도록 영상 처리될 수 있다. 반면, 카메라(200)에 대해 거의 정면으로 대향하는 LED 벽체(100)의 디스플레이에 표시되는 CG 부분은 원본 CG 부분과 거의 유사하게 표시되도록 영상 처리될 수 있다.For example, referring to FIG. 11, the CG portion displayed on the display bent toward the lower part of the LED wall 100 may be image-processed to be displayed elongated along the lower direction, and may be displayed in the left direction from the LED wall 100. The CG portion displayed on the bent display may be image-processed to be displayed stretched along the left direction. On the other hand, the CG portion displayed on the display of the LED wall 100 that faces the camera 200 almost directly may be image-processed to be displayed almost like the original CG portion.

이같은 방식을 적용할 경우, 카메라(200)에서 촬영된 제1 영상에서, LED 벽체(100)의 형태는 사라지고, 가상 세계의 CG가 변경 없이 그대로 보이게 되면서, 해당 CG가 LED 벽체(100)의 물리적 크기만큼 뚫린 것처럼 보이게 된다. 즉, LED 벽체(100)라는 뚫어진 창문을 넘어, 다른 세계를 보는 것과 동일한 개념이다. 따라서, 본 발명에서 제안하는 평면 이미지에 대한 평면 Plate와, 해당 평면 Plate에 대해 입체화를 위해 영상 처리한 객체(즉, 곡면 Plate 또는 Layered Plate 등)는 기본적으로 가상 공간(즉, CG 공간) 안에 배치되며, ICVFX 기법을 통해 LED 벽체(100)와 관계없이 정상적으로 시각화 됨을 전제로 한다.When applying this method, in the first image captured by the camera 200, the shape of the LED wall 100 disappears, and the CG of the virtual world is displayed without change, so that the CG is the physical image of the LED wall 100. It appears as if there is a hole the size of the hole. In other words, it is the same concept as looking into another world beyond the open window of the LED wall 100. Therefore, the flat plate for the flat image proposed in the present invention and the image-processed object (i.e., curved plate or layered plate, etc.) for three-dimensionalization of the flat plate are basically placed in the virtual space (i.e., CG space). It is assumed that the image will be visualized normally regardless of the LED wall 100 through the ICVFX technique.

특히, 앞서 살펴본 평면 소스의 한계 사례들 중, LED 벽체(100)의 물리적 형태에 따라 평면 소스가 왜곡되어 보이는 문제의 경우, 도 12에 도시된 바와 같이, 가상 공간 안에 평면 소스의 플레이트(Plate)(이하, "평면 Plate"라고도 지칭함)를 배치하고 해당 평면 Plate를 촬영한 가상 카메라(VC)의 제2 영상에 대해 실제 촬영 카메라(100)의 시점을 중심으로 Anamorphic 매핑의 영상 처리를 하여 LED 벽체(100)에 표시함으로써, 자연스럽게 해결할 수 있다. 다만, 이 방법을 사용하더라도 LED 벽체(100)의 형태로 인한 왜곡은 해결할 수 있지만, 소스 자체는 여전히 평면이기에 입체감 차체를 얻는 것은 아니다. 현재 단계에서 보면, 카메라(100)에서 촬영된 제1 영상의 경우, LED 벽체(100)의 크기만큼 뚫어진 커다란 공간 너머로 큰 사진 액자가 하나 배치되어 있는 것처럼 보일 것이다.In particular, among the limitations of the flat source discussed above, in the case of a problem in which the flat source appears distorted depending on the physical shape of the LED wall 100, as shown in FIG. 12, a plate of the flat source in virtual space is used. (hereinafter also referred to as a "flat plate") is placed and the second image of the virtual camera (VC) that captured the flat plate is processed through anamorphic mapping centered on the viewpoint of the actual shooting camera (100) to create an LED wall. This can be solved naturally by marking (100). However, even if this method is used, distortion due to the shape of the LED wall 100 can be resolved, but the source itself is still flat, so it is not possible to obtain a three-dimensional car body. At the current stage, in the case of the first image captured by the camera 100, it will appear as if a large photo frame is placed beyond a large space open the size of the LED wall 100.

도 13은 평면 Plate(기준 평면)를 이용하여 곡면 Plate를 생성하는 개념도를 나타낸다.Figure 13 shows a conceptual diagram of creating a curved plate using a flat plate (reference plane).

(2) 제2 과정: 실제 공간의 입체성을 고려한 곡면 Plate 생성(2) Second process: Creating a curved plate considering the three-dimensionality of real space

앞서 가상 공간(CG) 안에 배치한 평면 Plate에 다양한 입체감 요소를 부여하는 단계이다. 이를 통해 실제 카메라(200)의 시점에서 볼 때, 최대한 실제와 동일한 시각적 장면을 얻을 수 있음과 동시에, 카메라(200)의 움직임 제약을 상당 부 분 극복할 수 있게 된다.This is the step of adding various three-dimensional elements to the flat plate previously placed in virtual space (CG). Through this, when viewed from the perspective of the actual camera 200, it is possible to obtain a visual scene that is as close to the real thing as possible, and at the same time, it is possible to overcome many of the movement restrictions of the camera 200.

그 첫번째 단계로 가상 공간에서 평면 Plate를 이용하여 기준 위치에 대해 오목한 형태(즉, 평면 Plate를 향하는 면이 오목한 형태)인 반구형의 곡면 Plate의 Mesh를 생성하는 것이다. 이때, 중요한 점은 평면 Plate에 매핑된 평면 이미지나 곡면 Plate에 매핑된 곡면형 이미지가 모두 가상 카메라(VC)의 촬영 원점(즉, 기준 위치)에서 바라봤을 때 완전히 동일하게 보여야 한다는 점이다. 즉, 기준 위치는 가상 카메라(VC)가 평면 Plate의 중심 지점에서 일정 간격으로 이격된 위치이다. 이때, 기준 위치에 배치된 가상 카메라(VC)가 일정 간격 이격된 평면 Plate를 촬영할 경우, 가상 카메라(VC)에 촬영된 제2 영상에 평면 Plate에 해당하는 평면 이미지가 정확히 매칭된다(즉, 제2 영상에 평면 이미지가 꽉 채워지게 됨. 이하, 이와 같은 배치를 "기준 배치"라고도 지칭함).The first step is to create a mesh of a hemispherical curved plate that is concave (i.e., the side facing the flat plate is concave) with respect to the reference position using a flat plate in virtual space. At this time, the important point is that both the flat image mapped to the flat plate and the curved image mapped to the curved plate must look exactly the same when viewed from the shooting origin (i.e., reference position) of the virtual camera (VC). In other words, the reference position is the position where the virtual camera (VC) is spaced at regular intervals from the center point of the flat plate. At this time, when the virtual camera (VC) placed at the reference position photographs a flat plate spaced at a certain interval, the flat image corresponding to the flat plate is exactly matched to the second image captured by the virtual camera (VC) (i.e., the second image captured by the virtual camera (VC) is accurately matched to the flat plate. 2 The image is filled with a flat image (hereinafter, this arrangement is also referred to as the “standard arrangement”).

또한, 기준 배치가 수행된 평면 Plate를 기준 위치에서 가상 카메라(VC)가 볼 경우, 해당 평면 Plate를 "기준 평면"이라 지칭할 수도 있다. 이러한 기준 평면에 대한 기준 배치는 해당 평면 Plate의 소스인 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보(즉, 촬영 정보)를 이용하면 쉽게 수행될 수 있다. 이때, 촬영 정보는 해당 촬영 당시 카메라의 센서 크기, 화각(Focal Length) 등을 포함할 수 있다.Additionally, when the virtual camera (VC) views the flat Plate on which the reference arrangement was performed at the reference position, the corresponding flat Plate may be referred to as a “reference plane.” Reference arrangement for this reference plane can be easily performed using information about the camera setting state (i.e., shooting information) at the time the plane image, which is the source of the corresponding plane plate, was captured. At this time, the shooting information may include the sensor size and focal length of the camera at the time of the shooting.

곡면 Plate를 생성하기 위해, 기준 평면을 이루는 각 정점(Vertex)과, 곡면 Plate를 이루는 각 정점은 기준 위치를 원점으로 하여 대응하는 것이 바람직하다. 즉, 기준 위치에서 기준 평면을 향해 각 정점에 대한 연장선을 그을 때, 해당 연장선이 기준 평면과 만나는 기준 평면의 정점에 표시되는 이미지와, 해당 연장선이 곡면 Plate와 만나는 곡면 Plate의 정점에 표시되는 이미지는 완전히 동일해야 한다. 이때, 각 연장선에서, 기준 위치와 곡면 Plate의 각 정점 간의 거리는 동일한 거리(k)를 가짐으로써, 곡면 Plate가 반구 형태로 형성될 수 있다. In order to create a curved plate, it is desirable that each vertex forming the reference plane and each vertex forming the curved plate correspond to the reference position as the origin. In other words, when drawing an extension line for each vertex from the reference position toward the reference plane, the image displayed at the vertex of the reference plane where the extension line meets the reference plane, and the image displayed at the vertex of the curved plate where the extension line meets the curved plate. must be completely identical. At this time, in each extension line, the distance between the reference position and each vertex of the curved plate has the same distance (k), so that the curved plate can be formed in a hemispherical shape.

즉, 도 13을 참조하면, 제1 연장선은 기준 평면의 제1 지점(A)과 곡면 Plate의 제2 지점(A'')과 만나며, 제2 연장선은 기준 평면의 제3 지점(B)과 곡면 Plate의 제4 지점(B'')과 만난다. 이때, 제1 지점(A)의 이미지는 제2 지점(A'')의 이미지와 동일하고, 제3 지점(B)의 이미지는 제4 지점(B'')의 이미지와 동일하다. 또한, 기준 위치와 제2 지점(A'') 간의 길이에 해당하는 제1 연장선의 길이(k)는 기준 위치와 제4 지점(B'') 간의 길이에 해당하는 제2 연장선의 길이(k)와 동일하다 이러한 조건은 나머지의 기준 평면 및 곡면 Plate의 각 정점에 대해 동일하게 적용된다. 이하, 기준 위치와 곡면 Plate 간의 거리(k)를 "곡면 이격 거리"라 지칭할 수도 있다. 이러한 곡면 이격 거리는 입력부(310)를 통해 사용자로부터 선택 입력될 수 있다.That is, referring to FIG. 13, the first extension line meets the first point (A) of the reference plane and the second point (A'') of the curved plate, and the second extension line meets the third point (B) of the reference plane. It meets the fourth point (B'') of the curved plate. At this time, the image of the first point (A) is the same as the image of the second point (A''), and the image of the third point (B) is the same as the image of the fourth point (B''). In addition, the length (k) of the first extension line corresponding to the length between the reference position and the second point (A'') is the length (k) of the second extension line corresponding to the length between the reference position and the fourth point (B'') ) These conditions apply equally to the remaining reference planes and each vertex of the curved plate. Hereinafter, the distance (k) between the reference position and the curved plate may be referred to as the “curved surface separation distance.” This curved surface separation distance can be selected and input by the user through the input unit 310.

일례로, 다음의 단계(가상 공간에서 수행됨)를 따라 곡면 Plate의 Mesh를 생성할 수 있다.As an example, you can create a mesh of a curved plate by following the steps below (performed in virtual space).

1) 평면 소스로부터 기준 평면을 위한 Mesh를 가상 공간에 하나 생성한다. 이때 Mesh의 정점(Vertex) 개수는 설정된 그리드 개수를 기준으로 한다.1) Create a mesh for the reference plane from the plane source in virtual space. At this time, the number of vertices of the mesh is based on the set number of grids.

2) 평면 소스의 촬영 당시의 정보(카메라 센서 사이즈, 렌즈 화각 등)를 기반으로 기준 위치로부터 일정 간격 이격된 거리에 기준 평면을 위치시켜 기준 배치를 수행한다.2) Based on the information at the time of shooting the plane source (camera sensor size, lens angle of view, etc.), the reference plane is placed at a certain distance from the reference position to perform reference arrangement.

3) 기준 평면의 Mesh를 복사하여 동일한 정점(Vertex)과 uv(이미지 매핑 정보)를 가지는 레이어 Mesh를 특정 위치에 생성한다. 그 위치는 사전에 입력된 레이어 distance 값이다. 이 값이 '기준 위치'와 '레이어 Mesh'의 중심점 사이의 거리(곡면 이격 거리)인 k가 된다.3) Copy the mesh of the reference plane and create a layer mesh with the same vertices (vertex) and uv (image mapping information) at a specific location. The location is the layer distance value entered in advance. This value becomes k, the distance (curved surface separation distance) between the 'reference position' and the center point of the 'layer mesh'.

4) 레이어 Mesh의 각 정점들의 위치는 기준 위치에서 출발하여, 기준 평면 Mesh의 동일 정점(Vertex)를 지나면서 길이가 k가 되는 지점으로 재조정 된다.4) The position of each vertex of the layer mesh starts from the reference position and is readjusted to a point where the length becomes k while passing through the same vertex of the reference plane mesh.

5) 이를 통해, 자연스럽게 가운데 부분의 각 정점들은 멀어지고 가장자리 정점들은 가까워지는 곡면 Plate의 Mesh로 재구성된다. 즉, 화각이 커질수록 거리(k)가 멀어질수록, 생성되는 곡면 Plate의 Mesh 형태는 더욱 반구에 가까워지게 된다. 또한, 거리(k)가 멀어질수록, 생성되는 곡면 Plate는 보다 넓은 면적을 가지게 된다. 5) Through this, the mesh of the curved plate is naturally reconstructed with each vertex in the center moving away and the edge vertices getting closer. In other words, as the angle of view increases and the distance (k) increases, the mesh shape of the created curved plate becomes closer to a hemisphere. Additionally, as the distance (k) increases, the created curved plate has a larger area.

6) 최종적으로 가상 카메라(VC)가 기준 위치에서 평면 Plate 및 곡면형 Plate를 바라볼 경우, 평면 Plate의 이미지와 곡면 Plate의 이미지는 완벽하게 동일하게 보이게 된다.6) Finally, when the virtual camera (VC) looks at the flat plate and the curved plate from the reference position, the image of the flat plate and the image of the curved plate appear completely identical.

이처럼 기준 위치에서 바라볼 경우, 기준 평면의 평면 Plate와 동일하게 보이는 별도의 곡면 Plate를 만드는 이유는 보다 실제에 가까운 원근감을 제공하기 위함이다. 즉, 깊이감이 있는 입체적 공간을 하나의 평면으로 압축한 결과물인 사진의 경우, 정확하게 이미지의 정중앙을 바라볼 때만 실제와 동일한 뷰가 된다. 하지만, 사진 속의 실제 공간에 서있다고 생각해보면, 촬영자를 중심으로 모든 환경이 둥글게 감싸고 있는 형상이다.The reason for creating a separate curved plate that looks the same as the flat plate of the reference plane when viewed from the reference position is to provide a more realistic perspective. In other words, in the case of a photograph, which is the result of compressing a three-dimensional space with a sense of depth into a single plane, the view is the same as the real thing only when you look at the exact center of the image. However, if you think of yourself as standing in the actual space in the photo, the entire environment surrounds the photographer in a circle.

도 14는 가상 카메라로 평면 Plate를 촬영할 경우에 대한 일 예를 나타내며, 도 15는 가상 카메라로 곡면 Plate를 촬영할 경우에 대한 일 예를 나타낸다.Figure 14 shows an example of photographing a flat plate with a virtual camera, and Figure 15 shows an example of photographing a curved plate with a virtual camera.

도 14 및 도 15를 참조하면, 가상 카메라(VC)가 각 Plate에 대해 정중앙이 아닌 좌측으로 편향되어 바라보고 있다. 따라서, 공간을 감싸는 구조로 되어 있는 곡면 Plate의 경우, 도 15에 도시된 바와 같이, 빈 부분 없이 제2 영상이 촬영이 되나, 평면 Plate의 경우, 도 14에 도시된 바와 같이, 빈 곳을 포함하는 제2 영상이 촬영되는 것을 볼 수 있다. 또한, 실제 세상과 같이 가상 카메라(VC)를 중심으로 해당 가상 카메라(VC)를 감싸는 형태로 되어 있는 곡면 Plate에 대한 제2 영상이 편면 Plate에 대한 제2 영상 보다 자연스럽게 표현되는 것을 볼 수 있다.Referring to Figures 14 and 15, the virtual camera (VC) is looking at each plate with a bias to the left rather than the exact center. Therefore, in the case of a curved plate with a structure surrounding a space, the second image is captured without an empty portion, as shown in FIG. 15, but in the case of a flat plate, an empty portion is included as shown in FIG. 14. You can see the second video being shot. In addition, it can be seen that the second image for the curved plate, which is centered around the virtual camera (VC) and surrounds the virtual camera (VC) like in the real world, is expressed more naturally than the second image for the single-sided plate.

이같은 자연스러움의 차이는 정지된 이미지가 아닌 가상 카메라(VC)가 움직일 경우에 더욱 도드라지게 된다. 즉, 가상 카메라(VC)가 움직이면, 평면 Plate의 원경은 멀리 있는 느낌보다는 바로 앞 벽에 걸린 액자처럼 보이게 된다. 결론적으로, 곡면 Plate를 사용할 경우, 평면 Plate에 비해 가상 카메라(VC)가 움직일 수 있는 범위가 훨씬 늘어나게 된다. 특히, 가상 카메라(VC)에 대해 위치뿐 아니라 방향(Pan, Tilt)을 변경하여도 왜곡이 없는 결과물(즉, 제2 영상)을 얻을 수 있게 된다.This difference in naturalness becomes more noticeable when the virtual camera (VC) moves rather than a still image. In other words, when the virtual camera (VC) moves, the distant view of the flat plate looks like a picture frame hanging on the wall in front of it rather than feeling like it is far away. In conclusion, when using a curved plate, the range in which the virtual camera (VC) can move is significantly increased compared to a flat plate. In particular, it is possible to obtain a result without distortion (i.e., a second image) even if not only the position but also the direction (pan, tilt) of the virtual camera (VC) is changed.

물론, 기존에도 CG 업계에서는 'HDRI 파노라마 사진'을 구체(Sphere)의 안쪽에 매핑 시켜서 하늘이나 아주 먼 산 등의 원경을 시각화 하는 방법을 사용하고 있다. 하지만, 파노라마 사진은 별도의 촬영 장비나 복잡한 이미지 처리가 필요하고 완전한 원경을 표현하는 용도로만 주로 사용된다. 반면, 본 발명에서는 파노라마 사진이 아닌 화각(Fov)을 가지는 일반적인 사진을 자연스럽게 공간에 배치하고자 하는 것이 목적이다. 하지만 일반 사진의 경우, 단순히 구체에 씌우기만 하면 되는 360도 파노라마 사진과 달리, 매핑되는 곡면 Plate의 정확한 형태나 크기를 가늠하기 매우 힘들다. 따라서, 본 발명에서는 평면 소스의 입체적 시각화를 위해, 대상이 되는 평면 이미지 및 해당 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보인 촬영 정보(센서 크기, 화각, 거리)를 기반으로 기준 평면에 대한 기준 배치를 수행한 후, 상술한 바에 따라 해당 기준 평면에 대한 정확한 곡면 Plate를 생성할 수 있다.Of course, the CG industry is already using a method of visualizing distant views such as the sky or very distant mountains by mapping 'HDRI panoramic photos' to the inside of a sphere. However, panoramic photos require separate shooting equipment or complex image processing and are mainly used only to express a complete distant view. On the other hand, the purpose of the present invention is to naturally arrange general photos with an angle of view (FOV) in space, rather than panoramic photos. However, in the case of general photos, unlike 360-degree panoramic photos that simply cover a sphere, it is very difficult to determine the exact shape or size of the curved plate being mapped. Therefore, in the present invention, for three-dimensional visualization of a flat source, the target flat image and the shooting information (sensor size, angle of view, distance), which is information about the camera setting state at the time the flat image was captured, are placed on the reference plane. After performing the reference arrangement, an accurate curved plate for the reference plane can be created as described above.

이러한 가상 공간에서 생성된 곡면 Plate을 가상 카메라(VC)로 촬영한 제2 영상을 LED 벽체(100)에서 재생(물론, 이 경우에도 상술한 Anamorphic 왜곡이 수행)하는 경우, 이를 촬영한 카메라(200)의 제1 영상에서 LED 벽체(100)에서 재생되는 해당 이미지 부분이 어느 정도의 깊이감을 가지는 입체적 공간으로 인식될 수 있다When the second image captured by a virtual camera (VC) on the curved plate created in this virtual space is played back on the LED wall 100 (of course, the anamorphic distortion described above is performed in this case as well), the camera that captured it (200 ) In the first image, the portion of the image played on the LED wall 100 can be recognized as a three-dimensional space with a certain degree of depth.

(3) 제3 과정: Parallax Effect(시차 효과) 형성을 통한 레이어 구분(3) Third process: Layer division through formation of Parallax Effect

앞서 평면 이미지를 곡면 Plate에 매핑하는 방법을 통해 공간감을 형성하고 가상 카메라(VC)의 위치 제약을 극복하도록 하였다. 이러한 곡면 Plate의 반구형 매핑 방식의 장점은 원경 이미지일 경우 더욱 극대화된다. 하지만, 평면 이미지의 소스 안에 근경, 중경 및 원경의 컨텐츠가 동시에 존재할 경우, 깊이감(depth) 부재로 인해 가상 카메라(VC)가 움직일 경우 어색한 장면의 제2 영상이 연출될 것이다. 즉, 가상 카메라(VC)가 좌우로 이동할 경우, 시차 효과(Parallax Effect)로 인해 근경은 빠르게 원경은 느리게 흘러가는 것처럼 보여야 하지만, 한 장의 평면 이미지로는 이러한 효과가 불가능하다.Previously, a method of mapping a flat image to a curved plate was used to create a sense of space and overcome the location constraints of the virtual camera (VC). The advantages of this curved plate's hemispherical mapping method are further maximized for distant images. However, if near-ground, middle-ground, and far-view content exist simultaneously in the source of a flat image, if the virtual camera (VC) moves due to the lack of depth, a second image of an awkward scene will be produced. In other words, when the virtual camera (VC) moves left or right, the near view must appear to move quickly and the far view slowly due to the parallax effect, but this effect is not possible with a single flat image.

따라서, 본 발명에서는 평면 소스에서 거리 별로 구분된 다수의 이미지(이하, 러한 각 이미지를 "구분 이미지"라 지칭함)에 대해 별도의 곡면 Plate의 Mesh를 생성하는 방안을 제안한다.Therefore, the present invention proposes a method of generating a separate curved plate mesh for multiple images separated by distance from a flat source (hereinafter, each such image is referred to as a “separated image”).

도 16은 가상 공간에서 도 7의 평면 소스에 대해 거리 별로 구분된 다수의 구분 이미지에 대한 각 레이어(Lyaer)를 생성하는 모습에 대한 일 예를 나타내고, 도 17은 가상 공간에서 도 16에 따라 각 구분 이미지의 레이어에 대해 각 곡면 Plate를 생성하는 모습을 나타낸다. FIG. 16 shows an example of generating each layer (Lyaer) for a plurality of separate images divided by distance with respect to the plane source of FIG. 7 in virtual space, and FIG. 17 shows each layer (Lyaer) according to FIG. 16 in virtual space. It shows how to create each curved plate for each layer of a separate image.

이때, 도 16을 참조하면, 제1 구분 이미지(Layer 1)는 평면 소스에서 제2 구분 이미지(Layer 2) 보다 근경에 해당하는 부분을 포함하는 이미지일 수 있고, 제2 구분 이미지는 평면 소스에서 제3 구분 이미지(Layer 3) 보다 근경에 해당하는 부분을 포함하는 이미지일 수 있다. 이에 따라, 제1 구분 이미지는 평면 소스에서 근경에 해당하는 부분을 포함하는 이미지일 수 있고, 제2 구분 이미지는 평면 소스에서 중경에 해당하는 부분을 포함하는 이미지일 수 있으며, 제3 구분 이미지는 평면 소스에서 원격에 해당하는 부분을 포함하는 이미지일 수 있다. 이때, 제1 내지 제3 구분 이미지에 대해 각각 별도의 레이어(Layer)로 저장되어 활용될 수 있으며, 해당 각 레이어(Layer 1, Layer 2, Layer 3는 원래의 평면 소스와 동일한 평면 크기(즉, 2차원 크기)를 가진다.At this time, referring to FIG. 16, the first division image (Layer 1) may be an image including a portion corresponding to a closer view than the second division image (Layer 2) in the planar source, and the second division image may be an image in the plane source. It may be an image that includes a part corresponding to the near-field than the third division image (Layer 3). Accordingly, the first segmented image may be an image including a portion corresponding to the near field in the planar source, the second segmented image may be an image including a portion corresponding to the middle view in the planar source, and the third segmented image may be It may be an image containing a remote portion of a planar source. At this time, the first to third division images may be stored and utilized as separate layers, and each layer (Layer 1, Layer 2, and Layer 3) has the same plane size as the original plane source (i.e. has a two-dimensional size).

또한, 도 17에 도시된 바와 같이, 제1 구분 이미지에 대한 곡면 Plate(이하, "제1 곡면 Plate"라 지치함)와, 제2 구분 이미지에 대한 곡면 Plate(이하, "제2 곡면 Plate"라 지칭함)와, 제3 구분 이미지에 대한 곡면 Plate(이하, "제3 곡면 Plate"라 지칭함)가 각각 별도로 생성된다. In addition, as shown in FIG. 17, a curved plate for the first segment image (hereinafter referred to as “first curved plate”) and a curved plate for the second segment image (hereinafter referred to as “second curved plate”) ) and a curved plate for the third segment image (hereinafter referred to as “third curved plate”) are created separately.

즉, 제1 곡면 Plate는 제1 구분 이미지의 기준 평면을 기준 배치한 상태에서 제1 거리(k1)의 곡면 이격 거리에서 생성된 해당 제1 구분 이미지에 대한 곡면 Plate이다. 또한, 제2 곡면 Plate는 제2 구분 이미지의 기준 평면을 기준 배치한 상태에서 제2 거리(k2)의 곡면 이격 거리에서 생성된 해당 제2 구분 이미지에 대한 곡면 Plate이다. 마찬가지로, 제3 곡면 Plate는 제3 구분 이미지의 기준 평면을 기준 배치한 상태에서 제3 거리(k3)의 곡면 이격 거리에서 생성된 해당 제3 구분 이미지에 대한 곡면 Plate이다. 이하, 이러한 각 거리 별 곡면 Plate들(가령, 제1 내지 제3 곡면 Plate)을 통칭하여 "Layered Plate"라 지칭할 수도 있다.That is, the first curved plate is a curved plate for the first segment image created at a curved separation distance of the first distance (k1) with the reference plane of the first segment image placed as a reference. In addition, the second curved plate is a curved plate for the second segment image created at a curved separation distance of the second distance (k2) with the reference plane of the second segment image placed as a reference. Likewise, the third curved plate is a curved plate for the third segment image created at a curved separation distance of the third distance (k3) with the reference plane of the third segment image placed as a reference. Hereinafter, these curved plates for each distance (e.g., first to third curved plates) may be collectively referred to as “Layered Plate.”

한편, 평면 이미지에서 거리 별로 구분된 각 구분 이미지를 생성하는 방식은 여러가지가 있을 수 있다. 일례로, 포토샵 등과 같은 이미지 편집 툴을 이용하여 사용자가 평면 이미지로부터 각 구분 이미지를 직접 분리하거나, segmentation 등의 영상 처리 기법을 이용하여 평면 이미지로부터 각 구분 이미지를 분리하거나, 머신 러닝을 통해 자동으로 평면 이미지로부터 Depth를 추정하여 각 구분 이미지를 구분하는 방식이 사용될 수 있으나, 본 발명이 이에 한정되는 것은 아니다.Meanwhile, there may be various ways to generate each segment image divided by distance from a flat image. For example, the user can directly separate each segment image from the flat image using an image editing tool such as Photoshop, separate each segment image from the flat image using image processing techniques such as segmentation, or automatically use machine learning to separate each segment image from the flat image. A method of classifying each segment image by estimating depth from a flat image may be used, but the present invention is not limited to this.

일례로, Layered Plate를 만드는 절차는 다음과 같다. 다만, 각 구분 이미지에 대한 각 곡면 Plate의 Mesh를 생성하는 과정은 앞서 설명한 제2 과정에 따른 내용과 동일하다.As an example, the procedure for creating a Layered Plate is as follows. However, the process of creating the mesh of each curved plate for each classification image is the same as the second process described above.

1) 대상이 되는 평면 이미지로부터 거리에 따라 몇개의 레이어로 구분할 지(즉, 거리 별로 구분되는 이미지의 개수)를 결정한다. 이하, 3개(즉, 제1 내지 제3 구분 이미지)로 구분된 경우에 대해 설명하도록 한다.1) Determine how many layers to be divided into depending on the distance from the target flat image (i.e., the number of images divided by distance). Hereinafter, a case where the images are divided into three (i.e., first to third division images) will be described.

2) 대상이 되는 평면 이미지에서 근경, 중경 및 원경 영역을 각각 구분하고 구분된 영역을 각각 포함하는 제1 내지 제3 구분 이미지를 메모리(340)에 저장한다.2) In the target planar image, the near-ground, middle-ground, and far-field areas are separated, and the first to third segmented images each including the divided areas are stored in the memory 340.

3) 촬영될 당시의 카메라 세팅 상태에 대한 정보(가령, 센서 사이즈, 화각 등)을 설정한다. 일반적으로, 동일한 평면 이미지에서 추출된 각 구분 이미지를 사용하게 되므로, 각 구분 이미지에 대한 화각 값은 모두 동일한 값으로 설정한다. 다만, 특정의 구분 이미지에 다른 평면 이미지에서 추출한 이미지를 넣는 경우, 해당 레이어의 화각 값을 변경하여 배치되는 Mesh의 크기를 조정할 수 있다.3) Set information about the camera settings at the time of shooting (e.g., sensor size, angle of view, etc.). In general, since each segment image extracted from the same plane image is used, the angle of view value for each segment image is set to the same value. However, when inserting an image extracted from another plane image into a specific classification image, the size of the placed mesh can be adjusted by changing the angle of view value of the corresponding layer.

4) 각 구분 이미지에 따른 각 곡면 Plate가 위치하게 될 거리(즉, 곡면 이격 거리)를 설정한다. 즉, 제1 레이어(Layer 1)에 대해 가장 작은 값의(즉, 짧은) 곡면 이격 거리를 설정하고, 제2 레이어(Layer 2)에 대해 중간치의 곡면 이격 거리를 설정하며, 제3 레이어(Layer 3)에 대해 가장 큰 값의(즉, 먼)의 곡면 이격 거리를 설정한다. 이때, 각 레이어 별로 대략적인 추정치를 설정하되, 가능하면 실제와 가까운 값이 들어가도록 하는 것이 바람직할 수 있다. 이러한 각 곡면 이격 거리의 값이 정확할수록 해당 대상의 실제 물리적 크기에 가깝게 각 곡면 Plate의 Mesh가 생성될 수 있다. 가령, 실제로 1km 떨어진 산이 들어 있는 구분 이미지의 레이어에 대해 100,000cm의 곡면 이격 거리를 설정하면, 가상 공간 내에서 기준 위치로부터 1km 떨어진 거리에 실물 사이즈 대로 곡면 Plate의 Mesh가 생성된다.4) Set the distance at which each curved plate will be located according to each classification image (i.e., curved surface separation distance). That is, the smallest (i.e. short) curved surface separation distance is set for the first layer (Layer 1), the intermediate curved surface separation distance is set for the second layer (Layer 2), and the third layer (Layer 2) is set. For 3), set the curved separation distance to the largest value (i.e., farthest). At this time, it may be desirable to set a rough estimate for each layer and include a value as close to the actual value as possible. The more accurate the value of each curved surface separation distance is, the more closely the mesh of each curved plate can be created to the actual physical size of the object. For example, if you set a curved separation distance of 100,000cm for a layer of a separate image that actually contains a mountain 1km away, a mesh of a curved plate is created in real size at a distance of 1km from the reference location in virtual space.

도 18은 가상 공간에서 가상 카메라(VC)가 도 17에 따라 생성된 각 곡면 Plate를 대향하면서 좌측에서 우측으로 이동하면서 촬영한 제2 영상의 예들을 나타낸다. 즉, 도 18(a)는 가상 카메라(VC)가 좌측에 위치한 경우에 대한 제2 영상을, 도 18(b)는 도 18(a)의 경우보다 가상 카메라(VC)가 우측으로 이동한 경우에 대한 제2 영상을, 도 18(c)는 도 18(b)의 경우보다 가상 카메라(VC)가 우측으로 이동한 경우에 대한 제2 영상을 각각 나타낸다. FIG. 18 shows examples of second images captured while the virtual camera (VC) moves from left to right while facing each curved plate created according to FIG. 17 in virtual space. That is, Figure 18(a) shows the second image when the virtual camera (VC) is located on the left, and Figure 18(b) shows the second image when the virtual camera (VC) is moved to the right compared to the case of Figure 18(a). 18(c) shows the second image for the case where the virtual camera VC moves to the right compared to the case in FIG. 18(b).

5) 이후, 가상 카메라(VC)를 좌우로 움직여보면, 도 18에 도시된 바와 같이, 각 곡면 Plate의 곡면 이격 거리에 따른 시차로 인해 각 곡면 Plate의 레이어가 다른 속도로 움직이는 것처럼 보이게 되면서, 제1 및 제2 영상에서 Parallax Effect(시차 효과)가 발생될 수 있다.5) Afterwards, when the virtual camera (VC) is moved left and right, as shown in Figure 18, the layers of each curved plate appear to move at different speeds due to the parallax according to the curved separation distance of each curved plate, Parallax effect may occur in the first and second images.

여기서 중요한 점은, 대략적인 눈대중으로 레이어 이미지들을 배치하더라도 제한적으로는 비슷한 효과를 얻을 수 있으나, 실제 물리적 현상과의 오차는 막을 수 없는 점이다. 특히, 가상 카메라(VC)가 움직이게 되는 경우, 투시 구조(Perspective)가 깨어지거나 원근감이 부자연스럽게 느껴지게 된다. 따라서, 앞서 곡면 Plate의 Mesh 생성 과정에서 설명한 것처럼, 각 레이어(Layer 1, Layer 2, Layer 3)의 곡면 Plate Mesh의 모든 정점(Vertex)들은 반드시 '기준 위치'에서 출발하여 기준 평면 Mesh의 동일한 정점을 지나는 선 위에 위치하게 되는 기준 배치기 수행되어야 한다. 이에 따라, 레이어들(Layer 1, Layer 2, …이 몇 개로 구분되어 있든, 기준 위치로부터 각 레이어(Layer 1, Layer 2, …가 어떤 수치의 곡면 이격 거리로 떨어져 있든, 가상 카메라(VC)가 '기준 위치'에서 각 곡면 Plate를 보았을 때 각 곡면 Plate의 크기가 동일하게 보이게 된다는 것이다. 이를 통해, 실제 3D 물체는 아니지만, 가상 공간에서 각 레이어(Layer 1, Layer 2, …에 따라 구분되어 생성된 곡면 Plate들을 가상 카메라(VC)로 촬영한 제2 영상을 LED 벽체(100)에서 재생(물론, 이 경우에도 상술한 Anamorphic 왜곡이 수행)하면, 이를 촬영한 카메라(200)의 제1 영상에서 LED 벽체(100)에서 재생되는 해당 이미지 부분이 인물 등의 촬영 배경으로 사용되더라도, 어색하지 않으면서도 공간감이 극대화될 수 있다.The important point here is that even if you place the layer images roughly in line with the eye, you can achieve a similar effect to a limited extent, but errors with actual physical phenomena cannot be prevented. In particular, when the virtual camera (VC) moves, the perspective may be broken or the perspective may feel unnatural. Therefore, as explained earlier in the curved plate mesh creation process, all vertices of the curved plate mesh of each layer (Layer 1, Layer 2, Layer 3) must start from the 'reference position' and end up at the same vertex of the reference plane mesh. A reference positioner located on a line passing through should be performed. Accordingly, no matter how many layers (Layer 1, Layer 2, ... are divided into several layers, and no matter what curved separation distance each layer (Layer 1, Layer 2, ...) is from the reference position, the virtual camera (VC) This means that the size of each curved plate appears the same when viewed from the 'reference position.' Through this, it is not a real 3D object, but is created separately according to each layer (Layer 1, Layer 2, ...) in virtual space. When the second image captured by the virtual camera (VC) of the curved plates is played back on the LED wall 100 (of course, the anamorphic distortion described above is performed in this case as well), the first image of the camera 200 that captured the curved plates is played back on the LED wall 100. Even if the portion of the image played on the LED wall 100 is used as a background for shooting people, the sense of space can be maximized without making it awkward.

(4) 제4 과정: 대상 물체의 입체성을 고려한 레이어 두께감 표현(4) Fourth process: Expression of layer thickness considering the three-dimensionality of the target object

앞서 제3 과정을 통해, 하나의 평면 이미지에서 각 구분 이미지를 거리 별 레이어(Layer 1, Layer 2, …로 나누고 실제와 유사한 위치, 크기로 배치할 수 있는 방법을 설명하였다. 이제 다음의 제4 과정은 각 레이어(Layer 1, Layer 2, …의 곡면 Plate Mesh에 두께감을 부여하는 것이다. 즉, 이전의 제3 과정을 통해 각 레이어(Layer 1, Layer 2, …는 각각의 화각과 거리가 반영된 곡면 Plate Mesh에 그려지게 된다. 이러한 방법은 전체적인 공간감을 높이는데 좋은 방법이며, 특히 원경에 효과적이다. 하지만, 가상 카메라(VC)가 움직일 때, 각 레이어(Layer 1, Layer 2, … 내 이미지의 물체가 앞쪽 방향으로(즉, 기준 위치 측의 방향으로) 튀어나와 있는 구조(가령, 바위 또는 산 등이 앞쪽 방향으로 돌출된 구조)라면, 이를 가상 카메라(VC)로 촬영된 제2 영상에서는 실제보다 안쪽으로 들어가 있는 것처럼 느껴지게 된다(이하, "돌출 구조 문제"라 지칭함). 그 이유는 해당 물체가 실제로는 앞으로 튀어나와 있는 구조이지만, 곡면 Plate Mesh에 매핑되면서, 실제보다 안쪽으로 눌린 것처럼 시각화 되기 때문이다.Previously, through the third process, we explained how to divide each separate image from a single flat image into layers (Layer 1, Layer 2, ...) by distance and arrange them in positions and sizes similar to the real thing. Now, in the next fourth process, The process is to give a sense of thickness to the curved Plate Mesh of each layer (Layer 1, Layer 2, ...). In other words, through the previous third process, each layer (Layer 1, Layer 2, ...) has its own angle of view and distance reflected. It is drawn on a curved Plate Mesh. This method is a good way to increase the overall sense of space, and is especially effective for distant scenes. However, when the virtual camera (VC) moves, each layer (Layer 1, Layer 2, … of my image) If the object is a structure that protrudes in the front direction (i.e., in the direction of the reference position) (e.g., a rock or mountain, etc., protrudes in the front direction), the second image captured by the virtual camera (VC) shows the actual structure. It feels like it's going inward (hereinafter referred to as the "protruding structure problem"). The reason is that the object is actually a structure that protrudes forward, but when mapped to the curved Plate Mesh, it is visualized as being pushed inward rather than in reality. Because it becomes.

도 19는 도 16에 따라 생성된 각 레이어(Layer 1, Layer 2, Layer 3)에 대해 깊이 맵(Depth Map)을 적용하는 과정에 대한 모습의 일 예를 나타낸다. 또한, 도 20은 도 16에 따라 생성된 레이어들(Layer 1, Layer 2, Layer 3) 중에 제3 레이어(Layer 3)에 대해 깊이 맵(Depth Map)을 적용한 모습의 일 예를 나타낸다.FIG. 19 shows an example of the process of applying a depth map to each layer (Layer 1, Layer 2, and Layer 3) created according to FIG. 16. Additionally, FIG. 20 shows an example of applying a depth map to the third layer (Layer 3) among the layers (Layer 1, Layer 2, and Layer 3) created according to FIG. 16.

따라서, 각 레이어(Layer 1, Layer 2, …에 대해, 도 20에 도시된 바와 같이, 별도의 깊이 맵(Depth Map)을 적용할 수 있도록 함으로써 해당 돌출 구조 문제를 해결할 수 있다. 레이어들(Layer 1, Layer 2, …에 대한 깊이 맵은 각각 레이어 별로 생성되며(가령, 레이어가 3개이면 깊이 맵도 3개), 이러한 각 깊이 맵의 적용은 선택적일 수 있다. 이하, 제1 레이어(Layer 1)에 대한 깊이 맵을 "제1 깊이 맵"이라 지칭하고, 제2 레이어(Layer 2)에 대한 깊이 맵을 "제2 깊이 맵"이라 지칭하며, 제3 레이어(Layer 3)에 대한 깊이 맵을 "제3 깊이 맵"이라 지칭한다. Therefore, the problem of the protrusion structure can be solved by applying a separate depth map to each layer (Layer 1, Layer 2, ..., as shown in Figure 20). Layers (Layers) Depth maps for Layer 1, Layer 2, ... are generated for each layer (for example, if there are 3 layers, there are 3 depth maps), and the application of each of these depth maps may be optional. Hereinafter, the first layer (Layer The depth map for 1) is referred to as the “first depth map”, the depth map for the second layer (Layer 2) is referred to as the “second depth map”, and the depth map for the third layer (Layer 3) is referred to as the “third depth map”.

즉, 레이어들(Layer 1, Layer 2, …중에 깊이 맵을 적용하는 레이어가 있을 수 있고, 레이어들(Layer 1, Layer 2, …중에 깊이 맵을 적용하지 않는 레이어가 있을 수 있다. 이때, 깊이 맵의 생성은 포토샵 등과 같은 이미지 편집 프로그램에서 Brush로 칠하거나, 머신 러닝 방식 중 Depth Estimation을 통해 Depth 정보를 추출할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.That is, among the layers (Layer 1, Layer 2,...), there may be a layer to which a depth map is applied, and among the layers (Layer 1, Layer 2,...), there may be a layer to which a depth map is not applied. In this case, the depth The map can be created by painting with a brush in an image editing program such as Photoshop, or depth information can be extracted through depth estimation among machine learning methods, but the present invention is not limited to this.

깊이 맵은 해당 레이어의 크기와 동일한 평면 크기를 가지며, 깊이 맵의 각 정점(화소)는 해당 레이어의 각 정점과 대응하게 된다. 이때, 깊이 맵의 각 정점은 이에 대응하는 레이어의 각 정점에 대한 돌출 정도에 대한 깊이 정보를 포함한다. 즉, 깊이 맵에서 이미지의 밝기 정도에 따라 해당 레이어의 Mesh의 각 정점들이 앞으로 돌출될 수 있다.The depth map has a plane size equal to the size of the corresponding layer, and each vertex (pixel) of the depth map corresponds to each vertex of the corresponding layer. At this time, each vertex of the depth map includes depth information about the degree of protrusion of each vertex of the corresponding layer. In other words, depending on the brightness of the image in the depth map, each vertex of the mesh of the corresponding layer may protrude forward.

가령, 제1 깊이 맵에서, 밝은 색(흰색) 또는 어두운 색(검은색)에 가까운 정점일수록, 이에 대응하는 제1 레이어(Layer 1)의 제1 곡면 Plate의 정점이 기준 배치된 해당 제1 곡면 Plate에서 보다 앞쪽 방향으로(즉, 기준 위치 측의 방향)으로 돌출되게 하는 정보를 가질 수 있다. 즉, 해당 정점은 제1 곡면 Plate가 가지는 원래의 곡면 이격 거리보다 짧은 곡면 이격 거리로 이동하게 된다. 이러한 내용을 나머지 제2 및 제3 깊이 맵에도 각각 동일하게 적용될 수 있다. 이때, 중요한 점은 각 곡면 Plate Mesh의 각 정점(Vertex)들은 어떠한 경우에도, '기준 위치'에서 출발하여 기준 평면 Mesh의 동일한 정점을 지나는 선 위에 위치하는 기준 배치에 따라 돌출되도록 이동해야 한다는 점이다.For example, in the first depth map, the closer the vertex is to a light color (white) or a dark color (black), the corresponding first curved surface on which the vertex of the first curved surface Plate of the first layer (Layer 1) is placed as a reference. It may have information that causes it to protrude from the plate in a more forward direction (i.e., in the direction of the reference position). In other words, the vertex moves to a curved surface separation distance that is shorter than the original curved distance of the first curved plate. This can be equally applied to the remaining second and third depth maps, respectively. At this time, the important point is that, in any case, each vertex of each curved plate mesh must start from the 'reference position' and move to protrude according to the reference arrangement located on the line passing through the same vertex of the reference plane mesh. .

또한, 최대로 돌출되는 정도는 각 레이어(Layer 1, Layer 2, … 별로 다르게 설정될 수 있다. 즉, 또한 각 레이어(Layer 1, Layer 2, … 별로 깊이 강도(Depth Strength) 값을 조정하여 두께 효과의 강약을 조정할 수 있다. In addition, the maximum degree of protrusion can be set differently for each layer (Layer 1, Layer 2, ...). That is, the depth strength value can be adjusted for each layer (Layer 1, Layer 2, ...) to determine the thickness. You can adjust the strength of the effect.

도 21 및 도 22는 도 16에 따라 생성된 레이어들(Layer 1, Layer 2, Layer 3) 중에 제1 레이어(Layer 1)에 대해 깊이 맵(Depth Map)을 적용한 후 가상 카메라로 촬영한 결과인 제2 영상에 대한 예들을 나타낸다. 즉, 도 21(a)는 제1 레이어(Layer 1)에 대해 깊이 맵(Depth Map)을 적용한 후 가상 카메라(VC)를 각 곡면 Plate에 대해 정면에서 촬영하는 모습을 나타내고, 도 21(b)는 도 21(a)에 대한 제2 영상을 나타낸다. 또한, 도 22(a)는 제1 레이어(Layer 1)에 대해 깊이 맵(Depth Map)을 적용한 후 가상 카메라(VC)를 각 곡면 Plate에 대해 기준 위치의 우측에서 촬영하는 모습을 나타내고, 도 22(b)는 도 22(a)에 대한 제2 영상을 나타낸다. 다만, 도 21(b) 및 도 22(b)에서 인물은 각 촬영 방향을 쉽게 표시하기 위해 임의 추가한 것이다.Figures 21 and 22 are the results of shooting with a virtual camera after applying a depth map to the first layer (Layer 1) among the layers (Layer 1, Layer 2, and Layer 3) created according to Figure 16. Examples of the second image are shown. That is, Figure 21(a) shows a virtual camera (VC) photographing each curved plate from the front after applying a depth map to the first layer (Layer 1), and Figure 21(b) represents the second image for FIG. 21(a). In addition, Figure 22(a) shows the virtual camera (VC) being photographed from the right side of the reference position for each curved plate after applying the depth map to the first layer (Layer 1), and Figure 22 (b) shows the second image for FIG. 22(a). However, in Figures 21(b) and 22(b), the people are arbitrarily added to easily indicate each shooting direction.

도 21 및 도 22를 참조하면, 레이어들(Layer 1, Layer 2, Layer 3) 중에 적어도 하나에 Depth Map을 적용할 경우, 해당 레이어를 이루는 곡면 Plate Mesh에는 즉시로 두께감이 더해진다. Referring to Figures 21 and 22, when a Depth Map is applied to at least one of the layers (Layer 1, Layer 2, and Layer 3), thickness is immediately added to the curved Plate Mesh forming the corresponding layer.

이처럼 평면 이미지를 거리 별 레이어로 계층화하고 각 레이어에 두께감을 부여할 경우, 실제로 기존 평면 소스가 표현할 수 없는 높은 수준의 입체감과 촬영 자유도를 얻을 수 있게 된다. 특히, 근경인 제1 레이어(Layer 1)의 물체에 두께감을 주어 사용할 경우, 높은 시각적 디테일과 함께, 렌더링 퍼포먼스 문제 개선에도 도움이 된다. 실제로 수만에서 수백만에 이르는 정점(Vertex)으로 구성되는 일반적인 3D Asset과 비교할 때, 각 레이어(Layer 1, Layer 2, …의 곡면형 Plate Mesh는 100개에서 1600개 정도의 정점만을 사용하며, 재질을 결정하는 Shader 코드 또한 복잡도가 낮아서 성능 확보에 유리하다.In this way, if a flat image is layered into layers according to distance and a sense of thickness is given to each layer, it is possible to obtain a high level of three-dimensional effect and shooting freedom that existing flat sources cannot express. In particular, when used to give a sense of thickness to objects in the first layer (Layer 1), which is in the background, it not only provides high visual detail, but also helps improve rendering performance issues. In fact, compared to a typical 3D Asset composed of tens of thousands to millions of vertices, the curved Plate Mesh of each layer (Layer 1, Layer 2, …) uses only about 100 to 1,600 vertices, and the material The shader code that decides is also low in complexity, which is advantageous in securing performance.

(5) 자연스러운 촬영을 위한 실시간 보정 기능(5) Real-time correction function for natural shooting

이전 단계들을 통해 평면 소스를 각 레이어로 계층화하고 두께감을 준 뒤 공간에 배치하는 방법으로 공간감을 얻을 수 있음을 설명하였다. 이에 따라, 본 발명은 이와 같이 만들어진 'Layered Plate'가 실제 사용되는 단계, 즉 LED 벽체(100)가 구비된 LED 스튜디오에서 버추얼 프로덕션 방식으로 영상을 촬영하는 단계에서, 현장 상황이나 감독의 의견에 따라 해당 Asset을 쉽게 실시간 보정할 수 있게 한다.Through the previous steps, it was explained that a sense of space can be obtained by layering the planar source into each layer, giving it a sense of thickness, and then arranging it in space. Accordingly, the present invention is a stage in which the 'Layered Plate' made in this way is actually used, that is, in the stage of filming an image using a virtual production method in an LED studio equipped with an LED wall 100, according to the on-site situation or the director's opinion. It allows for easy real-time correction of the asset.

가령, Virtual Production 촬영용 '통합 제어 프로그램'을 이용하여, 해당 실시간 보정을 수행할 수 있다. 이러한 프로그램은 재생 장치(300) 또는 재생 장치(300)에 연결된 별도의 전자 장치인 제어 장치(미도시)에 설치될 수 있다. 해당 프로그램은 카메라(200)의 물리적 움직임과, LED 벽체(100)의 형태를 기반으로 LED 벽체(100)에 가상 공간을 표출하는 플레이어와, 이들을 제어하는 '통합제어프로그램'을 포함할 수 있다. 이러한 프로그램을 통해, 그래픽 디자이너들이 만든 CG 컨텐츠를 LED 벽체(100)에 재생할 때에 발생할 수 있는 실제 공간과의 색감 차이, 물리공간과 가상공간의 위치 오차 조정, 콘텐 츠의 타임라인 조정 등을 현장에서 할 수 있게 된다.For example, real-time correction can be performed using the 'integrated control program' for virtual production shooting. Such a program may be installed in the playback device 300 or a control device (not shown) that is a separate electronic device connected to the playback device 300. The program may include a player that displays a virtual space on the LED wall 100 based on the physical movement of the camera 200 and the shape of the LED wall 100, and an 'integrated control program' that controls them. Through these programs, color differences between real space and actual space that may occur when playing CG content created by graphic designers on the LED wall (100), positional error adjustment between physical space and virtual space, and content timeline adjustment can be adjusted on site. You can do it.

이를 위한 'Layered Plate 플러그인'은 LED 벽체(100)에 재생되는 제2 영상을 시각화하는 'N플레이어'에 추가될 수 있으며, 그것을 기반으로 디자이너들이 여러 개의 'Layered Plate 객체'를 생성하고 공간에 배치하며 컨텐츠를 만들 수 있다. 또한, 통합제어프로그램 쪽에는 별도의 'Layered Plate 객체' 관리 인터페이스가 추가되면서, 각 객체의 위치, 색감, 센서 크기, 화각, Mesh 그리드, 레이어 별 Depth 등을 실시간으로 변경하고 확인할 수 있게 한다. 이를 통해, 일반 사진이나 영상을 바탕으로 만들어진 'Layered Plate 객체'들이 다른 CG 공간 요소들 뿐 아니라, 촬영 장 내 물리적 요소(세트, 배우, 조명 등)와도 어울 릴 수 있도록 조정 가능하게 하다. 이 같은 별도의 보정 인터페이스가 없을 경우, 현장에서 급한 수정이 필요한 경우, 컨텐츠 파일을 직접 열어 수정하고, 다시 각 렌더링 서버에 배포한 후, LED 벽체(100)에 재생하여 확인하는 과정을 반복해야 하며 이는 상당한 시간과 절차를 필요로 한다. 하지만, 긴급하게 돌아가는 촬영 스케쥴을 고려할 때, 실시간으로 제어하고 보정할 수 있는 방식과 그 인터페이스는 반드시 필요하게 되는 것이다.The 'Layered Plate plug-in' for this can be added to 'N Player', which visualizes the second image played on the LED wall 100, and based on it, designers create several 'Layered Plate objects' and place them in space. and create content. In addition, a separate 'Layered Plate object' management interface has been added to the integrated control program, allowing the location, color, sensor size, angle of view, mesh grid, depth for each layer, etc. of each object to be changed and confirmed in real time. Through this, 'Layered Plate objects' created based on general photos or videos can be adjusted to match not only other CG spatial elements, but also physical elements (set, actor, lighting, etc.) within the filming location. If there is no separate correction interface, and urgent corrections are needed in the field, the content file must be opened directly, modified, distributed to each rendering server, and then played back on the LED wall (100) to check. This requires considerable time and procedures. However, considering the urgent shooting schedule, a method and interface that can control and correct in real time are essential.

지금까지 평면 소스 활용 시 발생되는 물리적 왜곡이나 입체감 상실 등의 문제를 개선하기 위한 방법을 여러 단계로 구 분하여 설명하였다. 핵심은 사진이나 영상이라는 이미 평면화된 평면 소스의 데이터에 다시 여러 종류의 입체감 생성 요소들을 부여 함으로써, 그것이 완전한 3D Asset이 아님에도, 기존 평면 소스만으로도 빠르고 손쉽게 입체적인 공간을 만들 수 있다는 것이다.So far, we have explained the methods for improving problems such as physical distortion or loss of three-dimensionality that occur when using flat sources by dividing them into several steps. The key is that by adding various types of three-dimensional elements to data from already flattened flat sources such as photos or videos, you can quickly and easily create a three-dimensional space using only existing flat sources, even if it is not a complete 3D asset.

도 23은 본 발명의 일 실시예에 따른 처리 방법의 동작 순서도를 나타낸다.Figure 23 shows an operation flowchart of a processing method according to an embodiment of the present invention.

본 방법은 상술한 평면 소스의 입체화 과정에 대한 내용을 포함한다. 이를 위해, 본 발명은 평면 이미지에 대한 입체화의 영상 처리를 수행하는 제1 단계와, 입체화의 영상 처리에 따른 영상이 제2 영상에 포함되어 LED 벽체(100)에 표시되도록 처리하는 제2 단계를 포함할 수 있다. 이때, 제1 단계는, 도 23에 도시된 바와 같이, S110 내지 S140을 포함할 수 있다. 다만, S110 및 S120이 수행된 후 S130이 선택적으로 수행되거나, S120이 생략되고 S110 및 S130이 수행될 수도 있다. 이후, S130이 수행된 경우, 이후에 S140이 선택적으로 수행될 수도 있다. This method includes the three-dimensional process of the above-described planar source. To this end, the present invention includes a first step of performing three-dimensional image processing on a flat image, and a second step of processing the image resulting from the three-dimensional image processing so that it is included in the second image and displayed on the LED wall 100. It can be included. At this time, the first step may include S110 to S140, as shown in FIG. 23. However, S130 may be selectively performed after S110 and S120 are performed, or S120 may be omitted and S110 and S130 may be performed. Afterwards, when S130 is performed, S140 may be optionally performed afterwards.

S110은 대상이 되는 평면 소스를 버추얼 프로덕션의 가상 공간 내에 배치하는 단계이다. 다만, 이러한 S110은 제1 과정에 따라 상술한 바와 같으므로, 이에 대한 상세한 설명은 생략하도록 한다.S110 is the step of placing the target flat source within the virtual space of virtual production. However, since this S110 is the same as described above according to the first process, detailed description thereof will be omitted.

S120은 S110에 따라 배치된 평면 소스에 대해 기준 평면을 이용하여 곡면 Plate을 가상 공간 내에 생성하는 단계이다. 다만, 이러한 S120은 제2 과정에 따라 상술한 바와 같으므로, 이에 대한 상세한 설명은 생략하도록 한다.S120 is the step of creating a curved plate in virtual space using a reference plane for the flat source arranged according to S110. However, since this S120 is the same as described above according to the second process, detailed description thereof will be omitted.

S130은 S110에 따라 배치된 평면 소스에서 거리 별로 구분된 각 구분 이미지의 레이어에 대해 별도의 곡면 Plate를 각 곡면 이격 거리에 따라 가상 공간 내에 생성하는 단계이다. 다만, 이러한 S130은 제3 과정에 따라 상술한 바와 같으므로, 이에 대한 상세한 설명은 생략하도록 한다.S130 is a step in which a separate curved plate is created in virtual space according to the separation distance between each curved surface for each layer of each separate image divided by distance from the flat source arranged according to S110. However, since this S130 is the same as described above according to the third process, detailed description thereof will be omitted.

S140은 곡면 Plate들 중에 적어도 하나에 대해 해당 전용의 깊이 맵을 이용하여 두께감을 부여하는 단계이다. 다만, 이러한 S140은 제4 과정에 따라 상술한 바와 같으므로, 이에 대한 상세한 설명은 생략하도록 한다.S140 is the step of giving a sense of thickness to at least one of the curved plates using the corresponding depth map. However, since this S140 is the same as described above according to the fourth process, detailed description thereof will be omitted.

한편, 제2 단계는 카메라(200)의 움직임 및 렌즈 상태에 따라 가상 카메라(VC)가 연동되면서 곡면 Plate를 촬영(캡쳐)하여 제2 영상을 재생하는 단계를 포함할 수 있다. 물론, 다수의 구분 이미지의 레이어(Layer 1, Layer 2, …에 따라 다수의 곡면 Plate가 배치되는 경우, 제2 단계는 카메라(200)의 움직임 및 렌즈 상태에 따라 가상 카메라(VC)가 연동되면서 해당 곡면 Plate들을 촬영(캡쳐)하여 제2 영상을 재생하는 단계를 포함할 수 있다.Meanwhile, the second step may include reproducing the second image by photographing (capturing) the curved plate while linking the virtual camera (VC) according to the movement of the camera 200 and the state of the lens. Of course, when multiple curved plates are arranged according to multiple separate image layers (Layer 1, Layer 2, etc.), the second step is when the virtual camera (VC) is linked according to the movement of the camera 200 and the lens state. It may include the step of photographing (capturing) the corresponding curved plates and playing the second image.

이하, 본 방법을 이용하여 버추얼 프로덕션 촬영에 따른 컨텐츠를 제작하는 구체적인 과정에 대해서 설명하도록 한다.Hereinafter, the specific process of producing content according to virtual production shooting using this method will be described.

<Layered Plate 객체 설정 및 사용 절차><Layered Plate object setting and use procedures>

본 발명에서, 기존의 Full 3D Asset을 제작하거나 일반 평면 Plate에 이미지를 표시하는 방식과는 다른 준비 과정을 거치게 된다. 이때, 중요한 점은 특정 이미지(사진, 영상)의 제한된 입체성을 되살리기 위해서는 소스 촬영 당시의 정보(센서 사이즈, 렌즈 화각)가 정확할수록 정교한 결과물이 나온다는 점이다. 그러한 기준 정보를 중심으로 각 레이어의 위치, 크기, 두께감 생성 등을 계산하게 되는 것이다. 구체적인 절차는 다음과 같다.In the present invention, a preparation process is different from the existing method of producing a full 3D asset or displaying an image on a general flat plate. At this time, the important point is that in order to revive the limited three-dimensionality of a specific image (photo or video), the more accurate the information (sensor size, lens angle of view) at the time of source shooting, the more precise the result will be. Based on such standard information, the location, size, and thickness of each layer are calculated. The specific procedures are as follows.

(1) 소스 준비(1) Prepare the sauce

1. 평면 이미지 소스 준비1. Prepare planar image source

Layered Plate에 사용하기 위한 평면 소스를 준비한다. 이 단계에서는 우선 제작 비용, 기간 또는 그래픽의 퀄리티 등을 고려하여 일반적인 방식인 3D Mesh Asset을 제작할지, 아니면 일반 사진이나 영상과 같은 평면 소스에 입체감을 부여할지를 결정해야 한다. 두 방식 모두 장단점이 있으므로 상황에 따라 디자이너가 선택을 할 수 있으며 본 발명에서는 후자만을 다룬다.Prepare a flat sauce for use in the Layered Plate. At this stage, you must first decide whether to create a 3D Mesh Asset in a general way, or to give a three-dimensional effect to a flat source such as a regular photo or video, considering production cost, period, or graphic quality. Both methods have pros and cons, so the designer can make a choice depending on the situation, and only the latter is covered in the present invention.

평면 소스의 경우, 기존 판매용 이미지 라이브러리를 사용해도 되고, 필요에 따라서 직접 현장을 촬영해서 쓸 수도 있다. 거리 별로 구분하여 공간에 배치될 소스이므로 가능하면 이미지 내 공간들이 근경, 중경, 원경 등 거리 별로 뚜렷하게 구분되는 소스를 사용하는 것이 좋다. 또한, 내려다보거나 올려다보는 이미지보다는 수평이 맞는 이미지를 사용할 경우, 좀 더 높은 자유도를 얻을 수 있다.In the case of flat sources, you can use an existing image library for sale, or, if necessary, shoot the scene yourself. Since it is a source that will be divided by distance and placed in space, it is best to use a source where the spaces in the image are clearly divided by distance, such as near, middle, and far, if possible. Additionally, a higher degree of freedom can be achieved when using a horizontal image rather than an image looking down or looking up.

2. 레이어 별 이미지 파일 생성2. Create image files for each layer

Layered Plate 플러그인은 레이어 별 이미지에 따라 적합한 위치, 크기, 형태로 각 레이어의 Mesh를 자동 생성해 준다. 이를 위해, 우선은 특정 사진에서 거리를 기준으로 제2 과정 내지 제4 과정 중 적어도 한 과정에 따라 처리된 레이어 이미지 파일을 준비한다. 일반적으로 동일 사진에서 이미지를 추출하는 것이 바람직하나 필요한 경우, 다른 사진에서 추출한 이미지를 특정 레이어에 사용할 수도 있다. 그러한 경우 해당 레이어의 화각, 거리나 두께감 등을 조정하면서 자연스럽게 보이는 값을 수동으로 찾아야 한다.The Layered Plate plug-in automatically creates a mesh for each layer with the appropriate location, size, and shape according to the image for each layer. To this end, first, prepare a layer image file processed according to at least one of the second to fourth processes based on the distance from a specific photo. In general, it is desirable to extract images from the same photo, but if necessary, images extracted from different photos can be used for a specific layer. In such cases, you must manually find a natural-looking value by adjusting the angle of view, distance, or thickness of the layer.

(2) 컨텐츠 제작(2) Content production

평면 이미지 소스 준비 후 실제 'Layered Plate 객체' 생성 기능을 사용하는 단계이다. 본 기능을 사용하기 위해서는, Epic 사의 Unreal Engine 프로그램에 본 발명에 따라 개발된 'Layered Plate 플러그인'이 설치되어 있어야 한다. 이후, Unreal Engine 편집툴 상에서 새로운 'Layered Plate 객체'를 추가하면 각종 설정이 가능한 객체가 공간에 생성된다.This is the step of using the actual ‘Layered Plate object’ creation function after preparing the flat image source. In order to use this function, the 'Layered Plate plug-in' developed according to the present invention must be installed in Epic's Unreal Engine program. Afterwards, if you add a new 'Layered Plate object' on the Unreal Engine editing tool, an object that can be configured for various settings is created in the space.

1. Layered Plate 객체 생성1. Create Layered Plate object

Layered Plate의 객체가 생성되면, 몇 가지 기본 정보를 사용자가 입력해야 한다. When a Layered Plate object is created, the user must enter some basic information.

가) 우선 레이어가 몇 개로 이루어지는지를 설정한다. a) First, set how many layers there are.

나) 이어서 각 레이어의 형태를 결정하는 Mesh가 몇 개의 정점(Vertex)으로 이루어지는지를 설정한다. 설정 방법은 10x10이나 20x20처럼 가로 세로 몇 칸으로 구성되는지를 선택하는 방식이다. 이 수치에 따라서 추후 레이어 별 두께감(Depth)을 부여할 때 면의 정밀도가 결정된다. B) Next, set how many vertices the mesh that determines the shape of each layer consists of. The setting method is to select the number of horizontal and vertical columns, such as 10x10 or 20x20. According to this value, the precision of the surface is determined when assigning depth to each layer later.

다) 다음으로는 소스 이미지를 촬영한 당시의 카메라 센서 크기와 화각 정보를 입력한다. 이 정보가 정확해야만 추후 레이어 Mesh를 만들 때 실제 물리적 크기 및 형태가 정확하게 계산된다. 다만, 정확한 정보를 모를 경우에도, 추정치를 입력한 이후 주변 다른 환경의 크기와 비교하면서 적절한 값을 수동으로 정의할 수 있다. c) Next, enter the camera sensor size and angle of view information at the time the source image was captured. Only when this information is accurate can the actual physical size and shape be accurately calculated when creating a layer mesh later. However, even if you do not know the exact information, you can manually define an appropriate value by entering the estimate and comparing it with the size of other surrounding environments.

라) 다음으로는 준비된 이미지들을 레이어 별로 부여한다. D) Next, the prepared images are assigned to each layer.

마) 레이어 별로 Depth Map 이미지가 있을 경우, 적용한다. E) If there is a Depth Map image for each layer, apply it.

바) 다음으로, 각 레이어 별로, Mesh가 위치하게 될 거리 값을 설정한다. 이 값은 가급적 물리적 사실에 기반한 정 확한 값을 입력하는 것이 좋다. 가령, 원경의 특정 산이 촬영 지점으로부터 3km 지점에 위치했다면, 실제로 그 값을 넣어 주어야 동일한 크기로 레이어 Mesh가 생성된다.B) Next, for each layer, set the distance value where the mesh will be located. It is best to enter this value as accurately as possible based on physical facts. For example, if a specific mountain in the distance is located 3km from the shooting point, you must actually enter that value to create a layer mesh of the same size.

사) 마지막으로, 레이어 별로 Depth Map이 적용되는 강도를 입력해준다. Depth Map은 0~1사이의 색상 값을 가지는 Gray Scale(회색조)의 이미지이며, 해당 색상 값이 실제 거리에서 어떤 정도의 강도를 가질지를 설정하는 것이다. 거리가 멀수록 상대적으로 큰 값을 가지게 된다.G) Lastly, enter the intensity at which the Depth Map is applied for each layer. Depth Map is a Gray Scale image with color values between 0 and 1, and sets the intensity of the color value at the actual distance. The farther the distance, the relatively larger the value.

2. 레이어 생성2. Create layers

지금까지 입력한 값들은 각 레이어를 생성하고, 시각화 하기 위한 기반 정보로 사용된다. Layered Plate 생성 기능에서 특히 중요한 것은 모든 Mesh와 그 정점(Vertex)들은 반드시 소스 촬영 당시의 센서 사이즈와 화각(Fov)을 바탕으로 정확히 계산된 위치에 배치되어야 한다는 것이다. 애초에 평면 이미지의 경우, 실제 공간의 여러 정보들이 압축되어 있거나 일부는 누락되거나 소실된 형태의 정보이다. 가령, 원근감이나 Perspective는 보는 위치에 따라 달라지게 되는 정보이지만, 평면 이미지에서는 하나로 압축된 상태로만 존재한다. 또한, 실제 거리감이나 두께감은 아예 사라져 버리는 것이다. 따라서, 사진의 일부 영역들을 잘라 대략적으로(눈대중으로) 배치하거나 그 크기를 조정하게 되는 경우, 실제 물리 법칙에서 벗어 나는 원근감이나 투시구조(Perspective)를 형성하게 되면서 매우 불완전한 영상이 만들어질 수 있다.The values entered so far are used as base information for creating and visualizing each layer. What is especially important in the Layered Plate creation function is that all meshes and their vertices must be placed at accurately calculated positions based on the sensor size and angle of view (Fov) at the time of source shooting. In the first place, in the case of a flat image, various pieces of information in real space are compressed or some of them are missing or lost. For example, perspective is information that changes depending on the viewing position, but in a flat image, it exists only in a compressed form. Additionally, the actual sense of distance or thickness disappears altogether. Therefore, when some areas of the photo are cut out and roughly placed (by eye) or their size is adjusted, a perspective or perspective that deviates from the actual laws of physics can be created, creating a very incomplete image.

이에 따라, 본 발명에서는 한계를 가지는 평면 소스를 거리 별 계층으로 구분하고 각각 두께감을 주면서도 원본 사진의 화각과 투시구조(Perspective) 자체는 깨지지 않도록 한다. 이를 위해, 앞서 설명한데로, 각 레이어 Mesh의 모든 정점은 반드시 '기준 위치'과 '기준 평면 Mesh'의 대응되는 정점(Vertex)을 지나는 선위에 위치하는 기준 배치가 수행되어야 한다.Accordingly, in the present invention, planar sources with limitations are divided into layers according to distance, and each provides a sense of thickness while preventing the angle of view and perspective of the original photo from being broken. For this, as explained earlier, all vertices of each layer mesh must be placed on a line passing through the corresponding vertices of the 'reference position' and 'reference plane mesh'.

이같은 레이어 Mesh 생성 방식을 기준으로 레이어를 나누고 입체감을 더하는 절차는 다음과 같다. 아래 내용은 앞서 입력된 기본 정보들을 바탕으로 프로그램 안에서 이루어지는 절차일 수 있다.The procedure for dividing layers and adding three-dimensional effect based on this layer mesh creation method is as follows. The contents below may be procedures performed within the program based on the basic information entered previously.

1) 먼저, 원본 사진이 담긴 '기준 평면'이 가령 1m 위치에 생성된다. 앞서 설정한 vertex 수(그리드 구성)가 반영되며, 센서 크기, 렌즈 화각을 고려하여 자동 생성된다.1) First, a 'reference plane' containing the original photo is created at, say, a 1m location. The number of vertices (grid configuration) previously set is reflected, and it is automatically generated considering the sensor size and lens angle of view.

2) 이어서 아래 절차들이 레이어 수에 따라 n회 반복된다.2) The following procedures are then repeated n times depending on the number of layers.

3) 먼저, '기준 평면'의 Mesh 정보(vertex, uv, triangle)를 그대로 복사한 레이어 Mesh를 생성한다.3) First, create a layer mesh that copies the mesh information (vertex, uv, triangle) of the 'reference plane' as is.

4) 이어서, 복사된 평면 Mesh를 설정된 레이어 distance값 위치로 이동시키고, 레이어 Mesh의 각 정점(Vertex)들은 센서 사이즈와 렌즈 화각을 기반으로 평면 형태로 정확한 위치에 배치시킨다. 이때, 기준 위치에서 보았을 때, 기준 평면이나 해당 레이어 Mesh가 완전히 동일하게 겹쳐 보여야 한다.4) Next, the copied planar mesh is moved to the set layer distance value position, and each vertex of the layer mesh is placed in the exact position in a plane form based on the sensor size and lens angle of view. At this time, when viewed from the reference position, the reference plane or the corresponding layer mesh must appear completely identical and overlap.

5) 다음으로, 레이어 Mesh의 형상을 곡면형으로 만들어 준다. 레이어 Mesh의 모든 정점(Vertex)들이 레이어 distance(즉, 곡면 이격 거리) 값을 기준으로 재배치되어, 레이어의 기본 형상이 곡면형으로 변형되는 것이다. 각 정점(Vertex)들은 기준 위치에서 동일 거리만큼 떨어지게 배치되므로 화각(fov)이 커질 경우, 반구형상에 가까워지게 된다.5) Next, make the shape of the layer mesh curved. All vertices of the layer mesh are rearranged based on the layer distance (i.e., curved surface separation) value, and the basic shape of the layer is transformed into a curved shape. Since each vertex is placed at the same distance from the reference position, when the angle of view (fov) increases, it approaches a hemispherical shape.

6) 레이어 별로 할당된 Depth Map이 있을 경우, 해당 이미지를 기반으로 각 레이어에 두께감을 부여한다. Depth Map의 해당 지점의 pixel 밝기를 기준으로 해당 정점(Vertex)을 '기준 위치' 방향으로 이동시키는 방식이다. 이때, 핵심은 반드시 레이어 Mesh의 특정 정점(A"은 기준평면(A)을 거쳐 '기준 위치'를 지나는 선 위에서만 움직이는 기준 배치가 수행되어야 한다는 점이다.6) If there is a Depth Map assigned to each layer, a sense of thickness is given to each layer based on the corresponding image. This is a method of moving the vertex in the direction of the 'reference position' based on the pixel brightness of the corresponding point in the Depth Map. At this time, the key point is that the reference arrangement must be performed so that a specific vertex (A") of the layer mesh moves only on a line that passes through the reference plane (A) and the 'reference position'.

3. 가상 공간에 Layered Plate 배치3. Place Layered Plate in virtual space

위 절차에 의해 생성된 'Layered Plate 객체'들을 가상 공간 내에 배치하는 단계이다. 'Layered Plate 객체'의 경우, 일반 평면 이미지와 달리 어느 정도 입체 요소가 부여된 상태이지만, 완전한 3D 객체는 아니다. 즉, 물체의 한쪽 면만이 온전히 보이는 방식이며 영화 세트장과 비슷한 개념이다. 따라서, 각 객체의 뒷면이나 완전한 측면은 보이지 않는 적절한 위치에 배치한다. 이때, 필요에 따라 각 레이어의 화각이나 거리 등의 값을 조정하여 주변 환경과 어울리는 수정을 할 수도 있다.This is the step of placing the ‘Layered Plate objects’ created by the above procedure in the virtual space. In the case of a 'Layered Plate object', unlike a regular flat image, it is given some three-dimensional elements, but is not a complete 3D object. In other words, only one side of an object is fully visible, a similar concept to a movie set. Therefore, place the back or complete side of each object in an appropriate location where it is not visible. At this time, if necessary, values such as angle of view or distance of each layer can be adjusted to match the surrounding environment.

(3) LED 스튜디오 촬영 단계(3) LED studio shooting stage

앞선 컨텐츠 제작 단계는 최초의 가상 공간을 만들 때 다루게 되는 내용을 설명하였다. 그 단계에서는 언제든 컨텐츠의 내용을 자유롭게 변경하거나 수정할 수 있다. 하지만 해당 컨텐츠를 LED 스튜디오에서 Virtual Production 방식으로 세팅한 이후에는 수정이나 변경에 제약이 생긴다. 물론. '실시간 렌더링'이라는 특성상, 촬영 현장에서도 오브젝트 위치의 이동이나 텍스쳐의 변경 등 중요한 사항들에 대해서는 변경 가능하다. 하지만. 촉박한 촬영 스케쥴 및 오류에 대한 우려 등으로 인해 가급적으로 컨텐츠 자체를 직접 수정하는 것은 자제해야 한다. 따라서, ‘통합제어프로그램' 상에 'Layered Plate 객체'을 실시간으로 보정할 수 있는 인터페이스가 추가될 수 있다. 이를 통해, 컨텐츠 자체에 대한 직접 편집 없이 통합제어프로그램 상에서 레이어 별 화각, 거리뿐만 아니라 감마, 밝기, 채도 등의 색감을 원하는 시점에 바로 변경할 수 있다.The previous content creation stage explained what was covered when creating the first virtual space. At that stage, you can freely change or modify the content at any time. However, after the content is set up in Virtual Production mode in the LED studio, there are restrictions on modification or change. of course. Due to the nature of 'real-time rendering', important matters such as moving object positions or changing textures can be changed even at the shooting site. but. Due to tight filming schedules and concerns about errors, you should refrain from directly modifying the content itself if possible. Therefore, an interface that can correct the ‘Layered Plate object’ in real time can be added to the ‘integrated control program’. Through this, you can change colors such as gamma, brightness, and saturation, as well as the angle of view and distance for each layer, right at the desired time in the integrated control program without directly editing the content itself.

상술한 각 본 방법은 메모리(340)에 로드되어 제어부(350)의 제어에 따라 프로그램을 실행함으로써 실행될 수 있다. 이러한 프로그램은, 여러 가지 유형의 비일시적인 컴퓨터 판독 가능한 매체(non-transitory computer readable medium)의 메모리(340)에 저장될 수 있다. 비일시적인 컴퓨터 판독 가능한 매체는 여러 가지 유형의 실체가 있는 기록 매체(tangible storage medium)를 포함한다.Each of the methods described above can be executed by loading the program into the memory 340 and executing the program under the control of the control unit 350. These programs may be stored in memory 340 on various types of non-transitory computer readable medium. Non-transitory computer-readable media includes various types of tangible storage media.

예를 들어, 비일시적인 컴퓨터 판독 가능한 매체는, 자기 기록 매체(예를 들면, 플렉시블 디스크, 자기 테이프, 하드디스크 드라이브), 광자기 기록 매체(예를 들면, 광자기 디스크), CD-ROM(read only memory), CD-R, CD-R/W, 반도체 메모리(예를 들면, 마스크 ROM, PROM(programmable ROM), EPROM(erasable PROM), 플래시 ROM, RAM(random access memory))을 포함하나, 이에 한정되는 것은 아니다.For example, non-transitory computer-readable media include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), and CD-ROM (readable media). only memory), CD-R, CD-R/W, semiconductor memory (e.g., mask ROM, programmable ROM (PROM), erasable PROM (EPROM), flash ROM, random access memory (RAM)), It is not limited to this.

또한, 프로그램은 여러 가지 유형의 일시적인 컴퓨터 판독 가능한 매체(transitory computer readable medium)에 의해 공급될 수도 있다. 예를 들어, 일시적인 컴퓨터 판독 가능한 매체는, 전기 신호, 광신호, 전자파를 포함할 수 있으나, 이에 한정되는 것은 아니다. 즉, 일시적인 컴퓨터 판독 가능한 매체는 전선, 광섬유 등의 유선 통신로 또는 무선 통신로를 통해 프로그램을 제어부(350)에 공급할 수 있다.Additionally, the program may be supplied on various types of transitory computer readable medium. For example, temporary computer-readable media may include, but are not limited to, electrical signals, optical signals, and electromagnetic waves. That is, the temporary computer-readable medium can supply a program to the control unit 350 through a wired communication path such as an electric wire or optical fiber or a wireless communication path.

이하, 상술한 바와 같이 구성되는 본 발명에 따라 나타나는 입체감 효과에 대해 설명하도록 한다.Hereinafter, the three-dimensional effect that appears according to the present invention configured as described above will be described.

<Layered Plate 적용 전후 입체감 비교><Comparison of three-dimensional effect before and after applying Layered Plate>

실제 평면 이미지(즉, 평면 Plate)를 LED 벽체(100)에 배치하고 촬영할 때(이하, "제1 방식"이라 지칭함)와, 본 발명에 따라 Layered Plate를 가상 공간에 배치하고 Virtual Production 방식으로 시각화할 때(이하, "제2 방식"이라 지칭함)의 차이를 비교해 본다. 즉, 제1 방식은 종래 기술에 해당하며, 제2 방식은 본 발명에서 제안하는 방법에 따른 방식이다. When placing and photographing an actual flat image (i.e., flat Plate) on the LED wall 100 (hereinafter referred to as the “first method”), and placing the Layered Plate in a virtual space according to the present invention and visualizing it using the Virtual Production method Compare the differences when doing this (hereinafter referred to as “the second method”). That is, the first method corresponds to the prior art, and the second method is a method proposed in the present invention.

특히, 아래에 나열된 입체감 형성 요소의 관점에서 두 방식 사이에 어떤 차이가 발생하는지를 살펴본다In particular, we look at what differences arise between the two methods in terms of the three-dimensional effect formation elements listed below.

- 양안 시차에 의한 입체 공간 인지- Three-dimensional spatial perception due to binocular parallax

- 좌우 이동 시 Parallax Effect(시차 효과)로 인한 공간감 인식- Recognition of spatial sense due to Parallax Effect when moving left or right

- 소실점(Vanishing Point)과 Perspective에 의한 깊이감 인지- Perception of depth through vanishing point and perspective

- 빛의 방향과 물체의 명암을 통한 입체의 형태 파악- Understanding the shape of a three-dimensional object through the direction of light and the brightness and darkness of the object

- 안구의 초점 변화를 통한 거리감 인식- Recognition of distance through changes in eye focus

- 대기 먼지의 밀도로 인한 포그 현상으로 깊이감 추정- Estimation of depth through fog phenomenon caused by density of atmospheric dust

도 24는 평면 Plate를 사용하는 제1 방식과, Layered Plate를 사용하는 제2 방식에 따른 촬영 모습에 대한 일 예를 나타낸다.Figure 24 shows an example of a shooting image according to a first method using a flat plate and a second method using a layered plate.

두 촬영 방식의 차이를 설명하기 위해, 도 24에 도시된 바와 같이, 동일한 LED 벽체(100)를 구비한 LED 촬영 스튜디오에서 동일 카메라와 배우를 세우고 촬영한다고 가정한다. 제1 방식의 경우, 배우 뒷쪽에 사진 한 장을 크게 배치하고, 스튜디오 카메라를 무대의 좌우로 이동하며 촬영한다. 제2 방식의 경우, Layered Plate 방식으로 제작된 Asset을 Virtual Production 방식으로 재생하며, 이때 실제 카메라의 물리적 위치와 렌즈 상태(화각, 초점)에 반응하여 LED 벽체의 내부 공간이 실시간으로 시각화 된다.To explain the difference between the two shooting methods, as shown in FIG. 24, assume that the same camera and actor are set up and filmed in an LED shooting studio equipped with the same LED wall 100. In the first method, a large photo is placed behind the actor, and the studio camera is filmed while moving to the left and right of the stage. In the case of the second method, assets produced in the Layered Plate method are reproduced in the Virtual Production method, and the internal space of the LED wall is visualized in real time in response to the physical position of the actual camera and lens status (angle of view, focus).

(1) 양안 시차에 의한 입체 공간 인지 관련(1) Related to three-dimensional spatial perception due to binocular disparity

일반적으로, 양안 시차를 활용한 공간감을 사용하는 방식은 2대의 카메라를 이용하여 Stereoscopic 영상을 제작하는 것이다. 이를 통해, Avatar(2009)와 같은 입체 영화가 제작되기도 한다. 다만, 이 방식의 경우 현재는 많이 사용되지 않으며, 만약 LED 벽체 기반의 Virtual Production에서 Stereoscopic 촬영을 하게 될 경우, 제1 방식에 비해 제2 방식이 지닌 깊이감으로 인해 상당히 입체적인 장면을 연출할 수 있게 된다. 물론, 이 방식을 영화가 아닌 실시간 VR 컨텐츠에 적용하게 되더라도, Layered Plate 방식이 제공하는 양안 시차로 인해 체험자가 공간감을 인식하는데 훨씬 유리하다.In general, the way to use the sense of space using binocular parallax is to produce a stereoscopic image using two cameras. Through this, three-dimensional films such as Avatar (2009) are produced. However, this method is not used much at present, and if stereoscopic shooting is done in Virtual Production based on an LED wall, a significantly more three-dimensional scene can be produced due to the sense of depth of the second method compared to the first method. . Of course, even if this method is applied to real-time VR content rather than a movie, it is much more advantageous for the experiencer to perceive a sense of space due to the binocular parallax provided by the Layered Plate method.

도 25는 제1 방식에 따른 촬영 결과에 대한 일 예를 나타내고, 도 26은 제2 방식에 따른 촬영 결과에 대한 일 예를 나타낸다.Figure 25 shows an example of a shooting result according to the first method, and Figure 26 shows an example of a shooting result according to the second method.

2) 좌우 이동 시 Parallax Effect(시차 효과)로 인한 공간감 인식 관련2) Related to perception of space due to Parallax Effect when moving left or right

도 25 및 도 26을 참조하면, 기존 평면 이미지를 사용하는 제1 방식과 달리 레이어가 구분된 제2 방식에서는 카메라 이동시에 Parallax Effect(시차 효과)가 발생된다. Layered Plate 객체를 만들 때, 카메라 센서 크기, 렌즈 화각, 레이어 별 거리값 등의 정보들을 실제와 유사한 값을 넣어줄 경우, 실제 위치와 크기에 가까운 레이어 Mesh가 생성되므로, 물리적으로 더욱 정확한 시각적 효과를 얻을 수 있게 된다.Referring to Figures 25 and 26, unlike the first method that uses an existing flat image, in the second method in which layers are separated, a parallax effect occurs when the camera moves. When creating a Layered Plate object, if you enter information such as camera sensor size, lens angle of view, and distance values for each layer with values similar to the actual ones, a layer mesh close to the actual position and size is created, creating a more physically accurate visual effect. can be obtained.

3) 소실점(Vanishing Point)과 Perspective에 의한 깊이감 인지 관련3) Related to perception of depth through vanishing point and perspective

촬영 위치가 변해도 소실점이나 Perspective에 변화가 없는 평면 Plate 방식에 비해, Layered Plate 객체는 각 레이어가 거 리별로 다른 위치에 배치되는 동시에 각 레이어의 두께감 형성 시에도 '기준 위치'와 '기준 평면'의 한 점을 잇는 선을 중심으로 각 정점들의 위치가 계산된다. 이에 따라, 제2 방식은 촬영 위치에 따라 자연스러운 소실점과 Perspective가 형성될 수 있다.Compared to the flat plate method, which does not change the vanishing point or perspective even when the shooting position changes, the layered plate object has each layer placed in a different position depending on the distance, and at the same time, when forming the thickness of each layer, the 'reference position' and 'reference plane' are used. The position of each vertex is calculated based on the line connecting one point. Accordingly, in the second method, a natural vanishing point and perspective can be formed depending on the shooting location.

도 27은 제1 및 제2 방식에 따른 촬영에 대한 예들을 나타낸다.Figure 27 shows examples of imaging according to the first and second methods.

4) 빛의 방향과 물체의 명암을 통한 입체의 형태 파악 관련4) Related to understanding the shape of a three-dimensional object through the direction of light and the light and dark of the object

제2 방식의 각 레이어에는 Depth Map을 통해 두께감을 줄 수 있다. 이 같은 양감은 CG 내부의 라이트와 그림 자의 영향을 받아 더욱더 입체적인 느낌을 전달할 수 있다. 심지어 CG 내부의 다른 오브젝트의 그림자가 맺힐 때도, 제1 방식과 달리, 제2 방식은 표면에 자연스럽게 드리워져 시각화 될 수 있다.Each layer in the second method can be given a sense of thickness through a depth map. This sense of volume can convey a more three-dimensional feeling by being influenced by the lights and shadows inside the CG. Even when the shadows of other objects within the CG are cast, unlike the first method, the second method can be visualized as being naturally cast on the surface.

5) 안구의 초점 변화를 통한 거리감 인식 관련5) Related to perception of distance through changes in eye focus

사람의 안구는 수정체의 두께를 조절하여 물체의 특정 부위에 초점을 맞출 수 있으며 이를 통해 거리감을 추정한다. 카메라의 구조도 이와 비슷하여 영상 제작 시에도 렌즈의 초점을 이동시키면서 공간 내 물체들의 입체감을 관객에게 전달할 수 있다. 초점이 맞은 부분은 선명하게, 그 외의 영역은 흐리게 나오는 '아웃 포커싱'은 공간감 형성뿐 아니라 감성적 연출을 위해서 상당히 중요한 요소이다. 제1 방식에 따라 평면 Plate가 배경으로 사용될 경우, 당연히 초점을 변경하는 것이 불가능하다. 반면, 제2 방식에 따른 Layered Plate 객체의 각 레이어들은 가상 공간 상에 배치되어 있으므로, 당연히 가상 카메라로 원하는 지점에 초점을 맞출 수 있으며, 아웃 포커싱 효과를 얻는 것도 가능하다.The human eye can adjust the thickness of the lens to focus on a specific part of an object and estimate the distance through this. The structure of the camera is similar to this, so when producing a video, the focus of the lens can be moved to convey the three-dimensional effect of objects in space to the audience. 'Out-focusing', in which areas that are in focus are made clear and other areas are blurred, is a very important element not only for creating a sense of space but also for emotional production. If a flat plate is used as the background according to the first method, it is naturally impossible to change the focus. On the other hand, since each layer of the Layered Plate object according to the second method is arranged in virtual space, it is naturally possible to focus on a desired point with a virtual camera and obtain an out-focusing effect.

6) 대기 먼지의 밀도로 인한 포그 현상으로 깊이감 추정 관련6) Estimation of depth due to fog phenomenon caused by density of atmospheric dust

대기의 밀도로 인해 원경의 물체는 채도와 콘트라스트가 낮아지고 가까운 물체는 반대로 또렷하고 컬러풀(colorful)하게 보이는 현상을 볼 수 있다. 가령, 풍경사진을 볼 때, 사람은 이 같은 포그 효과를 통해 사진 내의 대략적인 깊이감을 파악할 수 있게 된다. CG에서도 Exponential Fog 기능을 통해 원경의 물체에 대기 효과를 부여할 수 있다. 제2 방식의 경우, 각 레이어 별로 실제 물리적 거리에 준하는 위치에 배치되므로, CG의 Fog 기능이 켜져 있을 경우, 동일하게 대기 효과가 적용된다. 만약, 소스로 사용하는 사진 속 원경의 산에 이미 충분한 Fog 효과가 나타나 있다면, CG의 Fog 값을 줄이거나, Layered Plate 플러그인의 색상 보정 기능(채도, 콘트라스트, 감마 등)을 이용하여 해당 레이어의 색상 표현을 적절한 수준으로 조정할 수 있다.Due to the density of the atmosphere, distant objects have lower saturation and contrast, while nearby objects appear clearer and more colorful. For example, when looking at a landscape photo, people can grasp the approximate depth within the photo through this fog effect. Even in CG, atmospheric effects can be applied to objects in the distance through the Exponential Fog function. In the case of the second method, each layer is placed at a position corresponding to the actual physical distance, so when the Fog function of CG is turned on, the same atmospheric effect is applied. If there is already a sufficient fog effect on the mountains in the distance in the photo used as a source, reduce the fog value of the CG or use the color correction function (saturation, contrast, gamma, etc.) of the Layered Plate plug-in to adjust the color of the layer. Expression can be adjusted to an appropriate level.

본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present invention, specific embodiments have been described, but of course, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention is not limited to the described embodiments, but should be determined by the claims described below and their equivalents.

10: 시스템 100: LED 벽체
200: 카메라 300: 재생 장치
310: 입력부 320: 통신부
330: 디스플레이 340: 메모리
350: 제어부 400: 제어 장치
VC: 가상 카메라
10: System 100: LED wall
200: Camera 300: Playback device
310: input unit 320: communication unit
330: Display 340: Memory
350: control unit 400: control device
VC: Virtual Camera

Claims (23)

버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치로서,
2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및
상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하고,
상기 평면 이미지에서 각 구분 이미지의 레이어에 대한 별도의 상기 곡면 Plate들을 각각 서로 다른 곡면 이격 거리에 따라 생성하며,
상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하도록 제어하는 장치.
When shooting based on virtual production, a second image containing content in a virtual space captured by a virtual camera linked according to the movement and lens status of the camera shooting the first image, which is a live-action image, is displayed using a light-emitting device (light-emitting device). An emitting diode (LED) device that reproduces the second image to be displayed on a wall,
A memory that stores information about a two-dimensional flat image; and
A control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image,
The control unit,
A flat plate for the flat image is placed in a virtual space, and the center point of the flat plate is placed at a position spaced apart from the reference position in the virtual space. Then, the flat plate is placed according to the curved separation distance. A concave hemispherical curved plate with respect to the flat plate is created at a location spaced apart from the flat plate using the flat plate,
In the flat image, separate curved plates for each layer of each separate image are created according to different curved surface separation distances,
A device that controls the virtual camera to capture the curved plates while interlocking with it according to the movement of the camera and the state of the lens.
버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치로서,
2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및
상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하고,
상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate를 캡쳐하도록 제어하며,
상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate가 배치되도록 제어하고,
제1 구분 이미지의 제1 레이어와, 제1 구분 이미지보다 원경인 제2 구분 이미지의 제2 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧게 설정되도록 제어하는 장치.
When shooting based on virtual production, a second image containing content in a virtual space captured by a virtual camera linked according to the movement and lens status of the camera shooting the first image, which is a live-action image, is displayed using a light-emitting device (light-emitting device). An emitting diode (LED) device that reproduces the second image to be displayed on a wall,
A memory that stores information about a two-dimensional flat image; and
A control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image,
The control unit,
A flat plate for the flat image is placed in a virtual space, and the center point of the flat plate is placed at a position spaced apart from the reference position in the virtual space. Then, the flat plate is placed according to the curved separation distance. A concave hemispherical curved plate with respect to the flat plate is created at a location spaced apart from the flat plate using the flat plate,
Controls the virtual camera to capture the curved plate while interlocking according to the movement of the camera and the state of the lens,
Controlling the placement of the planar plate using information about the camera setting state at the time the planar image was captured,
For the first layer of the first segment image and the second layer of the second segment image that is farther than the first segment image, control is set so that the curved surface separation distance of the first layer is set shorter than the curved surface separation distance of the second layer. A device that does.
버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치로서,
2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및
상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하고,
상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate를 캡쳐하도록 제어하고,
상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate가 배치되도록 제어하며,
근경인 제1 구분 이미지의 제1 레이어와, 중경인 제2 구분 이미지의 제2 레이어와, 원경인 제3 구분 이미지의 제3 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧고, 상기 제2 레이어의 곡면 이격 거리가 상기 제3 레이어의 곡면 이격 거리보다 짧게 설정되도록 제어하는 장치.
When shooting based on virtual production, a second image containing content in a virtual space captured by a virtual camera linked according to the movement and lens status of the camera shooting the first image, which is a live-action image, is displayed using a light-emitting device (light-emitting device). An emitting diode (LED) device that reproduces the second image to be displayed on a wall,
A memory that stores information about a two-dimensional flat image; and
A control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image,
The control unit,
A flat plate for the flat image is placed in a virtual space, and the center point of the flat plate is placed at a position spaced apart from the reference position in the virtual space. Then, the flat plate is placed according to the curved separation distance. A concave hemispherical curved plate with respect to the flat plate is created at a location spaced apart from the flat plate using the flat plate,
Controls the virtual camera to capture the curved plate while interlocking according to the movement of the camera and the state of the lens,
Controls the placement of the flat plate using information about the camera setting state at the time the flat image was captured,
For the first layer of the first segment image that is near, the second layer of the second segment image that is midground, and the third layer of the third segment image that is far, the curved separation distance of the first layer is the second layer. is shorter than the curved surface separation distance of and controls the curved surface separation distance of the second layer to be set shorter than the curved surface separation distance of the third layer.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제어부는 상기 가상 카메라가 상기 기준 위치에서 상기 평면 Plate 및 상기 곡면 Plate를 바라볼 때에 각각이 동일하게 매칭되는 위치에 상기 곡면 Plate가 생성되도록 제어하는 장치.
According to any one of claims 1 to 3,
The control unit is a device that controls the curved plate to be created at the same matching position when the virtual camera looks at the flat plate and the curved plate from the reference position.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제어부는 상기 평면 Plate를 이루는 각 정점(Vertex)과 상기 곡면 Plate를 이루는 각 정점이 상기 기준 위치를 원점으로 하여 대응하는 위치에 상기 곡면 Plate가 생성되도록 제어하는 장치.
According to any one of claims 1 to 3,
The control unit controls each vertex forming the flat plate and each vertex forming the curved plate to create the curved plate at a position corresponding to the reference position as the origin.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제어부는 상기 기준 위치에서 상기 평면 Plate의 각 정점에 대한 연장선을 그을 때, 해당 연장선이 상기 평면 Plate과 만나는 상기 평면 Plate의 정점에 표시되는 이미지와, 해당 연장선이 상기 곡면 Plate와 만나는 상기 곡면 Plate의 정점에 표시되는 이미지가 동일하도록 하는 위치에 상기 곡면 Plate가 생성되도록 제어하는 장치.
According to any one of claims 1 to 3,
When the control unit draws an extension line for each vertex of the flat plate at the reference position, the control unit displays an image displayed at the vertex of the flat plate where the extension line meets the flat plate, and the curved plate where the extension line meets the curved plate. A device that controls the curved plate to be created at a location such that the images displayed at the vertices are the same.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제어부는 상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate가 배치되도록 제어하는 장치.
According to any one of claims 1 to 3,
The control unit is a device that controls the placement of the flat plate using information about the camera setting state at the time the flat image is captured.
삭제delete 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 곡면 Plate는 상기 곡면 이격 거리가 커질수록 커지는 면적을 가지는 장치.
According to any one of claims 1 to 3,
The curved plate is a device that has an area that increases as the distance between the curved surfaces increases.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제어부는 상기 곡면 Plate들 중에 적어도 하나에 대해 깊이 맵을 이용하여 해당 곡면 Plate의 적어도 하나의 정점이 해당 곡면 Plate로부터 기준 위치 측의 방향으로 돌출되도록 하여 해당 곡면 Plate에 대해 두께감이 부여되도록 제어하는 장치.
According to any one of claims 1 to 3,
The control unit uses a depth map for at least one of the curved plates to control so that at least one vertex of the curved plate protrudes from the curved plate in the direction of the reference position to provide a sense of thickness to the curved plate. Device.
버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치에서 수행되는 방법으로서,
2차원의 평면 이미지에 대한 입체화의 영상 처리를 수행하는 단계; 및
상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되어 상기 LED 벽체에 표시되도록 처리하는 단계;를 포함하며,
상기 수행하는 단계는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치하는 단계; 및
곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하는 단계;를 포함하고,
상기 수행하는 단계는 상기 평면 이미지에서 각 구분 이미지의 레이어에 대한 별도의 상기 곡면 Plate들을 각각 서로 다른 곡면 이격 거리에 따라 생성하는 단계를 포함하며,
상기 처리하는 단계는 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하는 단계를 포함하는 방법.
When shooting based on virtual production, a second image containing content in a virtual space captured by a virtual camera linked according to the movement and lens status of the camera shooting the first image, which is a live-action image, is displayed using a light-emitting device (light-emitting device). emitting diode (LED) A method performed in a device that reproduces the second image to be displayed on a wall,
Performing stereoscopic image processing on a two-dimensional flat image; and
Processing the image according to the three-dimensional image processing to be included in the second image and displayed on the LED wall,
The steps performed above are:
Placing a flat plate for the flat image in a virtual space, wherein the center point of the flat plate is spaced apart from a reference position in the virtual space; and
It includes the step of creating a concave hemispherical curved plate with respect to the flat plate at a position spaced apart from the flat plate according to the curved surface separation distance using the flat plate,
The performing step includes generating separate curved plates for each layer of each separate image in the flat image according to different curved surface separation distances,
The processing step includes capturing the curved plates while the virtual camera is linked according to the movement of the camera and the state of the lens.
버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치에서 수행되는 방법으로서,
2차원의 평면 이미지에 대한 입체화의 영상 처리를 수행하는 단계; 및
상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되어 상기 LED 벽체에 표시되도록 처리하는 단계;를 포함하며,
상기 수행하는 단계는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치하는 단계; 및
곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하는 단계;를 포함하고,
상기 처리하는 단계는 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하는 단계를 포함하며,
상기 수행하는 단계는 상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate를 배치하는 단계를 포함하고,
상기 수행하는 단계는 제1 구분 이미지의 제1 레이어와, 제1 구분 이미지보다 원경인 제2 구분 이미지의 제2 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧게 설정하는 단계를 포함하는 방법.
When shooting based on virtual production, a second image containing content in a virtual space captured by a virtual camera linked according to the movement and lens status of the camera shooting the first image, which is a live-action image, is displayed using a light-emitting device (light-emitting device). emitting diode (LED) A method performed in a device that reproduces the second image to be displayed on a wall,
Performing stereoscopic image processing on a two-dimensional flat image; and
Processing the image according to the three-dimensional image processing to be included in the second image and displayed on the LED wall,
The steps performed above are:
Placing a flat plate for the flat image in a virtual space, wherein the center point of the flat plate is spaced apart from a reference position in the virtual space; and
It includes the step of creating a concave hemispherical curved plate with respect to the flat plate at a position spaced apart from the flat plate according to the curved surface separation distance using the flat plate,
The processing step includes capturing the curved plates while the virtual camera is linked according to the movement of the camera and the state of the lens,
The performing step includes arranging the planar plate using information about the camera setting state at the time the planar image is captured,
The step of performing the above is that, for the first layer of the first segment image and the second layer of the second segment image that is farther than the first segment image, the curved surface separation distance of the first layer is the curved surface separation distance of the second layer. A method that includes shorter setup steps.
버추얼 프로덕션(virtual production) 기반 촬영 시에 실사 영상인 제1 영상을 촬영하는 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 장치에서 수행되는 방법으로서,
2차원의 평면 이미지에 대한 입체화의 영상 처리를 수행하는 단계; 및
상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되어 상기 LED 벽체에 표시되도록 처리하는 단계;를 포함하며,
상기 수행하는 단계는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치하는 단계; 및
곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하는 단계;를 포함하고,
상기 처리하는 단계는 상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하는 단계를 포함하며,
상기 수행하는 단계는 상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate를 배치하는 단계를 포함하고,
상기 수행하는 단계는 근경인 제1 구분 이미지의 제1 레이어와, 중경인 제2 구분 이미지의 제2 레이어와, 원경인 제3 구분 이미지의 제3 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧고, 상기 제2 레이어의 곡면 이격 거리가 상기 제3 레이어의 곡면 이격 거리보다 짧게 설정하는 단계를 포함하는 방법.
When shooting based on virtual production, a second image containing content in a virtual space captured by a virtual camera linked according to the movement and lens status of the camera shooting the first image, which is a live-action image, is displayed using a light-emitting device (light-emitting device). emitting diode (LED) A method performed in a device that reproduces the second image to be displayed on a wall,
Performing stereoscopic image processing on a two-dimensional flat image; and
Processing the image according to the three-dimensional image processing to be included in the second image and displayed on the LED wall,
The steps performed above are:
Placing a flat plate for the flat image in a virtual space, wherein the center point of the flat plate is spaced apart from a reference position in the virtual space; and
Comprising: creating a concave hemispherical curved plate with respect to the flat plate at a position spaced apart from the flat plate according to the curved surface separation distance using the flat plate,
The processing step includes capturing the curved plates while the virtual camera is linked according to the movement of the camera and the state of the lens,
The performing step includes arranging the planar plate using information about the camera setting state at the time the planar image is captured,
The performing step is a curved separation distance of the first layer with respect to the first layer of the first segment image that is the near-ground, the second layer of the second segment image that is the mid-ground, and the third layer of the third segment image that is the distance. is shorter than the curved surface separation distance of the second layer, and setting the curved surface separation distance of the second layer shorter than the curved surface separation distance of the third layer.
제11항 내지 제13항 중 어느 한 항에 있어서,
상기 수행하는 단계는 상기 가상 카메라가 상기 기준 위치에서 상기 평면 Plate 및 상기 곡면 Plate를 바라볼 때에 각각이 동일하게 매칭되는 위치에 상기 곡면 Plate를 생성하는 단계를 포함하는 방법.
According to any one of claims 11 to 13,
The performing step includes generating the curved plate at a position where each of the flat plate and the curved plate are identically matched when the virtual camera views the flat plate and the curved plate from the reference position.
제11항 내지 제13항 중 어느 한 항에 있어서,
상기 수행하는 단계는 상기 평면 Plate를 이루는 각 정점(Vertex)과 상기 곡면 Plate를 이루는 각 정점이 상기 기준 위치를 원점으로 하여 대응하는 위치에 상기 곡면 Plate를 생성하는 단계를 포함하는 방법.
According to any one of claims 11 to 13,
The performing step includes creating the curved plate at a position where each vertex forming the flat plate and each vertex forming the curved plate correspond to the reference position as the origin.
제11항 내지 제13항 중 어느 한 항에 있어서,
상기 수행하는 단계는 상기 기준 위치에서 상기 평면 Plate의 각 정점에 대한 연장선을 그을 때, 해당 연장선이 상기 평면 Plate과 만나는 상기 평면 Plate의 정점에 표시되는 이미지와, 해당 연장선이 상기 곡면 Plate와 만나는 상기 곡면 Plate의 정점에 표시되는 이미지가 동일하도록 하는 위치에 상기 곡면 Plate를 생성하는 단계를 포함하는 방법.
According to any one of claims 11 to 13,
The step of performing the above is when drawing an extension line for each vertex of the flat plate at the reference position, an image displayed at the vertex of the flat plate where the extension line meets the flat plate, and the image displayed at the vertex of the flat plate where the extension line meets the curved plate. A method including the step of creating the curved plate at a location such that the images displayed at the vertices of the curved plate are the same.
제11항 내지 제13항 중 어느 한 항에 있어서,
상기 수행하는 단계는 상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate를 배치하는 단계를 포함하는 방법.
According to any one of claims 11 to 13,
The performing step includes arranging the planar plate using information about the camera setting state at the time the planar image is captured.
제11항에 있어서,
상기 수행하는 단계는 상기 곡면 Plate들 중에 적어도 하나에 대해 깊이 맵을 이용하여 해당 곡면 Plate의 적어도 하나의 정점이 해당 곡면 Plate로부터 기준 위치 측의 방향으로 돌출되도록 하여 해당 곡면 Plate에 대해 두께감을 부여하는 단계를 포함하는 방법.
According to clause 11,
The performing step uses a depth map for at least one of the curved plates to cause at least one vertex of the curved plate to protrude from the curved plate in the direction of the reference position, thereby giving a sense of thickness to the curved plate. How to include steps.
삭제delete 버추얼 프로덕션(virtual production) 기반 촬영을 위해 사용되는 시스템으로서,
실사 영상인 제1 영상을 촬영하는 카메라; 및
상기 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 재생 장치;를 포함하며,
상기 재생 장치는,
2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및
상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하고,
상기 평면 이미지에서 각 구분 이미지의 레이어에 대한 별도의 상기 곡면 Plate들을 각각 서로 다른 곡면 이격 거리에 따라 생성하며,
상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate들을 캡쳐하도록 제어하는 시스템.
As a system used for virtual production-based filming,
A camera that captures a first image, which is a live action image; and
A playback device that reproduces the second image so that the second image containing the content of the virtual space captured by the virtual camera linked according to the movement of the camera and the state of the lens is displayed on a light-emitting diode (LED) wall. Contains ;,
The playback device is,
A memory that stores information about a two-dimensional flat image; and
A control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image,
The control unit,
A flat plate for the flat image is placed in a virtual space, and the center point of the flat plate is placed at a position spaced apart from a reference position in the virtual space, and then the flat plate is placed according to the curved separation distance. Creating a concave hemispherical curved plate with respect to the flat plate at a position spaced apart from the flat plate using the flat plate,
In the flat image, separate curved plates for each layer of each separate image are created according to different curved surface separation distances,
A system that controls the virtual camera to capture the curved plates while interlocking according to the movement of the camera and the state of the lens.
버추얼 프로덕션(virtual production) 기반 촬영을 위해 사용되는 시스템으로서,
실사 영상인 제1 영상을 촬영하는 카메라; 및
상기 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 재생 장치;를 포함하며,
상기 재생 장치는,
2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및
상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하고,
상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate를 캡쳐하도록 제어하며,
상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate가 배치되도록 제어하고,
제1 구분 이미지의 제1 레이어와, 제1 구분 이미지보다 원경인 제2 구분 이미지의 제2 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧게 설정되도록 제어하는 시스템.
As a system used for virtual production-based filming,
A camera that captures a first image, which is a live action image; and
A playback device that reproduces the second image so that the second image containing the content of the virtual space captured by the virtual camera linked according to the movement of the camera and the state of the lens is displayed on a light-emitting diode (LED) wall. Contains ;,
The playback device is,
A memory that stores information about a two-dimensional flat image; and
A control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image,
The control unit,
A flat plate for the flat image is placed in a virtual space, and the center point of the flat plate is placed at a position spaced apart from the reference position in the virtual space. Then, the flat plate is placed according to the curved separation distance. A concave hemispherical curved plate with respect to the flat plate is created at a location spaced apart from the flat plate using the flat plate,
Controls the virtual camera to capture the curved plate while interlocking according to the movement of the camera and the state of the lens,
Controlling the placement of the planar plate using information about the camera setting state at the time the planar image was captured,
For the first layer of the first segment image and the second layer of the second segment image that is farther than the first segment image, control is set so that the curved surface separation distance of the first layer is set shorter than the curved surface separation distance of the second layer. A system that does.
버추얼 프로덕션(virtual production) 기반 촬영을 위해 사용되는 시스템으로서,
실사 영상인 제1 영상을 촬영하는 카메라; 및
상기 카메라의 움직임 및 렌즈 상태에 따라 연동되는 가상 카메라에 의해 캡쳐된 가상 공간의 컨텐츠를 담은 제2 영상이 발광 소자(light-emitting diode; LED) 벽체에 표시되도록 상기 제2 영상을 재생하는 재생 장치;를 포함하며,
상기 재생 장치는,
2차원의 평면 이미지에 대한 정보를 저장한 메모리; 및
상기 평면 이미지에 대한 입체화의 영상 처리를 수행하여, 상기 입체화의 영상 처리에 따른 영상이 상기 제2 영상에 포함되도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 평면 이미지에 대한 평면 플레이트(Plate)를 가상 공간 내에 배치하되, 상기 평면 Plate의 중심 지점이 가상 공간 내의 기준 위치로부터 이격된 위치에 상기 평면 Plate를 배치한 후, 곡면 이격 거리에 따라 상기 평면 Plate로부터 이격된 위치에 상기 평면 Plate에 대한 오목한 반구형의 곡면 플레이트(Plate)를 상기 평면 Plate를 이용하여 생성하고,
상기 카메라의 움직임 및 렌즈 상태에 따라 상기 가상 카메라가 연동되면서 상기 곡면 Plate를 캡쳐하도록 제어하고,
상기 평면 이미지가 촬영될 당시의 카메라 세팅 상태에 대한 정보를 이용하여 상기 평면 Plate가 배치되도록 제어하며,
근경인 제1 구분 이미지의 제1 레이어와, 중경인 제2 구분 이미지의 제2 레이어와, 원경인 제3 구분 이미지의 제3 레이어에 대해, 상기 제1 레이어의 곡면 이격 거리가 상기 제2 레이어의 곡면 이격 거리보다 짧고, 상기 제2 레이어의 곡면 이격 거리가 상기 제3 레이어의 곡면 이격 거리보다 짧게 설정되도록 제어하는 시스템.
As a system used for virtual production-based filming,
A camera that captures a first image, which is a live action image; and
A playback device that reproduces the second image so that the second image containing the content of the virtual space captured by the virtual camera linked according to the movement of the camera and the state of the lens is displayed on a light-emitting diode (LED) wall. Contains ;,
The playback device is,
A memory that stores information about a two-dimensional flat image; and
A control unit that performs stereoscopic image processing on the flat image and controls the image resulting from the stereoscopic image processing to be included in the second image,
The control unit,
A flat plate for the flat image is placed in a virtual space, and the center point of the flat plate is placed at a position spaced apart from a reference position in the virtual space, and then the flat plate is placed according to the curved separation distance. Creating a concave hemispherical curved plate with respect to the flat plate at a position spaced apart from the flat plate using the flat plate,
Controls the virtual camera to capture the curved plate while interlocking according to the movement of the camera and the state of the lens,
The planar plate is controlled to be placed using information about the camera setting state at the time the planar image was captured,
For the first layer of the first segment image that is near, the second layer of the second segment image that is midground, and the third layer of the third segment image that is far, the curved separation distance of the first layer is the second layer. A system that controls the curved surface separation distance of the second layer to be set shorter than the curved surface separation distance of the third layer.
삭제delete
KR1020220162552A 2022-11-29 2022-11-29 Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production KR102654323B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220162552A KR102654323B1 (en) 2022-11-29 2022-11-29 Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220162552A KR102654323B1 (en) 2022-11-29 2022-11-29 Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production

Publications (1)

Publication Number Publication Date
KR102654323B1 true KR102654323B1 (en) 2024-04-04

Family

ID=90637660

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220162552A KR102654323B1 (en) 2022-11-29 2022-11-29 Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production

Country Status (1)

Country Link
KR (1) KR102654323B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130014760A (en) * 2011-08-01 2013-02-12 김현아 Method and recording medium for providing/recording/playing augmented-reality-based information mobile terminal
KR20190008568A (en) * 2016-05-18 2019-01-24 시리얼 테크놀로지즈 에스.에이. Method for generating hologram
KR20190027445A (en) * 2017-09-07 2019-03-15 동의대학교 산학협력단 Method and Device of Motion Estimation for Depth Video Coding by curved surface Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM
KR102371031B1 (en) * 2021-08-13 2022-03-07 주식회사 비브스튜디오스 Apparatus, system, method and program for video shooting in virtual production

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130014760A (en) * 2011-08-01 2013-02-12 김현아 Method and recording medium for providing/recording/playing augmented-reality-based information mobile terminal
KR20190008568A (en) * 2016-05-18 2019-01-24 시리얼 테크놀로지즈 에스.에이. Method for generating hologram
KR20190027445A (en) * 2017-09-07 2019-03-15 동의대학교 산학협력단 Method and Device of Motion Estimation for Depth Video Coding by curved surface Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM
KR102371031B1 (en) * 2021-08-13 2022-03-07 주식회사 비브스튜디오스 Apparatus, system, method and program for video shooting in virtual production

Similar Documents

Publication Publication Date Title
US9160938B2 (en) System and method for generating three dimensional presentations
Matsuyama et al. 3D video and its applications
US20080246759A1 (en) Automatic Scene Modeling for the 3D Camera and 3D Video
US20130321396A1 (en) Multi-input free viewpoint video processing pipeline
US11425283B1 (en) Blending real and virtual focus in a virtual display environment
JP2000503177A (en) Method and apparatus for converting a 2D image into a 3D image
US11176716B2 (en) Multi-source image data synchronization
GB2456802A (en) Image capture and motion picture generation using both motion camera and scene scanning imaging systems
US11615755B1 (en) Increasing resolution and luminance of a display
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
Kuchelmeister et al. Affect and place representation in immersive media: The Parragirls Past, Present project
KR102654323B1 (en) Apparatus, method adn system for three-dimensionally processing two dimension image in virtual production
WO2009109804A1 (en) Method and apparatus for image processing
US11677928B1 (en) Method for image processing of image data for varying image quality levels on a two-dimensional display wall
US20240096035A1 (en) Latency reduction for immersive content production systems
Ronfard et al. Image and geometry processing for 3-d cinematography: An introduction
Ronfard et al. Workshop Report 08w5070 Multi-View and Geometry Processing for 3D Cinematography