KR101031062B1 - Method for projecting video data for materializing mixed reality - Google Patents

Method for projecting video data for materializing mixed reality Download PDF

Info

Publication number
KR101031062B1
KR101031062B1 KR1020100085055A KR20100085055A KR101031062B1 KR 101031062 B1 KR101031062 B1 KR 101031062B1 KR 1020100085055 A KR1020100085055 A KR 1020100085055A KR 20100085055 A KR20100085055 A KR 20100085055A KR 101031062 B1 KR101031062 B1 KR 101031062B1
Authority
KR
South Korea
Prior art keywords
image
projected
image data
background
color
Prior art date
Application number
KR1020100085055A
Other languages
Korean (ko)
Inventor
전석
이호현
Original Assignee
(주)린소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)린소프트 filed Critical (주)린소프트
Priority to KR1020100085055A priority Critical patent/KR101031062B1/en
Application granted granted Critical
Publication of KR101031062B1 publication Critical patent/KR101031062B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/26Stereoscopic photography by simultaneous viewing using polarised or coloured light separating different viewpoint images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/20Stereoscopic photography by simultaneous viewing using two or more projectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for projecting video data for materializing mixed reality is provided to materialize mixed reality with improved quality by minimizing the distortion of video projected to a three-dimensional background. CONSTITUTION: A method for projecting video data for materializing mixed reality is as follows. A three-dimensional background that video data will be projected is modeled(S100). The image of the three-dimensional background is obtained by projecting a black and white image to the three-dimensional background(S110). The obtained image is projected to the modeled three-dimensional background(S120). The three-dimensional coordinate of the three-dimensional background is corrected using the shape and brightness of the black and white pattern of the obtained image(S130).

Description

복합 현실 구현을 위한 영상 투사 방법{METHOD FOR PROJECTING VIDEO DATA FOR MATERIALIZING MIXED REALITY}Image Projection Method for Realizing Complex Reality {METHOD FOR PROJECTING VIDEO DATA FOR MATERIALIZING MIXED REALITY}

본 발명은 복합 현실 구현을 위한 영상 투사 방법에 관한 것으로, 보다 상세하게는 입체배경에 투사되는 영상을 보정하여 영상의 왜곡을 최소화하는 영상 투사 방법에 관한 것이다. The present invention relates to an image projection method for realizing a composite reality, and more particularly, to an image projection method for minimizing distortion of an image by correcting an image projected on a stereoscopic background.

최근 실사 영상과 컴퓨터 그래픽 영상을 3차원에서 합성하는 복합 현실(Mixed Reality) 기술이 각광받고 있다. 일반적으로 복합 현실 기술은 컴퓨터 그래픽에 의한 삼차원 객체에 실사 배경을 합성하거나, 컴퓨터 그래픽에 의한 가상공간에 실사 객체를 합성하는 등의 방식으로 구현된다. Recently, a mixed reality technology for synthesizing real-life images and computer graphics images in three dimensions has been in the spotlight. In general, the composite reality technology is implemented by synthesizing a photorealistic background to a three-dimensional object by computer graphics, or by combining a photorealistic object into a virtual space by computer graphics.

이와 같은 복합 현실 구현을 위한 시스템은 보다 그 대상 영역을 확장해가고 있는데, 최근에는 실사 영상을 촬영하여 이를 컴퓨터 상에서 가상의 객체나 배경과 합성하는 협의의 복합 현실 개념에서 벗어나, 실물 객체나 배경의 움직임이나 특성에 따라 능동적으로 제어되는 컴퓨터 그래픽을 실물 배경에 투사하는 광의의 개념으로 그 대상 영역이 확장되기에 이르렀다. The system for realizing such a composite reality is expanding its target area. Recently, the system has been separated from the real concept of composite reality in which real-life images are taken and synthesized with virtual objects or backgrounds on a computer. The subject area has been expanded to the concept of broad projection of computer graphics actively controlled by movement or characteristics on a real background.

특히 구조물 등의 입체 실물 배경에 영상을 투영하여 복합 현실을 구현할 수 있는데, 예를 들어 시공 도중의 실물 구조물에 완성 구조물의 컴퓨터 그래픽이 겹쳐지도록 이미지를 투영함으로써, 실사와 컴퓨터 그래픽이 조합되는 복합 현실을 구현할 수 있다. In particular, a complex reality can be realized by projecting an image onto a three-dimensional real background such as a structure. For example, a complex reality in which real-life and computer graphics are combined by projecting the image so that the computer graphic of the completed structure overlaps the real structure during construction. Can be implemented.

그러나 이를 위해서는 입체적인 구조를 갖는 건축물 등에 원하는 영상이 왜곡없이 투영되도록 하여야 한다. 도 1에 도시된 바와 같이 건축물이나 구조물 등은 그 외면이 일정하지 않고 입체적으로 구성될 뿐 아니라 각 면의 색상 또한 일정하지 않다. However, for this purpose, a desired image must be projected without distortion in a building having a three-dimensional structure. As shown in Figure 1, the building or the structure is not only the outer surface of the structure is composed of three-dimensional, but also the color of each surface is not constant.

이와 같은 입체 배경에 영상을 투사하기 위하여 건축물이나 구조물의 크기와 형상에 따라 적절한 수의 투사장치가 사용된다. 그러나 복잡한 기하물체나 색 또는 텍스쳐가 있는 현실공간에 원하는 영상을 색상이나 밝기, 형상 등의 왜곡 없이 이미지가 디스플레이되도록 하는 것은 매우 어려운 문제이다. In order to project an image on such a stereoscopic background, an appropriate number of projection apparatuses are used according to the size and shape of a building or structure. However, it is very difficult to allow an image to be displayed in a complex geometric object or a real space with colors or textures without distortion of color, brightness, shape, or the like.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 입체배경에 투사되는 영상의 왜곡을 최소화할 수 있는 복합 현실 구현을 위한 영상 투사 방법을 제공하는 것이다. Accordingly, the present invention has been made to solve the above problems, an object of the present invention is to provide an image projection method for realizing a composite reality that can minimize the distortion of the image projected on a three-dimensional background.

본 발명의 다른 목적은 입체배경의 특성을 손쉽게 파악할 수 있는 복합 현실 구현을 위한 영상 투사 방법을 제공하는 것이다. Another object of the present invention is to provide an image projection method for realizing a composite reality that can easily grasp the characteristics of the three-dimensional background.

본 발명의 또 다른 목적은 입체배경의 특성에 따라 투사되는 영상 데이터의 보정을 수행할 수 있는 복합 현실 구현을 위한 영상 투사 방법을 제공하는 것이다. It is still another object of the present invention to provide an image projection method for realizing a composite reality that can perform correction of image data to be projected according to the characteristics of a stereoscopic background.

위와 같은 목적을 갖는 본 발명은 (A)영상 데이터를 투사할 입체배경을 삼차원 모델링하는 단계와; (B)상기 입체배경에 흑백 패턴 이미지를 투사한 후, 흑백 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와; (C) 상기 (B)단계에서 획득된 이미지를 상기 (A)단계에서 모델링한 입체배경 모델에 투영하는 단계와; (D) 상기 (B)단계에서 획득된 이미지의 흑백 패턴의 형상과 밝기를 이용하여 입체배경 모델의 특징점들의 삼차원 좌표를 보정하는 단계와; (E) 상기 (D)단계에서 보정된 특징점들의 삼차원 좌표를 이용하여, 인접한 세 개의 특징점들이 구성하는 각각의 삼각형 면의 위치와 방향정보를 산출하는 단계; 그리고 (F) 상기 (E)단계에서 산출된 삼각형 면의 위치와 방향정보를 이용하여, 각 삼각형 면에 투영될 영상 데이터의 화소를 결정하고, 각 삼각형 면에 투영될 화소의 명암을 보정하는 단계를 포함하여 수행된다. The present invention having the above object comprises the steps of: (A) three-dimensional modeling the three-dimensional background to project the image data; (B) projecting a black and white pattern image onto the three-dimensional background, and then obtaining an image of the three-dimensional background on which the black and white pattern image is projected; (C) projecting the image obtained in the step (B) to the three-dimensional background model modeled in the step (A); (D) correcting three-dimensional coordinates of the feature points of the three-dimensional background model by using the shape and brightness of the black and white pattern of the image obtained in the step (B); (E) calculating position and direction information of each triangular plane composed of three adjacent feature points by using three-dimensional coordinates of the feature points corrected in step (D); And (F) determining the pixel of the image data to be projected on each triangle plane by using the position and direction information of the triangle plane calculated in the step (E), and correcting the contrast of the pixel to be projected on each triangle plane. It is carried out including.

이때 상기 영상 투사 방법은, (L) 상기 입체배경에 색상 패턴 이미지를 투사한 후, 색상 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와; (M) 상기 (L)단계에서 획득된 이미지를 이용하여, 상기 (E)단계에서 산출된 삼각형 면의 각각의 색상정보를 산출하는 단계; 그리고 (N) 상기 (M)단계에서 산출된 삼각형 면의 색상정보를 이용하여, 상기 (F)단계에서 각 삼각형 면에 투영되도록 결정된 화소들의 색상을 보정하는 단계를 더 포함하여 수행될 수도 있다. In this case, the image projection method may include: (L) projecting a color pattern image onto the stereoscopic background, and then obtaining an image of the stereoscopic background onto which the color pattern image is projected; (M) calculating each color information of the triangular plane calculated in the step (E) by using the image obtained in the step (L); And (N) correcting the colors of the pixels determined to be projected on the respective triangular planes by using the color information of the triangular planes calculated in the step (M).

그리고 상기 영상 투사 방법은, 상기 (F)단계와 상기 (N)단계에서 보정된 영상 데이터를 상기 입체배경으로 투사하는 단계를 더 포함하여 수행될 수도 있다. The image projection method may further include projecting the image data corrected in steps (F) and (N) onto the stereoscopic background.

나아가 상기 (F)단계는, 삼각형 면의 위치와 방향정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 명암 보정값을 보정 전의 영상 데이터의 각 화소의 명암값에 가감함으로써 수행되고, 상기 (N)단계는, 삼각형 면의 색상정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 색상 보정값을 보정 전의 영상 데이터의 각 화소의 색상값에 가감함으로써 수행될 수도 있다. Further, step (F) is performed by adding or subtracting the contrast correction value of the pixel to be projected onto each triangle plane calculated using the position and the direction information of the triangle plane to the contrast value of each pixel of the image data before correction. Step N) may be performed by adding or subtracting the color correction value of the pixel to be projected onto each triangle plane calculated using the color information of the triangle plane to the color value of each pixel of the image data before the correction.

또한 상기 (F)단계와 상기 (N)단계는, 입체배경에 투사하고자 하는 영상 데이터가 동영상 데이터인 경우, 각 화소에 대한 상기 명암 보정값과 상기 색상 보정값을, 동영상 데이터에 포함된 각 영상 프레임의 동일한 위치의 모든 화소의 명암값과 색상값에 가감함으로써 수행될 수도 있다. Further, in the steps (F) and (N), when the image data to be projected on the stereoscopic background is moving image data, the contrast correction value and the color correction value for each pixel are included in each image included in the moving image data. It may also be performed by adding or subtracting the contrast values and the color values of all the pixels at the same position of the frame.

그리고 상기 (B)단계와 상기 (L)단계는, 보정된 영상 데이터가 투사되는 위치 및 각도와 동일한 각도 및 위치에서 수행될 수 있다. Steps (B) and (L) may be performed at the same angle and position as the position and angle at which the corrected image data is projected.

여기서 상기 (B) 내지 (F) 및 (L) 내지 (M)는, 보정된 영상 데이터가 상기 입체배경에 대하여 복수의 지점에서 투사되는 경우, 보정된 영상 데이터가 투사되는 각각의 지점에 대하여 개별적으로 수행될 수도 있다. Wherein (B) to (F) and (L) to (M) are individual for each point where the corrected image data is projected when the corrected image data is projected at a plurality of points with respect to the stereoscopic background. It may be performed as.

또한 상기 영상 투사 방법은, 복수의 지점에서 투사되는 각 영상 데이터가 서로 겹치는 부분에 대해 점진적으로 이미지가 섞이도록 하는 엣지 블렌딩 처리를 수행하는 단계를 더 포함하여 수행될 수도 있다. The image projection method may further include performing an edge blending process for gradually mixing the images with respect to portions where the image data projected from the plurality of points overlap each other.

이상에서 상세히 설명한 바와 같이 본 발명에 의한 복합 현실 구현을 위한 영상 투사 방법에 의하면 다음과 같은 효과를 기대할 수 있다.As described in detail above, according to the image projection method for realizing the composite reality according to the present invention, the following effects can be expected.

즉, 입체배경에 투사되는 영상의 왜곡을 최소화함으로서, 보다 높은 수준의 복합 현실을 구현할 수 있다는 장점이 있다. That is, by minimizing the distortion of the image projected on the three-dimensional background, there is an advantage that can realize a higher level of complex reality.

또한 본 발명에 의한 복합 현실 구현을 위한 영상 투사 방법에서는 입체배경의 특성을 손쉽게 파악하여 투사될 영상을 보정함으로서 영상 투사를 위한 준비과정에 소요되는 시간과 노동력, 비용을 절감할 수 있다는 장점이 있다. In addition, the image projection method for realizing the complex reality according to the present invention has the advantage of reducing the time, labor and cost required for the preparation process for image projection by easily grasping the characteristics of the three-dimensional background to correct the image to be projected .

도 1은 영상 투사 시스템을 이용하여 입체배경에 영상을 투사하는 예를 도시한 예시도.
도 2a는 본 발명의 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도.
도 2b는 본 발명의 다른 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도.
도 3은 본 발명의 실시예에 의한 입체배경으로의 영상 투사 방법을 단계적으로 도시한 흐름도.
도 4a는 패턴 이미지를 입체배경에 투사한 예시도.
도 4b는 패턴 이미지의 투사거리에 따른 밝기 변화를 나타낸 예시도.
도 5는 입체배경의 색채에 따라 보정된 이미지를 투사한 예시도.
1 is an exemplary view showing an example of projecting an image on a stereoscopic background using an image projection system.
Figure 2a is a block diagram showing the configuration of an image projection system according to an embodiment of the present invention.
Fig. 2B is a block diagram showing the configuration of an image projection system according to another embodiment of the present invention.
3 is a flowchart illustrating a method of projecting an image onto a stereoscopic background according to an exemplary embodiment of the present invention.
4A is an exemplary view of projecting a pattern image on a three-dimensional background.
Figure 4b is an exemplary view showing a change in brightness according to the projection distance of the pattern image.
5 is an exemplary view of projecting an image corrected according to the color of a three-dimensional background.

이하에서는 상기한 바와 같은 본 발명에 의한 영상 투사 시스템 및 이를 이용한 영상 투사 방법을 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, an image projection system and an image projection method using the same according to the present invention will be described in detail with reference to the accompanying drawings.

도 2a는 본 발명의 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도이며, 도 2b는 본 발명의 다른 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도이다.Figure 2a is a block diagram showing the configuration of an image projection system according to an embodiment of the present invention, Figure 2b is a block diagram showing the configuration of an image projection system according to another embodiment of the present invention.

도 2a에 도시된 바와 같이 본 발명의 실시예에 의한 영상 투사 시스템(100)에는 전체 시스템의 동작을 제어하는 제어장치(10)가 구비된다. 상기 제어장치(10)는 사용자의 명령에 따라 입체배경에 영상을 투사하고, 투사된 영상을 보정하여 다시 보정된 영상을 투사하는 역할을 한다.As shown in FIG. 2A, the image projection system 100 according to the exemplary embodiment of the present invention includes a control device 10 for controlling the operation of the entire system. The control device 10 projects an image on a stereoscopic background according to a user's command, and corrects the projected image to project the corrected image again.

그리고 상기 제어장치에서 제공되는 영상 데이터는 분배장치(12)를 통해 복수의 투영장치(14)로 전달된다. 상기 분배장치(12)는 상기 제어장치(10)로부터 제공되는 영상 데이터 중 각각의 투영장치(14)에 할당된 데이터를 각각의 투영장치(14)로 분배한다.The image data provided by the control device is transferred to the plurality of projection devices 14 through the distribution device 12. The distribution device 12 distributes the data allocated to each projection device 14 among the image data provided from the control device 10 to each projection device 14.

그에 따라 상기 분배장치(12)로부터 데이터를 할당받은 상기 투영장치(14)는 각각의 위치에서 할당된 영상 데이터를 빔(Beam)으로 출력하여 입체배경에 투사한다. Accordingly, the projection device 14, which has been allocated data from the distribution device 12, outputs the image data allocated at each position as a beam and projects the stereoscopic background.

이때 상기 투영장치(14)에 따라 각각 입체배경에 영상이 투사된 이미지를 실시간으로 감시하기 위한 모니터링 장치(16)가 각각의 투영장치(14)에 별도로 설치될 수 있다. In this case, according to the projection device 14, a monitoring device 16 for monitoring the image projected on the stereoscopic background in real time may be separately installed in each projection device (14).

그리고 상기 투영장치(14)에서 출력되는 빔과 동일한 화각에서 각각 영상이 투사된 이미지를 실시간으로 획득하기 위하여 상기 투영장치(14)에는 각각 카메라가 구비될 수 있다.The projection apparatus 14 may be provided with a camera, respectively, in order to acquire an image in which the image is projected at the same angle of view as the beam output from the projection apparatus 14 in real time.

그에 따라 상기 투영장치(14)에 각각 설치된 카메라에 의해 촬영된 이미지 또는 동영상을 상기 모니터링 장치(16)에 출력하여 입체배경에 영상 데이터가 원하는 바에 따라 투사되고 있는지 여부를 감시할 수 있게 된다.Accordingly, an image or a moving image photographed by a camera respectively installed in the projection device 14 is output to the monitoring device 16 to monitor whether image data is projected as desired on a stereoscopic background.

사용자는 상기 모니터링 장치(16)를 통해 출력되는 영상을 확인하여 투사되는 영상 데이터의 투사각도나 영상 데이터의 색상, 밝기 등을 상기 제어장치(10)를 통해 실시간으로 보정할 수 있다.The user may check the image output through the monitoring device 16 and correct the projection angle of the projected image data, the color, brightness, etc. of the image data in real time through the control device 10.

한편 본 발명의 다른 실시예에 의한 영상 투사 시스템(100)은 도 2b에 도시된 바와 같이 입체 배경에 투사될 영상 데이터를 제공하는 서버(20)와 상기 서버(20)에서 제공되는 영상 데이터를 수신하여 각각의 투영장치(24)로 전달하는 제어장치(22)를 포함하여 구성된다.On the other hand, the image projection system 100 according to another embodiment of the present invention receives the server 20 for providing the image data to be projected on the stereoscopic background and the image data provided from the server 20, as shown in Figure 2b And a control device 22 for transmitting to each projection device 24.

상기 제어장치(22)는 각각의 투영장치(24)가 설치된 위치와 빔의 투사 각도에 맞게 수신된 영상 데이터를 처리하여 상기 투영장치(24)로 전달한다. 따라서 상기 제어장치(22)는 상기 투영장치(24)마다 각각 하나씩 구비될 수 있다.The control device 22 processes the received image data according to the position where each projection device 24 is installed and the projection angle of the beam, and transmits the received image data to the projection device 24. Accordingly, one control device 22 may be provided for each projection device 24.

그리고 상기 제어장치(22)에는 각각 상기 투영장치(24)에서 투사된 영상 데이터가 입체배경에 표시된 이미지나 동영상을 모니터링하기 위한 모니터링 장치가 각각 구비될 수 있다. In addition, each of the control device 22 may be provided with a monitoring device for monitoring an image or a video in which the image data projected by the projection device 24 is displayed on a stereoscopic background.

또한 마찬가지로 상기 투영장치(24)에는 상기 투영장치(14)에서 출력되는 빔과 동일한 화각에서 각각 영상이 투사된 입체배경의 이미지를 실시간으로 획득하기 위한 카메라가 각각 구비될 수 있다.In addition, the projection device 24 may be provided with a camera for acquiring in real time an image of a stereoscopic background in which an image is projected at the same angle of view as the beam output from the projection device 14.

그에 따라 상기 투영장치(14)에 각각 설치된 카메라에 의해 촬영된 이미지 또는 동영상을 상기 제어장치(22)에서 확인할 수 있도록 한다.Accordingly, the control device 22 can check an image or a moving picture photographed by a camera respectively installed in the projection device 14.

위에서 설명한 바와 같은 영상 투사 시스템을 이용하여 입체배경에 영상 데이터를 출력함에 있어서, 복수의 투영장치(14, 24)로부터 출력되어 입체배경에 투사된 각각의 영상의 색상이나 질감, 밝기 등이 서로 통일되도록 하고, 입체배경의 형상이나 색상 등에 의한 영상의 왜곡을 최소화하기 위해서는 영상 데이터를 입체배경에 투사하기 전에, 투사될 영상 데이터를 입체배경의 속성에 따라 미리 보정하는 과정이 수행되어야 한다. In outputting image data to a stereoscopic background using the image projection system as described above, the colors, textures, brightness, etc. of the respective images output from the plurality of projection devices 14 and 24 and projected onto the stereoscopic background are unified with each other. In order to minimize distortion of the image due to the shape or color of the stereoscopic background, a process of preliminarily correcting the image data to be projected according to the attributes of the stereoscopic background should be performed before projecting the image data onto the stereoscopic background.

이하에서는 영상 데이터를 보정하여 입체 배경에 투사하는 과정을 도면을 참조하여 상세하게 설명한다.Hereinafter, a process of correcting image data and projecting it on a stereoscopic background will be described in detail with reference to the accompanying drawings.

도 3은 본 발명의 실시예에 의한 입체배경으로의 영상 투사 방법을 단계적으로 도시한 흐름도이고, 도 4a는 패턴 이미지를 입체배경에 투사한 예시도이며, 도 4b는 패턴 이미지의 투사거리에 따른 밝기 변화를 나타낸 예시도이다. 또한 도 5는 입체배경의 색채에 따라 보정된 이미지를 투사한 예시도이다.3 is a flowchart illustrating a method of projecting an image onto a stereoscopic background according to an exemplary embodiment of the present invention. FIG. 4A is an exemplary view of projecting a pattern image onto a stereoscopic background. FIG. 4B is a diagram illustrating a projection distance of a pattern image. It is an exemplary diagram showing a change in brightness. 5 is an exemplary view of projecting an image corrected according to the color of the stereoscopic background.

도 3에 도시된 바와 같이 입체 배경으로의 영상 투사 시스템을 이용한 영상 투사 방법에서는 우선 CAD 등 삼차원 모델링을 수행하는 응용프로그램을 이용하여 영상을 투사하고자 하는 입체배경의 개략적인 형상을 모델링하는 제100단계(S100)로부터 시작된다.As shown in FIG. 3, in the image projection method using an image projection system on a stereoscopic background, a first step of modeling a schematic shape of a stereoscopic background to project an image by using an application program for performing three-dimensional modeling such as CAD is performed. It starts from S100.

제100단계에서는 건축물이나 구조물 등 입체배경의 설계도면이나 실측된 수치 등을 이용하여 개략적인 입체배경의 외관 형상만을 모델링한다. In step 100, only the external appearance of the rough three-dimensional background is modeled by using the design drawings of the three-dimensional background such as buildings and structures or the measured values.

그리고 상기 투영장치(14, 24)를 추후 영상 데이터를 투사할 위치와 동일한 위치와 각도 상에 설치한 후, 상기 투영장치(14, 24)를 통해 패턴 이미지를 입체배경에 투사하여, 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 제110단계(S110)를 수행한다. Then, the projection apparatuses 14 and 24 are installed on the same position and angle as the position to project image data later, and then the pattern image is projected on the stereoscopic background through the projection apparatuses 14 and 24, so that the pattern image is In operation S110, an image of a projected stereoscopic background is obtained.

제110단계에서 상기 투영장치(14, 24)를 통해 투사하는 패턴 이미지는 예를 들어 흑백 사각형이 바둑판 모양으로 서로 교차하는 이미지와 이를 반전시킨 이미지를 포함하는 흑백 패턴 이미지와, 빨강, 초록, 파랑색을 포함하는 패턴이 포함되는 색채 패턴 이미지를 포함한다. The pattern image projected through the projection apparatuses 14 and 24 in operation 110 may be, for example, a black and white pattern image including an image in which black and white squares cross each other in a checkerboard shape and an image inverted thereof, and red, green, and blue colors. A color pattern image including a pattern including a color is included.

상기 투영장치(14, 24)는 이와 같이 흑백 패턴 이미지와 색상 패턴 이미지를 각각 입체배경에 복수회에 걸쳐 투사하고, 각각의 패턴 이미지가 투사된 입체배경의 이미지를 다시 획득한다. 여기서, 상기 흑백패턴 이미지와 색상 패턴이미지를 각각 투사하는 이유는 다음과 같다. 먼저, 상기 흑백패턴 이미지를 투사하는 이유는 투영장치(14)와 상기 투영장치(14)에 설치된 카메라의 위치를 맞추고, 또 실제공간의 카메라의 위치 값과 가상공간상의 가상 카메라의 위치를 맞추는 카메라 캘리브레이션(Camera Calibration)을 수행하고, 또 투영장치(14)에서 출력되는 빔이 맺히는 영역에 대한 x, y, z의 정보를 알기 위한 것이고, 또 실제 공간에서 빔이 맺히는 영역의 밝기 값을 알아보기 위한 것이다. 이렇게 하면, 이후 수행되는 보정과정에서 입체배경에 투사될 영상데이터의 화소를 결정하여 화소의 명암을 보정할 수 있게 된다. 또한 상기 색상패턴 이미지를 투사하는 이유는 영상 데이터가 투사되는 면의 색상 정보를 획득하여, 그 투사된 영상의 색상이나 질감, 밝기 등이 서로 통일되도록 하기 위한 것이다. 이렇게 하면 이후 수행되는 보정과정에서 입체배경에 투사되도록 결정된 화소들의 색상을 보정할 수 있게 된다.The projection apparatuses 14 and 24 project the black and white pattern image and the color pattern image on the stereoscopic background a plurality of times, respectively, and acquire the image of the stereoscopic background on which each pattern image is projected. The reason for projecting the black and white pattern image and the color pattern image, respectively, is as follows. First, the reason for projecting the black and white pattern image is a camera that matches the position of the projection device 14 and the camera installed in the projection device 14, and adjusts the position value of the camera in the real space and the position of the virtual camera in the virtual space. To perform the calibration (Camera Calibration), and to know the x, y, z information on the area of the beam output from the projection device 14, and to find the brightness value of the area of the beam in the real space It is for. In this way, it is possible to correct the contrast of the pixel by determining the pixel of the image data to be projected on the stereoscopic background in a subsequent correction process. In addition, the reason for projecting the color pattern image is to obtain color information of the surface on which the image data is projected, so that the color, texture, brightness, etc. of the projected image are unified with each other. This makes it possible to correct the color of the pixels determined to be projected onto the stereoscopic background in a subsequent correction process.

이때 패턴 이미지가 투사된 입체배경의 이미지를 획득하기 위해서 상기 투영장치(14, 24)의 빔 투사 위치 및 각도와 동일한 위치와 각도에 상기 투영장치(14, 24)와 일체로 또는 별개로 구비되는 카메라 장치를 이용한다. In this case, in order to obtain an image of a stereoscopic background on which a pattern image is projected, the projection image is provided integrally or separately from the projection apparatuses 14 and 24 at the same position and angle as the beam projection positions and angles of the projection apparatuses 14 and 24. Use a camera device.

그에 따라 상기 제110단계에서 획득되는 이미지들은 모두 상기 투영장치(14, 24)가 추후 입체배경에 실제 투영하고자 하는 영상 데이터를 투사할 위치와 동일한 위치와 각도에서 획득된 것이다.Accordingly, the images acquired in step 110 are all acquired at the same position and angle as the position at which the projection apparatuses 14 and 24 project the image data to be actually projected later on the stereoscopic background.

그리고나서 상기 제110단계에서 획득된 이미지를 제100단계에서 삼차원 모델링한 입체배경 모델에 투영하는 제120단계(S120)가 수행된다. 여기서, 상기 삼차원 모델링한 입체배경 모델에 투영되는 이미지는 상기 흑백패턴 이미지를 투사하여 획득한 이미지 및 상기 색상패턴 이미지를 투사하여 획득한 이미지를 순차적으로 투영되게 한다. Then, in operation 120 (S120), the image acquired in operation 110 is projected onto the three-dimensional model of the three-dimensional modeled model in operation 100. Here, the image projected onto the three-dimensional modeled three-dimensional model is to sequentially project the image obtained by projecting the black and white pattern image and the image obtained by projecting the color pattern image.

먼저, 상기 흑백패턴 이미지를 투사하여 획득한 이미지를 투영하는 것이다. 즉, 상기 제120단계에서 흑백 패턴 이미지가 투영된 입체 배경의 이미지를 상기 입체배경 모델에 투영한 결과로부터, 삼차원 모델링한 입체배경 모델의 복수의 특징점들의 각각의 좌표를 보정하는 제130단계(S130)가 수행된다. First, the image obtained by projecting the black and white pattern image is projected. That is, in operation 120, the coordinates of the plurality of feature points of the three-dimensional modeled stereoscopic background model are corrected from the result of projecting the stereoscopic background image on which the black and white pattern image is projected onto the stereoscopic background model in step 120 (S130). ) Is performed.

여기서 상기 특징점들의 수는 사용자에 의해 적절하게 선택될 수 있다. The number of feature points may be appropriately selected by the user.

입체배경 모델에서 많은 특징점을 추출할수록 입체배경 모델이 실제 입체배경과 유사해져 투사되는 영상의 질도 높아진다는 이점이 있으나, 특징점이 과도하게 많이 추출되면 각각의 특징점들의 좌표를 산출하고, 그에 따라 투사될 영상을 보정하기 위하여 처리해야할 데이터의 양이 많아진다는 단점이 있으므로, 추출되는 특징점의 수는 사용자에 의하여 적절하게 선택될 수 있다. The more feature points are extracted from the three-dimensional background model, the more the three-dimensional background model is similar to the actual three-dimensional background, so that the quality of the projected image is higher. However, if too many feature points are extracted, the coordinates of each feature point are calculated, and the projection is performed accordingly. Since there is a disadvantage that the amount of data to be processed to correct the image to be increased, the number of feature points to be extracted can be appropriately selected by the user.

그리고 상기 특징점들은 입체배경 모델의 특정 위치에 집중적으로 분포하지 않고, 입체배경 모델의 전체적인 영역에 골고루 분포되도록 할 수 있으며, 사용자에 의하여 그 위치가 선택될 수도 있다. The feature points may not be intensively distributed at a specific position of the stereoscopic background model, but may be evenly distributed over the entire region of the stereoscopic background model, and the position may be selected by the user.

이때 좌표의 보정은, 일정한 흑백 패턴 이미지가 입체배경에 투사됨으로써 왜곡된 패턴의 형상과 변화된 밝기값을 이용하여 이루어진다. At this time, the coordinates are corrected by using the shape of the distorted pattern and the changed brightness value by projecting a constant black and white pattern image onto the three-dimensional background.

도 4a에 도시된 바와 같이 예를 들어 직사각형 형상의 패턴을 입체 배경에 투사하면, 입체배경의 각 면이 이루는 각도에 따라 투사된 패턴이 왜곡된다. For example, as shown in FIG. 4A, when a rectangular pattern is projected onto a three-dimensional background, the projected pattern is distorted according to an angle formed by each surface of the three-dimensional background.

따라서 각 패턴에 포함되는 점들의 위치 변화를 통해서 패턴이 투사된 입체 배경의 각 면이 이루는 각도를 산출할 수 있다. Therefore, an angle formed by each surface of the three-dimensional background on which the pattern is projected may be calculated by changing the position of the points included in each pattern.

나아가 도 4b에 도시된 바와 같이 동일한 패턴의 이미지를 빔으로 출력하더라도 이를 반사하는 입체배경의 거리에 따라 반사되는 패턴의 밝기가 달라지는데, 거리가 멀어질수록 반사도가 낮아져 패턴이 어둡게 표시된다. Furthermore, as shown in FIG. 4B, even when the image of the same pattern is output as a beam, the brightness of the reflected pattern varies according to the distance of the three-dimensional background reflecting the same. The longer the distance, the lower the reflectivity and the darker the pattern is displayed.

따라서 제130단계에서는 흑백 패턴 이미지를 투사하여 획득한 이미지를 삼차원 모델링된 입체배경 모델에 투영한 후 각각의 특징점이 위치한 패턴의 형상이나 밝기값 등을 이용하여 특징점들의 삼차원 좌표를 보다 정확하게 보정한다. Therefore, in operation 130, the image obtained by projecting the black and white pattern image is projected onto the three-dimensional modeled stereoscopic background model, and then the three-dimensional coordinates of the feature points are more accurately corrected by using the shape or brightness value of the pattern where each feature point is located.

또한 제140단계(S140)에서는 제130단계에서 보정된 각 특징점들의 삼차원 좌표값을 이용하여 인접한 세 개의 특징점이 이루는 삼각형 면의 방향 정보를 산출한다. In operation 140, the direction information of the triangular plane formed by three adjacent feature points is calculated by using three-dimensional coordinate values of the feature points corrected in operation 130.

다음, 상기 색채패턴 이미지를 투사하여 획득한 이미지를 투영하는 것이다. 즉, 제150단계(S150)에서는 제110단계에서 획득된 복수의 이미지 중 색채 패턴 이미지를 입체 배경에 투사하여 획득한 이미지를 이용하여, 제140단계에서 방향 정보를 산출한 각각의 삼각형 면의 색상 정보를 산출한다. Next, the image obtained by projecting the color pattern image is projected. That is, in step 150 (S150), the color of each triangular plane whose direction information is calculated in step 140 using an image obtained by projecting a color pattern image of the plurality of images acquired in step 110 onto a stereoscopic background. Calculate the information.

즉, 각각의 삼각형 면의 빨강, 초록, 파랑색 광에 대한 채도를 산출한다. That is, the saturation of the red, green, and blue light of each triangular plane is calculated.

상기 제150단계에서 색상 정보를 산출하는 것은, 입체배경이 하나의 일정한 색상을 띄지 않는 경우, 각각의 면의 색상 차이에 의하여 투사되는 영상에 색상이 왜곡되는 것을 방지하기 위함이다.The color information is calculated in operation 150 to prevent the color from being distorted in the projected image due to the color difference of each surface when the stereoscopic background does not have one constant color.

예를 들어 도 5에 도시된 바와 같이 바둑판 무늬의 입체배경에 영상을 투영하는 경우, 투영된 영상과 입체배경의 무늬가 합쳐져서 원하는 영상을 얻을 수 없게 된다. For example, when the image is projected on the checkered stereoscopic background as shown in FIG. 5, the projected image and the pattern of the stereoscopic background are combined to obtain a desired image.

따라서 투사하고자 하는 영상을 미리 복수의 단위로 나누어 채도를 보정함으로써 영상의 색상 왜곡을 최소화할 수 있다. Therefore, color distortion of the image may be minimized by dividing the image to be projected into a plurality of units in advance to correct saturation.

이에 따라 제140단계에서 산출된 각 삼각형 면의 방향 정보와, 제150단계에서 산출된 각 삼각형 면의 색상 정보를 이용하여 실제로 입체배경에 투사하고자 하는 영상 데이터의 밝기와 색상을 보정하는 제160단계(S160)가 수행된다. Accordingly, the 160th step of correcting the brightness and the color of the image data to be actually projected on the three-dimensional background using the direction information of each triangular plane calculated in step 140 and the color information of each triangular plane calculated in step 150. S160 is performed.

제160단계에서는 투사될 영상 데이터를 특징점들이 이루는 각각의 삼각형 면에 투영될 화소를 결정하고, 각각의 삼각형 면의 각도와 색상을 고려하여 화소들의 밝기와 색상 등을 보정함으로써 이루어진다. In operation 160, the pixels to be projected on the respective triangular planes of the feature points of the image data to be projected are determined, and the brightness and the color of the pixels are corrected in consideration of angles and colors of the triangular planes.

즉, 제140단계에서 산출된 각 삼각형 면의 위치와 방향에 따라 각 삼각형 면에 투영될 영상 데이터의 화소를 결정하고, 각각의 삼각형 면으로 투사되도록 결정된 화소들의 명암와 색상이 보정된다. That is, the pixels of the image data to be projected on the respective triangular planes are determined according to the positions and directions of the triangular planes calculated in operation 140, and the contrast and the color of the pixels determined to be projected on the triangular planes are corrected.

이때 각 삼각형 면에 투영될 영상 데이터의 화소를 결정함에 있어서, 삼각형 면의 위치와 함께 삼각형 면이 기울어진 정도에 따라 하나의 삼각형 면에 투영될 화소의 범위가 결정된다. At this time, in determining the pixel of the image data to be projected on each triangular plane, the range of pixels to be projected on one triangular plane is determined according to the position of the triangular plane and the degree of inclination of the triangular plane.

예를 들어 하나의 삼각형 면이 빔의 투사 방향에 수평한 방향으로 다소 기울어져 있는 경우, 동일한 넓이를 가진 빔의 투사 방향에 수직한 삼각형 면에 투사되는 화소보다 적은 수의 화소가 해당 삼각형 면으로 투사되도록 결정될 수 있다. For example, if one triangular plane is slightly inclined in a direction horizontal to the beam's projection direction, fewer pixels are projected into the triangle plane than pixels projected on the triangle plane perpendicular to the projection direction of the beam with the same width. It can be determined to be projected.

그리고 각 삼각형 면으로 투사되도록 결정된 화소들의 명암과 색상을 보정함에 있어서, 영상 데이터에 포함된 각각의 화소의 원래의 명암값과 색상값에 보정해야할 명암값과 색상값이 더해지거나 차감되도록 함으로써, 동영상과 같이 데이터 처리량이 많은 영상 데이터를 입체배경에 투영할 때도 입체배경의 특성에 따라 영상 데이터가 신속하게 보정될 수 있도록 한다. And in correcting the contrast and color of the pixels determined to be projected to each triangular plane, by adding or subtracting the contrast value and color value to be corrected to the original contrast value and color value of each pixel included in the image data, As described above, even when image data having a large data throughput is projected onto a stereoscopic background, the image data can be quickly corrected according to the characteristics of the stereoscopic background.

그리고 패턴 이미지를 투사하고 획득한 위치 및 각도와 동일한 위치 및 각도에서 제160단계에서 보정된 영상 데이터를 입체배경에 투사하는 제170단계(S170)가 수행된다. 제170단계에서는, 투영되는 영상 데이터를 실시간으로 추가 보정하는 과정이 함께 수행될 수도 있다. In operation S170, projection of the pattern image and projection of the image data corrected in operation 160 on the stereoscopic background is performed at the same position and angle as the acquired position and angle. In operation 170, a process of additionally correcting the projected image data in real time may be performed together.

한편 실시예에 따라서는, 제170단계에서 입체배경에 보정된 영상 데이터를 투사하면서 상기 제어장치(10, 22)를 통해 투사되는 영상 데이터에 다양한 실시간 효과를 더할 수 있다. According to an exemplary embodiment, various real-time effects may be added to the image data projected through the control devices 10 and 22 while projecting image data corrected on the stereoscopic background in operation 170.

즉 삼차원 모델링된 입체배경 모델에 실시간으로 특정 효과를 첨가하면 실제로 입체배경에 투사되는 영상 데이터에도 해당 효과가 반영되도록 할 수 있다. In other words, if a specific effect is added to the three-dimensional modeled three-dimensional background model in real time, the effect may be reflected in the image data projected on the three-dimensional background.

예를 들어, 입체배경에 특정 방향으로 빛과 그림자가 형성되는 것과 같은 효과나, 컴퓨터 그래픽에 의한 가상 객체가 나타나거나 움직이도록 하는 효과, 실시간으로 핸드 드로잉되는 이미지가 입체배경에 투영되도록 하는 효과 등 다양한 부가적인 효과를 추가할 수 있다. For example, effects such as light and shadows being formed in a specific direction on a stereoscopic background, virtual objects appearing or moving by computer graphics, and effects such that images drawn in real time are projected on the stereoscopic background, etc. Various additional effects can be added.

또한 제160단계에서 영상 데이터를 보정함에 있어서, 복수의 투영장치(14, 24)에서 투사되는 이미지가 겹치는 부분에 대해 점진적으로 이미지가 섞이도록 하는 그라데이션(Gradation) 효과를 이용한 엣지 블렌딩(Edge-Blending) 처리를 할 수도 있다. 이를 위해서는 미리 입체배경에 각각의 투영장치(14, 24)를 이용하여 영상을 투영한 후 겹치는 부분을 검출한 후, 이미지가 겹치는 부분으로 투영될 화소들의 명암과 색상들을 보정해야한다. Also, in correcting the image data in operation 160, edge blending using a gradation effect to gradually blend the images of the overlapped portions of the images projected by the plurality of projection devices 14 and 24. You can also do this. To this end, after projecting the image using the projection apparatuses 14 and 24 on the stereoscopic background in advance, the overlapping part is detected, and the contrast and the colors of the pixels to be projected to the overlapping part of the image must be corrected.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

100: 영상 투사 시스템 10: 제어장치
12: 분배장치 14: 투영장치
16: 모니터링 장치 20: 서버
22: 제어장치 24: 투영장치
100: image projection system 10: controller
12: distribution device 14: projection device
16: monitoring device 20: server
22: control unit 24: projection unit

Claims (8)

(A)영상 데이터를 투사할 입체배경을 삼차원 모델링하는 단계와;
(B)상기 입체배경에 흑백 패턴 이미지를 투사한 후, 흑백 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와;
(C) 상기 (B)단계에서 획득된 이미지를 상기 (A)단계에서 모델링한 입체배경 모델에 투영하는 단계와;
(D) 상기 (B)단계에서 획득된 이미지의 흑백 패턴의 형상과 밝기를 이용하여 입체배경 모델의 특징점들의 삼차원 좌표를 보정하는 단계와;
(E) 상기 (D)단계에서 보정된 특징점들의 삼차원 좌표를 이용하여, 인접한 세 개의 특징점들이 구성하는 각각의 삼각형 면의 위치와 방향정보를 산출하는 단계; 그리고
(F) 상기 (E)단계에서 산출된 삼각형 면의 위치와 방향정보를 이용하여, 각 삼각형 면에 투영될 영상 데이터의 화소를 결정하고, 각 삼각형 면에 투영될 화소의 명암을 보정하는 단계를 포함하여 수행됨을 특징으로 하는 영상 투사 방법.
(A) three-dimensional modeling of the three-dimensional background to project the image data;
(B) projecting a black and white pattern image onto the three-dimensional background, and then obtaining an image of the three-dimensional background on which the black and white pattern image is projected;
(C) projecting the image obtained in the step (B) to the three-dimensional background model modeled in the step (A);
(D) correcting three-dimensional coordinates of the feature points of the three-dimensional background model by using the shape and brightness of the black and white pattern of the image obtained in the step (B);
(E) calculating position and direction information of each triangular plane composed of three adjacent feature points by using three-dimensional coordinates of the feature points corrected in step (D); And
(F) determining the pixel of the image data to be projected on each triangular plane by using the position and direction information of the triangular plane calculated in step (E), and correcting the contrast of the pixel to be projected on each triangular plane. Image projection method comprising the.
제1항에 있어서,
상기 영상 투사 방법은,
(L) 상기 입체배경에 색상 패턴 이미지를 투사한 후, 색상 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와;
(M) 상기 (L)단계에서 획득된 이미지를 이용하여, 상기 (E)단계에서 산출된 삼각형 면의 각각의 색상정보를 산출하는 단계; 그리고
(N) 상기 (M)단계에서 산출된 삼각형 면의 색상정보를 이용하여, 상기 (F)단계에서 각 삼각형 면에 투영되도록 결정된 화소들의 색상을 보정하는 단계를 더 포함하여 구성됨을 특징으로 하는 영상 투사 방법.
The method of claim 1,
The image projection method,
(L) projecting a color pattern image onto the stereoscopic background, and then obtaining an image of the stereoscopic background onto which the color pattern image is projected;
(M) calculating each color information of the triangular plane calculated in the step (E) by using the image obtained in the step (L); And
And (N) correcting the colors of the pixels determined to be projected on the respective triangular planes by using the color information of the triangular planes calculated in the step (M). Projection method.
제2항에 있어서,
상기 영상 투사 방법은,
상기 (F)단계와 상기 (N)단계에서 보정된 영상 데이터를 상기 입체배경으로 투사하는 단계를 더 포함하여 수행됨을 특징으로 하는 영상 투사 방법.
The method of claim 2,
The image projection method,
And projecting the image data corrected in steps (F) and (N) onto the stereoscopic background.
제3항에 있어서,
상기 (F)단계는,
삼각형 면의 위치와 방향정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 명암 보정값을 보정 전의 영상 데이터의 각 화소의 명암값에 가감함으로써 수행되고,
상기 (N)단계는,
삼각형 면의 색상정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 색상 보정값을 보정 전의 영상 데이터의 각 화소의 색상값에 가감함으로써 수행되는 것을 특징으로 하는 영상 투사 방법.
The method of claim 3,
Step (F) is,
It is performed by adding or subtracting the contrast correction value of the pixel to be projected to each triangle plane calculated using the position and the direction information of the triangle plane to the contrast value of each pixel of the image data before correction,
Step (N),
And adding or subtracting a color correction value of a pixel to be projected onto each triangle plane by using color information of the triangle plane to a color value of each pixel of the image data before correction.
제4항에 있어서,
상기 (F)단계와 상기 (N)단계는,
입체배경에 투사하고자 하는 영상 데이터가 동영상 데이터인 경우, 각 화소에 대한 상기 명암 보정값과 상기 색상 보정값을, 동영상 데이터에 포함된 각 영상 프레임의 동일한 위치의 모든 화소의 명암값과 색상값에 가감함으로써 수행되는 것을 특징으로 하는 영상 투사 방법.
The method of claim 4, wherein
Step (F) and step (N),
When the image data to be projected on the stereoscopic background is moving image data, the contrast correction value and the color correction value for each pixel are applied to the contrast values and the color values of all pixels at the same position of each image frame included in the moving image data. The image projection method characterized in that it is performed by adding and subtracting.
제3항에 있어서,
상기 (B)단계와 상기 (L)단계는,
보정된 영상 데이터가 투사되는 위치 및 각도와 동일한 각도 및 위치에서 수행됨을 특징으로 하는 영상 투사 방법.
The method of claim 3,
Step (B) and step (L),
And the corrected image data is performed at the same angle and position as the projected position and angle.
제6항에 있어서,
상기 (B) 내지 (F) 및 (L) 내지 (M)는,
보정된 영상 데이터가 상기 입체배경에 대하여 복수의 지점에서 투사되는 경우, 보정된 영상 데이터가 투사되는 각각의 지점에 대하여 개별적으로 수행됨을 특징으로 하는 영상 투사 방법.
The method of claim 6,
(B) to (F) and (L) to (M),
And when the corrected image data is projected at a plurality of points against the stereoscopic background, the corrected image data is individually performed for each point to be projected.
제7항에 있어서,
상기 영상 투사 방법은,
복수의 지점에서 투사되는 각 영상 데이터가 서로 겹치는 부분에 대해 점진적으로 이미지가 섞이도록 하는 엣지 블렌딩 처리를 수행하는 단계를 더 포함하여 수행됨을 특징으로 하는 영상 투사 방법.
The method of claim 7, wherein
The image projection method,
And performing an edge blending process for gradually mixing the images with respect to the portions where the image data projected from the plurality of points overlap each other.
KR1020100085055A 2010-08-31 2010-08-31 Method for projecting video data for materializing mixed reality KR101031062B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100085055A KR101031062B1 (en) 2010-08-31 2010-08-31 Method for projecting video data for materializing mixed reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100085055A KR101031062B1 (en) 2010-08-31 2010-08-31 Method for projecting video data for materializing mixed reality

Publications (1)

Publication Number Publication Date
KR101031062B1 true KR101031062B1 (en) 2011-04-25

Family

ID=44050548

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100085055A KR101031062B1 (en) 2010-08-31 2010-08-31 Method for projecting video data for materializing mixed reality

Country Status (1)

Country Link
KR (1) KR101031062B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010944A1 (en) * 2012-07-12 2014-01-16 Cj Cgv Co., Ltd. Projection device management system
WO2014010940A1 (en) * 2012-07-12 2014-01-16 Cj Cgv Co., Ltd. Image correction system and method for multi-projection
CN103765311A (en) * 2012-07-12 2014-04-30 Cjcgv株式会社 Projection device management system
CN103901708A (en) * 2014-04-11 2014-07-02 深圳大学 Projection lighting method and projection lighting device with invisible planar graph face
KR101455662B1 (en) 2014-01-23 2014-10-28 씨제이씨지브이 주식회사 System and method of image correction for multi-projection
WO2015030322A1 (en) * 2013-08-26 2015-03-05 Cj Cgv Co., Ltd. Guide image generation device and method using parameters
KR101553266B1 (en) * 2015-02-26 2015-09-16 씨제이씨지브이 주식회사 Apparatus and method for generating guide image using parameter
US9298071B2 (en) 2012-07-12 2016-03-29 Cj Cgv Co., Ltd. Multi-projection system
KR101793192B1 (en) * 2016-01-28 2017-11-02 허상훈 Apparatus for realizing augmented reality using multiple projector and method thereof
WO2019124583A1 (en) * 2017-12-20 2019-06-27 Cj Cgv Co., Ltd. System and method for monitoring multi-projection theater

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040056489A (en) * 2002-12-23 2004-07-01 한국전자통신연구원 System and Method for Distortion free projection display on arbritrary display surface
KR20080087038A (en) * 2006-02-20 2008-09-29 마츠시다 덴코 가부시키가이샤 Image signal processing apparatus and virtual reality creating system
KR100943292B1 (en) 2009-08-07 2010-02-23 (주)옴니레이저 Image projection system and method for projection image using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040056489A (en) * 2002-12-23 2004-07-01 한국전자통신연구원 System and Method for Distortion free projection display on arbritrary display surface
KR20080087038A (en) * 2006-02-20 2008-09-29 마츠시다 덴코 가부시키가이샤 Image signal processing apparatus and virtual reality creating system
KR100943292B1 (en) 2009-08-07 2010-02-23 (주)옴니레이저 Image projection system and method for projection image using the same

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103765311B (en) * 2012-07-12 2015-07-15 Cjcgv株式会社 Projection device management system
WO2014010940A1 (en) * 2012-07-12 2014-01-16 Cj Cgv Co., Ltd. Image correction system and method for multi-projection
CN103765311A (en) * 2012-07-12 2014-04-30 Cjcgv株式会社 Projection device management system
KR101391377B1 (en) * 2012-07-12 2014-05-07 씨제이씨지브이 주식회사 Multi-Projection System
KR101391379B1 (en) * 2012-07-12 2014-05-07 씨제이씨지브이 주식회사 System for managing projectors
KR101391380B1 (en) * 2012-07-12 2014-05-07 씨제이씨지브이 주식회사 System and method of image correction for multi-projection
US9817305B2 (en) 2012-07-12 2017-11-14 Cj Cgv Co., Ltd. Image correction system and method for multi-projection
US9298071B2 (en) 2012-07-12 2016-03-29 Cj Cgv Co., Ltd. Multi-projection system
KR101470836B1 (en) * 2012-07-12 2014-12-09 씨제이씨지브이 주식회사 Multi-projection system comprising projection surface having non-sold material
US9134594B2 (en) 2012-07-12 2015-09-15 Cj Cgv Co., Ltd Projection device management system
WO2014010944A1 (en) * 2012-07-12 2014-01-16 Cj Cgv Co., Ltd. Projection device management system
KR101526294B1 (en) * 2013-08-26 2015-06-05 씨제이씨지브이 주식회사 Apparatus and method for generating guide image using parameter
WO2015030322A1 (en) * 2013-08-26 2015-03-05 Cj Cgv Co., Ltd. Guide image generation device and method using parameters
US9479747B2 (en) 2013-08-26 2016-10-25 Cj Cgv Co., Ltd. Guide image generation device and method using parameters
KR101455662B1 (en) 2014-01-23 2014-10-28 씨제이씨지브이 주식회사 System and method of image correction for multi-projection
CN103901708A (en) * 2014-04-11 2014-07-02 深圳大学 Projection lighting method and projection lighting device with invisible planar graph face
KR101553266B1 (en) * 2015-02-26 2015-09-16 씨제이씨지브이 주식회사 Apparatus and method for generating guide image using parameter
KR101793192B1 (en) * 2016-01-28 2017-11-02 허상훈 Apparatus for realizing augmented reality using multiple projector and method thereof
WO2019124583A1 (en) * 2017-12-20 2019-06-27 Cj Cgv Co., Ltd. System and method for monitoring multi-projection theater
US10452060B2 (en) 2017-12-20 2019-10-22 Cj Cgv Co., Ltd. System and method for monitoring multi-projection theater

Similar Documents

Publication Publication Date Title
KR101031062B1 (en) Method for projecting video data for materializing mixed reality
US11269244B2 (en) System and method for calibrating a display system using manual and semi-manual techniques
US7557812B2 (en) Multilevel texture processing method for mapping multiple images onto 3D models
JP7007348B2 (en) Image processing equipment
KR102692888B1 (en) Point cloud colorization system using real-time 3D visualization
US20150325044A1 (en) Systems and methods for three-dimensional model texturing
JPH0344780A (en) Texture mapping method
CN111369660B (en) Seamless texture mapping method of three-dimensional model
US11027201B2 (en) Composing an image
CN108076332B (en) System and method for digital black level blending
US11022435B2 (en) Pattern projection depth value 3D scanning device and method
US6297834B1 (en) Direction-dependent texture maps in a graphics system
US20110012911A1 (en) Image processing apparatus and method
CN112770095B (en) Panoramic projection method and device and electronic equipment
JPH0997344A (en) Method and system for texture generation
JP2007272847A (en) Lighting simulation method and image composition method
Zoido et al. Optimized methods for multi-projector display correction
Hanusch A new texture mapping algorithm for photorealistic reconstruction of 3D objects
WO2024034437A1 (en) Simulation device, simulation method, and computer program
US20230127730A1 (en) System and method for projection mapping
US12020094B2 (en) Image processing device, printing system, and non-transitory computer-readable storage medium storing image processing program that render three dimensional (3D) object
Kohtani et al. Displacement Projection Mapping: a Projection Method to Add Geometric Features beyond the Boundary of the Real Object
JP2023111638A (en) Information processing device, information processing method, and program
JPH0410178A (en) Device for producing stereoscopic picture having quality peculiar to metal
JP2006309613A (en) Image adjustment method and device

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140417

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150609

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170818

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190318

Year of fee payment: 9

R401 Registration of restoration