KR101031062B1 - Method for projecting video data for materializing mixed reality - Google Patents
Method for projecting video data for materializing mixed reality Download PDFInfo
- Publication number
- KR101031062B1 KR101031062B1 KR1020100085055A KR20100085055A KR101031062B1 KR 101031062 B1 KR101031062 B1 KR 101031062B1 KR 1020100085055 A KR1020100085055 A KR 1020100085055A KR 20100085055 A KR20100085055 A KR 20100085055A KR 101031062 B1 KR101031062 B1 KR 101031062B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- projected
- image data
- background
- color
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012937 correction Methods 0.000 claims description 15
- 239000003086 colorant Substances 0.000 claims description 7
- 238000002156 mixing Methods 0.000 claims description 5
- 239000002131 composite material Substances 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012806 monitoring device Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
- G03B35/26—Stereoscopic photography by simultaneous viewing using polarised or coloured light separating different viewpoint images
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
- G03B35/20—Stereoscopic photography by simultaneous viewing using two or more projectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 복합 현실 구현을 위한 영상 투사 방법에 관한 것으로, 보다 상세하게는 입체배경에 투사되는 영상을 보정하여 영상의 왜곡을 최소화하는 영상 투사 방법에 관한 것이다. The present invention relates to an image projection method for realizing a composite reality, and more particularly, to an image projection method for minimizing distortion of an image by correcting an image projected on a stereoscopic background.
최근 실사 영상과 컴퓨터 그래픽 영상을 3차원에서 합성하는 복합 현실(Mixed Reality) 기술이 각광받고 있다. 일반적으로 복합 현실 기술은 컴퓨터 그래픽에 의한 삼차원 객체에 실사 배경을 합성하거나, 컴퓨터 그래픽에 의한 가상공간에 실사 객체를 합성하는 등의 방식으로 구현된다. Recently, a mixed reality technology for synthesizing real-life images and computer graphics images in three dimensions has been in the spotlight. In general, the composite reality technology is implemented by synthesizing a photorealistic background to a three-dimensional object by computer graphics, or by combining a photorealistic object into a virtual space by computer graphics.
이와 같은 복합 현실 구현을 위한 시스템은 보다 그 대상 영역을 확장해가고 있는데, 최근에는 실사 영상을 촬영하여 이를 컴퓨터 상에서 가상의 객체나 배경과 합성하는 협의의 복합 현실 개념에서 벗어나, 실물 객체나 배경의 움직임이나 특성에 따라 능동적으로 제어되는 컴퓨터 그래픽을 실물 배경에 투사하는 광의의 개념으로 그 대상 영역이 확장되기에 이르렀다. The system for realizing such a composite reality is expanding its target area. Recently, the system has been separated from the real concept of composite reality in which real-life images are taken and synthesized with virtual objects or backgrounds on a computer. The subject area has been expanded to the concept of broad projection of computer graphics actively controlled by movement or characteristics on a real background.
특히 구조물 등의 입체 실물 배경에 영상을 투영하여 복합 현실을 구현할 수 있는데, 예를 들어 시공 도중의 실물 구조물에 완성 구조물의 컴퓨터 그래픽이 겹쳐지도록 이미지를 투영함으로써, 실사와 컴퓨터 그래픽이 조합되는 복합 현실을 구현할 수 있다. In particular, a complex reality can be realized by projecting an image onto a three-dimensional real background such as a structure. For example, a complex reality in which real-life and computer graphics are combined by projecting the image so that the computer graphic of the completed structure overlaps the real structure during construction. Can be implemented.
그러나 이를 위해서는 입체적인 구조를 갖는 건축물 등에 원하는 영상이 왜곡없이 투영되도록 하여야 한다. 도 1에 도시된 바와 같이 건축물이나 구조물 등은 그 외면이 일정하지 않고 입체적으로 구성될 뿐 아니라 각 면의 색상 또한 일정하지 않다. However, for this purpose, a desired image must be projected without distortion in a building having a three-dimensional structure. As shown in Figure 1, the building or the structure is not only the outer surface of the structure is composed of three-dimensional, but also the color of each surface is not constant.
이와 같은 입체 배경에 영상을 투사하기 위하여 건축물이나 구조물의 크기와 형상에 따라 적절한 수의 투사장치가 사용된다. 그러나 복잡한 기하물체나 색 또는 텍스쳐가 있는 현실공간에 원하는 영상을 색상이나 밝기, 형상 등의 왜곡 없이 이미지가 디스플레이되도록 하는 것은 매우 어려운 문제이다. In order to project an image on such a stereoscopic background, an appropriate number of projection apparatuses are used according to the size and shape of a building or structure. However, it is very difficult to allow an image to be displayed in a complex geometric object or a real space with colors or textures without distortion of color, brightness, shape, or the like.
따라서 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 입체배경에 투사되는 영상의 왜곡을 최소화할 수 있는 복합 현실 구현을 위한 영상 투사 방법을 제공하는 것이다. Accordingly, the present invention has been made to solve the above problems, an object of the present invention is to provide an image projection method for realizing a composite reality that can minimize the distortion of the image projected on a three-dimensional background.
본 발명의 다른 목적은 입체배경의 특성을 손쉽게 파악할 수 있는 복합 현실 구현을 위한 영상 투사 방법을 제공하는 것이다. Another object of the present invention is to provide an image projection method for realizing a composite reality that can easily grasp the characteristics of the three-dimensional background.
본 발명의 또 다른 목적은 입체배경의 특성에 따라 투사되는 영상 데이터의 보정을 수행할 수 있는 복합 현실 구현을 위한 영상 투사 방법을 제공하는 것이다. It is still another object of the present invention to provide an image projection method for realizing a composite reality that can perform correction of image data to be projected according to the characteristics of a stereoscopic background.
위와 같은 목적을 갖는 본 발명은 (A)영상 데이터를 투사할 입체배경을 삼차원 모델링하는 단계와; (B)상기 입체배경에 흑백 패턴 이미지를 투사한 후, 흑백 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와; (C) 상기 (B)단계에서 획득된 이미지를 상기 (A)단계에서 모델링한 입체배경 모델에 투영하는 단계와; (D) 상기 (B)단계에서 획득된 이미지의 흑백 패턴의 형상과 밝기를 이용하여 입체배경 모델의 특징점들의 삼차원 좌표를 보정하는 단계와; (E) 상기 (D)단계에서 보정된 특징점들의 삼차원 좌표를 이용하여, 인접한 세 개의 특징점들이 구성하는 각각의 삼각형 면의 위치와 방향정보를 산출하는 단계; 그리고 (F) 상기 (E)단계에서 산출된 삼각형 면의 위치와 방향정보를 이용하여, 각 삼각형 면에 투영될 영상 데이터의 화소를 결정하고, 각 삼각형 면에 투영될 화소의 명암을 보정하는 단계를 포함하여 수행된다. The present invention having the above object comprises the steps of: (A) three-dimensional modeling the three-dimensional background to project the image data; (B) projecting a black and white pattern image onto the three-dimensional background, and then obtaining an image of the three-dimensional background on which the black and white pattern image is projected; (C) projecting the image obtained in the step (B) to the three-dimensional background model modeled in the step (A); (D) correcting three-dimensional coordinates of the feature points of the three-dimensional background model by using the shape and brightness of the black and white pattern of the image obtained in the step (B); (E) calculating position and direction information of each triangular plane composed of three adjacent feature points by using three-dimensional coordinates of the feature points corrected in step (D); And (F) determining the pixel of the image data to be projected on each triangle plane by using the position and direction information of the triangle plane calculated in the step (E), and correcting the contrast of the pixel to be projected on each triangle plane. It is carried out including.
이때 상기 영상 투사 방법은, (L) 상기 입체배경에 색상 패턴 이미지를 투사한 후, 색상 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와; (M) 상기 (L)단계에서 획득된 이미지를 이용하여, 상기 (E)단계에서 산출된 삼각형 면의 각각의 색상정보를 산출하는 단계; 그리고 (N) 상기 (M)단계에서 산출된 삼각형 면의 색상정보를 이용하여, 상기 (F)단계에서 각 삼각형 면에 투영되도록 결정된 화소들의 색상을 보정하는 단계를 더 포함하여 수행될 수도 있다. In this case, the image projection method may include: (L) projecting a color pattern image onto the stereoscopic background, and then obtaining an image of the stereoscopic background onto which the color pattern image is projected; (M) calculating each color information of the triangular plane calculated in the step (E) by using the image obtained in the step (L); And (N) correcting the colors of the pixels determined to be projected on the respective triangular planes by using the color information of the triangular planes calculated in the step (M).
그리고 상기 영상 투사 방법은, 상기 (F)단계와 상기 (N)단계에서 보정된 영상 데이터를 상기 입체배경으로 투사하는 단계를 더 포함하여 수행될 수도 있다. The image projection method may further include projecting the image data corrected in steps (F) and (N) onto the stereoscopic background.
나아가 상기 (F)단계는, 삼각형 면의 위치와 방향정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 명암 보정값을 보정 전의 영상 데이터의 각 화소의 명암값에 가감함으로써 수행되고, 상기 (N)단계는, 삼각형 면의 색상정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 색상 보정값을 보정 전의 영상 데이터의 각 화소의 색상값에 가감함으로써 수행될 수도 있다. Further, step (F) is performed by adding or subtracting the contrast correction value of the pixel to be projected onto each triangle plane calculated using the position and the direction information of the triangle plane to the contrast value of each pixel of the image data before correction. Step N) may be performed by adding or subtracting the color correction value of the pixel to be projected onto each triangle plane calculated using the color information of the triangle plane to the color value of each pixel of the image data before the correction.
또한 상기 (F)단계와 상기 (N)단계는, 입체배경에 투사하고자 하는 영상 데이터가 동영상 데이터인 경우, 각 화소에 대한 상기 명암 보정값과 상기 색상 보정값을, 동영상 데이터에 포함된 각 영상 프레임의 동일한 위치의 모든 화소의 명암값과 색상값에 가감함으로써 수행될 수도 있다. Further, in the steps (F) and (N), when the image data to be projected on the stereoscopic background is moving image data, the contrast correction value and the color correction value for each pixel are included in each image included in the moving image data. It may also be performed by adding or subtracting the contrast values and the color values of all the pixels at the same position of the frame.
그리고 상기 (B)단계와 상기 (L)단계는, 보정된 영상 데이터가 투사되는 위치 및 각도와 동일한 각도 및 위치에서 수행될 수 있다. Steps (B) and (L) may be performed at the same angle and position as the position and angle at which the corrected image data is projected.
여기서 상기 (B) 내지 (F) 및 (L) 내지 (M)는, 보정된 영상 데이터가 상기 입체배경에 대하여 복수의 지점에서 투사되는 경우, 보정된 영상 데이터가 투사되는 각각의 지점에 대하여 개별적으로 수행될 수도 있다. Wherein (B) to (F) and (L) to (M) are individual for each point where the corrected image data is projected when the corrected image data is projected at a plurality of points with respect to the stereoscopic background. It may be performed as.
또한 상기 영상 투사 방법은, 복수의 지점에서 투사되는 각 영상 데이터가 서로 겹치는 부분에 대해 점진적으로 이미지가 섞이도록 하는 엣지 블렌딩 처리를 수행하는 단계를 더 포함하여 수행될 수도 있다. The image projection method may further include performing an edge blending process for gradually mixing the images with respect to portions where the image data projected from the plurality of points overlap each other.
이상에서 상세히 설명한 바와 같이 본 발명에 의한 복합 현실 구현을 위한 영상 투사 방법에 의하면 다음과 같은 효과를 기대할 수 있다.As described in detail above, according to the image projection method for realizing the composite reality according to the present invention, the following effects can be expected.
즉, 입체배경에 투사되는 영상의 왜곡을 최소화함으로서, 보다 높은 수준의 복합 현실을 구현할 수 있다는 장점이 있다. That is, by minimizing the distortion of the image projected on the three-dimensional background, there is an advantage that can realize a higher level of complex reality.
또한 본 발명에 의한 복합 현실 구현을 위한 영상 투사 방법에서는 입체배경의 특성을 손쉽게 파악하여 투사될 영상을 보정함으로서 영상 투사를 위한 준비과정에 소요되는 시간과 노동력, 비용을 절감할 수 있다는 장점이 있다. In addition, the image projection method for realizing the complex reality according to the present invention has the advantage of reducing the time, labor and cost required for the preparation process for image projection by easily grasping the characteristics of the three-dimensional background to correct the image to be projected .
도 1은 영상 투사 시스템을 이용하여 입체배경에 영상을 투사하는 예를 도시한 예시도.
도 2a는 본 발명의 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도.
도 2b는 본 발명의 다른 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도.
도 3은 본 발명의 실시예에 의한 입체배경으로의 영상 투사 방법을 단계적으로 도시한 흐름도.
도 4a는 패턴 이미지를 입체배경에 투사한 예시도.
도 4b는 패턴 이미지의 투사거리에 따른 밝기 변화를 나타낸 예시도.
도 5는 입체배경의 색채에 따라 보정된 이미지를 투사한 예시도.1 is an exemplary view showing an example of projecting an image on a stereoscopic background using an image projection system.
Figure 2a is a block diagram showing the configuration of an image projection system according to an embodiment of the present invention.
Fig. 2B is a block diagram showing the configuration of an image projection system according to another embodiment of the present invention.
3 is a flowchart illustrating a method of projecting an image onto a stereoscopic background according to an exemplary embodiment of the present invention.
4A is an exemplary view of projecting a pattern image on a three-dimensional background.
Figure 4b is an exemplary view showing a change in brightness according to the projection distance of the pattern image.
5 is an exemplary view of projecting an image corrected according to the color of a three-dimensional background.
이하에서는 상기한 바와 같은 본 발명에 의한 영상 투사 시스템 및 이를 이용한 영상 투사 방법을 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, an image projection system and an image projection method using the same according to the present invention will be described in detail with reference to the accompanying drawings.
도 2a는 본 발명의 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도이며, 도 2b는 본 발명의 다른 실시예에 의한 영상 투사 시스템의 구성을 도시한 블럭도이다.Figure 2a is a block diagram showing the configuration of an image projection system according to an embodiment of the present invention, Figure 2b is a block diagram showing the configuration of an image projection system according to another embodiment of the present invention.
도 2a에 도시된 바와 같이 본 발명의 실시예에 의한 영상 투사 시스템(100)에는 전체 시스템의 동작을 제어하는 제어장치(10)가 구비된다. 상기 제어장치(10)는 사용자의 명령에 따라 입체배경에 영상을 투사하고, 투사된 영상을 보정하여 다시 보정된 영상을 투사하는 역할을 한다.As shown in FIG. 2A, the
그리고 상기 제어장치에서 제공되는 영상 데이터는 분배장치(12)를 통해 복수의 투영장치(14)로 전달된다. 상기 분배장치(12)는 상기 제어장치(10)로부터 제공되는 영상 데이터 중 각각의 투영장치(14)에 할당된 데이터를 각각의 투영장치(14)로 분배한다.The image data provided by the control device is transferred to the plurality of
그에 따라 상기 분배장치(12)로부터 데이터를 할당받은 상기 투영장치(14)는 각각의 위치에서 할당된 영상 데이터를 빔(Beam)으로 출력하여 입체배경에 투사한다. Accordingly, the
이때 상기 투영장치(14)에 따라 각각 입체배경에 영상이 투사된 이미지를 실시간으로 감시하기 위한 모니터링 장치(16)가 각각의 투영장치(14)에 별도로 설치될 수 있다. In this case, according to the
그리고 상기 투영장치(14)에서 출력되는 빔과 동일한 화각에서 각각 영상이 투사된 이미지를 실시간으로 획득하기 위하여 상기 투영장치(14)에는 각각 카메라가 구비될 수 있다.The
그에 따라 상기 투영장치(14)에 각각 설치된 카메라에 의해 촬영된 이미지 또는 동영상을 상기 모니터링 장치(16)에 출력하여 입체배경에 영상 데이터가 원하는 바에 따라 투사되고 있는지 여부를 감시할 수 있게 된다.Accordingly, an image or a moving image photographed by a camera respectively installed in the
사용자는 상기 모니터링 장치(16)를 통해 출력되는 영상을 확인하여 투사되는 영상 데이터의 투사각도나 영상 데이터의 색상, 밝기 등을 상기 제어장치(10)를 통해 실시간으로 보정할 수 있다.The user may check the image output through the monitoring device 16 and correct the projection angle of the projected image data, the color, brightness, etc. of the image data in real time through the
한편 본 발명의 다른 실시예에 의한 영상 투사 시스템(100)은 도 2b에 도시된 바와 같이 입체 배경에 투사될 영상 데이터를 제공하는 서버(20)와 상기 서버(20)에서 제공되는 영상 데이터를 수신하여 각각의 투영장치(24)로 전달하는 제어장치(22)를 포함하여 구성된다.On the other hand, the
상기 제어장치(22)는 각각의 투영장치(24)가 설치된 위치와 빔의 투사 각도에 맞게 수신된 영상 데이터를 처리하여 상기 투영장치(24)로 전달한다. 따라서 상기 제어장치(22)는 상기 투영장치(24)마다 각각 하나씩 구비될 수 있다.The
그리고 상기 제어장치(22)에는 각각 상기 투영장치(24)에서 투사된 영상 데이터가 입체배경에 표시된 이미지나 동영상을 모니터링하기 위한 모니터링 장치가 각각 구비될 수 있다. In addition, each of the
또한 마찬가지로 상기 투영장치(24)에는 상기 투영장치(14)에서 출력되는 빔과 동일한 화각에서 각각 영상이 투사된 입체배경의 이미지를 실시간으로 획득하기 위한 카메라가 각각 구비될 수 있다.In addition, the
그에 따라 상기 투영장치(14)에 각각 설치된 카메라에 의해 촬영된 이미지 또는 동영상을 상기 제어장치(22)에서 확인할 수 있도록 한다.Accordingly, the
위에서 설명한 바와 같은 영상 투사 시스템을 이용하여 입체배경에 영상 데이터를 출력함에 있어서, 복수의 투영장치(14, 24)로부터 출력되어 입체배경에 투사된 각각의 영상의 색상이나 질감, 밝기 등이 서로 통일되도록 하고, 입체배경의 형상이나 색상 등에 의한 영상의 왜곡을 최소화하기 위해서는 영상 데이터를 입체배경에 투사하기 전에, 투사될 영상 데이터를 입체배경의 속성에 따라 미리 보정하는 과정이 수행되어야 한다. In outputting image data to a stereoscopic background using the image projection system as described above, the colors, textures, brightness, etc. of the respective images output from the plurality of
이하에서는 영상 데이터를 보정하여 입체 배경에 투사하는 과정을 도면을 참조하여 상세하게 설명한다.Hereinafter, a process of correcting image data and projecting it on a stereoscopic background will be described in detail with reference to the accompanying drawings.
도 3은 본 발명의 실시예에 의한 입체배경으로의 영상 투사 방법을 단계적으로 도시한 흐름도이고, 도 4a는 패턴 이미지를 입체배경에 투사한 예시도이며, 도 4b는 패턴 이미지의 투사거리에 따른 밝기 변화를 나타낸 예시도이다. 또한 도 5는 입체배경의 색채에 따라 보정된 이미지를 투사한 예시도이다.3 is a flowchart illustrating a method of projecting an image onto a stereoscopic background according to an exemplary embodiment of the present invention. FIG. 4A is an exemplary view of projecting a pattern image onto a stereoscopic background. FIG. 4B is a diagram illustrating a projection distance of a pattern image. It is an exemplary diagram showing a change in brightness. 5 is an exemplary view of projecting an image corrected according to the color of the stereoscopic background.
도 3에 도시된 바와 같이 입체 배경으로의 영상 투사 시스템을 이용한 영상 투사 방법에서는 우선 CAD 등 삼차원 모델링을 수행하는 응용프로그램을 이용하여 영상을 투사하고자 하는 입체배경의 개략적인 형상을 모델링하는 제100단계(S100)로부터 시작된다.As shown in FIG. 3, in the image projection method using an image projection system on a stereoscopic background, a first step of modeling a schematic shape of a stereoscopic background to project an image by using an application program for performing three-dimensional modeling such as CAD is performed. It starts from S100.
제100단계에서는 건축물이나 구조물 등 입체배경의 설계도면이나 실측된 수치 등을 이용하여 개략적인 입체배경의 외관 형상만을 모델링한다. In
그리고 상기 투영장치(14, 24)를 추후 영상 데이터를 투사할 위치와 동일한 위치와 각도 상에 설치한 후, 상기 투영장치(14, 24)를 통해 패턴 이미지를 입체배경에 투사하여, 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 제110단계(S110)를 수행한다. Then, the
제110단계에서 상기 투영장치(14, 24)를 통해 투사하는 패턴 이미지는 예를 들어 흑백 사각형이 바둑판 모양으로 서로 교차하는 이미지와 이를 반전시킨 이미지를 포함하는 흑백 패턴 이미지와, 빨강, 초록, 파랑색을 포함하는 패턴이 포함되는 색채 패턴 이미지를 포함한다. The pattern image projected through the
상기 투영장치(14, 24)는 이와 같이 흑백 패턴 이미지와 색상 패턴 이미지를 각각 입체배경에 복수회에 걸쳐 투사하고, 각각의 패턴 이미지가 투사된 입체배경의 이미지를 다시 획득한다. 여기서, 상기 흑백패턴 이미지와 색상 패턴이미지를 각각 투사하는 이유는 다음과 같다. 먼저, 상기 흑백패턴 이미지를 투사하는 이유는 투영장치(14)와 상기 투영장치(14)에 설치된 카메라의 위치를 맞추고, 또 실제공간의 카메라의 위치 값과 가상공간상의 가상 카메라의 위치를 맞추는 카메라 캘리브레이션(Camera Calibration)을 수행하고, 또 투영장치(14)에서 출력되는 빔이 맺히는 영역에 대한 x, y, z의 정보를 알기 위한 것이고, 또 실제 공간에서 빔이 맺히는 영역의 밝기 값을 알아보기 위한 것이다. 이렇게 하면, 이후 수행되는 보정과정에서 입체배경에 투사될 영상데이터의 화소를 결정하여 화소의 명암을 보정할 수 있게 된다. 또한 상기 색상패턴 이미지를 투사하는 이유는 영상 데이터가 투사되는 면의 색상 정보를 획득하여, 그 투사된 영상의 색상이나 질감, 밝기 등이 서로 통일되도록 하기 위한 것이다. 이렇게 하면 이후 수행되는 보정과정에서 입체배경에 투사되도록 결정된 화소들의 색상을 보정할 수 있게 된다.The projection apparatuses 14 and 24 project the black and white pattern image and the color pattern image on the stereoscopic background a plurality of times, respectively, and acquire the image of the stereoscopic background on which each pattern image is projected. The reason for projecting the black and white pattern image and the color pattern image, respectively, is as follows. First, the reason for projecting the black and white pattern image is a camera that matches the position of the
이때 패턴 이미지가 투사된 입체배경의 이미지를 획득하기 위해서 상기 투영장치(14, 24)의 빔 투사 위치 및 각도와 동일한 위치와 각도에 상기 투영장치(14, 24)와 일체로 또는 별개로 구비되는 카메라 장치를 이용한다. In this case, in order to obtain an image of a stereoscopic background on which a pattern image is projected, the projection image is provided integrally or separately from the
그에 따라 상기 제110단계에서 획득되는 이미지들은 모두 상기 투영장치(14, 24)가 추후 입체배경에 실제 투영하고자 하는 영상 데이터를 투사할 위치와 동일한 위치와 각도에서 획득된 것이다.Accordingly, the images acquired in step 110 are all acquired at the same position and angle as the position at which the
그리고나서 상기 제110단계에서 획득된 이미지를 제100단계에서 삼차원 모델링한 입체배경 모델에 투영하는 제120단계(S120)가 수행된다. 여기서, 상기 삼차원 모델링한 입체배경 모델에 투영되는 이미지는 상기 흑백패턴 이미지를 투사하여 획득한 이미지 및 상기 색상패턴 이미지를 투사하여 획득한 이미지를 순차적으로 투영되게 한다. Then, in operation 120 (S120), the image acquired in operation 110 is projected onto the three-dimensional model of the three-dimensional modeled model in
먼저, 상기 흑백패턴 이미지를 투사하여 획득한 이미지를 투영하는 것이다. 즉, 상기 제120단계에서 흑백 패턴 이미지가 투영된 입체 배경의 이미지를 상기 입체배경 모델에 투영한 결과로부터, 삼차원 모델링한 입체배경 모델의 복수의 특징점들의 각각의 좌표를 보정하는 제130단계(S130)가 수행된다. First, the image obtained by projecting the black and white pattern image is projected. That is, in operation 120, the coordinates of the plurality of feature points of the three-dimensional modeled stereoscopic background model are corrected from the result of projecting the stereoscopic background image on which the black and white pattern image is projected onto the stereoscopic background model in step 120 (S130). ) Is performed.
여기서 상기 특징점들의 수는 사용자에 의해 적절하게 선택될 수 있다. The number of feature points may be appropriately selected by the user.
입체배경 모델에서 많은 특징점을 추출할수록 입체배경 모델이 실제 입체배경과 유사해져 투사되는 영상의 질도 높아진다는 이점이 있으나, 특징점이 과도하게 많이 추출되면 각각의 특징점들의 좌표를 산출하고, 그에 따라 투사될 영상을 보정하기 위하여 처리해야할 데이터의 양이 많아진다는 단점이 있으므로, 추출되는 특징점의 수는 사용자에 의하여 적절하게 선택될 수 있다. The more feature points are extracted from the three-dimensional background model, the more the three-dimensional background model is similar to the actual three-dimensional background, so that the quality of the projected image is higher. However, if too many feature points are extracted, the coordinates of each feature point are calculated, and the projection is performed accordingly. Since there is a disadvantage that the amount of data to be processed to correct the image to be increased, the number of feature points to be extracted can be appropriately selected by the user.
그리고 상기 특징점들은 입체배경 모델의 특정 위치에 집중적으로 분포하지 않고, 입체배경 모델의 전체적인 영역에 골고루 분포되도록 할 수 있으며, 사용자에 의하여 그 위치가 선택될 수도 있다. The feature points may not be intensively distributed at a specific position of the stereoscopic background model, but may be evenly distributed over the entire region of the stereoscopic background model, and the position may be selected by the user.
이때 좌표의 보정은, 일정한 흑백 패턴 이미지가 입체배경에 투사됨으로써 왜곡된 패턴의 형상과 변화된 밝기값을 이용하여 이루어진다. At this time, the coordinates are corrected by using the shape of the distorted pattern and the changed brightness value by projecting a constant black and white pattern image onto the three-dimensional background.
도 4a에 도시된 바와 같이 예를 들어 직사각형 형상의 패턴을 입체 배경에 투사하면, 입체배경의 각 면이 이루는 각도에 따라 투사된 패턴이 왜곡된다. For example, as shown in FIG. 4A, when a rectangular pattern is projected onto a three-dimensional background, the projected pattern is distorted according to an angle formed by each surface of the three-dimensional background.
따라서 각 패턴에 포함되는 점들의 위치 변화를 통해서 패턴이 투사된 입체 배경의 각 면이 이루는 각도를 산출할 수 있다. Therefore, an angle formed by each surface of the three-dimensional background on which the pattern is projected may be calculated by changing the position of the points included in each pattern.
나아가 도 4b에 도시된 바와 같이 동일한 패턴의 이미지를 빔으로 출력하더라도 이를 반사하는 입체배경의 거리에 따라 반사되는 패턴의 밝기가 달라지는데, 거리가 멀어질수록 반사도가 낮아져 패턴이 어둡게 표시된다. Furthermore, as shown in FIG. 4B, even when the image of the same pattern is output as a beam, the brightness of the reflected pattern varies according to the distance of the three-dimensional background reflecting the same. The longer the distance, the lower the reflectivity and the darker the pattern is displayed.
따라서 제130단계에서는 흑백 패턴 이미지를 투사하여 획득한 이미지를 삼차원 모델링된 입체배경 모델에 투영한 후 각각의 특징점이 위치한 패턴의 형상이나 밝기값 등을 이용하여 특징점들의 삼차원 좌표를 보다 정확하게 보정한다. Therefore, in operation 130, the image obtained by projecting the black and white pattern image is projected onto the three-dimensional modeled stereoscopic background model, and then the three-dimensional coordinates of the feature points are more accurately corrected by using the shape or brightness value of the pattern where each feature point is located.
또한 제140단계(S140)에서는 제130단계에서 보정된 각 특징점들의 삼차원 좌표값을 이용하여 인접한 세 개의 특징점이 이루는 삼각형 면의 방향 정보를 산출한다. In operation 140, the direction information of the triangular plane formed by three adjacent feature points is calculated by using three-dimensional coordinate values of the feature points corrected in operation 130.
다음, 상기 색채패턴 이미지를 투사하여 획득한 이미지를 투영하는 것이다. 즉, 제150단계(S150)에서는 제110단계에서 획득된 복수의 이미지 중 색채 패턴 이미지를 입체 배경에 투사하여 획득한 이미지를 이용하여, 제140단계에서 방향 정보를 산출한 각각의 삼각형 면의 색상 정보를 산출한다. Next, the image obtained by projecting the color pattern image is projected. That is, in step 150 (S150), the color of each triangular plane whose direction information is calculated in step 140 using an image obtained by projecting a color pattern image of the plurality of images acquired in step 110 onto a stereoscopic background. Calculate the information.
즉, 각각의 삼각형 면의 빨강, 초록, 파랑색 광에 대한 채도를 산출한다. That is, the saturation of the red, green, and blue light of each triangular plane is calculated.
상기 제150단계에서 색상 정보를 산출하는 것은, 입체배경이 하나의 일정한 색상을 띄지 않는 경우, 각각의 면의 색상 차이에 의하여 투사되는 영상에 색상이 왜곡되는 것을 방지하기 위함이다.The color information is calculated in operation 150 to prevent the color from being distorted in the projected image due to the color difference of each surface when the stereoscopic background does not have one constant color.
예를 들어 도 5에 도시된 바와 같이 바둑판 무늬의 입체배경에 영상을 투영하는 경우, 투영된 영상과 입체배경의 무늬가 합쳐져서 원하는 영상을 얻을 수 없게 된다. For example, when the image is projected on the checkered stereoscopic background as shown in FIG. 5, the projected image and the pattern of the stereoscopic background are combined to obtain a desired image.
따라서 투사하고자 하는 영상을 미리 복수의 단위로 나누어 채도를 보정함으로써 영상의 색상 왜곡을 최소화할 수 있다. Therefore, color distortion of the image may be minimized by dividing the image to be projected into a plurality of units in advance to correct saturation.
이에 따라 제140단계에서 산출된 각 삼각형 면의 방향 정보와, 제150단계에서 산출된 각 삼각형 면의 색상 정보를 이용하여 실제로 입체배경에 투사하고자 하는 영상 데이터의 밝기와 색상을 보정하는 제160단계(S160)가 수행된다. Accordingly, the 160th step of correcting the brightness and the color of the image data to be actually projected on the three-dimensional background using the direction information of each triangular plane calculated in step 140 and the color information of each triangular plane calculated in step 150. S160 is performed.
제160단계에서는 투사될 영상 데이터를 특징점들이 이루는 각각의 삼각형 면에 투영될 화소를 결정하고, 각각의 삼각형 면의 각도와 색상을 고려하여 화소들의 밝기와 색상 등을 보정함으로써 이루어진다. In operation 160, the pixels to be projected on the respective triangular planes of the feature points of the image data to be projected are determined, and the brightness and the color of the pixels are corrected in consideration of angles and colors of the triangular planes.
즉, 제140단계에서 산출된 각 삼각형 면의 위치와 방향에 따라 각 삼각형 면에 투영될 영상 데이터의 화소를 결정하고, 각각의 삼각형 면으로 투사되도록 결정된 화소들의 명암와 색상이 보정된다. That is, the pixels of the image data to be projected on the respective triangular planes are determined according to the positions and directions of the triangular planes calculated in operation 140, and the contrast and the color of the pixels determined to be projected on the triangular planes are corrected.
이때 각 삼각형 면에 투영될 영상 데이터의 화소를 결정함에 있어서, 삼각형 면의 위치와 함께 삼각형 면이 기울어진 정도에 따라 하나의 삼각형 면에 투영될 화소의 범위가 결정된다. At this time, in determining the pixel of the image data to be projected on each triangular plane, the range of pixels to be projected on one triangular plane is determined according to the position of the triangular plane and the degree of inclination of the triangular plane.
예를 들어 하나의 삼각형 면이 빔의 투사 방향에 수평한 방향으로 다소 기울어져 있는 경우, 동일한 넓이를 가진 빔의 투사 방향에 수직한 삼각형 면에 투사되는 화소보다 적은 수의 화소가 해당 삼각형 면으로 투사되도록 결정될 수 있다. For example, if one triangular plane is slightly inclined in a direction horizontal to the beam's projection direction, fewer pixels are projected into the triangle plane than pixels projected on the triangle plane perpendicular to the projection direction of the beam with the same width. It can be determined to be projected.
그리고 각 삼각형 면으로 투사되도록 결정된 화소들의 명암과 색상을 보정함에 있어서, 영상 데이터에 포함된 각각의 화소의 원래의 명암값과 색상값에 보정해야할 명암값과 색상값이 더해지거나 차감되도록 함으로써, 동영상과 같이 데이터 처리량이 많은 영상 데이터를 입체배경에 투영할 때도 입체배경의 특성에 따라 영상 데이터가 신속하게 보정될 수 있도록 한다. And in correcting the contrast and color of the pixels determined to be projected to each triangular plane, by adding or subtracting the contrast value and color value to be corrected to the original contrast value and color value of each pixel included in the image data, As described above, even when image data having a large data throughput is projected onto a stereoscopic background, the image data can be quickly corrected according to the characteristics of the stereoscopic background.
그리고 패턴 이미지를 투사하고 획득한 위치 및 각도와 동일한 위치 및 각도에서 제160단계에서 보정된 영상 데이터를 입체배경에 투사하는 제170단계(S170)가 수행된다. 제170단계에서는, 투영되는 영상 데이터를 실시간으로 추가 보정하는 과정이 함께 수행될 수도 있다. In operation S170, projection of the pattern image and projection of the image data corrected in operation 160 on the stereoscopic background is performed at the same position and angle as the acquired position and angle. In operation 170, a process of additionally correcting the projected image data in real time may be performed together.
한편 실시예에 따라서는, 제170단계에서 입체배경에 보정된 영상 데이터를 투사하면서 상기 제어장치(10, 22)를 통해 투사되는 영상 데이터에 다양한 실시간 효과를 더할 수 있다. According to an exemplary embodiment, various real-time effects may be added to the image data projected through the
즉 삼차원 모델링된 입체배경 모델에 실시간으로 특정 효과를 첨가하면 실제로 입체배경에 투사되는 영상 데이터에도 해당 효과가 반영되도록 할 수 있다. In other words, if a specific effect is added to the three-dimensional modeled three-dimensional background model in real time, the effect may be reflected in the image data projected on the three-dimensional background.
예를 들어, 입체배경에 특정 방향으로 빛과 그림자가 형성되는 것과 같은 효과나, 컴퓨터 그래픽에 의한 가상 객체가 나타나거나 움직이도록 하는 효과, 실시간으로 핸드 드로잉되는 이미지가 입체배경에 투영되도록 하는 효과 등 다양한 부가적인 효과를 추가할 수 있다. For example, effects such as light and shadows being formed in a specific direction on a stereoscopic background, virtual objects appearing or moving by computer graphics, and effects such that images drawn in real time are projected on the stereoscopic background, etc. Various additional effects can be added.
또한 제160단계에서 영상 데이터를 보정함에 있어서, 복수의 투영장치(14, 24)에서 투사되는 이미지가 겹치는 부분에 대해 점진적으로 이미지가 섞이도록 하는 그라데이션(Gradation) 효과를 이용한 엣지 블렌딩(Edge-Blending) 처리를 할 수도 있다. 이를 위해서는 미리 입체배경에 각각의 투영장치(14, 24)를 이용하여 영상을 투영한 후 겹치는 부분을 검출한 후, 이미지가 겹치는 부분으로 투영될 화소들의 명암과 색상들을 보정해야한다. Also, in correcting the image data in operation 160, edge blending using a gradation effect to gradually blend the images of the overlapped portions of the images projected by the plurality of
본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.
100: 영상 투사 시스템 10: 제어장치
12: 분배장치 14: 투영장치
16: 모니터링 장치 20: 서버
22: 제어장치 24: 투영장치100: image projection system 10: controller
12: distribution device 14: projection device
16: monitoring device 20: server
22: control unit 24: projection unit
Claims (8)
(B)상기 입체배경에 흑백 패턴 이미지를 투사한 후, 흑백 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와;
(C) 상기 (B)단계에서 획득된 이미지를 상기 (A)단계에서 모델링한 입체배경 모델에 투영하는 단계와;
(D) 상기 (B)단계에서 획득된 이미지의 흑백 패턴의 형상과 밝기를 이용하여 입체배경 모델의 특징점들의 삼차원 좌표를 보정하는 단계와;
(E) 상기 (D)단계에서 보정된 특징점들의 삼차원 좌표를 이용하여, 인접한 세 개의 특징점들이 구성하는 각각의 삼각형 면의 위치와 방향정보를 산출하는 단계; 그리고
(F) 상기 (E)단계에서 산출된 삼각형 면의 위치와 방향정보를 이용하여, 각 삼각형 면에 투영될 영상 데이터의 화소를 결정하고, 각 삼각형 면에 투영될 화소의 명암을 보정하는 단계를 포함하여 수행됨을 특징으로 하는 영상 투사 방법. (A) three-dimensional modeling of the three-dimensional background to project the image data;
(B) projecting a black and white pattern image onto the three-dimensional background, and then obtaining an image of the three-dimensional background on which the black and white pattern image is projected;
(C) projecting the image obtained in the step (B) to the three-dimensional background model modeled in the step (A);
(D) correcting three-dimensional coordinates of the feature points of the three-dimensional background model by using the shape and brightness of the black and white pattern of the image obtained in the step (B);
(E) calculating position and direction information of each triangular plane composed of three adjacent feature points by using three-dimensional coordinates of the feature points corrected in step (D); And
(F) determining the pixel of the image data to be projected on each triangular plane by using the position and direction information of the triangular plane calculated in step (E), and correcting the contrast of the pixel to be projected on each triangular plane. Image projection method comprising the.
상기 영상 투사 방법은,
(L) 상기 입체배경에 색상 패턴 이미지를 투사한 후, 색상 패턴 이미지가 투사된 입체배경의 이미지를 획득하는 단계와;
(M) 상기 (L)단계에서 획득된 이미지를 이용하여, 상기 (E)단계에서 산출된 삼각형 면의 각각의 색상정보를 산출하는 단계; 그리고
(N) 상기 (M)단계에서 산출된 삼각형 면의 색상정보를 이용하여, 상기 (F)단계에서 각 삼각형 면에 투영되도록 결정된 화소들의 색상을 보정하는 단계를 더 포함하여 구성됨을 특징으로 하는 영상 투사 방법. The method of claim 1,
The image projection method,
(L) projecting a color pattern image onto the stereoscopic background, and then obtaining an image of the stereoscopic background onto which the color pattern image is projected;
(M) calculating each color information of the triangular plane calculated in the step (E) by using the image obtained in the step (L); And
And (N) correcting the colors of the pixels determined to be projected on the respective triangular planes by using the color information of the triangular planes calculated in the step (M). Projection method.
상기 영상 투사 방법은,
상기 (F)단계와 상기 (N)단계에서 보정된 영상 데이터를 상기 입체배경으로 투사하는 단계를 더 포함하여 수행됨을 특징으로 하는 영상 투사 방법. The method of claim 2,
The image projection method,
And projecting the image data corrected in steps (F) and (N) onto the stereoscopic background.
상기 (F)단계는,
삼각형 면의 위치와 방향정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 명암 보정값을 보정 전의 영상 데이터의 각 화소의 명암값에 가감함으로써 수행되고,
상기 (N)단계는,
삼각형 면의 색상정보를 이용하여 산출된 각 삼각형 면에 투사될 화소의 색상 보정값을 보정 전의 영상 데이터의 각 화소의 색상값에 가감함으로써 수행되는 것을 특징으로 하는 영상 투사 방법. The method of claim 3,
Step (F) is,
It is performed by adding or subtracting the contrast correction value of the pixel to be projected to each triangle plane calculated using the position and the direction information of the triangle plane to the contrast value of each pixel of the image data before correction,
Step (N),
And adding or subtracting a color correction value of a pixel to be projected onto each triangle plane by using color information of the triangle plane to a color value of each pixel of the image data before correction.
상기 (F)단계와 상기 (N)단계는,
입체배경에 투사하고자 하는 영상 데이터가 동영상 데이터인 경우, 각 화소에 대한 상기 명암 보정값과 상기 색상 보정값을, 동영상 데이터에 포함된 각 영상 프레임의 동일한 위치의 모든 화소의 명암값과 색상값에 가감함으로써 수행되는 것을 특징으로 하는 영상 투사 방법. The method of claim 4, wherein
Step (F) and step (N),
When the image data to be projected on the stereoscopic background is moving image data, the contrast correction value and the color correction value for each pixel are applied to the contrast values and the color values of all pixels at the same position of each image frame included in the moving image data. The image projection method characterized in that it is performed by adding and subtracting.
상기 (B)단계와 상기 (L)단계는,
보정된 영상 데이터가 투사되는 위치 및 각도와 동일한 각도 및 위치에서 수행됨을 특징으로 하는 영상 투사 방법. The method of claim 3,
Step (B) and step (L),
And the corrected image data is performed at the same angle and position as the projected position and angle.
상기 (B) 내지 (F) 및 (L) 내지 (M)는,
보정된 영상 데이터가 상기 입체배경에 대하여 복수의 지점에서 투사되는 경우, 보정된 영상 데이터가 투사되는 각각의 지점에 대하여 개별적으로 수행됨을 특징으로 하는 영상 투사 방법. The method of claim 6,
(B) to (F) and (L) to (M),
And when the corrected image data is projected at a plurality of points against the stereoscopic background, the corrected image data is individually performed for each point to be projected.
상기 영상 투사 방법은,
복수의 지점에서 투사되는 각 영상 데이터가 서로 겹치는 부분에 대해 점진적으로 이미지가 섞이도록 하는 엣지 블렌딩 처리를 수행하는 단계를 더 포함하여 수행됨을 특징으로 하는 영상 투사 방법. The method of claim 7, wherein
The image projection method,
And performing an edge blending process for gradually mixing the images with respect to the portions where the image data projected from the plurality of points overlap each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100085055A KR101031062B1 (en) | 2010-08-31 | 2010-08-31 | Method for projecting video data for materializing mixed reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100085055A KR101031062B1 (en) | 2010-08-31 | 2010-08-31 | Method for projecting video data for materializing mixed reality |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101031062B1 true KR101031062B1 (en) | 2011-04-25 |
Family
ID=44050548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100085055A KR101031062B1 (en) | 2010-08-31 | 2010-08-31 | Method for projecting video data for materializing mixed reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101031062B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014010944A1 (en) * | 2012-07-12 | 2014-01-16 | Cj Cgv Co., Ltd. | Projection device management system |
WO2014010940A1 (en) * | 2012-07-12 | 2014-01-16 | Cj Cgv Co., Ltd. | Image correction system and method for multi-projection |
CN103765311A (en) * | 2012-07-12 | 2014-04-30 | Cjcgv株式会社 | Projection device management system |
CN103901708A (en) * | 2014-04-11 | 2014-07-02 | 深圳大学 | Projection lighting method and projection lighting device with invisible planar graph face |
KR101455662B1 (en) | 2014-01-23 | 2014-10-28 | 씨제이씨지브이 주식회사 | System and method of image correction for multi-projection |
WO2015030322A1 (en) * | 2013-08-26 | 2015-03-05 | Cj Cgv Co., Ltd. | Guide image generation device and method using parameters |
KR101553266B1 (en) * | 2015-02-26 | 2015-09-16 | 씨제이씨지브이 주식회사 | Apparatus and method for generating guide image using parameter |
US9298071B2 (en) | 2012-07-12 | 2016-03-29 | Cj Cgv Co., Ltd. | Multi-projection system |
KR101793192B1 (en) * | 2016-01-28 | 2017-11-02 | 허상훈 | Apparatus for realizing augmented reality using multiple projector and method thereof |
WO2019124583A1 (en) * | 2017-12-20 | 2019-06-27 | Cj Cgv Co., Ltd. | System and method for monitoring multi-projection theater |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040056489A (en) * | 2002-12-23 | 2004-07-01 | 한국전자통신연구원 | System and Method for Distortion free projection display on arbritrary display surface |
KR20080087038A (en) * | 2006-02-20 | 2008-09-29 | 마츠시다 덴코 가부시키가이샤 | Image signal processing apparatus and virtual reality creating system |
KR100943292B1 (en) | 2009-08-07 | 2010-02-23 | (주)옴니레이저 | Image projection system and method for projection image using the same |
-
2010
- 2010-08-31 KR KR1020100085055A patent/KR101031062B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040056489A (en) * | 2002-12-23 | 2004-07-01 | 한국전자통신연구원 | System and Method for Distortion free projection display on arbritrary display surface |
KR20080087038A (en) * | 2006-02-20 | 2008-09-29 | 마츠시다 덴코 가부시키가이샤 | Image signal processing apparatus and virtual reality creating system |
KR100943292B1 (en) | 2009-08-07 | 2010-02-23 | (주)옴니레이저 | Image projection system and method for projection image using the same |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103765311B (en) * | 2012-07-12 | 2015-07-15 | Cjcgv株式会社 | Projection device management system |
WO2014010940A1 (en) * | 2012-07-12 | 2014-01-16 | Cj Cgv Co., Ltd. | Image correction system and method for multi-projection |
CN103765311A (en) * | 2012-07-12 | 2014-04-30 | Cjcgv株式会社 | Projection device management system |
KR101391377B1 (en) * | 2012-07-12 | 2014-05-07 | 씨제이씨지브이 주식회사 | Multi-Projection System |
KR101391379B1 (en) * | 2012-07-12 | 2014-05-07 | 씨제이씨지브이 주식회사 | System for managing projectors |
KR101391380B1 (en) * | 2012-07-12 | 2014-05-07 | 씨제이씨지브이 주식회사 | System and method of image correction for multi-projection |
US9817305B2 (en) | 2012-07-12 | 2017-11-14 | Cj Cgv Co., Ltd. | Image correction system and method for multi-projection |
US9298071B2 (en) | 2012-07-12 | 2016-03-29 | Cj Cgv Co., Ltd. | Multi-projection system |
KR101470836B1 (en) * | 2012-07-12 | 2014-12-09 | 씨제이씨지브이 주식회사 | Multi-projection system comprising projection surface having non-sold material |
US9134594B2 (en) | 2012-07-12 | 2015-09-15 | Cj Cgv Co., Ltd | Projection device management system |
WO2014010944A1 (en) * | 2012-07-12 | 2014-01-16 | Cj Cgv Co., Ltd. | Projection device management system |
KR101526294B1 (en) * | 2013-08-26 | 2015-06-05 | 씨제이씨지브이 주식회사 | Apparatus and method for generating guide image using parameter |
WO2015030322A1 (en) * | 2013-08-26 | 2015-03-05 | Cj Cgv Co., Ltd. | Guide image generation device and method using parameters |
US9479747B2 (en) | 2013-08-26 | 2016-10-25 | Cj Cgv Co., Ltd. | Guide image generation device and method using parameters |
KR101455662B1 (en) | 2014-01-23 | 2014-10-28 | 씨제이씨지브이 주식회사 | System and method of image correction for multi-projection |
CN103901708A (en) * | 2014-04-11 | 2014-07-02 | 深圳大学 | Projection lighting method and projection lighting device with invisible planar graph face |
KR101553266B1 (en) * | 2015-02-26 | 2015-09-16 | 씨제이씨지브이 주식회사 | Apparatus and method for generating guide image using parameter |
KR101793192B1 (en) * | 2016-01-28 | 2017-11-02 | 허상훈 | Apparatus for realizing augmented reality using multiple projector and method thereof |
WO2019124583A1 (en) * | 2017-12-20 | 2019-06-27 | Cj Cgv Co., Ltd. | System and method for monitoring multi-projection theater |
US10452060B2 (en) | 2017-12-20 | 2019-10-22 | Cj Cgv Co., Ltd. | System and method for monitoring multi-projection theater |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101031062B1 (en) | Method for projecting video data for materializing mixed reality | |
US11269244B2 (en) | System and method for calibrating a display system using manual and semi-manual techniques | |
US7557812B2 (en) | Multilevel texture processing method for mapping multiple images onto 3D models | |
JP7007348B2 (en) | Image processing equipment | |
KR102692888B1 (en) | Point cloud colorization system using real-time 3D visualization | |
US20150325044A1 (en) | Systems and methods for three-dimensional model texturing | |
JPH0344780A (en) | Texture mapping method | |
CN111369660B (en) | Seamless texture mapping method of three-dimensional model | |
US11027201B2 (en) | Composing an image | |
CN108076332B (en) | System and method for digital black level blending | |
US11022435B2 (en) | Pattern projection depth value 3D scanning device and method | |
US6297834B1 (en) | Direction-dependent texture maps in a graphics system | |
US20110012911A1 (en) | Image processing apparatus and method | |
CN112770095B (en) | Panoramic projection method and device and electronic equipment | |
JPH0997344A (en) | Method and system for texture generation | |
JP2007272847A (en) | Lighting simulation method and image composition method | |
Zoido et al. | Optimized methods for multi-projector display correction | |
Hanusch | A new texture mapping algorithm for photorealistic reconstruction of 3D objects | |
WO2024034437A1 (en) | Simulation device, simulation method, and computer program | |
US20230127730A1 (en) | System and method for projection mapping | |
US12020094B2 (en) | Image processing device, printing system, and non-transitory computer-readable storage medium storing image processing program that render three dimensional (3D) object | |
Kohtani et al. | Displacement Projection Mapping: a Projection Method to Add Geometric Features beyond the Boundary of the Real Object | |
JP2023111638A (en) | Information processing device, information processing method, and program | |
JPH0410178A (en) | Device for producing stereoscopic picture having quality peculiar to metal | |
JP2006309613A (en) | Image adjustment method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140417 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150609 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170818 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20180409 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190318 Year of fee payment: 9 |
|
R401 | Registration of restoration |