KR20090002698A - Apparatus and method for calibration of projected image - Google Patents

Apparatus and method for calibration of projected image Download PDF

Info

Publication number
KR20090002698A
KR20090002698A KR1020070066638A KR20070066638A KR20090002698A KR 20090002698 A KR20090002698 A KR 20090002698A KR 1020070066638 A KR1020070066638 A KR 1020070066638A KR 20070066638 A KR20070066638 A KR 20070066638A KR 20090002698 A KR20090002698 A KR 20090002698A
Authority
KR
South Korea
Prior art keywords
image
correction
series
identifier
images
Prior art date
Application number
KR1020070066638A
Other languages
Korean (ko)
Inventor
빙한
하이송 슈
원하이 조우
방유선
박두식
이승신
한영란
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070066638A priority Critical patent/KR20090002698A/en
Publication of KR20090002698A publication Critical patent/KR20090002698A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)

Abstract

An apparatus and a method for correcting a projected image are provided to correct a projected image by reflecting a geometrical characteristic of a screen on a calculated projection surface, there more accuately modeling the geometrical characteristic of the projection surface. An apparatus(100) for correcting a projected image comprises an encoding unit(110), a projection unit(120), a photographing unit(130), a preprocessor(140), a detection unit(150), a decoding unit(160), a matching block(170), a correction value calculation unit(180), a storage unit(190) and a correction unit(195). The projection unit projects an image for correction and a series of coding images having a different color pattern to a projection surface. The correction value calculation unit calculates a geometrical characteristic based on the projected correction image and the first and second photographing images in which a series of coding images is photographed. The correction unit corrects an input image to be projected on the projection surface by reflecting the calculated geometrical characteristic of the projection surface.

Description

투사 영상을 보정하는 장치 및 방법{Apparatus and method for calibration of projected image}Apparatus and method for calibration of projected image}

본 발명은 영상 보정에 관한 것으로서, 더욱 상세하게는 투사 영상을 보정하는 방법 및 장치에 관한 것이다.The present invention relates to image correction, and more particularly, to a method and apparatus for correcting a projection image.

최근, 휴대용 프로젝터의 보급이 확대됨에 따라, 프로젝터용으로 보급되는 스크린뿐만 아니라, 벽이나 커튼 등 임의의 투사면에 영상 프레임을 투사시키기 위하여, 투사면의 특성으로 인한 영상 프레임의 왜곡 현상을 보정할 수 있는 기술에 대한 요구가 증가하고 있다.In recent years, as the spread of portable projectors has been expanded, in order to project image frames to arbitrary projection surfaces such as walls and curtains, as well as screens that are widely used for projectors, distortion of image frames due to characteristics of the projection surfaces may be corrected. There is an increasing demand for technology that can be used.

일반적으로, 프로젝터를 이용한 디스플레이 시스템은 평면의 스크린에 영상 프레임을 투사함으로써 영상 프레임을 디스플레이한다. 그런데, 스크린이 자체적으로 색상을 가지고 있는 경우, 스크린에 투사된 영상 프레임은 실제의 영상 프레임에 비하여 왜곡된 색상을 갖게 된다. 뿐만 아니라, 스크린이 완전한 평면이 아닌 경우 스크린의 굴곡으로 인한 기하학적 왜곡 현상이 투사된 영상 프레임에 발생할 수 있다. In general, a display system using a projector displays an image frame by projecting the image frame onto a flat screen. However, when the screen has its own color, the image frame projected on the screen has a distorted color as compared with the actual image frame. In addition, when the screen is not a perfect plane, geometric distortion due to the curvature of the screen may occur in the projected image frame.

때문에 투사된 영상 프레임의 왜곡을 보정하기 위해서는 스크린의 색상적 특 성과 기하학적 특성을 모델링하여야 한다. 스크린의 특성을 모델링 하기 위한 종래 기술에 따르면 영상 프레임을 투사하기 전에, 스크린에 소정의 패턴 영상을 투사하고, 투사된 패턴 영상을 카메라로 촬영함으로써 투사시킨 패턴 영상과 촬영된 패턴 영상을 비교하는 작업이 선행되었다. 투사시킨 패턴과 촬영된 패턴의 비교 결과를 통해서 스크린의 특성을 나타내는 함수를 구할 수 있으며, 구해진 함수의 역함수를 투사시킬 영상 프레임에 적용하면, 사용자는 스크린의 특성으로 인한 왜곡 현상이 보정된 영상 프레임을 볼 수 있게 된다. Therefore, in order to correct the distortion of the projected image frame, color and geometric characteristics of the screen must be modeled. According to the prior art for modeling the characteristics of the screen, before projecting the image frame, the operation of comparing the projected pattern image and the photographed pattern image by projecting a predetermined pattern image on the screen and shooting the projected pattern image with a camera This was preceded. A function representing the characteristics of the screen can be obtained by comparing the projected pattern with the photographed pattern. When the inverse function of the obtained function is applied to the image frame to be projected, the user can correct the distortion due to the characteristics of the screen. You will be able to see

그런데 종래의 기술은, 스크린이 패턴 영상과 상쇄되는 패턴을 가지는 경우, 스크린의 기하학적 특성을 정확하게 모델링하기 어렵다는 문제가 있다. 예를 들어, 세로 줄무늬의 패턴을 갖는 벽면에 세로 줄무늬의 패턴 영상이 투사된다면, 투사된 영상을 촬영하였을 때 벽면의 세로 줄무늬와 패턴 영상의 세로 줄무늬를 구분하기가 어렵다. 그 결과, 벽면의 기하학적 특성을 정확하게 모델링하기가 어렵다. However, the conventional technology has a problem that it is difficult to accurately model the geometrical characteristics of the screen when the screen has a pattern that cancels the pattern image. For example, if the pattern image of the vertical stripe is projected on the wall having the pattern of the vertical stripe, it is difficult to distinguish between the vertical stripe of the wall and the vertical stripe of the pattern image when the projected image is taken. As a result, it is difficult to accurately model the wall geometry.

따라서, 스크린의 기하학적 특성을 보다 정확하게 모델링할 수 있는 기술이 요구된다.Therefore, a technique for more accurately modeling the geometrical characteristics of the screen is required.

본 발명은 투사면의 기하학적 특성을 보다 정확하게 모델링하는데 그 목적이 있다. It is an object of the present invention to model the geometrical characteristics of the projection surface more accurately.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 영상 보정 장치는 보정용 영상 및 서로 다른 컬러 패턴을 가지는 일련의 코딩 영상을 투사면에 투사하는 투사부, 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영한 제1 촬영 영상 및 일련의 제2 촬영 영상을 기반으로 하여 상기 투사면의 기하학적 특성을 계산하는 보정값 계산부, 및 상기 계산된 투사면의 기하학적 특성을 반영하여 상기 투사면에 투사할 입력 영상을 보정하는 보정부를 포함한다. In order to achieve the above object, an image correction apparatus according to an exemplary embodiment of the present invention includes a projection unit for projecting a correction image and a series of coded images having different color patterns onto a projection surface, the projected correction image, and a series of coded images. A correction value calculator which calculates geometrical characteristics of the projection surface based on the first photographed image and a series of second photographed images, and an input to project onto the projection surface by reflecting the calculated geometrical characteristics of the projection surface It includes a correction unit for correcting the image.

상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 영상 보정 방법은, 보정용 영상 및 서로 다른 컬러 패턴을 가지는 일련의 코딩 영상을 투사면에 투사하는 단계, 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영한 제1 촬영 영상 및 일련의 제2 촬영 영상을 기반으로하여 상기 투사면의 기하학적 특성을 계산하는 단계, 및 상기 계산된 투사면의 기하학적 특성을 반영하여 상기 투사면에 투사할 입력 영상을 보정하는 단계를 포함한다. In order to achieve the above object, an image correction method according to an embodiment of the present invention includes projecting a correction image and a series of coded images having different color patterns onto a projection surface, and projecting the projected correction image and the series of coded images. Calculating geometric characteristics of the projection surface based on the first photographed image and a series of second photographed images, and correcting the input image to project on the projection surface by reflecting the calculated geometric characteristics of the projection surface It includes a step.

상기한 바와 같이 본 발명에 의한 투사 영상을 보정하는 장치 및 방법에 따르면, 투사면의 기하학적 특성을 보다 정확하게 모델링할 수 있는 효과가 있다.As described above, according to the apparatus and method for correcting the projection image according to the present invention, there is an effect that can accurately model the geometrical characteristics of the projection surface.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있으며, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.Specific details of other embodiments are included in the detailed description and drawings, and the advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and the present embodiments merely make the disclosure of the present invention complete and common knowledge in the technical field to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예들에 의한 영상 보정 방법 및 장치를 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들 이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Hereinafter, the present invention will be described with reference to the drawings for a block diagram or a processing flowchart for explaining an image correction method and apparatus according to embodiments of the present invention. At this point, it will be understood that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions performed through the processor of the computer or other programmable data processing equipment are described in the flowchart block (s). It will create a means to perform the functions.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block (s).

컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions for performing the processing equipment may also provide steps for performing the functions described in the flowchart block (s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다. In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.

도 1은 본 발명의 일 실시예에 따른 투사 영상을 보정하는 장치(이하, 영상 보정 장치)의 구성을 도시한 도면이다. 도시된 바와 같이, 영상 보정 장치(100)는 인코딩부(110), 투사부(120), 촬영부(130), 전처리부(140), 검출부(150), 디코딩부(160), 매칭부(170), 보정값 계산부(180), 저장부(190), 및 보정부(195)를 포함할 수 있다. 1 is a diagram illustrating a configuration of an apparatus (hereinafter, referred to as an image correcting apparatus) for correcting a projected image according to an exemplary embodiment. As shown, the image correcting apparatus 100 includes an encoding unit 110, a projection unit 120, a photographing unit 130, a preprocessor 140, a detector 150, a decoder 160, a matching unit ( 170, a correction value calculator 180, a storage 190, and a correction unit 195.

인코딩부(110)는 보정용 영상을 코딩하여 서로 다른 컬러 패턴을 갖는 복수개의 코딩 영상을 생성할 수 있다. 여기서, 보정용 영상(이하, I0)은 입력 영상이 투사될 투사면(projection surface)의 색상이나 기하학적 형상으로 인하여, 투사면에 디스플레이된 입력 영상에 발생할 수 있는 왜곡을 보정하는데 사용되는 영상을 말한다. 보정용 영상(I0)은 도 2에 도시된 바와 같이, 소정 간격으로 이격된 복수개의 흰색 패치를 포함할 수 있으며, 각 패치 간의 간격은 검정색으로 이루어질 수 있다. 도 2에 도시된 보정용 영상(I0)는 가로×세로 각각 30×30 개의 패치를 포함하고 있음을 알 수 있다. 또한, 보정용 영상(I0)을 구성하는 각 패치의 중심 좌표는 제1 자료 구조(DS0)에 저장될 수 있다. The encoder 110 may generate a plurality of coded images having different color patterns by coding the correction image. Here, the image for correction (hereinafter, I 0 ) refers to an image used to correct distortion that may occur in the input image displayed on the projection surface due to the color or geometrical shape of the projection surface on which the input image is to be projected. . As illustrated in FIG. 2, the correction image I 0 may include a plurality of white patches spaced at predetermined intervals, and the interval between the patches may be black. It can be seen that the correction image I 0 illustrated in FIG. 2 includes 30 × 30 patches each of width × length. In addition, the center coordinates of each patch constituting the correction image I 0 may be stored in the first data structure DS0.

한편, 코딩 영상(Ii; i=1,2, ..., m)은 보정용 영상(I0)과 동일한 기하학적 구조를 갖는 영상으로서, 보정용 영상(I0)을 구성하는 각 패치에 할당될 식별자를 생성하기 위한 색상 정보를 포함할 수 있다. On the other hand, coding image (I i; i = 1,2, ..., m) is a picture which has the same geometry and the correction image (I 0), to be assigned to each patch constituting the correction image (I 0) Color information for generating an identifier may be included.

다시 도 1을 참조하면, 인코딩부(110)는 보정용 영상(I0)을 구성하는 각 패치를 복수개의 색상 중 어느 하나의 색상으로 코딩하여 복수개의 코딩 영상(Ii; i=1,2,..., m)을 생성한 다음, 복수개의 코딩 영상(Ii; i=1,2, ..., m)에서 동일한 위치의 패치가 갖는 색상 조합에 근거하여, 보정용 영상(I0)의 패치를 위한 식별자를 생성할 수 있다. 여기서, 보정용 영상(I0)을 코딩하기 위해서는 예를 들어 8가지의 색상이 사용될 수 있는데, 이하의 설명에서는 흑색(Black), 적색(R), 녹색(G), 황색(Y), 청색(B), 자홍색(M), 청록색(C), 및 흰색(W)을 사용하는 경우를 예로 들어 설명하기로 한다. Referring back to FIG. 1, the encoding unit 110 codes each patch constituting the correction image I 0 to any one of a plurality of colors, thereby encoding a plurality of coded images I i (i = 1, 2, ..., m), and then based on the color combinations of the patches at the same position in the plurality of coded images I i (i = 1, 2, ..., m), the correction image I 0 You can create an identifier for the patch. Here, for example, eight colors may be used to code the correction image I 0. In the following description, black, red (R), green (G), yellow (Y), and blue ( B), magenta (M), cyan (C), and white (W) will be described as an example.

상기 8가지의 색상 중 흑색은 코딩 영상(Ii; i=1,2, ..., m)의 배경색으로 사용될 수 있다. 다시 말해, 흑색은 코딩 영상(Ii; i=1,2, ..., m)을 구성하는 각 패치 간의 간격을 채우는 색상으로 사용될 수 있다. 그리고, 흑색을 제외한 나머지 색상들에는 도 3에 도시된 바와 같이, 0 내지 6까지의 숫자가 차례로 할당될 수 있으며, 0 내지 6의 숫자들은 각각 이진수로 표현될 수 있다. Of the eight colors, black may be used as a background color of the coded image I i (i = 1, 2, ..., m). In other words, black may be used as a color that fills the gap between the patches constituting the coded image I i (i = 1, 2, ..., m). 3, numbers from 0 to 6 may be sequentially assigned to the remaining colors except for black, and numbers from 0 to 6 may be represented by binary numbers, respectively.

이처럼, 흑색을 제외한 7가지의 색상을 이용하는 경우, 보정용 영상(I0)을 구성하는 n개의 패치에 유일한 식별자를 할당하기 위해서는 총 m개의 코딩 영상(Ii; i=1,2, ..., m)이 필요하다. 여기서, m은 아래의 [수학식 1]을 만족하는 최소의 정수로 결정될 수 있다. As such, when seven colors except black are used, in order to assign a unique identifier to the n patches constituting the correction image I 0 , a total of m coded images I i ; i = 1, 2, ... m) is required. Here, m may be determined as a minimum integer that satisfies Equation 1 below.

Figure 112007048614857-PAT00001
Figure 112007048614857-PAT00001

예를 들어, 보정용 영상(I0)이 900개의 패치를 포함하는 경우, 7m≥900을 만족하는 정수 m 중 최소값은 4이므로, 보정용 영상(I0)을 구성하는 900개의 패치에 유일한 식별자를 할당하기 위해서는 총 4개의 코딩 영상(I1, I2, I3, I4)이 필요함을 알 수 있다. For example, when the correction image I 0 includes 900 patches, since the minimum value of the integer m satisfying 7 m ≥ 900 is 4, a unique identifier is assigned to the 900 patches constituting the correction image I 0 . It can be seen that a total of four coded images I 1 , I 2 , I 3 , and I 4 are required for allocation.

한편, 코딩 영상을 구성하는 패치를 좌측→우측→위→아래의 순으로 순서를 정하였을 때, 각 코딩 영상(I1, I2, I3, I4)에서 x번째 위치한 패치의 색은 아래의 [수학식 2]에서 a0, a1, ..., am-1에 각각 대응하는 색상으로 결정될 수 있다. 즉, 제1 코딩 영상(I1)에서 x번째 위치한 패치의 색은 a0에 대응하는 색상으로, 제2 코딩 영상(I2)에서 x번째 위치한 패치의 색은 a1에 대응하는 색상으로, 제3 코딩 영상(I3)에서 x번째 위치한 패치의 색은 a2에 대응하는 색상으로 결정되며, 제4 코딩 영상(I4)에서 x번째 위치한 패치의 색은 a3에 대응하는 색상으로 결정될 수 있다. On the other hand, when the patches constituting the coded image are ordered from left to right to top to bottom, the color of the x-th patch in each of the coded images I 1 , I 2 , I 3 , and I 4 is lower. In Equation 2, it may be determined as a color corresponding to a 0 , a 1 , ..., a m-1 , respectively. That is, the color of the x-th patch in the first coded image I 1 is a color corresponding to a 0 , and the color of the x-th patch in a second coded image I 2 is a color corresponding to a 1 , The color of the x-th patch in the third coded image I 3 is determined to be a color corresponding to a 2 , and the color of the x-th patch in the fourth coded image I 4 is determined to be a color corresponding to a 3 . Can be.

Figure 112007048614857-PAT00002
Figure 112007048614857-PAT00002

예를 들어, 각 코딩 영상(I1, I2, I3, I4)에서 400번째 위치한 패치들은 각각 R, G, G, G로 결정될 수 있다. 왜냐하면, 400=399+1=0×70+1×71+1×72+1×73+1 로 표현될 수 있는데, 여기서 a0~a4가 [0,1,1,1]이며 도 3에서 숫자 0에 해당하는 색상은 적색(R)이고 숫자 1에 대응하는 색상은 녹색(G)이기 때문이다. 다른 예로써, 각 코딩 영상(I1, I2, I3, I4)을 구성하는 패치 중 300번째 위치한 패치들은 색은 각각 C, R, W, R로 결정될 수 있다. 왜냐하면, 300=299+1=5×70+0×71+6×72+0×73+1로 표현될 수 있는데, 여기서 a0~a4가 [5,0,6,0]이며, 도 3에서 숫자 5는 청록색(C)이고, 숫자 0에 대응하는 색은 적색(R)이며 숫자 6에 대응하는 색은 흰색(W)이기 때문이다.For example, the patches located 400th in each coded image I 1 , I 2 , I 3 , and I 4 may be determined as R, G, G, and G, respectively. Because 400 = 399 + 1 = 0 × 7 0 + 1 × 7 1 + 1 × 7 2 + 1 × 7 3 +1, where a 0 to a 4 are [0,1,1,1 ] And the color corresponding to the number 0 in FIG. 3 is red (R) and the color corresponding to the number 1 is green (G). As another example, the 300th patches among the patches constituting each of the coded images I 1 , I 2 , I 3 , and I 4 may be determined by C, R, W, and R, respectively. Because 300 = 299 + 1 = 5 × 7 0 + 0 × 7 1 + 6 × 7 2 + 0 × 7 3 +1, where a 0 to a 4 are [5,0,6,0 3, the number 5 is cyan (C), the color corresponding to the number 0 is red (R), and the color corresponding to the number 6 is white (W).

전술한 [수학식 1] 및 [수학식 2]에 근거하여, 생성된 코딩 영상들(I1, I2, I3, I4)을 예시하면 도 4와 같다. 도 4에 도시된 바와 같이, 4개의 코딩 영상(I1, I2, I3, I4)에서 동일한 위치에 존재하는 패치의 색상 조합은 보정용 영상(I0)을 구성하는 패치 중 코딩 영상의 패치와 대응하는 위치에 존재하는 패치의 식별자로 할당될 수 있다. 예를 들어, 각 코딩 영상(I1, I2, I3, I4)에서 400번째 위치한 패치들이 갖는 색상 조합이 (R, G, G, G) 라면, 상기 색상 조합은 보정용 영상(I0)에서 400번째 위치한 패치의 식별자로 할당될 수 있다. 만약, 각 코딩 영상(I1, I2, I3, I4)에서 300번째 위치한 패치들이 갖는 색상 조합이 (C, R, W, R)라면, 상기 색상 조합은 보정용 영상(I0)에서 300번째 위치한 패치의 식별자로 할당될 수 있다. Based on the above Equations 1 and 2, the generated coded images I 1 , I 2 , I 3 , and I 4 are illustrated in FIG. 4. As shown in FIG. 4, the color combinations of patches existing at the same positions in the four coded images I 1 , I 2 , I 3 , and I 4 are used to determine the coded image among the patches constituting the correction image I 0 . An identifier of a patch existing at a location corresponding to the patch may be assigned. For example, if the color combination of the 400th-positioned patches in each coded image (I 1 , I 2 , I 3 , I 4 ) is (R, G, G, G), the color combination is a correction image (I 0). ) Can be assigned as the identifier of the 400th patch. If the color combination of the 300th-positioned patches in each coded image (I 1 , I 2 , I 3 , I 4 ) is (C, R, W, R), the color combination is determined in the correction image (I 0 ). Can be assigned to the identifier of the 300th patch.

투사부(120)는 보정용 영상(I0) 및 인코딩부(110)에 의해 생성된 4개의 코딩 영상(I1, I2, I3, I4)을 차례로 투사면에 투사할 수 있다. The projector 120 may project the corrected image I 0 and the four coded images I 1 , I 2 , I 3 , and I 4 generated by the encoder 110 in order on the projection surface.

촬영부(130)는 투사면에 차례로 투사된 보정용 영상(I0) 및 코딩 영상들(I1, I2, I3, I4)을 촬영할 수 있다. 이하의 설명에서는 촬영부(130)를 통해 촬영된 보정용 영상을 제1 촬영 영상이라 하고, 촬영부(130)를 통해 촬영된 코딩 영상을 제2 촬영 영상이라 하기로 한다. 제1 촬영 영상(이하, O0) 및 제2 촬영 영상들(이하, O1, O2, O3, O4)은 도 5 및 도 6에 각각 도시되어 있다. The photographing unit 130 may photograph the correction image I 0 and the coding images I 1 , I 2 , I 3 , and I 4 that are sequentially projected onto the projection surface. In the following description, a corrected image photographed through the photographing unit 130 will be referred to as a first photographed image, and a coded image photographed through the photographing unit 130 will be referred to as a second photographed image. The first captured image O 0 and the second captured images O 1 , O 2 , O 3 , and O 4 are shown in FIGS. 5 and 6, respectively.

전처리부(140)는 제1 촬영 영상(O0) 및 제2 촬영 영상들(O1, O2, O3, O4)에 대하여 각각 전처리를 수행할 수 있다. 우선, 제1 촬영 영상(O0)에 대한 전처리 과정을 설명한 다음, 제2 촬영 영상들(O1, O2, O3, O4)에 대한 전처리 과정을 설명하기로 한다. The preprocessor 140 may perform preprocessing on the first photographed image O 0 and the second photographed images O 1 , O 2 , O 3 , and O 4 , respectively. First, the preprocessing process for the first captured image O 0 will be described, and then the preprocessing process for the second captured images O 1 , O 2 , O 3 , and O 4 will be described.

전처리부(140)는 제1 촬영 영상(O0)에서 모든 패치를 분리하여 흑색 및 백색으로 이루어진 바이너리 영상(B0)을 생성할 수 있다. 이를 위해 전처리부(140)는 제1 촬영 영상(O0)에서 배경과 패치를 분리하는데 필요한 밝기의 임계값을 정한 다음, 제1 촬영 영상(O0)을 구성하는 모든 픽셀의 밝기를 상기 임계값과 비교하여, 임계값 이상의 밝기를 갖는 픽셀의 값은 흰색으로, 임계값 미만의 밝기를 갖는 픽셀 의 값은 흑색으로 지정함으로써, 바이너리 영상(B0)을 생성할 수 있다. 일 예로, 전처리부(140)는 제1 촬영 영상(O0)에 쓰레숄딩 알고리즘(thresholding algorithm)을 적용하여, 바이너리 영상(B0)을 생성할 수도 있다. The preprocessor 140 may generate a binary image B 0 consisting of black and white by separating all patches from the first photographed image O 0 . To this end, the pre-processing unit 140 is the first captured image (O 0) set by the threshold value of the brightness necessary to remove the background and a patch in the following, first the brightness of all the pixels constituting the photographed image (O 0) the threshold In comparison with the value, a binary image B 0 may be generated by specifying a value of a pixel having a brightness greater than or equal to a threshold as white and a value of a pixel having a brightness less than or equal to a threshold as black. For example, the preprocessor 140 may generate a binary image B 0 by applying a thresholding algorithm to the first captured image O 0 .

이 후, 전처리부(140)는 바이너리 영상(B0)에서 각 패치의 경계가 명확해질 수 있도록 바이너리 영상을 필터링할 수 있다. 이를 위해 전처리부(140)는 템플릿 기반의 영상 처리(template-based image processing)를 수행할 수 있다. 여기서, 템플릿 기반의 영상 처리란, 원 영상에서 제1 픽셀이 갖는 값과 상기 제1 픽셀을 둘러싼 복수개의 픽셀들이 갖는 값에 근거하여, 출력 영상에서 상기 제1 픽셀에 대응하는 픽셀의 값을 결정하는 영상처리 방법을 말한다. 이 때, 상기 제1 픽셀 및 상기 제1 픽셀을 둘러싼 복수개의 픽셀들을 템플릿(template)이라고 하는데, 템플릿은 N×N 개의 픽셀로 이루어질 수 있다. 도 7은 템플릿의 종류를 도시한 것으로서, N×N 개의 픽셀 중 중심 픽셀을 제외하고 4개의 픽셀을 포함하는 템플릿(E4), 중심 픽셀을 제외하고 8개의 픽셀을 포함하는 템플릿(E8), 및 중심 픽셀을 제외하고 24개의 픽셀을 포함하는 템플릿(E24)를 보여주고 있다. Thereafter, the preprocessor 140 may filter the binary image so that the boundary of each patch becomes clear in the binary image B 0 . To this end, the preprocessor 140 may perform template-based image processing. Here, the template-based image processing determines a value of a pixel corresponding to the first pixel in an output image based on a value of the first pixel in the original image and a value of the plurality of pixels surrounding the first pixel. Image processing method. In this case, the first pixel and the plurality of pixels surrounding the first pixel are called templates, and the template may include N × N pixels. FIG. 7 illustrates the types of templates, a template E 4 including four pixels except for a center pixel among N × N pixels, and a template E 8 including eight pixels except for a center pixel. A template E 24 is shown that contains 24 pixels excluding the, and center pixels.

전술한 템플릿 기반의 영상 처리를 적용하여 바이너리 영상(B0)을 필터링하면, 이전의 바이너리 영상에 비하여 배경과 패치 간의 경계가 명확해 진 영상을 얻을 수 있다. 도 8은 바이너리 영상(B0) 및 필터링 결과로 얻어진 바이너리 영 상(F0)을 도시한 도면이다. 도 8을 참조하면, 필터링 결과로 얻어진 바이너리 영상(F0)은 필터링 이전의 바이너리 영상(B0)에 비하여 배경과 패치 간의 경계가 보다 명확해진 것을 확인할 수 있다. 이하의 설명에서는 필터링 결과로 얻어진 바이너리 영상(F0)을 필터링 영상이라 칭하기로 한다.When the binary image B 0 is filtered by applying the template-based image processing described above, an image having a clear boundary between a background and a patch may be obtained as compared to the previous binary image. 8 illustrates a binary image B 0 and a binary image F 0 obtained as a result of the filtering. Referring to FIG. 8, it can be seen that the binary image F 0 obtained as a result of the filtering has a clearer boundary between the background and the patch than the binary image B 0 before filtering. In the following description, the binary image F 0 obtained as a result of the filtering will be referred to as a filtered image.

다시 도 1을 참조하면, 전처리부(140)는 촬영부(130)를 통해 획득된 제2 촬영 영상들(O1, O2, O3, O4)이 균일한 밝기 분포를 가질 수 있도록 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정할 수 있다. 이를 위해, 전처리부(140)는 우선, 제1 촬영 영상(O0)의 신호 포맷을 RGB 신호 포맷에서 밝기 성분을 포함하는 신호 포맷 예를 들면, YUV 신호 포맷으로 변환할 수 있다. 이 후, 전처리부(140)는 제1 촬영 영상(O0)의 밝기를 확인하여, 제1 촬영 영상(O0)을 구성하는 픽셀들이 모두 동일한 밝기(예를 들면, 제1 촬영 영상 O0의 평균 밝기 또는 제1 촬영 영상 O0의 최대 밝기)를 가질 수 있도록 보정하는데 필요한 보정값을 픽셀 별로 계산할 수 있다. 이 후, 전처리부(140)는 픽셀별 보정값을 제2 촬영 영상들(O1, O2, O3, O4)의 해당 픽셀에 각각 적용하여 밝기를 보정함으로써, 제2 촬영 영상들의 밝기 분포를 균일하게 만들 수 있다. Referring back to FIG. 1, the preprocessing unit 140 is configured such that the second photographed images O 1 , O 2 , O 3 , and O 4 obtained through the photographing unit 130 have a uniform brightness distribution. 2 Brightness of the captured images O 1 , O 2 , O 3 , and O 4 can be corrected. To this end, the preprocessor 140 may first convert a signal format of the first captured image O 0 from a RGB signal format to a signal format including a brightness component, for example, a YUV signal format. Then, the pre-processing unit 140 is the first captured image to determine the brightness of the (O 0), the first captured image (O 0) of pixels are all, for the same brightness (for example, constituting the first captured image O 0 The average brightness or the maximum brightness of the first photographed image O 0 ). Thereafter, the preprocessor 140 corrects the brightness by applying the pixel-specific correction values to the corresponding pixels of the second photographed images O 1 , O 2 , O 3 , and O 4 , respectively, thereby adjusting the brightness of the second photographed images. The distribution can be made uniform.

도 9는 전처리부(140)에 의해 밝기가 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)을 도시한 도면이다. 도 6의 제2 촬영 영상들(O1, O2, O3, O4)과 도 9의 제2 촬 영 영상들(CO1, CO2, CO3, CO4)을 비교하면, 도 6에 도시된 제2 촬영 영상들(O1, O2, O3, O4)은 중앙 부분의 밝기에 비하여 외곽 부분의 밝기가 어두운 반면, 도 9에 도시되어 있는 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)은 밝기의 분포가 균일한 것을 알 수 있다. FIG. 9 is a diagram illustrating second captured images CO 1 , CO 2 , CO 3 , and CO 4 whose brightness is corrected by the preprocessor 140. When comparing the second photographed images O 1 , O 2 , O 3 , and O 4 of FIG. 6 with the second photographed images CO 1 , CO 2 , CO 3 , and CO 4 of FIG. 9, FIG. 6. The second photographed images O 1 , O 2 , O 3 , and O 4 illustrated in FIG. 9 have lower brightness of the outer portion than the brightness of the central portion, whereas the second captured images shown in FIG. It can be seen that CO 1 , CO 2 , CO 3 , and CO 4 ) have a uniform distribution of brightness.

다시 도 1을 참조하면, 검출부(150)는 필터링 영상(F0)을 구성하는 각 패치들의 에지를 검출할 수 있다. 검출부(150)는 필터링 영상(F0)에서 각 패치의 에지를 검출하기 위해 산술 연산자(arithmetic operator) T5 및 T9를 사용할 수 있다. 이 때, 산술 연산자 T5 및 T9는 아래의 [수학식 3]과 같이 정해질 수 있으며, 산술 연산자 T5 및 T9 는 도 10과 같이 각 성분의 값이 1로 정해질 수 있다. Referring back to FIG. 1, the detector 150 may detect edges of patches constituting the filtered image F 0 . The detector 150 may use arithmetic operators T 5 and T 9 to detect edges of each patch in the filtered image F 0 . In this case, the arithmetic operators T 5 and T 9 may be determined as shown in Equation 3 below, and the arithmetic operators T 5 and T 9 may be set to 1 as shown in FIG. 10.

Figure 112007048614857-PAT00003
Figure 112007048614857-PAT00003

다시 도 1을 참조하면, 검출부(150)는 필터링된 제1 촬영 영상(F0)에서 각 패치의 에지를 검출한 후, 각 패치의 중심점을 계산할 수 있다. 각 패치의 중심 좌표를 산출하기 위해 검출부(150)는 각 패치를 대상으로 에지에 해당하는 픽셀들을 추적할 수 있다. 상기 픽셀 추적은, 도 11에 도시된 바와 같이, 시작점을 중심으로 좌, 우, 상, 하, 좌상, 좌하, 우상, 우하 방향에 존재하는 주변 픽셀들 중 0 이 아닌 값을 갖는 픽셀을 추적하는 방식으로 진행될 수 있다. 이 때, 시작점은 필터링 영상(F0)의 픽셀을 좌→우→상→하의 순서로 검색하였을 때 발견된, 0이 아닌 값을 갖는 픽셀로 설정될 수 있다. 전술한 방법에 따라, 각 패치의 에지에 해당하는 픽셀들이 검출되면, 검출된 픽셀들의 좌표에 근거하여 해당 패치의 중심 좌표를 계산할 수 있다. 이와 같이, 각 패치의 경계에 해당하는 픽셀들의 정보 및 중심 좌표를 검출한 결과를 나타내면 도 12과 같으며, 검출 결과는 제2 자료 구조(DS1)에 저장될 수 있다. Referring back to FIG. 1, the detector 150 may detect an edge of each patch in the filtered first captured image F 0 and then calculate a center point of each patch. In order to calculate the center coordinates of each patch, the detector 150 may track pixels corresponding to an edge of each patch. The pixel tracking tracks a pixel having a non-zero value among neighboring pixels present in left, right, up, down, top, bottom, right, and bottom directions with respect to a starting point, as shown in FIG. 11. It can proceed in a manner. In this case, the starting point may be set to a pixel having a non-zero value found when the pixels of the filtered image F 0 are searched in the order of left to right to top to bottom. According to the above-described method, when pixels corresponding to the edge of each patch are detected, the center coordinates of the patch may be calculated based on the coordinates of the detected pixels. As such, the result of detecting the information and the center coordinate of the pixels corresponding to the boundary of each patch is shown in FIG. 12, and the detection result may be stored in the second data structure DS1.

다시 도 1을 참조하면, 디코딩부(160)는 밝기가 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)에서 동일한 위치의 패치가 갖는 색상들의 조합을 추출할 수 있다. 여기서, 추출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 각 패치의 식별자에 해당한다. Referring back to FIG. 1, the decoding unit 160 may extract a combination of colors of patches having the same position in the second captured images CO 1 , CO 2 , CO 3 , and CO 4 whose brightness is corrected. . Here, the extracted color combination corresponds to an identifier of each patch constituting the first captured image O 0 .

색상 조합을 추출하기 위해 디코딩부(160)는 우선, 밝기가 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4) 별로, R-채널 영상과 G-채널 영상 간의 휘도차(ΔRG), R-채널 영상과 B-채널 영상 간의 휘도차(ΔRB), 및 G-채널 영상과 B-채널 영상 간의 휘도차(ΔGB)를 나타내는 휘도차 영상을 생성할 수 있다. In order to extract the color combination, the decoding unit 160 first , the luminance difference between the R-channel image and the G-channel image for each of the second photographed images CO 1 , CO 2 , CO 3 , and CO 4 whose brightness is corrected. (ΔRG), a luminance difference ΔRB between the R-channel image and the B-channel image, and a luminance difference image indicating the luminance difference ΔGB between the G-channel image and the B-channel image.

그 다음, 디코딩부(160)는 도 13에 도시된 매핑 테이블(200)을 참조하여, 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)을 구성하는 픽셀들의 색상을 확인할 수 있다. 예를 들어, 어떤 픽셀에 대하여 각 채널 간의 휘도차를 계산하였을 때, (Δ RG, ΔRB, ΔGB) 값이 (1, 1, 0)이라면, 해당 픽셀은 적색(R)을 가지는 것으로 확인될 수 있다. Next, the decoding unit 160 may refer to the mapping table 200 illustrated in FIG. 13 to color the pixels constituting the corrected second captured images CO 1 , CO 2 , CO 3 , and CO 4 . You can check it. For example, when the luminance difference between each channel is calculated for a pixel, if the value of (Δ RG, ΔRB, ΔGB) is (1, 1, 0), the pixel may be identified as having a red color (R). have.

이와 같이, 보정된 제2 촬영 영상들(COi; i=1,2,3,4)을 구성하는 픽셀들의 색상이 확인되면, 디코딩부(160)는 보정된 제2 촬영 영상들(COi; i=1,2,3,4)로부터 패치들을 분리하여 흰색 패치를 포함하는 바이너리 영상들을 생성할 수 있다. 그 다음, 디코딩부(160)는 바이너리 영상들의 흰색 패치에 해당하는 픽셀들을 앞서 확인된 색상으로 대체함으로써, 보정된 제2 촬영 영상들(COi; i=1,2,3,4) 각각 대응하는 옥탈 영상들(OOi; i=1,2,3,4)을 도 14와 같이 생성할 수 있다. As described above, when the colors of the pixels constituting the corrected second captured images CO i (i = 1, 2, 3, 4) are confirmed, the decoder 160 may correct the second captured images CO i. i = 1,2,3,4) to separate the patches and generate binary images including the white patches. Next, the decoding unit 160 corresponds to each of the corrected second photographed images CO i ; i = 1, 2, 3, and 4 by replacing the pixels corresponding to the white patches of the binary images with the colors identified above. Octal images OO i ; i = 1, 2, 3, and 4 may be generated as shown in FIG. 14.

이 후, 디코딩부(160)는 제2 자료 구조(DS1)에 저장된 정보를 참조하여, 옥탈 영상들(OOi; i=1,2,3,4)을 구성하는 각 패치의 실제 색상을 결정할 수 있다. 예를 들면, 디코딩부(160)는 제2 자료 구조(DS1)를 참조하여, 어떤 패치에 포함되는 픽셀들 중 빈도가 가장 높은 색상을 해당 패치의 실제 색상으로 결정할 수 있다. 이 후, 디코딩부(160)는 옥탈 영상들(OOi; i=1,2,3,4)에서 동일한 위치에 존재하는 패치들이 갖는 색상 조합을 추출할 수 있다. 상기 추출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 패치의 식별자에 해당한다. Thereafter, the decoder 160 determines the actual color of each patch constituting the octal images OO i (i = 1, 2, 3, 4) with reference to the information stored in the second data structure DS1. Can be. For example, the decoder 160 may determine the color of the highest frequency among the pixels included in a patch as the actual color of the patch with reference to the second data structure DS1. Thereafter, the decoder 160 may extract a color combination of the patches existing at the same position in the octal images OO i (i = 1, 2, 3, 4). The extracted color combination corresponds to an identifier of a patch constituting the first captured image O 0 .

다시 도 1을 참조하면, 매칭부(170)는 제1 자료 구조(DS0), 제2 자료 구조(DS1), 코딩 영상들(II, I2, I3 , I4) 및 옥탈 영상들(OOi; i=1,2,3,4)을 제공받아, 보정용 영상(I0)과 제1 촬영 영상(O0)에서 동일한 식별자를 갖는 패치를 서로 매칭할 수 있다. 이 때, 동일한 식별자를 갖는 패치들 간의 매칭 관계는 제3 자료 구조(DS2=DS0+DS1)에 저장될 수 있다. Referring back to FIG. 1, the matching unit 170 may include the first data structure DS0, the second data structure DS1, the coding images I I , I 2 , I 3 , and I 4 , and the octal images ( OO i : i = 1, 2, 3, and 4 may be provided to match a patch having the same identifier in the correction image I 0 and the first captured image O 0 . In this case, the matching relationship between patches having the same identifier may be stored in the third data structure DS2 = DS0 + DS1.

보정값 계산부(180)는 제3 자료 구조(DS2)를 참조하여, 보정용 영상(I0)의 픽셀과 제1 촬영 영상(O0)의 픽셀 간의 기하학적 매핑 관계를 나타내는 보정값을 계산할 수 있다. The correction value calculator 180 may calculate a correction value indicating a geometric mapping relationship between the pixels of the correction image I 0 and the pixels of the first photographed image O 0 with reference to the third data structure DS2. .

구체적으로, 보정용 영상(I0)의 픽셀의 좌표를 (xi, yi)라 하고, 제1 촬영 영상의 픽셀의 좌표를 (xo, yo)라고 할 때, 두 영상에서 픽셀 간의 매핑 관계는 [수학식 4]와 같이 모델링될 수 있다. [수학식 4]에서 a, b, c, d, e, f, g, h는 모델 상수이다. Specifically, when the coordinate of the pixel of the correction image (I 0 ) is referred to as (x i , y i ) and the coordinate of the pixel of the first photographed image is referred to as (x o , y o ), mapping between the pixels in the two images is performed. The relationship may be modeled as in Equation 4. In Equation 4, a, b, c, d, e, f, g, and h are model constants.

Figure 112007048614857-PAT00004
Figure 112007048614857-PAT00004

한편, 보정용 영상을 구성하는 패치 중 서로 근접한 4개의 패치들의 중심좌표

Figure 112007048614857-PAT00005
와 제1 촬영 영상을 구성하는 패치 중 상기 4개의 패치에 대응하는 패치들의 중심좌표
Figure 112007048614857-PAT00006
간의 관계는 [수학식 5]와 같이 나타낼 수 있다. Meanwhile, the center coordinates of four patches adjacent to each other among the patches constituting the correction image.
Figure 112007048614857-PAT00005
And central coordinates of patches corresponding to the four patches among the patches constituting the first captured image.
Figure 112007048614857-PAT00006
The relationship can be expressed as shown in [Equation 5].

Figure 112007048614857-PAT00007
Figure 112007048614857-PAT00007

그런데, [수학식 5]은 아래의 [수학식 6]과 같이 매트릭스 형태로 표현할 수 있다. However, Equation 5 may be expressed in a matrix form as shown in Equation 6 below.

Figure 112007048614857-PAT00008
Figure 112007048614857-PAT00008

상기 [수학식 6]에서 T는 및 B는 제3 자료 구조(DS2)로부터 얻을 수 있다. 따라서, 아래의 [수학식 7]을 통해 A를 계산할 수 있다. A의 각 요소들은, 보정용 영상(I0)의 픽셀과 제1 촬영 영상(O0)의 픽셀 간의 기하학적인 매핑 관계를 나타내는 보정값으로서, 투사면에 투사될 입력 영상을 대상으로 기하 보정을 수행하는데 사용될 수 있다. In Equation 6, T and B may be obtained from the third data structure DS2. Therefore, A may be calculated through Equation 7 below. Each element of A is a correction value representing a geometric mapping relationship between the pixels of the correction image I 0 and the pixels of the first photographed image O 0 , and performs geometric correction on the input image to be projected on the projection surface. It can be used to

Figure 112007048614857-PAT00009
Figure 112007048614857-PAT00009

저장부(190)는 보정값 계산부(180)에 의해 계산된 보정값을 룩업테이블(Look Up Table, LUT)의 형태로 저장할 수 있다. 이러한 저장부(190)는 플래시 메모리와 같은 비휘발성 메모리, 휘발성 메모리, 하드디스크와 같은 저장매체 중 적어도 하나로 구현될 수 있다. The storage unit 190 may store the correction value calculated by the correction value calculator 180 in the form of a look up table (LUT). The storage unit 190 may be implemented as at least one of a nonvolatile memory such as a flash memory, a volatile memory, and a storage medium such as a hard disk.

보정부(195)는 투사면에 투사할 입력 영상이 제공되면, 룩업테이블을 참조하여 기하 보정을 수행할 수 있다. 보정된 입력 영상은 투사부(120)를 통해 투사면에 투사될 수 있다. 이외에도 보정부(195)는 입력 영상에 대하여 색상 보정을 수행할 수도 있는데, 색상 보정에 관한 기술은 공지된 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다. The correction unit 195 may perform geometric correction by referring to the lookup table when an input image to be projected on the projection surface is provided. The corrected input image may be projected onto the projection surface through the projection unit 120. In addition, the correction unit 195 may also perform color correction on the input image. Since the technology for color correction is a known technique, a detailed description thereof will be omitted.

다음으로, 도 15는 본 발명의 일 실시예에 따른 영상 보정 방법을 도시한 흐름도이다. Next, FIG. 15 is a flowchart illustrating an image calibrating method according to an exemplary embodiment.

먼저, 인코딩부(110)는 보정용 영상(I0)과 기하학적 구조가 동일하며 서로 다른 컬러 패턴을 갖는 복수개의 코딩 영상(I1, I2, I3, I4)을 생성할 수 있다(S310). 코딩 영상의 개수는 보정용 영상(I0)을 구성하는 패치의 개수에 의해 결정될 수 있다. 코딩 영상은 예를 들어, 흑색 및 흰색을 포함하는 8가지의 색상을 사용하여 생성할 수 있다. 이 때, 흑색은 코딩 영상의 배경색으로 사용될 수 있으며, 코딩 영상을 구성하는 각 패치는 흑색을 제외한 나머지 7개의 색상 중 어느 하나의 색상으로 코딩될 수 있다. First, the encoding unit 110 may generate a plurality of coded images I 1 , I 2 , I 3 , and I 4 having the same geometrical structure as the correction image I 0 and having different color patterns (S310). ). The number of coded images may be determined by the number of patches constituting the correction image I 0 . The coded image may be generated using eight colors including, for example, black and white. In this case, black may be used as a background color of the coded image, and each patch constituting the coded image may be coded in any one of seven colors except for black.

복수개의 코딩 영상이 생성되면, 인코딩부(110)는 복수개의 코딩 영상(I1, I2, I3, I4)에서 동일한 위치의 패치가 갖는 색상 조합을 보정용 영상(I0)을 구성하는 각 패치의 식별자로 할당할 수 있다(S320). 코딩 영상을 생성하기에 앞서 보정용 영상(I0)을 구성하는 각 패치의 중심 좌표는 제1 자료 구조(DS0)에 저장될 수 있다. When a plurality of coded images are generated, the encoding unit 110 configures an image I 0 for correcting color combinations of patches having the same position in the plurality of coded images I 1 , I 2 , I 3 , and I 4 . It can be assigned to the identifier of each patch (S320). Before generating the coded image, the center coordinates of each patch constituting the correction image I 0 may be stored in the first data structure DS0.

보정용 영상(I0) 및 복수개의 코딩 영상(I1, I2, I3, I4)은 투사부(120)를 통해 투사면에 차례로 투사될 수 있다(S330). The correction image I 0 and the plurality of coded images I 1 , I 2 , I 3 , and I 4 may be sequentially projected onto the projection surface through the projection unit 120 (S330).

촬영부(130)는 투사면에 차례로 투사된 보정용 영상 및 복수개의 코딩 영상을 촬영할 수 있다. 그 결과, 촬영부(130)는 보정용 영상(I0)을 촬영하여 얻은 제1 촬영 영상(O0) 및 복수개의 코딩 영상(I1, I2, I3, I4)을 각각 촬영하여 얻은 복수개의 제2 촬영 영상(O1, O2, O3, O4)을 제공할 수 있다(S340). The photographing unit 130 may photograph a correction image and a plurality of coded images that are sequentially projected onto the projection surface. As a result, the photographing unit 130 is obtained by photographing the first photographed image O 0 and the plurality of coded images I 1 , I 2 , I 3 , and I 4 obtained by photographing the correction image I 0 , respectively. A plurality of second photographed images O 1 , O 2 , O 3 , and O 4 may be provided (S340).

이 후, 검출부(150)는 제1 촬영 영상(O0)에서 각 패치의 에지 및 중심점을 검출할 수 있다(S350). 상기 S350 단계는, 제1 촬영 영상(O0)에서 각 패치를 분리하여, 흰색 및 흑색으로 이루어진 바이너리 영상(B0)을 생성하는 단계와, 바이너리 영상(B0)을 필터링하여 바이너리 영상(O0)에 비하여 패치와 배경 간의 경계가 명확해진 필터링 영상(F0)을 생성하는 단계와, 상기 필터링 영상(F0)에서 각 패치의 에지를 검출하는 단계와, 검출된 에지 정보에 근거하여 각 패치의 중심 좌표를 계산하는 단계를 포함할 수 있다. 여기서, 각 패치의 에지 정보 및 중심점의 좌표는 제2 자료 구조(DS1)에 저장될 수 있다. Thereafter, the detector 150 may detect an edge and a center point of each patch in the first photographed image O 0 (S350). The step S350 may include generating a binary image B 0 consisting of white and black by separating each patch from the first photographed image O 0 , and filtering the binary image B 0 to filter the binary image O. and generating a filtered image (F 0) became boundary is clear between the patch and the background, and a step of detecting the edge of each patch in the filtered image (F 0) as compared to 0), each on the basis of the detected edge information Calculating the center coordinates of the patch. Here, the edge information of each patch and the coordinates of the center point may be stored in the second data structure DS1.

한편, 디코딩부(160)는 복수개의 제2 촬영 영상(O1, O2, O3, O4)에서 동일한 위치의 패치들이 갖는 색상 조합을 추출할 수 있다(S360). 상기 S360 단계는, 제1 촬영 영상(O0)의 밝기 분포를 균일하게 하는데 사용된 밝기 보정값을 복수개의 제2 촬영 영상(O1, O2, O3, O4)에 각각 적용하여, 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계와, 밝기가 보정된 복수개의 제2 촬영 영상(CO1, CO2, CO3, CO4) 별로 채널 간의 휘도차를 나타내는 복수개의 휘도차 영상을 생성하는 단계와, 복수개의 휘도차 영상으로부터 상기 제2 촬영 영상들(CO1, CO2, CO3, CO4)의 픽셀이 갖는 색상을 검출하는 단계와, 상기 제2 촬영 영상들(CO1, CO2, CO3, CO4)로부터 패치들을 분리하여 흰색 패치를 포함하는 복수개의 바이너리 영상을 생성하는 단계와, 복수 개의 바이너리 영상에서 흰색 패치에 해당하는 픽셀들을 상기 검출된 색상으로 대체하여 복수개의 옥탈 영상(OO1, OO2, OO3, OO4)을 생성하는 단계와, 복수개의 옥탈 영상(OO1, OO2, OO3, OO4)에서 동일한 위치의 패치들이 갖는 색상 조합을 추출하는 단계를 포함할 수 있다. 상기 추출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 패치의 식별자에 해당한다. Meanwhile, the decoder 160 may extract the color combinations of the patches at the same position from the plurality of second photographed images O 1 , O 2 , O 3 , and O 4 (S360). In step S360, the brightness correction values used to uniformize the brightness distribution of the first photographed image O 0 are applied to the plurality of second photographed images O 1 , O 2 , O 3 , and O 4 , respectively. Correcting the brightness of the second photographed images O 1 , O 2 , O 3 , and O 4 , and for each of the plurality of second corrected images CO 1 , CO 2 , CO 3 , and CO 4 whose brightness is corrected. Generating a plurality of luminance difference images representing luminance differences between channels, and detecting a color of a pixel of the second captured images CO 1 , CO 2 , CO 3 , and CO 4 from the plurality of luminance differences images. Generating a plurality of binary images including white patches by separating patches from the second photographed images CO 1 , CO 2 , CO 3 , and CO 4 ; Generating a plurality of octal images OO 1 , OO 2 , OO 3 , and OO 4 by replacing corresponding pixels with the detected color. The method may include extracting a color combination of the patches having the same position from the plurality of octal images OO 1 , OO 2 , OO 3 , and OO 4 . The extracted color combination corresponds to an identifier of a patch constituting the first captured image O 0 .

상기 과정 중 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계는, 제1 촬영 영상(O0)의 신호 포맷을 밝기 성분을 포함하는 신호 포맷으로 변환하여 제1 촬영 영상(O0)의 밝기를 확인하는 단계와, 제1 촬영 영상(O0)의 각 픽셀이 동일한 밝기(예를 들면, 제1 촬영 영상의 최대 밝기 혹은 평균 밝기)를 가질 수 있도록 보정하는데 필요한 보정값을 픽셀별로 계산하는 단계와, 상기 픽셀별 보정값을 제2 촬영 영상들(O1, O2, O3, O4)의 대응하는 픽셀에 적용하여 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계를 포함할 수 있다. Correcting the brightness of the second photographed image (O 1 , O 2 , O 3 , O 4 ) during the process, converts the signal format of the first photographed image (O 0 ) to a signal format including a brightness component to have a first captured image and (O 0) confirming the brightness of the first photographed image for each pixel, the same brightness (O 0) (for example, the first maximum brightness or the average brightness of the photographed image) Calculating a correction value necessary for correction so that the correction is performed for each pixel, and applying the correction value for each pixel to a corresponding pixel of the second captured images O 1 , O 2 , O 3 , and O 4 . And correcting the brightness of (O 1 , O 2 , O 3 , O 4 ).

그 다음, 매칭부(170)는 보정용 영상(I0)과 제1 촬영 영상(O0)에서 동일한 식별자를 갖는 패치들을 매칭할 수 있다(S370). 상기 매칭 정보는 제3 자료 구조(DS2)에 저장될 수 있다. Next, the matching unit 170 may match patches having the same identifier in the correction image I 0 and the first photographed image O 0 (S370). The matching information may be stored in the third data structure DS2.

이 후, 보정값 계산부(180)는 제3 자료 구조(DS2)를 참조하여, 보정용 영상(I0)의 픽셀과 제1 촬영 영상(O0)의 픽셀 간의 기하학적 매핑 관계를 나타내는 보 정값을 계산할 수 있다(S380). 계산된 보정값은 룩업테이블의 형태로 저장부(190)에 저장될 수 있다. Subsequently, the correction value calculator 180 refers to the third data structure DS2 and calculates a correction value indicating a geometric mapping relationship between the pixels of the correction image I 0 and the pixels of the first photographed image O 0 . Can be calculated (S380). The calculated correction value may be stored in the storage 190 in the form of a lookup table.

한편, 투사면에 투사할 입력 영상이 제공되면, 보정부(195)는 룩업테이블을 참조하여 입력 영상을 대상으로 기하 보정을 수행할 수 있다(S390). 보정된 영상은 투사부(120)를 통해 투사면에 투사될 수 있다. Meanwhile, when the input image to be projected on the projection surface is provided, the correction unit 195 may perform geometric correction on the input image with reference to the lookup table (S390). The corrected image may be projected onto the projection surface through the projection unit 120.

다음으로, 도 16 및 도 17을 참조하여, 본 발명의 다른 실시예에 따른 영상 보정 장치(400) 및 방법에 대해서 설명하기로 한다. Next, an image correction apparatus 400 and a method according to another embodiment of the present invention will be described with reference to FIGS. 16 and 17.

도 16은 본 발명의 다른 실시예에 따른 영상 보정 장치(400)의 구성을 도시한 도면이다. 도시된 바와 같이, 영상 보정 장치(400)는 투사부(420), 촬영부(430), 전처리부(440), 검출부(450), 제1 디코딩부(460-1), 제2 디코딩부(460-2), 제1 저장부(410), 제2 저장부(490), 매칭부(470), 보정값 계산부(480), 및 보정부(495)를 포함할 수 있다. 도 16에서 투사부(420), 촬영부(430), 전처리부(440), 검출부(450), 매칭부(470), 보정값 계산부(480), 및 보정부(495)는 일 실시예에서와 동일하며, 제2 디코딩부(460-2) 및 제2 저장부(490)는 일 실시예에서의 디코딩부(160) 및 저장부(190)와 각각 동일하므로, 중복되는 부분에 대한 설명은 생략하고, 제1 저장부(410) 및 제1 디코딩부(460-1)를 중심으로 설명하기로 한다. FIG. 16 is a diagram illustrating a configuration of an image correcting apparatus 400 according to another exemplary embodiment. As illustrated, the image calibrating apparatus 400 may include a projection unit 420, a photographing unit 430, a preprocessor 440, a detector 450, a first decoding unit 460-1, and a second decoding unit ( 460-2), a first storage unit 410, a second storage unit 490, a matching unit 470, a correction value calculator 480, and a correction unit 495. In FIG. 16, the projection unit 420, the photographing unit 430, the preprocessor 440, the detector 450, the matching unit 470, the correction value calculator 480, and the correction unit 495 are exemplary embodiments. Since the second decoding unit 460-2 and the second storage unit 490 are the same as the decoding unit 160 and the storage unit 190 according to an exemplary embodiment, a description of overlapping portions will be described. Will be omitted and will be described with reference to the first storage unit 410 and the first decoding unit 460-1.

제1 저장부(410)는 보정용 영상(I0) 및 상기 보정용 영상(I0)을 구성하는 각 패치의 식별자를 생성하는데 필요한 코딩 영상들(I1, I2, I3, I4)을 저장할 수 있다. 제1 저장부(410)는 제2 저장부(490)와 하드웨어적으로 독립적으로 구현될 수 있으 며, 제2 저장부(490)와 병합된 형태로 구현될 수도 있다. The first storage unit 410 stores the correction image I 0 and the coding images I 1 , I 2 , I 3 , and I 4 necessary to generate an identifier of each patch constituting the correction image I 0 . Can be stored. The first storage unit 410 may be implemented independently of the second storage unit 490 in hardware, or may be implemented in a merged form with the second storage unit 490.

제1 디코딩부(460-1)는 제1 저장부(410)에 저장된 코딩 영상들(I1, I2, I3, I4)에서 동일한 위치의 패치가 갖는 색상들의 조합을 추출할 수 있다. 추출된 색상 조합은 보정용 영상(I0)을 구성하는 각 패치의 식별자로 할당될 수 있다. The first decoding unit 460-1 may extract a combination of colors of a patch at the same position from the coded images I 1 , I 2 , I 3 , and I 4 stored in the first storage unit 410. . The extracted color combinations may be allocated as identifiers of the patches constituting the correction image I 0 .

도 17은 본 발명의 다른 실시예에 따른 영상 보정 방법을 도시한 흐름도이다. 17 is a flowchart illustrating an image correction method according to another embodiment of the present invention.

먼저, 제1 디코딩부(460-1)는 제1 저장부(410)에 저장된 코딩 영상들(I1, I2, I3, I4)에서 동일한 위치의 패치들이 갖는 색상 조합을 추출할 수 있다(S510). 추출된 색상 조합은 보정용 영상(I0)을 구성하는 각 패치들의 식별자에 해당한다(S520). First, the first decoder 460-1 may extract color combinations of patches having the same location from the coded images I 1 , I 2 , I 3 , and I 4 stored in the first storage unit 410. There is (S510). The extracted color combinations correspond to identifiers of respective patches constituting the correction image I 0 (S520).

이 후, 투사부(420)를 통해 보정용 영상(I0) 및 코딩 영상들(I1, I2, I3, I4)이 투사면에 차례로 투사되면(S530), 촬영부(430)는 투사된 보정용 영상 및 코딩 영상들을 촬영하여, 보정용 영상(I0)을 촬영한 제1 촬영 영상(O0) 및 코딩 영상들(I1, I2, I3, I4)을 촬영한 제2 촬영 영상들(O1, O2, O3, O4)을 획득할 수 있다(S540). Thereafter, when the correction image I 0 and the coding images I 1 , I 2 , I 3 , and I 4 are sequentially projected onto the projection surface through the projection unit 420 (S530), the photographing unit 430 may taken of the projected calibration image and the coded picture, and recording the first recording video image photographing a calibration image (I 0) (O 0) and the coded image (I 1, I 2, I 3, I 4) of claim 2 The captured images O 1 , O 2 , O 3 , and O 4 may be acquired (S540).

이 후, 검출부(450)는 제1 촬영 영상(O0)을 구성하는 각 패치의 에지 및 중심 좌표를 검출하여 제2 자료 구조(DS1)에 저장할 수 있다(S550). 상기 검출 단계 는, 제1 촬영 영상(O0)에서 각 패치를 분리하여 바이너리 영상(B0)을 생성하는 단계와, 상기 바이너리 영상(B0)을 필터링하여 필터링 영상(F0)을 생성하는 단계와, 상기 필터링 영상(F0)에서 각 패치의 에지 및 중심 좌표를 검출하는 단계를 포함할 수 있다. Thereafter, the detection unit 450 may detect edges and center coordinates of each patch constituting the first captured image O 0 and store them in the second data structure DS1 (S550). The detecting may include generating a binary image B 0 by separating each patch from the first photographed image O 0 , and generating a filtered image F 0 by filtering the binary image B 0 . And detecting edge and center coordinates of each patch in the filtered image F 0 .

한편, 제2 디코딩부(460-2)는 제2 촬영 영상들(O1, O2, O3, O4)에서 동일한 위치의 패치가 갖는 색상 조합을 검출할 수 있다(S560). 상기 색상 조합을 검출하는 단계는, 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계와, 밝기가 보정된 제2 영상들(CO1, CO2, CO3, CO4)에 대응하는 복수개의 옥탈 영상(OO1, OO2, OO3, OO4)을 생성하는 단계와, 상기 옥탈 영상들(OO1, OO2, OO3, OO4)에서 동일한 위치의 패치가 갖는 색상 조합을 검출하는 단계를 포함할 수 있다. 이 때, 검출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 각 패치의 식별자에 해당한다. Meanwhile, the second decoding unit 460-2 may detect the color combination of the patch at the same position in the second captured images O 1 , O 2 , O 3 , and O 4 (S560). The detecting of the color combination may include correcting the brightness of the second captured images O 1 , O 2 , O 3 , and O 4 , and correcting the brightness of the second images CO 1 , CO 2 , and the like. Generating a plurality of octal images (OO 1 , OO 2 , OO 3 , OO 4 ) corresponding to CO 3 , CO 4 ), from the octal images (OO 1 , OO 2 , OO 3 , OO 4 ) The method may include detecting a color combination of the patches at the same location. In this case, the detected color combination corresponds to an identifier of each patch constituting the first captured image O 0 .

매칭부(470)는 보정용 영상(I0)과 제1 촬영 영상(O0)에서 동일한 식별자를 갖는 패치를 서로 매칭할 수 있다(S570). 매칭 정보는 제3 자료 구조(DS2=DS0+SD1)에 저장될 수 있다. The matching unit 470 may match a patch having the same identifier in the correction image I 0 and the first photographed image O 0 (S570). The matching information may be stored in the third data structure DS2 = DS0 + SD1.

이 후, 보정값 계산부(480)는 제3 자료 구조(DS2)를 참조하여, 보정용 영상(I0)과 제1 촬영 영상(O0) 간의 기하학적 매핑 관계를 나타내는 보정값을 픽셀별로 계산할 수 있다(S580). 상기 보정값은 룩업테이블의 형태로 제2 저장부(490)에 저장될 수 있다. Thereafter, the correction value calculator 480 may calculate, for each pixel, a correction value indicating a geometric mapping relationship between the correction image I 0 and the first photographed image O 0 with reference to the third data structure DS2. There is (S580). The correction value may be stored in the second storage unit 490 in the form of a lookup table.

마지막으로, 보정부(495)는 룩업테이블을 참조하여, 투사면에 투사할 입력 영상을 대상으로 기하 보정을 수행할 수 있다. 보정된 입력 영상은 투사부(420)를 통해 투사될 수 있다. Finally, the correction unit 495 may perform geometric correction on the input image to be projected on the projection surface by referring to the lookup table. The corrected input image may be projected through the projector 420.

이상과 같이 예시된 도면을 참조로 하여, 본 발명에 따른 투사 영상을 보정하는 장치 및 방법에 대하여 설명하였으나, 본 발명은 본 명세서에 개시된 실시예와 도면에 의해 한정되지 않으며, 그 발명의 기술사상 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.Although the apparatus and method for correcting the projection image according to the present invention have been described with reference to the drawings illustrated as above, the present invention is not limited to the embodiments and drawings disclosed herein, and the technical spirit of the present invention. Of course, various modifications may be made by those skilled in the art within the scope.

도 1은 본 발명의 일 실시예에 따른 영상 보정 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of an image correction device according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 보정용 영상을 도시한 도면이다. 2 is a diagram illustrating an image for correction according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 코딩 및 디코딩 원리를 나타낸 도면이다.3 illustrates coding and decoding principles according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 코딩 영상들을 도시한 도면이다. 4 is a diagram illustrating coded images according to an embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 제1 촬영 영상을 도시한 도면이다. 5 is a diagram illustrating a first captured image according to an embodiment of the present invention.

도 6은 본 발명의 실시예에 따른 제2 촬영 영상들을 도시한 도면이다. 6 is a diagram illustrating second captured images according to an exemplary embodiment of the present invention.

도 7은 본 발명의 실시예에 적용될 수 있는 템플릿을 예시한 도면이다. 7 is a diagram illustrating a template that can be applied to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 바이너리 영상 및 필터링 결과로 얻어진 바이너리 영상을 도시한 도면이다. 8 illustrates a binary image and a binary image obtained as a result of filtering according to an exemplary embodiment of the present invention.

도 9는 본 발명의 실시예에 따라 밝기가 보정된 제2 촬영 영상들을 도시한 도면이다. 9 is a diagram illustrating second captured images whose brightness is corrected according to an exemplary embodiment of the present invention.

도 10은 본 발명의 실시예에 따른 산술 연산자 T5 및 T9를 도시한 도면이다. 10 illustrates arithmetic operators T 5 and T 9 according to an embodiment of the present invention.

도 11은 본 발명의 실시예에 따른, 패치의 경계선 추적 방법을 도시한 도면이다. 11 is a diagram illustrating a boundary tracking method of a patch according to an embodiment of the present invention.

도 12는 본 발명의 실시예에 따라 각 패치의 에지 및 중심 좌표를 검출한 결과를 도시한 도면이다. 12 is a diagram illustrating a result of detecting edge and center coordinates of each patch according to an embodiment of the present invention.

도 13은 본 발명의 실시예에 따라 밝기가 보정된 제2 촬영 영상의 픽셀이 갖 는 색상을 확인하는데 필요한 매핑 테이블을 도시한 도면이다. FIG. 13 is a diagram illustrating a mapping table required to confirm colors of pixels of a second captured image whose brightness is corrected according to an exemplary embodiment of the present invention.

도 14는 본 발명의 실시예에 따른 옥탈 영상들을 도시한 도면이다. 14 illustrates octal images according to an embodiment of the present invention.

도 15는 본 발명의 일 실시예에 따른 영상 보정 방법을 도시한 도면이다. 15 is a diagram illustrating an image correction method according to an embodiment of the present invention.

도 16은 본 발명의 다른 실시예에 따른 영상 보정 장치의 구성을 도시한 도면이다. 16 is a diagram illustrating a configuration of an image correction device according to another embodiment of the present invention.

도 17은 본 발명의 다른 실시예에 따른 영상 보정 방법을 도시한 도면이다. 17 is a view showing an image correction method according to another embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100, 400: 영상 보정 장치 110: 코딩부100, 400: image correction device 110: coding unit

120, 420: 투사부 130, 430: 촬영부120, 420: projection unit 130, 430: recording unit

140, 440: 전처리부 150, 450: 검출부140, 440: preprocessor 150, 450: detector

160: 디코딩부 170, 470: 매칭부160: decoding unit 170, 470: matching unit

180, 480: 보정값 계산부 190: 저장부180, 480: correction value calculation unit 190: storage unit

195, 495: 보정부 410: 제1 저장부195 and 495: correction unit 410: first storage unit

460-1: 제1 디코딩부 460-2: 제2 디코딩부460-1: First decoding unit 460-2: Second decoding unit

Claims (24)

보정용 영상 및 서로 다른 컬러 패턴을 가지는 일련의 코딩 영상을 투사면에 투사하는 투사부;A projection unit for projecting a correction image and a series of coded images having different color patterns onto a projection surface; 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영한 제1 촬영 영상 및 일련의 제2 촬영 영상을 기반으로 하여 상기 투사면의 기하학적 특성을 계산하는 보정값 계산부; 및A correction value calculator configured to calculate geometrical characteristics of the projection surface based on the first photographed image and the second photographed image obtained by photographing the projected correction image and the series of coded images; And 상기 계산된 투사면의 기하학적 특성을 반영하여 상기 투사면에 투사할 입력 영상을 보정하는 보정부를 포함하는 영상 보정 장치. And a correction unit configured to correct an input image to be projected onto the projection surface by reflecting the calculated geometric characteristics of the projection surface. 제 1항에 있어서, The method of claim 1, 상기 보정용 영상 및 상기 일련의 코딩 영상은 기하학적 구조가 동일한 영상 보정 장치.And the correcting image and the series of coded images have the same geometrical structure. 제 1항에 있어서, The method of claim 1, 상기 보정용 영상은 소정 간격으로 이격된 복수개의 흰색 패치를 포함하며, 상기 간격은 흑색으로 이루어지는 영상 보정 장치. The image for correction includes a plurality of white patches spaced at predetermined intervals, and the interval is black. 제 1항에 있어서, The method of claim 1, 상기 보정용 영상을 구성하는 각 패치에는, 상기 일련의 코딩 영상에서 동일 한 위치의 패치들이 갖는 색상 조합에 따른 제1 식별자가 할당되는 영상 보정 장치. Each patch constituting the correction image is assigned a first identifier according to a color combination of patches having the same position in the series of coded images. 제 4항에 있어서, The method of claim 4, wherein 상기 색상 조합이 유일하도록 상기 일련의 코딩 영상을 생성하는 인코딩부를 더 포함하는 영상 보정 장치.And an encoder configured to generate the series of coded images such that the color combinations are unique. 제 4항에 있어서,The method of claim 4, wherein 상기 제1 촬영 영상의 밝기에 근거하여, 상기 일련의 제2 촬영 영상의 밝기를 보정하는 전처리부;A preprocessor configured to correct brightness of the series of second captured images based on the brightness of the first captured image; 상기 밝기가 보정된 제2 촬영 영상에 근거하여, 상기 제1 촬영 영상을 구성하는 각 패치의 제2 식별자를 추출하는 디코딩부; 및A decoding unit extracting a second identifier of each patch constituting the first captured image based on the second captured image whose brightness is corrected; And 상기 제1 식별자와 상기 제2 식별자가 동일한 패치를 서로 매칭하는 매칭부를 더 포함하는 영상 처리 장치.And a matching unit matching a patch having the same identifier as the first identifier and the second identifier. 제 6항에 있어서,The method of claim 6, 상기 제2 식별자는, 상기 밝기가 보정된 일련의 제2 촬영 영상에서 동일한 위치의 패치들이 갖는 색상의 조합인, 영상 보정 장치. And the second identifier is a combination of colors of patches having the same position in the second series of captured images of which brightness is corrected. 제 6항에 있어서,The method of claim 6, 상기 보정값 계산부는, 상기 매칭된 패치 간의 중심 좌표 및 에지 정보 중 적어도 하나에 근거하여, 상기 입력 영상을 보정하기 위한 보정값을 계산하는 영상 처리 장치.And the correction value calculator calculates a correction value for correcting the input image based on at least one of center coordinates and edge information between the matched patches. 제 4항에 있어서,The method of claim 4, wherein 상기 보정용 영상 및 상기 일련의 코딩 영상을 저장하는 저장부; A storage unit which stores the correction image and the series of coded images; 상기 제1 식별자를 추출하는 제1 디코딩부;A first decoding unit to extract the first identifier; 상기 제1 촬영 영상의 밝기에 근거하여, 상기 일련의 제2 촬영 영상의 밝기를 보정하는 전처리부;A preprocessor configured to correct brightness of the series of second captured images based on the brightness of the first captured image; 상기 밝기가 보정된 제2 촬영 영상에 근거하여, 상기 제1 촬영 영상을 구성하는 각 패치의 제2 식별자를 추출하는 제2 디코딩부; 및A second decoding unit extracting a second identifier of each patch constituting the first captured image based on the second captured image whose brightness is corrected; And 상기 제1 식별자와 상기 제2 식별자가 동일한 패치를 서로 매칭하는 매칭부를 더 포함하는 영상 보정 장치.And a matching unit which matches the patch with the same first identifier and the second identifier. 제 1항에 있어서, The method of claim 1, 상기 일련의 코딩 영상은 m개이며, 상기 m은
Figure 112007048614857-PAT00010
을 만족하는 최소 정수이고, 상기 n은 상기 보정용 영상이 포함하는 패치의 총 개수이며, 상기 Y는 상기 일련의 코딩 영상에서 패치들이 갖는 색상의 개수인 영상 보정 장치.
The series of coded images is m, where m is
Figure 112007048614857-PAT00010
And n is a total number of patches included in the correction image, and Y is a number of colors of patches in the series of coded images.
제 10항에 있어서, The method of claim 10, 상기 일련의 코딩 영상에서 x번째 위치한 패치들의 색상은,In the series of coded images, the colors of the xth patches are
Figure 112007048614857-PAT00011
에서 ai(i=0, 1, 2, ... , m-1)에 대응하는 색상에 의해 결정되는 영상 보정 장치.
Figure 112007048614857-PAT00011
Is an image correction device determined by the color corresponding to a i (i = 0, 1, 2, ..., m-1).
제 1항에 있어서, The method of claim 1, 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영하는 촬영부를 더 포함하는 영상 보정 장치.And a photographing unit configured to photograph the projected correction image and a series of coded images. 보정용 영상 및 서로 다른 컬러 패턴을 가지는 일련의 코딩 영상을 투사면에 투사하는 단계;Projecting a correction image and a series of coded images having different color patterns onto a projection surface; 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영한 제1 촬영 영상 및 일련의 제2 촬영 영상을 기반으로하여 상기 투사면의 기하학적 특성을 계산하는 단계; 및Calculating geometric characteristics of the projection surface based on the first photographed image and the second photographed image obtained by photographing the projected correction image and the series of coded images; And 상기 계산된 투사면의 기하학적 특성을 반영하여 상기 투사면에 투사할 입력 영상을 보정하는 단계를 포함하는 영상 보정 방법. Correcting the input image to be projected onto the projection surface by reflecting the calculated geometrical characteristics of the projection surface. 제 13항에 있어서, The method of claim 13, 상기 보정용 영상 및 상기 일련의 코딩 영상은 기하학적 구조가 동일한 영상 보정 방법.And the correction image and the series of coded images have the same geometrical structure. 제 13항에 있어서, The method of claim 13, 상기 보정용 영상은 소정 간격으로 이격된 복수개의 흰색 패치를 포함하며, 상기 간격은 흑색으로 이루어지는 영상 보정 방법. The image for correction includes a plurality of white patches spaced at predetermined intervals, wherein the interval is black image correction method. 제 13항에 있어서, The method of claim 13, 상기 일련의 코딩 영상에서 동일한 위치의 패치들이 갖는 색상 조합을 상기 보정용 영상을 구성하는 각 패치의 제1 식별자로 할당하는 단계를 더 포함하는 영상 보정 방법. And assigning a color combination of patches of the same position in the series of coded images to the first identifier of each patch constituting the correction image. 제 16항에 있어서, The method of claim 16, 상기 색상 조합이 유일하도록 상기 일련의 코딩 영상을 생성하는 단계를 더 포함하는 영상 보정 방법.Generating the series of coded images such that the color combinations are unique. 제 16항에 있어서,The method of claim 16, 상기 제1 촬영 영상의 밝기에 근거하여, 상기 일련의 제2 촬영 영상의 밝기를 보정하는 단계;Correcting brightness of the series of second captured images based on the brightness of the first captured image; 상기 밝기가 보정된 제2 촬영 영상에 근거하여, 상기 제1 촬영 영상을 구성하는 각 패치의 제2 식별자를 추출하는 단계; 및Extracting a second identifier of each patch constituting the first captured image based on the second captured image whose brightness is corrected; And 상기 제1 식별자와 상기 제2 식별자가 동일한 패치를 서로 매칭하는 단계를 더 포함하는 영상 처리 장치.And matching a patch having the same identifier as the first identifier and the second identifier. 제 18항에 있어서,The method of claim 18, 상기 제2 식별자는, 상기 밝기가 보정된 일련의 제2 촬영 영상에서 동일한 위치의 패치들이 갖는 색상의 조합인, 영상 보정 방법. And the second identifier is a combination of colors of patches having the same position in the series of second photographed images whose brightness is corrected. 제 18항에 있어서,The method of claim 18, 상기 투사면의 기하학적 특성을 계산하는 단계는, Calculating the geometric characteristics of the projection surface, 상기 매칭된 패치 간의 중심 좌표 및 에지 정보 중 적어도 하나에 근거하여, 상기 입력 영상을 보정하기 위한 보정값을 계산하는 단계를 포함하는 영상 처리 장치.And calculating a correction value for correcting the input image, based on at least one of center coordinates and edge information between the matched patches. 제 16항에 있어서,The method of claim 16, 상기 보정용 영상 및 상기 일련의 코딩 영상을 저장하는 단계; Storing the correction image and the series of coded images; 상기 제1 식별자를 추출하는 단계;Extracting the first identifier; 상기 제1 촬영 영상의 밝기에 근거하여, 상기 일련의 제2 촬영 영상의 밝기를 보정하는 단계;Correcting brightness of the series of second captured images based on the brightness of the first captured image; 상기 밝기가 보정된 제2 촬영 영상에 근거하여, 상기 제1 촬영 영상을 구성하는 각 패치의 제2 식별자를 추출하는 단계; 및Extracting a second identifier of each patch constituting the first captured image based on the second captured image whose brightness is corrected; And 상기 제1 식별자와 상기 제2 식별자가 동일한 패치를 서로 매칭하는 단계를 더 포함하는 영상 보정 방법.And matching a patch having the same identifier as the first identifier and the second identifier. 제 13항에 있어서, The method of claim 13, 상기 일련의 코딩 영상은 m개이며, 상기 m은
Figure 112007048614857-PAT00012
을 만족하는 최소 정수이고, 상기 n은 상기 보정용 영상이 포함하는 패치의 총 개수이며, 상기 Y는 상기 일련의 코딩 영상에서 패치들이 갖는 색상의 개수인 영상 보정 방법.
The series of coded images is m, where m is
Figure 112007048614857-PAT00012
And n is a total number of patches included in the correction image, and Y is a number of colors of patches in the series of coded images.
제 22항에 있어서, The method of claim 22, 상기 일련의 코딩 영상에서 x번째 위치한 패치들의 색상은,In the series of coded images, the colors of the xth patches are
Figure 112007048614857-PAT00013
에서 ai(i=0, 1, 2, ..., m-1)에 대응하는 색상에 의해 결정되는 영상 보정 방법.
Figure 112007048614857-PAT00013
Is determined by the color corresponding to a i (i = 0, 1, 2, ..., m-1).
제 13항에 있어서, The method of claim 13, 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영하는 단계를 더 포함하는 영상 보정 방법.And photographing the projected correction image and the series of coded images.
KR1020070066638A 2007-06-29 2007-07-03 Apparatus and method for calibration of projected image KR20090002698A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070066638A KR20090002698A (en) 2007-06-29 2007-07-03 Apparatus and method for calibration of projected image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN???? 2007-06-29
KR1020070066638A KR20090002698A (en) 2007-06-29 2007-07-03 Apparatus and method for calibration of projected image

Publications (1)

Publication Number Publication Date
KR20090002698A true KR20090002698A (en) 2009-01-09

Family

ID=40485652

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070066638A KR20090002698A (en) 2007-06-29 2007-07-03 Apparatus and method for calibration of projected image

Country Status (1)

Country Link
KR (1) KR20090002698A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085779A (en) * 2012-12-27 2014-07-08 삼성전자주식회사 Method and apparatus for calibration of light field display using multi-projectors
CN113709429A (en) * 2020-05-20 2021-11-26 中强光电股份有限公司 Color correction method and color correction system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085779A (en) * 2012-12-27 2014-07-08 삼성전자주식회사 Method and apparatus for calibration of light field display using multi-projectors
CN113709429A (en) * 2020-05-20 2021-11-26 中强光电股份有限公司 Color correction method and color correction system

Similar Documents

Publication Publication Date Title
US8950872B2 (en) Image projecting device, image processing device, image projecting method, and computer-readable recording medium
US10750141B2 (en) Automatic calibration projection system and method
US9654750B2 (en) Image processing system, image processing apparatus, and image processing method to respectively display images obtained by dividing one image on first and the second display media
US8290271B2 (en) Method, medium and apparatus correcting projected image
US9912839B2 (en) Method for conversion of a saturated image into a non-saturated image
US9398277B2 (en) Projection type display device and method for producing recorded images
CN107750370B (en) Method and apparatus for determining a depth map for an image
JP2020508479A (en) Method and apparatus for automatically correcting a projection area based on an image photographed by a photographing device
CN101335901A (en) Projected picture correcting method and apparatus
JP2007295375A (en) Projection image correction device, and its program
US7813578B2 (en) Method and apparatus for unobtrusively correcting projected image
JP2019220887A (en) Image processing system, image processing method, and program
JP6771134B2 (en) Image correction method and image correction device
JP2017212638A (en) Display device, control method for display device, and program
US20190051028A1 (en) Digital signal processing for image filtering field
KR20090002698A (en) Apparatus and method for calibration of projected image
KR101488343B1 (en) Apparatus for processing image of vehicle display panal
JP2007271771A (en) Image display system and control method therefor
JP5691290B2 (en) Display system setting method, display system setting device, and computer-readable storage medium
CN110769222B (en) Projection surface depth information acquisition method, projection method and projection system
US10319131B2 (en) Digital signal processing for image filtering field
KR101671936B1 (en) Method and device for automatically generating and projecting multi-surface images
US20160127704A1 (en) Display control apparatus, method of controlling the same, and non-transitory computer-readable storage medium
KR101706554B1 (en) Apparatus and method for processing image for clear edge reproduction
CN105809635A (en) Image block matching restoration method based on line scanning

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination