KR20090002698A - Apparatus and method for calibration of projected image - Google Patents
Apparatus and method for calibration of projected image Download PDFInfo
- Publication number
- KR20090002698A KR20090002698A KR1020070066638A KR20070066638A KR20090002698A KR 20090002698 A KR20090002698 A KR 20090002698A KR 1020070066638 A KR1020070066638 A KR 1020070066638A KR 20070066638 A KR20070066638 A KR 20070066638A KR 20090002698 A KR20090002698 A KR 20090002698A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- correction
- series
- identifier
- images
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3182—Colour adjustment, e.g. white balance, shading or gamut
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Projection Apparatus (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 영상 보정에 관한 것으로서, 더욱 상세하게는 투사 영상을 보정하는 방법 및 장치에 관한 것이다.The present invention relates to image correction, and more particularly, to a method and apparatus for correcting a projection image.
최근, 휴대용 프로젝터의 보급이 확대됨에 따라, 프로젝터용으로 보급되는 스크린뿐만 아니라, 벽이나 커튼 등 임의의 투사면에 영상 프레임을 투사시키기 위하여, 투사면의 특성으로 인한 영상 프레임의 왜곡 현상을 보정할 수 있는 기술에 대한 요구가 증가하고 있다.In recent years, as the spread of portable projectors has been expanded, in order to project image frames to arbitrary projection surfaces such as walls and curtains, as well as screens that are widely used for projectors, distortion of image frames due to characteristics of the projection surfaces may be corrected. There is an increasing demand for technology that can be used.
일반적으로, 프로젝터를 이용한 디스플레이 시스템은 평면의 스크린에 영상 프레임을 투사함으로써 영상 프레임을 디스플레이한다. 그런데, 스크린이 자체적으로 색상을 가지고 있는 경우, 스크린에 투사된 영상 프레임은 실제의 영상 프레임에 비하여 왜곡된 색상을 갖게 된다. 뿐만 아니라, 스크린이 완전한 평면이 아닌 경우 스크린의 굴곡으로 인한 기하학적 왜곡 현상이 투사된 영상 프레임에 발생할 수 있다. In general, a display system using a projector displays an image frame by projecting the image frame onto a flat screen. However, when the screen has its own color, the image frame projected on the screen has a distorted color as compared with the actual image frame. In addition, when the screen is not a perfect plane, geometric distortion due to the curvature of the screen may occur in the projected image frame.
때문에 투사된 영상 프레임의 왜곡을 보정하기 위해서는 스크린의 색상적 특 성과 기하학적 특성을 모델링하여야 한다. 스크린의 특성을 모델링 하기 위한 종래 기술에 따르면 영상 프레임을 투사하기 전에, 스크린에 소정의 패턴 영상을 투사하고, 투사된 패턴 영상을 카메라로 촬영함으로써 투사시킨 패턴 영상과 촬영된 패턴 영상을 비교하는 작업이 선행되었다. 투사시킨 패턴과 촬영된 패턴의 비교 결과를 통해서 스크린의 특성을 나타내는 함수를 구할 수 있으며, 구해진 함수의 역함수를 투사시킬 영상 프레임에 적용하면, 사용자는 스크린의 특성으로 인한 왜곡 현상이 보정된 영상 프레임을 볼 수 있게 된다. Therefore, in order to correct the distortion of the projected image frame, color and geometric characteristics of the screen must be modeled. According to the prior art for modeling the characteristics of the screen, before projecting the image frame, the operation of comparing the projected pattern image and the photographed pattern image by projecting a predetermined pattern image on the screen and shooting the projected pattern image with a camera This was preceded. A function representing the characteristics of the screen can be obtained by comparing the projected pattern with the photographed pattern. When the inverse function of the obtained function is applied to the image frame to be projected, the user can correct the distortion due to the characteristics of the screen. You will be able to see
그런데 종래의 기술은, 스크린이 패턴 영상과 상쇄되는 패턴을 가지는 경우, 스크린의 기하학적 특성을 정확하게 모델링하기 어렵다는 문제가 있다. 예를 들어, 세로 줄무늬의 패턴을 갖는 벽면에 세로 줄무늬의 패턴 영상이 투사된다면, 투사된 영상을 촬영하였을 때 벽면의 세로 줄무늬와 패턴 영상의 세로 줄무늬를 구분하기가 어렵다. 그 결과, 벽면의 기하학적 특성을 정확하게 모델링하기가 어렵다. However, the conventional technology has a problem that it is difficult to accurately model the geometrical characteristics of the screen when the screen has a pattern that cancels the pattern image. For example, if the pattern image of the vertical stripe is projected on the wall having the pattern of the vertical stripe, it is difficult to distinguish between the vertical stripe of the wall and the vertical stripe of the pattern image when the projected image is taken. As a result, it is difficult to accurately model the wall geometry.
따라서, 스크린의 기하학적 특성을 보다 정확하게 모델링할 수 있는 기술이 요구된다.Therefore, a technique for more accurately modeling the geometrical characteristics of the screen is required.
본 발명은 투사면의 기하학적 특성을 보다 정확하게 모델링하는데 그 목적이 있다. It is an object of the present invention to model the geometrical characteristics of the projection surface more accurately.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 영상 보정 장치는 보정용 영상 및 서로 다른 컬러 패턴을 가지는 일련의 코딩 영상을 투사면에 투사하는 투사부, 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영한 제1 촬영 영상 및 일련의 제2 촬영 영상을 기반으로 하여 상기 투사면의 기하학적 특성을 계산하는 보정값 계산부, 및 상기 계산된 투사면의 기하학적 특성을 반영하여 상기 투사면에 투사할 입력 영상을 보정하는 보정부를 포함한다. In order to achieve the above object, an image correction apparatus according to an exemplary embodiment of the present invention includes a projection unit for projecting a correction image and a series of coded images having different color patterns onto a projection surface, the projected correction image, and a series of coded images. A correction value calculator which calculates geometrical characteristics of the projection surface based on the first photographed image and a series of second photographed images, and an input to project onto the projection surface by reflecting the calculated geometrical characteristics of the projection surface It includes a correction unit for correcting the image.
상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 영상 보정 방법은, 보정용 영상 및 서로 다른 컬러 패턴을 가지는 일련의 코딩 영상을 투사면에 투사하는 단계, 상기 투사된 보정용 영상 및 일련의 코딩 영상을 촬영한 제1 촬영 영상 및 일련의 제2 촬영 영상을 기반으로하여 상기 투사면의 기하학적 특성을 계산하는 단계, 및 상기 계산된 투사면의 기하학적 특성을 반영하여 상기 투사면에 투사할 입력 영상을 보정하는 단계를 포함한다. In order to achieve the above object, an image correction method according to an embodiment of the present invention includes projecting a correction image and a series of coded images having different color patterns onto a projection surface, and projecting the projected correction image and the series of coded images. Calculating geometric characteristics of the projection surface based on the first photographed image and a series of second photographed images, and correcting the input image to project on the projection surface by reflecting the calculated geometric characteristics of the projection surface It includes a step.
상기한 바와 같이 본 발명에 의한 투사 영상을 보정하는 장치 및 방법에 따르면, 투사면의 기하학적 특성을 보다 정확하게 모델링할 수 있는 효과가 있다.As described above, according to the apparatus and method for correcting the projection image according to the present invention, there is an effect that can accurately model the geometrical characteristics of the projection surface.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있으며, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.Specific details of other embodiments are included in the detailed description and drawings, and the advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and the present embodiments merely make the disclosure of the present invention complete and common knowledge in the technical field to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.
이하, 본 발명의 실시예들에 의한 영상 보정 방법 및 장치를 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들 이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Hereinafter, the present invention will be described with reference to the drawings for a block diagram or a processing flowchart for explaining an image correction method and apparatus according to embodiments of the present invention. At this point, it will be understood that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions performed through the processor of the computer or other programmable data processing equipment are described in the flowchart block (s). It will create a means to perform the functions.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block (s).
컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions for performing the processing equipment may also provide steps for performing the functions described in the flowchart block (s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다. In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.
도 1은 본 발명의 일 실시예에 따른 투사 영상을 보정하는 장치(이하, 영상 보정 장치)의 구성을 도시한 도면이다. 도시된 바와 같이, 영상 보정 장치(100)는 인코딩부(110), 투사부(120), 촬영부(130), 전처리부(140), 검출부(150), 디코딩부(160), 매칭부(170), 보정값 계산부(180), 저장부(190), 및 보정부(195)를 포함할 수 있다. 1 is a diagram illustrating a configuration of an apparatus (hereinafter, referred to as an image correcting apparatus) for correcting a projected image according to an exemplary embodiment. As shown, the image correcting apparatus 100 includes an
인코딩부(110)는 보정용 영상을 코딩하여 서로 다른 컬러 패턴을 갖는 복수개의 코딩 영상을 생성할 수 있다. 여기서, 보정용 영상(이하, I0)은 입력 영상이 투사될 투사면(projection surface)의 색상이나 기하학적 형상으로 인하여, 투사면에 디스플레이된 입력 영상에 발생할 수 있는 왜곡을 보정하는데 사용되는 영상을 말한다. 보정용 영상(I0)은 도 2에 도시된 바와 같이, 소정 간격으로 이격된 복수개의 흰색 패치를 포함할 수 있으며, 각 패치 간의 간격은 검정색으로 이루어질 수 있다. 도 2에 도시된 보정용 영상(I0)는 가로×세로 각각 30×30 개의 패치를 포함하고 있음을 알 수 있다. 또한, 보정용 영상(I0)을 구성하는 각 패치의 중심 좌표는 제1 자료 구조(DS0)에 저장될 수 있다. The
한편, 코딩 영상(Ii; i=1,2, ..., m)은 보정용 영상(I0)과 동일한 기하학적 구조를 갖는 영상으로서, 보정용 영상(I0)을 구성하는 각 패치에 할당될 식별자를 생성하기 위한 색상 정보를 포함할 수 있다. On the other hand, coding image (I i; i = 1,2, ..., m) is a picture which has the same geometry and the correction image (I 0), to be assigned to each patch constituting the correction image (I 0) Color information for generating an identifier may be included.
다시 도 1을 참조하면, 인코딩부(110)는 보정용 영상(I0)을 구성하는 각 패치를 복수개의 색상 중 어느 하나의 색상으로 코딩하여 복수개의 코딩 영상(Ii; i=1,2,..., m)을 생성한 다음, 복수개의 코딩 영상(Ii; i=1,2, ..., m)에서 동일한 위치의 패치가 갖는 색상 조합에 근거하여, 보정용 영상(I0)의 패치를 위한 식별자를 생성할 수 있다. 여기서, 보정용 영상(I0)을 코딩하기 위해서는 예를 들어 8가지의 색상이 사용될 수 있는데, 이하의 설명에서는 흑색(Black), 적색(R), 녹색(G), 황색(Y), 청색(B), 자홍색(M), 청록색(C), 및 흰색(W)을 사용하는 경우를 예로 들어 설명하기로 한다. Referring back to FIG. 1, the
상기 8가지의 색상 중 흑색은 코딩 영상(Ii; i=1,2, ..., m)의 배경색으로 사용될 수 있다. 다시 말해, 흑색은 코딩 영상(Ii; i=1,2, ..., m)을 구성하는 각 패치 간의 간격을 채우는 색상으로 사용될 수 있다. 그리고, 흑색을 제외한 나머지 색상들에는 도 3에 도시된 바와 같이, 0 내지 6까지의 숫자가 차례로 할당될 수 있으며, 0 내지 6의 숫자들은 각각 이진수로 표현될 수 있다. Of the eight colors, black may be used as a background color of the coded image I i (i = 1, 2, ..., m). In other words, black may be used as a color that fills the gap between the patches constituting the coded image I i (i = 1, 2, ..., m). 3, numbers from 0 to 6 may be sequentially assigned to the remaining colors except for black, and numbers from 0 to 6 may be represented by binary numbers, respectively.
이처럼, 흑색을 제외한 7가지의 색상을 이용하는 경우, 보정용 영상(I0)을 구성하는 n개의 패치에 유일한 식별자를 할당하기 위해서는 총 m개의 코딩 영상(Ii; i=1,2, ..., m)이 필요하다. 여기서, m은 아래의 [수학식 1]을 만족하는 최소의 정수로 결정될 수 있다. As such, when seven colors except black are used, in order to assign a unique identifier to the n patches constituting the correction image I 0 , a total of m coded images I i ; i = 1, 2, ... m) is required. Here, m may be determined as a minimum integer that satisfies
예를 들어, 보정용 영상(I0)이 900개의 패치를 포함하는 경우, 7m≥900을 만족하는 정수 m 중 최소값은 4이므로, 보정용 영상(I0)을 구성하는 900개의 패치에 유일한 식별자를 할당하기 위해서는 총 4개의 코딩 영상(I1, I2, I3, I4)이 필요함을 알 수 있다. For example, when the correction image I 0 includes 900 patches, since the minimum value of the integer m satisfying 7 m ≥ 900 is 4, a unique identifier is assigned to the 900 patches constituting the correction image I 0 . It can be seen that a total of four coded images I 1 , I 2 , I 3 , and I 4 are required for allocation.
한편, 코딩 영상을 구성하는 패치를 좌측→우측→위→아래의 순으로 순서를 정하였을 때, 각 코딩 영상(I1, I2, I3, I4)에서 x번째 위치한 패치의 색은 아래의 [수학식 2]에서 a0, a1, ..., am-1에 각각 대응하는 색상으로 결정될 수 있다. 즉, 제1 코딩 영상(I1)에서 x번째 위치한 패치의 색은 a0에 대응하는 색상으로, 제2 코딩 영상(I2)에서 x번째 위치한 패치의 색은 a1에 대응하는 색상으로, 제3 코딩 영상(I3)에서 x번째 위치한 패치의 색은 a2에 대응하는 색상으로 결정되며, 제4 코딩 영상(I4)에서 x번째 위치한 패치의 색은 a3에 대응하는 색상으로 결정될 수 있다. On the other hand, when the patches constituting the coded image are ordered from left to right to top to bottom, the color of the x-th patch in each of the coded images I 1 , I 2 , I 3 , and I 4 is lower. In
예를 들어, 각 코딩 영상(I1, I2, I3, I4)에서 400번째 위치한 패치들은 각각 R, G, G, G로 결정될 수 있다. 왜냐하면, 400=399+1=0×70+1×71+1×72+1×73+1 로 표현될 수 있는데, 여기서 a0~a4가 [0,1,1,1]이며 도 3에서 숫자 0에 해당하는 색상은 적색(R)이고 숫자 1에 대응하는 색상은 녹색(G)이기 때문이다. 다른 예로써, 각 코딩 영상(I1, I2, I3, I4)을 구성하는 패치 중 300번째 위치한 패치들은 색은 각각 C, R, W, R로 결정될 수 있다. 왜냐하면, 300=299+1=5×70+0×71+6×72+0×73+1로 표현될 수 있는데, 여기서 a0~a4가 [5,0,6,0]이며, 도 3에서 숫자 5는 청록색(C)이고, 숫자 0에 대응하는 색은 적색(R)이며 숫자 6에 대응하는 색은 흰색(W)이기 때문이다.For example, the patches located 400th in each coded image I 1 , I 2 , I 3 , and I 4 may be determined as R, G, G, and G, respectively. Because 400 = 399 + 1 = 0 × 7 0 + 1 × 7 1 + 1 × 7 2 + 1 × 7 3 +1, where a 0 to a 4 are [0,1,1,1 ] And the color corresponding to the
전술한 [수학식 1] 및 [수학식 2]에 근거하여, 생성된 코딩 영상들(I1, I2, I3, I4)을 예시하면 도 4와 같다. 도 4에 도시된 바와 같이, 4개의 코딩 영상(I1, I2, I3, I4)에서 동일한 위치에 존재하는 패치의 색상 조합은 보정용 영상(I0)을 구성하는 패치 중 코딩 영상의 패치와 대응하는 위치에 존재하는 패치의 식별자로 할당될 수 있다. 예를 들어, 각 코딩 영상(I1, I2, I3, I4)에서 400번째 위치한 패치들이 갖는 색상 조합이 (R, G, G, G) 라면, 상기 색상 조합은 보정용 영상(I0)에서 400번째 위치한 패치의 식별자로 할당될 수 있다. 만약, 각 코딩 영상(I1, I2, I3, I4)에서 300번째 위치한 패치들이 갖는 색상 조합이 (C, R, W, R)라면, 상기 색상 조합은 보정용 영상(I0)에서 300번째 위치한 패치의 식별자로 할당될 수 있다. Based on the
투사부(120)는 보정용 영상(I0) 및 인코딩부(110)에 의해 생성된 4개의 코딩 영상(I1, I2, I3, I4)을 차례로 투사면에 투사할 수 있다. The
촬영부(130)는 투사면에 차례로 투사된 보정용 영상(I0) 및 코딩 영상들(I1, I2, I3, I4)을 촬영할 수 있다. 이하의 설명에서는 촬영부(130)를 통해 촬영된 보정용 영상을 제1 촬영 영상이라 하고, 촬영부(130)를 통해 촬영된 코딩 영상을 제2 촬영 영상이라 하기로 한다. 제1 촬영 영상(이하, O0) 및 제2 촬영 영상들(이하, O1, O2, O3, O4)은 도 5 및 도 6에 각각 도시되어 있다. The photographing
전처리부(140)는 제1 촬영 영상(O0) 및 제2 촬영 영상들(O1, O2, O3, O4)에 대하여 각각 전처리를 수행할 수 있다. 우선, 제1 촬영 영상(O0)에 대한 전처리 과정을 설명한 다음, 제2 촬영 영상들(O1, O2, O3, O4)에 대한 전처리 과정을 설명하기로 한다. The
전처리부(140)는 제1 촬영 영상(O0)에서 모든 패치를 분리하여 흑색 및 백색으로 이루어진 바이너리 영상(B0)을 생성할 수 있다. 이를 위해 전처리부(140)는 제1 촬영 영상(O0)에서 배경과 패치를 분리하는데 필요한 밝기의 임계값을 정한 다음, 제1 촬영 영상(O0)을 구성하는 모든 픽셀의 밝기를 상기 임계값과 비교하여, 임계값 이상의 밝기를 갖는 픽셀의 값은 흰색으로, 임계값 미만의 밝기를 갖는 픽셀 의 값은 흑색으로 지정함으로써, 바이너리 영상(B0)을 생성할 수 있다. 일 예로, 전처리부(140)는 제1 촬영 영상(O0)에 쓰레숄딩 알고리즘(thresholding algorithm)을 적용하여, 바이너리 영상(B0)을 생성할 수도 있다. The
이 후, 전처리부(140)는 바이너리 영상(B0)에서 각 패치의 경계가 명확해질 수 있도록 바이너리 영상을 필터링할 수 있다. 이를 위해 전처리부(140)는 템플릿 기반의 영상 처리(template-based image processing)를 수행할 수 있다. 여기서, 템플릿 기반의 영상 처리란, 원 영상에서 제1 픽셀이 갖는 값과 상기 제1 픽셀을 둘러싼 복수개의 픽셀들이 갖는 값에 근거하여, 출력 영상에서 상기 제1 픽셀에 대응하는 픽셀의 값을 결정하는 영상처리 방법을 말한다. 이 때, 상기 제1 픽셀 및 상기 제1 픽셀을 둘러싼 복수개의 픽셀들을 템플릿(template)이라고 하는데, 템플릿은 N×N 개의 픽셀로 이루어질 수 있다. 도 7은 템플릿의 종류를 도시한 것으로서, N×N 개의 픽셀 중 중심 픽셀을 제외하고 4개의 픽셀을 포함하는 템플릿(E4), 중심 픽셀을 제외하고 8개의 픽셀을 포함하는 템플릿(E8), 및 중심 픽셀을 제외하고 24개의 픽셀을 포함하는 템플릿(E24)를 보여주고 있다. Thereafter, the
전술한 템플릿 기반의 영상 처리를 적용하여 바이너리 영상(B0)을 필터링하면, 이전의 바이너리 영상에 비하여 배경과 패치 간의 경계가 명확해 진 영상을 얻을 수 있다. 도 8은 바이너리 영상(B0) 및 필터링 결과로 얻어진 바이너리 영 상(F0)을 도시한 도면이다. 도 8을 참조하면, 필터링 결과로 얻어진 바이너리 영상(F0)은 필터링 이전의 바이너리 영상(B0)에 비하여 배경과 패치 간의 경계가 보다 명확해진 것을 확인할 수 있다. 이하의 설명에서는 필터링 결과로 얻어진 바이너리 영상(F0)을 필터링 영상이라 칭하기로 한다.When the binary image B 0 is filtered by applying the template-based image processing described above, an image having a clear boundary between a background and a patch may be obtained as compared to the previous binary image. 8 illustrates a binary image B 0 and a binary image F 0 obtained as a result of the filtering. Referring to FIG. 8, it can be seen that the binary image F 0 obtained as a result of the filtering has a clearer boundary between the background and the patch than the binary image B 0 before filtering. In the following description, the binary image F 0 obtained as a result of the filtering will be referred to as a filtered image.
다시 도 1을 참조하면, 전처리부(140)는 촬영부(130)를 통해 획득된 제2 촬영 영상들(O1, O2, O3, O4)이 균일한 밝기 분포를 가질 수 있도록 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정할 수 있다. 이를 위해, 전처리부(140)는 우선, 제1 촬영 영상(O0)의 신호 포맷을 RGB 신호 포맷에서 밝기 성분을 포함하는 신호 포맷 예를 들면, YUV 신호 포맷으로 변환할 수 있다. 이 후, 전처리부(140)는 제1 촬영 영상(O0)의 밝기를 확인하여, 제1 촬영 영상(O0)을 구성하는 픽셀들이 모두 동일한 밝기(예를 들면, 제1 촬영 영상 O0의 평균 밝기 또는 제1 촬영 영상 O0의 최대 밝기)를 가질 수 있도록 보정하는데 필요한 보정값을 픽셀 별로 계산할 수 있다. 이 후, 전처리부(140)는 픽셀별 보정값을 제2 촬영 영상들(O1, O2, O3, O4)의 해당 픽셀에 각각 적용하여 밝기를 보정함으로써, 제2 촬영 영상들의 밝기 분포를 균일하게 만들 수 있다. Referring back to FIG. 1, the
도 9는 전처리부(140)에 의해 밝기가 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)을 도시한 도면이다. 도 6의 제2 촬영 영상들(O1, O2, O3, O4)과 도 9의 제2 촬 영 영상들(CO1, CO2, CO3, CO4)을 비교하면, 도 6에 도시된 제2 촬영 영상들(O1, O2, O3, O4)은 중앙 부분의 밝기에 비하여 외곽 부분의 밝기가 어두운 반면, 도 9에 도시되어 있는 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)은 밝기의 분포가 균일한 것을 알 수 있다. FIG. 9 is a diagram illustrating second captured images CO 1 , CO 2 , CO 3 , and CO 4 whose brightness is corrected by the
다시 도 1을 참조하면, 검출부(150)는 필터링 영상(F0)을 구성하는 각 패치들의 에지를 검출할 수 있다. 검출부(150)는 필터링 영상(F0)에서 각 패치의 에지를 검출하기 위해 산술 연산자(arithmetic operator) T5 및 T9를 사용할 수 있다. 이 때, 산술 연산자 T5 및 T9는 아래의 [수학식 3]과 같이 정해질 수 있으며, 산술 연산자 T5 및 T9 는 도 10과 같이 각 성분의 값이 1로 정해질 수 있다. Referring back to FIG. 1, the
다시 도 1을 참조하면, 검출부(150)는 필터링된 제1 촬영 영상(F0)에서 각 패치의 에지를 검출한 후, 각 패치의 중심점을 계산할 수 있다. 각 패치의 중심 좌표를 산출하기 위해 검출부(150)는 각 패치를 대상으로 에지에 해당하는 픽셀들을 추적할 수 있다. 상기 픽셀 추적은, 도 11에 도시된 바와 같이, 시작점을 중심으로 좌, 우, 상, 하, 좌상, 좌하, 우상, 우하 방향에 존재하는 주변 픽셀들 중 0 이 아닌 값을 갖는 픽셀을 추적하는 방식으로 진행될 수 있다. 이 때, 시작점은 필터링 영상(F0)의 픽셀을 좌→우→상→하의 순서로 검색하였을 때 발견된, 0이 아닌 값을 갖는 픽셀로 설정될 수 있다. 전술한 방법에 따라, 각 패치의 에지에 해당하는 픽셀들이 검출되면, 검출된 픽셀들의 좌표에 근거하여 해당 패치의 중심 좌표를 계산할 수 있다. 이와 같이, 각 패치의 경계에 해당하는 픽셀들의 정보 및 중심 좌표를 검출한 결과를 나타내면 도 12과 같으며, 검출 결과는 제2 자료 구조(DS1)에 저장될 수 있다. Referring back to FIG. 1, the
다시 도 1을 참조하면, 디코딩부(160)는 밝기가 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)에서 동일한 위치의 패치가 갖는 색상들의 조합을 추출할 수 있다. 여기서, 추출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 각 패치의 식별자에 해당한다. Referring back to FIG. 1, the
색상 조합을 추출하기 위해 디코딩부(160)는 우선, 밝기가 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4) 별로, R-채널 영상과 G-채널 영상 간의 휘도차(ΔRG), R-채널 영상과 B-채널 영상 간의 휘도차(ΔRB), 및 G-채널 영상과 B-채널 영상 간의 휘도차(ΔGB)를 나타내는 휘도차 영상을 생성할 수 있다. In order to extract the color combination, the
그 다음, 디코딩부(160)는 도 13에 도시된 매핑 테이블(200)을 참조하여, 보정된 제2 촬영 영상들(CO1, CO2, CO3, CO4)을 구성하는 픽셀들의 색상을 확인할 수 있다. 예를 들어, 어떤 픽셀에 대하여 각 채널 간의 휘도차를 계산하였을 때, (Δ RG, ΔRB, ΔGB) 값이 (1, 1, 0)이라면, 해당 픽셀은 적색(R)을 가지는 것으로 확인될 수 있다. Next, the
이와 같이, 보정된 제2 촬영 영상들(COi; i=1,2,3,4)을 구성하는 픽셀들의 색상이 확인되면, 디코딩부(160)는 보정된 제2 촬영 영상들(COi; i=1,2,3,4)로부터 패치들을 분리하여 흰색 패치를 포함하는 바이너리 영상들을 생성할 수 있다. 그 다음, 디코딩부(160)는 바이너리 영상들의 흰색 패치에 해당하는 픽셀들을 앞서 확인된 색상으로 대체함으로써, 보정된 제2 촬영 영상들(COi; i=1,2,3,4) 각각 대응하는 옥탈 영상들(OOi; i=1,2,3,4)을 도 14와 같이 생성할 수 있다. As described above, when the colors of the pixels constituting the corrected second captured images CO i (i = 1, 2, 3, 4) are confirmed, the
이 후, 디코딩부(160)는 제2 자료 구조(DS1)에 저장된 정보를 참조하여, 옥탈 영상들(OOi; i=1,2,3,4)을 구성하는 각 패치의 실제 색상을 결정할 수 있다. 예를 들면, 디코딩부(160)는 제2 자료 구조(DS1)를 참조하여, 어떤 패치에 포함되는 픽셀들 중 빈도가 가장 높은 색상을 해당 패치의 실제 색상으로 결정할 수 있다. 이 후, 디코딩부(160)는 옥탈 영상들(OOi; i=1,2,3,4)에서 동일한 위치에 존재하는 패치들이 갖는 색상 조합을 추출할 수 있다. 상기 추출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 패치의 식별자에 해당한다. Thereafter, the
다시 도 1을 참조하면, 매칭부(170)는 제1 자료 구조(DS0), 제2 자료 구조(DS1), 코딩 영상들(II, I2, I3 , I4) 및 옥탈 영상들(OOi; i=1,2,3,4)을 제공받아, 보정용 영상(I0)과 제1 촬영 영상(O0)에서 동일한 식별자를 갖는 패치를 서로 매칭할 수 있다. 이 때, 동일한 식별자를 갖는 패치들 간의 매칭 관계는 제3 자료 구조(DS2=DS0+DS1)에 저장될 수 있다. Referring back to FIG. 1, the
보정값 계산부(180)는 제3 자료 구조(DS2)를 참조하여, 보정용 영상(I0)의 픽셀과 제1 촬영 영상(O0)의 픽셀 간의 기하학적 매핑 관계를 나타내는 보정값을 계산할 수 있다. The
구체적으로, 보정용 영상(I0)의 픽셀의 좌표를 (xi, yi)라 하고, 제1 촬영 영상의 픽셀의 좌표를 (xo, yo)라고 할 때, 두 영상에서 픽셀 간의 매핑 관계는 [수학식 4]와 같이 모델링될 수 있다. [수학식 4]에서 a, b, c, d, e, f, g, h는 모델 상수이다. Specifically, when the coordinate of the pixel of the correction image (I 0 ) is referred to as (x i , y i ) and the coordinate of the pixel of the first photographed image is referred to as (x o , y o ), mapping between the pixels in the two images is performed. The relationship may be modeled as in
한편, 보정용 영상을 구성하는 패치 중 서로 근접한 4개의 패치들의 중심좌표 와 제1 촬영 영상을 구성하는 패치 중 상기 4개의 패치에 대응하는 패치들의 중심좌표 간의 관계는 [수학식 5]와 같이 나타낼 수 있다. Meanwhile, the center coordinates of four patches adjacent to each other among the patches constituting the correction image. And central coordinates of patches corresponding to the four patches among the patches constituting the first captured image. The relationship can be expressed as shown in [Equation 5].
그런데, [수학식 5]은 아래의 [수학식 6]과 같이 매트릭스 형태로 표현할 수 있다. However,
상기 [수학식 6]에서 T는 및 B는 제3 자료 구조(DS2)로부터 얻을 수 있다. 따라서, 아래의 [수학식 7]을 통해 A를 계산할 수 있다. A의 각 요소들은, 보정용 영상(I0)의 픽셀과 제1 촬영 영상(O0)의 픽셀 간의 기하학적인 매핑 관계를 나타내는 보정값으로서, 투사면에 투사될 입력 영상을 대상으로 기하 보정을 수행하는데 사용될 수 있다. In
저장부(190)는 보정값 계산부(180)에 의해 계산된 보정값을 룩업테이블(Look Up Table, LUT)의 형태로 저장할 수 있다. 이러한 저장부(190)는 플래시 메모리와 같은 비휘발성 메모리, 휘발성 메모리, 하드디스크와 같은 저장매체 중 적어도 하나로 구현될 수 있다. The storage unit 190 may store the correction value calculated by the
보정부(195)는 투사면에 투사할 입력 영상이 제공되면, 룩업테이블을 참조하여 기하 보정을 수행할 수 있다. 보정된 입력 영상은 투사부(120)를 통해 투사면에 투사될 수 있다. 이외에도 보정부(195)는 입력 영상에 대하여 색상 보정을 수행할 수도 있는데, 색상 보정에 관한 기술은 공지된 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다. The
다음으로, 도 15는 본 발명의 일 실시예에 따른 영상 보정 방법을 도시한 흐름도이다. Next, FIG. 15 is a flowchart illustrating an image calibrating method according to an exemplary embodiment.
먼저, 인코딩부(110)는 보정용 영상(I0)과 기하학적 구조가 동일하며 서로 다른 컬러 패턴을 갖는 복수개의 코딩 영상(I1, I2, I3, I4)을 생성할 수 있다(S310). 코딩 영상의 개수는 보정용 영상(I0)을 구성하는 패치의 개수에 의해 결정될 수 있다. 코딩 영상은 예를 들어, 흑색 및 흰색을 포함하는 8가지의 색상을 사용하여 생성할 수 있다. 이 때, 흑색은 코딩 영상의 배경색으로 사용될 수 있으며, 코딩 영상을 구성하는 각 패치는 흑색을 제외한 나머지 7개의 색상 중 어느 하나의 색상으로 코딩될 수 있다. First, the
복수개의 코딩 영상이 생성되면, 인코딩부(110)는 복수개의 코딩 영상(I1, I2, I3, I4)에서 동일한 위치의 패치가 갖는 색상 조합을 보정용 영상(I0)을 구성하는 각 패치의 식별자로 할당할 수 있다(S320). 코딩 영상을 생성하기에 앞서 보정용 영상(I0)을 구성하는 각 패치의 중심 좌표는 제1 자료 구조(DS0)에 저장될 수 있다. When a plurality of coded images are generated, the
보정용 영상(I0) 및 복수개의 코딩 영상(I1, I2, I3, I4)은 투사부(120)를 통해 투사면에 차례로 투사될 수 있다(S330). The correction image I 0 and the plurality of coded images I 1 , I 2 , I 3 , and I 4 may be sequentially projected onto the projection surface through the projection unit 120 (S330).
촬영부(130)는 투사면에 차례로 투사된 보정용 영상 및 복수개의 코딩 영상을 촬영할 수 있다. 그 결과, 촬영부(130)는 보정용 영상(I0)을 촬영하여 얻은 제1 촬영 영상(O0) 및 복수개의 코딩 영상(I1, I2, I3, I4)을 각각 촬영하여 얻은 복수개의 제2 촬영 영상(O1, O2, O3, O4)을 제공할 수 있다(S340). The photographing
이 후, 검출부(150)는 제1 촬영 영상(O0)에서 각 패치의 에지 및 중심점을 검출할 수 있다(S350). 상기 S350 단계는, 제1 촬영 영상(O0)에서 각 패치를 분리하여, 흰색 및 흑색으로 이루어진 바이너리 영상(B0)을 생성하는 단계와, 바이너리 영상(B0)을 필터링하여 바이너리 영상(O0)에 비하여 패치와 배경 간의 경계가 명확해진 필터링 영상(F0)을 생성하는 단계와, 상기 필터링 영상(F0)에서 각 패치의 에지를 검출하는 단계와, 검출된 에지 정보에 근거하여 각 패치의 중심 좌표를 계산하는 단계를 포함할 수 있다. 여기서, 각 패치의 에지 정보 및 중심점의 좌표는 제2 자료 구조(DS1)에 저장될 수 있다. Thereafter, the
한편, 디코딩부(160)는 복수개의 제2 촬영 영상(O1, O2, O3, O4)에서 동일한 위치의 패치들이 갖는 색상 조합을 추출할 수 있다(S360). 상기 S360 단계는, 제1 촬영 영상(O0)의 밝기 분포를 균일하게 하는데 사용된 밝기 보정값을 복수개의 제2 촬영 영상(O1, O2, O3, O4)에 각각 적용하여, 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계와, 밝기가 보정된 복수개의 제2 촬영 영상(CO1, CO2, CO3, CO4) 별로 채널 간의 휘도차를 나타내는 복수개의 휘도차 영상을 생성하는 단계와, 복수개의 휘도차 영상으로부터 상기 제2 촬영 영상들(CO1, CO2, CO3, CO4)의 픽셀이 갖는 색상을 검출하는 단계와, 상기 제2 촬영 영상들(CO1, CO2, CO3, CO4)로부터 패치들을 분리하여 흰색 패치를 포함하는 복수개의 바이너리 영상을 생성하는 단계와, 복수 개의 바이너리 영상에서 흰색 패치에 해당하는 픽셀들을 상기 검출된 색상으로 대체하여 복수개의 옥탈 영상(OO1, OO2, OO3, OO4)을 생성하는 단계와, 복수개의 옥탈 영상(OO1, OO2, OO3, OO4)에서 동일한 위치의 패치들이 갖는 색상 조합을 추출하는 단계를 포함할 수 있다. 상기 추출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 패치의 식별자에 해당한다. Meanwhile, the
상기 과정 중 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계는, 제1 촬영 영상(O0)의 신호 포맷을 밝기 성분을 포함하는 신호 포맷으로 변환하여 제1 촬영 영상(O0)의 밝기를 확인하는 단계와, 제1 촬영 영상(O0)의 각 픽셀이 동일한 밝기(예를 들면, 제1 촬영 영상의 최대 밝기 혹은 평균 밝기)를 가질 수 있도록 보정하는데 필요한 보정값을 픽셀별로 계산하는 단계와, 상기 픽셀별 보정값을 제2 촬영 영상들(O1, O2, O3, O4)의 대응하는 픽셀에 적용하여 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계를 포함할 수 있다. Correcting the brightness of the second photographed image (O 1 , O 2 , O 3 , O 4 ) during the process, converts the signal format of the first photographed image (O 0 ) to a signal format including a brightness component to have a first captured image and (O 0) confirming the brightness of the first photographed image for each pixel, the same brightness (O 0) (for example, the first maximum brightness or the average brightness of the photographed image) Calculating a correction value necessary for correction so that the correction is performed for each pixel, and applying the correction value for each pixel to a corresponding pixel of the second captured images O 1 , O 2 , O 3 , and O 4 . And correcting the brightness of (O 1 , O 2 , O 3 , O 4 ).
그 다음, 매칭부(170)는 보정용 영상(I0)과 제1 촬영 영상(O0)에서 동일한 식별자를 갖는 패치들을 매칭할 수 있다(S370). 상기 매칭 정보는 제3 자료 구조(DS2)에 저장될 수 있다. Next, the
이 후, 보정값 계산부(180)는 제3 자료 구조(DS2)를 참조하여, 보정용 영상(I0)의 픽셀과 제1 촬영 영상(O0)의 픽셀 간의 기하학적 매핑 관계를 나타내는 보 정값을 계산할 수 있다(S380). 계산된 보정값은 룩업테이블의 형태로 저장부(190)에 저장될 수 있다. Subsequently, the
한편, 투사면에 투사할 입력 영상이 제공되면, 보정부(195)는 룩업테이블을 참조하여 입력 영상을 대상으로 기하 보정을 수행할 수 있다(S390). 보정된 영상은 투사부(120)를 통해 투사면에 투사될 수 있다. Meanwhile, when the input image to be projected on the projection surface is provided, the
다음으로, 도 16 및 도 17을 참조하여, 본 발명의 다른 실시예에 따른 영상 보정 장치(400) 및 방법에 대해서 설명하기로 한다. Next, an image correction apparatus 400 and a method according to another embodiment of the present invention will be described with reference to FIGS. 16 and 17.
도 16은 본 발명의 다른 실시예에 따른 영상 보정 장치(400)의 구성을 도시한 도면이다. 도시된 바와 같이, 영상 보정 장치(400)는 투사부(420), 촬영부(430), 전처리부(440), 검출부(450), 제1 디코딩부(460-1), 제2 디코딩부(460-2), 제1 저장부(410), 제2 저장부(490), 매칭부(470), 보정값 계산부(480), 및 보정부(495)를 포함할 수 있다. 도 16에서 투사부(420), 촬영부(430), 전처리부(440), 검출부(450), 매칭부(470), 보정값 계산부(480), 및 보정부(495)는 일 실시예에서와 동일하며, 제2 디코딩부(460-2) 및 제2 저장부(490)는 일 실시예에서의 디코딩부(160) 및 저장부(190)와 각각 동일하므로, 중복되는 부분에 대한 설명은 생략하고, 제1 저장부(410) 및 제1 디코딩부(460-1)를 중심으로 설명하기로 한다. FIG. 16 is a diagram illustrating a configuration of an image correcting apparatus 400 according to another exemplary embodiment. As illustrated, the image calibrating apparatus 400 may include a
제1 저장부(410)는 보정용 영상(I0) 및 상기 보정용 영상(I0)을 구성하는 각 패치의 식별자를 생성하는데 필요한 코딩 영상들(I1, I2, I3, I4)을 저장할 수 있다. 제1 저장부(410)는 제2 저장부(490)와 하드웨어적으로 독립적으로 구현될 수 있으 며, 제2 저장부(490)와 병합된 형태로 구현될 수도 있다. The
제1 디코딩부(460-1)는 제1 저장부(410)에 저장된 코딩 영상들(I1, I2, I3, I4)에서 동일한 위치의 패치가 갖는 색상들의 조합을 추출할 수 있다. 추출된 색상 조합은 보정용 영상(I0)을 구성하는 각 패치의 식별자로 할당될 수 있다. The first decoding unit 460-1 may extract a combination of colors of a patch at the same position from the coded images I 1 , I 2 , I 3 , and I 4 stored in the
도 17은 본 발명의 다른 실시예에 따른 영상 보정 방법을 도시한 흐름도이다. 17 is a flowchart illustrating an image correction method according to another embodiment of the present invention.
먼저, 제1 디코딩부(460-1)는 제1 저장부(410)에 저장된 코딩 영상들(I1, I2, I3, I4)에서 동일한 위치의 패치들이 갖는 색상 조합을 추출할 수 있다(S510). 추출된 색상 조합은 보정용 영상(I0)을 구성하는 각 패치들의 식별자에 해당한다(S520). First, the first decoder 460-1 may extract color combinations of patches having the same location from the coded images I 1 , I 2 , I 3 , and I 4 stored in the
이 후, 투사부(420)를 통해 보정용 영상(I0) 및 코딩 영상들(I1, I2, I3, I4)이 투사면에 차례로 투사되면(S530), 촬영부(430)는 투사된 보정용 영상 및 코딩 영상들을 촬영하여, 보정용 영상(I0)을 촬영한 제1 촬영 영상(O0) 및 코딩 영상들(I1, I2, I3, I4)을 촬영한 제2 촬영 영상들(O1, O2, O3, O4)을 획득할 수 있다(S540). Thereafter, when the correction image I 0 and the coding images I 1 , I 2 , I 3 , and I 4 are sequentially projected onto the projection surface through the projection unit 420 (S530), the photographing
이 후, 검출부(450)는 제1 촬영 영상(O0)을 구성하는 각 패치의 에지 및 중심 좌표를 검출하여 제2 자료 구조(DS1)에 저장할 수 있다(S550). 상기 검출 단계 는, 제1 촬영 영상(O0)에서 각 패치를 분리하여 바이너리 영상(B0)을 생성하는 단계와, 상기 바이너리 영상(B0)을 필터링하여 필터링 영상(F0)을 생성하는 단계와, 상기 필터링 영상(F0)에서 각 패치의 에지 및 중심 좌표를 검출하는 단계를 포함할 수 있다. Thereafter, the
한편, 제2 디코딩부(460-2)는 제2 촬영 영상들(O1, O2, O3, O4)에서 동일한 위치의 패치가 갖는 색상 조합을 검출할 수 있다(S560). 상기 색상 조합을 검출하는 단계는, 제2 촬영 영상들(O1, O2, O3, O4)의 밝기를 보정하는 단계와, 밝기가 보정된 제2 영상들(CO1, CO2, CO3, CO4)에 대응하는 복수개의 옥탈 영상(OO1, OO2, OO3, OO4)을 생성하는 단계와, 상기 옥탈 영상들(OO1, OO2, OO3, OO4)에서 동일한 위치의 패치가 갖는 색상 조합을 검출하는 단계를 포함할 수 있다. 이 때, 검출된 색상 조합은 제1 촬영 영상(O0)을 구성하는 각 패치의 식별자에 해당한다. Meanwhile, the second decoding unit 460-2 may detect the color combination of the patch at the same position in the second captured images O 1 , O 2 , O 3 , and O 4 (S560). The detecting of the color combination may include correcting the brightness of the second captured images O 1 , O 2 , O 3 , and O 4 , and correcting the brightness of the second images CO 1 , CO 2 , and the like. Generating a plurality of octal images (OO 1 , OO 2 , OO 3 , OO 4 ) corresponding to CO 3 , CO 4 ), from the octal images (OO 1 , OO 2 , OO 3 , OO 4 ) The method may include detecting a color combination of the patches at the same location. In this case, the detected color combination corresponds to an identifier of each patch constituting the first captured image O 0 .
매칭부(470)는 보정용 영상(I0)과 제1 촬영 영상(O0)에서 동일한 식별자를 갖는 패치를 서로 매칭할 수 있다(S570). 매칭 정보는 제3 자료 구조(DS2=DS0+SD1)에 저장될 수 있다. The
이 후, 보정값 계산부(480)는 제3 자료 구조(DS2)를 참조하여, 보정용 영상(I0)과 제1 촬영 영상(O0) 간의 기하학적 매핑 관계를 나타내는 보정값을 픽셀별로 계산할 수 있다(S580). 상기 보정값은 룩업테이블의 형태로 제2 저장부(490)에 저장될 수 있다. Thereafter, the correction value calculator 480 may calculate, for each pixel, a correction value indicating a geometric mapping relationship between the correction image I 0 and the first photographed image O 0 with reference to the third data structure DS2. There is (S580). The correction value may be stored in the second storage unit 490 in the form of a lookup table.
마지막으로, 보정부(495)는 룩업테이블을 참조하여, 투사면에 투사할 입력 영상을 대상으로 기하 보정을 수행할 수 있다. 보정된 입력 영상은 투사부(420)를 통해 투사될 수 있다. Finally, the
이상과 같이 예시된 도면을 참조로 하여, 본 발명에 따른 투사 영상을 보정하는 장치 및 방법에 대하여 설명하였으나, 본 발명은 본 명세서에 개시된 실시예와 도면에 의해 한정되지 않으며, 그 발명의 기술사상 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.Although the apparatus and method for correcting the projection image according to the present invention have been described with reference to the drawings illustrated as above, the present invention is not limited to the embodiments and drawings disclosed herein, and the technical spirit of the present invention. Of course, various modifications may be made by those skilled in the art within the scope.
도 1은 본 발명의 일 실시예에 따른 영상 보정 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of an image correction device according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 보정용 영상을 도시한 도면이다. 2 is a diagram illustrating an image for correction according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 코딩 및 디코딩 원리를 나타낸 도면이다.3 illustrates coding and decoding principles according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 코딩 영상들을 도시한 도면이다. 4 is a diagram illustrating coded images according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 제1 촬영 영상을 도시한 도면이다. 5 is a diagram illustrating a first captured image according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 제2 촬영 영상들을 도시한 도면이다. 6 is a diagram illustrating second captured images according to an exemplary embodiment of the present invention.
도 7은 본 발명의 실시예에 적용될 수 있는 템플릿을 예시한 도면이다. 7 is a diagram illustrating a template that can be applied to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 바이너리 영상 및 필터링 결과로 얻어진 바이너리 영상을 도시한 도면이다. 8 illustrates a binary image and a binary image obtained as a result of filtering according to an exemplary embodiment of the present invention.
도 9는 본 발명의 실시예에 따라 밝기가 보정된 제2 촬영 영상들을 도시한 도면이다. 9 is a diagram illustrating second captured images whose brightness is corrected according to an exemplary embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 산술 연산자 T5 및 T9를 도시한 도면이다. 10 illustrates arithmetic operators T 5 and T 9 according to an embodiment of the present invention.
도 11은 본 발명의 실시예에 따른, 패치의 경계선 추적 방법을 도시한 도면이다. 11 is a diagram illustrating a boundary tracking method of a patch according to an embodiment of the present invention.
도 12는 본 발명의 실시예에 따라 각 패치의 에지 및 중심 좌표를 검출한 결과를 도시한 도면이다. 12 is a diagram illustrating a result of detecting edge and center coordinates of each patch according to an embodiment of the present invention.
도 13은 본 발명의 실시예에 따라 밝기가 보정된 제2 촬영 영상의 픽셀이 갖 는 색상을 확인하는데 필요한 매핑 테이블을 도시한 도면이다. FIG. 13 is a diagram illustrating a mapping table required to confirm colors of pixels of a second captured image whose brightness is corrected according to an exemplary embodiment of the present invention.
도 14는 본 발명의 실시예에 따른 옥탈 영상들을 도시한 도면이다. 14 illustrates octal images according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 따른 영상 보정 방법을 도시한 도면이다. 15 is a diagram illustrating an image correction method according to an embodiment of the present invention.
도 16은 본 발명의 다른 실시예에 따른 영상 보정 장치의 구성을 도시한 도면이다. 16 is a diagram illustrating a configuration of an image correction device according to another embodiment of the present invention.
도 17은 본 발명의 다른 실시예에 따른 영상 보정 방법을 도시한 도면이다. 17 is a view showing an image correction method according to another embodiment of the present invention.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100, 400: 영상 보정 장치 110: 코딩부100, 400: image correction device 110: coding unit
120, 420: 투사부 130, 430: 촬영부120, 420:
140, 440: 전처리부 150, 450: 검출부140, 440:
160: 디코딩부 170, 470: 매칭부160: decoding
180, 480: 보정값 계산부 190: 저장부180, 480: correction value calculation unit 190: storage unit
195, 495: 보정부 410: 제1 저장부195 and 495: correction unit 410: first storage unit
460-1: 제1 디코딩부 460-2: 제2 디코딩부460-1: First decoding unit 460-2: Second decoding unit
Claims (24)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070066638A KR20090002698A (en) | 2007-06-29 | 2007-07-03 | Apparatus and method for calibration of projected image |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN???? | 2007-06-29 | ||
KR1020070066638A KR20090002698A (en) | 2007-06-29 | 2007-07-03 | Apparatus and method for calibration of projected image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090002698A true KR20090002698A (en) | 2009-01-09 |
Family
ID=40485652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070066638A KR20090002698A (en) | 2007-06-29 | 2007-07-03 | Apparatus and method for calibration of projected image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20090002698A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140085779A (en) * | 2012-12-27 | 2014-07-08 | 삼성전자주식회사 | Method and apparatus for calibration of light field display using multi-projectors |
CN113709429A (en) * | 2020-05-20 | 2021-11-26 | 中强光电股份有限公司 | Color correction method and color correction system |
-
2007
- 2007-07-03 KR KR1020070066638A patent/KR20090002698A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140085779A (en) * | 2012-12-27 | 2014-07-08 | 삼성전자주식회사 | Method and apparatus for calibration of light field display using multi-projectors |
CN113709429A (en) * | 2020-05-20 | 2021-11-26 | 中强光电股份有限公司 | Color correction method and color correction system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8950872B2 (en) | Image projecting device, image processing device, image projecting method, and computer-readable recording medium | |
US10750141B2 (en) | Automatic calibration projection system and method | |
US9654750B2 (en) | Image processing system, image processing apparatus, and image processing method to respectively display images obtained by dividing one image on first and the second display media | |
US8290271B2 (en) | Method, medium and apparatus correcting projected image | |
US9912839B2 (en) | Method for conversion of a saturated image into a non-saturated image | |
US9398277B2 (en) | Projection type display device and method for producing recorded images | |
CN107750370B (en) | Method and apparatus for determining a depth map for an image | |
JP2020508479A (en) | Method and apparatus for automatically correcting a projection area based on an image photographed by a photographing device | |
CN101335901A (en) | Projected picture correcting method and apparatus | |
JP2007295375A (en) | Projection image correction device, and its program | |
US7813578B2 (en) | Method and apparatus for unobtrusively correcting projected image | |
JP2019220887A (en) | Image processing system, image processing method, and program | |
JP6771134B2 (en) | Image correction method and image correction device | |
JP2017212638A (en) | Display device, control method for display device, and program | |
US20190051028A1 (en) | Digital signal processing for image filtering field | |
KR20090002698A (en) | Apparatus and method for calibration of projected image | |
KR101488343B1 (en) | Apparatus for processing image of vehicle display panal | |
JP2007271771A (en) | Image display system and control method therefor | |
JP5691290B2 (en) | Display system setting method, display system setting device, and computer-readable storage medium | |
CN110769222B (en) | Projection surface depth information acquisition method, projection method and projection system | |
US10319131B2 (en) | Digital signal processing for image filtering field | |
KR101671936B1 (en) | Method and device for automatically generating and projecting multi-surface images | |
US20160127704A1 (en) | Display control apparatus, method of controlling the same, and non-transitory computer-readable storage medium | |
KR101706554B1 (en) | Apparatus and method for processing image for clear edge reproduction | |
CN105809635A (en) | Image block matching restoration method based on line scanning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |