KR20080014712A - System and method for automated calibrationand correction of display geometry and color - Google Patents

System and method for automated calibrationand correction of display geometry and color Download PDF

Info

Publication number
KR20080014712A
KR20080014712A KR1020070081067A KR20070081067A KR20080014712A KR 20080014712 A KR20080014712 A KR 20080014712A KR 1020070081067 A KR1020070081067 A KR 1020070081067A KR 20070081067 A KR20070081067 A KR 20070081067A KR 20080014712 A KR20080014712 A KR 20080014712A
Authority
KR
South Korea
Prior art keywords
display
distortion
screen
sensor
color
Prior art date
Application number
KR1020070081067A
Other languages
Korean (ko)
Inventor
조라바 에스. 바시
마수드 바킬리
Original Assignee
실리콘 옵틱스 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 실리콘 옵틱스 인크. filed Critical 실리콘 옵틱스 인크.
Publication of KR20080014712A publication Critical patent/KR20080014712A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

A system and a method for automatically calibrating display geometry and display color are provided to correct geometric distortion and color distortion due to abnormal characteristics of several optical elements within the system and mis-alignment of several elements. A display calibration system is used for a display device having a screen. The display calibration system comprises a sensor(11) and a processor connected to the sensor. The sensor senses information of at least one of geometry, size, boundary, and direction of the screen. The processor calculates characteristics of the display device based on the sensed information. The sensor senses a test image displayed on the screen, and the processor calculates the display distortion based on the sensed test image and the calculated characteristics.

Description

디스플레이의 형상과 컬러를 자동으로 교정하는 시스템과 방법{SYSTEM AND METHOD FOR AUTOMATED CALIBRATIONAND CORRECTION OF DISPLAY GEOMETRY AND COLOR}SYSTEM AND METHOD FOR AUTOMATED CALIBRATIONAND CORRECTION OF DISPLAY GEOMETRY AND COLOR}

본 발명은 디스플레이의 형상과 컬러를 자동으로 교정하는 시스템과 방법에 관한 것이다.The present invention relates to a system and method for automatically correcting the shape and color of a display.

대부분의 영상 디스플레이 장치는 어떤 형태든 기하학적 왜곡이나 컬러왜곡 현상을 보인다. 이런 왜곡의 원인은 다양한데, 예를 들면 기하학적 세팅, 시스템내 여러 광학요소의 비정상적 특성, 여러 요소들의 오정렬, 화면과 광경로가 복잡한데서 기인하는 기하학적 왜곡과 패널의 불완전 등이 있다. 시스템에 따라서는 왜곡량이 거의 감지할 수 없는 정도로부터 아주 불쾌할 정도로 크게 변할 수 있다. 왜곡의 영향은 다양하고, 영상의 컬러나 형상에 변화를 일으킬 수도 있다. Most video display devices exhibit some form of geometric distortion or color distortion. The causes of this distortion are various, for example, geometrical settings, abnormal characteristics of the various optical elements in the system, misalignment of the various elements, geometric distortions due to the complexity of the screen and optical path, and panel incompleteness. Depending on the system, the amount of distortion can vary from almost undetectable to very unpleasant. The influence of the distortion is various and may cause a change in color or shape of the image.

본 발명은 종래의 이와 같은 문제점을 감안하여 안출된 것으로서, 화면이 달린 디스플레이 장치에 적용되어 영상에 왜곡이 없게 화면에 디스플레이하기 위한 교정시스템과 교정방법을 제공하는 것을 주목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems in the prior art, and it is an object of the present invention to provide a calibration system and a calibration method for displaying on a screen without distortion in an image applied to a display device with a screen.

이와 같은 본 발명의 목적달성을 위해, 본 발명에 의하면, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면의 형상, 크기, 경계 및 방향중의 적어도 하나의 정보를 감지하는 센서; 및 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 장치의 특성을 계산하는 프로세서;를 포함하는 디스플레이 교정시스템이 제공된다.In order to achieve the object of the present invention, according to the present invention, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting at least one information of a shape, a size, a boundary and a direction of a screen; And a processor connected to the sensor and calculating a characteristic of the display device based on the information detected by the sensor.

또, 본 발명의 다른 특징에 의하면, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 테스트영상에서 정보를 감지하는 센서; 및 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 왜곡을 계산해 사전보상 맵을 만들어 디스플레이 왜곡을 보상하는 프로세서;를 포함하되, 사전보상 맵을 디스플레이 전에 입력 영상데이터에 적용할 때 화면에 표시된 영상에서 왜곡을 없애는 표면함수로 사전보상 맵을 구현하는 디스플레이 교정시스템이 제공된다. In addition, according to another aspect of the invention, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting information in a test image displayed on the screen; And a processor connected to the sensor and calculating a display distortion based on the information detected by the sensor to compensate for the display distortion by generating a precompensation map, when the precompensation map is applied to the input image data before display. A display calibration system is provided that implements a precompensation map with a surface function that eliminates distortion in the displayed image.

또, 본 발명에 의하면, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 테스트영상에서 정보를 감지하는 센서; 및 상 기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 왜곡을 계산하며, 디스플레이 왜곡의 정도에 맞게 화면을 여러개의 패치로 분할하며, 디스플레이 왜곡에 대한 사전보상 맵을 패치마다 생성하여, 이들 사전보상 맵이 디스플레이 전에 입력 영상데이터에 적용되면 화면에 디스플레이된 영상에서 왜곡을 없애는 프로세서;를 포함하는 디스플레이 교정시스템을 제공하기도 한다.In addition, according to the present invention, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting information in a test image displayed on a screen; And connected to the sensor, calculates the display distortion based on the information detected by the sensor, splits the screen into a number of patches according to the degree of display distortion, and generates a pre-compensation map for the display distortion for each patch, When the pre-compensation map is applied to the input image data before the display, a processor for removing distortion from the image displayed on the screen may provide a display calibration system including a.

한편으로는, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 테스트영상에서 컬러정보를 감지하는 센서; 및 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 컬러 불균일을 계산하며 컬러 성분을 위한 컬러 수정맵을 생성하여, 이런 컬러 수정맵을 디스플레이 전에 입력 영상데이터에 적용하면 화면에 디스플레이된 영상에서 왜곡을 없애는 프로세서;를 포함하는 디스플레이 교정시스템을 제공한다.On the other hand, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting color information in a test image displayed on a screen; And a color correction map for color components calculated by calculating color unevenness based on the information detected by the sensor, and applying the color correction map to the input image data before display to display the image displayed on the screen. It provides a display calibration system comprising; a processor for removing the distortion.

다른 한편으로는, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 개별 컬러성분 테스트영상에서 정보를 감지하는 센서; 및 상기 센서와 디스플레이 장치에 연결되고, 센서에서 감지한 정보를 기반으로 컬러성분의 기하학적 디스플레이 왜곡들을 독립적으로 계산하며 컬러 성분을 위한 사전보상 맵을 독립적으로 생성하여, 이런 사전보상 맵을 디스플레이 전에 입력 영상데이터에 적용하면 화면에 디스플레이된 영상에서 컬러기반 기하학적 왜곡을 없애는 프로세서;를 포함하는 디스플레이 교정시스템을 제공하기도 한다.On the other hand, a display calibration system for use with a screened display device comprising: a sensor for sensing information in an individual color component test image displayed on a screen; And independently calculate the geometric display distortions of the color components based on the information detected by the sensor and independently generate a precompensation map for the color components, thereby inputting the precompensation map before display. When applied to image data, there is also provided a display calibration system comprising a; processor that removes the color-based geometric distortion in the image displayed on the screen.

본 발명의 다른 특징에 의하면, 곡면화면이 달린 프로젝션 장치에 사용되는 디스플레이 교정방법에 있어서: 여러대의 프로젝터를 사용해 영상의 각각의 부분들 을 곡면화면의 대응 부분에 투사하는 단계; 및 영상의 각 부분의 촛점을 곡면화면의 대응 부분에 맞추어 영상 전체를 최적의 촛점으로 화면에 형성하는 단계;를 포함하는 디스플레이 교정방법도 제공한다.According to another aspect of the present invention, there is provided a display calibration method for a projection apparatus having a curved screen, the method comprising: projecting respective portions of an image to corresponding portions of the curved screen using a plurality of projectors; And forming the entire image on the screen with the optimal focus by matching the focus of each part of the image to the corresponding portion of the curved screen.

한편, 본 발명에 의하면, 곡면화면이 달린 프로젝션 장치에 사용되는 디스플레이 교정방법에 있어서: 곡면화면에서 투사된 영상의 촛점면까지의 여러 거리를 측정하는 단계; 및 상기 거리의 함수를 최소화하여 촛점이 최적화될 때까지 촛점면을 변위시키는 단계;를 포함하는 디스플레이 교정방법을 제공하기도 한다.Meanwhile, according to the present invention, there is provided a display calibration method for a projection apparatus having a curved screen, comprising: measuring various distances from a curved screen to a focal plane of a projected image; And displacing the focal plane until the focal point is optimized by minimizing the function of the distance.

이와 같이 구성된 본 발명의 방법과 시스템에 의하면, 화면에 생성되는 영상에서 모든 왜곡을 없앨 수 있다.According to the method and system of the present invention configured as described above, it is possible to eliminate all distortion in the image generated on the screen.

디스플레이 장치에서 중요한 왜곡으로는 렌즈로 인한 왜곡, 거울면(곡면이나 평면)의 반사로 인한 왜곡, 엇각이나 회전투사(키스톤, 회전)과 같은 투사 형태와 곡면스크린에 투사하는데서 생기는 왜곡, 여러 마이크로 디스플레이 장치의 미스컨버전스(misconvergence), 오정렬, 컬러/휘도 불균일과 같이 컬러에 따라 다른 횡색수차(lateral chromatic aberration)와 왜곡, 광학적 촛점문제로 인한 왜곡(구면수차, 무비점 수차) 등이 있다. Important distortions in display devices include distortions caused by lenses, distortions caused by reflections on mirror surfaces (curved or flat), projection types such as corners or rotational projections (keystones, rotations), and distortions from projection on curved screens, and multiple micro displays. Color-specific lateral chromatic aberrations and distortions, such as misconvergence, misalignment, and color / luminance unevenness, and distortions due to optical focus problems (spherical aberration, movie point aberration).

가장 많은 것이 최종 영상에서의 기하학적 왜곡으로서, 입력영상의 형상이 보존되지 않는다. 색수차도 기하학적 왜곡의 일종이지만, 컬러에 따라 왜곡이 다르다. 이들 왜곡은 투사형(배면 또는 정면) 디스플레이 장치에 아주 일반적이고 총칭 하여 기하학적 왜곡이라 한다. 컬러와 휘도의 불균일은 모든 디스플레이 장치에 영향을 주고, 이때문에 휘도나 컬러가 고정된 신호도 디스플레이 장치의 화면을 가로지르면서 변하거나 보는 각도에 따라 다르게 보인다. 이런 종류의 왜곡은 휘도가 가변적이고, 디스플레이를 가로지르는 광경로 길이가 가변적인 광원과 패널(LCD, LCOS, 플라즈마 디스플레이)에서의 불균일한 센서응답에 기인한다. 촛점과 관련된 왜곡은 영상을 번지게 하고, 객체평면의 포인트마다 영상면이 다르게 촛점이 맺히느데서 기인한다. 경우에 따라, 촛점과 촛점의 깊이에 관련된 문제에 대해 설명한다.Most are geometric distortions in the final image, and the shape of the input image is not preserved. Chromatic aberration is also a kind of geometric distortion, but the distortion varies depending on the color. These distortions are very common in projection type (back or front) display devices and are collectively called geometric distortions. Unevenness of color and brightness affects all display devices, so that signals with fixed brightness or color also vary depending on the viewing angle or change across the screen of the display device. This type of distortion is due to uneven sensor response in light sources and panels (LCD, LCOS, plasma displays) with varying luminance and varying optical path lengths across the display. Distortion related to focusing is caused by blurring the image and focusing differently on the image plane for each point on the object plane. In some cases, the problem related to the focus and depth of focus will be described.

여기서는 전술한 왜곡을 없애거나 경감하도록 디스플레이 장치를 교정하는 시스템과 방법에 대해 설명한다. 교정데이터를 만들고 수정을 한다. 시간이 갈수록 변하는 왜곡의 교정도 해결한다. (교정데이터를 만드는) 교정단계에서, 디스플레이를 특성화하고, 고해상 카메라와 같은 센서수단을 이용해 디스플레이 장치에 나타나는 특수한 테스트패턴을 캡처하며, 이들 영상에서 필요한 데이터(예; 교정데이터)를 추출한다. 수정단계에서는 프로세서와 같은 전자식 수정수단을 통해 영상에 사전 왜곡을주어 스크린에는 왜곡없는 영상이 비치게 한다. 디스플레이와 캡처한 테스트패턴의 촛점을 최적으로 하는 메커니즘도 제시된다. Here, a system and method for calibrating a display device to eliminate or mitigate the aforementioned distortions will be described. Create and correct calibration data. It also corrects for distortions that change over time. In the calibration phase (creating calibration data), the display is characterized, the sensor means such as a high resolution camera is captured to capture the special test patterns appearing on the display device, and the necessary data (eg calibration data) is extracted from these images. In the correction step, the image is pre-distorted through an electronic correction means such as a processor so that the image is displayed without distortion on the screen. A mechanism for optimizing the focus of the display and captured test patterns is also presented.

도 1은 디스플레이 장치의 화면(16)에 나타나는 영상을 수정하기 위한 자동수정 시스템의 일례의 블록도이다. 자동 수정시스템은 테스트영상 생성기(14), 센서(11), 교정데이터 생성기(12), 워프생성기(13) 및 디지털 워핑부(15)를 포함한다. 디스플레이 장치는 TV(배면투사 TV, LCD, 플라즈마 등), 정면 투사장치(예; 스 크린이 달린 프로젝터) 등과 같이 영상을 보여주는 장치로서, 모두 화면을 갖고 있다. 화면(16)의 틀은 화면을 배경과 구분시키는 것으로서 화면을 둘러싼다. 그러나, 화면 틀이 반드시 물리적 형태를 가져야 하는 것은 아니고, 화면(16)을 배경과 구분할 수 있기만 하면 된다. 예를 들어, 외부에서 틀 안쪽으로 화면에 투사되는 사각형 모양도 화면틀이라 할 수 있다. 여기서는 실체를 갖는 디스플레이 장치내에 있는 화면(16)을 예로 들었지만, 경우에 따라서는 화면틀 자체가 화면 안에 있을 수도 있는 것으로서, 화면(16)을 둘러싸는 것이 화면틀이다.1 is a block diagram of an example of an automatic correction system for correcting an image appearing on screen 16 of a display device. The automatic correction system includes a test image generator 14, a sensor 11, a calibration data generator 12, a warp generator 13, and a digital warping unit 15. Display devices, such as TVs (back projection TVs, LCDs, plasmas, etc.) and front projection devices (eg, projectors with screens), display images and all have screens. The frame of the screen 16 surrounds the screen by separating the screen from the background. However, the screen frame does not necessarily have a physical form, but only needs to be able to distinguish the screen 16 from the background. For example, a rectangular shape projected on the screen from the outside into the frame may be referred to as a screen frame. Here, the screen 16 in the display device having the substance is taken as an example, but in some cases, the screen frame itself may be in the screen, and the screen frame surrounds the screen 16.

곡면 스크린의 경우 심도가 변하기 때문에 2개의 뷰포인트를 채택한다. 수정된 형태의 영상을 보여주는 촛점면을 화면으로 할 수 있지만, 이것은 실제 화면(16)과 다르거나 실제 화면(16)의 일부분만을 포함할 수 있다. 촛점면의 모든 지점은 같은 촛점심도를 갖는다. 이 경우, 센서의 시야범위에 있는 물리적 마커(관찰자)가 촛점면 경계를 결정한다(도 2a 참조). 화면틀이 있다면 화면(16)에 대한 카메라의 방향을 결정하는데 화면틀이 이용된다. Curved screens adopt two viewpoints because their depth varies. Although the focal plane showing the modified form of the image may be a screen, this may be different from the actual screen 16 or may include only a portion of the actual screen 16. All points on the focal plane have the same depth of focus. In this case, a physical marker (observer) in the field of view of the sensor determines the focal plane boundary (see FIG. 2A). If there is a picture frame, the picture frame is used to determine the orientation of the camera relative to the screen 16.

한편, 경계를 형성하는 물리적 틀을 갖는 전체 화면이 곡면일 수도 있다(도 2b 참조). 이때는 스크린의 모든 점의 촛점심도가 서로 다르다. 수정 목표는 최종 영상을 곡면 경계에 일치시키는 것이다.On the other hand, the entire screen having a physical frame forming a boundary may be a curved surface (see FIG. 2B). In this case, the depth of focus of each point on the screen is different. The goal of correction is to match the final image to the surface boundaries.

수정이 필요한 디스플레이 영역들을 확인하기 위해 2개의 뷰포인트를 조합할 수 있다. 예를 들어, 캡처한 영상의 외곽서과 실제 틀의 조합을 특정 촛점면에서 경계로 취할 수 있다. 곡면형 외곽선을 투사하면 평면 디스플레이에도 곡면형 경계를 만들 수 있다. 이것은 경계는 곡면이지만 스크린 자체는 평면이어서 곡률반경이 무한한 특수한 경우에 볼 수 있다.Two viewpoints can be combined to identify display areas that need to be modified. For example, a combination of the outline of the captured image and the actual frame can be taken as a boundary at a particular focal plane. Projecting curved outlines allows you to create curved boundaries on flat displays. This can be seen in the special case where the boundary is curved but the screen itself is flat so that the radius of curvature is infinite.

형상의 변화를 가져오는 왜곡이 있는 경우, (수정 전에) 영상 전체가 화면(16)에 나타나지 않을 수 있다(도 3 참조). (a)의 경우 영상 ABCD 안에 화면틀(18)이 모두 들어있고(오버플로), (b)의 경우 틀 안에 영상 전체가 들어있으며(언더플로), (c)의 경우 영상의 일부분에 화면(16)이 걸쳐있는 중간상태(미스매치)이다. 3가지 모두 정면이나 후면 투사장치에서 생기는 것으로서 현재의 시스템으로 수정 가능하다.If there is a distortion resulting in a change in shape, the entire image may not appear on the screen 16 (before correction) (see FIG. 3). In case of (a), the picture frame 18 is all contained in the image ABCD (overflow), in case of (b) the whole image is contained in the frame (underflow), and in case of (c), the screen ( 16) is an intermediate state (mismatch) over. All three come from either the front or rear projection unit and can be modified with the current system.

테스트 영상 생성기(14)는 교정용으로 설계된 특수 패턴을 갖는 영상을 제공하는데, 이런 영상을 교정용 테스트패턴이라고도 한다. 가장 널리 사용되는 교정용 테스트패턴은 사각그리드 패턴, 원, 정사각형, 수평수직 패턴, 막대형, 선형, 동심형 패턴, 직사각형, 원, 컬러레벨을 포함한다. 컬러 버전은 횡색수차(lateral color) 수정과 색채불균일 수정에 사용된다. 패턴의 형상을 특징이라고도 한다. 모든 패턴은 자체 특징으로서, 넘버, 위치, 사이즈, 경계, 컬러 등의 인자를 갖는다. The test image generator 14 provides an image having a special pattern designed for calibration, which is also called a calibration test pattern. The most widely used calibration test patterns include square grid patterns, circles, squares, horizontal and vertical patterns, rods, linear, concentric patterns, rectangles, circles, and color levels. The color version is used for lateral color correction and color non-uniformity correction. The shape of the pattern is also referred to as a feature. Every pattern has its own characteristics and has factors such as number, position, size, border, color, and the like.

도 4에는 여러가지 교정 패턴이 도시되어 있다. 가이드라인은 (중심, 반경 등의) 특징이 테스트패턴의 일부가 아님을 보여준다. 컬러와 형상의 변화도 흑백조율, 흑백을 컬러로 대체, 패턴내 특징부마다 다른 컬러를 사용, 패턴내에서 형상들을 서로 조합, 회색과 컬러 레벨을 변화시키는데 사용된다. 4 shows various calibration patterns. The guidelines show that features (such as center, radius, etc.) are not part of the test pattern. Changes in color and shape are also used to adjust black and white, replace black and white with color, use different colors for each feature in the pattern, combine shapes together in the pattern, and change gray and color levels.

원색을 사용하는 패턴은 횡색수차를 교정하는데 이용된다. 대표적인 컬러패턴인 (g)에서는 수평/수직 막대와 그 교차점의 색이 모두 다르다. Patterns using the primary colors are used to correct lateral chromatic aberration. In the typical color pattern (g), the colors of the horizontal / vertical bars and their intersections are different.

모든 패턴은 어느정도 뚜렷한 특징을 보이는데, 그중 가장 눈에 띄는 것은 형상의 중심위치이고, 그 경계는 점과 선으로서 수학적으로 나타난다. All patterns show some distinctive features, the most prominent of which is the center of the shape, and the boundaries are mathematically represented as points and lines.

센서(11)는 화면(16)에 나타나는 교정테스트 패턴을 기록한다. 기하학적 왜곡 교정을 위해 센서(11)는 카메라를 사용한다. 카메라의 해상도와 캡처 포맷은 수정에 필요한 정밀도에 맞게 선택한다. 색과 휘도 불균일을 수정할 때는 센서(11)가 광량계나 분광기와 같은 컬러분석기일 수 있다.The sensor 11 records the calibration test pattern appearing on the screen 16. The sensor 11 uses a camera for geometric distortion correction. The resolution and capture format of the camera are chosen to match the precision required for correction. When correcting color and luminance non-uniformity, the sensor 11 may be a color analyzer such as a photometer or a spectrometer.

여기서는 기하학적 오차 교정을 위해 디스플레이 장치에 대해 임의의 위치에 센서(11)를 배치한다. 이는 캡처한 영상이 센서(11)의 위치로 인한 왜곡성분을 갖는 것이 허용되기 때문에 센서(11)를 임의의 위치에 배치할 수 있는 것이다. 센서(11)가 직접적으로 화면(16)을 보여주지 않으면, 센서(11)로 인한 키스톤 성분이 생긴다. 이런 왜곡은 3개의 축을 따라 일어나고, 이는 다축 키스톤 왜곡성분으로 간주된다. Here, the sensor 11 is placed at an arbitrary position with respect to the display device for geometric error correction. This is because the sensor 11 can be placed in any position because the captured image is allowed to have a distortion component due to the position of the sensor 11. If the sensor 11 does not show the screen 16 directly, a keystone component due to the sensor 11 is generated. This distortion occurs along three axes, which are considered to be multi-axis keystone distortion components.

또, 카메라와 같은 센서(11)의 광학장치도 자체 왜곡을 갖기 때문에, 광학 왜곡성분도 고려해야 한다. 센서(11)의 종류에 따라 고유 왜곡을 갖는다. 카메라나 센서(11)에 의한 종합 왜곡을 카메라왜곡이라 한다. 카메라왜곡은 교정데이터를 생성할 때 결정되고 보상된다.In addition, since the optical device of the sensor 11 such as a camera also has its own distortion, the optical distortion component must also be taken into account. It has inherent distortion depending on the type of sensor 11. The overall distortion by the camera or sensor 11 is called camera distortion. Camera distortion is determined and compensated for when generating calibration data.

카메라왜곡 결정을 위해서는 무왜곡 방향/형상을 알고 있는 물리적 기준마커를 사용한다. 이들 마커는 카메라에 의해 캡처되고, 캡처한 영상의 방향/형상을 무왜곡 방향/형상과 비교하면 카메라왜곡을 결정할 수 있다. 방향과 형상을 알고 있는 (대개 실상에서 왜곡이 없는 직사각형) 틀(경계) 자체가 자연스런 마커의 일종이다. 틀은 교정을 하는 기준이기도 하므로, 교정된 영상은 틀에 대해 직선이어야 한다. 따라서, 기하학적 왜곡을 수정할 때, 카메라가 캡처한 영상은 화면경계(틀)(18)을 가져야 한다. To determine camera distortion, we use a physical reference marker that knows the direction / shape of distortion. These markers are captured by the camera and the camera distortion can be determined by comparing the direction / shape of the captured image with the distortion-free direction / shape. The frame itself, which knows its direction and shape (usually a rectangle without distortion), is a natural marker. Since the frame is also the basis for calibration, the corrected image should be straight with respect to the frame. Thus, when correcting for geometric distortions, the image captured by the camera should have a screen boundary (frame) 18.

한편, 경계를 감지하지 못하는 경우, 카메라의 센서를 이용해 스크린의 에미터에서 나오는 신호를 감지하여 화면(16)에 대한 카메라왜곡을 결정한다. 이런 측정으로 카메라에서 보이는 화면(16)의 맵을 만든다.On the other hand, when the boundary is not detected, the camera sensor for the screen 16 is determined by detecting a signal from the emitter of the screen using a sensor of the camera. This measurement produces a map of the screen 16 seen by the camera.

횡색수차(lateral color)를 수정할 때, 카메라가 K 세트의 영상을 캡처하는데, 여기서 K는 컬러성분의 갯수로서 3원색 RGB의 갯수이다. 도 4의 테스트 패턴을 컬러성분마다 반복한다.When correcting the lateral color, the camera captures K sets of images, where K is the number of color components and the number of three primary colors RGB. The test pattern of FIG. 4 is repeated for each color component.

휘도와 컬러의 수정은 기하학적 수정과는 무관하게 이루어진다. 프로젝션 장치에서는 이런 휘도와 컬러의 수정이 기하학적 왜곡의 수정 이후에 이루어진다. 평판 디스플레이 장치에서는 기하학적 왜곡이 없어서 휘도와 컬러의 수정이 직접 이루어진다. 일례로, 컬러분석기와 같은 센서를 화면(16) 가까이 설치하여 색정보를 추출한다. 이 경우, 센서를 수정하는데 포지셔닝은 불필요하다. 센서(11)는 전체 영상이나 특정 포인트의 정보를 캡처한다. 후자의 경우, 스크린상의 포인트 그리드에 관한 데이터를 캡처해야 한다. 센서(11)가 화면(16)에 대해 키스톤 위치에 있으면, 카메라의 수정과 비슷하게 이런 포지셔닝으로 인한 수정을 해야만 한다.The correction of brightness and color is made irrespective of the geometric correction. In the projection apparatus, such correction of brightness and color is made after correction of geometric distortion. In the flat panel display device, there is no geometric distortion, and the luminance and color are directly corrected. For example, a sensor such as a color analyzer is installed near the screen 16 to extract color information. In this case, positioning is unnecessary to modify the sensor. The sensor 11 captures the entire image or information of a specific point. In the latter case, we need to capture data about the point grid on the screen. If the sensor 11 is in the keystone position with respect to the screen 16, a correction due to this positioning must be made, similar to the modification of the camera.

기하학적 왜곡이 있는 디스플레이 장치의 경우, 이 왜곡을 수정한 뒤에 휘도와 컬러를 수정해야 한다. 즉, 먼저 컬러관련 왜곡을 갖는 기하학적 왜곡을 수정한다. 기하 수정을 한 뒤 컬러 수정을 하면 기하수정에 의해 생기는 모든 추가적인 컬러왜곡을 고려하여 최종 영상을 포함하는 (배경이 아닌) 영역만 수정할 수 있다.In the case of display devices with geometric distortion, the luminance and color must be corrected after correcting the distortion. That is, first, the geometric distortion having the color related distortion is corrected. After color correction, color correction allows you to correct only the area (not the background) that contains the final image, taking into account any additional color distortion caused by the geometric correction.

이런 경우, 교정데이터 생성기(12)가 영상을 분석하고 워프생성기(13)에서 사용되는 포맷의 교정데이터를 추출하며, 워프생성기는 디지털 워핑부(15)에 워프데이터를 제공한다. In this case, the calibration data generator 12 analyzes the image and extracts calibration data in a format used by the warp generator 13, and the warp generator provides warp data to the digital warping unit 15.

디지털워핑이란 아래 식 (1)에 따른 입력 영상좌표와 출력 영상좌표 사이의 수학적 변환을 위해 사전보상 맵을 이용하는 과정이라 할 수 있다.Digital warping may be referred to as a process of using a pre-compensation map for mathematical conversion between input image coordinates and output image coordinates according to Equation (1) below.

Figure 112007058386045-PAT00001
Figure 112007058386045-PAT00001

여기서, i는 입력 화소좌표의 범위, (u i , v i )는 입력화소의 공간좌표,

Figure 112007058386045-PAT00002
는 입력화소의 컬러, (x i , y i )는 출력화소의 공간좌표로서 모두 출력공간에 매핑되는 것이고,
Figure 112007058386045-PAT00003
는 대응하는 화소의 출력 컬러이다. 3원색 장치의 경우,
Figure 112007058386045-PAT00004
는 단순히 RGB 값이다. (1)은 그리드형태의 수정을 표현한다. 프로세서에서 바로 그리드포맷을 이용하기는 어려우므로, 비디오의 60Hz 촬영속도처럼 실시간으로 수정을 적용해야 한다. 따라서, 워프생성기에서는 식 (1)을 하드웨어용 포맷으로 변환한다. 교정데이터 생성기(12)는 3가지 하위생성기로 이루어지는데, 이들은 각각 형상, 횡색수차(lateral color), 컬러불균일을 교정하기 위한 것이다. Where i is the range of input pixel coordinates, ( u i , v i ) is the spatial coordinate of the input pixel,
Figure 112007058386045-PAT00002
Is the color of the input pixel, ( x i , y i ) are the spatial coordinates of the output pixel, all mapped to the output space,
Figure 112007058386045-PAT00003
Is the output color of the corresponding pixel. For three primary colors device,
Figure 112007058386045-PAT00004
Is simply an RGB value. (1) represents the correction of grid form. It is difficult to use the grid format directly on the processor, so you need to apply corrections in real time, such as 60Hz video rates. Therefore, the warp generator converts equation (1) into a hardware format. The calibration data generator 12 consists of three sub-generators, each for correcting shape, lateral color and color unevenness.

이하 형상을 수정하기 위한 교정데이터에 대해 먼저 설명한다. 이후의 설명에서, 주로 분석되는 테스트 패턴은 도 4의 (a)와 (b)와 같은 그리드패턴이다. 도 4의 (e)~(g) 패턴도 교차점에서 그리드를 형성하므로 이용할 수 있다.Hereinafter, calibration data for correcting the shape will be described first. In the following description, the test patterns mainly analyzed are grid patterns such as (a) and (b) of FIG. 4. Patterns (e) to (g) of FIG. 4 can also be used because they form a grid at intersections.

그리드패턴과 같은 테스트 영상은 입력공간내 공지의 위치를 중심으로 하는 형상을 제공한다. 이런 중심을 (x 0 i , y 0 i )로 표현하는데, 여기서 i는 형상의 범위이다. 상단좌측부터 시작하여 테스트패턴의 행을 따라 나아가면서 총 MxN개의 형상이 있고, 그 해상도는 W T xH T 이다. 테스트패턴의 해상도가 디스플레이 장치의 원래 해상도와 일치할 필요는 없다. 테스트패턴내 형상의 중심은 디스플레이 되었을 때 (x 0 di ,y 0 di ) 값으로 왜곡에 의해 변형된다. 형성 역시 왜곡되는바, 원이 타원으로 왜곡되는 것이 일례이다. 이들 좌표는 화면(16)의 틀(18)의 좌측상단의 원점을 중심으로 디스플레에 공간내에 정의된다. W D xH D 는 임의의 측정기내 디스플레이 장치의 틀(18) 내부의 해상도이고 그 좌표는 (x 0 di , y 0 di )이다. 디스플레이 공간은 실제나 관찰자의 공간과 같은바, 수정된 영상은 디스플레이 공간에 왜곡 없이 나타나야 한다.The test image, such as the grid pattern, provides a shape centered on a known location in the input space. This center is represented by ( x 0 i , y 0 i ), where i is the range of the shape. Starting from the top left, there are a total of M x N shapes along the lines of the test pattern, with a resolution of W T x H T. The resolution of the test pattern does not need to match the original resolution of the display device. The center of the shape in the test pattern is distorted by the distortion when displayed ( x 0 di , y 0 di ). Formation is also distorted, for example, a circle is distorted into an ellipse. These coordinates are defined in space on the display about the origin of the upper left of the frame 18 of the screen 16. W D x H D is the resolution inside the frame 18 of the display device in any meter and its coordinates are ( x 0 di , y 0 di ). Since the display space is the same as the real or observer space, the modified image should appear without distortion in the display space.

카메라는 왜곡된 그리드패턴의 영상을 캡처하여 교정데이터 생성기(12)로 보낸다. 카메라의 해상도는 W C xH C 이다. 본 실시예에서는 카메라의 해상도가 디스플레이의 해상도와 일치될 필요는 없고, 카메라도 어디에도 설치할 수 있다. 카메라공간의 중심의 좌표는 (x 0 ci , y 0 ci )이고 원점은 캡처한 영상의 상단 좌측이다. The camera captures an image of the distorted grid pattern and sends it to the calibration data generator 12. The resolution of the camera is W C x H C. In this embodiment, the resolution of the camera does not need to match the resolution of the display, and the camera can be installed anywhere. The coordinates of the center of camera space are ( x 0 ci , y 0 ci ) and the origin is the upper left of the captured image.

캡처한 영상은 카메라의 뷰포인트에서 보이지만, 교정은 실제 뷰포인트에서, 즉 관찰자의 관점에서 해야만 한다. 따라서, 교정과정은 카메라의 뷰포인트를 배제 해야만 한다. 전술한 바와 같이, 화면틀(18)을 마커로 사용한다. 따라서, 카메라 영상도 화면틀(18)을 캡처해야만 한다. 실제에서는 화면틀(18)을 아래 좌표로 정의한다:The captured image is visible from the camera's viewpoint, but corrections must be made at the actual viewpoint, ie from the observer's point of view. Therefore, the calibration process must exclude the camera's viewpoint. As described above, the screen frame 18 is used as a marker. Therefore, the camera image must also capture the frame 18. In practice, define frame 18 with the following coordinates:

상단좌측: (0,0) Upper left: (0,0)

상단우측: (W D ,0) (2)Upper right: ( W D , 0) (2)

하단좌측: (0,H D )Lower left: (0, H D )

하단우측: (W D ,H D )Lower right: ( W D , H D )

카메라 영상에서, 이들 좌표는 아래와 같이 된다:In the camera image, these coordinates are as follows:

상단좌측: (x d cTL ,y d cTL )Upper left: ( x d cTL , y d cTL )

상단우측: (x d cTR ,y d cTR ) (3)Top right: ( x d cTR , y d cTR ) (3)

하단좌측: (x d cBL ,y d cBL )Bottom left: ( x d cBL , y d cBL )

하단우측: (x d cBR ,y d cBR )Bottom right: ( x d cBR , y d cBR )

도 5는 여러 공간과 좌표 시스템을 보여준다. 도시된 영상에서 원은 흑색이고 배경은 백색이지만, 모든 테스트패턴이 컬러이면서 형상을 달리할 수도 있다(도 4 참조). 3가지 경우가 도시되었는데: (a)의 경우 영상이 화면틀(18)을 완전히 덮는 오버플로 상태, (b)의 경우 영상이 완전히 화면틀(18) 안에 들어가는 언더플로 상태, (c)의 경우 영상과 화면틀(18)이 서로 불일치하여 어긋난 미스매치 상태이다. 이상은 프로젝션 형상을 분류한 것으로서, 입력공간과 카메라공간은 화소를 기준으로 정의하지만, 디스플레이 공간은 화소 외에도 미터 단위로 정의할 수 있다.5 shows several spatial and coordinate systems. In the illustrated image, the circle is black and the background is white, but all test patterns may be different in color and shape (see FIG. 4). Three cases are shown: (a) an overflow state where the image completely covers the frame 18, (b) an underflow state where the image completely fits within the frame 18, and (c) The image and the frame 18 are mismatched and mismatched. As described above, the projection shapes are classified, and the input space and the camera space are defined based on pixels, but the display space may be defined in units of meters in addition to the pixels.

f D 로 표시되는 화소왜곡은 아래 식 (4)와 같이 주어진다: The pixel distortion represented by f D is given by Equation 4 below:

Figure 112007058386045-PAT00005
Figure 112007058386045-PAT00005

Figure 112007058386045-PAT00006
는 식 (4)에서 주어진 값의 역수로서 아래와 같다:
Figure 112007058386045-PAT00006
Is the inverse of the value given in equation (4):

Figure 112007058386045-PAT00007
Figure 112007058386045-PAT00007

디지털 워핑부(15)는

Figure 112007058386045-PAT00008
를 입력영상에 적용하여 디스플레이에 앞서 워프(사전왜곡)를 한다.The digital warping unit 15
Figure 112007058386045-PAT00008
Is applied to the input image to warp (predistortion) before the display.

위의 맵들은 모두 정방향으로 정의된 것으로: 함수도메인은 입력영상이고 범위는 출력영상이다. 주지하는 바와 같이, 프로세서와 같은 전자수정회로는 인버스 구조를 이용해 영상을 만드는 것이 더 효과적이고 정확하다. 인버스 워핑 구조에서는, 수정맵을 거쳐 출력부의 화소를 입력부에 매핑한 다음 입력공간에서 이를 필터링(컬러값 할당)하여 프로세서의 출력영상을 생성한다. 이 경우 수정 맵이 인버스 형태로 나타나고, 이를 fw로 표시한다. 인버스 형태를 수정한 것이 디스플레이 왜곡맵 자체인

Figure 112007058386045-PAT00009
이므로, 역방향 구조의 수정장치에 필요한 맵이나 워핑 데이터가 이런 디스플레이 왜곡맵일 뿐이다. 따라서, 교정데이터 생성기(12)에서 만들 그리드데이터는 아래와 같다:The above maps are all defined in the forward direction: the function domain is the input image and the range is the output image. As is well known, electronic correction circuits, such as processors, are more effective and accurate in making images using inverse structures. In the inverse warping structure, an output image of a processor is generated by mapping a pixel of an output unit to an input unit through a correction map and then filtering (allocating color values) in the input space. In this case, the correction map appears in the form of an inverse, which is denoted by fw . The modification of the inverse shape is the display distortion map itself.
Figure 112007058386045-PAT00009
Therefore, the map and warping data required for the reverse structure correcting device are only such display distortion maps. Thus, the grid data to be created in the calibration data generator 12 is as follows:

Figure 112007058386045-PAT00010
Figure 112007058386045-PAT00010

이 정보는 카메라가 캡처한 영상에서 추출해야 하고, 카메라는 카메라공간내에 있다. 캡처한 영상은 아래 (7)에서 정의한 매핑에 대응한다:This information must be extracted from the captured image of the camera, and the camera is in camera space. The captured image corresponds to the mapping defined in (7) below:

Figure 112007058386045-PAT00011
Figure 112007058386045-PAT00011

이 맵은 전체영상 맵으로서, 디스플레이 왜곡맵 f D 와 카메라 왜곡맵 f C 의 조합으로 나타날 수 있고, 이로부터 필요한 f 가 (8)로 정의된다:This map is a full image map, which can be represented by a combination of the display distortion map f D and the camera distortion map f C , from which the required f is defined by (8):

Figure 112007058386045-PAT00012
Figure 112007058386045-PAT00012

f D 에서 f C 를 빼는 것은 단순히 2개의 맵의 연결(또는 함수조합)이다. 또, 디스플레이 좌표시스템의 축척과 원점을 적용할 수 없으므로 좌표 (x 0 di , y 0 di )를 수정화소의 축척과 원점에 가져와야만 한다. 이에 대해서는 뒤에 자세히 설명한다.Subtracting f C from f D is simply a concatenation (or combination) of two maps. Also, since the scale and origin of the display coordinate system cannot be applied, the coordinates ( x 0 di , y 0 di ) must be brought to the scale and origin of the correction pixel. This is described in detail later.

도 6에 교정데이터 생성기(12)의 일례가 도시되었다. 테스트패턴의 W C xH C 카메라영상을 먼저 분석하여 형상의 중심 (x 0 ci , y 0 ci )를 추출하고; 이로부터 f F 를 구한다. 카메라공간내 형상중심은 디스플레이 왜곡과 카메라 왜곡으로 매핑한 뒤의 입력공간내 형상중심에 대응한다. 화면(16)을 오버플로하는 영상에 대해서는 이런 형상을 사용할 수 없다. 이렇게 경계밖에 있는 형상은 일반적으로 배면 프로젝션 TV나 정면 프로젝션 시스템에서는 보이지 않는데, 이는 형상이 다른 평면의 배경에 있기 때문이다. 따라서, EFGH로 정해진 화면(16)내의 형상만을 분석한다(도 5 참조).An example of a calibration data generator 12 is shown in FIG. 6. First analyzing the W C x H C camera image of the test pattern to extract the center of the shape ( x 0 ci , y 0 ci ); F f is obtained from this. The shape center in camera space corresponds to the shape center in input space after mapping to display distortion and camera distortion. This shape cannot be used for an image that overflows the screen 16. These out-of-bounds shapes are generally invisible in rear projection TVs or front projection systems because they are on a background of different planes. Therefore, only the shape in the screen 16 determined as EFGH is analyzed (see FIG. 5).

여러 영상처리 알고리즘을 이용해 형상중심을 찾는다. 한가지 방법은 캡처한 영상을 임계값 메커니즘을 이용해 2진(흑백) 영상으로 변환하는 것이다. 2진 영상내 형상의 화소를 구분표시한다. 분류된 화소집합 각각의 중심을 형상중심에 놓는다. 영상의 히스토그램을 분석하면 임계값이 결정된다. 히스토그램은 캡처한 영상의 휘도나 특정 색조에 관한 것일 수 있다.Find shape center using various image processing algorithms. One way is to convert the captured image into binary (black and white) image using a threshold mechanism. The pixels of the shape in the binary image are displayed separately. The center of each classified pixel set is placed in the shape center. Analyzing the histogram of the image determines the threshold. The histogram may relate to a luminance or a specific color tone of the captured image.

캡처한 영상을 분석해 화면의 좌표와 경계(틀)를 구하기도 한다. 이 단계에서 다른 영상을 이용할 수도 있다. 화면 좌표는 카메라왜곡 f C 를 결정하는데 필요하다. 카메라가 광학왜곡이 없으면, 카메라왜곡이 입체왜곡 f C P 이고, f C 를 결정하는데 4대의 카메라의 식 (3)에서 정의된 좌표가 필요하다. 카메라가 광학왜곡을 가지면, 추가 마커가 필요하다. 틀의 경계 EFGH는 에지의 방정식으로 변수화될 수 있는 마커로서 충분하다. 에지 방정식은 화면(16) 안에 어느 형상을 놓을지와 4 모서리를 결정하는데에도 사용된다. 디스플레이 공간내의 좌표가 (x CC di , y 0C di )로 알려진 실제 직사각형 그리드를 화면(16)에 붙이거나 투사하여 마커로 사용할 수도 있는데, 이것이 카메라공간에서는 (x 0C ci , y 0C ci )로 투사된다. 이 그리드는 카메라교정(CC) 그리드로 보인다. 화면틀 좌표와 경계를 결정하는 것을 디스플레이 특성화라 한다. The captured image is analyzed to find the coordinates and boundaries of the screen. Other images may be used at this stage. The screen coordinates are needed to determine the camera distortion f C. If the camera has no optical distortion, the camera distortion is stereo distortion f C P , and the coordinates defined in equation (3) of the four cameras are needed to determine f C. If the camera has optical distortion, additional markers are needed. The frame boundary EFGH is sufficient as a marker that can be parameterized by the equation of the edge. The edge equation is also used to determine which shape to place in the screen 16 and the four corners. An actual rectangular grid whose coordinates in display space are known as ( x CC di , y 0C di ) can also be used as a marker by attaching or projecting onto the screen 16, which is projected as ( x 0C ci , y 0C ci ) in camera space. do. This grid looks like a camera calibration (CC) grid. Determining screen frame coordinates and boundaries is called display characterization.

센서의 뷰포인트에서는 카메라렌즈와 곡면스크린내의 광학왜곡을 구분할 수 없다. 어느 경우에도 마커와 화면틀은 곡면형으로 나타난다. 따라서, 카메라왜곡과 관련 CC 그리드의 화면틀 안에 곡면스크린을 둔다. 카메라왜곡을 수정하면 최종 영 상이 곡면틀에 일치한다. 곡면스크린 수정을 위해, (스크린에서 측정한) 일정 간격의 틀(18)에 마커를 붙여 CC 그리드를 구성한다. 마커를 틀(18) 안쪽에 붙여도 된다. 곡면스크린은 2차원 표면이므로 2차원 CC 그리드를 통해 교정할 수 있다.At the point of view of the sensor, the optical distortion in the camera lens and the curved screen cannot be distinguished. In either case, the markers and picture frames appear curved. Thus, the curved screen is placed within the frame of the camera grid associated with the camera distortion. When the camera distortion is corrected, the final image matches the frame. To modify the curved screen, a marker is attached to the frame 18 at regular intervals (measured on the screen) to form a CC grid. A marker may be attached inside the frame 18. Since curved screens are two-dimensional surfaces, they can be calibrated through a two-dimensional CC grid.

(부착된 CC 그리드나 틀(18)의) 에지나 마커는 에지검출법과 같은 표준 영상처리법으로 검출된다. 에지의 위치를 알면 선의 방정식을 에지에 맞출 수 있고, 선의 교차점이 4개의 모서리와 CC그리드 좌표가 된다. 에지와 CC 그리드좌표는 식 (9)와 같이 정의되는바, 여기서 Ncc는 카메라 교정그리드내의 포인트의 갯수이다.Edges or markers (of the attached CC grid or frame 18) are detected by standard image processing methods such as edge detection. Knowing the position of the edge allows the equation of the line to fit the edge, and the intersection of the line is the four corners and the CC grid coordinates. The edge and CC grid coordinates are defined as in Eq. (9), where Ncc is the number of points in the camera calibration grid.

Figure 112007058386045-PAT00013
(9)
Figure 112007058386045-PAT00013
(9)

(스크린이 곡면인) 디스플레이 장치의 경우 실제 마커에서 CC 그리드를 구하기가 쉽지 않다. 이 경우, 에지방정식을 이용해 수학적으로 CC 그리드를 구한다. 에지를 딸 포인트를 어떻게 놓는지와 틀(18) 안에 어떻게 보간하는지는 자유이다. 어떤 방법을 택해도, 도메인 좌표를 제대로 선택하면 최종 영상이 틀(18)에 일치하게 된다. 에지를 따라 포인트를 등간격으로 배치한 다음 틀의 내부에 대해 선형으로 보간하는 것도 한가지 방법이다. For display devices with curved screens, it is not easy to get the CC grid from the actual markers. In this case, the CC grid is calculated mathematically using the Efat formula. How to place the point to edge and how to interpolate within the frame 18 is free. Either way, if the domain coordinates are chosen correctly, the final image will match the frame 18. One way is to place points along the edges at equal intervals and then linearly interpolate to the interior of the frame.

제조업자가 카메라의 광학왜곡 f0 C에 대한 사양을 규정하면, 이들 사양을 입체왜곡과 결합하여 대신 사용하거나 카메라 교정그리드를 만드는데, 이 과정이 식 (10)과 같다.If the manufacturer specifies the specifications for the camera's optical distortion f 0 C , these specifications can be combined with stereo-distortion or used instead to create a camera calibration grid, which is shown in Eq. (10).

Figure 112007058386045-PAT00014
(10)
Figure 112007058386045-PAT00014
10

카메라왜곡의 광학성분은 카메라의 위치/방향과 무관하므로 디스플레이 교정보다 먼저 결정된다. 식 (3), (9)의 데이터를 총칭하여 카메라 교정데이터라 한다. The optical component of the camera distortion is determined before the display calibration because it is independent of the position / direction of the camera. The data of equations (3) and (9) are collectively called camera calibration data.

구해진 좌표는 제대로 배치되어야 한다. 수학적으로, 각각의 범위좌표 (x 0 ci ,y 0 ci )에 대응 도메인 좌표 (x 0 i , y 0 i )에 할당한다. 전체 영상맵 f F 를 만드는데는 도메인좌표를 결정해야 한다. 이런 추출과정에서도 도메인좌표에 관헌 어떤 정보도 생기지 않는다. 입력 테스트패턴내의 형상 순서와 일치하는 순서로 반드시 중심을 결정할 필요는 없다. The coordinates obtained must be properly positioned. Mathematically, each range coordinate ( x 0 ci , y 0 ci ) is assigned to the corresponding domain coordinate ( x 0 i , y 0 i ). To create a full image map f F, we need to determine the domain coordinates. This extraction process does not generate any information about domain coordinates. The centers do not necessarily need to be determined in an order that matches the shape order in the input test pattern.

도 4의 (c), (d)와 같은 테스트패턴을 사용해 포인트를 배열한다. 이들 테스트패턴에서 캡처한 영상의 화소를 영상이 속하는 막대에 따라 분류한다. 형상중심은 이런 분류내에 놓는다. 중심이 속하는 수평수직 막대가 도메인좌표 (x 0 i , y 0 i )를 결정하고, i는 식 (11)에서 정의된다.Points are arranged using the test pattern as shown in Figs. 4 (c) and 4 (d). The pixels of the image captured by these test patterns are classified according to the bars to which the image belongs. The shape center is in this category. The horizontal and vertical bars to which the center belongs determine the domain coordinates ( x 0 i , y 0 i ), and i is defined in equation (11).

Figure 112007058386045-PAT00015
(11)
Figure 112007058386045-PAT00015
(11)

배열을 할 때는 어느 막대와 형상이 화면틀(18) 안에 있는지 판단하는 것이 중요하다. (화면틀 밖에 있는) 배경부가 영상에 높은 콘트라스트를 제공하지 않으면, (추출특징 좌표 단계에서) 적당한 임계값이 있어야 화면틀(18) 내부의 형상과 막대만이 측정된다. 외부 형상이 강하게 투사되면, 화면틀 에지와 비교하여 내부에 있는 형상과 막대를 결정할 수 있다. 막대에 넘버링할 때 (화면틀 외부에 있는) 모든 미싱 막대(missing bar)를 고려해야 한다. 주어진 넘버링 순서의 막대들이 한번에 하나씩 깜박이면서 화면틀 안에 있는지 여부를 판단한다. 다른 색의 막대를 사용해 암묵적으로 넘버링할 수도 있다.When arranging, it is important to determine which bars and shapes are in the screen frame 18. If the background part (outside the picture frame) does not provide high contrast in the image, only the shape and bars inside the picture frame 18 are measured when there is an appropriate threshold (in the extraction feature coordinate step). If the external shape is strongly projected, the shape and the bar inside can be determined compared to the edge of the frame. When numbering bars, consider all missing bars (outside the frame). The bars of a given numbering sequence blink one at a time to determine whether they are in the frame. You can also implicitly number using different colored bars.

카메라 교정데이터도 배열해야 하는데, 여기서는 도메인좌표가 디스플레이 공간에 있다. 그러나, 이 과정은 모든 특징을 화면틀(18) 안에 놓는 것보다 간단하다. 대부분의 경우, 배열을 결정하는데는 좌표 비교로 충분하다. CC 그리드의 경우, 배열을 통해 CC 그리드의 (디스플레이 공간내) 도메인좌표인 그리드 (x 0C di , y 0C di )를 할당하는데 이를 도메인 CC 그리드라 한다. 이런 도메인 CC 그리드의 값은 그리드가 실제 마커에 대응하는지 또는 수학적으로 구성된 것인지 여부에 따라 달려있다. 전자의 경우, 마커의 공지된 좌표가 도메인 CC 그리드를 제공한다. 후자의 경우, 도메인 CC 그리드를 선택하는데 어느정도 자유가 있다. 최종 영상이 화면틀(18)과 일치하면, 에지에 있는 CC 그리드의 포인트들이 사각형 EFGH의 대응 에지에 일치해야만 한다. 즉 에지는 아래와 같이 매핑되어야 한다.Camera calibration data should also be arranged, where the domain coordinates are in the display space. However, this process is simpler than putting all the features in the frame 18. In most cases, a coordinate comparison is sufficient to determine the array. In the case of a CC grid, a grid ( x 0C di , y 0C di ), which is a domain coordinate (in the display space) of the CC grid, is allocated through an array, which is called a domain CC grid. The value of this domain CC grid depends on whether the grid corresponds to a real marker or is mathematically constructed. In the former case, the known coordinates of the marker provide the domain CC grid. In the latter case, there is some freedom to choose a domain CC grid. If the final image matches the frame 18, the points of the CC grid at the edge must match the corresponding edge of the square EFGH. That is, the edge should be mapped as follows.

상단 에지 ⇔ {(0,0),(W D ,0)}를 통과하는 직선Straight line through top edge ⇔ {(0,0), ( W D , 0)}

우측 에지 ⇔ {(W D ,0),(W D ,H D )}를 통과하는 직선Straight line through the right edge ⇔ {( W D , 0), ( W D , H D )}

하단 에지 ⇔ {(0,H D )),(W D ,H D )}를 통과하는 직선Straight line through the lower edge ⇔ {(0, H D )), ( W D , H D )}

좌측 에지 ⇔ {(0,0)),(0,H D )}를 통과하는 직선Straight line through left edge ⇔ {(0,0)), (0, H D )}

이런 제한과는 별도로, 도메인 CC 그리드 포인트를 적절하게 선택할 수 있다. 추출과 배열이 끝나면, 식 (8)을 이용해 매핑(f w )을 찾을 수 있다. Apart from this limitation, domain CC grid points can be selected appropriately. After extraction and arraying, we can find the mapping ( f w ) using equation (8).

카메라 교정데이터는 인버스 카메라 왜곡맵 f -1 C를 처음 구성하는데 사용된다. 순수 입체 카메라왜곡의 대부분의 공통 시나리오(즉, f C=f P C)의 경우, 4개의 모서리 포인트가 필요하다.Camera calibration data is used to initially construct the inverse camera distortion map f - 1C . For most common scenarios of pure stereo camera distortion (i.e. f C = f P C ), four corner points are required.

Figure 112007058386045-PAT00016
(12)
Figure 112007058386045-PAT00016
(12)

(인버스) 입체변환은 아래와 같다.(Inverse) stereo conversion is as below.

Figure 112007058386045-PAT00017
(13)
Figure 112007058386045-PAT00017
(13)

여기서 (x d , y d )는 디스플레이 공간내의 좌표이고 (x c , y c )는 카메라공간내 좌표이다. 식 (12)를 사용해 8개의 선형방정식을 구하고, 입체변환을 규정하는 계수 {a,b,c,d,e,f,g,h}에 대해 푼다. Where ( x d , y d ) are coordinates in display space and ( x c , y c ) are coordinates in camera space. Equation (12) is used to find eight linear equations and solve for the coefficients { a, b, c, d, e, f, g, h } that define three-dimensional transformations.

카메라왜곡이 광학왜곡성분 f 0 C를 포함하거나 곡면틀에 맞게 수정될 때, 에 지방정식이나 CC 그리드를 이용해 역 카메라왜곡 맵 f -1 C를 결정한다. CC 그리드를 사용하는 것도 하나의 방법인데, 이는 내부 포인트의 왜곡에 관한 정보를 제공하거나 에지에 관한 정보만을 제공하기 때문이다. CC 그리드는 식 10으로 주어진다. 이 그리드는 주어진 기본 함수 집합에 의해 (적어도 정사각형으로) 보간된다. 나선형을 기반으로 하여 나선형으로 조정하거나 식 (14)에 정의된 그리드로 보간하는 것도 한가지 선택이다. When the camera distortion includes the optical distortion component f 0 C or is modified to fit the frame, use the local equation or CC grid to determine the inverse camera distortion map f -1 C. Using a CC grid is one way, either because it provides information about distortion of internal points or only about edges. The CC grid is given by equation 10. This grid is interpolated (at least square) by a given set of basic functions. One option is to make spiral adjustments based on the spiral or to interpolate with the grid defined in equation (14).

Figure 112007058386045-PAT00018
Figure 112007058386045-PAT00018

카메라 교정데이터 추출단계에서 계산된 f -1 C와 (x 0 ci , y 0 ci )로부터,

Figure 112007058386045-PAT00019
에 의해 f w 가 구해지는데, 여기서
Figure 112007058386045-PAT00020
는 식 (15)와 같이 주어진다.From f −1 C and ( x 0 ci , y 0 ci ) calculated in the camera calibration data extraction step,
Figure 112007058386045-PAT00019
F w is given by
Figure 112007058386045-PAT00020
Is given by equation (15).

Figure 112007058386045-PAT00021
(15)
Figure 112007058386045-PAT00021
(15)

이런 연결은 도메인에 대해 전체 영상맵 범위를 이용해 카메라의 인버스 왜곡맵을 구한다. This connection uses the full range of image maps for the domain to obtain the camera's inverse distortion map.

구해진 그리드

Figure 112007058386045-PAT00022
는 도 5의 중간 도표에 대응하고 디스플레이 왜곡을 수정하는데 필요한 맵을 (인버스 형태로) 제공한다. 전술한 바와 같이, 그리드는 화면틀(18) 안에 있는 포인트만 포함한다. 오버플로 왜곡의 경우(a, b의 경우), 도메인 공간(즉, 디스플레이 왜곡의 뷰포인트로부터의 입력영상)내의 (형상중심에 대응하는) 많은 화소가 이 그리드로 정의된 디스플레이 공간내에 좌표를 갖지 않는다. 본 실시예에서 디지털 워핑부(15)인 프로세서는 모든 도메인공간 화소를 처리하는데; 인버스 수정요소의 도메인공간은 실제로는 출력영상이다. 따라서, 미싱 그리드데이터를 계산해야 하는데, 이 계산은 외삽단계와 리샘플링 단계에서 한다. Obtained Grid
Figure 112007058386045-PAT00022
5 corresponds to the middle diagram of FIG. 5 and provides (in inverse form) the map needed to correct the display distortion. As mentioned above, the grid only includes points within the frame 18. In the case of overflow distortion (a and b), many pixels (corresponding to the shape center) in domain space (i.e., the input image from the viewpoint of display distortion) do not have coordinates in the display space defined by this grid. Do not. In this embodiment, the processor, which is the digital warping unit 15, processes all the domain space pixels; The domain space of the inverse correction element is actually the output image. Therefore, the missing grid data must be calculated, which is performed at the extrapolation and resampling stages.

카메라왜곡을 계산할 때처럼, 그리드 fw는 나선과 같은 기본함수의 집합에 의해 보간될 수 있다. 보간값

Figure 112007058386045-PAT00023
을 외삽하여 미싱 데이터를 결정한다. 이 함수는 고속으로 리샘플링하여, 즉 도메인 포인트를 MxN에서 (nM -n+1)x(nN -n+1)으로 증가시켜(n=2,3..) 수정 그리드 덴서(denser)를 만드는데에도 사용된다. As when calculating camera distortion, the grid fw can be interpolated by a set of basic functions such as spirals. Interpolation
Figure 112007058386045-PAT00023
Extrapolate to determine missing data. This function is also used to resample at high speed, i.e. increase the domain point from MxN to ( nM -n + 1 ) x ( nN -n + 1 ) (n = 2,3 ..) to create a modified grid denser. Used.

이제 수정맵을

Figure 112007058386045-PAT00024
가 되도록 할 수 있고, 입력공간상의 포인트 어레이에서 이 함수를 평가해 빠진 포인트를 포함한 수정 그리드를 구할 수 있다. 원래의 그리드를 유지하기 위해, 식 (16)과 같이 입력공간에 새로 규칙적으로 간격진 그리드 어레이를 형성하으로써
Figure 112007058386045-PAT00025
의 보간 형태를 이용한다. Now modify the map
Figure 112007058386045-PAT00024
We can evaluate this function on an array of points in the input space to get a correction grid containing missing points. To maintain the original grid, by forming a new regularly spaced grid array in the input space, as shown in equation (16)
Figure 112007058386045-PAT00025
Use the interpolation form of.

Figure 112007058386045-PAT00026
(16)
Figure 112007058386045-PAT00026
(16)

이 어레이가 덴서이고, /M>M, /N>N이다. 이 어레이에서

Figure 112007058386045-PAT00027
를 계산하면 식 (17)에 의한 수정 그리드 (x di , y di )가 생기는데, 물론 빠진 포인트를 포함하고 덴서일 수 있다. This array is a denser, where / M> M and / N> N. In this array
Figure 112007058386045-PAT00027
Calculations yield a correction grid ( x di , y di ) by equation (17), which may of course be a denser containing missing points.

Figure 112007058386045-PAT00028
화면틀내에서
Figure 112007058386045-PAT00029
일 경우 (17)
Figure 112007058386045-PAT00028
Within the frame
Figure 112007058386045-PAT00029
If (17)

Figure 112007058386045-PAT00030
에 보간점들을 조합하여 미싱 데이터의 외삽과 보간을 내부 데이터에 대해 할 수 있다.
Figure 112007058386045-PAT00030
Interpolation points can be combined to extrapolate and interpolate missing data to internal data.

교정데이터 생성의 최종 단계는 축척과 원점을 고정하는 것이다. 수정 그리드는 디스플레이 공간에 있고 화면틀(18)의 우측상단 모서리를 기준으로 정해진다. 디스플레이 공간의 단위(축척)는 임의적이며 입력공간에 사용된 단위와 다를 수 있다. 이 데이터를 워프 생성기(13)에서 사용하기 전에 입력공간과 일치하는 원점과 축척을 만들 필요가 있다. 이것은 원점과 축척을 최적화하면 보인다. The final step in generating calibration data is to fix the scale and origin. The correction grid is in display space and is defined relative to the upper right corner of the frame 18. The unit (scale) of the display space is arbitrary and may differ from the unit used for the input space. Before using this data in the warp generator 13, it is necessary to create an origin and scale that match the input space. This is seen by optimizing the origin and scale.

도 5의 중간 도표를 고려하면, 수정을 했을 때 최종 수정된 영상은 화면틀(18)에 대해 사각형으로 되어야 한다. 도 7에 의하면, 수정된 영상을 포함하는 사각형을 액티브 사각형 A'B'C'D'라 한다. 액티브 사각형은 영상의 틀(ABCD)과 화면틀(EFGH) 안에 있어야 한다. 액티브 사각형의 상단좌측 모서리가 (0,0)이고 사각형의 높이를 곱한 폭이 W T xH T 가 되도록 원점과 축척을 선택하는데, 폭과 높이의 곱이 입력영상의 해상도이다(도 7 참조).Considering the middle diagram of FIG. 5, when the correction is made, the final modified image should be square with respect to the frame 18. According to FIG. 7, a rectangle including the modified image is called an active rectangle A'B'C'D '. The active rectangle must be in the frame of the image (ABCD) and the frame of the image (EFGH). The origin and scale are selected so that the upper left corner of the active rectangle is (0,0) and the width multiplied by the height of the rectangle is W T xH T , and the product of the width and height is the resolution of the input image (see FIG. 7).

일단 축척과 이동이 된 뒤에는, 교정을 위한 입력공간이 실제로는 역구조에서 전자수정을 위한 출력공간이고, 수정을 위한 입력공간이 실제로는 디스플레이 공간(즉, 교정용 출력공간)과 같다. Once scaled and moved, the input space for calibration is actually the output space for electronic correction in an inverse structure, and the input space for correction is actually the same as the display space (ie, the calibration output space).

액티브 사각형의 상단좌측 모서리와 크기가 디스플레이 좌표공간에서 각각

Figure 112007058386045-PAT00031
Figure 112007058386045-PAT00032
이면, 모든 그리드 격자의 축척을 조절해 식 (18)과 같이 변위시켜야 한다.The top left corner and size of the active rectangle
Figure 112007058386045-PAT00031
Wow
Figure 112007058386045-PAT00032
If so, all grid grids should be scaled and displaced as shown in Eq. (18).

Figure 112007058386045-PAT00033
(18)
Figure 112007058386045-PAT00033
(18)

사각형 좌표를 결정할 W D xH D 의 값은 화면틀(18)의 종횡비를 유지하려면 정수로 선택한다. 식(18)을 적용하면 디스플레이 공간의 치수(하단 도표)가 수정에 필요한 입력영상 치수(상단 도표)로 바뀐다. The value of W D xH D to determine the square coordinates is selected as an integer to maintain the aspect ratio of the frame 18. Applying Eq. (18) changes the dimensions of the display space (bottom chart) to the input image dimensions (top chart) needed for correction.

액티브 사각형의 결정은 자유롭지만, 자연적인 제한이 있다. 수정된 영상의 화소 해상도를 최대로 하려면, 사각형을 가능한한 크게 해야 한다. 수정된 영상이 입력영상과 동일한 종횡비를 가져야 한다면, 사각형의 종횡비

Figure 112007058386045-PAT00034
를 입력영상의 종횡비(W T / H T )와 일치시켜야 한다. 여러 제한사항을 아래 C1~C4에 열거한다.Determination of the active rectangle is free, but there are natural limitations. To maximize the pixel resolution of the modified image, make the rectangle as large as possible. If the modified image should have the same aspect ratio as the input image, the aspect ratio of the rectangle
Figure 112007058386045-PAT00034
Must match the aspect ratio ( W T / H T ) of the input image. The various restrictions are listed in C1 through C4 below.

C1) 액티브 사각형이 빛의 틀 ABCD 안에 들어간다.C1) The active rectangle falls into the light frame ABCD.

C2) 액티브 사각형이 화면틀 EFGH 안에 들어간다.C2) The active rectangle falls within the frame EFGH.

C3) 액티브 사각형의 면적이 최대화된다.C3) The area of the active rectangle is maximized.

C4) 액트비 사각형의 종횡비를 입력영상의 종횡비와 같게 한다

Figure 112007058386045-PAT00035
C4) Make the aspect ratio of the act ratio rectangle the same as the aspect ratio of the input image
Figure 112007058386045-PAT00035

액티브 사각형에 대해 이런 제한을 해결하는 것(즉,

Figure 112007058386045-PAT00036
Figure 112007058386045-PAT00037
를 결 정하는 것)은 수치최적화의 문제이다. 위의 모든 제한을 수학적 형태로 두되, 이 문제를 해결하는데 여러 최적화 방법을 이용한다.Solving this limitation for active rectangles (i.e.
Figure 112007058386045-PAT00036
Wow
Figure 112007058386045-PAT00037
Is a matter of numerical optimization. All of the above limitations are in mathematical form, but several optimization methods are used to solve this problem.

제한적 최소화법도 한가지 방법인데, 이 경우 제한사항들을 부등식으로 재정리하고 최소화(또는 최대화)할 함수를 정의한다. 화면틀 에지에 대한 선 방정식(식 9 참조)과 최외 격자점(식 17 참조)을 이용해 제한사항 C1과 C2를 부등호 형태로 만드는바, 4군데 사각모서리가 이들 선 안에(≤) 있다. C4는 이미 등호 형태이지만, C3는 액티브 사각형의 면적을 최대화할 함수로 된다. Constrained minimization is one way, in which case you define a function that reorders the constraints into inequality and minimizes (or maximizes) them. Using the line equation for the frame edge (see Equation 9) and the outermost lattice point (see Eq. 17), the constraints C1 and C2 are inequality, with four square edges (≤). C4 is already an equal sign, but C3 is a function that will maximize the area of the active rectangle.

도 5의 시나리오 (a)에서는 영상이 오버플로하여 화면(16)을 채우고, 화면틀(18)은 자연적인 사각형으로서 C1~3를 자동으로 만족한다. 디스플레이의 축척을 테스트영상의 축척으로 고정하면, 아래 식 (19)와 같이 된다. In the scenario (a) of FIG. 5, the image overflows to fill the screen 16, and the screen frame 18 automatically satisfies C1 to 3 as natural rectangles. When the scale of the display is fixed to the scale of the test image, the following equation (19) is obtained.

Figure 112007058386045-PAT00038
(19)
Figure 112007058386045-PAT00038
(19)

수정된 영상이 화면틀(18)에 정확히 일치하면 이상적인 상태로서 화면틀(18) 전체가 이용된다. 따라서, 이 경우에는 도 6의 최적화 단계가 식 (19)만을 이용함을 뜻하고, 이는 포인트의 축척을 바꾸거나 포인트를 움직일 필요가 없음을 뜻한다.If the modified image exactly matches the screen frame 18, the entire screen frame 18 is used as an ideal state. Thus, in this case, the optimization step of FIG. 6 means using only equation (19), which means that there is no need to change the scale of the point or move the point.

최적화 단계는 아래 (20)과 같이 C4 조건을 바꾸어 종횡비를 바꾸는데에도 이용된다.The optimization step is also used to change the aspect ratio by changing the C4 condition as shown below (20).

Figure 112007058386045-PAT00039
Figure 112007058386045-PAT00039

식 (18)을 이용하면, 수정된 영상의 종횡비가 α로 된다. 이렇게 종횡비를 선택하는 것이 자유롭기 때문에 영상을 디스플레이 장치에서 종횡비가 서로 다른 우체통이나 원통형으로 할 수 있다. 축척과 변위를 조절하면, 영상을 화면(16)에 대해 쉽게 크게하거나(오버스캔) 작게(언더스캔)할 수 있다. 따라서, 표면함수를 이용해 쉽게 오버스캔/언더스캔 상태를 구현할 수 있다.Using equation (18), the aspect ratio of the corrected image is α . Since the aspect ratio can be freely selected, the image can be a mailbox or a cylinder having different aspect ratios in the display device. By adjusting the scale and displacement, the image can be easily enlarged (overscan) or reduced (underscan) with respect to the screen 16. Therefore, the surface function can be used to easily implement the overscan / underscan state.

교정데이터 생성기(12)에서 생긴 최종 교정데이터가 식 (21)로 주어지는 그리드 데이터 / f'w이다. The final calibration data produced by the calibration data generator 12 is the grid data / f'w given by equation (21).

Figure 112007058386045-PAT00040
(21)
Figure 112007058386045-PAT00040
(21)

이상의 설명은 모든 원색에 대한 수정을 하는 왜곡에 촛점이 집중되었다. 이 경우, 동일한 그리드 데이터가 모든 색의 수정을 설명하고, 이런 경우 단색수정이라 할 수 있다. 그러나, 횡색수차 왜곡의 경우, 그리드 데이터가 모든 원색에 대해 다르므로 다색수정이 필요하며, 이런 경우를 다색수정이라 할 수 있다. 모든 원색에 공통인 기하학적 왜곡이 측방향 수정에도 포함되므로, 교정데이터 생성기(12)를 후술하는 다색수정의 특수한 경우에도 구현할 수 있다. The above explanation focuses on the distortion that corrects all the primary colors. In this case, the same grid data accounts for the correction of all colors, in which case it can be called a monochrome correction. However, in the case of lateral chromatic aberration distortion, multicolor correction is necessary because the grid data is different for all primary colors, and this case may be referred to as multicolor correction. Since the geometric distortion common to all the primary colors is included in the lateral correction, the correction data generator 12 can also be implemented in the special case of the multicolor correction described below.

횡색수차수정용 교정데이터 생성기(12)의 일례가 도 8에 있다. 이 생성기는 단색수정을 K번 반복한 것과 비슷하고, 여기서 K는 원색의 갯수이다. 원색은 I i 로 표시하고 i=1...K이다. An example of the correction data generator 12 for lateral chromatic aberration correction is shown in FIG. This generator is similar to repeating a single color correction K times, where K is the number of primary colors. The primary color is denoted by I i, where i = 1 ... K.

원색 각각을 교정하는 단계는 단색 수정례에서 설명한 단계와 비슷하다. Correcting each of the primary colors is similar to the steps described in the Monochromatic modification.

이제 교정하는 원색에 맞춰 테스트패턴을 컬러화한다. 예를 들어, 적색을 교 정할 때, 모든 테스트패턴(도 4의 a~j 참조)의 특징(원, 막대 등)을 모두 적색으로 한다. 특징부의 특성(원의 갯수 등)는 컬러패턴에 따라 다를 수 있다.Now colorize the test pattern to match the primary color you are calibrating. For example, when red is corrected, all the characteristics (circles, bars, etc.) of all the test patterns (refer to a to j of FIG. 4) are all red. The characteristics (such as the number of circles) of the features may vary depending on the color pattern.

중심과 에치를 추출하는 등의 모든 영상처리단계에서 컬러영상을 이용한다. 교정되는 컬러를 다루도록 임계값을 조정한다. 일단 2진 영상을 얻으면, 영상처리는 컬러와는 무관하다. The color image is used in all image processing steps, such as extracting the center and the etch. Adjust the threshold to handle the color being corrected. Once a binary image is obtained, image processing is independent of color.

일반적으로, 카메라렌즈 자체내의 횡색수차왜곡 때문에, 원색에 따라 카메라 교정데이터가 달라 모든 원색에 대해 이 데이터를 별도로 계산할 필요가 있다. 본 시스템은 카메라 자체내의 횡색수차왜곡을 교정하도록 구성된다. 디스플레이장치를 교정하기 위한 테스트 영상패턴과 마찬가지로, 원색마다 다른 테스트 영상패턴을 이용해 카메라 교정데이터를 만든다. 카메라에서 (다색) 교정데이터를 만드는 것은 디스플레이 교정과는 무관하게 이루어지고 일단 한번 할 필요가 있다. 카메라 교정데이터를 만들 때, 횡색수차왜곡이 없거나 최소(카메라보다 훨씬 적은)인 디스플레이 장치를 사용해야 한다. 이런 디스플레이 장치가 없으면, 컬러마커를 사용해 좌표를 아는 물리적 그리드를 만든다. 다색 카메라 교정의 최종 결과는 역방향 카메라왜곡으로서 식 (22)에서 구해진 원색에 따라 다르다. In general, because of lateral chromatic aberration in the camera lens itself, camera calibration data differs depending on the primary colors, and it is necessary to calculate this data separately for all primary colors. The system is configured to correct lateral chromatic aberration in the camera itself. Similar to the test image pattern for calibrating the display device, camera calibration data is generated using a test image pattern different for each primary color. Creating (multicolor) calibration data in the camera is independent of display calibration and needs to be done once. When creating camera calibration data, use display devices that have no or minimal lateral chromatic aberration (much less than the camera). Without such a display device, color markers are used to create a physical grid of known coordinates. The final result of the multicolor camera calibration depends on the primary color obtained from equation (22) as reverse camera distortion.

Figure 112007058386045-PAT00041
(20)
Figure 112007058386045-PAT00041
20

미싱 데이터를 계산한 뒤, (식 17에 비슷한) 구해진 K개의 그리드를 식 (23)에서 구한다. After calculating the missing data, the K grids (similar to Eq. 17) are obtained from Eq. (23).

Figure 112007058386045-PAT00042
(23)
Figure 112007058386045-PAT00042
(23)

각 그리드의 포인트 수는 테스트패턴과 리샘플링에 따라 다를 수 있다.The number of points in each grid can vary with test patterns and resampling.

원색의 테스트패턴들은 각각 다른 투사형상 등급에 속한다(도 5 참조). 어떤 테스트패턴은 도 5의 a와 같이 화면틀(18)을 완전히 오버플로하고, 어떤 것은 도 5의 b와 같이 전체가 화면틀 안에 있다. 최적화를 하면, 액티브 사각형이 화면틀(18)내에서 각각의 컬러의 영상테두리 ABCDk 안에 있어야 하고; 이 때 영상테두리의 공간교차법이 이용된다. 이는 1회 최적화가 이루어지고 C1에서 모든 원색의 테두리 ABCDk를 고려함을 의미한다. 최적화에 의해 모든 원색에 공통인 액티브 ㅅ사각형의 좌표가 결정된다. 이들 좌표는 식 (18)에 맞게 그리드를 축척하고 변위하는데 이용된다. The primary test patterns belong to different projection shape classes (see Fig. 5). Some test patterns completely overflow the screen frame 18 as shown in a of FIG. 5, and some are entirely in the screen frame as shown in b of FIG. 5. Optimizing, the active rectangle must be within the image frame ABCDk of each color in the frame 18; At this time, the spatial crossing method of the image border is used. This means that one optimization is made and the edge ABCDk of all primary colors is taken into account in C1. Optimization determines the coordinates of the active rectangle common to all primary colors. These coordinates are used to scale and displace the grid according to equation (18).

최적화 단계의 출력이 K' 그리드인데, 식 (24)와 같이 모든 원색의 교정데이터를 제공한다. The output of the optimization step is the K 'grid, which provides calibration data for all primary colors, as shown in equation (24).

Figure 112007058386045-PAT00043
Figure 112007058386045-PAT00043

이들 데이터 집합은 워프생성기(13)에서 사용된다.These data sets are used in warp generator 13.

본 실시예에서는 컬러와 휘도 둘다나 컬러 한가지에 대해 기하학적 왜곡(타입 1~4)을 수정한 뒤에 불균일 교정데이터의 생성을 실행한다. 컬러의 불균일은 여러가지 원인이 있는데, 예를 들면 투사형상(키스톤 각도)로 인해 화면(16)RK지의 거리가 변하는 것이나, 마이크로-디스플레이 패널의 불완전성 등이 있다.In this embodiment, non-uniform calibration data is generated after correcting the geometrical distortions (types 1 to 4) for both color and luminance or one color. There are various causes of color unevenness, for example, the distance of the screen 16RK paper due to the projection shape (keystone angle), the incompleteness of the micro-display panel, and the like.

형상수정된 디스플레이 장치의 경우, 테스트패턴 영상이 화면틀(18)에 가능한 일치되는 크기로 화면틀 안에 사각형(액티브 사각형)으로 나타난다. 화면틀(18)의 상단좌측 모서리가 아니라 액티브 사각형의 상단좌측 모서리를 원점으로 한다. 사용된 테스트패턴은 한가지 색의 형상수정에 사용된 패턴들중의 컬러버전일 뿐으로서; 원색 k를 수정하기 위해 특징부(원, 막대)의 컬러가 k이다. 이는 횡색수차를 수정하는데 사용되는 것과 도일하다. 휘도에 대해서는, 그레이 값(맥시멈 화이트, 하프-맥시멈)을 사용할 수 있다. 컬러란 말은 수정중인 모든 컬러성분을 식별하는데 사용되는 것으로서; 휘도이거나, RGB나 YCbCr중의 한 성분이거나, 센서(11)로 측정할 수 있는 다른 컬러공간내의 성분일 수도 있다.In the case of a shape-modified display device, the test pattern image appears as a rectangle (active rectangle) in the screen frame in a size that matches the screen frame 18 as much as possible. The upper left corner of the active rectangle is used as the origin, not the upper left corner of the screen frame 18. The test pattern used is only a color version of the patterns used for shape correction of one color; The color of the feature (circle, bar) is k to correct the primary color k. This is the same as used to correct lateral chromatic aberration. For luminance, gray values (maximum white, half-maximum) can be used. The term color is used to identify all color components being modified; It may be luminance, a component of RGB or YCbCr, or a component in another color space that can be measured by the sensor 11.

센서(11)로는 카메라나 컬러분석기(분광기, 광량계 등)를 사용한다. 정확도를 높이려면 광량계나 분광기를 사용해야만 한다. 이런 컬러분석기는 전체 영상(즉, 다수의 포인트)을 캡처하거나 한개 포인트의 데이터를 캡처한다. 센서(11)는 가능한한 화면(16) 가까이 설치해야 한다. 싱글포인트 컬러분석기를 실제로 알려진 좌표(즉, 형상의 중심)에서 스크린에 설치하면, 이 좌표의 데이터를 얻을 수 있다. 멀티포인트 컬러분석기와 카메라를 임의의 위치에 배치할 수는 있지만, 가능한한 화면(16) 가까이 화면 중심에 배치해야 정확도를 개선할 수 있다. 도 9는 화면(91), 싱글포인트 컬러분석기(92) 및 멀티포인트 컬러분석기(93)의 예를 보여준다. 컬러 불균일에 대한 교정데이터 생성기는 기하왜곡을 수정하기 위한 것과 비슷하다. 도 10은 컬러불균일의 교정데이터 생성기(12')를 보여준다. As the sensor 11, a camera or a color analyzer (spectrometer, photometer, etc.) is used. To increase accuracy, a photometer or spectrometer must be used. These color analyzers capture the entire image (i.e. multiple points) or one point of data. The sensor 11 should be installed as close to the screen 16 as possible. If a single-point color analyzer is installed on the screen at the actual known coordinates (ie, the center of the shape), the data of these coordinates can be obtained. Although the multipoint color analyzer and camera can be placed in any position, it should be placed in the center of the screen as close to the screen 16 as possible to improve accuracy. 9 shows an example of a screen 91, a single point color analyzer 92, and a multipoint color analyzer 93. The calibration data generator for color unevenness is similar to that for correcting geometric distortion. 10 shows a calibration data generator 12 'of color non-uniformity.

싱글포인트 컬러분석기(92)가 캡처한 데이터는 원색값

Figure 112007058386045-PAT00044
와 대응 공간좌표(x 0 i ,y 0 i )로서, 측정을 한 모든 포인트에 대한 값이다. 여기서 k=1...K는 컬러를 분석하고 있음을 확인한다. 테스트패턴이 정의되어 있어 C 0 kl 로 표시된 오리지널 컬러값도 알려졌다. 이렇게 해서 얻은 식 (25)는 컬러왜곡 맵이라 하는 컬러분균일 왜곡을 설명한다.The data captured by the single-point color analyzer 92 are the primary color values.
Figure 112007058386045-PAT00044
And the corresponding spatial coordinates ( x 0 i , y 0 i ), which are values for all points taken. Here k = 1 ... K confirms that we are analyzing the color. The test pattern was defined so that the original color values, denoted C 0 kl , were known. Equation (25) thus obtained explains color uniform distortion called a color distortion map.

Figure 112007058386045-PAT00045
Figure 112007058386045-PAT00045

공간좌표는 컬러불균일 왜곡으로 바뀌지 않는다. 오리지널 컬러값 C 0 kl 는 보통 주어진 테스트패턴에서 고정적으로 C 0 kl = C 0 k 인데, 이는 배경이 아닌 모든 화소가 동일한 컬러를 가짐을 의미한다. 하나 이상의 측정치 집합 s=1...S를 만들 수 있는데, 각각의 집합은 고정 컬러값이 각각인 테스트패턴에 대응한다. 편의상 하나의 첨자 i로 식 (26)과 같이 각각의 측정값 집합을 커버한다. Spatial coordinates do not change with color non-uniform distortion. The original color value C 0 kl is usually fixed C 0 kl = C 0 k in a given test pattern, meaning that all pixels other than the background have the same color. One or more sets of measurements s = 1 ... S can be made, each set corresponding to a test pattern with each fixed color value. For convenience, one subscript i covers each set of measurements, as shown in equation (26).

Figure 112007058386045-PAT00046
Figure 112007058386045-PAT00046

공간좌표는 각 집합에 대해 동일하다. 이하의 설명을 각각의 집합(테스트패턴)에 적용한다. The spatial coordinates are the same for each set. The following description applies to each set (test pattern).

멀티포인트 컬러분석기(93)가 카메라인 경우, 캡처한 데이터가 전체 영상에 해당한다. 이 경우, 그리드를 구하기 전에 약간의 영상처리가 필요하다. 형상의 중 심 (x 0 ci ,y 0 ci )과 도메인좌표 (x 0 i ,y 0 i )를 계산한다. 이 단계는 형상수정에서 행한 추출 및 배열 단계와 동일하다. 중심 외에도, 형상의 중심의 컬러값도 계산한다. 캡처한 영상의 확인된 중심 부근의 화소 컬러값을 식 27에 따라 평균내거나 필터링하면 컬러값을 구할 수 있다. When the multipoint color analyzer 93 is a camera, the captured data corresponds to the entire image. In this case, some image processing is required before obtaining the grid. Calculate the center of the shape ( x 0 ci , y 0 ci ) and the domain coordinates ( x 0 i , y 0 i ). This step is the same as the extraction and arrangement step performed in shape correction. In addition to the center, the color value of the center of the shape is also calculated. The color values can be obtained by averaging or filtering the pixel color values near the identified center of the captured image according to Equation 27.

Figure 112007058386045-PAT00047
Figure 112007058386045-PAT00047

Figure 112007058386045-PAT00048
는 중심 부근에서의 캡처한 영상의 컬러값이다. 가장 가까운 4개 포인트를 평균내려면 필터계수가 α j = 1/4, j=1..4이다.
Figure 112007058386045-PAT00048
Is the color value of the captured image near the center. To average the four nearest points, the filter coefficient is α j = 1/4 and j = 1..4.

최종결과가 식 25에서 구한 그리드 데이터이다. 여기서, (i) 컬러왜곡이 공간좌표를 바꾸지 않으므로 도메인 좌표만 필요하고; (ii) 영상이 화면(16) 안에 있으면서 기하학적 왜곡이 없으므로 미싱 데이터가 없으며; (iii) 기하학적 수정을 하지 않으므로 센서 왜곡을 계산하고 연계를 할 필요가 없다.The final result is the grid data obtained from Equation 25. Here, (i) only the domain coordinates are needed because the color distortion does not change the spatial coordinates; (ii) there is no missing data because the image is in screen 16 and there is no geometric distortion; (iii) There is no need to calculate and correlate sensor distortions as there is no geometric correction.

사용되는 센서의 종류와 캡처한 데이터의 포맷에 따라, 컬러 공간변환을 하여 컬러데이터를 디스플레이의 컬러공간에 가져와야 한다. 예를 들어, 분광기는 색의 값의 관점에서 데이터를 주지만 디스플레이 장치와 프로세서(프로세서)는 RGB 값이 필요하다. 컬러변환은 행렬곱이나 더 복잡한 비선형 방정식을 통해 이루어진다. 컬러 공간변환에는, 원색 전체의 그리드 데이터가 사용된다. 일반적으로, 이 변환은 식 28과 같은 형태를 취한다.Depending on the type of sensor used and the format of the captured data, color space conversion must be performed to bring the color data into the color space of the display. For example, spectrometers give data in terms of color values, but display devices and processors (processors) require RGB values. Color conversion is accomplished through matrix multiplication or more complex nonlinear equations. For color space conversion, grid data of the entire primary colors is used. In general, this transformation has the form

Figure 112007058386045-PAT00049
Figure 112007058386045-PAT00049

컬러왜곡이 없으면, 정해진 컬러의 테스트패턴에 대해 좌표 (x 0 i ,y 0 i )전체의 컬러값을 상수 C'0 k 로 측정해야 한다. 측정된 상수는 원래의 상수 화소값 C 0 k 와 다를 수 있다. 대부분의 디스플레이는 측정된 값과 원래의 값이 비례하고, 비례상수 λ는 컬러왜곡이 없을 때는 일정하고 컬러왜곡이 있을 때는 공간적으로 변한다. 따라서, 디스플레이의 컬러왜곡 맵을 식 29와 같이 표현할 수 있다.In the absence of color distortion, the color values across the coordinates ( x 0 i , y 0 i ) should be measured with the constant C ' 0 k for a test pattern of a given color. The measured constant may be different from the original constant pixel value C 0 k . In most displays, the measured and original values are proportional, and the proportional constant λ is constant in the absence of color distortion and spatially changes in the presence of color distortion. Therefore, the color distortion map of the display can be expressed as in Equation 29.

Figure 112007058386045-PAT00050
Figure 112007058386045-PAT00050

일반적으로, 입력값과 측정된 컬러값은 식 30과 같이 벡터

Figure 112007058386045-PAT00051
의 항으로 주어지는 공지의 디스플레이 컬러함수 f 1 으로 표현된다.In general, the input and measured color values are vectors such as
Figure 112007058386045-PAT00051
It is represented by the known display color function f 1 given by the term

Figure 112007058386045-PAT00052
Figure 112007058386045-PAT00052

컬러왜곡이 없으면

Figure 112007058386045-PAT00053
이 공간적으로 변한다. 식 31과 같이 데이터를 분석하면 주어진 좌표 (x 0 i ,y 0 i )를 결정할 수 있다.Without color distortion
Figure 112007058386045-PAT00053
This changes spatially. Analyzing the data as in Equation 31 allows us to determine the given coordinates ( x 0 i , y 0 i ).

Figure 112007058386045-PAT00054
Figure 112007058386045-PAT00054

좌표마다 충분한 수의 값이 필요하다. 데이터에 맞추면 분석값이 f 1 에 근사해진다. 마찬가지로, 동일한 데이터를 식 32와 같이 역으로 분석하면 f 1 -1 이 계산된 다. You need a sufficient number of values per coordinate. Fit to the data, the analytical value approximates f 1 . Likewise, if the same data is analyzed inversely as in Eq 32, f 1 -1 is calculated.

Figure 112007058386045-PAT00055
Figure 112007058386045-PAT00055

역함수는 역시 컬러수정인자

Figure 112007058386045-PAT00056
에 따라 결정되고, 수정인자는 f 1 의 형태에서 결정되거나, 다항식과 같은 특정 기본함수를 이용해 역함수 데이터에 대입하여 계산된다. 선형 최소자승 고정법의 경우, 인버스 맵이 식 33의 형태를 취한다. The inverse function is also a color correction factor
Figure 112007058386045-PAT00056
The correction factor is determined in the form of f 1 , or calculated by substituting inverse function data using a particular basic function, such as a polynomial. For linear least-squares fixation, the inverse map takes the form of equation 33.

Figure 112007058386045-PAT00057
Figure 112007058386045-PAT00057

r=1...R은 인버스 컬러맵을 정의하는 인자의 수이고, Br은 기본함수이다. 중심좌표와 원색마다 인자가 다르다. 대개, f 1 -1 은 프로세서에서 사용하는 표현으로 결정되고, 이는 보통 다항식으로 표현된다. 위의 표현은 경우에 따라 출력에서 오리지널 C0 ik 값을 줄이는데 필요할 수 있으므로 최종적으로 정해진 컬러레벨을 조절하는데 이용된다. 인자를 간단히 축척율로 조정하여 역값을 증감시킬 수 있다. r = 1 ... R is the number of parameters defining the inverse colormap, Br is the base function. Factors are different for central coordinates and primary colors. Usually, f 1 -1 is determined by the representation used by the processor, which is usually represented by a polynomial. The above expression is sometimes used to adjust the final color level, as it may be necessary to reduce the original C 0 ik value in the output. You can increase or decrease the inverse by simply adjusting the factor to scale.

(중심좌표의) 역함수를 알면, 컬러불균일 왜곡을 수정하는 수정 컬러맵은 식 34에 의해 주어진다.Knowing the inverse function (of the center coordinates), a corrected colormap that corrects for color non-uniform distortion is given by Eq 34.

Figure 112007058386045-PAT00058
Figure 112007058386045-PAT00058

컬러왜곡과 수정의 공간변화를 각각

Figure 112007058386045-PAT00059
Figure 112007058386045-PAT00060
로 설명할 수 있다. 따라서, 수정을 위한 교정데이터 f Wck 는 식 35에 따른 컬러수정인자와 관련된 그리드 데이터를 설명한다.The spatial variation of color distortion and correction
Figure 112007058386045-PAT00059
Wow
Figure 112007058386045-PAT00060
This can be explained as Therefore, the correction data f Wck for correction describes the grid data related to the color correction factor according to equation (35).

Figure 112007058386045-PAT00061
Figure 112007058386045-PAT00061

식 29의 가장 일반적인 케이스에 대해, 식 36이 주어진다.For the most common case of equation 29, equation 36 is given.

Figure 112007058386045-PAT00062
Figure 112007058386045-PAT00062

위의 그리드는 적당한 보간함수로 리샘플링하면 더 밀집될 수 있다. 기하학적 교정과 비슷하게 새 그리드는 식 37로 주어진다.The grid above can be denser by resampling with an appropriate interpolation function. Similar to the geometric correction, the new grid is given by equation 37.

Figure 112007058386045-PAT00063
Figure 112007058386045-PAT00063

이것은 교정데이터 생성기(12')의 데이터출력이다.This is the data output of the calibration data generator 12 '.

모든 하위 생성기를 포함한 교정데이터 생성기(12')에서 생긴 완전한 데이터가 식 38로 주어진다.The complete data generated by the calibration data generator 12 'including all subgenerators is given by equation 38.

Figure 112007058386045-PAT00064
Figure 112007058386045-PAT00064

횡색수차가 없으면, K 그리드

Figure 112007058386045-PAT00065
가 동일하여, 하나의 기하학적 교정그리드만이 계산되어 출력된다. 교정데이터는 워프생성기(13)에 입력된다. K grid without lateral chromatic aberration
Figure 112007058386045-PAT00065
Is the same, only one geometric correction grid is calculated and output. The calibration data is input to the warp generator 13.

앞에서 설명한대로, 그리드 데이터는 프로세서에서 직접 사용되지 않는다. 그리드 표현이 가장 일반적인 포맷이기는 해도, 대량의 데이터(모든 화소의 좌표) 저장이 필요하고 (축척 변화와 같이) 쉽게 조작하기 곤란하므로 하드웨어로 구현하는 것은 비효율적이다. 종래에는 룩업 테이블을 사용하기도 하는데, 이 방법이 최적은 아니다. 워프생성기(13)는 식 38에서 구한 그리드 표현을 워프데이터로 변환하고, 워프데이터는 하드웨어에 응용하는데 효율적인 형태로 수정한 것을 표현하기도 한다. 프로세서에서 그리드 데이터를 직접 이용할 수 있으면, 모든 화소에 대해 리샘플링된 그리드를 사용할 수 있고 워프생성기(13)에 의한 워프데이터의 생성은 필요 없다. As mentioned earlier, grid data is not directly used by the processor. Although grid representation is the most common format, it is inefficient to implement in hardware because it requires storing large amounts of data (coordinates of all pixels) and is difficult to manipulate (such as scale changes). Conventionally, lookup tables are used, which is not optimal. The warp generator 13 converts the grid representation obtained from Equation 38 into warp data, and the warp data may represent a modified form in an efficient form for application to hardware. If grid data is available directly from the processor, then a resampled grid can be used for all pixels and generation of warp data by the warp generator 13 is not necessary.

워프데이터는 프로세서의 데이터조건에 맞게 생성된다. 프로세서는 각종 아키텍처를 이용해 기하학적-컬러 변환을 적용할 수 있는데 대부분 기하학적 수정용 인버스 맵을 이용하고 위의 그리드는 인버스 아키텍처로 설계된다. 미국 특허출원 2006-0050074 A1의 "System and method for representing a general two dimensional transformation"에 소개된 효과적인 전자수정 아키텍처는 그리드 데이터의 선형함수 표현을 기반으로 한다. 워프생성기(13)는 그리드 데이터를 함수 표현으로 바꾼다. 도 11은 워프생성기(13)의 일례를 보여준다.Warp data is generated according to the data conditions of the processor. The processor can apply geometric-color transformations using various architectures, most of which use geometrically modified inverse maps and the grid above is designed with an inverse architecture. The effective electron correction architecture introduced in US Patent Application 2006-0050074 A1, "System and method for representing a general two dimensional transformation", is based on linear function representations of grid data. Warp generator 13 converts the grid data into a function representation. 11 shows an example of the warp generator 13.

2차원 그리드의 일반적 함수표현 (x i ,y i )→u i 를 식 39와 같이 표현한다.The general function expression ( x i , y i ) → u i of a two-dimensional grid is expressed as shown in Equation 39.

Figure 112007058386045-PAT00066
Figure 112007058386045-PAT00066

39식은 도메인 (x,y)의 2차원 표면함수로서, 기본함수 B i (x,y)(i=1...L)의 선형조합이고 그 계수는 표면계수 a i 이다. 이 계수는 상수로서 도메인에서 변하지 않는다. 기본함수가 선형일 필요는 없고, 그 조합이 선형이면 된다. 경우에 따라, 기본함수가 비선형 함수이므로, 식 39로 표현된 형태는 일반적으로 수정 그리드를 표현하기에 충분하다. 기본함수와 그 갯수는 하드웨어에서 구현되고 평가되므로 프로세서에서 규정된다. 워프생성기(13)는 필요한 계수를 결정한다.Equation 39 is a two-dimensional surface function of the domain (x, y) , which is a linear combination of the basic function B i ( x, y ) ( i = 1 ... L ) and its coefficient is the surface coefficient a i . This coefficient is constant and does not change in the domain. The basic function does not have to be linear; the combination should be linear. In some cases, since the base function is a nonlinear function, the form represented by equation 39 is generally sufficient to represent the correction grid. Basic functions and their numbers are specified in the processor because they are implemented and evaluated in hardware. Warp generator 13 determines the necessary coefficients.

일례로, 하드웨어에서 사용된 기본함수는 다항식이다. 2개의 지수를 유도하면 다항형 기본함수와 해당 방정식을 40과 같이 표현할 수 있다.In one example, the basic function used in hardware is a polynomial. By deriving two exponents, the polynomial base function and the corresponding equation can be expressed as 40.

Figure 112007058386045-PAT00067
Figure 112007058386045-PAT00067

기본함수를 알고 있으므로, 결정하고 저장할 새 데이터는 표면계수 a i 의 집합이다. 표면 표현으로 된다는 것은 식 41과 같이 그리드 값에서 표면계수로 바뀐다는 것이다.Since we know the basic function, the new data to be determined and stored is a set of surface coefficients a i . To be a surface representation is to change from a grid value to a surface coefficient, as in Equation 41.

Figure 112007058386045-PAT00068
Figure 112007058386045-PAT00068

이 표현의 효율은 각 화소마다 그리드 값을 저장해야 할 경우 표면계수로 인해 화소 집합에 대한 그리드 값의 계산을 할 수 있다는 사실에서 위의 표현이 효율적임을 할 수 있고; 따라서 저장해야 할 표면계수의 수가 비교적 훨씬 적어진다.The efficiency of this representation can be said to be efficient in the fact that it is possible to calculate the grid value for a set of pixels due to the surface coefficient when grid values are to be stored for each pixel; Therefore, the number of surface coefficients to be stored is relatively much smaller.

원래의 그리드 값이 얼마나 정확히 표현되는지 계수의 갯수가 결정한다. 계수의 갯수를 늘리면, 즉 기본함수를 더 많이 사용하면 정확도가 높아진다. 한편, 도메인을 여러개의 패치로 나누고 패치마다 표면함수를 달리 사용하면 적은 수의 기본함수를 사용해도 된다. 패치의 구조는 디스플레이 왜곡의 정도에 맞게 형성된 다. 이 방식에 의하면 조합 표면의 복잡도를 왜곡에 맞게 하는 융통성을 키울 수 있다. 예를 들어, 왜곡이 복잡할수록 사용되는 패치도 많아진다. 패치 p=1...P의 계수는 a p ij 이다. 완벽한 표면은 식 42와 같은 형태를 취한다.The number of coefficients determines how accurately the original grid values are represented. Increasing the number of coefficients, that is, using more basic functions, improves accuracy. On the other hand, if you divide a domain into several patches and use different surface functions for each patch, you can use fewer basic functions. The structure of the patch is adapted to the degree of display distortion. This approach increases the flexibility to adapt the complexity of the combination surface to distortion. For example, the more complex the distortion, the more patches are used. The coefficient of the patch p = 1 ... P is a p ij . The perfect surface takes the form of Equation 42.

Figure 112007058386045-PAT00069
Figure 112007058386045-PAT00069

전체 출력영상(도메인)에 상당하는 단일 패치에 단일 표면이 대응한다. 도 12에 패치의 분할예가 도시되어 있다.A single surface corresponds to a single patch corresponding to the entire output image (domain). An example of division of a patch is shown in FIG.

패치의 분할은 16개 패치의 4x4 대칭배열과 같은 시작 구성으로 초기화될 수 있다. 패치의 배열(즉, 패치의 갯수와 패치의 경계)을 패치 경계 D라 하고, 이것은 식 43의 형태를 취한다.The partitioning of a patch can be initiated with a starting configuration such as a 4x4 symmetric array of 16 patches. The array of patches (i.e. the number of patches and the boundaries of the patches) is called patch boundary D , which takes the form of equation 43.

Figure 112007058386045-PAT00070
Figure 112007058386045-PAT00070

패치형상이 정해지면, 식 38에 따른 데이터의 선형 최소자승 고정법을 이용해 계수를 계산한다. 이 고정법은 패치 경계에서 표면이 연속됨을 보장해야 한다. 표면이 결정되면 오차분석을 하여 그리드 값을 계산값과 비교한다(식 44 참조).Once the patch shape is established, the coefficients are calculated using the linear least squares fixation of the data according to equation 38. This fixation should ensure that the surface is continuous at the patch boundary. Once the surface is determined, error analysis is performed to compare the grid value with the calculated value (see Eq. 44).

Figure 112007058386045-PAT00071
Figure 112007058386045-PAT00071

오차값을 허용레벨 E max 와 비교한다. 최대오차가 허용레벨보다 작거나 같으면, 즉 max(Error i )≤E max 이면, 표면계수가 제한되고 워프데이터로서 워프생성기(13) 에서 출력된다. 최대오차가 더 크면, 패치가 더 분할되고 계수를 더 계산분석한다. Compare the error value with the allowable level E max . If the maximum error is less than or equal to the allowable level, that is, max ( Error i ) ≦ E max , the surface coefficient is limited and output from the warp generator 13 as warp data. If the maximum error is greater, the patch is split further and the coefficients are further analyzed.

식 38의 표면은 식 45와 같이 표현된다.The surface of equation 38 is represented by equation 45.

Figure 112007058386045-PAT00072
Figure 112007058386045-PAT00072

그리드 표현의 (i,j)는 더이상 필요치 않은데 이는 함수 형태가 전체 공간에 대해 정의되고 좌표집합 각각에 대해서는 정의되지 않기 때문이다. (i,j)는 이제 지수함수를 제시하거나, 기본함수를 확인한다. 표면은 도메인 좌표가 있는 패치에 대해 평가된다. 패치의 배열과, 기분함수의 갯수는 원색마다 다르다. 예를 들어 패치 하나의 기본함수를 변화시키면 위의 포맷을 더 바꿀 수 있다. 기하학적 수정을 위한 도메인공간은 (x,y)로서 (역구조내의) 출력 영상공간에 해당하며, 범위공간은 (u,v)로서 입력 영상공간에 해당한다.The grid representation (i, j) is no longer needed because the function form is defined for the whole space and not for each of the coordinate sets. (i, j) now gives an exponential function or checks the base function. Surfaces are evaluated against patches with domain coordinates. The array of patches and the number of mood functions vary for each primary color. For example, changing the basic function of a patch can change the format above. The domain space for geometric correction is (x, y) and corresponds to the output image space (in the inverse structure), and the range space is (u, v) to correspond to the input image space.

컬러 수정을 위해, 도메인공간을 (u,v)로 고쳤다. 컬러 수정은 기하학적으로 올바른 영상에 대해 한다. 즉, 좌표공간 (u,v)을 갖는 입력영상을 워핑하여 형상수정을 하기 전에 컬러수정을 해야만 함을 의미한다. 영상을 워핑하여 형상수정을 한 뒤 프로세서에서 컬러수정을 하면, 수정을 하는 새로운 배열을 위해 위의 계수를 조절해야 하는바, 재배열 단계가 필요하다. 이 경우, 컬러인자를 (x,y) 공간에 정의한다. 먼저 46 식과 같이 위의 표면에서 (x,y) 공간에 새로운 그리드

Figure 112007058386045-PAT00073
를 구할 수 있다. For color correction, the domain space is fixed to (u, v). Color correction is done for geometrically correct images. This means that color correction must be performed before shape correction by warping the input image having the coordinate space (u, v). After warping the image and modifying it in the processor, you need to adjust the above coefficients for the new array to be corrected. In this case, color factors are defined in the (x, y) space. First the new grid in (x, y) space from the surface above as shown in equation 46
Figure 112007058386045-PAT00073
Can be obtained.

Figure 112007058386045-PAT00074
Figure 112007058386045-PAT00074

이 그리드를 앞서 설명한대로 고정하고 계수를 계산하되, 이제 도메인공간은 출력 영상공간이다. 컬러수정 표면계수에도 같은 표현을 이용한다. 이런 재배열된 그리드에 대해 오차분석을 이용한다.Fix this grid as described earlier and calculate the coefficients, but now the domain space is the output image space. The same expression is used for color correction surface coefficients. Error analysis is used for these rearranged grids.

워프생성기(13)의 최종 출력은 워프데이터를 총체적으로 형성하는 (필요시 배열 조절된) 식 47의 계수 집합이다.The final output of warp generator 13 is a set of coefficients of equation 47 (arranged if necessary) that collectively form the warp data.

Figure 112007058386045-PAT00075
Figure 112007058386045-PAT00075

D k 는 원색 k의 패치형상을 규정하는 모든 정보를 포함한다. (a,b) 데이터는 기하학 워프 데이터나 변환으로서 타입 1~4의 왜곡을 수정하는 것이고, 벡터 c는 타입 5의 왜곡을 수정하는 컬러워프나 변환이다. D k contains all the information that defines the patch shape of the primary color k . ( a, b ) The data is a geometric warp data or transformation that corrects distortions of types 1 to 4, and the vector c is a color warp or transformation that corrects distortions of type 5.

디지털 워핑부(15)는 프로세서로서 시스템의 프로세서로 작용한다. 본 명세서에서는 프로세서가 디지털 워핑부와 혼용되어 사용된다. 실제로는 디지털 워핑부(15)가 워프데이터를 디지털 입력영상(비디오)에 적용하여 입력영상을 미리 왜고시키거나 워핑한다. 입력영상은 공간적으로 및 컬러 둘다 워핑된다. 공간워핑은 기하학적 워프에 맞게, 컬러워핑은 컬러워프에 맞게 이루어진다. 사전왜곡은 디스플 레이 왜곡을 상쇄하는 것으로서, 화면(16)에 무왜곡 영상을 표시한다. The digital warping unit 15 acts as a processor of the system as a processor. In this specification, the processor is used interchangeably with the digital warping unit. In practice, the digital warping unit 15 applies warp data to the digital input image (video) to prewarper or warp the input image in advance. The input image is warped both spatially and in color. Space warping is done to geometric warp and color warping to color warp. Pre-distortion cancels display distortion, and displays a distortion-free image on the screen 16.

형상-컬러 불균일을 수정하는 디지털 워핑부(15)의 일례가 도 13에 도시되었다. 디지털 워핑부(15)는 기하학적 워핑을 하는(즉, 입력영상을 기하학적으로 워핑하는) 첫번째 블록과, 컬러 불균일을 수정하기 위해 컬러공간의 입력영상만을 워핑하는 두번째 블록을 포함한다. 여기서 컬러수정은 기하학적 수정 이후에 일어나지만, 이 설명은 역배열에도 쉽게 적용된다. 특정 수정이 불필요할 때는 2개 블록을 모두 우회할 수 있다. 블록 각각 2개 요소를 갖는다. 각각의 원색에 대해 각각의 화소(x i , y i )에서 식 45로 정의된 표면다항식을 평가해 필요한 좌표

Figure 112007058386045-PAT00076
를 만드는 표면평가요소와, 실제로 필요한 좌표를 사용해 화소 컬러값 C i 를 계산하는 화소생성요소가 이것이다. 형상 수정을 위한 화소 생성은 필터링 단계인데, 여기서는 미리 계산된 계수 w j (j=1...W)를 갖는 필터를 처리중인 현재 화소 (u i , v i )의부근화소에 적용한다. An example of the digital warping portion 15 correcting the shape-color unevenness is shown in FIG. The digital warping unit 15 includes a first block for geometric warping (ie, geometrically warping the input image) and a second block for warping only the input image of the color space to correct color unevenness. Here, color correction occurs after geometric correction, but this explanation also applies easily to inverse arrays. When no specific modification is needed, both blocks can be bypassed. Each block has two elements. For each primary color, the coordinates required by evaluating the surface polynomial defined by equation 45 at each pixel ( x i , y i )
Figure 112007058386045-PAT00076
These are the surface evaluation factor that produces, and the pixel generation factor that calculates the pixel color value C i using the coordinates actually needed. The pixel generation for shape correction is a filtering step, in which a filter having a precomputed coefficient w j ( j = 1 ... W ) is applied to the neighboring pixels of the current pixel ( u i , v i ) being processed.

경우에 따라, 필터계수를 시스템 밖에서 계산하고 디지털 워핑부(15)에 적용하기도 한다. 컬러불균일 수정을 위해, 기하학적으로 워핑된 영상에서 화소값을 취하고 식 33을 이용해 새로운 컬러값을 결정한다. 화소 생성단계는 48로 요약된다.In some cases, the filter coefficient may be calculated outside the system and applied to the digital warping unit 15. To correct the color non-uniformity, take the pixel value from the geometrically warped image and determine the new color value using Eq 33. The pixel generation step is summarized as 48.

Figure 112007058386045-PAT00077
Figure 112007058386045-PAT00077

원색 각각에 대해 이런 단계를 실시한다.

Figure 112007058386045-PAT00078
는 형상수정을 한 뒤의 중간 컬러값을 나타낸다.Perform these steps for each primary color.
Figure 112007058386045-PAT00078
Represents the intermediate color value after shape correction.

필터링 및 컬러 수정방정식의 세부사항은 하드웨어의 구조에 좌우된다. 간단한 필터는 w j =1/4인 경우의 4개 부근 포인트들을 평균내는 것이다. 복잡한 필터는 타원형을 사용하는 것으로서, 그 형상은 표면의 야코비 행렬식에 좌우되고 필터계수는 필터생성 알고리즘을 이용해 구할 수 있다. 이 경우, 야코비 행렬식을 추정하는데 부근 좌표

Figure 112007058386045-PAT00079
가 필요하다. 마찬가지로, 간단한 컬러수정은 식 49와 같은 선형수정만 이용한다.The details of the filtering and color correction equations depend on the architecture of the hardware. A simple filter is to average four near points when w j = 1/4. Complex filters use ellipses, the shape of which depends on the Jacobian determinants of the surface, and the filter coefficients can be obtained using filter generation algorithms. In this case, the neighborhood coordinates are used to estimate the Jacobian determinant.
Figure 112007058386045-PAT00079
Is needed. Similarly, simple color correction uses only linear correction as shown in equation 49.

Figure 112007058386045-PAT00080
Figure 112007058386045-PAT00080

한편, 50과 같은 입체 다항식을 이용하는 복잡한 컬라수정을 하기도 한다.On the other hand, complex color correction using a three-dimensional polynomial such as 50 is sometimes performed.

Figure 112007058386045-PAT00081
Figure 112007058386045-PAT00081

디지털 워핑부(15)의 구조를 알면 컬러인자

Figure 112007058386045-PAT00082
와 표면계수가 계산된다.Knowing the structure of the digital warping unit 15, the color factor
Figure 112007058386045-PAT00082
And surface coefficients are calculated.

디지털 워핑부(15)의 최종 결과는 식 (1)에서 수학적으로 설명되는 수정이고, 이 식은 모든 원색성분을 표시하는데 사용되는 벡터 표현을 이용해 밑의 식 (51)로 변환된다.The final result of the digital warping section 15 is a modification mathematically explained in equation (1), which is converted into the equation (51) below using a vector representation used to represent all the primary color components.

Figure 112007058386045-PAT00083
Figure 112007058386045-PAT00083

워핑되거나 사전보상된 출력영상을 디스플레이 장치에 입력하고, 왜곡 없게 화면(16)에 투사하여, 자동 교정과 수정을 끝낸다. 일단 교정과 수정 과정을 끝내면, 정상(테스트패턴 아님) 영상과 비디오를 디스플레이 장치에 보낼 수 있다.The warped or pre-compensated output image is input to the display device and is projected onto the screen 16 without distortion, thereby completing automatic correction and correction. Once you have completed the calibration and correction process, you can send normal (not test pattern) images and video to the display device.

멀티컬러 기하 교정과 수정은 횡색수차 수정에서 같이 설명한바 있다. 그러나, 주요 성분들이 기하학적으로 왜곡된 모든 왜곡을 교정 및 수정하는데에도 이용될 수 있다. 다른 경우로는 배면 투사장치의 새시나 하우징에 대해 또는 서로에 대해 배치된 여러 마이크로-디스플레이 장치로 인한 광학성분의 오정렬에 기인한 왜곡과, 컬러성분마다 배율이 다른데서 기인한 왜곡이 있다. Multicolor geometry corrections and corrections have been described together in Lateral Chromatic Aberration Correction. However, the main components can also be used to correct and correct all geometrically distorted distortions. Other cases include distortion due to misalignment of optical components due to the chassis or housing of the rear projection apparatus or due to the various micro-display devices arranged with respect to each other, and distortion due to different magnifications for each color component.

프로젝션 장치에서는 기하학적으로 수정된 영상에 대해 색의 교정과 수정을 한다. 즉, 색 교정은 기하학적 워핑 자체에 의한 모든 불균일을 고려한다. 기하학적으로 워핑된 영상은 축척/필터링 과정으로 인해 부분부분마다 색이나 휘도가 다를 수 있다. 실제, 축척율이 클수록 휘도와 컬러의 변화가 심하다. 이것은 기하학적 워핑 이후 컬러수정을 하면 자동으로 보상된다. 따라서, 이 시스템은 기하학적 워핑과정으로 인한 컬러불균일을 자동으로 보상한다.In the projection apparatus, color correction and correction are performed on geometrically corrected images. That is, color correction takes into account all the nonuniformities due to geometric warping itself. Geometrically warped images may differ in color or luminance from part to part due to the scaling / filtering process. In fact, the larger the scale factor, the more severe the change in luminance and color. This is automatically compensated for by color correction after geometric warping. Thus, the system automatically compensates for color irregularities due to geometric warping.

이 시스템을 단일 회로 안에 설치하여 디지털 교정/워핑을 하기도 한다. 교정데이터/워프 생성기(12,13)는 임의의 프로세서에서 실행되는 요소이다. 테스트영상 생성기(14)는 프로세서에서 출력되는 저장영상 집합으로 교체될 수 있다. 하드웨어에 내장된 프로세서를 이용하면 전체 교정/수정 과정에 대한 단일 회로 솔루션이 제공된다. 또, 이 하드웨어를 카메라와 같이 디스플레이 장치 내부에 설치하여 자가교정 디스플레이 장치를 얻을 수도 있다. 이 경우, 영상센서로부터 감지된 정보를 받아 디스플레이 왜곡을 계산하고, 사전보상 맵인 워프맵이나 컬러맵을 만들며, 사전보상 맵을 입력 영상데이터에 적용하여 화면에 왜곡이 없는 영상을 보이도록 하는데 겨우 하나의 프로세서만 필요하다. 그러나, 어떤 경우에는 프로세서를 하나 이상 사용하는 것이 효율적일 수 있다. 따라서, 이상 설명한 실시예를 구현하는데는 하나 이상의 프로세서가 필요하다.The system can also be installed in a single circuit for digital calibration / warping. Calibration data / warp generators 12, 13 are elements that run on any processor. The test image generator 14 may be replaced with a stored image set output from the processor. Processors embedded in hardware provide a single circuit solution for the entire calibration / correction process. The hardware can also be installed inside a display device like a camera to obtain a self-calibrating display device. In this case, the display distortion is calculated by receiving the information detected from the image sensor, and a warp map or color map, which is a precompensation map, is applied, and the precompensation map is applied to the input image data so that the image without distortion is displayed on the screen. Only a processor is required. However, in some cases it may be efficient to use more than one processor. Accordingly, one or more processors are required to implement the embodiments described above.

(카메라를 대신하거나 함께 사용되는) 디스플레이 장치에 센서(11)로 사용되는 여러 종류의 센서를 설치할 수 있다. 일례로, 도 14와 같이, 센서(143)는 카메라(142)와 함께나 별도로 사용되어 화면(141)상의 포인트의 거리를 측정하는 거리 센서가다. 이 화면은 평면일 필요는 없다. 측정된 거리와 이들 감지된 거리 사이의 각도로부터, 카메라(142)와 화면(141)의 상대각도를 계산한다. 또, 스크린의 형상도 (평면이 아니면) 이 방법으로 계산할 수 있다. 도 14의 경우, 스크린의 우측의 라인이 더 밀집된 것은 센서(143)가 스크린에 직각에 가깝게 있음을 나타내고, 좌측의 라인이 덜 밀집된 것은 직각에서 멀리 있음을 의미한다. 적외선 센서를 포함한 여러가지 센서(143)를 사용할 수 있다. 본 실시예에서, 디스플레이 스크린(즉, 화면(141))을 그리는데 물리적 구조는 필요 없고, 카메라(142)는 임의로 배치할 수 있다.Various types of sensors used as the sensors 11 can be installed in the display device (used or used together with the camera). For example, as shown in FIG. 14, the sensor 143 is a distance sensor that is used together with or separately from the camera 142 to measure the distance of a point on the screen 141. This screen does not have to be flat. From the angle between the measured distance and these sensed distances, the relative angles of the camera 142 and the screen 141 are calculated. In addition, the shape of the screen can be calculated by this method (if not flat). In the case of FIG. 14, the denser lines on the right side of the screen indicate that the sensor 143 is closer to the right angle to the screen and the less dense lines on the left means farther from the right angle. Various sensors 143 can be used, including infrared sensors. In this embodiment, the physical structure is not required to draw the display screen (ie, the screen 141), and the camera 142 can be arranged arbitrarily.

또, 동적 교정과 수정을 하는 자가교정 디스플레이 장치도 있는데, 이 경우 외부자원 없이도 교정-수정 과정을 언제라도 운용하여 왜곡을 수정할 수 있다. 이렇게 되면, 프로젝터의 키스톤왜곡이나 RPTV와 같은 배면 투사장치의 필드교정과 같이 시간에 따라 변하는 왜곡을 수정할 수 있다. 수정시스템을 RPTV의 하우징이나 새시 안에 배치하여 자가교정을 하도록 한다. 시간이 갈수록 변하는 다른 중요한 왜곡은 물리적 이동, 노후, 온도로 인한 광학성분의 변화이다. 예를 들어, 배면 투사장치에서는 거울의 중량이나 온도로 인해 거울의 곡률이 약간 변할 수 있는데, 이 경우 동적인 교정과 수정이 필요하다. 디스플레이 장치를 작동시키거나 왜곡의 변화를 감지했을 때, 교정-수정 시스템이 작동된다. In addition, there is a self-calibration display device that performs dynamic correction and correction, in which case the distortion can be corrected at any time by operating a correction-correction process without external resources. This allows correction of time-varying distortions such as keystone distortion of the projector or field calibration of rear projection devices such as RPTV. The correction system is placed in the housing or chassis of the RPTV for self-calibration. Other important distortions that change over time are optical shifts due to physical shifts, aging, and temperature. For example, in a rear projection device, the curvature of the mirror may change slightly due to the weight or temperature of the mirror, which requires dynamic correction and correction. The calibration-correction system is activated when the display device is activated or a change in distortion is detected.

동적 교정과 수정은 TV와 같이 고정식 디스플레이 장치의 필드에 특히 중요한데, 여기서 센서는 없을 수도 있다. 처음 교정과 수정을 한 뒤 생기는 왜곡은 시간에 따른 작은 성분 변화로 인한 것이다. 제조업자가 디지털 워핑부를 이용해 시간에 따라 필드에서 예상되는 다양한 왜곡(i=1...N)을 시뮬레이션할 수 있다. 이런 왜곡은 전술한 실시예에서 설명한 시스템들을 이용해 수정-교정될 수 있지만, 2개의 프로세서를 사용해 하나는 왜곡을 시뮬레이션하고 나머지는 자동으로 생기는 수정데이터를 테스트한다. 이들 N 테스트 케이스들을 수정하기 위한 워프데이터를 디스플레이 장치에 저장할 수 있다. 시간이 갈수록 작은 왜곡이 N 워프 수정에서부터 발전하므로, 왜곡을 가장 잘 수정하는 것을 선택한다. 따라서, 완벽한 시스템이 필요한 것은 아니고, 제조과정중에 교정이 이루어지고 N개의 수정데이터 집합이 디스플레이 장치에 저장되므로, 디스플레이 장치에 디지털 워핑부 하나만 설치하면 된다. 적당한 수정데이터 선택을 자동화하기 위해, 디스플레이 틀에 있는 센서를 사용해 특수한 테스트패턴을 감지한다. 따라서, 왜곡의 최적 검출을 위한 영상 테스트패턴이 로딩된다. 이 과정은 동적 수정과 교정을 하기 위해 디스플레이 장치를 작동시켰을 때 운요될 수 있다.Dynamic calibration and correction are particularly important in the field of fixed display devices such as TVs, where sensors may not be present. The distortion that occurs after the initial calibration and correction is due to small component changes over time. Manufacturers can use digital warping to simulate the various distortions ( i = 1 ... N ) expected in the field over time. This distortion can be corrected-corrected using the systems described in the above embodiments, but using two processors, one simulates the distortion and the other automatically tests the correction data. Warp data for modifying these N test cases can be stored on the display device. Over time, small distortions develop from the N warp correction, so choose the one that best corrects the distortion. Therefore, a complete system is not required, and since calibration is performed during the manufacturing process and N correction data sets are stored in the display device, only one digital warping unit needs to be installed in the display device. To automate the selection of the corrected data, a sensor in the display frame is used to detect specific test patterns. Thus, an image test pattern for optimal detection of distortion is loaded. This process can be carried out when the display device is operated for dynamic correction and calibration.

도 15, 16을 보면, 교정시스템이 화면상의 최적의 프로젝터 촛점을 찾는다. 이 작업은 특정 갯수의 평행선 집합과 같은 테스트패턴을 화면에 나타내서 이루어진다. 이어서 영상을 캡처하고 프로세서로 스캔하여 테스트패턴에서 명암 콘트라스 트를 찾는다. 프로젝터 촛점을 변위시키면서 콘트라스트를 재측정하되, 최대 콘트라스트를 찾을 때까지 계속한다. 최대 콘트라스트는 베스트 촛점에 해당한다. 화면(151)은 촛점상태가 나쁜 것이고 화면(161)은 촛점상태가 좋은 것이다. 이 기법을 센서로 촛점을 찾는데에도 이용할 수 있다. 화면의 틀과 같이 에지가 선명한 물리적 마커를 캡처한 다음 최대값 콘트라스트 분석을 한다. 필요하다면, 적절한 컬러의 테스트패턴을 디스플레이하여 마커와 배경 사이의 콘트라스트를 보강한다. 센서의 촛점을 변위시키면서 콘트라스트를 재측정한다. 최대값 콘트라스트가 정해지면 베스트 촛점이 된다. 디스플레이 장치보다 먼저 센서의 촛점을 맞춘다. 15 and 16, the calibration system finds the best projector focus on the screen. This is done by displaying a test pattern such as a certain number of parallel lines on the screen. The image is then captured and scanned by the processor to find contrast in the test pattern. Re-measure the contrast while displacing the projector focus, but continue until you find the maximum contrast. Maximum contrast corresponds to the best focus. The screen 151 has a poor focus state and the screen 161 has a good focus state. This technique can also be used to focus on sensors. Capture physical markers with sharp edges, such as the frame of a screen, and then perform maximum contrast analysis. If necessary, display a test pattern of appropriate color to reinforce the contrast between the marker and the background. Measure the contrast again while displacing the sensor's focus. Once the maximum contrast is established, it is the best focus. Focus the sensor before the display device.

한편, 도 17, 18의 교정시스템은 스크린(171,181)이 곡면이고 프로젝터(1~3)가 여러대인 디스플레이 장치에 사용된다. 이 프로젝터는 곡면 스크린(171,181)의 전 영역을 커버하고 동일한 전자장치의 제어를 받는다. 각각의 프로젝터(1~3)에 대해 기하학적 교정을 하여, 스크린(171,181)의 각 영역에 매핑한다. 또, 기하학적 교정을 통해 프로젝터 영상을 회전 및 전진시켜 인접 영상에 조합한다. 특히, 겹쳐지는 부분에서는 화소들이 겹쳐진다. 프로젝터(1~3)에서 스크린(171,181)에 매핑하면 스크린(171,181)이 곡면이어서 입사각이 서로 다르면서 가변적이다. 곡면스크린(171,181)의 맵을 갖거나 구하는 전자장치는 워프데이터로 표현된대로 스크린(171,181)을 가로질러 각도변화를 수정한다.On the other hand, the calibration system of Figs. 17 and 18 is used in a display device in which the screens 171 and 181 are curved and several projectors 1 to 3 are used. The projector covers the entire area of curved screens 171 and 181 and is controlled by the same electronic device. Geometric corrections are made to each of the projectors 1 to 3 and mapped to the respective areas of the screens 171 and 181. It also rotates and advances the projector image through geometric correction and combines it into adjacent images. In particular, the overlapping portions overlap the pixels. When the projectors 1 to 3 are mapped to the screens 171 and 181, the screens 171 and 181 are curved so that the incident angles are different and variable. An electronic device having or obtaining a map of curved screens 171 and 181 corrects the angular change across the screens 171 and 181 as represented by warp data.

기하학적 교정 외에도, 모든 프로젝터 영역에서 컬러 특징들이 시각적으로 동일하게 되도록 프로젝터(1~3)의 컬러교정을 한다. 전자장치는 프로젝터(1~3) 사이의 화소 컬러와 휘도를 나누어 곡면스크린(171,181)에서 균일한 휘도-컬러 매핑 을 이루도록 한다. 명심할 것은, 프로젝터의 갯수는 몇개라도 되며 여러 프로젝터들이 겹치는 부분을 공유하면서도 교정법이 동일하다는 것이다.In addition to geometric correction, color correction of the projectors 1 to 3 is performed so that the color features are visually identical in all projector areas. The electronic device divides the pixel color and the luminance between the projectors 1 to 3 to achieve uniform luminance-color mapping on the curved screens 171 and 181. Keep in mind, the number of projectors can be any number, and multiple projectors share the overlap, but the calibration is the same.

곡면스크린에 투사할 때 촛점이 항상 문제이다. 프로젝터는 평면 촛점면을 갖지만 스크린은 곡면형이어서, 스크린의 부분부분이 촛점면에서의 거리가 각각 다르다는 사실로부터 이런 문제가 생기는 것이다. 스크린의 어떤 부분에서는 다른 부분보다 영상의 촛점이 더 잘 맺힌다. 하나의 프로젝터를 사용하면서 이런 문제를 극복하기 위해, 디포커싱을 최소화하는 기법을 이용하는데, 그 일례가 도 19이다. 이 경우, 곡면스크린(191)에서부타 촛점면(193)RK지의 수직선의 제곱거리의 합이 최소가 되도록 교정시스템을 배치한다. 스크린 중심에 촛점이 더 잘 맺히도록 하려면, 스크린의 중심부를 촛점면에 연결하는 구간에 가중치를 더 부여한다.Focus is always a problem when projecting onto curved screens. This problem arises from the fact that projectors have a planar focal plane but the screen is curved, so that parts of the screen have different distances from the focal plane. In some parts of the screen the image is more focused than in others. In order to overcome this problem while using one projector, a technique of minimizing defocusing is used, an example of which is FIG. 19. In this case, the calibration system is arranged such that the sum of the squared distances of the vertical lines of the other focal plane 193RK paper on the curved screen 191 is minimized. For better focusing in the center of the screen, weight the section that connects the center of the screen to the focal plane.

이 경우, 스크린의 공지의 형상을 기반으로 최적의 촛점면을 미리 계산할 수 있다. 최적 촛점면과 스크린을 교차시키면 영상의 촛점이 최적인 포인트가 스크린에 생기고 이곳에서 콘트라스트는 최대로 된다. 최적의 평면과 최대 콘트라스트 포인트를 계산해서 알면, 도 16에서 사용한 것과 비슷한 영상 테스트패턴을 스크린에 투사한 다음, 영상을 캡처하여 콘트라스트를 분석한다. 캡처한 영상의 콘트라스트가 최대인 위치가 앞에서 결정된 최대 콘트라스트 포인트와 허용한도내에서 일치하면, 투사된 영상이 최적 촛점면에 맺히게 된다. 최대 콘트라스트 포인트가 앞에서 결정된 최대 콘트라스트 포인트와 일치하지 않으면, 일치할 때까지 프로젝터 촛점을 계속 조정한다. 이 기술을 1차원적으로 곡면인 스크린(원통형, 곡률이 0)과 2차원적으로 곡면인 스크린(구형, 곡률이 0이 아님)에 응용할 수 있음을 알아야 한다.In this case, the optimal focal plane can be calculated in advance based on the known shape of the screen. Intersecting the screen with the optimal focal plane results in the best point on the screen where the contrast is maximized. By calculating the optimal plane and the maximum contrast point, an image test pattern similar to that used in FIG. 16 is projected onto the screen, and then the image is captured to analyze the contrast. If the position where the contrast of the captured image is maximum coincides with the maximum contrast point determined previously, within the allowable limit, the projected image is brought to the optimum focal plane. If the maximum contrast point does not match the maximum contrast point determined previously, continue adjusting the projector focus until it matches. It should be noted that this technique can be applied to screens that are one-dimensionally curved (cylindrical, zero curvature) and screens that are two-dimensionally curved (spherical, non-zero curvature).

도 20에서는, 전술한 교정문제 외에도, 각도가 각각인 여러 프로젝터에서 영상을 투사하여 촛점문제를 해결한다. 도시된 바와 같이, 곡면스크린(201)의 각각의 영역에 각각 다른 프로젝터를 배치하여 디포커싱 문제를 상당히 해결한다. 각각의 투사축이 해당 스크린 부분에 거의 수직이 되도록 하고 각각의 촛점면이 이 부분의 중심에서 접하도록 각도를 배치한다. 구간별 촛점을 최적화하기 위해, 도 19에서 설명한 것과 같은 기법을 이용한다. 한편, 구간별 중심이 스크린에 대한 탄젠트를 유지하도록 할 수도 있다. 이 경우, 여러 프로젝터의 중복영역의 촛점은 물론 화소형상, 휘도 및 컬러에 교정시스템을 일치시켜 매끄럽고 이음매가 없는 영상이 스크린(201)에 촛점을 맺도록 한다. 결과적으로, 촛점면과 스크린 탄젠트가 이루는 각도가 감소되므로 워핑은 훨씬 감소된다. In FIG. 20, in addition to the above-described calibration problem, the problem of focusing is solved by projecting an image from several projectors each having an angle. As shown, different projectors are placed in each area of the curved screen 201 to significantly solve the defocusing problem. Position each projection axis nearly perpendicular to the screen portion and angle each focal plane to the center of this portion. In order to optimize the focus for each section, a technique as described in FIG. 19 is used. Meanwhile, the center of each section may maintain the tangent to the screen. In this case, the correction system is matched to the pixel shape, luminance and color as well as the focus of overlapping areas of the various projectors so that a smooth and seamless image is focused on the screen 201. As a result, the warping is much reduced since the angle between the focal plane and the screen tangent is reduced.

다수의 컬러 형상을 위해 센서를 교정하는 시스템에 대해 설명했다. 마찬가지로, 이 시스템은 센서의 (비기하학적) 컬러왜곡을 교정하는데 사용될 수 있다. 교정/수정된 디스플레이 장치를 이용해, 고정된 컬러패턴을 스크린에 표시하고 센서로 기록했는데; 디스플레이 컬러왜곡을 교정하는데 사용된 것과 동일한 패턴을 사용할 수 있다. 원래의 컬러값을 알면 카메라의 컬러맵을 식 25에서 얻을 수 있다. 이 컬러맵에서, 카메라의 컬러수정인자

Figure 112007058386045-PAT00084
를 결정할 수 있는데, 컬러왜곡이 있으면 컬러수정인자가 공간적으로 변한다. 이 수정 모델은 예컨대 선형의 최소제곱 고정모델일 수 있다. 수정인자는 전적으로 카메라의 컬러왜곡에 대비한 교정데이터라는 특징을 갖는다.A system for calibrating sensors for multiple color shapes has been described. Likewise, this system can be used to correct (non-geometric) color distortion of the sensor. Using a calibrated / corrected display device, a fixed color pattern was displayed on the screen and recorded by the sensor; You can use the same pattern used to correct display color distortion. Knowing the original color values, the camera's color map can be obtained from Eq 25. The color correction factor of the camera in this colormap
Figure 112007058386045-PAT00084
If there is color distortion, the color correction factor changes spatially. This modified model may for example be a linear least square fixed model. Modifiers are characterized entirely by calibration data against camera color distortion.

원색과 휘도의 관점에서 컬러수정을 제시했다. 이 시스템으로 임의의 컬러의 수정이나 조절도 할 수 있다. 테스트패턴이나 다양한 컬러(단순히 원색이나 회색이 아님)를 사용해 식 31과 비슷하게 디스플레이의 컬러맵도 구할 수 있는데, 이 관계가 식 52로 표시되었다.Color correction is presented in terms of primary colors and luminance. The system can also correct or adjust any color. Using a test pattern or a variety of colors (not just primary or gray), a color map of the display can also be obtained, similar to Eq. 31, which is represented by Eq. 52.

Figure 112007058386045-PAT00085
Figure 112007058386045-PAT00085

Figure 112007058386045-PAT00086
는 컬러의 벡터로서 모든 성분을 갖는다. 사용된 컬러 집합은 전체 컬러공간에서 벡터를 정기적으로 샘플링하면서 선택할 수 있다. 인버스 맵은 식 53으로 표현된다.
Figure 112007058386045-PAT00086
Has all components as a vector of color. The color set used can be selected by regularly sampling the vector over the entire color space. The inverse map is represented by equation 53.

Figure 112007058386045-PAT00087
Figure 112007058386045-PAT00087

컬러인자는 길이 K(원색의 수)의 벡터이다. 이전의 표시에서는:The color factor is a vector of length K (number of primary colors). In the previous display:

Figure 112007058386045-PAT00088
Figure 112007058386045-PAT00088

그러나, 이것은 컬러인자를 하나의 식으로 단순히 재배열한 것이 아는데, 이는 기본함수가 이제 전체 컬러공간에서 정의되지 단순히 1차원 컬러공간(즉, 하나의 원색)에서는 정의되지 않기 때문이다. 다항식 형태의 기본함수가 식 55이다.However, this is not simply a rearrangement of the color factors in one way, since the base function is now defined in the entire color space but not simply in the one-dimensional color space (ie one primary color). The basic function of the polynomial form is Eq 55.

Figure 112007058386045-PAT00089
Figure 112007058386045-PAT00089

식 56과 같이 컬러공간에 K차원 패치구조를 Q 패치와 함께 유도하면 λ를 더 일반화할 수 있다.By inducing the K- dimensional patch structure with the Q patch in the color space as shown in Equation 56, λ can be generalized.

Figure 112007058386045-PAT00090
Figure 112007058386045-PAT00090

이 식은 식 57과 같이 컬러인자에 인덱스를 더한다.This expression adds an index to the color factor, as shown in equation 57.

Figure 112007058386045-PAT00091
Figure 112007058386045-PAT00091

이 식은 모든 공간 그리드 포인트(형상의 중심)에서 컬러공간에 일반변환을 제공한다. 이런 교정 컬러데이터를 이제 식 58로 정의한다.This equation provides a general transformation to the color space at all spatial grid points (center of the shape). This calibration color data is now defined by equation 58.

Figure 112007058386045-PAT00092
Figure 112007058386045-PAT00092

왜곡이 없으면, 이 그리드가 모든 좌표에서 동일할 것이다. 워프생성기는 이것을 식 59에서 정의된 형태를 갖는 표면함수로 변환한다.Without distortion, this grid would be the same at all coordinates. The warp generator converts this to a surface function with the shape defined in equation 59.

Figure 112007058386045-PAT00093
Figure 112007058386045-PAT00093

끝으로 디지털 워핑부에서 이 다항식을 계산하고 식 53을 이용해 컬러수정을 한다.Finally, the polywarping unit calculates this polynomial and corrects the color using Equation 53.

공간좌표마다 일반 컬러맵이 있으면, 어느 좌표에서 어떤 컬러도 수정할 수 있다. 디스플레이의 각 구역에 대한 백색 포인트 조절, 콘트라스트 조절, 색조 조절과 같은 공통 컬러조절도 할 수 있다. 이들 모든 조절은 컬러공간에서 하는 기능이므로 함수 근사법을 통해 식 53에 의해 일반 형태로 가능하다. 컬러공간의 패치분할을 통해 선택적 컬러수정도 가능하지만, 특정 컬러에 한정되고, 수정할 컬러패 치 외의 그리드를 동일하게 하여 나머지 컬러는 그대로 둔다. 물론 선택적 색조 수정도 가능하지만, 특정 색조만 수정하고 나머지 색조는 그대로 둔다. 본 시스템의 일반 컬러교정과 수정을 이용하면, 디스플레이 장치의 컬러 정확도를 높일 수 있다.If you have a normal colormap for each spatial coordinate, you can modify any color in any coordinate. Common color adjustments, such as white point adjustment, contrast adjustment, and hue adjustment, can also be made for each zone of the display. All of these adjustments are done in the color space, so a function approximation is possible in general form by equation 53. Selective color count is also possible through patch division of the color space, but it is limited to a specific color, and the rest of the colors are left as it is with the same grid except the color patch to be modified. Of course, selective hue correction is also possible, but it only modifies certain hue and leaves the rest. By using the general color correction and correction of the system, it is possible to increase the color accuracy of the display device.

이 시스템은 유저설정 컬러인자

Figure 112007058386045-PAT00094
를 통해 유저가 컬러를 조절케 할 수도 있는데, 이 컬러인자는 시스템 외부에서 계산되고 워프생성기(13)에 입력된다. 마찬가지로, 유저설정 기하학 인자
Figure 112007058386045-PAT00095
를 워프생성기(13)에 제공하면 유저설정 기하학적 효과(특수한 효과)를 얻을 수 있다.This system uses custom color parameters
Figure 112007058386045-PAT00094
The user may adjust the color through the color factor, which is calculated outside the system and input into the warp generator 13. Similarly, user-defined geometry parameters
Figure 112007058386045-PAT00095
Is provided to the warp generator 13 to obtain a user-defined geometric effect (special effect).

도 21의 실시예에서는 2대의 카메라(Cm1,Cm2)를 한대의 프로젝터(213)에 설치했다. 입력영상이 프로젝터(213)에 공급되면, 화면(211)에 영상패턴이 투사된다. 2대의 카메라(Cm1,Cm2)를 사용해 화면(211)에 투사된 영상패턴을 캡처한다. 이 시스템은 프로세서를 더 구비하는데, 이에 대해서는 도시되지는 않았지만 앞에서 설명하였다. 2대의 카메라의 프로세서에 대한 상대적 위치는 공지되었다. 2대의 카메라를 수평이나 상하로, 또는 수평과 상하 양쪽으로 프로젝터(213)에 대해 엇갈리게 배치할 수 있다. 2대의 카메라에서 캡처한 2개 영상의 비교를 근거로, 프로세서는 화면(211)에 대한 프로젝터(213)의 각도를 포함한 왜곡인자를 결정한다. 이어서, 프로세서에서 입력영상을 워핑하여 왜곡을 수정한다. In the embodiment of Fig. 21, two cameras Cm1 and Cm2 are installed in one projector 213. When the input image is supplied to the projector 213, an image pattern is projected on the screen 211. Two cameras Cm1 and Cm2 are used to capture the image pattern projected on the screen 211. The system further includes a processor, which has not been shown but described above. The relative position of the two cameras relative to the processor is known. Two cameras can be arranged horizontally or vertically, or staggered with respect to the projector 213 both horizontally and vertically. Based on the comparison of the two images captured by the two cameras, the processor determines a distortion factor including the angle of the projector 213 relative to the screen 211. The processor then warps the input image to correct the distortion.

최종 투사된 영상에는 왜곡이 거의 없다. 이 시스템과 방법을 RPTV에도 적용할 수 있는데, 이 경우 도 22와 같은 고정된 위치와 방향으로 카메라를 RPTV에 설 치하지만, 다르게 설치하는 것도 가능하다. 카메라는 스크린에 투사된 패턴을 캡처한다. 카메라에서 스크린을 보면 키스톤왜곡이 보인다. 그러나, 디스플레이 장치의 일부인 교정시스템을 통해 전술한 바와 같이 자가교정을 할 수 있다.There is little distortion in the final projected image. This system and method can be applied to RPTV. In this case, the camera is installed in the RPTV in a fixed position and direction as shown in FIG. 22, but may be installed differently. The camera captures the pattern projected on the screen. If you look at the screen on the camera, you will see keystone distortion. However, the self-calibration can be performed as described above through the calibration system that is part of the display device.

도 23에서는 3개의 프로젝터(P1~3)를 사용해 곡면스크린(231)에 영상을 투사한다. 또, 프로젝터에서 각각에서 투사한 영상을 카메라(Cm1~3)로 캡처한다. 카메라와 프로젝터의 갯수를 다르게 하는 것도 가능하다. 일례로, 프로젝터(P1~3) 전체에서 영상을 투사하는데 카메라(Cm1~3) 각각을 사용할 수도 있다. 이들 카메라를 서로에 대해 수평으로는 물론 상하로도 엇갈리게 배치한다. 프로젝터(P1~3) 각각은 교정을 위해 곡면스크린(231)에 공지의 패턴이나 테스트패턴을 투사한다. 카메라(Cm1~3)가 캡처한 영상을 기반으로, 프로세서는 곡면스크린의 형상과 상대적 방향을 포함한 왜곡인자들을 계산한다. 프로세서는 이들 인자들을 이용해 정상적인 동작중에 각각의 프로젝터에 제공되는 입력영상을 워핑변환한다. 각각의 프로젝터의 워핑변환으로 특정 프로젝터에서 생기는 디스플레이 왜곡이 사전보상된다. 또, 각각의 프로젝터의 휘도를 분석하여 화면(231)의 투사영상의 전체 휘도를 균일하게 한다. 또, 프로세서에 의해 중첩된 구역의 화소들이 정렬되고 이런 중첩된 화소들의 휘도가 프로젝터에서 분산되어 이음매없는 화질이 형성된다.In FIG. 23, three projectors P1 to 3 project images on the curved screen 231. Also, the images projected by the projectors are captured by the cameras Cm1 to 3. It is also possible to vary the number of cameras and projectors. For example, each of the cameras Cm1 to 3 may be used to project an image from the entire projectors P1 to 3. These cameras are alternately arranged horizontally as well as vertically with respect to each other. Each of the projectors P1 to 3 projects a known pattern or a test pattern on the curved screen 231 for calibration. Based on the images captured by the cameras Cm1 to 3, the processor calculates distortion factors including the shape and relative direction of the curved screen. The processor uses these factors to warp the input image provided to each projector during normal operation. Warping conversion of each projector precompensates display distortions caused by a particular projector. In addition, the luminance of each projector is analyzed to make the overall luminance of the projected image of the screen 231 uniform. In addition, the pixels of the superimposed regions are aligned by the processor, and the luminance of these superimposed pixels is dispersed in the projector to form a seamless image quality.

도 23의 시스템을 이용해, 카메라(Cm1~3)로 휘도데이터와 컬러데이터도 캡처할 수 있다. 프로세서는 이들 데이터를 이용해 각 화소에 대한 강도를 조절하여 인접 각각의 영상의 에지를 일치시키고 혼합한다. 모든 프로젝터(P1~3)의 전체 휘도와 컬러도 프로세서에 의해 표준화될 수 있다.Using the system of FIG. 23, luminance data and color data can also be captured by the cameras Cm1 to 3. The processor uses these data to adjust the intensity for each pixel to match and blend the edges of each adjacent image. The overall brightness and color of all the projectors P1 to 3 can also be standardized by the processor.

도 24에서는 센서(여기서는 카메라)를 사용해 패턴과 함께 또는 패턴 없이 투사된 영상을 캡처한다. 한편, 카메라를 사용해 화면(241)의 형상, 크기, 상대적 방향 및 경계를 감지하기도 한다. 경계 에지가 풀다운 화면(즉, 후퇴한 프로젝터 스크린)의 에치이거나 룸의 모서리일 수 있다. 이어서, 영상의 에지의 방향과 테스트영상의 패턴을 프로세서에서 분석하여 형상, 크기, 경계, 상대방향과 같은 화면 특성을 계산한다. 이런 계산을 통해 디스플레이 왜곡이 결정된다. 투사되어 캡처된 영상의 패턴의 복잡성을 근거로, 프로세서가 왜곡인자를 결정한다. 패턴이 간단한 경우, 정상적인 화면과 비교하여 투사각을 결정할 수 있다. 패턴이 더 복잡하면, 화면의 형상, 예컨대 곡면형이나 불규칙한 화면의 형상을 결정할 수 있다. 핀쿠션이나 볼록왜곡과 같은 렌즈결함에 관련된 왜곡인자도 결정할 수 있다. 일단 왜곡인자들이 집합되면, 입력영상 데이터에 적당한 사전보상 워프맵을 적용하여 왜곡을 수정함으로써 시각적으로 왜곡이 없는 영상을 만든다.In FIG. 24 a sensor (here a camera) is used to capture the projected image with or without the pattern. The camera may also detect the shape, size, relative direction, and boundary of the screen 241. The boundary edge may be the etch of the pull-down screen (ie, the retracted projector screen) or the corner of the room. Subsequently, the processor analyzes the direction of the edge of the image and the pattern of the test image to calculate screen characteristics such as shape, size, boundary, and relative direction. This calculation determines the display distortion. Based on the complexity of the pattern of the projected and captured image, the processor determines the distortion factor. If the pattern is simple, the projection angle can be determined compared to the normal screen. If the pattern is more complicated, it is possible to determine the shape of the screen, such as the shape of a curved or irregular screen. Distortion factors related to lens defects such as pincushion and convex distortion can also be determined. Once the distortion factors are collected, the distortion is corrected by applying a suitable precompensation warp map to the input image data to create a visually distortion free image.

도 24는 아무런 물리적 마커나 에지 없이 평면에 투사된 영상을 수정하는 경우이다. 투사로 인한 왜곡은 키스톤왜곡과 렌즈왜곡을 모두 포함한다. 이 시스템에서는 위치와 방향을 고정해 카메라를 프로젝터에 부착한다. 교정과 수정은 2단계로 이루어진다. 먼저, 테스트 영상패턴을 이용하는 완벽한 교정과정을 통해 카메라가 캡처한 패턴의 영상을 줌레벨을 포함한 공지의 키스톤 각도와 렌즈왜곡인자로 저장한다. 또, 워프데이터와 같이 수정에 필요한 추가정보를 저장할 수도 있다. 이 단계는 공장에서 이루어지는바, 프로젝터를 공장에서 조립하고 교정한다. 두번째 단계는 프로젝터를 사용하는 현장에서 이루어진다. 프로젝터는 첫번째 단계에서 사용 된 것과 같은 패턴을 투사하고, 이 패턴은 카메라에 캡처된다. 이렇게 현장에서 캡처한 패턴을 공장에서 저장된 왜곡인자와 함께 공장에서 캡처한 패턴과 비교하여 현장에서의 프로젝터의 왜곡인자를 결정한다. 이런 현장 왜곡인자를 알면, 수정워프를 (저장된 것이면) 추적하거나 실시간으로 정립하여 프로젝터의 키스톤왜곡과 렌즈왜곡을 수정한다. 미리 저장된 정보(영상)와 비교를 하기 때문에, (화면틀과 같은) 실제 에지나 마커는 전혀 불필요하다. 공장에서 저장된 데이터가 완전한 영상일 필요는 없지만, 그리드 데이터이거나, 기타 왜곡레벨이 다른 패턴을 특성화하는 인자일 수 있다.24 illustrates a case of correcting an image projected onto a plane without any physical markers or edges. Distortions due to projection include both keystone distortion and lens distortion. In this system, the camera is attached to the projector by fixing its position and orientation. Calibration and correction are two steps. First, through a complete calibration process using the test image pattern, the image of the pattern captured by the camera is stored as a known keystone angle and lens distortion factor including a zoom level. It is also possible to store additional information necessary for correction, such as warp data. This step takes place at the factory, where the projector is assembled and calibrated at the factory. The second step takes place at the site using the projector. The projector projects the same pattern used in the first step, which is captured by the camera. The pattern captured in the field is compared with the pattern captured in the factory together with the distortion factor stored in the factory to determine the distortion factor of the projector in the field. Knowing these field distortion factors, the correction warp can be tracked (if stored) or established in real time to correct keystone and lens distortion of the projector. Since it compares with pre-stored information (images), no real edges or markers (such as picture frames) are needed at all. The data stored at the factory need not be complete images, but may be grid data, or other distortion levels may be factors that characterize different patterns.

한편으로, 4개 포인트로만 구성된 간단한 그리드형 영상패턴을 사용해 카메라로 키스톤왜곡을 수정하기도 한다. 이 경우, 테스트패턴은 도 2a-b와 같이 2x2(4) 그리드로 이루어진다. 렌즈왜곡이 전혀 없는 키스톤 왜곡의 경우 왜곡을 결정하는데 포인트 4개로 충분하다. 키스톤 수정을 결정하는데는 (투사 전후)의 포인트 위치만 알면 충분하므로 4개 포인트를 어디에 놓아도 된다. 이 방법을 프로젝터의 렌즈변위 조절에도 적용할 수 있는데, 이 경우 4개 포인트를 움직이기만 하면 된다. 렌즈왜곡이 있거나 없는 줌렌즈가 달린 프로젝터의 경우, 먼저 각각의 줌레벨과 저장된 수정워프에 대해 축에 교정을 한다. 이어서, (적절한 줌레벨과 렌즈왜곡을 위해) 수정 워프를 적용하고, 4개 포인트를 이용한 키스톤 수정만을 반복한다. 키스톤왜곡을 줌렌즈 수정과 연계하거나 기능적으로 조작하여 모든 프로젝터 왜곡을 수정한 최종 맵을 구한다. 공장의 교정과정에서는 렌즈수정을 한번만 계산해 저장한다. 이어서, 현장에서 카메라를 사용해 키스톤 수정을 렌즈수정과 함께 한다. On the other hand, a simple grid-like image pattern consisting of only four points is used to correct keystone distortion with the camera. In this case, the test pattern is composed of a 2x2 (4) grid as shown in FIGS. 2A-B. For keystone distortion with no lens distortion, four points are sufficient to determine the distortion. It is enough to know the point position of (before and after projection) to determine the keystone correction, so you can put 4 points anywhere. This method can also be applied to the lens displacement adjustment of the projector, in which case only four points need to be moved. For projectors with zoom lenses with or without lens distortion, first calibrate the axis for each zoom level and stored correction warp. Then, apply correction warps (for proper zoom level and lens distortion), and repeat keystone correction using only four points. Keystone distortion can be associated with zoom lens correction or functionally manipulated to obtain a final map of all projector distortions. In the factory calibration, the lens correction is calculated and stored only once. Subsequently, use the camera in the field to perform keystone correction with lens correction.

도 25는 곡면스크린(251)에 투사하는 경우이다. 형상과 거리를 포함한 곡면스크린(241)의 맵을 결정하기 위해, 체크무늬 영상패턴과 같은 2차원 영상패턴을 화면에 투사한다. 투사된 영상은 카메라로 캡처한다. 체크무니 패턴의 각각의 선에 의해 생기는 콘트라스트는 프로세서(프로세서)에서 계산된다. 촛점을 계속 바꾸면서 패턴의 각 포인트에서의 최적의 콘트라스트를 촛점길이의 함수에서 구한다. 이렇게 곡면스크린(251)의 표면 맵을 결정한다. 맵의 정확도와 세부사항은 사용된 촛점길이의 갯수와 투사된 패턴의 복잡도에 따라 좌우된다. 이 방법은 카메라의 각도를 구해 결국 각 포인트에서 화면에 대한 프로젝터의 각도를 구하는데에도 이용될 수 있다. 프로세서는 일단 각 포인트에서의 화면의 형상, 크기, 각도와 관계된 왜곡인자를 계산한 다음, 워프변환을 계산하거나 이미 저장된 적절한 워프변환을 이용한다. 이런 워프변환을 입력 영상데이터에 적용하면, 시각적으로 왜곡이 없으면서 화면의 특성에 일치하는 영상이 생긴다.25 shows a case of projecting on the curved screen 251. In order to determine the map of the curved screen 241 including the shape and the distance, a two-dimensional image pattern such as a checkered image pattern is projected onto the screen. The projected image is captured by the camera. The contrast produced by each line of the check Mooney pattern is calculated at the processor (processor). By constantly changing the focus, the optimum contrast at each point in the pattern is obtained as a function of focus length. Thus, the surface map of the curved screen 251 is determined. The accuracy and detail of the map depends on the number of focal lengths used and the complexity of the projected pattern. This method can also be used to find the angle of the camera and eventually the angle of the projector to the screen at each point. The processor once calculates the distortion factors related to the shape, size, and angle of the screen at each point, then calculates the warp transform or uses the appropriate warp transform already stored. When such warp transform is applied to the input image data, an image that matches the characteristics of the screen without visual distortion is produced.

도 26은 화면이 물결치는 경우로서, 도 25에서 설명한 기술을 이용해 모든 포인트에서 물결형 화면의 형상과 상대적 방향을 결정할 수 있다. 여기서는 디스플레이 장치에 사용되는 화면이 불규칙한 것이면 모두 적용된다. 화면의 맵이 준비되면, 프로세서에서 이 맵을 사용해 입력영상에 워프변환을 한다. 입력영상에 워프변환을 하면, 투사된 영상이 시각적 왜곡을 갖지 않고 화면의 특성과 일치한다.FIG. 26 illustrates a case where the screen is waved, and the shape and relative direction of the wavy screen may be determined at all points using the technique described with reference to FIG. 25. In this case, if the screen used for the display device is irregular, all of them are applied. When the map of the screen is ready, the processor uses this map to warp the input image. When warping the input image, the projected image matches the characteristics of the screen without visual distortion.

도 1은 자동 교정-수정 시스템의 일례의 블록도;1 is a block diagram of an example of an automatic calibration-correction system;

도 2는 스크린이 곡면인 경우의 도면;2 is a view when the screen is curved;

도 3은 기하학적 왜곡이 오버플로, 언더플로 및 미스매치인 경우를 보여주는 도면;3 shows a case where the geometric distortion is overflow, underflow and mismatch;

도 4는 영상 테스트패턴의 교정예를 보여주는 도면;4 shows an example of calibration of an image test pattern;

도 5는 교정 형상과 관련된 다양한 좌표공간을 보여주는 도면;5 shows various coordinate spaces associated with calibration shapes;

도 6은 교정데이터 생성기의 흐름도;6 is a flowchart of a calibration data generator;

도 7은 축척과 원점을 최적화하는 예;7 is an example of optimizing scale and origin;

도 8은 다색 교정데이터 생성기의 흐름도;8 is a flow chart of a multicolor calibration data generator;

도 9는 컬러 불균일 교정을 위한 셋업도;9 is a setup diagram for color non-uniformity correction;

도 10은 컬러불균일 수정을 위한 교정데이터 생성기의 흐름도;10 is a flowchart of a calibration data generator for color non-uniformity correction;

도 11은 워프데이터 생성기의 흐름도;11 is a flowchart of a warp data generator;

도 12는 디스플레이 수정을 위한 패치분할도;12 shows a patch partition for display modification;

도 13은 디지털 워핑부의 블록도;13 is a block diagram of a digital warping unit;

도 14는 화면의 형상과 상대적 방향을 결정하기 위한 셋업도;14 is a setup diagram for determining the shape and relative direction of the screen;

도 15는 촛점이 안맞는 테스트패턴;15 is a test pattern that is not in focus;

도 16은 촛점이 맞는 테스트패턴;16 is a focused test pattern;

도 17은 프로젝터가 여러개이고 곡면스크린이 하나인 교정시스템의 분할도;17 is a fragmented view of a calibration system with multiple projectors and one curved screen;

도 18은 도 17의 교정시스템의 촛점면을 보여주는 도면;FIG. 18 shows a focal plane of the calibration system of FIG. 17; FIG.

도 19는 거리함수를 최소화하는 촛점기술의 일례를 보여주는 도면;19 shows an example of a focusing technique for minimizing a distance function;

도 20은 프로젝터가 여러개이고 곡면스크린이 하나인 다른 교정시스템에서 프로젝터 위치를 조정해 촛점을 최적화하는 예를 보여주는 도면;20 shows an example of optimizing the focus by adjusting the projector position in another calibration system with multiple projectors and one curved screen;

도 21은 여러대의 카메라를 사용하는 교정시스템의 개략도;21 is a schematic diagram of a calibration system using multiple cameras;

도 22는 교정시스템을 설치해 자가교정과 동적 왜곡교정을 하는 RPTV(Rear Projection TeleVision)의 일례;22 is an example of Real Projection TeleVision (RPTV) in which a calibration system is installed to perform self-calibration and dynamic distortion correction.

도 23은 프로젝터와 센서가 모두 여러개인 교정시스템의 개략도;23 is a schematic diagram of a calibration system with multiple projectors and multiple sensors.

도 24는 화면의 실제 에지와 경계를 이용하는 교정시스템의 개략도;24 is a schematic diagram of a calibration system using actual edges and boundaries of the screen;

도 25는 곡면스크린의 형상을 결정하는데 촛점기술을 이용하는 교정시스템의 개략도;25 is a schematic diagram of a calibration system using focusing techniques to determine the shape of a curved screen;

도 26은 물결형 스크린의 형상을 결정하는데 촛점기술을 이용하는 교정시스템의 개략도.26 is a schematic diagram of a calibration system using focusing technology to determine the shape of a wavy screen.

Claims (26)

화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서:In display calibration systems for display devices with screens: 화면의 형상, 크기, 경계 및 방향중의 적어도 하나의 정보를 감지하는 센서; 및A sensor for sensing at least one of a shape, a size, a boundary, and a direction of a screen; And 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 장치의 특성을 계산하는 프로세서;를 포함하는 것을 특징으로 하는 디스플레이 교정시스템.And a processor coupled to the sensor and calculating a characteristic of the display device based on the information detected by the sensor. 제1항에 있어서, 상기 센서가 화면에 표시된 테스트영상을 감지하고, 상기 프로세서는 감지된 테스트영상과 디스플레이 장치의 특성들을 기반으로 디스플레이 왜곡을 계산하는 것을 특징으로 하는 디스플레이 교정시스템.The display calibration system of claim 1, wherein the sensor detects a test image displayed on a screen, and the processor calculates display distortion based on the detected test image and characteristics of the display device. 제2항에 있어서, 상기 프로세서가 디스플레이 왜곡을 기반으로 사전보상 맵을 만들어, 이런 사전보상 맵을 디스플레이 이전에 입력 영상데이터에 적용했을 때 화면의 디스플레이 영상에 왜곡이 없는 것을 특징으로 하는 디스플레이 교정시스템.The display calibration system of claim 2, wherein the processor generates a precompensation map based on display distortion, and when the precompensation map is applied to the input image data before display, the display image of the screen is free from distortion. . 제3항에 있어서, 상기 디스플레이 왜곡이 시간에 따라 변하는 왜곡이고, 이런 가변적인 왜곡을 사전보상하도록 디스플레이 장치를 동적교정하는 것을 특징으 로 하는 디스플레이 교정시스템.4. A display calibration system according to claim 3, wherein the display distortion is distortion that changes over time and the display device is dynamically calibrated to precompensate such variable distortion. 제3항에 있어서, 디스플레이된 영상이 화면보다 큰 오버플로 상태, 디스플레이된 영상이 화면보다 작은 언더플로 상태, 및 디스플레이된 영상의 일부분은 화면 밖에 있고 나머지는 화면 안에 있는 미스매치 상태중의 적어도 하나가 상기 프로세서에 의해 수정되는 것을 특징으로 하는 디스플레이 교정시스템.4. The method of claim 3, wherein at least one of an overflow state in which the displayed image is larger than the screen, an underflow state in which the displayed image is smaller than the screen, and a mismatch state in which a portion of the displayed image is off the screen and the remainder is in the screen. Is modified by the processor. 제3항에 있어서, 상기 디스플레이 장치가 하우징을 갖는 배면투사 디스플레이 장치이고, 디스플레이 교정시스템이 하우징 안에 배치되는 것을 특징으로 하는 디스플레이 교정시스템.4. A display calibration system according to claim 3, wherein the display device is a rear projection display device having a housing and a display calibration system is disposed within the housing. 제3항에 있어서, 상기 센서가 휘도정보 및 컬러정보중의 적어도 하나를 감지하고, 상기 프로세서는 휘도 불균일 및 컬러 불균일중의 적어도 하나를 사전 보상하는 것을 특징으로 하는 디스플레이 교정시스템.4. The display calibration system of claim 3, wherein the sensor senses at least one of luminance information and color information, and the processor precompensates at least one of luminance nonuniformity and color nonuniformity. 제3항에 있어서, 상기 디스플레이 장치가 추가 왜곡을 갖는 광학요소를 구비하고, 상기 프로세서는 이런 추가왜곡을 디스플레이 왜곡과 연계하여 추가왜곡과 디스플레이 왜곡을 둘다 사전보상하는 것을 특징으로 하는 디스플레이 교정시스템.4. A display calibration system according to claim 3, wherein the display device comprises an optical element with additional distortion, and the processor precompensates both the additional distortion and the display distortion in association with the additional distortion. 제2항에 있어서, 상기 디스플레이 왜곡에 기하학적 왜곡, 광학적 왜곡, 미스 컨버전스, 오정렬 및 횡색수차중의 적어도 하나가 포함되는 것을 특징으로 하는 디스플레이 교정시스템.The display calibration system according to claim 2, wherein the display distortion includes at least one of geometric distortion, optical distortion, misconvergence, misalignment, and lateral chromatic aberration. 제1항에 있어서, 상기 센서가 화면상의 여러 포인트까지의 거리를 감지하고, 상기 프로세서는 이 거리를 근거로 화면의 상대적 위치와 방향을 계산하는 것을 특징으로 하는 디스플레이 교정시스템.The display calibration system of claim 1, wherein the sensor senses a distance to various points on the screen, and the processor calculates a relative position and orientation of the screen based on the distance. 제2항에 있어서, 상기 센서가 여러 촛점거리에서 화면상의 테스트영상의 각 부분을 감지하며, 상기 프로세서는 테스트영상의 각 부위의 최고 콘트라스트를 결정한 다음 이 콘트라스트를 기반으로 화면의 각 부위까지의 거리를 계산해 화면의 형상과 상대적 방향을 계산하는 것을 특징으로 하는 디스플레이 교정시스템.The apparatus of claim 2, wherein the sensor detects each part of the test image on the screen at different focal lengths, and the processor determines the highest contrast of each part of the test image and then distances to each part of the screen based on the contrast. Display calibration system, characterized in that for calculating the shape and relative orientation of the screen. 제2항에 있어서, 상기 센서가 센서왜곡을 갖고, 상기 프로세서는 이 센서왜곡을 계산하며 디스플레이 왜곡을 계산할 때 센서왜곡을 고려하는 것을 특징으로 하는 디스플레이 교정시스템.3. A display calibration system according to claim 2, wherein the sensor has sensor distortion, and the processor calculates the sensor distortion and takes the sensor distortion into account when calculating the display distortion. 제12항에 있어서, 상기 센서왜곡이 화면에 수직인 방향에 평행하지 않은 축을 갖는 센서에서 기인하는 것을 특징으로 하는 디스플레이 교정시스템.13. A display calibration system according to claim 12, wherein the sensor distortion is due to a sensor having an axis that is not parallel to the direction perpendicular to the screen. 제2항에 있어서, 상기 센서가 프로세서에 의해 알려진 여러 위치에 배치되는 다수의 영상센서이고, 상기 프로세서는 각각의 센서에서 감지한 여러 테스트영상들을 비교하며 각각의 센서의 각각의 감지된 영상과 위치를 기반으로 디스플레이 왜곡을 계산하는 것을 특징으로 하는 디스플레이 교정시스템.The sensor of claim 2, wherein the sensor is a plurality of image sensors arranged at various positions known by a processor, and the processor compares various test images sensed by each sensor and compares each detected image and position of each sensor. Display calibration system, characterized in that for calculating the display distortion based on. 제2항에 있어서, 상기 영상센서가 화면상의 4개의 마커를 갖춘 테스트영상에 관한 정보를 감지하고, 상기 프로세서는 이렇게 감지된 정보를 기반으로 키스톤 왜곡을 계산하는 것을 특징으로 하는 디스플레이 교정시스템.The display calibration system of claim 2, wherein the image sensor detects information about a test image having four markers on the screen, and the processor calculates keystone distortion based on the detected information. 제3항에 있어서, 상기 센서가 휘도정보와 컬러정보중 적어도 하나를 감지하고, 상기 프로세서는 사전보상 맵에 의해 기인하는 휘도 불균일과 컬러 불균일중의 적어도 하나를 수정하는 것을 특징으로 하는 디스플레이 교정시스템.4. The display calibration system of claim 3, wherein the sensor senses at least one of luminance information and color information, and the processor corrects at least one of luminance and color irregularities caused by the precompensation map. . 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서:In display calibration systems for display devices with screens: 화면에 표시된 테스트영상에서 정보를 감지하는 센서; 및A sensor for detecting information in a test image displayed on the screen; And 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 왜곡을 계산해 사전보상 맵을 만들어 디스플레이 왜곡을 보상하는 프로세서;를 포함하되,And a processor connected to the sensor and calculating a display distortion based on the information detected by the sensor to create a precompensation map to compensate for the display distortion. 사전보상 맵을 디스플레이 전에 입력 영상데이터에 적용할 때 화면에 표시된 영상에서 왜곡을 없애는 표면함수로 사전보상 맵을 구현하는 것을 특징으로 하는 디스플레이 교정시스템.A display calibration system, characterized in that the precompensation map is implemented with a surface function that removes distortion from the image displayed on the screen when the precompensation map is applied to the input image data before display. 제17항에 있어서, 상기 프로세서가 여러 왜곡들을 연계하고 이렇게 연계된 왜곡을 사전 보상하는 표면함수를 생성하는 것을 특징으로 하는 디스플레이 교정시스템.18. The display calibration system of claim 17 wherein the processor generates a surface function that associates several distortions and precompensates the associated distortions. 제17항에 있어서, 상기 표면함수가 다항식인 것을 특징으로 하는 디스플레이 교정시스템.18. A display calibration system according to claim 17 wherein the surface function is polynomial. 제17항에 있어서, 상기 프로세서가 오버스캔 상태나 언더스캔 상태를 보상하도록 표면함수를 조절하는 것을 특징으로 하는 디스플레이 교정시스템.18. The display calibration system of claim 17 wherein the processor adjusts a surface function to compensate for an overscan or underscan condition. 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서:In display calibration systems for display devices with screens: 화면에 표시된 테스트영상에서 정보를 감지하는 센서; 및A sensor for detecting information in a test image displayed on the screen; And 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 왜곡을 계산하며, 디스플레이 왜곡의 정도에 맞게 화면을 여러개의 패치로 분할하며, 디스플레이 왜곡에 대한 사전보상 맵을 패치마다 생성하여, 이들 사전보상 맵이 디스플레이 전에 입력 영상데이터에 적용되면 화면에 디스플레이된 영상에서 왜곡을 없애는 프로세서;를 포함하는 것을 특징으로 하는 디스플레이 교정시스템.It is connected to the sensor, calculates the display distortion based on the information detected by the sensor, divides the screen into a number of patches according to the degree of display distortion, and generates a pre-compensation map for the display distortion for each patch, these dictionary And a processor for removing distortion from the image displayed on the screen when the compensation map is applied to the input image data before the display. 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서:In display calibration systems for display devices with screens: 화면에 표시된 테스트영상에서 컬러정보를 감지하는 센서; 및A sensor for detecting color information from a test image displayed on the screen; And 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 컬러 불균일을 계산하며 컬러 성분을 위한 컬러 수정맵을 생성하여, 이런 컬러 수정맵을 디스플레이 전에 입력 영상데이터에 적용하면 화면에 디스플레이된 영상에서 왜곡을 없애는 프로세서;를 포함하는 것을 특징으로 하는 디스플레이 교정시스템.Connected to the sensor, calculates color unevenness based on the information detected by the sensor and generates a color correction map for the color components. Display calibration system comprising a; processor to eliminate. 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서:In display calibration systems for display devices with screens: 화면에 표시된 개별 컬러성분 테스트영상에서 정보를 감지하는 센서; 및A sensor for detecting information in an individual color component test image displayed on a screen; And 상기 센서와 디스플레이 장치에 연결되고, 센서에서 감지한 정보를 기반으로 컬러성분의 기하학적 디스플레이 왜곡들을 독립적으로 계산하며 컬러 성분을 위한 사전보상 맵을 독립적으로 생성하여, 이런 사전보상 맵을 디스플레이 전에 입력 영상데이터에 적용하면 화면에 디스플레이된 영상에서 컬러기반 기하학적 왜곡을 없애는 프로세서;를 포함하는 것을 특징으로 하는 디스플레이 교정시스템.Connected to the sensor and the display device, independently calculating geometric display distortions of the color components based on the information detected by the sensor, and independently generating a precompensation map for the color components, so that the precompensation map is displayed before the display. And a processor that removes color-based geometric distortion from the image displayed on the screen when applied to the data. 곡면화면이 달린 프로젝션 장치에 사용되는 디스플레이 교정방법에 있어서:In the display calibration method used for projection devices with curved screens: 여러대의 프로젝터를 사용해 영상의 각각의 부분들을 곡면화면의 대응 부분에 투사하는 단계; 및Projecting respective portions of the image to corresponding portions of the curved screen using multiple projectors; And 영상의 각 부분의 촛점을 곡면화면의 대응 부분에 맞추어 영상 전체를 최적의 촛점으로 화면에 형성하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 교정방법.And focusing the respective portions of the image on the corresponding portions of the curved screen to form the entire image on the screen with optimal focus. 제24항에 있어서, 각각의 프로젝터의 투사축이 곡면화면의 대응 부분에 수직이 되게 하여 촛점은 최적화되고 기하학적 왜곡은 최소화되게 프로젝터들을 독립적으로 배치하고 방향잡는 것을 특징으로 하는 디스플레이 교정방법.The display calibration method according to claim 24, wherein the projection axes of each projector are perpendicular to the corresponding portions of the curved screen so that the projectors are independently placed and orientated so that the focus is optimized and the geometric distortion is minimized. 곡면화면이 달린 프로젝션 장치에 사용되는 디스플레이 교정방법에 있어서:In the display calibration method used for projection devices with curved screens: 곡면화면에서 투사된 영상의 촛점면까지의 여러 거리를 측정하는 단계; 및Measuring various distances from the curved screen to the focal plane of the projected image; And 상기 거리의 함수를 최소화하여 촛점이 최적화될 때까지 촛점면을 변위시키는 단계;를 포함하는 것을 특징으로 하는 디스플레이 교정방법.Displacing the focal plane until the focal point is optimized by minimizing the function of the distance.
KR1020070081067A 2006-08-11 2007-08-13 System and method for automated calibrationand correction of display geometry and color KR20080014712A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US83694006P 2006-08-11 2006-08-11
US60/836,940 2006-08-11
US91752507P 2007-05-11 2007-05-11
US60/917,525 2007-05-11

Publications (1)

Publication Number Publication Date
KR20080014712A true KR20080014712A (en) 2008-02-14

Family

ID=39341859

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070081067A KR20080014712A (en) 2006-08-11 2007-08-13 System and method for automated calibrationand correction of display geometry and color

Country Status (4)

Country Link
JP (2) JP5535431B2 (en)
KR (1) KR20080014712A (en)
CN (1) CN101136192B (en)
TW (2) TWI511122B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160109935A (en) * 2015-03-13 2016-09-21 한국전자통신연구원 Method and apparatus for geometric correction based on user interface
WO2023003140A1 (en) * 2021-07-21 2023-01-26 삼성전자주식회사 Electronic device and control method therefor

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
JP5256899B2 (en) * 2008-07-18 2013-08-07 セイコーエプソン株式会社 Image correction apparatus, image correction method, projector and projection system
JP5386956B2 (en) * 2008-12-04 2014-01-15 セイコーエプソン株式会社 Projector, display adjustment method, display adjustment program, and recording medium
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
US20100321382A1 (en) 2009-06-18 2010-12-23 Scalable Display Technologies, Inc. System and method for injection of mapping functions
TWI396035B (en) * 2009-08-28 2013-05-11 Avermedia Information Inc Project position apparatus and document projector thereof
TWI423143B (en) * 2010-06-17 2014-01-11 Pixart Imaging Inc Image sensing module
TWI452270B (en) * 2011-10-21 2014-09-11 Univ Nat Central Detecting apparatus and detecting method thereof
JP2013190671A (en) * 2012-03-14 2013-09-26 Ricoh Co Ltd Image projection device, brightness processing method, and program
US8787689B2 (en) * 2012-05-15 2014-07-22 Omnivision Technologies, Inc. Apparatus and method for correction of distortion in digital image data
JP6070307B2 (en) * 2012-05-21 2017-02-01 株式会社リコー Pattern extraction apparatus, image projection apparatus, pattern extraction method, and program
JP6065656B2 (en) 2012-05-22 2017-01-25 株式会社リコー Pattern processing apparatus, pattern processing method, and pattern processing program
CN102768757B (en) * 2012-06-28 2015-01-07 北京市遥感信息研究所 Remote sensing image color correcting method based on image type analysis
US9470893B2 (en) 2012-10-11 2016-10-18 Sony Computer Entertainment Europe Limited Head mountable device
US20140104692A1 (en) * 2012-10-11 2014-04-17 Sony Computer Entertainment Europe Limited Head mountable display
JP6083185B2 (en) 2012-10-12 2017-02-22 セイコーエプソン株式会社 Projector, projector black level area setting method
EP3014355A4 (en) * 2013-06-28 2017-08-23 CJ CGV Co., Ltd. Theater structure and multi-projection system using the same
JP6289003B2 (en) * 2013-09-26 2018-03-07 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP6065804B2 (en) * 2013-10-08 2017-01-25 株式会社デンソー Inspection device
JP6307843B2 (en) * 2013-11-12 2018-04-11 株式会社リコー Interpolation method, program, and interpolation apparatus
TWI520099B (en) * 2014-02-19 2016-02-01 鈺創科技股份有限公司 Calibration method of an image capture system
US9836816B2 (en) * 2014-04-05 2017-12-05 Sony Interactive Entertainment America Llc Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
TWI511086B (en) * 2014-04-18 2015-12-01 Altek Semiconductor Corp Lens distortion calibration method
CN105096348B (en) 2014-04-30 2018-06-29 富士通株式会社 The device and method of tint plate in detection image
CN104123137A (en) * 2014-07-21 2014-10-29 联想(北京)有限公司 Information processing method and electronic device
WO2016036370A1 (en) 2014-09-04 2016-03-10 Hewlett-Packard Development Company, L.P. Projection alignment
CN104539921B (en) * 2014-11-26 2016-09-07 北京理工大学 A kind of illumination compensation method based on many optical projection systems
US9684950B2 (en) * 2014-12-18 2017-06-20 Qualcomm Incorporated Vision correction through graphics processing
TWI611383B (en) 2015-03-03 2018-01-11 宏正自動科技股份有限公司 Calibration system and method of multi-image output device
TWI548864B (en) * 2015-03-06 2016-09-11 佳世達科技股份有限公司 Color calibrator module
EP3404648A4 (en) * 2016-01-13 2019-01-23 Ricoh Company, Ltd. Projection system, image processing device, projection method, and program
US10057556B2 (en) 2016-01-28 2018-08-21 Disney Enterprises, Inc. Projector optimization method and system
WO2017169723A1 (en) 2016-03-28 2017-10-05 ソニー株式会社 Imaging processing device and method
US10574952B2 (en) 2016-04-27 2020-02-25 Sony Corporation Image projection apparatus, projection imaging system, and correction method
JP6618449B2 (en) * 2016-10-06 2019-12-11 キヤノン株式会社 Liquid crystal display device and control method thereof
JP6551427B2 (en) * 2017-01-20 2019-07-31 セイコーエプソン株式会社 Projector, projector black level area setting method
JP6407330B2 (en) * 2017-03-10 2018-10-17 キヤノン株式会社 Image projection device
CN109104596B (en) * 2017-06-21 2021-02-26 中强光电股份有限公司 Projection system and correction method of display image
CN108803006B (en) * 2017-09-18 2021-01-05 成都理想境界科技有限公司 Optical fiber scanning imaging system, optical fiber scanning imaging equipment and distortion detection and correction system of optical fiber scanning imaging equipment
JP6992560B2 (en) * 2018-02-02 2022-01-13 セイコーエプソン株式会社 Projector and projector control method
CN110176209B (en) * 2018-02-27 2021-01-22 京东方科技集团股份有限公司 Optical compensation method and optical compensation apparatus for display panel
TWI677231B (en) * 2018-03-16 2019-11-11 和碩聯合科技股份有限公司 Method and system for inspecting display apparatus
JP6642610B2 (en) * 2018-03-22 2020-02-05 カシオ計算機株式会社 Projection control device, projection device, projection control method, and program
TWI663577B (en) * 2018-06-04 2019-06-21 宏碁股份有限公司 Demura system for non-planar screen
CN110875021A (en) * 2018-08-29 2020-03-10 中兴通讯股份有限公司 Screen display control method, device, equipment and readable storage medium
FR3085519B1 (en) * 2018-09-04 2023-01-13 Centre Nat Rech Scient METHOD FOR MEASURING A COLOR SPACE SPECIFIC TO AN INDIVIDUAL AND METHOD FOR CORRECTING DIGITAL IMAGES AS A FUNCTION OF THE COLOR SPACE SPECIFIC TO THE INDIVIDUAL
CN109557829B (en) * 2018-11-13 2021-10-29 国网技术学院 Fire simulation system and method with nonlinear distortion correction
TWI691213B (en) * 2019-02-21 2020-04-11 緯創資通股份有限公司 Portable device, display device and calibration method of display device
JP7190701B2 (en) * 2019-03-27 2022-12-16 パナソニックIpマネジメント株式会社 Projected image adjustment system and method
CN111861865B (en) 2019-04-29 2023-06-06 精工爱普生株式会社 Circuit device, electronic apparatus, and moving object
JP7467883B2 (en) * 2019-04-29 2024-04-16 セイコーエプソン株式会社 Circuit device, electronic device and mobile device
CN111935465B (en) * 2019-05-13 2022-06-17 中强光电股份有限公司 Projection system, projection device and correction method of display image thereof
CN112261392B (en) * 2019-07-22 2022-08-09 中强光电股份有限公司 Projection system and image uniformity compensation method thereof
WO2021039977A1 (en) * 2019-08-29 2021-03-04 国立大学法人東北大学 Projection system, projection system control device, projection method, and program
CN112995620B (en) * 2019-12-17 2024-01-02 青岛海高设计制造有限公司 Method for correcting cylindrical projection, device for cylindrical projection and household appliance
CN112233570B (en) * 2020-12-16 2021-04-02 卡莱特(深圳)云科技有限公司 Arc screen correction method and device, computer equipment and storage medium
CN113516584B (en) * 2021-09-14 2021-11-30 风脉能源(武汉)股份有限公司 Image gray processing method and system and computer storage medium
CN114143519B (en) * 2021-11-11 2024-04-12 深圳市橙子软件有限公司 Method and device for automatically matching projection image with curtain area and projector
CN114283077B (en) * 2021-12-08 2024-04-02 凌云光技术股份有限公司 Method for correcting lateral chromatic aberration of image
CN117275433B (en) * 2023-11-20 2024-02-20 北京七维视觉传媒科技有限公司 Screen color correction method and system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131802A (en) * 1993-11-05 1995-05-19 Matsushita Electric Ind Co Ltd Image correcting device
JPH089309A (en) * 1994-06-23 1996-01-12 Canon Inc Display method and its device
JP3393029B2 (en) * 1997-01-20 2003-04-07 富士通株式会社 Display image distortion correction method for display device, distortion detection device, distortion correction device, and display device provided with the distortion correction device
US6060383A (en) * 1998-08-10 2000-05-09 Nogami; Takeshi Method for making multilayered coaxial interconnect structure
JP2000155373A (en) * 1998-11-24 2000-06-06 Matsushita Electric Ind Co Ltd Projection type display device
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
JP4507307B2 (en) * 1999-09-16 2010-07-21 独立行政法人科学技術振興機構 Video projection device
JP2001339672A (en) * 2000-03-24 2001-12-07 Olympus Optical Co Ltd Multi-vision device
JP3497805B2 (en) * 2000-08-29 2004-02-16 オリンパス株式会社 Image projection display device
JP2002247614A (en) * 2001-02-15 2002-08-30 Ricoh Co Ltd Projector
US6999046B2 (en) * 2002-04-18 2006-02-14 International Business Machines Corporation System and method for calibrating low vision devices
JP4806894B2 (en) * 2004-02-05 2011-11-02 カシオ計算機株式会社 Projection apparatus, projection method, and program
JP3880582B2 (en) * 2004-02-13 2007-02-14 Necビューテクノロジー株式会社 Projector with multiple cameras
JP3882928B2 (en) * 2004-03-29 2007-02-21 セイコーエプソン株式会社 Image processing system, projector, and image processing method
JP3882927B2 (en) * 2004-03-29 2007-02-21 セイコーエプソン株式会社 Image processing system, projector, and image processing method
CN1753077A (en) * 2004-09-24 2006-03-29 乐金电子(惠州)有限公司 Brightness control method of image display and its device
JP2006109088A (en) * 2004-10-05 2006-04-20 Olympus Corp Geometric correction method in multi-projection system
JP2006121240A (en) * 2004-10-20 2006-05-11 Sharp Corp Image projection method, projector, and computer program
US7262816B2 (en) * 2004-10-22 2007-08-28 Fakespace Labs, Inc. Rear projection imaging system with image warping distortion correction system and associated method
WO2006062508A1 (en) * 2004-12-07 2006-06-15 Silicon Optix Inc. Dynamic warp map generation system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160109935A (en) * 2015-03-13 2016-09-21 한국전자통신연구원 Method and apparatus for geometric correction based on user interface
WO2023003140A1 (en) * 2021-07-21 2023-01-26 삼성전자주식회사 Electronic device and control method therefor

Also Published As

Publication number Publication date
TWI411967B (en) 2013-10-11
JP5535431B2 (en) 2014-07-02
CN101136192B (en) 2013-06-05
JP2008113416A (en) 2008-05-15
TWI511122B (en) 2015-12-01
TW201351391A (en) 2013-12-16
TW200818114A (en) 2008-04-16
CN101136192A (en) 2008-03-05
JP2014171234A (en) 2014-09-18

Similar Documents

Publication Publication Date Title
KR20080014712A (en) System and method for automated calibrationand correction of display geometry and color
US8406562B2 (en) System and method for automated calibration and correction of display geometry and color
US11269244B2 (en) System and method for calibrating a display system using manual and semi-manual techniques
JP2023130401A (en) System for displaying images
US6558006B2 (en) Image projection display apparatus using plural projectors and projected image compensation apparatus
JP6437310B2 (en) System and method for calibrating display system color and saturation for practical use
US9661257B2 (en) Projection system, image processing device, and projection method
KR100858985B1 (en) Electronic calibration for seamless tiled display using optical function generator
US10750141B2 (en) Automatic calibration projection system and method
TWI435162B (en) Low complexity of the panoramic image and video bonding method
US6836298B2 (en) Apparatus and method for correcting distortion of image and image displayer using the same
US6727864B1 (en) Method and apparatus for an optical function generator for seamless tiled displays
US8730130B1 (en) System and method for automatically aligning immersive displays
KR20160034847A (en) System and method for calibrating a display system using a short throw camera
WO2005002240A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
WO2006025191A1 (en) Geometrical correcting method for multiprojection system
US20090195758A1 (en) Meshes for separately mapping color bands
JP2002503892A (en) Electro-optical display
US20060007239A1 (en) Color correction system
US20210407046A1 (en) Information processing device, information processing system, and information processing method
US7456908B2 (en) Method of performing convergence calibration for a display
GB2370714A (en) Correction of distorted images

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination