KR20080014712A - System and method for automated calibrationand correction of display geometry and color - Google Patents
System and method for automated calibrationand correction of display geometry and color Download PDFInfo
- Publication number
- KR20080014712A KR20080014712A KR1020070081067A KR20070081067A KR20080014712A KR 20080014712 A KR20080014712 A KR 20080014712A KR 1020070081067 A KR1020070081067 A KR 1020070081067A KR 20070081067 A KR20070081067 A KR 20070081067A KR 20080014712 A KR20080014712 A KR 20080014712A
- Authority
- KR
- South Korea
- Prior art keywords
- display
- distortion
- screen
- sensor
- color
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/04—Diagnosis, testing or measuring for television systems or their details for receivers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3182—Colour adjustment, e.g. white balance, shading or gamut
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Projection Apparatus (AREA)
- Video Image Reproduction Devices For Color Tv Systems (AREA)
- Editing Of Facsimile Originals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명은 디스플레이의 형상과 컬러를 자동으로 교정하는 시스템과 방법에 관한 것이다.The present invention relates to a system and method for automatically correcting the shape and color of a display.
대부분의 영상 디스플레이 장치는 어떤 형태든 기하학적 왜곡이나 컬러왜곡 현상을 보인다. 이런 왜곡의 원인은 다양한데, 예를 들면 기하학적 세팅, 시스템내 여러 광학요소의 비정상적 특성, 여러 요소들의 오정렬, 화면과 광경로가 복잡한데서 기인하는 기하학적 왜곡과 패널의 불완전 등이 있다. 시스템에 따라서는 왜곡량이 거의 감지할 수 없는 정도로부터 아주 불쾌할 정도로 크게 변할 수 있다. 왜곡의 영향은 다양하고, 영상의 컬러나 형상에 변화를 일으킬 수도 있다. Most video display devices exhibit some form of geometric distortion or color distortion. The causes of this distortion are various, for example, geometrical settings, abnormal characteristics of the various optical elements in the system, misalignment of the various elements, geometric distortions due to the complexity of the screen and optical path, and panel incompleteness. Depending on the system, the amount of distortion can vary from almost undetectable to very unpleasant. The influence of the distortion is various and may cause a change in color or shape of the image.
본 발명은 종래의 이와 같은 문제점을 감안하여 안출된 것으로서, 화면이 달린 디스플레이 장치에 적용되어 영상에 왜곡이 없게 화면에 디스플레이하기 위한 교정시스템과 교정방법을 제공하는 것을 주목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems in the prior art, and it is an object of the present invention to provide a calibration system and a calibration method for displaying on a screen without distortion in an image applied to a display device with a screen.
이와 같은 본 발명의 목적달성을 위해, 본 발명에 의하면, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면의 형상, 크기, 경계 및 방향중의 적어도 하나의 정보를 감지하는 센서; 및 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 장치의 특성을 계산하는 프로세서;를 포함하는 디스플레이 교정시스템이 제공된다.In order to achieve the object of the present invention, according to the present invention, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting at least one information of a shape, a size, a boundary and a direction of a screen; And a processor connected to the sensor and calculating a characteristic of the display device based on the information detected by the sensor.
또, 본 발명의 다른 특징에 의하면, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 테스트영상에서 정보를 감지하는 센서; 및 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 왜곡을 계산해 사전보상 맵을 만들어 디스플레이 왜곡을 보상하는 프로세서;를 포함하되, 사전보상 맵을 디스플레이 전에 입력 영상데이터에 적용할 때 화면에 표시된 영상에서 왜곡을 없애는 표면함수로 사전보상 맵을 구현하는 디스플레이 교정시스템이 제공된다. In addition, according to another aspect of the invention, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting information in a test image displayed on the screen; And a processor connected to the sensor and calculating a display distortion based on the information detected by the sensor to compensate for the display distortion by generating a precompensation map, when the precompensation map is applied to the input image data before display. A display calibration system is provided that implements a precompensation map with a surface function that eliminates distortion in the displayed image.
또, 본 발명에 의하면, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 테스트영상에서 정보를 감지하는 센서; 및 상 기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 디스플레이 왜곡을 계산하며, 디스플레이 왜곡의 정도에 맞게 화면을 여러개의 패치로 분할하며, 디스플레이 왜곡에 대한 사전보상 맵을 패치마다 생성하여, 이들 사전보상 맵이 디스플레이 전에 입력 영상데이터에 적용되면 화면에 디스플레이된 영상에서 왜곡을 없애는 프로세서;를 포함하는 디스플레이 교정시스템을 제공하기도 한다.In addition, according to the present invention, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting information in a test image displayed on a screen; And connected to the sensor, calculates the display distortion based on the information detected by the sensor, splits the screen into a number of patches according to the degree of display distortion, and generates a pre-compensation map for the display distortion for each patch, When the pre-compensation map is applied to the input image data before the display, a processor for removing distortion from the image displayed on the screen may provide a display calibration system including a.
한편으로는, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 테스트영상에서 컬러정보를 감지하는 센서; 및 상기 센서에 연결되고, 센서에서 감지한 정보를 기반으로 컬러 불균일을 계산하며 컬러 성분을 위한 컬러 수정맵을 생성하여, 이런 컬러 수정맵을 디스플레이 전에 입력 영상데이터에 적용하면 화면에 디스플레이된 영상에서 왜곡을 없애는 프로세서;를 포함하는 디스플레이 교정시스템을 제공한다.On the other hand, a display calibration system for use with a display device having a screen, comprising: a sensor for detecting color information in a test image displayed on a screen; And a color correction map for color components calculated by calculating color unevenness based on the information detected by the sensor, and applying the color correction map to the input image data before display to display the image displayed on the screen. It provides a display calibration system comprising; a processor for removing the distortion.
다른 한편으로는, 화면이 달린 디스플레이 장치에 사용하는 디스플레이 교정시스템에 있어서: 화면에 표시된 개별 컬러성분 테스트영상에서 정보를 감지하는 센서; 및 상기 센서와 디스플레이 장치에 연결되고, 센서에서 감지한 정보를 기반으로 컬러성분의 기하학적 디스플레이 왜곡들을 독립적으로 계산하며 컬러 성분을 위한 사전보상 맵을 독립적으로 생성하여, 이런 사전보상 맵을 디스플레이 전에 입력 영상데이터에 적용하면 화면에 디스플레이된 영상에서 컬러기반 기하학적 왜곡을 없애는 프로세서;를 포함하는 디스플레이 교정시스템을 제공하기도 한다.On the other hand, a display calibration system for use with a screened display device comprising: a sensor for sensing information in an individual color component test image displayed on a screen; And independently calculate the geometric display distortions of the color components based on the information detected by the sensor and independently generate a precompensation map for the color components, thereby inputting the precompensation map before display. When applied to image data, there is also provided a display calibration system comprising a; processor that removes the color-based geometric distortion in the image displayed on the screen.
본 발명의 다른 특징에 의하면, 곡면화면이 달린 프로젝션 장치에 사용되는 디스플레이 교정방법에 있어서: 여러대의 프로젝터를 사용해 영상의 각각의 부분들 을 곡면화면의 대응 부분에 투사하는 단계; 및 영상의 각 부분의 촛점을 곡면화면의 대응 부분에 맞추어 영상 전체를 최적의 촛점으로 화면에 형성하는 단계;를 포함하는 디스플레이 교정방법도 제공한다.According to another aspect of the present invention, there is provided a display calibration method for a projection apparatus having a curved screen, the method comprising: projecting respective portions of an image to corresponding portions of the curved screen using a plurality of projectors; And forming the entire image on the screen with the optimal focus by matching the focus of each part of the image to the corresponding portion of the curved screen.
한편, 본 발명에 의하면, 곡면화면이 달린 프로젝션 장치에 사용되는 디스플레이 교정방법에 있어서: 곡면화면에서 투사된 영상의 촛점면까지의 여러 거리를 측정하는 단계; 및 상기 거리의 함수를 최소화하여 촛점이 최적화될 때까지 촛점면을 변위시키는 단계;를 포함하는 디스플레이 교정방법을 제공하기도 한다.Meanwhile, according to the present invention, there is provided a display calibration method for a projection apparatus having a curved screen, comprising: measuring various distances from a curved screen to a focal plane of a projected image; And displacing the focal plane until the focal point is optimized by minimizing the function of the distance.
이와 같이 구성된 본 발명의 방법과 시스템에 의하면, 화면에 생성되는 영상에서 모든 왜곡을 없앨 수 있다.According to the method and system of the present invention configured as described above, it is possible to eliminate all distortion in the image generated on the screen.
디스플레이 장치에서 중요한 왜곡으로는 렌즈로 인한 왜곡, 거울면(곡면이나 평면)의 반사로 인한 왜곡, 엇각이나 회전투사(키스톤, 회전)과 같은 투사 형태와 곡면스크린에 투사하는데서 생기는 왜곡, 여러 마이크로 디스플레이 장치의 미스컨버전스(misconvergence), 오정렬, 컬러/휘도 불균일과 같이 컬러에 따라 다른 횡색수차(lateral chromatic aberration)와 왜곡, 광학적 촛점문제로 인한 왜곡(구면수차, 무비점 수차) 등이 있다. Important distortions in display devices include distortions caused by lenses, distortions caused by reflections on mirror surfaces (curved or flat), projection types such as corners or rotational projections (keystones, rotations), and distortions from projection on curved screens, and multiple micro displays. Color-specific lateral chromatic aberrations and distortions, such as misconvergence, misalignment, and color / luminance unevenness, and distortions due to optical focus problems (spherical aberration, movie point aberration).
가장 많은 것이 최종 영상에서의 기하학적 왜곡으로서, 입력영상의 형상이 보존되지 않는다. 색수차도 기하학적 왜곡의 일종이지만, 컬러에 따라 왜곡이 다르다. 이들 왜곡은 투사형(배면 또는 정면) 디스플레이 장치에 아주 일반적이고 총칭 하여 기하학적 왜곡이라 한다. 컬러와 휘도의 불균일은 모든 디스플레이 장치에 영향을 주고, 이때문에 휘도나 컬러가 고정된 신호도 디스플레이 장치의 화면을 가로지르면서 변하거나 보는 각도에 따라 다르게 보인다. 이런 종류의 왜곡은 휘도가 가변적이고, 디스플레이를 가로지르는 광경로 길이가 가변적인 광원과 패널(LCD, LCOS, 플라즈마 디스플레이)에서의 불균일한 센서응답에 기인한다. 촛점과 관련된 왜곡은 영상을 번지게 하고, 객체평면의 포인트마다 영상면이 다르게 촛점이 맺히느데서 기인한다. 경우에 따라, 촛점과 촛점의 깊이에 관련된 문제에 대해 설명한다.Most are geometric distortions in the final image, and the shape of the input image is not preserved. Chromatic aberration is also a kind of geometric distortion, but the distortion varies depending on the color. These distortions are very common in projection type (back or front) display devices and are collectively called geometric distortions. Unevenness of color and brightness affects all display devices, so that signals with fixed brightness or color also vary depending on the viewing angle or change across the screen of the display device. This type of distortion is due to uneven sensor response in light sources and panels (LCD, LCOS, plasma displays) with varying luminance and varying optical path lengths across the display. Distortion related to focusing is caused by blurring the image and focusing differently on the image plane for each point on the object plane. In some cases, the problem related to the focus and depth of focus will be described.
여기서는 전술한 왜곡을 없애거나 경감하도록 디스플레이 장치를 교정하는 시스템과 방법에 대해 설명한다. 교정데이터를 만들고 수정을 한다. 시간이 갈수록 변하는 왜곡의 교정도 해결한다. (교정데이터를 만드는) 교정단계에서, 디스플레이를 특성화하고, 고해상 카메라와 같은 센서수단을 이용해 디스플레이 장치에 나타나는 특수한 테스트패턴을 캡처하며, 이들 영상에서 필요한 데이터(예; 교정데이터)를 추출한다. 수정단계에서는 프로세서와 같은 전자식 수정수단을 통해 영상에 사전 왜곡을주어 스크린에는 왜곡없는 영상이 비치게 한다. 디스플레이와 캡처한 테스트패턴의 촛점을 최적으로 하는 메커니즘도 제시된다. Here, a system and method for calibrating a display device to eliminate or mitigate the aforementioned distortions will be described. Create and correct calibration data. It also corrects for distortions that change over time. In the calibration phase (creating calibration data), the display is characterized, the sensor means such as a high resolution camera is captured to capture the special test patterns appearing on the display device, and the necessary data (eg calibration data) is extracted from these images. In the correction step, the image is pre-distorted through an electronic correction means such as a processor so that the image is displayed without distortion on the screen. A mechanism for optimizing the focus of the display and captured test patterns is also presented.
도 1은 디스플레이 장치의 화면(16)에 나타나는 영상을 수정하기 위한 자동수정 시스템의 일례의 블록도이다. 자동 수정시스템은 테스트영상 생성기(14), 센서(11), 교정데이터 생성기(12), 워프생성기(13) 및 디지털 워핑부(15)를 포함한다. 디스플레이 장치는 TV(배면투사 TV, LCD, 플라즈마 등), 정면 투사장치(예; 스 크린이 달린 프로젝터) 등과 같이 영상을 보여주는 장치로서, 모두 화면을 갖고 있다. 화면(16)의 틀은 화면을 배경과 구분시키는 것으로서 화면을 둘러싼다. 그러나, 화면 틀이 반드시 물리적 형태를 가져야 하는 것은 아니고, 화면(16)을 배경과 구분할 수 있기만 하면 된다. 예를 들어, 외부에서 틀 안쪽으로 화면에 투사되는 사각형 모양도 화면틀이라 할 수 있다. 여기서는 실체를 갖는 디스플레이 장치내에 있는 화면(16)을 예로 들었지만, 경우에 따라서는 화면틀 자체가 화면 안에 있을 수도 있는 것으로서, 화면(16)을 둘러싸는 것이 화면틀이다.1 is a block diagram of an example of an automatic correction system for correcting an image appearing on
곡면 스크린의 경우 심도가 변하기 때문에 2개의 뷰포인트를 채택한다. 수정된 형태의 영상을 보여주는 촛점면을 화면으로 할 수 있지만, 이것은 실제 화면(16)과 다르거나 실제 화면(16)의 일부분만을 포함할 수 있다. 촛점면의 모든 지점은 같은 촛점심도를 갖는다. 이 경우, 센서의 시야범위에 있는 물리적 마커(관찰자)가 촛점면 경계를 결정한다(도 2a 참조). 화면틀이 있다면 화면(16)에 대한 카메라의 방향을 결정하는데 화면틀이 이용된다. Curved screens adopt two viewpoints because their depth varies. Although the focal plane showing the modified form of the image may be a screen, this may be different from the
한편, 경계를 형성하는 물리적 틀을 갖는 전체 화면이 곡면일 수도 있다(도 2b 참조). 이때는 스크린의 모든 점의 촛점심도가 서로 다르다. 수정 목표는 최종 영상을 곡면 경계에 일치시키는 것이다.On the other hand, the entire screen having a physical frame forming a boundary may be a curved surface (see FIG. 2B). In this case, the depth of focus of each point on the screen is different. The goal of correction is to match the final image to the surface boundaries.
수정이 필요한 디스플레이 영역들을 확인하기 위해 2개의 뷰포인트를 조합할 수 있다. 예를 들어, 캡처한 영상의 외곽서과 실제 틀의 조합을 특정 촛점면에서 경계로 취할 수 있다. 곡면형 외곽선을 투사하면 평면 디스플레이에도 곡면형 경계를 만들 수 있다. 이것은 경계는 곡면이지만 스크린 자체는 평면이어서 곡률반경이 무한한 특수한 경우에 볼 수 있다.Two viewpoints can be combined to identify display areas that need to be modified. For example, a combination of the outline of the captured image and the actual frame can be taken as a boundary at a particular focal plane. Projecting curved outlines allows you to create curved boundaries on flat displays. This can be seen in the special case where the boundary is curved but the screen itself is flat so that the radius of curvature is infinite.
형상의 변화를 가져오는 왜곡이 있는 경우, (수정 전에) 영상 전체가 화면(16)에 나타나지 않을 수 있다(도 3 참조). (a)의 경우 영상 ABCD 안에 화면틀(18)이 모두 들어있고(오버플로), (b)의 경우 틀 안에 영상 전체가 들어있으며(언더플로), (c)의 경우 영상의 일부분에 화면(16)이 걸쳐있는 중간상태(미스매치)이다. 3가지 모두 정면이나 후면 투사장치에서 생기는 것으로서 현재의 시스템으로 수정 가능하다.If there is a distortion resulting in a change in shape, the entire image may not appear on the screen 16 (before correction) (see FIG. 3). In case of (a), the
테스트 영상 생성기(14)는 교정용으로 설계된 특수 패턴을 갖는 영상을 제공하는데, 이런 영상을 교정용 테스트패턴이라고도 한다. 가장 널리 사용되는 교정용 테스트패턴은 사각그리드 패턴, 원, 정사각형, 수평수직 패턴, 막대형, 선형, 동심형 패턴, 직사각형, 원, 컬러레벨을 포함한다. 컬러 버전은 횡색수차(lateral color) 수정과 색채불균일 수정에 사용된다. 패턴의 형상을 특징이라고도 한다. 모든 패턴은 자체 특징으로서, 넘버, 위치, 사이즈, 경계, 컬러 등의 인자를 갖는다. The test image generator 14 provides an image having a special pattern designed for calibration, which is also called a calibration test pattern. The most widely used calibration test patterns include square grid patterns, circles, squares, horizontal and vertical patterns, rods, linear, concentric patterns, rectangles, circles, and color levels. The color version is used for lateral color correction and color non-uniformity correction. The shape of the pattern is also referred to as a feature. Every pattern has its own characteristics and has factors such as number, position, size, border, color, and the like.
도 4에는 여러가지 교정 패턴이 도시되어 있다. 가이드라인은 (중심, 반경 등의) 특징이 테스트패턴의 일부가 아님을 보여준다. 컬러와 형상의 변화도 흑백조율, 흑백을 컬러로 대체, 패턴내 특징부마다 다른 컬러를 사용, 패턴내에서 형상들을 서로 조합, 회색과 컬러 레벨을 변화시키는데 사용된다. 4 shows various calibration patterns. The guidelines show that features (such as center, radius, etc.) are not part of the test pattern. Changes in color and shape are also used to adjust black and white, replace black and white with color, use different colors for each feature in the pattern, combine shapes together in the pattern, and change gray and color levels.
원색을 사용하는 패턴은 횡색수차를 교정하는데 이용된다. 대표적인 컬러패턴인 (g)에서는 수평/수직 막대와 그 교차점의 색이 모두 다르다. Patterns using the primary colors are used to correct lateral chromatic aberration. In the typical color pattern (g), the colors of the horizontal / vertical bars and their intersections are different.
모든 패턴은 어느정도 뚜렷한 특징을 보이는데, 그중 가장 눈에 띄는 것은 형상의 중심위치이고, 그 경계는 점과 선으로서 수학적으로 나타난다. All patterns show some distinctive features, the most prominent of which is the center of the shape, and the boundaries are mathematically represented as points and lines.
센서(11)는 화면(16)에 나타나는 교정테스트 패턴을 기록한다. 기하학적 왜곡 교정을 위해 센서(11)는 카메라를 사용한다. 카메라의 해상도와 캡처 포맷은 수정에 필요한 정밀도에 맞게 선택한다. 색과 휘도 불균일을 수정할 때는 센서(11)가 광량계나 분광기와 같은 컬러분석기일 수 있다.The
여기서는 기하학적 오차 교정을 위해 디스플레이 장치에 대해 임의의 위치에 센서(11)를 배치한다. 이는 캡처한 영상이 센서(11)의 위치로 인한 왜곡성분을 갖는 것이 허용되기 때문에 센서(11)를 임의의 위치에 배치할 수 있는 것이다. 센서(11)가 직접적으로 화면(16)을 보여주지 않으면, 센서(11)로 인한 키스톤 성분이 생긴다. 이런 왜곡은 3개의 축을 따라 일어나고, 이는 다축 키스톤 왜곡성분으로 간주된다. Here, the
또, 카메라와 같은 센서(11)의 광학장치도 자체 왜곡을 갖기 때문에, 광학 왜곡성분도 고려해야 한다. 센서(11)의 종류에 따라 고유 왜곡을 갖는다. 카메라나 센서(11)에 의한 종합 왜곡을 카메라왜곡이라 한다. 카메라왜곡은 교정데이터를 생성할 때 결정되고 보상된다.In addition, since the optical device of the
카메라왜곡 결정을 위해서는 무왜곡 방향/형상을 알고 있는 물리적 기준마커를 사용한다. 이들 마커는 카메라에 의해 캡처되고, 캡처한 영상의 방향/형상을 무왜곡 방향/형상과 비교하면 카메라왜곡을 결정할 수 있다. 방향과 형상을 알고 있는 (대개 실상에서 왜곡이 없는 직사각형) 틀(경계) 자체가 자연스런 마커의 일종이다. 틀은 교정을 하는 기준이기도 하므로, 교정된 영상은 틀에 대해 직선이어야 한다. 따라서, 기하학적 왜곡을 수정할 때, 카메라가 캡처한 영상은 화면경계(틀)(18)을 가져야 한다. To determine camera distortion, we use a physical reference marker that knows the direction / shape of distortion. These markers are captured by the camera and the camera distortion can be determined by comparing the direction / shape of the captured image with the distortion-free direction / shape. The frame itself, which knows its direction and shape (usually a rectangle without distortion), is a natural marker. Since the frame is also the basis for calibration, the corrected image should be straight with respect to the frame. Thus, when correcting for geometric distortions, the image captured by the camera should have a screen boundary (frame) 18.
한편, 경계를 감지하지 못하는 경우, 카메라의 센서를 이용해 스크린의 에미터에서 나오는 신호를 감지하여 화면(16)에 대한 카메라왜곡을 결정한다. 이런 측정으로 카메라에서 보이는 화면(16)의 맵을 만든다.On the other hand, when the boundary is not detected, the camera sensor for the
횡색수차(lateral color)를 수정할 때, 카메라가 K 세트의 영상을 캡처하는데, 여기서 K는 컬러성분의 갯수로서 3원색 RGB의 갯수이다. 도 4의 테스트 패턴을 컬러성분마다 반복한다.When correcting the lateral color, the camera captures K sets of images, where K is the number of color components and the number of three primary colors RGB. The test pattern of FIG. 4 is repeated for each color component.
휘도와 컬러의 수정은 기하학적 수정과는 무관하게 이루어진다. 프로젝션 장치에서는 이런 휘도와 컬러의 수정이 기하학적 왜곡의 수정 이후에 이루어진다. 평판 디스플레이 장치에서는 기하학적 왜곡이 없어서 휘도와 컬러의 수정이 직접 이루어진다. 일례로, 컬러분석기와 같은 센서를 화면(16) 가까이 설치하여 색정보를 추출한다. 이 경우, 센서를 수정하는데 포지셔닝은 불필요하다. 센서(11)는 전체 영상이나 특정 포인트의 정보를 캡처한다. 후자의 경우, 스크린상의 포인트 그리드에 관한 데이터를 캡처해야 한다. 센서(11)가 화면(16)에 대해 키스톤 위치에 있으면, 카메라의 수정과 비슷하게 이런 포지셔닝으로 인한 수정을 해야만 한다.The correction of brightness and color is made irrespective of the geometric correction. In the projection apparatus, such correction of brightness and color is made after correction of geometric distortion. In the flat panel display device, there is no geometric distortion, and the luminance and color are directly corrected. For example, a sensor such as a color analyzer is installed near the
기하학적 왜곡이 있는 디스플레이 장치의 경우, 이 왜곡을 수정한 뒤에 휘도와 컬러를 수정해야 한다. 즉, 먼저 컬러관련 왜곡을 갖는 기하학적 왜곡을 수정한다. 기하 수정을 한 뒤 컬러 수정을 하면 기하수정에 의해 생기는 모든 추가적인 컬러왜곡을 고려하여 최종 영상을 포함하는 (배경이 아닌) 영역만 수정할 수 있다.In the case of display devices with geometric distortion, the luminance and color must be corrected after correcting the distortion. That is, first, the geometric distortion having the color related distortion is corrected. After color correction, color correction allows you to correct only the area (not the background) that contains the final image, taking into account any additional color distortion caused by the geometric correction.
이런 경우, 교정데이터 생성기(12)가 영상을 분석하고 워프생성기(13)에서 사용되는 포맷의 교정데이터를 추출하며, 워프생성기는 디지털 워핑부(15)에 워프데이터를 제공한다. In this case, the
디지털워핑이란 아래 식 (1)에 따른 입력 영상좌표와 출력 영상좌표 사이의 수학적 변환을 위해 사전보상 맵을 이용하는 과정이라 할 수 있다.Digital warping may be referred to as a process of using a pre-compensation map for mathematical conversion between input image coordinates and output image coordinates according to Equation (1) below.
여기서, i는 입력 화소좌표의 범위, (u i , v i )는 입력화소의 공간좌표, 는 입력화소의 컬러, (x i , y i )는 출력화소의 공간좌표로서 모두 출력공간에 매핑되는 것이고, 는 대응하는 화소의 출력 컬러이다. 3원색 장치의 경우, 는 단순히 RGB 값이다. (1)은 그리드형태의 수정을 표현한다. 프로세서에서 바로 그리드포맷을 이용하기는 어려우므로, 비디오의 60Hz 촬영속도처럼 실시간으로 수정을 적용해야 한다. 따라서, 워프생성기에서는 식 (1)을 하드웨어용 포맷으로 변환한다. 교정데이터 생성기(12)는 3가지 하위생성기로 이루어지는데, 이들은 각각 형상, 횡색수차(lateral color), 컬러불균일을 교정하기 위한 것이다. Where i is the range of input pixel coordinates, ( u i , v i ) is the spatial coordinate of the input pixel, Is the color of the input pixel, ( x i , y i ) are the spatial coordinates of the output pixel, all mapped to the output space, Is the output color of the corresponding pixel. For three primary colors device, Is simply an RGB value. (1) represents the correction of grid form. It is difficult to use the grid format directly on the processor, so you need to apply corrections in real time, such as 60Hz video rates. Therefore, the warp generator converts equation (1) into a hardware format. The
이하 형상을 수정하기 위한 교정데이터에 대해 먼저 설명한다. 이후의 설명에서, 주로 분석되는 테스트 패턴은 도 4의 (a)와 (b)와 같은 그리드패턴이다. 도 4의 (e)~(g) 패턴도 교차점에서 그리드를 형성하므로 이용할 수 있다.Hereinafter, calibration data for correcting the shape will be described first. In the following description, the test patterns mainly analyzed are grid patterns such as (a) and (b) of FIG. 4. Patterns (e) to (g) of FIG. 4 can also be used because they form a grid at intersections.
그리드패턴과 같은 테스트 영상은 입력공간내 공지의 위치를 중심으로 하는 형상을 제공한다. 이런 중심을 (x 0 i , y 0 i )로 표현하는데, 여기서 i는 형상의 범위이다. 상단좌측부터 시작하여 테스트패턴의 행을 따라 나아가면서 총 MxN개의 형상이 있고, 그 해상도는 W T xH T 이다. 테스트패턴의 해상도가 디스플레이 장치의 원래 해상도와 일치할 필요는 없다. 테스트패턴내 형상의 중심은 디스플레이 되었을 때 (x 0 di ,y 0 di ) 값으로 왜곡에 의해 변형된다. 형성 역시 왜곡되는바, 원이 타원으로 왜곡되는 것이 일례이다. 이들 좌표는 화면(16)의 틀(18)의 좌측상단의 원점을 중심으로 디스플레에 공간내에 정의된다. W D xH D 는 임의의 측정기내 디스플레이 장치의 틀(18) 내부의 해상도이고 그 좌표는 (x 0 di , y 0 di )이다. 디스플레이 공간은 실제나 관찰자의 공간과 같은바, 수정된 영상은 디스플레이 공간에 왜곡 없이 나타나야 한다.The test image, such as the grid pattern, provides a shape centered on a known location in the input space. This center is represented by ( x 0 i , y 0 i ), where i is the range of the shape. Starting from the top left, there are a total of M x N shapes along the lines of the test pattern, with a resolution of W T x H T. The resolution of the test pattern does not need to match the original resolution of the display device. The center of the shape in the test pattern is distorted by the distortion when displayed ( x 0 di , y 0 di ). Formation is also distorted, for example, a circle is distorted into an ellipse. These coordinates are defined in space on the display about the origin of the upper left of the
카메라는 왜곡된 그리드패턴의 영상을 캡처하여 교정데이터 생성기(12)로 보낸다. 카메라의 해상도는 W C xH C 이다. 본 실시예에서는 카메라의 해상도가 디스플레이의 해상도와 일치될 필요는 없고, 카메라도 어디에도 설치할 수 있다. 카메라공간의 중심의 좌표는 (x 0 ci , y 0 ci )이고 원점은 캡처한 영상의 상단 좌측이다. The camera captures an image of the distorted grid pattern and sends it to the
캡처한 영상은 카메라의 뷰포인트에서 보이지만, 교정은 실제 뷰포인트에서, 즉 관찰자의 관점에서 해야만 한다. 따라서, 교정과정은 카메라의 뷰포인트를 배제 해야만 한다. 전술한 바와 같이, 화면틀(18)을 마커로 사용한다. 따라서, 카메라 영상도 화면틀(18)을 캡처해야만 한다. 실제에서는 화면틀(18)을 아래 좌표로 정의한다:The captured image is visible from the camera's viewpoint, but corrections must be made at the actual viewpoint, ie from the observer's point of view. Therefore, the calibration process must exclude the camera's viewpoint. As described above, the
상단좌측: (0,0) Upper left: (0,0)
상단우측: (W D ,0) (2)Upper right: ( W D , 0) (2)
하단좌측: (0,H D )Lower left: (0, H D )
하단우측: (W D ,H D )Lower right: ( W D , H D )
카메라 영상에서, 이들 좌표는 아래와 같이 된다:In the camera image, these coordinates are as follows:
상단좌측: (x d cTL ,y d cTL )Upper left: ( x d cTL , y d cTL )
상단우측: (x d cTR ,y d cTR ) (3)Top right: ( x d cTR , y d cTR ) (3)
하단좌측: (x d cBL ,y d cBL )Bottom left: ( x d cBL , y d cBL )
하단우측: (x d cBR ,y d cBR )Bottom right: ( x d cBR , y d cBR )
도 5는 여러 공간과 좌표 시스템을 보여준다. 도시된 영상에서 원은 흑색이고 배경은 백색이지만, 모든 테스트패턴이 컬러이면서 형상을 달리할 수도 있다(도 4 참조). 3가지 경우가 도시되었는데: (a)의 경우 영상이 화면틀(18)을 완전히 덮는 오버플로 상태, (b)의 경우 영상이 완전히 화면틀(18) 안에 들어가는 언더플로 상태, (c)의 경우 영상과 화면틀(18)이 서로 불일치하여 어긋난 미스매치 상태이다. 이상은 프로젝션 형상을 분류한 것으로서, 입력공간과 카메라공간은 화소를 기준으로 정의하지만, 디스플레이 공간은 화소 외에도 미터 단위로 정의할 수 있다.5 shows several spatial and coordinate systems. In the illustrated image, the circle is black and the background is white, but all test patterns may be different in color and shape (see FIG. 4). Three cases are shown: (a) an overflow state where the image completely covers the
f D 로 표시되는 화소왜곡은 아래 식 (4)와 같이 주어진다: The pixel distortion represented by f D is given by
는 식 (4)에서 주어진 값의 역수로서 아래와 같다: Is the inverse of the value given in equation (4):
디지털 워핑부(15)는 를 입력영상에 적용하여 디스플레이에 앞서 워프(사전왜곡)를 한다.The
위의 맵들은 모두 정방향으로 정의된 것으로: 함수도메인은 입력영상이고 범위는 출력영상이다. 주지하는 바와 같이, 프로세서와 같은 전자수정회로는 인버스 구조를 이용해 영상을 만드는 것이 더 효과적이고 정확하다. 인버스 워핑 구조에서는, 수정맵을 거쳐 출력부의 화소를 입력부에 매핑한 다음 입력공간에서 이를 필터링(컬러값 할당)하여 프로세서의 출력영상을 생성한다. 이 경우 수정 맵이 인버스 형태로 나타나고, 이를 fw로 표시한다. 인버스 형태를 수정한 것이 디스플레이 왜곡맵 자체인 이므로, 역방향 구조의 수정장치에 필요한 맵이나 워핑 데이터가 이런 디스플레이 왜곡맵일 뿐이다. 따라서, 교정데이터 생성기(12)에서 만들 그리드데이터는 아래와 같다:The above maps are all defined in the forward direction: the function domain is the input image and the range is the output image. As is well known, electronic correction circuits, such as processors, are more effective and accurate in making images using inverse structures. In the inverse warping structure, an output image of a processor is generated by mapping a pixel of an output unit to an input unit through a correction map and then filtering (allocating color values) in the input space. In this case, the correction map appears in the form of an inverse, which is denoted by fw . The modification of the inverse shape is the display distortion map itself. Therefore, the map and warping data required for the reverse structure correcting device are only such display distortion maps. Thus, the grid data to be created in the
이 정보는 카메라가 캡처한 영상에서 추출해야 하고, 카메라는 카메라공간내에 있다. 캡처한 영상은 아래 (7)에서 정의한 매핑에 대응한다:This information must be extracted from the captured image of the camera, and the camera is in camera space. The captured image corresponds to the mapping defined in (7) below:
이 맵은 전체영상 맵으로서, 디스플레이 왜곡맵 f D 와 카메라 왜곡맵 f C 의 조합으로 나타날 수 있고, 이로부터 필요한 f ㅉ 가 (8)로 정의된다:This map is a full image map, which can be represented by a combination of the display distortion map f D and the camera distortion map f C , from which the required f ㅉ is defined by (8):
f D 에서 f C 를 빼는 것은 단순히 2개의 맵의 연결(또는 함수조합)이다. 또, 디스플레이 좌표시스템의 축척과 원점을 적용할 수 없으므로 좌표 (x 0 di , y 0 di )를 수정화소의 축척과 원점에 가져와야만 한다. 이에 대해서는 뒤에 자세히 설명한다.Subtracting f C from f D is simply a concatenation (or combination) of two maps. Also, since the scale and origin of the display coordinate system cannot be applied, the coordinates ( x 0 di , y 0 di ) must be brought to the scale and origin of the correction pixel. This is described in detail later.
도 6에 교정데이터 생성기(12)의 일례가 도시되었다. 테스트패턴의 W C xH C 카메라영상을 먼저 분석하여 형상의 중심 (x 0 ci , y 0 ci )를 추출하고; 이로부터 f F 를 구한다. 카메라공간내 형상중심은 디스플레이 왜곡과 카메라 왜곡으로 매핑한 뒤의 입력공간내 형상중심에 대응한다. 화면(16)을 오버플로하는 영상에 대해서는 이런 형상을 사용할 수 없다. 이렇게 경계밖에 있는 형상은 일반적으로 배면 프로젝션 TV나 정면 프로젝션 시스템에서는 보이지 않는데, 이는 형상이 다른 평면의 배경에 있기 때문이다. 따라서, EFGH로 정해진 화면(16)내의 형상만을 분석한다(도 5 참조).An example of a
여러 영상처리 알고리즘을 이용해 형상중심을 찾는다. 한가지 방법은 캡처한 영상을 임계값 메커니즘을 이용해 2진(흑백) 영상으로 변환하는 것이다. 2진 영상내 형상의 화소를 구분표시한다. 분류된 화소집합 각각의 중심을 형상중심에 놓는다. 영상의 히스토그램을 분석하면 임계값이 결정된다. 히스토그램은 캡처한 영상의 휘도나 특정 색조에 관한 것일 수 있다.Find shape center using various image processing algorithms. One way is to convert the captured image into binary (black and white) image using a threshold mechanism. The pixels of the shape in the binary image are displayed separately. The center of each classified pixel set is placed in the shape center. Analyzing the histogram of the image determines the threshold. The histogram may relate to a luminance or a specific color tone of the captured image.
캡처한 영상을 분석해 화면의 좌표와 경계(틀)를 구하기도 한다. 이 단계에서 다른 영상을 이용할 수도 있다. 화면 좌표는 카메라왜곡 f C 를 결정하는데 필요하다. 카메라가 광학왜곡이 없으면, 카메라왜곡이 입체왜곡 f C P 이고, f C 를 결정하는데 4대의 카메라의 식 (3)에서 정의된 좌표가 필요하다. 카메라가 광학왜곡을 가지면, 추가 마커가 필요하다. 틀의 경계 EFGH는 에지의 방정식으로 변수화될 수 있는 마커로서 충분하다. 에지 방정식은 화면(16) 안에 어느 형상을 놓을지와 4 모서리를 결정하는데에도 사용된다. 디스플레이 공간내의 좌표가 (x CC di , y 0C di )로 알려진 실제 직사각형 그리드를 화면(16)에 붙이거나 투사하여 마커로 사용할 수도 있는데, 이것이 카메라공간에서는 (x 0C ci , y 0C ci )로 투사된다. 이 그리드는 카메라교정(CC) 그리드로 보인다. 화면틀 좌표와 경계를 결정하는 것을 디스플레이 특성화라 한다. The captured image is analyzed to find the coordinates and boundaries of the screen. Other images may be used at this stage. The screen coordinates are needed to determine the camera distortion f C. If the camera has no optical distortion, the camera distortion is stereo distortion f C P , and the coordinates defined in equation (3) of the four cameras are needed to determine f C. If the camera has optical distortion, additional markers are needed. The frame boundary EFGH is sufficient as a marker that can be parameterized by the equation of the edge. The edge equation is also used to determine which shape to place in the
센서의 뷰포인트에서는 카메라렌즈와 곡면스크린내의 광학왜곡을 구분할 수 없다. 어느 경우에도 마커와 화면틀은 곡면형으로 나타난다. 따라서, 카메라왜곡과 관련 CC 그리드의 화면틀 안에 곡면스크린을 둔다. 카메라왜곡을 수정하면 최종 영 상이 곡면틀에 일치한다. 곡면스크린 수정을 위해, (스크린에서 측정한) 일정 간격의 틀(18)에 마커를 붙여 CC 그리드를 구성한다. 마커를 틀(18) 안쪽에 붙여도 된다. 곡면스크린은 2차원 표면이므로 2차원 CC 그리드를 통해 교정할 수 있다.At the point of view of the sensor, the optical distortion in the camera lens and the curved screen cannot be distinguished. In either case, the markers and picture frames appear curved. Thus, the curved screen is placed within the frame of the camera grid associated with the camera distortion. When the camera distortion is corrected, the final image matches the frame. To modify the curved screen, a marker is attached to the
(부착된 CC 그리드나 틀(18)의) 에지나 마커는 에지검출법과 같은 표준 영상처리법으로 검출된다. 에지의 위치를 알면 선의 방정식을 에지에 맞출 수 있고, 선의 교차점이 4개의 모서리와 CC그리드 좌표가 된다. 에지와 CC 그리드좌표는 식 (9)와 같이 정의되는바, 여기서 Ncc는 카메라 교정그리드내의 포인트의 갯수이다.Edges or markers (of the attached CC grid or frame 18) are detected by standard image processing methods such as edge detection. Knowing the position of the edge allows the equation of the line to fit the edge, and the intersection of the line is the four corners and the CC grid coordinates. The edge and CC grid coordinates are defined as in Eq. (9), where Ncc is the number of points in the camera calibration grid.
(9) (9)
(스크린이 곡면인) 디스플레이 장치의 경우 실제 마커에서 CC 그리드를 구하기가 쉽지 않다. 이 경우, 에지방정식을 이용해 수학적으로 CC 그리드를 구한다. 에지를 딸 포인트를 어떻게 놓는지와 틀(18) 안에 어떻게 보간하는지는 자유이다. 어떤 방법을 택해도, 도메인 좌표를 제대로 선택하면 최종 영상이 틀(18)에 일치하게 된다. 에지를 따라 포인트를 등간격으로 배치한 다음 틀의 내부에 대해 선형으로 보간하는 것도 한가지 방법이다. For display devices with curved screens, it is not easy to get the CC grid from the actual markers. In this case, the CC grid is calculated mathematically using the Efat formula. How to place the point to edge and how to interpolate within the
제조업자가 카메라의 광학왜곡 f0 C에 대한 사양을 규정하면, 이들 사양을 입체왜곡과 결합하여 대신 사용하거나 카메라 교정그리드를 만드는데, 이 과정이 식 (10)과 같다.If the manufacturer specifies the specifications for the camera's optical distortion f 0 C , these specifications can be combined with stereo-distortion or used instead to create a camera calibration grid, which is shown in Eq. (10).
(10) 10
카메라왜곡의 광학성분은 카메라의 위치/방향과 무관하므로 디스플레이 교정보다 먼저 결정된다. 식 (3), (9)의 데이터를 총칭하여 카메라 교정데이터라 한다. The optical component of the camera distortion is determined before the display calibration because it is independent of the position / direction of the camera. The data of equations (3) and (9) are collectively called camera calibration data.
구해진 좌표는 제대로 배치되어야 한다. 수학적으로, 각각의 범위좌표 (x 0 ci ,y 0 ci )에 대응 도메인 좌표 (x 0 i , y 0 i )에 할당한다. 전체 영상맵 f F 를 만드는데는 도메인좌표를 결정해야 한다. 이런 추출과정에서도 도메인좌표에 관헌 어떤 정보도 생기지 않는다. 입력 테스트패턴내의 형상 순서와 일치하는 순서로 반드시 중심을 결정할 필요는 없다. The coordinates obtained must be properly positioned. Mathematically, each range coordinate ( x 0 ci , y 0 ci ) is assigned to the corresponding domain coordinate ( x 0 i , y 0 i ). To create a full image map f F, we need to determine the domain coordinates. This extraction process does not generate any information about domain coordinates. The centers do not necessarily need to be determined in an order that matches the shape order in the input test pattern.
도 4의 (c), (d)와 같은 테스트패턴을 사용해 포인트를 배열한다. 이들 테스트패턴에서 캡처한 영상의 화소를 영상이 속하는 막대에 따라 분류한다. 형상중심은 이런 분류내에 놓는다. 중심이 속하는 수평수직 막대가 도메인좌표 (x 0 i , y 0 i )를 결정하고, i는 식 (11)에서 정의된다.Points are arranged using the test pattern as shown in Figs. 4 (c) and 4 (d). The pixels of the image captured by these test patterns are classified according to the bars to which the image belongs. The shape center is in this category. The horizontal and vertical bars to which the center belongs determine the domain coordinates ( x 0 i , y 0 i ), and i is defined in equation (11).
(11) (11)
배열을 할 때는 어느 막대와 형상이 화면틀(18) 안에 있는지 판단하는 것이 중요하다. (화면틀 밖에 있는) 배경부가 영상에 높은 콘트라스트를 제공하지 않으면, (추출특징 좌표 단계에서) 적당한 임계값이 있어야 화면틀(18) 내부의 형상과 막대만이 측정된다. 외부 형상이 강하게 투사되면, 화면틀 에지와 비교하여 내부에 있는 형상과 막대를 결정할 수 있다. 막대에 넘버링할 때 (화면틀 외부에 있는) 모든 미싱 막대(missing bar)를 고려해야 한다. 주어진 넘버링 순서의 막대들이 한번에 하나씩 깜박이면서 화면틀 안에 있는지 여부를 판단한다. 다른 색의 막대를 사용해 암묵적으로 넘버링할 수도 있다.When arranging, it is important to determine which bars and shapes are in the
카메라 교정데이터도 배열해야 하는데, 여기서는 도메인좌표가 디스플레이 공간에 있다. 그러나, 이 과정은 모든 특징을 화면틀(18) 안에 놓는 것보다 간단하다. 대부분의 경우, 배열을 결정하는데는 좌표 비교로 충분하다. CC 그리드의 경우, 배열을 통해 CC 그리드의 (디스플레이 공간내) 도메인좌표인 그리드 (x 0C di , y 0C di )를 할당하는데 이를 도메인 CC 그리드라 한다. 이런 도메인 CC 그리드의 값은 그리드가 실제 마커에 대응하는지 또는 수학적으로 구성된 것인지 여부에 따라 달려있다. 전자의 경우, 마커의 공지된 좌표가 도메인 CC 그리드를 제공한다. 후자의 경우, 도메인 CC 그리드를 선택하는데 어느정도 자유가 있다. 최종 영상이 화면틀(18)과 일치하면, 에지에 있는 CC 그리드의 포인트들이 사각형 EFGH의 대응 에지에 일치해야만 한다. 즉 에지는 아래와 같이 매핑되어야 한다.Camera calibration data should also be arranged, where the domain coordinates are in the display space. However, this process is simpler than putting all the features in the
상단 에지 ⇔ {(0,0),(W D ,0)}를 통과하는 직선Straight line through top edge ⇔ {(0,0), ( W D , 0)}
우측 에지 ⇔ {(W D ,0),(W D ,H D )}를 통과하는 직선Straight line through the right edge ⇔ {( W D , 0), ( W D , H D )}
하단 에지 ⇔ {(0,H D )),(W D ,H D )}를 통과하는 직선Straight line through the lower edge ⇔ {(0, H D )), ( W D , H D )}
좌측 에지 ⇔ {(0,0)),(0,H D )}를 통과하는 직선Straight line through left edge ⇔ {(0,0)), (0, H D )}
이런 제한과는 별도로, 도메인 CC 그리드 포인트를 적절하게 선택할 수 있다. 추출과 배열이 끝나면, 식 (8)을 이용해 매핑(f w )을 찾을 수 있다. Apart from this limitation, domain CC grid points can be selected appropriately. After extraction and arraying, we can find the mapping ( f w ) using equation (8).
카메라 교정데이터는 인버스 카메라 왜곡맵 f -1 C를 처음 구성하는데 사용된다. 순수 입체 카메라왜곡의 대부분의 공통 시나리오(즉, f C=f P C)의 경우, 4개의 모서리 포인트가 필요하다.Camera calibration data is used to initially construct the inverse camera distortion map f - 1C . For most common scenarios of pure stereo camera distortion (i.e. f C = f P C ), four corner points are required.
(12) (12)
(인버스) 입체변환은 아래와 같다.(Inverse) stereo conversion is as below.
(13) (13)
여기서 (x d , y d )는 디스플레이 공간내의 좌표이고 (x c , y c )는 카메라공간내 좌표이다. 식 (12)를 사용해 8개의 선형방정식을 구하고, 입체변환을 규정하는 계수 {a,b,c,d,e,f,g,h}에 대해 푼다. Where ( x d , y d ) are coordinates in display space and ( x c , y c ) are coordinates in camera space. Equation (12) is used to find eight linear equations and solve for the coefficients { a, b, c, d, e, f, g, h } that define three-dimensional transformations.
카메라왜곡이 광학왜곡성분 f 0 C를 포함하거나 곡면틀에 맞게 수정될 때, 에 지방정식이나 CC 그리드를 이용해 역 카메라왜곡 맵 f -1 C를 결정한다. CC 그리드를 사용하는 것도 하나의 방법인데, 이는 내부 포인트의 왜곡에 관한 정보를 제공하거나 에지에 관한 정보만을 제공하기 때문이다. CC 그리드는 식 10으로 주어진다. 이 그리드는 주어진 기본 함수 집합에 의해 (적어도 정사각형으로) 보간된다. 나선형을 기반으로 하여 나선형으로 조정하거나 식 (14)에 정의된 그리드로 보간하는 것도 한가지 선택이다. When the camera distortion includes the optical distortion component f 0 C or is modified to fit the frame, use the local equation or CC grid to determine the inverse camera distortion map f -1 C. Using a CC grid is one way, either because it provides information about distortion of internal points or only about edges. The CC grid is given by equation 10. This grid is interpolated (at least square) by a given set of basic functions. One option is to make spiral adjustments based on the spiral or to interpolate with the grid defined in equation (14).
카메라 교정데이터 추출단계에서 계산된 f -1 C와 (x 0 ci , y 0 ci )로부터, 에 의해 f w 가 구해지는데, 여기서 는 식 (15)와 같이 주어진다.From f −1 C and ( x 0 ci , y 0 ci ) calculated in the camera calibration data extraction step, F w is given by Is given by equation (15).
(15) (15)
이런 연결은 도메인에 대해 전체 영상맵 범위를 이용해 카메라의 인버스 왜곡맵을 구한다. This connection uses the full range of image maps for the domain to obtain the camera's inverse distortion map.
구해진 그리드 는 도 5의 중간 도표에 대응하고 디스플레이 왜곡을 수정하는데 필요한 맵을 (인버스 형태로) 제공한다. 전술한 바와 같이, 그리드는 화면틀(18) 안에 있는 포인트만 포함한다. 오버플로 왜곡의 경우(a, b의 경우), 도메인 공간(즉, 디스플레이 왜곡의 뷰포인트로부터의 입력영상)내의 (형상중심에 대응하는) 많은 화소가 이 그리드로 정의된 디스플레이 공간내에 좌표를 갖지 않는다. 본 실시예에서 디지털 워핑부(15)인 프로세서는 모든 도메인공간 화소를 처리하는데; 인버스 수정요소의 도메인공간은 실제로는 출력영상이다. 따라서, 미싱 그리드데이터를 계산해야 하는데, 이 계산은 외삽단계와 리샘플링 단계에서 한다. Obtained
카메라왜곡을 계산할 때처럼, 그리드 fw는 나선과 같은 기본함수의 집합에 의해 보간될 수 있다. 보간값 을 외삽하여 미싱 데이터를 결정한다. 이 함수는 고속으로 리샘플링하여, 즉 도메인 포인트를 MxN에서 (nM -n+1)x(nN -n+1)으로 증가시켜(n=2,3..) 수정 그리드 덴서(denser)를 만드는데에도 사용된다. As when calculating camera distortion, the grid fw can be interpolated by a set of basic functions such as spirals. Interpolation Extrapolate to determine missing data. This function is also used to resample at high speed, i.e. increase the domain point from MxN to ( nM -n + 1 ) x ( nN -n + 1 ) (n = 2,3 ..) to create a modified grid denser. Used.
이제 수정맵을 가 되도록 할 수 있고, 입력공간상의 포인트 어레이에서 이 함수를 평가해 빠진 포인트를 포함한 수정 그리드를 구할 수 있다. 원래의 그리드를 유지하기 위해, 식 (16)과 같이 입력공간에 새로 규칙적으로 간격진 그리드 어레이를 형성하으로써 의 보간 형태를 이용한다. Now modify the map We can evaluate this function on an array of points in the input space to get a correction grid containing missing points. To maintain the original grid, by forming a new regularly spaced grid array in the input space, as shown in equation (16) Use the interpolation form of.
(16) (16)
이 어레이가 덴서이고, /M>M, /N>N이다. 이 어레이에서 를 계산하면 식 (17)에 의한 수정 그리드 (x di , y di )가 생기는데, 물론 빠진 포인트를 포함하고 덴서일 수 있다. This array is a denser, where / M> M and / N> N. In this array Calculations yield a correction grid ( x di , y di ) by equation (17), which may of course be a denser containing missing points.
화면틀내에서 일 경우 (17) Within the frame If (17)
에 보간점들을 조합하여 미싱 데이터의 외삽과 보간을 내부 데이터에 대해 할 수 있다. Interpolation points can be combined to extrapolate and interpolate missing data to internal data.
교정데이터 생성의 최종 단계는 축척과 원점을 고정하는 것이다. 수정 그리드는 디스플레이 공간에 있고 화면틀(18)의 우측상단 모서리를 기준으로 정해진다. 디스플레이 공간의 단위(축척)는 임의적이며 입력공간에 사용된 단위와 다를 수 있다. 이 데이터를 워프 생성기(13)에서 사용하기 전에 입력공간과 일치하는 원점과 축척을 만들 필요가 있다. 이것은 원점과 축척을 최적화하면 보인다. The final step in generating calibration data is to fix the scale and origin. The correction grid is in display space and is defined relative to the upper right corner of the
도 5의 중간 도표를 고려하면, 수정을 했을 때 최종 수정된 영상은 화면틀(18)에 대해 사각형으로 되어야 한다. 도 7에 의하면, 수정된 영상을 포함하는 사각형을 액티브 사각형 A'B'C'D'라 한다. 액티브 사각형은 영상의 틀(ABCD)과 화면틀(EFGH) 안에 있어야 한다. 액티브 사각형의 상단좌측 모서리가 (0,0)이고 사각형의 높이를 곱한 폭이 W T xH T 가 되도록 원점과 축척을 선택하는데, 폭과 높이의 곱이 입력영상의 해상도이다(도 7 참조).Considering the middle diagram of FIG. 5, when the correction is made, the final modified image should be square with respect to the
일단 축척과 이동이 된 뒤에는, 교정을 위한 입력공간이 실제로는 역구조에서 전자수정을 위한 출력공간이고, 수정을 위한 입력공간이 실제로는 디스플레이 공간(즉, 교정용 출력공간)과 같다. Once scaled and moved, the input space for calibration is actually the output space for electronic correction in an inverse structure, and the input space for correction is actually the same as the display space (ie, the calibration output space).
액티브 사각형의 상단좌측 모서리와 크기가 디스플레이 좌표공간에서 각각 와 이면, 모든 그리드 격자의 축척을 조절해 식 (18)과 같이 변위시켜야 한다.The top left corner and size of the active rectangle Wow If so, all grid grids should be scaled and displaced as shown in Eq. (18).
(18) (18)
사각형 좌표를 결정할 W D xH D 의 값은 화면틀(18)의 종횡비를 유지하려면 정수로 선택한다. 식(18)을 적용하면 디스플레이 공간의 치수(하단 도표)가 수정에 필요한 입력영상 치수(상단 도표)로 바뀐다. The value of W D xH D to determine the square coordinates is selected as an integer to maintain the aspect ratio of the
액티브 사각형의 결정은 자유롭지만, 자연적인 제한이 있다. 수정된 영상의 화소 해상도를 최대로 하려면, 사각형을 가능한한 크게 해야 한다. 수정된 영상이 입력영상과 동일한 종횡비를 가져야 한다면, 사각형의 종횡비를 입력영상의 종횡비(W T / H T )와 일치시켜야 한다. 여러 제한사항을 아래 C1~C4에 열거한다.Determination of the active rectangle is free, but there are natural limitations. To maximize the pixel resolution of the modified image, make the rectangle as large as possible. If the modified image should have the same aspect ratio as the input image, the aspect ratio of the rectangle Must match the aspect ratio ( W T / H T ) of the input image. The various restrictions are listed in C1 through C4 below.
C1) 액티브 사각형이 빛의 틀 ABCD 안에 들어간다.C1) The active rectangle falls into the light frame ABCD.
C2) 액티브 사각형이 화면틀 EFGH 안에 들어간다.C2) The active rectangle falls within the frame EFGH.
C3) 액티브 사각형의 면적이 최대화된다.C3) The area of the active rectangle is maximized.
C4) 액트비 사각형의 종횡비를 입력영상의 종횡비와 같게 한다 C4) Make the aspect ratio of the act ratio rectangle the same as the aspect ratio of the input image
액티브 사각형에 대해 이런 제한을 해결하는 것(즉, 와 를 결 정하는 것)은 수치최적화의 문제이다. 위의 모든 제한을 수학적 형태로 두되, 이 문제를 해결하는데 여러 최적화 방법을 이용한다.Solving this limitation for active rectangles (i.e. Wow Is a matter of numerical optimization. All of the above limitations are in mathematical form, but several optimization methods are used to solve this problem.
제한적 최소화법도 한가지 방법인데, 이 경우 제한사항들을 부등식으로 재정리하고 최소화(또는 최대화)할 함수를 정의한다. 화면틀 에지에 대한 선 방정식(식 9 참조)과 최외 격자점(식 17 참조)을 이용해 제한사항 C1과 C2를 부등호 형태로 만드는바, 4군데 사각모서리가 이들 선 안에(≤) 있다. C4는 이미 등호 형태이지만, C3는 액티브 사각형의 면적을 최대화할 함수로 된다. Constrained minimization is one way, in which case you define a function that reorders the constraints into inequality and minimizes (or maximizes) them. Using the line equation for the frame edge (see Equation 9) and the outermost lattice point (see Eq. 17), the constraints C1 and C2 are inequality, with four square edges (≤). C4 is already an equal sign, but C3 is a function that will maximize the area of the active rectangle.
도 5의 시나리오 (a)에서는 영상이 오버플로하여 화면(16)을 채우고, 화면틀(18)은 자연적인 사각형으로서 C1~3를 자동으로 만족한다. 디스플레이의 축척을 테스트영상의 축척으로 고정하면, 아래 식 (19)와 같이 된다. In the scenario (a) of FIG. 5, the image overflows to fill the
(19) (19)
수정된 영상이 화면틀(18)에 정확히 일치하면 이상적인 상태로서 화면틀(18) 전체가 이용된다. 따라서, 이 경우에는 도 6의 최적화 단계가 식 (19)만을 이용함을 뜻하고, 이는 포인트의 축척을 바꾸거나 포인트를 움직일 필요가 없음을 뜻한다.If the modified image exactly matches the
최적화 단계는 아래 (20)과 같이 C4 조건을 바꾸어 종횡비를 바꾸는데에도 이용된다.The optimization step is also used to change the aspect ratio by changing the C4 condition as shown below (20).
식 (18)을 이용하면, 수정된 영상의 종횡비가 α로 된다. 이렇게 종횡비를 선택하는 것이 자유롭기 때문에 영상을 디스플레이 장치에서 종횡비가 서로 다른 우체통이나 원통형으로 할 수 있다. 축척과 변위를 조절하면, 영상을 화면(16)에 대해 쉽게 크게하거나(오버스캔) 작게(언더스캔)할 수 있다. 따라서, 표면함수를 이용해 쉽게 오버스캔/언더스캔 상태를 구현할 수 있다.Using equation (18), the aspect ratio of the corrected image is α . Since the aspect ratio can be freely selected, the image can be a mailbox or a cylinder having different aspect ratios in the display device. By adjusting the scale and displacement, the image can be easily enlarged (overscan) or reduced (underscan) with respect to the
교정데이터 생성기(12)에서 생긴 최종 교정데이터가 식 (21)로 주어지는 그리드 데이터 / f'w이다. The final calibration data produced by the
(21) (21)
이상의 설명은 모든 원색에 대한 수정을 하는 왜곡에 촛점이 집중되었다. 이 경우, 동일한 그리드 데이터가 모든 색의 수정을 설명하고, 이런 경우 단색수정이라 할 수 있다. 그러나, 횡색수차 왜곡의 경우, 그리드 데이터가 모든 원색에 대해 다르므로 다색수정이 필요하며, 이런 경우를 다색수정이라 할 수 있다. 모든 원색에 공통인 기하학적 왜곡이 측방향 수정에도 포함되므로, 교정데이터 생성기(12)를 후술하는 다색수정의 특수한 경우에도 구현할 수 있다. The above explanation focuses on the distortion that corrects all the primary colors. In this case, the same grid data accounts for the correction of all colors, in which case it can be called a monochrome correction. However, in the case of lateral chromatic aberration distortion, multicolor correction is necessary because the grid data is different for all primary colors, and this case may be referred to as multicolor correction. Since the geometric distortion common to all the primary colors is included in the lateral correction, the
횡색수차수정용 교정데이터 생성기(12)의 일례가 도 8에 있다. 이 생성기는 단색수정을 K번 반복한 것과 비슷하고, 여기서 K는 원색의 갯수이다. 원색은 I i 로 표시하고 i=1...K이다. An example of the
원색 각각을 교정하는 단계는 단색 수정례에서 설명한 단계와 비슷하다. Correcting each of the primary colors is similar to the steps described in the Monochromatic modification.
이제 교정하는 원색에 맞춰 테스트패턴을 컬러화한다. 예를 들어, 적색을 교 정할 때, 모든 테스트패턴(도 4의 a~j 참조)의 특징(원, 막대 등)을 모두 적색으로 한다. 특징부의 특성(원의 갯수 등)는 컬러패턴에 따라 다를 수 있다.Now colorize the test pattern to match the primary color you are calibrating. For example, when red is corrected, all the characteristics (circles, bars, etc.) of all the test patterns (refer to a to j of FIG. 4) are all red. The characteristics (such as the number of circles) of the features may vary depending on the color pattern.
중심과 에치를 추출하는 등의 모든 영상처리단계에서 컬러영상을 이용한다. 교정되는 컬러를 다루도록 임계값을 조정한다. 일단 2진 영상을 얻으면, 영상처리는 컬러와는 무관하다. The color image is used in all image processing steps, such as extracting the center and the etch. Adjust the threshold to handle the color being corrected. Once a binary image is obtained, image processing is independent of color.
일반적으로, 카메라렌즈 자체내의 횡색수차왜곡 때문에, 원색에 따라 카메라 교정데이터가 달라 모든 원색에 대해 이 데이터를 별도로 계산할 필요가 있다. 본 시스템은 카메라 자체내의 횡색수차왜곡을 교정하도록 구성된다. 디스플레이장치를 교정하기 위한 테스트 영상패턴과 마찬가지로, 원색마다 다른 테스트 영상패턴을 이용해 카메라 교정데이터를 만든다. 카메라에서 (다색) 교정데이터를 만드는 것은 디스플레이 교정과는 무관하게 이루어지고 일단 한번 할 필요가 있다. 카메라 교정데이터를 만들 때, 횡색수차왜곡이 없거나 최소(카메라보다 훨씬 적은)인 디스플레이 장치를 사용해야 한다. 이런 디스플레이 장치가 없으면, 컬러마커를 사용해 좌표를 아는 물리적 그리드를 만든다. 다색 카메라 교정의 최종 결과는 역방향 카메라왜곡으로서 식 (22)에서 구해진 원색에 따라 다르다. In general, because of lateral chromatic aberration in the camera lens itself, camera calibration data differs depending on the primary colors, and it is necessary to calculate this data separately for all primary colors. The system is configured to correct lateral chromatic aberration in the camera itself. Similar to the test image pattern for calibrating the display device, camera calibration data is generated using a test image pattern different for each primary color. Creating (multicolor) calibration data in the camera is independent of display calibration and needs to be done once. When creating camera calibration data, use display devices that have no or minimal lateral chromatic aberration (much less than the camera). Without such a display device, color markers are used to create a physical grid of known coordinates. The final result of the multicolor camera calibration depends on the primary color obtained from equation (22) as reverse camera distortion.
(20) 20
미싱 데이터를 계산한 뒤, (식 17에 비슷한) 구해진 K개의 그리드를 식 (23)에서 구한다. After calculating the missing data, the K grids (similar to Eq. 17) are obtained from Eq. (23).
(23) (23)
각 그리드의 포인트 수는 테스트패턴과 리샘플링에 따라 다를 수 있다.The number of points in each grid can vary with test patterns and resampling.
원색의 테스트패턴들은 각각 다른 투사형상 등급에 속한다(도 5 참조). 어떤 테스트패턴은 도 5의 a와 같이 화면틀(18)을 완전히 오버플로하고, 어떤 것은 도 5의 b와 같이 전체가 화면틀 안에 있다. 최적화를 하면, 액티브 사각형이 화면틀(18)내에서 각각의 컬러의 영상테두리 ABCDk 안에 있어야 하고; 이 때 영상테두리의 공간교차법이 이용된다. 이는 1회 최적화가 이루어지고 C1에서 모든 원색의 테두리 ABCDk를 고려함을 의미한다. 최적화에 의해 모든 원색에 공통인 액티브 ㅅ사각형의 좌표가 결정된다. 이들 좌표는 식 (18)에 맞게 그리드를 축척하고 변위하는데 이용된다. The primary test patterns belong to different projection shape classes (see Fig. 5). Some test patterns completely overflow the
최적화 단계의 출력이 K' 그리드인데, 식 (24)와 같이 모든 원색의 교정데이터를 제공한다. The output of the optimization step is the K 'grid, which provides calibration data for all primary colors, as shown in equation (24).
이들 데이터 집합은 워프생성기(13)에서 사용된다.These data sets are used in
본 실시예에서는 컬러와 휘도 둘다나 컬러 한가지에 대해 기하학적 왜곡(타입 1~4)을 수정한 뒤에 불균일 교정데이터의 생성을 실행한다. 컬러의 불균일은 여러가지 원인이 있는데, 예를 들면 투사형상(키스톤 각도)로 인해 화면(16)RK지의 거리가 변하는 것이나, 마이크로-디스플레이 패널의 불완전성 등이 있다.In this embodiment, non-uniform calibration data is generated after correcting the geometrical distortions (
형상수정된 디스플레이 장치의 경우, 테스트패턴 영상이 화면틀(18)에 가능한 일치되는 크기로 화면틀 안에 사각형(액티브 사각형)으로 나타난다. 화면틀(18)의 상단좌측 모서리가 아니라 액티브 사각형의 상단좌측 모서리를 원점으로 한다. 사용된 테스트패턴은 한가지 색의 형상수정에 사용된 패턴들중의 컬러버전일 뿐으로서; 원색 k를 수정하기 위해 특징부(원, 막대)의 컬러가 k이다. 이는 횡색수차를 수정하는데 사용되는 것과 도일하다. 휘도에 대해서는, 그레이 값(맥시멈 화이트, 하프-맥시멈)을 사용할 수 있다. 컬러란 말은 수정중인 모든 컬러성분을 식별하는데 사용되는 것으로서; 휘도이거나, RGB나 YCbCr중의 한 성분이거나, 센서(11)로 측정할 수 있는 다른 컬러공간내의 성분일 수도 있다.In the case of a shape-modified display device, the test pattern image appears as a rectangle (active rectangle) in the screen frame in a size that matches the
센서(11)로는 카메라나 컬러분석기(분광기, 광량계 등)를 사용한다. 정확도를 높이려면 광량계나 분광기를 사용해야만 한다. 이런 컬러분석기는 전체 영상(즉, 다수의 포인트)을 캡처하거나 한개 포인트의 데이터를 캡처한다. 센서(11)는 가능한한 화면(16) 가까이 설치해야 한다. 싱글포인트 컬러분석기를 실제로 알려진 좌표(즉, 형상의 중심)에서 스크린에 설치하면, 이 좌표의 데이터를 얻을 수 있다. 멀티포인트 컬러분석기와 카메라를 임의의 위치에 배치할 수는 있지만, 가능한한 화면(16) 가까이 화면 중심에 배치해야 정확도를 개선할 수 있다. 도 9는 화면(91), 싱글포인트 컬러분석기(92) 및 멀티포인트 컬러분석기(93)의 예를 보여준다. 컬러 불균일에 대한 교정데이터 생성기는 기하왜곡을 수정하기 위한 것과 비슷하다. 도 10은 컬러불균일의 교정데이터 생성기(12')를 보여준다. As the
싱글포인트 컬러분석기(92)가 캡처한 데이터는 원색값 와 대응 공간좌표(x 0 i ,y 0 i )로서, 측정을 한 모든 포인트에 대한 값이다. 여기서 k=1...K는 컬러를 분석하고 있음을 확인한다. 테스트패턴이 정의되어 있어 C 0 kl 로 표시된 오리지널 컬러값도 알려졌다. 이렇게 해서 얻은 식 (25)는 컬러왜곡 맵이라 하는 컬러분균일 왜곡을 설명한다.The data captured by the single-
공간좌표는 컬러불균일 왜곡으로 바뀌지 않는다. 오리지널 컬러값 C 0 kl 는 보통 주어진 테스트패턴에서 고정적으로 C 0 kl = C 0 k 인데, 이는 배경이 아닌 모든 화소가 동일한 컬러를 가짐을 의미한다. 하나 이상의 측정치 집합 s=1...S를 만들 수 있는데, 각각의 집합은 고정 컬러값이 각각인 테스트패턴에 대응한다. 편의상 하나의 첨자 i로 식 (26)과 같이 각각의 측정값 집합을 커버한다. Spatial coordinates do not change with color non-uniform distortion. The original color value C 0 kl is usually fixed C 0 kl = C 0 k in a given test pattern, meaning that all pixels other than the background have the same color. One or more sets of measurements s = 1 ... S can be made, each set corresponding to a test pattern with each fixed color value. For convenience, one subscript i covers each set of measurements, as shown in equation (26).
공간좌표는 각 집합에 대해 동일하다. 이하의 설명을 각각의 집합(테스트패턴)에 적용한다. The spatial coordinates are the same for each set. The following description applies to each set (test pattern).
멀티포인트 컬러분석기(93)가 카메라인 경우, 캡처한 데이터가 전체 영상에 해당한다. 이 경우, 그리드를 구하기 전에 약간의 영상처리가 필요하다. 형상의 중 심 (x 0 ci ,y 0 ci )과 도메인좌표 (x 0 i ,y 0 i )를 계산한다. 이 단계는 형상수정에서 행한 추출 및 배열 단계와 동일하다. 중심 외에도, 형상의 중심의 컬러값도 계산한다. 캡처한 영상의 확인된 중심 부근의 화소 컬러값을 식 27에 따라 평균내거나 필터링하면 컬러값을 구할 수 있다. When the
는 중심 부근에서의 캡처한 영상의 컬러값이다. 가장 가까운 4개 포인트를 평균내려면 필터계수가 α j = 1/4, j=1..4이다. Is the color value of the captured image near the center. To average the four nearest points, the filter coefficient is α j = 1/4 and j = 1..4.
최종결과가 식 25에서 구한 그리드 데이터이다. 여기서, (i) 컬러왜곡이 공간좌표를 바꾸지 않으므로 도메인 좌표만 필요하고; (ii) 영상이 화면(16) 안에 있으면서 기하학적 왜곡이 없으므로 미싱 데이터가 없으며; (iii) 기하학적 수정을 하지 않으므로 센서 왜곡을 계산하고 연계를 할 필요가 없다.The final result is the grid data obtained from Equation 25. Here, (i) only the domain coordinates are needed because the color distortion does not change the spatial coordinates; (ii) there is no missing data because the image is in
사용되는 센서의 종류와 캡처한 데이터의 포맷에 따라, 컬러 공간변환을 하여 컬러데이터를 디스플레이의 컬러공간에 가져와야 한다. 예를 들어, 분광기는 색의 값의 관점에서 데이터를 주지만 디스플레이 장치와 프로세서(프로세서)는 RGB 값이 필요하다. 컬러변환은 행렬곱이나 더 복잡한 비선형 방정식을 통해 이루어진다. 컬러 공간변환에는, 원색 전체의 그리드 데이터가 사용된다. 일반적으로, 이 변환은 식 28과 같은 형태를 취한다.Depending on the type of sensor used and the format of the captured data, color space conversion must be performed to bring the color data into the color space of the display. For example, spectrometers give data in terms of color values, but display devices and processors (processors) require RGB values. Color conversion is accomplished through matrix multiplication or more complex nonlinear equations. For color space conversion, grid data of the entire primary colors is used. In general, this transformation has the form
컬러왜곡이 없으면, 정해진 컬러의 테스트패턴에 대해 좌표 (x 0 i ,y 0 i )전체의 컬러값을 상수 C'0 k 로 측정해야 한다. 측정된 상수는 원래의 상수 화소값 C 0 k 와 다를 수 있다. 대부분의 디스플레이는 측정된 값과 원래의 값이 비례하고, 비례상수 λ는 컬러왜곡이 없을 때는 일정하고 컬러왜곡이 있을 때는 공간적으로 변한다. 따라서, 디스플레이의 컬러왜곡 맵을 식 29와 같이 표현할 수 있다.In the absence of color distortion, the color values across the coordinates ( x 0 i , y 0 i ) should be measured with the constant C ' 0 k for a test pattern of a given color. The measured constant may be different from the original constant pixel value C 0 k . In most displays, the measured and original values are proportional, and the proportional constant λ is constant in the absence of color distortion and spatially changes in the presence of color distortion. Therefore, the color distortion map of the display can be expressed as in Equation 29.
일반적으로, 입력값과 측정된 컬러값은 식 30과 같이 벡터 의 항으로 주어지는 공지의 디스플레이 컬러함수 f 1 으로 표현된다.In general, the input and measured color values are vectors such as It is represented by the known display color function f 1 given by the term
컬러왜곡이 없으면 이 공간적으로 변한다. 식 31과 같이 데이터를 분석하면 주어진 좌표 (x 0 i ,y 0 i )를 결정할 수 있다.Without color distortion This changes spatially. Analyzing the data as in Equation 31 allows us to determine the given coordinates ( x 0 i , y 0 i ).
좌표마다 충분한 수의 값이 필요하다. 데이터에 맞추면 분석값이 f 1 에 근사해진다. 마찬가지로, 동일한 데이터를 식 32와 같이 역으로 분석하면 f 1 -1 이 계산된 다. You need a sufficient number of values per coordinate. Fit to the data, the analytical value approximates f 1 . Likewise, if the same data is analyzed inversely as in Eq 32, f 1 -1 is calculated.
역함수는 역시 컬러수정인자 에 따라 결정되고, 수정인자는 f 1 의 형태에서 결정되거나, 다항식과 같은 특정 기본함수를 이용해 역함수 데이터에 대입하여 계산된다. 선형 최소자승 고정법의 경우, 인버스 맵이 식 33의 형태를 취한다. The inverse function is also a color correction factor The correction factor is determined in the form of f 1 , or calculated by substituting inverse function data using a particular basic function, such as a polynomial. For linear least-squares fixation, the inverse map takes the form of equation 33.
r=1...R은 인버스 컬러맵을 정의하는 인자의 수이고, Br은 기본함수이다. 중심좌표와 원색마다 인자가 다르다. 대개, f 1 -1 은 프로세서에서 사용하는 표현으로 결정되고, 이는 보통 다항식으로 표현된다. 위의 표현은 경우에 따라 출력에서 오리지널 C0 ik 값을 줄이는데 필요할 수 있으므로 최종적으로 정해진 컬러레벨을 조절하는데 이용된다. 인자를 간단히 축척율로 조정하여 역값을 증감시킬 수 있다. r = 1 ... R is the number of parameters defining the inverse colormap, Br is the base function. Factors are different for central coordinates and primary colors. Usually, f 1 -1 is determined by the representation used by the processor, which is usually represented by a polynomial. The above expression is sometimes used to adjust the final color level, as it may be necessary to reduce the original C 0 ik value in the output. You can increase or decrease the inverse by simply adjusting the factor to scale.
(중심좌표의) 역함수를 알면, 컬러불균일 왜곡을 수정하는 수정 컬러맵은 식 34에 의해 주어진다.Knowing the inverse function (of the center coordinates), a corrected colormap that corrects for color non-uniform distortion is given by Eq 34.
컬러왜곡과 수정의 공간변화를 각각 와 로 설명할 수 있다. 따라서, 수정을 위한 교정데이터 f Wck 는 식 35에 따른 컬러수정인자와 관련된 그리드 데이터를 설명한다.The spatial variation of color distortion and correction Wow This can be explained as Therefore, the correction data f Wck for correction describes the grid data related to the color correction factor according to equation (35).
식 29의 가장 일반적인 케이스에 대해, 식 36이 주어진다.For the most common case of equation 29, equation 36 is given.
위의 그리드는 적당한 보간함수로 리샘플링하면 더 밀집될 수 있다. 기하학적 교정과 비슷하게 새 그리드는 식 37로 주어진다.The grid above can be denser by resampling with an appropriate interpolation function. Similar to the geometric correction, the new grid is given by equation 37.
이것은 교정데이터 생성기(12')의 데이터출력이다.This is the data output of the calibration data generator 12 '.
모든 하위 생성기를 포함한 교정데이터 생성기(12')에서 생긴 완전한 데이터가 식 38로 주어진다.The complete data generated by the calibration data generator 12 'including all subgenerators is given by equation 38.
횡색수차가 없으면, K 그리드 가 동일하여, 하나의 기하학적 교정그리드만이 계산되어 출력된다. 교정데이터는 워프생성기(13)에 입력된다. K grid without lateral chromatic aberration Is the same, only one geometric correction grid is calculated and output. The calibration data is input to the
앞에서 설명한대로, 그리드 데이터는 프로세서에서 직접 사용되지 않는다. 그리드 표현이 가장 일반적인 포맷이기는 해도, 대량의 데이터(모든 화소의 좌표) 저장이 필요하고 (축척 변화와 같이) 쉽게 조작하기 곤란하므로 하드웨어로 구현하는 것은 비효율적이다. 종래에는 룩업 테이블을 사용하기도 하는데, 이 방법이 최적은 아니다. 워프생성기(13)는 식 38에서 구한 그리드 표현을 워프데이터로 변환하고, 워프데이터는 하드웨어에 응용하는데 효율적인 형태로 수정한 것을 표현하기도 한다. 프로세서에서 그리드 데이터를 직접 이용할 수 있으면, 모든 화소에 대해 리샘플링된 그리드를 사용할 수 있고 워프생성기(13)에 의한 워프데이터의 생성은 필요 없다. As mentioned earlier, grid data is not directly used by the processor. Although grid representation is the most common format, it is inefficient to implement in hardware because it requires storing large amounts of data (coordinates of all pixels) and is difficult to manipulate (such as scale changes). Conventionally, lookup tables are used, which is not optimal. The
워프데이터는 프로세서의 데이터조건에 맞게 생성된다. 프로세서는 각종 아키텍처를 이용해 기하학적-컬러 변환을 적용할 수 있는데 대부분 기하학적 수정용 인버스 맵을 이용하고 위의 그리드는 인버스 아키텍처로 설계된다. 미국 특허출원 2006-0050074 A1의 "System and method for representing a general two dimensional transformation"에 소개된 효과적인 전자수정 아키텍처는 그리드 데이터의 선형함수 표현을 기반으로 한다. 워프생성기(13)는 그리드 데이터를 함수 표현으로 바꾼다. 도 11은 워프생성기(13)의 일례를 보여준다.Warp data is generated according to the data conditions of the processor. The processor can apply geometric-color transformations using various architectures, most of which use geometrically modified inverse maps and the grid above is designed with an inverse architecture. The effective electron correction architecture introduced in US Patent Application 2006-0050074 A1, "System and method for representing a general two dimensional transformation", is based on linear function representations of grid data.
2차원 그리드의 일반적 함수표현 (x i ,y i )→u i 를 식 39와 같이 표현한다.The general function expression ( x i , y i ) → u i of a two-dimensional grid is expressed as shown in Equation 39.
39식은 도메인 (x,y)의 2차원 표면함수로서, 기본함수 B i (x,y)(i=1...L)의 선형조합이고 그 계수는 표면계수 a i 이다. 이 계수는 상수로서 도메인에서 변하지 않는다. 기본함수가 선형일 필요는 없고, 그 조합이 선형이면 된다. 경우에 따라, 기본함수가 비선형 함수이므로, 식 39로 표현된 형태는 일반적으로 수정 그리드를 표현하기에 충분하다. 기본함수와 그 갯수는 하드웨어에서 구현되고 평가되므로 프로세서에서 규정된다. 워프생성기(13)는 필요한 계수를 결정한다.Equation 39 is a two-dimensional surface function of the domain (x, y) , which is a linear combination of the basic function B i ( x, y ) ( i = 1 ... L ) and its coefficient is the surface coefficient a i . This coefficient is constant and does not change in the domain. The basic function does not have to be linear; the combination should be linear. In some cases, since the base function is a nonlinear function, the form represented by equation 39 is generally sufficient to represent the correction grid. Basic functions and their numbers are specified in the processor because they are implemented and evaluated in hardware.
일례로, 하드웨어에서 사용된 기본함수는 다항식이다. 2개의 지수를 유도하면 다항형 기본함수와 해당 방정식을 40과 같이 표현할 수 있다.In one example, the basic function used in hardware is a polynomial. By deriving two exponents, the polynomial base function and the corresponding equation can be expressed as 40.
기본함수를 알고 있으므로, 결정하고 저장할 새 데이터는 표면계수 a i 의 집합이다. 표면 표현으로 된다는 것은 식 41과 같이 그리드 값에서 표면계수로 바뀐다는 것이다.Since we know the basic function, the new data to be determined and stored is a set of surface coefficients a i . To be a surface representation is to change from a grid value to a surface coefficient, as in Equation 41.
이 표현의 효율은 각 화소마다 그리드 값을 저장해야 할 경우 표면계수로 인해 화소 집합에 대한 그리드 값의 계산을 할 수 있다는 사실에서 위의 표현이 효율적임을 할 수 있고; 따라서 저장해야 할 표면계수의 수가 비교적 훨씬 적어진다.The efficiency of this representation can be said to be efficient in the fact that it is possible to calculate the grid value for a set of pixels due to the surface coefficient when grid values are to be stored for each pixel; Therefore, the number of surface coefficients to be stored is relatively much smaller.
원래의 그리드 값이 얼마나 정확히 표현되는지 계수의 갯수가 결정한다. 계수의 갯수를 늘리면, 즉 기본함수를 더 많이 사용하면 정확도가 높아진다. 한편, 도메인을 여러개의 패치로 나누고 패치마다 표면함수를 달리 사용하면 적은 수의 기본함수를 사용해도 된다. 패치의 구조는 디스플레이 왜곡의 정도에 맞게 형성된 다. 이 방식에 의하면 조합 표면의 복잡도를 왜곡에 맞게 하는 융통성을 키울 수 있다. 예를 들어, 왜곡이 복잡할수록 사용되는 패치도 많아진다. 패치 p=1...P의 계수는 a p ij 이다. 완벽한 표면은 식 42와 같은 형태를 취한다.The number of coefficients determines how accurately the original grid values are represented. Increasing the number of coefficients, that is, using more basic functions, improves accuracy. On the other hand, if you divide a domain into several patches and use different surface functions for each patch, you can use fewer basic functions. The structure of the patch is adapted to the degree of display distortion. This approach increases the flexibility to adapt the complexity of the combination surface to distortion. For example, the more complex the distortion, the more patches are used. The coefficient of the patch p = 1 ... P is a p ij . The perfect surface takes the form of Equation 42.
전체 출력영상(도메인)에 상당하는 단일 패치에 단일 표면이 대응한다. 도 12에 패치의 분할예가 도시되어 있다.A single surface corresponds to a single patch corresponding to the entire output image (domain). An example of division of a patch is shown in FIG.
패치의 분할은 16개 패치의 4x4 대칭배열과 같은 시작 구성으로 초기화될 수 있다. 패치의 배열(즉, 패치의 갯수와 패치의 경계)을 패치 경계 D라 하고, 이것은 식 43의 형태를 취한다.The partitioning of a patch can be initiated with a starting configuration such as a 4x4 symmetric array of 16 patches. The array of patches (i.e. the number of patches and the boundaries of the patches) is called patch boundary D , which takes the form of equation 43.
패치형상이 정해지면, 식 38에 따른 데이터의 선형 최소자승 고정법을 이용해 계수를 계산한다. 이 고정법은 패치 경계에서 표면이 연속됨을 보장해야 한다. 표면이 결정되면 오차분석을 하여 그리드 값을 계산값과 비교한다(식 44 참조).Once the patch shape is established, the coefficients are calculated using the linear least squares fixation of the data according to equation 38. This fixation should ensure that the surface is continuous at the patch boundary. Once the surface is determined, error analysis is performed to compare the grid value with the calculated value (see Eq. 44).
오차값을 허용레벨 E max 와 비교한다. 최대오차가 허용레벨보다 작거나 같으면, 즉 max(Error i )≤E max 이면, 표면계수가 제한되고 워프데이터로서 워프생성기(13) 에서 출력된다. 최대오차가 더 크면, 패치가 더 분할되고 계수를 더 계산분석한다. Compare the error value with the allowable level E max . If the maximum error is less than or equal to the allowable level, that is, max ( Error i ) ≦ E max , the surface coefficient is limited and output from the
식 38의 표면은 식 45와 같이 표현된다.The surface of equation 38 is represented by equation 45.
그리드 표현의 (i,j)는 더이상 필요치 않은데 이는 함수 형태가 전체 공간에 대해 정의되고 좌표집합 각각에 대해서는 정의되지 않기 때문이다. (i,j)는 이제 지수함수를 제시하거나, 기본함수를 확인한다. 표면은 도메인 좌표가 있는 패치에 대해 평가된다. 패치의 배열과, 기분함수의 갯수는 원색마다 다르다. 예를 들어 패치 하나의 기본함수를 변화시키면 위의 포맷을 더 바꿀 수 있다. 기하학적 수정을 위한 도메인공간은 (x,y)로서 (역구조내의) 출력 영상공간에 해당하며, 범위공간은 (u,v)로서 입력 영상공간에 해당한다.The grid representation (i, j) is no longer needed because the function form is defined for the whole space and not for each of the coordinate sets. (i, j) now gives an exponential function or checks the base function. Surfaces are evaluated against patches with domain coordinates. The array of patches and the number of mood functions vary for each primary color. For example, changing the basic function of a patch can change the format above. The domain space for geometric correction is (x, y) and corresponds to the output image space (in the inverse structure), and the range space is (u, v) to correspond to the input image space.
컬러 수정을 위해, 도메인공간을 (u,v)로 고쳤다. 컬러 수정은 기하학적으로 올바른 영상에 대해 한다. 즉, 좌표공간 (u,v)을 갖는 입력영상을 워핑하여 형상수정을 하기 전에 컬러수정을 해야만 함을 의미한다. 영상을 워핑하여 형상수정을 한 뒤 프로세서에서 컬러수정을 하면, 수정을 하는 새로운 배열을 위해 위의 계수를 조절해야 하는바, 재배열 단계가 필요하다. 이 경우, 컬러인자를 (x,y) 공간에 정의한다. 먼저 46 식과 같이 위의 표면에서 (x,y) 공간에 새로운 그리드 를 구할 수 있다. For color correction, the domain space is fixed to (u, v). Color correction is done for geometrically correct images. This means that color correction must be performed before shape correction by warping the input image having the coordinate space (u, v). After warping the image and modifying it in the processor, you need to adjust the above coefficients for the new array to be corrected. In this case, color factors are defined in the (x, y) space. First the new grid in (x, y) space from the surface above as shown in equation 46 Can be obtained.
이 그리드를 앞서 설명한대로 고정하고 계수를 계산하되, 이제 도메인공간은 출력 영상공간이다. 컬러수정 표면계수에도 같은 표현을 이용한다. 이런 재배열된 그리드에 대해 오차분석을 이용한다.Fix this grid as described earlier and calculate the coefficients, but now the domain space is the output image space. The same expression is used for color correction surface coefficients. Error analysis is used for these rearranged grids.
워프생성기(13)의 최종 출력은 워프데이터를 총체적으로 형성하는 (필요시 배열 조절된) 식 47의 계수 집합이다.The final output of
D k 는 원색 k의 패치형상을 규정하는 모든 정보를 포함한다. (a,b) 데이터는 기하학 워프 데이터나 변환으로서 타입 1~4의 왜곡을 수정하는 것이고, 벡터 c는 타입 5의 왜곡을 수정하는 컬러워프나 변환이다. D k contains all the information that defines the patch shape of the primary color k . ( a, b ) The data is a geometric warp data or transformation that corrects distortions of
디지털 워핑부(15)는 프로세서로서 시스템의 프로세서로 작용한다. 본 명세서에서는 프로세서가 디지털 워핑부와 혼용되어 사용된다. 실제로는 디지털 워핑부(15)가 워프데이터를 디지털 입력영상(비디오)에 적용하여 입력영상을 미리 왜고시키거나 워핑한다. 입력영상은 공간적으로 및 컬러 둘다 워핑된다. 공간워핑은 기하학적 워프에 맞게, 컬러워핑은 컬러워프에 맞게 이루어진다. 사전왜곡은 디스플 레이 왜곡을 상쇄하는 것으로서, 화면(16)에 무왜곡 영상을 표시한다. The
형상-컬러 불균일을 수정하는 디지털 워핑부(15)의 일례가 도 13에 도시되었다. 디지털 워핑부(15)는 기하학적 워핑을 하는(즉, 입력영상을 기하학적으로 워핑하는) 첫번째 블록과, 컬러 불균일을 수정하기 위해 컬러공간의 입력영상만을 워핑하는 두번째 블록을 포함한다. 여기서 컬러수정은 기하학적 수정 이후에 일어나지만, 이 설명은 역배열에도 쉽게 적용된다. 특정 수정이 불필요할 때는 2개 블록을 모두 우회할 수 있다. 블록 각각 2개 요소를 갖는다. 각각의 원색에 대해 각각의 화소(x i , y i )에서 식 45로 정의된 표면다항식을 평가해 필요한 좌표 를 만드는 표면평가요소와, 실제로 필요한 좌표를 사용해 화소 컬러값 C i 를 계산하는 화소생성요소가 이것이다. 형상 수정을 위한 화소 생성은 필터링 단계인데, 여기서는 미리 계산된 계수 w j (j=1...W)를 갖는 필터를 처리중인 현재 화소 (u i , v i )의부근화소에 적용한다. An example of the
경우에 따라, 필터계수를 시스템 밖에서 계산하고 디지털 워핑부(15)에 적용하기도 한다. 컬러불균일 수정을 위해, 기하학적으로 워핑된 영상에서 화소값을 취하고 식 33을 이용해 새로운 컬러값을 결정한다. 화소 생성단계는 48로 요약된다.In some cases, the filter coefficient may be calculated outside the system and applied to the
원색 각각에 대해 이런 단계를 실시한다. 는 형상수정을 한 뒤의 중간 컬러값을 나타낸다.Perform these steps for each primary color. Represents the intermediate color value after shape correction.
필터링 및 컬러 수정방정식의 세부사항은 하드웨어의 구조에 좌우된다. 간단한 필터는 w j =1/4인 경우의 4개 부근 포인트들을 평균내는 것이다. 복잡한 필터는 타원형을 사용하는 것으로서, 그 형상은 표면의 야코비 행렬식에 좌우되고 필터계수는 필터생성 알고리즘을 이용해 구할 수 있다. 이 경우, 야코비 행렬식을 추정하는데 부근 좌표 가 필요하다. 마찬가지로, 간단한 컬러수정은 식 49와 같은 선형수정만 이용한다.The details of the filtering and color correction equations depend on the architecture of the hardware. A simple filter is to average four near points when w j = 1/4. Complex filters use ellipses, the shape of which depends on the Jacobian determinants of the surface, and the filter coefficients can be obtained using filter generation algorithms. In this case, the neighborhood coordinates are used to estimate the Jacobian determinant. Is needed. Similarly, simple color correction uses only linear correction as shown in equation 49.
한편, 50과 같은 입체 다항식을 이용하는 복잡한 컬라수정을 하기도 한다.On the other hand, complex color correction using a three-dimensional polynomial such as 50 is sometimes performed.
디지털 워핑부(15)의 구조를 알면 컬러인자 와 표면계수가 계산된다.Knowing the structure of the
디지털 워핑부(15)의 최종 결과는 식 (1)에서 수학적으로 설명되는 수정이고, 이 식은 모든 원색성분을 표시하는데 사용되는 벡터 표현을 이용해 밑의 식 (51)로 변환된다.The final result of the
워핑되거나 사전보상된 출력영상을 디스플레이 장치에 입력하고, 왜곡 없게 화면(16)에 투사하여, 자동 교정과 수정을 끝낸다. 일단 교정과 수정 과정을 끝내면, 정상(테스트패턴 아님) 영상과 비디오를 디스플레이 장치에 보낼 수 있다.The warped or pre-compensated output image is input to the display device and is projected onto the
멀티컬러 기하 교정과 수정은 횡색수차 수정에서 같이 설명한바 있다. 그러나, 주요 성분들이 기하학적으로 왜곡된 모든 왜곡을 교정 및 수정하는데에도 이용될 수 있다. 다른 경우로는 배면 투사장치의 새시나 하우징에 대해 또는 서로에 대해 배치된 여러 마이크로-디스플레이 장치로 인한 광학성분의 오정렬에 기인한 왜곡과, 컬러성분마다 배율이 다른데서 기인한 왜곡이 있다. Multicolor geometry corrections and corrections have been described together in Lateral Chromatic Aberration Correction. However, the main components can also be used to correct and correct all geometrically distorted distortions. Other cases include distortion due to misalignment of optical components due to the chassis or housing of the rear projection apparatus or due to the various micro-display devices arranged with respect to each other, and distortion due to different magnifications for each color component.
프로젝션 장치에서는 기하학적으로 수정된 영상에 대해 색의 교정과 수정을 한다. 즉, 색 교정은 기하학적 워핑 자체에 의한 모든 불균일을 고려한다. 기하학적으로 워핑된 영상은 축척/필터링 과정으로 인해 부분부분마다 색이나 휘도가 다를 수 있다. 실제, 축척율이 클수록 휘도와 컬러의 변화가 심하다. 이것은 기하학적 워핑 이후 컬러수정을 하면 자동으로 보상된다. 따라서, 이 시스템은 기하학적 워핑과정으로 인한 컬러불균일을 자동으로 보상한다.In the projection apparatus, color correction and correction are performed on geometrically corrected images. That is, color correction takes into account all the nonuniformities due to geometric warping itself. Geometrically warped images may differ in color or luminance from part to part due to the scaling / filtering process. In fact, the larger the scale factor, the more severe the change in luminance and color. This is automatically compensated for by color correction after geometric warping. Thus, the system automatically compensates for color irregularities due to geometric warping.
이 시스템을 단일 회로 안에 설치하여 디지털 교정/워핑을 하기도 한다. 교정데이터/워프 생성기(12,13)는 임의의 프로세서에서 실행되는 요소이다. 테스트영상 생성기(14)는 프로세서에서 출력되는 저장영상 집합으로 교체될 수 있다. 하드웨어에 내장된 프로세서를 이용하면 전체 교정/수정 과정에 대한 단일 회로 솔루션이 제공된다. 또, 이 하드웨어를 카메라와 같이 디스플레이 장치 내부에 설치하여 자가교정 디스플레이 장치를 얻을 수도 있다. 이 경우, 영상센서로부터 감지된 정보를 받아 디스플레이 왜곡을 계산하고, 사전보상 맵인 워프맵이나 컬러맵을 만들며, 사전보상 맵을 입력 영상데이터에 적용하여 화면에 왜곡이 없는 영상을 보이도록 하는데 겨우 하나의 프로세서만 필요하다. 그러나, 어떤 경우에는 프로세서를 하나 이상 사용하는 것이 효율적일 수 있다. 따라서, 이상 설명한 실시예를 구현하는데는 하나 이상의 프로세서가 필요하다.The system can also be installed in a single circuit for digital calibration / warping. Calibration data /
(카메라를 대신하거나 함께 사용되는) 디스플레이 장치에 센서(11)로 사용되는 여러 종류의 센서를 설치할 수 있다. 일례로, 도 14와 같이, 센서(143)는 카메라(142)와 함께나 별도로 사용되어 화면(141)상의 포인트의 거리를 측정하는 거리 센서가다. 이 화면은 평면일 필요는 없다. 측정된 거리와 이들 감지된 거리 사이의 각도로부터, 카메라(142)와 화면(141)의 상대각도를 계산한다. 또, 스크린의 형상도 (평면이 아니면) 이 방법으로 계산할 수 있다. 도 14의 경우, 스크린의 우측의 라인이 더 밀집된 것은 센서(143)가 스크린에 직각에 가깝게 있음을 나타내고, 좌측의 라인이 덜 밀집된 것은 직각에서 멀리 있음을 의미한다. 적외선 센서를 포함한 여러가지 센서(143)를 사용할 수 있다. 본 실시예에서, 디스플레이 스크린(즉, 화면(141))을 그리는데 물리적 구조는 필요 없고, 카메라(142)는 임의로 배치할 수 있다.Various types of sensors used as the
또, 동적 교정과 수정을 하는 자가교정 디스플레이 장치도 있는데, 이 경우 외부자원 없이도 교정-수정 과정을 언제라도 운용하여 왜곡을 수정할 수 있다. 이렇게 되면, 프로젝터의 키스톤왜곡이나 RPTV와 같은 배면 투사장치의 필드교정과 같이 시간에 따라 변하는 왜곡을 수정할 수 있다. 수정시스템을 RPTV의 하우징이나 새시 안에 배치하여 자가교정을 하도록 한다. 시간이 갈수록 변하는 다른 중요한 왜곡은 물리적 이동, 노후, 온도로 인한 광학성분의 변화이다. 예를 들어, 배면 투사장치에서는 거울의 중량이나 온도로 인해 거울의 곡률이 약간 변할 수 있는데, 이 경우 동적인 교정과 수정이 필요하다. 디스플레이 장치를 작동시키거나 왜곡의 변화를 감지했을 때, 교정-수정 시스템이 작동된다. In addition, there is a self-calibration display device that performs dynamic correction and correction, in which case the distortion can be corrected at any time by operating a correction-correction process without external resources. This allows correction of time-varying distortions such as keystone distortion of the projector or field calibration of rear projection devices such as RPTV. The correction system is placed in the housing or chassis of the RPTV for self-calibration. Other important distortions that change over time are optical shifts due to physical shifts, aging, and temperature. For example, in a rear projection device, the curvature of the mirror may change slightly due to the weight or temperature of the mirror, which requires dynamic correction and correction. The calibration-correction system is activated when the display device is activated or a change in distortion is detected.
동적 교정과 수정은 TV와 같이 고정식 디스플레이 장치의 필드에 특히 중요한데, 여기서 센서는 없을 수도 있다. 처음 교정과 수정을 한 뒤 생기는 왜곡은 시간에 따른 작은 성분 변화로 인한 것이다. 제조업자가 디지털 워핑부를 이용해 시간에 따라 필드에서 예상되는 다양한 왜곡(i=1...N)을 시뮬레이션할 수 있다. 이런 왜곡은 전술한 실시예에서 설명한 시스템들을 이용해 수정-교정될 수 있지만, 2개의 프로세서를 사용해 하나는 왜곡을 시뮬레이션하고 나머지는 자동으로 생기는 수정데이터를 테스트한다. 이들 N 테스트 케이스들을 수정하기 위한 워프데이터를 디스플레이 장치에 저장할 수 있다. 시간이 갈수록 작은 왜곡이 N 워프 수정에서부터 발전하므로, 왜곡을 가장 잘 수정하는 것을 선택한다. 따라서, 완벽한 시스템이 필요한 것은 아니고, 제조과정중에 교정이 이루어지고 N개의 수정데이터 집합이 디스플레이 장치에 저장되므로, 디스플레이 장치에 디지털 워핑부 하나만 설치하면 된다. 적당한 수정데이터 선택을 자동화하기 위해, 디스플레이 틀에 있는 센서를 사용해 특수한 테스트패턴을 감지한다. 따라서, 왜곡의 최적 검출을 위한 영상 테스트패턴이 로딩된다. 이 과정은 동적 수정과 교정을 하기 위해 디스플레이 장치를 작동시켰을 때 운요될 수 있다.Dynamic calibration and correction are particularly important in the field of fixed display devices such as TVs, where sensors may not be present. The distortion that occurs after the initial calibration and correction is due to small component changes over time. Manufacturers can use digital warping to simulate the various distortions ( i = 1 ... N ) expected in the field over time. This distortion can be corrected-corrected using the systems described in the above embodiments, but using two processors, one simulates the distortion and the other automatically tests the correction data. Warp data for modifying these N test cases can be stored on the display device. Over time, small distortions develop from the N warp correction, so choose the one that best corrects the distortion. Therefore, a complete system is not required, and since calibration is performed during the manufacturing process and N correction data sets are stored in the display device, only one digital warping unit needs to be installed in the display device. To automate the selection of the corrected data, a sensor in the display frame is used to detect specific test patterns. Thus, an image test pattern for optimal detection of distortion is loaded. This process can be carried out when the display device is operated for dynamic correction and calibration.
도 15, 16을 보면, 교정시스템이 화면상의 최적의 프로젝터 촛점을 찾는다. 이 작업은 특정 갯수의 평행선 집합과 같은 테스트패턴을 화면에 나타내서 이루어진다. 이어서 영상을 캡처하고 프로세서로 스캔하여 테스트패턴에서 명암 콘트라스 트를 찾는다. 프로젝터 촛점을 변위시키면서 콘트라스트를 재측정하되, 최대 콘트라스트를 찾을 때까지 계속한다. 최대 콘트라스트는 베스트 촛점에 해당한다. 화면(151)은 촛점상태가 나쁜 것이고 화면(161)은 촛점상태가 좋은 것이다. 이 기법을 센서로 촛점을 찾는데에도 이용할 수 있다. 화면의 틀과 같이 에지가 선명한 물리적 마커를 캡처한 다음 최대값 콘트라스트 분석을 한다. 필요하다면, 적절한 컬러의 테스트패턴을 디스플레이하여 마커와 배경 사이의 콘트라스트를 보강한다. 센서의 촛점을 변위시키면서 콘트라스트를 재측정한다. 최대값 콘트라스트가 정해지면 베스트 촛점이 된다. 디스플레이 장치보다 먼저 센서의 촛점을 맞춘다. 15 and 16, the calibration system finds the best projector focus on the screen. This is done by displaying a test pattern such as a certain number of parallel lines on the screen. The image is then captured and scanned by the processor to find contrast in the test pattern. Re-measure the contrast while displacing the projector focus, but continue until you find the maximum contrast. Maximum contrast corresponds to the best focus. The screen 151 has a poor focus state and the screen 161 has a good focus state. This technique can also be used to focus on sensors. Capture physical markers with sharp edges, such as the frame of a screen, and then perform maximum contrast analysis. If necessary, display a test pattern of appropriate color to reinforce the contrast between the marker and the background. Measure the contrast again while displacing the sensor's focus. Once the maximum contrast is established, it is the best focus. Focus the sensor before the display device.
한편, 도 17, 18의 교정시스템은 스크린(171,181)이 곡면이고 프로젝터(1~3)가 여러대인 디스플레이 장치에 사용된다. 이 프로젝터는 곡면 스크린(171,181)의 전 영역을 커버하고 동일한 전자장치의 제어를 받는다. 각각의 프로젝터(1~3)에 대해 기하학적 교정을 하여, 스크린(171,181)의 각 영역에 매핑한다. 또, 기하학적 교정을 통해 프로젝터 영상을 회전 및 전진시켜 인접 영상에 조합한다. 특히, 겹쳐지는 부분에서는 화소들이 겹쳐진다. 프로젝터(1~3)에서 스크린(171,181)에 매핑하면 스크린(171,181)이 곡면이어서 입사각이 서로 다르면서 가변적이다. 곡면스크린(171,181)의 맵을 갖거나 구하는 전자장치는 워프데이터로 표현된대로 스크린(171,181)을 가로질러 각도변화를 수정한다.On the other hand, the calibration system of Figs. 17 and 18 is used in a display device in which the
기하학적 교정 외에도, 모든 프로젝터 영역에서 컬러 특징들이 시각적으로 동일하게 되도록 프로젝터(1~3)의 컬러교정을 한다. 전자장치는 프로젝터(1~3) 사이의 화소 컬러와 휘도를 나누어 곡면스크린(171,181)에서 균일한 휘도-컬러 매핑 을 이루도록 한다. 명심할 것은, 프로젝터의 갯수는 몇개라도 되며 여러 프로젝터들이 겹치는 부분을 공유하면서도 교정법이 동일하다는 것이다.In addition to geometric correction, color correction of the
곡면스크린에 투사할 때 촛점이 항상 문제이다. 프로젝터는 평면 촛점면을 갖지만 스크린은 곡면형이어서, 스크린의 부분부분이 촛점면에서의 거리가 각각 다르다는 사실로부터 이런 문제가 생기는 것이다. 스크린의 어떤 부분에서는 다른 부분보다 영상의 촛점이 더 잘 맺힌다. 하나의 프로젝터를 사용하면서 이런 문제를 극복하기 위해, 디포커싱을 최소화하는 기법을 이용하는데, 그 일례가 도 19이다. 이 경우, 곡면스크린(191)에서부타 촛점면(193)RK지의 수직선의 제곱거리의 합이 최소가 되도록 교정시스템을 배치한다. 스크린 중심에 촛점이 더 잘 맺히도록 하려면, 스크린의 중심부를 촛점면에 연결하는 구간에 가중치를 더 부여한다.Focus is always a problem when projecting onto curved screens. This problem arises from the fact that projectors have a planar focal plane but the screen is curved, so that parts of the screen have different distances from the focal plane. In some parts of the screen the image is more focused than in others. In order to overcome this problem while using one projector, a technique of minimizing defocusing is used, an example of which is FIG. 19. In this case, the calibration system is arranged such that the sum of the squared distances of the vertical lines of the other focal plane 193RK paper on the
이 경우, 스크린의 공지의 형상을 기반으로 최적의 촛점면을 미리 계산할 수 있다. 최적 촛점면과 스크린을 교차시키면 영상의 촛점이 최적인 포인트가 스크린에 생기고 이곳에서 콘트라스트는 최대로 된다. 최적의 평면과 최대 콘트라스트 포인트를 계산해서 알면, 도 16에서 사용한 것과 비슷한 영상 테스트패턴을 스크린에 투사한 다음, 영상을 캡처하여 콘트라스트를 분석한다. 캡처한 영상의 콘트라스트가 최대인 위치가 앞에서 결정된 최대 콘트라스트 포인트와 허용한도내에서 일치하면, 투사된 영상이 최적 촛점면에 맺히게 된다. 최대 콘트라스트 포인트가 앞에서 결정된 최대 콘트라스트 포인트와 일치하지 않으면, 일치할 때까지 프로젝터 촛점을 계속 조정한다. 이 기술을 1차원적으로 곡면인 스크린(원통형, 곡률이 0)과 2차원적으로 곡면인 스크린(구형, 곡률이 0이 아님)에 응용할 수 있음을 알아야 한다.In this case, the optimal focal plane can be calculated in advance based on the known shape of the screen. Intersecting the screen with the optimal focal plane results in the best point on the screen where the contrast is maximized. By calculating the optimal plane and the maximum contrast point, an image test pattern similar to that used in FIG. 16 is projected onto the screen, and then the image is captured to analyze the contrast. If the position where the contrast of the captured image is maximum coincides with the maximum contrast point determined previously, within the allowable limit, the projected image is brought to the optimum focal plane. If the maximum contrast point does not match the maximum contrast point determined previously, continue adjusting the projector focus until it matches. It should be noted that this technique can be applied to screens that are one-dimensionally curved (cylindrical, zero curvature) and screens that are two-dimensionally curved (spherical, non-zero curvature).
도 20에서는, 전술한 교정문제 외에도, 각도가 각각인 여러 프로젝터에서 영상을 투사하여 촛점문제를 해결한다. 도시된 바와 같이, 곡면스크린(201)의 각각의 영역에 각각 다른 프로젝터를 배치하여 디포커싱 문제를 상당히 해결한다. 각각의 투사축이 해당 스크린 부분에 거의 수직이 되도록 하고 각각의 촛점면이 이 부분의 중심에서 접하도록 각도를 배치한다. 구간별 촛점을 최적화하기 위해, 도 19에서 설명한 것과 같은 기법을 이용한다. 한편, 구간별 중심이 스크린에 대한 탄젠트를 유지하도록 할 수도 있다. 이 경우, 여러 프로젝터의 중복영역의 촛점은 물론 화소형상, 휘도 및 컬러에 교정시스템을 일치시켜 매끄럽고 이음매가 없는 영상이 스크린(201)에 촛점을 맺도록 한다. 결과적으로, 촛점면과 스크린 탄젠트가 이루는 각도가 감소되므로 워핑은 훨씬 감소된다. In FIG. 20, in addition to the above-described calibration problem, the problem of focusing is solved by projecting an image from several projectors each having an angle. As shown, different projectors are placed in each area of the curved screen 201 to significantly solve the defocusing problem. Position each projection axis nearly perpendicular to the screen portion and angle each focal plane to the center of this portion. In order to optimize the focus for each section, a technique as described in FIG. 19 is used. Meanwhile, the center of each section may maintain the tangent to the screen. In this case, the correction system is matched to the pixel shape, luminance and color as well as the focus of overlapping areas of the various projectors so that a smooth and seamless image is focused on the screen 201. As a result, the warping is much reduced since the angle between the focal plane and the screen tangent is reduced.
다수의 컬러 형상을 위해 센서를 교정하는 시스템에 대해 설명했다. 마찬가지로, 이 시스템은 센서의 (비기하학적) 컬러왜곡을 교정하는데 사용될 수 있다. 교정/수정된 디스플레이 장치를 이용해, 고정된 컬러패턴을 스크린에 표시하고 센서로 기록했는데; 디스플레이 컬러왜곡을 교정하는데 사용된 것과 동일한 패턴을 사용할 수 있다. 원래의 컬러값을 알면 카메라의 컬러맵을 식 25에서 얻을 수 있다. 이 컬러맵에서, 카메라의 컬러수정인자 를 결정할 수 있는데, 컬러왜곡이 있으면 컬러수정인자가 공간적으로 변한다. 이 수정 모델은 예컨대 선형의 최소제곱 고정모델일 수 있다. 수정인자는 전적으로 카메라의 컬러왜곡에 대비한 교정데이터라는 특징을 갖는다.A system for calibrating sensors for multiple color shapes has been described. Likewise, this system can be used to correct (non-geometric) color distortion of the sensor. Using a calibrated / corrected display device, a fixed color pattern was displayed on the screen and recorded by the sensor; You can use the same pattern used to correct display color distortion. Knowing the original color values, the camera's color map can be obtained from Eq 25. The color correction factor of the camera in this colormap If there is color distortion, the color correction factor changes spatially. This modified model may for example be a linear least square fixed model. Modifiers are characterized entirely by calibration data against camera color distortion.
원색과 휘도의 관점에서 컬러수정을 제시했다. 이 시스템으로 임의의 컬러의 수정이나 조절도 할 수 있다. 테스트패턴이나 다양한 컬러(단순히 원색이나 회색이 아님)를 사용해 식 31과 비슷하게 디스플레이의 컬러맵도 구할 수 있는데, 이 관계가 식 52로 표시되었다.Color correction is presented in terms of primary colors and luminance. The system can also correct or adjust any color. Using a test pattern or a variety of colors (not just primary or gray), a color map of the display can also be obtained, similar to Eq. 31, which is represented by Eq. 52.
는 컬러의 벡터로서 모든 성분을 갖는다. 사용된 컬러 집합은 전체 컬러공간에서 벡터를 정기적으로 샘플링하면서 선택할 수 있다. 인버스 맵은 식 53으로 표현된다. Has all components as a vector of color. The color set used can be selected by regularly sampling the vector over the entire color space. The inverse map is represented by equation 53.
컬러인자는 길이 K(원색의 수)의 벡터이다. 이전의 표시에서는:The color factor is a vector of length K (number of primary colors). In the previous display:
그러나, 이것은 컬러인자를 하나의 식으로 단순히 재배열한 것이 아는데, 이는 기본함수가 이제 전체 컬러공간에서 정의되지 단순히 1차원 컬러공간(즉, 하나의 원색)에서는 정의되지 않기 때문이다. 다항식 형태의 기본함수가 식 55이다.However, this is not simply a rearrangement of the color factors in one way, since the base function is now defined in the entire color space but not simply in the one-dimensional color space (ie one primary color). The basic function of the polynomial form is Eq 55.
식 56과 같이 컬러공간에 K차원 패치구조를 Q 패치와 함께 유도하면 λ를 더 일반화할 수 있다.By inducing the K- dimensional patch structure with the Q patch in the color space as shown in Equation 56, λ can be generalized.
이 식은 식 57과 같이 컬러인자에 인덱스를 더한다.This expression adds an index to the color factor, as shown in equation 57.
이 식은 모든 공간 그리드 포인트(형상의 중심)에서 컬러공간에 일반변환을 제공한다. 이런 교정 컬러데이터를 이제 식 58로 정의한다.This equation provides a general transformation to the color space at all spatial grid points (center of the shape). This calibration color data is now defined by equation 58.
왜곡이 없으면, 이 그리드가 모든 좌표에서 동일할 것이다. 워프생성기는 이것을 식 59에서 정의된 형태를 갖는 표면함수로 변환한다.Without distortion, this grid would be the same at all coordinates. The warp generator converts this to a surface function with the shape defined in equation 59.
끝으로 디지털 워핑부에서 이 다항식을 계산하고 식 53을 이용해 컬러수정을 한다.Finally, the polywarping unit calculates this polynomial and corrects the color using Equation 53.
공간좌표마다 일반 컬러맵이 있으면, 어느 좌표에서 어떤 컬러도 수정할 수 있다. 디스플레이의 각 구역에 대한 백색 포인트 조절, 콘트라스트 조절, 색조 조절과 같은 공통 컬러조절도 할 수 있다. 이들 모든 조절은 컬러공간에서 하는 기능이므로 함수 근사법을 통해 식 53에 의해 일반 형태로 가능하다. 컬러공간의 패치분할을 통해 선택적 컬러수정도 가능하지만, 특정 컬러에 한정되고, 수정할 컬러패 치 외의 그리드를 동일하게 하여 나머지 컬러는 그대로 둔다. 물론 선택적 색조 수정도 가능하지만, 특정 색조만 수정하고 나머지 색조는 그대로 둔다. 본 시스템의 일반 컬러교정과 수정을 이용하면, 디스플레이 장치의 컬러 정확도를 높일 수 있다.If you have a normal colormap for each spatial coordinate, you can modify any color in any coordinate. Common color adjustments, such as white point adjustment, contrast adjustment, and hue adjustment, can also be made for each zone of the display. All of these adjustments are done in the color space, so a function approximation is possible in general form by equation 53. Selective color count is also possible through patch division of the color space, but it is limited to a specific color, and the rest of the colors are left as it is with the same grid except the color patch to be modified. Of course, selective hue correction is also possible, but it only modifies certain hue and leaves the rest. By using the general color correction and correction of the system, it is possible to increase the color accuracy of the display device.
이 시스템은 유저설정 컬러인자 를 통해 유저가 컬러를 조절케 할 수도 있는데, 이 컬러인자는 시스템 외부에서 계산되고 워프생성기(13)에 입력된다. 마찬가지로, 유저설정 기하학 인자 를 워프생성기(13)에 제공하면 유저설정 기하학적 효과(특수한 효과)를 얻을 수 있다.This system uses custom color parameters The user may adjust the color through the color factor, which is calculated outside the system and input into the
도 21의 실시예에서는 2대의 카메라(Cm1,Cm2)를 한대의 프로젝터(213)에 설치했다. 입력영상이 프로젝터(213)에 공급되면, 화면(211)에 영상패턴이 투사된다. 2대의 카메라(Cm1,Cm2)를 사용해 화면(211)에 투사된 영상패턴을 캡처한다. 이 시스템은 프로세서를 더 구비하는데, 이에 대해서는 도시되지는 않았지만 앞에서 설명하였다. 2대의 카메라의 프로세서에 대한 상대적 위치는 공지되었다. 2대의 카메라를 수평이나 상하로, 또는 수평과 상하 양쪽으로 프로젝터(213)에 대해 엇갈리게 배치할 수 있다. 2대의 카메라에서 캡처한 2개 영상의 비교를 근거로, 프로세서는 화면(211)에 대한 프로젝터(213)의 각도를 포함한 왜곡인자를 결정한다. 이어서, 프로세서에서 입력영상을 워핑하여 왜곡을 수정한다. In the embodiment of Fig. 21, two cameras Cm1 and Cm2 are installed in one projector 213. When the input image is supplied to the projector 213, an image pattern is projected on the screen 211. Two cameras Cm1 and Cm2 are used to capture the image pattern projected on the screen 211. The system further includes a processor, which has not been shown but described above. The relative position of the two cameras relative to the processor is known. Two cameras can be arranged horizontally or vertically, or staggered with respect to the projector 213 both horizontally and vertically. Based on the comparison of the two images captured by the two cameras, the processor determines a distortion factor including the angle of the projector 213 relative to the screen 211. The processor then warps the input image to correct the distortion.
최종 투사된 영상에는 왜곡이 거의 없다. 이 시스템과 방법을 RPTV에도 적용할 수 있는데, 이 경우 도 22와 같은 고정된 위치와 방향으로 카메라를 RPTV에 설 치하지만, 다르게 설치하는 것도 가능하다. 카메라는 스크린에 투사된 패턴을 캡처한다. 카메라에서 스크린을 보면 키스톤왜곡이 보인다. 그러나, 디스플레이 장치의 일부인 교정시스템을 통해 전술한 바와 같이 자가교정을 할 수 있다.There is little distortion in the final projected image. This system and method can be applied to RPTV. In this case, the camera is installed in the RPTV in a fixed position and direction as shown in FIG. 22, but may be installed differently. The camera captures the pattern projected on the screen. If you look at the screen on the camera, you will see keystone distortion. However, the self-calibration can be performed as described above through the calibration system that is part of the display device.
도 23에서는 3개의 프로젝터(P1~3)를 사용해 곡면스크린(231)에 영상을 투사한다. 또, 프로젝터에서 각각에서 투사한 영상을 카메라(Cm1~3)로 캡처한다. 카메라와 프로젝터의 갯수를 다르게 하는 것도 가능하다. 일례로, 프로젝터(P1~3) 전체에서 영상을 투사하는데 카메라(Cm1~3) 각각을 사용할 수도 있다. 이들 카메라를 서로에 대해 수평으로는 물론 상하로도 엇갈리게 배치한다. 프로젝터(P1~3) 각각은 교정을 위해 곡면스크린(231)에 공지의 패턴이나 테스트패턴을 투사한다. 카메라(Cm1~3)가 캡처한 영상을 기반으로, 프로세서는 곡면스크린의 형상과 상대적 방향을 포함한 왜곡인자들을 계산한다. 프로세서는 이들 인자들을 이용해 정상적인 동작중에 각각의 프로젝터에 제공되는 입력영상을 워핑변환한다. 각각의 프로젝터의 워핑변환으로 특정 프로젝터에서 생기는 디스플레이 왜곡이 사전보상된다. 또, 각각의 프로젝터의 휘도를 분석하여 화면(231)의 투사영상의 전체 휘도를 균일하게 한다. 또, 프로세서에 의해 중첩된 구역의 화소들이 정렬되고 이런 중첩된 화소들의 휘도가 프로젝터에서 분산되어 이음매없는 화질이 형성된다.In FIG. 23, three projectors P1 to 3 project images on the
도 23의 시스템을 이용해, 카메라(Cm1~3)로 휘도데이터와 컬러데이터도 캡처할 수 있다. 프로세서는 이들 데이터를 이용해 각 화소에 대한 강도를 조절하여 인접 각각의 영상의 에지를 일치시키고 혼합한다. 모든 프로젝터(P1~3)의 전체 휘도와 컬러도 프로세서에 의해 표준화될 수 있다.Using the system of FIG. 23, luminance data and color data can also be captured by the cameras Cm1 to 3. The processor uses these data to adjust the intensity for each pixel to match and blend the edges of each adjacent image. The overall brightness and color of all the projectors P1 to 3 can also be standardized by the processor.
도 24에서는 센서(여기서는 카메라)를 사용해 패턴과 함께 또는 패턴 없이 투사된 영상을 캡처한다. 한편, 카메라를 사용해 화면(241)의 형상, 크기, 상대적 방향 및 경계를 감지하기도 한다. 경계 에지가 풀다운 화면(즉, 후퇴한 프로젝터 스크린)의 에치이거나 룸의 모서리일 수 있다. 이어서, 영상의 에지의 방향과 테스트영상의 패턴을 프로세서에서 분석하여 형상, 크기, 경계, 상대방향과 같은 화면 특성을 계산한다. 이런 계산을 통해 디스플레이 왜곡이 결정된다. 투사되어 캡처된 영상의 패턴의 복잡성을 근거로, 프로세서가 왜곡인자를 결정한다. 패턴이 간단한 경우, 정상적인 화면과 비교하여 투사각을 결정할 수 있다. 패턴이 더 복잡하면, 화면의 형상, 예컨대 곡면형이나 불규칙한 화면의 형상을 결정할 수 있다. 핀쿠션이나 볼록왜곡과 같은 렌즈결함에 관련된 왜곡인자도 결정할 수 있다. 일단 왜곡인자들이 집합되면, 입력영상 데이터에 적당한 사전보상 워프맵을 적용하여 왜곡을 수정함으로써 시각적으로 왜곡이 없는 영상을 만든다.In FIG. 24 a sensor (here a camera) is used to capture the projected image with or without the pattern. The camera may also detect the shape, size, relative direction, and boundary of the screen 241. The boundary edge may be the etch of the pull-down screen (ie, the retracted projector screen) or the corner of the room. Subsequently, the processor analyzes the direction of the edge of the image and the pattern of the test image to calculate screen characteristics such as shape, size, boundary, and relative direction. This calculation determines the display distortion. Based on the complexity of the pattern of the projected and captured image, the processor determines the distortion factor. If the pattern is simple, the projection angle can be determined compared to the normal screen. If the pattern is more complicated, it is possible to determine the shape of the screen, such as the shape of a curved or irregular screen. Distortion factors related to lens defects such as pincushion and convex distortion can also be determined. Once the distortion factors are collected, the distortion is corrected by applying a suitable precompensation warp map to the input image data to create a visually distortion free image.
도 24는 아무런 물리적 마커나 에지 없이 평면에 투사된 영상을 수정하는 경우이다. 투사로 인한 왜곡은 키스톤왜곡과 렌즈왜곡을 모두 포함한다. 이 시스템에서는 위치와 방향을 고정해 카메라를 프로젝터에 부착한다. 교정과 수정은 2단계로 이루어진다. 먼저, 테스트 영상패턴을 이용하는 완벽한 교정과정을 통해 카메라가 캡처한 패턴의 영상을 줌레벨을 포함한 공지의 키스톤 각도와 렌즈왜곡인자로 저장한다. 또, 워프데이터와 같이 수정에 필요한 추가정보를 저장할 수도 있다. 이 단계는 공장에서 이루어지는바, 프로젝터를 공장에서 조립하고 교정한다. 두번째 단계는 프로젝터를 사용하는 현장에서 이루어진다. 프로젝터는 첫번째 단계에서 사용 된 것과 같은 패턴을 투사하고, 이 패턴은 카메라에 캡처된다. 이렇게 현장에서 캡처한 패턴을 공장에서 저장된 왜곡인자와 함께 공장에서 캡처한 패턴과 비교하여 현장에서의 프로젝터의 왜곡인자를 결정한다. 이런 현장 왜곡인자를 알면, 수정워프를 (저장된 것이면) 추적하거나 실시간으로 정립하여 프로젝터의 키스톤왜곡과 렌즈왜곡을 수정한다. 미리 저장된 정보(영상)와 비교를 하기 때문에, (화면틀과 같은) 실제 에지나 마커는 전혀 불필요하다. 공장에서 저장된 데이터가 완전한 영상일 필요는 없지만, 그리드 데이터이거나, 기타 왜곡레벨이 다른 패턴을 특성화하는 인자일 수 있다.24 illustrates a case of correcting an image projected onto a plane without any physical markers or edges. Distortions due to projection include both keystone distortion and lens distortion. In this system, the camera is attached to the projector by fixing its position and orientation. Calibration and correction are two steps. First, through a complete calibration process using the test image pattern, the image of the pattern captured by the camera is stored as a known keystone angle and lens distortion factor including a zoom level. It is also possible to store additional information necessary for correction, such as warp data. This step takes place at the factory, where the projector is assembled and calibrated at the factory. The second step takes place at the site using the projector. The projector projects the same pattern used in the first step, which is captured by the camera. The pattern captured in the field is compared with the pattern captured in the factory together with the distortion factor stored in the factory to determine the distortion factor of the projector in the field. Knowing these field distortion factors, the correction warp can be tracked (if stored) or established in real time to correct keystone and lens distortion of the projector. Since it compares with pre-stored information (images), no real edges or markers (such as picture frames) are needed at all. The data stored at the factory need not be complete images, but may be grid data, or other distortion levels may be factors that characterize different patterns.
한편으로, 4개 포인트로만 구성된 간단한 그리드형 영상패턴을 사용해 카메라로 키스톤왜곡을 수정하기도 한다. 이 경우, 테스트패턴은 도 2a-b와 같이 2x2(4) 그리드로 이루어진다. 렌즈왜곡이 전혀 없는 키스톤 왜곡의 경우 왜곡을 결정하는데 포인트 4개로 충분하다. 키스톤 수정을 결정하는데는 (투사 전후)의 포인트 위치만 알면 충분하므로 4개 포인트를 어디에 놓아도 된다. 이 방법을 프로젝터의 렌즈변위 조절에도 적용할 수 있는데, 이 경우 4개 포인트를 움직이기만 하면 된다. 렌즈왜곡이 있거나 없는 줌렌즈가 달린 프로젝터의 경우, 먼저 각각의 줌레벨과 저장된 수정워프에 대해 축에 교정을 한다. 이어서, (적절한 줌레벨과 렌즈왜곡을 위해) 수정 워프를 적용하고, 4개 포인트를 이용한 키스톤 수정만을 반복한다. 키스톤왜곡을 줌렌즈 수정과 연계하거나 기능적으로 조작하여 모든 프로젝터 왜곡을 수정한 최종 맵을 구한다. 공장의 교정과정에서는 렌즈수정을 한번만 계산해 저장한다. 이어서, 현장에서 카메라를 사용해 키스톤 수정을 렌즈수정과 함께 한다. On the other hand, a simple grid-like image pattern consisting of only four points is used to correct keystone distortion with the camera. In this case, the test pattern is composed of a 2x2 (4) grid as shown in FIGS. 2A-B. For keystone distortion with no lens distortion, four points are sufficient to determine the distortion. It is enough to know the point position of (before and after projection) to determine the keystone correction, so you can put 4 points anywhere. This method can also be applied to the lens displacement adjustment of the projector, in which case only four points need to be moved. For projectors with zoom lenses with or without lens distortion, first calibrate the axis for each zoom level and stored correction warp. Then, apply correction warps (for proper zoom level and lens distortion), and repeat keystone correction using only four points. Keystone distortion can be associated with zoom lens correction or functionally manipulated to obtain a final map of all projector distortions. In the factory calibration, the lens correction is calculated and stored only once. Subsequently, use the camera in the field to perform keystone correction with lens correction.
도 25는 곡면스크린(251)에 투사하는 경우이다. 형상과 거리를 포함한 곡면스크린(241)의 맵을 결정하기 위해, 체크무늬 영상패턴과 같은 2차원 영상패턴을 화면에 투사한다. 투사된 영상은 카메라로 캡처한다. 체크무니 패턴의 각각의 선에 의해 생기는 콘트라스트는 프로세서(프로세서)에서 계산된다. 촛점을 계속 바꾸면서 패턴의 각 포인트에서의 최적의 콘트라스트를 촛점길이의 함수에서 구한다. 이렇게 곡면스크린(251)의 표면 맵을 결정한다. 맵의 정확도와 세부사항은 사용된 촛점길이의 갯수와 투사된 패턴의 복잡도에 따라 좌우된다. 이 방법은 카메라의 각도를 구해 결국 각 포인트에서 화면에 대한 프로젝터의 각도를 구하는데에도 이용될 수 있다. 프로세서는 일단 각 포인트에서의 화면의 형상, 크기, 각도와 관계된 왜곡인자를 계산한 다음, 워프변환을 계산하거나 이미 저장된 적절한 워프변환을 이용한다. 이런 워프변환을 입력 영상데이터에 적용하면, 시각적으로 왜곡이 없으면서 화면의 특성에 일치하는 영상이 생긴다.25 shows a case of projecting on the
도 26은 화면이 물결치는 경우로서, 도 25에서 설명한 기술을 이용해 모든 포인트에서 물결형 화면의 형상과 상대적 방향을 결정할 수 있다. 여기서는 디스플레이 장치에 사용되는 화면이 불규칙한 것이면 모두 적용된다. 화면의 맵이 준비되면, 프로세서에서 이 맵을 사용해 입력영상에 워프변환을 한다. 입력영상에 워프변환을 하면, 투사된 영상이 시각적 왜곡을 갖지 않고 화면의 특성과 일치한다.FIG. 26 illustrates a case where the screen is waved, and the shape and relative direction of the wavy screen may be determined at all points using the technique described with reference to FIG. 25. In this case, if the screen used for the display device is irregular, all of them are applied. When the map of the screen is ready, the processor uses this map to warp the input image. When warping the input image, the projected image matches the characteristics of the screen without visual distortion.
도 1은 자동 교정-수정 시스템의 일례의 블록도;1 is a block diagram of an example of an automatic calibration-correction system;
도 2는 스크린이 곡면인 경우의 도면;2 is a view when the screen is curved;
도 3은 기하학적 왜곡이 오버플로, 언더플로 및 미스매치인 경우를 보여주는 도면;3 shows a case where the geometric distortion is overflow, underflow and mismatch;
도 4는 영상 테스트패턴의 교정예를 보여주는 도면;4 shows an example of calibration of an image test pattern;
도 5는 교정 형상과 관련된 다양한 좌표공간을 보여주는 도면;5 shows various coordinate spaces associated with calibration shapes;
도 6은 교정데이터 생성기의 흐름도;6 is a flowchart of a calibration data generator;
도 7은 축척과 원점을 최적화하는 예;7 is an example of optimizing scale and origin;
도 8은 다색 교정데이터 생성기의 흐름도;8 is a flow chart of a multicolor calibration data generator;
도 9는 컬러 불균일 교정을 위한 셋업도;9 is a setup diagram for color non-uniformity correction;
도 10은 컬러불균일 수정을 위한 교정데이터 생성기의 흐름도;10 is a flowchart of a calibration data generator for color non-uniformity correction;
도 11은 워프데이터 생성기의 흐름도;11 is a flowchart of a warp data generator;
도 12는 디스플레이 수정을 위한 패치분할도;12 shows a patch partition for display modification;
도 13은 디지털 워핑부의 블록도;13 is a block diagram of a digital warping unit;
도 14는 화면의 형상과 상대적 방향을 결정하기 위한 셋업도;14 is a setup diagram for determining the shape and relative direction of the screen;
도 15는 촛점이 안맞는 테스트패턴;15 is a test pattern that is not in focus;
도 16은 촛점이 맞는 테스트패턴;16 is a focused test pattern;
도 17은 프로젝터가 여러개이고 곡면스크린이 하나인 교정시스템의 분할도;17 is a fragmented view of a calibration system with multiple projectors and one curved screen;
도 18은 도 17의 교정시스템의 촛점면을 보여주는 도면;FIG. 18 shows a focal plane of the calibration system of FIG. 17; FIG.
도 19는 거리함수를 최소화하는 촛점기술의 일례를 보여주는 도면;19 shows an example of a focusing technique for minimizing a distance function;
도 20은 프로젝터가 여러개이고 곡면스크린이 하나인 다른 교정시스템에서 프로젝터 위치를 조정해 촛점을 최적화하는 예를 보여주는 도면;20 shows an example of optimizing the focus by adjusting the projector position in another calibration system with multiple projectors and one curved screen;
도 21은 여러대의 카메라를 사용하는 교정시스템의 개략도;21 is a schematic diagram of a calibration system using multiple cameras;
도 22는 교정시스템을 설치해 자가교정과 동적 왜곡교정을 하는 RPTV(Rear Projection TeleVision)의 일례;22 is an example of Real Projection TeleVision (RPTV) in which a calibration system is installed to perform self-calibration and dynamic distortion correction.
도 23은 프로젝터와 센서가 모두 여러개인 교정시스템의 개략도;23 is a schematic diagram of a calibration system with multiple projectors and multiple sensors.
도 24는 화면의 실제 에지와 경계를 이용하는 교정시스템의 개략도;24 is a schematic diagram of a calibration system using actual edges and boundaries of the screen;
도 25는 곡면스크린의 형상을 결정하는데 촛점기술을 이용하는 교정시스템의 개략도;25 is a schematic diagram of a calibration system using focusing techniques to determine the shape of a curved screen;
도 26은 물결형 스크린의 형상을 결정하는데 촛점기술을 이용하는 교정시스템의 개략도.26 is a schematic diagram of a calibration system using focusing technology to determine the shape of a wavy screen.
Claims (26)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US83694006P | 2006-08-11 | 2006-08-11 | |
US60/836,940 | 2006-08-11 | ||
US91752507P | 2007-05-11 | 2007-05-11 | |
US60/917,525 | 2007-05-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20080014712A true KR20080014712A (en) | 2008-02-14 |
Family
ID=39341859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070081067A KR20080014712A (en) | 2006-08-11 | 2007-08-13 | System and method for automated calibrationand correction of display geometry and color |
Country Status (4)
Country | Link |
---|---|
JP (2) | JP5535431B2 (en) |
KR (1) | KR20080014712A (en) |
CN (1) | CN101136192B (en) |
TW (2) | TWI511122B (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160109935A (en) * | 2015-03-13 | 2016-09-21 | 한국전자통신연구원 | Method and apparatus for geometric correction based on user interface |
WO2023003140A1 (en) * | 2021-07-21 | 2023-01-26 | 삼성전자주식회사 | Electronic device and control method therefor |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8737832B1 (en) | 2006-02-10 | 2014-05-27 | Nvidia Corporation | Flicker band automated detection system and method |
US8594441B1 (en) | 2006-09-12 | 2013-11-26 | Nvidia Corporation | Compressing image-based data using luminance |
US8724895B2 (en) | 2007-07-23 | 2014-05-13 | Nvidia Corporation | Techniques for reducing color artifacts in digital images |
US8570634B2 (en) | 2007-10-11 | 2013-10-29 | Nvidia Corporation | Image processing of an incoming light field using a spatial light modulator |
US9177368B2 (en) | 2007-12-17 | 2015-11-03 | Nvidia Corporation | Image distortion correction |
US8780128B2 (en) | 2007-12-17 | 2014-07-15 | Nvidia Corporation | Contiguously packed data |
US8698908B2 (en) | 2008-02-11 | 2014-04-15 | Nvidia Corporation | Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera |
US9379156B2 (en) | 2008-04-10 | 2016-06-28 | Nvidia Corporation | Per-channel image intensity correction |
JP5256899B2 (en) * | 2008-07-18 | 2013-08-07 | セイコーエプソン株式会社 | Image correction apparatus, image correction method, projector and projection system |
JP5386956B2 (en) * | 2008-12-04 | 2014-01-15 | セイコーエプソン株式会社 | Projector, display adjustment method, display adjustment program, and recording medium |
US8749662B2 (en) | 2009-04-16 | 2014-06-10 | Nvidia Corporation | System and method for lens shading image correction |
US20100321382A1 (en) | 2009-06-18 | 2010-12-23 | Scalable Display Technologies, Inc. | System and method for injection of mapping functions |
TWI396035B (en) * | 2009-08-28 | 2013-05-11 | Avermedia Information Inc | Project position apparatus and document projector thereof |
TWI423143B (en) * | 2010-06-17 | 2014-01-11 | Pixart Imaging Inc | Image sensing module |
TWI452270B (en) * | 2011-10-21 | 2014-09-11 | Univ Nat Central | Detecting apparatus and detecting method thereof |
JP2013190671A (en) * | 2012-03-14 | 2013-09-26 | Ricoh Co Ltd | Image projection device, brightness processing method, and program |
US8787689B2 (en) * | 2012-05-15 | 2014-07-22 | Omnivision Technologies, Inc. | Apparatus and method for correction of distortion in digital image data |
JP6070307B2 (en) * | 2012-05-21 | 2017-02-01 | 株式会社リコー | Pattern extraction apparatus, image projection apparatus, pattern extraction method, and program |
JP6065656B2 (en) | 2012-05-22 | 2017-01-25 | 株式会社リコー | Pattern processing apparatus, pattern processing method, and pattern processing program |
CN102768757B (en) * | 2012-06-28 | 2015-01-07 | 北京市遥感信息研究所 | Remote sensing image color correcting method based on image type analysis |
US9470893B2 (en) | 2012-10-11 | 2016-10-18 | Sony Computer Entertainment Europe Limited | Head mountable device |
US20140104692A1 (en) * | 2012-10-11 | 2014-04-17 | Sony Computer Entertainment Europe Limited | Head mountable display |
JP6083185B2 (en) | 2012-10-12 | 2017-02-22 | セイコーエプソン株式会社 | Projector, projector black level area setting method |
EP3014355A4 (en) * | 2013-06-28 | 2017-08-23 | CJ CGV Co., Ltd. | Theater structure and multi-projection system using the same |
JP6289003B2 (en) * | 2013-09-26 | 2018-03-07 | キヤノン株式会社 | Information processing apparatus, control method therefor, and program |
JP6065804B2 (en) * | 2013-10-08 | 2017-01-25 | 株式会社デンソー | Inspection device |
JP6307843B2 (en) * | 2013-11-12 | 2018-04-11 | 株式会社リコー | Interpolation method, program, and interpolation apparatus |
TWI520099B (en) * | 2014-02-19 | 2016-02-01 | 鈺創科技股份有限公司 | Calibration method of an image capture system |
US9836816B2 (en) * | 2014-04-05 | 2017-12-05 | Sony Interactive Entertainment America Llc | Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport |
TWI511086B (en) * | 2014-04-18 | 2015-12-01 | Altek Semiconductor Corp | Lens distortion calibration method |
CN105096348B (en) | 2014-04-30 | 2018-06-29 | 富士通株式会社 | The device and method of tint plate in detection image |
CN104123137A (en) * | 2014-07-21 | 2014-10-29 | 联想(北京)有限公司 | Information processing method and electronic device |
WO2016036370A1 (en) | 2014-09-04 | 2016-03-10 | Hewlett-Packard Development Company, L.P. | Projection alignment |
CN104539921B (en) * | 2014-11-26 | 2016-09-07 | 北京理工大学 | A kind of illumination compensation method based on many optical projection systems |
US9684950B2 (en) * | 2014-12-18 | 2017-06-20 | Qualcomm Incorporated | Vision correction through graphics processing |
TWI611383B (en) | 2015-03-03 | 2018-01-11 | 宏正自動科技股份有限公司 | Calibration system and method of multi-image output device |
TWI548864B (en) * | 2015-03-06 | 2016-09-11 | 佳世達科技股份有限公司 | Color calibrator module |
EP3404648A4 (en) * | 2016-01-13 | 2019-01-23 | Ricoh Company, Ltd. | Projection system, image processing device, projection method, and program |
US10057556B2 (en) | 2016-01-28 | 2018-08-21 | Disney Enterprises, Inc. | Projector optimization method and system |
WO2017169723A1 (en) | 2016-03-28 | 2017-10-05 | ソニー株式会社 | Imaging processing device and method |
US10574952B2 (en) | 2016-04-27 | 2020-02-25 | Sony Corporation | Image projection apparatus, projection imaging system, and correction method |
JP6618449B2 (en) * | 2016-10-06 | 2019-12-11 | キヤノン株式会社 | Liquid crystal display device and control method thereof |
JP6551427B2 (en) * | 2017-01-20 | 2019-07-31 | セイコーエプソン株式会社 | Projector, projector black level area setting method |
JP6407330B2 (en) * | 2017-03-10 | 2018-10-17 | キヤノン株式会社 | Image projection device |
CN109104596B (en) * | 2017-06-21 | 2021-02-26 | 中强光电股份有限公司 | Projection system and correction method of display image |
CN108803006B (en) * | 2017-09-18 | 2021-01-05 | 成都理想境界科技有限公司 | Optical fiber scanning imaging system, optical fiber scanning imaging equipment and distortion detection and correction system of optical fiber scanning imaging equipment |
JP6992560B2 (en) * | 2018-02-02 | 2022-01-13 | セイコーエプソン株式会社 | Projector and projector control method |
CN110176209B (en) * | 2018-02-27 | 2021-01-22 | 京东方科技集团股份有限公司 | Optical compensation method and optical compensation apparatus for display panel |
TWI677231B (en) * | 2018-03-16 | 2019-11-11 | 和碩聯合科技股份有限公司 | Method and system for inspecting display apparatus |
JP6642610B2 (en) * | 2018-03-22 | 2020-02-05 | カシオ計算機株式会社 | Projection control device, projection device, projection control method, and program |
TWI663577B (en) * | 2018-06-04 | 2019-06-21 | 宏碁股份有限公司 | Demura system for non-planar screen |
CN110875021A (en) * | 2018-08-29 | 2020-03-10 | 中兴通讯股份有限公司 | Screen display control method, device, equipment and readable storage medium |
FR3085519B1 (en) * | 2018-09-04 | 2023-01-13 | Centre Nat Rech Scient | METHOD FOR MEASURING A COLOR SPACE SPECIFIC TO AN INDIVIDUAL AND METHOD FOR CORRECTING DIGITAL IMAGES AS A FUNCTION OF THE COLOR SPACE SPECIFIC TO THE INDIVIDUAL |
CN109557829B (en) * | 2018-11-13 | 2021-10-29 | 国网技术学院 | Fire simulation system and method with nonlinear distortion correction |
TWI691213B (en) * | 2019-02-21 | 2020-04-11 | 緯創資通股份有限公司 | Portable device, display device and calibration method of display device |
JP7190701B2 (en) * | 2019-03-27 | 2022-12-16 | パナソニックIpマネジメント株式会社 | Projected image adjustment system and method |
CN111861865B (en) | 2019-04-29 | 2023-06-06 | 精工爱普生株式会社 | Circuit device, electronic apparatus, and moving object |
JP7467883B2 (en) * | 2019-04-29 | 2024-04-16 | セイコーエプソン株式会社 | Circuit device, electronic device and mobile device |
CN111935465B (en) * | 2019-05-13 | 2022-06-17 | 中强光电股份有限公司 | Projection system, projection device and correction method of display image thereof |
CN112261392B (en) * | 2019-07-22 | 2022-08-09 | 中强光电股份有限公司 | Projection system and image uniformity compensation method thereof |
WO2021039977A1 (en) * | 2019-08-29 | 2021-03-04 | 国立大学法人東北大学 | Projection system, projection system control device, projection method, and program |
CN112995620B (en) * | 2019-12-17 | 2024-01-02 | 青岛海高设计制造有限公司 | Method for correcting cylindrical projection, device for cylindrical projection and household appliance |
CN112233570B (en) * | 2020-12-16 | 2021-04-02 | 卡莱特(深圳)云科技有限公司 | Arc screen correction method and device, computer equipment and storage medium |
CN113516584B (en) * | 2021-09-14 | 2021-11-30 | 风脉能源(武汉)股份有限公司 | Image gray processing method and system and computer storage medium |
CN114143519B (en) * | 2021-11-11 | 2024-04-12 | 深圳市橙子软件有限公司 | Method and device for automatically matching projection image with curtain area and projector |
CN114283077B (en) * | 2021-12-08 | 2024-04-02 | 凌云光技术股份有限公司 | Method for correcting lateral chromatic aberration of image |
CN117275433B (en) * | 2023-11-20 | 2024-02-20 | 北京七维视觉传媒科技有限公司 | Screen color correction method and system |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07131802A (en) * | 1993-11-05 | 1995-05-19 | Matsushita Electric Ind Co Ltd | Image correcting device |
JPH089309A (en) * | 1994-06-23 | 1996-01-12 | Canon Inc | Display method and its device |
JP3393029B2 (en) * | 1997-01-20 | 2003-04-07 | 富士通株式会社 | Display image distortion correction method for display device, distortion detection device, distortion correction device, and display device provided with the distortion correction device |
US6060383A (en) * | 1998-08-10 | 2000-05-09 | Nogami; Takeshi | Method for making multilayered coaxial interconnect structure |
JP2000155373A (en) * | 1998-11-24 | 2000-06-06 | Matsushita Electric Ind Co Ltd | Projection type display device |
US6538691B1 (en) * | 1999-01-21 | 2003-03-25 | Intel Corporation | Software correction of image distortion in digital cameras |
JP4507307B2 (en) * | 1999-09-16 | 2010-07-21 | 独立行政法人科学技術振興機構 | Video projection device |
JP2001339672A (en) * | 2000-03-24 | 2001-12-07 | Olympus Optical Co Ltd | Multi-vision device |
JP3497805B2 (en) * | 2000-08-29 | 2004-02-16 | オリンパス株式会社 | Image projection display device |
JP2002247614A (en) * | 2001-02-15 | 2002-08-30 | Ricoh Co Ltd | Projector |
US6999046B2 (en) * | 2002-04-18 | 2006-02-14 | International Business Machines Corporation | System and method for calibrating low vision devices |
JP4806894B2 (en) * | 2004-02-05 | 2011-11-02 | カシオ計算機株式会社 | Projection apparatus, projection method, and program |
JP3880582B2 (en) * | 2004-02-13 | 2007-02-14 | Necビューテクノロジー株式会社 | Projector with multiple cameras |
JP3882928B2 (en) * | 2004-03-29 | 2007-02-21 | セイコーエプソン株式会社 | Image processing system, projector, and image processing method |
JP3882927B2 (en) * | 2004-03-29 | 2007-02-21 | セイコーエプソン株式会社 | Image processing system, projector, and image processing method |
CN1753077A (en) * | 2004-09-24 | 2006-03-29 | 乐金电子(惠州)有限公司 | Brightness control method of image display and its device |
JP2006109088A (en) * | 2004-10-05 | 2006-04-20 | Olympus Corp | Geometric correction method in multi-projection system |
JP2006121240A (en) * | 2004-10-20 | 2006-05-11 | Sharp Corp | Image projection method, projector, and computer program |
US7262816B2 (en) * | 2004-10-22 | 2007-08-28 | Fakespace Labs, Inc. | Rear projection imaging system with image warping distortion correction system and associated method |
WO2006062508A1 (en) * | 2004-12-07 | 2006-06-15 | Silicon Optix Inc. | Dynamic warp map generation system and method |
-
2007
- 2007-08-10 TW TW102131831A patent/TWI511122B/en active
- 2007-08-10 JP JP2007208937A patent/JP5535431B2/en active Active
- 2007-08-10 TW TW96129642A patent/TWI411967B/en active
- 2007-08-13 KR KR1020070081067A patent/KR20080014712A/en not_active Application Discontinuation
- 2007-08-13 CN CN 200710142701 patent/CN101136192B/en active Active
-
2014
- 2014-04-23 JP JP2014088912A patent/JP2014171234A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160109935A (en) * | 2015-03-13 | 2016-09-21 | 한국전자통신연구원 | Method and apparatus for geometric correction based on user interface |
WO2023003140A1 (en) * | 2021-07-21 | 2023-01-26 | 삼성전자주식회사 | Electronic device and control method therefor |
Also Published As
Publication number | Publication date |
---|---|
TWI411967B (en) | 2013-10-11 |
JP5535431B2 (en) | 2014-07-02 |
CN101136192B (en) | 2013-06-05 |
JP2008113416A (en) | 2008-05-15 |
TWI511122B (en) | 2015-12-01 |
TW201351391A (en) | 2013-12-16 |
TW200818114A (en) | 2008-04-16 |
CN101136192A (en) | 2008-03-05 |
JP2014171234A (en) | 2014-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20080014712A (en) | System and method for automated calibrationand correction of display geometry and color | |
US8406562B2 (en) | System and method for automated calibration and correction of display geometry and color | |
US11269244B2 (en) | System and method for calibrating a display system using manual and semi-manual techniques | |
JP2023130401A (en) | System for displaying images | |
US6558006B2 (en) | Image projection display apparatus using plural projectors and projected image compensation apparatus | |
JP6437310B2 (en) | System and method for calibrating display system color and saturation for practical use | |
US9661257B2 (en) | Projection system, image processing device, and projection method | |
KR100858985B1 (en) | Electronic calibration for seamless tiled display using optical function generator | |
US10750141B2 (en) | Automatic calibration projection system and method | |
TWI435162B (en) | Low complexity of the panoramic image and video bonding method | |
US6836298B2 (en) | Apparatus and method for correcting distortion of image and image displayer using the same | |
US6727864B1 (en) | Method and apparatus for an optical function generator for seamless tiled displays | |
US8730130B1 (en) | System and method for automatically aligning immersive displays | |
KR20160034847A (en) | System and method for calibrating a display system using a short throw camera | |
WO2005002240A1 (en) | Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data | |
WO2006025191A1 (en) | Geometrical correcting method for multiprojection system | |
US20090195758A1 (en) | Meshes for separately mapping color bands | |
JP2002503892A (en) | Electro-optical display | |
US20060007239A1 (en) | Color correction system | |
US20210407046A1 (en) | Information processing device, information processing system, and information processing method | |
US7456908B2 (en) | Method of performing convergence calibration for a display | |
GB2370714A (en) | Correction of distorted images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |