JP2014171234A - System and method for automatic calibration and correction of shape of display and color - Google Patents

System and method for automatic calibration and correction of shape of display and color Download PDF


Publication number
JP2014171234A JP2014088912A JP2014088912A JP2014171234A JP 2014171234 A JP2014171234 A JP 2014171234A JP 2014088912 A JP2014088912 A JP 2014088912A JP 2014088912 A JP2014088912 A JP 2014088912A JP 2014171234 A JP2014171234 A JP 2014171234A
Prior art keywords
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Application number
Other languages
Japanese (ja)
Zorawar S Bassi
エス.バッシ ゾラウォー
Masoud Vakili
バキリ メイスード
Original Assignee
Geo Semiconductor Inc
ジーイーオー セミコンダクター インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US83694006P priority Critical
Priority to US60/836940 priority
Priority to US91752507P priority
Priority to US60/917525 priority
Application filed by Geo Semiconductor Inc, ジーイーオー セミコンダクター インコーポレイテッド filed Critical Geo Semiconductor Inc
Publication of JP2014171234A publication Critical patent/JP2014171234A/en
Application status is Pending legal-status Critical



PROBLEM TO BE SOLVED: To provide a system and a method for calibrating a display device for eliminating distortion due to various components such as one or more of geometric arrangement of a lens, mirror and projection, failure of lateral chromatic aberration and positioning of color and un-uniformity of the color and brightness.SOLUTION: Sensing devices connected with a processor can be used for sensing display characteristics. These sensing devices are used for calculating distortion data and creating a preliminary correction map for correction with respect to display distortion.


優先権請求 本出願は、2006年8月11日に出願された米国仮特許出願第60/836,940号と2007年5月11日に出願された米国仮特許出願第60/917,525号からの優先権を主張する。 Priority claims present application, filed US Provisional Patent Application No. 60 / 917,525 on May 11, filed August 11, 2006 U.S. Provisional Patent Application No. 60 / 836,940 Patent and 2007 It claims priority from.

種々の実施形態は、表示装置の較正に関して論じられる。 Various embodiments are discussed with respect to the calibration of the display device.

大抵の画像表示装置は、ある形式の幾何学歪み又は色歪みを示す。 Most of the image display device shows a geometric distortion or color distortion of some form. これらの歪みは、幾何学的セッティング、システムにおける種々の光学部品の非理想的特性、種々の部品の位置合わせ不良、幾何学歪みに通じる複雑な表示面と光路、及びパネルの不完全性などの種々の原因を有し得る。 These distortions, geometrical settings, various in the system non-ideal properties of the optical components, misalignment of the various parts, geometry complex display surface leading to distortion and optical path, and such imperfections panel It may have various causes. システムに依存して歪みの量は、検出不可能なものから極めて異議を招き得るものまで大きく変化し得る。 The amount of distortion depends on the system may vary greatly to what may lead to extremely objections from those undetectable. 歪みの効果もまた変化し得るものであって、画像の色の変化又は画像形状あるいは幾何学形状の変化という結果を招く可能性がある。 Be one that can effectively also changes in strain can lead to results that change in the color of the image or image shape or change of geometry.

一態様において、本明細書に説明される少なくとも一つの実施形態は、画面を有する表示装置により使用される表示較正システムを提供する。 In one embodiment, at least one embodiment described herein provides a display calibration system used by the display device having a screen. この表示較正システムは、画面の形状、サイズ、境界及び方位のうちの少なくとも一つに関する情報を感知するように適応した少なくとも一つの感知装置と、この少なくとも一つの感知装置に接続され、この少なくとも一つの感知装置によって感知された情報に基づいて表示装置特性を計算することに適応している少なくとも一つのプロセッサと、を備えている。 The display calibration system, the shape of the screen, connected size, at least one sensing device adapted to sense at least one information regarding of the boundary and orientation, to the at least one sensing device, the at least one one of and a, and at least one processor is adapted to calculate a display device characteristics based on the information sensed by the sensing device.

別の態様において、本明細書に説明される少なくとも一つの実施形態は、画面を有する表示装置により使用される表示較正システムを提供する。 In another embodiment, at least one embodiment described herein provides a display calibration system used by the display device having a screen. この表示較正システムは、画面に表示されたテスト画像から情報を感知するように適応した少なくとも一つの感知装置と、この少なくとも一つの感知装置に接続され、感知された情報に基づいて表示歪みを計算し、表示歪みを補正するための予備補正マップを生成することに適応している少なくとも一つのプロセッサと、を備えている。 The display calibration system includes at least one sensing device adapted from the test image displayed on the screen to sense the information, is connected to the at least one sensing device, calculating a display distortion based on the sensed information and, a, at least one processor is adapted to generate a preliminary correction map for correcting the display distortion. 予備補正マップは、表面関数によって実現され得る。 Preliminary correction map can be realized by surface function. 予備補正マップが表示に先立って入力画像データに適用されると、画面に結果として得られた表示画像は、実質的に歪みなしとなる。 When pre-correction map is applied to the input image data prior to display, the display image obtained as the result on the screen becomes substantially without distortion.

別の態様において、本明細書に説明される少なくとも一つの実施形態は、画面を有する表示装置により使用されるための表示較正システムを提供する。 In another embodiment, at least one embodiment described herein provides a display calibration system for use by a display device having a screen. この表示較正システムは、画面に表示されたテスト画像から情報を感知することに適応した少なくとも一つの画像感知装置と、この少なくとも一つの画像感知装置に接続され、感知された情報に基づいて表示歪みを計算し、各パッチにおける表示歪みのひどさにしたがって画面を複数のパッチに分割し、表示に先立って入力画像データに予備補正マップが適用されるとき画面に結果として得られた表示画像が実質的に歪みなしとなるように、各パッチにおける表示歪みのための予備補正マップを生成することに適応している少なくとも一つのプロセッサと、を備えている。 The display calibration system includes at least one image sensing device adapted to sense the information from the test image displayed on the screen, is connected to the at least one image sensing device, the display on the basis of the sensed information distortion was calculated, the screen according to the severity of the display distortion at each patch into a plurality of patches, a screen display image resulting in substantial when the preliminary correction map is applied to the input image data prior to display It has so become without distortion, and at least one processor is adapted to generate a preliminary correction map for display distortion in each patch, to.

別の態様において、本明細書に説明される少なくとも一つの実施形態は、画面を有する表示装置により使用される表示較正システムを提供する。 In another embodiment, at least one embodiment described herein provides a display calibration system used by the display device having a screen. この表示較正システムは、少なくとも一つの色成分に関して独立に画面に表示されたテスト画像から色情報を感知するように適応した少なくとも一つの画像感知装置と、この少なくとも一つの画像感知装置に接続されていて、感知された色情報に基づいて色の不均一性を計算し、表示に先立って入力画像データに少なくとも一つの色修正マップが適用されるときに、画面に結果として得られた表示画像が実質的に少なくとも一つの色不均一性を有さないように、少なくとも一つの色成分に関する少なくとも一つの色修正マップを生成することに適応している少なくとも一つのプロセッサと、を備えている。 The display calibration system, is connected with at least one image sensing device adapted to sense the color information from at least one of the displayed test image on the screen independently for the color components, to the at least one image sensing device Te to calculate the non-uniformity of the colors based on the sensed color information, when at least one of color correction map is applied to the input image data prior to display, the display image obtained as the result on the screen as substantially no at least one color heterogeneity, and includes at least one processor is adapted to generate at least one color correction maps for at least one color component, a.

別の態様において、本明細書に説明される少なくとも一つの実施形態は、画面を有する表示装置により使用される表示較正システムを提供する。 In another embodiment, at least one embodiment described herein provides a display calibration system used by the display device having a screen. この表示較正システムは、画面に表示された個別の色成分テスト画像から情報を感知するように適応した少なくとも一つの画像感知装置と、この少なくとも一つの画像感知装置と表示装置とに接続され、感知された情報に基づいて独立に少なくとも一つの色成分に関して幾何学的表示歪みを計算し、表示に先立って入力画像データに少なくとも一つの色修正マップが適用されるときに、画面に結果として得られた表示画像が実質的に少なくとも一つの色依存性幾何学歪みを有さないように、少なくとも一つの色成分に関して独立に少なくとも一つの予備補正マップを生成することに適応している少なくとも一つのプロセッサと、を備えている。 The display calibration system includes at least one image sensing device adapted from the individual color components test image displayed on the screen to sense the information, is connected to the at least one image sensing device and the display device and the sensing geometric display distortion calculated for at least one color component independently based on the information, when at least one of color correction map is applied to the input image data prior to display, obtained as a result of the screen and so that the display image is substantially free of at least one color dependent geometric distortion, at least one processor that is adapted to generate at least one pre-correction map independently with respect to at least one color component It has a, and.

別の態様において、本明細書に説明される少なくとも一つの実施形態は、湾曲した画面を有する投影システムにおいて使用される表示較正方法であって、 In another embodiment, at least one embodiment described herein is a display calibration method for use in a projection system having a curved screen,
画像の異なる部分を湾曲した画面の対応する部分に投影するために多数のプロジェクタを使用し、 Using a number of projectors to project a corresponding portion of the screen which is curved to different portions of the image,
湾曲した画面上に画像全体を最適化された焦点によって形成するために実質的に画像の各部分を湾曲した画面の対応する部分に焦点合わせすることを備える方法を提供する。 A method comprising a substantially be focused on the corresponding portion of the screen curved portions of images to be formed by optimized focus the entire image to a curved screen.

別の態様において、本明細書に説明される少なくとも一つの実施形態は、湾曲した画面を有する投影システムにおいて使用される表示較正方法であって、 In another embodiment, at least one embodiment described herein is a display calibration method for use in a projection system having a curved screen,
湾曲した画面から投影画像の焦点面までの複数の距離を測定し、 A plurality of distances from the curved screen to the focal plane of the projection image is measured,
最適化された焦点を得るために複数の距離の関数が最小化されるまで焦点面をシフトすることを備える方法を提供する。 Function optimized focal plurality of distances to obtain provides a method comprising shifting the focal plane to be minimized.

自動化された較正・修正システムの一例示的実施形態の図である。 It is a diagram of one exemplary embodiment of an automated calibration and correction system. 湾曲したスクリーンの幾何学形状の図である。 It is a diagram of the geometry of the curved screen. 湾曲したスクリーンの幾何学形状の図である。 It is a diagram of the geometry of the curved screen. 幾何学歪みにおけるオーバーフロー、アンダーフロー及び不適合の例の図である。 Overflow in geometric distortion diagrams examples of underflow and irrelevant. 較正画像テストパターンの例の図である。 It is a diagram of an example of a calibration image test pattern. 較正幾何学配置及び関連する種々の座標空間の図である。 It is a diagram of a calibration geometry and associated various coordinate space. 較正データ発生器の一例示的実施形態の図である。 It is a diagram of one exemplary embodiment of a calibration data generator. スケールと原点の最適化の図である。 It is a diagram of optimization of scale and origin. 多色較正データ発生器の一例示的実施形態の図である。 It is a diagram of one exemplary embodiment of a multi-color calibration data generator. 色不均一較正のための機構の図である。 It is a diagram of a mechanism for color non-uniformity calibration. 色不均一修正のための較正データ発生器の一例示的実施形態の図である。 It is a diagram of one exemplary embodiment of a calibration data generator for color non-uniformity corrections. ワープデータ発生器の一例示的実施形態の図である。 It is a diagram of one exemplary embodiment of a warp data generator. 表示修正のためのパッチ分割の図である。 It is a diagram of the patch division for the display correction. ディジタルワーピングユニットの一例示的実施形態の図である。 It is a diagram of one exemplary embodiment of a digital warping unit. 画面の形状と相対方位とを決定するための機構の模式的図である。 It is a schematic diagram of a mechanism for determining the shape and relative orientation of the screen. 焦点のずれたテストパターンの図である。 It is a diagram of a focus-shifted test pattern. 焦点の合ったテストパターンの図である。 Is a diagram of the match was a test pattern of focus. 多数のプロジェクタと一つの湾曲した画面からなる較正システムの一例示的実施形態の部分図である。 It is a partial view of one exemplary embodiment of a calibration system comprising a plurality of projectors and one curved screen. 多数のプロジェクタと、異なるプロジェクタの焦点面を示す図17の湾曲スクリーンとからなる較正システムの部分図である。 A plurality of projectors, a partial view of the calibration system consisting of a curved screen 17 showing the focal plane of the different projectors. 距離関数を最小にする焦点合わせ技法の一例の図である。 The distance function diagram of an example focusing techniques to minimize. 多数のプロジェクタと、画像焦点を最適化するように調整されたプロジェクタ位置を有する湾曲スクリーンとからなる較正システムのもう一つの例示的実施形態の部分図である。 A plurality of projectors is a partial view of another exemplary embodiment of a calibration system including a curved screen having adjusted the projector positioned so as to optimize the image focus. 多数のカメラを使用する較正システムの一例示的実施形態の部分図である。 It is a partial view of one exemplary embodiment of a calibration system using multiple cameras. 表示を自動較正し、動的歪み修正を考慮する統合化較正システムを有する背面投影テレビジョン(RPTV)の一例示的実施形態の部分図である。 The display automatically calibrate a partial view of one exemplary embodiment of the rear projection television having a consideration integrated calibration system dynamic distortion corrected (RPTV). 多数のプロジェクタと多数の感知装置とからなる較正システムの一例示的実施形態の部分図である。 It is a partial view of one exemplary embodiment of a calibration system including a plurality of projectors and multiple sensing device. 画面の物理的エッジと境界とを使用する較正システムの一例示的実施形態の部分図である。 It is a partial view of one exemplary embodiment of a calibration system using a physical edge and boundary of the screen. 湾曲した表示スクリーンの形状を決定するために焦点合わせ技法を使用する較正システムの一例示的実施形態の部分図である。 It is a partial view of one exemplary embodiment of a calibration system using a focusing technique to determine the curved shape of the display screen has. 小波形表示スクリーンの形状を決定するために焦点合わせ技法を使用する較正システムの一例示的実施形態の部分図である。 It is a partial view of one exemplary embodiment of a calibration system using a focusing technique to determine the shape of the small waveform display screen.

ここに説明される実施形態及び/又は関連実現形態のよりよい理解のために、またこれらがどのようにして実施され得るかをより明確に示すために、少なくとも一つの例示的実施形態及び/又は関連実現形態を示す下記の付属図面に対して単に例として参照が行われる。 For a better understanding of the embodiments and / or associated implementations are described herein, and to show how they may be carried out any way more clearly, at least one exemplary embodiment and / or reference is made by way of example only with respect to the accompanying drawings below showing the relevant implementation.

説明の単純さと明瞭さのために適当と考えられる場合に、対応する、又は類似の要素を示すために諸図の間で参照数字が繰り返され得ることを理解されたい。 If it considered appropriate for simplicity and clarity of description, corresponding or like reference numerals between the figures is appreciated that may be repeated in order to indicate like elements. 更に本明細書に説明される実施形態及び/又は実現形態の完全な理解を与えるために多数の特定の細部が説明される。 Numerous specific details are set forth in order to provide a more thorough understanding of the embodiments and / or implementations are described herein. しかしながら本明細書で説明される実施形態及び/又は実現形態がこれら特定の細部なしでも実施可能であることは、当業者によって理解されるであろう。 However, embodiments and / or implementations described herein may be practiced without these specific details, it will be understood by those skilled in the art. 他の事例では本明細書に説明される実施形態及び/又は実現形態を不明瞭にしないために、周知の方法、手順及び構成部分は詳細には説明されていない。 In order not to obscure the embodiments and / or implementations are described herein and in other cases, well-known methods, procedures and components it is not been described in detail. 更にこの説明は、本明細書に説明される実施形態の範囲を限定するものと考えられるべきではなく、むしろ本明細書に説明される種々の実施形態及び/又は実現形態の構成と動作とを説明するものである。 Moreover this description should not be considered as limiting the scope of the embodiments described herein, various embodiments and / or implementation of construction and operation described rather herein it is intended to explain.

表示装置に関する重要な歪みは、レンズ構成要素に起因する歪み、ミラー(湾曲又は平面)反射アセンブリからの歪み、ずれ角・回転投影(台形歪曲(keystone)、回転)及び湾曲スクリーンへの投影などの投影幾何学配置に起因する歪み、横の色収差、及び多数のマイクロディスプレイ装置における位置合わせ不良・集束不良などの色ごとに異なる歪み、色と輝度(明るさ)の不均一、及び光学的焦点問題(球面収差、非点収差など)に起因する歪みを含む。 Important strain to a display device, distortion caused by the lens elements, mirrors (curved or flat) distortion from reflection assembly, the deviation angle and rotation projection (trapezoidal distortion (keystone), rotation) and, such as projection onto the curved screen distortion due to the projection geometry, lateral chromatic aberration, and distortion different for each color, such as misalignment, focusing failure in many microdisplay device, color and uneven luminance (brightness), and optical focus problems including distortion caused by (spherical aberration, astigmatism, etc.).

第1のセットは最終画像における幾何学歪みと見られ、すなわち入力画像形状は保存されない。 The first set is found between geometric distortion in the final image, that is, the input image configuration is not saved. 色収差はまた、幾何学歪みでもあるが、この歪みは各色成分に関して変化する。 Chromatic aberration is also an geometric distortion, this distortion will vary for each color component. これらの歪みは、投影(前面又は背面)型の表示装置において極めて共通的であり、またまとめて幾何学歪みと呼ばれる。 These distortions, projection is very common in (front or rear) display device, also called a geometric distortion collectively. クロミナンスと輝度の不均一性は、すべての表示装置に影響を与える可能性があり、それによって一定の輝度又はクロミナンスであるように意図された信号が表示装置の画面に亘って変化すると見られ、あるいはその意図された知覚とは異なると見られる。 Non-uniformity of chrominance and luminance, it may affect all of the display device, thereby seen as intended signal to be a constant luminance or chrominance changes over the screen of the display device, or it is seen as different from its intended perception. このタイプの歪みは、変化する明るさ、表示に亘って変化する光路長、及びパネル(例えばLCD、LCOS、プラズマディスプレイ)における不均一なセンサー応答を有する光源によって引き起こされ得る。 Distortion of this type, brightness varies, the optical path length that varies across the display, and panels (e.g. LCD, LCOS, plasma displays) may be caused by a light source having a non-uniform sensor response in. 焦点に関連する歪みは、画像を輪郭不明瞭にするであろうし、また異なる画像面に焦点合わせされる物平面上の異なる点に起因する。 Strain associated with focus in the art will image the obscuring contour, also due to the different points on a plane object to be focused on different image planes. 本明細書に与えられる例示的実施形態では焦点と焦点の深さとに関するあるいくつかの問題が取り扱われる。 In exemplary embodiments given herein handled there are several problems with the depth of focus and the focus.

本明細書に提示される実施形態は、前述の歪みの少なくとも一部を除去又は削減するために表示装置を較正するシステムと方法とを説明する。 Embodiments presented herein describes a system and method for calibrating a display device in order to remove or reduce at least some of the distortions described above. これらの実施形態は、較正データの生成と結果として得られる修正の両者と修正の適用とを自動化する。 These embodiments automate the application and modification with both the product and the resulting modification of the calibration data. 時間的に変化する歪みのための較正も取り扱われる。 Calibration for the time-varying distortion also be handled. 較正段階(較正データを生成する)は、表示の特性描写と、例えば高解像カメラなどの感知装置によって表示装置上で観察される専用のテストパターンの捕捉と、これらの画像からの必要とされるデータ(すなわち較正データ)の抽出とを含む。 Calibration stage (generating calibration data) is a characteristic representation of the display, for example, capture and dedicated test pattern observed on a display device by the sensing device such as a high-resolution camera, it requires from these images and a that data (i.e., calibration data) extracted. 修正段階は、スクリーン上に歪みのない画像を表現するために電子修正手段を介して画像を予め歪ませることを含む。 Modifying step includes causing advance distort the image via electronic correction means to represent an image without distortion on the screen. 表示と捕捉されたテストパターンとの最適焦点を達成するための機構も提示される。 Mechanism for achieving optimal focus of the test pattern captured with the display is also presented.

図1は、表示装置の画面16上に表示された画像を修正するための自動化された較正・修正システムの一例示的実施形態の図を示す。 Figure 1 shows a diagram of one exemplary embodiment of an automated calibration and correction system for correcting an image displayed on the screen 16 of the display device. この自動化較正・修正システムは、テスト画像発生器14と感知装置11と較正データ発生器12とワープ発生器13とディジタルワーピングユニット15とを含む。 This automated calibration and correction system includes a calibration test image generator 14 and the sensing device 11 the data generator 12 and the warp generator 13 and the digital warping unit 15. 表示装置は、TV(背面投影TV、LCD、プラズマなど)、前面投影システム(すなわちスクリーンを有するプロジェクタ)又は画像を表示する他の任意のシステムであることが可能であり、これらすべては画面を有する。 Display device, TV (rear projection TV, LCD, plasma, etc.), it can be a any other system for displaying or image (projector having or screen) front projection system, all of which has a screen . 画面16は通常、それを背景から区別する境界又はフレームを有し、通常この背景は表示スクリーン(画面)を取り囲む物理的ベズル(表縁)であろう。 The screen 16 typically have a distinguishing border or frame it from the background, will usually physical Basil surrounding the background display screens (screen) (bezel). しかしながら境界は、ベズル又は何らかの物理的特徴要素である必要はない。 However the boundary need not be a bezel or some physical feature elements. 一般に境界は、背景領域から何らかの手段によって区別され得る物理的画面16上の何らかの領域と関連し得る。 Generally the boundary may be associated with some area on the physical screen 16, which may be distinguished by some means from the background region. 例えば表示の外部の手段によって表示上に投影されて物理ベズル内にある矩形の輪郭は、境界として識別され得る。 For example, a rectangular outline within is projected on the display physical Basil the display of an external device can be identified as a boundary. 本明細書に与えられる例示的実施形態では較正・修正遠近法からの画面16は、少なくともあるいくつかの場合にベズルそれ自体であり得る識別された境界内にある物理的表示装置のこの領域であると取られる。 Screen 16 from the calibration and correction perspective in the exemplary embodiments given herein, in this region of the physical display devices in the bezel in it can be a per se identified boundaries in some cases at least some It is taken if there is. 境界はまた、図1の画面16を取り囲むように示されている画面フレームとも呼ばれる。 Boundaries are also referred to as screen frame illustrated so as to surround the screen 16 of FIG.

変化する深さを有する湾曲したスクリーンに関しては表示に関する二つの主要な観察点が採用され得る。 Two main observation point may be adopted to a display with respect to a curved screen having a depth that varies. 観察平面は、画像が物理的画面16とは異なり得る、あるいは物理的画面16の単なる一部を含み得る修正された形にされるべきである焦点面と見られ得る。 Viewing plane may images are seen as physically be different from the screen 16, or focal plane which should be in the modified form may include just a portion of the physical screen 16. 焦点面上のすべての点は、同じ焦点深度を有する。 All points on the focal plane, have the same depth of focus. この場合、物理的マーカー、又は感知装置(すなわち観察者)の視界は、焦点面境界を決定するであろう(図2a参照)。 In this case, the field of view of the physical marker or sensing apparatus (i.e. the observer) will determine the focal plane boundaries (see FIG. 2a). 画面フレームは、利用可能なときに画面16に関してカメラの方位を決定するために使用される。 Screen frame is used to determine the orientation of the camera with respect to the screen 16 when it is available.

代替として全スクリーンは、湾曲した境界(図2b参照)を形成する物理的ベズル(表縁)によって観察され得る。 All screens Alternatively, can be observed by physical bezel to form a curved boundary (see FIG. 2b) (bezel). ここでスクリーン上の異なる点は、異なる焦点深度を有する。 Here different points on the screen have different focal depths. 較正・修正は、最終画像を湾曲した境界に整合させることを目的としている。 Calibration and correction is intended to align the final image on a curved boundary.

これら二つの観察点は、較正・修正が必要とされる異なる表示領域を識別するために組み合わされることが可能である。 These two observation point may be combined to identify different display area required calibration and correction. 例えば境界は、特定の焦点面における捕捉された画像輪郭と物理的ベズルとの組合せであると取ることができる。 For example the boundary may be taken as a combination of captured images contours and physical basil in a particular focal plane. 湾曲した境界はまた、湾曲した輪郭を投影することによって平面表示上に実施され得る。 Curved boundary can also be performed on a flat display by projecting a curved contour. これは、境界は湾曲しているがスクリーン自体は平坦である、すなわち無限大の曲率半径を有するという特殊なケースと見ることができる。 This boundary can be seen as a special case that although curved screen itself is flat, i.e. having an infinite radius of curvature.

形状あるいは幾何学形状の変化を含む歪みに関して、画面16上で見られる画像(修正前の)は、完全には囲まれない(オーバーフローする)可能性がある。 Respect strain including changes in shape or geometry, image (before correction) seen on the screen 16 is completely (overflow) is not enclosed in potentially. これは図3に示されている。 This is shown in Figure 3. ケース(a)では画像ABCDは画面フレーム18を完全に囲むためにオーバーフローしている(溢れ出ている)が、ケース(b)では画像は完全に囲まれている(アンダーフローしている)。 Case (a) In the image ABCD is overflowed to enclose the screen frame 18 completely (that overflowing) is an image in case (b) is (are underflow) is completely surrounded. ケース(c)は、画像が画面16を部分的にカバーしている中間状態(不整合)である。 Case (c) is an intermediate state in which the image is partially cover the screen 16 (mismatch). 3つすべての状態は前面又は背面投影システムのどちらからでも起こり得るものであって、本システムによって修正可能である。 All three conditions are be those which can occur from either the front or rear projection system can be modified by the system.

テスト画像発生器14は、較正プロセスのために設計された専用のパターンを含む画像を与える。 Test image generator 14 provides an image including a dedicated pattern designed for the calibration process. これらの画像は、較正テストパターンとも呼ばれる。 These images are referred to as the calibration test pattern. 使用され得る最も一般的に使用される較正テストパターンは、規則的な(非連結性)グリッドパターン、円形、正方形、水平・垂直パターン、バー、線、同心パターン、矩形、円形、及び均一なグレイ・カラーレベルを含む。 Calibration test patterns are used most commonly which can be used are regular (non-connectivity) grid pattern, round, square, horizontal and vertical patterns, bar, line, concentric patterns, rectangular, circular, and even gray - including the color level. 上記のパターンの色付き(種々の原色についての)バージョンは、横の色収差修正とクロミナンス不均一修正とのために使用され得る。 Version (for various primary) colored above pattern can be used for the lateral chromatic aberration corrected and chrominance nonuniformity modification. これらのパターンにおける形状は、特徴要素とも呼ばれる。 Shape in these patterns are also referred to as characteristic element. すべてのパターンは、明確に定義されたその特徴特性、すなわち特徴要素の数、位置、サイズ、境界、色、及び他の任意の定義パラメータを有する。 All patterns have well-defined its features characteristics, i.e., the number of feature elements, the position, size, border, color, and any other defined parameters.

いくつかの例示的較正パターンは、図4のパネル(a)〜(m)に示されている。 Some exemplary calibration pattern is shown in panel FIG. 4 (a) ~ (m). 特性(中心位置、半径など)を示すガイドラインは、テストパターンの一部ではない。 Characteristics (center position, radius, etc.) guidelines that the is not part of the test pattern. これらのテストパターンの色と形状の変化は、黒と白を交換するため、黒白を色に置き換えるため、1パターン内で異なる特徴要素のために異なる色を使用するため、1パターン内で種々の形状を組み合わせるため、及びグレーレベルと色レベルを変化させるためにも使用され得る。 Changes in color and shape of these test patterns, for exchanging black and white, to replace the black and white to color, to use different colors for different feature elements within a pattern, different in one pattern to combine shapes, and may also be used gray level and color levels to vary.

原色を使用するこれらのパターンのバージョンは、横の色収差を較正するために使用される。 Versions of these patterns that use primary colors, are used to calibrate the lateral chromatic aberration. パネル(g)に例示的色パターンが示され、ここでは水平バーと垂直バーとこれらの交差部分はすべて異なる色である。 Panel (g) Exemplary color pattern shown in, here all different horizontal bars and vertical bars and these intersections color.

すべてのパターンは、あるいくつかの明確な特性を示し、その最も顕著なものは、形状の中心位置と数学的にはそれぞれ点と線と見られ得るこれらの境界である。 All patterns, shows a certain number of distinct properties, the most prominent is the center position and mathematical shapes are those boundaries that may be viewed as each point and a line.

感知装置11は、画面16上で見られる較正テストパターンを記録する。 Sensing device 11 records the calibration test pattern seen on the screen 16. 幾何学歪みを修正するために感知装置11は、カメラであり得る。 Sensing device 11 to correct for geometric distortion can be a camera. カメラの解像度と捕捉フォーマットは、修正において必要とされる精度に依存して選択され得る。 Resolution and capture format camera can be selected depending on the accuracy required in the modification. クロミナンスと輝度の不均一を修正するとき、感知装置11は色分析器(例えば測光器又は分光計)であり得る。 When correcting nonuniformity of chrominance and luminance, sensing device 11 may be a color analyzer (e.g., photometer or spectrometer).

この例示的実施形態では幾何学的誤差を修正するために、感知装置11は表示装置に関していかなる位置にでも配置され得る。 To correct the geometric errors in the exemplary embodiment, sensing device 11 may be located even in any position with respect to the display device. 感知装置11の配置におけるこの自由は、捕捉された画像が感知装置11の配置のために歪み成分を含むことを許されるという事実の故に可能である。 The free in the arrangement of the sensing device 11 may be due to the fact that the captured image is allowed to include distortion components for placement of the sensing device 11. 感知装置11が画面16を直接(すなわち正面から)見なければ、感知装置11による台形歪曲となる成分が存在するであろう。 If viewed sensing device 11 is a screen 16 directly (i.e., from the front) would component as a trapezoidal distortion by sensing device 11 is present. この歪みは、多軸台形歪(keystone This distortion, multi-axis trapezoidal distortion (keystone
distortion)み成分として考慮される最大3本の異なる軸に起こり得るであろう。 distortion) would possible to up to three different axes to be considered as observed component.

更にカメラなどの感知装置11の光学系はそれ自体の歪みを有するので、考慮される光学的歪み成分も存在する。 Further, since the optical system of the sensing device 11, such as a camera having a distortion of its own, also present optical distortion component to be considered. 他のタイプの感知装置11は、他の固有の歪みを有する。 Other types of sensing device 11 has other inherent distortion. カメラ又は感知装置11によって導入された複合歪みは、カメラ歪みと呼ばれるであろう。 Composite distortion introduced by the camera or sensing device 11 will be referred to as a camera distortion. カメラ歪みは、較正データを生成するときに決定されて補正される。 The camera distortion is corrected is determined when generating the calibration data.

カメラ歪みを決定するために、少なくとも一つの例示的実施形態では、知られている歪みの無い方位/形状の物理的基準マーカーが使用される。 To determine the camera distortion, at least one exemplary embodiment, the physical fiducial markers without distortion known orientation / shape is used. これらのマーカーはカメラによって捕捉され、また捕捉された画像のこれらの方位/形状をこれらの歪みの無い方位/形状と比較することによって、カメラ歪みは決定され得る。 These markers are captured by the camera, also these orientation / shape of the captured image by comparing it with no orientation / shape of these distortions, the camera distortion can be determined. 一つの現実的なマーカーは、所与の方位及び形状(一般に現実世界で歪みのない矩形)であると知られているフレーム(境界)自体である。 One practical marker is a frame (border) itself is known to be given orientation and shape (generally undistorted real world rectangle). フレームはまた、較正が行われる基準でもある、すなわち修正された画像はフレームに関して真っ直ぐであるべきである。 Frame addition is also a reference calibration is performed, i.e. modified image should be straight with respect to the frame. したがって幾何学歪みを修正するときに、カメラによって捕捉された画像は観察スクリーン境界(すなわちフレーム18)を含むべきである。 Thus when correcting geometric distortions, the images captured by the camera should include a viewing screen boundary (or frame 18).

境界が検出可能でないもう一つの例示的実施形態では、カメラ内のセンサーは、画面16に関するカメラ歪みを決定するために、スクリーン上で発光器からの信号を感知するために使用される。 In another exemplary embodiment the boundary is not detectable, the sensor in the camera, in order to determine the camera distortion about the screens 16 are used to sense a signal from the light emitter on the screen. 結果として得られた測定値は、カメラから見られる画面16のマップを生成する。 Results measurements obtained as generates a map screen 16 as seen from the camera.

横の色収差に関して修正するときカメラは、Kセットの画像を捕捉するであろう。 Camera when corrected for lateral chromatic aberration will capture an image of the K sets. ここでKは色成分、例えば3原色RGBの数である。 Where K is the number of color components, for example the three primary colors RGB. 図4のテストパターンの少なくとも一部は各色成分に関して繰り返されるであろう。 At least part of the test pattern of Figure 4 will be repeated for each color component.

明るさと色(輝度とクロミナンス)の修正は、幾何学的修正の関連性と無関係に行われる。 Modify brightness and color (luminance and chrominance) are performed independently of the relevant geometrical modification. 投影システムではこれらの明るさと色の修正は、幾何学歪みの修正の後に行われる。 These brightness and color correction in the projection system is performed after the geometric distortion correction. 幾何学歪みが存在しない平面型表示装置では、輝度と色の修正は直接行われる。 In flat-panel display geometric distortion is not present, the brightness and color correction is carried out directly. 一例示的実施形態では、色分析器などの感知装置は、色情報を引き出すために画面16に直接か、又は画面16の近くに配置される。 In one exemplary embodiment, sensing device such as a color analyzer, either directly on the screen 16 in order to bring out the color information, or is placed close to the screen 16. この場合、感知装置位置決めのための修正は必要でない。 In this case, the correction for the sensing device positioning is not required. 感知装置11は、特定の点において全画像又は情報を捕捉し得る。 Sensing device 11 may capture the entire image or information in certain respects. 後者の場合、スクリーン上の点のグリッドからのデータが捕捉される必要がある。 In the latter case, it is necessary that the data from the grid of points on the screen is captured. 感知装置11が画面16に関して台形位置(keystone position)にあれば、その配置に起因する修正は上記のカメラの修正と同様に行われる必要がある。 If the trapezoidal position (keystone position) with respect to the sensing device 11 the screen 16, corrected due to the arrangement has to be carried out in the same manner as modifying the camera.

幾何学歪みを有する表示装置に関しては輝度と色の修正は、幾何学的修正が行われた後に行われるべきである。 Brightness and color correction with respect to display device having a geometric distortion should geometric correction is performed after performing. これは、表示装置が色依存性歪みを含む幾何学歪みに関して先ず修正されることを意味する。 This means that the display device is first corrected for geometric distortions including color-dependent distortion. 幾何学的修正の後の色に関する修正は、幾何学的修正によって導入されるいかなる追加の色歪みも考慮されることを可能にし、最終画像を含む領域だけ(すなわち背景でない)が修正されることを保証する。 Fixes the color after geometrical modifications, any additional color distortion introduced by the geometrical modifications also allow it to be considered, only the region including the last image (i.e. non-background) that is modified guaranteed to.

この例示的実施形態では較正データ発生器12は画像を分析して、今度はディジタルワーピングユニット15のためにワープデータを供給するワープ発生器13によって使用されるフォーマットで較正データを抽出する。 The exemplary calibration data generator 12 in the form analyzes the image, this time to extract the calibration data in a format used by warp generator 13 supplies the warp data for digital warping unit 15.

下記では幾何学形状を修正するための較正データが先ず論じられるであろう。 The following would calibration data for correcting the geometric shape is first discussed. 以下に与えられる例では、分析される主要テストパターンは、図4のパネル(a)、(b)に示されたパターンなどのグリッドパターンを有するものである。 In the example given below, the main test patterns to be analyzed, the panel of FIG. 4 (a), and has a grid pattern such as the pattern shown in (b). バー/線(ライン)の交差部分がグリッドを与えるので、図4のパネル(e)〜(g)のパターンも使用可能である。 Since the intersection of the bar / line (line) gives grid pattern of the panel of FIG. 4 (e) ~ (g) can also be used.

グリッドタイプパターンなどのテスト画像は、入力空間内の既知の位置付近を中心とする1セットの形状を与える。 Test image such as a grid type pattern provides a set of shape centered around a known position in the input space. これらの中心は、iが形状に亘って順に並ぶ(x i 0 ,y i 0 )として表されることができる。 These centers, i can be represented as arranged in this order over the shape (x i 0, y i 0 ). 左上から始めてテストパターンの行に沿って進み、全部でM×N個の形状が存在し、テストパターンの解像度はW T ×H Tである。 Proceeds along the line of the test pattern starting from the upper left, there are the M × N shape in total, the resolution of the test pattern is W T × H T. テストパターン解像度は、表示装置固有の解像度に一致する必要はない。 Test pattern resolution does not have to match the display-specific resolution. 表示されたときテストパターン内の形状の中心は、幾何学歪みによって(x di 0 ,y di 0 )で表されるいくつかの他の値に変換されるであろう。 Center of the shape of the test pattern when displayed will be converted to some other value represented by the geometric distortion (x di 0, y di 0 ). これらの形状も歪むであろう、すなわち円は楕円などに歪むであろう。 It would distorted even these shapes, namely circles will distorted such as an ellipse. これらの座標は、画面16のフレーム18の左上の原点に関して表示空間内で定義される。 These coordinates are defined in the display space with respect to the upper left origin of the frame 18 of the screen 16. D ×H Dが任意の測定単位における表示装置(フレーム18の内部)の解像度を表すとして、座標(x di 0 ,y di 0 )もこれら同じ測定単位になっているとする。 As W D × H D represents the resolution of the display device (inside of the frame 18) at any unit of measurement, coordinate (x di 0, y di 0 ) is also assumed to become these same unit of measurement. 表示空間は、現実世界又は観察者空間と同等である、すなわち修正された画像は表示空間では歪み無しで現れなくてはならない。 Display space, reality is equivalent to the world or observer space, ie, the modified image must be appear without distortion in the display space.

カメラは、歪んだグリッドパターンの画像を捕捉して、それを較正データ発生器12に送る。 Camera, captures an image of the grid pattern distorted, and sends it to the calibration data generator 12. カメラの解像度は、W C ×H Cで表される。 Camera resolution is expressed by W C × H C. 本明細書に与えられた実施形態ではカメラ解像度は、表示装置の解像度と一致する必要はなく、更にカメラはどこに配置されてもよい。 Camera resolution in the embodiment given herein need not match the resolution of the display device may be located anywhere further camera. カメラ空間の中心の座標は、捕捉された画像の左上として定義された原点を有する、(x ci 0 ,y ci 0 )である。 Coordinates of the center of the camera space has a defined origin as the upper left of the captured image, an (x ci 0, y ci 0 ).

捕捉された画像はカメラの観察点からのものであるが、較正は現実世界の観察点において、すなわち観察者の視点から行われなくてはならない。 Although captured images are from the observation point of the camera, the calibration in the observation point in the real world, i.e. must take place from the viewpoint of the observer. したがって較正手順は、カメラ歪みとも呼ばれるカメラの観察点を取り去らなくてはならない。 Thus calibration procedure, must be removed the observation point of the camera, which is also referred to as the camera distortion. 上記に論じたように一例示的実施形態では、これは、画面フレーム18をマーカーとして使用することによって行われる。 In one exemplary embodiment, as discussed above, this is done by using the screen frame 18 as a marker. したがってカメラ画像は、画面フレーム18も捕捉すべきである。 Thus the camera image, the screen frame 18 should also be captured. 現実世界では画面フレーム18は、下記の座標によって定義される。 In the real world screen frame 18 is defined by the coordinates below.
左上:(0,0) Top left: (0,0)
右上:(W D ,0) Upper right: (W D, 0)
左下:(0,H D Lower left: (0, H D)
右下:(W D ,H D ) (2) Bottom right: (W D, H D) (2)

カメラ画像においてこれらの座標は、下記のようになる。 These coordinates in the camera image is as follows.
左上:(x cTL d ,y cTL d Upper left: (x cTL d, y cTL d)
右上:(x cTR d ,y cTR d Upper right: (x cTR d, y cTR d)
左下:(x cBL d ,y cBL d Lower left: (x cBL d, y cBL d)
右下:(x cBR d ,y cBR d ) (3) Bottom right: (x cBR d, y cBR d) (3)

図5は、種々の空間と座標系とを示す。 Figure 5 shows the various space and coordinate system. 画像は白い背景上に黒い円として示されているが、すべてのテストパターンは色付きにでき、また他の形状又は特徴要素を使用することもできる(例えば図4を参照)。 Image is shown as a black circle on a white background, all test pattern can be the colored, it can also be used other shapes or features elements (see Figure 4 for example). 表示空間とカメラ空間には、画像が画面フレーム18を完全にカバーするためにオーバーフローするケース(a)と、画像が画面フレーム18の内部に完全に納まるか、あるいはアンダーフローするケース(b)と、画像が画面フレーム18内に完全には入らない中間状態、あるいは不整合のケース(c)とに対応する3つのケースが示されている。 The display space and camera space, the case (a) overflowing to the image completely covers the screen frame 18, the image is fully seated in the interior of the screen frame 18 or, alternatively the underflow to case (b) , the image is an intermediate state does not enter completely into the screen frame 18, or three cases corresponding to the mismatch of the case (c) is shown. これらのケースは、投影幾何学クラスと呼ばれる。 These cases are referred to as the projection geometry class. 入力及びカメラ空間はピクセルの点から定義されるが、表示空間はピクセル、ミリメートル又は他のいくつかの単位で定義され得ることに留意されるべきである。 Input and camera space are defined in terms of pixels, the display space is to be noted that may be defined pixels, in millimeters or some other units.

Dで表される表示歪みは、方程式(4)によって与えられるマッピングとして関数的に記述され得る。 Display distortion represented by f D can be functionally described as a mapping given by Equation (4).

D :(x i 0 ,y i 0 )→(x di 0 ,y di 0 ) (4) f D: (x i 0, y i 0) → (x di 0, y di 0) (4)

これは、修正(f D C )が方程式(5)で指定される、方程式(4)で与えられたものの逆数であることを意味する。 This means that modified (f D C) is specified in Equation (5), which is the inverse of those given by equation (4).

D C :(x di 0 ,y di 0 )→(x i 0 ,y i 0 ) (5) f D C: (x di 0 , y di 0) → (x i 0, y i 0) (5)

ディジタルワーピングユニット15は、表示に先立って入力画像をワープする(予め歪ませる)ために入力画像に修正f D Cを加えるであろう。 Digital warping unit 15 will make modifications f D C to the input image to warp the input image prior to display (to advance distort).

上記のマップは両者とも順方向に定義される。 The above map is defined both in the forward direction. 関数変域は入力画像であり、値域は出力画像である。 Function domain is the input image, the value range is output image. 周知のように、電子修正回路が逆アーキテクチャを使用して画像を生成することはより効率的で正確である。 As is well known, it is more efficient and accurate for electronic correction circuit to generate an image using the inverse architecture. 逆ワーピングアーキテクチャにおいて回路の出力画像は、修正マップを介して出力のピクセルを入力にマッピングし、それから入力空間でフィルタリングする(すなわち色値を割り当てる)ことによって生成される。 The output image of the circuit in reverse warping architecture are mapped to an output of the pixel through modification map, then (assign i.e. color values) for filtering the input space is produced by. これはまた、修正マップがf Wとラベル付けされる逆形式で表されることを意味する。 This also means that the modified map is represented by a reverse format that is f W labeled. 逆形式の修正は表示歪みマップ自体(f W ≡(f C D-1 =f D )であるので、逆アーキテクチャ修正ユニットによって必要とされるマップ又はワーピングデータは単に表示歪みマップである。 Since modifications of the inverse form is displayed distortion map itself (f W ≡ (f C D ) -1 = f D), map or warping data needed by reverse architecture modification unit is simply displayed distortion map. したがって較正データ発生器12によって生成されるべきグリッドデータは方程式(6)で定義される。 Therefore the grid data to be generated by the calibration data generator 12 is defined by equation (6).

W :(x i 0 ,y i 0 )→(x di 0 ,y di 0 ) (6) f W: (x i 0, y i 0) → (x di 0, y di 0) (6)

グリッド及びマッピングという表現がしばしば交換可能に使用されることは留意されるべきである。 It should be noted that the term grid and mapping are often used interchangeably. この情報は、カメラ空間にあるカメラによって捕捉された画像から抽出される必要がある。 This information needs to be extracted from the captured image by the camera in the camera space. 捕捉された画像は方程式(7)で定義されるマッピングに対応する。 Captured image corresponds to a mapping defined by Equation (7).

F :(x i 0 ,y i 0 )→(x ci 0 ,y ci 0 ) (7) f F: (x i 0, y i 0) → (x ci 0, y ci 0) (7)
全画像マップと呼ばれるこのマップは、表示歪みマップf Dと、カメラ歪みマップの減算が方程式(8)で定義される必要なf Wを与えるカメラ歪みマップf Cとの組合せであると見ることができる。 This map, called full image map, can see the display distortion map f D, and subtraction of the camera distortion map is a combination of a camera distortion map f C provide the necessary f W defined in equation (8) it can.

C :(x di 0 ,y di 0 )→(x ci 0 ,y ci 0 f C: (x di 0, y di 0) → (x ci 0, y ci 0)
F =f CD =f CW ⇒f W =f C -1F (8) f F = f C f D = f C f W ⇒f W = f C -1 f F (8)

Dからのf Cの減算は、単に二つのマップの連結(又は機能的合成)である。 subtraction of f C from f D is simply connected to two maps (or functional synthesis). 更に座標(x di 0 ,y di 0 )は、表示座標系のスケールと原点が適用可能でない可能性があるので、正しいピクセルスケールと原点とに導かれる必要がある。 Furthermore coordinates (x di 0, y di 0 ) , there is a possibility scale and origin of the display coordinate system is not applicable, it is necessary to be guided to the correct pixel scale and origin. これは、以下更に詳細に論じられるであろう。 This following will be discussed in more detail.

図6に較正データ発生器12の一例示的実施形態が示されている。 One exemplary embodiment of a calibration data generator 12 is shown in FIG. 形状中心(x ci 0 Shape center (x ci 0,
ci 0 )を抽出するために、先ずテストパターンのW C ×H Cカメラ画像が分析される;これはf Fを与えるであろう。 To extract the y ci 0), first W C × H C camera image of the test pattern is analyzed; this would give a f F. カメラ空間における形状中心は、表示歪みとカメラ歪みによってマッピングされた後に入力空間における形状中心の対応する位置である。 Shape center in the camera space is the corresponding position of the shape center in the input space after being mapped by the display distortion and camera distortions. 画面16をオーバーフローする画像領域に関してこれらの形状は、使用可能ではないであろう。 These shape with respect to the image area overflowing the screen 16 would not be available. これら外に広がる形状は通常、おそらく異なる平面上の背景にあるので、背面投影TVあるいは前面投影システムでは目に見えないであろう。 These outside the spread shape Usually, probably behind on different planes, would not be visible in the rear projection TV or a front projection system. したがってEFGH(図5参照)と定義された画面16内の形状だけが分析される。 Therefore only the shape of EFGH (see FIG. 5) to a defined screen 16 is analyzed.

形状中心は、種々の画像処理アルゴリズムを使用して見つけ出すことができる。 Shape center can be found using various image processing algorithms. 一つの方法は、閾値機構を使用して、捕捉された画像を二値(白黒)画像に変換することを含む。 One method involves using a threshold mechanism, converts the captured image binary (black and white) on the image. 二値画像内の形状は、それらのピクセルを識別してラベル付けされることができる。 The shape of the binary image may be labeled to identify those pixels. 各セットの分類されたピクセルに関する図心は、形状中心に近づくであろう。 Centroid of Classification pixels of each set will approach the shape center. 閾値は、画像のヒストグラムを分析することによって自動的に決定できる。 Threshold can automatically determined by analyzing the histogram of the image. このヒストグラムは、捕捉画像の輝度あるいは固有の色相になっている可能性がある。 This histogram is likely to have become brightness or specific hue of the captured image.

捕捉画像はまた、画面座標及び境界を抽出するためにも分析される。 The captured image is also analyzed to extract screen coordinates and boundary. このステップのために種々の画像が使用され得る。 Various images can be used for this step. カメラ歪みf Cを決定するためにフレーム座標が必要とされる。 Frame coordinates are required to determine the camera distortion f C. カメラが光学歪みを有さなければ、カメラ歪みはf C Pとラベル付けされた遠近法歪みであって、4隅の方程式(3)で定義された座標だけがf Cを決定するために必要である。 If the camera is free of optical distortion, the camera distortion is a perspective distortion which is f C P labeled, required to only coordinates defined by the four corners of the equation (3) determines the f C it is. カメラも光学歪みを有するならば追加のマーカーが必要である。 The camera also there is a need for additional markers if they have an optical distortion. フレーム境界EFGHは、そのエッジのライン方程式によってパラメータ化され得る十分なマーカーを与え得る。 Frame boundary EFGH may provide sufficient markers that can be parameterized by the line equation for that edge. エッジ方程式はまた、4隅を決定し、またどの形状が画面16内にあるかを決定するために使用され得る。 Edge equations also determines the four corners, also what shape may be used to determine whether the screen 16. 表示空間内の例えば(x di CC ,y di CC )などの既知の座標を有する物理的矩形グリッドもまた、カメラ空間内で(x ci CC ,y ci CC )と画像形成される追加マーカーを与えるために画面16に付与又は投影され得る。 Give example (x di CC, y di CC ) in the display space and physically rectangular grid having known coordinates, such as addition, in a camera space (x ci CC, y ci CC ) additional markers to be imaged It may be applied or projected on the screen 16 in order. このグリッドは、カメラ較正(CC)グリッドと見ることができる。 This grid, can be seen as a camera calibration (CC) grid. フレーム座標と境界とを決定することは、表示特徴記述とも呼ばれる。 Determining the frame coordinates and boundaries are also referred to as a display feature description.

感知装置観察点から、カメラレンズ内の光学歪みのシナリオと湾曲スクリーンのシナリオは区別できない。 From the sensing device observation point, the scenario and the curved screen scenario optical distortion of the camera lens can not be distinguished. 両方の場合とも、マーカーとフレームは、湾曲しているものとして画像形成される。 In both cases, the marker and the frame, an image is formed as being curved. したがって湾曲スクリーンもまた、カメラ歪みと関連CCグリッドとのフレームワーク内で取り扱われ得る。 Thus the curved screen can also be handled within the framework of the camera distortion and the associated CC grid. カメラ歪みに関する修正はまた、最終画像が湾曲フレームに整合することを保証するであろう。 Modify a camera distortion also final image will ensure that matches the curved frame. 湾曲スクリーン修正のためにCCグリッドは、マーカーをフレーム18に規則的な距離で(スクリーン上で測定して)付与することによって構成されることができ、それからこれらはフレーム18の内部に内挿(interpolated)され得る。 CC grid to the curved screen modifications (as measured on the screen) a marker to the frame 18 at regular distances can be constituted by applying, then they internally in the interpolation frame 18 ( interpolated) it can be. マーカーもまた、フレーム18の内部に付与され得る。 Markers may also be applied to the inside of the frame 18. しかしながら湾曲スクリーンは2次元の面であるから2次元CCグリッドを介して較正を可能にすることに留意されたい。 However curved screen Note that to enable calibration through the two-dimensional CC grid because it is a two-dimensional plane.

エッジ(フレーム18の、又は付与されたCCグリッドの)又はマーカーは、例えばエッジ検出などの標準の画像処理方法を使用して検出され得る。 Edge (frame 18, or the granted CC grid) or marker, for example, can be detected using standard image processing methods such as edge detection. エッジの位置を知って、ライン方程式はエッジに適合することができ、またラインの交差部分は、4隅とCCグリッド座標とを与える。 Knows the position of the edge, line equations can be adapted to the edge, and the intersection of the line gives the 4 corners and CC grid coordinates. エッジとCCグリッド座標は、方程式(9)に示すように定義でき、ここでN CCはカメラ較正グリッドにおける点の数である。 Edge and CC grid coordinates may be defined as shown in equation (9), where N CC is the number of points in the camera calibration grid.

(l Tx (t),l Ty (t))→上部エッジ(l Rx (t),l Ry (t))→右エッジ(l Bx (t),l By (t))→底部エッジ(l Lx (t),l Ly (t))→左エッジ(x ci CC ,y ci CC ),i=1・・・N CC →カメラ較正グリッド (9) (L Tx (t), l Ty (t)) → the upper edge (l Rx (t), l Ry (t)) → the right edge (l Bx (t), l By (t)) → the bottom edge (l Lx (t), l Ly ( t)) → left edge (x ci CC, y ci CC ), i = 1 ··· N CC → camera calibration grid (9)

あるいくつかの表示装置(湾曲スクリーンを有する表示装置など)に関して、物理マーカーからのCCグリッドは、直ちに利用可能でないことがあり得る。 For certain some display devices (such as a display device having a curved screen), CC grid from the physical markers may be not immediately available. この場合、エッジ方程式は、CCグリッドを数学的に構築するために使用され得る。 In this case, the edge equations may be used to construct the CC grid mathematically. エッジに沿って点を配置する方法とフレーム18の内部に内挿する方法とに関して自由が存在する。 Freedom exists for the interpolation method in the interior of the method and the frame 18 to place the point along the edge. 選択された方法とは無関係に、変域座標(順序付けに関する論議を参照のこと)が適切に選択されていることを条件として、最終画像はフレーム18に整合するであろう。 Regardless of the method chosen, the condition that the domain coordinates (see discussion of ordering) is selected properly, the final image will be aligned with the frame 18. 一つの配置方法は、エッジに沿って点を等距離に配置することであり、これらの点は内部に直線的に内挿され得る。 One arrangement method is to place the point along the edge equidistant, these points may be interpolated linearly therein.

製造業者がf C Oとラベル付けされたカメラの光学歪みに関する仕様を提供するならば、これらの仕様は方程式(10)に指定されるカメラ較正グリッドの代わりに使用されるために、又はカメラ較正グリッドを生成するために遠近法歪と組み合わされ得る。 If you provide the specifications for optical distortion of the camera manufacturer is f C O labeled, to be used instead of the camera calibration grid specified in these specifications equation (10), or camera calibration It may be combined with the perspective distortion in order to generate the grid.

C =f C OC K :(x di CC ,y di CC )→(x ci CC ,y ci CC ) (10) f C = f C O f C K: (x di CC, y di CC) → (x ci CC, y ci CC) (10)

カメラ歪みの光学成分は、カメラの位置と方位から独立であるので、表示較正に先立って決定できる。 The optical components of the camera distortion, because it is independent of position and orientation of the camera, can be determined prior to the display calibration. 方程式(3)及び(9)のデータは、まとめてカメラ較正データと呼ばれるであろう。 Data equations (3) and (9) will be referred to as camera calibration data together.

一旦座標が抽出されると、座標は正しい順序で配置される必要がある。 Once the coordinates are extracted, coordinates need to be arranged in the correct order. 数学的には順序付けは、各値域座標(x ci 0 ,y ci 0 )に対してその対応する変域座標(x i 0 ,y i 0 )を割り当てるであろう。 Mathematically ordering in will assign the corresponding domain coordinates for each range coordinates (x ci 0, y ci 0 ) (x i 0, y i 0). 全画像マップf Fを構築するために変域座標を決定することが必要である。 It is necessary to determine the domain coordinates to construct the entire image map f F. 上記の抽出プロセスは、変域座標に関するいかなる情報も与えない。 The above extraction process does not give any information about the domain coordinates. 中心は必ずしも、入力テストパターンにおける形状順序付けに一致した順序で決定されないであろう。 Central necessarily, it will not be determined in the order that matches the ordered form of the input test patterns.

図4のパネル(c)及び(d)に示されたパターンのようなテストパターンは、点を順序付けるために使用され得る。 Test pattern such as the pattern shown that in FIG. 4 of the panel (c) and (d) it may be used to order the points. これらのテストパターンから捕捉された画像は、それらのピクセルが属するバーにしたがって分類されたピクセルを有し得る。 Captured images from these test patterns may have classified pixels in accordance bars those pixels belong. 形状中心はまた、この分類内に配置され得る。 Shape center can also be placed in this classification. 中心が属する水平・垂直バー、例えば(r,s)は、Iが方程式(11)で定義される変域座標(x i 0 ,y i 0 )を決定するであろう。 Horizontal and vertical bars which center belongs, for example (r, s) will determine the domain coordinates I is defined by the equation (11) (x i 0, y i 0).

i=(r−1)N+s (11) i = (r-1) N + s (11)

順序付けするとき、どのバーと形状とが画面フレーム18の内部にあるかを決定することが重要である。 When ordering, it is important that the any bar shape to determine whether the inside of the screen frame 18. 背景領域(画面フレーム18の外側)が画像に高いコントラストを与えなければ、適当な閾値(抽出特徴座標ステップにおける)は単独で、画面フレーム18内部の形状とバーだけが測定されることを保証するであろう。 If given a higher contrast in the image (outside of the screen frame 18) background regions, (in the extraction feature coordinate steps) appropriate threshold alone, ensures that only the screen frame 18 inside the shape and the bar is measured Will. 外側の形状も強く表現されているならば、フレームエッジとの比較はどの形状とバーとが内部にあるかを決定できる。 If the outer shape is strongly expressed, compared with the frame edge it can determine the which shape and a bar is inside. バーの番号付けは、いかなる紛失バー(フレーム18の外側のバー)に関しても明細に説明しなくてはならない。 Numbering bars, it must be described in detail with respect to any lost bar (outer bars of the frame 18). 所与の番号付け順序のバーは、これらがフレームの内側又は外側にあるかどうかを決定するために、一度に一つフラッシュされ得る。 Bar of a given numbering sequence, to determine whether they are inside or outside of the frame may be one flushed at a time. バーを暗示的に番号付けするために種々のカラーバーも使用され得る。 Various color bars in order to implicitly numbered bars may also be used.

カメラ較正データはまた、変域座標が表示空間にある場合にも順序付けられる必要がある。 The camera calibration data also needs to be ordered when the domain coordinate is display space. しかしながらここでは、プロセスは、すべての特徴要素(定義による)がフレーム18内にあるのでより単純である。 Here, however, the process is simpler because all feature elements (as defined) is in the frame 18. 大抵の場合、順序付けを決定するためには座標比較で十分であろう。 In most cases, in order to determine the ordering may be sufficient in coordinate comparison. CCグリッドに関して順序付けは、変域CCグリッドと呼ばれるCCグリッドに関する変域座標(表示空間における)であるグリッド(x di CC ,y di CC )を割り当てるであろう。 Ordered with respect to CC grid will assign domain CC grid grid is domain coordinates for CC grid (in the display space) termed (x di CC, y di CC) a. この変域CCグリッドの値は、グリッドが物理マーカーに対応するかどうか、又はグリッドが数学的に構築されたかどうかに依存するであろう。 The value of the domain CC grid, whether the grid corresponds to a physical marker, or grid will depend on whether the constructed mathematically. 前者に関してはマーカーの既知の座標が変域CCグリッドを与える。 Known coordinates of the marker with respect to the former gives a domain CC grid. 後者に関しては変域CCグリッドを選択する際に幾らかの自由が存在する。 Some freedom exists in choosing a domain CC grid respect to the latter. 最終画像がフレーム18に整合すべきであれば(すなわち幾何学クラス(a))、エッジ上のCCグリッド点は矩形EFGH上の対応するエッジにマッピングしなくてはならない。 If the final image is to be matched to the frame 18 (i.e. geometry class (a)), CC grid points on the edge must be mapped to the corresponding edge of the rectangle EFGH. これは、エッジが下記のようにマッピングする必要があることを意味する。 This means that the edge has to be mapped as follows.

上部エッジ⇔{(0,0),(W D ,0)}を通る直線右エッジ⇔{(W D ,0),(W D ,H D )}を通る直線底部エッジ⇔{(0,H D ),(W D ,H D )}を通る直線左エッジ⇔{(0,0),(0,H D )}を通る直線 Upper edge ⇔ {(0,0), (W D, 0)} linear right edge ⇔ through {(W D, 0), (W D, H D)} straight bottom edge ⇔ through {(0, H D), (W D, straight left edge ⇔ through H D)} {(0,0) , a straight line passing through (0, H D)}

これらの制約を除いて変域CCグリッド点は、妥当ないかなる方法によっても選択可能である。 Except for these constraints variable area CC grid points are also selectable by reasonable any way. 完全な抽出と順序付けとによってマッピングf Wは方程式(8)を使用して発見できる。 Mapping f W by the complete extraction and sequencing can be found using the equation (8).

カメラ較正データは、逆カメラ歪みマップf C -1を最初に構築するために使用できる。 The camera calibration data can be used to construct the inverse camera distortion map f C -1 first.
純粋な遠近法カメラ歪み(すなわちf C =f C P )の最も一般的なシナリオには、4隅の点だけが必要とされる。 The most common scenario for pure perspective camera distortion (i.e. f C = f C P), only 4 corner points are needed.

(x d cTL ,y d cTL )→(0,0) (X d cTL, y d cTL ) → (0,0)
(x d cTR ,y d cTR )→(W D ,0) (X d cTR, y d cTR ) → (W D, 0)
(x d cBL ,y d cBR )→(0,H D (X d cBL, y d cBR ) → (0, H D)
(x d cBR ,y d cBR )→(W D ,H D ) (12) (X d cBR, y d cBR ) → (W D, H D) (12)

(逆)遠近法変換は、方程式(13)によって与えられる。 (Reverse) perspective transformation is given by Equation (13).

ここで(x d ,y d )は表示空間における座標であり、(x c ,y c )はカメラ空間における座標である。 Where (x d, y d) are the coordinates in the display space, the coordinates in the (x c, y c) is the camera space. 方程式(12)を使用すると、遠近法変換を定義する係数(a,b,c,d,e,f,g,h)に関して解くことができる8個の線形方程式が得られる。 Using equation (12), coefficients defining a perspective transformation (a, b, c, d, e, f, g, h) eight linear equations that can be solved with respect to obtained.

カメラ歪みが光学歪み成分f C 0を含むとき、又は湾曲フレームに関して修正しているとき、逆カメラ歪みマップf C -1を決定するためにエッジ方程式又はCCグリッドが使用される。 When the camera distortion comprises optical distortion component f C 0, or when they are corrected for curved frames, edge equations or CC grid is used to determine the inverse camera distortion map f C -1. 一つの方法は、CCグリッドが単にエッジ上だけでなく内部の点における歪みに関する情報を与えるので、CCグリッドを使用することである。 One method, since CC grid simply give information about the distortion at point inside as well on the edge is to use a CC grid. CCグリッドは方程式(10)で与えられる。 CC grid is given by equation (10). このグリッドは、所与の1セットの基底関数によって適合(最小二乗の意味において)又は内挿され得る。 This grid can be interpolated or (in a least squares sense) adapted by a given set of basis functions. 一つの選択は、方程式(14)に定義されるグリッドに対してスプライン適合を取得するか、内挿を行うためにスプラインベースを使用することである。 One option, obtain a spline fit to the grid as defined in equation (14) is to use a spline-based in order to perform the interpolation.

c I-1 :(x ci CC ,y ci CC )→(x di CC ,y di CC ),グリッドへの補間式又はフィットx d =f cx I-1 (x c ,y c f c I-1: (x ci CC, y ci CC) → (x di CC, y di CC), interpolation equation or fit to the grid x d = f cx I-1 (x c, y c)
d =f cy I-1 (x c ,y c y d = f cy I-1 (x c, y c)
C -1 =(f cx -1 ,f cy -1 )=(f cx I-1 ,f cy I-1 ) (14) f C -1 = (f cx -1 , f cy -1) = (f cx I-1, f cy I-1) (14)

抽出カメラ較正データステップのときに計算されたf C -1と座標(x ci 0 ,y ci 0 )からマッピングf Wは下記のような連結によって得られる、f W :(x i 0 ,y i 0 )→(x di 0 Mapping f W from the calculated f C -1 and the coordinate (x ci 0, y ci 0 ) when the extraction camera calibration data step is obtained by coupling such as the following, f W: (x i 0 , y i 0) → (x di 0,
di 0 )。 y di 0). ここで(x di 0 ,y di 0 )は方程式(15)によって与えられる。 Here (x di 0, y di 0 ) is given by equation (15).

この連結は、その変域のために全画像マップ値域を使用してカメラ逆歪みマップを評価する。 This connection, evaluates the camera inverse distortion maps using entire image map range for that domain.

得られたグリッド(x i 0 ,y i 0 )→(x di 0 ,y di 0 )は図5の中央の図に対応し、表示歪みを修正するために必要なマップ(逆形式の)を与える。 The resulting grid (x i 0, y i 0 ) → (x di 0, y di 0) corresponds to the center part of FIG. 5, required to fix the display distortion map (the inverse form) give. 前述のようにこのグリッドは単に、画面フレーム18内にある点を含む。 The grid as described above simply comprises a point within the screen frame 18. オーバーフローする歪み(ケース(a)及び(b))に関して変域空間(すなわち表示歪みの観察点からの入力画像)における多くのピクセル(形状中心に対応する)は、このグリッドによって定義された表示空間内にそれらの座標を有さない。 Strain overflow (Case (a) and (b)) (corresponding to the shape center) number of pixels in the variable area space (that is, the input image from the observation point of the display distortion) with respect to the display space defined by the grid They do not have their coordinates within. この例示的実施形態ではディジタルワーピングユニット15である電子修正ユニットは、すべての変域空間ピクセルを処理するであろう;逆アーキテクチャ修正ユニットに関する変域空間は実際には生成される出力画像である。 Electronic compensation unit in the exemplary embodiment is a digital warping unit 15 will process all variable area spatial pixel; variable domain space for the inverse architecture modification unit is an output image that is actually being generated. したがって紛失グリッドデータは計算される必要があり、これは外挿及び再サンプリングステップによって行われる。 Thus missing grid data needs to be calculated, which is done by extrapolation and resampling steps.

較正データ生成における最終段階は、スケールと原点とを固定することである。 The final step in the calibration data generation is to fix the scale and origin. 修正グリッドは、表示空間に在って、画面フレーム18の右上隅に関して定義される。 Fixed grid in the display space is defined in terms of the top-right corner of the screen frame 18. 表示空間の単位(スケール)は任意であって、入力空間で使用された単位とは異なってもよい。 Units of display space (scale) is arbitrary, it may be different from the unit used in the input space. このデータがワープ発生器13によって使用され得る前に、この原点とスケールは入力空間の原点とスケールに一致させられる必要がある。 Before the data can be used by warp generator 13, the origin and scale need to be matched to the origin and scale of the input space. これは、原点とスケールの最適化と見ることができる。 This can be seen as the optimization of origin and scale.

図5の中央の図を考えると、修正が適用されるとき最終修正画像は画面フレーム18に関して矩形であるべきである。 Given the central part of FIG. 5, the final corrected image should be rectangular with respect to the screen frame 18 when the correction is applied. 図7を参照すると、修正画像を含むこの矩形は、能動矩形A'B'C'D'と呼ばれるであろう。 Referring to FIG. 7, the rectangle containing the modified image will be referred to as the active rectangle A'B'C'D '. 能動矩形は、画像の細いエンベロープ(包絡線)(ABCD)内に、また画面フレーム(EFGH)内になければならない。 Active rectangle, thin envelope (envelope) of the image (ABCD) in the, also should be within the screen frame (EFGH). 原点及びスケールは、能動矩形の左上が(0,0)に対応し、この矩形の幅掛ける高さが入力画像のピクセル解像度であるW T ×H Tであるように、選択される必要がある(図7参照)。 Origin and scale, the top left of the active rectangle corresponds to the (0,0), so that the height multiplying the width of the rectangle is a pixel resolution of the input image W T × H T, it has to be selected (see Figure 7).

一旦スケール決めとシフトが行われると、較正に関する入力空間は実際には逆アーキテクチャにおける電子修正に関する出力画像であり、修正に関する入力画像は実際には表示空間(すなわち較正に関する出力空間)に等しいことに留意されたい。 Once the scale determined and the shift is performed, the input space about the calibration is the output image of the actual to the electronic correction in opposite architecture, the input image relates to modifications to actually equal to (output space regarding i.e. calibration) display space It should be noted.

矩形座標値を決定するW D ×H Dの値は、これらの値が画面フレーム18のアスペクト比を維持するという条件で、いかなる整数値であるようにも選択可能である。 The value of W D × H D for determining the rectangular coordinate values, these values are the condition of maintaining the aspect ratio of the screen frame 18 can also be selected such that any integer value. 方程式(18)を適用することは、表示空間寸法(下の図)を図7の修正に必要な入力画像寸法(上の図)に変換する。 Applying equation (18) converts display space dimensions (shown below) in the input image size is required to correct 7 (shown above).

一つの可能な方法は、制約された最小化を使用することである。 One possible method is to use a minimization constrained. これは、これらの制約を等式又は不等式の形式に書き直して、最小化(又は最大化)されるべき関数を定義することを含む。 This includes rewrite these constraints on the format of equality or inequality, defines the function to be minimized (or maximized). フレームエッジ(方程式(9)参照)と最も外側のグリッド点(方程式(17)参照)に対するライン方程式は制約C1及びC2を不等式形式に定式化するために使用でき、すなわち矩形の4隅が(<=)これらのライン内にあるように定式化するために使用できる。 The line equation for frame edge (Equation (9) refer) and outermost grid points (equation (17) refer) can be used to formulate constraint C1 and C2 in inequality form, i.e. a rectangular four corners (< =) it can be used to formulate to be within these lines. 制約C4は既に等式の形式になっているが、制約C3は最大化するための、すなわち能動矩形の面積を最大化するための関数になる。 While constraint C4 is already in the form of equality constraints C3 is to maximize, that is, functions to maximize the area of ​​the active rectangle.

画像が画面16を満たすためにオーバーフローする図5のシナリオ(a)に関して画面フレーム18は制約C1〜C3を自動的に満足させる現実的な矩形を与える。 Image screen frame 18 with respect to the scenario (a) of FIG. 5 which overflows to meet the screen 16 gives the realistic rectangular to automatically satisfy a constraint C1 to C3. 表示のスケールをテスト画像のスケールに固定することによってパラメータは、方程式(19)にしたがって設定される。 Parameters by fixing the scale displayed in the scale of the test image is set according to equation (19).

修正された画像は画面フレーム18に正確に一致するであろう。 Modified image will exactly match the screen frame 18. これは画面フレーム18全体が使用される理想的な状態である。 This is an ideal state that the entire screen frame 18 is used. このようにして、この場合には、図6の最適化ステップは単に方程式(19)を使用することを意味する、すなわち点はスケール決め又はシフトされる必要はない。 Thus, in this case, the optimization step of Figure 6 simply means using equation (19), i.e. does not need to be scaled decided or shift point.

最適化ステップはまた、方程式(20)に示されるように制約4を修正することによってアスペクト比の変更を達成するためにも使用できる。 Optimization step can also be used to achieve a change in the aspect ratio by modifying the constraint 4 as shown in equation (20).

方程式(18)を使用し続けると、修正された画像のアスペクト比はαになるであろう。 Continuing to use the equation (18), the aspect ratio of the modified image would be alpha. アスペクト比を選択する際のこの自由は、異なるアスペクト比を有する表示装置において画像が郵便箱型又は円柱郵便ポスト型になることを可能にする。 This freedom in selecting the aspect ratio, the image in a display device having a different aspect ratio makes it possible to become mailbox-type or cylinder mailbox type. スケールとシフトとを調整することによって画像は、画面16上で容易にオーバースキャン(すなわち画像オーバーフロー)及びアンダースキャン(すなわち画像アンダースキャン)され得る。 Image by adjusting the scale and shift can be readily overscan on the screen 16 (i.e., image overflow) and underscan (i.e. image underscan). したがって表面関数を使用することは、オーバースキャン及びアンダースキャン状態の容易な実現に役立つ。 Therefore the use of surface function helps easy realization of overscan and underscan state.

上記の論議は、修正がすべての原色に関して同じである歪みに集中してきた。 The above discussion, the correction has been focused on the distortion is the same for all of the primary colors. これらの場合に同じグリッドデータは、すべての色に関する修正を記述し、この場合は単色修正と呼ばれ得る。 The same grid data in these cases describes a modification of all colors, this case may be referred to as a single color modification. しかしながら横の色歪みに関しては、グリッドデータはすべての原色に関して異なり、多数色の修正が必要となり、この場合は多色修正と呼ばれ得る。 However, for the lateral color distortion, unlike regard grid data to all the primary colors, it requires many color correction, this case may be referred to as multi-color corrected. すべての原色に共通ないかなる幾何学歪みも横修正に含まれる可能性があり、したがって較正データ発生器12の前述の実現形態は、以下に説明される多色修正の特殊な場合と見ることができる。 May be included in common any geometric distortion horizontal fix to all the primary colors, thus the aforementioned implementation of the calibration data generator 12, it is seen as a special case of multi-color modifications described below it can.

横の色修正のための較正データ発生器12の例示的実現形態は、図8に示されている。 Exemplary implementation of the calibration data generator 12 for lateral color correction is shown in FIG. 見られるようにこれは、K回繰り返される単色修正の場合の実現形態(前節を参照)に似ており、ここでKは原色の数である。 This As seen is similar to implementation in the case of single-color correction are repeated K times (see previous section), where K is the number of primary colors. 原色はI i ,i=1・・・Kとラベル付けされる。 Primary colors I i, i = is 1 · · · K labeled.
最も一般的な3原色RGBに関しては、(I 1 ,I 2 ,I 3 )=(R,G,B)である。 Most For a general three primary colors RGB, a (I 1, I 2, I 3) = (R, G, B).

各原色を較正するためのステップと詳細は、下記の回数の修正を有する単色修正の場合に関して前に説明されたものと同じである。 It details the steps for calibrating each primary color, the same as those described previously for the case of single color corrected with a correction of the number below.

今度は、テストパターンは、較正される原色にしたがって色付けされている。 This time, the test pattern is colored according to the primary colors to be calibrated. 例えば赤色を較正するときに、すべてのテストパターン(図4のパネル(a)〜(j)を参照)は、赤く色付けされたそれらの特徴要素(円、バーなど)を有するであろう。 For example, when calibrating the red, all of the test patterns (see panel of Figure 4 (a) ~ (j)) will have red colored their characteristic elements (circle, bar, etc.). 特徴要素の特性(円の数など)はカラーパターンに関して異なる可能性がある。 (Such as the number of circles) characteristic of the feature elements may be different with respect to the color pattern.

中心とエッジの抽出などのすべての画像処理ステップは、色画像を使用するであろう。 All image processing steps such as the center and the edge of the extraction will use the color image. 較正される色を取り扱うために、閾値は調整可能である。 In order to handle the color to be calibrated, the threshold is adjustable. 一旦二値画像が取得されると、画像処理は色とは独立になる。 Once the binary image is obtained, the image processing is independent of the color.

一般にカメラレンズ自体における横の色歪みのためにカメラ較正データは、異なる原色に関して異なり、またすべての原色に関して別々に計算される必要がある。 Generally the camera calibration data for lateral color distortion in the camera lens itself, unlike for different primary colors, also need to be calculated separately for all primary colors. 本システムは、カメラ自体における横の色歪みに関して修正するように構成できる。 The system may be configured to correct for lateral color distortions in the camera itself. 表示装置を較正するためのテスト画像パターンに似ている異なる原色からのテスト画像パターンは、カメラ較正データを生成するために使用され得る。 Test image pattern from a different primary color that is similar to the test image pattern for calibrating a display device can be used to generate the camera calibration data. カメラの(多色)較正データ生成は、表示較正とは独立に行うことができ、単に1回行われる必要があるだけである。 Camera (multicolor) calibration data generation may be performed independently of the display calibration, merely needs to be done once. カメラ較正データを生成する際には、ゼロ又は最小の(すなわちカメラの横の色歪みよりはるかに小さい)横の色歪みを有する表示装置が使用されるべきである。 When generating the camera calibration data should display device having a (much smaller than the lateral color distortion ie the camera) lateral color distortion zero or minimum is used. このような表示装置が利用可能でなければ、物理的グリッドに既知の座標を与えるために色付きマーカーが使用され得る。 If not available such a display device, a marker colored to provide a known coordinate the physical grid may be used. 多色カメラ較正のための最終結果は、方程式(22)で定義される原色に依存する逆カメラ歪みである。 The final result for multicolor camera calibration is an inverse camera distortion that depends on the primary colors defined by equation (22).

何らかの紛失データが計算された後に、取得されたK個のグリッド(方程式(17)に類似の)は方程式(23)において定義される。 After some lost data is calculated, (analogous to equation (17)) obtained the K grid is defined in equation (23).

ここで各グリッドのための点の数は、使用されるテストパターンと行われる何らかの再サンプリングとに依存して異なる可能性がある。 Wherein the number of points for each grid may be different depending on the some resampling performed a test pattern used.

原色に関するテストパターンは、異なる投影幾何学クラス(図5参照)に属し得る。 Test pattern for the primary colors may belong to different projection geometry class (see FIG. 5). 原色に関するあるいくつかのテストパターンは図5のパネル(a)におけるように完全に画面フレーム18をオーバーフローし得るが、他のテストパターンは図5のパネル(b)のように完全にフレーム内にあることが可能である。 There are several test patterns relating to the primary colors may overflow fully screen frame 18 as in panel (a) of FIG. 5, but entirely within the frame as the other test patterns panel shown in FIG. 5 (b) it is possible that there. 最適化が実行されると、能動矩形は画面フレーム18内に、また各色の画像エンベロープABCD k内になければならず、画像エンベロープの空間交差が使用される。 When the optimization is performed, the active rectangle in the screen frame 18, also must be within the image envelope ABCD k of each color space intersection image envelope is used. これは、単一の最適化がすべての原色のエンベロープABCD kを考慮して制約1によって行われることを意味する。 This means that a single optimization is performed by the constraints 1 in view of the envelope ABCD k of all the primary colors. この最適化は、すべての原色に共通である能動矩形のための座標を決定する。 This optimization determines the coordinates for the active rectangle is common to all primary colors. それからこれらの座標は、方程式(18)にしたがってグリッドをスケール決めしてシフトするために使用される。 Then these coordinates are used to shift to determine the scale of the grid in accordance with equation (18).

最適化ステップの出力はK個のグリッドであって、これらは方程式(24)に指定されるようにすべての原色に関する較正データを与える。 The output of the optimization step is a K-number of grids, it provides calibration data for all the primary colors as specified in equation (24).

これらのセットのデータはワープ発生器13によって使用される。 Data of these sets is used by warp generator 13.

この例示的実施形態では、色と明るさ、あるいは単に色の不均一性較正データの生成は、幾何学歪み(タイプ1〜4)が修正された後に実行される。 In the exemplary embodiment, the color and brightness, or simply the generation of non-uniformity calibration data of the color is performed after the geometric distortion (types 1 to 4) has been fixed. 色の不均一性は、投影幾何学配置(台形歪曲角)、マイクロディスプレイパネルの不完全性などによる画面16までの経路長の変化などのいくつかの原因によって起こり得る。 Non-uniformity of color, the projection geometry (trapezoidal distortion angle) can occur by several causes such as path length changes such as by until the screen 16 imperfections microdisplay panel.

幾何学的に修正された表示装置に関してテストパターン画像は、フレーム18内におそらくサイズがこれと一致する矩形(すなわち能動矩形)として現れる。 Geometrically corrected displayed test pattern image with respect to the apparatus appears as a rectangle (i.e., active rectangle) possibly size in the frame 18 coincides with this. 原点は、画面フレーム18の左上隅よりむしろ能動矩形の左上であるように取られる。 Origin is taken to be the top left of the active rectangle rather than the upper left corner of the screen frame 18. 使用されるテストパターンは、単色幾何学修正のために上記に使用されたテストパターンの単なる色付き版である。 Test patterns used are merely colored version of the test pattern used above for monochromatic geometric modifications. すなわち原色kを修正するためには、特徴要素(円、バー)は色kになっているであろう。 I.e. to modify the primary color k is characteristic elements (circle, bar) will have become color k. これは、横の色を修正するために使用されるものと同じである。 This is the same as that used to fix the lateral color. 明るさに関してはグレイ値(最大は白、半最大値)が使用され得る。 Gray value with respect to brightness (maximum white, semi-maximum value) may be used. 色という項目は、一般に修正されるいかなる色成分をも識別するために使用される。 Item of color is also used to identify any color components that are commonly corrected. これは、輝度、あるいはRGB又はYC brの1成分、あるいは感知装置11によって測定できる他の任意の色空間における1成分であり得る。 This can be one component in the luminance or RGB or YC b 1 component of C r or any other color space that can be measured by the sensing device 11,,.

感知装置11は、カメラ又は色分析器(すなわち分光計、測光器など)であり得る。 Sensing device 11 may be a camera or a color analyzer (ie spectrometer, photometer, etc.). より高い精度のためには、測光器又は分光計が使用されるべきである。 For higher accuracy, it should photometer or spectrometer is used. これらの色分析器は、画像全体(すなわち多数の点)を、又は単一の点におけるデータを捕捉し得る。 These colors analyzers, the whole image (i.e. number of points), or to capture data in a single point. 感知装置11は、できるだけ画面16の近くに配置されるべきである。 Sensing device 11 should be located as close as possible to the screen 16. 単一点色分析器は実際には、既知の座標におけるスクリーン(すなわち形状の中心)に配置されて、その座標に関してデータを取得するであろう。 In practice, the single point color analyzer, is arranged on the screen (i.e. the center of the shape) in known coordinates will obtain the data on the coordinates. 多点色分析器とカメラは任意の場所に配置され得るが、改善された精度は、分析器及びカメラをできるだけ画面16の近くに、また中心に置くことによって得られる。 Multipoint color analyzer and the camera may be located anywhere, but improved accuracy is obtained by placing the analyzer and the camera as close as possible to the screen 16, also in the center. 図9は、画面91と単一点色分析器92と多点色分析器93とを含む例示的構成を示す。 Figure 9 illustrates an exemplary configuration including a screen 91 and a single point color analyzer 92 and multi-point color analyzer 93. 色の不均一性に関する較正データ発生器は、幾何学歪みを修正するための較正データ発生器に類似している。 Calibration data generator on the Non-uniformity of color is similar to the calibration data generator for correcting geometric distortions. 図10は、色不均一性に関する較正データ発生器12'の例示的実施形態を示す。 Figure 10 illustrates an exemplary embodiment of a calibration data generator 12 'for the color non-uniformity.

単一点色分析器92によって捕捉されたデータは、測定が行われたすべての点に関する原色値C' ki 0と対応する空間座標(x i 0 ,y i 0 )からなる。 Data captured by the single point color analyzer 92 is comprised of a corresponding spatial coordinates and primary values C 'ki 0 for all points which the measurements were carried out (x i 0, y i 0 ). ここでk=1・・・Kは、 Here, k = 1 ··· K are,
分析される色を識別する。 Identifying the color to be analyzed. ki 0で表された元の色値はまた、テストパターンがよく定義されているので既知である。 The original color values represented by C ki 0 is also known since the test pattern is well defined. これは、色歪みマップと呼ばれる色の不均一歪みを記述するグリッドデータである方程式(25)という結果をもたらす。 This results in a equation (25) is a grid data describing the irregular distortion of colors called color distortion map.

Dc :(x i 0 ,y i 0 ,C ki 0 )→(x i 0 ,y i 0 ,C' ki 0 ) (25) f Dc: (x i 0, y i 0, C ki 0) → (x i 0, y i 0, C 'ki 0) (25)

空間座標が色不均一歪みによって変えられないことは留意されるべきである。 The spatial coordinates are not changed by the color irregular distortion should be noted. 元の色値C ki 0は通常、所与のテストパターンに関する固定値C ki 0 =C k 0となるであろう。 The original color value C ki 0 will normally a fixed value C ki 0 = C k 0 for a given test pattern. これは、すべての非背景ピクセルが同じ色をになっていることを意味する。 This means that all non-background pixels is plays the same color. 2セット以上の測定s=1・・・Sは、各セットが異なる一定の色値(種々の飽和レベル又はグレーレベルなどの)を有するテストパターンに対応する場合に行われ得る。 2 or more sets of measurements s = 1 ··· S can be performed when the each set corresponding to the test pattern having a different constant color values ​​(such as various saturation levels or gray levels). 表記を単純化するために単一インデックスiも、方程式(26)に示されるような異なる測定セットに亘って順に並ぶであろう。 Single index i in order to simplify the notation would also arranged sequentially over different measurement set as shown in equation (26).

i=1. i = 1. . . M×N×S、に加えて(x i 0 ,y i 0 )=(x i+(s-1)(M × N) 0 ,y i+(s-1)(M × N) 0 ) (26) In addition M × N × S, the (x i 0, y i 0 ) = (x i + (s-1) (M × N) 0, y i + (s-1) (M × N) 0) (26 )

空間座標は、各セットに関して同じである。 Space coordinates are the same for each set. 以下の論議は各セット(すなわちテストパターン)に適用される。 The following discussion applies to each set (i.e. the test pattern).

カメラであり得る多点色分析器93に関して、捕捉されたデータは画像全体に対応する。 Respect multipoint color analyzer 93, which can be a camera, the captured data corresponds to the entire image. この場合、グリッドを取得するに先立って、ある画像処理が行われる必要がある。 In this case, prior to acquiring the grid, it is necessary that the image processing is performed. 形状の中心(x ci 0 ,y ci 0 )とそれらの変域座標(x i 0 ,y i 0 )が計算される。 The center of the shape (x ci 0, y ci 0 ) and their variable area coordinates (x i 0, y i 0 ) is calculated. これを行うためのステップは、幾何学修正時に使用された抽出及び順序付けステップと同じである。 The steps to accomplish this is the same as the extraction and sequencing steps used during geometry modifications. 中心に加えて形状中心における色値も計算される。 Color values ​​in form center in addition to the center is also calculated. 色値は、方程式(27)にしたがって識別された中心の周りの捕捉された画像における近隣ピクセル色値を平均するか、あるいはフィルタリングすることによって取得され得る。 Color value may be obtained by averaging or filtering, the neighboring pixels color values ​​in the captured image around the center identified in accordance with equation (27).

ここでC' kjは中心の近隣の捕捉された画像における色値である。 Here C 'kj is the color value at nearby captured image center. 最も近い4個の点に亘る平均のためにフィルタ係数はa j =1/4,j=1・・・4である。 Filter coefficients for the nearest over four points average is a j = 1/4, j = 1 ··· 4.

終了結果は、方程式(25)で定義されたグリッドデータである。 End result is a grid data defined by equation (25). (i)色歪みは空間座標を変えないので変域座標だけが必要とされることと、(ii)画像は幾何学的に歪みなしであって画面16内にあるので紛失データが存在しないことと、(iii)幾何学修正は行われていないので感知装置歪みを計算して連結を実行する必要がないこととは、留意されるべきである。 (I) color distortion is that only domain coordinate does not change the spatial coordinates are needed and, (ii) image geometrically that missing data because a without distortion in the screen 16 is not present If, the (iii) geometric modifications it and does not need to perform the connection by calculating the sensing device distortion because not performed, it should be noted.

使用される感知装置のタイプと捕捉されるデータのフォーマットとに依存して、色データを表示の色空間に導入するために、色空間変換が必要となる可能性がある。 Depending on the format of the data captured with the type of sensing device used, to introduce color data to display color space, it may be required color space conversion. 例えば分光計は色度に関してデータを与え得るが、表示装置と電子修正ユニット(プロセッサである)はRGB値を必要とする。 For example spectrometer but may provide data with respect to chromaticity, the display device and (a processor) electronic modification unit requires a RGB value. 色変換は、マトリックス乗算によって、あるいはより複雑な非線形方程式によって実行され得る。 The color conversion can be performed by a complex non-linear equation from or by matrix multiplication. 色空間変換のためには、すべての原色に関するグリッドデータが使用される。 For color space conversion, the grid data for all the primary colors are used. 一般にこの変換は、方程式(28)に示される形式をとる。 Generally, this transformation takes the form shown in equation (28).

C' ki 0 ⇒C' ki 0 =Fk(C' 1i 0 ,C' 2i 0 ,...,C' ki 0 ) (28) C 'ki 0 ⇒C' ki 0 = Fk (C '1i 0, C' 2i 0, ..., C 'ki 0) (28)

色歪みが存在しなければ、一定の色テストパターンに関してすべての座標(x i 0 ,y i 0 )における色値は、定数C' k 0として測定されるべきである。 If there is no color distortion, color values at all the coordinates with respect to a certain color test pattern (x i 0, y i 0 ) should be measured as a constant C 'k 0. 測定された定数は、元の一定のピクセル値C k 0と等しくない可能性がある。 Measured constants are likely not equal to the original predetermined pixel value C k 0. 大抵の表示装置では測定値と元の値とは比例し、この場合、比例定数λは、色歪みが存在しないときには一定であり、色歪みが存在するときには空間的に変化する。 Proportional to the measured value and the original value in most of the display device, in this case, the proportionality constant lambda, is constant when the color distortion does not exist, spatially varies when the color distortion exists. したがって表示の色歪みマップは方程式(29)に示すように表すことができる。 Thus the color distortion map display can be expressed as shown in equation (29).

各座標における十分な数の値が必要とされる。 A sufficient number of values ​​in each coordinate is needed. 分析は、データに適合を行うことによってf Iに近づくことができる。 Analysis can approach f I by performing fit to the data. 同様に逆数f I -1は方程式(32)に示されるように逆方向に同じデータを分析することによって計算できる。 Similarly inverse f I -1 can be calculated by analyzing the same data in the reverse direction as shown in equation (32).

ここでr=1・・・Rは逆カラーマップを定義するパラメータの数を与え、B rは基底関数である。 Where r = 1 ··· R gives a number of parameters that define the inverse color map, B r is the basis function. これらのパラメータは、各中心座標に関して、また各原色に関して異なっている。 These parameters, for each center coordinates, also differ for each primary color. 通常、f I -1は、一般性を失わずに多項式ベースであると想定できる電子修正ユニットによって使用される表現によって決定されるであろう。 Usually, f I -1 will be determined by the representation used without loss of generality by electronic compensation unit that can be assumed to be polynomial-based. 上記の表現はまた、あるいくつかの場合に、出力における元のC' ik 0値を減らすことが必要であり得るか、あるいは望まれ得るので、最終的な一定の色レベルの調整を考慮している。 The above expression also in the case of some few, or it may be necessary to reduce the original C 'ik 0 value at the output, or so desired that may be, considering the adjustment of the final constant color level ing. ここでこれらのパラメータは、逆数値を増加又は減少させるために単純なスケールファクタによって調整され得る。 Wherein these parameters can be adjusted by a simple scale factor to increase or decrease the inverse value.

一旦逆関数(各中心座標における)が知られると、色不均一歪みを修正する修正色マップは、方程式(34)によって与えられる。 Once the inverse function (in the center coordinates) are known, modified color maps to correct the color irregular distortion is given by equation (34).

方程式(29)の最も一般的な場合には、これらのパラメータは方程式(36)にしたがって与えられる。 In the most general case of equations (29), these parameters are given in accordance with equation (36).

上記のグリッドは、適当な適合関数又は内挿関数で再サンプリングすることによって、より高密度にされ得る。 The above grid, by resampling a suitable fitness function or interpolation function may be a higher density. 幾何学較正のための表記に類似している表記を使用する新しいグリッドは方程式(37)によって与えられる。 New grid of using notation similar notation for the geometric calibration is given by equation (37).

これは、較正データ発生器12'のデータ出力である。 This is the data output of the calibration data generator 12 '.

すべてのサブジェネレータを含む較正データ発生器12'によって出力された全データ(すなわち図10の各列)は、方程式(38)によって与えられる。 All data output by the calibration data generator 12 'that includes all sub-generator (i.e. each row in FIG. 10) is given by equation (38).

前述のようにグリッドデータは、電子修正ユニットによって直接的には使用されない。 Grid data as described above is not used directly by the electronic modification unit. グリッド表現は最も一般的なフォーマットであるが、これは主として、大量のデータ(すべてのピクセルの座標)の記憶を必要とし、容易には処理できない(例えばスケール変更のために)という理由からハードウエア実現のためには非効率的である。 Although grid representation is the most common format, which is mainly a large amount of data requiring storage of (the coordinates of all the pixels), the hardware because it easily can not be processed (for example for scaling) for implementation it is inefficient. あるいくつかの従来技術のシステムは、同じトークンによって最適でないルックアップテーブルを使用する。 There are several prior art systems, using a look-up table is not optimal by the same token. ワープ発生器13は、(38)で定義されたグリッド表現をハードウエアでのアプリケーションのために効率的である形式の、修正の代替表現であるワープデータに変換する。 Warp generator 13 converts the defined grid representation format is efficient for applications in hardware, the warp data is an alternative representation of the modification in (38). 電子修正ユニットが直接的にグリッドデータを使用できれば、すべてのピクセルのために再サンプリングされた上記のグリッドが使用でき、ワープ発生器13によるワープデータの生成の必要はない。 If using the electronic modification unit is directly grid data, can be re-sampled above the grid used for all pixels, there is no need for generation of the warp data by warp generator 13.

ワープデータは、電子修正ユニットのデータ要件にしたがって生成される。 Warp data is generated according to the data requirements of the electronic modification unit. 電子修正ユニットは、種々のアーキテクチャを使用して幾何学変換と色変換とを適用できる。 Electronic modification unit may apply a geometrical transformation and color conversion by using a variety of architectures. 大抵のユニットは、幾何学修正のために逆マップを使用し、また上記のグリッドは逆アーキテクチャように設計されている。 Most units use a reverse map to the geometrical modifications, also above the grid is designed to reverse architecture so. 「System and method for representing a general two dimensional transformation」(一般的2次元変換を表すためのシステム及び方法)と題する発行済み米国特許出願第US2006−0050074A1号に記載されたもののような効率的な電子修正アーキテクチャは、グリッドデータの線形関数表現に基づいている。 "System and method for representing a general two dimensional transformation" efficient electron modifications such as those described in (a system and method for representing a general 2-dimensional transform) and issued U.S. Patent Application Serial No. US2006-0050074A1 entitled architecture is based on a linear function expression of the grid data. ワープ発生器13は、グリッドデータを関数表現に変換する。 Warp generator 13 converts the grid data to the function expression. 図11は、ワープ発生器13の一例示的実施形態を示す。 Figure 11 illustrates an exemplary embodiment of a warp generator 13.

2次元グリッドの一般的関数表現(x i ,y i )→u iは方程式(39)に示すように書くことができる。 General functional representation of a two-dimensional grid (x i, y i) → u i can be written as shown in equation (39).

方程式(39)は、a iによって与えられる表面係数と呼ばれる組合せの係数と基底関数B i (x,y),i=1・・・Lとの線形結合である2次元表面関数を変域(x,y)上で定義する。 Equation (39), a coefficient of a combination called surface coefficient given by i and the basis functions B i (x, y), domain two-dimensional surface function is a linear combination of the i = 1 · · · L ( x, defined on y). これらの係数は、一定であって変域上で変化しない。 These factors do not change on a variable area be constant. 基底関数は線形である必要はなく、これらの結合だけが線形である。 Basis functions need not be linear, just these bonds is linear. 少なくともあるいくつかの場合には、基底関数は非常に非線形であり得る、したがって方程式(39)に示された形式は修正グリッドを表現するために十分に一般的である。 In some cases, at least some, basis functions are very can be a non-linear, thus sufficiently general to the illustrated form of expressing a modified grid in equation (39). 基底関数とそれらの数は、ハードウエアに実現されて評価されるので電子修正ユニットによって定義される。 Basis functions and the number thereof, are defined by an electronic compensation unit so evaluated is implemented hardware. ワープ発生器13は、必要とされる係数を決定する。 Warp generator 13 determines the coefficients required.

一例示的実施形態では、ハードウエアに使用される基底関数は多項式ベースのものである。 In one exemplary embodiment, the basis functions used in the hardware is of polynomial base. 二つのインデックスを導入すると、多項式基底関数及び対応する表面は、方程式(40)に示すように書くことができる。 The introduction of two indexes, a polynomial basis functions and the corresponding surface can be written as shown in equation (40).

基底関数は既知であるので、決定して記憶する新しいデータは、1セットの表面係数a iである。 Since the basis functions are known, new data to be stored determines and is the surface coefficient a i of a set. 表面表現への移行は、方程式(41)に示されるように、グリッド値から表面係数への変換を意味する。 Migration to the surface expression, as shown in equation (41), means the conversion of the surface coefficient from grid value.
i ⇒a i (41) u i ⇒a i (41)
この表現の効率は、各ピクセルに介してグリッド値が記憶される必要がある場合に表面係数が1グループのピクセルに対するグリッド値の計算を考慮し、それによって比較的遥かに少ない数の表面係数が記憶される必要があるという事実からの結果である。 The efficiency of this representation, in consideration of the calculation of the grid values ​​to the surface coefficient of one group pixel when the grid value needs to be stored over each pixel, is thereby relatively much smaller number of surface coefficients resulting from the fact that needs to be stored.

係数の数は、元のグリッド値がどれくらい正確に表現され得るかを決定する。 The number of coefficients to determine the original grid values ​​can be How accurately represented. 高められた精度は、係数の数を増やすことによって、すなわちより多くの基底関数を使用することによって得ることができる。 Increased accuracy by increasing the number of coefficients, i.e. can be obtained by using more basis functions. 代替として変域が複数のパッチに分割されれば、各パッチのために使用される異なる表面関数によって少数の基底関数が使用され得る。 If variable region is divided into a plurality of patches as an alternative, a small number of basis functions can be used by different surface function is used for each patch. パッチ構造は、各パッチにおける表示歪みのひどさにしたがって構築される。 Patch structure is constructed in accordance with the severity of the display distortion in each patch. このアプローチは、組合せ表面の複雑さを歪みに整合させる際のより大きな柔軟性を可能にしている。 This approach is to allow greater flexibility in matching the complexity of the combination surface distortion. 例えば歪みがより複雑であるほど、使用されるパッチはより多くなる。 Example, as the distortion is more complex, patches used is more. パッチp=1・・・Pのための係数は、a ij pとラベル付けされる。 Factor for patch p = 1 ··· P is a ij p labeled. 下記では一般性を失わずに、もう一つのベースに容易に適応できる多項式形式に関する表記が使用されるであろう。 Without loss of generality the following would signage relates polynomial form that can be easily adapted to another base is used. したがって全表面は、方程式(42)で指定される形式を取る。 Therefore the total surface takes the form specified by Equation (42).

単一表面は、全出力画像(変域)に等しい単一パッチに対応する。 Single surface corresponds to a single patch equal to the total output image (domain). 例示的パッチ分割は、図12に示されている。 Exemplary patch division is shown in Figure 12.

このパッチ分割は、4×4対称配列の16個のパッチなどのある初期構成に初期化され得る。 The patch division may be initialized to an initial configuration with a like 16 patches of 4 × 4 symmetric sequences. パッチの配列(すなわちパッチの数と各パッチの境界)は、方程式(43)で指定される形式を取るパッチ幾何学配置Dと呼ばれる。 Sequence of the patch (i.e. the number and boundaries of each patch of a patch) is referred to as patch geometry D take the form specified by Equation (43).

D={x p 0 、y p 0 、x p 1 、y p 1 },p=1. D = {x p 0, y p 0, x p 1, y p 1}, p = 1. . . P
(43) (43)
パッチ p={(x、y)|x p 0 ≦x≦x p 1 ,y p 0 ≦y≦y p 1 Patches p = {(x, y) | x p 0 ≦ x ≦ x p 1, y p 0 ≦ y ≦ y p 1}

パッチ幾何学配置が与えられると、係数は方程式(38)によるデータの線形最小二乗適合を使用して計算できる。 When the patch geometry is given, the coefficients can be calculated using a linear least squares fit of the data by the equation (38). この適合は、パッチ境界において表面が連続していることを保証するように制約されるべきである。 This adaptation should be constrained to ensure that the contiguous surface at the patch boundaries. 一旦表面が決定されると、方程式(44)に示されるように、グリッド値を計算値と比較するために誤差分析が行われる。 Once the surface is determined, as shown in equation (44), an error analysis is performed to compare the grid and calculated values.

Error i =|u i −u(x i ,y i )| (44) Error i = | u i -u ( x i, y i) | (44)

誤差値は、許容値レベルE maxと比較される。 Error value is compared with the tolerance level E max. 最大誤差が許容値レベルより小さいか、 Maximum or error is less than the allowable value level,
等しければ、すなわちmax i (Error i )≦E maxであれば、表面係数は保持され、 Equal, that is, if max i (Error i) ≦ E max, surface coefficients are retained,
ワープデータとしてワープ発生器13から出力される。 Output from warped generator 13 as warp data. 最大誤差がより大きければ、パッチ幾何学配置は、更に細かく分割することによって改善され、係数は誤差に関して再計算されて再分析される。 If more larger the maximum error, the patch geometry is improved by further divided finely, the coefficients are re-analyzed recalculated with respect to errors.

方程式(38)における表面表現は、方程式(45)に示されるように書くことができる。 Surface expression in equation (38) can be written as shown in equation (45).

関数形式は全空間に関して定義され、単に個別1セットの座標にはないので、グリッド表現における(i,j)インデックスがもはや必要とされないことは留意されるべきである。 Functional form is defined with respect to the entire space, simply because not in separate set of coordinates, (i, j) in the grid representation that the index is no longer needed should be noted. インデックス(i,j)は今度は、冪(べき)指数を与え、より一般的には基底関数を識別する。 Index (i, j) is now, a power (should) to give indices, more generally identify the basis functions. インデックスkは原色を識別し、インデックスpはパッチを識別する。 The index k identifies the primary colors, the index p identifies the patch. 表面は、変域座標が存在するパッチに関して評価される。 Surface is evaluated with respect to patch the domain coordinate exists. パッチ配列と基底関数の数は、複数の原色に関して異なる可能性がある。 The number of patches sequence and basis functions may differ for a plurality of primary colors. 上記のフォーマットの更なる変化は、例えばパッチ当たりの基底関数を変えることによって得ることができる。 Further change in the format, can be obtained by varying for example the basis functions per patch. 幾何学修正に関する変域空間は、(x,y)とラベル付けされ、これは出力画像空間(逆アーキテクチャにおける)に対応し、また値域空間は(u,v)と再ラベル付けされ、これは入力画像空間に対応する。 Variable area space regarding geometrical modification, (x, y) and labeled, which corresponds to the output image space (in the reverse architecture), also range space is re-labeled (u, v), which is corresponding to the input image space.

ディジタルワーピングユニット15はプロセッサであって、システムの電子修正ユニットとして働く。 Digital warping unit 15 is a processor, acts as an electronic modification unit of the system. 電子修正ユニットという表現は、本明細書ではディジタルワーピングユニットという表現と交換可能に使用されている。 The expression electronic modification unit is herein are used interchangeably with the term digital warping unit. 実際の使用時にディジタルワーピングユニット15は、入力画像を予め歪ませる、あるいはワープするためにディジタル入力画像(ビデオ)にワープデータを与える。 Digital warping unit 15 during actual use, distorts the input image in advance or provide a warp data to digital input image (video) to warp. 入力画像は、空間的空間と色空間の両方においてワープされる。 The input image is warped in both spatial space and color space. 空間的ワーピングは幾何学ワープにしたがって行われ、色ワーピングは色ワープにしたがって行われる。 Spatially warping is performed according to the geometric warping, color warping is performed according to a color warp. 予備歪みは、表示の歪みを打ち消すように構築され、画面16に表示される歪みなし画像を与える。 Preliminary strain is constructed so as to cancel the distortion of the display, distorting no image displayed on the screen 16.

フィルタリング及び色修正方程式の詳細は、ハードウエアのアーキテクチャに依存する。 Details of the filtering and color correction equations, depending on the hardware architecture. 単純なフィルタは、この場合w j =1/4である最も近い4個の近隣点を単純に平均し得る。 Simple filter may simply average the case w j = 1/4 closest four neighboring points is. 複雑なフィルタは、その形状が表面のローカル・ヤコビ行列式に依存する楕円形近隣を使用することができ、フィルタ係数は巧妙なフィルタ生成アルゴリズムを使用して得ることができる。 Complex filter, can be used elliptical neighbors its shape depends on the local Jacobian of the surface, the filter coefficients can be obtained using clever filter generation algorithm. この場合、ヤコビ行列式を推定するために、近隣座標(u j∈Γ ,v j∈Γ )が必要になる可能性がある。 In this case, in order to estimate the Jacobian, there is a possibility that neighboring coordinates (u j∈Γ, v j∈Γ) is required. 同様に単純な色修正は方程式(49)で定義されるように単に線形修正を使用することを含む。 Similarly simple color correction comprises using simply linear modification as defined in equation (49).

ディジタルワーピングユニット15の最終結果は、すべての主要成分を表すために使用されるベクトル表記を使用して方程式(51)で以下に書き換えられた方程式(1)によって数学的に記述される修正である。 The final result of the digital warping unit 15 is a modification that is mathematically described by equations rewritten equations below in (51) (1) by using a vector notation is used to represent all of the major components .

ワープされた、又は予め補正された出力画像は、表示装置(図示せず)に入力され、この場合この画像は視覚的に歪みなしで画面16に投影され、したがって自動化された較正と修正とを完了する。 Is warped, or pre-corrected output image is input to the display device (not shown), in this case the image is projected on the screen 16 without visually distortion, thus the modification and automated calibration completed. 一旦較正・修正手順が完了すると、通常の(テストパターンでない)画像及びビデオは、表示装置に送ることができる。 Once the calibration and correction procedure is completed, the normal (non-test pattern) image and video can be sent to the display device.

横の色修正に関連して多色幾何学較正・修正が論じされてきた。 Multicolor geometric calibration and correction has been discussed in connection with lateral color correction. しかしながらこれは、主要成分が幾何学的に歪んでいるいかなる歪みをも修正するために使用され得る。 However, this may major components are used to modify any distortion distorted geometrically. 他のアプリケーションは、複数の色成分に関する異なる倍率を含むばかりでなく、背面投影表示装置における相互に関して、あるいはシャシ又はハウジングに関して配置された多数のマイクロディスプレイ装置による光学部品の位置合わせ不良と集束不良に起因する歪みを含む。 Other applications not only contain different magnifications for multiple color components, mutual respect, or chassis, or optical component misalignment and focused failure by many micro-display device disposed relative to the housing in the rear projection display device including the distortion caused by.

投影システムでは色較正・修正は、幾何学的に修正された画像に対して行われる。 Color calibration and correction in the projection system is performed for geometrically corrected image. これは、色修正が幾何学的ワーピング自体によって導入されたいかなる不均一性をも考慮していることを意味する。 This means that the color correction is taken into account any non-uniformities introduced by the geometric warping itself. 幾何学的にワープされた画像は、スケーリング・フィルタリングプロセスによる異なる色又は輝度内容を含む異なる領域を有するであろう。 Geometrically warped image will have a different regions include different colors or luminance content according to scaling filtering process. 実際に領域が大きく拡大されるほど、明るさと色に変化は大きくなる。 As actually area is greatly enlarged, changes in brightness and color is increased. これは、幾何学的ワーピングの後に行われる色修正によって自動的に補正される。 This is automatically corrected by the color correction performed after the geometric warping. したがってシステムは、幾何学的ワーピングプロセスによる色不均一性を自動的に補正する。 Thus the system will automatically correct the color non-uniformity due to the geometric warping process.

もう一つの適応において本システムは、ディジタル較正・ワーピングユニットを得るために単一回路内に統合され得る。 The system in another adaptation, may be integrated into a single circuit for obtaining a digital calibration warping unit. 較正データ発生器12とワープ発生器13は、いかなるプロセッサ上でも実行できるコンポーネントである。 Calibration data generator 12 and the warp generator 13 is a component that can be executed on any processor. テスト画像発生器14は、プロセッサによって出力される1セットの記憶画像によって置き換えることもできる。 Test image generator 14 may be replaced by a set of stored image output by the processor. ハードウエアに埋め込まれたプロセッサを使用することは、較正・修正プロセス全体に単一回路ソリューションを与える。 The use of a processor embedded in hardware, provide a single circuit solution to the entire calibration and correction process. 更にこのハードウエアは、自動較正表示装置を得るためにカメラと共に表示装置内に統合され得る。 Furthermore this hardware may be integrated in the display device with a camera in order to obtain an automatic calibration display device. この適応では、画面上に結果として得られる表示画像が実質的に歪みなしであるように、予備補正マップすなわちワープマップ及び色マップ(幾何学ワープ及びカラーワープとも呼ばれる)を生成するために、また予備補正マップを入力画像データに適用するために、少なくとも一つの画像感知装置から感知された情報を受信して表示歪みを計算するためのプロセッサは、単に一つだけ必要とされる。 In this adaptation, so display the resulting image on the screen is substantially free of distortion, in order to produce a pre-correction map i.e. warp map and color map (also called a geometric warping and color warp), also to apply the pre-correction map for the input image data, a processor for calculating the display distortion receives information sensed from at least one image sensing device is simply required only one. しかしながら他の場合には二つ以上のプロセッサを使用することがより効率的であり得る。 However, in other cases it may be more efficient to use two or more processors. したがって本明細書で説明された実施形態を実現するためには少なくとも一つのプロセッサが必要とされる。 Therefore in order to realize the embodiments described herein is required at least one processor.

種々のタイプのセンサーは、感知装置11として機能するために、表示装置内に(カメラよりむしろ、あるいはカメラと共に)統合され得る。 Various types of sensors, in order to function as a sensing device 11, in the display device (rather than a camera, or with a camera) may be integrated. 図14に示された一例示的実施形態では、センサー143は、画面141上のある一定の数の点の距離を測定するためにカメラ142とは独立に、又はカメラと共に使用される距離感知装置である。 In one exemplary embodiment shown in FIG. 14, the sensor 143 is independently, or distance sensing device used with the camera and the camera 142 to measure the distance of a certain number of a certain point on the screen 141 it is. この平面は、平坦である必要はない。 This plane need not be flat. 測定された距離と感知された距離の相互の角度から、カメラ142と画面141との相対角度が計算される。 From each of the angles of the measured distance and the sensed distance, the relative angle between the camera 142 and the screen 141 is calculated. 更にスクリーンの形状はまた、平坦でなければ、この方法を使用して計算できる。 Furthermore the shape of the screen also if not flat, can be calculated using this method. 図14に示された例では、スクリーンの右側の濃いラインはセンサー143によるスクリーンの法線(normal)に近い視線を示すであろうが、左の淡いラインは左の法線から遠い視線を示している。 In the example shown in FIG. 14, the right dark line of the screen but will show the line of sight close to the screen of the normal by the sensor 143 (normal), it left pale line represents the far sight from the normal left ing. 赤外線センサーなどを含む種々のタイプのセンサー143が使用できる。 Various types of sensors 143, including infrared sensor can be used. この例示的実施形態では表示スクリーン(すなわち画面141)を輪郭描写するために物理的構造は必要とされず、カメラ142は任意に配置できる。 Physical structure of the display screen in this exemplary embodiment (i.e., screen 141) in order to delineating is not required, the camera 142 can be arranged arbitrarily.

もう一つの例示的実施形態は、動的較正・修正を有する自動較正表示装置を構成し、それによって構成・修正手順は、外部資源を必要とせずに歪みを修正するためにいつでも実行可能である。 Another exemplary embodiment is to configure automatic calibration display device with dynamic calibration and correction, it configuration and modification procedure by is possible is performed at any time to modify the distortion without the need for external resources . これは、プロジェクタに関する台形歪み、又はRPTVのような背面投影表示装置の現場較正などの時間的に変化し得る歪みを修正することを考慮している。 This allows for modifying the temporal distortions that can vary, such as field calibration of the rear projection display device such as a trapezoidal distortion, or RPTV a projector. この較正システムは、この場合、自動較正を備えるためにRPTVのハウジング又はシャシの内側に配置される。 The calibration system, in this case, is placed inside the housing or chassis of RPTV to an automatic calibration. 時間的に変化する他の重要な歪みは、物理的動き、経過年月及び温度による光学部品の変化である。 Another important distortions temporally changing is the change of the optical components due to physical motion, course date and temperature. 例えば背面投影表示装置では、ミラーの曲率は、その重量又は温度によって僅かに変化する可能性があり、これは動的な較正・修正を必要とする。 For example, in the rear projection display device, the curvature of the mirrors may be slightly changed by the weight or temperature, which requires a dynamic calibration and correction. 表示装置が起動されたとき、又は歪みの変化が検出されたとき、較正・修正システムが実行される。 When the display device is activated, or when a change in distortion is detected, calibration and correction system is executed.

動的な較正・修正は、感知装置が利用可能でないテレビジョンシステムなどの固定された表示装置のために現場で特に重要である。 Dynamic calibration and correction is particularly important in the field for the fixed display apparatus such as a television system sensing device is not available. ここでは、初期の較正・修正の後に将来の歪みは、時間的な構成要素の僅かな変化に起因する。 Here, future strain after the initial calibration and correction is attributable to slight changes in the temporal components. 製造工場などの管理された環境では、時間的に現場で予想される種々の歪みi=1・・・Nをシミュレートするためにディジタルワーピングユニットが使用できる。 In a managed environment, such as manufacturing plants, a variety of distortion i = 1 digital warping units · · · N to simulate expected temporally site it can be used. それからこれらの歪みは、前述の例示的実施形態で説明されたシステムを使用して較正され修正され得る。 Then these distortions may be corrected calibrated using the system described in the foregoing illustrative embodiments. しかしながら一方は歪みをシミュレートするために、他方は自動的に生成される修正データをテストするために、二つの電子修正ユニットが使用され得る。 However, to simulate the distortions one and the other to test the modified data that is automatically generated, two electrons modification unit may be used. これらN回のテストケースに関する修正のためのワープデータは、表示装置内に記憶できる。 Warp data for correction for these N times test cases may be stored in the display device. 現場において、また時間に亘って僅かな歪みが発生すると、N個のワープ修正からこの歪みを最もよく修正する一つのワープ修正が選択される。 In the field, also when a slight distortion occurs over time, one warp modifications that best corrects this distortion of N warp correction is selected. したがって、製造時に較正が行われ、またNセットの修正データが表示装置に記憶されているので、完全なシステムは必要でなく、表示装置内にディジタルワーピングユニットが構築される必要があるだけである。 Thus, the calibration is performed during manufacturing, and because modified data N set is stored in the display device, the complete system is not required, digital warping unit only needs to be built into the display device . 適当な修正データの選択を自動化するために、専用のテストパターンを検出するための表示ベズル内のセンサーが使用され得る。 To automate the selection of the appropriate correction data, the sensor in the display bezel to detect a dedicated test pattern may be used. したがって、歪みの最適検出が達成される画像テストパターンがロードされる。 Therefore, the image test pattern distortion of the optimal detection is achieved is loaded. このプロセスは、動的な修正・較正を取得するために表示装置が起動されたときに実行できる。 This process may be performed when the display device is activated in order to obtain a dynamic modification-calibration.

図15及び図16に示すように一例示的実施形態では較正システムは、画面上の最適プロジェクタ焦点を見つけ出すことに適応している。 Calibration system in one exemplary embodiment, as shown in FIGS. 15 and 16 are adapted to finding the optimum projector focus on the screen. これは、1セットの特定の数の平行線などの画面上にテストパターンを表示することによって行われる。 This is done by displaying a test pattern on the screen, such as a certain number of parallel lines of one set. それから画像は、テストパターン内の暗い領域と明るい領域との間のコントラストを見つけ出すために電子修正ユニットによって捕捉されてスキャンされる。 Then the image is being captured scanned by electronic compensation unit in order to find the contrast between the dark and light areas within the test pattern. それからプロジェクタ焦点はシフトされ、コントラストは再測定される。 Then projector focus is shifted, the contrast is re-measured. これは、最大コントラストが見つけ出されるまで続けられる。 This is continued until a maximum contrast are found. 最大コントラストは最良の焦点に対応する。 Maximum contrast corresponding to the best focus. これは、より不良な焦点を有する画面151とより良好な焦点を有する画面161とに示されている。 This is illustrated in the screen 161 with better focus and screen 151 with worse focus. 感知装置を焦点合わせするために、同じ技法が使用できる。 A sensing device for focusing, the same techniques can be used. 最大コントラストのために、表示スクリーン(すなわち画面)のベズルなどの鮮鋭なエッジを有する物理的マーカーが捕捉されて分析される。 For maximum contrast, physical markers with sharp edges, such as basil display screen (i.e., screen) are analyzed are trapped. 必要であれば、マーカーと背景との間のコントラストを向上させるために、適当に色付けされたテストパターンが表示可能である。 If necessary, in order to improve the contrast between marker and background, appropriately colored test pattern can be displayed. 感知装置焦点がシフトされてコントラストが再測定される。 Sensing apparatus focus is is shifted contrast are remeasured. 最大コントラストの設定は、感知装置のために最良の焦点を与える。 Setting the maximum contrast gives the best focus for the sensing device. 感知装置は、表示装置を焦点合わせする前に焦点合わせされる。 Sensing device is focused before focusing the display device.

図17及び図18に部分的に示されたもう一つの例示的実施形態では、較正システムは、それぞれ湾曲スクリーン171及び181と多数のプロジェクタ1〜3とを有する表示装置において使用される。 In another exemplary embodiment shown in part in FIGS. 17 and 18, the calibration system is used in a display device having a respective curved screens 171 and 181 and a number of projector 1-3. これらのプロジェクタは湾曲スクリーン171及び181の全面積をカバーし、これらは同じ電子ユニットによって制御される。 These projectors cover the entire area of ​​the curved screen 171 and 181, which are controlled by the same electronic unit. 幾何学的較正は、スクリーン171及び181のそれぞれの領域にマッピングする各プロジェクタ1〜3に関して行われる。 Geometrical calibration is performed for each projector 1 to 3 maps to each region of the screen 171 and 181. 更に幾何学的較正は、各プロジェクタ画像を隣接プロジェクタ画像に縫い合わせるために各プロジェクタ画像を回転させて平行移動させる。 Further geometric calibration, translating rotates the respective projector image to sew each projector image to the adjacent projector images. 特に、オーバーラップする領域では対応するピクセルは互いの上に重ねられる。 In particular, the pixels corresponding in the area of ​​overlap is superimposed on top of each other. 異なるプロジェクタ1〜3からスクリーン171及び181へのマッピングが異なる入射角を有し、またスクリーン171及び181が湾曲するにつれて変化することは留意されるべきである。 Have angles of incidence mapping different from different projector 1-3 to screen 171 and 181, also the screen 171 and 181 changes as curved is to be noted. ワープデータによって表されるような湾曲スクリーン171及び181のマップを有する、又は取得する電子ユニットは、スクリーン171及び181に亘る角度変化に関して修正する。 With a map of the curved screen 171 and 181 as represented by warping data, or obtains electronic unit is correct for angular change across the screen 171 and 181.

すべてのプロジェクタ領域において色特性が視覚的に同じであることを保証するために、幾何学的較正に加えて各プロジェクタ1〜3の色較正が行われる。 In order to ensure that the color characteristics are visually identical at all projectors region, color calibration of the projector 1 to 3 is performed in addition to the geometric calibration. 電子ユニットはまた、湾曲スクリーン171及び181に亘って均一な明るさ及び色のマッピングが達成されるように、ピクセルの色と明るさとをプロジェクタ1〜3の間で分割することに適応している。 Electronic unit may also comprise, as a uniform brightness and color mapping across the curved screen 171 and 181 is achieved, is adapted to divide the color and brightness of pixels between the projector 1-3 . いかなる数の個別プロジェクタでも使用可能であって、同じ較正技法を適用しながらオーバーラップ領域が多くのプロジェクタ間で分担可能であることは留意されるべきである。 A can be used in any number of individual projectors, it overlap region can be shared among many projectors while applying the same calibration techniques is to be noted.

湾曲スクリーンへの投影に関して、焦点問題は常に卓越している。 With respect to the projection of the curved screen, the focus problem is always excellence. これは、プロジェクタが平坦な焦点面を有するのにスクリーンが湾曲している、またそれとしてスクリーンの異なる部分がいかなる焦点面からも異なる距離を有するという事実から由来する。 This is derived from the fact that the projector has a distance different portions of the screen are different from any focal plane as it also screens are curved to have a flat focal plane. スクリーンのある部分を見ると、画像はスクリーンの他の部分より更に焦点が合っているように見える可能性がある。 Looking at the portion of the screen, the image may appear as further focus than other portions of the screen. 単一のプロジェクタで投影しながらこの問題を克服するために、焦点ボケを最小にする技法が使用でき、その一例示的実施形態が図19に示されている。 To overcome this problem while projecting a single projector, can be used techniques for defocusing the minimum, one exemplary embodiment of which is shown in Figure 19. この場合、較正システムは、湾曲スクリーン191から焦点面193への一連の法線の2乗距離の和が最小になるような方法に投影焦点面を配置する。 In this case, the calibration system, the sum of the squared distances of a series of normal from the curved screen 191 to the focal plane 193 places the projection focal plane manner to minimize. スクリーンの中心を両サイドよりよく焦点を合わせたければ、スクリーンの中心部分を焦点面に接続するセグメントにより多くの重みを与えることができる。 If you want the center of the screen combined better focus from both sides, it is possible to give a number of weights by the segment connecting the center portion of the screen in the focal plane.

この場合、最適焦点面は、スクリーンの既知の形状に基づいて予め計算されることが可能である。 In this case, the optimum focal plane, is capable of being pre-computed based upon the known shape of the screen. 最適焦点面とスクリーンとの交差は、画像が最もよく焦点合わせされるスクリーン上の点を与え、更に最大コントラストが得られる。 Intersection of the optimum focal plane and the screen gives a point on the screen where an image is best focused, further maximum contrast is obtained. 計算され、また知られている最適平面と最大コントラスト点とによって、図16で使用されたパターンと類似の画像テストパターンがスクリーンに投影され、それから画像が捕捉されてコントラストに関して分析される。 Is calculated by the also known optimum plane and the maximum contrast point are, similar image test pattern used pattern 16 is projected on the screen, then the image is analyzed with respect to captured by contrast. 捕捉された画像内の最大コントラスト位置が、予め決められた最大コントラスト位置と、ある許容誤差内で一致すれば、投影された画像は最適焦点面上にある。 Maximum contrast position within the captured image, and a maximum contrast position determined in advance, if they match within a certain tolerance, the projected image is on the optimum focal plane. 最大コントラスト点が予め決められた最大コントラスト点と一致しなければ、プロジェクタ焦点は調整され、このプロセスは一致が得られるまで繰り返される。 If they do not match with the maximum contrast point maximum contrast point is predetermined, the projector focus is adjusted, the process is repeated until a match is obtained. この技法が1次元的に湾曲した(例えば円柱、ゼロの空間曲率などの)、又は2次元的に湾曲した(例えば球面、非ゼロの空間曲率などの)スクリーンに適用可能であることは、留意されるべきである。 This technique is curved one-dimensionally (e.g. cylindrical, such as spatial curvature of zero), or two-dimensionally curved to be applicable to a screen (e.g. spherical, such as spatial curvature of the non-zero), it noted It should be.

図20に部分的に示されたもう一つの例示的実施形態では、既に説明された較正に加えて、多数のプロジェクタからの画像を異なる角度で投影することによって焦点問題が取り扱われる。 In another exemplary embodiment shown in part in FIG. 20, in addition to the calibration which has already been described, the focus problems are handled by projecting the images from multiple projectors at different angles. この図に示すように、湾曲スクリーン201の指定の領域にこれらの指定の角度でプロジェクタを光らせることによって、焦点ボケ問題を実質的に除去することができるであろう。 As shown in this figure, by brightening the projector at an angle of those specified in the specified area of ​​the curved screen 201, it will be able to substantially eliminate the defocusing problems. これらの角度は、各投影軸が投影する対応するスクリーン部分に実質的に垂直になるような角度であり、各焦点面は湾曲スクリーン201のカバーされた部分に対して焦点面の中心においてほぼ接線方向にある。 These angles corresponding screen portions in an angle such as to be substantially vertical, substantially tangent at the center of the focal plane with respect to the cover portion of the focal plane curvature screen 201 each projection axis projecting in the direction. 各セグメントの焦点を最適化するために、図19に示された技法と同じ技法が使用できるであろう。 In order to optimize the focus of each segment will have the same technique as the technique shown in Figure 19 can be used. 代替として各焦点セグメントの中心は、スクリーンに対して接線方向に保持され得るであろう。 Centers of each focus segment Alternatively would be held tangentially to the screen. この例示的実施形態では較正システムは、スクリーン201上に平滑で継ぎ目のない焦点の合った画像を作り出すために、ピクセルの幾何学配置と明るさと色ばかりでなく、多数プロジェクタのオーバーラップ領域の焦点も一致させる。 Calibration system in this exemplary embodiment, in order to produce a focused image seamless smooth on the screen 201, as well as the geometry and the brightness and color of the pixel, the focal point of the overlap region of multiple projectors also match. この技法の結果としてワーピングは、焦点面とスクリーン接線との間の角度が減るにつれて、著しくひどさが減ってくる。 Warping As a result of this technique, as reducing the angle between the focal plane and the screen tangent come reduced significantly severity.

色修正は、原色と輝度に関して述べられてきた。 Color correction has been described with respect to primary color and brightness. 本システムは、任意の色の修正と調整とを取り扱うことに適応できる。 The system can be adapted to handle the coordination and any color correction. テストパターン又は種々の色(単に原色やグレーレベルばかりでなく)は、方程式(52)に示される、方程式(31)に類似の様式で表示の色マップを取得するために使用され得る。 Test patterns or various colors (just as well primaries or gray level) is shown in equation (52) can be used to obtain a color map of the display in a manner similar to the equation (31).

しかしながらこれは、基底関数が今では色空間の単なる1次元(すなわち1原色)ではなく全色空間に亘って定義されているので、単に色パラメータの単一方程式への再配置ではない。 However, this is because the basis function is defined over the entire color space rather than just one dimension (i.e., primary color) of the color space is now not simply relocated to a single equation of color parameters. 多項式形式に関して基底関数は方程式(55)で定義される。 Basis function with respect to the polynomial form is defined by equation (55).

いかなる歪みも存在しない場合には、このグリッドはすべての座標において同一であろう。 If any distortion does not exist, this grid would be identical in all coordinates. ワープ発生器は、これを方程式(59)で指定される形式を有する表面関数に変換するであろう。 Warp generator would convert the surface function having the format specified by this equation (59).

最後にディジタルワーピングユニットは、方程式(53)を使用してこの多項式を評価して色修正を適用するであろう。 Finally digital warping unit would apply color correction by evaluating the polynomial using equation (53).

各空間座標において一般的色マップを有することは、任意の座標において任意の色に関して修正することを可能にする。 Have a common color map in each of the spatial coordinates, it makes it possible to correct for any color in any coordinate. これは、表示の異なる領域に関して独立に、白色点調整、コントラスト調整及び色相調整などの共通的色調整を実行することを含む。 This includes independently for different regions of the display, the white point adjustment, to perform the common color adjustments such as contrast adjustment and hue adjustment. これらの調整のすべては、色空間における固有の関数であり、したがって関数近似を介して方程式(53)によって指定される一般形式に導かれ得る。 All of these adjustments is an inherent function in color space, thus may be directed to the general format specified via the function approximated by equation (53). 色空間におけるパッチ分割の更なる特徴によって、選択的色修正も行うことができる。 The further feature of the patch division in the color space can be carried out selectively color correction. この修正は、色パッチの外側の同一グリッドを強いて修正することによって、特定の色に限定して、他の色を変化しないままに留めることができる。 This modification, by by force modifying the outer same grid color patches can be kept as limited to the specific color, leaving unchanged the other colors. これは、指定の色相が修正され、他の色相は触れられない選択的色相修正を含む。 This is specified hue is corrected, the other hues including selective color modification untouched. 本システムの一般的色較正・修正を使用すれば、表示装置で高い色精度が達成できる。 Using general color calibration and correction of the present system, high color accuracy in the display device can be achieved.

本システムは、システムの外部で計算できてワープ発生器13に入力できる顧客指定の色パラメータλ' ikrqを与えることによって色の顧客指定調整のためにも使用できる。 The system can also be used for color customers specify adjusted by applying an external customer designated color parameter λ 'ikrq that can be entered into the warp generator 13 can calculate the system. 同様に顧客指定の幾何学形状効果(特殊効果)は、顧客指定幾何学グリッド(x' k di ,y Similarly customer specified geometry effects (special effects), the customer specifies geometrical grid (x 'k di, y
' k di )をワープ発生器13に与えることによって達成できる。 'K di) can be achieved by providing the warp generator 13.

図21に部分的に示されたもう一つの例示的実施形態では、二つのカメラCm1及びCm2がプロジェクタ213に搭載されている。 In another exemplary embodiment shown in part in FIG. 21, two cameras Cm1 and Cm2 are mounted in the projector 213. 入力画像がプロジェクタ213に与えられ、それからこのプロジェクタは対応する投影画像パターンを画面211上に生成する。 The input image is supplied to the projector 213, then the projector produces a corresponding projection image pattern on the screen 211. 二つのカメラ1Cm1、Cm2は、画面211上の投影画像パターンを捕捉するために使用される。 Two cameras 1Cm1, Cm2 are used to capture the projection image pattern on the screen 211. システムは更にプロセッサ(図示されていないが前に説明された)を含む。 The system further includes a processor (not shown but described previously). 二つのカメラCm1及びCm2の相対位置はプロセッサに知られている。 The relative positions of the two cameras Cm1 and Cm2 are known to the processor. 二つのカメラCm1及びCm2は、プロジェクタ213に関して水平方向に、又は垂直方向に、又は水平垂直両方向に互い違いに配置できる。 Two cameras Cm1 and Cm2 are horizontally with respect to the projector 213, or vertically, or staggered in the horizontal and vertical directions. プロセッサは、二つのカメラCm1及びCm2からの捕捉された二つの画像の比較に基づいて、画面211に関するプロジェクタ213の角度を含む歪みパラメータを決定する。 The processor, based on a comparison of the captured two images from two cameras Cm1 and Cm2, to determine the distortion parameters including angle of projector 213 about the screens 211. それから電子修正ユニット(図示されていないが前に説明された)は、これらの歪みに関して修正するために入力画像にワープ変換を適用する。 Then electronic modification unit (not shown but described previously) applies warp transformed input image in order to correct for these distortions.

結果として得られた投影画像は、実質的に歪み無しとなる。 The resulting projected image will be substantially distorted without. このシステムと方法は、例えば図22に示された例示的実施形態に見られるような固定された位置と方位において背面投影テレビジョン(RPTV)に一つ以上のカメラが搭載されている背面投影テレビジョン(RPTV)で使用できる。 The system and method can, for example rear projection television in which one or more cameras are mounted on the rear projection television (RPTV) in a fixed position and orientation as seen in the exemplary embodiment shown in FIG. 22 It can be used in John (RPTV). カメラはまた他の方法でも搭載できる。 The camera also can be mounted in other ways. これらのカメラは、RPTVスクリーンに投影されたパターンを捕捉する。 These cameras capturing the pattern projected RPTV screen. カメラの遠近法からのRPTVスクリーンの観察は、これに関連したある台形歪みを有する可能性がある。 Observation of RPTV screen from the camera perspective of may have a certain trapezoidal distortion associated therewith. しかしながら表示装置の一部である較正システムによって表示は、前述のように自動較正できる。 However the display by a calibration system which is part of the display device can auto-calibration as described above.

図23に部分的に示されたもう一つの例示的実施形態では、湾曲スクリーン231に画像を投影するために多数のプロジェクタP1〜P3が使用される。 In another exemplary embodiment shown in part in FIG. 23, a number of the projector P1~P3 is used to project an image on the curved screen 231. 一方、各プロジェクタP1〜P3によって投影された画像を捕捉するために、多数のカメラCm1〜Cm3が使用される。 Meanwhile, in order to capture the image projected by the projectors P1 to P3, a large number of cameras Cm1~Cm3 is used. カメラCm1〜Cm3の数とプロジェクタP1〜P3の数は、この実施形態では任意である。 The number of the number of projectors P1~P3 camera Cm1~Cm3 is optional in this embodiment. 一つの場合では各カメラCm1〜Cm3は、プロジェクタP1〜P3のすべてからの画像を捕捉するために使用され得る。 In one case each camera Cm1~Cm3 may be used to capture images from any projector P1 to P3. カメラCm1〜Cm3は、互いに関して垂直方向ばかりでなく水平方向にも互い違いに配置できる。 Camera Cm1~Cm3 may staggered in the horizontal direction as well as vertically with respect to each other. 各プロジェクタP1〜P3は、較正のために湾曲スクリーン231上に既知のパターン又はテスト画像を投影することに適応している。 Each projector P1~P3 is adapted to project a known pattern or test image on the curved screen 231 for calibration. カメラCm1〜Cm3によって捕捉された画像に基づいて、プロセッサ(図示されていないが前に説明された)は、湾曲スクリーン231の形状と相対的方位とを含む歪みパラメータを計算する。 Based on the captured image by the camera CM1 to CM3, the processor (not shown but described previously) calculates the distortion parameters including the shape of the curved screen 231 and relative orientation. それからこれらのパラメータは、通常使用時に各プロジェクタP1〜P3に与えられる入力画像に適用されるワープ変換を生成するためにプロセッサによって使用される。 Then these parameters are used by the processor to generate a warp transform applied during normal use the input image given to each of the projectors P1 to P3. 各プロジェクタP1〜P3に関するワープ変換は、この特定のプロジェクタから蒙る表示歪みに関してこのワープ変換が予め補正するというものである。 Each warp transformed to a projector P1~P3, the warp transform on display distortion incurred from this particular projector is that advance correction. 更に画面231上に投影された画像の全体的明るさを均一にするために、各プロジェクタP1〜P3に関する明るさが分析され得る。 In order to make uniform the more overall brightness of the projected image on the screen 231, the brightness for each projector P1~P3 can be analyzed. 更にこのプロセッサは、継ぎ目のない画像品質のために、オーバーラップした領域内にピクセルを整列させて、これらのオーバーラップしたピクセルの明るさを異なるプロジェクタ間に分配する。 Furthermore the processor, for seamless image quality, by aligning the pixels overlapping region, distributing the brightness of overlapping pixels between the different projectors.

図23のシステムの代替実施形態では、輝度データと色データもカメラCm1〜Cm3によって捕捉され得る。 In an alternative embodiment of the system of FIG. 23, it may be captured by the luminance data and color data even camera CM1 to CM3. それからこれらのデータは、各ピクセルに関して強度を調整することによって、異なる隣接画像のエッジを一致させて融合させるためにプロセッサによって使用される。 Then these data can be controlled by adjusting the intensity for each pixel, it is used by the processor to fuse by matching the edges of the different neighboring image. すべてのプロジェクタP1〜P3の全体的輝度と色も、プロセッサによって正規化され得る。 Overall brightness and color of all projectors P1~P3 also be normalized by the processor.

図24に部分的に示されたもう一つの例示的実施形態では、パターンを用いて、あるいはパターンを用いずに投影された投影画像を捕捉するために感知装置(この場合はカメラ)が使用される。 In another exemplary embodiment shown in part in FIG. 24, by using a pattern, or a sensing device for capturing a projection image projected without using a pattern (in this case, cameras) are used that. そのうちにカメラはまた、画面241の形状、サイズ、相対的方位及び境界を検出するためにも使用される。 The camera also over time, the shape of the screen 241, the size, is also used to detect the relative orientation and boundary. 境界エッジは、引き下げ式の(プルダウン)画面(すなわち引込み式プロジェクタスクリーン)のエッジ又は部屋の隅などであり得る。 Boundary edges, and the like corner edge or room pulled formula (pull-down) screen (i.e. retractable projector screen). それからプロセッサ(図示されていないが前に説明された)は、形状、サイズ、境界及び相対的方位などの画面特性を計算するために、画像のエッジの方向とテスト画像のパターンとを分析する。 Then the processor (not shown but described above), the shape, size, to calculate the screen characteristics such as boundaries and relative orientation, analyzing the pattern direction and the test image of the image edge. この計算によって表示歪みが決定される。 The display distortion by calculation are determined. 投影され、それから捕捉された画像のパターンの複雑さに基づいて、電子修正ユニット(すなわちプロセッサ)は、歪みパラメータを決定する。 Is projected, then based on the complexity of the pattern of the captured image, the electronic modification unit (or processor) determines the distortion parameters. 単純なパターンに関して電子修正ユニットは、画面と比較した投影の角度を垂直であると決定できる。 Electronic compensation unit with respect to a simple pattern, can determine the angle of projection compared to the screen to be perpendicular. より複雑なパターンでは電子修正ユニットは、画面の形状を例えば湾曲した、あるいは不規則な画面と決定できる。 In a more complex pattern electronic modification unit may determine the shape of the screen for example curved, or irregular screen. 電子修正ユニットは、糸巻き型歪み又は樽型歪みなどのレンズ不完全性に関連する歪みパラメータも決定できる。 Electronic modification unit, the distortion parameters associated with the lens imperfections such as pincushion distortion or barrel distortion can be determined. 一旦歪みパラメータが収集されると、これらの歪みを修正するために入力画像データに適当な予備補正ワープマップが適用され、その結果得られた画像は視覚的に歪みなしになるであろう。 Once the distortion parameters are collected, appropriate preliminary correction warp map the input image data in order to correct these distortions applied, the resulting image would be without visually distortion.

代替実施形態では図24のシステムは更に、いかなる物理的マーカー又はエッジも存在しない場合に平坦な表面への投影に関して修正することに適応している。 The system of Figure 24 is an alternative embodiment is further adapted to correct for projection onto any physical marker or edge also flat in the absence of the surface. 投影からの歪みは、台形歪みとレンズ歪みの両者を含む可能性がある。 Distortion from the projection is likely to contain both trapezoidal distortion and lens distortion. このシステムではカメラは、固定された位置と方位でプロジェクタに取り付けられる。 In this system the camera is attached to the projector in a fixed position and orientation. 較正・修正は、ツーステッププロセスで実行される。 Calibration and correction is performed in two-step process. 第1のステップでは、既知のキーストーン角と、ズームレベルを含むレンズ歪みパラメータとにおいてカメラによって捕捉されたパターンの画像を記憶するために、テスト画像パターンを利用する完全な較正手順が使用され得る。 In a first step, the known keystone angle, in order to store the image of the captured pattern by the camera in the lens distortion parameters including the zoom level, complete calibration procedures utilizing test image pattern may be used . 更に修正のために必要とされるワープデータなどのいかなる追加情報も記憶できる。 Furthermore any additional information, such as warping data required for correction can also be stored. このステップは、プロジェクタが組み立てられる工場で実行でき、また工場較正と見ることができる。 This step can be done at the factory in which the projector is assembled, also can be seen as a factory calibration. 第2のステップは、プロジェクタが使用されている現場で発生する。 The second step occurs at the site where the projector is being used. プロジェクタは、第1のステップで使用された同じパターンを投影し、それからこれらのパターンはカメラによって捕捉される。 Projector, the same pattern used in the first step by projecting, then these patterns are captured by the camera. これらの現場で捕捉されたパターンは、現場におけるプロジェクタの歪みパラメータを決定するために、工場で取得された記憶された歪みパラメータと共に工場で捕捉されたパターンと比較される。 These situ trapped pattern, to determine the distortion parameters of the projector in the field, compared factory captured pattern with factory acquired stored distortion parameters. 現場における歪みパラメータを知ると、プロジェクタ台形歪曲及びレンズ歪みに関して修正するために、既に記憶されているか、リアルタイムに構築されるのであれば、修正ワープが検索され得る。 Knowing the distortion parameters in the field, in order to correct for projector trapezoidal distortion and lens distortion, or is already stored, but might be constructed in real time, modifications warp can be searched. 予め記憶された情報(画像)との比較が行われるので、実際のエッジ又はマーカー(スクリーンベズルなどの)は必要とされない。 Since comparison with previously stored information (image) is performed, (such as screen base nozzle) actual edge or marker is not required. 工場で記憶されたデータは、全画像である必要はなく、グリッドデータ、又は異なる歪みレベルに関してパターンを特徴記述する他のパラメータであり得る。 The data stored in the factory is not required to be a full image may be other parameters characterizing the pattern with respect to the grid data, or a different strain levels.

もう一つの代替実施形態ではカメラは、単に4個の点からなる単純なグリッドタイプの画像パターンを使用することによって、台形歪みに関して修正するために使用される。 In another alternative embodiment the camera by simply using a simple grid type image pattern of four points are used to correct for trapezoidal distortion. この場合、テストパターンは、2×2グリッド(単に4個の点が必要とされる)からなる図2a又は2bに示されるようなものである。 In this case, the test pattern is as shown in Figure 2a or 2b consisting 2 × 2 grid (simply are required four points). 台形歪みに関しては、いかなるレンズ歪みもなければ、歪みを決定するために4個の点で十分である。 For the trapezoidal distortion, if any lens distortion, the four points in order to determine the strain is sufficient. 4個の点は、台形歪曲修正を決定するために単にそれらの位置(投影の前と後の)を知れば十分であるから、どこにでも配置できる。 The four points, since it is sufficient to know simply their positions (before and after projection) for determining a trapezoidal distortion corrected, can be placed anywhere. この方法はまた、4個の点の単純な移行であるいかなるプロジェクタレンズシフト調整をも組み込むことができる。 The method may also incorporate any projector lens shift adjustment is a simple transfer of four points. レンズ歪みを有するか、あるいは有さない可能性のあるズームレンズを有するプロジェクタに関して較正は先ず、異なるズームレベルに関して軸(台形歪みなし)に対して実行され、修正ワープが記憶される。 Or a lens distortion, or calibrated with respect to a projector having a potential zoom lens having no is first performed with respect to the axis (no trapezoidal distortion) for different zoom levels, modification warp is stored. それから修正ワープ(適当なズームレベルとレンズ歪みに関する)が適用され、4個の点を使用する台形歪曲修正に関してだけ較正が繰り返される。 Then apply modified warp (about appropriate zoom level and lens distortion), calibrated only with respect to the trapezoidal distortion correction using a four point is repeated. 台形歪曲修正は、すべてのプロジェクタ歪みに関して修正する最終マップを取得するために、ズームレンズ修正と連結され得る、又はズームレンズ修正で機能的に構成され得る。 Trapezoidal distortion correction is to obtain the final map to correct for all projector distortion, zoom lens and fixes may be linked, or may be functionally constituted by the zoom lens modification. レンズ修正は、工場較正手順時に一度計算されて記憶されることが必要とされるだけである。 Lens modifications will only be required to be stored is calculated once at the time of factory calibration procedure. それから台形歪曲修正は、現場でカメラを使用して実行され、レンズ修正で構成される。 Then trapezoidal distortion correction is the scene using a camera runs, and a lens fixed.

もう一つの例示的実施形態は、図25に部分的に示され、湾曲スクリーン251への投影の場合に関する。 Another exemplary embodiment is shown in part in FIG. 25 relates to the case of projection onto a curved screen 251. 形状と距離とを含む湾曲スクリーン251のマップを決定するために2次元画像パターン、例えばチェック模様の画像パターンが画面に投影される。 2-dimensional image pattern, the image pattern of, for example, checkered is projected on the screen in order to determine a map of the curved screen 251 including the shape and distance. 投影された画像を捕捉するためにカメラが使用される。 The camera is used to capture the projected image. それから電子修正ユニット(すなわち図示されていないが前に説明されたプロセッサ)は、チェック模様パターン内の各線によって導入されたコントラストを計算することに適応している。 Then electronic modification unit (or processor which is not shown, described above) is adapted to calculate a contrast introduced by each line in the checkered pattern. 焦点を連続的に変化させることによってパターン上の各点における最良のコントラストは、焦点距離の関数として見つけ出される。 Best contrast at each point on the pattern by changing the focal point continuously, are found as a function of the focal length. この仕方で湾曲スクリーン251の表面マップが決定される。 Surface map of the curved screen 251 is determined in this manner. マップの精度と詳細は、投影されたパターンの複雑さと試みられた焦点距離の数とに依存する。 Details and map accuracy depends on the number of focal length attempted with the complexity of the projected pattern. この技法がカメラのアングルを与え、それによって画面に関するプロジェクタの角度を各点で垂直にすることも留意されるべきである。 This technique gives a camera angle, whereby it should also be noted that the vertical angle of the projector about the screen at each point. 一旦電子修正ユニットが各点における画面の形状とサイズと角度とに関連する歪みパラメータを計算すると、その後このユニットはワープ変換を計算するか、すでに記憶されている適当な変換を使用する。 Once you calculate the distortion parameters electronic modification unit is related to the shape, size, and angle of the screen at each point, then if this unit calculates the warp transformed, using a suitable transformation already stored. このワープ変換は、入力画像データに適用されると、画面の特性に適合した視覚的に歪みなしの画像という結果をもたらす。 The warp transformation, when applied to the input image data, results in no visually strain adapted to the characteristics of the screen image.

もう一つの例示的実施形態は、図26に部分的に示され、小波形スクリーン261の場合に関する。 Another exemplary embodiment is partially shown in FIG. 26 relates to the case of a small waveform screen 261. 図25に関連する実施形態で説明された技法は、すべての点における小波形画面の形状と相対方位とを決定するためにも使用できる。 Techniques described embodiments related to FIG. 25, it can also be used to determine the shape and relative orientation of the small wave screen at all points. この例は、いかなる不規則な画面でも表示装置で使用可能であることを示している。 This example shows that it is available in the display device in any irregular screen. 一旦画面のマップが準備されると、電子修正ユニット(図示されていないが前に説明された)は、入力画像に適用されるワープ変換を構成するためにこのマップを使用する。 Once the map of the screen is prepared, the electronic modification unit (not shown but described previously) uses this map to configure the warp transformation is applied to the input image. 一旦このワープ変換が入力画像に適用されると、投影された画像は視覚的に歪みなしになり、画面の特性に適合する。 Once this warp transformation is applied to the input image, the projected image is visually becomes without distortion, adapted to the characteristics of the screen.

上記の説明は種々の例示的実施形態を与えているが。 While the above description has given various exemplary embodiments. 説明された実施形態のあるいくつかの特徴及び/又は機能が、説明された実施形態の精神と動作原理から逸脱せずに修正を受入れ可能であることは認められるであろう。 Some of the features and / or functions with the described embodiments, it modifications without departing from the spirit and principle of operation of the described embodiments is acceptable will be appreciated. したがって上記に説明されてきたことは例示的で非限定的であることが意図され、またここに付属された特許請求の範囲に記載のこれらの実施形態の範囲から逸脱せずに他の変形版及び修正版が行われ得ることは、当業者によって理解されるであろう。 Thus it has been described above are intended to be illustrative, non-limiting, and other variant without departing from the scope of the embodiments described in the claims which are included here and the modified version may be made will be understood by those skilled in the art.

Claims (26)

  1. 画面を有する表示装置と共に使用するための表示較正システムであって、 A display calibration system for use with a display device having a screen,
    前記画面の形状、サイズ、境界及び方向のうちの少なくとも一つに関する情報を感知するように構成された、少なくとも一つの感知装置と、 The shape of the screen, which is configured to sense the size, at least one information regarding of the boundary and the direction, at least one sensing device,
    前記少なくとも一つの感知装置に接続され、前記少なくとも一つの感知装置によって感知された情報に基づいて表示装置特性を計算するように構成された、少なくとも一つのプロセッサと、 Connected to said at least one sensing device, which is configured to calculate a display device characteristics based on the information sensed by the at least one sensing device, at least one processor,
    を備える表示較正システム。 Display calibration system that includes a.
  2. 前記少なくとも一つの感知装置は更に、前記画面上に表示されたテスト画像を感知するように構成されており、 Furthermore the at least one sensing device is configured to sense a test image displayed on the screen,
    前記少なくとも一つのプロセッサは更に、前記感知されたテスト画像と前記表示装置特性とに基づいて表示歪みを計算するように構成されている、 The at least one processor is further configured to calculate the display distortion based on said display device characteristic and the sensed test image,
    請求項1に記載の表示較正システム。 Display calibration system according to claim 1.
  3. 前記少なくとも一つのプロセッサは更に、表示に先立って予備補正マップを入力画像データに適用したとき、前記画面上に結果として得られる表示画像が実質的に歪み無しとなるよう、前記表示歪みに基づいて前記予備補正マップを生成するように構成されている、 Wherein further at least one processor, when applied to the input image data pre-correction maps prior to display, so that display the resulting image on the screen is substantially distortion free, based on the display distortion wherein being configured to generate a pre-correction map,
    請求項2に記載の表示較正システム。 Display calibration system of claim 2.
  4. 前記表示歪みは、時間的に変化し、 The display distortion, temporal changes,
    前記表示較正システムは、変化する歪みを予め補正するために前記表示装置を動的に較正するように構成されている、 Said display calibration system, the display device in order to advance correcting distortion which varies is configured to dynamically calibrate,
    請求項3に記載の表示較正システム。 Display calibration system of claim 3.
  5. 前記少なくとも一つのプロセッサは、表示画像が画面より大きいオーバーフロー状態、前記表示画像が画面より小さいアンダーフロー状態、及び、前記表示画像の一部が前記画面をオーバーフローし前記表示画像の他の一部が前記画面をアンダーフローする不整合状態のうちの少なくとも一つに関して修正するように構成されている、 Wherein the at least one processor, the display image larger than the screen overflow condition, the display image is small underflow condition than the screen, and a portion of the display image other portion of the display image overflows the screen is configured to correct for at least one of an inconsistent state that underflow the screen,
    請求項3に記載の表示較正システム。 Display calibration system of claim 3.
  6. 前記表示装置は、ハウジングを有する背面投影表示装置であり、 The display device is a rear projection display device having a housing,
    前記表示較正システムは、前記ハウジング内に配置される、 It said display calibration system is disposed within the housing,
    請求項3に記載の表示較正システム。 Display calibration system of claim 3.
  7. 前記少なくとも一つの感知装置は更に、輝度情報と色情報とのうちの少なくとも一つを感知するように構成されており、 Furthermore the at least one sensing device is configured to sense at least one of the luminance and color information,
    前記少なくとも一つのプロセッサは更に、輝度不均一性と色不均一性とのうちの少なくとも一つをそれぞれ予め補正するように構成されている、 The at least one processor is further configured to at least one pre respective correction of the brightness non-uniformity and Irofu uniformity,
    請求項3に記載の表示較正システム。 Display calibration system of claim 3.
  8. 前記表示システムは更に、更なる歪みを有する光学部品を備え、 It said display system further comprises an optical component having a further distortion,
    前記少なくとも一つのプロセッサは更に、前記更なる歪みと前記表示歪みとの両者を予め補正するために、前記更なる歪みを前記表示歪みに統合するように構成されている、 Wherein the at least one processor is further to pre-correct both and the display distortion and the further distortion is configured with the further distortion to integrate the display distortion,
    請求項3に記載の表示較正システム。 Display calibration system of claim 3.
  9. 前記表示歪みは、幾何学歪み、光学歪み、集束不良、位置合わせ不良、及び、横の色収差のうちの少なくとも一つを含む、 The display distortion includes geometric distortion, optical strain, focusing defect, misalignment, and, at least one of the lateral chromatic aberration,
    請求項2に記載の表示較正システム。 Display calibration system of claim 2.
  10. 前記少なくとも一つの感知装置は、前記画面上の複数の点までの距離を感知するように構成されており、 It said at least one sensing device is configured to sense the distance to a plurality of points on the screen,
    前記少なくとも一つのプロセッサは、前記距離に基づいて前記画面の相対位置と相対方向とを計算するように構成されている、 The at least one processor is configured to calculate the relative position and direction of the screen based on said distance,
    請求項1に記載の表示較正システム。 Display calibration system according to claim 1.
  11. 前記少なくとも一つの感知装置は、種々の焦点距離における前記画面上のテスト画像の異なる部分を感知するように構成されており、 It said at least one sensing device is configured to sense different portions of the test image on the screen in a variety of focal lengths,
    前記少なくとも一つのプロセッサは、前記テスト画像の異なる部分における最も高いコントラストを決定し、前記画面の形状と相対方位とを計算するために決定された前記最も高いコントラストに基づいて、前記画面の異なる部分までの距離を計算するように構成されている、 The at least one processor, said determining the highest contrast in different parts of the test image, on the basis of the highest contrast determined to calculate the shape and relative orientation of the screen, different parts of the screen is configured to calculate the distance to,
    請求項2に記載の表示較正システム。 Display calibration system of claim 2.
  12. 前記少なくとも一つの感知装置は、センサー歪みを有し、 It said at least one sensing device has a sensor strain,
    前記少なくとも一つのプロセッサは更に、前記センサー歪みを計算し、前記表示歪みを計算する際、前記センサー歪みを考慮するように構成されている、 Furthermore the at least one processor, the sensor strain was calculated, when calculating the display distortion, and is configured to take into account the sensor strain,
    請求項2に記載の表示較正システム。 Display calibration system of claim 2.
  13. 前記センサー歪みは、前記画面の法線方向に平行でない軸を有する少なくとも一つの感知装置によって引き起こされる、 The sensor distortion is caused by at least one sensing device has a shaft is not parallel to the normal direction of the screen,
    請求項12に記載の表示較正システム。 Display calibration system of claim 12.
  14. 前記少なくとも一つの画像感知装置は、前記少なくとも一つのプロセッサによって知られた異なる位置に配置された、複数の画像感知装置を備え、 The at least one image sensing device, wherein arranged in known different positions by at least one processor comprises a plurality of image sensing devices,
    前記少なくとも一つのプロセッサは、異なる感知装置によって異なって感知されたテスト画像を比較し、前記異なる感知装置の位置と前記異なって感知された画像とに基づいて、前記表示歪みを計算するように構成されている、 Wherein the at least one processor is different test images sensed differently by the sensing device to compare, on the basis of the position and the different sensed images of different sensing device, configured to calculate the display distortion It has been,
    請求項2に記載の表示較正システム。 Display calibration system of claim 2.
  15. 前記少なくとも一つの画像感知装置は、前記画面上に4個のマーカーを有するテスト画像に関する情報を感知するように構成されており、 The at least one image sensing device is configured to sense information about the test image with the four markers on the screen,
    前記少なくとも一つのプロセッサは、前記感知された情報に基づいて台形歪みを計算するように構成されている、 The at least one processor is configured to calculate the trapezoidal distortion on the basis of the sensed information,
    請求項2に記載の表示較正システム。 Display calibration system of claim 2.
  16. 前記少なくとも一つの感知装置は更に、輝度情報と色情報とのうちの少なくとも一つを感知するように構成されており、 Furthermore the at least one sensing device is configured to sense at least one of the luminance and color information,
    前記少なくとも一つのプロセッサは更に、前記予備補正マップに起因する輝度不均一性と色不均一性とのうちの少なくとも一つに関して修正するように構成されている、 The at least one processor is further configured to correct for at least one of the brightness non-uniformity and Irofu uniformity due to the preliminary correction map,
    請求項3に記載の表示較正システム。 Display calibration system of claim 3.
  17. 画面を有する表示装置と共に使用するための表示較正システムであって、 A display calibration system for use with a display device having a screen,
    前記画面上に表示されたテスト画像から情報を感知するように構成された、少なくとも一つの感知装置と、 Configured to sense information from the displayed test image on the screen, and at least one sensing device,
    前記少なくとも一つの感知装置に接続され、前記感知された情報に基づいて表示歪みを計算し、表示に先立って予備補正マップを入力画像データに適用したとき、前記画面上に結果として得られる表示画像が実質的に歪み無しとなるよう、前記表示歪みを補正するための表面関数によって実現される前記予備補正マップを生成するように構成された、少なくとも一つのプロセッサと、 Connected to said at least one sensing device, the display distortion based on the sensed information to calculate, when applying pre-correction map to the input image data prior to display, the display image obtained as the result on the screen There to be substantially distortion free, configured to generate the preliminary correction map that is realized by the surface function for correcting the display distortion, and at least one processor,
    を備える表示較正システム。 Display calibration system that includes a.
  18. 前記少なくとも一つのプロセッサは更に、種々の表示歪みを統合し、前記統合された歪みを予め補正する表面関数を生成するように構成されている、 The at least one processor is further configured to integrate the various display distortion, and is configured to generate a surface function to pre-correct the integrated strain
    請求項17に記載の表示較正システム。 Display calibration system of claim 17.
  19. 前記表面関数は多項式である、請求項17に記載の表示較正システム。 The surface function is a polynomial, the display calibration system of claim 17.
  20. 前記少なくとも一つのプロセッサは更に、オーバースキャン状態とアンダースキャン状態とのうちの少なくとも一つを更に補正するために、前記表面関数を調整するように構成されている、 Wherein the at least one processor is further to further corrects at least one of the overscan state and underscan state, and is configured to adjust the surface function,
    請求項17に記載のシステム。 The system of claim 17.
  21. 画面を有する表示装置と共に使用するための表示較正システムであって、 A display calibration system for use with a display device having a screen,
    前記画面上に表示されたテスト画像から情報を感知するように構成された、少なくとも一つの画像感知装置と、 Configured to sense information from the displayed test image on the screen, and at least one image sensing device,
    前記少なくとも一つの画像感知装置に接続され、前記感知された情報に基づいて表示歪みを計算し、各パッチにおける前記表示歪みのひどさにしたがって前記画面を複数のパッチに分割し、表示に先立って予備補正マップを入力画像データに適用したとき、前記画面上に結果として得られる表示画像が実質的に歪み無しとなるよう、各パッチにおける前記表示歪みに関する前記予備補正マップを生成するように構成された、少なくとも一つのプロセッサと、 Connected to said at least one image sensing device, the display distortion based on the sensed information to calculate, the screen is divided into a plurality of patches according to severity of the display distortion at each patch, replacement prior to display when applying the correction map to the input image data, displaying the resulting image on the screen is to be substantially distortion free, which is configured to generate the preliminary correction map for the display distortion at each patch , and at least one processor,
    を備える表示較正システム。 Display calibration system that includes a.
  22. 画面を有する表示装置と共に使用するための表示較正システムであって、 A display calibration system for use with a display device having a screen,
    前記画面上に表示されたテスト画像から、少なくとも一つの色成分に関して独立して色情報を感知するように構成された、少なくとも一つの画像感知装置と、 From the displayed test image on the screen, which is configured to sense color information independently with respect to at least one color component, and at least one image sensing device,
    前記少なくとも一つの画像感知装置に接続され、前記感知された色情報に基づいて色不均一性を計算し、表示に先立って少なくとも一つの色修正マップを入力画像データに適用したとき、前記画面上に結果として得られる表示画像が実質的に少なくとも一つの色の不均一性を有さないよう、前記少なくとも一つの色成分に関する前記少なくとも一つの色修正マップを生成するように構成された、少なくとも一つのプロセッサと、 Wherein the at least connected to one of the image sensing device, the calculated color nonuniformity based on the sensed color information, when applied to the input image data of at least one color correction maps prior to display, the screen display the resulting image in the so having no nonuniformity of substantially at least one color, which is configured the to generate the at least one color correction maps for at least one color component, at least a and One of the processor,
    を備える表示較正システム。 Display calibration system that includes a.
  23. 画面を有する表示装置と共に使用するための表示較正システムであって、 A display calibration system for use with a display device having a screen,
    前記画面上に表示された個別の色成分テスト画像から情報を感知するように構成された、少なくとも一つの画像感知装置と、 Constructed from the individual color components test image displayed on the screen to sense the information, and at least one image sensing device,
    前記少なくとも一つの画像感知装置と前記表示装置とに接続され、前記感知された情報に基づいて少なくとも一つの色成分に関して幾何学的表示歪みを独立に計算し、表示に先立って少なくとも一つの色修正マップを入力画像データに適用したとき、前記画面上に結果として得られる表示画像が実質的に少なくとも一つの色依存性幾何学歪みを有さないよう、前記少なくとも一つの色成分に関する前記少なくとも一つの色修正マップを独立して生成するように構成された、少なくとも一つのプロセッサと、 Wherein at least the one of the image sensing device display connected device and, based on the sensed information to calculate independently a geometrical display distortion with respect to at least one color component, at least one color correction prior to display when applying maps the input image data, displaying the resulting image on the screen is such that substantially no at least one color dependent geometrical distortion, said at least one for the at least one color component is configured to independently generate color correction map, and at least one processor,
    を備える表示較正システム。 Display calibration system that includes a.
  24. 湾曲した画面を有する投影システムにおいて使用するための表示較正方法であって、 A display calibration method for use in a projection system having a curved screen,
    画像の異なる部分を、前記湾曲した画面の対応する部分に投影するために、複数のプロジェクタを使用し、 The different portions of the image, in order to project a corresponding portion of the screen that the curved, using multiple projectors,
    前記画像全体を、前記湾曲した画面上に最適化された焦点により形成するために、前記画像の各部分を、前記湾曲した画面の対応する部分上に実質的に焦点を合わせる、 The entire image, in order to form the optimized focus the curved screen, each portion of the image, adjust the substantially focused on the curved screen of the corresponding upper part,
    ことを備える表示較正方法。 Display calibration method with that.
  25. 焦点を最適化して幾何学歪みを最小にするために、各プロジェクタの投影軸が、前記湾曲した画面の対応する部分に実質的に垂直になるよう、前記複数のプロジェクタの各々を独立に位置決めして方向付けする、 To the geometric distortion minimized by optimizing the focus, projection axis of each projector, the curved screen corresponding to be substantially perpendicular to the portion, positioned independently each of the plurality of projectors directing Te,
    ことを更に備える請求項24に記載の方法。 Furthermore, the process according to claim 24, comprising the.
  26. 湾曲した画面を有する投影システムにおいて使用するための表示較正方法であって、 A display calibration method for use in a projection system having a curved screen,
    前記湾曲した画面から投影画像の焦点面までの複数の距離を測定し、 A plurality of distances to the focal plane of the projection image from the curved screen is measured,
    最適化された焦点を得るために、前記複数の距離の関数が最小化されるまで前記焦点面をシフトする、 To obtain an optimized focus, said plurality of function of the distance to shift the focal plane to be minimized,
    表示較正方法。 Display calibration method.
JP2014088912A 2006-08-11 2014-04-23 System and method for automatic calibration and correction of shape of display and color Pending JP2014171234A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US83694006P true 2006-08-11 2006-08-11
US60/836940 2006-08-11
US91752507P true 2007-05-11 2007-05-11
US60/917525 2007-05-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007208937 Division 2007-08-10

Publications (1)

Publication Number Publication Date
JP2014171234A true JP2014171234A (en) 2014-09-18



Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007208937A Active JP5535431B2 (en) 2006-08-11 2007-08-10 System and method for displaying the shape and color of the auto-calibration and correction
JP2014088912A Pending JP2014171234A (en) 2006-08-11 2014-04-23 System and method for automatic calibration and correction of shape of display and color

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2007208937A Active JP5535431B2 (en) 2006-08-11 2007-08-10 System and method for displaying the shape and color of the auto-calibration and correction

Country Status (4)

Country Link
JP (2) JP5535431B2 (en)
KR (1) KR20080014712A (en)
CN (1) CN101136192B (en)
TW (2) TWI411967B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122500A1 (en) * 2016-01-13 2017-07-20 株式会社リコー Projection system, image processing device, projection method, and program

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
JP5256899B2 (en) * 2008-07-18 2013-08-07 セイコーエプソン株式会社 Image correction apparatus, an image correction method, a projector and a projection system
JP5386956B2 (en) * 2008-12-04 2014-01-15 セイコーエプソン株式会社 Projector, display adjustment method, the display adjustment program and a recording medium
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
US20100321382A1 (en) * 2009-06-18 2010-12-23 Scalable Display Technologies, Inc. System and method for injection of mapping functions
TWI396035B (en) * 2009-08-28 2013-05-11 Avermedia Information Inc Project position apparatus and document projector thereof
TWI423143B (en) * 2010-06-17 2014-01-11 Pixart Imaging Inc Image sensing module
TWI452270B (en) * 2011-10-21 2014-09-11 Univ Nat Central Detecting apparatus and detecting method thereof
JP2013190671A (en) * 2012-03-14 2013-09-26 Ricoh Co Ltd Image projection device, brightness processing method, and program
US8787689B2 (en) * 2012-05-15 2014-07-22 Omnivision Technologies, Inc. Apparatus and method for correction of distortion in digital image data
JP6070307B2 (en) * 2012-05-21 2017-02-01 株式会社リコー Pattern extracting apparatus, an image projection apparatus, a pattern extracting method, and program
JP6065656B2 (en) * 2012-05-22 2017-01-25 株式会社リコー Pattern processing apparatus, a pattern processing method, pattern processing program
CN102768757B (en) * 2012-06-28 2015-01-07 北京市遥感信息研究所 Remote sensing image color correcting method based on image type analysis
JP2016531312A (en) * 2013-06-28 2016-10-06 シゼイ シジブイ カンパニー リミテッド Theaters structures and multifaceted screening system using the same
US9470893B2 (en) 2012-10-11 2016-10-18 Sony Computer Entertainment Europe Limited Head mountable device
US20140104692A1 (en) * 2012-10-11 2014-04-17 Sony Computer Entertainment Europe Limited Head mountable display
JP6083185B2 (en) 2012-10-12 2017-02-22 セイコーエプソン株式会社 Projector, black level region setting method of a projector
JP6289003B2 (en) * 2013-09-26 2018-03-07 キヤノン株式会社 The information processing apparatus and a control method thereof, a program
JP6065804B2 (en) * 2013-10-08 2017-01-25 株式会社デンソー Inspection equipment
JP6307843B2 (en) * 2013-11-12 2018-04-11 株式会社リコー Interpolation method, program and interpolation apparatus
TWI520099B (en) * 2014-02-19 2016-02-01 Etron Technology Inc Calibration method of an image capture system
US9836816B2 (en) * 2014-04-05 2017-12-05 Sony Interactive Entertainment America Llc Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
TWI511086B (en) * 2014-04-18 2015-12-01 Altek Semiconductor Corp Lens distortion calibration method
CN105096348B (en) 2014-04-30 2018-06-29 富士通株式会社 Apparatus and method for detecting the color of an image plate
CN104123137A (en) 2014-07-21 2014-10-29 联想(北京)有限公司 Information processing method and electronic device
US20170308242A1 (en) * 2014-09-04 2017-10-26 Hewlett-Packard Development Company, L.P. Projection alignment
CN104539921B (en) * 2014-11-26 2016-09-07 北京理工大学 A novel illumination compensation method based on multi-projection system
US9684950B2 (en) * 2014-12-18 2017-06-20 Qualcomm Incorporated Vision correction through graphics processing
TWI548864B (en) * 2015-03-06 2016-09-11 Qisda Corp Color calibrator module
KR101886840B1 (en) * 2015-03-13 2018-08-08 한국전자통신연구원 Method and apparatus for geometric correction based on user interface
US10057556B2 (en) 2016-01-28 2018-08-21 Disney Enterprises, Inc. Projector optimization method and system
WO2017187842A1 (en) * 2016-04-27 2017-11-02 ソニー株式会社 Image projection device, image projection system, and correction method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131802A (en) * 1993-11-05 1995-05-19 Matsushita Electric Ind Co Ltd Image correcting device
JPH10210390A (en) * 1997-01-20 1998-08-07 Fujitsu Ltd Display image distortion correction method for display device, distortion detection device and distortion correction device, and display device having the correction device
JP2001083949A (en) * 1999-09-16 2001-03-30 Japan Science & Technology Corp Image projecting device
JP2005286574A (en) * 2004-03-29 2005-10-13 Seiko Epson Corp Image processing system, projector, program, information storage medium, and image processing method
JP2005286573A (en) * 2004-03-29 2005-10-13 Seiko Epson Corp Image processing system, projector, program, information storage medium, and image processing method
JP2006121240A (en) * 2004-10-20 2006-05-11 Sharp Corp Image projection method, projector, and computer program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089309A (en) * 1994-06-23 1996-01-12 Canon Inc Display method and its device
US6060383A (en) 1998-08-10 2000-05-09 Nogami; Takeshi Method for making multilayered coaxial interconnect structure
JP2000155373A (en) * 1998-11-24 2000-06-06 Matsushita Electric Ind Co Ltd Projection type display device
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
JP2001339672A (en) * 2000-03-24 2001-12-07 Olympus Optical Co Ltd Multi-vision device
JP3497805B2 (en) * 2000-08-29 2004-02-16 オリンパス株式会社 Image projection display device
JP2002247614A (en) * 2001-02-15 2002-08-30 Ricoh Co Ltd Projector
US6999046B2 (en) * 2002-04-18 2006-02-14 International Business Machines Corporation System and method for calibrating low vision devices
JP4806894B2 (en) * 2004-02-05 2011-11-02 カシオ計算機株式会社 Projection apparatus, projection method and program
JP3880582B2 (en) * 2004-02-13 2007-02-14 Necビューテクノロジー株式会社 Projector having a plurality of cameras
CN1753077A (en) 2004-09-24 2006-03-29 乐金电子(惠州)有限公司 Brightness control method of image display and its device
JP2006109088A (en) * 2004-10-05 2006-04-20 Chiba Univ Geometric correction method in multi-projection system
US7262816B2 (en) * 2004-10-22 2007-08-28 Fakespace Labs, Inc. Rear projection imaging system with image warping distortion correction system and associated method
WO2006062508A1 (en) * 2004-12-07 2006-06-15 Silicon Optix Inc. Dynamic warp map generation system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131802A (en) * 1993-11-05 1995-05-19 Matsushita Electric Ind Co Ltd Image correcting device
JPH10210390A (en) * 1997-01-20 1998-08-07 Fujitsu Ltd Display image distortion correction method for display device, distortion detection device and distortion correction device, and display device having the correction device
JP2001083949A (en) * 1999-09-16 2001-03-30 Japan Science & Technology Corp Image projecting device
JP2005286574A (en) * 2004-03-29 2005-10-13 Seiko Epson Corp Image processing system, projector, program, information storage medium, and image processing method
JP2005286573A (en) * 2004-03-29 2005-10-13 Seiko Epson Corp Image processing system, projector, program, information storage medium, and image processing method
JP2006121240A (en) * 2004-10-20 2006-05-11 Sharp Corp Image projection method, projector, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122500A1 (en) * 2016-01-13 2017-07-20 株式会社リコー Projection system, image processing device, projection method, and program

Also Published As

Publication number Publication date
CN101136192A (en) 2008-03-05
KR20080014712A (en) 2008-02-14
CN101136192B (en) 2013-06-05
TWI511122B (en) 2015-12-01
TWI411967B (en) 2013-10-11
TW200818114A (en) 2008-04-16
JP2008113416A (en) 2008-05-15
JP5535431B2 (en) 2014-07-02
TW201351391A (en) 2013-12-16

Similar Documents

Publication Publication Date Title
US7532766B2 (en) Method and system for producing formatted data related to geometric distortions
KR100571175B1 (en) Image processing system, projector, information storage medium and image processing method
CN104103067B (en) Method and apparatus for generating an image screenshots
US6778207B1 (en) Fast digital pan tilt zoom video
CN1273931C (en) Method and system for improving image quality
US7391450B2 (en) Techniques for modifying image field data
US6219099B1 (en) Method and apparatus for calibrating a display using an array of cameras
US6115022A (en) Method and apparatus for adjusting multiple projected raster images
US6570623B1 (en) Optical blending for multi-projector display wall systems
US20100141780A1 (en) View Projection Matrix Based High Performance Low Latency Display Pipeline
Majumder et al. Perceptual photometric seamlessness in projection-based tiled displays
US6219011B1 (en) Electro-optical display apparatus
US6836298B2 (en) Apparatus and method for correcting distortion of image and image displayer using the same
US20020180727A1 (en) Shadow buffer control module method and software construct for adjusting per pixel raster images attributes to screen space and projector features for digital warp, intensity transforms, color matching, soft-edge blending, and filtering for multiple projectors and laser projectors
KR100858985B1 (en) Electronic calibration for seamless tiled display using optical function generator
EP0460947A2 (en) Image correction apparatus
US5699440A (en) Method and system for testing the performance of at least one electro-optical test device
US20080174516A1 (en) Mosaicing of View Projections
US8712183B2 (en) System and method for performing image correction
KR100615277B1 (en) Method and apparatus for compensating Image sensor lens shading
US6733138B2 (en) Multi-projector mosaic with automatic registration
US20070273795A1 (en) Alignment optimization in image display systems employing multi-camera image acquisition
US6784856B2 (en) System and method for anti-moire display
JP6046668B2 (en) Method for displaying an image
JP3620537B2 (en) Image processing system, projector, information storage medium and image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151130

A131 Notification of reasons for refusal


Effective date: 20151208

A601 Written request for extension of time


Effective date: 20160308

A521 Written amendment


Effective date: 20160506

A131 Notification of reasons for refusal


Effective date: 20161025

A02 Decision of refusal


Effective date: 20170523