JP2008139709A - Color processing apparatus and method thereof - Google Patents

Color processing apparatus and method thereof Download PDF

Info

Publication number
JP2008139709A
JP2008139709A JP2006327631A JP2006327631A JP2008139709A JP 2008139709 A JP2008139709 A JP 2008139709A JP 2006327631 A JP2006327631 A JP 2006327631A JP 2006327631 A JP2006327631 A JP 2006327631A JP 2008139709 A JP2008139709 A JP 2008139709A
Authority
JP
Japan
Prior art keywords
image
profile
display device
color
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006327631A
Other languages
Japanese (ja)
Inventor
Hisato Sekine
寿人 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006327631A priority Critical patent/JP2008139709A/en
Publication of JP2008139709A publication Critical patent/JP2008139709A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably achieve faithful color reproduction without being affected by a secular change over the entire part of a display screen of an image display device by performing a color processing in consideration of the intra-surface unevenness and secular change of the luminance and chromaticity of the image display device. <P>SOLUTION: An input section 20 inputs data for profile generation of the image display device 22, luminance distribution information of the display screen, lapse time after turning on of a power source, an image to be displayed on the image display device 22, and its display position information. A profile generating 10 generates the profile of the image display device 22, and generates the corrected profile for color correction of the input image based on the profile, the luminance distribution information, the lapse time, and the display position information. A color matching processing section 11 performs color correction of the input image by using the profile and the corrected profile. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像表示装置に表示する画像の色補正に関する。   The present invention relates to color correction of an image displayed on an image display device.

ブラウン管(CRT)ディスプレイ、液晶ディスプレイ(LCD)、プラズマディスプレイパネル(PDP)、フロントおよびリアプロジェクタなど、様々な種類の画像表示装置が存在する。これら画像表示装置の色再現範囲(以下「色域」という)は、画像表示装置に入力される画像の色域とは異なる。そのため、これら画像表示装置に入力画像の色を忠実に再現させるには、画像表示装置の出力特性(以下「プロファイル」という)を取得する。そして、プロファイルを用いて、入力画像の色域を画像表示装置の色域に変換する(以下「マッピング」という)。   There are various types of image display devices such as cathode ray tube (CRT) displays, liquid crystal displays (LCD), plasma display panels (PDP), front and rear projectors. The color reproduction range (hereinafter referred to as “color gamut”) of these image display devices is different from the color gamut of an image input to the image display device. Therefore, in order to faithfully reproduce the color of the input image on these image display devices, output characteristics (hereinafter referred to as “profile”) of the image display device are acquired. Then, using the profile, the color gamut of the input image is converted to the color gamut of the image display device (hereinafter referred to as “mapping”).

しかし、画像表示装置のプロファイルを用いてマッピングしても忠実な色を再現できない場合がある。この原因には以下の二つが考えられる。   However, there are cases where a faithful color cannot be reproduced even if mapping is performed using the profile of the image display apparatus. There are two possible causes for this.

一つは、バックライトの発光むら(LCD)、表示パネルの不均一性(LCD、PDP)、レンズ系の歪み(プロジェクタ)など様々な原因により、表示画面内に輝度むら、色むら(これらを合わせて「面内むら」と呼ぶ)が発生する。その結果、画像表示装置の画面中央領域で取得したプロファイルを用いた場合、画面中央領域では色を忠実に再現できたとしても、画面中央領域以外では色が忠実に再現されない。   One is the uneven brightness and color in the display screen due to various causes such as uneven light emission of the backlight (LCD), non-uniformity of the display panel (LCD, PDP), and distortion of the lens system (projector). Together, this is called “in-plane unevenness”). As a result, when the profile acquired in the screen center area of the image display device is used, even if the color can be faithfully reproduced in the screen center area, the color is not faithfully reproduced outside the screen center area.

もう一つは、画像表示装置は、電源投入後、時間を経ても発光輝度や色度が安定せずに変動する(以下「経時変化」という)。従って、画像表示装置の稼働時の色域は、プロファイル作成時の色域とは異なる場合がある。   The other is that the luminance and chromaticity of the image display apparatus fluctuate without being stable over time after the power is turned on (hereinafter referred to as “time-dependent change”). Accordingly, the color gamut during operation of the image display apparatus may be different from the color gamut at the time of profile creation.

そこで、面内むらを解決する方法として、一般に、表示画面内のすべての領域を測定してプロファイルを取得する手法がある。また、画像表示装置の面内むら特性を取得して、面内むらを補正する手法がある(例えば特許文献1)。   Therefore, as a method of solving the in-plane unevenness, there is generally a method of measuring a whole area in the display screen and acquiring a profile. In addition, there is a method of acquiring in-plane unevenness characteristics of an image display device and correcting in-plane unevenness (for example, Patent Document 1).

しかし、表示画面内のすべての領域を測定してプロファイルを作成するには、測定に膨大な時間が掛かる。加えて、測定時間が掛かることで、経時変化の影響を受け易くなる。   However, it takes an enormous amount of time to create a profile by measuring all the areas in the display screen. In addition, it takes a long time to measure, so that it is easily affected by changes with time.

また、ある色は、画面中央領域では色域内、画面中央領域以外では色域外になる場合がある。このような場合、特許文献1のように、画面領域ごとにRGBそれぞれの輝度ゲインを調整して面内むらを補正する手法は、色域外の色を色域内にマッピングする処理を行うことができず、カラーバランスが大きく崩れる可能性がある。   A certain color may be out of the color gamut in the center area of the screen and out of the color gamut in areas other than the screen center area. In such a case, as in Patent Document 1, the method of correcting the in-plane unevenness by adjusting the luminance gain of each RGB for each screen area can perform a process of mapping a color outside the color gamut into the color gamut. Therefore, the color balance may be greatly lost.

特開2003-143621公報Japanese Patent Laid-Open No. 2003-143621

本発明は、画像表示装置の輝度や色度の面内むら、経時変化を考慮した色処理を行うことを目的とする。   An object of the present invention is to perform color processing in consideration of in-plane unevenness of luminance and chromaticity of an image display device and changes with time.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる色処理は、画像表示装置のプロファイル作成用データを入力し、前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記画像表示装置の表示画面の輝度分布情報を入力し、前記画像表示装置の電源投入後の経過時間を入力し、前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、前記プロファイル、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする。   The color processing according to the present invention inputs profile creation data of an image display device, creates a profile of the image display device from the profile creation data, and inputs brightness distribution information of a display screen of the image display device. , Input an elapsed time after power-on of the image display device, input an image to be displayed on the image display device and display position information of the image, the profile, the luminance distribution information, the elapsed time and the A correction profile for color correction of the image is generated based on display position information, and the image is color-corrected using the profile and the correction profile.

また、画像表示装置のプロファイル作成用データを入力し、前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、前記画像の入力後の予め定められた時間内に、前記画像表示装置の表示画面の輝度分布情報を入力し、前記プロファイル、前記輝度分布情報および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする。   Also, the profile creation data of the image display device is input, the profile of the image display device is created from the profile creation data, and the image to be displayed on the image display device and the display position information of the image are input. The luminance distribution information of the display screen of the image display device is input within a predetermined time after the input of the image, and the color correction of the image is performed based on the profile, the luminance distribution information, and the display position information. A correction profile is generated, and the image is color-corrected using the profile and the correction profile.

本発明によれば、画像表示装置の輝度や色度の面内むら、経時変化を考慮した色処理を行うことができる。従って、画像表示装置の表示画面全体において、経時変化に影響されず、忠実な色再現を安定して実現することができる。   According to the present invention, it is possible to perform color processing in consideration of in-plane unevenness of luminance and chromaticity of an image display device and changes with time. Accordingly, faithful color reproduction can be stably realized over the entire display screen of the image display device without being affected by changes with time.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[システムの構成]
図1は実施例の画像処理装置21を含む画像処理システムの構成例を示すブロック図である。
[System configuration]
FIG. 1 is a block diagram illustrating a configuration example of an image processing system including the image processing device 21 according to the embodiment.

画像表示装置22は、CRT、LCD、PDP、フロントまたはリアプロジェクタなどである。測色器23は、対象物のXYZ三刺激値などの色情報を測定可能で、画像表示装置2のプロファイル用データや輝度分布情報を画像処理装置1に供給する。   The image display device 22 is a CRT, LCD, PDP, front or rear projector, or the like. The colorimeter 23 can measure color information such as XYZ tristimulus values of the object, and supplies profile data and luminance distribution information of the image display device 2 to the image processing device 1.

画像入力装置24は、ディジタルカメラやディジタルビデオカメラなどで、撮影画像や映像を画像処理装置21に供給したり、外部記憶装置25に格納したりする。外部記憶装置25は、ハードディスクドライブ(HDD)や光ディスクドライブなど、画像や動画像を格納可能な大記憶容量の記憶装置である。   The image input device 24 is a digital camera, a digital video camera, or the like, and supplies captured images and videos to the image processing device 21 or stores them in the external storage device 25. The external storage device 25 is a storage device having a large storage capacity capable of storing images and moving images, such as a hard disk drive (HDD) or an optical disk drive.

タイマ27は、画像表示装置22の電源投入を監視して、電源が投入されてからの経過時間を計測する。ローカルバス29は、上記の構成を相互接続してデータ通信を可能にするバスで、例えばUSBやIEEE1394などのシリアルバスである。   The timer 27 monitors the power-on of the image display device 22, and measures an elapsed time after the power is turned on. The local bus 29 is a bus that interconnects the above configurations to enable data communication, and is a serial bus such as USB or IEEE1394, for example.

画像処理装置21の入力部20は、測色器23から上記のプロファイル用データを、画像入力装置24から輝度分布情報をそれぞれ入力する。また、タイマ27から上記の経過時間を入力し、画像入力装置24または外部記憶装置25などから画像や映像とその表示位置情報を入力する。そして、入力したデータをそれぞれプロファイル記憶部12、輝度分布記憶部14、経過時間記憶部15、表示位置記憶部16、入力画像記憶部17に格納する。なお、表示位置情報は、対応する画像や映像を画像表示装置22に表示する際の表示位置を示す。また、表示位置情報は、予め指定されているとは限らず、後述する入力装置204を操作して、画像処理装置21において設定することもできる。   The input unit 20 of the image processing device 21 inputs the profile data from the colorimeter 23 and the luminance distribution information from the image input device 24. Further, the elapsed time is input from the timer 27, and an image or video and its display position information are input from the image input device 24, the external storage device 25, or the like. The input data is stored in the profile storage unit 12, the luminance distribution storage unit 14, the elapsed time storage unit 15, the display position storage unit 16, and the input image storage unit 17, respectively. The display position information indicates a display position when a corresponding image or video is displayed on the image display device 22. Further, the display position information is not necessarily designated in advance, and can be set in the image processing device 21 by operating an input device 204 described later.

プロファイル作成部10は、プロファイル記憶部12、輝度分布記憶部14、経過時間記憶部15、表示位置記憶部16に格納されたデータを用いて、画像表示装置22のプロファイルおよび後述する補正プロファイルを作成する。そして、作成したプロファイルや補正プロファイルを補正プロファイル記憶部13に格納する。   The profile creation unit 10 creates a profile of the image display device 22 and a correction profile described later using data stored in the profile storage unit 12, the luminance distribution storage unit 14, the elapsed time storage unit 15, and the display position storage unit 16. To do. Then, the created profile and correction profile are stored in the correction profile storage unit 13.

カラーマッチング処理部11は、入力画像記憶部17に格納された画像や映像に対応する、プロファイル記憶部12と補正プロファイル記憶部13に格納されたプロファイルと補正プロファイルを用いて、当該画像や映像をカラーマッチング処理(色補正)する。そして、カラーマッチング処理した画像や映像を出力画像記憶部18に格納する。   The color matching processing unit 11 uses the profile and the correction profile stored in the profile storage unit 12 and the correction profile storage unit 13 corresponding to the image and video stored in the input image storage unit 17 to process the image and video. Perform color matching (color correction). Then, the image and video subjected to the color matching process are stored in the output image storage unit 18.

出力部19は、出力画像記憶部18に格納された画像や映像を、表示位置記憶部16に格納された、対応する表示位置情報とともに画像表示装置22に出力する。画像表示装置22は、表示画面の表示位置情報が示す位置に画像や映像を表示する。   The output unit 19 outputs the image or video stored in the output image storage unit 18 to the image display device 22 together with the corresponding display position information stored in the display position storage unit 16. The image display device 22 displays an image or video at a position indicated by the display position information on the display screen.

[画像処理装置の構成]
図2は画像処理装置21の構成例を示すブロック図である。
[Configuration of image processing apparatus]
FIG. 2 is a block diagram illustrating a configuration example of the image processing apparatus 21.

CPU 201は、RAM 202をワークメモリとして、ROM 203やHDD 207に格納されたプログラムに従い、システムバス209を介して画像処理装置21全体を制御するとともに、後述する画像処理などを含む各種処理を実行する。RAM 202は、CPU 201により、CPU 201が実行するプログラムがロードされ、CPU 201による制御や処理時に各種データを一時記憶するワークエリアとして利用される。ROM 203は、ブートプログラムや各種データを記憶する。   The CPU 201 uses the RAM 202 as a work memory, controls the entire image processing apparatus 21 via the system bus 209 according to programs stored in the ROM 203 and the HDD 207, and executes various processes including image processing described later. To do. The RAM 202 is used by the CPU 201 as a work area in which a program executed by the CPU 201 is loaded and various data is temporarily stored during control and processing by the CPU 201. The ROM 203 stores a boot program and various data.

HDD 207は、オペレーティングシステム(OS)、各種アプリケーションプログラム、各種データなどを格納する。前述したプロファイル記憶部12、補正プロファイル記憶部13、輝度分布記憶部14、経過時間記憶部15、表示位置記憶部16、入力画像記憶部17、出力画像記憶部18の各記憶領域は、RAM 202およびHDD 207に割り当てられる。   The HDD 207 stores an operating system (OS), various application programs, various data, and the like. The storage areas of the profile storage unit 12, the correction profile storage unit 13, the luminance distribution storage unit 14, the elapsed time storage unit 15, the display position storage unit 16, the input image storage unit 17, and the output image storage unit 18 described above are RAM 202. And assigned to HDD 207.

入力装置204は、ユーザ指示を入力するためのキーボードやマウスなどのポインティングデバイスである。入出力ポート206は、ローカルバス29とのインタフェイスであり、前述した入力部20、出力部19に相当する。   The input device 204 is a pointing device such as a keyboard and a mouse for inputting user instructions. The input / output port 206 is an interface with the local bus 29 and corresponds to the input unit 20 and the output unit 19 described above.

ネットワークインタフェイスカード(NIC) 205は、LANやインターネットなどの外部ネットワーク26とのインタフェイスである。画像処理装置21は、外部ネットワーク26を介して外部のサーバから供給される画像や映像を入力したり、ローカルバス29を介して外部記憶装置25に格納することができる。   A network interface card (NIC) 205 is an interface with an external network 26 such as a LAN or the Internet. The image processing device 21 can input an image or video supplied from an external server via the external network 26 or store it in the external storage device 25 via the local bus 29.

なお、図1に示すプロファイル作成部10およびカラーマッチング処理部11はソフトウェアで構成しても、ハードウェアで構成してもよい。   Note that the profile creation unit 10 and the color matching processing unit 11 illustrated in FIG. 1 may be configured by software or hardware.

[画像処理]
図3は画像処理装置21による画像処理を示すフローチャートで、CPU 201が実行する処理である。
[Image processing]
FIG. 3 is a flowchart showing image processing performed by the image processing apparatus 21, which is executed by the CPU 201.

まず、CPU 201は、詳細は後述するが、画像表示装置22のプロファイル作成用データを入力する。そして、プロファイル作成部10を制御して、画像表示装置22のプロファイルを作成し、プロファイル記憶部12に格納する(S101)。また、詳細は後述するが、画像表示装置22の輝度分布情報を入力して輝度分布記憶部14に格納する(S102)。なお、既に、画像表示装置22のプロファイルおよび輝度分布情報がプロファイル記憶部12および輝度分布記憶部14に格納されている場合は、ステップS101およびS102の処理を省略する。   First, as will be described in detail later, the CPU 201 inputs profile creation data for the image display device 22. Then, the profile creation unit 10 is controlled to create a profile of the image display device 22 and store it in the profile storage unit 12 (S101). Although details will be described later, the luminance distribution information of the image display device 22 is input and stored in the luminance distribution storage unit 14 (S102). If the profile and luminance distribution information of the image display device 22 are already stored in the profile storage unit 12 and the luminance distribution storage unit 14, the processes in steps S101 and S102 are omitted.

次に、CPU 201は、画像表示装置22に表示すべき画像または映像のフレームと、その表示位置情報を入力して、それらを関連付けて入力画像記憶部17と表示位置記憶部16に格納する(S103)。そして、画像表示装置22の電源投入後の経過時間を入力して、経過時間記憶部15に格納する(S104)。   Next, the CPU 201 inputs an image or video frame to be displayed on the image display device 22 and display position information thereof, and stores them in the input image storage unit 17 and the display position storage unit 16 in association with each other ( S103). Then, the elapsed time after power-on of the image display device 22 is input and stored in the elapsed time storage unit 15 (S104).

次に、CPU 201は、入力画像記憶部17から画像または映像のフレームの一画素(以下「注目画素」と呼ぶ)のデータを入力し(S105)、表示位置記憶部16に格納した表示位置情報に基づき、注目画素の表示位置を計算する(S106)。そして、詳細は後述するが、プロファイル作成部10を制御して、表示位置と経過時間に基づき、注目画素に対して面内むらと経時変化を補正する補正プロファイルを作成し、補正プロファイル記憶部13に記憶する(S107)。   Next, the CPU 201 inputs data of one pixel of an image or video frame (hereinafter referred to as “target pixel”) from the input image storage unit 17 (S105), and the display position information stored in the display position storage unit 16 Based on the above, the display position of the target pixel is calculated (S106). As will be described in detail later, the profile creation unit 10 is controlled to create a correction profile for correcting in-plane unevenness and temporal change for the pixel of interest based on the display position and elapsed time, and the correction profile storage unit 13 (S107).

次に、CPU 201は、詳細は後述するが、カラーマッチング処理部11を制御して、プロファイル記憶部12と補正プロファイル記憶部13に記憶したプロファイルと補正プロファイルを用いて、注目画素のデータにカラーマッチング処理を施す(S108)。そして、カラーマッチング処理した注目画素のデータを出力画像記憶部18の注目画素に対応する記憶位置に格納する(S109)。   Next, as will be described in detail later, the CPU 201 controls the color matching processing unit 11 and uses the profile and the correction profile stored in the profile storage unit 12 and the correction profile storage unit 13 to color the data of the target pixel. A matching process is performed (S108). Then, the data of the pixel of interest subjected to the color matching process is stored in the storage position corresponding to the pixel of interest in the output image storage unit 18 (S109).

次に、CPU 201は、画像表示装置22に表示すべき画像または映像のフレームの全画素に、カラーマッチング処理を施したか否かを判定する(S110)。カラーマッチング処理が未了の画素がある場合は、処理をステップS105に戻して、次の注目画素にステップS106からS109の処理を施す。また、全画素のカラーマッチング処理が終了した場合は、出力画像記憶部18に格納した画像または映像と、表示位置記憶部16に格納した、対応する表示位置情報を画像表示装置22に出力する(S111)。   Next, the CPU 201 determines whether or not color matching processing has been performed on all the pixels of the image or video frame to be displayed on the image display device 22 (S110). If there is a pixel that has not undergone color matching processing, the processing returns to step S105, and the processing of steps S106 to S109 is performed on the next pixel of interest. In addition, when the color matching processing for all pixels is completed, the image or video stored in the output image storage unit 18 and the corresponding display position information stored in the display position storage unit 16 are output to the image display device 22 ( S111).

次に、CPU 201は、画像表示装置22に表示するのが一つの画像か否かを判定し(S112)、一つの画像を表示する場合は以上で処理を終了する。また、複数の画像や、映像を表示する場合は、処理をステップS103に戻して、次の画像または映像のフレームに上記の処理を施す。   Next, the CPU 201 determines whether or not it is one image to be displayed on the image display device 22 (S112), and when displaying one image, the process ends here. When a plurality of images or videos are displayed, the process returns to step S103, and the above-described process is performed on the next image or video frame.

[プロファイルの作成]
ステップS101におけるプロファイルの作成を説明する。
[Create profile]
The creation of a profile in step S101 will be described.

実施例1におけるプロファイルは、画像表示装置22の電源投入後、任意の時間が経過した時点で、画像表示装置22へ入力した入力信号値と、画像表示装置22が出力(表示)した三刺激値の関係を示すルックアップテーブル(LUT)である。また、画像表示装置22は、RGB信号を入力し、RGB三原色をそれぞれ256階調で表示できるとする。   The profile in the first embodiment includes the input signal value input to the image display device 22 and the tristimulus value output (displayed) by the image display device 22 when an arbitrary time has elapsed after the image display device 22 is turned on. Is a look-up table (LUT) showing the relationship of Further, it is assumed that the image display device 22 receives an RGB signal and can display the three primary colors of RGB in 256 gradations.

CPU 201は、任意の階調刻みのRGB信号を画像表示装置22に入力して、画像表示装置22に複数のカラーパッチを有するカラーパターンを表示させる。オペレータは、測色器23を用いて、画像表示装置22に表示されたカラーパッチを測定して、測定結果の三刺激値を画像処理装置に入力する。CPU 201は、測定値に付加された測定値の情報、または、測定の順番から三刺激値と、画像表示装置22に入力したRGB値の関係を判定し、RGB値と三刺激値を対応付けた三次元LUT(3DLUT)を作成する。この3DLUTを用いれば、任意のRGB値に対する三刺激値を補間演算により計算することができる。なお、三刺激値の代わりに測色値としてL*a*b*値を用いても構わない。   The CPU 201 inputs an RGB signal with an arbitrary gradation step to the image display device 22 and causes the image display device 22 to display a color pattern having a plurality of color patches. The operator uses the colorimeter 23 to measure the color patch displayed on the image display device 22, and inputs the tristimulus value of the measurement result to the image processing device. The CPU 201 determines the relationship between the tristimulus value and the RGB value input to the image display device 22 based on the measurement value information added to the measurement value or the measurement order, and associates the RGB value with the tristimulus value. Create a 3D LUT (3DLUT). If this 3DLUT is used, tristimulus values for arbitrary RGB values can be calculated by interpolation. Note that L * a * b * values may be used as colorimetric values instead of tristimulus values.

なお、プロファイルを取得するために、カラーパッチの測定時間が掛かると、経時変化の影響を受ける。しかし、測定時間の短縮を図ってカラーパッチの数(サンプル数)を減らすと、プロファイルを用いる補間演算の精度が低下する。そこで、補間演算の精度を維持できる範囲で、サンプル数を減らす必要がある。例えば、3DLUTではなくRGB各色のガンマ値を用いてプロファイルを作成してもよい。あるいは、画像表示装置が出力する三刺激値を推定するGOG(gain-offset-gamma)モデルを用いて、サンプル数を減らしつつ補間演算の精度を維持してもよい。つまり、所望の補間演算の精度を得られれば、プロファイルの作成方法は、上記に限定されることはない。   Note that if it takes time to measure a color patch in order to acquire a profile, it is affected by changes over time. However, if the number of color patches (the number of samples) is reduced by shortening the measurement time, the accuracy of the interpolation calculation using the profile is lowered. Therefore, it is necessary to reduce the number of samples as long as the accuracy of the interpolation calculation can be maintained. For example, a profile may be created using gamma values of RGB colors instead of 3DLUT. Alternatively, the accuracy of the interpolation calculation may be maintained while reducing the number of samples by using a GOG (gain-offset-gamma) model that estimates the tristimulus values output from the image display device. That is, the profile creation method is not limited to the above as long as desired accuracy of the interpolation calculation can be obtained.

[輝度分布の取得]
次に、ステップS102における輝度分布情報の取得を説明する。
[Obtain luminance distribution]
Next, acquisition of luminance distribution information in step S102 will be described.

CPU 201は、(R, G, B)=(255, 0, 0)、(0, 255, 0)、(0, 0, 255)のRGB信号を、順次、画像表示装置22に入力し、RGB信号に対応する色を表示画面全体に表示させる。そして、画像入力装置24を制御して、順次、画像表示装置22の画面を撮影させ、撮影結果の画像を輝度分布情報として入力する。その際、撮影時点の経過時間をタイマ27から入力し、輝度分布情報に付加する。なお、画像入力装置24は、輝度値を出力できるようにキャリブレーションされているとする。従って、画像入力装置24が出力する画像データは、表示画面のR、G、Bそれぞれの輝度分布を表すことになる。   The CPU 201 sequentially inputs RGB signals (R, G, B) = (255, 0, 0), (0, 255, 0), (0, 0, 255) to the image display device 22, Display the color corresponding to the RGB signal on the entire display screen. Then, the image input device 24 is controlled to sequentially photograph the screen of the image display device 22, and an image of the photographing result is input as luminance distribution information. At that time, the elapsed time at the time of shooting is input from the timer 27 and added to the luminance distribution information. It is assumed that the image input device 24 is calibrated so that a luminance value can be output. Accordingly, the image data output from the image input device 24 represents the luminance distribution of each of R, G, and B on the display screen.

図4は輝度分布記憶部14が記憶する輝度分布情報を説明する図である。   FIG. 4 is a diagram for explaining the luminance distribution information stored in the luminance distribution storage unit 14.

符号601はRの輝度分布情報群を、符号602はGの輝度分布情報群を、符号603はBの輝度分布情報群をそれぞれ示す。また、時間軸tは、画像表示装置22の電源が投入されてからの経過時間軸に、y軸は表示画面のy座標軸に、x軸は表示画面のx座標にそれぞれ対応する。つまり、経過時間tにおける、表示画面上の位置(x, y)におけるRGBそれぞれの輝度値はLr(x, y, t)、Lg(x, y, t)、Lb(x, y, t)で表すことができる。ただし、輝度分布情報の取得タイミングは離散的であり、最新の取得タイミング以降の経過時間における輝度値は予測演算により取得する。従って、輝度分布記憶部14には、輝度値の予測に必要な数の輝度分布情報を格納すればよい。   Reference numeral 601 represents an R luminance distribution information group, reference numeral 602 represents a G luminance distribution information group, and reference numeral 603 represents a B luminance distribution information group. The time axis t corresponds to an elapsed time axis after the image display device 22 is turned on, the y axis corresponds to the y coordinate axis of the display screen, and the x axis corresponds to the x coordinate of the display screen. In other words, the luminance values of RGB at the position (x, y) on the display screen at the elapsed time t are Lr (x, y, t), Lg (x, y, t), Lb (x, y, t) Can be expressed as However, the acquisition timing of the luminance distribution information is discrete, and the luminance value at the elapsed time after the latest acquisition timing is acquired by a prediction calculation. Therefore, the luminance distribution storage unit 14 may store the number of pieces of luminance distribution information necessary for predicting the luminance value.

なお、取得した輝度分布情報(撮影画像)をそのまま輝度分布記憶部14に格納しなくてもよい。例えば、取得した輝度分布を多項式近似した近似式を輝度分布記憶部14に格納しても構わない。つまり、表示位置(x, y)と経過時間tを与えることで輝度が算出できる輝度分布情報を輝度分布記憶部14に格納すればよい。   The acquired luminance distribution information (captured image) may not be stored in the luminance distribution storage unit 14 as it is. For example, an approximate expression obtained by polynomial approximation of the acquired brightness distribution may be stored in the brightness distribution storage unit 14. That is, it is only necessary to store the luminance distribution information in which the luminance can be calculated by giving the display position (x, y) and the elapsed time t in the luminance distribution storage unit 14.

また、色度むらが、RGBの輝度むらに起因するとすると、RGBの輝度分布情報を取得することで、色度むらも補正することができる。   Further, if the chromaticity unevenness is caused by the RGB luminance unevenness, the chromaticity unevenness can be corrected by acquiring the RGB luminance distribution information.

[補正プロファイルの作成]
次に、ステップS107における補正プロファイルの作成を説明する。
[Create correction profile]
Next, creation of a correction profile in step S107 will be described.

RGB値と三刺激値の対応関係を示す3DLUTをf(R,G,B)Tで表すと、任意のRGB値(R, G, B)に対応する三刺激値[XYZ]Tは式(1)のように計算することができる。
┌ ┐
│X│
│Y│= f(R,G,B)T
│X│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
=│Yr│・r + │Yg│・g + │Yb│・b + f(0,0,0)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
┌ ┐┌ ┐
│Xr Xg Xb││r│
=│Yr Yg Yb││g│ + f(0,0,0) …(1)
│Zr Zg Zb││b│
└ ┘└ ┘
ここで、[Xr Yr Zr]T、[Xg Yg Zg]T、[XYZ]Tはそれぞれ(R,G,B)=(255,0,0)、(0,255,0)、(0,0,255)時の三刺激値を表す
[r g b]Tは原色それぞれの混合率を表す
Tは転置行列を表す
When 3DLUT indicating the correspondence between RGB values and tristimulus values is represented by f (R, G, B) T , the tristimulus values [XYZ] T corresponding to arbitrary RGB values (R, G, B) are expressed by the formula ( It can be calculated as in 1).
┌ ┐
│X│
│Y│ = f (R, G, B) T
│X│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
= │Yr│ ・ r + │Yg│ ・ g + │Yb│ ・ b + f (0,0,0)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
┌ ┐┌ ┐
│Xr Xg Xb││r│
= │Yr Yg Yb││g│ + f (0,0,0)… (1)
│Zr Zg Zb││b│
└ ┘└ ┘
Where [Xr Yr Zr] T , [Xg Yg Zg] T , and [XYZ] T are (R, G, B) = (255,0,0), (0,255,0), (0,0,255), respectively Represents the tristimulus value of time
[rgb] T represents the mixing ratio of each primary color
T represents a transposed matrix

原色の混合率[r g b]Tは式(2)で表すことができる。
┌ ┐
│r│
│g│= A-1{f(R,G,B)T -f(0,0,0)T} …(2)
│b│
└ ┘
ここで、 ┌ ┐
│Xr Xg Xb│
A =│Yr Yg Yb│
│Zr Zg Zb│
└ ┘
The mixing ratio [rgb] T of primary colors can be expressed by the formula (2).
┌ ┐
│r│
│g│ = A -1 {f (R, G, B) T -f (0,0,0) T }… (2)
│b│
└ ┘
Where ┌ ┐
│Xr Xg Xb│
A = │Yr Yg Yb│
│Zr Zg Zb│
└ ┘

表示位置(x,y)、経過時刻tにおける三刺激値[XYZ]Tは、輝度分布をLr=Lr(x,y,t)、Lg=Lg(x,y,t)、Lb=Lb(x,y,t)とすると、補正プロファイルg(R,G,B,x,y,t)Tを用いて、式(3)で計算される。
┌ ┐
│X│
│Y│= g(R,G,B,x,y,z,t)T
│Z│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
=│Yr│・r' + │Yg│・g' + │Yb│・b' …(3)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
ここで、r' = r・Lr/Yr = r・Lr(x,y,t)/Yr
g' = g・Lg/Yg = g・Lg(x,y,t)/Yg
b' = b・Lb/Yb = b・Lb(x,y,t)/Yb
┌ ┐ ┌ ┐
│X│ │r│
∴│Y│= A[1/Yr 1/Yg 1/Yb]│g│[Lr Lg Lb]
│Z│ │b│
└ ┘ └ ┘
= A[1/Yr 1/Yg 1/Yb]A-1{f(R,G,B)T - f(0,0,0)T}[Lr Lg Lb] …(4)
The tristimulus value [XYZ] T at the display position (x, y) and the elapsed time t is the luminance distribution Lr = Lr (x, y, t), Lg = Lg (x, y, t), Lb = Lb ( Assuming that x, y, t), the correction profile g (R, G, B, x, y, t) T is used to calculate with the equation (3).
┌ ┐
│X│
│Y│ = g (R, G, B, x, y, z, t) T
│Z│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
= │Yr│ ・ r '+ │Yg│ ・ g' + │Yb│ ・ b '… (3)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
Where r '= r ・ Lr / Yr = r ・ Lr (x, y, t) / Yr
g '= g ・ Lg / Yg = g ・ Lg (x, y, t) / Yg
b '= b ・ Lb / Yb = b ・ Lb (x, y, t) / Yb
┌ ┐ ┌ ┐
│X│ │r│
∴│Y│ = A [1 / Yr 1 / Yg 1 / Yb] │g│ [Lr Lg Lb]
│Z│ │b│
└ ┘ └ ┘
= A [1 / Yr 1 / Yg 1 / Yb] A -1 {f (R, G, B) T -f (0,0,0) T } [Lr Lg Lb]… (4)

ステップS108では、プロファイルから得られる注目画素のRGBデータに対応する三刺激値を再現するRGB混合率[r g b]Tを式(4)に示す補正プロファイルによって計算する。そして、RGB混合率に対応するRGBデータをカラーマッチング処理後の注目画素のデータにする。 In step S108, the RGB mixing ratio [rgb] T for reproducing the tristimulus values corresponding to the RGB data of the target pixel obtained from the profile is calculated using the correction profile shown in the equation (4). Then, the RGB data corresponding to the RGB mixing ratio is used as the pixel-of-interest data after the color matching process.

[カラーマッチング処理]
次に、ステップS108におけるカラーマッチング処理を説明する。
[Color matching processing]
Next, the color matching process in step S108 will be described.

上述した面内むらと経時変化を補正するプロファイルg(R, G, B, x, y, t)Tを用いて、注目画素のデータ(R, G, B)を画像表示装置22へ入力する信号値に変換する。ここで、注目画素のデータが画像表示装置22の色域外に存在する場合は、画像表示装置22の色域内にマッピングする。マッピング方法は、多くの手法が提案されていて、どの方法を用いてもよい。例えば、画像表示装置22の色域内のある色(通常、輝度値50%のグレイ色、収束点)と色域外の色を結ぶ線分を引き、線分と色域境界が交わる点に、色域外の色をマッピングする。勿論、このマッピング方法に限定されるわけではなく、画像表示装置22の色域内の色のうち最も色差が小さい色に、色域外の色をマッピングするような方法でもよい。 Using the profile g (R, G, B, x, y, t) T that corrects the in-plane unevenness and change over time, the pixel data (R, G, B) of the target pixel is input to the image display device 22. Convert to signal value. Here, if the data of the pixel of interest exists outside the color gamut of the image display device 22, it is mapped within the color gamut of the image display device 22. Many mapping methods have been proposed, and any method may be used. For example, a line connecting a color outside the color gamut with a color within the color gamut of the image display device 22 (usually a gray color with a brightness value of 50%) and a color outside the color gamut is drawn, Map out-of-range colors. Of course, the mapping method is not limited to this, and a method of mapping a color outside the color gamut to a color having the smallest color difference among the colors within the color gamut of the image display device 22 may be used.

このように、画像表示装置22のプロファイル、輝度分布情報、経過時間、表示位置に基づき、面内むらと経時変化を補正するための補正プロファイルを作成して画像または映像を補正する。従って、画像表示装置22の表示画面全体において、経時変化に影響されず、忠実な色再現を安定して実行することができる。   In this manner, based on the profile of the image display device 22, luminance distribution information, elapsed time, and display position, a correction profile for correcting in-plane unevenness and temporal change is created to correct an image or video. Accordingly, faithful color reproduction can be stably performed on the entire display screen of the image display device 22 without being affected by changes with time.

以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

[システム構成]
図5は実施例2の画像処理装置21を含む画像処理システムの構成例を示すブロック図で、図1に示す実施例1の画像処理装置21と異なるのは、タイマ27および経過時間記憶部15がない点である。
[System configuration]
FIG. 5 is a block diagram illustrating a configuration example of an image processing system including the image processing device 21 according to the second embodiment. The difference from the image processing device 21 according to the first embodiment illustrated in FIG. There is no point.

[画像処理]
図6は画像処理装置21による画像処理を示すフローチャートで、CPU 201が実行する処理である。
[Image processing]
FIG. 6 is a flowchart showing image processing by the image processing apparatus 21, which is executed by the CPU 201.

まず、CPU 201は、前述したように、画像表示装置22のプロファイル用データを入力し、画像表示装置22のプロファイルを作成して、プロファイル記憶部12に格納する(S101)。なお、既に、画像表示装置22のプロファイルがプロファイル記憶部12に格納されている場合は、ステップS101の処理を省略する。   First, as described above, the CPU 201 inputs profile data for the image display device 22, creates a profile for the image display device 22, and stores the profile in the profile storage unit 12 (S101). If the profile of the image display device 22 is already stored in the profile storage unit 12, the process of step S101 is omitted.

次に、CPU 201は、前述したように、画像表示装置22に表示すべき画像または映像のフレームと、その表示位置情報を入力して、それらを関連付けて入力画像記憶部17と表示位置記憶部16に格納する(S103)。続いて、前述したように、画像表示装置22の輝度分布情報を入力して輝度分布記憶部14に格納する(S201)。   Next, as described above, the CPU 201 inputs an image or video frame to be displayed on the image display device 22 and its display position information, and associates them with the input image storage unit 17 and the display position storage unit. It stores in 16 (S103). Subsequently, as described above, the luminance distribution information of the image display device 22 is input and stored in the luminance distribution storage unit 14 (S201).

次に、CPU 201は、実施例1とほぼ同様に、注目画素のデータ入力(S105)、表示位置の計算(S106)、補正プロファイルの作成(S202)、カラーマッチング処理(S108)、注目画素のデータの格納(S109)の一連の処理を実行する。ただし、補正プロファイルの作成(S202)は、実施例1と異なり、経過時間を用いずに、表示位置に基づき補正プロファイルを作成する。   Next, the CPU 201 inputs the data of the target pixel (S105), calculates the display position (S106), creates a correction profile (S202), color matching processing (S108), A series of processing of data storage (S109) is executed. However, the creation of the correction profile (S202) differs from the first embodiment in that the correction profile is created based on the display position without using the elapsed time.

次に、CPU 201は、実施例1と同様に、ステップS110の判定により、画像表示装置22に表示すべき画像または映像のフレームの全画素にカラーマッチング処理を施すまでステップS105からS109を繰り返す。そして、全画素のカラーマッチング処理が終了すると、画像または映像と表示位置情報の出力(S111)を行い、画像表示装置22に表示するのが一つの画像か否かを判定する(S112)。一つの画像を表示する場合は処理を終了するが、複数の画像や、映像を表示する場合は、処理をステップS103に戻す。そして、次の画像または映像のフレームの入力(S103)と輝度分布情報の入力(S201)を繰り返してを読み込み、次の画像または映像のフレームに上記の処理を施す。   Next, as in the first embodiment, the CPU 201 repeats steps S105 to S109 until color matching processing is performed on all pixels of the image or video frame to be displayed on the image display device 22 based on the determination in step S110. When the color matching processing for all pixels is completed, an image or video and display position information are output (S111), and it is determined whether or not the image displayed on the image display device 22 is a single image (S112). If one image is displayed, the process ends. If a plurality of images or videos are displayed, the process returns to step S103. Then, the next image or video frame input (S103) and luminance distribution information input (S201) are repeatedly read, and the above-described processing is performed on the next image or video frame.

また、例えば映像は10fpsから30fpsのフレームレートをもつことが多い。このような映像を表示する際に、フレームごとに輝度分布情報を取得する必要はないと考えられる。勿論、複数の画像を連続して表示する場合も、短い時間間隔で輝度分布情報を取得する必要はないと考えられる。そこで、例えば数十画像や、数十フレーム(または数フィールド)ごとの所定間隔で、あるいは、所定時間が経過する前に新たな輝度分布情報を取得するようにすればよい。なお、実施例2の場合は、経時変化を予測する必要はないので、輝度分布記憶部16には一回の測定分の輝度分布情報を格納すればよい。   For example, video often has a frame rate of 10 fps to 30 fps. It is considered that it is not necessary to acquire luminance distribution information for each frame when displaying such a video. Of course, even when a plurality of images are continuously displayed, it is considered unnecessary to acquire the luminance distribution information at short time intervals. Therefore, for example, new luminance distribution information may be acquired at a predetermined interval every several tens of images or several tens of frames (or several fields) or before a predetermined time elapses. In the case of the second embodiment, since it is not necessary to predict a change with time, the luminance distribution storage unit 16 may store the luminance distribution information for one measurement.

このように、実施例2では、画像表示装置22に画像または映像のフレームを表示する直前に、輝度分布情報を取得する。つまり、経時変化を含む輝度分布を取得する。従って、プロジェクタのように、表示角度、表示サイズなどの幾何学条件が不定で、予め輝度分布情報を取得できない場合も、面内むらと経時変化を補正する補正プロファイルを作成することができる。   As described above, in the second embodiment, the luminance distribution information is acquired immediately before displaying an image or video frame on the image display device 22. That is, a luminance distribution including a change with time is acquired. Therefore, even when the geometric conditions such as the display angle and the display size are indefinite and the luminance distribution information cannot be acquired in advance like a projector, a correction profile that corrects in-plane unevenness and temporal change can be created.

[補正プロファイルの作成]
次に、ステップS202における補正プロファイルの作成を説明する。
[Create correction profile]
Next, creation of a correction profile in step S202 will be described.

実施例2では、画像または映像のフレームを表示する直前、または、近い時点で輝度分布情報を取得するため、経時変化を含む輝度分布を取得したことになる。表示位置(x,y)における三刺激値[XYZ]Tは、輝度分布をLr=Lr(x,y)、Lg=Lg(x,y)、Lb=Lb(x,y)とすると、補正プロファイルg(R,G,B,x,y)Tを用いて、式(5)で計算される。
┌ ┐
│X│
│Y│= g(R,G,B,x,y,z)T
│Z│
└ ┘
┌ ┐
│r│
= A[1/Yr 1/Yg 1/Yb]│g│[Lr Lg Lb]
│b│
└ ┘
= A[1/Yr 1/Yg 1/Yb]A-1{f(R,G,B)T -f(0,0,0)T}[Lr Lg Lb] …(5)
In the second embodiment, since the luminance distribution information is acquired immediately before or near the time when the image or video frame is displayed, the luminance distribution including the temporal change is acquired. Tristimulus values [XYZ] T at the display position (x, y) are corrected when the luminance distribution is Lr = Lr (x, y), Lg = Lg (x, y), Lb = Lb (x, y) Using the profile g (R, G, B, x, y) T , it is calculated by the equation (5).
┌ ┐
│X│
│Y│ = g (R, G, B, x, y, z) T
│Z│
└ ┘
┌ ┐
│r│
= A [1 / Yr 1 / Yg 1 / Yb] │g│ [Lr Lg Lb]
│b│
└ ┘
= A [1 / Yr 1 / Yg 1 / Yb] A -1 {f (R, G, B) T -f (0,0,0) T } [Lr Lg Lb]… (5)

[他の実施例]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, and a printer), and a device (for example, a copying machine and a facsimile device) including a single device. You may apply to.

また、本発明の目的は、上記実施例の機能を実現するソフトウェアを記録した記憶媒体(記録媒体)をシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記ソフトウェアを実行することでも達成される。この場合、記憶媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのソフトウェアを記憶した記憶媒体は本発明を構成する。   Another object of the present invention is to supply a storage medium (recording medium) that records software for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (CPU or MPU) of the system or apparatus executes the software. Is also achieved. In this case, the software itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the software constitutes the present invention.

また、前記ソフトウェアの実行により上記機能が実現されるだけでなく、そのソフトウェアの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   In addition, the above functions are not only realized by the execution of the software, but an operating system (OS) running on a computer performs part or all of the actual processing according to instructions of the software, and thereby the above functions This includes the case where is realized.

また、前記ソフトウェアがコンピュータに接続された機能拡張カードやユニットのメモリに書き込まれ、そのソフトウェアの指示により、前記カードやユニットのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   In addition, the software is written in a function expansion card or unit memory connected to the computer, and the CPU of the card or unit performs part or all of the actual processing according to instructions of the software, thereby This includes the case where is realized.

本発明を前記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するソフトウェアが格納される。   When the present invention is applied to the storage medium, the storage medium stores software corresponding to the flowchart described above.

実施例の画像処理装置を含む画像処理システムの構成例を示すブロック図、FIG. 2 is a block diagram illustrating a configuration example of an image processing system including the image processing apparatus according to the embodiment. 画像処理装置の構成例を示すブロック図、Block diagram showing a configuration example of an image processing device, 画像処理装置による画像処理を示すフローチャート、A flowchart showing image processing by the image processing apparatus; 輝度分布記憶部が記憶する輝度分布情報を説明する図、The figure explaining the luminance distribution information memorize | stored in a luminance distribution memory | storage part, 実施例2の画像処理装置を含む画像処理システムの構成例を示すブロック図、Block diagram showing a configuration example of an image processing system including an image processing apparatus of Example 2, 画像処理装置による画像処理を示すフローチャートである。It is a flowchart which shows the image processing by an image processing apparatus.

Claims (9)

画像表示装置のプロファイル作成用データを入力するデータ入力手段と、
前記画像表示装置の表示画面の輝度分布情報を入力する輝度分布入力手段と、
前記画像表示装置の電源投入後の経過時間を入力する時間入力手段と、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力する画像入力手段と、
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記プロファイル、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成する生成手段と、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正する補正手段とを有することを特徴とする色処理装置。
Data input means for inputting data for profile creation of the image display device;
Luminance distribution input means for inputting luminance distribution information of a display screen of the image display device;
Time input means for inputting an elapsed time after power-on of the image display device;
An image to be displayed on the image display device; and image input means for inputting display position information of the image;
Generating means for generating a profile of the image display device from the profile generation data, and generating a correction profile for color correction of the image based on the profile, the luminance distribution information, the elapsed time, and the display position information; ,
A color processing apparatus comprising: correction means for color correcting the image using the profile and the correction profile.
前記生成手段は前記画像の画素単位に前記補正プロファイルを作成し、前記補正手段は前記画像の画素単位に色補正を行うことを特徴とする請求項1に記載された色処理装置。   2. The color processing apparatus according to claim 1, wherein the generation unit creates the correction profile for each pixel of the image, and the correction unit performs color correction for each pixel of the image. 前記生成手段は、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記補正すべき画素の表示位置の輝度を予測して、前記補正プロファイルを生成することを特徴とする請求項2に記載された色処理装置。   3. The correction profile is generated by predicting the luminance of the display position of the pixel to be corrected based on the luminance distribution information, the elapsed time, and the display position information. The color processing apparatus described in 1. 前記補正プロファイルは、前記表示画面内の輝度および色度のむら、経時変化を補正するプロファイルであることを特徴とする請求項1から請求項3の何れか一項に記載された色処理装置。   4. The color processing apparatus according to claim 1, wherein the correction profile is a profile that corrects unevenness in luminance and chromaticity in the display screen and changes over time. 画像表示装置のプロファイル作成用データを入力するデータ入力手段と、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力する画像入力手段と、
前記画像の入力後の予め定められた時間内に、前記画像表示装置の表示画面の輝度分布情報を入力する輝度分布入力手段と、
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記プロファイル、前記輝度分布情報および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成する生成手段と、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正する補正手段とを有することを特徴とする色処理装置。
Data input means for inputting data for profile creation of the image display device;
An image to be displayed on the image display device; and image input means for inputting display position information of the image;
A luminance distribution input means for inputting luminance distribution information of the display screen of the image display device within a predetermined time after the input of the image;
Generating means for creating a profile of the image display device from the profile creation data, and generating a correction profile for color correction of the image based on the profile, the luminance distribution information and the display position information;
A color processing apparatus comprising: correction means for color correcting the image using the profile and the correction profile.
画像表示装置のプロファイル作成用データを入力し、
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、
前記画像表示装置の表示画面の輝度分布情報を入力し、
前記画像表示装置の電源投入後の経過時間を入力し、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、
前記プロファイル、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする色処理方法。
Enter the profile creation data for the image display device,
Create a profile of the image display device from the profile creation data,
Input luminance distribution information of the display screen of the image display device,
Enter the elapsed time after turning on the image display device,
Input an image to be displayed on the image display device and display position information of the image,
Based on the profile, the luminance distribution information, the elapsed time, and the display position information, a correction profile for color correction of the image is generated,
A color processing method, wherein the image is color-corrected using the profile and the correction profile.
画像表示装置のプロファイル作成用データを入力し、
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、
前記画像の入力後の予め定められた時間内に、前記画像表示装置の表示画面の輝度分布情報を入力し、
前記プロファイル、前記輝度分布情報および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする色処理方法。
Enter the profile creation data for the image display device,
Create a profile of the image display device from the profile creation data,
Input an image to be displayed on the image display device and display position information of the image,
Within a predetermined time after the input of the image, the luminance distribution information of the display screen of the image display device is input,
Based on the profile, the luminance distribution information and the display position information, a correction profile for color correction of the image is generated,
A color processing method, wherein the image is color-corrected using the profile and the correction profile.
画像処理装置を制御して、請求項6または請求項7に記載された色処理を実現することを特徴とするコンピュータプログラム。   8. A computer program for controlling the image processing apparatus to realize the color processing according to claim 6 or 7. 請求項8に記載されたコンピュータプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記録媒体。   9. A computer-readable recording medium on which the computer program according to claim 8 is recorded.
JP2006327631A 2006-12-04 2006-12-04 Color processing apparatus and method thereof Withdrawn JP2008139709A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006327631A JP2008139709A (en) 2006-12-04 2006-12-04 Color processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327631A JP2008139709A (en) 2006-12-04 2006-12-04 Color processing apparatus and method thereof

Publications (1)

Publication Number Publication Date
JP2008139709A true JP2008139709A (en) 2008-06-19

Family

ID=39601226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327631A Withdrawn JP2008139709A (en) 2006-12-04 2006-12-04 Color processing apparatus and method thereof

Country Status (1)

Country Link
JP (1) JP2008139709A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237350A (en) * 2009-03-31 2010-10-21 Nanao Corp Measurement method for measuring display characteristic amount, display, display system, measuring device, computer program, and storage medium
JP2015008418A (en) * 2013-06-25 2015-01-15 富士ゼロックス株式会社 Image processing apparatus, color adjustment system, and program
JP2015142352A (en) * 2014-01-30 2015-08-03 シャープ株式会社 Display calibration system, program, and recording medium
CN114333724A (en) * 2021-12-28 2022-04-12 北京德为智慧科技有限公司 Display brightness and color correction method and device, electronic equipment and storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237350A (en) * 2009-03-31 2010-10-21 Nanao Corp Measurement method for measuring display characteristic amount, display, display system, measuring device, computer program, and storage medium
JP2015008418A (en) * 2013-06-25 2015-01-15 富士ゼロックス株式会社 Image processing apparatus, color adjustment system, and program
JP2015142352A (en) * 2014-01-30 2015-08-03 シャープ株式会社 Display calibration system, program, and recording medium
CN104821157A (en) * 2014-01-30 2015-08-05 夏普株式会社 Display calibration system
CN104821157B (en) * 2014-01-30 2017-07-18 夏普株式会社 Show correction system
CN114333724A (en) * 2021-12-28 2022-04-12 北京德为智慧科技有限公司 Display brightness and color correction method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP5603014B2 (en) Correction of super-resolution display
JP3775666B2 (en) Image display device
JP3766672B2 (en) Image correction data calculation method
KR100925315B1 (en) Image display apparatus and electronic apparatus
TW591956B (en) Compensation for adjacent pixel interdependence
US20100265264A1 (en) Method, apparatus and system for providing color grading for displays
US7916137B2 (en) Generation of 3D look-up tables for image processing devices
US7639401B2 (en) Camera-based method for calibrating color displays
US9437160B2 (en) System and method for automatic color matching in a multi display system using sensor feedback control
KR20100074016A (en) Method of calibration of a target color reproduction device
JP2008139709A (en) Color processing apparatus and method thereof
US7639260B2 (en) Camera-based system for calibrating color displays
JP2001231053A (en) Method for generating correction data in image display device
JP2020067629A (en) Image processing device and image processing method
US9288456B2 (en) Image processing apparatus and method
JP2006030600A (en) Multi-screen display system, multi-screen display method, correction compensation method, and program
JP2004341269A (en) Image processing system, projector, program, information storage medium, and image processing method
JP2008147889A (en) Image processor and method thereof
Hardeberg et al. Colorimetric characterization of projection displays using a digital colorimetric camera
JPH06105185A (en) Brightness correction method
KR20110095556A (en) Image projection apparatus and image correcting method thereof
JP3952081B2 (en) Image color correction parameter calculation system, color correction method, and color correction apparatus
US11545058B2 (en) Electronic device and control method for electronic device
JP2008306391A (en) Color processing device and method
JP2009071783A (en) Correction data generation system, and correction data generation method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100302