JP2008139709A - Color processing apparatus and method thereof - Google Patents
Color processing apparatus and method thereof Download PDFInfo
- Publication number
- JP2008139709A JP2008139709A JP2006327631A JP2006327631A JP2008139709A JP 2008139709 A JP2008139709 A JP 2008139709A JP 2006327631 A JP2006327631 A JP 2006327631A JP 2006327631 A JP2006327631 A JP 2006327631A JP 2008139709 A JP2008139709 A JP 2008139709A
- Authority
- JP
- Japan
- Prior art keywords
- image
- profile
- display device
- color
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像表示装置に表示する画像の色補正に関する。 The present invention relates to color correction of an image displayed on an image display device.
ブラウン管(CRT)ディスプレイ、液晶ディスプレイ(LCD)、プラズマディスプレイパネル(PDP)、フロントおよびリアプロジェクタなど、様々な種類の画像表示装置が存在する。これら画像表示装置の色再現範囲(以下「色域」という)は、画像表示装置に入力される画像の色域とは異なる。そのため、これら画像表示装置に入力画像の色を忠実に再現させるには、画像表示装置の出力特性(以下「プロファイル」という)を取得する。そして、プロファイルを用いて、入力画像の色域を画像表示装置の色域に変換する(以下「マッピング」という)。 There are various types of image display devices such as cathode ray tube (CRT) displays, liquid crystal displays (LCD), plasma display panels (PDP), front and rear projectors. The color reproduction range (hereinafter referred to as “color gamut”) of these image display devices is different from the color gamut of an image input to the image display device. Therefore, in order to faithfully reproduce the color of the input image on these image display devices, output characteristics (hereinafter referred to as “profile”) of the image display device are acquired. Then, using the profile, the color gamut of the input image is converted to the color gamut of the image display device (hereinafter referred to as “mapping”).
しかし、画像表示装置のプロファイルを用いてマッピングしても忠実な色を再現できない場合がある。この原因には以下の二つが考えられる。 However, there are cases where a faithful color cannot be reproduced even if mapping is performed using the profile of the image display apparatus. There are two possible causes for this.
一つは、バックライトの発光むら(LCD)、表示パネルの不均一性(LCD、PDP)、レンズ系の歪み(プロジェクタ)など様々な原因により、表示画面内に輝度むら、色むら(これらを合わせて「面内むら」と呼ぶ)が発生する。その結果、画像表示装置の画面中央領域で取得したプロファイルを用いた場合、画面中央領域では色を忠実に再現できたとしても、画面中央領域以外では色が忠実に再現されない。 One is the uneven brightness and color in the display screen due to various causes such as uneven light emission of the backlight (LCD), non-uniformity of the display panel (LCD, PDP), and distortion of the lens system (projector). Together, this is called “in-plane unevenness”). As a result, when the profile acquired in the screen center area of the image display device is used, even if the color can be faithfully reproduced in the screen center area, the color is not faithfully reproduced outside the screen center area.
もう一つは、画像表示装置は、電源投入後、時間を経ても発光輝度や色度が安定せずに変動する(以下「経時変化」という)。従って、画像表示装置の稼働時の色域は、プロファイル作成時の色域とは異なる場合がある。 The other is that the luminance and chromaticity of the image display apparatus fluctuate without being stable over time after the power is turned on (hereinafter referred to as “time-dependent change”). Accordingly, the color gamut during operation of the image display apparatus may be different from the color gamut at the time of profile creation.
そこで、面内むらを解決する方法として、一般に、表示画面内のすべての領域を測定してプロファイルを取得する手法がある。また、画像表示装置の面内むら特性を取得して、面内むらを補正する手法がある(例えば特許文献1)。 Therefore, as a method of solving the in-plane unevenness, there is generally a method of measuring a whole area in the display screen and acquiring a profile. In addition, there is a method of acquiring in-plane unevenness characteristics of an image display device and correcting in-plane unevenness (for example, Patent Document 1).
しかし、表示画面内のすべての領域を測定してプロファイルを作成するには、測定に膨大な時間が掛かる。加えて、測定時間が掛かることで、経時変化の影響を受け易くなる。 However, it takes an enormous amount of time to create a profile by measuring all the areas in the display screen. In addition, it takes a long time to measure, so that it is easily affected by changes with time.
また、ある色は、画面中央領域では色域内、画面中央領域以外では色域外になる場合がある。このような場合、特許文献1のように、画面領域ごとにRGBそれぞれの輝度ゲインを調整して面内むらを補正する手法は、色域外の色を色域内にマッピングする処理を行うことができず、カラーバランスが大きく崩れる可能性がある。 A certain color may be out of the color gamut in the center area of the screen and out of the color gamut in areas other than the screen center area. In such a case, as in Patent Document 1, the method of correcting the in-plane unevenness by adjusting the luminance gain of each RGB for each screen area can perform a process of mapping a color outside the color gamut into the color gamut. Therefore, the color balance may be greatly lost.
本発明は、画像表示装置の輝度や色度の面内むら、経時変化を考慮した色処理を行うことを目的とする。 An object of the present invention is to perform color processing in consideration of in-plane unevenness of luminance and chromaticity of an image display device and changes with time.
本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention has the following configuration as one means for achieving the above object.
本発明にかかる色処理は、画像表示装置のプロファイル作成用データを入力し、前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記画像表示装置の表示画面の輝度分布情報を入力し、前記画像表示装置の電源投入後の経過時間を入力し、前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、前記プロファイル、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする。 The color processing according to the present invention inputs profile creation data of an image display device, creates a profile of the image display device from the profile creation data, and inputs brightness distribution information of a display screen of the image display device. , Input an elapsed time after power-on of the image display device, input an image to be displayed on the image display device and display position information of the image, the profile, the luminance distribution information, the elapsed time and the A correction profile for color correction of the image is generated based on display position information, and the image is color-corrected using the profile and the correction profile.
また、画像表示装置のプロファイル作成用データを入力し、前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、前記画像の入力後の予め定められた時間内に、前記画像表示装置の表示画面の輝度分布情報を入力し、前記プロファイル、前記輝度分布情報および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする。 Also, the profile creation data of the image display device is input, the profile of the image display device is created from the profile creation data, and the image to be displayed on the image display device and the display position information of the image are input. The luminance distribution information of the display screen of the image display device is input within a predetermined time after the input of the image, and the color correction of the image is performed based on the profile, the luminance distribution information, and the display position information. A correction profile is generated, and the image is color-corrected using the profile and the correction profile.
本発明によれば、画像表示装置の輝度や色度の面内むら、経時変化を考慮した色処理を行うことができる。従って、画像表示装置の表示画面全体において、経時変化に影響されず、忠実な色再現を安定して実現することができる。 According to the present invention, it is possible to perform color processing in consideration of in-plane unevenness of luminance and chromaticity of an image display device and changes with time. Accordingly, faithful color reproduction can be stably realized over the entire display screen of the image display device without being affected by changes with time.
以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。 Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.
[システムの構成]
図1は実施例の画像処理装置21を含む画像処理システムの構成例を示すブロック図である。
[System configuration]
FIG. 1 is a block diagram illustrating a configuration example of an image processing system including the
画像表示装置22は、CRT、LCD、PDP、フロントまたはリアプロジェクタなどである。測色器23は、対象物のXYZ三刺激値などの色情報を測定可能で、画像表示装置2のプロファイル用データや輝度分布情報を画像処理装置1に供給する。
The
画像入力装置24は、ディジタルカメラやディジタルビデオカメラなどで、撮影画像や映像を画像処理装置21に供給したり、外部記憶装置25に格納したりする。外部記憶装置25は、ハードディスクドライブ(HDD)や光ディスクドライブなど、画像や動画像を格納可能な大記憶容量の記憶装置である。
The
タイマ27は、画像表示装置22の電源投入を監視して、電源が投入されてからの経過時間を計測する。ローカルバス29は、上記の構成を相互接続してデータ通信を可能にするバスで、例えばUSBやIEEE1394などのシリアルバスである。
The
画像処理装置21の入力部20は、測色器23から上記のプロファイル用データを、画像入力装置24から輝度分布情報をそれぞれ入力する。また、タイマ27から上記の経過時間を入力し、画像入力装置24または外部記憶装置25などから画像や映像とその表示位置情報を入力する。そして、入力したデータをそれぞれプロファイル記憶部12、輝度分布記憶部14、経過時間記憶部15、表示位置記憶部16、入力画像記憶部17に格納する。なお、表示位置情報は、対応する画像や映像を画像表示装置22に表示する際の表示位置を示す。また、表示位置情報は、予め指定されているとは限らず、後述する入力装置204を操作して、画像処理装置21において設定することもできる。
The
プロファイル作成部10は、プロファイル記憶部12、輝度分布記憶部14、経過時間記憶部15、表示位置記憶部16に格納されたデータを用いて、画像表示装置22のプロファイルおよび後述する補正プロファイルを作成する。そして、作成したプロファイルや補正プロファイルを補正プロファイル記憶部13に格納する。
The
カラーマッチング処理部11は、入力画像記憶部17に格納された画像や映像に対応する、プロファイル記憶部12と補正プロファイル記憶部13に格納されたプロファイルと補正プロファイルを用いて、当該画像や映像をカラーマッチング処理(色補正)する。そして、カラーマッチング処理した画像や映像を出力画像記憶部18に格納する。
The color matching processing unit 11 uses the profile and the correction profile stored in the
出力部19は、出力画像記憶部18に格納された画像や映像を、表示位置記憶部16に格納された、対応する表示位置情報とともに画像表示装置22に出力する。画像表示装置22は、表示画面の表示位置情報が示す位置に画像や映像を表示する。
The
[画像処理装置の構成]
図2は画像処理装置21の構成例を示すブロック図である。
[Configuration of image processing apparatus]
FIG. 2 is a block diagram illustrating a configuration example of the
CPU 201は、RAM 202をワークメモリとして、ROM 203やHDD 207に格納されたプログラムに従い、システムバス209を介して画像処理装置21全体を制御するとともに、後述する画像処理などを含む各種処理を実行する。RAM 202は、CPU 201により、CPU 201が実行するプログラムがロードされ、CPU 201による制御や処理時に各種データを一時記憶するワークエリアとして利用される。ROM 203は、ブートプログラムや各種データを記憶する。
The
HDD 207は、オペレーティングシステム(OS)、各種アプリケーションプログラム、各種データなどを格納する。前述したプロファイル記憶部12、補正プロファイル記憶部13、輝度分布記憶部14、経過時間記憶部15、表示位置記憶部16、入力画像記憶部17、出力画像記憶部18の各記憶領域は、RAM 202およびHDD 207に割り当てられる。
The HDD 207 stores an operating system (OS), various application programs, various data, and the like. The storage areas of the
入力装置204は、ユーザ指示を入力するためのキーボードやマウスなどのポインティングデバイスである。入出力ポート206は、ローカルバス29とのインタフェイスであり、前述した入力部20、出力部19に相当する。
The
ネットワークインタフェイスカード(NIC) 205は、LANやインターネットなどの外部ネットワーク26とのインタフェイスである。画像処理装置21は、外部ネットワーク26を介して外部のサーバから供給される画像や映像を入力したり、ローカルバス29を介して外部記憶装置25に格納することができる。
A network interface card (NIC) 205 is an interface with an
なお、図1に示すプロファイル作成部10およびカラーマッチング処理部11はソフトウェアで構成しても、ハードウェアで構成してもよい。
Note that the
[画像処理]
図3は画像処理装置21による画像処理を示すフローチャートで、CPU 201が実行する処理である。
[Image processing]
FIG. 3 is a flowchart showing image processing performed by the
まず、CPU 201は、詳細は後述するが、画像表示装置22のプロファイル作成用データを入力する。そして、プロファイル作成部10を制御して、画像表示装置22のプロファイルを作成し、プロファイル記憶部12に格納する(S101)。また、詳細は後述するが、画像表示装置22の輝度分布情報を入力して輝度分布記憶部14に格納する(S102)。なお、既に、画像表示装置22のプロファイルおよび輝度分布情報がプロファイル記憶部12および輝度分布記憶部14に格納されている場合は、ステップS101およびS102の処理を省略する。
First, as will be described in detail later, the
次に、CPU 201は、画像表示装置22に表示すべき画像または映像のフレームと、その表示位置情報を入力して、それらを関連付けて入力画像記憶部17と表示位置記憶部16に格納する(S103)。そして、画像表示装置22の電源投入後の経過時間を入力して、経過時間記憶部15に格納する(S104)。
Next, the
次に、CPU 201は、入力画像記憶部17から画像または映像のフレームの一画素(以下「注目画素」と呼ぶ)のデータを入力し(S105)、表示位置記憶部16に格納した表示位置情報に基づき、注目画素の表示位置を計算する(S106)。そして、詳細は後述するが、プロファイル作成部10を制御して、表示位置と経過時間に基づき、注目画素に対して面内むらと経時変化を補正する補正プロファイルを作成し、補正プロファイル記憶部13に記憶する(S107)。
Next, the
次に、CPU 201は、詳細は後述するが、カラーマッチング処理部11を制御して、プロファイル記憶部12と補正プロファイル記憶部13に記憶したプロファイルと補正プロファイルを用いて、注目画素のデータにカラーマッチング処理を施す(S108)。そして、カラーマッチング処理した注目画素のデータを出力画像記憶部18の注目画素に対応する記憶位置に格納する(S109)。
Next, as will be described in detail later, the
次に、CPU 201は、画像表示装置22に表示すべき画像または映像のフレームの全画素に、カラーマッチング処理を施したか否かを判定する(S110)。カラーマッチング処理が未了の画素がある場合は、処理をステップS105に戻して、次の注目画素にステップS106からS109の処理を施す。また、全画素のカラーマッチング処理が終了した場合は、出力画像記憶部18に格納した画像または映像と、表示位置記憶部16に格納した、対応する表示位置情報を画像表示装置22に出力する(S111)。
Next, the
次に、CPU 201は、画像表示装置22に表示するのが一つの画像か否かを判定し(S112)、一つの画像を表示する場合は以上で処理を終了する。また、複数の画像や、映像を表示する場合は、処理をステップS103に戻して、次の画像または映像のフレームに上記の処理を施す。
Next, the
[プロファイルの作成]
ステップS101におけるプロファイルの作成を説明する。
[Create profile]
The creation of a profile in step S101 will be described.
実施例1におけるプロファイルは、画像表示装置22の電源投入後、任意の時間が経過した時点で、画像表示装置22へ入力した入力信号値と、画像表示装置22が出力(表示)した三刺激値の関係を示すルックアップテーブル(LUT)である。また、画像表示装置22は、RGB信号を入力し、RGB三原色をそれぞれ256階調で表示できるとする。
The profile in the first embodiment includes the input signal value input to the
CPU 201は、任意の階調刻みのRGB信号を画像表示装置22に入力して、画像表示装置22に複数のカラーパッチを有するカラーパターンを表示させる。オペレータは、測色器23を用いて、画像表示装置22に表示されたカラーパッチを測定して、測定結果の三刺激値を画像処理装置に入力する。CPU 201は、測定値に付加された測定値の情報、または、測定の順番から三刺激値と、画像表示装置22に入力したRGB値の関係を判定し、RGB値と三刺激値を対応付けた三次元LUT(3DLUT)を作成する。この3DLUTを用いれば、任意のRGB値に対する三刺激値を補間演算により計算することができる。なお、三刺激値の代わりに測色値としてL*a*b*値を用いても構わない。
The
なお、プロファイルを取得するために、カラーパッチの測定時間が掛かると、経時変化の影響を受ける。しかし、測定時間の短縮を図ってカラーパッチの数(サンプル数)を減らすと、プロファイルを用いる補間演算の精度が低下する。そこで、補間演算の精度を維持できる範囲で、サンプル数を減らす必要がある。例えば、3DLUTではなくRGB各色のガンマ値を用いてプロファイルを作成してもよい。あるいは、画像表示装置が出力する三刺激値を推定するGOG(gain-offset-gamma)モデルを用いて、サンプル数を減らしつつ補間演算の精度を維持してもよい。つまり、所望の補間演算の精度を得られれば、プロファイルの作成方法は、上記に限定されることはない。 Note that if it takes time to measure a color patch in order to acquire a profile, it is affected by changes over time. However, if the number of color patches (the number of samples) is reduced by shortening the measurement time, the accuracy of the interpolation calculation using the profile is lowered. Therefore, it is necessary to reduce the number of samples as long as the accuracy of the interpolation calculation can be maintained. For example, a profile may be created using gamma values of RGB colors instead of 3DLUT. Alternatively, the accuracy of the interpolation calculation may be maintained while reducing the number of samples by using a GOG (gain-offset-gamma) model that estimates the tristimulus values output from the image display device. That is, the profile creation method is not limited to the above as long as desired accuracy of the interpolation calculation can be obtained.
[輝度分布の取得]
次に、ステップS102における輝度分布情報の取得を説明する。
[Obtain luminance distribution]
Next, acquisition of luminance distribution information in step S102 will be described.
CPU 201は、(R, G, B)=(255, 0, 0)、(0, 255, 0)、(0, 0, 255)のRGB信号を、順次、画像表示装置22に入力し、RGB信号に対応する色を表示画面全体に表示させる。そして、画像入力装置24を制御して、順次、画像表示装置22の画面を撮影させ、撮影結果の画像を輝度分布情報として入力する。その際、撮影時点の経過時間をタイマ27から入力し、輝度分布情報に付加する。なお、画像入力装置24は、輝度値を出力できるようにキャリブレーションされているとする。従って、画像入力装置24が出力する画像データは、表示画面のR、G、Bそれぞれの輝度分布を表すことになる。
The
図4は輝度分布記憶部14が記憶する輝度分布情報を説明する図である。
FIG. 4 is a diagram for explaining the luminance distribution information stored in the luminance
符号601はRの輝度分布情報群を、符号602はGの輝度分布情報群を、符号603はBの輝度分布情報群をそれぞれ示す。また、時間軸tは、画像表示装置22の電源が投入されてからの経過時間軸に、y軸は表示画面のy座標軸に、x軸は表示画面のx座標にそれぞれ対応する。つまり、経過時間tにおける、表示画面上の位置(x, y)におけるRGBそれぞれの輝度値はLr(x, y, t)、Lg(x, y, t)、Lb(x, y, t)で表すことができる。ただし、輝度分布情報の取得タイミングは離散的であり、最新の取得タイミング以降の経過時間における輝度値は予測演算により取得する。従って、輝度分布記憶部14には、輝度値の予測に必要な数の輝度分布情報を格納すればよい。
なお、取得した輝度分布情報(撮影画像)をそのまま輝度分布記憶部14に格納しなくてもよい。例えば、取得した輝度分布を多項式近似した近似式を輝度分布記憶部14に格納しても構わない。つまり、表示位置(x, y)と経過時間tを与えることで輝度が算出できる輝度分布情報を輝度分布記憶部14に格納すればよい。
The acquired luminance distribution information (captured image) may not be stored in the luminance
また、色度むらが、RGBの輝度むらに起因するとすると、RGBの輝度分布情報を取得することで、色度むらも補正することができる。 Further, if the chromaticity unevenness is caused by the RGB luminance unevenness, the chromaticity unevenness can be corrected by acquiring the RGB luminance distribution information.
[補正プロファイルの作成]
次に、ステップS107における補正プロファイルの作成を説明する。
[Create correction profile]
Next, creation of a correction profile in step S107 will be described.
RGB値と三刺激値の対応関係を示す3DLUTをf(R,G,B)Tで表すと、任意のRGB値(R, G, B)に対応する三刺激値[XYZ]Tは式(1)のように計算することができる。
┌ ┐
│X│
│Y│= f(R,G,B)T
│X│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
=│Yr│・r + │Yg│・g + │Yb│・b + f(0,0,0)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
┌ ┐┌ ┐
│Xr Xg Xb││r│
=│Yr Yg Yb││g│ + f(0,0,0) …(1)
│Zr Zg Zb││b│
└ ┘└ ┘
ここで、[Xr Yr Zr]T、[Xg Yg Zg]T、[XYZ]Tはそれぞれ(R,G,B)=(255,0,0)、(0,255,0)、(0,0,255)時の三刺激値を表す
[r g b]Tは原色それぞれの混合率を表す
Tは転置行列を表す
When 3DLUT indicating the correspondence between RGB values and tristimulus values is represented by f (R, G, B) T , the tristimulus values [XYZ] T corresponding to arbitrary RGB values (R, G, B) are expressed by the formula ( It can be calculated as in 1).
┌ ┐
│X│
│Y│ = f (R, G, B) T
│X│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
= │Yr│ ・ r + │Yg│ ・ g + │Yb│ ・ b + f (0,0,0)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
┌ ┐┌ ┐
│Xr Xg Xb││r│
= │Yr Yg Yb││g│ + f (0,0,0)… (1)
│Zr Zg Zb││b│
└ ┘└ ┘
Where [Xr Yr Zr] T , [Xg Yg Zg] T , and [XYZ] T are (R, G, B) = (255,0,0), (0,255,0), (0,0,255), respectively Represents the tristimulus value of time
[rgb] T represents the mixing ratio of each primary color
T represents a transposed matrix
原色の混合率[r g b]Tは式(2)で表すことができる。
┌ ┐
│r│
│g│= A-1{f(R,G,B)T -f(0,0,0)T} …(2)
│b│
└ ┘
ここで、 ┌ ┐
│Xr Xg Xb│
A =│Yr Yg Yb│
│Zr Zg Zb│
└ ┘
The mixing ratio [rgb] T of primary colors can be expressed by the formula (2).
┌ ┐
│r│
│g│ = A -1 {f (R, G, B) T -f (0,0,0) T }… (2)
│b│
└ ┘
Where ┌ ┐
│Xr Xg Xb│
A = │Yr Yg Yb│
│Zr Zg Zb│
└ ┘
表示位置(x,y)、経過時刻tにおける三刺激値[XYZ]Tは、輝度分布をLr=Lr(x,y,t)、Lg=Lg(x,y,t)、Lb=Lb(x,y,t)とすると、補正プロファイルg(R,G,B,x,y,t)Tを用いて、式(3)で計算される。
┌ ┐
│X│
│Y│= g(R,G,B,x,y,z,t)T
│Z│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
=│Yr│・r' + │Yg│・g' + │Yb│・b' …(3)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
ここで、r' = r・Lr/Yr = r・Lr(x,y,t)/Yr
g' = g・Lg/Yg = g・Lg(x,y,t)/Yg
b' = b・Lb/Yb = b・Lb(x,y,t)/Yb
┌ ┐ ┌ ┐
│X│ │r│
∴│Y│= A[1/Yr 1/Yg 1/Yb]│g│[Lr Lg Lb]
│Z│ │b│
└ ┘ └ ┘
= A[1/Yr 1/Yg 1/Yb]A-1{f(R,G,B)T - f(0,0,0)T}[Lr Lg Lb] …(4)
The tristimulus value [XYZ] T at the display position (x, y) and the elapsed time t is the luminance distribution Lr = Lr (x, y, t), Lg = Lg (x, y, t), Lb = Lb ( Assuming that x, y, t), the correction profile g (R, G, B, x, y, t) T is used to calculate with the equation (3).
┌ ┐
│X│
│Y│ = g (R, G, B, x, y, z, t) T
│Z│
└ ┘
┌ ┐ ┌ ┐ ┌ ┐
│Xr│ │Xg│ │Xb│
= │Yr│ ・ r '+ │Yg│ ・ g' + │Yb│ ・ b '… (3)
│Zr│ │Zg│ │Zb│
└ ┘ └ ┘ └ ┘
Where r '= r ・ Lr / Yr = r ・ Lr (x, y, t) / Yr
g '= g ・ Lg / Yg = g ・ Lg (x, y, t) / Yg
b '= b ・ Lb / Yb = b ・ Lb (x, y, t) / Yb
┌ ┐ ┌ ┐
│X│ │r│
∴│Y│ = A [1 / Yr 1 / Yg 1 / Yb] │g│ [Lr Lg Lb]
│Z│ │b│
└ ┘ └ ┘
= A [1 / Yr 1 / Yg 1 / Yb] A -1 {f (R, G, B) T -f (0,0,0) T } [Lr Lg Lb]… (4)
ステップS108では、プロファイルから得られる注目画素のRGBデータに対応する三刺激値を再現するRGB混合率[r g b]Tを式(4)に示す補正プロファイルによって計算する。そして、RGB混合率に対応するRGBデータをカラーマッチング処理後の注目画素のデータにする。 In step S108, the RGB mixing ratio [rgb] T for reproducing the tristimulus values corresponding to the RGB data of the target pixel obtained from the profile is calculated using the correction profile shown in the equation (4). Then, the RGB data corresponding to the RGB mixing ratio is used as the pixel-of-interest data after the color matching process.
[カラーマッチング処理]
次に、ステップS108におけるカラーマッチング処理を説明する。
[Color matching processing]
Next, the color matching process in step S108 will be described.
上述した面内むらと経時変化を補正するプロファイルg(R, G, B, x, y, t)Tを用いて、注目画素のデータ(R, G, B)を画像表示装置22へ入力する信号値に変換する。ここで、注目画素のデータが画像表示装置22の色域外に存在する場合は、画像表示装置22の色域内にマッピングする。マッピング方法は、多くの手法が提案されていて、どの方法を用いてもよい。例えば、画像表示装置22の色域内のある色(通常、輝度値50%のグレイ色、収束点)と色域外の色を結ぶ線分を引き、線分と色域境界が交わる点に、色域外の色をマッピングする。勿論、このマッピング方法に限定されるわけではなく、画像表示装置22の色域内の色のうち最も色差が小さい色に、色域外の色をマッピングするような方法でもよい。
Using the profile g (R, G, B, x, y, t) T that corrects the in-plane unevenness and change over time, the pixel data (R, G, B) of the target pixel is input to the
このように、画像表示装置22のプロファイル、輝度分布情報、経過時間、表示位置に基づき、面内むらと経時変化を補正するための補正プロファイルを作成して画像または映像を補正する。従って、画像表示装置22の表示画面全体において、経時変化に影響されず、忠実な色再現を安定して実行することができる。
In this manner, based on the profile of the
以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。 The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.
[システム構成]
図5は実施例2の画像処理装置21を含む画像処理システムの構成例を示すブロック図で、図1に示す実施例1の画像処理装置21と異なるのは、タイマ27および経過時間記憶部15がない点である。
[System configuration]
FIG. 5 is a block diagram illustrating a configuration example of an image processing system including the
[画像処理]
図6は画像処理装置21による画像処理を示すフローチャートで、CPU 201が実行する処理である。
[Image processing]
FIG. 6 is a flowchart showing image processing by the
まず、CPU 201は、前述したように、画像表示装置22のプロファイル用データを入力し、画像表示装置22のプロファイルを作成して、プロファイル記憶部12に格納する(S101)。なお、既に、画像表示装置22のプロファイルがプロファイル記憶部12に格納されている場合は、ステップS101の処理を省略する。
First, as described above, the
次に、CPU 201は、前述したように、画像表示装置22に表示すべき画像または映像のフレームと、その表示位置情報を入力して、それらを関連付けて入力画像記憶部17と表示位置記憶部16に格納する(S103)。続いて、前述したように、画像表示装置22の輝度分布情報を入力して輝度分布記憶部14に格納する(S201)。
Next, as described above, the
次に、CPU 201は、実施例1とほぼ同様に、注目画素のデータ入力(S105)、表示位置の計算(S106)、補正プロファイルの作成(S202)、カラーマッチング処理(S108)、注目画素のデータの格納(S109)の一連の処理を実行する。ただし、補正プロファイルの作成(S202)は、実施例1と異なり、経過時間を用いずに、表示位置に基づき補正プロファイルを作成する。
Next, the
次に、CPU 201は、実施例1と同様に、ステップS110の判定により、画像表示装置22に表示すべき画像または映像のフレームの全画素にカラーマッチング処理を施すまでステップS105からS109を繰り返す。そして、全画素のカラーマッチング処理が終了すると、画像または映像と表示位置情報の出力(S111)を行い、画像表示装置22に表示するのが一つの画像か否かを判定する(S112)。一つの画像を表示する場合は処理を終了するが、複数の画像や、映像を表示する場合は、処理をステップS103に戻す。そして、次の画像または映像のフレームの入力(S103)と輝度分布情報の入力(S201)を繰り返してを読み込み、次の画像または映像のフレームに上記の処理を施す。
Next, as in the first embodiment, the
また、例えば映像は10fpsから30fpsのフレームレートをもつことが多い。このような映像を表示する際に、フレームごとに輝度分布情報を取得する必要はないと考えられる。勿論、複数の画像を連続して表示する場合も、短い時間間隔で輝度分布情報を取得する必要はないと考えられる。そこで、例えば数十画像や、数十フレーム(または数フィールド)ごとの所定間隔で、あるいは、所定時間が経過する前に新たな輝度分布情報を取得するようにすればよい。なお、実施例2の場合は、経時変化を予測する必要はないので、輝度分布記憶部16には一回の測定分の輝度分布情報を格納すればよい。
For example, video often has a frame rate of 10 fps to 30 fps. It is considered that it is not necessary to acquire luminance distribution information for each frame when displaying such a video. Of course, even when a plurality of images are continuously displayed, it is considered unnecessary to acquire the luminance distribution information at short time intervals. Therefore, for example, new luminance distribution information may be acquired at a predetermined interval every several tens of images or several tens of frames (or several fields) or before a predetermined time elapses. In the case of the second embodiment, since it is not necessary to predict a change with time, the luminance
このように、実施例2では、画像表示装置22に画像または映像のフレームを表示する直前に、輝度分布情報を取得する。つまり、経時変化を含む輝度分布を取得する。従って、プロジェクタのように、表示角度、表示サイズなどの幾何学条件が不定で、予め輝度分布情報を取得できない場合も、面内むらと経時変化を補正する補正プロファイルを作成することができる。
As described above, in the second embodiment, the luminance distribution information is acquired immediately before displaying an image or video frame on the
[補正プロファイルの作成]
次に、ステップS202における補正プロファイルの作成を説明する。
[Create correction profile]
Next, creation of a correction profile in step S202 will be described.
実施例2では、画像または映像のフレームを表示する直前、または、近い時点で輝度分布情報を取得するため、経時変化を含む輝度分布を取得したことになる。表示位置(x,y)における三刺激値[XYZ]Tは、輝度分布をLr=Lr(x,y)、Lg=Lg(x,y)、Lb=Lb(x,y)とすると、補正プロファイルg(R,G,B,x,y)Tを用いて、式(5)で計算される。
┌ ┐
│X│
│Y│= g(R,G,B,x,y,z)T
│Z│
└ ┘
┌ ┐
│r│
= A[1/Yr 1/Yg 1/Yb]│g│[Lr Lg Lb]
│b│
└ ┘
= A[1/Yr 1/Yg 1/Yb]A-1{f(R,G,B)T -f(0,0,0)T}[Lr Lg Lb] …(5)
In the second embodiment, since the luminance distribution information is acquired immediately before or near the time when the image or video frame is displayed, the luminance distribution including the temporal change is acquired. Tristimulus values [XYZ] T at the display position (x, y) are corrected when the luminance distribution is Lr = Lr (x, y), Lg = Lg (x, y), Lb = Lb (x, y) Using the profile g (R, G, B, x, y) T , it is calculated by the equation (5).
┌ ┐
│X│
│Y│ = g (R, G, B, x, y, z) T
│Z│
└ ┘
┌ ┐
│r│
= A [1 / Yr 1 / Yg 1 / Yb] │g│ [Lr Lg Lb]
│b│
└ ┘
= A [1 / Yr 1 / Yg 1 / Yb] A -1 {f (R, G, B) T -f (0,0,0) T } [Lr Lg Lb]… (5)
[他の実施例]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, and a printer), and a device (for example, a copying machine and a facsimile device) including a single device. You may apply to.
また、本発明の目的は、上記実施例の機能を実現するソフトウェアを記録した記憶媒体(記録媒体)をシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記ソフトウェアを実行することでも達成される。この場合、記憶媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのソフトウェアを記憶した記憶媒体は本発明を構成する。 Another object of the present invention is to supply a storage medium (recording medium) that records software for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (CPU or MPU) of the system or apparatus executes the software. Is also achieved. In this case, the software itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the software constitutes the present invention.
また、前記ソフトウェアの実行により上記機能が実現されるだけでなく、そのソフトウェアの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。 In addition, the above functions are not only realized by the execution of the software, but an operating system (OS) running on a computer performs part or all of the actual processing according to instructions of the software, and thereby the above functions This includes the case where is realized.
また、前記ソフトウェアがコンピュータに接続された機能拡張カードやユニットのメモリに書き込まれ、そのソフトウェアの指示により、前記カードやユニットのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。 In addition, the software is written in a function expansion card or unit memory connected to the computer, and the CPU of the card or unit performs part or all of the actual processing according to instructions of the software, thereby This includes the case where is realized.
本発明を前記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するソフトウェアが格納される。 When the present invention is applied to the storage medium, the storage medium stores software corresponding to the flowchart described above.
Claims (9)
前記画像表示装置の表示画面の輝度分布情報を入力する輝度分布入力手段と、
前記画像表示装置の電源投入後の経過時間を入力する時間入力手段と、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力する画像入力手段と、
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記プロファイル、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成する生成手段と、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正する補正手段とを有することを特徴とする色処理装置。 Data input means for inputting data for profile creation of the image display device;
Luminance distribution input means for inputting luminance distribution information of a display screen of the image display device;
Time input means for inputting an elapsed time after power-on of the image display device;
An image to be displayed on the image display device; and image input means for inputting display position information of the image;
Generating means for generating a profile of the image display device from the profile generation data, and generating a correction profile for color correction of the image based on the profile, the luminance distribution information, the elapsed time, and the display position information; ,
A color processing apparatus comprising: correction means for color correcting the image using the profile and the correction profile.
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力する画像入力手段と、
前記画像の入力後の予め定められた時間内に、前記画像表示装置の表示画面の輝度分布情報を入力する輝度分布入力手段と、
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、前記プロファイル、前記輝度分布情報および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成する生成手段と、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正する補正手段とを有することを特徴とする色処理装置。 Data input means for inputting data for profile creation of the image display device;
An image to be displayed on the image display device; and image input means for inputting display position information of the image;
A luminance distribution input means for inputting luminance distribution information of the display screen of the image display device within a predetermined time after the input of the image;
Generating means for creating a profile of the image display device from the profile creation data, and generating a correction profile for color correction of the image based on the profile, the luminance distribution information and the display position information;
A color processing apparatus comprising: correction means for color correcting the image using the profile and the correction profile.
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、
前記画像表示装置の表示画面の輝度分布情報を入力し、
前記画像表示装置の電源投入後の経過時間を入力し、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、
前記プロファイル、前記輝度分布情報、前記経過時間および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする色処理方法。 Enter the profile creation data for the image display device,
Create a profile of the image display device from the profile creation data,
Input luminance distribution information of the display screen of the image display device,
Enter the elapsed time after turning on the image display device,
Input an image to be displayed on the image display device and display position information of the image,
Based on the profile, the luminance distribution information, the elapsed time, and the display position information, a correction profile for color correction of the image is generated,
A color processing method, wherein the image is color-corrected using the profile and the correction profile.
前記プロファイル作成用データから前記画像表示装置のプロファイルを作成し、
前記画像表示装置に表示すべき画像と、前記画像の表示位置情報を入力し、
前記画像の入力後の予め定められた時間内に、前記画像表示装置の表示画面の輝度分布情報を入力し、
前記プロファイル、前記輝度分布情報および前記表示位置情報に基づき、前記画像の色補正用の補正プロファイルを生成し、
前記プロファイルおよび前記補正プロファイルを用いて、前記画像を色補正することを特徴とする色処理方法。 Enter the profile creation data for the image display device,
Create a profile of the image display device from the profile creation data,
Input an image to be displayed on the image display device and display position information of the image,
Within a predetermined time after the input of the image, the luminance distribution information of the display screen of the image display device is input,
Based on the profile, the luminance distribution information and the display position information, a correction profile for color correction of the image is generated,
A color processing method, wherein the image is color-corrected using the profile and the correction profile.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006327631A JP2008139709A (en) | 2006-12-04 | 2006-12-04 | Color processing apparatus and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006327631A JP2008139709A (en) | 2006-12-04 | 2006-12-04 | Color processing apparatus and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008139709A true JP2008139709A (en) | 2008-06-19 |
Family
ID=39601226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006327631A Withdrawn JP2008139709A (en) | 2006-12-04 | 2006-12-04 | Color processing apparatus and method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008139709A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237350A (en) * | 2009-03-31 | 2010-10-21 | Nanao Corp | Measurement method for measuring display characteristic amount, display, display system, measuring device, computer program, and storage medium |
JP2015008418A (en) * | 2013-06-25 | 2015-01-15 | 富士ゼロックス株式会社 | Image processing apparatus, color adjustment system, and program |
JP2015142352A (en) * | 2014-01-30 | 2015-08-03 | シャープ株式会社 | Display calibration system, program, and recording medium |
CN114333724A (en) * | 2021-12-28 | 2022-04-12 | 北京德为智慧科技有限公司 | Display brightness and color correction method and device, electronic equipment and storage medium |
-
2006
- 2006-12-04 JP JP2006327631A patent/JP2008139709A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237350A (en) * | 2009-03-31 | 2010-10-21 | Nanao Corp | Measurement method for measuring display characteristic amount, display, display system, measuring device, computer program, and storage medium |
JP2015008418A (en) * | 2013-06-25 | 2015-01-15 | 富士ゼロックス株式会社 | Image processing apparatus, color adjustment system, and program |
JP2015142352A (en) * | 2014-01-30 | 2015-08-03 | シャープ株式会社 | Display calibration system, program, and recording medium |
CN104821157A (en) * | 2014-01-30 | 2015-08-05 | 夏普株式会社 | Display calibration system |
CN104821157B (en) * | 2014-01-30 | 2017-07-18 | 夏普株式会社 | Show correction system |
CN114333724A (en) * | 2021-12-28 | 2022-04-12 | 北京德为智慧科技有限公司 | Display brightness and color correction method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5603014B2 (en) | Correction of super-resolution display | |
JP3775666B2 (en) | Image display device | |
JP3766672B2 (en) | Image correction data calculation method | |
KR100925315B1 (en) | Image display apparatus and electronic apparatus | |
TW591956B (en) | Compensation for adjacent pixel interdependence | |
US20100265264A1 (en) | Method, apparatus and system for providing color grading for displays | |
US7916137B2 (en) | Generation of 3D look-up tables for image processing devices | |
US7639401B2 (en) | Camera-based method for calibrating color displays | |
US9437160B2 (en) | System and method for automatic color matching in a multi display system using sensor feedback control | |
KR20100074016A (en) | Method of calibration of a target color reproduction device | |
JP2008139709A (en) | Color processing apparatus and method thereof | |
US7639260B2 (en) | Camera-based system for calibrating color displays | |
JP2001231053A (en) | Method for generating correction data in image display device | |
JP2020067629A (en) | Image processing device and image processing method | |
US9288456B2 (en) | Image processing apparatus and method | |
JP2006030600A (en) | Multi-screen display system, multi-screen display method, correction compensation method, and program | |
JP2004341269A (en) | Image processing system, projector, program, information storage medium, and image processing method | |
JP2008147889A (en) | Image processor and method thereof | |
Hardeberg et al. | Colorimetric characterization of projection displays using a digital colorimetric camera | |
JPH06105185A (en) | Brightness correction method | |
KR20110095556A (en) | Image projection apparatus and image correcting method thereof | |
JP3952081B2 (en) | Image color correction parameter calculation system, color correction method, and color correction apparatus | |
US11545058B2 (en) | Electronic device and control method for electronic device | |
JP2008306391A (en) | Color processing device and method | |
JP2009071783A (en) | Correction data generation system, and correction data generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100302 |