JP6335483B2 - Correction method, correction device, and program - Google Patents

Correction method, correction device, and program Download PDF

Info

Publication number
JP6335483B2
JP6335483B2 JP2013236174A JP2013236174A JP6335483B2 JP 6335483 B2 JP6335483 B2 JP 6335483B2 JP 2013236174 A JP2013236174 A JP 2013236174A JP 2013236174 A JP2013236174 A JP 2013236174A JP 6335483 B2 JP6335483 B2 JP 6335483B2
Authority
JP
Japan
Prior art keywords
color
display
image
region
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013236174A
Other languages
Japanese (ja)
Other versions
JP2015095883A5 (en
JP2015095883A (en
Inventor
川合 達人
達人 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013236174A priority Critical patent/JP6335483B2/en
Publication of JP2015095883A publication Critical patent/JP2015095883A/en
Publication of JP2015095883A5 publication Critical patent/JP2015095883A5/en
Application granted granted Critical
Publication of JP6335483B2 publication Critical patent/JP6335483B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、補正方法補正装置、及び、プログラムに関する。 The present invention relates to a correction method , a correction device , and a program.

近年、TVモニター、PCモニター、各種業務用モニター等の表示装置の高画質化が著しい。表示装置の色再現精度も、より広い範囲の色がより高い忠実度で色再現されるように進歩している。例えば、CIEのXYZカラーモデルに基づく規格として、sRGB規格よりも色再現精度の高いAdobe−RGB規格、DCI−P3規格等が提案されている。このような高精度の色再現は、表示装置の表示性能を精密に測定し、正しい色表示が行われるように表示装置に微調整を施す、キャリブレーションと呼ばれる処理を行うことによって維持される。   In recent years, the display quality of display devices such as TV monitors, PC monitors, and various business monitors has been greatly improved. The color reproduction accuracy of display devices is also progressing so that a wider range of colors can be reproduced with higher fidelity. For example, as standards based on the CIE XYZ color model, the Adobe-RGB standard, the DCI-P3 standard, and the like, which have higher color reproduction accuracy than the sRGB standard, have been proposed. Such high-precision color reproduction is maintained by measuring a display performance of the display device precisely and performing a process called calibration for finely adjusting the display device so that correct color display is performed.

また、人間の視覚のメカニズムに関する研究も進んでおり、上記のXYZカラーモデルには盛り込まれていない、より高い次元の視覚機能に関する知見が得られている。
例えば、環境光下にある物体の反射光のスペクトルは環境光のスペクトル分布の変化に応じて変化するが、人間は、その変化(反射光のスペクトルの変化)を補正して同一の物体は同一の色と認識する色順応と呼ばれる視覚機能を有している。色順応により、人間は、XYZカラーモデルでは異なる色度座標の色であっても、それらの色を同じ色と認識することがある。具体的には、環境光の変化に応じた色順応により、人間は、XYZカラーモデルでは色度座標が異なる色であっても、同じ色と認識する。逆に、色順応により、人間は、XYZカラーモデルでは色度座標が同じ色であっても、異なる色と認識することもある。
このような人間の視覚特性を盛り込んだ、新しいカラーモデルも提案されてきている。具体的には、CIEのCAMと呼ばれるカラーモデル等が提案されてきている。
Research on the mechanism of human vision is also progressing, and knowledge about higher-dimensional visual functions not included in the above XYZ color model has been obtained.
For example, the reflected light spectrum of an object under ambient light changes according to the change in the ambient light spectral distribution, but humans correct the change (change in the reflected light spectrum) and the same object is the same. It has a visual function called color adaptation that recognizes the color of the image. Due to chromatic adaptation, humans may recognize the colors as the same color even if they have different chromaticity coordinates in the XYZ color model. Specifically, human beings recognize that the XYZ color model is the same color even if the chromaticity coordinates are different in the XYZ color model due to the chromatic adaptation according to the change of the ambient light. Conversely, due to chromatic adaptation, humans may recognize different colors even if the chromaticity coordinates are the same in the XYZ color model.
New color models that incorporate such human visual characteristics have also been proposed. Specifically, a color model called CIE CAM has been proposed.

そのため、表示装置の使用環境(ユーザの視環境)を考慮したキャリブレーションを行うことにより、より忠実度の高い色(画像データの制作者が意図した色、など)をユーザに認識(知覚)させることのできる表示が可能になると期待される。
そのようなキャリブレーションの方法は、例えば、特許文献1に開示されている。
Therefore, by performing calibration in consideration of the use environment of the display device (user's visual environment), the user can recognize (perceive) a color with higher fidelity (a color intended by the creator of the image data). It is expected that it will be possible to display.
Such a calibration method is disclosed in Patent Document 1, for example.

特開2006−349835号公報JP 2006-349835 A

色順応を考慮したキャリブレーションを行う場合、視環境の情報を取得することが必要になる。例えば、前述のCIEのCAMと呼ばれるカラーモデルでは、視環境の情報を用いて色順応の基準となる「白色」(以後“基準の白色”と記載する)を設定する必要がある。色順応を考慮したキャリブレーションとして、基準の白色に対する表示色の偏差(知覚的偏差)が所望の値となるようなキャリブレーションが行われる。   When performing calibration in consideration of chromatic adaptation, it is necessary to acquire information on the visual environment. For example, in the above-described color model called CIE CAM, it is necessary to set “white” (hereinafter referred to as “reference white”) as a reference for color adaptation using information on the visual environment. As calibration in consideration of chromatic adaptation, calibration is performed such that a display color deviation (perceptual deviation) with respect to the reference white becomes a desired value.

特許文献1では、キャリブレーションの際に、環境光が当たるように白色紙がセットされ、測色器を用いて環境光が白色紙で反射した反射光が測定される。そして、測定された反射光の色が基準の白色として使用される。測色器としては、単一測定点の輝度、色度を測定する測定装置が使用されている。
そのため、従来の方法では、キャリブレーションを行う度に、白色紙で反射した反射光
を測定する作業を行わなければならず、キャリブレーションのための作業(視環境の情報を取得する作業)が煩雑である。
In Patent Document 1, white paper is set so that ambient light strikes during calibration, and reflected light obtained by reflecting the ambient light on the white paper is measured using a colorimeter. The measured reflected light color is used as the reference white color. As the colorimeter, a measuring device that measures the luminance and chromaticity of a single measurement point is used.
Therefore, in the conventional method, every time calibration is performed, the work of measuring the reflected light reflected by the white paper must be performed, and the work for calibration (work for obtaining information on the visual environment) is complicated. It is.

また、特許文献1に開示の技術を用いれば、環境光の変化による知覚色(ユーザが知覚する色)の変化を低減することができる。しかしながら、ユーザが知覚する画面の色は、環境光だけでなく、ユーザが画面を見たときにユーザの目に入る物体(画面の周囲の物体)の色にも依存する。具体的には、ユーザが知覚する画面の色は、ユーザが画面を見たときにユーザの目に入る物体の色によって決まると考えられる。しかしながら、従来の方法では、ユーザが画面を見たときに目に入る物体の色は考慮されず、白色紙の反射光の色を基準としたキャリブレーションが行われる。そのため、従来の方法では、ユーザが画面を見たときに目に入る物体の色(色調)が白色紙と異なる場合に、キャリブレーションを高精度に行うことができないことがある。   Moreover, if the technique disclosed in Patent Document 1 is used, a change in perceived color (color perceived by the user) due to a change in ambient light can be reduced. However, the color of the screen perceived by the user depends not only on ambient light, but also on the color of an object (an object around the screen) that enters the user's eyes when the user looks at the screen. Specifically, the color of the screen perceived by the user is considered to be determined by the color of an object that enters the user's eyes when the user looks at the screen. However, in the conventional method, the color of an object that enters the eye when the user looks at the screen is not considered, and calibration is performed based on the color of the reflected light of the white paper. Therefore, in the conventional method, when the color (color tone) of an object entering the eyes when the user looks at the screen is different from that of white paper, calibration may not be performed with high accuracy.

本発明は、表示装置の表示色のキャリブレーションを高精度且つ簡便に行うことができる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of easily and accurately performing display color calibration of a display device.

本発明の第1の態様は、
表示領域に表示される表示用画像を補正する補正方法であって、
前記表示用画像が前記表示領域に表示されている状態で、前記表示領域と前記表示領域の周囲とを含む領域が撮影された撮影画像を取得する画像取得ステップと、
前記撮影画像から、前記表示領域の内側の色である第1の色と、前記表示領域の周囲の色である第2の色と、を取得する色取得ステップと、
前記第2の色に基づいて前記第1の色の目標色を決定する決定ステップと、
前記第1の色を示す画素値と前記目標色を示す画素値との差の分だけ前記表示用画像の各画素値を補正する補正ステップと、
を有し、
前記決定ステップでは、前記第2の色を基準の白色として用い、前記基準の白色のもとで前記表示用画像を見たときの色の見えが所定の条件を満たすように前記目標色を決定する
ことを特徴とする補正方法である。
The first aspect of the present invention is:
A correction method for correcting a display image displayed in a display area ,
In a state in which the display image is displayed on the display area, an image acquisition step of acquiring a captured image region is photographed including a periphery of the display area and the display area,
From the captured image, a first color is an inner color of the display region, a color acquiring the second color, which is the color of the surrounding of the display region,
A determining step of determining a target color of the first color based on the second color;
A correction step of correcting each pixel value of the display image by a difference between a pixel value indicating the first color and a pixel value indicating the target color;
I have a,
In the determining step, the second color is used as a reference white color, and the target color is determined so that a color appearance when the display image is viewed under the reference white color satisfies a predetermined condition. The correction method is characterized by the following.

本発明の第2の態様は、
表示領域に表示される表示用画像を補正する補正装置であって、
前記表示用画像が前記表示領域に表示されている状態で、前記表示領域と前記表示領域の周囲とを含む領域が撮影された撮影画像を取得する画像取得手段と、
前記撮影画像から、前記表示領域の内側の色である第1の色と、前記表示領域の周囲の色である第2の色と、を取得する色取得手段と、
前記第2の色に基づいて前記第1の色の目標色を決定する決定手段と、
前記第1の色を示す画素値と前記目標色を示す画素値との差の分だけ前記表示用画像の各画素値を補正する補正手段と、
を有し、
前記決定手段は、前記第2の色を基準の白色として用い、前記基準の白色のもとで前記表示用画像を見たときの色の見えが所定の条件を満たすように前記目標色を決定する
ことを特徴とする補正装置である。
The second aspect of the present invention is:
A correction device for correcting a display image displayed in a display area ,
In a state in which the display image is displayed on the display area, an image obtaining unit for obtaining a captured image region including the periphery of the display region and the display region is captured,
From the captured image, a first color is an inner color of the display region, a color acquisition means for acquiring the second color, which is the color of the surrounding of the display region,
Determining means for determining a target color of the first color based on the second color;
Correction means for correcting each pixel value of the display image by a difference between a pixel value indicating the first color and a pixel value indicating the target color;
I have a,
The determination unit uses the second color as a reference white color and determines the target color so that a color appearance when the display image is viewed under the reference white color satisfies a predetermined condition. The correction apparatus is characterized by the above.

本発明の第3の態様は、上述した補正方法の各ステップをコンピュータに実行させる
めのプログラムである。
According to a third aspect of the present invention, the computer executes each step of the correction method described above .
It is because of the program.

本発明によれば、表示装置の表示色のキャリブレーションを高精度且つ簡便に行うことができる。   According to the present invention, the display color of the display device can be calibrated with high accuracy and ease.

実施例1に係る表示装置の使用状況の一例を示す図The figure which shows an example of the use condition of the display apparatus which concerns on Example 1. FIG. 実施例1に係るキャリブレーションを行うときの様子の一例を示す図The figure which shows an example of a mode when performing the calibration which concerns on Example 1. FIG. 実施例1に係る撮影画像の一例を示す図The figure which shows an example of the picked-up image which concerns on Example 1. FIG. 実施例1に係る第1検出処理と第2検出処理の一例を示す図The figure which shows an example of the 1st detection process which concerns on Example 1, and a 2nd detection process. 実施例1に係る校正装置の構成の一例を示すブロック図1 is a block diagram illustrating an example of a configuration of a calibration apparatus according to a first embodiment. 実施例1に係るサブピクセルの発光スペクトルの一例示す図The figure which shows an example of the emission spectrum of the sub pixel which concerns on Example 1. FIG. CIEのD65標準光源のスペクトルを示す図The figure which shows the spectrum of D65 standard light source of CIE CIEのF10標準光源のスペクトルを示す図The figure which shows the spectrum of CIE F10 standard light source 実施例2に係る壁面の分光反射率特性の一例を示す図The figure which shows an example of the spectral reflectance characteristic of the wall surface concerning Example 2 実施例3に係るキャリブレーションを行うときの様子の一例を示す図The figure which shows an example of a mode when performing the calibration which concerns on Example 3. FIG. 実施例3に係る撮影画像の一例を示す図FIG. 10 is a diagram illustrating an example of a captured image according to the third embodiment. 実施例3に係る第2検出処理の一例を示す図The figure which shows an example of the 2nd detection process which concerns on Example 3. FIG.

<実施例1>
以下に、本発明の実施例1に係る校正装置と校正方法について説明する。本実施例に係る校正装置は、表示装置の表示色のキャリブレーションを行う。
図1は、本実施例に係る表示装置の使用状況の一例を示す図である。
図1の例では、表示装置100が壁面200を背にして机の上に配置されている。そのため、表示装置100のユーザが表示装置100の画面を見た場合には、表示装置100の画面だけでなく、表示装置100の背景である壁面200もユーザの目に入る。表示装置100と壁面200は、照明光源300によって照明されている。
本実施例では、簡単のため、壁面200が単純な反射特性を有するものとする。具体的には、壁面200の色は白色であり、壁面200は可視光領域において完全にフラット(一定)な分光反射率を有するものとする。また、壁面200の分光反射率が100%であり、照明光源300からの光は壁面200で完全拡散反射するものとする。
<Example 1>
Hereinafter, a calibration apparatus and a calibration method according to the first embodiment of the present invention will be described. The calibration device according to the present embodiment calibrates the display color of the display device.
FIG. 1 is a diagram illustrating an example of a usage state of the display device according to the present embodiment.
In the example of FIG. 1, the display device 100 is arranged on a desk with the wall surface 200 as the back. Therefore, when the user of the display device 100 views the screen of the display device 100, not only the screen of the display device 100 but also the wall surface 200 that is the background of the display device 100 can be seen by the user. The display device 100 and the wall surface 200 are illuminated by an illumination light source 300.
In this embodiment, for simplicity, the wall surface 200 has simple reflection characteristics. Specifically, the color of the wall surface 200 is white, and the wall surface 200 has a completely flat (constant) spectral reflectance in the visible light region. Further, it is assumed that the spectral reflectance of the wall surface 200 is 100%, and the light from the illumination light source 300 is completely diffusely reflected by the wall surface 200.

図2は、本実施例に係る表示装置100の表示色のキャリブレーションを行うときの様子の一例を示す図である。
図2に示すように、本実施例では、キャリブレーションを行う際に、表示装置100の画面(表示面)101にテスト用カラーパッチ101−aが表示される。テスト用カラーパッチ101−aは、キャリブレーション用の画像であり、第1の所定色を有する基準画像である。
そして、テスト用カラーパッチ101−aが表示された状態で、デジタルカメラ400により画面101が撮影される。デジタルカメラ400は、キャリブレーションを行う際の測色器として使用される。デジタルカメラ400は、内部に複数の画素を有する撮像素子を有しており、撮像素子上に画面101と表示装置100の周辺とを含む領域の画像が結像されるように配置されている。即ち、デジタルカメラ400は、画面101と表示装置100の周辺とを含む領域が撮影されるように配置されている。図3は、デジタルカメラ400で撮影された撮影画像の一例を示す図である。図3の例では、撮影画像401の中央に表示装置100が写っており、画面101にテスト用カラーパッチ101−aが表示されている。また、撮影画像401には、表示装置100の周囲も写っている。具体的には、表示装置100の背景である壁面200が写っている。
その後、撮影された画像(撮影画像)を処理することにより所望の測定データが取得され、取得された測定データに基づいてキャリブレーションが行われる。
FIG. 2 is a diagram illustrating an example of a state when the display color of the display device 100 according to the present embodiment is calibrated.
As shown in FIG. 2, in this embodiment, when calibration is performed, a test color patch 101-a is displayed on the screen (display surface) 101 of the display device 100. The test color patch 101-a is an image for calibration, and is a reference image having a first predetermined color.
Then, the screen 101 is photographed by the digital camera 400 in a state where the test color patch 101-a is displayed. The digital camera 400 is used as a colorimeter when performing calibration. The digital camera 400 includes an image sensor having a plurality of pixels therein, and is arranged such that an image of a region including the screen 101 and the periphery of the display device 100 is formed on the image sensor. That is, the digital camera 400 is arranged so that an area including the screen 101 and the periphery of the display device 100 is photographed. FIG. 3 is a diagram illustrating an example of a captured image captured by the digital camera 400. In the example of FIG. 3, the display device 100 is shown in the center of the photographed image 401, and the test color patch 101-a is displayed on the screen 101. In addition, the periphery of the display device 100 is also reflected in the captured image 401. Specifically, the wall surface 200 that is the background of the display device 100 is shown.
Thereafter, desired measurement data is acquired by processing the captured image (captured image), and calibration is performed based on the acquired measurement data.

本実施例では、キャリブレーションを行う際に、色や明るさが異なる複数のテスト用カラーパッチが順番に画面に表示される。そして、複数のテスト用カラーパッチのそれぞれについて、撮影されたテスト用カラーパッチの色(撮影色)が目標色と一致するか否かが判断される。撮影色が目標色と一致しない場合には、撮影色を目標色と一致させる補正値(テスト用カラーパッチの色を示す画素値を補正する補正値)が決定され、保存される。全てのテスト用カラーパッチについて上記処理が行われることで、キャリブレーションが完了する。
キャリブレーションが行われた後に表示装置を使用する際には、校正装置に入力された画像(表示用画像)の各画素値に対して、保存された補正値の中から最適な補正値(表示用画像の画素値に対応する補正値)が読み出され、表示用画像の画素値に適用される。補正値は、必要に応じて適宜演算処理が施された後、画素値に適用される。そして、補正後の表示用画像(補正値を適用する処理が施された後の表示用画像)が表示装置100で表示される。
なお、複数のテスト用カラーパッチは同時に表示されてもよい。また、色や明るさが異なる複数の基準画像からなるストライプ画像が表示されてもよい。
In the present embodiment, when calibration is performed, a plurality of test color patches having different colors and brightness are sequentially displayed on the screen. Then, for each of the plurality of test color patches, it is determined whether or not the color (photographed color) of the photographed test color patch matches the target color. If the shooting color does not match the target color, a correction value (a correction value for correcting the pixel value indicating the color of the test color patch) that matches the shooting color with the target color is determined and stored. The above process is performed for all the test color patches, thereby completing the calibration.
When using the display device after calibration has been performed, the optimum correction value (display) is selected from the stored correction values for each pixel value of the image (display image) input to the calibration device. Correction value corresponding to the pixel value of the display image) is read out and applied to the pixel value of the display image. The correction value is applied to the pixel value after being appropriately subjected to arithmetic processing as necessary. Then, the display image after correction (the display image after the process of applying the correction value) is displayed on the display device 100.
A plurality of test color patches may be displayed simultaneously. A stripe image composed of a plurality of reference images having different colors and brightness may be displayed.

色順応を考慮しない場合は、テスト用カラーパッチ毎に、視環境に依らず1つの目標色を使用すればよい。しかし、色順応を考慮する場合は、ユーザが画面を見たときに知覚する色(知覚色)が視環境に依って変化するため、視環境に対応する目標色を使用しなければならない。色順応は、環境光のスペクトル分布の変化に応じた物体の反射光のスペクトルの変化を補正して、同一の物体は同一の色と認識する視覚機能である。色順応により、人間は、XYZカラーモデルでは異なる色度座標の色であっても、それらの色を同じ色と認識することがある。逆に、色順応により、人間は、XYZカラーモデルでは色度座標が同じ色であっても、異なる色と認識することもある。
色順応を考慮すると、ユーザが知覚する画面の色は、ユーザが画面を見たときにユーザの目に入る物体(画面の周囲の物体)の色によって決まると考えられる。そこで、本実施例では、ユーザが画面を見たときにユーザの目に入る物体(画面の周囲の物体)の色に基づいて、目標色を決定する。それにより、表示装置の表示色のキャリブレーションを高精度に行うことが可能となる。
When chromatic adaptation is not considered, one target color may be used for each test color patch regardless of the viewing environment. However, when considering chromatic adaptation, the color perceived when the user looks at the screen (perceived color) changes depending on the viewing environment, and thus a target color corresponding to the viewing environment must be used. Chromatic adaptation is a visual function in which the same object is recognized as the same color by correcting the change in the reflected light spectrum of the object in accordance with the change in the spectral distribution of the ambient light. Due to chromatic adaptation, humans may recognize the colors as the same color even if they have different chromaticity coordinates in the XYZ color model. Conversely, due to chromatic adaptation, humans may recognize different colors even if the chromaticity coordinates are the same in the XYZ color model.
In consideration of chromatic adaptation, the color of the screen perceived by the user is considered to be determined by the color of an object (an object around the screen) that enters the user's eyes when the user looks at the screen. Therefore, in this embodiment, the target color is determined based on the color of an object (an object around the screen) that enters the user's eyes when the user looks at the screen. Thereby, the display color of the display device can be calibrated with high accuracy.

図5は、本実施例に係る校正装置の構成の一例を示すブロック図である。
以下、キャリブレーションの流れに沿って図5の各機能部の動作を説明する。
なお、本実施例では、校正装置が表示装置100とは別体の装置である場合の例を説明するが、校正装置は表示装置100に内蔵されていてもよい。
FIG. 5 is a block diagram illustrating an example of the configuration of the calibration apparatus according to the present embodiment.
Hereinafter, the operation of each functional unit shown in FIG. 5 will be described along the calibration flow.
In this embodiment, an example in which the calibration apparatus is a separate apparatus from the display apparatus 100 will be described. However, the calibration apparatus may be incorporated in the display apparatus 100.

まず、表示用画像の画像データ(表示用画像データ)としてテスト用カラーパッチの画像データが校正装置に入力されると、表示用画像データはデータ補正部2と目標色決定部6に送られる。データ補正部2は、表示用画像データを補正せずに、表示用画像データを表示装置100に出力する。それにより、表示装置100の画面101にテスト用カラーパッチが表示される。
なお、データ補正部2は、テスト用カラーパッチの画像データである表示用画像データに対して、前回のキャリブレーション時に保存された補正値を用いた補正を施してもよい。そして、補正後の画像データが表示装置100に出力されてもよい。その場合には、画面101に、前回のキャリブレーション時に保存された補正値を用いた補正後のテスト用カラーパッチが表示される。
なお、テスト用カラーパッチの画像データは外部から入力されてもよいし、校正装置の内部に予め記録されていてもよい。
なお、キャリブレーションを行わない際には、表示用画像データは、データ補正部2に送られ、前回(直前)のキャリブレーション時に保存された補正値を用いて補正され、表示装置100に出力される。
First, when image data of a test color patch is input to the calibration device as display image data (display image data), the display image data is sent to the data correction unit 2 and the target color determination unit 6. The data correction unit 2 outputs the display image data to the display device 100 without correcting the display image data. As a result, the test color patch is displayed on the screen 101 of the display device 100.
Note that the data correction unit 2 may perform correction using the correction value stored at the previous calibration on the display image data which is the image data of the test color patch. Then, the corrected image data may be output to the display device 100. In this case, the test color patch after correction using the correction value saved at the previous calibration is displayed on the screen 101.
Note that the image data of the test color patch may be input from the outside, or may be recorded in advance in the calibration apparatus.
When calibration is not performed, the display image data is sent to the data correction unit 2, corrected using the correction value stored at the previous (immediately preceding) calibration, and output to the display device 100. The

デジタルカメラ400は、画面101にテスト用カラーパッチが表示された状態で、画面101と表示装置100の周囲とを含む領域を撮影することにより、撮影画像の画像データ(撮影画像データ)を生成する。そして、デジタルカメラ400は、撮影画像データをエリア判断部5に出力する。   The digital camera 400 generates image data (captured image data) of a captured image by capturing an area including the screen 101 and the periphery of the display device 100 in a state where the test color patch is displayed on the screen 101. . Then, the digital camera 400 outputs the captured image data to the area determination unit 5.

エリア判断部5は、テスト用カラーパッチが表示された状態で画面101と表示装置1
00の周囲とを含む領域が撮影された撮影画像データを、デジタルカメラ400から取得する(画像取得処理)。
そして、エリア判断部5は、撮影画像から、画面101の内側の色(撮影色)である第1の色を表示色情報として取得し、表示装置100の周囲の色(撮影色)である第2の色を視環境情報として取得する(色取得処理)。
本実施例では、エリア判断部5は、画像からパターンを検出する画像認識処理を行うことにより、撮影画像の領域から画面101の領域を検出する(第1検出処理)。そして、エリア判断部5は、第1検出処理で検出された領域(画面101の領域)の内側の色を表示色情報として取得する。具体的には、画面101に表示されているテスト用カラーパッチの色が表示色情報として取得される。本実施例ではテスト用カラーパッチが画面101の所定の領域に表示されるものとする。そのため、第1検出処理の検出結果に基づいてテスト用カラーパッチの領域を判断することができる。
同様に、エリア判断部5は、画像認識処理を行うことにより、撮影画像の領域から表示装置100の周囲の領域を検出する(第2検出処理)。そして、エリア判断部5は、第2検出処理で検出された領域(表示装置100の周囲の領域)の内側の色を視環境情報として取得する。具体的には、第2検出処理で検出された領域の平均色(撮影色の平均値)が視環境情報として取得される。
その後、エリア判断部5は、表示色情報を比較部7に出力し、視環境情報を目標色決定部6に出力する。
なお、画像取得処理、色取得処理、第1検出色、及び、第2検出処理は互いに異なる機能部によって行われてもよい。
The area determination unit 5 displays the screen 101 and the display device 1 while the test color patch is displayed.
Captured image data obtained by capturing an area including around 00 is acquired from the digital camera 400 (image acquisition process).
Then, the area determination unit 5 acquires, as display color information, the first color that is the color (photographing color) inside the screen 101 from the photographed image, and the first color that is the surrounding color (photographing color) of the display device 100. The second color is acquired as visual environment information (color acquisition process).
In the present embodiment, the area determination unit 5 detects an area of the screen 101 from a captured image area by performing an image recognition process for detecting a pattern from an image (first detection process). Then, the area determination unit 5 acquires the color inside the area (area of the screen 101) detected by the first detection process as display color information. Specifically, the color of the test color patch displayed on the screen 101 is acquired as display color information. In this embodiment, the test color patch is displayed in a predetermined area of the screen 101. Therefore, the area of the test color patch can be determined based on the detection result of the first detection process.
Similarly, the area determination unit 5 detects an area around the display device 100 from the area of the captured image by performing an image recognition process (second detection process). Then, the area determination unit 5 acquires the color inside the region (region around the display device 100) detected in the second detection process as the visual environment information. Specifically, the average color of the area detected by the second detection process (average value of the shooting color) is acquired as the visual environment information.
Thereafter, the area determination unit 5 outputs the display color information to the comparison unit 7 and outputs the visual environment information to the target color determination unit 6.
Note that the image acquisition process, the color acquisition process, the first detection color, and the second detection process may be performed by different functional units.

図4は、第1検出処理と第2検出処理の一例を示す図である。
本実施例では、画面101の領域を示す第1の所定パターンが画面101に表示されている状態で撮影された撮影画像データが取得される。そして、画像認識処理によって撮影画像から第1の所定パターンが検出され、第1の所定パターンが示す領域が、画面101の領域として検出される。図4の例では、画面101の領域の四隅にパターン101−bが表示された状態で撮影された撮影画像データが取得される。そして、四隅のパターン101−bを結ぶ線によって囲まれた領域401−1が、画面101の領域として検出される。
また、本実施例では、表示装置100が、画面101を囲む枠部材102を有する。そして、画像認識処理によって撮影画像から枠部材102の領域が検出され、枠部材102の領域よりも外側の領域が、表示装置100の周囲の領域として検出される。図4の例では、枠部材102の上左右側の領域401−2が、表示装置100の周囲の領域として検出される。
FIG. 4 is a diagram illustrating an example of the first detection process and the second detection process.
In the present embodiment, captured image data captured in a state where the first predetermined pattern indicating the area of the screen 101 is displayed on the screen 101 is acquired. Then, the first predetermined pattern is detected from the captured image by the image recognition process, and the region indicated by the first predetermined pattern is detected as the region of the screen 101. In the example of FIG. 4, captured image data captured in a state where the patterns 101-b are displayed at the four corners of the area of the screen 101 is acquired. Then, an area 401-1 surrounded by a line connecting the four corner patterns 101-b is detected as an area of the screen 101.
In the present embodiment, the display device 100 includes a frame member 102 that surrounds the screen 101. Then, the region of the frame member 102 is detected from the captured image by the image recognition process, and the region outside the region of the frame member 102 is detected as a region around the display device 100. In the example of FIG. 4, the upper and left side regions 401-2 of the frame member 102 are detected as regions around the display device 100.

なお、第1の所定パターンは4つのパターン101−bに限らない。例えば、第1の所定パターンは矩形のパターンであってもよいし、画面101の上下左右辺を示す4つの直線であってもよい。
なお、表示装置100の周囲の領域は領域401−2に限らない。例えば、枠部材102の上下左右側の領域が表示装置100の周囲の領域として検出されてもよい。また、枠部材102の上側、下側、左側、及び、右側のうちの少なくともいずれかの領域が表示装置100の周囲の領域として検出されてもよい。但し、枠部材102の下側の領域には、画面を見たときにあまり目に入らない色の物体(表示装置100のスタンド、表示装置100が置かれた机、机の上に置かれた小物、など)が存在する。そのような物体の色は色順応にあまり影響を与えないため、考慮しなくてもよい。むしろ、そのような物体の色は、考慮すると高精度な視環境情報が取得できなくなる虞があるため、考慮しないことが好ましい。一方、枠部材102の上左右側の領域には、画面を見たときに目に多く入る色の物体(壁など)が存在する。そして、そのような物体の色は、色順応に大きく影響するため、考慮することが好ましい。
The first predetermined pattern is not limited to the four patterns 101-b. For example, the first predetermined pattern may be a rectangular pattern, or may be four straight lines indicating the upper, lower, left, and right sides of the screen 101.
Note that the area around the display device 100 is not limited to the area 401-2. For example, areas on the top, bottom, left, and right sides of the frame member 102 may be detected as areas around the display device 100. In addition, at least one of the upper, lower, left, and right sides of the frame member 102 may be detected as an area around the display device 100. However, in the lower area of the frame member 102, an object of a color that is not easily seen when viewing the screen (a stand of the display device 100, a desk on which the display device 100 is placed, or a desk placed on the desk) Small items, etc.). Since the color of such an object does not significantly affect chromatic adaptation, it does not need to be considered. Rather, it is preferable not to consider the color of such an object because it may not be possible to obtain highly accurate visual environment information. On the other hand, in the upper left and right side areas of the frame member 102, there are objects of color (such as walls) that often appear when the screen is viewed. Since the color of such an object greatly affects chromatic adaptation, it is preferable to consider it.

目標色決定部6は、校正装置に入力された表示用画像データの画素値と、エリア判断部5から出力された視環境情報と、に基づいて、表示色情報(第1の色)の目標色を決定する。本実施例では、視環境(視環境情報)の変化による表示用画像の色の見えの変化が抑制された色が、目標色として決定される。具体的には、視環境情報である第2の色が基準の白色として用い、基準の白色のもとで表示用画像(テスト用カラーパッチ)を見たときの色の見えが所定の条件を満たすように目標色が決定される。それにより、表示装置100の視環境に最適な表示色を目標色として決定することができる。
目標色決定部6は、決定した目標色を比較部7に出力する。
なお、本実施例では、表示用画像データの画素値を用いて目標色を決定する例を説明するが、表示用画像データの画素値が予め決まっている場合には、視環境情報のみを用いて目標色を決定することもできる。例えば、表示用画像データの画素値が予め決まっている場合には、視環境情報と目標色の対応関係を示す関数やテーブルを予め用意することができる。そして、そのような関数やテーブルを用いて、エリア判断部5から出力された視環境情報から目標色を決定することができる。
The target color determination unit 6 is based on the pixel value of the display image data input to the calibration apparatus and the visual environment information output from the area determination unit 5, and the target of display color information (first color). Determine the color. In the present embodiment, the color in which the change in the appearance of the color of the display image due to the change in the visual environment (visual environment information) is suppressed is determined as the target color. Specifically, the second color, which is the visual environment information, is used as the reference white color, and the appearance of the color when the display image (test color patch) is viewed under the reference white color satisfies a predetermined condition. The target color is determined so as to satisfy. Thereby, the display color optimal for the visual environment of the display apparatus 100 can be determined as the target color.
The target color determination unit 6 outputs the determined target color to the comparison unit 7.
In this embodiment, an example in which the target color is determined using the pixel value of the display image data will be described. However, when the pixel value of the display image data is determined in advance, only visual environment information is used. The target color can also be determined. For example, when the pixel value of the display image data is determined in advance, a function or table indicating the correspondence relationship between the visual environment information and the target color can be prepared in advance. Then, the target color can be determined from the visual environment information output from the area determination unit 5 using such a function or table.

比較部7は、エリア判断部5から出力された表示色情報である第1の色と、目標色決定部6から出力された目標色と、を比較する。
第1の色が目標色に一致しない場合には、補正値決定部8によって補正値が決定される。そして、得られた補正値が補正値決定部8からデータ補正部2に送られ、得られた補正値を用いてテスト用カラーパッチの画像データが補正される。その結果、テスト用カラーパッチの表示色が補正される。その後、デジタルカメラ400による撮影から比較部7による比較までの一連の処理が再び行われる。
第1の色が目標色に一致する場合には、キャリブレーションが終了される。このとき、補正値が得られている場合には、得られた補正値が、テスト用カラーパッチの画素値に適した補正値として、補正値保存部9に保存される。
The comparison unit 7 compares the first color, which is the display color information output from the area determination unit 5, with the target color output from the target color determination unit 6.
If the first color does not match the target color, the correction value is determined by the correction value determination unit 8. Then, the obtained correction value is sent from the correction value determination unit 8 to the data correction unit 2, and the image data of the test color patch is corrected using the obtained correction value. As a result, the display color of the test color patch is corrected. Thereafter, a series of processing from the photographing by the digital camera 400 to the comparison by the comparison unit 7 is performed again.
If the first color matches the target color, the calibration is terminated. At this time, if a correction value is obtained, the obtained correction value is stored in the correction value storage unit 9 as a correction value suitable for the pixel value of the test color patch.

なお、図5に示す各機能部は、必ずしも個別のハードウェアとして存在している必要はない。各機能部の機能が、キャリブレーションの一連の動作の中で実現されていればよい。   Note that the functional units shown in FIG. 5 do not necessarily have to exist as individual hardware. The function of each functional unit only needs to be realized in a series of calibration operations.

補正値の決定方法について具体的に説明する。
以下では、表示装置100の各画素が赤色サブピクセル(R)、緑色サブピクセル(G)、青色サブピクセル(R)からなるものとする。また、各サブピクセルに与えられる画像データ(サブピクセル値)が8ビット(0〜255)の値であり、各サブピクセルの発光強度がサブピクセル値の増加に対して線形に増加するものとする。そして、サブピクセル値が255のとき、各サブピクセルから発せられる光束のスペクトル(発光スペクトル)として図6に示すスペクトルが得られるものとする。図6の横軸は波長を示し、縦軸は発光強度を示す。
また、本実施例では、視環境に順応する人間の視覚特性を盛り込んだカラーモデルとしてCIECAM02規格を採用し、CIECAM02規格に則って色順応を考慮した処理を行うものとする。
上述したように、キャリブレーションは、色や明るさが異なる複数の画素値について行われるのが一般的であるが、1つの画素値についてのキャリブレーションを行う場合の例を説明する。具体的には、よく用いられるグレタグ・マクベス社のカラーチャートにおけるLightSkinに相当する色の画素値についてのキャリブレーションを行う場合の例を説明する。
A method for determining the correction value will be specifically described.
Hereinafter, it is assumed that each pixel of the display device 100 includes a red subpixel (R), a green subpixel (G), and a blue subpixel (R). Further, the image data (subpixel value) given to each subpixel is a value of 8 bits (0 to 255), and the emission intensity of each subpixel increases linearly with the increase of the subpixel value. . When the subpixel value is 255, the spectrum shown in FIG. 6 is obtained as the spectrum (light emission spectrum) of the light beam emitted from each subpixel. The horizontal axis in FIG. 6 indicates the wavelength, and the vertical axis indicates the emission intensity.
In this embodiment, the CIECAM02 standard is adopted as a color model incorporating human visual characteristics that adapt to the visual environment, and processing that considers chromatic adaptation is performed in accordance with the CIECAM02 standard.
As described above, the calibration is generally performed for a plurality of pixel values having different colors and brightness, but an example in which calibration is performed for one pixel value will be described. Specifically, an example in which calibration is performed for pixel values of a color corresponding to LightSkin in a commonly used Gretag Macbeth color chart will be described.

はじめに、キャリブレーションがスムーズに行えるように、予めいくつかの処理が行われ、上述した所定の条件が校正装置に記録される。例えば、校正装置の工場出荷時に、所
定の条件が決定され、校正装置(校正装置が有する不図示の記憶部)に記録される。本実施例では、キャリブレーションにおいて、所定の条件として、相対的な色の属性であるJ(Lightness)、C(Chroma)、及び、h(Hue)の値が使用される。J、C、及び、hは、“CIECAM02規格による色度座標”であり、“色順応を考慮した「見え」を表す色度座標”である。J、C、及び、hは、キャリブレーションの対象となる複数の画素値のそれぞれについて決定される。即ち、J、C、及び、hは、複数のテスト用カラーパッチの複数の画素値(色)のそれぞれについて決定される。
First, several processes are performed in advance so that the calibration can be performed smoothly, and the predetermined conditions described above are recorded in the calibration apparatus. For example, when the calibration apparatus is shipped from the factory, predetermined conditions are determined and recorded in the calibration apparatus (a storage unit (not shown) included in the calibration apparatus). In the present embodiment, values of J (Lightness), C (Chroma), and h (Hue), which are relative color attributes, are used as predetermined conditions in the calibration. J, C, and h are “chromaticity coordinates according to the CIECAM02 standard” and “chromaticity coordinates representing“ appearance ”in consideration of chromatic adaptation.” J, C, and h are calibration coordinates. J, C, and h are determined for each of a plurality of pixel values (colors) of a plurality of test color patches.

例えば、LightSkinに関しては、以下の方法でJ、C、及び、hが決定される。
LightSkinに関しては、標準照明(D65)下の規格色度座標としてx=0.377、y=0.345、及び、Y=35.8[cd/m]が定められている。図7に、CIEのD65標準光源のスペクトルを示す。LightSkinに関する規格色度座標は、標準照明(D65)下でLightSkinとして知覚される表示色の色度座標である。
そして、基準の白色としてD65標準光源の光源色を用いて、LightSkinに関するJ、C、及び、hが決定(算出)される。本実施例では、LightSkinに関するJとして58.1643が、Cとして21.1202が、及び、hとして34.171が得られたとする。
なお、J、C、及び、hを決定する際に使用する基準の白色は、D65標準光源の光源色に限らない。
なお、J、C、及び、hの値は、基準の白色、CIECAM02規格で使用されるパラメータ、などに依って変動しうる。
For example, for LightSkin, J, C, and h are determined by the following method.
For LightSkin, x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] are defined as standard chromaticity coordinates under standard illumination (D65). FIG. 7 shows the spectrum of the CIE D65 standard light source. The standard chromaticity coordinates relating to LightSkin are chromaticity coordinates of a display color perceived as LightSkin under standard illumination (D65).
Then, J, C, and h related to LightSkin are determined (calculated) using the light source color of the D65 standard light source as the reference white color. In this example, it is assumed that 58.1643 is obtained as J regarding LightSkin, 21.1202 is obtained as C, and 34.171 is obtained as h.
Note that the reference white color used when determining J, C, and h is not limited to the light source color of the D65 standard light source.
Note that the values of J, C, and h may vary depending on the standard white color, parameters used in the CIECAM02 standard, and the like.

また、本実施例では、キャリブレーションをよりスムーズに行えるようにするために、キャリブレーションの対象となる複数の画素値が、上記所定の条件(J、C、及び、h)と対応付けて校正装置に予め記録される。例えば、LightSkinに関しては、標準照明(D65)下でLightSkinの色として知覚される画素値が記録される。具体的には、表示装置100の表示特性(サブピクセル値とサブピクセルの発光スペクトルとの対応関係)に基づいて、規格色度座標x=0.377、y=0.345、及び、Y=35.8[cd/m]の色を示す画素値が決定(算出)される。本実施例では、赤色サブピクセルの値(R値)として128が、緑色サブピクセルの値(G値)として64が、青色サブピクセルの値(B値)として46が得られたとする。キャリブレーションにおいては、この画素値(R値、G値、及び、B値)がデフォルト値(補正前の基準の画素値)として用いられる。 In the present embodiment, in order to perform calibration more smoothly, a plurality of pixel values to be calibrated are calibrated in association with the predetermined conditions (J, C, and h). Pre-recorded on the device. For example, for LightSkin, a pixel value that is perceived as a LightSkin color under standard illumination (D65) is recorded. Specifically, based on the display characteristics of the display device 100 (correspondence between subpixel values and emission spectra of subpixels), standard chromaticity coordinates x = 0.377, y = 0.345, and Y = A pixel value indicating a color of 35.8 [cd / m 2 ] is determined (calculated). In this embodiment, it is assumed that 128 is obtained as the red subpixel value (R value), 64 is obtained as the green subpixel value (G value), and 46 is obtained as the blue subpixel value (B value). In the calibration, the pixel values (R value, G value, and B value) are used as default values (reference pixel values before correction).

以下に、キャリブレーション時の動作の具体例を記載する。
以下では、LightSkinについてのキャリブレーションを行う場合の例を説明する。
また、以下では、室内の照明光源300のスペクトルが、上述のD65ではなく、CIEのF10標準光源のスペクトルであった場合の例を説明する。図8に、CIEのF10標準光源のスペクトルを示す。
上述したように、本実施例では、壁面200の色は白色であり、壁面200は可視光領域において完全にフラット(一定)な分光反射率を有するものとする。また、壁面200の分光反射率が100%であり、照明光源300からの光は壁面200で完全拡散反射するものとする。
以下では、表示装置100の背景となる壁面200に対する照明光源300の照度が314[lux]であった場合の例を説明する。壁面200に対する照明光源300の照度が314[lux]であった場合、壁面200からの反射光の輝度が100[cd/m]となる。
A specific example of the operation at the time of calibration will be described below.
Below, the example in the case of calibrating about LightSkin is demonstrated.
Hereinafter, an example in which the spectrum of the indoor illumination light source 300 is not the above-described D65 but the spectrum of the CIE F10 standard light source will be described. FIG. 8 shows the spectrum of the CIE F10 standard light source.
As described above, in this embodiment, the color of the wall surface 200 is white, and the wall surface 200 has a completely flat (constant) spectral reflectance in the visible light region. Further, it is assumed that the spectral reflectance of the wall surface 200 is 100%, and the light from the illumination light source 300 is completely diffusely reflected by the wall surface 200.
Below, the example in case the illumination intensity of the illumination light source 300 with respect to the wall surface 200 used as the background of the display apparatus 100 is 314 [lux] is demonstrated. When the illuminance of the illumination light source 300 with respect to the wall surface 200 is 314 [lux], the brightness of the reflected light from the wall surface 200 is 100 [cd / m 2 ].

このような視環境の下では、エリア判断部5において、視環境情報として、x=0.3461、y=0.3588、及び、輝度=100[cd/m]が取得される。 Under such a visual environment, the area determination unit 5 acquires x = 0.3461, y = 0.3588, and luminance = 100 [cd / m 2 ] as visual environment information.

目標色決定部6では、CIECAM02に則った逆算により、LightSkinとして知覚される表示色が目標色として決定される。具体的には、x=0.3461、y=0.3588、及び、輝度=100[cd/m]の色を基準の白色とした場合にJ=58.1643、C=21.1202、及び、h=34.171を満たす色の色度座標がLightSkinに関する目標色として決定(算出)される。
ここで使用される基準の白色は、D65標準光源の光源色とは異なる。そのため、J=58.1643、C=21.1202、及び、h=34.171を満たす色度座標(目標色)として、LightSkinの規格色度座標とは異なる色度座標が得られる。具体的には、LightSkinに関する目標色として、x=0.4065、y=0.3650、及び、Y=36.11[cd/m]が得られる。
In the target color determination unit 6, the display color perceived as LightSkin is determined as the target color by back calculation according to CIECAM02. Specifically, when x = 0.3461, y = 0.3588, and luminance = 100 [cd / m 2 ] as a reference white, J = 58.1643, C = 21.1202, And the chromaticity coordinate of the color which satisfy | fills h = 34.171 is determined (calculated) as the target color regarding LightSkin.
The reference white color used here is different from the light source color of the D65 standard light source. Therefore, a chromaticity coordinate different from the standard chromaticity coordinate of LightSkin is obtained as a chromaticity coordinate (target color) that satisfies J = 58.1643, C = 21.1202, and h = 34.171. Specifically, x = 0.4065, y = 0.3650, and Y = 36.11 [cd / m 2 ] are obtained as the target colors for LightSkin.

本実施例では、校正装置に入力された表示用画像データの画素値から、その画素値に対応する所定の条件が判断され、使用される。例えば、表示用画像データの画素値がR値=128、G値=64、及び、B値=46の画素値である場合には、その画素値がLightSkinの画素値であると判断される。そして、LightSkinに対応する所定の条件であるJ=58.1643、C=21.1202、及び、h=34.171が選択されて、使用される。   In this embodiment, a predetermined condition corresponding to the pixel value is determined from the pixel value of the display image data input to the calibration apparatus and used. For example, when the pixel values of the display image data are R values = 128, G values = 64, and B values = 46, it is determined that the pixel values are LightSkin pixel values. Then, J = 58.1643, C = 21.1202, and h = 34.171 which are predetermined conditions corresponding to LightSkin are selected and used.

上述したように、本実施例では、キャリブレーション時に、校正装置に入力された表示用画像データが補正されずに表示される。即ち、LightSkinのテスト用カラーパッチ(画素値がR値=128、G値=64、及び、B値=46の画素値であるテスト用カラーパッチ)が補正されずに表示される。
エリア判断部5では、さらに、LightSkinのテスト用カラーパッチの表示色である表示色情報が取得される。上述した視環境の下では、LightSkinのテスト用カラーパッチの表示色である表示色情報として、x=0.377、y=0.345、及び、Y=35.8[cd/m]が取得される。
As described above, in this embodiment, the display image data input to the calibration apparatus is displayed without correction during calibration. In other words, the LightSkin test color patch (the test color patch having pixel values of R value = 128, G value = 64, and B value = 46) is displayed without correction.
The area determination unit 5 further obtains display color information that is the display color of the LightSkin test color patch. Under the visual environment described above, x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] are displayed as display color information that is the display color of the test color patch of LightSkin. To be acquired.

比較部7では、表示色情報と目標色とが比較される。ここでは、表示色情報であるx=0.377、y=0.345、及び、Y=35.8[cd/m]が目標色であるx=0.4065、y=0.3650、及び、Y=36.11[cd/m]とは異なる。そのため、補正値決定部8によって補正値が決定される。 The comparison unit 7 compares the display color information with the target color. Here, the display color information x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] are the target colors x = 0.4065, y = 0.350, And Y = 36.11 [cd / m 2 ] is different. Therefore, the correction value is determined by the correction value determination unit 8.

補正値決定部8では、目標色であるx=0.4065、y=0.3650、及び、Y=36.11[cd/m]から、目標色を示す画素値が決定(算出)される。また、表示色情報(第1の色)であるx=0.377、y=0.345、及び、Y=35.8[cd/m]から、第1の色を示す画素値が決定される。そして、得られた2つの画素値の差が補正値として決定される。ここでは、R値の補正値であるΔRとして+15が、G値の補正値であるΔGとして−1が、B値の補正値であるΔBとして−10が得られたとする。 The correction value determination unit 8 determines (calculates) a pixel value indicating the target color from the target colors x = 0.4065, y = 0.3650, and Y = 36.11 [cd / m 2 ]. The Further, a pixel value indicating the first color is determined from x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] which are display color information (first color). Is done. Then, the difference between the two obtained pixel values is determined as a correction value. Here, it is assumed that +15 is obtained as ΔR which is a correction value of R value, −1 is obtained as ΔG which is a correction value of G value, and −10 is obtained as ΔB which is a correction value of B value.

なお、補正値は、上記2つの画素値と補正値との対応関係を示す関数を用いて算出されてもよいし、そのような対応関係を示すテーブルを用いて決定されてもよい。また、目標色と表示色情報のx、y、及び、Yと、補正値と、の対応関係を示す情報(テーブルや関数)を用いて補正値が決定されてもよい。即ち、目標色と表示色情報のx、y、及び、Yを入力して補正値を出力する関数やテーブルを用いて補正値が決定されてもよい。また、本実施例では画素値に加算する補正値を決定する例を説明したが、画素値に乗算する補正
値(補正係数)が決定されてもよい。
The correction value may be calculated using a function indicating the correspondence relationship between the two pixel values and the correction value, or may be determined using a table indicating such a correspondence relationship. Further, the correction value may be determined using information (table or function) indicating a correspondence relationship between the target color and the display color information x, y, and Y and the correction value. That is, the correction value may be determined using a function or a table that inputs x, y, and Y of the target color and display color information and outputs the correction value. In this embodiment, the example in which the correction value to be added to the pixel value is determined has been described. However, a correction value (correction coefficient) to be multiplied by the pixel value may be determined.

得られた補正値はデータ補正部2に送られ、デフォルトの表示用画像データ(校正装置に入力された表示用画像データ)が補正される。そして、表示色情報が目標色と一致するまで、デジタルカメラ400による撮影から比較部7による比較までの一連の処理が繰り返される。表示色情報が目標色と一致すると、LightSkinに関するキャリブレーションが完了する。このとき、補正値が得られている場合には、補正値決定部8は、最後に得られた補正値を、LightSkinの画素値(デフォルトの画素値)に対応する補正値として、補正値保存部9に保存する。   The obtained correction value is sent to the data correction unit 2, and default display image data (display image data input to the calibration apparatus) is corrected. Then, a series of processes from photographing by the digital camera 400 to comparison by the comparison unit 7 are repeated until the display color information matches the target color. When the display color information matches the target color, the calibration for LightSkin is completed. At this time, when the correction value is obtained, the correction value determination unit 8 saves the correction value as the correction value corresponding to the pixel value of LightSkin (default pixel value) as the last obtained correction value. Store in part 9.

上記補正値を使用することにより、視環境の変化による表示用画像の知覚色の変化を低減することができる。具体的には、所定の条件を決定する際に考慮した視環境の下での知覚色からの変動を低減することができる。   By using the correction value, it is possible to reduce changes in the perceived color of the display image due to changes in the viewing environment. Specifically, it is possible to reduce the variation from the perceived color under the visual environment considered when determining the predetermined condition.

ユーザは、表示用画像の色として、表示装置の周囲の色に順応した色を知覚すると考えられる。特に、表示用画像表示装置の周囲に同じ色の大きな領域が存在する場合には、そのような色が知覚される可能性が高い。
本実施例によれば、表示装置の周囲の色(撮影色)に基づいて目標色が決定され、表示色が目標色と一致するようにキャリブレーションが行われる。このように、本実施例では、表示装置の周囲の色を考慮したキャリブレーションが行われるため、キャリブレーションを高精度に行うことができる。具体的には、表示装置の周囲の色を考慮したキャリブレーションを行うことにより、表示装置を照明する照明光源の変更による知覚色の変化はもちろんのこと、表示装置の周囲に存在する物体の変更による知覚色の変化をも低減することができる。例えば、表示装置の背面側の壁面に貼られている壁紙が、張り替え前の壁紙と異なる色の壁紙に張り替えられたことによる知覚色の変化をも低減することができる。
また、本実施例では、撮影画像から色を取得するという簡単な処理で基準の白色とする色を取得することができ、キャリブレーションの度に白色紙を用意する等の手間を省くことができる。その結果、本実施例では、キャリブレーションを簡便に行うことができる。
It is considered that the user perceives a color adapted to the surrounding color of the display device as the color of the display image. In particular, when there is a large region of the same color around the display image display device, such a color is highly likely to be perceived.
According to this embodiment, the target color is determined based on the surrounding color (photographing color) of the display device, and calibration is performed so that the display color matches the target color. As described above, in this embodiment, calibration is performed in consideration of the surrounding color of the display device, so that calibration can be performed with high accuracy. Specifically, by performing calibration in consideration of the surrounding color of the display device, not only the change in the perceived color due to the change of the illumination light source that illuminates the display device, but also the change of the object existing around the display device The change in the perceived color due to can also be reduced. For example, it is possible to reduce a change in perceived color due to the wallpaper pasted on the wall surface on the back side of the display device being replaced with a wallpaper having a color different from that before the replacement.
Further, in this embodiment, it is possible to acquire a reference white color by a simple process of acquiring a color from a photographed image, and it is possible to save the trouble of preparing a white paper for each calibration. . As a result, in the present embodiment, calibration can be easily performed.

<実施例2>
以下に、本発明の実施例2に係る校正装置と校正方法について説明する。
なお、各機能部の動作は実施例1と同じであるため、以下では、処理の具体例についてのみ説明する。
<Example 2>
The calibration apparatus and calibration method according to Example 2 of the present invention will be described below.
Since the operation of each functional unit is the same as that in the first embodiment, only a specific example of processing will be described below.

本実施例では、室内の照明光源としてD65が使用されているが、壁面200の反射特性が実施例1の反射特性と異なる特性を有するものとする。壁面200の反射特性は特に限定されないが、本実施例では壁面200が黄色味がかった色(色調)を有する例を説明する。本実施例では、このような壁面200の色を“LightYellow”と呼ぶこととする。本実施例に係る壁面200の分光反射率特性を図9に示す。
壁面200が図9に示す分光反射率特性を有する場合、壁面200に対する照明光源300の照度を319[lux](実施例1よりも少し高い値)とすると、壁面200からの反射光の輝度が100[cd/m]となる。
In the present embodiment, D65 is used as an indoor illumination light source, but the reflection characteristics of the wall surface 200 are different from those of the first embodiment. The reflection characteristics of the wall surface 200 are not particularly limited, but in this embodiment, an example in which the wall surface 200 has a yellowish color (color tone) will be described. In this embodiment, the color of the wall surface 200 is referred to as “Light Yellow”. FIG. 9 shows the spectral reflectance characteristics of the wall surface 200 according to this example.
When the wall surface 200 has the spectral reflectance characteristics shown in FIG. 9, if the illuminance of the illumination light source 300 with respect to the wall surface 200 is set to 319 [lux] (a value slightly higher than that of the first embodiment), the brightness of the reflected light from the wall surface 200 is 100 [cd / m 2 ].

上述した視環境の下では、エリア判断部5において、視環境情報として、x=0.3204、y=0.3398、及び、輝度=100[cd/m]が取得される。 Under the visual environment described above, the area determination unit 5 acquires x = 0.3204, y = 0.3398, and luminance = 100 [cd / m 2 ] as the visual environment information.

目標色決定部6では、x=0.3204、y=0.3398、及び、輝度=100[cd/m]の色を基準の白色とした場合にJ=58.1643、C=21.1202、及び、h=34.171を満たす色の色度座標がLightSkinに関する目標色として得られる。
照明光源がD65であっても、壁面200の色が白色ではない。そのため、ここでは、D65標準光源の光源色とは異なる色が基準の白色として使用される。その結果、J=58.1643、C=21.1202、及び、h=34.171を満たす色度座標(目標色)として、LightSkinの規格色度座標とは異なる色度座標が得られる。具体的には、LightSkinに関する目標色として、x=0.3840、y=0.3525、及び、Y=35.87[cd/m]が得られる。
In the target color determination unit 6, when x = 0.3204, y = 0.3398, and luminance = 100 [cd / m 2 ] as a reference white, J = 58.1643, C = 21.1. A chromaticity coordinate of a color satisfying 1202 and h = 34.171 is obtained as a target color for LightSkin.
Even if the illumination light source is D65, the color of the wall surface 200 is not white. Therefore, here, a color different from the light source color of the D65 standard light source is used as the reference white. As a result, chromaticity coordinates different from the standard chromaticity coordinates of LightSkin are obtained as chromaticity coordinates (target colors) that satisfy J = 58.1643, C = 21.1202, and h = 34.171. Specifically, x = 0.3840, y = 0.3525, and Y = 35.87 [cd / m 2 ] are obtained as target colors for LightSkin.

実施例1と同様に、エリア判断部5では、LightSkinのテスト用カラーパッチの表示色である表示色情報がさらに取得される。上述した視環境の下では、LightSkinのテスト用カラーパッチの表示色である表示色情報として、x=0.377、y=0.345、及び、Y=35.8[cd/m]が取得される。 As in the first embodiment, the area determination unit 5 further acquires display color information that is the display color of the LightSkin test color patch. Under the visual environment described above, x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] are displayed as display color information that is the display color of the test color patch of LightSkin. To be acquired.

比較部7では、表示色情報と目標色とが比較される。ここでは、表示色情報であるx=0.377、y=0.345、及び、Y=35.8[cd/m]が目標色であるx=0.3840、y=0.3525、及び、Y=35.87[cd/m]とは異なる。そのため、補正値決定部8によって補正値が決定される。 The comparison unit 7 compares the display color information with the target color. Here, the display color information x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] are the target colors x = 0.3840, y = 0.3525, And it is different from Y = 35.87 [cd / m 2 ]. Therefore, the correction value is determined by the correction value determination unit 8.

補正値決定部8では、目標色であるx=0.3840、y=0.3525、及び、Y=35.87[cd/m]から、目標色を示す画素値が決定される。また、表示色情報(第1の色)であるx=0.377、y=0.345、及び、Y=35.8[cd/m]から、第1の色を示す画素値が決定される。そして、得られた2つの画素値の差が補正値として決定される。ここでは、R値の補正値であるΔRとして+2が、G値の補正値であるΔGとして−1が、B値の補正値であるΔBとして−4が得られたとする。 The correction value determination unit 8 determines the pixel value indicating the target color from the target colors x = 0.3840, y = 0.3525, and Y = 35.87 [cd / m 2 ]. Further, a pixel value indicating the first color is determined from x = 0.377, y = 0.345, and Y = 35.8 [cd / m 2 ] which are display color information (first color). Is done. Then, the difference between the two obtained pixel values is determined as a correction value. Here, it is assumed that +2 is obtained as ΔR which is a correction value of R value, −1 is obtained as ΔG which is a correction value of G value, and −4 is obtained as ΔB which is a correction value of B value.

得られた補正値はデータ補正部2に送られ、デフォルトの表示用画像データ(校正装置に入力された表示用画像データ)が補正される。そして、表示色情報が目標色と一致するまで、デジタルカメラ400による撮影から比較部7による比較までの一連の処理が繰り返される。表示色情報が目標色と一致すると、LightSkinに関するキャリブレーションが完了する。このとき、補正値が得られている場合には、補正値決定部8は、最後に得られた補正値を、LightSkinの画素値(デフォルトの画素値)に対応する補正値として、補正値保存部9に保存する。   The obtained correction value is sent to the data correction unit 2, and default display image data (display image data input to the calibration apparatus) is corrected. Then, a series of processes from photographing by the digital camera 400 to comparison by the comparison unit 7 are repeated until the display color information matches the target color. When the display color information matches the target color, the calibration for LightSkin is completed. At this time, when the correction value is obtained, the correction value determination unit 8 saves the correction value as the correction value corresponding to the pixel value of LightSkin (default pixel value) as the last obtained correction value. Store in part 9.

上記補正値を使用することにより、視環境の変化による表示用画像の知覚色の変化を低減することができる。具体的には、所定の条件を決定する際に考慮した視環境の下での知覚色からの変動を低減することができる。   By using the correction value, it is possible to reduce changes in the perceived color of the display image due to changes in the viewing environment. Specifically, it is possible to reduce the variation from the perceived color under the visual environment considered when determining the predetermined condition.

以上述べたように、本実施例によれば、表示装置を照明する照明光源の変更による知覚色の変化だけでなく、表示装置の周囲に存在する物体の変更による知覚色の変化をも低減することができることがわかる。   As described above, according to the present embodiment, not only the change in the perceived color due to the change in the illumination light source that illuminates the display device, but also the change in the perceived color due to the change in the object existing around the display device is reduced. You can see that

なお、実施例1,2では、表示装置の周囲の領域の平均色を視環境情報(第2の色)として取得する例を説明したが、視環境情報はこれに限らない。例えば、視環境情報は、表示装置の周囲の領域に最も多く含まれる撮影色であってもよいし、表示装置の周囲の領域の中間色(表示装置の周囲の領域に含まれる撮影色の中間値)であってもよい。   In the first and second embodiments, the example in which the average color of the area around the display device is acquired as the visual environment information (second color) is described. However, the visual environment information is not limited to this. For example, the visual environment information may be a shooting color that is most often included in the surrounding area of the display device, or an intermediate color of the surrounding area of the display device (an intermediate value of the shooting color included in the surrounding area of the display device) ).

なお、実施例1,2では、第1の所定パターンによって示された領域を画面の領域として検出し、枠部材の領域よりも外側の領域を表示装置の周囲の領域として検出する例を説明したが、領域の検出方法はこれに限らない。例えば、枠部材に囲まれた領域が画面の領域として検出されてもよい。また、画面の領域よりの外側の領域が表示装置の周囲の領域として検出されてもよい。   In the first and second embodiments, the example in which the area indicated by the first predetermined pattern is detected as the screen area and the area outside the frame member area is detected as the area around the display device has been described. However, the region detection method is not limited to this. For example, an area surrounded by the frame member may be detected as a screen area. An area outside the screen area may be detected as an area around the display device.

なお、実施例1,2では、画像認識処理によって画面の領域と表示装置の周囲の領域とを検出する例を説明したが、画像認識処理は行われなくてもよい。例えば、撮影画像を画面に表示させ、撮影画像に写っている画面の領域と表示装置の周囲の領域とをユーザに指定させてもよい。また、表示装置とデジタルカメラの相対的な位置関係が一定の場合には、画面の領域と表示装置の周囲の領域とを予め定めることができる。   In the first and second embodiments, the example in which the screen area and the surrounding area of the display device are detected by the image recognition process has been described. However, the image recognition process may not be performed. For example, the photographed image may be displayed on the screen, and the user may specify the screen area shown in the photographed image and the area around the display device. When the relative positional relationship between the display device and the digital camera is constant, the screen area and the area around the display device can be determined in advance.

なお、実施例1,2では、画面の領域や表示装置の周囲の領域の検出結果に基づいて表示色情報と視環境情報を取得する例を説明したが、表示色情報と視環境情報の取得方法はこれに限らない。例えば、撮影画像を画面に表示させ、表示色情報を取得する位置(撮影画像内の位置)と、視環境情報を取得する位置と、をユーザに指定させてもよい。また、表示装置とデジタルカメラの相対的な位置関係が一定の場合には、表示色情報を取得する位置と、視環境情報を取得する位置と、を予め定めることができる。   In the first and second embodiments, the example in which the display color information and the visual environment information are acquired based on the detection results of the screen area and the surrounding area of the display device has been described. However, the display color information and the visual environment information are acquired. The method is not limited to this. For example, the captured image may be displayed on the screen, and the user may specify the position for acquiring the display color information (the position in the captured image) and the position for acquiring the visual environment information. Further, when the relative positional relationship between the display device and the digital camera is constant, a position for acquiring display color information and a position for acquiring visual environment information can be determined in advance.

なお、実施例2では、照明光源としてD65を使用した場合の例を説明しが、照明光源としてD65以外の光源が使用されても、上述した処理と同様の処理により、上述した効果が得られる。即ち、室内の照明光源としてD65以外の光源が使用され、且つ、壁面200の色が白色でない場合であっても、上述した効果が得られる。   In addition, although Example 2 demonstrates the example at the time of using D65 as an illumination light source, even if light sources other than D65 are used as an illumination light source, the effect mentioned above is acquired by the process similar to the process mentioned above. . That is, even when a light source other than D65 is used as the indoor illumination light source and the color of the wall surface 200 is not white, the above-described effects can be obtained.

<実施例3>
以下、本発明の実施例3に係る校正装置と校正方法について説明する。
なお、以下では、実施例1,2と異なる点について詳しく説明し、実施例1,2と同様の処理については説明を省略する。
本実施例に係る校正装置は、実施例1,2(図5)と同様の構成を有する。
<Example 3>
Hereinafter, a calibration apparatus and a calibration method according to the third embodiment of the present invention will be described.
Hereinafter, differences from the first and second embodiments will be described in detail, and the description of the same processes as those of the first and second embodiments will be omitted.
The calibration apparatus according to the present embodiment has the same configuration as that of Embodiments 1 and 2 (FIG. 5).

実施例1,2では、表示装置の周辺の領域の平均色を視環境情報として用いた。しかし、そのような方法では、表示装置の周辺の領域に総面積が大きい色が存在せず、総面積が小さい複数の色が存在する場合に、知覚色に大きく影響する色とは異なる色が視環境情報として取得されてしまうことがある。例えば、表示装置が壁面に近接して置かれていない場合に、知覚色に大きく影響する色とは異なる色が視環境情報として取得されてしまうことがある。また、壁面が理想的な白色から遠く離れた色を有する場合にも、知覚色に大きく影響する色とは異なる色が視環境情報として取得されてしまうことがある。その結果、高精度なキャリブレーションが実現できないことがある。そして、そのような場合には、所定色の物体の色(撮影色)を視環境情報として取得し、所定の物体の色を基準の白色として用いた方がより高精度なキャリブレーションが期待される。   In Examples 1 and 2, the average color of the area around the display device is used as the visual environment information. However, in such a method, when a color having a large total area does not exist in a peripheral area of the display device and there are a plurality of colors having a small total area, a color different from a color that greatly affects the perceived color is obtained. It may be acquired as visual environment information. For example, when the display device is not placed close to the wall surface, a color different from the color that greatly affects the perceived color may be acquired as the visual environment information. Even when the wall surface has a color far from the ideal white color, a color different from the color that greatly affects the perceived color may be acquired as the visual environment information. As a result, highly accurate calibration may not be realized. In such a case, more accurate calibration is expected by acquiring the color (photographing color) of an object of a predetermined color as visual environment information and using the color of the predetermined object as a reference white color. The

そこで、本実施例では、表示装置の周囲に第2の所定色を有する基準物体を置いた状態で撮影された撮影画像から、基準物体の色を視環境情報(第2の色)として取得する。即ち、照明光源から発せられ、基準物体で照射した光の色が視環境情報として取得される。そして、視環境情報である第2の色が基準の白色として使用される。それにより、実施例1,2の方法で高精度なキャリブレーションが行えない場合に、実施例1,2よりも高精度なキャリブレーションを行うことができる。   Therefore, in this embodiment, the color of the reference object is acquired as visual environment information (second color) from a photographed image taken with the reference object having the second predetermined color around the display device. . That is, the color of the light emitted from the illumination light source and emitted from the reference object is acquired as the viewing environment information. And the 2nd color which is visual environment information is used as standard white. Thereby, when highly accurate calibration cannot be performed by the methods of the first and second embodiments, it is possible to perform calibration with higher accuracy than those of the first and second embodiments.

図10は、本実施例に係る表示装置100の表示色のキャリブレーションを行うときの様子の一例を示す図である。
図10に示すように、本実施例では、実施例1,2と同様に、キャリブレーションを行う際に、画面101にテスト用カラーパッチ101−aが表示される。また、表示装置100の近傍に基準物体500が配置される。
そして、画面101にテスト用カラーパッチ101−aが表示され、且つ、表示装置100の近傍に基準物体500が配置された状態で、デジタルカメラ400により画面10
1が撮影される。デジタルカメラ400では、画面101と基準物体500を含む領域が撮影される。図11は、デジタルカメラ400で撮影された撮影画像の一例を示す図である。図11の例では、撮影画像401の中央に表示装置100が写っており、画面101にテスト用カラーパッチ101−aが表示されている。また、撮影画像401には、基準物体500も写っている。
その後、撮影された画像(撮影画像)を処理することにより所望の測定データが取得され、取得された測定データに基づいてキャリブレーションが行われる。
なお、本実施例では、基準物体の色が白色であるものとするが、基準物体の色は白色でなくてもよい。但し、基準物体の色は白色に近い色(特に白色)であることが好ましい。
FIG. 10 is a diagram illustrating an example of a state when the display color of the display device 100 according to the present embodiment is calibrated.
As shown in FIG. 10, in this embodiment, as in the first and second embodiments, the test color patch 101-a is displayed on the screen 101 when performing calibration. Further, the reference object 500 is disposed in the vicinity of the display device 100.
Then, with the test color patch 101-a displayed on the screen 101 and the reference object 500 being disposed in the vicinity of the display device 100, the screen 10 is displayed by the digital camera 400.
1 is photographed. In the digital camera 400, an area including the screen 101 and the reference object 500 is photographed. FIG. 11 is a diagram illustrating an example of a captured image captured by the digital camera 400. In the example of FIG. 11, the display device 100 is shown in the center of the captured image 401, and the test color patch 101-a is displayed on the screen 101. The captured image 401 also includes the reference object 500.
Thereafter, desired measurement data is acquired by processing the captured image (captured image), and calibration is performed based on the acquired measurement data.
In this embodiment, it is assumed that the color of the reference object is white, but the color of the reference object may not be white. However, the color of the reference object is preferably a color close to white (particularly white).

本実施例では、視環境情報の取得方法(第2検出処理)が実施例1,2とは異なる。本実施例では、基準物体500の色(撮影色)が視環境情報として取得される。具体的には、基準物体500に、基準物体500の領域を示す第2の所定パターンが描画されており、第2検出処理において、第2の所定パターンによって示された領域が基準物体500の領域として検出される。図12の例では、画面101の領域の四隅にパターン501−bが描画されおり、四隅のパターン501−bを結ぶ線によって囲まれた領域401−3が、基準物体500の領域として検出される。その後、検出された基準物体500の領域の平均色(撮影色の平均値)が視環境情報として取得される。
なお、第2の所定パターンは4つのパターン501−bに限らない。例えば、第2の所定パターンは、基準物体500の領域を示していれば、その形状やサイズは特に限定されない。
In this embodiment, the visual environment information acquisition method (second detection process) is different from those in the first and second embodiments. In this embodiment, the color (photographing color) of the reference object 500 is acquired as visual environment information. Specifically, the second predetermined pattern indicating the area of the reference object 500 is drawn on the reference object 500, and the area indicated by the second predetermined pattern is the area of the reference object 500 in the second detection process. Detected as In the example of FIG. 12, patterns 501-b are drawn at the four corners of the area of the screen 101, and an area 401-3 surrounded by a line connecting the patterns 501-b at the four corners is detected as the area of the reference object 500. . Thereafter, the average color (average value of the photographing color) of the detected region of the reference object 500 is acquired as the visual environment information.
Note that the second predetermined pattern is not limited to the four patterns 501-b. For example, as long as the second predetermined pattern indicates the region of the reference object 500, the shape and size thereof are not particularly limited.

視環境情報を取得する処理以外の処理は実施例1,2と同じであるため、その説明は省略する。   Since the processes other than the process of acquiring the visual environment information are the same as those in the first and second embodiments, the description thereof is omitted.

以上述べたように、本実施例によれば、基準物体の撮影色が視環境情報として取得され、基準物体の撮影色を基準の白色として用いてキャリブレーションが行われる。それにより、実施例1,2の方法で高精度なキャリブレーションが行えない場合に、実施例1,2よりも高精度なキャリブレーションを行うことができる。   As described above, according to the present embodiment, the shooting color of the reference object is acquired as the viewing environment information, and calibration is performed using the shooting color of the reference object as the reference white color. Thereby, when highly accurate calibration cannot be performed by the methods of the first and second embodiments, it is possible to perform calibration with higher accuracy than those of the first and second embodiments.

なお、実施例1〜3では、カラーモデルとしてCIECAM02を用いる例を説明したが、カラーモデルはCIECAM02に限らない。視環境に順応する人間の視覚特性を盛り込んだカラーモデルであれば、どのようなカラーモデルに則った処理が行われてもよい。   In the first to third embodiments, the example in which CIECAM02 is used as the color model has been described. However, the color model is not limited to CIECAM02. As long as the color model incorporates human visual characteristics that adapt to the visual environment, processing according to any color model may be performed.

なお、実施例1〜3では、視環境情報である第2の色を基準の白色として用いる例を説明したが、視環境情報の使用方法はこれに限らない。視環境情報に基づいて目標色を決定することができれば、視環境情報はどのように使用されてもよい。即ち、視環境情報を用いた目標色の決定方法は特に限定されるものではない。撮影画像から視環境情報と表示色情報が取得され、視環境情報に基づいて目標色が決定され、表示色情報である第1の色が目標色と一致するようにキャリブレーションが行われれば、その具体的な処理方法は特に限定されない。   In the first to third embodiments, the example in which the second color that is the visual environment information is used as the reference white color is described. However, the method of using the visual environment information is not limited to this. The visual environment information may be used in any way as long as the target color can be determined based on the visual environment information. That is, the target color determination method using the visual environment information is not particularly limited. If visual environment information and display color information are acquired from the captured image, a target color is determined based on the visual environment information, and calibration is performed so that the first color that is the display color information matches the target color, The specific processing method is not particularly limited.

なお、実施例1〜3では、色順応を考慮した相対的な色の属性としてJ、C、及び、hを用いたが、属性はこれに限らない。また、所定の条件は色の見えを表す条件であればどのような条件であってもよい。   In the first to third embodiments, J, C, and h are used as relative color attributes in consideration of chromatic adaptation, but the attributes are not limited thereto. Further, the predetermined condition may be any condition as long as it represents a color appearance.

なお、実施例1〜3では、基準画像(テスト用カラーパッチ)を表示し、基準画像の色を表示色情報として取得したが、表示色情報の取得方法はこれに限らない。例えば、基準画像を表示せずに任意の画像が表示されてもよい。そして、任意の画像の色が表示色情報
として取得されてもよい。その場合には、任意の画像の画素値(デフォルトの画素値)に応じて複数の所定の条件のうちの1つ(任意の画像の画素値に対応する条件)が選択され、選択された条件が使用されればよい。
In the first to third embodiments, the reference image (test color patch) is displayed and the color of the reference image is acquired as display color information. However, the method of acquiring display color information is not limited to this. For example, an arbitrary image may be displayed without displaying the reference image. Then, any color of the image may be acquired as display color information. In that case, one of a plurality of predetermined conditions (condition corresponding to the pixel value of the arbitrary image) is selected according to the pixel value (default pixel value) of the arbitrary image, and the selected condition May be used.

なお、実施例1〜3では、表示色情報と視環境情報を同様の処理によって取得する例を説明したが、表示色情報の取得方法と視環境情報の取得方法とは互いに異なっていてもよい。例えば、画像認識処理による領域の検出結果に基づいて表示色情報と視環境情報の一方が取得され、ユーザ操作に応じて表示色情報と視環境情報の他方が取得されてもよい。   In the first to third embodiments, the display color information and the visual environment information are acquired by the same process. However, the display color information acquisition method and the visual environment information acquisition method may be different from each other. . For example, one of the display color information and the visual environment information may be acquired based on the detection result of the region by the image recognition process, and the other of the display color information and the visual environment information may be acquired according to a user operation.

なお、実施例3では、基準物体の領域の平均色を視環境情報(第2の色)として取得する例を説明したが、視環境情報はこれに限らない。例えば、視環境情報は、基準物体の領域に最も多く含まれる撮影色であってもよいし、基準物体の領域の中間色(基準物体の領域に含まれる撮影色の中間値)であってもよい。   In the third embodiment, the example in which the average color of the reference object region is acquired as the viewing environment information (second color) has been described. However, the viewing environment information is not limited to this. For example, the visual environment information may be the shooting color most contained in the reference object region, or may be an intermediate color of the reference object region (an intermediate value of the shooting color included in the reference object region). .

なお、実施例3では、第2の所定パターンによって示された領域を基準物体の領域として検出する例を説明したが、基準物体の領域の検出方法はこれに限らない。例えば、基準物体の形状を校正装置に予め記録しておき、基準物体の形状と一致する形状を有する物体の領域が基準物体の領域として検出されてもよい。   In the third embodiment, the example in which the region indicated by the second predetermined pattern is detected as the reference object region has been described. However, the method of detecting the reference object region is not limited to this. For example, the shape of the reference object may be recorded in advance in the calibration apparatus, and an object region having a shape that matches the shape of the reference object may be detected as the reference object region.

なお、実施例3では、画像認識処理によって基準物体の領域を検出する例を説明したが、画像認識処理は行われなくてもよい。例えば、撮影画像を画面に表示させ、撮影画像に写っている基準物体の領域をユーザに指定させてもよい。また、基準物体とデジタルカメラの相対的な位置関係が一定の場合には、基準物体の領域を予め定めることができる。   In the third embodiment, the example in which the area of the reference object is detected by the image recognition process has been described. However, the image recognition process may not be performed. For example, the photographed image may be displayed on the screen, and the user may specify the reference object region shown in the photographed image. When the relative positional relationship between the reference object and the digital camera is constant, the reference object region can be determined in advance.

なお、実施例3では、基準物体の領域の検出結果に基づいて視環境情報を取得する例を説明したが、視環境情報の取得方法はこれに限らない。例えば、撮影画像を画面に表示させ、基準物体の位置を視環境情報を取得する位置としてユーザに指定させてもよい。また、基準物体とデジタルカメラの相対的な位置関係が一定の場合には、視環境情報を取得する位置を予め定めることができる。   In the third embodiment, the example in which the visual environment information is acquired based on the detection result of the reference object region has been described. However, the method of acquiring the visual environment information is not limited to this. For example, a captured image may be displayed on the screen, and the position of the reference object may be designated by the user as a position for acquiring visual environment information. In addition, when the relative positional relationship between the reference object and the digital camera is constant, the position where the visual environment information is acquired can be determined in advance.

<その他の実施例>
記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータ(又はCPU、MPU等のデバイス)によっても、本発明を実施することができる。また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
<Other examples>
The present invention can also be implemented by a system (or a device such as a CPU or MPU) of a system or apparatus that implements the functions of the above-described embodiments by reading and executing a program recorded in a storage device. The present invention can also be implemented by a method comprising steps executed by a computer of a system or apparatus that implements the functions of the above-described embodiments by reading and executing a program recorded in a storage device, for example. . For this purpose, the program is stored in the computer from, for example, various types of recording media that can serve as the storage device (ie, computer-readable recording media that holds data non-temporarily). Provided to. Therefore, the computer (including devices such as CPU and MPU), the method, the program (including program code and program product), and the computer-readable recording medium that holds the program non-temporarily are all present. It is included in the category of the invention.

2 データ補正部
5 エリア判断部
6 目標色決定部
7 比較部
8 補正値決定部
9 補正値保存部
2 data correction unit 5 area determination unit 6 target color determination unit 7 comparison unit 8 correction value determination unit 9 correction value storage unit

Claims (14)

表示領域に表示される表示用画像を補正する補正方法であって、
前記表示用画像が前記表示領域に表示されている状態で、前記表示領域と前記表示領域の周囲とを含む領域が撮影された撮影画像を取得する画像取得ステップと、
前記撮影画像から、前記表示領域の内側の色である第1の色と、前記表示領域の周囲の色である第2の色と、を取得する色取得ステップと、
前記第2の色に基づいて前記第1の色の目標色を決定する決定ステップと、
前記第1の色を示す画素値と前記目標色を示す画素値との差の分だけ前記表示用画像の各画素値を補正する補正ステップと、
を有し、
前記決定ステップでは、前記第2の色を基準の白色として用い、前記基準の白色のもとで前記表示用画像を見たときの色の見えが所定の条件を満たすように前記目標色を決定する
ことを特徴とする補正方法。
A correction method for correcting a display image displayed in a display area ,
In a state in which the display image is displayed on the display area, an image acquisition step of acquiring a captured image region is photographed including a periphery of the display area and the display area,
From the captured image, a first color is an inner color of the display region, a color acquiring the second color, which is the color of the surrounding of the display region,
A determining step of determining a target color of the first color based on the second color;
A correction step of correcting each pixel value of the display image by a difference between a pixel value indicating the first color and a pixel value indicating the target color;
I have a,
In the determining step, the second color is used as a reference white color, and the target color is determined so that a color appearance when the display image is viewed under the reference white color satisfies a predetermined condition. A correction method characterized by:
前記決定ステップでは、前記第2の色の変化による前記表示用画像の色の見えの変化が抑制された色を、前記目標色として決定する
ことを特徴とする請求項1に記載の補正方法。
The correction method according to claim 1, wherein, in the determining step, a color in which a change in appearance of the color of the display image due to the change in the second color is suppressed is determined as the target color.
前記所定の条件は、色順応を考慮した相対的な色の属性で表される
ことを特徴とする請求項1または2に記載の補正方法。
Wherein the predetermined condition, the correction method according to claim 1 or 2, characterized by being represented by relative color attribute in consideration of chromatic adaptation.
前記画像取得ステップでは、第1の所定色を有する基準画像が前記表示領域に表示されている状態で撮影された撮影画像を取得し、
前記色取得ステップは、前記第1の色として前記基準画像の色を取得する
ことを特徴とする請求項1〜のいずれか1項に記載の補正方法。
In the image acquisition step, a captured image captured in a state where a reference image having a first predetermined color is displayed in the display area is acquired;
Wherein the color acquisition step, the correction method according to any one of claims 1 to 3, characterized in that to obtain the color of the reference image as the first color.
前記画像取得ステップでは、前記表示領域の周囲に第2の所定色を有する基準物体を置いた状態で撮影された撮影画像を取得し、
前記色取得ステップでは、前記第2の色として前記基準物体の色を取得する
ことを特徴とする請求項1〜のいずれか1項に記載の補正方法。
In the image acquisition step, a captured image captured in a state where a reference object having a second predetermined color is placed around the display area is acquired;
In the color acquisition step, the correction method according to any one of claims 1 to 4, characterized in that to obtain the color of the reference object as the second color.
画像からパターンを検出する画像認識処理を行うことにより、前記撮影画像の領域から前記表示領域を検出する第1検出ステップをさらに有し、
前記色取得ステップでは、前記第1検出ステップで検出された領域の内側の色を前記第1の色として取得する
ことを特徴とする請求項1〜のいずれか1項に記載の補正方法。
A first detection step of detecting the display area from the area of the captured image by performing image recognition processing for detecting a pattern from the image;
In the color acquisition step, the correction method according to any one of claims 1 to 5, characterized in that to obtain the inner color of the detected in the first detection step region as the first color.
前記画像取得ステップでは、前記表示領域を示す第1の所定パターンが前記表示領域に表示されている状態で撮影された撮影画像を取得し、
前記第1検出ステップでは、前記第1の所定パターンによって示された領域を、前記表示領域として検出する
ことを特徴とする請求項に記載の補正方法。
In the image acquisition step to acquire the captured image a first predetermined pattern indicating the display region is captured in a state of being displayed in the display area,
The correction method according to claim 6 , wherein in the first detection step, an area indicated by the first predetermined pattern is detected as the display area .
画像からパターンを検出する画像認識処理を行うことにより、前記撮影画像の領域から前記表示領域の周囲の領域を検出する第2検出ステップをさらに有し、
前記色取得ステップでは、前記第2検出ステップで検出された領域の内側の色を前記第2の色として取得する
ことを特徴とする請求項1〜のいずれか1項に記載の補正方法。
A second detection step of detecting a region around the display region from the region of the captured image by performing image recognition processing for detecting a pattern from the image;
In the color acquisition step, the correction method according to any one of claims 1 to 7, characterized in that to obtain the inner color of the second detected in the detection step region as the second color.
前記表示領域を囲む枠部材があり
前記第2検出ステップでは、前記撮影画像から前記枠部材の領域を検出し、前記枠部材の領域よりも外側の領域を検出する
ことを特徴とする請求項に記載の補正方法。
There is a frame member surrounding the display area ,
The correction method according to claim 8 , wherein in the second detection step, an area of the frame member is detected from the captured image, and an area outside the area of the frame member is detected.
前記画像取得ステップでは、前記表示領域の周囲に第2の所定色を有する基準物体を置いた状態で撮影された撮影画像を取得し、
前記基準物体には、前記基準物体の領域を示す第2の所定パターンが描画されており、
前記第2検出ステップでは、前記第2の所定パターンによって示された領域を検出することを特徴とする請求項に記載の補正方法。
In the image acquisition step, a captured image captured in a state where a reference object having a second predetermined color is placed around the display area is acquired;
A second predetermined pattern indicating a region of the reference object is drawn on the reference object,
The correction method according to claim 8 , wherein in the second detection step, a region indicated by the second predetermined pattern is detected.
前記補正ステップでは、補正後の表示用画像を表示装置に出力する
ことを特徴とする請求項1〜10のいずれか1項に記載の補正方法。
Wherein the correction step, the correction method according to any one of claims 1 to 10, characterized in that for outputting a display image after correction in Viewing device.
前記補正ステップでは、前記第1の色が前記目標色と一致するように前記表示用画像を補正するための補正値を、記憶部に保存する
ことを特徴とする請求項1〜11のいずれか1項に記載の補正方法。
Wherein the correction step, claim 1-11, characterized in that said first color correction value for correcting the display image to match the target color is stored in the storage unit The correction method according to Item 1.
表示領域に表示される表示用画像を補正する補正装置であって、
前記表示用画像が前記表示領域に表示されている状態で、前記表示領域と前記表示領域の周囲とを含む領域が撮影された撮影画像を取得する画像取得手段と、
前記撮影画像から、前記表示領域の内側の色である第1の色と、前記表示領域の周囲の色である第2の色と、を取得する色取得手段と、
前記第2の色に基づいて前記第1の色の目標色を決定する決定手段と、
前記第1の色を示す画素値と前記目標色を示す画素値との差の分だけ前記表示用画像の各画素値を補正する補正手段と、
を有し、
前記決定手段は、前記第2の色を基準の白色として用い、前記基準の白色のもとで前記表示用画像を見たときの色の見えが所定の条件を満たすように前記目標色を決定する
ことを特徴とする補正装置。
A correction device for correcting a display image displayed in a display area ,
In a state in which the display image is displayed on the display area, an image obtaining unit for obtaining a captured image region including the periphery of the display region and the display region is captured,
From the captured image, a first color is an inner color of the display region, a color acquisition means for acquiring the second color, which is the color of the surrounding of the display region,
Determining means for determining a target color of the first color based on the second color;
Correction means for correcting each pixel value of the display image by a difference between a pixel value indicating the first color and a pixel value indicating the target color;
I have a,
The determination unit uses the second color as a reference white color and determines the target color so that a color appearance when the display image is viewed under the reference white color satisfies a predetermined condition. A correction device characterized by:
請求項1〜12のいずれか1項に記載の補正方法の各ステップをコンピュータに実行させるためのプログラム。 Program for executing the steps of the correction method according to the computer in any one of claims 1 to 12.
JP2013236174A 2013-11-14 2013-11-14 Correction method, correction device, and program Expired - Fee Related JP6335483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013236174A JP6335483B2 (en) 2013-11-14 2013-11-14 Correction method, correction device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013236174A JP6335483B2 (en) 2013-11-14 2013-11-14 Correction method, correction device, and program

Publications (3)

Publication Number Publication Date
JP2015095883A JP2015095883A (en) 2015-05-18
JP2015095883A5 JP2015095883A5 (en) 2016-12-22
JP6335483B2 true JP6335483B2 (en) 2018-05-30

Family

ID=53197984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013236174A Expired - Fee Related JP6335483B2 (en) 2013-11-14 2013-11-14 Correction method, correction device, and program

Country Status (1)

Country Link
JP (1) JP6335483B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020180750A1 (en) * 2001-05-29 2002-12-05 Imation Corp. Display system
JP3970052B2 (en) * 2002-02-27 2007-09-05 キヤノン株式会社 Image processing device
JP4026064B2 (en) * 2003-03-06 2007-12-26 セイコーエプソン株式会社 Color conversion operator generation apparatus, method, program, recording medium, and projector
JP2009005004A (en) * 2007-06-20 2009-01-08 Olympus Corp Video display system
JP5517594B2 (en) * 2009-12-15 2014-06-11 キヤノン株式会社 Image display device and image display method

Also Published As

Publication number Publication date
JP2015095883A (en) 2015-05-18

Similar Documents

Publication Publication Date Title
JP3514257B2 (en) Image processing system, projector, image processing method, program, and information storage medium
US8705152B2 (en) System, medium, and method calibrating gray data
US7822269B2 (en) Projector color correcting method
KR101376503B1 (en) Method and system for 3d display calibration with feedback determined by a camera device
JP5085618B2 (en) Image quality adjustment apparatus, image quality adjustment method, and image quality adjustment program
JP5430254B2 (en) Image display apparatus and control method thereof
US8953879B2 (en) System, method and medium performing color correction of display images
US9330587B2 (en) Color adjustment based on object positioned near display surface
KR20070090224A (en) Method of electronic color image saturation processing
WO2019010917A1 (en) Method and system for color calibration of projection image
WO2011148776A1 (en) Image processing apparatus and image processing method
US9794450B2 (en) Image processor, image display device, and image processing method for correcting input image
JP2013207409A (en) Image adjustment device and image adjustment system and program
JP2012248910A (en) Color correction method of projection display device
CN109997354A (en) Display device and its control method
KR101680446B1 (en) Creation device for color table, correction and control device for camera image and method thereof
US20060077487A1 (en) Digital color fidelity
JP2010217644A (en) Method, device and program of making correction value of image display device
WO2012099165A1 (en) Image processing device, and image processing program product
JP6335483B2 (en) Correction method, correction device, and program
US11601625B2 (en) Color stain analyzing method and electronic device using the method
TWI771131B (en) Parameter adjusting method and projector
JP4678807B2 (en) Image processing apparatus and image processing method
JP2009005097A (en) Device and method for adjusting color gamut
JP2010145097A (en) Color unevenness inspection method, and inspection image data generation apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180501

R151 Written notification of patent or utility model registration

Ref document number: 6335483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees