JP2023180036A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2023180036A
JP2023180036A JP2022093092A JP2022093092A JP2023180036A JP 2023180036 A JP2023180036 A JP 2023180036A JP 2022093092 A JP2022093092 A JP 2022093092A JP 2022093092 A JP2022093092 A JP 2022093092A JP 2023180036 A JP2023180036 A JP 2023180036A
Authority
JP
Japan
Prior art keywords
color
imaging device
image processing
conversion table
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022093092A
Other languages
Japanese (ja)
Inventor
貴洋 松浦
Takahiro Matsuura
靖浩 伊藤
Yasuhiro Ito
芳季 石井
Yoshiki Ishii
圭介 松野
Keisuke Matsuno
丈人 福島
Taketo Fukushima
堅斗 渡辺
Kento Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022093092A priority Critical patent/JP2023180036A/en
Publication of JP2023180036A publication Critical patent/JP2023180036A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique capable of generating a parameter for color processing without using a spectral radiance meter in a site.SOLUTION: A color conversion table which is generated on the basis of a photographed image of a color chart imaged by a first imaging apparatus in a first environment is acquired. First color data which is generated on the basis of color data acquired from the photographed image of the color chart imaged by the first imaging apparatus in a second environment different from the first environment and a color conversion table is acquired. Second color data which is generated on the basis of color data acquired from a photographed image of a color chart imaged by a second imaging apparatus in the second environment and conversion information is acquired. Conversion information in which an evaluation value based on the first color data and the second color data becomes smaller than a prescribed value is generated as a parameter for color processing.SELECTED DRAWING: Figure 1

Description

本発明は、色処理技術に関するものである。 The present invention relates to color processing technology.

従来、デジタルカメラのACESRGBなどの規格に基づいた色再現を高精度に実現するためには、色票を分光放射輝度計で測定し、その測定値から算出した規格値に一致するように色設計すると、高精度な色再現を実現することが可能である。しかし、分光放射輝度計での測定は色票の各色を1色ずつ測定するために測定に時間がかかってしまうという問題があった。複数の拠点で照明ごとに高精度に設計するためには、測定の時間を短縮することが必須である。 Conventionally, in order to achieve highly accurate color reproduction based on standards such as ACESRGB for digital cameras, color patches were measured using a spectral radiance meter, and colors were designed to match the standard values calculated from the measured values. This makes it possible to achieve highly accurate color reproduction. However, measurement using a spectral radiance meter has a problem in that it takes time to measure each color of the color chart one by one. In order to design each lighting unit with high precision at multiple locations, it is essential to shorten the measurement time.

特許文献1に開示の技術では、画像を観察する環境の照明分光特性を取得し、その照明分光特性および色票の分光反射率データから分光放射輝度を推定し、色票の信号値と推定した分光放射輝度から求めた三刺激値との関係を示すプロファイルデータを演算する。つまり、観察環境において色票の分光放射輝度を測定することなく、照明の分光特性を測定するだけで色票の分光放射輝度を推定することが可能である。 In the technology disclosed in Patent Document 1, the illumination spectral characteristics of the environment in which an image is observed are acquired, the spectral radiance is estimated from the illumination spectral characteristics and the spectral reflectance data of the color chart, and the spectral radiance is estimated to be the signal value of the color chart. Profile data indicating the relationship with the tristimulus values determined from the spectral radiance is calculated. That is, it is possible to estimate the spectral radiance of a color patch only by measuring the spectral characteristics of illumination without measuring the spectral radiance of the color patch in the viewing environment.

また特許文献2には、マスタースタジオにあるマスターカメラで所定の色票を撮像することで得られるマスターチャート画像とマスターカメラに設定された撮影パラメータをマスター撮影パラメータとして個別スタジオに送る。そして、個別スタジオでは、マスター撮影パラメータを初期サブ撮影パラメータとして補正対象カメラに設定し、所定の色票を補正対象カメラで撮影してチャート画像を得る。こうして得られたマスターチャート画像とチャート画像とを比較して、その比較結果に応じて個別スタジオの撮影パラメータを変更する。以上の処理により、マスタースタジオと個別スタジオにあるカメラ間の色合わせを実現することが可能である。 Further, in Patent Document 2, a master chart image obtained by imaging a predetermined color chart with a master camera in a master studio and photographing parameters set in the master camera are sent to individual studios as master photographing parameters. Then, in the individual studio, the master photographing parameters are set as initial sub-photographing parameters in the camera to be corrected, and a predetermined color chart is photographed by the camera to be corrected to obtain a chart image. The master chart image and chart image thus obtained are compared, and the photographing parameters of the individual studios are changed according to the comparison result. Through the above processing, it is possible to realize color matching between the cameras in the master studio and the individual studios.

特開2002-218266号公報Japanese Patent Application Publication No. 2002-218266 特開2002-195760号公報Japanese Patent Application Publication No. 2002-195760

しかしながら、特許文献1に開示の技術では、色票にシェーディングがある場合や、白色の反射率が100%でないときなどでは、精度が悪化してしまう。色差1.6以下など、高精度な色再現を実現するためにシェーディングを取り除くことは非常に困難である。また、特許文献2に開示の技術では、短時間で2つのカメラ間の色再現を一致させることが可能であるが、マスタースタジオと個別スタジオがほぼ同じ環境である必要があり、同時にマスターカメラと個別スタジオにあるカメラも同一機種である必要がある。本発明では、現場で分光放射輝度計を用いることなく色処理用のパラメータを生成可能な技術を提供する。 However, in the technique disclosed in Patent Document 1, the accuracy deteriorates when there is shading in the color chart or when the reflectance of white is not 100%. It is extremely difficult to remove shading in order to achieve highly accurate color reproduction, such as a color difference of 1.6 or less. In addition, with the technology disclosed in Patent Document 2, it is possible to match the color reproduction between two cameras in a short time, but the master studio and individual studios need to be in almost the same environment, and the master camera and individual studios must be in almost the same environment. Cameras in individual studios must also be of the same model. The present invention provides a technique that allows color processing parameters to be generated on-site without using a spectral radiance meter.

本発明の一様態は、第1環境において第1撮像装置により撮像された色票の撮像画像に基づいて生成された色変換テーブルを取得する第1取得手段と、前記第1環境とは異なる第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記色変換テーブルと、に基づいて生成される第1色データを取得する第2取得手段と、前記第2環境において第2撮像装置により撮像された前記色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される第2色データを取得する第3取得手段と、前記第1色データと前記第2色データに基づく評価値が所定値より小さくなるような前記変換情報を、色処理用のパラメータとして生成する生成手段とを備えることを特徴とする。 One aspect of the present invention includes a first acquisition unit that acquires a color conversion table generated based on a captured image of a color chart captured by a first imaging device in a first environment; a second acquisition means for acquiring first color data generated based on the color conversion table and color data acquired from a captured image of a color chart captured by the first imaging device in two environments; a third acquisition means for acquiring second color data generated based on conversion information and color data acquired from an image of the color chart taken by a second imaging device in a second environment; The present invention is characterized by comprising a generating means for generating, as a color processing parameter, the conversion information such that an evaluation value based on the first color data and the second color data is smaller than a predetermined value.

本発明によれば、現場で分光放射輝度計を用いることなく色処理用のパラメータを生成可能な技術を提供することができる。 According to the present invention, it is possible to provide a technique capable of generating color processing parameters on-site without using a spectral radiance meter.

システムの構成例を示すブロック図。FIG. 1 is a block diagram showing an example of a system configuration. システムの動作を示すフローチャート。Flowchart showing the operation of the system. 色票の一例を示す図。A diagram showing an example of a color chart. 第1サブシステムのより詳細な構成例を示すブロック図。FIG. 3 is a block diagram showing a more detailed configuration example of the first subsystem. 第1サブシステムの動作を示すフローチャート。5 is a flowchart showing the operation of the first subsystem. ステップS14における処理の詳細を示すフローチャート。5 is a flowchart showing details of processing in step S14. 第2サブシステムのより詳細な構成例を示すブロック図。FIG. 3 is a block diagram showing a more detailed configuration example of the second subsystem. 第2サブシステムの動作を示すフローチャート。5 is a flowchart showing the operation of the second subsystem. ステップS23における処理の詳細を示すフローチャート。5 is a flowchart showing details of the process in step S23. 第1サブシステムの動作を示すフローチャート。5 is a flowchart showing the operation of the first subsystem. 第2サブシステムのより詳細な構成例を示すブロック図。FIG. 3 is a block diagram showing a more detailed configuration example of the second subsystem. ステップS23における処理の詳細を示すフローチャート。5 is a flowchart showing details of the process in step S23. コンピュータ装置のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram showing an example of the hardware configuration of a computer device.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

[第1の実施形態]
先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、第1環境であるマスタースタジオ1におけるサブシステム(第1サブシステム)と、該第1環境とは異なる第2環境であるスタジオ2におけるサブシステム(第2サブシステム)と、を含む。
[First embodiment]
First, an example of the configuration of a system according to this embodiment will be described using the block diagram of FIG. 1. As shown in FIG. 1, the system according to the present embodiment includes a subsystem (first subsystem) in master studio 1, which is a first environment, and a subsystem in studio 2, which is a second environment different from the first environment. (second subsystem).

第1サブシステムは、色票13、撮像装置11、分光放射輝度計12、キャリブレーション装置15、照明装置14、を含む。一方、第2サブシステムは、色票23、撮像装置21、撮像装置22、生成装置25、照明装置24、を含む。そして、キャリブレーション装置15と生成装置25との間は、有線および/または無線のネットワークを介して互いにデータ通信が可能なように構成されている。 The first subsystem includes a color chart 13, an imaging device 11, a spectral radiance meter 12, a calibration device 15, and an illumination device 14. On the other hand, the second subsystem includes a color chart 23, an imaging device 21, an imaging device 22, a generation device 25, and an illumination device 24. The calibration device 15 and the generation device 25 are configured to be capable of data communication with each other via a wired and/or wireless network.

本実施形態に係るシステムの動作について、図2のフローチャートに従って説明する。 ステップS1では、第1サブシステムはキャリブレーション情報を生成する。ステップS1の詳細については後述する。ステップS2では、第2サブシステムは、該キャリブレーション情報を用いて色変換テーブルを生成する。ステップS2の詳細については後述する。 The operation of the system according to this embodiment will be explained according to the flowchart of FIG. In step S1, the first subsystem generates calibration information. Details of step S1 will be described later. In step S2, the second subsystem generates a color conversion table using the calibration information. Details of step S2 will be described later.

第1サブシステムのより詳細な構成例について、図4のブロック図を用いて説明する。照明装置14は、マスタースタジオ1を照明するべく該マスタースタジオ1に設けられた装置であり、様々な色温度の照明が可能なように構成されている。例えば照明装置14は、それぞれ異なる色温度(例えば、3000K~6500Kの様々な色温度)の照明を行う複数台の照明装置であっても良い。その場合、ユーザ操作もしくは照明装置14による制御に従って、複数台の照明装置のうちいずれか1つが動作する(照明する)ことになる。また、照明装置14は、それぞれ異なる色温度の照明に順次切り替える1台の照明装置であっても良い。様々な色温度の照明下で取得した色を用いてキャリブレーション情報を生成することで、キャリブレーションの精度を高め、ロバスト性も向上させることが可能である。 A more detailed configuration example of the first subsystem will be described using the block diagram of FIG. 4. The lighting device 14 is a device provided in the master studio 1 to illuminate the master studio 1, and is configured to be able to provide illumination with various color temperatures. For example, the lighting device 14 may be a plurality of lighting devices that each provide illumination with a different color temperature (for example, various color temperatures from 3000K to 6500K). In that case, one of the plurality of lighting devices will operate (illuminate) according to user operation or control by the lighting device 14. Further, the lighting device 14 may be a single lighting device that sequentially switches to lighting with different color temperatures. By generating calibration information using colors acquired under illumination with various color temperatures, it is possible to increase the accuracy of calibration and improve robustness.

色票13は、それぞれ異なる色が配置されたシートである。本実施形態では具体的な説明を行うために一例として、図3に示す如く、複数色(図3では20色)のパッチが並んでいるシートを色票13として用いる。色票13には、市販されている色設計に使用できる色票を使用する。 The color chart 13 is a sheet on which different colors are arranged. In this embodiment, in order to provide a concrete explanation, a sheet in which patches of multiple colors (20 colors in FIG. 3) are lined up is used as the color chart 13, as shown in FIG. 3, as an example. As the color chart 13, a commercially available color chart that can be used for color design is used.

撮像装置11は、第1環境における(照明装置14による照明下における)色票13を撮像して該色票13の撮像画像(各画素がRGB値を有するRGB画像)を生成し、該生成した撮像画像を出力する。 The imaging device 11 images the color patch 13 in the first environment (under illumination by the lighting device 14), generates a captured image of the color patch 13 (an RGB image in which each pixel has an RGB value), and Output the captured image.

分光放射輝度計12は、第1環境における(照明装置14による照明下における)色票13を測定して、該色票13(各パッチ)の測定値(XYZ値)を出力する。キャリブレーション装置15は、撮像装置11から出力された撮像画像と、分光放射輝度計12から出力された測定値と、を用いてキャリブレーション情報を生成する。 The spectral radiance meter 12 measures the color patch 13 in the first environment (under illumination by the lighting device 14) and outputs the measured value (XYZ value) of the color patch 13 (each patch). The calibration device 15 generates calibration information using the captured image output from the imaging device 11 and the measured value output from the spectral radiance meter 12.

上記のステップS1の詳細、つまり、第1サブシステムの動作について、図5のフローチャートに従って説明する。ステップS11では、撮像装置11は、第1環境における(照明装置14による照明下における)色票13を撮像して該色票13の撮像画像を生成し、該生成した撮像画像を出力する。 Details of the above step S1, that is, the operation of the first subsystem will be explained according to the flowchart of FIG. 5. In step S11, the imaging device 11 images the color patch 13 in the first environment (under illumination by the lighting device 14), generates a captured image of the color patch 13, and outputs the generated captured image.

ステップS12では、分光放射輝度計12は、第1環境における(照明装置14による照明下における)色票13を測定して、該色票13(各パッチ)の測定値を出力する。そして、照明装置14による様々な色温度(例えば、3000K~6500Kの範囲からサンプリングした100個の色温度のそれぞれ)の照明下においてステップS11における撮像およびステップS12における測定が行われた場合には、処理はステップS13を介してステップS14に進む。一方、照明装置14により未だ照明していない色温度が残っている場合には、照明装置14は未だ照明していない色温度の照明を行い、処理はステップS13を介してステップS11に進む。 In step S12, the spectral radiance meter 12 measures the color patch 13 in the first environment (under illumination by the lighting device 14) and outputs the measured value of the color patch 13 (each patch). Then, when the imaging in step S11 and the measurement in step S12 are performed under illumination of various color temperatures (for example, each of 100 color temperatures sampled from the range of 3000K to 6500K) by the illumination device 14, The process proceeds to step S14 via step S13. On the other hand, if there remains a color temperature that has not yet been illuminated by the illumination device 14, the illumination device 14 illuminates the color temperature that has not yet been illuminated, and the process proceeds to step S11 via step S13.

つまり、ステップS14に処理が進んだ時点で、様々な照明下において撮像された色票13の撮像画像、様々な照明下において測定された色票13の測定値、が取得済みである。 In other words, when the process proceeds to step S14, captured images of the color patch 13 taken under various illuminations and measured values of the color patch 13 measured under various illuminations have been acquired.

ステップS14では、キャリブレーション装置15は、撮像装置11により様々な照明下において撮像された色票13の撮像画像と、分光放射輝度計12により様々な照明下において測定された色票13の測定値と、を用いてキャリブレーション情報を生成する。ステップS14における処理の詳細について、図6のフローチャートに従って説明する。 In step S14, the calibration device 15 uses the captured images of the color patch 13 captured under various illuminations by the imaging device 11 and the measured values of the color patch 13 measured under various illuminations by the spectral radiance meter 12. Calibration information is generated using and. The details of the process in step S14 will be explained according to the flowchart in FIG.

ステップS141では、入力部151は、撮像装置11により様々な照明下において撮像された色票13の撮像画像を取得する。ステップS142では、入力部151は、分光放射輝度計12により様々な照明下において測定された色票13の測定値を取得する。 In step S141, the input unit 151 acquires captured images of the color patch 13 captured by the imaging device 11 under various illuminations. In step S142, the input unit 151 obtains the measured values of the color chart 13 measured by the spectral radiance meter 12 under various illuminations.

ステップS143では、生成部152は、ステップS141で取得した撮像画像と、ステップS142で取得した測定値と、を用いてキャリブレーション情報を生成する。以下では、キャリブレーション情報を生成するための処理の詳細について説明する。 In step S143, the generation unit 152 generates calibration information using the captured image obtained in step S141 and the measured value obtained in step S142. Below, details of the process for generating calibration information will be explained.

生成部152は、ステップS141で取得した撮像画像におけるそれぞれパッチのRGB値を取得する。なお、撮像画像において1つパッチに対応する画像領域におけるそれぞれの画素値は一定ではない可能性があるため、該画像領域内におけるRGB値の平均を該1つのパッチのRGB値としても良い。 The generation unit 152 acquires the RGB values of each patch in the captured image acquired in step S141. Note that since each pixel value in an image area corresponding to one patch in a captured image may not be constant, the average of the RGB values within the image area may be taken as the RGB value of the one patch.

そして生成部152は、撮像画像におけるパッチのRGB値と、ステップS142で取得した測定値(XYZ値)と、を用いて、色処理用のパラメータ(色処理パラメータ)を最適化する。例えば、生成部152は、撮像画像におけるパッチのRGB値を用いて以下の式(1)を計算して、パッチのXYZ値(Xi、Yi、Zi)を求める。 The generation unit 152 then optimizes color processing parameters (color processing parameters) using the RGB values of the patch in the captured image and the measured values (XYZ values) acquired in step S142. For example, the generation unit 152 calculates the following equation (1) using the RGB values of the patch in the captured image to obtain the XYZ values (Xi, Yi, Zi) of the patch.

Figure 2023180036000002
Figure 2023180036000002

ここで、Mは色処理パラメータであり、3x19のサイズを有するマトリクスである。Ri、Gi、Biはそれぞれ、パッチのR値、G値、B値である。そして生成部152は、上記の式(1)を計算して求めたXi、Yi、Ziを以下の式(2)~(6)のX、Y、Zのそれぞれに代入して計算することで、パッチのLab値(Li、ai、bi)を求める。 Here, M is a color processing parameter and is a matrix with a size of 3x19. Ri, Gi, and Bi are the R value, G value, and B value of the patch, respectively. Then, the generation unit 152 calculates by substituting Xi, Yi, and Zi obtained by calculating the above equation (1) into each of X, Y, and Z of the following equations (2) to (6). , find the Lab values (Li, ai, bi) of the patch.

Figure 2023180036000003
Figure 2023180036000003

ここで、Xn、Yn、Znは、例えば、反射率100%の完全拡散反射板の分光放射輝度に等色関数を掛け算して算出した値である。また生成部152は、ステップS142で取得した測定値であるX、Y、Zを上記の式(2)~(6)のX、Y、Zのそれぞれに代入して計算することで、該測定値に対応するLab値(Lti、ati、bti)を求める。 Here, Xn, Yn, and Zn are, for example, values calculated by multiplying the spectral radiance of a completely diffuse reflector with a reflectance of 100% by a color matching function. In addition, the generation unit 152 calculates the measurement values by substituting the measurement values X, Y, and Z obtained in step S142 into each of X, Y, and Z in the above equations (2) to (6). The Lab values (Lti, ati, bti) corresponding to the values are determined.

そして生成部152はパッチごとに、Lab値(Li、ai、bi)とLab値(Lti、ati、bti)との差分に基づく評価値ΔEを、以下の式(7)を用いて求める。 The generation unit 152 then obtains an evaluation value ΔE based on the difference between the Lab values (Li, ai, bi) and the Lab values (Lti, ati, bti) for each patch using the following equation (7).

Figure 2023180036000004
Figure 2023180036000004

このようにして生成部152は、様々な照明下におけるそれぞれのパッチの評価値ΔEを求める。そして生成部152は、様々な照明下におけるそれぞれのパッチの評価値ΔEの総和が最小となるような色処理パラメータであるマトリクス(変換情報)Mを、例えば減衰最小二乗法を用いて求める。このとき、マトリクスMの各要素の初期値については特定の値に限らず、例えば、ランダムに設定された値であっても良いし、最近に求めたマトリクスM3の各要素の値であっても良い。また、ΔEの総和は必ずしも最小となる必要はなく、予め定めた所定値より小さくなるようなマトリクスMを求めてもよい。 In this way, the generation unit 152 calculates the evaluation value ΔE of each patch under various illuminations. Then, the generation unit 152 uses, for example, the attenuated least squares method to obtain a matrix (conversion information) M that is a color processing parameter that minimizes the sum of the evaluation values ΔE of each patch under various illuminations. At this time, the initial value of each element of matrix M is not limited to a specific value, for example, it may be a randomly set value, or it may be a recently calculated value of each element of matrix M3. good. Furthermore, the sum of ΔE does not necessarily have to be the minimum, and a matrix M that is smaller than a predetermined value may be obtained.

そして生成部152は、複数のRGB値について、該RGB値とマトリクスMとを用いて式(1)を計算して該RGB値に対応するXYZ値を求める。そして生成部152は、複数のRGB値のそれぞれについて、該RGB値(変換前の色データ)と、該RGB値について求めたXYZ値(変換後の色データ)と、を対応付けて登録した色変換テーブルである3DLUTをキャリブレーション情報として生成する。複数のRGB値には、例えば、以下の式(8)に示すRGB値を用いる。 Then, the generation unit 152 calculates equation (1) using the RGB values and matrix M to obtain XYZ values corresponding to the RGB values. Then, for each of the plurality of RGB values, the generation unit 152 generates a registered color by associating the RGB value (color data before conversion) with the XYZ value (color data after conversion) obtained for the RGB value. A 3DLUT, which is a conversion table, is generated as calibration information. For the plurality of RGB values, for example, the RGB values shown in the following equation (8) are used.

Figure 2023180036000005
Figure 2023180036000005

そして生成部152は、このようにして生成したキャリブレーション情報を保持部153に格納する。ステップS144では、出力部154は、ステップS143で保持部153に格納したキャリブレーション情報を出力する。本実施形態では、出力部154はキャリブレーション情報をネットワークを介して第2サブシステムの生成装置25に対して出力するものとする。しかし、出力部154によるキャリブレーション情報の出力先は生成装置25に限らない。例えば、出力部154はキャリブレーション情報を、生成装置25がアクセス可能な外部装置に対して出力するようにしても良い。これにより生成装置25は、キャリブレーション情報を必要に応じて該外部装置から取得することができる。 The generation unit 152 then stores the calibration information generated in this way in the storage unit 153. In step S144, the output unit 154 outputs the calibration information stored in the holding unit 153 in step S143. In this embodiment, it is assumed that the output unit 154 outputs the calibration information to the generation device 25 of the second subsystem via the network. However, the output destination of the calibration information by the output unit 154 is not limited to the generation device 25. For example, the output unit 154 may output the calibration information to an external device that the generation device 25 can access. This allows the generation device 25 to acquire calibration information from the external device as needed.

このように、第1環境下において撮像装置11により撮像された色票13の撮像画像および第1環境下において分光放射輝度計12により測定された色票13の測定値に基づいて、さまざまなRGB値に対応する「照明に依存しない物理値であるXYZ値」が登録されたキャリブレーション情報を生成する。このようなキャリブレーション情報を用いることで、スタジオ2での照明に影響されにくいキャリ色のブレーションを実施することができる。 In this way, various RGB colors are displayed based on the captured image of the color patch 13 captured by the imaging device 11 under the first environment and the measured values of the color patch 13 measured by the spectral radiance meter 12 under the first environment. Calibration information in which "XYZ values which are physical values independent of illumination" corresponding to the values are registered is generated. By using such calibration information, it is possible to perform calibration color bration that is less affected by the lighting in the studio 2.

次に、第2サブシステムのより詳細な構成例について、図7のブロック図を用いて説明する。照明装置24は、スタジオ2を照明するべく該スタジオ2に設けられた装置である。照明装置24は、上記の照明装置14と同じ照明装置であっても良いし、上記の照明装置14と異なる照明装置であっても良い。 Next, a more detailed configuration example of the second subsystem will be explained using the block diagram of FIG. 7. The lighting device 24 is a device provided in the studio 2 to illuminate the studio 2. The lighting device 24 may be the same lighting device as the lighting device 14 described above, or may be a lighting device different from the lighting device 14 described above.

色票23は、それぞれ異なる色が配置されたシートである。本実施形態では具体的な説明を行うために一例として、複数色のパッチが並んでいるシートを色票23として用いる。色票23は上記の色票13と同じ色票であっても良いし、上記の色票13と異なる色票であっても良い。 The color chart 23 is a sheet on which different colors are arranged. In this embodiment, a sheet in which patches of a plurality of colors are lined up is used as the color chart 23 as an example to provide a specific explanation. The color chart 23 may be the same color chart as the color chart 13 described above, or may be a color chart different from the color chart 13 described above.

撮像装置21は、マスタースタジオ1から持ち出した撮像装置11であっても良いし、上記の撮像装置11と同じ機種の撮像装置であっても良い。撮像装置21は、第2環境における(照明装置24による照明下における)色票23を撮像して該色票23の撮像画像(各画素がRGB値を有するRGB画像)を生成し、該生成した撮像画像を出力する。 The imaging device 21 may be the imaging device 11 taken out from the master studio 1, or may be the same type of imaging device as the imaging device 11 described above. The imaging device 21 images the color patch 23 in the second environment (under illumination by the lighting device 24), generates a captured image of the color patch 23 (an RGB image in which each pixel has an RGB value), and Output the captured image.

撮像装置22は、色設計対象となる撮像装置であり、上記の撮像装置11と同じ撮像装置であっても良いし、上記の撮像装置11と異なる撮像装置であっても良い。撮像装置22は、第2環境における(照明装置24による照明下における)色票23を撮像して該色票23の撮像画像(各画素がRGB値を有するRGB画像)を生成し、該生成した撮像画像を出力する。 The imaging device 22 is an imaging device that is a color design target, and may be the same imaging device as the imaging device 11 described above, or may be a different imaging device from the imaging device 11 described above. The imaging device 22 images the color patch 23 in the second environment (under illumination by the lighting device 24), generates a captured image of the color patch 23 (an RGB image in which each pixel has an RGB value), and Output the captured image.

生成装置25は、キャリブレーション装置15によって生成されたキャリブレーション情報を取得する。そして生成装置25は、該取得したキャリブレーション情報と、撮像装置21により撮像された色票23の撮像画像と、撮像装置22により撮像された色票23の撮像画像と、を用いて、「撮像装置22により撮像された撮像画像におけるRGB値を補正(キャリブレーション)するための色変換テーブル」を生成する。 The generation device 25 acquires the calibration information generated by the calibration device 15. Then, the generation device 25 uses the acquired calibration information, the captured image of the color patch 23 captured by the imaging device 21, and the captured image of the color patch 23 captured by the imaging device 22, A color conversion table for correcting (calibrating) the RGB values in the captured image captured by the device 22 is generated.

上記のステップS2の詳細、つまり、第2サブシステムの動作について、図8のフローチャートに従って説明する。ステップS21では、撮像装置21は、第2環境における(照明装置24による照明下における)色票23を撮像して該色票23の撮像画像を生成し、該生成した撮像画像を出力する。 The details of the above step S2, that is, the operation of the second subsystem will be explained according to the flowchart of FIG. 8. In step S21, the imaging device 21 images the color patch 23 in the second environment (under illumination by the lighting device 24), generates a captured image of the color patch 23, and outputs the generated captured image.

ステップS22では、撮像装置22は、第2環境における(照明装置24による照明下における)色票23を撮像して該色票23の撮像画像を生成し、該生成した撮像画像を出力する。 In step S22, the imaging device 22 images the color patch 23 in the second environment (under illumination by the lighting device 24), generates a captured image of the color patch 23, and outputs the generated captured image.

ステップS23では、生成装置25は、キャリブレーション装置15によって生成されたキャリブレーション情報を取得する。そして生成装置25は、該キャリブレーション情報と、撮像装置21により撮像された色票23の撮像画像と、撮像装置22により撮像された色票23の撮像画像と、を用いて「撮像装置22により撮像された撮像画像におけるRGB値を補正(キャリブレーション)するための色変換テーブル」を生成する。ステップS23における処理の詳細について、図9のフローチャートに従って説明する。 In step S23, the generation device 25 acquires the calibration information generated by the calibration device 15. Then, the generation device 25 uses the calibration information, the captured image of the color patch 23 captured by the imaging device 21, and the captured image of the color patch 23 captured by the imaging device 22 to A color conversion table for correcting (calibrating) RGB values in a captured image is generated. The details of the process in step S23 will be explained according to the flowchart in FIG.

ステップS231では、入力部251は、キャリブレーション装置15により生成されたキャリブレーション情報を取得する。ステップS232では、入力部251は、撮像装置21により撮像された色票23の撮像画像と、撮像装置22により撮像された色票23の撮像画像と、を取得する。 In step S231, the input unit 251 acquires the calibration information generated by the calibration device 15. In step S232, the input unit 251 obtains the captured image of the color patch 23 captured by the imaging device 21 and the captured image of the color patch 23 captured by the imaging device 22.

ステップS233では、反映部252は、撮像装置21により撮像された色票23の撮像画像におけるそれぞれパッチのRGB値を取得する。なお、撮像画像において1つパッチに対応する画像領域におけるそれぞれの画素値は一定ではない可能性があるため、該画像領域内におけるRGB値の平均を該1つのパッチのRGB値としても良い。そして反映部252は、撮像画像におけるパッチのRGB値と、キャリブレーション情報と、を用いて、該RGB値に対応するXYZ値を取得する。より具体的には、反映部252は、キャリブレーション情報から、撮像画像におけるパッチのRGB値に対応するXYZ値を取得する。取得(変換)の際は、四面体補間アルゴリズムなどを使用する。 In step S233, the reflection unit 252 acquires the RGB values of each patch in the captured image of the color patch 23 captured by the imaging device 21. Note that since each pixel value in an image area corresponding to one patch in a captured image may not be constant, the average of the RGB values within the image area may be taken as the RGB value of the one patch. Then, the reflection unit 252 uses the RGB values of the patch in the captured image and the calibration information to obtain the XYZ values corresponding to the RGB values. More specifically, the reflection unit 252 acquires the XYZ values corresponding to the RGB values of the patch in the captured image from the calibration information. When acquiring (converting), a tetrahedral interpolation algorithm is used.

ステップS234では、生成部253は、撮像装置22により撮像された色票23の撮像画像におけるそれぞれパッチのRGB値を取得する。なお、撮像画像において1つパッチに対応する画像領域におけるそれぞれの画素値は一定ではない可能性があるため、該画像領域内におけるRGB値の平均を該1つのパッチのRGB値としても良い。そして生成部253は、パッチのRGB値を用いて以下の式(9)を計算して、パッチのXYZ値(Xj、Yj、Zj)を求める。 In step S234, the generation unit 253 acquires the RGB values of each patch in the captured image of the color chart 23 captured by the imaging device 22. Note that since each pixel value in an image area corresponding to one patch in a captured image may not be constant, the average of the RGB values within the image area may be taken as the RGB value of the one patch. The generation unit 253 then calculates the following equation (9) using the RGB values of the patch to obtain the XYZ values (Xj, Yj, Zj) of the patch.

Figure 2023180036000006
Figure 2023180036000006

ここで、M2は色処理パラメータであり、3x19のサイズを有するマトリクスである。Rj、Gj、Bjはそれぞれ、パッチのR値、G値、B値である。そして生成部253は、上記の式(9)を計算して求めたXj、Yj、Zjを上記の式(2)~(6)のX、Y、Zのそれぞれに代入して計算することで、パッチのLab値(Lj、aj、bj)を求める。 Here, M2 is a color processing parameter and is a matrix having a size of 3x19. Rj, Gj, and Bj are the R value, G value, and B value of the patch, respectively. Then, the generation unit 253 calculates by substituting Xj, Yj, and Zj obtained by calculating the above equation (9) into each of X, Y, and Z of the above equations (2) to (6). , find the Lab values (Lj, aj, bj) of the patch.

また、生成部253は、ステップS233で求めたXYZ値を、上記の式(2)~(6)を用いてLab値(Ltj、atj、btj)に変換する。そして生成部253はパッチごとに、以下の式(10)を用いて評価値ΔEを求める。 Furthermore, the generation unit 253 converts the XYZ values obtained in step S233 into Lab values (Ltj, atj, btj) using the above equations (2) to (6). The generation unit 253 then calculates the evaluation value ΔE for each patch using the following equation (10).

Figure 2023180036000007
Figure 2023180036000007

このようにして生成部253は、それぞれのパッチの評価値ΔEを求める。そして生成部253は、それぞれのパッチの評価値ΔEの総和が最小となるような色処理パラメータであるマトリクスM2を、例えば減衰最小二乗法を用いて求める。このとき、マトリクスM2の各要素の初期値については特定の値に限らず、例えば、ランダムに設定された値であっても良いし、最近に求めたマトリクスM2の各要素の値であっても良い。 In this way, the generation unit 253 calculates the evaluation value ΔE of each patch. Then, the generation unit 253 uses, for example, the attenuated least squares method to obtain a matrix M2 that is a color processing parameter that minimizes the sum of the evaluation values ΔE of each patch. At this time, the initial value of each element of matrix M2 is not limited to a specific value, for example, it may be a randomly set value, or it may be a recently calculated value of each element of matrix M2. good.

そして生成部253は、複数のRGB値について、該RGB値とマトリクスM2とを用いて上記の式(9)を計算して該RGB値に対応するXYZ値を求め、該XYZ値を用いて以下の式(12)を計算して該XYZ値に対応するACESRGB値を求める。そして生成部253は、複数のRGB値のそれぞれについて、該RGB値と、該RGB値について求めたACESRGB値と、を対応付けて登録した色変換テーブルである3DLUTを生成する。複数のRGB値には、例えば、以下の式(11)に示すRGB値を用いる。 Then, the generation unit 253 calculates the above equation (9) for the plurality of RGB values using the RGB values and matrix M2 to obtain the XYZ values corresponding to the RGB values, and uses the XYZ values to calculate the following: Equation (12) is calculated to obtain the ACESRGB value corresponding to the XYZ value. Then, the generation unit 253 generates, for each of the plurality of RGB values, a 3DLUT that is a color conversion table in which the RGB value and the ACESRGB value obtained for the RGB value are registered in association with each other. For the plurality of RGB values, for example, the RGB values shown in the following equation (11) are used.

Figure 2023180036000008
Figure 2023180036000008

Figure 2023180036000009
Figure 2023180036000009

そして生成部253は、このようにして生成した3DLUTを保持部254に格納する。撮像装置22により撮像された撮像画像を、生成装置25によって生成された3DLUTを用いて補正することで、撮像装置22により撮像された撮像画像の色再現をACESRGBの規格に従った再現とすることができる。 The generation unit 253 then stores the 3DLUT generated in this manner in the holding unit 254. By correcting the captured image captured by the imaging device 22 using the 3DLUT generated by the generation device 25, the color reproduction of the captured image captured by the imaging device 22 conforms to the ACESRGB standard. I can do it.

ステップS235では、出力部255は、ステップS234において保持部254に格納された3DLUTを出力する。なお、出力部255による3DLUTの出力先は特定の出力先に限らない。例えば、出力部255は、3DLUTを撮像装置22や該撮像装置22から取得した撮像画像を補正する装置に対して出力しても良い。また、出力部255は、撮像装置22による撮像画像を3DLUTを用いて補正(色変換)した補正撮像画像を生成し、該補正撮像画像を出力するようにしても良い。なお出力部255による補正撮像画像の出力先は特定の出力先に限らない。例えば、出力部255は、補正撮像画像を表示装置に出力して該表示装置に該補正撮像画像を表示させても良いし、補正撮像画像を有線および/または無線のネットワークを介して外部の装置に対して送信しても良い。また、出力部255は、補正撮像画像に基づく印刷データを生成して該印刷データを印刷装置に対して出力しても良い。 In step S235, the output unit 255 outputs the 3DLUT stored in the holding unit 254 in step S234. Note that the output destination of the 3DLUT by the output unit 255 is not limited to a specific output destination. For example, the output unit 255 may output the 3DLUT to the imaging device 22 or a device that corrects a captured image acquired from the imaging device 22. Further, the output unit 255 may generate a corrected captured image by correcting (color conversion) the captured image by the imaging device 22 using a 3DLUT, and output the corrected captured image. Note that the output destination of the corrected captured image by the output unit 255 is not limited to a specific output destination. For example, the output unit 255 may output the corrected captured image to a display device and display the corrected captured image on the display device, or output the corrected captured image to an external device via a wired and/or wireless network. You may also send it to. Further, the output unit 255 may generate print data based on the corrected captured image and output the print data to the printing device.

<変形例1>
第1の実施形態では装置間(撮像装置11とキャリブレーション装置15との間、分光放射輝度計12とキャリブレーション装置15との間、撮像装置21と生成装置25との間、撮像装置22と生成装置25との間)のデータのやり取りは、有線および/または無線のネットワークを介して行われるものとして説明した。しかし、装置間のデータのやり取りの方法については特定の方法に限らず、例えば、UBSメモリなどのメモリ装置を介して装置間のデータのやり取りを行っても良い。
<Modification 1>
In the first embodiment, between devices (between the imaging device 11 and the calibration device 15, between the spectral radiance meter 12 and the calibration device 15, between the imaging device 21 and the generation device 25, between the imaging device 22 and the The data exchange with the generation device 25 has been described as being performed via a wired and/or wireless network. However, the method of exchanging data between devices is not limited to a specific method, and for example, data may be exchanged between devices via a memory device such as a UBS memory.

<変形例2>
第1の実施形態では、キャリブレーション装置15や生成装置25は、撮像装置と別個の装置として説明したが、キャリブレーション装置15や生成装置25は、撮像装置と一体化しても良い。
<Modification 2>
In the first embodiment, the calibration device 15 and the generation device 25 have been described as separate devices from the imaging device, but the calibration device 15 and the generation device 25 may be integrated with the imaging device.

例えば、キャリブレーション装置15をハードウェアもしくはソフトウェア(ファームウェア)の形態で撮像装置11に組み込んでも良い。また例えば、生成装置25をハードウェアもしくはソフトウェア(ファームウェア)の形態で撮像装置22に組み込んでも良い。 For example, the calibration device 15 may be incorporated into the imaging device 11 in the form of hardware or software (firmware). Furthermore, for example, the generation device 25 may be incorporated into the imaging device 22 in the form of hardware or software (firmware).

<変形例3>
第1の実施形態では、XYZ値を式(12)に従ってACESRGB値に変換し、RGB値からACESRGB値に変換するための3DLUTを生成した。しかし、式(12)の代わりに以下の式(13)~(14)を用いて、XYZ値をsRGB値に変換し、RGB値からsRGB値に変換するための3DLUTを生成しても良い。
<Modification 3>
In the first embodiment, XYZ values were converted to ACESRGB values according to equation (12), and a 3DLUT for converting RGB values to ACESRGB values was generated. However, the following equations (13) and (14) may be used instead of equation (12) to convert the XYZ values to sRGB values and generate a 3DLUT for converting the RGB values to sRGB values.

Figure 2023180036000010
Figure 2023180036000010

<変形例4>
第1の実施形態では、評価値は上記の式(10)を用いて求めたΔEに限らず、例えば、以下の式(15)を用いて求めたΔE’であっても良い。
<Modification 4>
In the first embodiment, the evaluation value is not limited to ΔE obtained using the above equation (10), but may be, for example, ΔE′ obtained using the following equation (15).

Figure 2023180036000011
Figure 2023180036000011

<変形例5>
第1の実施形態では、RGB値、XYZ値、Lab値などの、色データを用いた処理について説明したが、用いる色データはこのような色空間における色データに限らず、他の色空間における色データを用いても構わない。
<Modification 5>
In the first embodiment, processing using color data such as RGB values, XYZ values, Lab values, etc. was explained, but the color data used is not limited to color data in such color spaces, but also color data in other color spaces. Color data may also be used.

<第1の実施形態の効果>
あらかじめある環境下でマスター撮像装置を分光放射輝度計でキャリブレーションし、キャリブレーションしたマスター撮像装置と同機種の撮像装置を用いて色合わせ対象の撮像装置と同じ色票を撮像し、マスター撮像装置と色合わせ対象の撮像装置との間の色を合わせることで、現場で分光放射輝度計を用いることなく、高精度に色合わせ対象の撮像装置の色再現をACESRGBなどの規格にマッチングすることが可能である。
<Effects of the first embodiment>
The master imaging device is calibrated in advance using a spectroradiometer under a certain environment, and an imaging device of the same model as the calibrated master imaging device is used to image the same color chart as the imaging device to be color matched. By matching the colors between the image pickup device and the image pickup device to be color matched, it is possible to match the color reproduction of the image pickup device to be color matched with standards such as ACESRGB with high precision without using a spectral radiance meter on site. It is possible.

[第2の実施形態]
本実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、ステップS1において撮像装置11の露出条件は変えずに1種類の露出条件のみに対してキャリブレーション情報を生成していた。しかし、スタジオ2における照明の明るさによってはキャリブレーション時の露出では合わない可能性がある。そこで本実施形態では、それぞれ異なる露出条件に対してキャリブレーション情報を生成し、スタジオ2における照明の明るさに対応するキャリブレーション情報を選択して使用する。
[Second embodiment]
In this embodiment, differences from the first embodiment will be explained, and unless otherwise mentioned below, it is assumed that the embodiment is the same as the first embodiment. In the first embodiment, in step S1, calibration information is generated for only one type of exposure condition without changing the exposure condition of the imaging device 11. However, depending on the brightness of the lighting in the studio 2, there is a possibility that the exposure at the time of calibration will not be appropriate. Therefore, in this embodiment, calibration information is generated for each different exposure condition, and calibration information corresponding to the brightness of the lighting in the studio 2 is selected and used.

上記のステップS1の詳細、つまり、第1サブシステムの動作について、図10のフローチャートに従って説明する。ステップS15では、第1サブシステム(たとえばキャリブレーション装置15)は基準露出を決定する。基準露出は、例えば色票13のなかで反射率18%のグレーの撮影値が中間値(16ビットの場合は32768)になるような露出を基準露出とする。そして、基準露出から±2段の範囲で1/3段ずつ露出を変化させて撮影することとする。そして第1サブシステム(たとえばキャリブレーション装置15)は、撮像装置11の露出条件を基準露出に設定する。 The details of the above step S1, that is, the operation of the first subsystem will be explained according to the flowchart of FIG. 10. In step S15, the first subsystem (eg, calibration device 15) determines a reference exposure. For example, the standard exposure is such that the photographed value of gray with a reflectance of 18% in the color chart 13 becomes an intermediate value (32768 in the case of 16 bits). Then, the exposure is changed by 1/3 step in a range of ±2 steps from the standard exposure and photographed. Then, the first subsystem (for example, the calibration device 15) sets the exposure condition of the imaging device 11 to the reference exposure.

ステップS11では、撮像装置11は、設定された露出条件に従って、第1環境における(照明装置14による照明下における)色票13を撮像して該色票13の撮像画像を生成し、該生成した撮像画像を出力する。 In step S11, the imaging device 11 images the color patch 13 in the first environment (under illumination by the lighting device 14) according to the set exposure conditions, generates a captured image of the color patch 13, and generates a captured image of the color patch 13. Output the captured image.

そして、撮像装置11が基準露出から±2段の範囲における全ての露出条件で撮像を行った場合には、処理はステップS16を介してステップS12に進む。一方、撮像装置11が基準露出から±2段の範囲において未だ撮像を行っていない露出条件が残っている場合には、該残っている露出条件のうち1つを撮像装置11の露出条件に設定して処理はステップS16を介してステップS11に進む。処理がステップS12に進んだ時点で、様々な露出条件で撮像された色票13の撮像画像が取得済みである。 If the imaging device 11 captures images under all exposure conditions within the range of ±2 steps from the standard exposure, the process proceeds to step S12 via step S16. On the other hand, if there remain exposure conditions for which the imaging device 11 has not yet captured an image within a range of ±2 steps from the standard exposure, one of the remaining exposure conditions is set as the exposure condition of the imaging device 11. The process then proceeds to step S11 via step S16. When the process proceeds to step S12, captured images of the color patch 13 captured under various exposure conditions have been acquired.

ステップS12では、分光放射輝度計12は第1の実施形態と同様、第1環境における(照明装置14による照明下における)色票13を測定して、該色票13(各パッチ)の測定値を出力する。 In step S12, as in the first embodiment, the spectral radiance meter 12 measures the color patch 13 in the first environment (under illumination by the lighting device 14), and measures the measured value of the color patch 13 (each patch). Output.

そして、照明装置14による様々な色温度(例えば、3000K~6500Kの範囲からサンプリングした100個の色温度のそれぞれ)の照明下においてステップS11における撮像およびステップS12における測定が行われた場合には、処理はステップS13を介してステップS14に進む。一方、照明装置14により未だ照明していない色温度が残っている場合には、照明装置14は未だ照明していない色温度の照明を行い、処理はステップS13を介してステップS11に進む。 Then, when the imaging in step S11 and the measurement in step S12 are performed under illumination of various color temperatures (for example, each of 100 color temperatures sampled from the range of 3000K to 6500K) by the illumination device 14, The process proceeds to step S14 via step S13. On the other hand, if there remains a color temperature that has not yet been illuminated by the illumination device 14, the illumination device 14 illuminates the color temperature that has not yet been illuminated, and the process proceeds to step S11 via step S13.

つまり、ステップS14に処理が進んだ時点で、様々な照明下において様々な露出条件で撮像された色票13の撮像画像、様々な照明下において測定された色票13の測定値、が取得済みである。 In other words, when the process proceeds to step S14, captured images of the color patch 13 taken under various illuminations and under various exposure conditions, and measured values of the color patch 13 measured under various illuminations have been acquired. It is.

ステップS14では、キャリブレーション装置15は露出条件ごとに、撮像装置11により様々な照明下において該露出条件で撮像された色票13の撮像画像と、分光放射輝度計12により様々な照明下において測定された色票13の測定値と、を用いて、該露出条件に対応するキャリブレーション情報を生成する。1つの露出条件に対するキャリブレーション情報の生成方法については第1の実施形態で説明したとおりであるから、同様の処理をそれぞれの露出条件について行うことで、それぞれ異なる露出条件に対応するキャリブレーション情報を生成することができる。 In step S14, for each exposure condition, the calibration device 15 uses the captured images of the color patch 13 captured under various illumination conditions by the imaging device 11, and the images measured under various illuminations by the spectral radiance meter 12. Calibration information corresponding to the exposure conditions is generated using the measured values of the color patch 13 that have been obtained. The method for generating calibration information for one exposure condition is as explained in the first embodiment, so by performing the same process for each exposure condition, calibration information corresponding to each different exposure condition can be generated. can be generated.

次に、本実施形態に係る第2サブシステムのより詳細な構成例について、図11のブロック図を用いて説明する。図11において図7に示した機能部と同様の機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。図11に示した構成は、図7に示した構成に選択部256を加えた構成となっている。選択部256は、照明24の明るさを検出し、該検出した明るさに応じて撮像装置21の露出条件を制御する。 Next, a more detailed configuration example of the second subsystem according to this embodiment will be described using the block diagram of FIG. 11. In FIG. 11, functional parts similar to those shown in FIG. 7 are given the same reference numerals, and a description of the functional parts will be omitted. The configuration shown in FIG. 11 has a selection section 256 added to the configuration shown in FIG. The selection unit 256 detects the brightness of the illumination 24 and controls the exposure conditions of the imaging device 21 according to the detected brightness.

本実施形態に係るステップS23における処理の詳細について、図12のフローチャートに従って説明する。図12において図9と同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。 The details of the process in step S23 according to this embodiment will be explained according to the flowchart of FIG. 12. In FIG. 12, the same step numbers as those in FIG. 9 are given the same step numbers, and explanations regarding the processing steps will be omitted.

ステップS236では、入力部251は、キャリブレーション装置15により生成された露出条件ごとのキャリブレーション情報を取得する。ステップS237では、選択部256は、ステップS236で取得した露出条件ごとのキャリブレーション情報のうち、現在の撮像装置21の露出条件と同じ露出条件のキャリブレーション情報があれば、現在の撮像装置21の露出条件と同じ露出条件のキャリブレーション情報を選択する。この場合、選択部256は、変数EBに0を設定する。一方、選択部256は、現在の撮像装置21の露出条件と同じ露出条件のキャリブレーション情報が見つからなかった場合には、現在の撮像装置21の露出条件に最も近い(現在の撮像装置21の露出条件との露出差の段数が最も小さい)露出条件のキャリブレーション情報を選択する。この場合、選択部256は、選択したキャリブレーション情報に対応する露出条件と、現在の撮像装置21の露出条件と、の露出差の段階数を変数EBに設定する。 In step S236, the input unit 251 acquires calibration information for each exposure condition generated by the calibration device 15. In step S237, the selection unit 256 selects the calibration information of the current imaging device 21 if there is calibration information with the same exposure condition as the current imaging device 21 among the calibration information for each exposure condition acquired in step S236. Select calibration information with the same exposure conditions as the exposure conditions. In this case, the selection unit 256 sets the variable EB to 0. On the other hand, if the selection unit 256 cannot find the calibration information with the same exposure condition as the current exposure condition of the imaging device 21, the selection unit 256 selects the calibration information closest to the current exposure condition of the imaging device 21 (the current exposure condition of the imaging device 21). Select the calibration information for the exposure condition (with the smallest number of steps of exposure difference). In this case, the selection unit 256 sets the number of steps of the exposure difference between the exposure condition corresponding to the selected calibration information and the current exposure condition of the imaging device 21 to the variable EB.

ステップS238では、反映部252は、ステップS237で選択されたキャリブレーション情報を用いて第1の実施形態(ステップS233)と同様にして、色票23におけるそれぞれのパッチのXYZ値を求める。そして反映部252は、該求めたXYZ値を上記の変数EBを用いて以下の式(16)に従って補正する。この補正されたXYZ値(X’、Y’、Z’)を、ステップS233で求めたXYZ値の代わりに用いて以降の処理を行う。 In step S238, the reflection unit 252 uses the calibration information selected in step S237 to obtain the XYZ values of each patch in the color chart 23 in the same manner as in the first embodiment (step S233). Then, the reflection unit 252 corrects the obtained XYZ values using the above-mentioned variable EB according to the following equation (16). The corrected XYZ values (X', Y', Z') are used in place of the XYZ values obtained in step S233 to perform subsequent processing.

Figure 2023180036000012
Figure 2023180036000012

<第2の実施形態の効果>
第1の実施形態に係る効果に加え、マスタースタジオ1における照明の明るさとスタジオ2における照明の明るさとが異なっていても、スタジオ2の明るさに応じてキャリブレーション情報を選択することで高精度にマッチングを行うことが可能である。
<Effects of the second embodiment>
In addition to the effects of the first embodiment, even if the brightness of the lighting in the master studio 1 and the brightness of the lighting in the studio 2 are different, high precision can be achieved by selecting calibration information according to the brightness of the studio 2. It is possible to perform matching.

[第3の実施形態]
図4に示したキャリブレーション装置15の機能部(保持部153を除く)や、図7や図11に示す生成装置25の機能部(保持部254を除く)はソフトウェア(コンピュータプログラム)で実装しても良いし、ハードウェアで実装しても良い。前者の場合、該コンピュータプログラムを実行可能なコンピュータ装置は、キャリブレーション装置15や生成装置25に適用可能である。キャリブレーション装置15や生成装置25に適用可能なコンピュータ装置のハードウェア構成例について、図13のブロック図を用いて説明する。なお、キャリブレーション装置15に適用するコンピュータ装置と生成装置25に適用するコンピュータ装置とは同じ構成でなくても良い。
[Third embodiment]
The functional units of the calibration device 15 shown in FIG. 4 (excluding the holding unit 153) and the functional units of the generating device 25 shown in FIGS. 7 and 11 (excluding the holding unit 254) are implemented by software (computer program). It may also be implemented using hardware. In the former case, a computer device capable of executing the computer program can be applied to the calibration device 15 and the generation device 25. An example of a hardware configuration of a computer device applicable to the calibration device 15 and the generation device 25 will be described using the block diagram of FIG. 13. Note that the computer device applied to the calibration device 15 and the computer device applied to the generation device 25 may not have the same configuration.

CPU1301は、RAM1302やROM1303に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU1301は、コンピュータ装置全体の動作制御を行うと共に、キャリブレーション装置15や生成装置25が行うものとして説明した各種の処理を実行もしくは制御する。 The CPU 1301 executes various processes using computer programs and data stored in the RAM 1302 and ROM 1303. Thereby, the CPU 1301 controls the operation of the entire computer device, and also executes or controls the various processes described as being performed by the calibration device 15 and the generation device 25.

RAM1302は、ROM1303や外部記憶装置1306からロードされたコンピュータプログラムやデータを格納するためのエリア、I/F1307を介して外部から受信したデータを格納するためのエリア、を有する。さらにRAM1302は、CPU1301が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1302は、各種のエリアを適宜提供することができる。 The RAM 1302 has an area for storing computer programs and data loaded from the ROM 1303 and the external storage device 1306, and an area for storing data received from the outside via the I/F 1307. Further, the RAM 1302 has a work area used when the CPU 1301 executes various processes. In this way, the RAM 1302 can provide various areas as appropriate.

ROM1303には、コンピュータ装置の設定データ、コンピュータ装置の起動に係るコンピュータプログラムやデータ、コンピュータ装置の基本動作に係るコンピュータプログラムやデータ、などが格納されている。 The ROM 1303 stores configuration data for the computer device, computer programs and data related to starting the computer device, computer programs and data related to the basic operations of the computer device, and the like.

操作部1304は、キーボード、マウス、タッチパネル画面などのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU1301に対して入力することができる。 The operation unit 1304 is a user interface such as a keyboard, mouse, touch panel screen, etc., and can be operated by the user to input various instructions to the CPU 1301.

表示部1305は、液晶画面やタッチパネル画面を有し、CPU1301による処理結果を画像や文字などでもって表示することができる。なお、表示部1305は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。 The display unit 1305 has a liquid crystal screen or a touch panel screen, and can display processing results by the CPU 1301 in the form of images, characters, and the like. Note that the display unit 1305 may be a projection device such as a projector that projects images and characters.

外部記憶装置1306は、ハードディスクドライブなどの大容量情報記憶装置である。外部記憶装置1306には、OS、キャリブレーション装置15や生成装置25が行うものとして説明した各種の処理をCPU1301に実行若しくは制御させるためのコンピュータプログラムやデータ、などが保存されている。外部記憶装置1306に保存されているコンピュータプログラムやデータは、CPU1301による制御に従って適宜RAM1302にロードされ、CPU1301による処理対象となる。図4の保持部153や図7および図11の保持部254は、RAM1302、ROM1303、外部記憶装置1306などでもって実装することができる。 External storage device 1306 is a mass information storage device such as a hard disk drive. The external storage device 1306 stores computer programs and data for causing the CPU 1301 to execute or control the various processes described as being performed by the OS, the calibration device 15 and the generation device 25, and the like. Computer programs and data stored in the external storage device 1306 are loaded into the RAM 1302 as appropriate under the control of the CPU 1301, and are processed by the CPU 1301. The holding unit 153 in FIG. 4 and the holding unit 254 in FIGS. 7 and 11 can be implemented using a RAM 1302, a ROM 1303, an external storage device 1306, or the like.

I/F1307は、撮像装置11、分光放射輝度計12、撮像装置21、撮像装置22、を接続するためのインターフェースを含む。コンピュータ装置はI/F1307を介して撮像装置11、分光放射輝度計12、撮像装置21、撮像装置22との間のデータ通信を行うことができる。 The I/F 1307 includes an interface for connecting the imaging device 11, the spectral radiance meter 12, the imaging device 21, and the imaging device 22. The computer device can perform data communication with the imaging device 11, the spectral radiance meter 12, the imaging device 21, and the imaging device 22 via the I/F 1307.

CPU1301、RAM1302、ROM1303、操作部1304、表示部1305、外部記憶装置1306、I/F1307はいずれもシステムバス1308に接続されている。なお、図13に示したハードウェア構成は、キャリブレーション装置15や生成装置25に適用可能なコンピュータ装置のハードウェア構成の一例であり、適宜変更/変形が可能である。 The CPU 1301, RAM 1302, ROM 1303, operation unit 1304, display unit 1305, external storage device 1306, and I/F 1307 are all connected to a system bus 1308. Note that the hardware configuration shown in FIG. 13 is an example of the hardware configuration of a computer device that can be applied to the calibration device 15 and the generation device 25, and can be changed/modified as appropriate.

また、上記の各実施形態や変形例で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の取得方法/送信先/送信元/格納場所、色空間などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。 In addition, the numerical values, processing timing, processing order, processing subject, data (information) acquisition method/destination/source/storage location, color space, etc. used in each of the above embodiments and modifications are not specific. This is given as an example for the purpose of explanation, and is not intended to be limited to this one example.

また、以上説明した各実施形態や変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や変形例の一部若しくは全部を選択的に使用しても構わない。 Furthermore, some or all of the embodiments and modifications described above may be used in combination as appropriate. Furthermore, some or all of the embodiments and modifications described above may be selectively used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本明細書の発明は、以下の画像処理装置、画像処理方法、コンピュータプログラムを含む。 The invention in this specification includes the following image processing apparatus, image processing method, and computer program.

(項目1)
第1環境において第1撮像装置により撮像された色票の撮像画像に基づいて生成された色変換テーブルを取得する第1取得手段と、
前記第1環境とは異なる第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記色変換テーブルと、に基づいて生成される第1色データを取得する第2取得手段と、
前記第2環境において第2撮像装置により撮像された前記色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される第2色データを取得する第3取得手段と、
前記第1色データと前記第2色データに基づく評価値が所定値より小さくなるような前記変換情報を、色処理用のパラメータとして生成する生成手段と
を備えることを特徴とする画像処理装置。
(Item 1)
a first acquisition unit that acquires a color conversion table generated based on a captured image of a color chart captured by a first imaging device in a first environment;
obtaining first color data generated based on the color conversion table and color data obtained from a captured image of a color chart captured by the first imaging device in a second environment different from the first environment; a second acquisition means for
a third acquisition unit that acquires second color data generated based on conversion information and color data acquired from an image of the color chart captured by a second imaging device in the second environment;
An image processing apparatus comprising: generating means for generating, as a parameter for color processing, the conversion information such that an evaluation value based on the first color data and the second color data is smaller than a predetermined value.

(項目2)
前記第1取得手段は、前記第1環境における外部装置にて生成された色変換テーブルを取得することを特徴とする項目1に記載の画像処理装置。
(Item 2)
The image processing apparatus according to item 1, wherein the first acquisition means acquires a color conversion table generated by an external device in the first environment.

(項目3)
前記第1環境は、それぞれ異なる色温度の照明下における環境であり、
前記色変換テーブルは、前記第1環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される色データと、前記第1環境において前記色票を測定した結果に基づいて得られる色データと、に基づく評価値が最小となるような該変換情報による変換前の色データと、変換後の色データと、を対応付けて登録した3DLUTであることを特徴とする項目1または2に記載の画像処理装置。
(Item 3)
The first environment is an environment under illumination with different color temperatures,
The color conversion table includes color data generated based on conversion information and color data acquired from a captured image of a color chart captured by the first imaging device in the first environment, and color data generated based on conversion information; color data obtained based on the result of measuring the color chart at , color data before conversion based on the conversion information such that the evaluation value based on is the minimum, and color data after conversion are registered in association with each other. The image processing device according to item 1 or 2, wherein the image processing device is a 3DLUT.

(項目4)
前記第2取得手段は、前記第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得したRGB値を前記色変換テーブルに基づいて変換したXYZ値に対応するLab値を前記第1色データとして取得し、
前記第3取得手段は、前記第2環境において前記第2撮像装置により撮像された前記色票の撮像画像から取得したRGB値を前記変換情報に基づいて変換したXYZ値に対応するLab値を前記第2色データとして取得し、
前記生成手段は、前記第1色データと前記第2色データとの差分に基づく評価値が最小となるような前記変換情報を、前記パラメータとして生成する
ことを特徴とする項目1ないし3のいずれか1項目に記載の画像処理装置。
(Item 4)
The second acquisition means acquires the Lab values corresponding to the XYZ values obtained by converting the RGB values acquired from the captured image of the color chart captured by the first imaging device in the second environment based on the color conversion table. Obtained as the first color data,
The third acquisition means acquires the Lab values corresponding to the XYZ values obtained by converting the RGB values acquired from the captured image of the color chart captured by the second imaging device in the second environment based on the conversion information. Obtained as second color data,
Any of items 1 to 3, characterized in that the generating means generates, as the parameter, the conversion information that minimizes the evaluation value based on the difference between the first color data and the second color data. The image processing device according to item 1.

(項目5)
さらに、
色データと、該色データを前記パラメータに基づいて変換した色データと、を対応付けて登録した色変換テーブルを生成する色変換テーブル生成手段を備えることを特徴とする項目1ないし4のいずれか1項目に記載の画像処理装置。
(Item 5)
moreover,
Any one of items 1 to 4, characterized by comprising a color conversion table generation means for generating a color conversion table in which color data and color data obtained by converting the color data based on the parameters are registered in association with each other. The image processing device according to item 1.

(項目6)
前記色変換テーブル生成手段は、RGB値を前記パラメータに基づいて変換したXYZ値に対応するACESRGB値を求め、該RGB値と該ACESRGB値とを対応付けて登録した色変換テーブルを生成することを特徴とする項目5に記載の画像処理装置。
(Item 6)
The color conversion table generation means calculates an ACESRGB value corresponding to the XYZ value obtained by converting the RGB value based on the parameter, and generates a color conversion table in which the RGB value and the ACESRGB value are registered in association with each other. The image processing device according to feature item 5.

(項目7)
前記色変換テーブル生成手段は、RGB値を前記パラメータに基づいて変換したXYZ値に対応するsRGB値を求め、該RGB値と該sRGB値とを対応付けて登録した色変換テーブルを生成することを特徴とする項目5に記載の画像処理装置。
(Item 7)
The color conversion table generation means calculates sRGB values corresponding to XYZ values obtained by converting RGB values based on the parameters, and generates a color conversion table in which the RGB values and the sRGB values are registered in association with each other. The image processing device according to feature item 5.

(項目8)
さらに、
前記色変換テーブル、もしくは該色変換テーブルを用いて色変換を行った撮像画像を出力する出力手段を備えることを特徴とする項目1ないし7のいずれか1項目に記載の画像処理装置。
(Item 8)
moreover,
8. The image processing apparatus according to any one of items 1 to 7, further comprising an output means for outputting the color conversion table or a captured image that has undergone color conversion using the color conversion table.

(項目9)
前記第1取得手段は、露出条件ごとの色変換テーブルを取得し、
前記第2取得手段は、前記第1取得手段が取得した色変換テーブルのうち、前記第1撮像装置の露出条件に最も近い露出条件の色変換テーブルを選択し、前記第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記選択された色変換テーブルと、に基づいて生成される第1色データを取得する
ことを特徴とする項目1ないし8のいずれか1項目に記載の画像処理装置。
(Item 9)
The first acquisition means acquires a color conversion table for each exposure condition,
The second acquisition means selects a color conversion table with an exposure condition closest to the exposure condition of the first imaging device from among the color conversion tables acquired by the first acquisition means, and selects a color conversion table with an exposure condition closest to the exposure condition of the first imaging device, and Items 1 to 8, characterized in that the first color data generated based on the selected color conversion table and the color data obtained from the captured image of the color chart captured by the imaging device are obtained. The image processing device according to any one item.

(項目10)
前記第2取得手段は、前記第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得したRGB値を前記選択された色変換テーブルを用いて変換したXYZ値を求め、該XYZ値を、前記第1撮像装置の露出条件と前記選択されたキャリブレーション情報の露出条件との露出差の段数に応じて補正し、該補正したXYZ値に対応するLab値を前記第1色データとして取得することを特徴とする項目9に記載の画像処理装置。
(Item 10)
The second acquisition means converts the RGB values acquired from the captured image of the color chart captured by the first imaging device in the second environment using the selected color conversion table, and calculates the XYZ values. The XYZ values are corrected according to the number of steps of exposure difference between the exposure conditions of the first imaging device and the exposure conditions of the selected calibration information, and the Lab values corresponding to the corrected XYZ values are corrected for the first color. The image processing device according to item 9, characterized in that the image processing device is acquired as data.

(項目11)
画像処理装置が行う画像処理方法であって、
前記画像処理装置の第1取得手段が、第1環境において第1撮像装置により撮像された色票の撮像画像に基づいて生成された色変換テーブルを取得する第1取得工程と、
前記画像処理装置の第2取得手段が、前記第1環境とは異なる第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記色変換テーブルと、に基づいて生成される第1色データを取得する第2取得工程と、
前記画像処理装置の第3取得手段が、前記第2環境において第2撮像装置により撮像された前記色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される第2色データを取得する第3取得工程と、
前記画像処理装置の生成手段が、前記第1色データと前記第2色データに基づく評価値が所定値より小さくなるような前記変換情報を、色処理用のパラメータとして生成する生成工程と
を備えることを特徴とする画像処理方法。
(Item 11)
An image processing method performed by an image processing device, the method comprising:
a first acquisition step in which a first acquisition unit of the image processing device acquires a color conversion table generated based on a captured image of a color chart captured by a first imaging device in a first environment;
A second acquisition unit of the image processing device includes color data acquired from a captured image of a color chart captured by the first imaging device in a second environment different from the first environment, and the color conversion table. a second acquisition step of acquiring first color data generated based on the
A second color generated by a third acquisition means of the image processing device based on conversion information and color data acquired from an image of the color chart captured by a second imaging device in the second environment. a third acquisition step of acquiring data;
a generation step in which the generation means of the image processing device generates, as a parameter for color processing, the conversion information such that an evaluation value based on the first color data and the second color data is smaller than a predetermined value. An image processing method characterized by:

(項目12)
コンピュータを、項目1ないし10のいずれか1項目に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
(Item 12)
A computer program for causing a computer to function as each means of the image processing apparatus according to any one of items 1 to 10.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

1:マスタースタジオ 2:スタジオ 11:撮像装置 12:分光放射輝度計 13:色票 14:照明装置 15:キャリブレーション装置 21:撮像装置 22:撮像装置 23:色票 24:照明装置 25:生成装置 1: Master studio 2: Studio 11: Imaging device 12: Spectral radiance meter 13: Color chart 14: Illumination device 15: Calibration device 21: Imaging device 22: Imaging device 23: Color chart 24: Illumination device 25: Generation device

Claims (12)

第1環境において第1撮像装置により撮像された色票の撮像画像に基づいて生成された色変換テーブルを取得する第1取得手段と、
前記第1環境とは異なる第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記色変換テーブルと、に基づいて生成される第1色データを取得する第2取得手段と、
前記第2環境において第2撮像装置により撮像された前記色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される第2色データを取得する第3取得手段と、
前記第1色データと前記第2色データに基づく評価値が所定値より小さくなるような前記変換情報を、色処理用のパラメータとして生成する生成手段と
を備えることを特徴とする画像処理装置。
a first acquisition unit that acquires a color conversion table generated based on a captured image of a color chart captured by a first imaging device in a first environment;
obtaining first color data generated based on the color conversion table and color data obtained from a captured image of a color chart captured by the first imaging device in a second environment different from the first environment; a second acquisition means for
a third acquisition unit that acquires second color data generated based on conversion information and color data acquired from an image of the color chart captured by a second imaging device in the second environment;
An image processing apparatus comprising: generating means for generating, as a parameter for color processing, the conversion information such that an evaluation value based on the first color data and the second color data is smaller than a predetermined value.
前記第1取得手段は、前記第1環境における外部装置にて生成された色変換テーブルを取得することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the first acquisition unit acquires a color conversion table generated by an external device in the first environment. 前記第1環境は、それぞれ異なる色温度の照明下における環境であり、
前記色変換テーブルは、前記第1環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される色データと、前記第1環境において前記色票を測定した結果に基づいて得られる色データと、に基づく評価値が最小となるような該変換情報による変換前の色データと、変換後の色データと、を対応付けて登録した3DLUTであることを特徴とする請求項1に記載の画像処理装置。
The first environment is an environment under illumination with different color temperatures,
The color conversion table includes color data generated based on conversion information and color data acquired from a captured image of a color chart captured by the first imaging device in the first environment, and color data generated based on conversion information; color data obtained based on the result of measuring the color chart at , color data before conversion based on the conversion information such that the evaluation value based on is the minimum, and color data after conversion are registered in association with each other. The image processing apparatus according to claim 1, wherein the image processing apparatus is a 3DLUT.
前記第2取得手段は、前記第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得したRGB値を前記色変換テーブルに基づいて変換したXYZ値に対応するLab値を前記第1色データとして取得し、
前記第3取得手段は、前記第2環境において前記第2撮像装置により撮像された前記色票の撮像画像から取得したRGB値を前記変換情報に基づいて変換したXYZ値に対応するLab値を前記第2色データとして取得し、
前記生成手段は、前記第1色データと前記第2色データとの差分に基づく評価値が最小となるような前記変換情報を、前記パラメータとして生成する
ことを特徴とする請求項1に記載の画像処理装置。
The second acquisition means acquires the Lab values corresponding to the XYZ values obtained by converting the RGB values acquired from the captured image of the color chart captured by the first imaging device in the second environment based on the color conversion table. Obtained as the first color data,
The third acquisition means acquires the Lab values corresponding to the XYZ values obtained by converting the RGB values acquired from the captured image of the color chart captured by the second imaging device in the second environment based on the conversion information. Obtained as second color data,
2. The generating means generates, as the parameter, the conversion information that minimizes the evaluation value based on the difference between the first color data and the second color data. Image processing device.
さらに、
色データと、該色データを前記パラメータに基づいて変換した色データと、を対応付けて登録した色変換テーブルを生成する色変換テーブル生成手段を備えることを特徴とする請求項1に記載の画像処理装置。
moreover,
The image according to claim 1, further comprising color conversion table generation means for generating a color conversion table in which color data and color data obtained by converting the color data based on the parameters are registered in association with each other. Processing equipment.
前記色変換テーブル生成手段は、RGB値を前記パラメータに基づいて変換したXYZ値に対応するACESRGB値を求め、該RGB値と該ACESRGB値とを対応付けて登録した色変換テーブルを生成することを特徴とする請求項5に記載の画像処理装置。 The color conversion table generation means calculates an ACESRGB value corresponding to the XYZ value obtained by converting the RGB value based on the parameter, and generates a color conversion table in which the RGB value and the ACESRGB value are registered in association with each other. The image processing device according to claim 5. 前記色変換テーブル生成手段は、RGB値を前記パラメータに基づいて変換したXYZ値に対応するsRGB値を求め、該RGB値と該sRGB値とを対応付けて登録した色変換テーブルを生成することを特徴とする請求項5に記載の画像処理装置。 The color conversion table generation means calculates sRGB values corresponding to XYZ values obtained by converting RGB values based on the parameters, and generates a color conversion table in which the RGB values and the sRGB values are registered in association with each other. The image processing device according to claim 5. さらに、
前記色変換テーブル、もしくは該色変換テーブルを用いて色変換を行った撮像画像を出力する出力手段を備えることを特徴とする請求項1に記載の画像処理装置。
moreover,
2. The image processing apparatus according to claim 1, further comprising an output means for outputting the color conversion table or a captured image subjected to color conversion using the color conversion table.
前記第1取得手段は、露出条件ごとの色変換テーブルを取得し、
前記第2取得手段は、前記第1取得手段が取得した色変換テーブルのうち、前記第1撮像装置の露出条件に最も近い露出条件の色変換テーブルを選択し、前記第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記選択された色変換テーブルと、に基づいて生成される第1色データを取得する
ことを特徴とする請求項1に記載の画像処理装置。
The first acquisition means acquires a color conversion table for each exposure condition,
The second acquisition means selects a color conversion table with an exposure condition closest to the exposure condition of the first imaging device from among the color conversion tables acquired by the first acquisition means, and selects a color conversion table with an exposure condition closest to the exposure condition of the first imaging device, and 2. The first color data generated based on the selected color conversion table and the color data obtained from the captured image of the color chart captured by the imaging device. image processing device.
前記第2取得手段は、前記第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得したRGB値を前記選択された色変換テーブルを用いて変換したXYZ値を求め、該XYZ値を、前記第1撮像装置の露出条件と前記選択されたキャリブレーション情報の露出条件との露出差の段数に応じて補正し、該補正したXYZ値に対応するLab値を前記第1色データとして取得することを特徴とする請求項9に記載の画像処理装置。 The second acquisition means converts the RGB values acquired from the captured image of the color chart captured by the first imaging device in the second environment using the selected color conversion table, and calculates the XYZ values. The XYZ values are corrected according to the number of steps of exposure difference between the exposure conditions of the first imaging device and the exposure conditions of the selected calibration information, and the Lab values corresponding to the corrected XYZ values are corrected for the first color. The image processing apparatus according to claim 9, wherein the image processing apparatus is acquired as data. 画像処理装置が行う画像処理方法であって、
前記画像処理装置の第1取得手段が、第1環境において第1撮像装置により撮像された色票の撮像画像に基づいて生成された色変換テーブルを取得する第1取得工程と、
前記画像処理装置の第2取得手段が、前記第1環境とは異なる第2環境において前記第1撮像装置により撮像された色票の撮像画像から取得した色データと、前記色変換テーブルと、に基づいて生成される第1色データを取得する第2取得工程と、
前記画像処理装置の第3取得手段が、前記第2環境において第2撮像装置により撮像された前記色票の撮像画像から取得した色データと、変換情報と、に基づいて生成される第2色データを取得する第3取得工程と、
前記画像処理装置の生成手段が、前記第1色データと前記第2色データに基づく評価値が所定値より小さくなるような前記変換情報を、色処理用のパラメータとして生成する生成工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing device, the method comprising:
a first acquisition step in which a first acquisition unit of the image processing device acquires a color conversion table generated based on a captured image of a color chart captured by a first imaging device in a first environment;
A second acquisition unit of the image processing device includes color data acquired from a captured image of a color chart captured by the first imaging device in a second environment different from the first environment, and the color conversion table. a second acquisition step of acquiring first color data generated based on the
A second color generated by a third acquisition means of the image processing device based on conversion information and color data acquired from a captured image of the color chart captured by a second imaging device in the second environment. a third acquisition step of acquiring data;
a generation step in which the generation means of the image processing device generates, as a parameter for color processing, the conversion information such that an evaluation value based on the first color data and the second color data is smaller than a predetermined value. An image processing method characterized by:
コンピュータを、請求項1ないし10のいずれか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing apparatus according to claim 1.
JP2022093092A 2022-06-08 2022-06-08 Image processing device and image processing method Pending JP2023180036A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022093092A JP2023180036A (en) 2022-06-08 2022-06-08 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022093092A JP2023180036A (en) 2022-06-08 2022-06-08 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2023180036A true JP2023180036A (en) 2023-12-20

Family

ID=89235706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022093092A Pending JP2023180036A (en) 2022-06-08 2022-06-08 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2023180036A (en)

Similar Documents

Publication Publication Date Title
US8045186B2 (en) Image processing apparatus, image processing method, computer readable medium and data signal
JP6382519B2 (en) Color calibration method for image capture device
JP2009117991A (en) Image conversion apparatus and image conversion program
JP5473194B2 (en) Color processing apparatus and method
JP4830068B2 (en) Two-dimensional colorimeter and spectral sensitivity correction method
JP3943167B2 (en) Color conversion method
JP2023180036A (en) Image processing device and image processing method
JP2007271567A (en) Method of specifying color difference stabilizing wavelength of color filter, and program
JP2011004091A (en) Image processor and image processing method
CN115426487B (en) Color correction matrix adjustment method, device, electronic equipment and readable storage medium
JP2008177783A (en) Color conversion device and program
JP4934487B2 (en) Color processing apparatus and method
JPH10108031A (en) Device and method for processing image and recording medium
CN111896109B (en) Spectrum reconstruction method based on original response value of digital camera
Lee et al. Design and implementation of color correction system for images captured by digital camera
JP2003283851A5 (en)
JP2010081327A (en) Method, device, and program of displaying printed matter to monitor
JP2017201250A (en) Change degree deriving device, change degree deriving system, change degree deriving method, known color body used for the same, and program
JP2008058613A (en) Image display system, color correction device, and color correction method
JP5748236B2 (en) Color correction information generation method and color correction apparatus
JP2010081051A (en) Method of converting color, color conversion device, and color conversion program
JP5482612B2 (en) Spectral reflectance acquisition apparatus and spectral reflectance acquisition method
JP2018007153A (en) Color processor, color processing system, and color processing program
JP5174257B2 (en) Color processing apparatus and method
JP2010273012A (en) Image processor, imaging apparatus and program