JP2021072541A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2021072541A
JP2021072541A JP2019197999A JP2019197999A JP2021072541A JP 2021072541 A JP2021072541 A JP 2021072541A JP 2019197999 A JP2019197999 A JP 2019197999A JP 2019197999 A JP2019197999 A JP 2019197999A JP 2021072541 A JP2021072541 A JP 2021072541A
Authority
JP
Japan
Prior art keywords
evaluation value
display
color
evaluation
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019197999A
Other languages
Japanese (ja)
Other versions
JP7366689B2 (en
Inventor
松浦 貴洋
Takahiro Matsuura
貴洋 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019197999A priority Critical patent/JP7366689B2/en
Publication of JP2021072541A publication Critical patent/JP2021072541A/en
Application granted granted Critical
Publication of JP7366689B2 publication Critical patent/JP7366689B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide processing for evaluating the color of a real object on the basis of a captured image of an object.SOLUTION: An image processing device comprises: acquisition means which acquires captured image data obtained by imaging an object; generation means which generates display image data by converting a first color signal value of each pixel included in a captured image expressed by the captured image data to a second color signal value corresponding to the characteristic of display means; calculation means which calculates the evaluation value of a color corresponding to a plurality of regions designated by a user in a display image expressed by the display image data; and display control means which displays the regions and the evaluation value on the display means in association with each other.SELECTED DRAWING: Figure 10

Description

本発明は、物体の色を評価するための画像処理技術に関する。 The present invention relates to an image processing technique for evaluating the color of an object.

従来、画像においてユーザに指定された領域の色を評価する技術が知られている。特許文献1は、画像において指定された領域の色がプリンタを用いてどのように表現されるかを、色空間上の3Dオブジェクトで表示する技術を開示している。 Conventionally, there is known a technique for evaluating the color of a region designated by a user in an image. Patent Document 1 discloses a technique of displaying how a color of a designated area in an image is expressed by using a printer with a 3D object in a color space.

特開2005−176204号公報Japanese Unexamined Patent Publication No. 2005-176204

しかしながら、特許文献1では、対象の画像が物体を撮像して得られた撮像画像である場合に、実物の色がどのような色であるかを評価することはできないという課題があった。 However, Patent Document 1 has a problem that it is not possible to evaluate what kind of color the actual color is when the target image is an captured image obtained by imaging an object.

本発明は、上記課題に鑑みてなされたものであり、物体の撮像画像を基に、実物の色を評価するための処理を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a process for evaluating the color of an actual object based on a captured image of an object.

上記課題を解決するために、本発明に係る画像処理装置は、物体を撮像して得られる撮像画像データを取得する取得手段と、前記撮像画像データが表す撮像画像に含まれる各画素の第1色信号値を表示手段の特性に応じた第2色信号値に変換することによって、表示画像データを生成する生成手段と、前記表示画像データが表す表示画像においてユーザに指定された複数の領域に対応する色の評価値を算出する算出手段と、前記複数の領域と、前記評価値と、を対応付けて前記表示手段に表示する表示制御手段と、を有することを特徴とする。 In order to solve the above problems, the image processing apparatus according to the present invention includes an acquisition means for acquiring captured image data obtained by imaging an object, and a first pixel included in the captured image represented by the captured image data. A generation means that generates display image data by converting a color signal value into a second color signal value according to the characteristics of the display means, and a plurality of areas designated by the user in the display image represented by the display image data. It is characterized by having a calculation means for calculating an evaluation value of a corresponding color, and a display control means for displaying the plurality of regions and the evaluation value on the display means in association with each other.

本発明によれば、物体の撮像画像を基に、実物の色を評価することができる。 According to the present invention, it is possible to evaluate the actual color based on the captured image of the object.

色評価システムの構成を示す図Diagram showing the configuration of the color evaluation system 画像処理装置のハードウェア構成を示すブロック図Block diagram showing the hardware configuration of the image processing device 画像処理装置の機能構成を示すブロック図Block diagram showing the functional configuration of the image processing device 画像処理装置が実行する処理を示すフローチャートFlowchart showing the processing executed by the image processing device 色変換LUTを作成する処理を示すフローチャートFlowchart showing the process of creating a color conversion LUT A カラーチャートの例を示す図Diagram showing an example of a color chart 色変換LUTを作成する処理を示すフローチャートFlowchart showing the process of creating a color conversion LUT B 評価対象物体の輝度に対する色信号値の線形性を示す図The figure which shows the linearity of the color signal value with respect to the luminance of the object to be evaluated. 評価値を算出する処理を示すフローチャートFlowchart showing the process of calculating the evaluation value 表示画像と評価値との表示例を示す図The figure which shows the display example of a display image and an evaluation value 表示画像と評価値との表示例を示す図The figure which shows the display example of a display image and an evaluation value 表示画像と評価値との表示例を示す図The figure which shows the display example of a display image and an evaluation value 画像処理装置の機能構成を示すブロック図Block diagram showing the functional configuration of the image processing device 画像処理装置が実行する処理を示すフローチャートFlowchart showing the processing executed by the image processing device 評価値を取得する処理を示すフローチャートFlowchart showing the process of acquiring the evaluation value 画像処理装置の機能構成を示すブロック図Block diagram showing the functional configuration of the image processing device

以下、本発明の実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not necessarily limit the present invention. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention.

[第1実施形態]
<色評価システムの構成>
図1は色評価システムの構成を示す図である。色評価システムは、画像処理装置1、表示装置2、撮像装置3、入力デバイス110から構成される。色評価システムは、撮像装置3を用いて評価対象物体4を撮像して得られる撮像画像データを、画像処理装置1において処理する。色評価システムは、処理の結果として得られる表示画像及び評価値を、入力デバイス110を介したユーザの指示に応じて表示装置2に表示する。本実施形態における評価対象物体4は複数の部品から構成される、例えばプリンタなどの工業製品である。
[First Embodiment]
<Structure of color evaluation system>
FIG. 1 is a diagram showing a configuration of a color evaluation system. The color evaluation system includes an image processing device 1, a display device 2, an image pickup device 3, and an input device 110. The color evaluation system processes the captured image data obtained by imaging the evaluation target object 4 using the image pickup device 3 in the image processing device 1. The color evaluation system displays the display image and the evaluation value obtained as a result of the processing on the display device 2 according to the instruction of the user via the input device 110. The object 4 to be evaluated in this embodiment is an industrial product such as a printer, which is composed of a plurality of parts.

<画像処理装置のハードウェア構成>
図2は画像処理装置1のハードウェア構成を示すブロック図である。画像処理装置1は、CPU101、ROM102、RAM103を備える。また、画像処理装置1は、VC(ビデオカード)104、汎用I/F(インターフェース)105、SATA(シリアルATA)I/F106、NIC(ネットワークインターフェースカード)107を備える。
<Hardware configuration of image processing device>
FIG. 2 is a block diagram showing a hardware configuration of the image processing device 1. The image processing device 1 includes a CPU 101, a ROM 102, and a RAM 103. Further, the image processing device 1 includes a VC (video card) 104, a general-purpose I / F (interface) 105, a SATA (serial ATA) I / F 106, and a NIC (network interface card) 107.

CPU101は、RAM103をワークメモリとして、ROM102、HDD(ハードディスクドライブ)112などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU101は、システムバス108を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102やHDD112などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。VC104には、表示装置2が接続される。汎用I/F105には、シリアルバス109を介して、マウスやキーボードなどの入力デバイス110や撮像装置3が接続される。SATAI/F106には、シリアルバス111を介して、HDD112や各種記録メディアの読み書きを行う汎用ドライブ113が接続される。NIC107は、外部装置との間で情報の入力及び出力を行う。CPU101は、HDD112や汎用ドライブ113にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU101は、プログラムによって提供されるUI(ユーザインターフェース)を表示装置2に表示し、入力デバイス110を介して受け付けるユーザ指示などの入力を受信する。 The CPU 101 uses the RAM 103 as a work memory to execute an OS (operating system) and various programs stored in a ROM 102, an HDD (hard disk drive) 112, and the like. Further, the CPU 101 controls each configuration via the system bus 108. The process according to the flowchart described later is executed by the CPU 101 after the program code stored in the ROM 102, the HDD 112, or the like is expanded into the RAM 103. A display device 2 is connected to the VC 104. An input device 110 such as a mouse or keyboard and an image pickup device 3 are connected to the general-purpose I / F 105 via a serial bus 109. A general-purpose drive 113 that reads and writes HDD 112 and various recording media is connected to SATAI / F106 via a serial bus 111. The NIC 107 inputs and outputs information to and from an external device. The CPU 101 uses various recording media mounted on the HDD 112 or the general-purpose drive 113 as a storage location for various data. The CPU 101 displays a UI (user interface) provided by the program on the display device 2 and receives an input such as a user instruction received via the input device 110.

<画像処理装置の機能構成>
図3は画像処理装置1の機能構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102又はHDD112に格納されたプログラムを読み出して実行することによって、図3に示す機能構成として機能する。尚、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように画像処理装置1が構成されていてもよい。
<Functional configuration of image processing device>
FIG. 3 is a block diagram showing a functional configuration of the image processing device 1. The CPU 101 functions as the functional configuration shown in FIG. 3 by reading and executing the program stored in the ROM 102 or the HDD 112 using the RAM 103 as the work memory. It should be noted that it is not necessary that all of the processes shown below are executed by the CPU 101, and even if the image processing device 1 is configured so that a part or all of the processes are performed by one or a plurality of processing circuits other than the CPU 101. Good.

画像処理装置1は、画像データ取得部11、表示画像生成部12、評価用画像生成部13、指定受付部14、評価値算出部15を有する。画像データ取得部11は、撮像装置3が評価対象物体4を撮像して得られる撮像画像データを取得する。本実施形態における画像データ取得部11は、撮像装置3を制御して評価対象物体4を撮像し、撮像画像データを取得する。尚、HDD112に予め保持されていた撮像画像データを、HDD112から取得してもよい。 The image processing device 1 includes an image data acquisition unit 11, a display image generation unit 12, an evaluation image generation unit 13, a designated reception unit 14, and an evaluation value calculation unit 15. The image data acquisition unit 11 acquires captured image data obtained by imaging the evaluation target object 4 by the imaging device 3. The image data acquisition unit 11 in the present embodiment controls the image pickup device 3 to image the evaluation target object 4 and acquires the captured image data. The captured image data previously held in the HDD 112 may be acquired from the HDD 112.

表示画像生成部12は、撮像画像データが表す撮像画像に基づいて、評価対象物体4を実物と同じ印象で表示装置2に表示するための表示画像を表す表示画像データを生成する。具体的には、表示画像生成部12は、撮像画像が各画素に画素値として有する色信号値を、表示装置2の特性に応じた色信号値に変換する。ここで、撮像画像が有する色信号値は撮像装置3に依存した色空間において表現される値であり、本実施形態における撮像装置3に依存した色空間は、R,G,Bそれぞれを軸とした色空間である。以下、撮像画像が有する色信号値を、撮像色信号値(R,G,B)と表現する。また、表示装置2の特性に応じた色信号値は表示装置2に依存した色空間において表現される値であり、本実施形態における表示装置2に依存した色空間は、R,G,Bそれぞれを軸とした色空間である。以下、表示装置2の特性に応じた色信号値を、表示色信号値(R,G,B)と表現する。また、表示画像生成部12は、表示色信号値(R,G,B)を各画素に有する表示画像を表示装置2に表示する表示制御部としても機能する。 The display image generation unit 12 generates display image data representing a display image for displaying the evaluation target object 4 on the display device 2 with the same impression as the real object, based on the captured image represented by the captured image data. Specifically, the display image generation unit 12 converts the color signal value that the captured image has as a pixel value in each pixel into a color signal value according to the characteristics of the display device 2. Here, the color signal value of the captured image is a value expressed in a color space depending on the image pickup device 3, and the color space depending on the image pickup device 3 in the present embodiment has R, G, and B as axes. It is a color space. Hereinafter, the color signal values included in the captured image, captured color signal value (R C, G C, B C) and expressed. Further, the color signal value according to the characteristics of the display device 2 is a value expressed in the color space depending on the display device 2, and the color spaces depending on the display device 2 in the present embodiment are R, G, and B, respectively. It is a color space centered on. Hereinafter, the color signal values corresponding to the characteristics of the display device 2, display color signal values (R D, G D, B D) to be represented. The display image generation unit 12 also functions as a display control unit that displays a display image having display color signal values (RD , G D , BD) in each pixel on the display device 2.

評価用画像生成部13は、評価対象物体4の色の評価値を算出するために用いる、評価用画像を表す評価用画像データを生成する。具体的には、評価用画像生成部13は、撮像画像が各画素に有する撮像色信号値(R,G,B)を、デバイス非依存の色信号値に変換する。ここで、デバイス非依存の色信号値は、デバイス非依存の色空間において表現される値であり、本実施形態におけるデバイス非依存の色空間は、X,Y,Zそれぞれを軸とした色空間である。以下、デバイス非依存の色信号値を、デバイス非依存の色信号値(X,Y,Z)と表現する。 The evaluation image generation unit 13 generates evaluation image data representing the evaluation image used for calculating the evaluation value of the color of the evaluation target object 4. Specifically, the evaluation image generator 13, an imaging color signal values captured image has the pixel (R C, G C, B C) , and converted to a device-independent color signal values. Here, the device-independent color signal value is a value expressed in the device-independent color space, and the device-independent color space in the present embodiment is a color space centered on each of X, Y, and Z. Is. Hereinafter, the device-independent color signal value is expressed as a device-independent color signal value (X, Y, Z).

指定受付部14は、表示装置2に表示された表示画像においてユーザに指定された評価領域を表す評価領域情報を受け付ける。本実施形態における評価領域情報は、表示画像における評価領域の座標(x,y)である。ここで、表示画像においてユーザに指定される領域は、評価対象物体4に対応する領域の少なくとも一部と、評価対象物体4と色を比較したい領域と、の2か所である。本実施形態において指定される2か所の領域はそれぞれ複数の画素を含む領域であるが、指定される領域は1画素であってもよい。尚、評価対象物体4と色を比較したい領域も、評価対象物体4に対応する領域の一部であってもよい。この場合は、評価対象物体4において、部品間の色差など、異なる2か所を比較して色を評価することができる。 The designated reception unit 14 receives evaluation area information representing an evaluation area designated by the user in the display image displayed on the display device 2. The evaluation area information in the present embodiment is the coordinates (x, y) of the evaluation area in the displayed image. Here, the area designated by the user in the display image is at least a part of the area corresponding to the evaluation target object 4 and the area where the color is to be compared with the evaluation target object 4. The two regions designated in the present embodiment are regions including a plurality of pixels, respectively, but the designated region may be one pixel. The region for which the color is to be compared with the evaluation target object 4 may also be a part of the region corresponding to the evaluation target object 4. In this case, in the evaluation target object 4, the color can be evaluated by comparing two different places such as a color difference between parts.

評価値算出部15は、評価用画像生成部13から入力された評価用画像データと、指定受付部14から入力された評価領域情報と、に基づいて、色の評価値を算出する。具体的には、評価値算出部15は、2つの評価領域それぞれにおいて、デバイス非依存の色信号値(X,Y,Z)の平均値を算出し、算出した平均値を色の評価値に変換する。また、評価値算出部15は、算出した色の評価値を表示画像と併せて表示装置2に表示する表示制御部としても機能する。 The evaluation value calculation unit 15 calculates the color evaluation value based on the evaluation image data input from the evaluation image generation unit 13 and the evaluation area information input from the designated reception unit 14. Specifically, the evaluation value calculation unit 15 calculates the average value of the device-independent color signal values (X, Y, Z) in each of the two evaluation regions, and uses the calculated average value as the color evaluation value. Convert. The evaluation value calculation unit 15 also functions as a display control unit that displays the calculated evaluation value of the color on the display device 2 together with the display image.

<画像処理装置が実行する処理>
図4は画像処理装置1が実行する処理を示すフローチャートである。以下、各ステップ(工程)は符号の前にSをつけて表す。
<Processes executed by the image processing device>
FIG. 4 is a flowchart showing a process executed by the image processing device 1. Hereinafter, each step (step) is represented by adding S before the reference numeral.

S41において、画像データ取得部11は、撮像装置3の撮像によって得られる撮像画像データを取得する。S42において、表示画像生成部12は、撮像画像が有する撮像色信号値(R,G,B)を色変換ルックアップテーブルを用いて表示色信号値(R,G,B)に変換することにより、表示画像データを生成する。ここで用いる色変換ルックアップテーブル(以下、色変換LUTと表現する)は、撮像色信号値(R,G,B)と表示色信号値(R,G,B)との対応関係を保持する色変換LUTである。表示画像生成部12は、予め作成された色変換LUTをHDD112等の記憶装置から取得して色変換に用いる。色変換LUTを作成する処理の詳細は後述する。 In S41, the image data acquisition unit 11 acquires the captured image data obtained by the imaging of the imaging device 3. In S42, the display image generation unit 12, an imaging color signal value with the captured image (R C, G C, B C) Display color signal value using a color conversion lookup table (R D, G D, B D ) To generate display image data. As used herein, a color conversion lookup table (hereinafter, expressed as color conversion LUT) is captured color signal value (R C, G C, B C) and the display color signal value (R D, G D, B D) and It is a color conversion LUT A that holds the correspondence of. The display image generation unit 12 acquires the color conversion LUT A created in advance from a storage device such as HDD 112 and uses it for color conversion. Details of the process for creating the color conversion LUT A will be described later.

S43において、評価用画像生成部13は、撮像画像が有する撮像色信号値(R,G,B)を色変換LUTを用いてデバイス非依存の色信号値(X,Y,Z)に変換することにより、評価用画像データを生成する。ここで用いる色変換LUTは、撮像色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を保持する。評価用画像生成部13は、予め作成された色変換LUTをHDD112等の記憶装置から取得して色変換に用いる。色変換LUTを作成する処理の詳細は後述する。 In S43, the evaluation image generator 13, image pickup color signal value with the captured image (R C, G C, B C) using the color conversion LUT B a device-independent color signal values (X, Y, Z ) To generate evaluation image data. The color conversion LUT B as used herein holds captured color signal value (R C, G C, B C) and the device-independent color signal values (X, Y, Z) the correspondence between the. The evaluation image generation unit 13 acquires the color conversion LUT B created in advance from a storage device such as HDD 112 and uses it for color conversion. Details of the process for creating the color conversion LUT B will be described later.

S44において、表示画像生成部12は、表示装置2に表示画像を表示する。S45において、指定受付部14は、表示装置2に表示された表示画像においてユーザに指定された評価領域を表す評価領域情報を受け付ける。S46において、評価値算出部15は、評価用画像データと評価領域情報とに基づいて色の評価値を算出し、算出した評価値を表示装置2に表示する。評価値の算出及び表示に関する処理の詳細は後述する。 In S44, the display image generation unit 12 displays the display image on the display device 2. In S45, the designated reception unit 14 receives the evaluation area information representing the evaluation area designated by the user in the display image displayed on the display device 2. In S46, the evaluation value calculation unit 15 calculates the color evaluation value based on the evaluation image data and the evaluation area information, and displays the calculated evaluation value on the display device 2. Details of the processing related to the calculation and display of the evaluation value will be described later.

<色変換LUTを作成する処理>
ここでは、色変換LUTを作成する処理の詳細について説明する。図5は色変換LUTを作成する処理を示すフローチャートである。
<Process to create color conversion LUT A>
Here, the details of the process of creating the color conversion LUT A will be described. FIG. 5 is a flowchart showing a process of creating a color conversion LUT A.

S51において、撮像色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を表す関係式が作成される。関係式を作成する際には、例えば図6に示すような、複数のカラーパッチを含むカラーチャートを使用する。まず、複数のカラーパッチそれぞれを撮像装置3を用いて撮像して撮像色信号値(R,G,B)を取得する。各カラーパッチ内の撮像色信号値(R,G,B)が平均されることにより、カラーパッチそれぞれに1つずつ撮像色信号値(R,G,B)が得られる。取得した撮像色信号値(R,G,B)それぞれを、式(1),式(2),式(3),式(4),式(5)を用いて、L値(L ,a ,b )に変換する。ここで、基準白色の色信号値を(X,Y,Z)とする。尚、L値は、デバイス非依存の色信号値であり、L,a,bそれぞれを軸とした色空間において表現される値である。 In S51, the imaging color signal value (R C, G C, B C) and the device-independent color signal values (X, Y, Z) relationship showing a correspondence between a is created. When creating the relational expression, a color chart containing a plurality of color patches is used, for example, as shown in FIG. First acquires imaging color signal value to image a plurality of color patches using the imaging device 3 (R C, G C, B C) a. Imaging color signal values in each color patch (R C, G C, B C) by is averaged, one by one imaging color signal value on each color patch (R C, G C, B C) is obtained .. Acquired captured color signal value (R C, G C, B C) , respectively, equation (1), equation (2), (3), (4), using equation (5), L * a Convert to * b * values (L * 1 , a * 1 , b * 1). Here, let the reference white color signal value be (X W , Y W , Z W ). The L * a * b * value is a device-independent color signal value, and is a value expressed in a color space centered on each of L * , a * , and b *.

Figure 2021072541
Figure 2021072541

次に、複数のカラーパッチそれぞれを測色計を用いて測定することによりデバイス非依存の色信号値(X,Y,Z)を取得する。各カラーパッチ内のデバイス非依存の色信号値(X,Y,Z)が平均されることにより、カラーパッチそれぞれに1つずつデバイス非依存の色信号値(X,Y,Z)が得られる。取得したデバイス非依存の色信号値(X,Y,Z)それぞれを、式(2),式(3),式(4),式(5)を用いて、L値(L ,a ,b )に変換する。 Next, device-independent color signal values (X, Y, Z) are acquired by measuring each of the plurality of color patches using a colorimeter. By averaging the device-independent color signal values (X, Y, Z) in each color patch, one device-independent color signal value (X, Y, Z) can be obtained for each color patch. .. The acquired device-independent color signal values (X, Y, Z) are converted into L * a * b * values (L * a * b * values) using equations (2), (3), (4), and (5). Convert to L * 2 , a * 2 , b * 2).

式(6)に示す色差ΔEが0に近づくように、式(1)のマトリクスの係数(α0〜α8)を最小二乗法により求める。マトリクスの係数(α0〜α8)を求めることにより、撮像色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を表す関係式である式(1)が得られる。 The coefficients (α0 to α8) of the matrix of the equation (1) are obtained by the least squares method so that the color difference ΔE shown in the equation (6) approaches 0. By obtaining the coefficients of the matrix (α0~α8), imaging color signal value (R C, G C, B C) and the device-independent color signal values (X, Y, Z) relation formula showing a relationship between Equation (1) is obtained.

Figure 2021072541
Figure 2021072541

S52において、表示色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を保持する色変換LUTが作成される。まず、表示装置2に、表示色信号値(R,G,B)を、(0,0,0)から(255,255,255)まで、R,G,Bそれぞれを32ずつ異ならせた、合計729通りのカラーパッチを含むカラーチャートを表示する。次に、表示されたカラーパッチそれぞれを測色計を用いて測定することによりデバイス非依存の色信号値(X,Y,Z)を取得する。これにより、各カラーパッチについて、表示色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係が得られるため、この対応関係を用いて色変換LUTを生成する。 In S52, a color conversion LUT D that maintains the correspondence between the display color signal values ( RD , G D , BD ) and the device-independent color signal values (X, Y, Z) is created. First, different from the display device 2, display color signal values (R D, G D, B D), and from (0,0,0) to (255,255,255), R, G, and B respectively by 32 A color chart containing a total of 729 color patches is displayed. Next, the device-independent color signal values (X, Y, Z) are acquired by measuring each of the displayed color patches using a colorimeter. As a result, for each color patch, a correspondence relationship between the display color signal values (RD , G D , BD ) and the device-independent color signal values (X, Y, Z) can be obtained. Use to generate a color conversion LUT D.

S53において、ガマットマッピングにより、撮像色信号値(R,G,B)と表示色信号値(R,G,B)との対応関係を保持する色変換LUTが作成される。まず、S51において得られた関係式を用いて、撮像色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を保持する色変換LUTを作成する。色変換LUTは、撮像色信号値(R,G,B)を、(0,0,0)から(255,255,255)まで、R,G,Bそれぞれを32ずつ異ならせて729通りの対応関係を取得することにより作成できる。次に、作成した色変換LUTと色変換LUTとを用いて、公知のガマットマッピングにより、撮像色信号値(R,G,B)を表示色信号値(R,G,B)に変換する。この変換により、撮像色信号値(R,G,B)と表示色信号値(R,G,B)との対応関係が得られるため、色変換LUTを作成することができる。尚、ここで行うガマットマッピングは、評価対象物体4を実物と同じ印象で表示装置2に表示するために、知覚的(Perceptual)のガマットマッピングが望ましい。 In S53, the gamut mapping, imaging color signal value (R C, G C, B C) and the display color signal value (R D, G D, B D) color conversion LUT A storing relationships between are created To. First, the color to hold using the obtained relationship in S51, the image pickup color signal value (R C, G C, B C) and the device-independent color signal values (X, Y, Z) the correspondence between the Create a conversion LUT C. The color conversion LUT C is an imaging color signal value (R C, G C, B C), and varied until, R, G, and B respectively by 32 (0,0,0) to (255,255,255) It can be created by acquiring 729 correspondences. Then, by using the color conversion LUT C and the color conversion LUT D created by a known gamut mapping, imaging color signal value (R C, G C, B C) Display color signal value (R D, G D , BD ). This conversion for imaging color signal value (R C, G C, B C) and the display color signal value (R D, G D, B D) is correspondence between the obtained, creating a color conversion LUT A Can be done. In the gamut mapping performed here, perceptual gamut mapping is desirable in order to display the evaluation target object 4 on the display device 2 with the same impression as the real object.

<色変換LUTを作成する処理>
ここでは、色変換LUTを作成する処理の詳細について説明する。図7は色変換LUTを作成する処理を示すフローチャートである。
<Process to create color conversion LUT B>
Here, the details of the process of creating the color conversion LUT B will be described. FIG. 7 is a flowchart showing a process of creating a color conversion LUT B.

S71において、撮像色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を表す関係式が作成される。S71における処理は、S51と同じ処理であるため説明を省略する。尚、予めS51において関係式を作成した場合は、S71における処理は行わなくてもよい。ここで作成される関係式には、色の評価値を高精度に算出するために、3×3のマトリクスなど、線形性の高いマトリクスを用いることが望ましい。線形性の高いマトリクスを用いることにより、評価対象物体4の輝度に対して線形な評価値を算出することができる。 In S71, the imaging color signal value (R C, G C, B C) and the device-independent color signal values (X, Y, Z) relationship showing a correspondence between a is created. Since the processing in S71 is the same processing as in S51, the description thereof will be omitted. If the relational expression is created in S51 in advance, the processing in S71 may not be performed. For the relational expression created here, it is desirable to use a highly linear matrix such as a 3 × 3 matrix in order to calculate the color evaluation value with high accuracy. By using a highly linear matrix, it is possible to calculate a linear evaluation value with respect to the brightness of the evaluation target object 4.

S72において、S71において得られた関係式を用いて、撮像色信号値(R,G,B)とデバイス非依存の色信号値(X,Y,Z)との対応関係を保持する色変換LUTを作成する。S72における処理は、S53における色変換LUTを作成する処理と同じ処理であるため説明を省略する。尚、予めS53において色変換LUTを作成した場合は、S72における処理は行わずに、色変換LUTを色変換LUTとして用いることができる。 In S72, by using the obtained relationship in S71, holds the imaging color signal value (R C, G C, B C) and the device-independent color signal values (X, Y, Z) the correspondence between the Create a color conversion LUT B. Since the process in S72 is the same process as the process for creating the color conversion LUT C in S53, the description thereof will be omitted. Note that when creating the color conversion LUT C in advance S53, without performing the process in S72, it is possible to use a color conversion LUT C as the color conversion LUT B.

<評価対象物体に対する色信号値の線形性>
図8に、評価対象物体4の輝度に対する、表示色信号値(R,G,B)及びデバイス非依存の色信号値(X,Y,Z)の線形性について示す。表示画像の表示色信号値(R,G,B)は、表示装置2の表示可能な輝度範囲により、評価対象物体4の輝度に対して線形性を保つことができない。このため、図8(a)のように、評価対象物体4の高輝度領域に対応する色信号値に対して非線形圧縮を行う必要がある。S53においてガマットマッピングを行うのはそのためである。
<Linearity of color signal values with respect to the object to be evaluated>
FIG. 8 shows the linearity of the display color signal values (RD , G D , BD ) and the device-independent color signal values (X, Y, Z) with respect to the brightness of the object 4 to be evaluated. Display color signal value of the display image (R D, G D, B D) , due displayable intensity range of the display device 2, can not maintain the linearity of the luminance of the evaluation object 4. Therefore, as shown in FIG. 8A, it is necessary to perform non-linear compression on the color signal value corresponding to the high-luminance region of the evaluation target object 4. That is why the gamut mapping is performed in S53.

一方で、評価用画像のデバイス非依存の色信号値(X,Y,Z)は、S71において評価対象物体4の輝度に対して線形性が高くなるように関係式を作成するため、図8(b)のように評価対象物体4の輝度に対して線形性を保つことができる。 On the other hand, in order to create a relational expression for the device-independent color signal values (X, Y, Z) of the evaluation image so as to have high linearity with respect to the brightness of the evaluation target object 4 in S71, FIG. As shown in (b), the linearity with respect to the brightness of the evaluation target object 4 can be maintained.

このように、撮像画像に対する、表示と評価それぞれに適した変換により、表示画像と評価用画像とを別々に生成することにより、ユーザは、評価対象物体4を実物と同じ印象で確認しながら、指定した領域の高精度な評価値に応じて色の評価を行うことができる。 In this way, the display image and the evaluation image are separately generated by the conversion suitable for the display and the evaluation of the captured image, so that the user can confirm the evaluation target object 4 with the same impression as the real object. Color can be evaluated according to the highly accurate evaluation value of the specified area.

<評価値を算出する処理>
ここでは、S46における、評価値を算出する処理の詳細について説明する。図9は評価値を算出する処理を示すフローチャートである。
<Processing to calculate the evaluation value>
Here, the details of the process of calculating the evaluation value in S46 will be described. FIG. 9 is a flowchart showing a process of calculating the evaluation value.

S91において、評価値算出部15は、評価用画像において評価領域情報が表す領域に対応するデバイス非依存の色信号値(X,Y,Z)を取得する。S92において、評価値算出部15は、評価領域それぞれにおいて、デバイス非依存の色信号値(X,Y,Z)の平均値を算出する。これにより、各評価領域に対して1つのデバイス非依存の色信号値(X,Y,Z)が得られる。 In S91, the evaluation value calculation unit 15 acquires device-independent color signal values (X, Y, Z) corresponding to the area represented by the evaluation area information in the evaluation image. In S92, the evaluation value calculation unit 15 calculates the average value of the device-independent color signal values (X, Y, Z) in each of the evaluation regions. As a result, one device-independent color signal value (X, Y, Z) can be obtained for each evaluation region.

S93において、評価値算出部15は、各評価領域について、デバイス非依存の色信号値(X,Y,Z)をL値に変換する。変換には、上述した式(2)〜式(5)を用いる。基準白色の色信号値(X,Y,Z)は、表示画像においてユーザが基準白色点を指定することにより得られる。S94において、評価値算出部15は、デバイス非依存の色信号値(X,Y,Z)と、L値と、を評価値として表示装置2に表示する。 In S93, the evaluation value calculation unit 15 converts the device-independent color signal values (X, Y, Z) into L * a * b * values for each evaluation region. The above-mentioned equations (2) to (5) are used for the conversion. The reference white color signal values (X W , Y W , Z W ) are obtained by the user designating the reference white point in the displayed image. In S94, the evaluation value calculation unit 15 displays the device-independent color signal values (X, Y, Z) and the L * a * b * values on the display device 2 as evaluation values.

表示画像と評価値との表示例を図10に示す。図10において、ウィンドウ1001には、表示画像1002が表示されている。また、S93において算出した評価値が数値として数値表示領域1003として表示されるとともに、グラフ1004にプロットされた点1009及び点1010としても表示される。ユーザは、入力デバイス110で操作可能なポインタ1005を用いて、白色点1006,第1評価領域1007,第2評価領域1008を指定することができる。第1評価領域1007の評価値が点1009に対応する場合、同じ色(例えば黄色)で枠線を描画する。また、第1評価領域1007の評価値に対応する数値表示領域1003における数値の背景も同じ色(黄色)で描画する。 A display example of the display image and the evaluation value is shown in FIG. In FIG. 10, the display image 1002 is displayed in the window 1001. Further, the evaluation value calculated in S93 is displayed as a numerical value in the numerical display area 1003, and is also displayed as points 1009 and 1010 plotted in the graph 1004. The user can specify the white point 1006, the first evaluation area 1007, and the second evaluation area 1008 by using the pointer 1005 that can be operated by the input device 110. When the evaluation value of the first evaluation area 1007 corresponds to the point 1009, the border is drawn in the same color (for example, yellow). Further, the background of the numerical value in the numerical value display area 1003 corresponding to the evaluation value of the first evaluation area 1007 is also drawn in the same color (yellow).

第2評価領域1008の枠線,点1010の枠線,第2評価領域1008の評価値に対応する数値表示領域1003における数値の背景を同じ色(例えば青色)で描画する。また、白色点1006の枠線と数値表示領域1003における基準白色の色信号値の背景を同じ色(例えば赤色)で描画する。このように、評価領域と対応する評価値とを同一色で描画することにより、評価領域と評価値との対応関係を容易に確認することができる。 The background of the numerical value in the numerical display area 1003 corresponding to the frame line of the second evaluation area 1008, the frame line of the point 1010, and the evaluation value of the second evaluation area 1008 is drawn in the same color (for example, blue). Further, the border of the white point 1006 and the background of the reference white color signal value in the numerical display area 1003 are drawn in the same color (for example, red). By drawing the evaluation area and the corresponding evaluation value in the same color in this way, the correspondence between the evaluation area and the evaluation value can be easily confirmed.

<第1実施形態の効果>
以上説明したように、本実施形態における画像処理装置1は、物体を撮像して得られる撮像画像データを取得する。撮像画像データが表す撮像画像に含まれる各画素の色信号値を表示手段の特性に応じた色信号値に変換することによって、表示画像データを生成する。表示画像データが表す表示画像においてユーザに指定された複数の領域に対応する色の評価値を算出する。複数の領域と、評価値と、を対応付けて表示手段に表示する。これにより、物体の撮像画像を基に、ユーザの領域指定に対してリアルタイムに実物の色を評価することができる。
<Effect of the first embodiment>
As described above, the image processing device 1 in the present embodiment acquires captured image data obtained by imaging an object. Display image data is generated by converting the color signal value of each pixel included in the captured image represented by the captured image data into a color signal value according to the characteristics of the display means. The evaluation value of the color corresponding to a plurality of areas designated by the user in the display image represented by the display image data is calculated. A plurality of areas and evaluation values are associated and displayed on the display means. This makes it possible to evaluate the actual color in real time with respect to the user's area designation based on the captured image of the object.

<変形例>
図10においては、枠線や背景の色で評価領域の区別を行ったが、別の表示方法で対応関係をわかりやすくしてもよい。例えば、図11に示すように、指定した点の周囲に四角形,三角形,星などの記号を配置してもよい。また、図12に示すように、指定した点を特定する枠の形状を四角形,三角形,星の形などの形にしてもよい。
<Modification example>
In FIG. 10, the evaluation areas are distinguished by the border and background colors, but the correspondence may be easily understood by another display method. For example, as shown in FIG. 11, symbols such as a quadrangle, a triangle, and a star may be arranged around the designated point. Further, as shown in FIG. 12, the shape of the frame for specifying the designated point may be a shape such as a quadrangle, a triangle, or a star.

また、第1実施形態においては、評価値をデバイス非依存の色信号値(X,Y,Z)及びL値(L,a,b)として表示したが、どちらか一方を評価値として表示してもよい。また、評価領域間の色差を評価値をとして表示してもよい。この場合の色差は、例えば式(6)を用いて算出することができる。また、評価値は彩度差や明度差などであってもよい。 Further, in the first embodiment, the evaluation values are displayed as device-independent color signal values (X, Y, Z) and L * a * b * values (L * , a * , b *). Either one may be displayed as an evaluation value. Further, the color difference between the evaluation areas may be displayed as an evaluation value. The color difference in this case can be calculated using, for example, equation (6). Further, the evaluation value may be a difference in saturation, a difference in brightness, or the like.

また、第1実施形態においては、ユーザにより指定された2か所の評価値を表示したが、指定される評価領域は複数であれば3か所以上であってもよい。 Further, in the first embodiment, the evaluation values of two places designated by the user are displayed, but the number of designated evaluation areas may be three or more as long as there are a plurality of evaluation areas.

また、第1実施形態においては、表示画像生成部12と評価値算出部15とが表示の制御を行ったが、図16のように、画像処理装置1は表示画像生成部12と評価値算出部15とは別に表示制御部18を有していてもよい。この場合は、表示制御部18が表示画像及び評価値の表示を制御する。 Further, in the first embodiment, the display image generation unit 12 and the evaluation value calculation unit 15 control the display, but as shown in FIG. 16, the image processing device 1 calculates the evaluation value with the display image generation unit 12. A display control unit 18 may be provided separately from the unit 15. In this case, the display control unit 18 controls the display of the display image and the evaluation value.

[第2実施形態]
第1実施形態においては、撮像画像データを基に表示画像データと評価用画像データとを別々に生成した。本実施形態においては、撮像画像データを基に表示画像データを生成し、表示画像データを基に評価値を取得する。尚、本実施形態における画像処理装置1のハードウェア構成は第1実施形態のものと同様であるため、説明を省略する。以下において、本実施形態と第1実施形態とで異なる部分を主に説明する。尚、同一の構成については、同じ符号を付して説明する。
[Second Embodiment]
In the first embodiment, the display image data and the evaluation image data are separately generated based on the captured image data. In the present embodiment, the display image data is generated based on the captured image data, and the evaluation value is acquired based on the display image data. Since the hardware configuration of the image processing device 1 in this embodiment is the same as that in the first embodiment, the description thereof will be omitted. Hereinafter, the differences between the present embodiment and the first embodiment will be mainly described. The same configuration will be described with the same reference numerals.

<画像処理装置の機能構成>
図13は画像処理装置1の機能構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102又はHDD112に格納されたプログラムを読み出して実行することによって、図13に示す機能構成として機能する。尚、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように画像処理装置1が構成されていてもよい。
<Functional configuration of image processing device>
FIG. 13 is a block diagram showing a functional configuration of the image processing device 1. The CPU 101 functions as the functional configuration shown in FIG. 13 by reading and executing the program stored in the ROM 102 or the HDD 112 using the RAM 103 as the work memory. It should be noted that it is not necessary that all of the processes shown below are executed by the CPU 101, and even if the image processing device 1 is configured so that a part or all of the processes are performed by one or a plurality of processing circuits other than the CPU 101. Good.

画像処理装置1は、画像データ取得部11、表示画像生成部12、指定受付部14、評価値変換LUT保持部16、評価値取得部17を有する。評価値変換LUT保持部16は、表示画像の表示色信号値(R,G,B)と評価値との対応関係を保持する評価値変換LUTを保持する。評価値取得部17は、評価領域情報と、表示画像データと、評価値変換LUTと、に基づいて色の評価値を取得し、取得した評価値を表示装置2に表示する。 The image processing device 1 includes an image data acquisition unit 11, a display image generation unit 12, a designated reception unit 14, an evaluation value conversion LUT holding unit 16, and an evaluation value acquisition unit 17. Evaluation value conversion LUT holding unit 16 holds the evaluation value conversion LUT holds a correspondence relationship between the display color signal value of the display image (R D, G D, B D) and the evaluation value. The evaluation value acquisition unit 17 acquires a color evaluation value based on the evaluation area information, the display image data, and the evaluation value conversion LUT, and displays the acquired evaluation value on the display device 2.

<画像処理装置1が実行する処理>
図14は画像処理装置1が実行する処理を示すフローチャートである。S1401において、画像データ取得部11は、撮像装置3の撮像によって得られる撮像画像データを取得する。S1402において、表示画像生成部12は、撮像画像が有する撮像色信号値(R,G,B)を色変換LUTを用いて表示色信号値(R,G,B)に変換することにより、表示画像データを生成する。
<Processing executed by the image processing device 1>
FIG. 14 is a flowchart showing a process executed by the image processing device 1. In S1401, the image data acquisition unit 11 acquires the captured image data obtained by the imaging of the imaging device 3. In S1402, the display image generation unit 12, an imaging color signal value with the captured image (R C, G C, B C) display color signal values using the color conversion LUT A (R D, G D , B D) Display image data is generated by converting to.

S1403において、表示画像生成部12は、表示装置2に表示画像を表示する。S1404において、指定受付部14は、表示装置2に表示された表示画像においてユーザに指定された評価領域を表す評価領域情報を受け付ける。S1405において、評価値取得部17は、評価領域情報と、表示画像データと、評価値変換LUTと、に基づいて色の評価値を取得し、取得した評価値を表示装置2に表示する。評価値の取得及び表示に関する処理の詳細は後述する。 In S1403, the display image generation unit 12 displays the display image on the display device 2. In S1404, the designated reception unit 14 receives the evaluation area information representing the evaluation area designated by the user in the display image displayed on the display device 2. In S1405, the evaluation value acquisition unit 17 acquires the color evaluation value based on the evaluation area information, the display image data, and the evaluation value conversion LUT, and displays the acquired evaluation value on the display device 2. Details of the processing related to the acquisition and display of the evaluation value will be described later.

<評価値を取得する処理>
ここでは、S1405における、評価値を取得する処理の詳細について説明する。図15は評価値を取得する処理を示すフローチャートである。
<Process to acquire evaluation value>
Here, the details of the process of acquiring the evaluation value in S1405 will be described. FIG. 15 is a flowchart showing a process of acquiring an evaluation value.

S1501において、評価値取得部17は、表示画像において評価領域情報が表す領域に対応する表示色信号値(R,G,B)を取得する。S1502において、評価値取得部17は、評価領域それぞれにおいて、表示色信号値(R,G,B)の平均値を算出する。これにより、各評価領域に対して1つの表示色信号値(R,G,B)が得られる。 In S1501, the evaluation value acquisition unit 17 acquires display color signal values ( RD , G D , BD ) corresponding to the area represented by the evaluation area information in the display image. In S1502, the evaluation value acquisition unit 17 calculates the average value of the display color signal values (RD , G D , BD) in each of the evaluation areas. As a result, one display color signal value ( RD , G D , BD ) can be obtained for each evaluation region.

S1503において、評価値取得部17は、各評価領域について、表示色信号値(R,G,B)を評価値変換LUTを用いて評価値に変換する。本実施形態においては、表示色信号値(R,G,B)をデバイス非依存の色信号値(X,Y,Z)に変換する。ここでは、上述した色変換LUTを評価値変換LUTとして用いる。S1504において、評価値取得部17は、デバイス非依存の色信号値(X,Y,Z)をL値に変換する。変換には、上述した式(2)〜式(5)を用いる。基準白色の色信号値(X,Y,Z)は、表示画像においてユーザが基準白色点を指定することにより得られる。S1505において、評価値取得部17は、デバイス非依存の色信号値(X,Y,Z)と、L値と、を評価値として表示装置2に表示する。 In S1503, the evaluation value acquisition unit 17 converts the display color signal values (RD , G D , BD ) into evaluation values using the evaluation value conversion LUT for each evaluation region. In the present embodiment, the display color signal values ( RD , G D , BD ) are converted into device-independent color signal values (X, Y, Z). Here, the color conversion LUT D described above is used as the evaluation value conversion LUT. In S1504, the evaluation value acquisition unit 17 converts the device-independent color signal values (X, Y, Z) into L * a * b * values. The above-mentioned equations (2) to (5) are used for the conversion. The reference white color signal values (X W , Y W , Z W ) are obtained by the user designating the reference white point in the displayed image. In S1505, the evaluation value acquisition unit 17 displays the device-independent color signal values (X, Y, Z) and the L * a * b * values on the display device 2 as evaluation values.

<第2実施形態の効果>
以上説明したように、本実施形態における画像処理装置1は、撮像画像データを基に表示画像データを生成し、表示画像データを基に評価値を取得した。これにより、物体の撮像画像を基に、ユーザの領域指定に対してリアルタイムに実物の色を評価することができる。
<Effect of the second embodiment>
As described above, the image processing device 1 in the present embodiment generates display image data based on the captured image data, and acquires an evaluation value based on the display image data. This makes it possible to evaluate the actual color in real time with respect to the user's area designation based on the captured image of the object.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1 画像処理装置
11 画像データ取得部
12 表示画像生成部
15 評価値算出部
1 Image processing device 11 Image data acquisition unit 12 Display image generation unit 15 Evaluation value calculation unit

Claims (16)

物体を撮像して得られる撮像画像データを取得する取得手段と、
前記撮像画像データが表す撮像画像に含まれる各画素の第1色信号値を表示手段の特性に応じた第2色信号値に変換することによって、表示画像データを生成する生成手段と、
前記表示画像データが表す表示画像においてユーザに指定された複数の領域に対応する色の評価値を算出する算出手段と、
前記複数の領域と、前記評価値と、を対応付けて前記表示手段に表示する表示制御手段と、
を有することを特徴とする画像処理装置。
An acquisition means for acquiring captured image data obtained by imaging an object, and
A generation means for generating display image data by converting a first color signal value of each pixel included in the captured image represented by the captured image data into a second color signal value according to the characteristics of the display means.
A calculation means for calculating an evaluation value of a color corresponding to a plurality of areas designated by a user in a display image represented by the display image data,
A display control means for displaying the plurality of areas and the evaluation value in association with each other on the display means.
An image processing device characterized by having.
前記複数の領域には、第1評価値に対応する第1領域と、第2評価値に対応する第2領域と、が含まれ、
前記表示制御手段は、前記第1評価値と前記第1領域とを第1色で表示し、前記第2評価値と前記第2領域とを前記第1色とは異なる第2色で表示することを特徴とする請求項1に記載の画像処理装置。
The plurality of regions include a first region corresponding to the first evaluation value and a second region corresponding to the second evaluation value.
The display control means displays the first evaluation value and the first region in a first color, and displays the second evaluation value and the second region in a second color different from the first color. The image processing apparatus according to claim 1.
前記複数の領域には、第1評価値に対応する第1領域と、第2評価値に対応する第2領域と、が含まれ、
前記表示制御手段は、前記第1評価値と前記第1領域との周囲に第1記号を表示し、前記第2評価値と前記第2領域との周囲に前記第1記号とは異なる第2記号を表示することを特徴とする請求項1に記載の画像処理装置。
The plurality of regions include a first region corresponding to the first evaluation value and a second region corresponding to the second evaluation value.
The display control means displays a first symbol around the first evaluation value and the first region, and a second symbol different from the first symbol around the second evaluation value and the second region. The image processing apparatus according to claim 1, wherein a symbol is displayed.
前記複数の領域には、第1評価値に対応する第1領域と、第2評価値に対応する第2領域と、が含まれ、
前記表示制御手段は、前記第1評価値と前記第1領域とを特定する枠の形を第1形状として表示し、前記第2評価値と前記第2領域とを特定する枠の形を前記第1形状とは異なる第2形状として表示することを特徴とする請求項1に記載の画像処理装置。
The plurality of regions include a first region corresponding to the first evaluation value and a second region corresponding to the second evaluation value.
The display control means displays the shape of the frame that specifies the first evaluation value and the first region as the first shape, and the shape of the frame that specifies the second evaluation value and the second region is described as the first shape. The image processing apparatus according to claim 1, wherein the image processing apparatus is displayed as a second shape different from the first shape.
前記生成手段は、前記第1色信号値と前記第2色信号値との対応関係を保持するテーブルを用いて前記表示画像データを生成することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。 Any of claims 1 to 4, wherein the generation means generates the display image data using a table that holds a correspondence between the first color signal value and the second color signal value. The image processing apparatus according to claim 1. 前記表示手段の特性は、前記表示手段が表示可能な輝度に関する特性であることを特徴とする請求項1乃至請求項5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the characteristic of the display means is a characteristic relating to brightness that can be displayed by the display means. 前記複数の領域には、前記表示画像における前記物体の一部に対応する領域が2つ含まれることを特徴とする請求項1乃至請求項6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the plurality of regions include two regions corresponding to a part of the object in the displayed image. 前記評価値は、前記物体の一部に対応する2つの領域間の色差であることを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the evaluation value is a color difference between two regions corresponding to a part of the object. 前記物体は複数の部品から成る工業製品であって、
前記評価値は、前記複数の部品間の色差であることを特徴とする請求項8に記載の画像処理装置。
The object is an industrial product composed of a plurality of parts.
The image processing apparatus according to claim 8, wherein the evaluation value is a color difference between the plurality of parts.
前記撮像画像が表す撮像画像に含まれる各画素の第1色信号値をデバイス非依存の第3色信号値に変換することによって、評価用画像データを生成する第2生成手段をさらに有し、
前記算出手段は、前記評価用画像データに基づいて、前記評価値を算出することを特徴とする請求項1乃至請求項9のいずれか一項に記載の画像処理装置。
It further has a second generation means for generating evaluation image data by converting the first color signal value of each pixel included in the captured image represented by the captured image into a device-independent third color signal value.
The image processing apparatus according to any one of claims 1 to 9, wherein the calculation means calculates the evaluation value based on the evaluation image data.
前記第2色信号値は前記物体の輝度に対して非線形な値であって、
前記第3色信号値は前記物体の輝度に対して線形な値であることを特徴とする請求項10に記載の画像処理装置。
The second color signal value is a value that is non-linear with respect to the brightness of the object.
The image processing apparatus according to claim 10, wherein the third color signal value is a value linear with respect to the brightness of the object.
前記ユーザの指示に応じて、前記複数の領域を表す領域情報を受け付ける受付手段をさらに有し、
前記算出手段は、前記領域情報に基づいて、前記評価値を算出することを特徴とする請求項1乃至請求項11のいずれか一項に記載の画像処理装置。
Further having a receiving means for receiving area information representing the plurality of areas in response to the instruction of the user.
The image processing apparatus according to any one of claims 1 to 11, wherein the calculation means calculates the evaluation value based on the area information.
前記評価値は、デバイス非依存の色信号値であることを特徴とする請求項1乃至請求項12のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 12, wherein the evaluation value is a device-independent color signal value. 物体を撮像して得られる画像を表示する表示手段と、
前記表示された画像において少なくとも2つの領域を指定するユーザの指示を受け付ける受付手段と、を有し、
前記表示手段は、前記指定された領域と、前記指定された領域における画素値に応じた色の評価値と、を対応付けて表示することを特徴とする色評価システム。
A display means for displaying an image obtained by imaging an object,
It has a receiving means for receiving an instruction of a user who specifies at least two areas in the displayed image.
The display means is a color evaluation system characterized in that the designated area and a color evaluation value corresponding to a pixel value in the designated area are displayed in association with each other.
コンピュータを請求項1乃至請求項13のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 13. 物体を撮像して得られる撮像画像データを取得する取得ステップと、
前記撮像画像データが表す撮像画像に含まれる各画素の第1色信号値を表示手段の特性に応じた第2色信号値に変換することによって、表示画像データを生成する生成ステップと、
前記表示画像データが表す表示画像においてユーザに指定された複数の領域に対応する色の評価値を算出する算出ステップと、
前記複数の領域と、前記評価値と、を対応付けて前記表示手段に表示する表示制御ステップと、
を有することを特徴とする画像処理方法。
An acquisition step to acquire captured image data obtained by imaging an object, and
A generation step of generating display image data by converting the first color signal value of each pixel included in the captured image represented by the captured image data into a second color signal value according to the characteristics of the display means.
A calculation step of calculating an evaluation value of a color corresponding to a plurality of areas designated by the user in the display image represented by the display image data, and a calculation step.
A display control step for displaying the plurality of areas and the evaluation value in association with each other on the display means.
An image processing method characterized by having.
JP2019197999A 2019-10-30 2019-10-30 Image processing device, image processing method and program Active JP7366689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019197999A JP7366689B2 (en) 2019-10-30 2019-10-30 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019197999A JP7366689B2 (en) 2019-10-30 2019-10-30 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2021072541A true JP2021072541A (en) 2021-05-06
JP7366689B2 JP7366689B2 (en) 2023-10-23

Family

ID=75713754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197999A Active JP7366689B2 (en) 2019-10-30 2019-10-30 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7366689B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6346656B2 (en) 2012-02-20 2018-06-20 キヤノン株式会社 Image processing apparatus and image processing method
JP2016006408A (en) 2014-05-26 2016-01-14 有限会社パパラボ Wearable coloring evaluation device and wearable coloring evaluation method
JP6929702B2 (en) 2016-06-21 2021-09-01 キヤノン株式会社 Information processing equipment, information processing methods and programs

Also Published As

Publication number Publication date
JP7366689B2 (en) 2023-10-23

Similar Documents

Publication Publication Date Title
JPWO2008133195A1 (en) Image quality adjustment capability measurement method, apparatus and program, and image quality adjustment method, apparatus and program
JP2019029826A (en) Image processing apparatus, image processing method, and program
JP2018146949A (en) Image processing device and image processing method
JP6028527B2 (en) Display processing apparatus, display processing method, and program
JP2002513221A (en) Method for estimating white point on display device
JP2019205104A (en) Information processing apparatus, information processing method, and program
JP7366689B2 (en) Image processing device, image processing method and program
US9715862B2 (en) Image processing apparatus and control method thereof
JP2009296545A (en) Image processing apparatus and method
JP2019205103A (en) Information processing apparatus, information processing method, and program
JP2016046701A (en) Image processing apparatus, image processing method and program
US8228342B2 (en) Image display device, highlighting method
US20240121380A1 (en) Resolution measurement method, resolution measurement system, and program
JP2020088709A (en) Image processing apparatus, image processing method and program
JP7427423B2 (en) Image processing device, image processing method and program
US20220012521A1 (en) System for luminance qualified chromaticity
JP7321738B2 (en) Image processing device, image processing method and program
US20230139880A1 (en) System to display gamut excursion
JP2010145097A (en) Color unevenness inspection method, and inspection image data generation apparatus
JP7329964B2 (en) Image processing device, image processing method and program
JP6401632B2 (en) Color gamut coverage information generation apparatus and color gamut coverage information generation method
JP5232186B2 (en) Image processing device
JP5441539B2 (en) Color processing apparatus, color processing method, and program
JP2021036648A (en) Information processing device, information processing method, and program
JP2019169910A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R151 Written notification of patent or utility model registration

Ref document number: 7366689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151