JP2022065752A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2022065752A
JP2022065752A JP2020174427A JP2020174427A JP2022065752A JP 2022065752 A JP2022065752 A JP 2022065752A JP 2020174427 A JP2020174427 A JP 2020174427A JP 2020174427 A JP2020174427 A JP 2020174427A JP 2022065752 A JP2022065752 A JP 2022065752A
Authority
JP
Japan
Prior art keywords
bright material
bright
image processing
distribution characteristics
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020174427A
Other languages
Japanese (ja)
Inventor
瑞氣 松原
Mizuki MATSUBARA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020174427A priority Critical patent/JP2022065752A/en
Publication of JP2022065752A publication Critical patent/JP2022065752A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Spectrometry And Color Measurement (AREA)
  • Image Analysis (AREA)

Abstract

To provide processing for obtaining the distribution characteristics of bright material included in an object.SOLUTION: An image processing apparatus has: input means that receives input of image data obtained by picking up an image of an object including bright material; acquisition means that acquires condition information representing a geometric condition in picking up the image of the object; extraction means that, based on the image data, extracts color information on the bright material in a target area of the object; and derivation means that, based on the condition information and the color information on the bright material, derives the distribution characteristics of the bright material in the target area.SELECTED DRAWING: Figure 8

Description

本発明は、物体に含まれる光輝材に関する特性を導出する技術に関する。 The present invention relates to a technique for deriving characteristics relating to a bright material contained in an object.

工業製品に対してメタリック塗装やパール塗装を行う際には、光輝材を含む塗料が用いられる。光輝材を含む塗料により塗装された物体の表面を評価する技術として、特許文献1がある。特許文献1は、塗装面上の反射光による画像を基に、光輝材の色と下地材の色とを分離して評価する技術を開示している。 When metallic coating or pearl coating is applied to industrial products, a paint containing a bright material is used. Patent Document 1 is a technique for evaluating the surface of an object painted with a paint containing a bright material. Patent Document 1 discloses a technique for separating and evaluating the color of a bright material and the color of a base material based on an image of reflected light on a painted surface.

特開2019-78623号公報Japanese Unexamined Patent Publication No. 2019-78623

塗装面に関する評価を行う際には、光輝材の色だけでなく、光輝材の分布特性を知りたい場合があるが、特許文献1では光輝材の分布特性を取得することができないという課題がある。 When evaluating a painted surface, it may be desired to know not only the color of the bright material but also the distribution characteristics of the bright material, but Patent Document 1 has a problem that the distribution characteristics of the bright material cannot be obtained. ..

そこで本発明は、物体に含まれる光輝材の分布特性を得るための処理を提供することを目的とする。 Therefore, an object of the present invention is to provide a process for obtaining distribution characteristics of a bright material contained in an object.

上記課題を解決するために、本発明に係る画像処理装置は、光輝材を含む物体を撮像して得られる画像データを入力する入力手段と、前記物体を撮像する際の幾何条件を表す条件情報を取得する取得手段と、前記画像データに基づいて、前記物体の対象領域における前記光輝材の色情報を抽出する抽出手段と、前記条件情報と前記光輝材の色情報とに基づいて、前記対象領域における前記光輝材の分布特性を導出する導出手段と、を有することを特徴とする。 In order to solve the above problems, the image processing apparatus according to the present invention has an input means for inputting image data obtained by imaging an object containing a bright material, and condition information representing geometric conditions when imaging the object. Based on the acquisition means for acquiring the image data, the extraction means for extracting the color information of the bright material in the target region of the object, and the condition information and the color information of the bright material, the target. It is characterized by having a derivation means for deriving the distribution characteristics of the bright material in the region.

物体に含まれる光輝材の分布特性を得ることができる。 It is possible to obtain the distribution characteristics of the bright material contained in the object.

薄膜干渉の原理を説明するための図Diagram to explain the principle of thin film interference 画像処理装置のハードウェア構成を示す図The figure which shows the hardware configuration of an image processing apparatus. 画像処理装置の機能構成を示す図The figure which shows the functional composition of an image processing apparatus. ユーザインタフェースの例を示す図Diagram showing an example of a user interface ヒストグラムの例を示す図Diagram showing an example of a histogram 物体を撮像する際の幾何条件を示す図Diagram showing geometric conditions when imaging an object 光輝材の回転角を示す図The figure which shows the rotation angle of a bright material 画像処理装置が実行する処理を示すフローチャートA flowchart showing the processing executed by the image processing device. カラーチャートの例を示す図Diagram showing an example of a color chart 光輝材において反射する光の光路を説明するための図The figure for demonstrating the optical path of the light reflected by the bright material. ユーザインタフェースの例を示す図Diagram showing an example of a user interface 物体を撮像する際の幾何条件を示す図Diagram showing geometric conditions when imaging an object 画像処理装置の機能構成を示す図The figure which shows the functional composition of an image processing apparatus. 画像処理装置が実行する処理を示すフローチャートA flowchart showing the processing executed by the image processing device. 塗装面における光輝材の分布特性を説明するための図The figure for demonstrating the distribution characteristic of a bright material on a painted surface.

以下、各実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、各実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, each embodiment will be described with reference to the drawings. The following embodiments do not necessarily limit the present invention. Moreover, not all combinations of features described in each embodiment are essential for the means of solving the present invention.

[第1実施形態]
工業製品の塗装に用いられる塗料に含まれる光輝材の中には、観察角度や光の照射角度等の観察条件に応じて色が変化するものがある。代表的な光輝材としては、マイカに酸化チタン等を被覆した干渉マイカや、シリカに酸化チタン等を被覆したシリカフレークが挙げられる。このような光輝材は、薄膜干渉により観察条件に応じて色が変化する。薄膜干渉を利用する光輝材は、塗料内の分布に応じて輝き方が変化することが知られている。図15は2種類の塗装を簡易的に表した図であり、塗装面に光輝材が含まれている。図15(a)に示す塗装のように、光輝材の向きが均一である場合、近くに存在する光輝材の間で色は同一となる。一方で、図15(b)に示す塗装のように、光輝材の向きが不均一である場合、各々の光輝材に対する光の入射角度や観察角度が異なるために、光輝材は様々な色に見える。また、図15(a)と図15(b)とでは光輝材の個数も異なるため、光輝感と呼ばれる、輝点の位置がキラキラと変わる特性も異なる。すなわち、同じ塗料を用いて塗装したとしても、光輝材の向きや個数が位置によって異なると、異なる見え方となる。
[First Embodiment]
Some of the bright materials contained in the paint used for painting industrial products change their colors depending on the observation conditions such as the observation angle and the irradiation angle of light. Typical bright materials include interference mica in which mica is coated with titanium oxide or the like, and silica flakes in which silica is coated with titanium oxide or the like. The color of such a bright material changes depending on the observation conditions due to thin film interference. It is known that the brilliant material that utilizes thin film interference changes its brilliance according to the distribution in the paint. FIG. 15 is a diagram showing two types of coating in a simple manner, and the coated surface contains a bright material. When the orientation of the bright material is uniform as in the coating shown in FIG. 15 (a), the colors are the same among the bright materials existing in the vicinity. On the other hand, when the orientation of the bright material is non-uniform as in the coating shown in FIG. 15 (b), the light incident angle and the observation angle with respect to each bright material are different, so that the bright material has various colors. appear. Further, since the number of bright materials differs between FIGS. 15 (a) and 15 (b), a characteristic called a bright feeling, in which the position of the bright spot changes brilliantly, is also different. That is, even if they are painted with the same paint, they will look different if the orientation and number of bright materials differ depending on the position.

そこで、本実施形態においては、光輝材の向きや個数のような、塗装面における光輝材の分布特性に関する情報を、物体を撮像して得られる画像データを基に導出する。尚、本実施形態における対象物体は、光輝材を含んだ塗料を用いて塗装された物体であり、薄膜干渉により観察条件に応じて色が変化する光輝材が用いられる。 Therefore, in the present embodiment, information on the distribution characteristics of the bright material on the painted surface, such as the orientation and the number of the bright materials, is derived based on the image data obtained by imaging the object. The target object in the present embodiment is an object painted with a paint containing a bright material, and a bright material whose color changes according to observation conditions due to thin film interference is used.

まず、光輝材において生じる薄膜干渉の原理について図1を参照して説明する。図1に示すように、薄膜干渉を利用する光輝材は、マイカやシリカ等の基材に屈折率の高い媒質を被覆させて作られる。光輝材に対して光が入射した場合、入射光の一部は薄膜の上面において反射する。また、入射光の一部は薄膜の中に入射し、屈折した後に、基材において反射する。その後、薄膜外において、これら2つの反射光が干渉した状態で、撮像装置や人により受光される。この場合の被覆層の厚みをd、屈折率をn、屈折角をγとすると、この2つの反射光の光路差は2dncosγとなる。この光路差が(m+1/2)λとなる波長λに対応した色が撮像装置や人間により観測される。つまり、以下の式(1)を満たす波長λに対応した色が観測される。 First, the principle of thin film interference that occurs in a bright material will be described with reference to FIG. As shown in FIG. 1, a bright material utilizing thin film interference is made by coating a substrate such as mica or silica with a medium having a high refractive index. When light is incident on the bright material, a part of the incident light is reflected on the upper surface of the thin film. Further, a part of the incident light is incident on the thin film, refracted, and then reflected on the base material. Then, outside the thin film, the light is received by an image pickup device or a person in a state where these two reflected lights interfere with each other. In this case, assuming that the thickness of the coating layer is d, the refractive index is n, and the refraction angle is γ, the optical path difference between the two reflected lights is 2dncosγ. A color corresponding to the wavelength λ at which this optical path difference is (m + 1/2) λ is observed by an image pickup apparatus or a human being. That is, a color corresponding to the wavelength λ satisfying the following equation (1) is observed.

Figure 2022065752000002
Figure 2022065752000002

ここで、m=0,1,2,・・・である。例えば、干渉マイカであれば、屈折率が約2.5の二酸化チタンを被覆層の厚みが80nm程度となるようにマイカに被覆させる。m=0の場合のみ、λが可視光の波長となる。本実施形態においては、m=0の場合のみλが可視光の波長となるように制御された光輝材を用いる。式(1)にm=0を代入すると、λは式(2)のように表される。 Here, m = 0, 1, 2, .... For example, in the case of interference mica, the mica is coated with titanium dioxide having a refractive index of about 2.5 so that the thickness of the coating layer is about 80 nm. Only when m = 0, λ is the wavelength of visible light. In this embodiment, a bright material controlled so that λ is the wavelength of visible light is used only when m = 0. Substituting m = 0 into equation (1), λ is expressed as in equation (2).

Figure 2022065752000003
Figure 2022065752000003

<画像処理装置のハードウェア構成>
本実施形態における画像処理装置1のハードウェア構成について、図2を参照して説明する。図2において、画像処理装置1はCPU201、ROM202、RAM203を備える。また、画像処理装置1は、VC(ビデオカード)204、汎用I/F(インタフェース)205、SATA(シリアルATA)I/F206、NIC(ネットワークインタフェースカード)207を備える。
<Hardware configuration of image processing device>
The hardware configuration of the image processing apparatus 1 in the present embodiment will be described with reference to FIG. In FIG. 2, the image processing device 1 includes a CPU 201, a ROM 202, and a RAM 203. Further, the image processing device 1 includes a VC (video card) 204, a general-purpose I / F (interface) 205, a SATA (serial ATA) I / F 206, and a NIC (network interface card) 207.

CPU201は、RAM203をワークメモリとして、ROM202、HDD(ハードディスクドライブ)212等に格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU201は、システムバス208を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM202やHDD212等に格納されたプログラムコードがRAM203に展開され、CPU201によって実行される。VC204には、表示装置2が接続される。汎用I/F205には、シリアルバス209を介して、マウスやキーボード等の入力デバイス210や撮像装置3が接続される。SATAI/F206には、シリアルバス211を介して、HDD212や各種記録メディアの読み書きを行う汎用ドライブ213が接続される。NIC207は、外部装置との間で情報の入力及び出力を行う。CPU201は、HDD212や汎用ドライブ213にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU201は、プログラムによって提供されるGUI(グラフィカルユーザインタフェース)を表示装置2に表示し、入力デバイス210を介して受け付けるユーザ指示などの入力を受信する。 The CPU 201 uses the RAM 203 as a work memory to execute an OS (operating system) and various programs stored in the ROM 202, the HDD (hard disk drive) 212, and the like. Further, the CPU 201 controls each configuration via the system bus 208. The process according to the flowchart described later is executed by the CPU 201 after the program code stored in the ROM 202, the HDD 212, or the like is expanded in the RAM 203. A display device 2 is connected to the VC204. An input device 210 such as a mouse or a keyboard and an image pickup device 3 are connected to the general-purpose I / F 205 via a serial bus 209. A general-purpose drive 213 for reading and writing HDD 212 and various recording media is connected to SATAI / F206 via a serial bus 211. The NIC 207 inputs and outputs information to and from an external device. The CPU 201 uses various recording media mounted on the HDD 212 and the general-purpose drive 213 as storage locations for various data. The CPU 201 displays a GUI (graphical user interface) provided by the program on the display device 2, and receives an input such as a user instruction received via the input device 210.

<画像処理装置の機能構成>
図3は画像処理装置1の機能構成を示すブロック図である。CPU201は、RAM203をワークメモリとして、ROM202又はHDD212に格納されたプログラムを読み出して実行することによって、図3に示す機能構成として機能する。尚、以下に示す処理の全てがCPU201によって実行される必要はなく、処理の一部又は全てがCPU201以外の1つまたは複数の処理回路によって行われるように画像処理装置1が構成されていても良い。
<Functional configuration of image processing device>
FIG. 3 is a block diagram showing a functional configuration of the image processing device 1. The CPU 201 functions as the functional configuration shown in FIG. 3 by reading and executing a program stored in the ROM 202 or the HDD 212 using the RAM 203 as a work memory. It should be noted that it is not necessary that all of the processes shown below are executed by the CPU 201, and even if the image processing device 1 is configured so that a part or all of the processes are performed by one or a plurality of processing circuits other than the CPU 201. good.

画像処理装置1は、入力部301、設定部302、抽出部303、取得部304、導出部305、出力部306を有する。入力部301は、光輝材を含む対象物体を撮像して得られる画像データを入力する。本実施形態における画像データが表す画像は、画素ごとに画素値としてRGB値(R,G,B)を有する。設定部302は、ユーザの指示に基づいて、入力された画像データが表す画像において対象領域を設定する。抽出部303は、設定部302により設定された対象領域から、光輝材の色情報を抽出する。本実施形態における光輝材の色情報は、画像に含まれる輝点のXYZ値ヒストグラムである。XYZ値ヒストグラムの例を図5に示す。図5のグラフにおいて、X値、Y値、Z値それぞれが横軸であり、縦軸はその頻度である。 The image processing device 1 has an input unit 301, a setting unit 302, an extraction unit 303, an acquisition unit 304, a derivation unit 305, and an output unit 306. The input unit 301 inputs image data obtained by imaging an object object including a bright material. The image represented by the image data in the present embodiment has RGB values (R, G, B) as pixel values for each pixel. The setting unit 302 sets the target area in the image represented by the input image data based on the instruction of the user. The extraction unit 303 extracts the color information of the bright material from the target area set by the setting unit 302. The color information of the bright material in the present embodiment is an XYZ value histogram of the bright spots included in the image. An example of the XYZ value histogram is shown in FIG. In the graph of FIG. 5, each of the X value, the Y value, and the Z value is the horizontal axis, and the vertical axis is the frequency.

取得部304は、対象物体を撮像する際の幾何条件を表す条件情報を取得する。本実施形態における取得部304は、条件情報として、受光角αを取得する。受光角αについて、図6を参照して説明する。図6は、撮像装置3を用いて対象物体を撮像する際の幾何条件を表している。図6において、対象物体に含まれる光輝材において反射した光が、矢印で示すように、撮像装置3へと入射している。光が反射した位置において、対象物体の塗装面に対して垂線を引いた場合、その垂線と反射光との成す角が受光角αである。本実施形態においては、設定部302により設定された対象領域内において、受光角αは均一であるとする。具体的には、対象領域の中心における塗装面に対する垂線と反射光との成す角を受光角αとする。尚、必ずしも対象領域の中心における受光角αを用いる必要はなく、例えば対象領域内の中心以外の点における受光角αを用いても良い。 The acquisition unit 304 acquires condition information representing geometric conditions when imaging the target object. The acquisition unit 304 in the present embodiment acquires the light receiving angle α as condition information. The light receiving angle α will be described with reference to FIG. FIG. 6 shows the geometric conditions when an object is imaged by using the image pickup apparatus 3. In FIG. 6, the light reflected by the bright material contained in the target object is incident on the image pickup apparatus 3 as shown by an arrow. When a perpendicular line is drawn with respect to the painted surface of the target object at the position where the light is reflected, the angle formed by the perpendicular line and the reflected light is the light receiving angle α. In the present embodiment, it is assumed that the light receiving angle α is uniform within the target region set by the setting unit 302. Specifically, the angle formed by the perpendicular line and the reflected light with respect to the painted surface at the center of the target area is defined as the light receiving angle α. It is not always necessary to use the light receiving angle α at the center of the target region, and for example, the light receiving angle α at a point other than the center in the target region may be used.

導出部305は、光輝材の分布特性に関するモデルのパラメータを用いて算出したXYZ値ヒストグラムを、抽出部303により抽出されたXYZ値ヒストグラムに対してフィッティングさせることにより、光輝材の分布特性を導出する。図15を参照して説明したように、光輝材の向きと個数とが物体の見え方に影響するため、光輝材の向きと個数とを複数のパラメータによりモデル化する。光輝材の個数はMという1つのパラメータでモデル化することができる。光輝材の向きのモデルについて、図7を参照して説明する。図7に示すように、光輝材は、塗装面と平行な方向を基準として、θ度右回転している状態とする。光輝材の向きは、各光輝材の回転角θの分布を仮定することによりモデル化する。例えば、光輝材の回転角θを式(3)で示すような正規分布の確率密度関数に従うと仮定する。この場合、平均μと標準偏差σとが光輝材の向きのモデルに関するパラメータとなる。尚、式(3)において、回転角θの確率密度関数をf(θ)とする。 The derivation unit 305 derives the distribution characteristics of the bright material by fitting the XYZ value histogram calculated using the parameters of the model relating to the distribution characteristics of the bright material to the XYZ value histogram extracted by the extraction unit 303. .. As described with reference to FIG. 15, since the orientation and the number of the bright materials affect the appearance of the object, the orientation and the number of the bright materials are modeled by a plurality of parameters. The number of bright materials can be modeled with one parameter, M. A model of the orientation of the bright material will be described with reference to FIG. As shown in FIG. 7, the bright material is rotated clockwise by θ degrees with respect to the direction parallel to the painted surface. The orientation of the bright material is modeled by assuming the distribution of the rotation angle θ of each bright material. For example, it is assumed that the angle of rotation θ of the bright material follows a probability density function of normal distribution as shown in Eq. (3). In this case, the mean μ and the standard deviation σ are the parameters for the model of the orientation of the bright material. In the equation (3), the probability density function of the angle of rotation θ is f (θ).

Figure 2022065752000004
Figure 2022065752000004

上述したパラメータ(μ,σ,M)を用いたXYZ値ヒストグラムの算出方法について、図10を参照して説明する。図10は、入射光が光輝材において反射し、反射光が撮像装置3により受光される場合の幾何条件を示している。入射光と被覆層表面に対する垂線との成す角をβとする。被覆層には屈折率の高い媒質が用いられるため、被覆層に入った入射光は屈折する。この屈折角をγとする。屈折した光は基材において反射する。この反射光と塗装面に対する垂線との成す角はα’であり、塗装面から出射する際に屈折した反射光と塗装面に対する垂線とのなす角は上述した受光角αである。塗装面に含まれる塗料の屈折率をn、空気の屈折率を1とすると、スネルの法則により、式(4)が成り立つ。 A method of calculating the XYZ value histogram using the above-mentioned parameters (μ, σ, M) will be described with reference to FIG. FIG. 10 shows the geometric conditions when the incident light is reflected by the bright material and the reflected light is received by the image pickup apparatus 3. Let β be the angle formed by the incident light and the perpendicular to the surface of the covering layer. Since a medium having a high refractive index is used for the coating layer, the incident light entering the coating layer is refracted. Let this refraction angle be γ. The refracted light is reflected at the substrate. The angle formed by the reflected light and the perpendicular line to the painted surface is α', and the angle formed by the reflected light refracted when emitted from the painted surface and the perpendicular line to the painted surface is the above-mentioned light receiving angle α. Assuming that the refractive index of the paint contained in the painted surface is n and the refractive index of air is 1, the equation (4) holds according to Snell's law.

Figure 2022065752000005
Figure 2022065752000005

同様に、被覆層の屈折率をn2とすると、式(5)が成り立つ。 Similarly, if the refractive index of the coating layer is n2, the equation (5) holds.

Figure 2022065752000006
Figure 2022065752000006

また、式(6)も成り立つ。 In addition, equation (6) also holds.

Figure 2022065752000007
Figure 2022065752000007

式(5)に式(6)を代入すると、式(7)が成り立つ。 Substituting Eq. (6) into Eq. (5), Eq. (7) holds.

Figure 2022065752000008
Figure 2022065752000008

式(2)に式(7)を代入すると、式(8)が成り立つ。 Substituting Eq. (7) into Eq. (2), Eq. (8) holds.

Figure 2022065752000009
Figure 2022065752000009

式(4)と式(8)とを基に、塗料の屈折率をnと、被覆層の厚みdと、受光角αと、回転角θと、を用いて、撮像装置3により観測される色に対応する波長λを算出することができる。本実施形態においては、屈折率n及びn2と被覆層の厚みdとは予め決められた定数である。導出部305は、算出した波長λに対して等色関数を適用することによりXYZ値ヒストグラムを算出し、パラメータ(μ,σ,M)を調整しながら、抽出部303により抽出されたXYZ値ヒストグラムに対するフィッティングを行う。 Based on the equations (4) and (8), the refractive index of the paint is observed by the image pickup apparatus 3 using n, the thickness d of the coating layer, the light receiving angle α, and the rotation angle θ. The wavelength λ corresponding to the color can be calculated. In the present embodiment, the refractive indexes n and n2 and the thickness d of the coating layer are predetermined constants. The derivation unit 305 calculates the XYZ value histogram by applying the color matching function to the calculated wavelength λ, and adjusts the parameters (μ, σ, M), and the XYZ value histogram extracted by the extraction unit 303. Make a fitting for.

具体的には、導出部305は、あるパラメータの組み合わせ(μ’,σ’,M’)に対して、(―π,π)の範囲で確率密度関数f(θ)に従う任意の個数N個の乱数をθとして生成する。さらに、式(8)にθを代入すると、N個のλを算出することができる。λを算出する際には、取得部304が取得した受光角αを基に式(4)を用いてα’を算出し、式(8)に代入する。導出部305は、算出した波長λに対して等色関数を適用することによりXYZ値ヒストグラムを算出する。ただし、このXYZ値ヒストグラムは任意の個数N個に対応した面積となっているため、パラメータM個に対応した面積とするために、XYZ値ヒストグラムをM/N倍する。 Specifically, the derivation unit 305 has an arbitrary number N pieces according to the probability density function f (θ) in the range of (−π, π) for a certain parameter combination (μ', σ', M'). Generates the random number of θ as θ. Further, by substituting θ into Eq. (8), N λs can be calculated. When calculating λ, α'is calculated using the equation (4) based on the light receiving angle α acquired by the acquisition unit 304, and is substituted into the equation (8). The derivation unit 305 calculates the XYZ value histogram by applying the color matching function to the calculated wavelength λ. However, since this XYZ value histogram has an area corresponding to an arbitrary number of N pieces, the XYZ value histogram is multiplied by M / N in order to have an area corresponding to M parameters.

導出部305は、算出したXYZ値ヒストグラムが抽出部303により抽出されたXYZ値ヒストグラムと類似度が高くなるように、パラメータ(μ,σ,M)を調整する。導出部305は、X値、Y値、Z値それぞれのヒストグラムに対して、ヒストグラム同士が重複する領域の面積やカルバック・ライブラーダイバージェンスを算出し、その合計値を類似度とする。導出部305は、いくつかのパラメータの組み合わせに対して類似度を算出し、算出した複数の類似度のうち最も高い類似度に対応するパラメータの組み合わせを、光輝材の分布特性の導出結果とする。尚、遺伝的アルゴリズム法や、レーベンバーグ・マーカート法、ガウス・ニュートン法等の公知の最適化手法を用いてパラメータの組み合わせを決定しても良い。 The derivation unit 305 adjusts the parameters (μ, σ, M) so that the calculated XYZ value histogram has a high degree of similarity to the XYZ value histogram extracted by the extraction unit 303. The derivation unit 305 calculates the area of the region where the histograms overlap and the Kullback-Leibler divergence for each of the histograms of the X value, the Y value, and the Z value, and sets the total value as the similarity. The derivation unit 305 calculates the similarity for a combination of several parameters, and uses the combination of the parameters corresponding to the highest similarity among the calculated combinations of the parameters as the derivation result of the distribution characteristic of the bright material. .. The combination of parameters may be determined by using a known optimization method such as a genetic algorithm method, a Levenberg-Marquardt method, or a Gauss-Newton method.

出力部306は、導出部305により導出された光輝材の分布特性を表す分布情報を出力する。 The output unit 306 outputs distribution information representing the distribution characteristics of the bright material derived by the derivation unit 305.

<画像処理装置が実行する処理>
図8は画像処理装置1が実行する処理を示すフローチャートである。以下、各ステップ(工程)は符号の前にSをつけて表す。S801において、入力部301は、ユーザの指示に基づいて、画像データを入力する。ユーザの指示を受け付けるためのUIの例を図4に示す。入力領域401は、ユーザがHDD212等に保存された画像データへのファイルパスを入力するための領域である。入力部301は、入力されたファイルパスが示す画像データを読み取り、画像データが表す画像を画像表示領域402に表示する。
<Processes executed by the image processing device>
FIG. 8 is a flowchart showing a process executed by the image processing device 1. Hereinafter, each step (process) is represented by adding S in front of the reference numeral. In S801, the input unit 301 inputs image data based on the user's instruction. FIG. 4 shows an example of a UI for accepting a user's instruction. The input area 401 is an area for the user to input a file path to the image data stored in the HDD 212 or the like. The input unit 301 reads the image data indicated by the input file path, and displays the image represented by the image data in the image display area 402.

S802において、設定部302は、ユーザの指示に基づいて、入力された画像データが表す画像において対象領域を設定する。具体的には、設定部302は、入力デバイス210を用いたユーザの領域指定を画像表示領域402において受け付ける。尚、対象領域の設定方法はユーザの指示に基づく方法に限られず、例えば画像における対象領域の位置情報を予めHDD212等に保存しておき、設定部302がHDD212等から位置情報を読み取っても良い。この方法によれば、毎度同じ位置に所望の対象領域が設置されるような工場のライン検査等において、ユーザが領域指定を何度も行うことなく対象領域を設定することができる。尚、対象領域は、円形や長方形等の形で設定される。 In S802, the setting unit 302 sets the target area in the image represented by the input image data based on the instruction of the user. Specifically, the setting unit 302 receives the user's area designation using the input device 210 in the image display area 402. The method of setting the target area is not limited to the method based on the user's instruction. For example, the position information of the target area in the image may be saved in the HDD 212 or the like in advance, and the setting unit 302 may read the position information from the HDD 212 or the like. .. According to this method, in a factory line inspection or the like in which a desired target area is installed at the same position every time, the target area can be set without the user having to specify the area many times. The target area is set in the shape of a circle, a rectangle, or the like.

S803において、抽出部303は、S802において設定された対象領域に含まれる画素の画素値を変換する。具体的には、抽出部303は、以下の式(9)を用いて、RGB値(R,G,B)をXYZ値(X,Y,Z)に変換する。 In S803, the extraction unit 303 converts the pixel values of the pixels included in the target area set in S802. Specifically, the extraction unit 303 converts RGB values (R, G, B) into XYZ values (X, Y, Z) using the following equation (9).

Figure 2022065752000010
Figure 2022065752000010

尚、色変換規則を示す情報として用いられるマトリクスに含まれる係数a0~a8は、例えば図9に示すカラーチャートに対する、撮像装置3を用いた撮像及び分光放射輝度計を用いた測定により予め導出しておく。カラーチャートに対する撮像及び測定は、対象物体を撮像する際の照明環境と同様の照明環境において行われる。係数a0~a8を導出する際には、撮像画像における24個のパッチそれぞれについてRGB値の平均値を算出する。算出したRGB値の平均値それぞれを式(9)により変換して得られるXYZ値が、対応するパッチの測定値(XYZ値)に近づくように、最小二乗法により係数a0~a8を導出する。 The coefficients a0 to a8 included in the matrix used as information indicating the color conversion rule are derived in advance by, for example, imaging with the image pickup apparatus 3 and measurement with a spectral radiance meter for the color chart shown in FIG. Keep it. The imaging and measurement of the color chart are performed in the same lighting environment as the lighting environment when the target object is imaged. When deriving the coefficients a0 to a8, the average value of the RGB values is calculated for each of the 24 patches in the captured image. Coefficients a0 to a8 are derived by the least squares method so that the XYZ value obtained by converting each of the calculated average values of the RGB values by the equation (9) approaches the measured value (XYZ value) of the corresponding patch.

S804において、抽出部303は、対象領域において輝点を検出する。具体的には、抽出部303は、対象領域におけるY値の平均値を閾値に設定し、設定した閾値を用いて各画素のY値に対して二値化処理を行う。二値化処理により、Y値は高輝度領域を示す1又は非高輝度領域を示す0となる。抽出部303は、Y値が1である画素を輝点を構成する画素として検出する。輝点が複数の画素から構成される場合、その連結成分を算出し、連結成分内のX値、Y値、Z値それぞれの平均値を算出する。尚、本実施形態においては、Y値は輝点の検出のためだけに二値化されるため、連結成分内の平均値の算出や以降の処理に用いられるY値には二値化前の値が用いられる。 In S804, the extraction unit 303 detects a bright spot in the target region. Specifically, the extraction unit 303 sets the average value of the Y values in the target region as a threshold value, and performs binarization processing on the Y value of each pixel using the set threshold value. By the binarization process, the Y value becomes 1 indicating a high-luminance region or 0 indicating a non-luminance region. The extraction unit 303 detects a pixel having a Y value of 1 as a pixel constituting a bright spot. When the bright spot is composed of a plurality of pixels, the connected component is calculated, and the average value of each of the X value, the Y value, and the Z value in the connected component is calculated. In this embodiment, since the Y value is binarized only for detecting the bright spot, the Y value used for the calculation of the average value in the connected components and the subsequent processing is before binarization. The value is used.

S805において、抽出部303は、S804において検出した輝点に基づいて、光輝材の色情報を抽出する。具体的には、抽出部303は、輝点のX値、Y値、Z値それぞれをヒストグラム化する。ここで、XYZ値ヒストグラムそれぞれの面積は、検出された輝点の個数である。 In S805, the extraction unit 303 extracts the color information of the bright material based on the bright spots detected in S804. Specifically, the extraction unit 303 creates a histogram of each of the X value, Y value, and Z value of the bright spot. Here, the area of each of the XYZ value histograms is the number of detected bright spots.

S806において、取得部304は、対象物体を撮像する際の幾何条件を表す条件情報を取得する。具体的には、取得部304は、S802において設定された対象領域及び撮像装置3の向きや位置関係により決まる受光角αを取得する。本実施形態における取得部304は、ユーザにより入力された値を受光角αとして取得する。尚、対象領域の設定と同様に、測定器を用いて測定した受光角αを予めHDD212等に保存しておき、取得部304がHDD212等から受光角αを読み取っても良い。また、対象物体が撮像装置3と正対している場合、取得部304は、受光角αを画像を基に算出してもよい。具体的には、取得部304は、画像における対象領域の中心と主点との距離[Pixel]を算出し、画素ピッチを掛け合わせることにより、センサ上の距離[mm]を取得する。取得部304は、arctan(センサ上の距離[mm]/焦点距離[mm])を受光角αとして算出する。また、例えば、Time Of Flight(TOF)センサ等を用いて三辺測量を行い、受光角αを算出しても良い。 In S806, the acquisition unit 304 acquires the condition information representing the geometrical condition when the target object is imaged. Specifically, the acquisition unit 304 acquires the light receiving angle α determined by the target region set in S802 and the orientation and positional relationship of the image pickup apparatus 3. The acquisition unit 304 in the present embodiment acquires the value input by the user as the light receiving angle α. As in the setting of the target area, the light receiving angle α measured by using the measuring instrument may be stored in the HDD 212 or the like in advance, and the acquisition unit 304 may read the light receiving angle α from the HDD 212 or the like. Further, when the target object faces the image pickup apparatus 3, the acquisition unit 304 may calculate the light receiving angle α based on the image. Specifically, the acquisition unit 304 acquires the distance [mm] on the sensor by calculating the distance [Pixel] between the center of the target area and the principal point in the image and multiplying by the pixel pitch. The acquisition unit 304 calculates arctan (distance [mm] on the sensor / focal length [mm]) as the light receiving angle α. Further, for example, a three-sided survey may be performed using a Time Of Flight (TOF) sensor or the like to calculate the light receiving angle α.

S807において、導出部305は、S805において色情報として抽出したXYZ値ヒストグラムに対して、光輝材の分布特性に関するモデルのパラメータを用いて算出したXYZ値ヒストグラムをフィッティングさせる。導出部305は、ヒストグラムのフィッティングにより、パラメータ(μ,σ,M)を光輝材の分布特性を表す分布情報として導出する。S808において、出力部306は、導出部305により導出された光輝材の分布特性を表す分布情報を表示装置2に出力する。具体的には、出力部306は、図4に示す結果表示領域403にパラメータ(μ,σ,M)を表示する。尚、分布情報の出力方法は表示装置2に表示する方法に限られず、例えばHDD212等に保存されているcsvファイルやtxtファイルに書き込むことにより出力してもよい。 In S807, the derivation unit 305 fits the XYZ value histogram calculated by using the parameters of the model regarding the distribution characteristics of the bright material to the XYZ value histogram extracted as the color information in S805. The derivation unit 305 derives the parameters (μ, σ, M) as distribution information representing the distribution characteristics of the bright material by fitting the histogram. In S808, the output unit 306 outputs distribution information representing the distribution characteristics of the bright material derived by the extraction unit 305 to the display device 2. Specifically, the output unit 306 displays the parameters (μ, σ, M) in the result display area 403 shown in FIG. The method of outputting the distribution information is not limited to the method of displaying on the display device 2, and may be output by writing to, for example, a csv file or a txt file stored in the HDD 212 or the like.

<第1実施形態の効果>
以上で説明したように、本実施形態における画像処理装置は、光輝材を含む物体を撮像して得られる画像データを入力する。物体を撮像する際の幾何条件を表す条件情報を取得する。画像データに基づいて、物体の対象領域における光輝材の色情報を抽出する。条件情報と光輝材の色情報とに基づいて、対象領域における光輝材の分布特性を導出する。これにより、物体に含まれる光輝材の分布特性を得ることができる。
<Effect of the first embodiment>
As described above, the image processing apparatus in the present embodiment inputs image data obtained by imaging an object containing a bright material. Acquires condition information that represents geometric conditions when imaging an object. Based on the image data, the color information of the bright material in the target area of the object is extracted. Based on the condition information and the color information of the bright material, the distribution characteristics of the bright material in the target region are derived. Thereby, the distribution characteristic of the bright material contained in the object can be obtained.

<変形例>
本実施形態においては、光輝材の分布特性を特定するパラメータを光輝材の向きと個数との2つとしたが、光輝材の向きのみであっても良い。つまり、フィッティングパラメータは(μ,σ)となる。この場合、類似度算出の前にヒストグラムの面積をそろえる必要があるため、面積が1となるように各ヒストグラムを正規化する。
<Modification example>
In the present embodiment, the two parameters for specifying the distribution characteristics of the bright material are the orientation of the bright material and the number of the bright materials, but only the orientation of the bright material may be used. That is, the fitting parameter is (μ, σ). In this case, since it is necessary to align the areas of the histograms before calculating the similarity, each histogram is normalized so that the area becomes 1.

また、本実施形態においては、m=0の場合のみλが可視光の波長となるように制御された光輝材を用いたが、m=1以上の場合にもλが可視光の波長となるように制御された光輝材を用いても良い。この場合、式(1)にm=0,1,2,・・・を代入していき、可視光の範囲に含まれる波長λを算出する。 Further, in the present embodiment, a bright material controlled so that λ is the wavelength of visible light is used only when m = 0, but λ is the wavelength of visible light even when m = 1 or more. A bright material controlled in such a manner may be used. In this case, m = 0, 1, 2, ... Is substituted into the equation (1) to calculate the wavelength λ included in the visible light range.

また、本実施形態における抽出部303は、輝点が複数の画素から構成される場合に連結成分内のX値、Y値、Z値それぞれの平均値を算出したが、統計量は平均値でなく中央値等であっても良い。この場合、ヒストグラムを光輝材の個数によって正規化することが困難となるため、面積が1となるように各ヒストグラムを正規化した後に類似度を算出する。 Further, the extraction unit 303 in the present embodiment calculates the average value of each of the X value, the Y value, and the Z value in the connected component when the bright spot is composed of a plurality of pixels, but the statistic is an average value. It may be the median value or the like. In this case, it is difficult to normalize the histogram by the number of bright materials. Therefore, the similarity is calculated after normalizing each histogram so that the area becomes 1.

また、本実施形態における導出部305は、回転角θの分布のモデルを正規分布としたが、他の分布を用いても良い。例えば、複数種類の光輝材が塗料に含まれていると仮定した場合には混合ガウス分布を用いても良いし、フォン・ミーゼス分布を用いても良い。 Further, although the derivation unit 305 in the present embodiment uses a model of the distribution of the angle of rotation θ as a normal distribution, other distributions may be used. For example, if it is assumed that a plurality of types of bright materials are contained in the paint, a mixed Gaussian distribution may be used, or a von Mises distribution may be used.

また、導出部305がレーベンバーグ・マーカート法等の最適化手法を用いる場合、複数のパラメータに対して対象領域が1つのみだと解が定まらないことがある。この場合、設定部302が設定した対象領域を分割し、分割により得られた各領域のXYZ値ヒストグラムを算出することによりデータ数を確保しても良い。また、設定部302がユーザの指示に基づいて複数の対象領域を設定しても良い。 Further, when the derivation unit 305 uses an optimization method such as the Levenberg-Marquardt method, the solution may not be determined if there is only one target area for a plurality of parameters. In this case, the target area set by the setting unit 302 may be divided, and the number of data may be secured by calculating the XYZ value histogram of each area obtained by the division. Further, the setting unit 302 may set a plurality of target areas based on the user's instruction.

また、本実施形態においては、色情報としてXYZ値を用いたが、RGB値やL値等他の色空間における値を用いても良い。 Further, in the present embodiment, the XYZ value is used as the color information, but a value in another color space such as an RGB value or an L * a * b * value may be used.

また、本実施形態においては、入力される画像データが表す画像は画素毎にRGB値を有していたが、他の色空間の値を画素値として有していても良い。また、分光情報のようにRGBとは異なる波長領域に対応する値や3チャネル以上の値を画素値として有していても良い。 Further, in the present embodiment, the image represented by the input image data has an RGB value for each pixel, but a value in another color space may be used as a pixel value. Further, it may have a value corresponding to a wavelength region different from RGB such as spectral information or a value of 3 channels or more as a pixel value.

[第2実施形態]
第1実施形態においては、対象領域に含まれる光輝材の分布特性を導出し、表示装置に出力した。本実施形態においては、観察条件の異なる2つの対象領域間で光輝材の分布特性の違いを評価する。尚、本実施形態における画像処理装置のハードウェア構成は第1実施形態のものと同等であるため、説明を省略する。以下において、本実施形態と第1実施形態とで異なる部分を主に説明する。尚、第1実施形態と同一の構成については、同一の符号を付して説明する。
[Second Embodiment]
In the first embodiment, the distribution characteristics of the bright material contained in the target region were derived and output to the display device. In this embodiment, the difference in the distribution characteristics of the bright material is evaluated between two target regions having different observation conditions. Since the hardware configuration of the image processing apparatus in this embodiment is the same as that in the first embodiment, the description thereof will be omitted. Hereinafter, the differences between the present embodiment and the first embodiment will be mainly described. The same configuration as that of the first embodiment will be described with the same reference numerals.

<光輝材の分布特性の評価>
図11に示すように、対象物体における領域1101と、領域1101とは異なる領域1102と、で光輝材の色情報の比較を行うことにより、2領域間の光輝材の分布特性の違いを評価することを考える。図12は、撮像装置3を用いて各対象領域を撮像する際の幾何条件を表している。図12に示すように、領域1101に対応する受光角α1と、領域1102に対応する受光角α2と、は異なる。式(4)及び式(8)に示すように、観測される光輝材の色は受光角αと回転角θとにより影響を受ける。2領域間で光輝材の色情報を比較する場合、その違いが受光角の違いに起因するものか、光輝材の分布特性の違いに起因するものかを特定できない。
<Evaluation of distribution characteristics of bright materials>
As shown in FIG. 11, the difference in the distribution characteristics of the bright material between the two regions is evaluated by comparing the color information of the bright material between the region 1101 in the target object and the region 1102 different from the region 1101. Think about it. FIG. 12 shows the geometrical conditions for imaging each target area using the image pickup apparatus 3. As shown in FIG. 12, the light receiving angle α1 corresponding to the region 1101 and the light receiving angle α2 corresponding to the region 1102 are different. As shown in the formulas (4) and (8), the observed color of the bright material is affected by the light receiving angle α and the rotation angle θ. When comparing the color information of the bright material between the two regions, it is not possible to specify whether the difference is due to the difference in the light receiving angle or the difference in the distribution characteristics of the bright material.

そこで本実施形態においては、領域1101の光輝材の分布特性を導出し、導出した分布特性に基づいて、領域1101が領域1102に対応する観察条件(受光角α2)において撮像された場合の光輝材の色情報(以下、仮想色情報と呼ぶ)を算出する。算出した領域1101の光輝材の仮想色情報と、領域1102の光輝材の色情報と、を比較することにより、2領域間の光輝材の分布特性の違いを評価する。このように、観察条件を一致させて光輝材の色情報を比較することにより、2領域間の光輝材の分布特性の違いを高精度に評価することができる。 Therefore, in the present embodiment, the distribution characteristics of the bright material in the region 1101 are derived, and based on the derived distribution characteristics, the bright material in the case where the region 1101 is imaged under the observation conditions (light receiving angle α2) corresponding to the region 1102. Color information (hereinafter referred to as virtual color information) is calculated. By comparing the calculated virtual color information of the bright material in the region 1101 and the color information of the bright material in the region 1102, the difference in the distribution characteristics of the bright material between the two regions is evaluated. In this way, by matching the observation conditions and comparing the color information of the bright materials, it is possible to evaluate the difference in the distribution characteristics of the bright materials between the two regions with high accuracy.

<画像処理装置の機能構成>
図13は画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、入力部301、設定部302、抽出部303、取得部304、導出部305、算出部1301、評価部1302、出力部306を有する。算出部1301は、領域1101の光輝材の分布特性と、領域1102に対応する幾何条件と、に基づいて、領域1101の光輝材の仮想色情報を算出する。評価部1302は、領域1101の光輝材の仮想色情報と領域1102の光輝材の色情報との類似度を評価値として算出する。
<Functional configuration of image processing device>
FIG. 13 is a block diagram showing a functional configuration of the image processing device 1. The image processing device 1 has an input unit 301, a setting unit 302, an extraction unit 303, an acquisition unit 304, a derivation unit 305, a calculation unit 1301, an evaluation unit 1302, and an output unit 306. The calculation unit 1301 calculates the virtual color information of the bright material in the region 1101 based on the distribution characteristics of the bright material in the region 1101 and the geometric conditions corresponding to the region 1102. The evaluation unit 1302 calculates the similarity between the virtual color information of the bright material in the region 1101 and the color information of the bright material in the region 1102 as an evaluation value.

<画像処理装置が実行する処理>
図14は画像処理装置1が実行する処理を示すフローチャートである。S1401において、入力部301は、ユーザの指示に基づいて、画像データを入力する。S1402において、設定部302は、ユーザの指示に基づいて、入力された画像データが表す画像において領域1101と領域1102とを対象領域として設定する。
<Processes executed by the image processing device>
FIG. 14 is a flowchart showing a process executed by the image processing device 1. In S1401, the input unit 301 inputs image data based on the user's instruction. In S1402, the setting unit 302 sets the area 1101 and the area 1102 as the target area in the image represented by the input image data based on the instruction of the user.

S1403において、抽出部303は、S1402において設定された対象領域それぞれについて、RGB値(R,G,B)をXYZ値(X,Y,Z)に変換する。S1404において、抽出部303は、対象領域それぞれにおいて輝点を検出する。S1405において、抽出部303は、S1404において検出した輝点に基づいて、対象領域それぞれに対応する光輝材の色情報を抽出する。 In S1403, the extraction unit 303 converts RGB values (R, G, B) into XYZ values (X, Y, Z) for each of the target areas set in S1402. In S1404, the extraction unit 303 detects bright spots in each of the target regions. In S1405, the extraction unit 303 extracts the color information of the bright material corresponding to each target region based on the bright spots detected in S1404.

S1406において、取得部304は、対象領域それぞれについて、対象物体を撮像する際の幾何条件を表す条件情報を取得する。具体的には、取得部304は、上述した受光角α1と受光角α2とを取得する。S1407において、導出部305は、領域1101に対応する色情報として抽出したXYZ値ヒストグラムに対して、光輝材の分布特性に関するモデルのパラメータを用いて算出したXYZ値ヒストグラムをフィッティングさせる。導出部305は、第1実施形態と同様に、f(θ)として正規分布を用いる。ここで決まるパラメータを(μ1,σ1,M1)とする。 In S1406, the acquisition unit 304 acquires the condition information representing the geometrical condition when the target object is imaged for each target area. Specifically, the acquisition unit 304 acquires the above-mentioned light receiving angle α1 and light receiving angle α2. In S1407, the derivation unit 305 fits the XYZ value histogram calculated by using the parameters of the model regarding the distribution characteristics of the bright material to the XYZ value histogram extracted as the color information corresponding to the region 1101. The derivation unit 305 uses a normal distribution as f (θ) as in the first embodiment. The parameters determined here are (μ1, σ1, M1).

S1408において、算出部1301は、領域1101に対応する光輝材の分布特性を表す分布情報と、領域1102に対応する幾何条件を表す条件情報と、に基づいて、領域1101に対応する光輝材の仮想色情報を算出する。具体的には、算出部1301は、式(10)に示すf(θ)に基づく回転角θの乱数をN個生成する。 In S1408, the calculation unit 1301 virtualizes the bright material corresponding to the region 1101 based on the distribution information representing the distribution characteristics of the bright material corresponding to the region 1101 and the condition information representing the geometric conditions corresponding to the region 1102. Calculate color information. Specifically, the calculation unit 1301 generates N random numbers of the rotation angle θ based on f (θ) shown in the equation (10).

Figure 2022065752000011
Figure 2022065752000011

また、以下の式(11)及び式(12)が成り立つ。 Further, the following equations (11) and (12) are established.

Figure 2022065752000012
Figure 2022065752000012

Figure 2022065752000013
Figure 2022065752000013

算出部1301は、式(12)に対して、生成したN個のθを代入することにより、N個の波長λを算出する。算出部1301は、算出した波長λと等色関数とに基づいてXYZ値ヒストグラムを算出し、算出したXYZ値ヒストグラムをM1/N倍することにより正規化する。 The calculation unit 1301 calculates N wavelengths λ by substituting the generated N θs into the equation (12). The calculation unit 1301 calculates an XYZ value histogram based on the calculated wavelength λ and the color matching function, and normalizes the calculated XYZ value histogram by multiplying it by M1 / N.

S1409において、評価部1302は、S1408において仮想色情報として算出されたXYZ値ヒストグラムと、S1405において抽出された領域1102に対応するXYZ値ヒストグラムと、の類似度を評価値として算出する。類似度としては、上述したように、ヒストグラム同士が重複する領域の面積やカルバック・ライブラーダイバージェンス等を用いることができる。S1410において、出力部306は、評価部1302により算出された評価値を表示装置2に出力する。 In S1409, the evaluation unit 1302 calculates the similarity between the XYZ value histogram calculated as virtual color information in S1408 and the XYZ value histogram corresponding to the region 1102 extracted in S1405 as the evaluation value. As the degree of similarity, as described above, the area of the region where the histograms overlap, the Kullback-Leibler divergence, or the like can be used. In S1410, the output unit 306 outputs the evaluation value calculated by the evaluation unit 1302 to the display device 2.

<第2実施形態の効果>
以上で説明したように、本実施形態における画像処理装置は、観察条件が異なる2つの対象領域について、一方の対象領域の観察条件を他方の対象領域の観察条件に合わせた場合の色情報を算出する。算出した色情報に基づいて、2領域間の光輝材の分布特性の違いを評価する。これにより、製品間や部品間等、2領域間の光輝材の分布特性の違いを高精度に評価することができる。
<Effect of the second embodiment>
As described above, the image processing apparatus in the present embodiment calculates color information for two target areas having different observation conditions when the observation conditions of one target area are matched with the observation conditions of the other target area. do. Based on the calculated color information, the difference in the distribution characteristics of the bright material between the two regions is evaluated. This makes it possible to evaluate the difference in the distribution characteristics of the bright material between the two regions, such as between products and parts, with high accuracy.

<変形例>
本実施形態においては、領域1101の観察条件を領域1102の観察条件に合わせるように仮想色情報を算出したが、領域1101の観察条件と領域1102の観察条件との両方を目標の観察条件に合わせるように各対象領域の仮想色情報を算出しても良い。この場合、S1407において、導出部305は、領域1101と領域1102とのそれぞれについて光輝材の分布特性を導出する。S1408において、算出部1301は、目標の観察条件において各対象領域を撮像した場合の仮想色情報を算出する。尚、目標の観察条件は、例えば、S1406において取得部304が条件情報として取得しておけば良い。S1409において、評価部1302は、領域1101の仮想色情報と領域1102の仮想色情報との類似度を評価値として算出する。これにより、任意の観察条件における2領域間の光輝材の分布特性の違いを評価することができる。
<Modification example>
In the present embodiment, the virtual color information is calculated so that the observation condition of the region 1101 is matched with the observation condition of the region 1102, but both the observation condition of the region 1101 and the observation condition of the region 1102 are matched with the target observation condition. The virtual color information of each target area may be calculated as described above. In this case, in S1407, the derivation unit 305 derives the distribution characteristics of the bright material for each of the region 1101 and the region 1102. In S1408, the calculation unit 1301 calculates virtual color information when each target area is imaged under the target observation conditions. The target observation condition may be acquired by the acquisition unit 304 as condition information in S1406, for example. In S1409, the evaluation unit 1302 calculates the similarity between the virtual color information of the area 1101 and the virtual color information of the area 1102 as an evaluation value. This makes it possible to evaluate the difference in the distribution characteristics of the bright material between the two regions under arbitrary observation conditions.

また、本実施形態においては、2領域間の光輝材の分布特性の違いを評価するために光輝材の色情報の比較を行ったが、仮想色情報を算出せずに、光輝材の分布特性同士を直接比較しても良い。この場合、S1407において、導出部305は、領域1101と領域1102とのそれぞれについて光輝材の分布特性を導出する。S1408の処理は行われず、S1409において、評価部1302は、領域1101に対応する分布情報(μ1,σ1,M1)と領域1102に対応する分布情報(μ2,σ2,M2)との差分を評価値として算出する。具体的には、評価部1302は、評価値として、|σ1-σ2|、|μ1-μ2|、|M1-M2|を算出する。これにより、画像処理装置1が仮想色情報を算出する算出部1301を有していなくても、2領域間の光輝材の分布特性の違いを評価することができる。 Further, in the present embodiment, the color information of the bright material is compared in order to evaluate the difference in the distribution characteristic of the bright material between the two regions, but the distribution characteristic of the bright material is not calculated. You may compare each other directly. In this case, in S1407, the derivation unit 305 derives the distribution characteristics of the bright material for each of the region 1101 and the region 1102. The processing of S1408 is not performed, and in S1409, the evaluation unit 1302 evaluates the difference between the distribution information (μ1, σ1, M1) corresponding to the region 1101 and the distribution information (μ2, σ2, M2) corresponding to the region 1102. Calculated as. Specifically, the evaluation unit 1302 calculates | σ1-σ2 |, | μ1-μ2 |, | M1-M2 | as evaluation values. Thereby, even if the image processing apparatus 1 does not have the calculation unit 1301 for calculating the virtual color information, it is possible to evaluate the difference in the distribution characteristics of the bright material between the two regions.

また、本実施形態においては、2領域間の光輝材の分布特性の違いを評価したが、対象領域の数は2つに限られず、3つ以上であってもよい。 Further, in the present embodiment, the difference in the distribution characteristics of the bright material between the two regions is evaluated, but the number of the target regions is not limited to two, and may be three or more.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1 画像処理装置
301 入力部
303 抽出部
304 取得部
305 導出部
1 Image processing device 301 Input unit 303 Extraction unit 304 Acquisition unit 305 Derivation unit

Claims (10)

光輝材を含む物体を撮像して得られる画像データを入力する入力手段と、
前記物体を撮像する際の幾何条件を表す条件情報を取得する取得手段と、
前記画像データに基づいて、前記物体の対象領域における前記光輝材の色情報を抽出する抽出手段と、
前記条件情報と前記光輝材の色情報とに基づいて、前記対象領域における前記光輝材の分布特性を導出する導出手段と、
を有することを特徴とする画像処理装置。
An input means for inputting image data obtained by imaging an object containing a bright material,
An acquisition means for acquiring condition information representing geometric conditions when imaging the object, and
An extraction means for extracting color information of the bright material in the target region of the object based on the image data, and an extraction means.
A derivation means for deriving the distribution characteristics of the bright material in the target region based on the condition information and the color information of the bright material.
An image processing device characterized by having.
前記光輝材は、薄膜干渉により観察条件に応じて色が変化する光輝材であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the bright material is a bright material whose color changes according to observation conditions due to thin film interference. 前記抽出手段は、前記光輝材の色情報として、前記画像データが表す画像における輝点の色に対応するヒストグラムを抽出することを特徴とする請求項1又は請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the extraction means extracts a histogram corresponding to the color of a bright spot in an image represented by the image data as color information of the bright material. 前記導出手段は、前記ヒストグラムに対して、前記光輝材の分布特性を特定するパラメータを用いたフィッティングを行うことにより、前記光輝材の分布特性を導出することを特徴とする請求項3に記載の画像処理装置。 The derivation means according to claim 3, wherein the derivation means derives the distribution characteristics of the brilliant material by fitting the histogram with a parameter for specifying the distribution characteristics of the brilliant material. Image processing device. 前記パラメータは、前記対象領域における前記光輝材の向きを含むことを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the parameter includes the orientation of the bright material in the target region. 前記パラメータは、前記光輝材の向きと、前記対象領域に含まれる前記光輝材の個数と、であることを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the parameters are the orientation of the bright material and the number of the bright materials included in the target area. 前記抽出手段は、前記画像の画素値を二値化することにより、前記輝点を検出することを特徴とする請求項3乃至請求項6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 3 to 6, wherein the extraction means detects the bright spot by binarizing the pixel value of the image. 前記取得手段は、複数の前記対象領域それぞれに対応する前記条件情報を取得し、
前記導出手段は、複数の前記対象領域それぞれに対して前記光輝材の分布特性を導出し、
前記条件情報と前記光輝材の分布特性とに基づいて、複数の前記対象領域の間で前記光輝材の分布特性の違いを評価する評価手段をさらに有することを特徴とする請求項1乃至請求項7のいずれか一項に記載の画像処理装置。
The acquisition means acquires the condition information corresponding to each of the plurality of target areas, and obtains the condition information.
The derivation means derives the distribution characteristics of the bright material for each of the plurality of target regions.
Claims 1 to claim further include an evaluation means for evaluating a difference in the distribution characteristics of the bright material among a plurality of the target regions based on the condition information and the distribution characteristics of the bright material. 7. The image processing apparatus according to any one of 7.
コンピュータを請求項1乃至請求項8のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image processing apparatus according to any one of claims 1 to 8. 光輝材を含む物体を撮像して得られる画像データを入力する入力ステップと、
前記物体を撮像する際の幾何条件を表す条件情報を取得する取得ステップと、
前記画像データに基づいて、前記物体の対象領域における前記光輝材の色情報を抽出する抽出ステップと、
前記条件情報と前記光輝材の色情報とに基づいて、前記対象領域における前記光輝材の分布特性を導出する導出ステップと、
を有することを特徴とする画像処理方法。
An input step for inputting image data obtained by imaging an object containing a bright material,
An acquisition step for acquiring condition information representing geometric conditions when imaging the object, and
An extraction step of extracting color information of the bright material in the target region of the object based on the image data, and an extraction step.
A derivation step for deriving the distribution characteristics of the bright material in the target region based on the condition information and the color information of the bright material, and
An image processing method characterized by having.
JP2020174427A 2020-10-16 2020-10-16 Image processing apparatus, image processing method, and program Pending JP2022065752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020174427A JP2022065752A (en) 2020-10-16 2020-10-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020174427A JP2022065752A (en) 2020-10-16 2020-10-16 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022065752A true JP2022065752A (en) 2022-04-28

Family

ID=81387528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020174427A Pending JP2022065752A (en) 2020-10-16 2020-10-16 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022065752A (en)

Similar Documents

Publication Publication Date Title
CN106461373A (en) Real-time digitally enhanced imaging for the prediction, application, and inspection of coatings
Ouellet et al. Precise ellipse estimation without contour point extraction
CN111492198B (en) Object shape measuring apparatus and method, and program
US8437003B2 (en) Information processing apparatus and method
JPWO2020262615A1 (en) Bright pigment judgment method, bright pigment judgment device and bright pigment judgment program
CN106124052B (en) Color matching with shade detection
JP2014067193A (en) Image processing apparatus and image processing method
US20240044778A1 (en) Inspection method and inspection system
JP2019168388A (en) Image inspection method and image inspection device
Mandal et al. Influence of acquisition parameters on pigment classification using hyperspectral imaging
US11300406B2 (en) Multiple-stage method of investigating surfaces and corresponding apparatus
Madooei et al. Detecting specular highlights in dermatological images
Angelopoulou Specular highlight detection based on the fresnel reflection coefficient
JP2022065752A (en) Image processing apparatus, image processing method, and program
CN112053341A (en) Surface temperature measurement method of alloy material based on light reflectivity and artificial intelligence
CN116908185A (en) Method and device for detecting appearance defects of article, electronic equipment and storage medium
EP3889582B1 (en) Optical characteristic analysis apparatus and program
CN113252585B (en) Method and device for judging gold surface coating based on hyperspectral image
Bhardwaj et al. An imaging approach for the automatic thresholding of photo defects
EP4352451A1 (en) Texture mapping to polygonal models for industrial inspections
Liu et al. Multispectral LiDAR point cloud highlight removal based on color information
KR102171773B1 (en) Inspection area determination method and visual inspection apparatus using the same
US11333603B2 (en) Processing apparatus, processing method, and storage medium
JP7259660B2 (en) Image registration device, image generation system and image registration program
JP2017173300A (en) Texture evaluation device, texture evaluation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240618