JPH06323908A - Illumination-color estimation apparatus - Google Patents
Illumination-color estimation apparatusInfo
- Publication number
- JPH06323908A JPH06323908A JP11284493A JP11284493A JPH06323908A JP H06323908 A JPH06323908 A JP H06323908A JP 11284493 A JP11284493 A JP 11284493A JP 11284493 A JP11284493 A JP 11284493A JP H06323908 A JPH06323908 A JP H06323908A
- Authority
- JP
- Japan
- Prior art keywords
- color
- vector
- normal
- illumination
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Of Color Television Signals (AREA)
- Spectrometry And Color Measurement (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像から照明光の色を
推定することにより、例えば、画像撮影時のカラービデ
オカメラの白色補正や、撮影後の画像、写真の色補正処
理に用いる照明色推定装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention estimates the color of illumination light from an image, so that it can be used for, for example, white correction of a color video camera at the time of photographing an image, and color correction processing of an image or a photograph after photographing. The present invention relates to a color estimation device.
【0002】[0002]
【従来の技術】白い被写体を昼光で照らし、次に色温度
2700Kのタングステン電球の光で照明した場合、観
測される分光分布は異なっている。しかし人の視覚系で
は、色順応によりどちらの場合も白色として感じる。ビ
デオカメラや写真など画像の撮影では、この色順応に対
応して、異なる照明条件下でも白い被写体を白色として
再現することが望まれる。このためには、照明光の分光
分布(照明色とよぶことにする)を推定する必要があ
る。従来このための照明色推定装置に関連して、撮像し
た画像の色分布を用いて色補正を行なう技術がある。特
開昭61−260790号公報記載の「自動白バランス
調節装置」に示されている技術では、赤、緑、青の3原
色信号(以下RGB信号と略す)から構成される画像に
おいて、基準となる白色信号より画像中から白色と思わ
れる領域を判定して、その領域の基準白色信号との色差
により照明色を結果的に表現している。また、外部照明
光センサーを用いる従来技術として、特開昭61−24
86号公報記載の「カラービデオカメラの自動白バラン
ス調整装置」に照明色の推定技術が示されている。この
従来技術の場合、撮影する風景の周辺光の色温度を赤色
と青色の分光強度を二つのシリコンフォトダイオードに
より測定して、照明光の色温度を求めている。2. Description of the Related Art When a white subject is illuminated with daylight and then with a tungsten bulb having a color temperature of 2700K, the observed spectral distribution is different. However, in the human visual system, it is perceived as white in both cases due to chromatic adaptation. In capturing an image such as a video camera or a photograph, it is desired to reproduce a white subject as white even under different illumination conditions in response to this chromatic adaptation. For this purpose, it is necessary to estimate the spectral distribution of illumination light (hereinafter referred to as illumination color). Conventionally, there is a technique for performing color correction using a color distribution of a captured image in association with an illumination color estimation device for this purpose. In the technique disclosed in "Automatic White Balance Adjusting Device" described in Japanese Patent Application Laid-Open No. 61-260790, an image formed of three primary color signals of red, green and blue (hereinafter abbreviated as RGB signal) is used as a reference. From the white signal, an area that is considered to be white in the image is determined, and the illumination color is consequently represented by the color difference from the reference white signal in that area. Further, as a conventional technique using an external illumination light sensor, Japanese Patent Laid-Open No. 61-24 has been disclosed.
A technique for estimating the illumination color is shown in "Automatic White Balance Adjustment Device for Color Video Camera" described in Japanese Patent No. 86. In the case of this conventional technique, the color temperature of the ambient light of the scene to be photographed is measured by two silicon photodiodes for the spectral intensities of red and blue to obtain the color temperature of the illumination light.
【0003】[0003]
【発明が解決しようとする課題】前記の様な撮像した画
像の色分布から白色基準信号に近い領域を白色領域と見
なすことにより照明色を推定する装置では、本来白色で
ない被写体でも、照明色との関係により基準となる白色
に近く観測された場合、照明色の推定は誤りとなる。ま
た原理的な問題として、白色の被写体が画像中に存在し
ないと色補正を行なうことができない。外部照明光セン
サーによる方法では、撮影された画像からでなく、外部
センサから、照明光を求めていることから、 1)外部センサー情報が必ずしも、被写体を照らす照明
光の情報を反映するとは限らない、 2)外部センサーの情報が失われた画像、例えば撮影後
の画像の色補正が行なえない、 などの問題がある。In an apparatus that estimates the illumination color by considering the area close to the white reference signal as a white area from the color distribution of the captured image as described above, even if the object is not originally white, When observed near the reference white color due to the relationship, the estimation of the illumination color will be incorrect. Further, as a theoretical problem, color correction cannot be performed unless a white subject exists in the image. In the method using the external illumination light sensor, the illumination light is obtained from the external sensor, not from the captured image. Therefore, 1) the external sensor information does not always reflect the information of the illumination light that illuminates the subject. , 2) There is a problem that color correction cannot be performed on an image in which information from an external sensor is lost, for example, an image after being photographed.
【0004】[0004]
【課題を解決するための手段】本発明は、上記の問題点
を解決するために異なる周波数成分の輝度の並びである
多次元色ベクトルで構成される画像を色の類似性に基づ
いて領域分割する領域分割手段と、前記領域分割手段に
より分割された各領域内の色ベクトル分布を平面近似し
て平面の法線ベクトルを求める色平面近似手段と前記色
平面近似手段により得られた前記各領域の法線ベクトル
の集合の部分集合となる法線ベクトル群に対して内積が
小さくなるような色ベクトルを選ぶ色ベクトル推定手段
を有し、前記色ベクトルを照明光の周波数成分とするこ
とを特徴とする照明色推定装置である。SUMMARY OF THE INVENTION In order to solve the above problems, the present invention divides an image composed of a multi-dimensional color vector, which is an array of luminances of different frequency components, into regions based on color similarity. Area dividing means, color plane approximating means for approximating the color vector distribution in each area divided by the area dividing means to obtain a normal vector of the plane, and each area obtained by the color plane approximating means A color vector estimating unit that selects a color vector whose inner product is small with respect to a normal vector group that is a subset of the set of normal vectors, and uses the color vector as a frequency component of illumination light. Is an illumination color estimation device.
【0005】[0005]
【作用】本発明は、標準2色性反射モデル(富永、大
橋:物体のカラー反射モデル、情報処理学会論文誌、V
ol33、 No。1、pp。37−45、1992)
を利用している。この標準2色性反射モデルは、絶縁体
の反射光輝度Yは(数1)で表現できるとするモデルで
ある。The present invention is based on the standard dichroic reflection model (Tominaga, Ohashi: Color reflection model of objects, IPSJ journals, V
ol33, No. 1, pp. 37-45, 1992)
Are using. This standard dichroic reflection model is a model in which the reflected light brightness Y of the insulator can be expressed by (Equation 1).
【0006】[0006]
【数1】 [Equation 1]
【0007】(数1)において、λは可視光域の波長、
θは視線、照明光の入射角等で決まる幾何学的パラメー
タであり、SSとSDは鏡面反射成分と完全拡散反射成分
の反射係数(SS(λ)は波長に依らず一定)、Eは照
明光の分光分布、cS、cDは重み係数である。このモデ
ルでは被写体から観測される反射光は鏡面反射成分と完
全拡散反射成分とに分離されると考える。本発明では、
異なる周波数成分の輝度の並びである多次元色ベクトル
(即ち離散的なλについて得られた輝度の並び)で構成
される画像から照明色を推定する。式1により、単一照
明光に照らされた絶縁体の輝度は鏡面反射成分と完全拡
散反射成分の線形結合として観測され、その輝度は、多
次元色ベクトル空間で2次元平面上に分布することにな
る。独立な2つの平面の法線ベクトルがあれば、この2
つの法線ベクトルに直交する色ベクトルとして照明光の
分光分布を求めることができる(第5図に、多次元色ベ
クトルをRGB信号とした場合を示す)。このために
は、画像を異なる絶縁体領域に分割する必要がある。そ
こで、本発明では、領域分割手段により画像を色の類似
性に基づいて領域分割する。この色の類似性に基づく領
域分割により得られた小領域の多くで式1が成り立つと
考える。次に、色平面近似手段により前記領域分割手段
により分割された各領域内の色ベクトル分布を平面近似
して平面の法線ベクトルを求める。この平面の法線ベク
トル全てが正確に得られている保証はない。そこで、色
ベクトル推定手段により、前記色平面近似手段により得
られた前記各領域の法線ベクトルの集合の部分集合とな
る法線ベクトル群に対して内積が小さくなるような色ベ
クトルを選ぶことにより、照明色ベクトルを推定する。
従って、撮像された画像の色分布から、効果的に照明色
の推定を行なうことができる。In (Equation 1), λ is a wavelength in the visible light region,
θ is a geometrical parameter determined by the line of sight, the incident angle of illumination light, etc., S S and S D are the reflection coefficients of the specular reflection component and the perfect diffuse reflection component (S S (λ) is constant regardless of wavelength), E is a spectral distribution of illumination light, and c S and c D are weighting factors. In this model, the reflected light observed from the subject is considered to be separated into a specular reflection component and a perfect diffuse reflection component. In the present invention,
An illumination color is estimated from an image composed of a multidimensional color vector (that is, a luminance sequence obtained for discrete λ) that is a luminance sequence of different frequency components. According to Equation 1, the brightness of the insulator illuminated by a single illuminating light is observed as a linear combination of the specular reflection component and the perfect diffuse reflection component, and the brightness should be distributed on the two-dimensional plane in the multidimensional color vector space. become. If there are two independent normal vectors, this 2
The spectral distribution of illumination light can be obtained as a color vector orthogonal to one normal vector (FIG. 5 shows the case where a multidimensional color vector is an RGB signal). This requires dividing the image into different insulator regions. Therefore, in the present invention, the image is divided into regions by the region dividing means based on color similarity. It is considered that the expression 1 holds in many of the small areas obtained by the area division based on the color similarity. Next, the color plane approximating means approximates the color vector distribution in each area divided by the area dividing means to a plane to obtain a plane normal vector. There is no guarantee that all normal vectors on this plane are obtained accurately. Therefore, the color vector estimating unit selects a color vector whose inner product becomes small with respect to a normal vector group that is a subset of the normal vector set of each region obtained by the color plane approximating unit. , Estimate the illumination color vector.
Therefore, the illumination color can be effectively estimated from the color distribution of the captured image.
【0008】[0008]
【実施例】以下に本発明の実施例を図1、図2、図3、
図4、図5、図6を用いて説明する。図1は実施例にお
ける照明色推定装置の機能ブロック図である。図2は実
施例における領域分割部の機能ブロック図である。図3
は実施例における色平面近似部の機能ブロック図であ
る。図4は実施例における照明色ベクトル最尤推定部の
機能ブロック図である。図5は標準2色性反射モデルの
概念図である。図6は実施例における特徴ベクトル分布
の仮定の説明図である。図7は実施例における領域分割
部の動作説明図である。本実施例では、画像はRGB信
号の色ベクトルで構成されているものとする。これをR
GBの列ベクトルであるxと表現する。また画素位置を
水平位置ξ、垂直位置ηの列ベクトルであるpと表現す
る。図1において、101は領域分割部、102は色平
面近似部、103は法線ベクトル選択部、104は照明
色ベクトル最尤推定部である。はじめに領域分割部(1
01)の動作を図2、図6、図7を用いて説明する。領
域分割部(101)では、画像から(x、p)からなる
特徴ベクトルを抽出して画素をクラスタリングすること
により、図7に示すように画像を類似の色をもつ小領域
に分割する。クラスタリングされた結果は必ずしも楕円
となる保証はなく、また連結領域を作らないが、色に加
えて位置を特徴ベクトルとしていることから、似たよう
な色でかつ距離の近い近傍の画素が一つのクラスタ(小
領域)を形成する。この領域分割には、図6に示すよう
に、クラスタ内の特徴ベクトルが平均と共分散をパラメ
ータとして色ベクトルと位置ベクトルが独立に分布して
いるとの仮定がある。各クラスタには、その小領域内の
色ベクトルxの平均x ̄と共分散X、位置ベクトルpの
平均p ̄と共分散Pの並びからなる分布パラメータが割
り当てられており、これを参照ベクトルとよぶことにす
る。画像全体で、参照ベクトルは集合を形成する。そし
て、色に関する平均と共分散が後で、照明色ベクトル推
定に利用されることになる。Embodiments of the present invention will be described below with reference to FIGS.
This will be described with reference to FIGS. 4, 5, and 6. FIG. 1 is a functional block diagram of the illumination color estimation device in the embodiment. FIG. 2 is a functional block diagram of the area dividing unit in the embodiment. Figure 3
FIG. 3 is a functional block diagram of a color plane approximating unit in the embodiment. FIG. 4 is a functional block diagram of the illumination color vector maximum likelihood estimator in the embodiment. FIG. 5 is a conceptual diagram of a standard dichroic reflection model. FIG. 6 is an explanatory diagram of the assumption of the feature vector distribution in the embodiment. FIG. 7 is an operation explanatory diagram of the area dividing unit in the embodiment. In this embodiment, the image is assumed to be composed of color vectors of RGB signals. This is R
It is expressed as x, which is a GB column vector. Further, the pixel position is expressed as p, which is a column vector of the horizontal position ξ and the vertical position η. In FIG. 1, 101 is a region dividing unit, 102 is a color plane approximating unit, 103 is a normal vector selecting unit, and 104 is an illumination color vector maximum likelihood estimating unit. First, the area division part (1
The operation (01) will be described with reference to FIGS. 2, 6, and 7. The area dividing unit (101) divides the image into small areas having similar colors as shown in FIG. 7 by extracting a feature vector (x, p) from the image and clustering the pixels. The result of clustering is not always guaranteed to be an ellipse, and a connected region is not created, but since the position is a feature vector in addition to the color, pixels with similar colors and close distances have only one pixel. Form clusters (small areas). As shown in FIG. 6, this region division has an assumption that the feature vector in the cluster has the color vector and the position vector independently distributed with the average and covariance as parameters. Each cluster is assigned a distribution parameter consisting of a mean x-and a covariance X of the color vector x and a mean p-and a covariance P of the position vector p in the small area. I'll call it. Throughout the image, the reference vectors form a set. The color mean and covariance will then be used later for illumination color vector estimation.
【0009】図2は領域分割部(101)の機能ブロッ
ク図であり、201は入力画像を記憶するフレームメモ
リ、202は画像の位置ベクトルpをランダムに発生す
るランダムアドレス発生部、203はランダムアドレス
発生部で得られた位置ベクトルpにより、その位置にあ
る画素の色ベクトルxを読み出して、特徴ベクトル
(x、p)を合成し出力する特徴ベクトル合成部、20
4は参照ベクトル決定部、205は参照ベクトル変更
部、206は参照ベクトルメモリバンクである。参照ベ
クトルメモリバンク(206)にはN個の参照ベクトル
格納のためのスロットが1からNまである。参照ベクト
ル集合をθi=(x ̄i、Xi、p ̄i、Pi)、1≦i≦
Nと表現することにする。iはスロット番号に対応して
いる。ここで、参照ベクトルメモリの各スロットには、
1、0の2値をとる有効フラグが付随している。1の
時、有効、0の時無効とする。以下にクラスタリングの
手順を示す。FIG. 2 is a functional block diagram of the area dividing unit (101). 201 is a frame memory for storing an input image, 202 is a random address generating unit for randomly generating a position vector p of the image, and 203 is a random address. A feature vector synthesis unit that reads a color vector x of a pixel located at the position based on the position vector p obtained by the generation unit, synthesizes the feature vector (x, p), and outputs the synthesized feature vector (x, p).
Reference numeral 4 is a reference vector determining unit, 205 is a reference vector changing unit, and 206 is a reference vector memory bank. The reference vector memory bank (206) has 1 to N slots for storing N reference vectors. The reference vector set is represented by θ i = (x− i , X i , p− i , P i ), 1 ≦ i ≦
I will call it N. i corresponds to the slot number. Here, in each slot of the reference vector memory,
A valid flag that takes a binary value of 1, 0 is attached. When 1 is valid, when 0 is invalid. The clustering procedure is shown below.
【0010】ステップ1:はじめにN個のスロットの内
m個(m≦N)のスロットの有効フラグを1とし、他を
0とする。離散時間tの参照ベクトル集合をθi(t)
=(x ̄i(t)、Xi(t)、p ̄i(t)、P
i(t))、1≦i≦Nと表現することにする。有効フ
ラグの1である参照ベクトルスロットのメモリ内容を初
期化する。初期化は、共分散行列Xi(0)、Pi(0)
は単位行列であるとし、色ベクトルxの平均x ̄
i(0)と位置ベクトルpの平均p ̄i(0)は、ランダ
ムに設定する。初期化時の離散時間tは0である。Step 1: First, the valid flags of m slots (m ≦ N) of N slots are set to 1 and the others are set to 0. Let θ i (t) be the set of reference vectors at discrete time t
= (X¯ i (t), X i (t), p¯ i (t), P
i (t)), 1 ≦ i ≦ N. Initialize the memory contents of the reference vector slot which is 1 of the valid flag. Initialization is performed by covariance matrix X i (0), P i (0)
Is the identity matrix, and the mean x  ̄ of the color vector x
i (0) and the average P i of the position vector p (0) is set at random. The discrete time t at the time of initialization is 0.
【0011】ステップ2:特徴ベクトル合成部では、ラ
ンダムアドレス発生部(202)で得られた位置ベクト
ルpにより、その位置にある画素の色ベクトルxを読み
出して、特徴ベクトルを合成し出力する。参照ベクトル
決定部(203)では、N個スロットの中で有効フラグ
が1であるスロット内の参照ベクトルについて、特徴ベ
クトルとの距離を計算する。この距離の評価は数2で行
なう(tは行列、ベクトルの転置を意味する)。Step 2: The feature vector synthesizing unit reads the color vector x of the pixel at that position by the position vector p obtained by the random address generating unit (202), synthesizes the feature vector, and outputs it. The reference vector determination unit (203) calculates the distance from the feature vector for the reference vector in the slot whose valid flag is 1 among the N slots. This distance is evaluated by Equation 2 (t means transposition of matrix and vector).
【0012】[0012]
【数2】 [Equation 2]
【0013】ここで、|X|と|P|は各共分散行列の
行列式ある。数2は、画素の分布が色ベクトルxと位置
ベクトルpが各々独立に平均x ̄i、p ̄iと共分散
Xi、Piで正規分布していると仮定した時、その確率密
度関数の対数(対数尤度)から求めることができる統計
的な測度である。N個のスロットの中で、有効フラグが
1の参照ベクトルについて距離diを計算し、最短距離
であったスロットの番号をkとして、参照ベクトル決定
部はその番号kと特徴ベクトルの標本を参照ベクトル変
更部(205)へ送る。参照ベクトル変更部(205)
では、スロット番号kの参照ベクトルを標本に数2の距
離関数の下で、より近くなるよう数3、4、5、6で変
更する。数7は実験的に定める利得係数である。Here, | X | and | P | are determinants of each covariance matrix. Number 2, when the distribution of pixel is assumed to color vector x position vector p are each an average independently x¯ i, p¯ i and covariance X i, to be normally distributed with P i, the probability density function It is a statistical measure that can be obtained from the logarithm of (log likelihood). Of the N slots, the distance d i is calculated for the reference vector whose valid flag is 1, and the reference vector determination unit refers to the number k and the sample of the feature vector, where k is the number of the slot having the shortest distance. Send to the vector change unit (205). Reference vector change unit (205)
Then, the reference vector of the slot number k is changed to the sample under the distance function of the equation 2 so as to be closer to the sample by the equations 3, 4, 5, and 6. Equation 7 is an experimentally determined gain coefficient.
【0014】[0014]
【数3】 [Equation 3]
【0015】[0015]
【数4】 [Equation 4]
【0016】[0016]
【数5】 [Equation 5]
【0017】[0017]
【数6】 [Equation 6]
【0018】[0018]
【数7】 [Equation 7]
【0019】そして時刻tを1増加させ、以上のステッ
プ2を所定の回数(例えば10000回)繰り返すこと
により、画素の自己組織化によるクラスタリングがおこ
なわれる。Then, the time t is incremented by 1 and the above step 2 is repeated a predetermined number of times (10,000 times, for example), whereby clustering is performed by self-organization of pixels.
【0020】すなわち、ランダムに選ばれた特徴ベクト
ルにもっとも近い参照ベクトルが、よりその標本に近く
なるように分布パラメタータを修正することにより、一
つのクラスタが形成される。ランダムアドレス発生は、
逐次参照ベクトルを変更することによるパラメータ収束
の偏りを防ぐためである。このステップ2の繰り返しの
中で、参照ベクトル変更部(205)は条件1:(参照
ベクトルの総スロット数N)−(現在有効な参照ベクト
ルスロット数m)>0であり、条件2:ln|Xi|+
ln|Pi|が所定のしきい値以上、であれば、参照ベ
クトルθiで表現されるクラスタを分割する。このため
に参照ベクトルθiを有効フラグが0である(無効な)
参照ベクトルスロットjに複製し、θj=θiを作る。そ
して、各々、平均ベクトルをε加減する。εの値は実験
的に定める。これを数8、9、10、11に示す。That is, one cluster is formed by modifying the distribution parameter data so that the reference vector closest to the randomly selected feature vector is closer to the sample. Random address generation is
This is to prevent bias in parameter convergence caused by changing the successive reference vector. In the repetition of step 2, the reference vector changing unit (205) satisfies the condition 1: (total number of reference vector slots N) − (currently valid reference vector slot number m)> 0, and condition 2: ln | X i | +
If ln | P i | is greater than or equal to a predetermined threshold value, the cluster represented by the reference vector θ i is divided. Therefore, the reference flag θ i has the valid flag of 0 (invalid).
Duplicate into reference vector slot j to make θ j = θ i . Then, the average vector is adjusted by ε, respectively. The value of ε is experimentally determined. This is shown in Equations 8, 9, 10, and 11.
【0021】[0021]
【数8】 [Equation 8]
【0022】[0022]
【数9】 [Equation 9]
【0023】[0023]
【数10】 [Equation 10]
【0024】[0024]
【数11】 [Equation 11]
【0025】そして、スロットjの有効フラグを1に
し、有効な参照ベクトルスロット数mを1増やして、以
後の自己組織化の反復に用いる。これにより、ln|X
i|+ln|Pi|が大きなクラスタが分割される。Then, the valid flag of the slot j is set to 1 and the number of valid reference vector slots m is increased by 1, and used for the repetition of self-organization thereafter. As a result, ln | X
A cluster having a large i | + ln | P i | is divided.
【0026】またステップ2の繰り返しの中で、所定の
期間、ランダムに選ばれた標本ベクトルの割当が一度も
得られなかった、すなわち最短距離とならなかった参照
ベクトルのスロットの有効フラグを0にし、有効な参照
ベクトルスロット数mを1減ずる。これは、は誤った値
に収束した参照ベクトルのパラメータを取り消すために
必要である。In addition, during the repetition of step 2, the valid flag of the slot of the reference vector for which the allocation of the randomly selected sample vector has never been obtained, that is, the shortest distance has not been set, is set to 0 for a predetermined period. , Reduce the number of valid reference vector slots m by 1. This is necessary to cancel the parameters of the reference vector that have converged to the wrong value.
【0027】以上の処理により、入力画像は、図7に例
示するように色が類似である小領域に分割され、各領域
について無効な参照ベクトルを含めてN個の参照ベクト
ルからなる参照ベクトル集合が生成される。By the above processing, the input image is divided into small regions having similar colors as shown in FIG. 7, and a reference vector set consisting of N reference vectors including invalid reference vectors for each region. Is generated.
【0028】次に色平面近似部の動作を図3を用いて説
明する。図3において、301は参照ベクトル格納メモ
リ(206)から色ベクトルの平均と共分散を読み出し
て相関行列を生成する相関行列生成部、302は生成さ
れた相関行列をスペクトル分解するスペクトル分解部、
303はスペクトル分解された相関行列の固有値と第3
固有ベクトルと格納する色平面法線ベクトルと固有値格
納メモリである。以上のように構成された本実施例にお
ける色平面近似部(102)の動作を以下に説明する。
相関行列生成部(301)は参照ベクトル格納メモリ
(206)から参照ベクトル集合をθi=(x ̄i、
Xi、p ̄i、Pi)、1≦i≦Nの中から有効フラグが
1であるx ̄i、Xiを読み出す。図6に例示した平均ベ
クトルx ̄を中心に3次元正規分布するモデルにより領
域分割を行なったが、色ベクトルが原点を通る平面上に
分布するという標準2色性反射モデルを利用するため
に、数12より相関行列Riを生成する。Next, the operation of the color plane approximation unit will be described with reference to FIG. In FIG. 3, reference numeral 301 denotes a correlation matrix generation unit that reads the average and covariance of color vectors from the reference vector storage memory (206) to generate a correlation matrix, and 302 a spectral decomposition unit that decomposes the generated correlation matrix into a spectrum.
303 is the eigenvalue of the spectrally decomposed correlation matrix and the third
An eigenvector, a color plane normal vector to be stored, and an eigenvalue storage memory. The operation of the color plane approximating unit (102) in the present embodiment configured as described above will be described below.
The correlation matrix generation unit (301) stores the reference vector set from the reference vector storage memory (206) as θ i = (x− i ,
X i , p − i , P i ), x − i , X i whose valid flag is 1 is read out from 1 ≦ i ≦ N. Region division was performed using a model that has a three-dimensional normal distribution centered on the average vector x shown in FIG. 6, but in order to use the standard dichroic reflection model in which color vectors are distributed on a plane that passes through the origin, The correlation matrix R i is generated from Equation 12.
【0029】[0029]
【数12】 [Equation 12]
【0030】相関行列Riの第1主成分、第2主成分は
平面を張り、第3主成分が平面の法線ベクトルを表すと
考えることができる。そこで、スペクトル分解部(30
2)が相関行列Riを分解する。これを数13で表現す
る。It can be considered that the first principal component and the second principal component of the correlation matrix R i form a plane and the third principal component represents a normal vector of the plane. Therefore, the spectrum decomposition unit (30
2) decomposes the correlation matrix R i . This is expressed by Equation 13.
【0031】[0031]
【数13】 [Equation 13]
【0032】数13で、λ1(i)、λ2(i)、λ3
(i)は相関行列Riの固有値、ai、bi、ciは大きさ
1に正規化した固有ベクトルである。ここで第3固有ベ
クトルを色平面法線ベクトルと呼ぶ。そして、固有値と
色平面法線ベクトルciを格納メモリ(303)に格納
しておく。次に法線ベクトル選択部(103)の動作を
説明する。領域分割部(101)で得られた参照ベクト
ルの幾つかは、絶縁体領域のデータではない恐れがあ
る。また領域分割に誤りがあったり、法線ベクトル推定
に十分な鏡面反射成分と完全拡散反射成分を含まない領
域もある。したがって、前記した第3固有ベクトルの全
てが標準2色性反射モデルに従った正しいベクトルとは
限らない。 そこで、法線ベクトル選択部(103)は
しきい値T1とT2(0<T1、T2<1)を用いて以
下の数14かつ数15に該当する色平面法線ベクトルc
iのみを選択して照明色ベクトル最尤推定部(104)
へ出力する。In Equation 13, λ1 (i), λ2 (i), λ3
(I) is an eigenvalue of the correlation matrix R i , and a i , b i , and c i are eigenvectors normalized to the size 1. Here, the third eigenvector is called a color plane normal vector. Then, the eigenvalue and the color plane normal vector c i are stored in the storage memory (303). Next, the operation of the normal vector selection unit (103) will be described. Some of the reference vectors obtained by the area dividing unit (101) may not be data of the insulator area. In addition, there are areas where there is an error in area division, and there are areas that do not include specular reflection components and perfect diffuse reflection components that are sufficient for normal vector estimation. Therefore, not all the above-mentioned third eigenvectors are correct vectors according to the standard dichroic reflection model. Therefore, the normal vector selection unit (103) uses the threshold values T1 and T2 (0 <T1, T2 <1) to obtain the color plane normal vector c corresponding to the following Expressions 14 and 15.
Illumination color vector maximum likelihood estimator by selecting only i (104)
Output to.
【0033】[0033]
【数14】 [Equation 14]
【0034】[0034]
【数15】 [Equation 15]
【0035】色平面法線ベクトルは、照明光の色ベクト
ルと直交するべきベクトルである。数14はRGBの各
成分が等しい単位ベクトル(すなわち白色である色ベク
トル)との内積絶対値が小さいも法線ベクトルciのみ
を利用するためのしきい値処理である。数15の値はス
ペクトル分解によって得た色平面法線ベクトルの確から
しさを表している。数15の値が大きい時、色平面法線
ベクトルの推定値は確かであるとして、しきい値T2を
超えた法線ベクトルciのみを利用する。次に照明色ベ
クトル最尤推定部(104)の動作を図4を用いて説明
する。図4において、401は色平面法線ベクトル格納
メモリ、402は特異値分解部である。法線ベクトル選
択部(103)により選択された色平面法線ベクトルは
色平面法線ベクトル格納メモリに記憶される。ここで、
その数をm個としておく。このm個のベクトルに直交す
るベクトルが照明の分光分布を表している。現実には、
誤差、領域分割の誤りにより全ての色平面法線ベクトル
に直交するベクトルは存在しないため、内積の総和を小
さくするベクトルを見つける。これは、数16で表現す
ることができる。数16において、lは照明の分光分布
を表す色ベクトルである。数16は2乗ノルムを表して
いる。この最小化のためには、m個の色平面法線ベクト
ル(列ベクトル)を並べて行列を特異値分解することに
より、簡単に求めることができる。The color plane normal vector is a vector that should be orthogonal to the color vector of the illumination light. Expression 14 is a threshold value process for using only the normal vector c i, although the absolute value of the inner product with the unit vector having the same RGB components (that is, the color vector that is white) is small. The value of Expression 15 represents the certainty of the color plane normal vector obtained by spectral decomposition. When the value of Expression 15 is large, the estimated value of the color plane normal vector is assumed to be certain, and only the normal vector c i that exceeds the threshold value T2 is used. Next, the operation of the illumination color vector maximum likelihood estimator (104) will be described with reference to FIG. In FIG. 4, 401 is a color plane normal vector storage memory, and 402 is a singular value decomposition unit. The color plane normal vector selected by the normal vector selection unit (103) is stored in the color plane normal vector storage memory. here,
The number is set to m. Vectors orthogonal to the m vectors represent the spectral distribution of illumination. In reality,
Since there is no vector orthogonal to all color plane normal vectors due to error and area division error, a vector that reduces the sum of inner products is found. This can be expressed by Equation 16. In Expression 16, 1 is a color vector representing the spectral distribution of illumination. Equation 16 represents the square norm. This minimization can be easily obtained by arranging m color plane normal vectors (column vectors) and performing singular value decomposition on the matrix.
【0036】[0036]
【数16】 [Equation 16]
【0037】本実施例では、以上説明したように色と位
置を特徴としたクラスタリングにより、画像を領域分割
し、領域分割された小領域について標準2色性反射モデ
ルが成り立つとして、信頼度の高い小領域内の色平面法
線ベクトルを選び、内積の2乗和が最小になる意味で、
法線ベクトルと直交する色ベクトルとして照明光の色分
布を推定している。領域分割の時点で、色ベクトルの共
分散を求めることにより、容易に色ベクトルの相関行列
を計算し、色平面の法線ベクトルを求めることができる
のが本実施例の特長である。なお、本実施例では、領域
分割の精度を挙げるために、図6に示したように、領域
内の色ベクトル平均までの正規化距離と位置に関する正
規化距離の和によりクラスタリングを行なったが、色ベ
クトル平均までの正規化距離の代わりに、図5に例示し
た色平面までの射影成分を利用しても良い。この場合
は、相関行列をそのまま用いて、数2の代わりに、数1
7を、数4の代わりに数18を用いることになり(λ3
(i)とciは相関行列の第3固有値と第3固有ベクト
ル)、相関行列Rを共分散行列Xから求める手順と色ベ
クトル平均を求める手順が省ける利点がある。In the present embodiment, as described above, the image is divided into areas by the clustering featuring the color and the position, and the standard dichroic reflection model is established for the divided small areas, so that the reliability is high. Select the color plane normal vector in the small area, and in the sense that the sum of squares of inner products is minimized,
The color distribution of the illumination light is estimated as a color vector orthogonal to the normal vector. The feature of the present embodiment is that the color vector covariance can be easily calculated at the time of region division to calculate the color vector correlation matrix and the color plane normal vector. In this embodiment, in order to increase the accuracy of area division, as shown in FIG. 6, clustering is performed by the sum of the normalized distance to the color vector average in the area and the normalized distance with respect to the position. Instead of the normalized distance to the color vector average, the projection component up to the color plane illustrated in FIG. 5 may be used. In this case, the correlation matrix is used as it is, instead of Equation 2, Equation 1
7 will be used instead of equation (4) (λ3
(I) and c i are the third eigenvalue and the third eigenvector of the correlation matrix), and the procedure of obtaining the correlation matrix R from the covariance matrix X and the procedure of obtaining the color vector average are advantageous.
【0038】[0038]
【数17】 [Equation 17]
【0039】[0039]
【数18】 [Equation 18]
【0040】なお、本発明は、上記実施例に限定される
ものではなく、本発明の主旨に基づいて種々の変形が可
能であり、これらを本発明の範囲から排除するものでは
ない。The present invention is not limited to the above embodiments, and various modifications can be made based on the gist of the present invention, and these modifications are not excluded from the scope of the present invention.
【0041】[0041]
【発明の効果】以上詳細に説明したように、本発明によ
れば、次のような効果を得ることができる。 1)画像中の被写体から直接、照明光の推定を行なうこ
とがきる。 2)白色の被写体が無くとも照明光の分光分布を推定す
ることができる。 したがって、従来の照明色推定装置に比べて、より複雑
な環境下で使用することができ、カラービデオカメラの
白色調整、カラー画像印刷等の色補正応用に利用するこ
とができる。As described in detail above, according to the present invention, the following effects can be obtained. 1) The illumination light can be estimated directly from the subject in the image. 2) It is possible to estimate the spectral distribution of illumination light without a white subject. Therefore, it can be used in a more complicated environment as compared with the conventional illumination color estimation device, and can be used for color correction applications such as white adjustment of a color video camera and color image printing.
【図1】実施例における照明色推定装置の機能ブロック
図FIG. 1 is a functional block diagram of an illumination color estimation device according to an embodiment.
【図2】実施例における領域分割部の機能ブロック図FIG. 2 is a functional block diagram of a region dividing unit in the embodiment.
【図3】実施例における色平面近似部の機能ブロック図FIG. 3 is a functional block diagram of a color plane approximation unit in the embodiment.
【図4】実施例における照明色ベクトル最尤推定部の機
能ブロック図FIG. 4 is a functional block diagram of an illumination color vector maximum likelihood estimator in the embodiment.
【図5】標準2色性反射モデルの概念図FIG. 5 is a conceptual diagram of a standard dichroic reflection model.
【図6】実施例における特徴ベクトル分布の仮定の説明
図FIG. 6 is an explanatory diagram of the assumption of feature vector distribution in the embodiment.
【図7】実施例における領域分割部の動作説明図FIG. 7 is an explanatory diagram of the operation of the area dividing unit in the embodiment.
101 領域分割部 102 色平面近似部 103 法線ベクトル選択部 104 照明色ベクトル最尤推定部 201 フレームメモリ 202 ランダムアドレス発生部 203 特徴ベクトル合成部 204 参照ベクトル決定部 205 参照ベクトル変更部 206 参照ベクトル格納メモリ 301 相関行列生成部 302 スペクトル分解部 303 色平面法線ベクトルと固有値格納メモリ 401 色平面法線ベクトル格納メモリ 402 特異値分解部 101 area dividing unit 102 color plane approximating unit 103 normal vector selecting unit 104 illumination color vector maximum likelihood estimating unit 201 frame memory 202 random address generating unit 203 feature vector synthesizing unit 204 reference vector determining unit 205 reference vector changing unit 206 reference vector storage Memory 301 Correlation matrix generation unit 302 Spectral decomposition unit 303 Color plane normal vector and eigenvalue storage memory 401 Color plane normal vector storage memory 402 Singular value decomposition unit
Claims (1)
元色ベクトルで構成される画像を色の類似性に基づいて
領域分割する領域分割手段と、前記領域分割手段により
分割された各領域内の色ベクトル分布を平面近似して平
面の法線ベクトルを求める色平面近似手段と、前記色平
面近似手段により得られた前記各領域の法線ベクトルの
集合の部分集合となる法線ベクトル群に対して内積が小
さくなるような色ベクトルを選ぶ色ベクトル推定手段を
有し、前記色ベクトルを照明光の周波数成分とすること
を特徴とする照明色推定装置。1. An area dividing means for dividing an image composed of a multi-dimensional color vector, which is an array of luminances of different frequency components, based on color similarity, and within each area divided by the area dividing means. A color plane approximation means for approximating the color vector distribution of the plane to obtain a plane normal vector, and a normal vector group which is a subset of the set of normal vectors of the respective areas obtained by the color plane approximating means. On the other hand, an illumination color estimation device having a color vector estimation means for selecting a color vector having a smaller inner product, and using the color vector as a frequency component of illumination light.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11284493A JPH06323908A (en) | 1993-05-14 | 1993-05-14 | Illumination-color estimation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11284493A JPH06323908A (en) | 1993-05-14 | 1993-05-14 | Illumination-color estimation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06323908A true JPH06323908A (en) | 1994-11-25 |
Family
ID=14596953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11284493A Pending JPH06323908A (en) | 1993-05-14 | 1993-05-14 | Illumination-color estimation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06323908A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085531A (en) * | 2001-09-06 | 2003-03-20 | Telecommunication Advancement Organization Of Japan | Gloss and color reproducing system, and gloss and color reproducing program |
KR100482790B1 (en) * | 2001-12-26 | 2005-04-14 | 주식회사 베리텍 | Illuminant estimation on digital image from 3-dimensional RGB color coordinates |
US7808531B2 (en) | 2005-12-14 | 2010-10-05 | Samsung Electronics Co., Ltd. | Method and apparatus for auto white controlling |
JP2011139489A (en) * | 2011-02-02 | 2011-07-14 | Eastman Kodak Co | Apparatus for adjusting white balance, and apparatus for identifying color |
JP2013253946A (en) * | 2011-09-22 | 2013-12-19 | Nippon Telegr & Teleph Corp <Ntt> | Light source distribution estimation apparatus, light source distribution estimation method and light source distribution estimation program |
JP2015204532A (en) * | 2014-04-14 | 2015-11-16 | キヤノン株式会社 | Image processing apparatus and imaging device |
JP2021532891A (en) * | 2018-07-31 | 2021-12-02 | ドイチェス クレープスフォルシュングスツェントルム シュティフトゥング デス エッフェントリッヒェン レヒツ | Methods and systems for extended imaging in open treatment with multispectral information |
-
1993
- 1993-05-14 JP JP11284493A patent/JPH06323908A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085531A (en) * | 2001-09-06 | 2003-03-20 | Telecommunication Advancement Organization Of Japan | Gloss and color reproducing system, and gloss and color reproducing program |
KR100482790B1 (en) * | 2001-12-26 | 2005-04-14 | 주식회사 베리텍 | Illuminant estimation on digital image from 3-dimensional RGB color coordinates |
US7808531B2 (en) | 2005-12-14 | 2010-10-05 | Samsung Electronics Co., Ltd. | Method and apparatus for auto white controlling |
JP2011139489A (en) * | 2011-02-02 | 2011-07-14 | Eastman Kodak Co | Apparatus for adjusting white balance, and apparatus for identifying color |
JP2013253946A (en) * | 2011-09-22 | 2013-12-19 | Nippon Telegr & Teleph Corp <Ntt> | Light source distribution estimation apparatus, light source distribution estimation method and light source distribution estimation program |
JP2015204532A (en) * | 2014-04-14 | 2015-11-16 | キヤノン株式会社 | Image processing apparatus and imaging device |
JP2021532891A (en) * | 2018-07-31 | 2021-12-02 | ドイチェス クレープスフォルシュングスツェントルム シュティフトゥング デス エッフェントリッヒェン レヒツ | Methods and systems for extended imaging in open treatment with multispectral information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6038339A (en) | White point determination using correlation matrix memory | |
Van De Weijer et al. | Edge-based color constancy | |
US5715377A (en) | Gray level correction apparatus | |
US6639628B1 (en) | Apparatus and method for processing color images | |
US8503771B2 (en) | Method and apparatus for estimating light source | |
US6611289B1 (en) | Digital cameras using multiple sensors with multiple lenses | |
US10600211B2 (en) | System and method for calculating image similarity and recording medium | |
Rosenberg et al. | Color constancy using kl-divergence | |
US6594384B1 (en) | Apparatus and method for estimating and converting illuminant chromaticity using perceived illumination and highlight | |
DiCarlo et al. | Illuminating illumination | |
WO2004045219A1 (en) | Light source estimating device, light source estimating method, and imaging device and image processing method | |
US20210058596A1 (en) | Systems and methods for sensor-independent illuminant determination | |
US5907629A (en) | Method of estimating chromaticity of illumination using neural networks | |
JP2003520515A (en) | Color signal processing | |
US7663788B2 (en) | Image correcting apparatus and method, and image correction program | |
US7200264B2 (en) | White point estimation using color by convolution | |
US6850272B1 (en) | Image processing method and system | |
JP5740147B2 (en) | Light source estimation apparatus and light source estimation method | |
WO2001030067A1 (en) | An apparatus for and method of estimating the illumination of an image | |
JP2978615B2 (en) | Apparatus and method for adjusting color balance | |
TW201830337A (en) | Method and device for performing automatic white balance on an image | |
JPH06323908A (en) | Illumination-color estimation apparatus | |
US20100195162A1 (en) | Color To Monochrome Conversion | |
CN112866667B (en) | Image white balance processing method and device, electronic equipment and storage medium | |
JP2002271638A (en) | White balance correction method and device, and recording medium recorded with program for executing the method |