JP2005190473A - System and method for light source model estimation - Google Patents

System and method for light source model estimation Download PDF

Info

Publication number
JP2005190473A
JP2005190473A JP2004351917A JP2004351917A JP2005190473A JP 2005190473 A JP2005190473 A JP 2005190473A JP 2004351917 A JP2004351917 A JP 2004351917A JP 2004351917 A JP2004351917 A JP 2004351917A JP 2005190473 A JP2005190473 A JP 2005190473A
Authority
JP
Japan
Prior art keywords
image
light source
light sources
calculating
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004351917A
Other languages
Japanese (ja)
Inventor
Mathew Spiegl John
マシュー スピーグル ジョン
John E Dolan
エドワード ドーラン ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/728,573 external-priority patent/US7352895B2/en
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2005190473A publication Critical patent/JP2005190473A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To estimate a light source model of a given image. <P>SOLUTION: A set of colors as candidates is mapped on a chromaticity space, and distances to the image are calculated to determine the most suitable light source. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

発明の詳細な説明Detailed Description of the Invention

(技術分野)
本発明は、概して、デジタル画像処理に関するものであり、さらに特定的には、光源モデル推定のための方法およびシステムに関するものである。
(Technical field)
The present invention relates generally to digital image processing, and more particularly to a method and system for illuminant model estimation.

(背景技術)
画像において見える色はその画像の被写体を照射する光によって決まる。光源が異なれば、画像の被写体の表面から反射する光も異なる。ヒトの視覚システムは、上記の反射光による違いを、知覚される表面の色がほぼ一定になるように、おおよそ補正する。しかしながら、画像が媒体に取り込まれて、その画像のシーンにおける光源(the source)とは異なる光源(a light source)の下で見られると、上記の自然法則に従った補正は起こらない。したがって、記録された画像は、自然な状態の目で見えているときのようにするために、標準的な、基準の光源へとカラーバランスを調整することが好ましい。このバランス調整またはカラー補正は、ひとたびシーンの光源が特定されれば実行できる。
(Background technology)
The color visible in an image is determined by the light that illuminates the subject of that image. If the light source is different, the light reflected from the surface of the subject of the image is also different. The human visual system roughly corrects the difference due to the reflected light so that the perceived surface color is substantially constant. However, when an image is captured on a medium and viewed under a light source that is different from the light source in the scene of the image, correction according to the above natural law does not occur. Therefore, it is preferable to adjust the color balance to a standard, reference light source so that the recorded image looks as if it is visible to the natural eye. This balancing or color correction can be performed once the scene light source is identified.

既知の方法では、光源推定には、既知の光源の固定集合が用いられていた。上記既知の光源は、その光源下であり得る色度の色域によってそれぞれ特徴付けられている。色度ヒストグラムは、画像ごとに算出され、モデルヒストグラムのそれぞれと比較される。   In the known method, a fixed set of known light sources is used for light source estimation. The known light sources are each characterized by a color gamut of chromaticity that can be under the light source. A chromaticity histogram is calculated for each image and compared with each of the model histograms.

(発明の概要)
本発明による各実施形態は、距離基準を用いたモデルマッチングによる、画像内の光源を推定するための方法およびシステムを実現する。
(Summary of Invention)
Each embodiment according to the present invention implements a method and system for estimating a light source in an image by model matching using a distance criterion.

(図の簡単な説明)
本願の各実施形態は、以下の記述および添付の請求項において、附属の図面と関連して、より完全に明らかにされるであろう。上記図面は単に典型的な実施形態を描写しているにすぎず、したがって、本発明の範囲を制限することにはならないということ理解されたい。また、各実施形態において、附属の図面を用いることによってさらなる特殊性および詳細が記述される。
図1は、候補となる光源の集合をx−y色度座標で示したグラフである。
図2は、典型的な配列図(ordering scheme)を示す図である。
図3は、ある画像と、図1の光源グラフとについての典型的なマッチ曲面を示したグラフである。
(Brief description of figure)
Each embodiment of the present application will become more fully apparent in the following description and appended claims, taken in conjunction with the accompanying drawings. It should be understood that the above drawings are merely representative of exemplary embodiments and therefore do not limit the scope of the invention. Further, in each embodiment, further specialities and details are described by using attached drawings.
FIG. 1 is a graph showing a set of candidate light sources in xy chromaticity coordinates.
FIG. 2 is a diagram showing a typical ordering scheme.
FIG. 3 is a graph showing a typical matched curved surface for an image and the light source graph of FIG.

(発明の詳細な説明)
光源の推定は、モデルマッチング方式(a model matching strategy)により取り組まれることもある。このような方式においては、光源の固定された集合がモデル化される。モデル化は、標本を用いた統計または他の方法によってパラメータ化して実行されてもよい。元の画像データに対して最適と評価されるモデルが、その画像を生み出したであろう確度が最も大きいシーン光源として選択される。上記決定のプロセスは、パラメータ化された同じ記述または統計に基づく同じ記述をその画像から算出するステップと、次に、「最適な」モデルを選択するために、上記モデルベースに関して、その画像の記述のマッチング手順を実行するステップとに拠っている。
(Detailed description of the invention)
The estimation of the light source may be addressed by a model matching strategy. In such a scheme, a fixed set of light sources is modeled. Modeling may be performed with parameterization by means of sample-based statistics or other methods. The model that is evaluated to be optimal with respect to the original image data is selected as the scene light source with the highest certainty that it would have produced the image. The determination process includes calculating the same parameterized description or the same description based on statistics from the image, and then describing the image with respect to the model base to select an “optimal” model. And the step of performing the matching procedure.

図1に示されるように、典型的なモデルの集合は、x−y色度空間にプロットされた81個の光源からなっている。色度座標は点2として示されている。この特定の例において、上記座標は、D65ホワイトポイント4を中心としたCIE−Lab座標上に規則的に標本化されたものであり、該D65ホワイトポイント4は昼光の基準光源である。上記座標は、次に、図1において図示されているように、x−y色度空間にマッピングされる。同様の方法で、入力された画像の各ピクセルは、CIE−xyY空間へ変換される。(このCIE−xyY空間は、輝度情報を含むx−y色度空間である。)
別の実施形態において、カラー値は、以下のように、別の色空間あるいは他の色度空間で表されることもある。
r=R/(R+G+B)
g=G/(R+G+B)
b=B/(R+G+B)
本発明のある実施形態では、どのモデルがその画像の光源に最も適合しているかを決定するのに、距離基準が用いられることもある。この「距離」という用語は、たいてい、空間における長さ(例えば、二次元または三次元空間におけるある線分の長さなど)を表すときに用いられる。しかし、本願において、距離という用語は、三次元以上の空間においても上記と同様の基準を指すこともあるし、多次元空間内の点で表され得る2つの値の差を指すこともある。
As shown in FIG. 1, a typical model set consists of 81 light sources plotted in an xy chromaticity space. The chromaticity coordinates are shown as point 2. In this particular example, the coordinates are regularly sampled on CIE-Lab coordinates centered on D65 white point 4, which is the daylight reference light source. The coordinates are then mapped into the xy chromaticity space as illustrated in FIG. In a similar manner, each pixel of the input image is converted to CIE-xyY space. (This CIE-xyY space is an xy chromaticity space including luminance information.)
In another embodiment, color values may be represented in another color space or other chromaticity space as follows:
r = R / (R + G + B)
g = G / (R + G + B)
b = B / (R + G + B)
In some embodiments of the invention, a distance criterion may be used to determine which model best fits the light source of the image. The term “distance” is often used to describe a length in space (eg, the length of a line segment in a two-dimensional or three-dimensional space). However, in the present application, the term distance may refer to the same criterion as described above even in a three-dimensional or higher space, or may refer to a difference between two values that can be represented by a point in a multidimensional space.

測定値(measure)d(x,y)は、以下の3つの条件を満たすとき、かつその場合に限り(iff;if and only if)、距離基準である。
1.d(x,y)=0 iffx=y [同一のときのみ0である]
2.d(x,y)=d(y,x) [対称性]
3.d(x,y)+d(y,z)<=d(x,z) [三角不等式]
非負の条件(the condition of non-negativity)(つまり、すべてのx,yについて、d(x,y)>=0である)は、通常(しかし、しばしば無条件で)追加される。
The measurement value (measure) d (x, y) is a distance reference when and only when the following three conditions are satisfied (if; if and only if).
1. d (x, y) = 0 iffx = y [0 when they are the same]
2. d (x, y) = d (y, x) [Symmetry]
3. d (x, y) + d (y, z) <= d (x, z) [triangle inequality]
The condition of non-negativity (ie d (x, y)> = 0 for all x, y) is usually added (but often unconditionally).

また距離基準は、差分基準(a difference metric)または非類似度(a dissimilarity metric)を指すこともある。本願明細書および請求項においては、距離、差分(difference)、および非類似度(dissimilarity)の用語は同義である。   A distance criterion may also refer to a difference metric or a dissimilarity metric. In the present specification and claims, the terms distance, difference, and dissimilarity are synonymous.

本発明のある実施形態では、完全なモデル集合の部分集合にて演算(operations)が実施できる。完全なモデル集合は、初めの選択処理によって、ある部分集合へと絞り込まれてもよい。次に、最終的な光源の選択は、モデルの部分集合内で生じることになる。   In some embodiments of the invention, operations can be performed on a subset of the complete model set. The complete model set may be narrowed down to a subset by an initial selection process. The final light source selection will then occur within a subset of the model.

別の実施形態では、「グリーディー」な方法で評価が実施されることもある。「グリーディー」な評価方法の例を以下に示す。
(a)第一最適推定モデル(best guess model)を事前値(the prior value)として評価する。
(b)第二最適推定モデルを現在値(the current value)として評価する。
(c)上記現在値と事前値との差分ベクトルを算出する。
(d)上記差分ベクトルが減少していき、かつ基準値よりも大きい間は、
(1)事前値および現在値の最小値を事前値に設定する。
In another embodiment, the evaluation may be performed in a “greedy” manner. Examples of “greedy” evaluation methods are shown below.
(A) Evaluating the first guess model as the prior value.
(B) Evaluating the second optimal estimation model as the current value.
(C) A difference vector between the current value and the prior value is calculated.
(D) While the difference vector is decreasing and larger than the reference value,
(1) The minimum value of the prior value and the current value is set as the prior value.

(2)現在値として新たな最適推定値を評価する。通常、差分ベクトルは新しいモデルを選択する際のガイドとして用いられる。   (2) A new optimum estimated value is evaluated as the current value. The difference vector is usually used as a guide when selecting a new model.

(3)上記事前値と現在値とのスコアの差分を算出する。   (3) The difference in score between the prior value and the current value is calculated.

本発明の各実施形態では、要素毎のいずれかのベクトルを用いた、距離/差分/非類似度の測定を用いることが可能である。このような測定方法は、同一空間上のベクトルまたは分布に適している。   In each embodiment of the present invention, it is possible to use distance / difference / dissimilarity measurement using any vector for each element. Such a measurement method is suitable for vectors or distributions in the same space.

ある実施形態では、L1,L2,L∞などのようにミンコフスキーノルム(Minkowski norms)下での距離が基準として用いられることもある。上記のパラメータは以下の方程式により表される。   In some embodiments, distances under Minkowski norms, such as L1, L2, L∞, etc. may be used as a reference. The above parameters are represented by the following equation:

Figure 2005190473
Figure 2005190473

本発明の別の実施形態では、カイ2乗統計的差分(a Chi-squared statistical difference)が基準として用いられることもある。この差分基準は以下の方程式により表される。   In another embodiment of the present invention, a Chi-squared statistical difference may be used as a criterion. This difference criterion is expressed by the following equation.

Figure 2005190473
Figure 2005190473

さらに別の実施形態では、ジェフリーダイバージェンス(a Jeffrey divergence metric)が用いられることもある。この基準は以下の方程式により表される。   In yet another embodiment, a Jeffrey divergence metric may be used. This criterion is represented by the following equation:

Figure 2005190473
Figure 2005190473

Figure 2005190473
Figure 2005190473

上述の実施形態のいくつかでは、二次式の形の基準が用いられることもある。この基準は以下の方程式により表される。   In some of the above-described embodiments, a quadratic criterion may be used. This criterion is represented by the following equation:

Figure 2005190473
Figure 2005190473

またさらに別の実施形態では、累積適合距離(a cumulative match distance)が用いられることもある。この基準は以下の方程式により表される。   In yet another embodiment, a cumulative match distance may be used. This criterion is represented by the following equation:

Figure 2005190473
Figure 2005190473

別の実施形態では、射影適合距離(a projective match distance)が基準として用いられることもある。この基準は以下の方程式により表される。   In another embodiment, a projective match distance may be used as a reference. This criterion is represented by the following equation:

Figure 2005190473
Figure 2005190473

光源の推定をさらに複雑にするのが、光源からの光を直接反射しない非反射(non reflective)物体または自発光体を、画像が含んでいる場合である。従来の補正アルゴリズムはすべての画像ピクセルは反射面を表していると想定してしまう。もし画像が、空やその他の発光体のように自発光体を含んでいれば、表面ピクセルの想定は妨害されてしまう。もし画像が、光を反射しない重要な部分、つまり自発光体を含んでいれば、従来の方法では失敗し、その画像の光源は誤って決定されてしまうであろう。例えば、もし画像が青い空を含んでいて、カラーバランスアルゴリズムがすべてのピクセルは反射物体であると想定してしまうと、青っぽいピクセルはシーンの照明(illumination)が青っぽい証拠であると捉えられてしまうであろう。カラー補正とはおおよそ、推定された光源の色相を正反対にすることであるので、青っぽい光源に対する補正は画像を黄色の方向に変更してしまう。この補正の結果、過度に黄色っぽい地面/表面の領域および彩度を落とされた空の領域ができてしまうことになる。   Further complicating the estimation of the light source is when the image contains a non-reflective or self-luminous object that does not directly reflect light from the light source. Conventional correction algorithms assume that every image pixel represents a reflective surface. If the image contains self-luminous objects, such as the sky or other illuminants, the assumption of surface pixels is disturbed. If the image contains an important part that does not reflect light, i.e., a self-luminous body, the conventional method will fail and the light source of the image will be erroneously determined. For example, if the image contains a blue sky and the color balance algorithm assumes that all pixels are reflective objects, the blue pixels will be perceived as having a blue illumination of the scene. Will. Since color correction is roughly to reverse the estimated hue of the light source, correction for a bluish light source changes the image in the yellow direction. This correction results in an overly yellowish ground / surface area and a desaturated sky area.

上記のカラー補正、カラーバランスまたはカラーコンスタンシーアルゴリズム(color constancy algorithms)は概して、発光体(ここでは以下自発光体とも呼ばれている)を含む画像をどのように扱えばよいのかという疑問に対して注意を向けていない。これらはむしろ、表面ピクセルの想定を満足させる画像(例えば、均一に光を照射されるモンドリアン風の画像)に焦点をあててきたのである。   The above color correction, color balance, or color constancy algorithms generally answer the question of how to deal with images containing illuminants (hereinafter also referred to as self-illuminators). Not paying attention. Rather, they have focused on images that satisfy the assumption of surface pixels (eg, a Mondrian-like image that is illuminated uniformly).

本発明のある実施形態では、ピクセル、画像要素、または画像領域のそれぞれに対して、関数が算出される。この関数は、そのピクセル、画像要素、または画像領域反射面に相当する確率(つまり、自発光でない確率)pを推定するためのものである。ほとんどすべての光源推定の手順では、画像ピクセルはそのシーンの表面から反射している光源により作られていると想定されているので、この関数は必要である。したがって、自発光ピクセルを含んでいると、その推定は無効になる。上記算出はモデルヒストグラムには不要である。なぜなら、モデルヒストグラムは、反射面に相当するデータからのみ構築される定義によるものだからである。   In some embodiments of the invention, a function is calculated for each pixel, image element, or image region. This function is for estimating the probability (that is, the probability of not self-luminous) p corresponding to the reflective surface of the pixel, image element, or image area. This function is necessary because almost all illuminant estimation procedures assume that image pixels are created by light sources that are reflected from the surface of the scene. Thus, including self-luminous pixels makes the estimation invalid. The above calculation is not necessary for the model histogram. This is because the model histogram is based on a definition constructed only from data corresponding to the reflection surface.

Figure 2005190473
Figure 2005190473

上記関数の実施形態の詳細は、以前に提出された別の特許出願にて、詳しく説明されている。
米国特許出願 No.10/677,034(発明の名称;画像中の自発光要素の存在を算出するシステムおよび方法、発明者;ジョン M. スピーグル、ジョン E. ドーラン、2003年9月30日出願)
米国特許出願 No.10/676,306(発明の名称;画像カラーバランス補正システムおよび方法、発明者;ジョン M. スピーグル、ジョン E. ドーラン、2003年9月30日出願)
米国特許出願 No.10/677,009(発明の名称;光源推定システムおよび方法、発明者;ジョン E. ドーラン、ジョン M. スピーグル、2003年9月30日出願)
上記は以下で参照することにより本願に含まれる。
Details of the function embodiment are described in detail in another previously filed patent application.
US patent application no. 10 / 677,034 (Title of the invention; system and method for calculating the presence of self-luminous elements in an image, inventor; John M. Spiegle, John E. Dolan, filed September 30, 2003)
US patent application no. 10 / 676,306 (Title of the invention; image color balance correction system and method, inventor; John M. Spiegle, John E. Dolan, filed September 30, 2003)
US patent application no. 10 / 677,009 (Title of Invention; Light Source Estimation System and Method, Inventor; John E. Dolan, John M. Spiegle, filed September 30, 2003)
The above is incorporated herein by reference below.

画像カラーヒストグラムが三次元(あるいは三次元以上)上で算出される、別の実施形態では、ピクセル要素または領域が反射面に相当する確率を推定するための関数は、色座標およびピクセル座標の引数を受け取る。   In another embodiment, where the image color histogram is calculated in three dimensions (or more than three dimensions), the function for estimating the probability that a pixel element or region corresponds to a reflective surface is a color coordinate and pixel coordinate argument. Receive.

別の実施形態では、要素または領域が反射面に相当する確率を推定するための関数は、画像ピクセル要素の近隣で演算を行うこともある。   In another embodiment, the function for estimating the probability that an element or region corresponds to a reflective surface may operate in the vicinity of the image pixel element.

上述の実施形態の中には、ヒストグラムが、反射面から生じた各色度の存在についての、画像における形跡の度合いを符号化するものもある。   In some of the embodiments described above, the histogram encodes the degree of evidence in the image for the presence of each chromaticity arising from the reflective surface.

本発明のある実施形態では、上記画像ヒストグラムがモデルヒストグラムにマッチングされ、このときの最適な光源が選択される。いくつかの実施形態で用いられるこの適合基準は、カイ2乗統計量(the chi-squared statistic)である。このカイ2乗統計量は、基の母集団に対して、標本となる集団の分散を検定するための手順である。本発明の実施形態では、画像は標本集団を表すこともあるし、光源モデルは仮定された基の母集団として表されることもある。上記の関係を表す式は以下のように形成されればよい。   In an embodiment of the present invention, the image histogram is matched with a model histogram, and an optimal light source at this time is selected. This fitting criterion used in some embodiments is the chi-squared statistic. This chi-square statistic is a procedure for testing the variance of a sample group with respect to the base population. In embodiments of the present invention, the image may represent a sample population, and the light source model may be represented as an assumed base population. The formula representing the above relationship may be formed as follows.

Figure 2005190473
Figure 2005190473

上記の適合基準は、モデルのそれぞれに対して算出され、上記関数の最小値をもたらす光源は、その画像データについての最適な光源とされる。最適な光源とは、上記(1)の式では、画像で観察される値と、その光源下で期待される値との差分が最小となる光源のことである。また、おおまかな統計的項においては、上記χの基準値が減少するにつれて、対応するモデルがそのシーンの真の光源であるという仮説を支持するデータの割合が増加する。 The fitting criteria are calculated for each of the models, and the light source that yields the minimum of the function is the optimal light source for the image data. The optimum light source is a light source that minimizes the difference between the value observed in the image and the value expected under the light source in the equation (1). In a rough statistical term, as the χ 2 reference value decreases, the proportion of data that supports the hypothesis that the corresponding model is the true light source of the scene increases.

図3に、さまざまな適合基準(相関関係、L1、L2、およびカイ2乗)下での、ある画像と図1の光源グラフとについてのマッチ曲面の例を示す。最適光源のインデックスも、それぞれに示す。相関関係およびL2の基準では同一の選択となり、L1およびカイ2乗の基準では、それぞれに少し異なる選択になっている。   FIG. 3 shows examples of match curved surfaces for an image and the light source graph of FIG. 1 under various matching criteria (correlation, L1, L2, and chi-square). The index of the optimal light source is also shown for each. The correlation and L2 criteria are the same, and the L1 and chi-square criteria are slightly different choices.

本発明の実施形態におけるアルゴリズムは、汎用コンピュータまたは、DSPなどのような特殊演算装置のソフトウェア上において実行可能である。実施形態はまた、ASICなどのような専用回路によって実施されてもよい。実施形態のプロセスは、表示のため、情報検索のため、インデキシングするため、または他の目的のために画像を出力する、画像処理パイプラインのいずれにおいても実行可能である。   The algorithm in the embodiment of the present invention can be executed on software of a general-purpose computer or a special arithmetic device such as a DSP. Embodiments may also be implemented by dedicated circuitry such as ASICs. The processes of the embodiments can be performed in any image processing pipeline that outputs images for display, information retrieval, indexing, or other purposes.

候補となる光源の集合をx−y色度座標で示したグラフである。It is the graph which showed the set of the light source used as a candidate by xy chromaticity coordinate. 典型的な配列図を示す図である。It is a figure which shows a typical sequence diagram. ある画像と、図1の光源グラフとについての典型的なマッチ曲面を示したグラフである。2 is a graph showing a typical match curved surface for an image and the light source graph of FIG. 1.

Claims (16)

複数の候補となる光源について色域モデルを計算するステップと、
画像色域を計算するステップと、
上記画像色域に関して、上記候補となる光源のそれぞれについて距離適合基準を決定するステップと、
上記距離適合基準に基づいて、上記複数の候補となる光源から画像の光源を選択するステップと、
を含む、画像内の光源を推定する方法。
Calculating a color gamut model for a plurality of candidate light sources;
Calculating an image color gamut;
Determining a distance matching criterion for each of the candidate light sources for the image color gamut;
Selecting a light source of the image from the plurality of candidate light sources based on the distance matching criteria;
A method for estimating a light source in an image, comprising:
複数の候補となる光源について色域を計算するステップと、
画像要素が自発光画像要素または反射画像要素との類似度合いを示す特性を含む自発光特性を、計算するステップと、
反射画像らしき要素から自発光画像らしき要素を分離するステップと、
上記反射画像要素は上記自発光画像要素とは別とみなして、画像色域を計算するステップと、
上記候補となる光源のそれぞれについて適合基準を決定するステップと、
上記適合基準に基づいて、上記複数の候補となる光源から画像の光源を選択するステップと、
を含む、画像内の光源を推定する方法。
Calculating a color gamut for a plurality of candidate light sources;
Calculating a self-luminous characteristic that includes a characteristic that indicates a degree of similarity between the image element and the self-luminous image element or the reflective image element;
Separating a self-luminous image-like element from a reflective-image-like element;
The reflective image element is considered separate from the self-luminous image element and calculating an image color gamut;
Determining a fitness criterion for each of the candidate light sources;
Selecting a light source of the image from the plurality of candidate light sources based on the matching criteria;
A method for estimating a light source in an image, comprising:
自発光特性を計算するステップにて、要素が反射するかあるいは自発光であるかを示すバイナリ値が用いられる、請求項2に記載の方法。   The method according to claim 2, wherein the step of calculating the self-luminous property uses a binary value indicating whether the element is reflective or self-luminous. 複数の候補となる光源についての上記色域は、それぞれの候補となる光源の下で計算されたカラーチップの集合についてのカラー値のヒストグラムである、請求項1に記載の方法。   The method of claim 1, wherein the color gamut for a plurality of candidate light sources is a histogram of color values for a set of color chips calculated under each candidate light source. 上記自発光画像要素を分離するステップは、画像要素の画像境界への近接度を決定するステップを含む、請求項2に記載の方法。   The method of claim 2, wherein separating the self-luminous image element comprises determining a proximity of the image element to an image boundary. 上記自発光画像要素を分離するステップは、画像要素のカラー特性と、既知の光源下での反射面のカラー特性とを比較するステップを含む、請求項2に記載の方法。   The method of claim 2, wherein separating the self-luminous image element comprises comparing the color characteristics of the image element with the color characteristics of a reflective surface under a known light source. 上記自発光画像要素を分離するステップは、画像要素の輝度特性と、既知の自発光体の輝度特性とを比較するステップを含む、請求項2に記載の方法。   The method of claim 2, wherein the step of separating the self-luminous image elements comprises comparing the luminance characteristics of the image elements with the luminance characteristics of known self-luminous elements. 上記画像色度域を計算するステップは、上記画像色度域を上記反射画像要素単独に基づいて計算する、請求項2に記載の方法。   The method of claim 2, wherein the step of calculating the image chromaticity gamut calculates the image chromaticity gamut based on the reflective image element alone. 上記画像色度域を計算するステップは、上記画像色度域を、上記反射画像要素および上記自発光画像要素の重み付け分布であって、上記反射画像要素のほうが上記色域に与える影響がより大きい重み付け分布に基づいて計算する、請求項2に記載の方法。   The step of calculating the image chromaticity range is a weighted distribution of the reflected image element and the self-luminous image element, and the reflected image element has a greater influence on the color gamut. The method of claim 2, wherein the calculation is based on a weighted distribution. 上記適合基準を決定するステップは、候補となる光源に関係する画像の分散に関連付けられる、カイ2乗統計量を計算するステップを含む、請求項1に記載の方法。   The method of claim 1, wherein determining the fitness criteria comprises calculating a chi-square statistic associated with a variance of an image related to candidate light sources. 複数の候補となる光源について色域を計算するステップと、
自発光である尤度にしたがって画像要素を特定するステップと、
上記自発光である尤度がより大きい画像要素のほうが、反射要素である尤度がより大きい画像要素よりも、重み付けがより小さい、上記画像要素から画像色域を計算するステップと、
上記候補となる光源それぞれについての色域ヒストグラムを、上記画像要素についての色域ヒストグラムにマッチングするための、適合基準を決定するステップと、
上記適合基準に基づいて、上記複数の候補となる光源から画像の光源を選択するステップと、
を含む、画像内の光源を推定する方法。
Calculating a color gamut for a plurality of candidate light sources;
Identifying image elements according to likelihood of being self-luminous;
Calculating an image color gamut from the image element, wherein the image element having a higher likelihood of being self-luminous is less weighted than the image element having a higher likelihood of being a reflective element;
Determining a match criterion for matching a gamut histogram for each of the candidate light sources to a gamut histogram for the image element;
Selecting a light source of the image from the plurality of candidate light sources based on the matching criteria;
A method for estimating a light source in an image, comprising:
既知の光源の集合を選択するステップと、
上記既知の光源のそれぞれについて、上記それぞれの既知の光源下で計算されたカラーチップの集合についてのカラー値の標本分布ヒストグラムにより表される色域を確立するステップと、
画像における画像要素が反射面に相当する確率と関連付けられた重み付け値を推定するステップと、
上記画像について色域ヒストグラムを確立するステップであって、上記重み付け値は、対応するヒストグラムの区間のアキュムレータを増やすために用いられる、該ステップと、
上記画像色域ヒストグラムと少なくとも1つの上記既知の光源のヒストグラムとの適合基準を算出するステップと、
上記既知の光源の集合から、画像色域ヒストグラムに最も適合する、推定された、画像の光源を選択するステップと、
を含む、画像内の光源を推定する方法。
Selecting a set of known light sources;
Establishing, for each of the known light sources, a color gamut represented by a sample distribution histogram of color values for the set of color chips calculated under each of the known light sources;
Estimating a weighting value associated with the probability that an image element in the image corresponds to a reflective surface;
Establishing a gamut histogram for the image, wherein the weighting value is used to increase the accumulator of the corresponding histogram interval; and
Calculating a match criterion between the image color gamut histogram and the histogram of at least one known light source;
Selecting an estimated image light source that best fits the image gamut histogram from the set of known light sources;
A method for estimating a light source in an image, comprising:
上記重み付け値を推定するステップは、要素カラー値と2つの画像位置の値とを有する関数を用いるステップを含む、請求項12に記載の方法。   The method of claim 12, wherein estimating the weighting value comprises using a function having an element color value and two image position values. 上記適合基準を算出するステップは、正規化され、2乗された、上記画像色度ヒストグラムと上記既知の光源の色度域ヒストグラムとの差分を測定するためのカイ2乗統計量を用いるステップを含む、請求項12に記載の方法。   The step of calculating the adaptation criterion includes the step of using a chi-square statistic for measuring the difference between the image chromaticity histogram and the chromaticity gamut histogram of the known light source, normalized and squared. The method of claim 12 comprising. 複数の候補となる光源について色域を計算するための第一計算部と、
要素が自発光である度合いもしくは反射する度合いを計算するための第二計算部と、
上記反射画像要素は上記自発光画像要素とは異なるとみなされる、画像色域を計算するための第三計算部と、
上記候補となる光源のそれぞれについて適合基準を決定するための適合部と、
上記適合基準に基づいて上記複数の候補となる光源から画像の光源を選択するための選択部と、
を有する、画像内の光源を推定するシステム。
A first calculator for calculating a color gamut for a plurality of candidate light sources;
A second calculator for calculating the degree to which the element is self-luminous or reflected;
A third calculator for calculating an image color gamut, wherein the reflective image element is considered different from the self-luminous image element;
A matching section for determining a matching criterion for each of the candidate light sources;
A selection unit for selecting a light source of the image from the plurality of candidate light sources based on the matching criteria;
A system for estimating a light source in an image.
画像内の光源を推定するための、実行可能な命令のセットであって、
上記命令は、
複数の候補となる光源について色域を計算する動作と、
要素が自発光である度合いもしくは反射する度合いを推定するための自発光特性を計算する動作と、
上記反射画像要素は上記自発光画像要素とは異なるとみなされる、画像色域を計算するための動作と、
上記候補となる光源のそれぞれについて適合基準を決定する動作と、
上記適合基準に基づいて、上記複数の候補となる光源から画像の光源を選択する動作と、
を含む、上記命令セット。
A set of executable instructions for estimating the light source in the image,
The above instruction
Calculating the color gamut for multiple candidate light sources,
An operation for calculating a self-luminous characteristic for estimating a degree of the element to be self-luminous or reflected;
An operation for calculating an image color gamut, wherein the reflective image element is considered different from the self-luminous image element;
An operation for determining a matching criterion for each of the candidate light sources;
Selecting an image light source from the plurality of candidate light sources based on the matching criteria;
Including the above instruction set.
JP2004351917A 2003-12-05 2004-12-03 System and method for light source model estimation Pending JP2005190473A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/728,573 US7352895B2 (en) 2003-09-30 2003-12-05 Systems and methods for illuminant model estimation

Publications (1)

Publication Number Publication Date
JP2005190473A true JP2005190473A (en) 2005-07-14

Family

ID=34794603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351917A Pending JP2005190473A (en) 2003-12-05 2004-12-03 System and method for light source model estimation

Country Status (1)

Country Link
JP (1) JP2005190473A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300253A (en) * 2006-04-03 2007-11-15 Sony Corp Imaging apparatus and its light source estimating apparatus

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07143513A (en) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd Color image pickup device
WO1999033261A1 (en) * 1997-12-23 1999-07-01 Sarnoff Corporation Detection of transitions in video sequences
JP2000092509A (en) * 1998-09-11 2000-03-31 Eastman Kodak Japan Ltd Auto-white balance device
JP2000171304A (en) * 1998-12-04 2000-06-23 Samsung Electronics Co Ltd Detecting method of color illumination color temperature and device therefor
JP3105679B2 (en) * 1992-12-25 2000-11-06 株式会社日本コンラックス Banknote recognition device
JP2002077937A (en) * 2000-08-24 2002-03-15 Casio Comput Co Ltd Device for controlling white balance and method for controlling the same
JP2003023631A (en) * 2001-07-10 2003-01-24 Matsushita Electric Ind Co Ltd Image compressor and image reproducing device
JP2003259138A (en) * 2002-02-28 2003-09-12 Seiko Epson Corp Image correction device and method thereof, and computer program
JP4393962B2 (en) * 2003-09-30 2010-01-06 シャープ株式会社 Light source estimation system and program
JP4421438B2 (en) * 2003-09-30 2010-02-24 シャープ株式会社 Image color balance correction system and method
JP4421437B2 (en) * 2003-09-30 2010-02-24 シャープ株式会社 System and method for calculating the presence of self-luminous elements in an image

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3105679B2 (en) * 1992-12-25 2000-11-06 株式会社日本コンラックス Banknote recognition device
JPH07143513A (en) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd Color image pickup device
WO1999033261A1 (en) * 1997-12-23 1999-07-01 Sarnoff Corporation Detection of transitions in video sequences
JP2001527344A (en) * 1997-12-23 2001-12-25 サーノフ コーポレイション Conversion detection in Videokens
JP2000092509A (en) * 1998-09-11 2000-03-31 Eastman Kodak Japan Ltd Auto-white balance device
JP2000171304A (en) * 1998-12-04 2000-06-23 Samsung Electronics Co Ltd Detecting method of color illumination color temperature and device therefor
JP2002077937A (en) * 2000-08-24 2002-03-15 Casio Comput Co Ltd Device for controlling white balance and method for controlling the same
JP2003023631A (en) * 2001-07-10 2003-01-24 Matsushita Electric Ind Co Ltd Image compressor and image reproducing device
JP2003259138A (en) * 2002-02-28 2003-09-12 Seiko Epson Corp Image correction device and method thereof, and computer program
JP4393962B2 (en) * 2003-09-30 2010-01-06 シャープ株式会社 Light source estimation system and program
JP4421438B2 (en) * 2003-09-30 2010-02-24 シャープ株式会社 Image color balance correction system and method
JP4421437B2 (en) * 2003-09-30 2010-02-24 シャープ株式会社 System and method for calculating the presence of self-luminous elements in an image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300253A (en) * 2006-04-03 2007-11-15 Sony Corp Imaging apparatus and its light source estimating apparatus
US8164647B2 (en) 2006-04-03 2012-04-24 Sony Corporation Image pickup apparatus and its light source estimating apparatus

Similar Documents

Publication Publication Date Title
US7986813B2 (en) Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor
EP1677250B1 (en) Image collation system and image collation method
US9437035B2 (en) Light source detection from synthesized objects
US6594384B1 (en) Apparatus and method for estimating and converting illuminant chromaticity using perceived illumination and highlight
US20100172578A1 (en) Detecting skin tone in images
US20120120196A1 (en) Image counting method and apparatus
US8055063B2 (en) Methods and systems for improving robustness of color balance correction
US20170180692A1 (en) Local white balance under mixed illumination using flash photography
US7352895B2 (en) Systems and methods for illuminant model estimation
JP5740147B2 (en) Light source estimation apparatus and light source estimation method
JP4393962B2 (en) Light source estimation system and program
JP4421437B2 (en) System and method for calculating the presence of self-luminous elements in an image
JP5265338B2 (en) Illuminant estimation
TW550518B (en) Classification of photos with sepia tones
JP2005092451A (en) Head detector and head detecting method and head detecting program
JP2005190473A (en) System and method for light source model estimation
JP2004054947A (en) Object collation system, object collation method and object collation program
US20230059407A1 (en) Image processing system, image processing method, and non-transitory computer readable medium
GB2396504A (en) Identification of image pixels representing skin by subtraction of colour component values from one another
Hashim et al. New Distance Measurements for Image SimilarityNew Distance Measurements for Image Similarity
Hanoun et al. New Distance Measurements for Image Similarity
WO2021191896A1 (en) Estimating optical properties of a scattering medium
JPH10115553A (en) Method and apparatus for estimating illumination light
JP2005173840A (en) Device and method for image-corresponding point extraction
Kwon et al. Illumination estimation based on valid pixel selection in highlight region

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100330

A131 Notification of reasons for refusal

Effective date: 20100406

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20100519

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20100608

Free format text: JAPANESE INTERMEDIATE CODE: A02