JP7054347B2 - Image processing device and its control method - Google Patents
Image processing device and its control method Download PDFInfo
- Publication number
- JP7054347B2 JP7054347B2 JP2018005949A JP2018005949A JP7054347B2 JP 7054347 B2 JP7054347 B2 JP 7054347B2 JP 2018005949 A JP2018005949 A JP 2018005949A JP 2018005949 A JP2018005949 A JP 2018005949A JP 7054347 B2 JP7054347 B2 JP 7054347B2
- Authority
- JP
- Japan
- Prior art keywords
- input image
- information
- white balance
- normal
- representative point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
Description
本発明は、画像のホワイトバランスを調整する技術に関するものである。 The present invention relates to a technique for adjusting the white balance of an image.
分光分布の異なる複数の光源下で撮像された画像に対してホワイトバランス調整処理を行う技術として、特許文献1では、撮像画像を複数の領域に分割し領域ごとにホワイトバランスを調整する技術が開示されている。より具体的には、ユーザが撮像画像を手動で領域分割し、領域ごとに照らしている光源の色温度を指定する手法が開示されている。また、撮像装置に対する被写体の距離情報に基づき、撮像画像をストロボが届く領域と届かない領域とに分割し領域ごとにホワイトバランスを調整する手法が開示されている。
As a technique for performing white balance adjustment processing on images captured under a plurality of light sources having different spectral distributions,
しかしながら、上述の技術においては、手動で領域分割を行う場合、ユーザは、被写体がどのように照らされているかを知識や経験に基づいて想像しながら領域分割する必要があり、手間がかかるという課題がある。また、距離情報を用いて領域分割を行う場合、ストロボの発光方向や発光量が想定と異なる場合に適切な領域分割が困難となるという課題がある。 However, in the above-mentioned technique, when manually dividing the area, the user needs to imagine how the subject is illuminated based on knowledge and experience, and the area is divided, which is troublesome. There is. Further, when the region is divided using the distance information, there is a problem that it is difficult to appropriately divide the region when the emission direction and the emission amount of the strobe are different from the assumption.
本発明はこのような問題を鑑みてなされたものであり、より好適なホワイトバランス調整を可能とする技術を提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a technique capable of more suitable white balance adjustment.
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
入力画像を取得する第1取得手段と、
前記入力画像における代表点と、該代表点のホワイトバランス係数と、を決定する決定手段と、
前記代表点を含む面の傾きを表す第1情報と、前記入力画像における注目画素を含む面の傾きを表す第2情報と、を取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる各画素における被写体に関する法線情報を更に取得し、
前記調整手段は、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点における法線との類似度を算出し、該入力画像に含まれる各画素に対するホワイトバランスを、前記類似度を重み係数とした前記ホワイトバランス係数に基づく補間演算により導出する。
または、画像処理装置は、
入力画像を取得する第1取得手段と、
前記入力画像における代表点と該代表点のホワイトバランス係数とを決定する決定手段と、
前記入力画像においてホワイトバランスを調整する調整領域を決定する領域決定手段と、
前記代表点を含む面の傾きを表す第1情報と前記入力画像における注目画素を含む面の傾きを表す第2情報とを取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記調整領域の前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる被写体の3Dモデルを更に取得し、
前記領域決定手段は、前記3Dモデルに基づいて前記代表点の法線と略一致する法線を有すると判定された画素の領域を前記調整領域として決定する。
In order to solve the above-mentioned problems, the image processing apparatus according to the present invention has the following configurations. That is, the image processing device is
The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point.
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjusting means for adjusting the white balance in the pixel of interest based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires normal information about the subject in each pixel included in the input image.
The adjusting means calculates the degree of similarity between the normal of each pixel included in the input image and the normal at the representative point based on the normal information, and determines the white balance for each pixel included in the input image. , Derived by an interpolation calculation based on the white balance coefficient with the similarity as a weighting coefficient .
Or, the image processing device
The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point, and
An area determining means for determining an adjustment area for adjusting white balance in the input image,
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjustment means for adjusting the white balance in the pixel of interest in the adjustment region based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires a 3D model of the subject included in the input image, and further acquires the 3D model.
The area determining means determines as the adjustment area a region of pixels determined to have a normal that substantially coincides with the normal of the representative point based on the 3D model.
本発明によれば、より好適なホワイトバランス調整を可能とする技術を提供することができる。 According to the present invention, it is possible to provide a technique that enables more suitable white balance adjustment.
以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. It should be noted that the following embodiments are merely examples, and are not intended to limit the scope of the present invention.
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、ホワイトバランスの調整パラメータを決定する形態を例に挙げて以下に説明する。ここでは、撮像画像上における座標とホワイトバランス調整パラメータとを与えられた複数の代表点を設定し、代表点と同じ法線方向を向いた面は代表点と共通の光で照らされていると見なして各画素に対するホワイトバランス調整パラメータ(ホワイトバランス係数)を決定する。なお、以下の説明では調整パラメータとして色温度を用いる。
(First Embodiment)
As a first embodiment of the image processing apparatus according to the present invention, a mode for determining a white balance adjustment parameter will be described below as an example. Here, it is assumed that a plurality of representative points given the coordinates on the captured image and the white balance adjustment parameter are set, and the surface facing the same normal direction as the representative point is illuminated by the same light as the representative point. The white balance adjustment parameter (white balance coefficient) for each pixel is determined. In the following description, the color temperature is used as an adjustment parameter.
<装置構成>
図1は、第1実施形態に係る画像処理装置100のハードウェア構成を示す図である。画像処理装置100は、CPU101、RAM102、ROM103、HDD104、HDDI/F105、入力I/F106、出力I/F107、システムバス108で構成される。
<Device configuration>
FIG. 1 is a diagram showing a hardware configuration of the
CPU101は、RAM102をワークメモリとして、ROM103及びハードディスクドライブ(HDD)104に格納されたプログラムを実行し、システムバス108を介して後述する各部を制御する。HDDインタフェイス(I/F)105は、HDD104や光ディスクドライブなどの二次記憶装置を接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDI/F105を介して、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。
The
さらに、CPU101は、HDD104に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD104に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。入力インタフェイス(I/F)106は、マウス・キーボード109等の入力デバイスを接続する、例えばUSB等のシリアルバスインタフェイスである。CPU101は、入力I/F106を介してマウス・キーボード109から各種信号を読み込むことが可能である。出力インタフェイス(I/F)107は、ディスプレイ110等の表示デバイスを接続する、例えばDVI等の映像出力インタフェイスである。CPU101は、出力インタフェイス107を介してディスプレイ110にデータを送り、表示を実行させることができる。なお、USBやIEEE1394等の双方向通信インタフェイスを利用すれば、入力I/F106と出力I/F107を一つにまとめることができる。
Further, the
図2は、画像処理装置100の機能ブロック図である。画像データ取得部201は、HDD104からHDDI/F105を介して、あらかじめ記憶されている入力画像データと被写体の法線情報を取得する。あるいは、デジタルカメラや3Dスキャナなど図示しない撮像装置を画像処理装置100に接続し、そこから取得してもよい。ここでは、法線情報として法線マップを用いる。
FIG. 2 is a functional block diagram of the
図4は、入力画像および法線情報の例を示す図である。図4(a)に示す入力画像データIにおいて、座標(i,j)には、被写体のRGB値Ir(i,j)、Ig(i,j)、Ib(i,j)が画素値としてI(i,j)に格納されている。また、図4(b)に示す法線マップNにおいて、座標(i,j)には、被写体に関する単位法線ベクトルの各要素の値が画素値として格納されている。具体的には、入力画像データIの座標(i,j)に対応する法線ベクトルのxyz成分値がN(i,j)として格納されている。すなわち、画素値N(i,j)=(Nx(i,j)、Ny(i,j)、Nz(i,j))である。なお、ここでは、xyz座標を入力画像データにおける座標を基準として設定している。具体的には、入力画像データの水平方向をx軸、垂直方向をy軸、奥行き方向(すなわち撮像装置の光軸方向)をz軸としている。取得された入力画像データと法線マップはパラメータ設定部202へ送られる。
FIG. 4 is a diagram showing an example of input images and normal information. In the input image data I shown in FIG. 4A, the coordinates (i, j) have the RGB values Ir (i, j), Ig (i, j), and Ib (i, j) of the subject as pixel values. It is stored in I (i, j). Further, in the normal map N shown in FIG. 4B, the values of each element of the unit normal vector relating to the subject are stored as pixel values in the coordinates (i, j). Specifically, the xyz component value of the normal vector corresponding to the coordinates (i, j) of the input image data I is stored as N (i, j). That is, the pixel value N (i, j) = (Nx (i, j), Ny (i, j), Nz (i, j)). Here, the xyz coordinates are set with reference to the coordinates in the input image data. Specifically, the horizontal direction of the input image data is the x-axis, the vertical direction is the y-axis, and the depth direction (that is, the optical axis direction of the image pickup apparatus) is the z-axis. The acquired input image data and the normal map are sent to the
パラメータ設定部202は、代表点に関する設定を行うためのUIを、出力I/F107を介してディスプレイ110に表示する。また、このUI上においてユーザに指示された値を入力I/F106を介して受付け、代表点の入力画像上における座標と、当該代表点に対する調整パラメータを設定する。そして、設定した代表点の座標および調整パラメータと法線マップとを用いて、入力画像中の各画素に対する調整パラメータを決定する。これらの処理の詳細は後述する。決定された調整パラメータは、色処理部203へ送られる。
The
色処理部203は、調整パラメータを用いて入力画像データのホワイトバランスを調整し、出力画像データを生成する。生成された出力画像データは、ディスプレイ111へ送られて表示される。
The
<装置の動作>
図3は、第1実施形態における一連の処理のフローチャートである。この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムを、ROM103あるいはHDD104からRAM102上に読み込んだ後に、CPU101によって該プログラムを実行することによって実現される。
<Operation of the device>
FIG. 3 is a flowchart of a series of processes according to the first embodiment. This series of processes is realized by reading a computer-executable program describing the procedure shown below from the
ステップS301では、画像データ取得部201は、入力画像データとこれに対応する法線情報である法線マップを、HDD104または撮像装置から取得する。ステップS302では、パラメータ設定部202は、S301で取得した入力画像データと、代表点に関する設定を行うためのUIとをディスプレイ110へ出力して表示する。
In step S301, the image
図5は、代表点に関する設定を行うためのUIの例を示す図である。画像表示領域501は、入力画像データが表示される領域である。ユーザは表示された入力画像データを参照しながら、UIを介して代表点の設定を行うことができる。
FIG. 5 is a diagram showing an example of a UI for setting a representative point. The
ステップS303では、パラメータ設定部202は、S302で表示したUI上においてユーザに指示された値を取得し、代表点の座標および調整パラメータを設定する。図5の例では、「追加」ボタン502を押下すると、新規にIDを割り当てられた代表点が1つ生成され、当該IDがID選択リスト503にて選択される。ユーザにより座標設定欄504に座標値が入力されると、選択リスト503で選択されている代表点の座標としてその値が設定される。また、ユーザにより調整パラメータ設定欄505に色温度の値が入力されると、選択されている代表点に対する調整パラメータ(代表パラメータ)として色温度が設定される。既存の代表点の座標や調整パラメータを変更する場合は、当該代表点のIDをID選択リスト503で選択した状態で、座標設定欄504や調整パラメータ設定欄505に新たな値を入力する。なお、座標値は数値を直接入力する他、画像表示領域501内の1点をマウスでクリックすることにより、その点に対応する画像上での座標値(i,j)を取得して座標設定欄504に入力してもよい。また、色温度は数値を直接入力する他、スライダ506を介して入力してもよいし、プリセット光源リスト507を介して選択された光源に対応する値を入力してもよい。以下、生成された代表点の総数をK、代表点に割り振られたIDをk(k=1,2,…,K)として説明する。
In step S303, the
ステップS304では、パラメータ設定部202は、S303で設定した各代表点Sk(k=1,2,…,K)の座標(isk,jsk)に対応する法線ベクトルN(isk,jsk)を法線マップから取得し、これを代表法線ベクトルNskとする。ここで、N(isk,jsk)=(Nx(isk,jsk),Ny(isk,jsk),Nz(isk,jsk))である。なお、座標(isk,jsk)の近傍画素に対応する法線ベクトルの平均値や中央値を代表法線ベクトルNskとしてもよい。
In step S304, the
ステップS305では、パラメータ設定部202は、入力画像を構成する画素のうち、調整パラメータが設定されていないものを1つ選択し、注目画素P(ip,jp)とする。ステップS306では、パラメータ設定部202は、S305で選択した注目画素Pの座標(ip,jp)に対応する法線ベクトルNp=(Nx(ip,jp),Ny(ip,jp),Nz(ip,jp))を法線マップから取得する。ステップS307では、パラメータ設定部202は、S305で選択した注目画素に対して調整パラメータを設定する。
In step S305, the
図6は、調整パラメータ設定処理(S307)の詳細フローチャートである。以下の説明では、k=2に関して説明するが、S602~605においてk=3~Kに関して同様の処理を行う。 FIG. 6 is a detailed flowchart of the adjustment parameter setting process (S307). In the following description, k = 2 will be described, but in S602 to 605, the same processing is performed for k = 3 to K.
ステップS601では、パラメータ設定部202は、代表点S1の色温度Ts1を注目画素Pの暫定色温度T’pとして記憶する。また、代表法線ベクトルNs1を注目画素Pの中間法線ベクトルN’pとして記憶する。
In step S601, the
ステップS602では、パラメータ設定部202は、k番目の代表点と注目画素との法線ベクトルの類似度αを算出する。具体的には、注目画素に対応する法線ベクトルNp、代表法線ベクトルNskおよび中間法線ベクトルN’pを極座標表示に変換する。各法線ベクトルの直交座標(x,y,z)から極座標(r,θ,φ)への変換は、以下の数式(1)に従う。
In step S602, the
図7は、座標系を説明する図である。具体的には、直交座標系のパラメータであるx,y,zと、極座標系のパラメータであるr,θ,φとの関係を示している。この図の例では、入力画像データ中に写っている(すなわち、撮像装置の方向を向いている)被写体の法線ベクトルのz成分は負の値をとる。また、φはπから2πまでの範囲の値をとり、θは0からπまでの範囲の値をとる。なお、ここでは法線マップには単位法線ベクトルを格納しているため、数式(1)よりrの値は常に”1”となる。 FIG. 7 is a diagram illustrating a coordinate system. Specifically, the relationship between the parameters x, y, z of the Cartesian coordinate system and the parameters r, θ, φ of the polar coordinate system is shown. In the example of this figure, the z component of the normal vector of the subject shown in the input image data (that is, facing the direction of the image pickup device) takes a negative value. Further, φ takes a value in the range of π to 2π, and θ takes a value in the range of 0 to π. Since the unit normal vector is stored in the normal map here, the value of r is always "1" from the mathematical formula (1).
次に、極座標で表された代表法線ベクトルNsk、注目画素の法線ベクトルNp、中間法線ベクトルN’pを用いて類似度αを算出する。 Next, the similarity α is calculated using the representative normal vector N sk represented by polar coordinates, the normal vector N p of the pixel of interest, and the intermediate normal vector N'p .
図8は、法線ベクトルの類似度αを説明する図である。図8は、k=2の時の各法線ベクトルをθ-φ平面上にプロットした例であり、直線Lは点N’pと点Nskを通る直線、点Mは点Npから直線Lへ下ろした垂線の足である。ここでは、図8における点N’pから点Mまでの距離dを点N’pから点Nskまでの距離Dで正規化する。そして、その値を注目画素の法線ベクトルNpと代表法線ベクトルNskとの類似度αとして用いる。このとき、αは、以下の数式(2)で表される。 FIG. 8 is a diagram illustrating the similarity α of the normal vector. FIG. 8 is an example in which each normal vector when k = 2 is plotted on a θ−φ plane. The straight line L is a straight line passing through the points N'p and N sk , and the point M is a straight line from the point N p . It is a foot of a perpendicular line lowered to L. Here, the distance d from the point N'p to the point M in FIG. 8 is normalized by the distance D from the point N'p to the point N sk . Then, the value is used as the similarity α between the normal vector N p of the pixel of interest and the representative normal vector N sk . At this time, α is expressed by the following mathematical formula (2).
類似度αは、点Mが中間法線ベクトルN’pと一致する時にα=0となり、点Mが代表法線ベクトルNskと一致するときにα=1となる。 The similarity α is α = 0 when the point M coincides with the intermediate normal vector N'p , and α = 1 when the point M coincides with the representative normal vector N sk .
ステップS603では、パラメータ設定部202は、S602で算出した類似度αに基づき注目画素の色温度を補間演算により導出する。ここでは代表点の色温度Tsk、暫定色温度T’p、および類似度αを用いる。そして、以下の数式(3)に従い注目画素Pの座標(ip,jp)の色温度Tp(ip,jp)を導出する。
In step S603, the
ここで、Tth0,Tth1はそれぞれ予め定めた色温度の下限値および上限値である。代表的な照明光である太陽光や照明器具の色温度は、夕日やろうそくの炎などの低いもので2000[K]程度、晴天の空などの高いもので12000[K]程度である。したがって、ここではTth0=2000,Tth1=12000とする。数式(3)において、補間が外挿となる(α<0または1<α)場合は、色温度T’p,Tskの値およびこれらの差分値ΔTに応じて補間方法が切り替わる。 Here, T th0 and T th1 are predetermined lower and upper limit values of the color temperature, respectively. The color temperature of sunlight and lighting fixtures, which are typical lighting lights, is about 2000 [K] for low ones such as sunsets and candle flames, and about 12000 [K] for high ones such as clear skies. Therefore, here, T th0 = 2000 and T th1 = 12000. In the formula (3), when the interpolation is extrapolated (α <0 or 1 <α), the interpolation method is switched according to the values of the color temperatures T'p and T sk and the difference value ΔT thereof.
図9は、調整パラメータに基づく補間の例を示す図である。図9(a)~(f)は、数式(3)を用いた際の補間の例を示している。図9(a)、(b)は、暫定色温度T’pおよび代表点の色温度Tskが共に[Tth0,Tth1]の間にある場合の例である。これらの場合、注目画素の色温度Tpは[Tth0,Tth1]の範囲内で補間される。図9(c)~(f)は、代表点の色温度Tskが[Tth0,Tth1]の間にない場合の例である。これらの場合、注目画素の色温度Tpは[Tth0,Tth1]の範囲の外側に向かわないように補間される。 FIG. 9 is a diagram showing an example of interpolation based on adjustment parameters. 9 (a) to 9 (f) show an example of interpolation when the mathematical formula (3) is used. 9 (a) and 9 (b) are examples in which the provisional color temperature T'p and the representative point color temperature T sk are both between [T th0 , T th1 ]. In these cases, the color temperature T p of the pixel of interest is interpolated within the range of [T th0 , T th1 ]. 9 (c) to 9 (f) are examples in which the color temperature T sk of the representative point is not between [T th0 , T th1 ]. In these cases, the color temperature T p of the pixel of interest is interpolated so as not to go outside the range of [T th0 , T th1 ].
ステップS604では、パラメータ設定部202は、S602で算出した類似度αに基づき、以下の数式(4)に従い図8における点Mに相当する法線ベクトルを求め、これを注目画素の新たな中間法線ベクトルN’pとして記憶する。
In step S604, the
ステップS605では、パラメータ設定部202は、k<Kの場合、注目画素の色温度Tp(ip,jp)を新たな暫定色温度T’pとして記憶する。そして、kの値を1増加させてS602へ戻る。また、k=Kの場合、注目画素の色温度をTp(ip,jp)に決定する。
In step S605, when k <K, the
ステップS308では、パラメータ設定部202は、入力画像中の全画素について調整パラメータが設定されているか判定する。全画素について設定が完了していればS309へ進み、完了していなければS305へ戻る。
In step S308, the
ステップS309では、色処理部203は、S307で設定された各画素の調整パラメータを用いて入力画像データのホワイトバランスを調整し、出力画像データを生成する。具体的には、以下の数式(5)に従い入力画像データ中の各画素のRGB値Ir(i,j),Ig(i,j),Ib(i,j)に、色温度Tp(i,j)に対応するゲイン係数Gr(Tp(i,j)),Gg(Tp(i,j)),Gb(Tp(i,j))をそれぞれ乗算する。そして、得られる値を出力画像のRGB値I’r(i,j),I’g(i,j),I’b(i,j)とする。
In step S309, the
ゲイン係数Gr(Tp(i,j)),Gg(Tp(i,j)),Gb(Tp(i,j))は、予め記憶しておいた色温度とゲイン係数との対応関係を定めたテーブルを参照して決定する。なお、Tp(i,j)と一致する色温度がテーブル上に存在しない場合は、その近傍の色温度に対応するゲイン係数から補間により求めればよい。 The gain coefficients Gr (T p (i, j)), Gg (T p (i, j)), and Gb (T p (i, j)) correspond to the color temperature stored in advance and the gain coefficient. Determine by referring to the table that defines the relationship. If the color temperature that matches T p (i, j) does not exist on the table, it may be obtained by interpolation from the gain coefficient corresponding to the color temperature in the vicinity thereof.
ステップS310では、色処理部203は、S309で生成した出力画像データをディスプレイ110へ出力して表示する。
In step S310, the
以上説明したとおり第1実施形態によれば、画像内の被写体に対応する法線情報を用いて簡便かつ適切に撮像画像のホワイトバランスを調整することができる。 As described above, according to the first embodiment, the white balance of the captured image can be easily and appropriately adjusted by using the normal information corresponding to the subject in the image.
なお、上述のS303の説明においては、全ての代表点をユーザの指示に基づき設定する例を説明したが、一部の代表点を入力画像データや法線マップに基づき自動で設定してもよい。例えば、k=1番目の代表点S1の色温度Ts1として入力画像データI全体から公知のオートホワイトバランス手法を用いて求めた色温度を設定してもよい。また、代表法線ベクトルN1として法線マップNの法線ベクトルの平均値または中央値を設定してもよい。 In the above description of S303, an example of setting all the representative points based on the user's instruction has been described, but some representative points may be automatically set based on the input image data or the normal map. .. For example, the color temperature obtained from the entire input image data I by using a known auto white balance method may be set with k = the color temperature T s1 of the first representative point S1. Further, the average value or the median value of the normal vector of the normal map N may be set as the representative normal vector N1.
また、上述の説明においては、k=2~Kの代表点ごとに上述の数式(3)を繰り返し用いて注目画素の色温度を補間する例を説明したが、他の方法を用いて補間してもよい。法線ベクトルの向きが似ている代表点ほど対応する色温度が補間結果に大きく反映される任意の手法を用いて補間が可能である。例えば、色温度Tをθ-φ平面に垂直な軸に対応付け、この3次元空間においてK個の代表点を通る曲面を公知のスプライン補間等を用いて求めることにより、注目画素の法線ベクトルに対応する曲面上の点から注目画素の色温度を算出してもよい。 Further, in the above description, an example of interpolating the color temperature of the pixel of interest by repeatedly using the above formula (3) for each representative point of k = 2 to K has been described, but the interpolation is performed by using another method. You may. Interpolation is possible using an arbitrary method in which the corresponding color temperature is largely reflected in the interpolation result as the representative points have similar normal vector directions. For example, by associating the color temperature T with an axis perpendicular to the θ−φ plane and obtaining a curved surface passing through K representative points in this three-dimensional space by using known spline interpolation or the like, the normal vector of the pixel of interest The color temperature of the pixel of interest may be calculated from a point on the curved surface corresponding to.
(第2実施形態)
第2実施形態では、法線情報を用いて自動で代表点を設定する例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は第1実施形態(図1及び図2)と同様である。以下では各機能部の動作において第1実施形態と異なる点を中心に説明する。
(Second Embodiment)
In the second embodiment, an example of automatically setting a representative point using normal information will be described. The hardware configuration and the functional block configuration of the image processing device are the same as those of the first embodiment (FIGS. 1 and 2). Hereinafter, the points different from those of the first embodiment in the operation of each functional unit will be mainly described.
パラメータ設定部202は、予め定めておいた代表点配置に基づき代表法線ベクトルを決定する。また、代表法線ベクトルを用いて入力画像データを領域分割し、各領域の色情報に基づいて、代表法線ベクトルに対応するホワイトバランス調整パラメータを決定する。
The
図10は、第2実施形態における一連の処理のフローチャートである。ステップS301、S305~310は第1実施形態と同一であるため説明を省略する。 FIG. 10 is a flowchart of a series of processes in the second embodiment. Since steps S301 and S305 to 310 are the same as those in the first embodiment, the description thereof will be omitted.
ステップS1002では、パラメータ設定部202は、予め定めておいた代表点配置をHDD104等の記憶装置から取得する。そして、S301で取得した法線マップ中の対応する座標に格納されている法線ベクトルを取得して代表法線ベクトルNsk(k=1,2,…,K)とする。
In step S1002, the
図11は、代表点配置の例を示す図である。この図において、黒点が代表点の位置を表している。法線マップ上における座標を求める際には、代表点配置の横軸と縦軸をそれぞれ法線マップの横幅および縦幅に応じてスケーリングすればよい。なお、代表点配置は図11の例に限らず、撮影モードやピント合わせのための測距点の配置に応じて異なる配置としてもよい。 FIG. 11 is a diagram showing an example of representative point arrangement. In this figure, the black dots represent the positions of the representative points. When obtaining the coordinates on the normal map, the horizontal axis and the vertical axis of the representative point arrangement may be scaled according to the horizontal width and the vertical width of the normal map, respectively. The arrangement of representative points is not limited to the example shown in FIG. 11, and may be different depending on the shooting mode and the arrangement of AF points for focusing.
ステップS1003では、パラメータ設定部202は、S1002で決定した代表法線ベクトルを用いて、法線ベクトルの似た画素が同一領域に属するように、S301で取得した入力画像データを領域分割する。具体的には、入力画像データIの座標(i,j)に対応する法線ベクトルN(i,j)について各代表法線ベクトルNsk(k=1,2,…,K)との内積をそれぞれ算出する。そして、その値が最大となるときの代表法線ベクトルのID(k=kmin)を求めて、領域Rkminに座標(i,j)の画素を加える。
In step S1003, the
ステップS1004では、パラメータ設定部202は、代表法線ベクトルNskに対応するホワイトバランス調整パラメータTskを、領域Rkに属する画素の色情報に基づいて決定する。色情報に基づくホワイトバランス調整パラメータの決定には、公知のオートホワイトバランス調整手法を利用可能である。例えば、領域Rkに属する画素の平均RGB値Irk,Igk,Ibkが無彩色となるようなゲイン係数(Grk,Ggk,Gbk)を以下の数式(6)に従い算出する。
In step S1004, the
次に、予め記憶しておいたゲイン係数と色温度との対応関係を定めたテーブルを参照してゲイン係数(Grk,Ggk,Gbk)に対応する色温度を求める。そして、これを代表法線ベクトルNskに対応するホワイトバランス調整パラメータTskとする。 Next, the color temperature corresponding to the gain coefficient (Gr k , Gg k , Gb k ) is obtained by referring to the table in which the correspondence relationship between the gain coefficient and the color temperature stored in advance is defined. Then, this is set as the white balance adjustment parameter T sk corresponding to the representative normal vector N sk .
以上説明したとおり第2実施形態によれば、第1実施形態に比較し更に簡便に撮像画像のホワイトバランスを調整することができる。 As described above, according to the second embodiment, the white balance of the captured image can be adjusted more easily as compared with the first embodiment.
なお、上述のS1002の説明においては、予め定めておいた代表点配置に基づき法線マップから代表法線を取得する例を説明したが、予め定めておいた複数の単位法線ベクトルを代表法線として取得してもよい。図12は、代表法線の例を示す図である。 In the above description of S1002, an example of acquiring a representative normal from a normal map based on a predetermined representative point arrangement has been described, but a plurality of predetermined unit normal vectors are represented. It may be acquired as a line. FIG. 12 is a diagram showing an example of a representative normal.
また、例えば、第1実施形態で説明したS302~S304の処理でユーザに指示された代表点の座標から代表法線ベクトルを取得し、第2実施形態で説明したS1003~S1004の処理で代表法線ベクトルに対応する色温度を決めるよう構成してもよい。 Further, for example, the representative normal vector is acquired from the coordinates of the representative point instructed by the user in the processes of S302 to S304 described in the first embodiment, and the representative method is obtained in the processes of S1003 to S1004 described in the second embodiment. It may be configured to determine the color temperature corresponding to the line vector.
更に、第1及び第2実施形態では、ホワイトバランス調整パラメータとして色温度を用いる例を説明したが、ゲイン係数をホワイトバランス調整パラメータとしてもよい。すなわち、S303やS1004において代表法線ベクトルに対するゲイン係数を設定し、S307において各画素に対するゲイン係数を補間するように構成してもよい。 Further, in the first and second embodiments, the example in which the color temperature is used as the white balance adjustment parameter has been described, but the gain coefficient may be used as the white balance adjustment parameter. That is, the gain coefficient for the representative normal vector may be set in S303 or S1004, and the gain coefficient for each pixel may be interpolated in S307.
また、第1及び第2実施形態では、入力画像データとこれに対応する法線情報とを用いてホワイトバランス調整パラメータを求める例を説明したが、さらに距離情報を併用してもよい。例えば、入力画像データを距離情報に基づき前景領域と背景領域に分離し、各領域に対して上述の処理を適用してもよい。その場合、前景と背景の照明環境が大きく異なり、かつ、前景と背景に類似した法線ベクトルをもつ被写体が存在しても、適切にホワイトバランスを調整することが可能となる。 Further, in the first and second embodiments, an example of obtaining the white balance adjustment parameter using the input image data and the corresponding normal information has been described, but the distance information may also be used in combination. For example, the input image data may be separated into a foreground region and a background region based on the distance information, and the above processing may be applied to each region. In that case, even if the lighting environment of the foreground and the background is significantly different and there is a subject having a normal vector similar to the foreground and the background, it is possible to appropriately adjust the white balance.
(第3実施形態)
第3実施形態では、入力画像データとこれに対応する法線情報に加えて、法線情報以外の特徴量を規定する特徴量情報を併用してホワイトバランス調整パラメータを決定する例について説明する。特に、特徴量情報として、距離情報を用いる例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は第1実施形態(図1及び図2)と同様である。なお、以下の説明では、特徴量情報として距離情報を用い、調整パラメータとしてゲイン係数を用いる。
(Third Embodiment)
In the third embodiment, an example in which the white balance adjustment parameter is determined by using the input image data and the corresponding normal information in combination with the feature amount information that defines the feature amount other than the normal information will be described. In particular, an example in which distance information is used as feature amount information will be described. The hardware configuration and the functional block configuration of the image processing device are the same as those of the first embodiment (FIGS. 1 and 2). In the following description, the distance information is used as the feature amount information, and the gain coefficient is used as the adjustment parameter.
画像データ取得部201は、入力画像データと被写体の法線情報に加えて、被写体の距離情報を取得する。ここでは、距離情報として距離マップを用いる。
The image
図13は、入力画像および法線情報、距離情報の例を示す図である。図13(a)、(b)、(c)は、入力画像データI、法線マップN、距離マップZの例を示している。図13(c)に示す距離マップZの座標(i,j)はそれぞれ入力画像データIの座標(i,j)と対応付けられている。距離マップの画素Z(i,j)には、入力画像データを撮像した撮像装置から入力画像データの画素I(i,j)に対応する被写体までの距離(光軸方向の被写体距離)が画素値として格納されている。 FIG. 13 is a diagram showing an example of an input image, normal information, and distance information. 13 (a), (b), and (c) show examples of input image data I, normal map N, and distance map Z. The coordinates (i, j) of the distance map Z shown in FIG. 13 (c) are associated with the coordinates (i, j) of the input image data I, respectively. Pixels Z (i, j) of the distance map have pixels (subject distance in the optical axis direction) from the image pickup device that captured the input image data to the subject corresponding to the pixel I (i, j) of the input image data. It is stored as a value.
パラメータ設定部202は、第1実施形態と同様に代表点に関する設定を行うためのUIをディスプレイ110に表示し、代表点の入力画像上における座標と、当該代表点に対する調整パラメータを設定する。そして、設定した代表点の座標および調整パラメータと法線マップ、距離マップを用いて、入力画像中の各画素に対する調整パラメータを算出する。その際、法線情報が略一致しかつ調整パラメータが異なる代表点が複数存在する場合に、距離情報に基づいて各代表点の調整パラメータに対する適用量(重み係数)を算出する。これらの処理の詳細は後述する。決定された調整パラメータは、色処理部203へ送られる。
The
図14は、第3実施形態における一連の処理のフローチャートである。 FIG. 14 is a flowchart of a series of processes according to the third embodiment.
ステップS1401では、画像データ取得部201は、入力画像データとこれに対応する法線マップと距離マップを、HDD104または撮像装置から取得する。ステップS1402では、パラメータ設定部202は、S1401で取得した入力画像データと、代表点に関する設定を行うためのUIとをディスプレイ110へ出力して表示する。
In step S1401, the image
図15は、UIの例を示す図である。入力画像データは、図15の画像表示領域1501に表示される。ユーザは表示された入力画像データを参照しながら、UIを介して代表点の設定を行うことができる。
FIG. 15 is a diagram showing an example of UI. The input image data is displayed in the
ステップS1403では、パラメータ設定部202は、S1402で表示したUIを介してユーザに指示された値を取得し、代表点の座標および調整パラメータを設定する。図15の例では、画像表示領域1501上の1点を選択すると、新規にIDを割り当てられた代表点が1つ代表点リスト1502に追加され、選択された点に対応する画像上での座標(i,j)が当該代表点の座標として設定される。また、UI上の各代表点に対応する行のプリセット光源リスト1503から光源を選択すると、その光源に対応するゲイン係数が当該代表点の調整パラメータとして設定される。
In step S1403, the
調整パラメータリストの各行に設けられたチェックボックス1504がチェックされた状態で「削除」ボタン1505が押下されると、チェックされた行が調整パラメータリストから削除され、対応する代表点に関する設定が破棄される。なお、光源として「色温度」が選択された場合には、その行の色温度設定欄1506に入力された色温度に対応するゲイン係数が調整パラメータとして設定される。また、「クリックホワイトバランス」が選択された場合には、その代表点に対応する入力画像データのRGB値を無彩色に変換するようなゲイン係数が調整パラメータとして設定される。
If the "Delete"
ステップS1404では、パラメータ設定部202は、S1403で設定されたK個の代表点の中から2つの代表点Sk,Sk'(k,k’=1,2,…,K,k<k’)を選んで代表点のペアを作る。
In step S1404, the
ステップS1405では、パラメータ設定部202は、S1404で選択したペアの代表点間において、法線情報が一致するか否かを判定する。具体的には、代表点Sk,Sk'の各座標に対応する単位法線ベクトルNsk,Nsk'を法線マップから取得する。そして、これらの内積が予め定めた閾値以上となる場合に法線ベクトルが一致すると判定する。法線ベクトルが一致すると判定された場合はS1406へ進み、一致しないと判定された場合はS1411へ進む。
In step S1405, the
ステップS1406では、パラメータ設定部202は、S1405で法線ベクトルが一致すると判定されたペアの代表点間において、調整パラメータが異なるか否かを判定する。具体的には、代表点Skに対応するゲイン係数と、Sk'に対応するゲイン係数が、以下の数式(7)を満たす場合に調整パラメータが異なると判定する。ここで、代表点Skに対応するゲイン係数は、Grk,Ggk,Gbkである。Sk'に対応するゲイン係数は、Grk',Ggk',Gbk'である。
In step S1406, the
ここで、ThGはゲイン係数の比に関して予め定めた閾値である。例えばThG=0とすると、G(グリーン)に対するR(レッド)およびB(ブルー)のゲイン係数の比が代表点SkとSk'の間で完全に一致する場合以外は、調整パラメータが異なると判定される。調整パラメータが異なると判定された場合はS1407へ進み、それ以外の場合はS1410へ進む。 Here, ThG is a predetermined threshold value with respect to the ratio of the gain coefficients. For example, when ThG = 0, it is determined that the adjustment parameters are different except when the ratio of the gain coefficients of R (red) and B (blue) to G (green) completely matches between the representative points Sk and Sk'. Will be done. If it is determined that the adjustment parameters are different, the process proceeds to S1407, and if not, the process proceeds to S1410.
ステップS1407では、パラメータ設定部202は、S1405、S1406で法線情報が一致しかつ調整パラメータが異なると判定されたペアの代表点間において、距離情報が異なるか否かを判定する。具体的には、代表点Sk,Sk'の各座標に対応する被写体距離Zsk,Zsk'を距離マップから取得する。そして、これらの差分の絶対値が予め定めた閾値以上となる場合に被写体距離が異なると判定する。被写体距離が異なると判定された場合はS1408へ進み、それ以外の場合はS1409へ進む。
In step S1407, the
ステップS1408では、パラメータ設定部202は、S1405~S1407で法線情報が一致しかつ調整パラメータおよび被写体距離が異なると判定されたペアの代表点Sk,Sk'を、距離重み算出対象に分類する。
In step S1408, the
ステップS1409では、パラメータ設定部202は、S1405~S1407で法線情報および距離情報が一致し、かつ、調整パラメータが異なると判定されたペアの代表点のうち、片方を無効に設定する。ここでは、先にユーザに指示された調整パラメータよりも後から指示された調整パラメータを優先し、IDの若い代表点Skを無効とする。なお、S1403において各代表点を設定した際のタイムスタンプを座標や調整パラメータとともに記憶しておき、タイムスタンプの古い方を無効としてもよい。
In step S1409, the
ステップS1410では、パラメータ設定部202は、S1405、S1406で法線情報および調整パラメータが一致すると判定されたペアの代表点を統合する。具体的には、ペアの代表点Sk,Sk'に対応する単位法線ベクトルおよびゲイン係数から、単位法線ベクトルの平均値とゲイン係数の平均値をそれぞれ求める。そして、これらを後に設定された代表点Sk'に対する新たな法線情報および調整パラメータとして記憶する。そして、先に設定された代表点Skに関する設定を破棄する。あるいは、S1409と同様に、片方の代表点を無効に設定してもよい。
In step S1410, the
ステップS1411では、パラメータ設定部202は、設定されている代表点から成る全てのペアについてS1405の比較を完了したか否かを判定する。全ペアについて比較を完了していればS1412へ進み、完了していなければS1404へ戻る。
In step S1411, the
ステップS1412では、パラメータ設定部202は、入力画像を構成する座標(i,j)の画素に対する調整パラメータを算出する。まず、設定されている全ての代表点Skに関して、以下の数式(8)に従い座標(i,j)との法線ベクトルの類似度に基づく重み係数Wnk(i,j)を算出する。
In step S1412, the
ここで、Cvalidは有効な(すなわち、無効と設定されていない)代表点を示すIDの集合である。また、Nij,Nskは、それぞれ、法線マップから取得した座標(i,j)および代表点Skに対応する単位法線ベクトルである。 Here, C valid is a set of IDs indicating valid (that is, not set as invalid) representative points. Further, N ij and N sk are unit normal vectors corresponding to the coordinates (i, j) acquired from the normal map and the representative point Sk, respectively.
数式(8)のβk(i,j)は、座標(i,j)の法線ベクトルと代表点Skの法線ベクトルの類似度に相当し、座標(i,j)と代表点Skの法線ベクトルが似ているほど大きな値となる。数式(8)の重み係数Wnk(i,j)は、有効な代表点に関しては、無効な代表点を除く全代表点での総和を用いて法線ベクトルの類似度を正規化した値となる。そして、βk(i,j)が大きいほど大きな値となる(0≦Wnk(i,j)≦1)。また、無効な代表点に関しては、重み係数Wnk(i,j)は常に”0”となる。 Β k (i, j) in the equation (8) corresponds to the similarity between the normal vector of the coordinates (i, j) and the normal vector of the representative point Sk, and the coordinates (i, j) and the representative point Sk. The more similar the normal vectors, the larger the value. The weighting factor W nk (i, j) in equation (8) is the value obtained by normalizing the similarity of the normal vector using the sum of all the representative points except the invalid representative points for the valid representative points. Become. The larger β k (i, j) is, the larger the value is (0 ≦ W nk (i, j) ≦ 1). Further, for an invalid representative point, the weighting coefficient W nk (i, j) is always "0".
次に、同じく全ての代表点Skに関して、以下の数式(9)に従い座標(i,j)との距離の類似度に基づく重み係数Wzk(i,j)を算出する。 Next, for all the representative points Sk, the weighting coefficient W zk (i, j) based on the similarity of the distance with the coordinates (i, j) is calculated according to the following mathematical formula (9).
ここで、C(Sk)は距離重み算出対象に分類された代表点のうち、代表点Skと法線ベクトルが一致するものを示すIDの集合である。また、Zij,Zskは、それぞれ、距離マップZから取得した座標(i,j)および代表点Skに対応する被写体距離であり、ΔzmaxはΔzl(i,j)(l∈C(Sk))の最大値である。数式(9)のγk(i,j)は、座標(i,j)の被写体距離と代表点Skの被写体距離の類似度に相当し、座標(i,j)と代表点Skの被写体距離が似ているほど大きな値となる。 Here, C (Sk) is a set of IDs indicating the representative points classified as the distance weight calculation target whose normal vector coincides with the representative point Sk. Further, Z ij and Z sk are subject distances corresponding to the coordinates (i, j) acquired from the distance map Z and the representative point Sk, respectively, and Δz max is Δz l (i, j) (l ∈ C (l ∈ C). Sk))) is the maximum value. The γ k (i, j) in the formula (9) corresponds to the similarity between the subject distance of the coordinates (i, j) and the subject distance of the representative point Sk, and the subject distance between the coordinates (i, j) and the representative point Sk. The more similar, the larger the value.
数式(9)の重み係数Wzk(i,j)は、距離重み算出対象の代表点に関しては、法線ベクトルが一致する全代表点での総和を用いて被写体距離の類似度を正規化した値となる。そのため、γk(i,j)が大きいほど大きな値となる(0≦Wzk(i,j)≦1)。また、距離重み算出対象に分類されなかった代表点に関しては、重み係数Wzk(i,j)は常に”1”となる。 In the weighting coefficient W zk (i, j) of the formula (9), the similarity of the subject distances is normalized by using the sum of all the representative points where the normal vectors match for the representative points of the distance weight calculation target. It becomes a value. Therefore, the larger the γ k (i, j), the larger the value (0 ≦ W zk (i, j) ≦ 1). Further, the weight coefficient W zk (i, j) is always "1" for the representative points that are not classified as the distance weight calculation target.
最後に、各代表点のゲイン係数Grk,Ggk,Gbkと重み係数Wnk(i,j),Wzk(i,j)を用いて、以下の数式(10)に従い座標(i,j)のゲイン係数Gr(i,j),Gg(i,j),Gb(i,j)を算出する。 Finally, using the gain coefficients Gr k , Gg k , Gb k and the weighting coefficients W nk (i, j), W zk (i, j) of each representative point, the coordinates (i, The gain coefficients Gr (i, j), Gg (i, j), and Gb (i, j) of j) are calculated.
ここで、重み係数の積Wnk(i,j)*Wzk(i,j)は、代表点Skの調整パラメータの座標(i,j)の画素への適用量に相当する。数式(10)で得られるゲイン係数には、座標(i,j)の法線ベクトルと向きが似ている法線ベクトルを持つ代表点ほど、その代表点のゲイン係数が大きく反映される。さらに、法線情報が略一致する複数の代表点に対して異なるゲイン係数が設定されている場合には、同じ法線ベクトルをもつ代表点の中で座標(i,j)の被写体距離と似ている被写体距離を持つ代表点ほど、そのゲイン係数が大きく反映される。なお、無効な代表点に関しては数式(8)においてWnk(i,j)=0としているため、当該代表点の調整パラメータについては適用量が”0”となる。 Here, the product W nk (i, j) * W zk (i, j) of the weighting coefficients corresponds to the amount of the adjustment parameter coordinates (i, j) of the representative point Sk applied to the pixels. The gain coefficient obtained by the equation (10) reflects the gain coefficient of the representative point as the representative point has a normal vector having a direction similar to that of the normal vector of the coordinates (i, j). Further, when different gain coefficients are set for a plurality of representative points having substantially the same normal information, it is similar to the subject distance of the coordinates (i, j) among the representative points having the same normal vector. The more the representative point has the subject distance, the larger the gain coefficient is reflected. Since W nk (i, j) = 0 in the equation (8) for the invalid representative point, the applied amount is "0" for the adjustment parameter of the representative point.
ステップS1413では、色処理部203は、S1412で算出された各画素の調整パラメータを用いて、以下の数式(11)に従い出力画像データのRGB値を生成する。具体的には、入力画像データ中の各画素のRGB値Ir(i,j),Ig(i,j),Ib(i,j)を変換し、出力画像データのRGB値I’r(i,j),I’g(i,j),I’b(i,j)を生成する。
In step S1413, the
ステップS1414では、色処理部203は、S1413で生成した出力画像データをディスプレイ110へ出力して表示する。
In step S1414, the
以上説明したとおり第3実施形態によれば、類似した法線ベクトルを持つ被写体表面が、照明環境が異なる領域に跨って存在する場合においても、適切に撮像画像のホワイトバランスを調整することが可能となる。 As described above, according to the third embodiment, it is possible to appropriately adjust the white balance of the captured image even when the subject surface having a similar normal vector exists over different regions in the lighting environment. It becomes.
なお、上述の説明においては、法線情報以外の特徴量として被写体距離を用いる例を説明したが、他の特徴量を用いてもよい。例えば、被写体の3次元位置座標や、2次元画像平面上における座標、入力画像データの色情報(明度、彩度、色度、色相など)、入力画像データに対して公知のオブジェクト認識処理を適用して得られる被写体の認識結果などを利用可能である。さらに、これらの特徴量を複数併用してもよい。いずれの場合も、S1407においてペアの代表点間で法線情報以外の特徴量が異なるか否かを判定し、異なると判定されたペアをS1408において特徴量に基づく重みの算出対象に分類すればよい。S1412において特徴量に基づく重みを算出する際には、注目画素と特徴量が類似している代表点ほど大きな重みとなるように、各々の特徴量の類似度に基づき重み係数を算出すればよい。 In the above description, an example in which the subject distance is used as a feature amount other than the normal information has been described, but other feature amounts may be used. For example, a known object recognition process is applied to the 3D position coordinates of the subject, the coordinates on the 2D image plane, the color information (brightness, saturation, chromaticity, hue, etc.) of the input image data, and the input image data. It is possible to use the recognition result of the subject obtained by the above. Further, a plurality of these feature quantities may be used in combination. In either case, if it is determined in S1407 whether or not the feature amount other than the normal information is different between the representative points of the pair, and the pair determined to be different is classified into the weight calculation target based on the feature amount in S1408. good. When calculating the weight based on the feature amount in S1412, the weighting coefficient may be calculated based on the degree of similarity of each feature amount so that the representative point whose feature amount is similar to the pixel of interest has a larger weight. ..
また、上述のS1404で選択したペアの代表点間で座標が一致する場合には、ユーザが当該座標に対する調整の指示をやり直したと見なし、先に設定された代表点を無効としてもよい。その場合、S1405~S1407の処理を省いてS1409へ進めばよい。 Further, when the coordinates match between the representative points of the pair selected in S1404 described above, it may be considered that the user has redone the adjustment instruction for the coordinates, and the previously set representative points may be invalidated. In that case, the processing of S1405 to S1407 may be omitted and the process may proceed to S1409.
(第4実施形態)
第4実施形態では、法線情報の分布に基づいて代表法線ベクトルを決定する例について説明する。また、入力画像データ中の各画素に対するホワイトバランス調整パラメータを、画素が属する領域に応じて決定する例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。以下では各機能部の動作において前述の実施形態と異なる点を中心に説明する。
(Fourth Embodiment)
In the fourth embodiment, an example of determining a representative normal vector based on the distribution of normal information will be described. Further, an example of determining the white balance adjustment parameter for each pixel in the input image data according to the region to which the pixel belongs will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2). Hereinafter, the points different from the above-described embodiments in the operation of each functional unit will be mainly described.
図16は、第4実施形態における一連の処理のフローチャートである。S301、S1003、S309~310は前述の実施形態と同一であるため説明を省略する。 FIG. 16 is a flowchart of a series of processes according to the fourth embodiment. Since S301, S1003, and S309 to 310 are the same as those in the above-described embodiment, the description thereof will be omitted.
ステップS1602では、パラメータ設定部202は、S301で取得した法線マップに含まれる法線ベクトルの分布を解析し、代表法線ベクトルNsk(k=1,2,...,K)を算出する。具体的には、法線マップ中の法線ベクトルを公知のクラスタリング手法を用いてK個のクラスタに分類し、各クラスタの中心に相当するベクトルを代表法線ベクトルとする。このとき、クラスタの個数Kは予め定めておいた個数でもよいし、法線マップに含まれる法線ベクトルの分散が大きいほど多くの個数としてもよい。
In step S1602, the
ステップS1604では、パラメータ設定部202は、S1003で分割した領域ごとに、ホワイトバランス調整パラメータとしての色温度を決定する。各領域は類似した法線ベクトルを持つ画素の集合であるので、入力画像データ中の各画素について、属する領域Rkに対応する色温度Tskを当該画素に対する色温度として決定する。領域に対する色温度の決定には、S1004と同様に、公知のオートホワイトバランス調整手法を利用可能である。
In step S1604, the
以上説明したとおり第4実施形態によれば、被写体の法線ベクトルの分布に応じて、被写体の面の向きを過不足なく代表する代表法線ベクトルを設定することができる。また、簡易な処理で各画素に対するホワイトバランス調整パラメータを決定することができる。 As described above, according to the fourth embodiment, it is possible to set a representative normal vector that represents the orientation of the surface of the subject without excess or deficiency according to the distribution of the normal vector of the subject. Further, the white balance adjustment parameter for each pixel can be determined by a simple process.
(第5実施形態)
第5実施形態では、法線情報として主要被写体の立体形状を表す3Dモデルデータを用いる例について説明する。また、初めに画像全体のホワイトバランスを調整した後に、ユーザからの入力に応じて部分的に再調整を行う例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(Fifth Embodiment)
In the fifth embodiment, an example in which 3D model data representing the three-dimensional shape of the main subject is used as normal information will be described. Further, an example in which the white balance of the entire image is first adjusted and then the white balance is partially readjusted according to the input from the user will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).
画像データ取得部201は、入力画像データと主要被写体の3Dモデルデータを取得する。ここでは、人物の顔が写っている入力画像データに対し、標準的な顔の概略形状を呈するポリゴンモデルデータ(以後、標準顔モデルデータと呼ぶ)を3Dモデルデータとして用いる。図17は、標準顔モデルの例を示す図である。取得された入力画像データと標準顔モデルデータはパラメータ設定部202へ送られる。
The image
パラメータ設定部202は、初期調整に用いる調整パラメータを入力画像データに基づき決定する。また、代表点に関する設定を行うためのUIをディスプレイ110に表示し、このUI上においてユーザに指示された値と標準顔モデルデータとに基づいて、再調整に用いる調整パラメータを決定する。処理の詳細は後述する。決定された調整パラメータは、色処理部203へ送られる。
The
色処理部203は、設定された調整パラメータを用いて各種画像データのホワイトバランスを調整する。調整後の画像データは、ディスプレイ111へ送られて表示される。
The
図18は、第5実施形態における一連の処理のフローチャートである。 FIG. 18 is a flowchart of a series of processes according to the fifth embodiment.
ステップS1801では、画像データ取得部201は、入力画像データをHDD104または撮像装置から取得する。また、標準顔モデルデータをHDD104から取得する。図19(a)は、入力画像データの例を示す図である。この図の例では、画像のホワイトバランスが全体的に合っておらず、さらに、人物の一部に他の部分と異なる色温度の光が強く当たっている。
In step S1801, the image
ステップS1802では、パラメータ設定部202は、初期調整に用いる調整パラメータとしてゲイン係数(Gra,Gga,Gba)を1組決定する。例えば、入力画像データ全体に対して公知のオートホワイトバランス技術を用いることが出来る。
In step S1802, the
ステップS1803では、色処理部203は、S1802で設定された初期調整パラメータを用いて、入力画像データ全体のホワイトバランスを調整する。具体的には、入力画像データ中の全画素のRGB値にゲイン係数(Gra,Gga,Gba)をそれぞれ乗算する。図19(b)は、図19(a)の入力画像に初期調整を施して得られる画像の例を示す図である。すなわち、図19(b)は、被写体の大部分を照らす光の色温度Laに合わせて調整パラメータを決定し、その調整パラメータを用いて全画素のホワイトバランスを一律に調整した結果の例である。この例では、Laとは異なる色温度Lpの光が強く当たっている部分では、調整パラメータを決定する際に想定した色温度と実際に当たっている光の色温度とが合わないため、色被りが生じている。
In step S1803, the
ステップS1804では、色処理部203は、S1803で行った初期調整後の画像データをディスプレイ110へ出力して表示する。
In step S1804, the
ステップS1805では、パラメータ設定部202は、代表点に関する設定を行うためのUIをディスプレイ110へ出力して表示する。そして、UIを介して代表点の設定に関する入力が行われた場合はステップS1806へ進み、入力が無ければ一連の処理を終了する。図20は、本実施形態における代表点に関する設定を行うためのUIの例を示す図である。画像表示領域2001は、ホワイトバランス調整後の画像データが表示される領域である。ユーザは表示された画像データを参照しながら、さらに調整を加えたい場合にはUIを介して代表点の設定を行うことができる。
In step S1805, the
ステップS1806では、パラメータ設定部202は、S1805で表示したUI上においてユーザに指示された値を取得し、代表点Sの座標および調整パラメータを設定する。図20の例では、画像表示領域2001内の1点をマウスでクリックすることにより、その点に対応する画像上での座標値(i,j)が代表点Sの座標として設定される。また、ユーザによりスライダ2002が操作されると、スライダの位置に対応するゲイン係数(Grp,Ggp,Gbp)が代表点に対する調整パラメータとして設定される。スライダの位置とゲイン係数との関係は、例えば、スライダが左端にある場合に2000[K]、右端にある場合に12000[K]に相当するゲイン係数とし、中間の位置にある場合は両端からの距離の比に基づく補間により対応するゲイン係数を決定する。
In step S1806, the
ステップS1807では、パラメータ設定部202は、S1806で設定した代表点Sの座標に基づいて、再調整領域を決定(領域決定)する。図21は、再調整領域設定処理(S1807)の詳細フローチャートである。
In step S1807, the
ステップS2101では、パラメータ設定部202は、入力画像上において被写体の顔が写っている領域(顔領域)を公知の顔領域抽出技術を用いて抽出し、その領域内にS1806で設定した代表点Sが含まれるか否かを判定する。代表点Sが顔領域内に含まれる場合はS2102へ進み、含まれない場合はS2106へ進む。
In step S2101, the
ステップS2102では、パラメータ設定部202は、S2101で抽出した顔領域に含まれる画素に関して、入力画像平面上での位置と、標準顔モデルを構成するポリゴン上での位置とを対応付ける変換を、顔器官の位置や顔領域の大きさ等に基づいて求める。対応付けには、公知の3D-2D位置合わせ技術を利用可能である。
In step S2102, the
ステップS2103では、パラメータ設定部202は、S2102で求めた変換を用いて、S1806で設定した代表点Sの座標に対応する標準顔モデル上での位置Smを求める。
In step S2103, the
ステップS2104では、パラメータ設定部202は、標準顔モデルを構成するポリゴンの中から、S2103で求めた位置Smのポリゴンと面の傾きが似ているものを抽出する。ここでは、2つのポリゴン間における傾きの類似度として各ポリゴンの単位法線ベクトル同士の内積を用い、位置Smのポリゴンとの類似度が予め定めた閾値よりも大きいポリゴンを抽出する。
In step S2104, the
ステップS2105では、パラメータ設定部202は、S2104で抽出したポリゴンが入力画像平面上において占める領域を求め、これを再調整領域とする。具体的には、S2102で求めた変換の逆変換を用いてポリゴンの頂点に対応する画素位置を求め、これらを結んでできる図形内を再調整領域Rpとする。
In step S2105, the
ステップS2106では、パラメータ設定部202は、入力画像全体からS2101で抽出した顔領域を除いた領域を、再調整領域Rpとする。
In step S2106, the
ステップS1808では、色処理部203は、S1806で設定された代表点Sの調整パラメータを用いて、再調整領域Rpのホワイトバランスを調整する。具体的には、入力画像データ中の再調整領域Rpに含まれる画素のRGB値にゲイン係数(Grp,Ggp,Gbp)をそれぞれ乗算する。なお、S2104において傾きの似たポリゴンを抽出する際に算出した類似度を記憶しておき、その類似度が小さい場合には乗算するゲイン係数を1に近づける(すなわち、再調整による画素値の変化量が小さくなる)ように調節してもよい。図19(c)は、図19(b)に示す初期調整後の画像に対して×印の位置に代表点Sを設定し、再調整を施して得られる画像の例を示す図である。この例では、代表点Sは図19(b)において色被りが生じている部分に設定されている。また、この代表点Sの位置に基づき、図19(c)中の点線で囲まれた領域が再調整領域Rpとして設定される。再調整領域Rp内のホワイトバランスを代表点Sの調整パラメータを用いて調整することにより、初期調整後に生じていた色被りが軽減される。
In step S1808, the
ステップS1809では、色処理部203は、S1808で行った再調整後の画像データをディスプレイ110へ出力して表示し、S1805へ戻る。
In step S1809, the
なお、S2101で抽出する顔領域やS2102で求める変換は、再調整領域設定処理(S1807)を繰り返すたびに求める必要はなく、2度目以降は流用可能である。 The face region extracted in S2101 and the conversion obtained in S2102 do not need to be obtained every time the readjustment region setting process (S1807) is repeated, and can be diverted from the second time onward.
以上説明したとおり第5実施形態によれば、主要被写体に関して面の傾きに基づいたホワイトバランス調整が可能となる。 As described above, according to the fifth embodiment, it is possible to adjust the white balance based on the inclination of the surface of the main subject.
(第6実施形態)
第6実施形態では、ユーザがUIを介して代表法線ベクトルを設定する例について説明する。また、入力画像の一部分について法線情報が得られない場合の例について説明する。ここでは、法線情報として法線マップを用いる。ただし、画素(i,j)において被写体の法線ベクトルが不明である場合には、法線マップの画素値N(i,j)としてゼロベクトル(0,0,0)が格納されているものとする。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(Sixth Embodiment)
In the sixth embodiment, an example in which the user sets the representative normal vector via the UI will be described. Further, an example in which normal information cannot be obtained for a part of the input image will be described. Here, a normal map is used as normal information. However, when the normal vector of the subject is unknown in the pixel (i, j), the zero vector (0,0,0) is stored as the pixel value N (i, j) of the normal map. And. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).
パラメータ設定部202は、ホワイトバランス調整に関する設定を行うためのUIを、出力I/F107を介してディスプレイ110に表示する。また、このUI上においてユーザに指示された値を入力I/F106を介して取得し、法線ベクトルが不明な場合に用いる調整パラメータと、代表法線ベクトルおよびこれに対応する調整パラメータとを設定する。そして、これらの設定に基づき、法線マップを用いて入力画像中の各画素に対する調整パラメータを決定する。
The
図22は、第6実施形態における一連の処理のフローチャートである。S301とS1802~1804は前述の実施形態と同一であるため説明を省略する。 FIG. 22 is a flowchart of a series of processes according to the sixth embodiment. Since S301 and S1802 to 1804 are the same as those in the above-described embodiment, the description thereof will be omitted.
ステップS2202では、パラメータ設定部202は、法線ベクトルが不明な場合に用いる色温度(以後、ベース色温度と呼ぶ)として、初期調整に用いたゲイン係数に対応する色温度を設定する。また、ホワイトバランス調整に関する設定を行うためのUIをディスプレイ110へ出力して表示する。図23(a)は、本実施形態におけるUIの初期状態の例を示す図である。画像表示領域2301には初期調整後の入力画像データが表示される。また、色温度の設定を変更した場合に影響を受ける領域が、点線2302で囲まれるなどして強調表示される。ベースパラメータ表示領域2303の色は、ベース色温度を表している。アイコン2304は、スライダ2305の操作により設定が変更される対象として、ベース色温度が選択されていることを表している。球形セレクタ2306は、法線ベクトルの向きと調整に用いられる色温度との対応関係を模式的に表している。球形セレクタ2306上の各点は、その点における球面の法線ベクトルに対応づけられており、各点の色は、その点に対応付けられた法線ベクトルを持つ画素を調整する際に用いられる色温度を表している。ここでは、初期調整において画像全体に対し同じ色温度(=ベース色温度)を用いているため、球形セレクタ2306全体がベース色温度に対応する色相で描画される。なお、この図における入力画像の例では、シーン全体を照らす環境光の他に、被写体に対して3方向から異なる色温度の光が当たっている。そのため、部分ごとに異なる色被りが生じている。
In step S2202, the
ステップS2203では、パラメータ設定部202は、S2202で表示したUIを介してユーザからの入力を取得する。そして、設定の変更に関する入力が行われた場合はS2204へ進み、そうでなければS2207へ進む。以下、具体例を説明する。
In step S2203, the
<ベース色温度の変更>
図23(a)の状態においてユーザによりスライダ2305が操作されると、ベース色温度がスライダの位置に対応する色温度に変更され、S2204へ進む。このとき、ベースパラメータ表示領域2303は、変更後の色温度に応じた色で再描画される。
<Change of base color temperature>
When the
<代表法線ベクトルの新規設定>
図23(a)の状態においてユーザにより球形セレクタ2306上の一点2307が指定されると、パラメータ設定部202は、その点に対応する法線ベクトルを代表法線ベクトルNs1として設定する。また、ベース色温度と同じ色温度を、代表法線ベクトルNs1に対応する色温度Ts1として設定する。さらに、S301で取得した法線マップに基づいて各画素における法線ベクトルと代表法線ベクトルNs1との類似度を算出し、類似度の高い画素領域Rs1を抽出する。そして、UIを図23(b)の状態に更新する。
<New setting of representative normal vector>
When one
図23(b)において、代表パラメータ表示領域2308の端点は、ユーザにより指定された点2307を指している。また、代表パラメータ表示領域2308の色は、代表法線ベクトルNs1に対応づけられた色温度Ts1を表している。アイコン2304は、スライダ2305の操作により設定が変更される対象として、代表法線ベクトルNs1に対応する色温度Ts1が選択されていることを表している。アイコン2309は、設定が変更される対象としてベース色温度が選択されていないことを表している。点線2302は、代表法線ベクトルNs1と似た法線ベクトルを持つ領域Rs1を強調表示している。この領域は、代表法線ベクトルNs1に対応する色温度Ts1を変更した場合に影響を受ける領域である。この状態においてユーザによりスライダ2305が操作されると、代表法線ベクトルNs1に対応する色温度Ts1がスライダの位置に対応する色温度に変更され、S2204へ進む。このとき、UIは図23(c)の状態に遷移する。
In FIG. 23B, the endpoint of the representative
図23(c)では、代表パラメータ表示領域2308の色が、変更後の色温度Ts1を表す色に変化している。また、球形セレクタ2306上において、点2307の周辺(すなわち、法線ベクトルが代表法線ベクトルNs1と似ている領域)の色相が、変更後の色温度Ts1に対応する色相に変化している。
In FIG. 23 (c), the color of the representative
<設定の完了>
図23(a)の状態においてユーザにより設定完了ボタン2300が押下されると、S2207へ進む。
<Completion of setting>
When the
ステップS2204では、パラメータ設定部202は、S2201で取得した法線マップとS2203での変更を反映した代表法線ベクトルおよび色温度とを用いて、入力画像データの各画素に対する調整パラメータを設定する。本実施形態では、入力画像データ中の画素P(ip,jp)に対するゲイン係数Grp ,Ggp ,Gbp を以下の数式(12)に従い算出する。
In step S2204, the
ここで、GrB ,GgB ,GbBは、ベース色温度に対応するゲイン係数である。Grk ,Ggk ,Gbkは、代表法線ベクトルNskに対応づけられた色温度Tskに対応するゲイン係数である。αskは、代表法線ベクトルNskと画素Pの法線ベクトルNpとの類似度である。Thαは、予め定めた類似度に関する閾値である。類似度αsk(=0~1)は、代表法線ベクトルNskと画素Pの法線ベクトルNpとが一致する場合に最大となり、NskとNpとのなす角が一定値(cos-1(Thα))以上の場合にゼロとなる。αsMAXは、類似度αsk(k=1~K)の最大値である。数式(12)では、画素Pにおける法線ベクトルNpが不明な場合、画素Pに対するゲイン係数はベース色温度に対応するゲイン係数と同じ値となる。その他の場合は、法線ベクトルの類似度に基づいた補間により値が決定される。 Here, Gr B , Gg B , and Gb B are gain coefficients corresponding to the base color temperature. Gr k , Gg k , and Gb k are gain coefficients corresponding to the color temperature T sk associated with the representative normal vector N sk . α sk is the degree of similarity between the representative normal vector N sk and the normal vector N p of the pixel P. Thα is a predetermined threshold value for similarity. The degree of similarity α sk (= 0 to 1) is maximum when the representative normal vector N sk and the normal vector N p of the pixel P match, and the angle formed by N sk and N p is a constant value (cos). -1 (Thα)) or more, it becomes zero. α sMAX is the maximum value of similarity α sk (k = 1 to K). In the equation (12), when the normal vector N p in the pixel P is unknown, the gain coefficient with respect to the pixel P has the same value as the gain coefficient corresponding to the base color temperature. In other cases, the value is determined by interpolation based on the similarity of the normal vectors.
ステップS2205では、色処理部203は、入力画像データのホワイトバランスを調整する。具体的には、S2204で設定した各画素に対するゲイン係数Grp ,Ggp ,Gbp を入力画像データの画素値に乗算する。
In step S2205, the
ステップS2206では、色処理部203は、S2205で行った調整後の画像データをディスプレイ110へ出力し、画像表示領域2301の表示を更新する。このとき、UIは図23(d)の状態に遷移する。図23(d)では、画像表示領域2301にはS2205の調整後の画像データが表示されており、点線2302で囲まれた領域の色が調整により変化している。(代表法線ベクトルNs1に対応する色温度Ts1を用いて調整されたことにより、領域Rs1で生じていた色被りが軽減されている。)
In step S2206, the
S2206で画像データの表示が更新されると、処理はS2203へ戻り、パラメータ設定部202が再びユーザからの入力を取得する。ユーザは更新された画像データを参照しながら、さらに調整を加えたい場合にはUIを介して代表法線ベクトルの追加や設定の変更を行うことができる。図23(e)は、図23(d)の状態からユーザにより点2310とそれに対応する色温度が入力され、これに従ってS2204~2206の処理を行った例であり、点線で囲まれた部分の色被りが軽減されている。また、図23(f)は、図23(e)の状態からさらに代表法線ベクトルが追加された場合の例である。なお、アイコン2309を押下することにより、一度設定されたベース色温度または代表法線ベクトルに対する色温度を、再度変更の対象とするようにしてもよい。また、代表パラメータ表示領域2308に付属する×ボタンを押下することにより、対応する代表法線ベクトルに関して設定を削除するようにしてもよい。
When the display of the image data is updated in S2206, the process returns to S2203, and the
ステップS2207では、パラメータ設定部202は、S301で取得した法線マップと、現在設定されている代表法線ベクトルとに基づき、ホワイトバランス調整に関して設定の確認が必要か否かを判定する。本実施形態では、ある画素について被写体表面の向きがどの代表法線ベクトルの向きとも似ていない場合、その画素では法線情報が不明な画素と同じ調整パラメータが用いられる。しかしながら、そのような画素では代表法線ベクトルを追加してホワイトバランスを微調整することで、より好ましい調整結果が得られる可能性がある。そこで、N(i,j)≠(0,0,0)である入力画像データ中の各画素について数式(13)に従い法線ベクトルの類似度αskを算出し、画素ごとに類似度の最大値αsMAXを求める。そして、画像全体の画素数に対してαsMAX=0である画素数が予め定めた割合以上である場合に、設定の確認が必要であると判定する。確認が必要と判定された場合はS2208へ進み、そうでなければS2210へ進む。
In step S2207, the
ステップS2208では、パラメータ設定部202は、調整に適した代表法線ベクトルの候補をユーザへ報知する。具体的には、S2207で求めたαsMAX=0である画素に関して法線ベクトルの中央値を算出し、これを代表法線ベクトルの候補としてUI上に表示する。S2203において図23(d)の状態で設定完了ボタン2300が押下された場合の例を、図23(g)に示す。図23(g)において、代表パラメータ表示領域2308の端点は、球形セレクタ2306上において代表法線ベクトルの候補に対応する点を指している。アイコン2311は、代表パラメータ表示領域2308が指し示す法線ベクトルが、代表法線ベクトルの候補であることを表している。点線2302は、代表法線ベクトルの候補と似た法線ベクトルを持つ領域を強調表示している。この領域は、代表法線ベクトルの候補を代表法線ベクトルとして設定し、対応する色温度を変更した場合に影響を受ける領域である。
In step S2208, the
ステップS2209では、パラメータ設定部202は、S2203と同様にUIを介してユーザからの入力を取得する。そして、設定の変更に関する入力が行われた場合はS2204へ戻り、そうでなければS2210へ進む。以下、具体例を説明する。
In step S2209, the
<代表法線ベクトルの追加>
図23(g)の状態においてユーザによりスライダ2305が操作されると、代表法線ベクトルの候補(すなわち、アイコン2311付きの代表パラメータ表示領域2308が指し示す法線ベクトル)が代表法線ベクトルに追加される。さらに、その代表法線ベクトルに対応する色温度としてスライダの位置に対応する色温度が設定され、S2204へ戻る。
<Addition of representative normal vector>
When the
<候補の棄却>
図23(g)の状態において設定完了ボタン2300が押下されると、代表法線ベクトルの候補は代表法線ベクトルに追加されずにS2210へ進む。
<Rejection of candidates>
When the
ステップS2210では、色処理部203は、ホワイトバランス調整後の画像データをHDD104等の記憶装置に保存する。そして、UIを図23(h)の状態に更新して保存が完了したことを報知する。
In step S2210, the
以上で説明した第6実施形態によれば、UIを介した直観的な操作により、ユーザが代表法線ベクトルを設定することができる。 According to the sixth embodiment described above, the user can set the representative normal vector by an intuitive operation via the UI.
なお、ステップS2210において、調整に用いたベース色温度、および、代表法線ベクトルとそれに対応する色温度を、調整パラメータ情報として別途保存してもよい。その場合、S301において入力画像データおよび法線情報とともに保存しておいた調整パラメータ情報を取得すれば、一度行った調整を異なる入力画像データにも容易に適用可能となる。 In step S2210, the base color temperature used for the adjustment, the representative normal vector and the corresponding color temperature may be separately stored as the adjustment parameter information. In that case, if the adjustment parameter information saved together with the input image data and the normal information in S301 is acquired, the adjustment once performed can be easily applied to different input image data.
(第7実施形態)
第7実施形態では、異なる複数の視点位置から被写体を撮像した画像に基づいて法線情報を算出し、これを用いてホワイトバランス調整を行う例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(7th Embodiment)
In the seventh embodiment, an example in which normal information is calculated based on images obtained by capturing images of a subject from a plurality of different viewpoint positions and white balance adjustment is performed using the normal information will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).
画像データ取得部201は、入力画像データと、入力画像データ中の被写体を異なる視点位置から撮像したサブ入力画像データ(補助入力画像)とを取得する。また、これらの画像データを撮像した際のカメラパラメータ(カメラの位置姿勢やレンズの歪みを表す情報)を取得する。以後、これらの画像データとカメラパラメータとを併せて多視点画像データ呼ぶ。本実施形態では、ステレオカメラで撮像して得られる2つの画像のうち、片方の画像データを入力画像データとし、もう一方をサブ入力画像データとして用いる。
The image
パラメータ設定部202は、多視点画像データを用いて代表法線ベクトルを算出する。処理の詳細は後述する。
The
図24は、第7実施形態における一連の処理のフローチャートである。S302~303、S305、S307~310は第1実施形態と同一であるため説明を省略する。 FIG. 24 is a flowchart of a series of processes according to the seventh embodiment. Since S302 to 303, S305, and S307 to 310 are the same as those in the first embodiment, the description thereof will be omitted.
ステップS2401では、画像データ取得部201は、多視点画像データをHDD104または撮像装置から取得する。
In step S2401, the image
ステップS2404では、パラメータ設定部202は、S2401で取得した多視点画像データを用いて、S303で設定した代表点を含む面の向きを求めることにより、代表法線ベクトルを算出する。まず、入力画像データおよびサブ入力画像データからそれぞれ特徴点を抽出し、画像間において特徴点の対応付けを行う。この処理には公知の特徴ベースマッチング技術を利用可能である。次に、対応付けされた特徴点の中から、入力画像上において代表点を内部に含む最小の三角形を形成する3点を選択する。次に、選択された3点の特徴点それぞれについて、各画像上での位置とカメラパラメータとに基づき、三次元座標を推定する。そして、得られた三次元座標を用いて3点が形成する三角形の面の単位法線ベクトルを算出し、これを代表法線ベクトルとする。
In step S2404, the
ステップS2406では、パラメータ設定部202は、S2401で取得した多視点画像データを用いて、S305で選択した注目画素に対応する法線ベクトルを算出する。具体的には、S2404における代表点を注目画素に置き換えて同様の処理を行う。なお、特徴点の対応付けは再度行う必要はなく、S2404で行った結果を流用可能である。また、三次元座標の推定や単位法線ベクトルの算出についても、用いる特徴点が同一である場合には一度算出した結果を流用可能である。
In step S2406, the
以上で説明した第7実施形態によれば、多視点画像データから法線情報を算出し、これに基づいてホワイトバランス調整を行うことができる。 According to the seventh embodiment described above, normal information can be calculated from the multi-viewpoint image data, and white balance adjustment can be performed based on the normal information.
なお、サブ入力画像データは入力画像データを撮像したカメラとは別のカメラで撮像された画像であってもよいし、2画像以上であってもよい。また、メインレンズと撮像素子との間にマイクロレンズアレイを配置したPlenopticカメラを用いて被写体を撮像し、得られる複数の画像データのうち1つを入力画像データ、その他をサブ入力画像データとしてもよい。 The sub-input image data may be an image captured by a camera different from the camera that captured the input image data, or may be two or more images. In addition, a subject is imaged using a Plenoptic camera in which a microlens array is arranged between the main lens and the image pickup element, and one of the obtained plurality of image data can be used as input image data and the other can be used as sub-input image data. good.
(第8実施形態)
第8実施形態では、距離情報に基づいて法線情報を算出し、これを用いてホワイトバランス調整を行う例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(8th Embodiment)
In the eighth embodiment, an example in which normal information is calculated based on the distance information and white balance adjustment is performed using the normal information will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).
画像データ取得部201は、入力画像データと、入力画像データを撮像した際の撮像装置の画角および焦点距離を取得する。また、被写体の距離情報を取得する。ここでは、距離情報として距離マップを用いる。
The image
パラメータ設定部202は、距離マップに基づいて各種の法線ベクトルを算出する。処理の詳細は後述する。
The
図25は、第8実施形態における一連の処理のフローチャートである。S302~303、S305、S307~310は第1実施形態と同一であるため説明を省略する。 FIG. 25 is a flowchart of a series of processes according to the eighth embodiment. Since S302 to 303, S305, and S307 to 310 are the same as those in the first embodiment, the description thereof will be omitted.
ステップS2501では、画像データ取得部201は、入力画像データ、撮影時の画角および焦点距離、距離マップをHDD104または撮像装置から取得する。
In step S2501, the image
ステップS2504では、パラメータ設定部202は、S2501で取得した距離マップに基づいて、S303で設定した代表点を含む面の向きを求めることにより、代表法線ベクトルを算出する。まず、撮影時の画角および焦点距離と、距離マップとを用いて、入力画像の各画素に対応する被写体表面上の点の三次元座標を算出する。
In step S2504, the
次に、入力画像を複数の領域に分割し、画素に対応する三次元の点群データに対して、領域ごとに平面をフィッティングする。入力画像の分割は、予め定めた分割数に従ったブロック分割でもよいし、画素値に基づく一般的な領域分割手法を用いた分割でもよい。平面のフィッティングは、例えば、領域内に含まれる画素に対応する点群との二乗距離の総和が最小となる平面を求めればよい。そして、代表点が含まれる領域にフィッティングした平面の単位法線ベクトルを、代表法線ベクトルとする。 Next, the input image is divided into a plurality of regions, and a plane is fitted to each region with respect to the three-dimensional point group data corresponding to the pixels. The input image may be divided into blocks according to a predetermined number of divisions, or may be divided using a general area division method based on pixel values. For the fitting of the plane, for example, a plane having the minimum sum of squared distances with the point cloud corresponding to the pixels included in the region may be obtained. Then, the unit normal vector of the plane fitted to the region including the representative point is defined as the representative normal vector.
ステップS2506では、パラメータ設定部202は、S2504における代表点をS305で選択した注目画素に置き換えて同様の処理を行い、注目画素に対応する法線ベクトルを算出する。なお、平面のフィッティングは再度行う必要はなく、S2504で行った結果を流用可能である。
In step S2506, the
以上で説明した第8実施形態によれば、距離マップから法線情報を算出し、これに基づいてホワイトバランス調整を行うことができる。 According to the eighth embodiment described above, the normal information can be calculated from the distance map, and the white balance can be adjusted based on the normal information.
なお、本実施形態では、距離マップに基づいて算出した三次元の点群データに平面をフィッティングすることで被写体を構成する面を求めたが、距離マップから三次元形状を生成する他の形状モデル生成技術を用いて被写体表面を求めてもよい。 In the present embodiment, the surface constituting the subject is obtained by fitting a plane to the three-dimensional point group data calculated based on the distance map, but another shape model that generates a three-dimensional shape from the distance map is obtained. The surface of the subject may be obtained by using a generation technique.
また、距離マップから法線マップを生成し、第1~4、6実施形態を適用してもよい。距離マップから法線マップを生成する方法については、種々の手法が一般に知られており、本発明の主眼ではないため、詳細な説明を省略する。 Further, a normal map may be generated from the distance map, and the first to fourth and sixth embodiments may be applied. As for the method of generating a normal map from a distance map, various methods are generally known and are not the main subject of the present invention, and therefore detailed description thereof will be omitted.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 画像処理装置; 104 HDD; 111 ディスプレイ; 201 画像データ取得部; 202 パラメータ設定部; 203 色処理部 100 image processing device; 104 HDD; 111 display; 201 image data acquisition unit; 202 parameter setting unit; 203 color processing unit
Claims (12)
前記入力画像における代表点と該代表点のホワイトバランス係数とを決定する決定手段と、
前記代表点を含む面の傾きを表す第1情報と前記入力画像における注目画素を含む面の傾きを表す第2情報とを取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる各画素における被写体に関する法線情報を更に取得し、
前記調整手段は、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点における法線との類似度を算出し、該入力画像に含まれる各画素に対するホワイトバランスを、前記類似度を重み係数とした前記ホワイトバランス係数に基づく補間演算により導出する
ことを特徴とする画像処理装置。 The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point, and
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjusting means for adjusting the white balance in the pixel of interest based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires normal information about the subject in each pixel included in the input image.
The adjusting means calculates the degree of similarity between the normal of each pixel included in the input image and the normal at the representative point based on the normal information, and determines the white balance for each pixel included in the input image. , Derived by an interpolation calculation based on the white balance coefficient with the similarity as a weighting coefficient.
An image processing device characterized by this.
前記第2情報は、前記注目画素における被写体の法線情報である
ことを特徴とする請求項1に記載の画像処理装置。 The first information is the normal information of the subject at the representative point.
The image processing apparatus according to claim 1, wherein the second information is normal information of a subject in the pixel of interest.
ことを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the determination means has a reception means for receiving information for determining the representative point from the user.
前記決定手段は、前記入力画像に含まれる画素のうち前記法線ベクトルに対応する画素を前記代表点として決定する
ことを特徴とする請求項3に記載の画像処理装置。 The reception means receives the designation of the normal vector from the user and receives it.
The image processing apparatus according to claim 3, wherein the determination means determines a pixel corresponding to the normal vector among the pixels included in the input image as the representative point.
前記第1取得手段は、前記入力画像に含まれる各画素における被写体に関する法線情報以外の特徴量情報を更に取得し、
前記調整手段は、法線が略一致しかつホワイトバランス係数が異なる代表点が複数存在する場合に、該ホワイトバランス係数に前記法線情報と前記特徴量情報とに基づいた重み係数を乗ずることにより前記入力画像に含まれる各画素に対するホワイトバランスを調整する
ことを特徴とする請求項1に記載の画像処理装置。 The determination means determines a plurality of representative points in the input image and a white balance coefficient corresponding to the plurality of representative points.
The first acquisition means further acquires feature amount information other than the normal information regarding the subject in each pixel included in the input image.
The adjusting means multiplies the white balance coefficient by a weighting coefficient based on the normal line information and the feature amount information when there are a plurality of representative points having substantially the same normal lines and different white balance coefficients. The image processing apparatus according to claim 1 , wherein the white balance for each pixel included in the input image is adjusted.
ことを特徴とする請求項5に記載の画像処理装置。 The adjusting means calculates a first similarity between the normal line of each pixel included in the input image and the normal line of the representative point based on the normal line information, and the input is based on the feature amount information. A second similarity between the feature amount of each pixel included in the image and the feature amount of the representative point is calculated, and the white balance coefficient is weighted based on the first similarity degree and the second similarity degree. The image processing apparatus according to claim 5 , wherein the white balance for each pixel included in the input image is adjusted by multiplying by a coefficient.
前記第2取得手段は、前記入力画像と前記補助入力画像とに基づいて、前記第1情報と前記第2情報とを決定する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The first acquisition means further acquires an auxiliary input image obtained by capturing a subject included in the input image from a viewpoint different from the input image.
The second acquisition means according to any one of claims 1 to 6 , wherein the second acquisition means determines the first information and the second information based on the input image and the auxiliary input image. Image processing equipment.
前記第2取得手段は、前記距離情報に基づいて、前記第1情報と前記第2情報とを決定する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The first acquisition means further acquires the distance information of the subject in each pixel included in the input image.
The image processing apparatus according to any one of claims 1 to 6 , wherein the second acquisition means determines the first information and the second information based on the distance information.
前記入力画像における代表点と該代表点のホワイトバランス係数とを決定する決定手段と、
前記入力画像においてホワイトバランスを調整する調整領域を決定する領域決定手段と、
前記代表点を含む面の傾きを表す第1情報と前記入力画像における注目画素を含む面の傾きを表す第2情報とを取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記調整領域の前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる被写体の3Dモデルを更に取得し、
前記領域決定手段は、前記3Dモデルに基づいて前記代表点の法線と略一致する法線を有すると判定された画素の領域を前記調整領域として決定する
ことを特徴とする画像処理装置。 The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point, and
An area determining means for determining an adjustment area for adjusting white balance in the input image,
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjustment means for adjusting the white balance in the pixel of interest in the adjustment region based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires a 3D model of the subject included in the input image, and further acquires the 3D model.
The area determining means determines as the adjustment area a region of pixels determined to have a normal that substantially coincides with the normal of the representative point based on the 3D model.
An image processing device characterized by this.
入力画像を取得する第1取得工程と、
前記入力画像における代表点と、該代表点のホワイトバランス係数と、を決定する決定工程と、
前記代表点を含む面の傾きを表す第1情報と、前記入力画像における注目画素を含む面の傾きを表す第2情報と、を取得する第2取得工程と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記注目画素におけるホワイトバランスを調整する調整工程と、
を含み、
前記第1取得工程では、前記入力画像に含まれる各画素における被写体に関する法線情報を更に取得し、
前記調整工程では、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点における法線との類似度を算出し、該入力画像に含まれる各画素に対するホワイトバランスを、前記類似度を重み係数とした前記ホワイトバランス係数に基づく補間演算により導出する
ことを特徴とする制御方法。 It is a control method for image processing equipment.
The first acquisition process to acquire the input image and
A determination step for determining a representative point in the input image and a white balance coefficient of the representative point.
A second acquisition step of acquiring first information indicating the inclination of the surface including the representative point and second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjustment step for adjusting the white balance in the pixel of interest based on the first information, the second information, and the white balance coefficient.
Including
In the first acquisition step, normal information regarding the subject in each pixel included in the input image is further acquired.
In the adjustment step, the degree of similarity between the normal of each pixel included in the input image and the normal at the representative point is calculated based on the normal information, and the white balance for each pixel included in the input image is determined. , Derived by an interpolation calculation based on the white balance coefficient with the similarity as a weighting coefficient.
A control method characterized by that.
入力画像を取得する第1取得工程と、 The first acquisition process to acquire the input image and
前記入力画像における代表点と、該代表点のホワイトバランス係数と、を決定する決定工程と、 A determination step for determining a representative point in the input image and a white balance coefficient of the representative point.
前記入力画像においてホワイトバランスを調整する調整領域を決定する領域決定工程と、 An area determination step of determining an adjustment area for adjusting white balance in the input image, and
前記代表点を含む面の傾きを表す第1情報と、前記入力画像における注目画素を含む面の傾きを表す第2情報と、を取得する第2取得工程と、 A second acquisition step of acquiring first information indicating the inclination of the surface including the representative point and second information indicating the inclination of the surface including the pixel of interest in the input image.
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記調整領域の前記注目画素におけるホワイトバランスを調整する調整工程と、 An adjustment step of adjusting the white balance of the pixel of interest in the adjustment region based on the first information, the second information, and the white balance coefficient.
を含み、Including
前記第1取得工程では、前記入力画像に含まれる被写体の3Dモデルを更に取得し、 In the first acquisition step, a 3D model of the subject included in the input image is further acquired.
前記領域決定工程では、前記3Dモデルに基づいて前記代表点の法線と略一致する法線を有すると判定された画素の領域を前記調整領域として決定する In the area determination step, the area of the pixel determined to have a normal line substantially matching the normal line of the representative point based on the 3D model is determined as the adjustment area.
ことを特徴とする制御方法。A control method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/950,363 US10742850B2 (en) | 2017-04-17 | 2018-04-11 | Image processing apparatus and control method thereof for white balance adjustment |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017081436 | 2017-04-17 | ||
JP2017081436 | 2017-04-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018182718A JP2018182718A (en) | 2018-11-15 |
JP7054347B2 true JP7054347B2 (en) | 2022-04-13 |
Family
ID=64276313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018005949A Active JP7054347B2 (en) | 2017-04-17 | 2018-01-17 | Image processing device and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7054347B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7321772B2 (en) * | 2019-05-22 | 2023-08-07 | キヤノン株式会社 | Image processing device, image processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016072692A (en) | 2014-09-26 | 2016-05-09 | キヤノン株式会社 | Image processing system and control method of the same |
JP2016092618A (en) | 2014-11-05 | 2016-05-23 | キヤノン株式会社 | Imaging apparatus and method for controlling the same |
JP2016213717A5 (en) | 2015-05-11 | 2018-06-07 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6541416B2 (en) | 2015-05-11 | 2019-07-10 | キヤノン株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM |
-
2018
- 2018-01-17 JP JP2018005949A patent/JP7054347B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016072692A (en) | 2014-09-26 | 2016-05-09 | キヤノン株式会社 | Image processing system and control method of the same |
JP2016092618A (en) | 2014-11-05 | 2016-05-23 | キヤノン株式会社 | Imaging apparatus and method for controlling the same |
JP2016213717A5 (en) | 2015-05-11 | 2018-06-07 |
Also Published As
Publication number | Publication date |
---|---|
JP2018182718A (en) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107516319B (en) | High-precision simple interactive matting method, storage device and terminal | |
CN111062378B (en) | Image processing method, model training method, target detection method and related device | |
JP5432714B2 (en) | Composition analysis method, image apparatus having composition analysis function, composition analysis program, and computer-readable recording medium | |
CN102984448B (en) | Utilize color digital picture to revise the method for controlling to action as acutance | |
JP5744431B2 (en) | Image processing apparatus, image processing method, and program | |
KR20080070733A (en) | Adjusting digital image exposure and tone scale | |
KR20050094330A (en) | Image processing apparatus, image processing method and program product therefore | |
JP6045378B2 (en) | Information processing apparatus, information processing method, and program | |
KR101853269B1 (en) | Apparatus of stitching depth maps for stereo images | |
JP7140209B2 (en) | Detection device, information processing device, detection method, and information processing program | |
KR20190044439A (en) | Method of stitching depth maps for stereo images | |
US10742850B2 (en) | Image processing apparatus and control method thereof for white balance adjustment | |
JP7054347B2 (en) | Image processing device and its control method | |
EP3391640B1 (en) | Data recording apparatus, image capturing apparatus, data recording method, and storage medium | |
CN109729259B (en) | Image processing apparatus, method thereof, system thereof, and computer readable medium | |
WO2024192102A1 (en) | Systems and methods for splat filling a three-dimensional image using semi-measured data | |
JP6624785B2 (en) | Image processing method, image processing device, imaging device, program, and storage medium | |
WO2024147864A1 (en) | Systems and methods for the accurate mapping of in-focus image data from two-dimensional images of a scene to a three-dimensional model of the scene | |
US11727640B1 (en) | Systems and methods for the continuous presentation of point clouds | |
JP2008067093A (en) | Camera system, image processor, and image processing program | |
US20220224822A1 (en) | Multi-camera system, control value calculation method, and control apparatus | |
JP2010154323A (en) | Image processing apparatus, image extraction method, and, program | |
US20180089889A1 (en) | Dynamically creating and presenting a three-dimensional (3d) view of a scene by combining color, brightness, and intensity from multiple scan data sources | |
JP6949494B2 (en) | Image processing equipment and image processing methods, imaging equipment, programs | |
JP2016062447A (en) | Image processor, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7054347 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |