JP7054347B2 - Image processing device and its control method - Google Patents

Image processing device and its control method Download PDF

Info

Publication number
JP7054347B2
JP7054347B2 JP2018005949A JP2018005949A JP7054347B2 JP 7054347 B2 JP7054347 B2 JP 7054347B2 JP 2018005949 A JP2018005949 A JP 2018005949A JP 2018005949 A JP2018005949 A JP 2018005949A JP 7054347 B2 JP7054347 B2 JP 7054347B2
Authority
JP
Japan
Prior art keywords
input image
information
white balance
normal
representative point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018005949A
Other languages
Japanese (ja)
Other versions
JP2018182718A (en
Inventor
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/950,363 priority Critical patent/US10742850B2/en
Publication of JP2018182718A publication Critical patent/JP2018182718A/en
Application granted granted Critical
Publication of JP7054347B2 publication Critical patent/JP7054347B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Description

本発明は、画像のホワイトバランスを調整する技術に関するものである。 The present invention relates to a technique for adjusting the white balance of an image.

分光分布の異なる複数の光源下で撮像された画像に対してホワイトバランス調整処理を行う技術として、特許文献1では、撮像画像を複数の領域に分割し領域ごとにホワイトバランスを調整する技術が開示されている。より具体的には、ユーザが撮像画像を手動で領域分割し、領域ごとに照らしている光源の色温度を指定する手法が開示されている。また、撮像装置に対する被写体の距離情報に基づき、撮像画像をストロボが届く領域と届かない領域とに分割し領域ごとにホワイトバランスを調整する手法が開示されている。 As a technique for performing white balance adjustment processing on images captured under a plurality of light sources having different spectral distributions, Patent Document 1 discloses a technique for dividing an captured image into a plurality of regions and adjusting the white balance for each region. Has been done. More specifically, a method is disclosed in which a user manually divides an captured image into regions and specifies the color temperature of a light source illuminating each region. Further, there is disclosed a method of dividing an captured image into an area where the strobe can reach and an area where the strobe cannot reach and adjusting the white balance for each area based on the distance information of the subject with respect to the image pickup device.

特開2008-52428号公報Japanese Unexamined Patent Publication No. 2008-52428

しかしながら、上述の技術においては、手動で領域分割を行う場合、ユーザは、被写体がどのように照らされているかを知識や経験に基づいて想像しながら領域分割する必要があり、手間がかかるという課題がある。また、距離情報を用いて領域分割を行う場合、ストロボの発光方向や発光量が想定と異なる場合に適切な領域分割が困難となるという課題がある。 However, in the above-mentioned technique, when manually dividing the area, the user needs to imagine how the subject is illuminated based on knowledge and experience, and the area is divided, which is troublesome. There is. Further, when the region is divided using the distance information, there is a problem that it is difficult to appropriately divide the region when the emission direction and the emission amount of the strobe are different from the assumption.

本発明はこのような問題を鑑みてなされたものであり、より好適なホワイトバランス調整を可能とする技術を提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a technique capable of more suitable white balance adjustment.

上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
入力画像を取得する第1取得手段と、
前記入力画像における代表点と、該代表点のホワイトバランス係数と、を決定する決定手段と、
前記代表点を含む面の傾きを表す第1情報と、前記入力画像における注目画素を含む面の傾きを表す第2情報と、を取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる各画素における被写体に関する法線情報を更に取得し、
前記調整手段は、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点における法線との類似度を算出し、該入力画像に含まれる各画素に対するホワイトバランスを、前記類似度を重み係数とした前記ホワイトバランス係数に基づく補間演算により導出する
または、画像処理装置は、
入力画像を取得する第1取得手段と、
前記入力画像における代表点と該代表点のホワイトバランス係数とを決定する決定手段と、
前記入力画像においてホワイトバランスを調整する調整領域を決定する領域決定手段と、
前記代表点を含む面の傾きを表す第1情報と前記入力画像における注目画素を含む面の傾きを表す第2情報とを取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記調整領域の前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる被写体の3Dモデルを更に取得し、
前記領域決定手段は、前記3Dモデルに基づいて前記代表点の法線と略一致する法線を有すると判定された画素の領域を前記調整領域として決定する。
In order to solve the above-mentioned problems, the image processing apparatus according to the present invention has the following configurations. That is, the image processing device is
The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point.
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjusting means for adjusting the white balance in the pixel of interest based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires normal information about the subject in each pixel included in the input image.
The adjusting means calculates the degree of similarity between the normal of each pixel included in the input image and the normal at the representative point based on the normal information, and determines the white balance for each pixel included in the input image. , Derived by an interpolation calculation based on the white balance coefficient with the similarity as a weighting coefficient .
Or, the image processing device
The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point, and
An area determining means for determining an adjustment area for adjusting white balance in the input image,
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjustment means for adjusting the white balance in the pixel of interest in the adjustment region based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires a 3D model of the subject included in the input image, and further acquires the 3D model.
The area determining means determines as the adjustment area a region of pixels determined to have a normal that substantially coincides with the normal of the representative point based on the 3D model.

本発明によれば、より好適なホワイトバランス調整を可能とする技術を提供することができる。 According to the present invention, it is possible to provide a technique that enables more suitable white balance adjustment.

第1実施形態に係る画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware composition of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 1st Embodiment. 入力画像および法線情報の例を示す図である。It is a figure which shows the example of the input image and the normal information. UIの例を示す図である。It is a figure which shows the example of UI. 調整パラメータ設定処理の詳細フローチャートである。It is a detailed flowchart of adjustment parameter setting process. 座標系を説明する図である。It is a figure explaining the coordinate system. 法線ベクトルの類似度を説明する図である。It is a figure explaining the degree of similarity of a normal vector. 調整パラメータに基づく補間の例を示す図である。It is a figure which shows the example of the interpolation based on the adjustment parameter. 第2実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 2nd Embodiment. 代表点配置の例を示す図である。It is a figure which shows the example of the representative point arrangement. 代表法線ベクトルの例を示す図である。It is a figure which shows the example of the representative normal vector. 入力画像および法線情報、距離情報の例を示す図である。It is a figure which shows the example of the input image, the normal information, and the distance information. 第3実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 3rd Embodiment. UIの例を示す図である。It is a figure which shows the example of UI. 第4実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 4th Embodiment. 標準顔モデルの例を示す図である。It is a figure which shows the example of a standard face model. 第5実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 5th Embodiment. 入力画像データの例を示す図である。It is a figure which shows the example of the input image data. UIの例を示す図である。It is a figure which shows the example of UI. 再調整領域設定処理の詳細フローチャートである。It is a detailed flowchart of a readjustment area setting process. 第6実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 6th Embodiment. UIの例を示す図である。It is a figure which shows the example of UI. 第7実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 7th Embodiment. 第8実施形態における一連の処理のフローチャートである。It is a flowchart of a series of processing in 8th Embodiment.

以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. It should be noted that the following embodiments are merely examples, and are not intended to limit the scope of the present invention.

(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、ホワイトバランスの調整パラメータを決定する形態を例に挙げて以下に説明する。ここでは、撮像画像上における座標とホワイトバランス調整パラメータとを与えられた複数の代表点を設定し、代表点と同じ法線方向を向いた面は代表点と共通の光で照らされていると見なして各画素に対するホワイトバランス調整パラメータ(ホワイトバランス係数)を決定する。なお、以下の説明では調整パラメータとして色温度を用いる。
(First Embodiment)
As a first embodiment of the image processing apparatus according to the present invention, a mode for determining a white balance adjustment parameter will be described below as an example. Here, it is assumed that a plurality of representative points given the coordinates on the captured image and the white balance adjustment parameter are set, and the surface facing the same normal direction as the representative point is illuminated by the same light as the representative point. The white balance adjustment parameter (white balance coefficient) for each pixel is determined. In the following description, the color temperature is used as an adjustment parameter.

<装置構成>
図1は、第1実施形態に係る画像処理装置100のハードウェア構成を示す図である。画像処理装置100は、CPU101、RAM102、ROM103、HDD104、HDDI/F105、入力I/F106、出力I/F107、システムバス108で構成される。
<Device configuration>
FIG. 1 is a diagram showing a hardware configuration of the image processing apparatus 100 according to the first embodiment. The image processing device 100 includes a CPU 101, a RAM 102, a ROM 103, an HDD 104, an HDDI / F105, an input I / F106, an output I / F107, and a system bus 108.

CPU101は、RAM102をワークメモリとして、ROM103及びハードディスクドライブ(HDD)104に格納されたプログラムを実行し、システムバス108を介して後述する各部を制御する。HDDインタフェイス(I/F)105は、HDD104や光ディスクドライブなどの二次記憶装置を接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDI/F105を介して、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。 The CPU 101 uses the RAM 102 as a work memory to execute a program stored in the ROM 103 and the hard disk drive (HDD) 104, and controls each part described later via the system bus 108. The HDD interface (I / F) 105 is an interface such as Serial ATA (SATA) that connects a secondary storage device such as an HDD 104 or an optical disk drive. The CPU 101 can read data from the HDD 104 and write data to the HDD 104 via the HDDI / F105.

さらに、CPU101は、HDD104に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD104に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。入力インタフェイス(I/F)106は、マウス・キーボード109等の入力デバイスを接続する、例えばUSB等のシリアルバスインタフェイスである。CPU101は、入力I/F106を介してマウス・キーボード109から各種信号を読み込むことが可能である。出力インタフェイス(I/F)107は、ディスプレイ110等の表示デバイスを接続する、例えばDVI等の映像出力インタフェイスである。CPU101は、出力インタフェイス107を介してディスプレイ110にデータを送り、表示を実行させることができる。なお、USBやIEEE1394等の双方向通信インタフェイスを利用すれば、入力I/F106と出力I/F107を一つにまとめることができる。 Further, the CPU 101 can expand the data stored in the HDD 104 into the RAM 102, and similarly, can store the data expanded in the RAM 102 in the HDD 104. Then, the CPU 101 can regard the data expanded in the RAM 102 as a program and execute it. The input interface (I / F) 106 is a serial bus interface for connecting an input device such as a mouse / keyboard 109, for example, USB. The CPU 101 can read various signals from the mouse / keyboard 109 via the input I / F 106. The output interface (I / F) 107 is a video output interface such as DVI to which a display device such as a display 110 is connected. The CPU 101 can send data to the display 110 via the output interface 107 to execute the display. If a bidirectional communication interface such as USB or IEEE 1394 is used, the input I / F 106 and the output I / F 107 can be combined into one.

図2は、画像処理装置100の機能ブロック図である。画像データ取得部201は、HDD104からHDDI/F105を介して、あらかじめ記憶されている入力画像データと被写体の法線情報を取得する。あるいは、デジタルカメラや3Dスキャナなど図示しない撮像装置を画像処理装置100に接続し、そこから取得してもよい。ここでは、法線情報として法線マップを用いる。 FIG. 2 is a functional block diagram of the image processing device 100. The image data acquisition unit 201 acquires the input image data and the normal information of the subject stored in advance from the HDD 104 via the HDDI / F105. Alternatively, an image pickup device (not shown) such as a digital camera or a 3D scanner may be connected to the image processing device 100 and acquired from the image processing device 100. Here, a normal map is used as normal information.

図4は、入力画像および法線情報の例を示す図である。図4(a)に示す入力画像データIにおいて、座標(i,j)には、被写体のRGB値Ir(i,j)、Ig(i,j)、Ib(i,j)が画素値としてI(i,j)に格納されている。また、図4(b)に示す法線マップNにおいて、座標(i,j)には、被写体に関する単位法線ベクトルの各要素の値が画素値として格納されている。具体的には、入力画像データIの座標(i,j)に対応する法線ベクトルのxyz成分値がN(i,j)として格納されている。すなわち、画素値N(i,j)=(Nx(i,j)、Ny(i,j)、Nz(i,j))である。なお、ここでは、xyz座標を入力画像データにおける座標を基準として設定している。具体的には、入力画像データの水平方向をx軸、垂直方向をy軸、奥行き方向(すなわち撮像装置の光軸方向)をz軸としている。取得された入力画像データと法線マップはパラメータ設定部202へ送られる。 FIG. 4 is a diagram showing an example of input images and normal information. In the input image data I shown in FIG. 4A, the coordinates (i, j) have the RGB values Ir (i, j), Ig (i, j), and Ib (i, j) of the subject as pixel values. It is stored in I (i, j). Further, in the normal map N shown in FIG. 4B, the values of each element of the unit normal vector relating to the subject are stored as pixel values in the coordinates (i, j). Specifically, the xyz component value of the normal vector corresponding to the coordinates (i, j) of the input image data I is stored as N (i, j). That is, the pixel value N (i, j) = (Nx (i, j), Ny (i, j), Nz (i, j)). Here, the xyz coordinates are set with reference to the coordinates in the input image data. Specifically, the horizontal direction of the input image data is the x-axis, the vertical direction is the y-axis, and the depth direction (that is, the optical axis direction of the image pickup apparatus) is the z-axis. The acquired input image data and the normal map are sent to the parameter setting unit 202.

パラメータ設定部202は、代表点に関する設定を行うためのUIを、出力I/F107を介してディスプレイ110に表示する。また、このUI上においてユーザに指示された値を入力I/F106を介して受付け、代表点の入力画像上における座標と、当該代表点に対する調整パラメータを設定する。そして、設定した代表点の座標および調整パラメータと法線マップとを用いて、入力画像中の各画素に対する調整パラメータを決定する。これらの処理の詳細は後述する。決定された調整パラメータは、色処理部203へ送られる。 The parameter setting unit 202 displays the UI for setting the representative point on the display 110 via the output I / F 107. Further, the value instructed by the user on this UI is received via the input I / F 106, and the coordinates on the input image of the representative point and the adjustment parameter for the representative point are set. Then, the adjustment parameter for each pixel in the input image is determined by using the set coordinates of the representative point, the adjustment parameter, and the normal map. Details of these processes will be described later. The determined adjustment parameter is sent to the color processing unit 203.

色処理部203は、調整パラメータを用いて入力画像データのホワイトバランスを調整し、出力画像データを生成する。生成された出力画像データは、ディスプレイ111へ送られて表示される。 The color processing unit 203 adjusts the white balance of the input image data using the adjustment parameters and generates the output image data. The generated output image data is sent to the display 111 and displayed.

<装置の動作>
図3は、第1実施形態における一連の処理のフローチャートである。この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムを、ROM103あるいはHDD104からRAM102上に読み込んだ後に、CPU101によって該プログラムを実行することによって実現される。
<Operation of the device>
FIG. 3 is a flowchart of a series of processes according to the first embodiment. This series of processes is realized by reading a computer-executable program describing the procedure shown below from the ROM 103 or the HDD 104 onto the RAM 102, and then executing the program by the CPU 101.

ステップS301では、画像データ取得部201は、入力画像データとこれに対応する法線情報である法線マップを、HDD104または撮像装置から取得する。ステップS302では、パラメータ設定部202は、S301で取得した入力画像データと、代表点に関する設定を行うためのUIとをディスプレイ110へ出力して表示する。 In step S301, the image data acquisition unit 201 acquires the input image data and the normal map which is the normal information corresponding thereto from the HDD 104 or the image pickup apparatus. In step S302, the parameter setting unit 202 outputs and displays the input image data acquired in S301 and the UI for setting the representative point on the display 110.

図5は、代表点に関する設定を行うためのUIの例を示す図である。画像表示領域501は、入力画像データが表示される領域である。ユーザは表示された入力画像データを参照しながら、UIを介して代表点の設定を行うことができる。 FIG. 5 is a diagram showing an example of a UI for setting a representative point. The image display area 501 is an area in which input image data is displayed. The user can set the representative point via the UI while referring to the displayed input image data.

ステップS303では、パラメータ設定部202は、S302で表示したUI上においてユーザに指示された値を取得し、代表点の座標および調整パラメータを設定する。図5の例では、「追加」ボタン502を押下すると、新規にIDを割り当てられた代表点が1つ生成され、当該IDがID選択リスト503にて選択される。ユーザにより座標設定欄504に座標値が入力されると、選択リスト503で選択されている代表点の座標としてその値が設定される。また、ユーザにより調整パラメータ設定欄505に色温度の値が入力されると、選択されている代表点に対する調整パラメータ(代表パラメータ)として色温度が設定される。既存の代表点の座標や調整パラメータを変更する場合は、当該代表点のIDをID選択リスト503で選択した状態で、座標設定欄504や調整パラメータ設定欄505に新たな値を入力する。なお、座標値は数値を直接入力する他、画像表示領域501内の1点をマウスでクリックすることにより、その点に対応する画像上での座標値(i,j)を取得して座標設定欄504に入力してもよい。また、色温度は数値を直接入力する他、スライダ506を介して入力してもよいし、プリセット光源リスト507を介して選択された光源に対応する値を入力してもよい。以下、生成された代表点の総数をK、代表点に割り振られたIDをk(k=1,2,…,K)として説明する。 In step S303, the parameter setting unit 202 acquires the value instructed by the user on the UI displayed in S302, and sets the coordinates of the representative point and the adjustment parameter. In the example of FIG. 5, when the "add" button 502 is pressed, one representative point to which an ID is newly assigned is generated, and the ID is selected in the ID selection list 503. When the coordinate value is input to the coordinate setting field 504 by the user, the value is set as the coordinates of the representative point selected in the selection list 503. When the user inputs a color temperature value in the adjustment parameter setting field 505, the color temperature is set as an adjustment parameter (representative parameter) for the selected representative point. When changing the coordinates and adjustment parameters of an existing representative point, new values are input to the coordinate setting field 504 and the adjustment parameter setting field 505 with the ID of the representative point selected in the ID selection list 503. In addition to directly inputting a numerical value, by clicking a point in the image display area 501 with the mouse, the coordinate value (i, j) on the image corresponding to that point is acquired and the coordinate value is set. You may enter it in the field 504. In addition to directly inputting a numerical value, the color temperature may be input via the slider 506 or a value corresponding to the selected light source via the preset light source list 507. Hereinafter, the total number of generated representative points will be described as K, and the ID assigned to the representative points will be described as k (k = 1, 2, ..., K).

ステップS304では、パラメータ設定部202は、S303で設定した各代表点Sk(k=1,2,…,K)の座標(isk,jsk)に対応する法線ベクトルN(isk,jsk)を法線マップから取得し、これを代表法線ベクトルNskとする。ここで、N(isk,jsk)=(Nx(isk,jsk),Ny(isk,jsk),Nz(isk,jsk))である。なお、座標(isk,jsk)の近傍画素に対応する法線ベクトルの平均値や中央値を代表法線ベクトルNskとしてもよい。 In step S304, the parameter setting unit 202 uses the normal vector N (i sk , j) corresponding to the coordinates (i sk , j sk ) of each representative point Sk (k = 1, 2, ..., K) set in S303. sk ) is obtained from the normal map, and this is used as the representative normal vector N sk . Here, N (i sk , j sk ) = (Nx (i sk , j sk ), Ny (i sk , j sk ), Nz (i sk , j sk )). The average value or median value of the normal vector corresponding to the nearby pixels of the coordinates (i sk , j sk ) may be used as the representative normal vector N sk .

ステップS305では、パラメータ設定部202は、入力画像を構成する画素のうち、調整パラメータが設定されていないものを1つ選択し、注目画素P(ip,jp)とする。ステップS306では、パラメータ設定部202は、S305で選択した注目画素Pの座標(ip,jp)に対応する法線ベクトルNp=(Nx(ip,jp),Ny(ip,jp),Nz(ip,jp))を法線マップから取得する。ステップS307では、パラメータ設定部202は、S305で選択した注目画素に対して調整パラメータを設定する。 In step S305, the parameter setting unit 202 selects one of the pixels constituting the input image for which the adjustment parameter is not set, and sets it as the pixel of interest P (i p , j p ). In step S306, the parameter setting unit 202 uses the normal vector N p = (Nx (i p , j p ), Ny (i p ,) corresponding to the coordinates ( ip , jp ) of the pixel of interest P selected in S305. Get j p ), Nz (i p , j p )) from the normal map. In step S307, the parameter setting unit 202 sets the adjustment parameter for the pixel of interest selected in S305.

図6は、調整パラメータ設定処理(S307)の詳細フローチャートである。以下の説明では、k=2に関して説明するが、S602~605においてk=3~Kに関して同様の処理を行う。 FIG. 6 is a detailed flowchart of the adjustment parameter setting process (S307). In the following description, k = 2 will be described, but in S602 to 605, the same processing is performed for k = 3 to K.

ステップS601では、パラメータ設定部202は、代表点S1の色温度Ts1を注目画素Pの暫定色温度T’pとして記憶する。また、代表法線ベクトルNs1を注目画素Pの中間法線ベクトルN’pとして記憶する。 In step S601, the parameter setting unit 202 stores the color temperature T s1 of the representative point S1 as the provisional color temperature T'p of the pixel P of interest. Further, the representative normal vector N s1 is stored as the intermediate normal vector N'p of the pixel P of interest.

ステップS602では、パラメータ設定部202は、k番目の代表点と注目画素との法線ベクトルの類似度αを算出する。具体的には、注目画素に対応する法線ベクトルNp、代表法線ベクトルNskおよび中間法線ベクトルN’pを極座標表示に変換する。各法線ベクトルの直交座標(x,y,z)から極座標(r,θ,φ)への変換は、以下の数式(1)に従う。 In step S602, the parameter setting unit 202 calculates the similarity α of the normal vector between the k-th representative point and the pixel of interest. Specifically, the normal vector N p , the representative normal vector N sk , and the intermediate normal vector N'p corresponding to the pixel of interest are converted into polar coordinate display. The conversion of each normal vector from the Cartesian coordinates (x, y, z) to the polar coordinates (r, θ, φ) follows the following formula (1).

Figure 0007054347000001
Figure 0007054347000001

図7は、座標系を説明する図である。具体的には、直交座標系のパラメータであるx,y,zと、極座標系のパラメータであるr,θ,φとの関係を示している。この図の例では、入力画像データ中に写っている(すなわち、撮像装置の方向を向いている)被写体の法線ベクトルのz成分は負の値をとる。また、φはπから2πまでの範囲の値をとり、θは0からπまでの範囲の値をとる。なお、ここでは法線マップには単位法線ベクトルを格納しているため、数式(1)よりrの値は常に”1”となる。 FIG. 7 is a diagram illustrating a coordinate system. Specifically, the relationship between the parameters x, y, z of the Cartesian coordinate system and the parameters r, θ, φ of the polar coordinate system is shown. In the example of this figure, the z component of the normal vector of the subject shown in the input image data (that is, facing the direction of the image pickup device) takes a negative value. Further, φ takes a value in the range of π to 2π, and θ takes a value in the range of 0 to π. Since the unit normal vector is stored in the normal map here, the value of r is always "1" from the mathematical formula (1).

次に、極座標で表された代表法線ベクトルNsk、注目画素の法線ベクトルNp、中間法線ベクトルN’pを用いて類似度αを算出する。 Next, the similarity α is calculated using the representative normal vector N sk represented by polar coordinates, the normal vector N p of the pixel of interest, and the intermediate normal vector N'p .

図8は、法線ベクトルの類似度αを説明する図である。図8は、k=2の時の各法線ベクトルをθ-φ平面上にプロットした例であり、直線Lは点N’pと点Nskを通る直線、点Mは点Npから直線Lへ下ろした垂線の足である。ここでは、図8における点N’pから点Mまでの距離dを点N’pから点Nskまでの距離Dで正規化する。そして、その値を注目画素の法線ベクトルNpと代表法線ベクトルNskとの類似度αとして用いる。このとき、αは、以下の数式(2)で表される。 FIG. 8 is a diagram illustrating the similarity α of the normal vector. FIG. 8 is an example in which each normal vector when k = 2 is plotted on a θ−φ plane. The straight line L is a straight line passing through the points N'p and N sk , and the point M is a straight line from the point N p . It is a foot of a perpendicular line lowered to L. Here, the distance d from the point N'p to the point M in FIG. 8 is normalized by the distance D from the point N'p to the point N sk . Then, the value is used as the similarity α between the normal vector N p of the pixel of interest and the representative normal vector N sk . At this time, α is expressed by the following mathematical formula (2).

Figure 0007054347000002
Figure 0007054347000002

類似度αは、点Mが中間法線ベクトルN’pと一致する時にα=0となり、点Mが代表法線ベクトルNskと一致するときにα=1となる。 The similarity α is α = 0 when the point M coincides with the intermediate normal vector N'p , and α = 1 when the point M coincides with the representative normal vector N sk .

ステップS603では、パラメータ設定部202は、S602で算出した類似度αに基づき注目画素の色温度を補間演算により導出する。ここでは代表点の色温度Tsk、暫定色温度T’p、および類似度αを用いる。そして、以下の数式(3)に従い注目画素Pの座標(ip,jp)の色温度Tp(ip,jp)を導出する。 In step S603, the parameter setting unit 202 derives the color temperature of the pixel of interest by interpolation calculation based on the similarity α calculated in S602. Here, the representative color temperature T sk , the provisional color temperature T'p , and the similarity α are used. Then, the color temperature T p (i p , j p ) of the coordinates ( ip , jp) of the pixel of interest P is derived according to the following mathematical formula (3).

Figure 0007054347000003
Figure 0007054347000003

ここで、Tth0,Tth1はそれぞれ予め定めた色温度の下限値および上限値である。代表的な照明光である太陽光や照明器具の色温度は、夕日やろうそくの炎などの低いもので2000[K]程度、晴天の空などの高いもので12000[K]程度である。したがって、ここではTth0=2000,Tth1=12000とする。数式(3)において、補間が外挿となる(α<0または1<α)場合は、色温度T’p,Tskの値およびこれらの差分値ΔTに応じて補間方法が切り替わる。 Here, T th0 and T th1 are predetermined lower and upper limit values of the color temperature, respectively. The color temperature of sunlight and lighting fixtures, which are typical lighting lights, is about 2000 [K] for low ones such as sunsets and candle flames, and about 12000 [K] for high ones such as clear skies. Therefore, here, T th0 = 2000 and T th1 = 12000. In the formula (3), when the interpolation is extrapolated (α <0 or 1 <α), the interpolation method is switched according to the values of the color temperatures T'p and T sk and the difference value ΔT thereof.

図9は、調整パラメータに基づく補間の例を示す図である。図9(a)~(f)は、数式(3)を用いた際の補間の例を示している。図9(a)、(b)は、暫定色温度T’pおよび代表点の色温度Tskが共に[Tth0,Tth1]の間にある場合の例である。これらの場合、注目画素の色温度Tpは[Tth0,Tth1]の範囲内で補間される。図9(c)~(f)は、代表点の色温度Tskが[Tth0,Tth1]の間にない場合の例である。これらの場合、注目画素の色温度Tpは[Tth0,Tth1]の範囲の外側に向かわないように補間される。 FIG. 9 is a diagram showing an example of interpolation based on adjustment parameters. 9 (a) to 9 (f) show an example of interpolation when the mathematical formula (3) is used. 9 (a) and 9 (b) are examples in which the provisional color temperature T'p and the representative point color temperature T sk are both between [T th0 , T th1 ]. In these cases, the color temperature T p of the pixel of interest is interpolated within the range of [T th0 , T th1 ]. 9 (c) to 9 (f) are examples in which the color temperature T sk of the representative point is not between [T th0 , T th1 ]. In these cases, the color temperature T p of the pixel of interest is interpolated so as not to go outside the range of [T th0 , T th1 ].

ステップS604では、パラメータ設定部202は、S602で算出した類似度αに基づき、以下の数式(4)に従い図8における点Mに相当する法線ベクトルを求め、これを注目画素の新たな中間法線ベクトルN’pとして記憶する。 In step S604, the parameter setting unit 202 obtains a normal vector corresponding to the point M in FIG. 8 according to the following mathematical formula (4) based on the similarity α calculated in S602, and uses this as a new intermediate method for the pixel of interest. Store as a line vector N'p .

Figure 0007054347000004
Figure 0007054347000004

ステップS605では、パラメータ設定部202は、k<Kの場合、注目画素の色温度Tp(ip,jp)を新たな暫定色温度T’pとして記憶する。そして、kの値を1増加させてS602へ戻る。また、k=Kの場合、注目画素の色温度をTp(ip,jp)に決定する。 In step S605, when k <K, the parameter setting unit 202 stores the color temperature T p (i p , j p ) of the pixel of interest as a new provisional color temperature T'p . Then, the value of k is incremented by 1 and the process returns to S602. When k = K, the color temperature of the pixel of interest is determined to be T p (i p , j p ).

ステップS308では、パラメータ設定部202は、入力画像中の全画素について調整パラメータが設定されているか判定する。全画素について設定が完了していればS309へ進み、完了していなければS305へ戻る。 In step S308, the parameter setting unit 202 determines whether the adjustment parameters are set for all the pixels in the input image. If the setting for all pixels is completed, the process proceeds to S309, and if not, the process returns to S305.

ステップS309では、色処理部203は、S307で設定された各画素の調整パラメータを用いて入力画像データのホワイトバランスを調整し、出力画像データを生成する。具体的には、以下の数式(5)に従い入力画像データ中の各画素のRGB値Ir(i,j),Ig(i,j),Ib(i,j)に、色温度Tp(i,j)に対応するゲイン係数Gr(Tp(i,j)),Gg(Tp(i,j)),Gb(Tp(i,j))をそれぞれ乗算する。そして、得られる値を出力画像のRGB値I’r(i,j),I’g(i,j),I’b(i,j)とする。 In step S309, the color processing unit 203 adjusts the white balance of the input image data using the adjustment parameters of each pixel set in S307, and generates the output image data. Specifically, according to the following formula (5), the RGB values Ir (i, j), Ig (i, j), Ib (i, j) of each pixel in the input image data are set to the color temperature T p (i). Multiply the gain coefficients Gr (T p (i, j)), Gg (T p (i, j)), and Gb (T p (i, j)) corresponding to, j), respectively. Then, the obtained values are the RGB values I'r (i, j), I'g (i, j), and I'b (i, j) of the output image.

Figure 0007054347000005
Figure 0007054347000005

ゲイン係数Gr(Tp(i,j)),Gg(Tp(i,j)),Gb(Tp(i,j))は、予め記憶しておいた色温度とゲイン係数との対応関係を定めたテーブルを参照して決定する。なお、Tp(i,j)と一致する色温度がテーブル上に存在しない場合は、その近傍の色温度に対応するゲイン係数から補間により求めればよい。 The gain coefficients Gr (T p (i, j)), Gg (T p (i, j)), and Gb (T p (i, j)) correspond to the color temperature stored in advance and the gain coefficient. Determine by referring to the table that defines the relationship. If the color temperature that matches T p (i, j) does not exist on the table, it may be obtained by interpolation from the gain coefficient corresponding to the color temperature in the vicinity thereof.

ステップS310では、色処理部203は、S309で生成した出力画像データをディスプレイ110へ出力して表示する。 In step S310, the color processing unit 203 outputs the output image data generated in S309 to the display 110 and displays it.

以上説明したとおり第1実施形態によれば、画像内の被写体に対応する法線情報を用いて簡便かつ適切に撮像画像のホワイトバランスを調整することができる。 As described above, according to the first embodiment, the white balance of the captured image can be easily and appropriately adjusted by using the normal information corresponding to the subject in the image.

なお、上述のS303の説明においては、全ての代表点をユーザの指示に基づき設定する例を説明したが、一部の代表点を入力画像データや法線マップに基づき自動で設定してもよい。例えば、k=1番目の代表点S1の色温度Ts1として入力画像データI全体から公知のオートホワイトバランス手法を用いて求めた色温度を設定してもよい。また、代表法線ベクトルN1として法線マップNの法線ベクトルの平均値または中央値を設定してもよい。 In the above description of S303, an example of setting all the representative points based on the user's instruction has been described, but some representative points may be automatically set based on the input image data or the normal map. .. For example, the color temperature obtained from the entire input image data I by using a known auto white balance method may be set with k = the color temperature T s1 of the first representative point S1. Further, the average value or the median value of the normal vector of the normal map N may be set as the representative normal vector N1.

また、上述の説明においては、k=2~Kの代表点ごとに上述の数式(3)を繰り返し用いて注目画素の色温度を補間する例を説明したが、他の方法を用いて補間してもよい。法線ベクトルの向きが似ている代表点ほど対応する色温度が補間結果に大きく反映される任意の手法を用いて補間が可能である。例えば、色温度Tをθ-φ平面に垂直な軸に対応付け、この3次元空間においてK個の代表点を通る曲面を公知のスプライン補間等を用いて求めることにより、注目画素の法線ベクトルに対応する曲面上の点から注目画素の色温度を算出してもよい。 Further, in the above description, an example of interpolating the color temperature of the pixel of interest by repeatedly using the above formula (3) for each representative point of k = 2 to K has been described, but the interpolation is performed by using another method. You may. Interpolation is possible using an arbitrary method in which the corresponding color temperature is largely reflected in the interpolation result as the representative points have similar normal vector directions. For example, by associating the color temperature T with an axis perpendicular to the θ−φ plane and obtaining a curved surface passing through K representative points in this three-dimensional space by using known spline interpolation or the like, the normal vector of the pixel of interest The color temperature of the pixel of interest may be calculated from a point on the curved surface corresponding to.

(第2実施形態)
第2実施形態では、法線情報を用いて自動で代表点を設定する例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は第1実施形態(図1及び図2)と同様である。以下では各機能部の動作において第1実施形態と異なる点を中心に説明する。
(Second Embodiment)
In the second embodiment, an example of automatically setting a representative point using normal information will be described. The hardware configuration and the functional block configuration of the image processing device are the same as those of the first embodiment (FIGS. 1 and 2). Hereinafter, the points different from those of the first embodiment in the operation of each functional unit will be mainly described.

パラメータ設定部202は、予め定めておいた代表点配置に基づき代表法線ベクトルを決定する。また、代表法線ベクトルを用いて入力画像データを領域分割し、各領域の色情報に基づいて、代表法線ベクトルに対応するホワイトバランス調整パラメータを決定する。 The parameter setting unit 202 determines the representative normal vector based on the predetermined representative point arrangement. Further, the input image data is divided into areas using the representative normal vector, and the white balance adjustment parameter corresponding to the representative normal vector is determined based on the color information of each area.

図10は、第2実施形態における一連の処理のフローチャートである。ステップS301、S305~310は第1実施形態と同一であるため説明を省略する。 FIG. 10 is a flowchart of a series of processes in the second embodiment. Since steps S301 and S305 to 310 are the same as those in the first embodiment, the description thereof will be omitted.

ステップS1002では、パラメータ設定部202は、予め定めておいた代表点配置をHDD104等の記憶装置から取得する。そして、S301で取得した法線マップ中の対応する座標に格納されている法線ベクトルを取得して代表法線ベクトルNsk(k=1,2,…,K)とする。 In step S1002, the parameter setting unit 202 acquires a predetermined representative point arrangement from a storage device such as the HDD 104. Then, the normal vector stored in the corresponding coordinates in the normal map acquired in S301 is acquired and used as the representative normal vector N sk (k = 1, 2, ..., K).

図11は、代表点配置の例を示す図である。この図において、黒点が代表点の位置を表している。法線マップ上における座標を求める際には、代表点配置の横軸と縦軸をそれぞれ法線マップの横幅および縦幅に応じてスケーリングすればよい。なお、代表点配置は図11の例に限らず、撮影モードやピント合わせのための測距点の配置に応じて異なる配置としてもよい。 FIG. 11 is a diagram showing an example of representative point arrangement. In this figure, the black dots represent the positions of the representative points. When obtaining the coordinates on the normal map, the horizontal axis and the vertical axis of the representative point arrangement may be scaled according to the horizontal width and the vertical width of the normal map, respectively. The arrangement of representative points is not limited to the example shown in FIG. 11, and may be different depending on the shooting mode and the arrangement of AF points for focusing.

ステップS1003では、パラメータ設定部202は、S1002で決定した代表法線ベクトルを用いて、法線ベクトルの似た画素が同一領域に属するように、S301で取得した入力画像データを領域分割する。具体的には、入力画像データIの座標(i,j)に対応する法線ベクトルN(i,j)について各代表法線ベクトルNsk(k=1,2,…,K)との内積をそれぞれ算出する。そして、その値が最大となるときの代表法線ベクトルのID(k=kmin)を求めて、領域Rkminに座標(i,j)の画素を加える。 In step S1003, the parameter setting unit 202 uses the representative normal vector determined in S1002 to divide the input image data acquired in S301 into regions so that pixels having similar normal vectors belong to the same region. Specifically, the inner product of each representative normal vector N sk (k = 1, 2, ..., K) for the normal vector N (i, j) corresponding to the coordinates (i, j) of the input image data I. Are calculated respectively. Then, the ID (k = kmin) of the representative normal vector when the value becomes maximum is obtained, and the pixels of the coordinates (i, j) are added to the region R kmin .

ステップS1004では、パラメータ設定部202は、代表法線ベクトルNskに対応するホワイトバランス調整パラメータTskを、領域Rkに属する画素の色情報に基づいて決定する。色情報に基づくホワイトバランス調整パラメータの決定には、公知のオートホワイトバランス調整手法を利用可能である。例えば、領域Rkに属する画素の平均RGB値Irk,Igk,Ibkが無彩色となるようなゲイン係数(Grk,Ggk,Gbk)を以下の数式(6)に従い算出する。 In step S1004, the parameter setting unit 202 determines the white balance adjustment parameter T sk corresponding to the representative normal vector N sk based on the color information of the pixels belonging to the region R k . A known auto white balance adjustment method can be used to determine the white balance adjustment parameter based on the color information. For example, the gain coefficients (Gr k , Gg k , Gb k ) such that the average RGB values Ir k , Ig k , and Ib k of the pixels belonging to the region R k are achromatic are calculated according to the following mathematical formula (6).

Figure 0007054347000006
Figure 0007054347000006

次に、予め記憶しておいたゲイン係数と色温度との対応関係を定めたテーブルを参照してゲイン係数(Grk,Ggk,Gbk)に対応する色温度を求める。そして、これを代表法線ベクトルNskに対応するホワイトバランス調整パラメータTskとする。 Next, the color temperature corresponding to the gain coefficient (Gr k , Gg k , Gb k ) is obtained by referring to the table in which the correspondence relationship between the gain coefficient and the color temperature stored in advance is defined. Then, this is set as the white balance adjustment parameter T sk corresponding to the representative normal vector N sk .

以上説明したとおり第2実施形態によれば、第1実施形態に比較し更に簡便に撮像画像のホワイトバランスを調整することができる。 As described above, according to the second embodiment, the white balance of the captured image can be adjusted more easily as compared with the first embodiment.

なお、上述のS1002の説明においては、予め定めておいた代表点配置に基づき法線マップから代表法線を取得する例を説明したが、予め定めておいた複数の単位法線ベクトルを代表法線として取得してもよい。図12は、代表法線の例を示す図である。 In the above description of S1002, an example of acquiring a representative normal from a normal map based on a predetermined representative point arrangement has been described, but a plurality of predetermined unit normal vectors are represented. It may be acquired as a line. FIG. 12 is a diagram showing an example of a representative normal.

また、例えば、第1実施形態で説明したS302~S304の処理でユーザに指示された代表点の座標から代表法線ベクトルを取得し、第2実施形態で説明したS1003~S1004の処理で代表法線ベクトルに対応する色温度を決めるよう構成してもよい。 Further, for example, the representative normal vector is acquired from the coordinates of the representative point instructed by the user in the processes of S302 to S304 described in the first embodiment, and the representative method is obtained in the processes of S1003 to S1004 described in the second embodiment. It may be configured to determine the color temperature corresponding to the line vector.

更に、第1及び第2実施形態では、ホワイトバランス調整パラメータとして色温度を用いる例を説明したが、ゲイン係数をホワイトバランス調整パラメータとしてもよい。すなわち、S303やS1004において代表法線ベクトルに対するゲイン係数を設定し、S307において各画素に対するゲイン係数を補間するように構成してもよい。 Further, in the first and second embodiments, the example in which the color temperature is used as the white balance adjustment parameter has been described, but the gain coefficient may be used as the white balance adjustment parameter. That is, the gain coefficient for the representative normal vector may be set in S303 or S1004, and the gain coefficient for each pixel may be interpolated in S307.

また、第1及び第2実施形態では、入力画像データとこれに対応する法線情報とを用いてホワイトバランス調整パラメータを求める例を説明したが、さらに距離情報を併用してもよい。例えば、入力画像データを距離情報に基づき前景領域と背景領域に分離し、各領域に対して上述の処理を適用してもよい。その場合、前景と背景の照明環境が大きく異なり、かつ、前景と背景に類似した法線ベクトルをもつ被写体が存在しても、適切にホワイトバランスを調整することが可能となる。 Further, in the first and second embodiments, an example of obtaining the white balance adjustment parameter using the input image data and the corresponding normal information has been described, but the distance information may also be used in combination. For example, the input image data may be separated into a foreground region and a background region based on the distance information, and the above processing may be applied to each region. In that case, even if the lighting environment of the foreground and the background is significantly different and there is a subject having a normal vector similar to the foreground and the background, it is possible to appropriately adjust the white balance.

(第3実施形態)
第3実施形態では、入力画像データとこれに対応する法線情報に加えて、法線情報以外の特徴量を規定する特徴量情報を併用してホワイトバランス調整パラメータを決定する例について説明する。特に、特徴量情報として、距離情報を用いる例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は第1実施形態(図1及び図2)と同様である。なお、以下の説明では、特徴量情報として距離情報を用い、調整パラメータとしてゲイン係数を用いる。
(Third Embodiment)
In the third embodiment, an example in which the white balance adjustment parameter is determined by using the input image data and the corresponding normal information in combination with the feature amount information that defines the feature amount other than the normal information will be described. In particular, an example in which distance information is used as feature amount information will be described. The hardware configuration and the functional block configuration of the image processing device are the same as those of the first embodiment (FIGS. 1 and 2). In the following description, the distance information is used as the feature amount information, and the gain coefficient is used as the adjustment parameter.

画像データ取得部201は、入力画像データと被写体の法線情報に加えて、被写体の距離情報を取得する。ここでは、距離情報として距離マップを用いる。 The image data acquisition unit 201 acquires the distance information of the subject in addition to the input image data and the normal information of the subject. Here, a distance map is used as the distance information.

図13は、入力画像および法線情報、距離情報の例を示す図である。図13(a)、(b)、(c)は、入力画像データI、法線マップN、距離マップZの例を示している。図13(c)に示す距離マップZの座標(i,j)はそれぞれ入力画像データIの座標(i,j)と対応付けられている。距離マップの画素Z(i,j)には、入力画像データを撮像した撮像装置から入力画像データの画素I(i,j)に対応する被写体までの距離(光軸方向の被写体距離)が画素値として格納されている。 FIG. 13 is a diagram showing an example of an input image, normal information, and distance information. 13 (a), (b), and (c) show examples of input image data I, normal map N, and distance map Z. The coordinates (i, j) of the distance map Z shown in FIG. 13 (c) are associated with the coordinates (i, j) of the input image data I, respectively. Pixels Z (i, j) of the distance map have pixels (subject distance in the optical axis direction) from the image pickup device that captured the input image data to the subject corresponding to the pixel I (i, j) of the input image data. It is stored as a value.

パラメータ設定部202は、第1実施形態と同様に代表点に関する設定を行うためのUIをディスプレイ110に表示し、代表点の入力画像上における座標と、当該代表点に対する調整パラメータを設定する。そして、設定した代表点の座標および調整パラメータと法線マップ、距離マップを用いて、入力画像中の各画素に対する調整パラメータを算出する。その際、法線情報が略一致しかつ調整パラメータが異なる代表点が複数存在する場合に、距離情報に基づいて各代表点の調整パラメータに対する適用量(重み係数)を算出する。これらの処理の詳細は後述する。決定された調整パラメータは、色処理部203へ送られる。 The parameter setting unit 202 displays a UI for setting the representative point on the display 110 as in the first embodiment, and sets the coordinates on the input image of the representative point and the adjustment parameter for the representative point. Then, the adjustment parameters for each pixel in the input image are calculated by using the coordinates and adjustment parameters of the set representative points, the normal map, and the distance map. At that time, when there are a plurality of representative points whose normal information is substantially the same and whose adjustment parameters are different, the amount (weight coefficient) applied to the adjustment parameters of each representative point is calculated based on the distance information. Details of these processes will be described later. The determined adjustment parameter is sent to the color processing unit 203.

図14は、第3実施形態における一連の処理のフローチャートである。 FIG. 14 is a flowchart of a series of processes according to the third embodiment.

ステップS1401では、画像データ取得部201は、入力画像データとこれに対応する法線マップと距離マップを、HDD104または撮像装置から取得する。ステップS1402では、パラメータ設定部202は、S1401で取得した入力画像データと、代表点に関する設定を行うためのUIとをディスプレイ110へ出力して表示する。 In step S1401, the image data acquisition unit 201 acquires the input image data and the corresponding normal map and distance map from the HDD 104 or the image pickup device. In step S1402, the parameter setting unit 202 outputs and displays the input image data acquired in S1401 and the UI for setting the representative point on the display 110.

図15は、UIの例を示す図である。入力画像データは、図15の画像表示領域1501に表示される。ユーザは表示された入力画像データを参照しながら、UIを介して代表点の設定を行うことができる。 FIG. 15 is a diagram showing an example of UI. The input image data is displayed in the image display area 1501 of FIG. The user can set the representative point via the UI while referring to the displayed input image data.

ステップS1403では、パラメータ設定部202は、S1402で表示したUIを介してユーザに指示された値を取得し、代表点の座標および調整パラメータを設定する。図15の例では、画像表示領域1501上の1点を選択すると、新規にIDを割り当てられた代表点が1つ代表点リスト1502に追加され、選択された点に対応する画像上での座標(i,j)が当該代表点の座標として設定される。また、UI上の各代表点に対応する行のプリセット光源リスト1503から光源を選択すると、その光源に対応するゲイン係数が当該代表点の調整パラメータとして設定される。 In step S1403, the parameter setting unit 202 acquires the value instructed by the user via the UI displayed in S1402, and sets the coordinates of the representative point and the adjustment parameter. In the example of FIG. 15, when one point on the image display area 1501 is selected, one representative point newly assigned an ID is added to the representative point list 1502, and the coordinates on the image corresponding to the selected point are obtained. (I, j) is set as the coordinates of the representative point. Further, when a light source is selected from the preset light source list 1503 in the row corresponding to each representative point on the UI, the gain coefficient corresponding to the light source is set as the adjustment parameter of the representative point.

調整パラメータリストの各行に設けられたチェックボックス1504がチェックされた状態で「削除」ボタン1505が押下されると、チェックされた行が調整パラメータリストから削除され、対応する代表点に関する設定が破棄される。なお、光源として「色温度」が選択された場合には、その行の色温度設定欄1506に入力された色温度に対応するゲイン係数が調整パラメータとして設定される。また、「クリックホワイトバランス」が選択された場合には、その代表点に対応する入力画像データのRGB値を無彩色に変換するようなゲイン係数が調整パラメータとして設定される。 If the "Delete" button 1505 is pressed while the check box 1504 provided in each row of the adjustment parameter list is checked, the checked row is deleted from the adjustment parameter list and the setting related to the corresponding representative point is discarded. To. When "color temperature" is selected as the light source, the gain coefficient corresponding to the color temperature input in the color temperature setting field 1506 in that row is set as the adjustment parameter. When "click white balance" is selected, a gain coefficient that converts the RGB value of the input image data corresponding to the representative point into an achromatic color is set as an adjustment parameter.

ステップS1404では、パラメータ設定部202は、S1403で設定されたK個の代表点の中から2つの代表点Sk,Sk'(k,k’=1,2,…,K,k<k’)を選んで代表点のペアを作る。 In step S1404, the parameter setting unit 202 has two representative points Sk, Sk'(k, k'= 1, 2, ..., K, k <k') out of the K representative points set in S1403. To make a pair of representative points.

ステップS1405では、パラメータ設定部202は、S1404で選択したペアの代表点間において、法線情報が一致するか否かを判定する。具体的には、代表点Sk,Sk'の各座標に対応する単位法線ベクトルNsk,Nsk'を法線マップから取得する。そして、これらの内積が予め定めた閾値以上となる場合に法線ベクトルが一致すると判定する。法線ベクトルが一致すると判定された場合はS1406へ進み、一致しないと判定された場合はS1411へ進む。 In step S1405, the parameter setting unit 202 determines whether or not the normal information matches between the representative points of the pair selected in S1404. Specifically, the unit normal vectors N sk and N sk'corresponding to the coordinates of the representative points Sk and Sk'are obtained from the normal map. Then, when these inner products are equal to or more than a predetermined threshold value, it is determined that the normal vectors match. If it is determined that the normal vectors match, the process proceeds to S1406, and if it is determined that the normal vectors do not match, the process proceeds to S1411.

ステップS1406では、パラメータ設定部202は、S1405で法線ベクトルが一致すると判定されたペアの代表点間において、調整パラメータが異なるか否かを判定する。具体的には、代表点Skに対応するゲイン係数と、Sk'に対応するゲイン係数が、以下の数式(7)を満たす場合に調整パラメータが異なると判定する。ここで、代表点Skに対応するゲイン係数は、Grk,Ggk,Gbkである。Sk'に対応するゲイン係数は、Grk',Ggk',Gbk'である。 In step S1406, the parameter setting unit 202 determines whether or not the adjustment parameters are different between the representative points of the pair determined in S1405 that the normal vectors match. Specifically, when the gain coefficient corresponding to the representative point Sk and the gain coefficient corresponding to Sk'satisfy the following mathematical formula (7), it is determined that the adjustment parameters are different. Here, the gain coefficients corresponding to the representative points Sk are Gr k , Gg k , and Gb k . The gain coefficients corresponding to Sk'are Gr k' , Gg k' , and Gb k' .

Figure 0007054347000007
Figure 0007054347000007

ここで、ThGはゲイン係数の比に関して予め定めた閾値である。例えばThG=0とすると、G(グリーン)に対するR(レッド)およびB(ブルー)のゲイン係数の比が代表点SkとSk'の間で完全に一致する場合以外は、調整パラメータが異なると判定される。調整パラメータが異なると判定された場合はS1407へ進み、それ以外の場合はS1410へ進む。 Here, ThG is a predetermined threshold value with respect to the ratio of the gain coefficients. For example, when ThG = 0, it is determined that the adjustment parameters are different except when the ratio of the gain coefficients of R (red) and B (blue) to G (green) completely matches between the representative points Sk and Sk'. Will be done. If it is determined that the adjustment parameters are different, the process proceeds to S1407, and if not, the process proceeds to S1410.

ステップS1407では、パラメータ設定部202は、S1405、S1406で法線情報が一致しかつ調整パラメータが異なると判定されたペアの代表点間において、距離情報が異なるか否かを判定する。具体的には、代表点Sk,Sk'の各座標に対応する被写体距離Zsk,Zsk'を距離マップから取得する。そして、これらの差分の絶対値が予め定めた閾値以上となる場合に被写体距離が異なると判定する。被写体距離が異なると判定された場合はS1408へ進み、それ以外の場合はS1409へ進む。 In step S1407, the parameter setting unit 202 determines whether or not the distance information is different between the representative points of the pair for which the normal information is the same and the adjustment parameters are determined to be different in S1405 and S1406. Specifically, the subject distances Z sk and Z sk'corresponding to the coordinates of the representative points Sk and Sk'are acquired from the distance map. Then, when the absolute value of these differences is equal to or greater than a predetermined threshold value, it is determined that the subject distance is different. If it is determined that the subject distances are different, the process proceeds to S1408, and in other cases, the process proceeds to S1409.

ステップS1408では、パラメータ設定部202は、S1405~S1407で法線情報が一致しかつ調整パラメータおよび被写体距離が異なると判定されたペアの代表点Sk,Sk'を、距離重み算出対象に分類する。 In step S1408, the parameter setting unit 202 classifies the representative points Sk and Sk'of the pair for which the normal information is the same and the adjustment parameters and the subject distance are different in S1405 to S1407 as the distance weight calculation target.

ステップS1409では、パラメータ設定部202は、S1405~S1407で法線情報および距離情報が一致し、かつ、調整パラメータが異なると判定されたペアの代表点のうち、片方を無効に設定する。ここでは、先にユーザに指示された調整パラメータよりも後から指示された調整パラメータを優先し、IDの若い代表点Skを無効とする。なお、S1403において各代表点を設定した際のタイムスタンプを座標や調整パラメータとともに記憶しておき、タイムスタンプの古い方を無効としてもよい。 In step S1409, the parameter setting unit 202 invalidates one of the representative points of the pair determined in S1405 to S1407 that the normal information and the distance information match and the adjustment parameters are different. Here, the adjustment parameter instructed later is prioritized over the adjustment parameter instructed to the user earlier, and the representative point Sk with a young ID is invalidated. The time stamp when each representative point is set in S1403 may be stored together with the coordinates and adjustment parameters, and the older one of the time stamps may be invalidated.

ステップS1410では、パラメータ設定部202は、S1405、S1406で法線情報および調整パラメータが一致すると判定されたペアの代表点を統合する。具体的には、ペアの代表点Sk,Sk'に対応する単位法線ベクトルおよびゲイン係数から、単位法線ベクトルの平均値とゲイン係数の平均値をそれぞれ求める。そして、これらを後に設定された代表点Sk'に対する新たな法線情報および調整パラメータとして記憶する。そして、先に設定された代表点Skに関する設定を破棄する。あるいは、S1409と同様に、片方の代表点を無効に設定してもよい。 In step S1410, the parameter setting unit 202 integrates the representative points of the pair determined in S1405 and S1406 that the normal information and the adjustment parameter match. Specifically, the average value of the unit normal vector and the average value of the gain coefficient are obtained from the unit normal vector and the gain coefficient corresponding to the representative points Sk and Sk'of the pair, respectively. Then, these are stored as new normal information and adjustment parameters for the representative point Sk'set later. Then, the setting related to the representative point Sk previously set is discarded. Alternatively, as in S1409, one representative point may be invalidated.

ステップS1411では、パラメータ設定部202は、設定されている代表点から成る全てのペアについてS1405の比較を完了したか否かを判定する。全ペアについて比較を完了していればS1412へ進み、完了していなければS1404へ戻る。 In step S1411, the parameter setting unit 202 determines whether or not the comparison of S1405 has been completed for all the pairs consisting of the set representative points. If the comparison is completed for all pairs, the process proceeds to S1412, and if not, the process returns to S1404.

ステップS1412では、パラメータ設定部202は、入力画像を構成する座標(i,j)の画素に対する調整パラメータを算出する。まず、設定されている全ての代表点Skに関して、以下の数式(8)に従い座標(i,j)との法線ベクトルの類似度に基づく重み係数Wnk(i,j)を算出する。 In step S1412, the parameter setting unit 202 calculates adjustment parameters for the pixels of the coordinates (i, j) constituting the input image. First, for all the set representative points Sk, the weighting coefficient W nk (i, j) based on the similarity of the normal vector with the coordinates (i, j) is calculated according to the following mathematical formula (8).

Figure 0007054347000008
Figure 0007054347000008

ここで、Cvalidは有効な(すなわち、無効と設定されていない)代表点を示すIDの集合である。また、Nij,Nskは、それぞれ、法線マップから取得した座標(i,j)および代表点Skに対応する単位法線ベクトルである。 Here, C valid is a set of IDs indicating valid (that is, not set as invalid) representative points. Further, N ij and N sk are unit normal vectors corresponding to the coordinates (i, j) acquired from the normal map and the representative point Sk, respectively.

数式(8)のβk(i,j)は、座標(i,j)の法線ベクトルと代表点Skの法線ベクトルの類似度に相当し、座標(i,j)と代表点Skの法線ベクトルが似ているほど大きな値となる。数式(8)の重み係数Wnk(i,j)は、有効な代表点に関しては、無効な代表点を除く全代表点での総和を用いて法線ベクトルの類似度を正規化した値となる。そして、βk(i,j)が大きいほど大きな値となる(0≦Wnk(i,j)≦1)。また、無効な代表点に関しては、重み係数Wnk(i,j)は常に”0”となる。 Β k (i, j) in the equation (8) corresponds to the similarity between the normal vector of the coordinates (i, j) and the normal vector of the representative point Sk, and the coordinates (i, j) and the representative point Sk. The more similar the normal vectors, the larger the value. The weighting factor W nk (i, j) in equation (8) is the value obtained by normalizing the similarity of the normal vector using the sum of all the representative points except the invalid representative points for the valid representative points. Become. The larger β k (i, j) is, the larger the value is (0 ≦ W nk (i, j) ≦ 1). Further, for an invalid representative point, the weighting coefficient W nk (i, j) is always "0".

次に、同じく全ての代表点Skに関して、以下の数式(9)に従い座標(i,j)との距離の類似度に基づく重み係数Wzk(i,j)を算出する。 Next, for all the representative points Sk, the weighting coefficient W zk (i, j) based on the similarity of the distance with the coordinates (i, j) is calculated according to the following mathematical formula (9).

Figure 0007054347000009
Figure 0007054347000009

ここで、C(Sk)は距離重み算出対象に分類された代表点のうち、代表点Skと法線ベクトルが一致するものを示すIDの集合である。また、Zij,Zskは、それぞれ、距離マップZから取得した座標(i,j)および代表点Skに対応する被写体距離であり、ΔzmaxはΔzl(i,j)(l∈C(Sk))の最大値である。数式(9)のγk(i,j)は、座標(i,j)の被写体距離と代表点Skの被写体距離の類似度に相当し、座標(i,j)と代表点Skの被写体距離が似ているほど大きな値となる。 Here, C (Sk) is a set of IDs indicating the representative points classified as the distance weight calculation target whose normal vector coincides with the representative point Sk. Further, Z ij and Z sk are subject distances corresponding to the coordinates (i, j) acquired from the distance map Z and the representative point Sk, respectively, and Δz max is Δz l (i, j) (l ∈ C (l ∈ C). Sk))) is the maximum value. The γ k (i, j) in the formula (9) corresponds to the similarity between the subject distance of the coordinates (i, j) and the subject distance of the representative point Sk, and the subject distance between the coordinates (i, j) and the representative point Sk. The more similar, the larger the value.

数式(9)の重み係数Wzk(i,j)は、距離重み算出対象の代表点に関しては、法線ベクトルが一致する全代表点での総和を用いて被写体距離の類似度を正規化した値となる。そのため、γk(i,j)が大きいほど大きな値となる(0≦Wzk(i,j)≦1)。また、距離重み算出対象に分類されなかった代表点に関しては、重み係数Wzk(i,j)は常に”1”となる。 In the weighting coefficient W zk (i, j) of the formula (9), the similarity of the subject distances is normalized by using the sum of all the representative points where the normal vectors match for the representative points of the distance weight calculation target. It becomes a value. Therefore, the larger the γ k (i, j), the larger the value (0 ≦ W zk (i, j) ≦ 1). Further, the weight coefficient W zk (i, j) is always "1" for the representative points that are not classified as the distance weight calculation target.

最後に、各代表点のゲイン係数Grk,Ggk,Gbkと重み係数Wnk(i,j),Wzk(i,j)を用いて、以下の数式(10)に従い座標(i,j)のゲイン係数Gr(i,j),Gg(i,j),Gb(i,j)を算出する。 Finally, using the gain coefficients Gr k , Gg k , Gb k and the weighting coefficients W nk (i, j), W zk (i, j) of each representative point, the coordinates (i, The gain coefficients Gr (i, j), Gg (i, j), and Gb (i, j) of j) are calculated.

Figure 0007054347000010
Figure 0007054347000010

ここで、重み係数の積Wnk(i,j)*Wzk(i,j)は、代表点Skの調整パラメータの座標(i,j)の画素への適用量に相当する。数式(10)で得られるゲイン係数には、座標(i,j)の法線ベクトルと向きが似ている法線ベクトルを持つ代表点ほど、その代表点のゲイン係数が大きく反映される。さらに、法線情報が略一致する複数の代表点に対して異なるゲイン係数が設定されている場合には、同じ法線ベクトルをもつ代表点の中で座標(i,j)の被写体距離と似ている被写体距離を持つ代表点ほど、そのゲイン係数が大きく反映される。なお、無効な代表点に関しては数式(8)においてWnk(i,j)=0としているため、当該代表点の調整パラメータについては適用量が”0”となる。 Here, the product W nk (i, j) * W zk (i, j) of the weighting coefficients corresponds to the amount of the adjustment parameter coordinates (i, j) of the representative point Sk applied to the pixels. The gain coefficient obtained by the equation (10) reflects the gain coefficient of the representative point as the representative point has a normal vector having a direction similar to that of the normal vector of the coordinates (i, j). Further, when different gain coefficients are set for a plurality of representative points having substantially the same normal information, it is similar to the subject distance of the coordinates (i, j) among the representative points having the same normal vector. The more the representative point has the subject distance, the larger the gain coefficient is reflected. Since W nk (i, j) = 0 in the equation (8) for the invalid representative point, the applied amount is "0" for the adjustment parameter of the representative point.

ステップS1413では、色処理部203は、S1412で算出された各画素の調整パラメータを用いて、以下の数式(11)に従い出力画像データのRGB値を生成する。具体的には、入力画像データ中の各画素のRGB値Ir(i,j),Ig(i,j),Ib(i,j)を変換し、出力画像データのRGB値I’r(i,j),I’g(i,j),I’b(i,j)を生成する。 In step S1413, the color processing unit 203 generates RGB values of the output image data according to the following mathematical formula (11) using the adjustment parameters of each pixel calculated in S1412. Specifically, the RGB values Ir (i, j), Ig (i, j), and Ib (i, j) of each pixel in the input image data are converted, and the RGB values I'r (i) of the output image data are converted. , j), I'g (i, j), I'b (i, j) are generated.

Figure 0007054347000011
Figure 0007054347000011

ステップS1414では、色処理部203は、S1413で生成した出力画像データをディスプレイ110へ出力して表示する。 In step S1414, the color processing unit 203 outputs the output image data generated in S1413 to the display 110 and displays it.

以上説明したとおり第3実施形態によれば、類似した法線ベクトルを持つ被写体表面が、照明環境が異なる領域に跨って存在する場合においても、適切に撮像画像のホワイトバランスを調整することが可能となる。 As described above, according to the third embodiment, it is possible to appropriately adjust the white balance of the captured image even when the subject surface having a similar normal vector exists over different regions in the lighting environment. It becomes.

なお、上述の説明においては、法線情報以外の特徴量として被写体距離を用いる例を説明したが、他の特徴量を用いてもよい。例えば、被写体の3次元位置座標や、2次元画像平面上における座標、入力画像データの色情報(明度、彩度、色度、色相など)、入力画像データに対して公知のオブジェクト認識処理を適用して得られる被写体の認識結果などを利用可能である。さらに、これらの特徴量を複数併用してもよい。いずれの場合も、S1407においてペアの代表点間で法線情報以外の特徴量が異なるか否かを判定し、異なると判定されたペアをS1408において特徴量に基づく重みの算出対象に分類すればよい。S1412において特徴量に基づく重みを算出する際には、注目画素と特徴量が類似している代表点ほど大きな重みとなるように、各々の特徴量の類似度に基づき重み係数を算出すればよい。 In the above description, an example in which the subject distance is used as a feature amount other than the normal information has been described, but other feature amounts may be used. For example, a known object recognition process is applied to the 3D position coordinates of the subject, the coordinates on the 2D image plane, the color information (brightness, saturation, chromaticity, hue, etc.) of the input image data, and the input image data. It is possible to use the recognition result of the subject obtained by the above. Further, a plurality of these feature quantities may be used in combination. In either case, if it is determined in S1407 whether or not the feature amount other than the normal information is different between the representative points of the pair, and the pair determined to be different is classified into the weight calculation target based on the feature amount in S1408. good. When calculating the weight based on the feature amount in S1412, the weighting coefficient may be calculated based on the degree of similarity of each feature amount so that the representative point whose feature amount is similar to the pixel of interest has a larger weight. ..

また、上述のS1404で選択したペアの代表点間で座標が一致する場合には、ユーザが当該座標に対する調整の指示をやり直したと見なし、先に設定された代表点を無効としてもよい。その場合、S1405~S1407の処理を省いてS1409へ進めばよい。 Further, when the coordinates match between the representative points of the pair selected in S1404 described above, it may be considered that the user has redone the adjustment instruction for the coordinates, and the previously set representative points may be invalidated. In that case, the processing of S1405 to S1407 may be omitted and the process may proceed to S1409.

(第4実施形態)
第4実施形態では、法線情報の分布に基づいて代表法線ベクトルを決定する例について説明する。また、入力画像データ中の各画素に対するホワイトバランス調整パラメータを、画素が属する領域に応じて決定する例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。以下では各機能部の動作において前述の実施形態と異なる点を中心に説明する。
(Fourth Embodiment)
In the fourth embodiment, an example of determining a representative normal vector based on the distribution of normal information will be described. Further, an example of determining the white balance adjustment parameter for each pixel in the input image data according to the region to which the pixel belongs will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2). Hereinafter, the points different from the above-described embodiments in the operation of each functional unit will be mainly described.

図16は、第4実施形態における一連の処理のフローチャートである。S301、S1003、S309~310は前述の実施形態と同一であるため説明を省略する。 FIG. 16 is a flowchart of a series of processes according to the fourth embodiment. Since S301, S1003, and S309 to 310 are the same as those in the above-described embodiment, the description thereof will be omitted.

ステップS1602では、パラメータ設定部202は、S301で取得した法線マップに含まれる法線ベクトルの分布を解析し、代表法線ベクトルNsk(k=1,2,...,K)を算出する。具体的には、法線マップ中の法線ベクトルを公知のクラスタリング手法を用いてK個のクラスタに分類し、各クラスタの中心に相当するベクトルを代表法線ベクトルとする。このとき、クラスタの個数Kは予め定めておいた個数でもよいし、法線マップに含まれる法線ベクトルの分散が大きいほど多くの個数としてもよい。 In step S1602, the parameter setting unit 202 analyzes the distribution of the normal vector included in the normal map acquired in S301, and calculates the representative normal vector N sk (k = 1, 2, ..., K). do. Specifically, the normal vector in the normal map is classified into K clusters by using a known clustering method, and the vector corresponding to the center of each cluster is used as the representative normal vector. At this time, the number K of the clusters may be a predetermined number, or may be a larger number as the variance of the normal vector included in the normal map is larger.

ステップS1604では、パラメータ設定部202は、S1003で分割した領域ごとに、ホワイトバランス調整パラメータとしての色温度を決定する。各領域は類似した法線ベクトルを持つ画素の集合であるので、入力画像データ中の各画素について、属する領域Rkに対応する色温度Tskを当該画素に対する色温度として決定する。領域に対する色温度の決定には、S1004と同様に、公知のオートホワイトバランス調整手法を利用可能である。 In step S1604, the parameter setting unit 202 determines the color temperature as the white balance adjustment parameter for each region divided by S1003. Since each region is a set of pixels having similar normal vectors, the color temperature T sk corresponding to the region R k to which the region belongs is determined as the color temperature for the pixel for each pixel in the input image data. Similar to S1004, a known auto white balance adjustment method can be used to determine the color temperature for the region.

以上説明したとおり第4実施形態によれば、被写体の法線ベクトルの分布に応じて、被写体の面の向きを過不足なく代表する代表法線ベクトルを設定することができる。また、簡易な処理で各画素に対するホワイトバランス調整パラメータを決定することができる。 As described above, according to the fourth embodiment, it is possible to set a representative normal vector that represents the orientation of the surface of the subject without excess or deficiency according to the distribution of the normal vector of the subject. Further, the white balance adjustment parameter for each pixel can be determined by a simple process.

(第5実施形態)
第5実施形態では、法線情報として主要被写体の立体形状を表す3Dモデルデータを用いる例について説明する。また、初めに画像全体のホワイトバランスを調整した後に、ユーザからの入力に応じて部分的に再調整を行う例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(Fifth Embodiment)
In the fifth embodiment, an example in which 3D model data representing the three-dimensional shape of the main subject is used as normal information will be described. Further, an example in which the white balance of the entire image is first adjusted and then the white balance is partially readjusted according to the input from the user will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).

画像データ取得部201は、入力画像データと主要被写体の3Dモデルデータを取得する。ここでは、人物の顔が写っている入力画像データに対し、標準的な顔の概略形状を呈するポリゴンモデルデータ(以後、標準顔モデルデータと呼ぶ)を3Dモデルデータとして用いる。図17は、標準顔モデルの例を示す図である。取得された入力画像データと標準顔モデルデータはパラメータ設定部202へ送られる。 The image data acquisition unit 201 acquires the input image data and the 3D model data of the main subject. Here, polygon model data (hereinafter referred to as standard face model data) showing a standard rough shape of a face is used as 3D model data with respect to input image data showing a person's face. FIG. 17 is a diagram showing an example of a standard face model. The acquired input image data and standard face model data are sent to the parameter setting unit 202.

パラメータ設定部202は、初期調整に用いる調整パラメータを入力画像データに基づき決定する。また、代表点に関する設定を行うためのUIをディスプレイ110に表示し、このUI上においてユーザに指示された値と標準顔モデルデータとに基づいて、再調整に用いる調整パラメータを決定する。処理の詳細は後述する。決定された調整パラメータは、色処理部203へ送られる。 The parameter setting unit 202 determines the adjustment parameter used for the initial adjustment based on the input image data. Further, a UI for setting the representative points is displayed on the display 110, and the adjustment parameters used for readjustment are determined based on the values instructed by the user on the UI and the standard face model data. The details of the process will be described later. The determined adjustment parameter is sent to the color processing unit 203.

色処理部203は、設定された調整パラメータを用いて各種画像データのホワイトバランスを調整する。調整後の画像データは、ディスプレイ111へ送られて表示される。 The color processing unit 203 adjusts the white balance of various image data using the set adjustment parameters. The adjusted image data is sent to the display 111 and displayed.

図18は、第5実施形態における一連の処理のフローチャートである。 FIG. 18 is a flowchart of a series of processes according to the fifth embodiment.

ステップS1801では、画像データ取得部201は、入力画像データをHDD104または撮像装置から取得する。また、標準顔モデルデータをHDD104から取得する。図19(a)は、入力画像データの例を示す図である。この図の例では、画像のホワイトバランスが全体的に合っておらず、さらに、人物の一部に他の部分と異なる色温度の光が強く当たっている。 In step S1801, the image data acquisition unit 201 acquires the input image data from the HDD 104 or the image pickup apparatus. Also, the standard face model data is acquired from the HDD 104. FIG. 19A is a diagram showing an example of input image data. In the example of this figure, the white balance of the image is not matched as a whole, and moreover, a part of the person is strongly exposed to light having a color temperature different from that of the other parts.

ステップS1802では、パラメータ設定部202は、初期調整に用いる調整パラメータとしてゲイン係数(Gra,Gga,Gba)を1組決定する。例えば、入力画像データ全体に対して公知のオートホワイトバランス技術を用いることが出来る。 In step S1802, the parameter setting unit 202 determines one set of gain coefficients (Gra a , G g a, G ba a ) as adjustment parameters used for the initial adjustment. For example, a known auto white balance technique can be used for the entire input image data.

ステップS1803では、色処理部203は、S1802で設定された初期調整パラメータを用いて、入力画像データ全体のホワイトバランスを調整する。具体的には、入力画像データ中の全画素のRGB値にゲイン係数(Gra,Gga,Gba)をそれぞれ乗算する。図19(b)は、図19(a)の入力画像に初期調整を施して得られる画像の例を示す図である。すなわち、図19(b)は、被写体の大部分を照らす光の色温度Laに合わせて調整パラメータを決定し、その調整パラメータを用いて全画素のホワイトバランスを一律に調整した結果の例である。この例では、Laとは異なる色温度Lpの光が強く当たっている部分では、調整パラメータを決定する際に想定した色温度と実際に当たっている光の色温度とが合わないため、色被りが生じている。 In step S1803, the color processing unit 203 adjusts the white balance of the entire input image data by using the initial adjustment parameter set in S1802. Specifically, the RGB values of all the pixels in the input image data are multiplied by the gain coefficients (Gra a , G g a, G b a ), respectively. FIG. 19B is a diagram showing an example of an image obtained by performing initial adjustment on the input image of FIG. 19A. That is, FIG. 19B is an example of the result of determining the adjustment parameter according to the color temperature La of the light illuminating most of the subject and uniformly adjusting the white balance of all the pixels using the adjustment parameter. be. In this example, in the part where light with a color temperature L p different from La is strongly exposed, the color temperature assumed when determining the adjustment parameter does not match the color temperature of the light actually exposed, so that the color is fogged. Has occurred.

ステップS1804では、色処理部203は、S1803で行った初期調整後の画像データをディスプレイ110へ出力して表示する。 In step S1804, the color processing unit 203 outputs the image data after the initial adjustment performed in S1803 to the display 110 and displays it.

ステップS1805では、パラメータ設定部202は、代表点に関する設定を行うためのUIをディスプレイ110へ出力して表示する。そして、UIを介して代表点の設定に関する入力が行われた場合はステップS1806へ進み、入力が無ければ一連の処理を終了する。図20は、本実施形態における代表点に関する設定を行うためのUIの例を示す図である。画像表示領域2001は、ホワイトバランス調整後の画像データが表示される領域である。ユーザは表示された画像データを参照しながら、さらに調整を加えたい場合にはUIを介して代表点の設定を行うことができる。 In step S1805, the parameter setting unit 202 outputs the UI for setting the representative point to the display 110 and displays it. Then, when the input regarding the setting of the representative point is performed via the UI, the process proceeds to step S1806, and if there is no input, the series of processes is terminated. FIG. 20 is a diagram showing an example of a UI for setting a representative point in the present embodiment. The image display area 2001 is an area in which image data after white balance adjustment is displayed. The user can set a representative point via the UI if he / she wants to make further adjustments while referring to the displayed image data.

ステップS1806では、パラメータ設定部202は、S1805で表示したUI上においてユーザに指示された値を取得し、代表点Sの座標および調整パラメータを設定する。図20の例では、画像表示領域2001内の1点をマウスでクリックすることにより、その点に対応する画像上での座標値(i,j)が代表点Sの座標として設定される。また、ユーザによりスライダ2002が操作されると、スライダの位置に対応するゲイン係数(Grp,Ggp,Gbp)が代表点に対する調整パラメータとして設定される。スライダの位置とゲイン係数との関係は、例えば、スライダが左端にある場合に2000[K]、右端にある場合に12000[K]に相当するゲイン係数とし、中間の位置にある場合は両端からの距離の比に基づく補間により対応するゲイン係数を決定する。 In step S1806, the parameter setting unit 202 acquires the value instructed by the user on the UI displayed in S1805, and sets the coordinates of the representative point S and the adjustment parameter. In the example of FIG. 20, by clicking a point in the image display area 2001 with the mouse, the coordinate values (i, j) on the image corresponding to that point are set as the coordinates of the representative point S. When the slider 2002 is operated by the user, the gain coefficients (Gr p , Gg p , Gb p ) corresponding to the position of the slider are set as adjustment parameters for the representative points. The relationship between the slider position and the gain coefficient is, for example, a gain coefficient corresponding to 2000 [K] when the slider is at the left end and 12000 [K] when the slider is at the right end. The corresponding gain factor is determined by interpolation based on the ratio of distances.

ステップS1807では、パラメータ設定部202は、S1806で設定した代表点Sの座標に基づいて、再調整領域を決定(領域決定)する。図21は、再調整領域設定処理(S1807)の詳細フローチャートである。 In step S1807, the parameter setting unit 202 determines the readjustment region (region determination) based on the coordinates of the representative point S set in S1806. FIG. 21 is a detailed flowchart of the readjustment area setting process (S1807).

ステップS2101では、パラメータ設定部202は、入力画像上において被写体の顔が写っている領域(顔領域)を公知の顔領域抽出技術を用いて抽出し、その領域内にS1806で設定した代表点Sが含まれるか否かを判定する。代表点Sが顔領域内に含まれる場合はS2102へ進み、含まれない場合はS2106へ進む。 In step S2101, the parameter setting unit 202 extracts a region (face region) in which the face of the subject appears on the input image by using a known face region extraction technique, and the representative point S set in S1806 in that region. Is included or not. If the representative point S is included in the face area, the process proceeds to S2102, and if the representative point S is not included, the process proceeds to S2106.

ステップS2102では、パラメータ設定部202は、S2101で抽出した顔領域に含まれる画素に関して、入力画像平面上での位置と、標準顔モデルを構成するポリゴン上での位置とを対応付ける変換を、顔器官の位置や顔領域の大きさ等に基づいて求める。対応付けには、公知の3D-2D位置合わせ技術を利用可能である。 In step S2102, the parameter setting unit 202 performs a transformation of associating the position on the input image plane with the position on the polygon constituting the standard face model with respect to the pixels included in the face region extracted in S2101. It is calculated based on the position of the face and the size of the face area. A known 3D-2D alignment technique can be used for the mapping.

ステップS2103では、パラメータ設定部202は、S2102で求めた変換を用いて、S1806で設定した代表点Sの座標に対応する標準顔モデル上での位置Sを求める。 In step S2103, the parameter setting unit 202 obtains the position Sm on the standard face model corresponding to the coordinates of the representative point S set in S1806 by using the conversion obtained in S2102.

ステップS2104では、パラメータ設定部202は、標準顔モデルを構成するポリゴンの中から、S2103で求めた位置Sのポリゴンと面の傾きが似ているものを抽出する。ここでは、2つのポリゴン間における傾きの類似度として各ポリゴンの単位法線ベクトル同士の内積を用い、位置Sのポリゴンとの類似度が予め定めた閾値よりも大きいポリゴンを抽出する。 In step S2104, the parameter setting unit 202 extracts from the polygons constituting the standard face model those having a surface inclination similar to that of the polygon at the position Sm obtained in S2103 . Here, the inner product of the unit normal vectors of each polygon is used as the similarity of the inclination between the two polygons, and the polygon whose similarity with the polygon at the position Sm is larger than the predetermined threshold value is extracted.

ステップS2105では、パラメータ設定部202は、S2104で抽出したポリゴンが入力画像平面上において占める領域を求め、これを再調整領域とする。具体的には、S2102で求めた変換の逆変換を用いてポリゴンの頂点に対応する画素位置を求め、これらを結んでできる図形内を再調整領域Rとする。 In step S2105, the parameter setting unit 202 obtains an area occupied by the polygon extracted in S2104 on the input image plane, and uses this as the readjustment area. Specifically, the pixel position corresponding to the apex of the polygon is obtained by using the inverse transformation of the transformation obtained in S2102, and the inside of the figure formed by connecting these is defined as the readjustment region Rp .

ステップS2106では、パラメータ設定部202は、入力画像全体からS2101で抽出した顔領域を除いた領域を、再調整領域Rとする。 In step S2106, the parameter setting unit 202 sets the region excluding the face region extracted in S2101 from the entire input image as the readjustment region Rp .

ステップS1808では、色処理部203は、S1806で設定された代表点Sの調整パラメータを用いて、再調整領域Rのホワイトバランスを調整する。具体的には、入力画像データ中の再調整領域Rに含まれる画素のRGB値にゲイン係数(Grp,Ggp,Gbp)をそれぞれ乗算する。なお、S2104において傾きの似たポリゴンを抽出する際に算出した類似度を記憶しておき、その類似度が小さい場合には乗算するゲイン係数を1に近づける(すなわち、再調整による画素値の変化量が小さくなる)ように調節してもよい。図19(c)は、図19(b)に示す初期調整後の画像に対して×印の位置に代表点Sを設定し、再調整を施して得られる画像の例を示す図である。この例では、代表点Sは図19(b)において色被りが生じている部分に設定されている。また、この代表点Sの位置に基づき、図19(c)中の点線で囲まれた領域が再調整領域Rとして設定される。再調整領域R内のホワイトバランスを代表点Sの調整パラメータを用いて調整することにより、初期調整後に生じていた色被りが軽減される。 In step S1808, the color processing unit 203 adjusts the white balance of the readjustment region Rp by using the adjustment parameter of the representative point S set in S1806. Specifically, the RGB values of the pixels included in the readjustment region R p in the input image data are multiplied by the gain coefficients (Gr p , Gg p , Gb p ), respectively. It should be noted that the similarity calculated when extracting polygons having similar slopes in S2104 is stored, and when the similarity is small, the gain coefficient to be multiplied is brought close to 1 (that is, the change in the pixel value due to readjustment). It may be adjusted so that the amount becomes smaller). FIG. 19 (c) is a diagram showing an example of an image obtained by setting a representative point S at a position marked with a cross with respect to the image after initial adjustment shown in FIG. 19 (b) and performing readjustment. In this example, the representative point S is set at the portion where the color cast occurs in FIG. 19B. Further, based on the position of the representative point S, the area surrounded by the dotted line in FIG. 19C is set as the readjustment area Rp . By adjusting the white balance in the readjustment region R p using the adjustment parameter of the representative point S, the color cast that has occurred after the initial adjustment is reduced.

ステップS1809では、色処理部203は、S1808で行った再調整後の画像データをディスプレイ110へ出力して表示し、S1805へ戻る。 In step S1809, the color processing unit 203 outputs and displays the image data after the readjustment performed in S1808 to the display 110, and returns to S1805.

なお、S2101で抽出する顔領域やS2102で求める変換は、再調整領域設定処理(S1807)を繰り返すたびに求める必要はなく、2度目以降は流用可能である。 The face region extracted in S2101 and the conversion obtained in S2102 do not need to be obtained every time the readjustment region setting process (S1807) is repeated, and can be diverted from the second time onward.

以上説明したとおり第5実施形態によれば、主要被写体に関して面の傾きに基づいたホワイトバランス調整が可能となる。 As described above, according to the fifth embodiment, it is possible to adjust the white balance based on the inclination of the surface of the main subject.

(第6実施形態)
第6実施形態では、ユーザがUIを介して代表法線ベクトルを設定する例について説明する。また、入力画像の一部分について法線情報が得られない場合の例について説明する。ここでは、法線情報として法線マップを用いる。ただし、画素(i,j)において被写体の法線ベクトルが不明である場合には、法線マップの画素値N(i,j)としてゼロベクトル(0,0,0)が格納されているものとする。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(Sixth Embodiment)
In the sixth embodiment, an example in which the user sets the representative normal vector via the UI will be described. Further, an example in which normal information cannot be obtained for a part of the input image will be described. Here, a normal map is used as normal information. However, when the normal vector of the subject is unknown in the pixel (i, j), the zero vector (0,0,0) is stored as the pixel value N (i, j) of the normal map. And. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).

パラメータ設定部202は、ホワイトバランス調整に関する設定を行うためのUIを、出力I/F107を介してディスプレイ110に表示する。また、このUI上においてユーザに指示された値を入力I/F106を介して取得し、法線ベクトルが不明な場合に用いる調整パラメータと、代表法線ベクトルおよびこれに対応する調整パラメータとを設定する。そして、これらの設定に基づき、法線マップを用いて入力画像中の各画素に対する調整パラメータを決定する。 The parameter setting unit 202 displays a UI for making settings related to white balance adjustment on the display 110 via the output I / F 107. In addition, the value instructed by the user on this UI is acquired via the input I / F 106, and the adjustment parameter used when the normal vector is unknown, the representative normal vector, and the corresponding adjustment parameter are set. do. Then, based on these settings, the adjustment parameters for each pixel in the input image are determined using the normal map.

図22は、第6実施形態における一連の処理のフローチャートである。S301とS1802~1804は前述の実施形態と同一であるため説明を省略する。 FIG. 22 is a flowchart of a series of processes according to the sixth embodiment. Since S301 and S1802 to 1804 are the same as those in the above-described embodiment, the description thereof will be omitted.

ステップS2202では、パラメータ設定部202は、法線ベクトルが不明な場合に用いる色温度(以後、ベース色温度と呼ぶ)として、初期調整に用いたゲイン係数に対応する色温度を設定する。また、ホワイトバランス調整に関する設定を行うためのUIをディスプレイ110へ出力して表示する。図23(a)は、本実施形態におけるUIの初期状態の例を示す図である。画像表示領域2301には初期調整後の入力画像データが表示される。また、色温度の設定を変更した場合に影響を受ける領域が、点線2302で囲まれるなどして強調表示される。ベースパラメータ表示領域2303の色は、ベース色温度を表している。アイコン2304は、スライダ2305の操作により設定が変更される対象として、ベース色温度が選択されていることを表している。球形セレクタ2306は、法線ベクトルの向きと調整に用いられる色温度との対応関係を模式的に表している。球形セレクタ2306上の各点は、その点における球面の法線ベクトルに対応づけられており、各点の色は、その点に対応付けられた法線ベクトルを持つ画素を調整する際に用いられる色温度を表している。ここでは、初期調整において画像全体に対し同じ色温度(=ベース色温度)を用いているため、球形セレクタ2306全体がベース色温度に対応する色相で描画される。なお、この図における入力画像の例では、シーン全体を照らす環境光の他に、被写体に対して3方向から異なる色温度の光が当たっている。そのため、部分ごとに異なる色被りが生じている。 In step S2202, the parameter setting unit 202 sets the color temperature corresponding to the gain coefficient used for the initial adjustment as the color temperature (hereinafter referred to as the base color temperature) used when the normal vector is unknown. In addition, the UI for making settings related to white balance adjustment is output to the display 110 and displayed. FIG. 23A is a diagram showing an example of the initial state of the UI in this embodiment. The input image data after the initial adjustment is displayed in the image display area 2301. Further, the area affected when the color temperature setting is changed is highlighted by being surrounded by a dotted line 2302. The color of the base parameter display area 2303 represents the base color temperature. The icon 2304 indicates that the base color temperature is selected as the target whose setting is changed by the operation of the slider 2305. The spherical selector 2306 schematically represents the correspondence between the direction of the normal vector and the color temperature used for adjustment. Each point on the spherical selector 2306 is associated with the normal vector of the sphere at that point, and the color of each point is used to adjust the pixel with the normal vector associated with that point. Represents the color temperature. Here, since the same color temperature (= base color temperature) is used for the entire image in the initial adjustment, the entire spherical selector 2306 is drawn with the hue corresponding to the base color temperature. In the example of the input image in this figure, in addition to the ambient light that illuminates the entire scene, the subject is exposed to light having different color temperatures from three directions. Therefore, different color casts occur in each part.

ステップS2203では、パラメータ設定部202は、S2202で表示したUIを介してユーザからの入力を取得する。そして、設定の変更に関する入力が行われた場合はS2204へ進み、そうでなければS2207へ進む。以下、具体例を説明する。 In step S2203, the parameter setting unit 202 acquires the input from the user via the UI displayed in S2202. Then, if the input related to the setting change is made, the process proceeds to S2204, and if not, the process proceeds to S2207. A specific example will be described below.

<ベース色温度の変更>
図23(a)の状態においてユーザによりスライダ2305が操作されると、ベース色温度がスライダの位置に対応する色温度に変更され、S2204へ進む。このとき、ベースパラメータ表示領域2303は、変更後の色温度に応じた色で再描画される。
<Change of base color temperature>
When the slider 2305 is operated by the user in the state of FIG. 23A, the base color temperature is changed to the color temperature corresponding to the position of the slider, and the process proceeds to S2204. At this time, the base parameter display area 2303 is redrawn with a color corresponding to the changed color temperature.

<代表法線ベクトルの新規設定>
図23(a)の状態においてユーザにより球形セレクタ2306上の一点2307が指定されると、パラメータ設定部202は、その点に対応する法線ベクトルを代表法線ベクトルNs1として設定する。また、ベース色温度と同じ色温度を、代表法線ベクトルNs1に対応する色温度Ts1として設定する。さらに、S301で取得した法線マップに基づいて各画素における法線ベクトルと代表法線ベクトルNs1との類似度を算出し、類似度の高い画素領域Rs1を抽出する。そして、UIを図23(b)の状態に更新する。
<New setting of representative normal vector>
When one point 2307 on the spherical selector 2306 is designated by the user in the state of FIG. 23A, the parameter setting unit 202 sets the normal vector corresponding to that point as the representative normal vector N s1 . Further, the same color temperature as the base color temperature is set as the color temperature T s1 corresponding to the representative normal vector N s1 . Further, the similarity between the normal vector and the representative normal vector N s1 in each pixel is calculated based on the normal map acquired in S301, and the pixel region R s1 having a high degree of similarity is extracted. Then, the UI is updated to the state shown in FIG. 23 (b).

図23(b)において、代表パラメータ表示領域2308の端点は、ユーザにより指定された点2307を指している。また、代表パラメータ表示領域2308の色は、代表法線ベクトルNs1に対応づけられた色温度Ts1を表している。アイコン2304は、スライダ2305の操作により設定が変更される対象として、代表法線ベクトルNs1に対応する色温度Ts1が選択されていることを表している。アイコン2309は、設定が変更される対象としてベース色温度が選択されていないことを表している。点線2302は、代表法線ベクトルNs1と似た法線ベクトルを持つ領域Rs1を強調表示している。この領域は、代表法線ベクトルNs1に対応する色温度Ts1を変更した場合に影響を受ける領域である。この状態においてユーザによりスライダ2305が操作されると、代表法線ベクトルNs1に対応する色温度Ts1がスライダの位置に対応する色温度に変更され、S2204へ進む。このとき、UIは図23(c)の状態に遷移する。 In FIG. 23B, the endpoint of the representative parameter display area 2308 points to a point 2307 designated by the user. Further, the color of the representative parameter display area 2308 represents the color temperature T s1 associated with the representative normal vector N s1 . The icon 2304 indicates that the color temperature T s1 corresponding to the representative normal vector N s1 is selected as the target whose setting is changed by the operation of the slider 2305. Icon 2309 indicates that the base color temperature is not selected as the target for which the setting is changed. The dotted line 2302 highlights the region R s1 having a normal vector similar to the representative normal vector N s1 . This region is a region affected when the color temperature T s1 corresponding to the representative normal vector N s1 is changed. When the slider 2305 is operated by the user in this state, the color temperature T s1 corresponding to the representative normal vector N s1 is changed to the color temperature corresponding to the position of the slider, and the process proceeds to S2204. At this time, the UI transitions to the state shown in FIG. 23 (c).

図23(c)では、代表パラメータ表示領域2308の色が、変更後の色温度Ts1を表す色に変化している。また、球形セレクタ2306上において、点2307の周辺(すなわち、法線ベクトルが代表法線ベクトルNs1と似ている領域)の色相が、変更後の色温度Ts1に対応する色相に変化している。 In FIG. 23 (c), the color of the representative parameter display area 2308 is changed to the color representing the changed color temperature T s1 . Further, on the spherical selector 2306, the hue around the point 2307 (that is, the region where the normal vector is similar to the representative normal vector N s1 ) changes to the hue corresponding to the changed color temperature T s1 . There is.

<設定の完了>
図23(a)の状態においてユーザにより設定完了ボタン2300が押下されると、S2207へ進む。
<Completion of setting>
When the setting completion button 2300 is pressed by the user in the state of FIG. 23A, the process proceeds to S2207.

ステップS2204では、パラメータ設定部202は、S2201で取得した法線マップとS2203での変更を反映した代表法線ベクトルおよび色温度とを用いて、入力画像データの各画素に対する調整パラメータを設定する。本実施形態では、入力画像データ中の画素P(ip,jp)に対するゲイン係数Grp ,Ggp ,Gbp を以下の数式(12)に従い算出する。 In step S2204, the parameter setting unit 202 sets adjustment parameters for each pixel of the input image data by using the normal map acquired in S2201 and the representative normal vector and the color temperature reflecting the changes in S2203. In the present embodiment, the gain coefficients Gr p , Gg p , and Gb p for the pixels P (i p , j p ) in the input image data are calculated according to the following mathematical formula (12).

Figure 0007054347000012
Figure 0007054347000012

Figure 0007054347000013
Figure 0007054347000013

ここで、GrB ,GgB ,GbBは、ベース色温度に対応するゲイン係数である。Grk ,Ggk ,Gbkは、代表法線ベクトルNskに対応づけられた色温度Tskに対応するゲイン係数である。αskは、代表法線ベクトルNskと画素Pの法線ベクトルNとの類似度である。Thαは、予め定めた類似度に関する閾値である。類似度αsk(=0~1)は、代表法線ベクトルNskと画素Pの法線ベクトルNとが一致する場合に最大となり、NskとNとのなす角が一定値(cos-1(Thα))以上の場合にゼロとなる。αsMAXは、類似度αsk(k=1~K)の最大値である。数式(12)では、画素Pにおける法線ベクトルNpが不明な場合、画素Pに対するゲイン係数はベース色温度に対応するゲイン係数と同じ値となる。その他の場合は、法線ベクトルの類似度に基づいた補間により値が決定される。 Here, Gr B , Gg B , and Gb B are gain coefficients corresponding to the base color temperature. Gr k , Gg k , and Gb k are gain coefficients corresponding to the color temperature T sk associated with the representative normal vector N sk . α sk is the degree of similarity between the representative normal vector N sk and the normal vector N p of the pixel P. Thα is a predetermined threshold value for similarity. The degree of similarity α sk (= 0 to 1) is maximum when the representative normal vector N sk and the normal vector N p of the pixel P match, and the angle formed by N sk and N p is a constant value (cos). -1 (Thα)) or more, it becomes zero. α sMAX is the maximum value of similarity α sk (k = 1 to K). In the equation (12), when the normal vector N p in the pixel P is unknown, the gain coefficient with respect to the pixel P has the same value as the gain coefficient corresponding to the base color temperature. In other cases, the value is determined by interpolation based on the similarity of the normal vectors.

ステップS2205では、色処理部203は、入力画像データのホワイトバランスを調整する。具体的には、S2204で設定した各画素に対するゲイン係数Grp ,Ggp ,Gbp を入力画像データの画素値に乗算する。 In step S2205, the color processing unit 203 adjusts the white balance of the input image data. Specifically, the gain coefficients Gr p , Gg p , and Gb p for each pixel set in S2204 are multiplied by the pixel value of the input image data.

ステップS2206では、色処理部203は、S2205で行った調整後の画像データをディスプレイ110へ出力し、画像表示領域2301の表示を更新する。このとき、UIは図23(d)の状態に遷移する。図23(d)では、画像表示領域2301にはS2205の調整後の画像データが表示されており、点線2302で囲まれた領域の色が調整により変化している。(代表法線ベクトルNs1に対応する色温度Ts1を用いて調整されたことにより、領域Rs1で生じていた色被りが軽減されている。) In step S2206, the color processing unit 203 outputs the adjusted image data performed in S2205 to the display 110, and updates the display of the image display area 2301. At this time, the UI transitions to the state shown in FIG. 23 (d). In FIG. 23D, the adjusted image data of S2205 is displayed in the image display area 2301, and the color of the area surrounded by the dotted line 2302 is changed by the adjustment. (By adjusting using the color temperature T s1 corresponding to the representative normal vector N s1 , the color fog generated in the region R s1 is reduced.)

S2206で画像データの表示が更新されると、処理はS2203へ戻り、パラメータ設定部202が再びユーザからの入力を取得する。ユーザは更新された画像データを参照しながら、さらに調整を加えたい場合にはUIを介して代表法線ベクトルの追加や設定の変更を行うことができる。図23(e)は、図23(d)の状態からユーザにより点2310とそれに対応する色温度が入力され、これに従ってS2204~2206の処理を行った例であり、点線で囲まれた部分の色被りが軽減されている。また、図23(f)は、図23(e)の状態からさらに代表法線ベクトルが追加された場合の例である。なお、アイコン2309を押下することにより、一度設定されたベース色温度または代表法線ベクトルに対する色温度を、再度変更の対象とするようにしてもよい。また、代表パラメータ表示領域2308に付属する×ボタンを押下することにより、対応する代表法線ベクトルに関して設定を削除するようにしてもよい。 When the display of the image data is updated in S2206, the process returns to S2203, and the parameter setting unit 202 again acquires the input from the user. While referring to the updated image data, the user can add a representative normal vector or change the setting via the UI if he / she wants to make further adjustments. FIG. 23 (e) is an example in which the point 2310 and the corresponding color temperature are input by the user from the state of FIG. 23 (d), and the processing of S2204 to 2206 is performed according to the input, and the portion surrounded by the dotted line is shown. Color fog is reduced. Further, FIG. 23 (f) is an example in which a representative normal vector is further added from the state of FIG. 23 (e). By pressing the icon 2309, the base color temperature once set or the color temperature with respect to the representative normal vector may be changed again. Further, by pressing the × button attached to the representative parameter display area 2308, the setting regarding the corresponding representative normal vector may be deleted.

ステップS2207では、パラメータ設定部202は、S301で取得した法線マップと、現在設定されている代表法線ベクトルとに基づき、ホワイトバランス調整に関して設定の確認が必要か否かを判定する。本実施形態では、ある画素について被写体表面の向きがどの代表法線ベクトルの向きとも似ていない場合、その画素では法線情報が不明な画素と同じ調整パラメータが用いられる。しかしながら、そのような画素では代表法線ベクトルを追加してホワイトバランスを微調整することで、より好ましい調整結果が得られる可能性がある。そこで、N(i,j)≠(0,0,0)である入力画像データ中の各画素について数式(13)に従い法線ベクトルの類似度αskを算出し、画素ごとに類似度の最大値αsMAXを求める。そして、画像全体の画素数に対してαsMAX=0である画素数が予め定めた割合以上である場合に、設定の確認が必要であると判定する。確認が必要と判定された場合はS2208へ進み、そうでなければS2210へ進む。 In step S2207, the parameter setting unit 202 determines whether or not it is necessary to confirm the setting regarding the white balance adjustment based on the normal map acquired in S301 and the currently set representative normal vector. In the present embodiment, when the orientation of the subject surface of a pixel does not resemble the orientation of any representative normal vector, the same adjustment parameter as that of a pixel whose normal information is unknown is used for that pixel. However, in such a pixel, a more preferable adjustment result may be obtained by finely adjusting the white balance by adding a representative normal vector. Therefore, the similarity α sk of the normal vector is calculated according to the equation (13) for each pixel in the input image data in which N (i, j) ≠ (0,0,0), and the maximum similarity is obtained for each pixel. Find the value α sMAX . Then, when the number of pixels in which α sMAX = 0 is equal to or greater than a predetermined ratio with respect to the number of pixels in the entire image, it is determined that the setting needs to be confirmed. If it is determined that confirmation is necessary, the process proceeds to S2208, and if not, the process proceeds to S2210.

ステップS2208では、パラメータ設定部202は、調整に適した代表法線ベクトルの候補をユーザへ報知する。具体的には、S2207で求めたαsMAX=0である画素に関して法線ベクトルの中央値を算出し、これを代表法線ベクトルの候補としてUI上に表示する。S2203において図23(d)の状態で設定完了ボタン2300が押下された場合の例を、図23(g)に示す。図23(g)において、代表パラメータ表示領域2308の端点は、球形セレクタ2306上において代表法線ベクトルの候補に対応する点を指している。アイコン2311は、代表パラメータ表示領域2308が指し示す法線ベクトルが、代表法線ベクトルの候補であることを表している。点線2302は、代表法線ベクトルの候補と似た法線ベクトルを持つ領域を強調表示している。この領域は、代表法線ベクトルの候補を代表法線ベクトルとして設定し、対応する色温度を変更した場合に影響を受ける領域である。 In step S2208, the parameter setting unit 202 notifies the user of a candidate for a representative normal vector suitable for adjustment. Specifically, the median value of the normal vector is calculated for the pixel having α sMAX = 0 obtained in S2207, and this is displayed on the UI as a candidate for the representative normal vector. FIG. 23 (g) shows an example of the case where the setting completion button 2300 is pressed in the state of FIG. 23 (d) in S2203. In FIG. 23 (g), the end point of the representative parameter display area 2308 points to a point corresponding to the candidate of the representative normal vector on the spherical selector 2306. Icon 2311 indicates that the normal vector pointed to by the representative parameter display area 2308 is a candidate for the representative normal vector. The dotted line 2302 highlights a region having a normal vector similar to the candidate normal normal vector. This region is a region affected when a candidate of the representative normal vector is set as the representative normal vector and the corresponding color temperature is changed.

ステップS2209では、パラメータ設定部202は、S2203と同様にUIを介してユーザからの入力を取得する。そして、設定の変更に関する入力が行われた場合はS2204へ戻り、そうでなければS2210へ進む。以下、具体例を説明する。 In step S2209, the parameter setting unit 202 acquires the input from the user via the UI as in S2203. Then, if the input related to the setting change is made, the process returns to S2204, and if not, the process proceeds to S2210. A specific example will be described below.

<代表法線ベクトルの追加>
図23(g)の状態においてユーザによりスライダ2305が操作されると、代表法線ベクトルの候補(すなわち、アイコン2311付きの代表パラメータ表示領域2308が指し示す法線ベクトル)が代表法線ベクトルに追加される。さらに、その代表法線ベクトルに対応する色温度としてスライダの位置に対応する色温度が設定され、S2204へ戻る。
<Addition of representative normal vector>
When the slider 2305 is operated by the user in the state of FIG. 23 (g), a candidate for the representative normal vector (that is, the normal vector pointed to by the representative parameter display area 2308 with the icon 2311) is added to the representative normal vector. To. Further, the color temperature corresponding to the position of the slider is set as the color temperature corresponding to the representative normal vector, and the process returns to S2204.

<候補の棄却>
図23(g)の状態において設定完了ボタン2300が押下されると、代表法線ベクトルの候補は代表法線ベクトルに追加されずにS2210へ進む。
<Rejection of candidates>
When the setting completion button 2300 is pressed in the state of FIG. 23 (g), the candidate of the representative normal vector proceeds to S2210 without being added to the representative normal vector.

ステップS2210では、色処理部203は、ホワイトバランス調整後の画像データをHDD104等の記憶装置に保存する。そして、UIを図23(h)の状態に更新して保存が完了したことを報知する。 In step S2210, the color processing unit 203 stores the image data after the white balance adjustment in a storage device such as the HDD 104. Then, the UI is updated to the state shown in FIG. 23 (h) to notify that the saving is completed.

以上で説明した第6実施形態によれば、UIを介した直観的な操作により、ユーザが代表法線ベクトルを設定することができる。 According to the sixth embodiment described above, the user can set the representative normal vector by an intuitive operation via the UI.

なお、ステップS2210において、調整に用いたベース色温度、および、代表法線ベクトルとそれに対応する色温度を、調整パラメータ情報として別途保存してもよい。その場合、S301において入力画像データおよび法線情報とともに保存しておいた調整パラメータ情報を取得すれば、一度行った調整を異なる入力画像データにも容易に適用可能となる。 In step S2210, the base color temperature used for the adjustment, the representative normal vector and the corresponding color temperature may be separately stored as the adjustment parameter information. In that case, if the adjustment parameter information saved together with the input image data and the normal information in S301 is acquired, the adjustment once performed can be easily applied to different input image data.

(第7実施形態)
第7実施形態では、異なる複数の視点位置から被写体を撮像した画像に基づいて法線情報を算出し、これを用いてホワイトバランス調整を行う例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(7th Embodiment)
In the seventh embodiment, an example in which normal information is calculated based on images obtained by capturing images of a subject from a plurality of different viewpoint positions and white balance adjustment is performed using the normal information will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).

画像データ取得部201は、入力画像データと、入力画像データ中の被写体を異なる視点位置から撮像したサブ入力画像データ(補助入力画像)とを取得する。また、これらの画像データを撮像した際のカメラパラメータ(カメラの位置姿勢やレンズの歪みを表す情報)を取得する。以後、これらの画像データとカメラパラメータとを併せて多視点画像データ呼ぶ。本実施形態では、ステレオカメラで撮像して得られる2つの画像のうち、片方の画像データを入力画像データとし、もう一方をサブ入力画像データとして用いる。 The image data acquisition unit 201 acquires the input image data and the sub-input image data (auxiliary input image) obtained by capturing the subject in the input image data from different viewpoint positions. In addition, the camera parameters (information indicating the position and orientation of the camera and the distortion of the lens) when these image data are captured are acquired. Hereinafter, these image data and camera parameters are collectively referred to as multi-viewpoint image data. In the present embodiment, of the two images obtained by capturing with a stereo camera, one of the image data is used as the input image data and the other is used as the sub-input image data.

パラメータ設定部202は、多視点画像データを用いて代表法線ベクトルを算出する。処理の詳細は後述する。 The parameter setting unit 202 calculates a representative normal vector using the multi-viewpoint image data. The details of the process will be described later.

図24は、第7実施形態における一連の処理のフローチャートである。S302~303、S305、S307~310は第1実施形態と同一であるため説明を省略する。 FIG. 24 is a flowchart of a series of processes according to the seventh embodiment. Since S302 to 303, S305, and S307 to 310 are the same as those in the first embodiment, the description thereof will be omitted.

ステップS2401では、画像データ取得部201は、多視点画像データをHDD104または撮像装置から取得する。 In step S2401, the image data acquisition unit 201 acquires multi-viewpoint image data from the HDD 104 or the image pickup device.

ステップS2404では、パラメータ設定部202は、S2401で取得した多視点画像データを用いて、S303で設定した代表点を含む面の向きを求めることにより、代表法線ベクトルを算出する。まず、入力画像データおよびサブ入力画像データからそれぞれ特徴点を抽出し、画像間において特徴点の対応付けを行う。この処理には公知の特徴ベースマッチング技術を利用可能である。次に、対応付けされた特徴点の中から、入力画像上において代表点を内部に含む最小の三角形を形成する3点を選択する。次に、選択された3点の特徴点それぞれについて、各画像上での位置とカメラパラメータとに基づき、三次元座標を推定する。そして、得られた三次元座標を用いて3点が形成する三角形の面の単位法線ベクトルを算出し、これを代表法線ベクトルとする。 In step S2404, the parameter setting unit 202 calculates the representative normal vector by obtaining the orientation of the surface including the representative point set in S303 using the multi-viewpoint image data acquired in S2401. First, feature points are extracted from the input image data and the sub-input image data, and the feature points are associated between the images. A known feature-based matching technique can be used for this process. Next, from the associated feature points, three points forming the smallest triangle including the representative points on the input image are selected. Next, for each of the three selected feature points, the three-dimensional coordinates are estimated based on the position on each image and the camera parameters. Then, the unit normal vector of the surface of the triangle formed by the three points is calculated using the obtained three-dimensional coordinates, and this is used as the representative normal vector.

ステップS2406では、パラメータ設定部202は、S2401で取得した多視点画像データを用いて、S305で選択した注目画素に対応する法線ベクトルを算出する。具体的には、S2404における代表点を注目画素に置き換えて同様の処理を行う。なお、特徴点の対応付けは再度行う必要はなく、S2404で行った結果を流用可能である。また、三次元座標の推定や単位法線ベクトルの算出についても、用いる特徴点が同一である場合には一度算出した結果を流用可能である。 In step S2406, the parameter setting unit 202 calculates the normal vector corresponding to the pixel of interest selected in S305 by using the multi-viewpoint image data acquired in S2401. Specifically, the representative point in S2404 is replaced with the pixel of interest, and the same processing is performed. It is not necessary to associate the feature points again, and the result obtained in S2404 can be diverted. Also, for the estimation of three-dimensional coordinates and the calculation of the unit normal vector, if the feature points used are the same, the result calculated once can be diverted.

以上で説明した第7実施形態によれば、多視点画像データから法線情報を算出し、これに基づいてホワイトバランス調整を行うことができる。 According to the seventh embodiment described above, normal information can be calculated from the multi-viewpoint image data, and white balance adjustment can be performed based on the normal information.

なお、サブ入力画像データは入力画像データを撮像したカメラとは別のカメラで撮像された画像であってもよいし、2画像以上であってもよい。また、メインレンズと撮像素子との間にマイクロレンズアレイを配置したPlenopticカメラを用いて被写体を撮像し、得られる複数の画像データのうち1つを入力画像データ、その他をサブ入力画像データとしてもよい。 The sub-input image data may be an image captured by a camera different from the camera that captured the input image data, or may be two or more images. In addition, a subject is imaged using a Plenoptic camera in which a microlens array is arranged between the main lens and the image pickup element, and one of the obtained plurality of image data can be used as input image data and the other can be used as sub-input image data. good.

(第8実施形態)
第8実施形態では、距離情報に基づいて法線情報を算出し、これを用いてホワイトバランス調整を行う例について説明する。なお、画像処理装置のハードウェア構成および機能ブロック構成は前述の実施形態(図1及び図2)と同様である。
(8th Embodiment)
In the eighth embodiment, an example in which normal information is calculated based on the distance information and white balance adjustment is performed using the normal information will be described. The hardware configuration and functional block configuration of the image processing device are the same as those of the above-described embodiments (FIGS. 1 and 2).

画像データ取得部201は、入力画像データと、入力画像データを撮像した際の撮像装置の画角および焦点距離を取得する。また、被写体の距離情報を取得する。ここでは、距離情報として距離マップを用いる。 The image data acquisition unit 201 acquires the input image data and the angle of view and focal length of the image pickup device when the input image data is captured. In addition, the distance information of the subject is acquired. Here, a distance map is used as the distance information.

パラメータ設定部202は、距離マップに基づいて各種の法線ベクトルを算出する。処理の詳細は後述する。 The parameter setting unit 202 calculates various normal vectors based on the distance map. The details of the process will be described later.

図25は、第8実施形態における一連の処理のフローチャートである。S302~303、S305、S307~310は第1実施形態と同一であるため説明を省略する。 FIG. 25 is a flowchart of a series of processes according to the eighth embodiment. Since S302 to 303, S305, and S307 to 310 are the same as those in the first embodiment, the description thereof will be omitted.

ステップS2501では、画像データ取得部201は、入力画像データ、撮影時の画角および焦点距離、距離マップをHDD104または撮像装置から取得する。 In step S2501, the image data acquisition unit 201 acquires the input image data, the angle of view and focal length at the time of shooting, and the distance map from the HDD 104 or the image pickup device.

ステップS2504では、パラメータ設定部202は、S2501で取得した距離マップに基づいて、S303で設定した代表点を含む面の向きを求めることにより、代表法線ベクトルを算出する。まず、撮影時の画角および焦点距離と、距離マップとを用いて、入力画像の各画素に対応する被写体表面上の点の三次元座標を算出する。 In step S2504, the parameter setting unit 202 calculates the representative normal vector by obtaining the orientation of the surface including the representative point set in S303 based on the distance map acquired in S2501. First, the three-dimensional coordinates of the points on the surface of the subject corresponding to each pixel of the input image are calculated by using the angle of view and the focal length at the time of shooting and the distance map.

次に、入力画像を複数の領域に分割し、画素に対応する三次元の点群データに対して、領域ごとに平面をフィッティングする。入力画像の分割は、予め定めた分割数に従ったブロック分割でもよいし、画素値に基づく一般的な領域分割手法を用いた分割でもよい。平面のフィッティングは、例えば、領域内に含まれる画素に対応する点群との二乗距離の総和が最小となる平面を求めればよい。そして、代表点が含まれる領域にフィッティングした平面の単位法線ベクトルを、代表法線ベクトルとする。 Next, the input image is divided into a plurality of regions, and a plane is fitted to each region with respect to the three-dimensional point group data corresponding to the pixels. The input image may be divided into blocks according to a predetermined number of divisions, or may be divided using a general area division method based on pixel values. For the fitting of the plane, for example, a plane having the minimum sum of squared distances with the point cloud corresponding to the pixels included in the region may be obtained. Then, the unit normal vector of the plane fitted to the region including the representative point is defined as the representative normal vector.

ステップS2506では、パラメータ設定部202は、S2504における代表点をS305で選択した注目画素に置き換えて同様の処理を行い、注目画素に対応する法線ベクトルを算出する。なお、平面のフィッティングは再度行う必要はなく、S2504で行った結果を流用可能である。 In step S2506, the parameter setting unit 202 replaces the representative point in S2504 with the pixel of interest selected in S305, performs the same processing, and calculates the normal vector corresponding to the pixel of interest. It is not necessary to perform the fitting of the plane again, and the result obtained in S2504 can be diverted.

以上で説明した第8実施形態によれば、距離マップから法線情報を算出し、これに基づいてホワイトバランス調整を行うことができる。 According to the eighth embodiment described above, the normal information can be calculated from the distance map, and the white balance can be adjusted based on the normal information.

なお、本実施形態では、距離マップに基づいて算出した三次元の点群データに平面をフィッティングすることで被写体を構成する面を求めたが、距離マップから三次元形状を生成する他の形状モデル生成技術を用いて被写体表面を求めてもよい。 In the present embodiment, the surface constituting the subject is obtained by fitting a plane to the three-dimensional point group data calculated based on the distance map, but another shape model that generates a three-dimensional shape from the distance map is obtained. The surface of the subject may be obtained by using a generation technique.

また、距離マップから法線マップを生成し、第1~4、6実施形態を適用してもよい。距離マップから法線マップを生成する方法については、種々の手法が一般に知られており、本発明の主眼ではないため、詳細な説明を省略する。 Further, a normal map may be generated from the distance map, and the first to fourth and sixth embodiments may be applied. As for the method of generating a normal map from a distance map, various methods are generally known and are not the main subject of the present invention, and therefore detailed description thereof will be omitted.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 画像処理装置; 104 HDD; 111 ディスプレイ; 201 画像データ取得部; 202 パラメータ設定部; 203 色処理部 100 image processing device; 104 HDD; 111 display; 201 image data acquisition unit; 202 parameter setting unit; 203 color processing unit

Claims (12)

入力画像を取得する第1取得手段と、
前記入力画像における代表点と該代表点のホワイトバランス係数とを決定する決定手段と、
前記代表点を含む面の傾きを表す第1情報と前記入力画像における注目画素を含む面の傾きを表す第2情報とを取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる各画素における被写体に関する法線情報を更に取得し、
前記調整手段は、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点における法線との類似度を算出し、該入力画像に含まれる各画素に対するホワイトバランスを、前記類似度を重み係数とした前記ホワイトバランス係数に基づく補間演算により導出する
ことを特徴とする画像処理装置。
The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point, and
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjusting means for adjusting the white balance in the pixel of interest based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires normal information about the subject in each pixel included in the input image.
The adjusting means calculates the degree of similarity between the normal of each pixel included in the input image and the normal at the representative point based on the normal information, and determines the white balance for each pixel included in the input image. , Derived by an interpolation calculation based on the white balance coefficient with the similarity as a weighting coefficient.
An image processing device characterized by this.
前記第1情報は、前記代表点における被写体の法線情報であり、
前記第2情報は、前記注目画素における被写体の法線情報である
ことを特徴とする請求項1に記載の画像処理装置。
The first information is the normal information of the subject at the representative point.
The image processing apparatus according to claim 1, wherein the second information is normal information of a subject in the pixel of interest.
前記決定手段は、前記代表点を決定するための情報をユーザから受け付ける受付手段を有する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2, wherein the determination means has a reception means for receiving information for determining the representative point from the user.
前記受付手段は、法線ベクトルの指定をユーザから受け付け、
前記決定手段は、前記入力画像に含まれる画素のうち前記法線ベクトルに対応する画素を前記代表点として決定する
ことを特徴とする請求項3に記載の画像処理装置。
The reception means receives the designation of the normal vector from the user and receives it.
The image processing apparatus according to claim 3, wherein the determination means determines a pixel corresponding to the normal vector among the pixels included in the input image as the representative point.
前記決定手段は、前記入力画像における複数の代表点と該複数の代表点に対応するホワイトバランス係数とを決定し、
前記第1取得手段は、前記入力画像に含まれる各画素における被写体に関する法線情報以外の特徴量情報を更に取得し、
前記調整手段は、法線が略一致しかつホワイトバランス係数が異なる代表点が複数存在する場合に、該ホワイトバランス係数に前記法線情報と前記特徴量情報とに基づいた重み係数を乗ずることにより前記入力画像に含まれる各画素に対するホワイトバランスを調整する
ことを特徴とする請求項に記載の画像処理装置。
The determination means determines a plurality of representative points in the input image and a white balance coefficient corresponding to the plurality of representative points.
The first acquisition means further acquires feature amount information other than the normal information regarding the subject in each pixel included in the input image.
The adjusting means multiplies the white balance coefficient by a weighting coefficient based on the normal line information and the feature amount information when there are a plurality of representative points having substantially the same normal lines and different white balance coefficients. The image processing apparatus according to claim 1 , wherein the white balance for each pixel included in the input image is adjusted.
前記調整手段は、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点の法線との第1の類似度を算出し、前記特徴量情報に基づいて前記入力画像に含まれる各画素の特徴量と前記代表点の特徴量との第2の類似度を算出し、前記ホワイトバランス係数に前記第1の類似度と前記第2の類似度とに基づいた重み係数を乗ずることにより前記入力画像に含まれる各画素に対するホワイトバランスを調整する
ことを特徴とする請求項に記載の画像処理装置。
The adjusting means calculates a first similarity between the normal line of each pixel included in the input image and the normal line of the representative point based on the normal line information, and the input is based on the feature amount information. A second similarity between the feature amount of each pixel included in the image and the feature amount of the representative point is calculated, and the white balance coefficient is weighted based on the first similarity degree and the second similarity degree. The image processing apparatus according to claim 5 , wherein the white balance for each pixel included in the input image is adjusted by multiplying by a coefficient.
前記第1取得手段は、前記入力画像に含まれる被写体を該入力画像とは異なる視点から撮影した補助入力画像を更に取得し、
前記第2取得手段は、前記入力画像と前記補助入力画像とに基づいて、前記第1情報と前記第2情報とを決定する
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The first acquisition means further acquires an auxiliary input image obtained by capturing a subject included in the input image from a viewpoint different from the input image.
The second acquisition means according to any one of claims 1 to 6 , wherein the second acquisition means determines the first information and the second information based on the input image and the auxiliary input image. Image processing equipment.
前記第1取得手段は、前記入力画像に含まれる各画素における被写体の距離情報を更に取得し、
前記第2取得手段は、前記距離情報に基づいて、前記第1情報と前記第2情報とを決定する
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The first acquisition means further acquires the distance information of the subject in each pixel included in the input image.
The image processing apparatus according to any one of claims 1 to 6 , wherein the second acquisition means determines the first information and the second information based on the distance information.
入力画像を取得する第1取得手段と、
前記入力画像における代表点と該代表点のホワイトバランス係数とを決定する決定手段と、
前記入力画像においてホワイトバランスを調整する調整領域を決定する領域決定手段と、
前記代表点を含む面の傾きを表す第1情報と前記入力画像における注目画素を含む面の傾きを表す第2情報とを取得する第2取得手段と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記調整領域の前記注目画素におけるホワイトバランスを調整する調整手段と、
を有し、
前記第1取得手段は、前記入力画像に含まれる被写体の3Dモデルを更に取得し、
前記領域決定手段は、前記3Dモデルに基づいて前記代表点の法線と略一致する法線を有すると判定された画素の領域を前記調整領域として決定する
ことを特徴とする画像処理装置。
The first acquisition means to acquire the input image and
A determination means for determining a representative point in the input image and a white balance coefficient of the representative point, and
An area determining means for determining an adjustment area for adjusting white balance in the input image,
A second acquisition means for acquiring the first information indicating the inclination of the surface including the representative point and the second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjustment means for adjusting the white balance in the pixel of interest in the adjustment region based on the first information, the second information, and the white balance coefficient.
Have,
The first acquisition means further acquires a 3D model of the subject included in the input image, and further acquires the 3D model.
The area determining means determines as the adjustment area a region of pixels determined to have a normal that substantially coincides with the normal of the representative point based on the 3D model.
An image processing device characterized by this.
画像処理装置の制御方法であって、
入力画像を取得する第1取得工程と、
前記入力画像における代表点と、該代表点のホワイトバランス係数と、を決定する決定工程と、
前記代表点を含む面の傾きを表す第1情報と、前記入力画像における注目画素を含む面の傾きを表す第2情報と、を取得する第2取得工程と、
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記注目画素におけるホワイトバランスを調整する調整工程と、
を含み、
前記第1取得工程では、前記入力画像に含まれる各画素における被写体に関する法線情報を更に取得し、
前記調整工程では、前記法線情報に基づいて前記入力画像に含まれる各画素の法線と前記代表点における法線との類似度を算出し、該入力画像に含まれる各画素に対するホワイトバランスを、前記類似度を重み係数とした前記ホワイトバランス係数に基づく補間演算により導出する
ことを特徴とする制御方法。
It is a control method for image processing equipment.
The first acquisition process to acquire the input image and
A determination step for determining a representative point in the input image and a white balance coefficient of the representative point.
A second acquisition step of acquiring first information indicating the inclination of the surface including the representative point and second information indicating the inclination of the surface including the pixel of interest in the input image.
An adjustment step for adjusting the white balance in the pixel of interest based on the first information, the second information, and the white balance coefficient.
Including
In the first acquisition step, normal information regarding the subject in each pixel included in the input image is further acquired.
In the adjustment step, the degree of similarity between the normal of each pixel included in the input image and the normal at the representative point is calculated based on the normal information, and the white balance for each pixel included in the input image is determined. , Derived by an interpolation calculation based on the white balance coefficient with the similarity as a weighting coefficient.
A control method characterized by that.
画像処理装置の制御方法であって、 It is a control method for image processing equipment.
入力画像を取得する第1取得工程と、 The first acquisition process to acquire the input image and
前記入力画像における代表点と、該代表点のホワイトバランス係数と、を決定する決定工程と、 A determination step for determining a representative point in the input image and a white balance coefficient of the representative point.
前記入力画像においてホワイトバランスを調整する調整領域を決定する領域決定工程と、 An area determination step of determining an adjustment area for adjusting white balance in the input image, and
前記代表点を含む面の傾きを表す第1情報と、前記入力画像における注目画素を含む面の傾きを表す第2情報と、を取得する第2取得工程と、 A second acquisition step of acquiring first information indicating the inclination of the surface including the representative point and second information indicating the inclination of the surface including the pixel of interest in the input image.
前記第1情報と前記第2情報と前記ホワイトバランス係数とに基づいて、前記調整領域の前記注目画素におけるホワイトバランスを調整する調整工程と、 An adjustment step of adjusting the white balance of the pixel of interest in the adjustment region based on the first information, the second information, and the white balance coefficient.
を含み、Including
前記第1取得工程では、前記入力画像に含まれる被写体の3Dモデルを更に取得し、 In the first acquisition step, a 3D model of the subject included in the input image is further acquired.
前記領域決定工程では、前記3Dモデルに基づいて前記代表点の法線と略一致する法線を有すると判定された画素の領域を前記調整領域として決定する In the area determination step, the area of the pixel determined to have a normal line substantially matching the normal line of the representative point based on the 3D model is determined as the adjustment area.
ことを特徴とする制御方法。A control method characterized by that.
コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image processing apparatus according to any one of claims 1 to 9 .
JP2018005949A 2017-04-17 2018-01-17 Image processing device and its control method Active JP7054347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/950,363 US10742850B2 (en) 2017-04-17 2018-04-11 Image processing apparatus and control method thereof for white balance adjustment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017081436 2017-04-17
JP2017081436 2017-04-17

Publications (2)

Publication Number Publication Date
JP2018182718A JP2018182718A (en) 2018-11-15
JP7054347B2 true JP7054347B2 (en) 2022-04-13

Family

ID=64276313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005949A Active JP7054347B2 (en) 2017-04-17 2018-01-17 Image processing device and its control method

Country Status (1)

Country Link
JP (1) JP7054347B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7321772B2 (en) * 2019-05-22 2023-08-07 キヤノン株式会社 Image processing device, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016072692A (en) 2014-09-26 2016-05-09 キヤノン株式会社 Image processing system and control method of the same
JP2016092618A (en) 2014-11-05 2016-05-23 キヤノン株式会社 Imaging apparatus and method for controlling the same
JP2016213717A5 (en) 2015-05-11 2018-06-07

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6541416B2 (en) 2015-05-11 2019-07-10 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016072692A (en) 2014-09-26 2016-05-09 キヤノン株式会社 Image processing system and control method of the same
JP2016092618A (en) 2014-11-05 2016-05-23 キヤノン株式会社 Imaging apparatus and method for controlling the same
JP2016213717A5 (en) 2015-05-11 2018-06-07

Also Published As

Publication number Publication date
JP2018182718A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
CN107516319B (en) High-precision simple interactive matting method, storage device and terminal
CN111062378B (en) Image processing method, model training method, target detection method and related device
JP5432714B2 (en) Composition analysis method, image apparatus having composition analysis function, composition analysis program, and computer-readable recording medium
CN102984448B (en) Utilize color digital picture to revise the method for controlling to action as acutance
JP5744431B2 (en) Image processing apparatus, image processing method, and program
KR20080070733A (en) Adjusting digital image exposure and tone scale
KR20050094330A (en) Image processing apparatus, image processing method and program product therefore
JP6045378B2 (en) Information processing apparatus, information processing method, and program
KR101853269B1 (en) Apparatus of stitching depth maps for stereo images
JP7140209B2 (en) Detection device, information processing device, detection method, and information processing program
KR20190044439A (en) Method of stitching depth maps for stereo images
US10742850B2 (en) Image processing apparatus and control method thereof for white balance adjustment
JP7054347B2 (en) Image processing device and its control method
EP3391640B1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
CN109729259B (en) Image processing apparatus, method thereof, system thereof, and computer readable medium
WO2024192102A1 (en) Systems and methods for splat filling a three-dimensional image using semi-measured data
JP6624785B2 (en) Image processing method, image processing device, imaging device, program, and storage medium
WO2024147864A1 (en) Systems and methods for the accurate mapping of in-focus image data from two-dimensional images of a scene to a three-dimensional model of the scene
US11727640B1 (en) Systems and methods for the continuous presentation of point clouds
JP2008067093A (en) Camera system, image processor, and image processing program
US20220224822A1 (en) Multi-camera system, control value calculation method, and control apparatus
JP2010154323A (en) Image processing apparatus, image extraction method, and, program
US20180089889A1 (en) Dynamically creating and presenting a three-dimensional (3d) view of a scene by combining color, brightness, and intensity from multiple scan data sources
JP6949494B2 (en) Image processing equipment and image processing methods, imaging equipment, programs
JP2016062447A (en) Image processor, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220401

R151 Written notification of patent or utility model registration

Ref document number: 7054347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151