JP2021087125A - Image processing device, control method thereof, and program - Google Patents

Image processing device, control method thereof, and program Download PDF

Info

Publication number
JP2021087125A
JP2021087125A JP2019215448A JP2019215448A JP2021087125A JP 2021087125 A JP2021087125 A JP 2021087125A JP 2019215448 A JP2019215448 A JP 2019215448A JP 2019215448 A JP2019215448 A JP 2019215448A JP 2021087125 A JP2021087125 A JP 2021087125A
Authority
JP
Japan
Prior art keywords
white balance
color
virtual
virtual light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019215448A
Other languages
Japanese (ja)
Inventor
光太郎 北島
Kotaro Kitajima
光太郎 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019215448A priority Critical patent/JP2021087125A/en
Publication of JP2021087125A publication Critical patent/JP2021087125A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

To eliminate a complicated work such as manually switching of a color filter by a user, and enable background color shift processing with a simple operation.SOLUTION: An image processing device includes white balance correction means that corrects the white balance of a captured image, virtual lighting means that imparts the effect of irradiating a subject of the captured image with virtual light, and means that calculates first white balance gain on the basis of the color of a light source irradiating the subject, and the white balance correction means sets second white balance gain different from the first white balance gain, and in the virtual lighting means, the color of the virtual light is controlled such that a region to which the effect of irradiating the virtual light is given approaches the color when white balance correction means sets the first white balance gain.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置に関し、特に入力された画像の色を補正する画像処理装置に関するものである。 The present invention relates to an image processing device, and more particularly to an image processing device that corrects the color of an input image.

従来から写真撮影において、背景領域のみカラーバランスを変えて撮影する背景カラーシフト撮影が行われている。背景カラーシフト撮影方法では、ストロボ装置の発光部に任意の色のカラーフィルタを取り付け、カラーフィルタを通過したストロボ光の色が白色となるようにホワイトバランスゲインを設定し撮影する。これにより、ストロボ光が当たった被写体領域に対しては適切なホワイトバランスが適用され、ストロボ光が届かない背景領域はカラーフィルタの色の反対色に色バランスがシフトした画像が撮影できる。 Conventionally, in photography, background color shift photography has been performed in which only the background area is photographed by changing the color balance. In the background color shift shooting method, a color filter of an arbitrary color is attached to the light emitting portion of the strobe device, and the white balance gain is set so that the color of the strobe light passing through the color filter becomes white. As a result, an appropriate white balance is applied to the subject area exposed to the strobe light, and an image in which the color balance is shifted to the opposite color of the color of the color filter can be taken in the background area where the strobe light does not reach.

また、特許文献1では、ストロボ装置の発光部の前方にカラーフィルタを取り付けたフィルタホルダを装着してストロボ光の色温度を変更する方法が開示されている。特許文献1では、カラーフィルタの種類を識別する識別情報を付加し、ストロボ装置側に設けられた読み取り部でカラーフィルタの識別情報を読み取ることで、フィルタホルダに取り付けられたカラーフィルタの種類を識別している。そして、ストロボ装置は、識別したカラーフィルタの種類から照射光の色温度を判定し、装着されているカメラに伝達している。 Further, Patent Document 1 discloses a method of changing the color temperature of strobe light by attaching a filter holder to which a color filter is attached in front of a light emitting portion of a strobe device. In Patent Document 1, identification information for identifying the type of the color filter is added, and the identification information of the color filter is read by a reading unit provided on the strobe device side to identify the type of the color filter attached to the filter holder. doing. Then, the strobe device determines the color temperature of the irradiation light from the type of the identified color filter and transmits it to the mounted camera.

特開2009−20298号公報JP-A-2009-20298

特許文献1の装置を用いることで、ストロボ装置に装着したカラーフィルタの種類に応じて、ホワイトバランスを手動で設定する手間を省くことが可能となる。 By using the apparatus of Patent Document 1, it is possible to save the trouble of manually setting the white balance according to the type of the color filter attached to the strobe apparatus.

しかしながら、特許文献1の装置ではカラーフィルタの選択と切り替えはユーザが行う必要がある。背景カラーシフト撮影をする際には、背景色として設定したい色の反対色のカラーフィルタをユーザが自ら手動で選択する必要があり煩雑である。 However, in the apparatus of Patent Document 1, the user needs to select and switch the color filter. When performing background color shift shooting, it is complicated because the user must manually select a color filter of the opposite color of the color to be set as the background color.

そこで、本発明の目的は、カラーフィルタをユーザが手動で切り替えるなどの煩雑な作業の手間を軽減し、容易に背景色の変更を可能とすることである。 Therefore, an object of the present invention is to reduce the trouble of complicated work such as manually switching the color filter by the user, and to easily change the background color.

上記課題を解決するために、本発明に係る画像処理装置は、撮影画像に対してホワイトバランス補正を行うホワイトバランス補正手段と、前記撮影画像の被写体に対して仮想光を照射した効果を付与する仮想ライティング手段と、前記被写体に照射している光源色に基づいた第1のホワイトバランスゲインを算出する手段と、を有し、前記ホワイトバランス補正手段は、前記第1のホワイトバランスゲインとは異なる第2のホワイトバランスゲインを設定し、前記仮想ライティング手段は、前記仮想光が照射された効果を付与する領域が、ホワイトバランス補正手段が第1のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御することを特徴とする。 In order to solve the above problems, the image processing apparatus according to the present invention imparts a white balance correction means for performing white balance correction on a captured image and an effect of irradiating a subject of the captured image with virtual light. It has a virtual lighting means and a means for calculating a first white balance gain based on the color of the light source irradiating the subject, and the white balance correction means is different from the first white balance gain. The second white balance gain is set, and the virtual lighting means so that the region to which the effect of the virtual light is applied approaches the color when the white balance correction means sets the first white balance gain. It is characterized in that the color of the virtual light is controlled.

本発明によれば、ユーザの煩雑な作業の手間を軽減し、容易に背景色の変更が可能となる。 According to the present invention, it is possible to reduce the troublesome work of the user and easily change the background color.

本発明におけるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera in this invention. 本発明における画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing part in this invention. 本発明におけるリライティング処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the rewriting processing part in this invention. 本発明における法線と仮想光源の関係を示す図である。It is a figure which shows the relationship between a normal and a virtual light source in this invention. 本発明における仮想光源のパラメータ算出フローを示す図である。It is a figure which shows the parameter calculation flow of the virtual light source in this invention. 本発明におけるブロック分割の例を示す図である。It is a figure which shows the example of the block division in this invention. 本発明における仮想光源の照射角度・位置を示す図である。It is a figure which shows the irradiation angle and position of the virtual light source in this invention. 本発明における仮想光源の照射範囲を示す図である。It is a figure which shows the irradiation range of the virtual light source in this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。本実施例では、画像処理装置としてデジタルカメラに適用した例について説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this embodiment, an example applied to a digital camera as an image processing device will be described.

<第1の実施形態>
以下、図1〜図8を参照して、本発明の第1の実施形態における、デジタルカメラについて説明する。
<First Embodiment>
Hereinafter, the digital camera according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 8.

図1は、本発明の実施形態によるデジタルカメラの構成例を示すブロック図である。 FIG. 1 is a block diagram showing a configuration example of a digital camera according to an embodiment of the present invention.

図1において、100はデジタルカメラ全体、101はズームレンズ、フォーカスレンズを含むレンズ群、102は絞り機能を備えるシャッター、103は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像部。104は、アナログ信号をデジタル信号に変換するA/D変換器、105はA/D変換器104から出力される画像データに対し、ホワイトバランス処理や、γ処理、輪郭強調、色補正処理などの各種画像処理を行う画像処理部である。106は画像メモリ、107は画像メモリ106を制御するメモリ制御部、108は入力デジタル信号をアナログ信号に変換するD/A変換器、109はLCD等の表示器、110は画像データを圧縮符号化・復号化するコーデック部である。 In FIG. 1, 100 is an entire digital camera, 101 is a lens group including a zoom lens and a focus lens, 102 is a shutter having an aperture function, and 103 is an image pickup composed of a CCD or CMOS element that converts an optical image into an electric signal. Department. Reference numeral 104 is an A / D converter that converts an analog signal into a digital signal, and 105 is an image data output from the A / D converter 104 that is subjected to white balance processing, γ processing, contour enhancement, color correction processing, and the like. It is an image processing unit that performs various image processing. 106 is an image memory, 107 is a memory control unit that controls the image memory 106, 108 is a D / A converter that converts an input digital signal into an analog signal, 109 is a display such as an LCD, and 110 is a compression codec for image data. -The codec part to be decrypted.

111は記録媒体200とのインタフェースI/F、112はメモリカードやハードディスク等の記録媒体である。113は、撮影画像中から顔が映っている領域を検出する顔検出処理部、114は、撮影画像にリライティング処理を行うリライティング処理部である。50はデジタルカメラ100のシステム全体を制御するシステム制御部である。 Reference numeral 111 is an interface I / F with the recording medium 200, and 112 is a recording medium such as a memory card or a hard disk. Reference numeral 113 denotes a face detection processing unit that detects a region in which a face is reflected in the captured image, and 114 is a rewriting processing unit that performs rewriting processing on the captured image. Reference numeral 50 denotes a system control unit that controls the entire system of the digital camera 100.

また、121は、プログラムやパラメータなどを格納するEEPROMなどの不揮発性メモリであり、122はシステム制御部50の動作用の定数、変数、不揮発性メモリ124から読みだしたプログラム等を展開するシステムメモリである。123はストロボなどの光源装置、124は被写体との距離を測定し、撮影画素の画素単位に対応する距離情報を2次元の距離マップ画像として出力する測距センサである。 Further, 121 is a non-volatile memory such as EEPROM for storing programs and parameters, and 122 is a system memory for developing constants and variables for operation of the system control unit 50, programs read from the non-volatile memory 124, and the like. Is. Reference numeral 123 denotes a light source device such as a strobe, and 124 is a distance measuring sensor that measures the distance to the subject and outputs distance information corresponding to each pixel of the photographing pixel as a two-dimensional distance map image.

次に、上記のように構成されたデジタルカメラ100における被写体撮影時の基本動作について説明する。撮像部103は、レンズ101及びシャッター102を介して入射した光を光電変換し、入力画像信号としてA/D変換器104へ出力する。A/D変換器104は撮像部103から出力されるアナログ画像信号をデジタル画像信号に変換し画像処理部105に出力する。 Next, the basic operation at the time of shooting a subject with the digital camera 100 configured as described above will be described. The imaging unit 103 photoelectrically converts the light incident through the lens 101 and the shutter 102, and outputs the light as an input image signal to the A / D converter 104. The A / D converter 104 converts the analog image signal output from the image pickup unit 103 into a digital image signal and outputs the analog image signal to the image processing unit 105.

画像処理部105は、A/D変換器104からの画像データ、又は、メモリ制御部107からの画像データに対し、ホワイトバランス補正などの色変換処理、γ処理、輪郭強調処理などを行う。また、画像処理部105では、顔検出部113の顔検出結果や、撮像した画像データを用いて所定の評価値算出処理(図示しない)を行い、得られた評価値結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理などを行う。 The image processing unit 105 performs color conversion processing such as white balance correction, γ processing, contour enhancement processing, and the like on the image data from the A / D converter 104 or the image data from the memory control unit 107. Further, the image processing unit 105 performs a predetermined evaluation value calculation process (not shown) using the face detection result of the face detection unit 113 and the captured image data, and the system control unit is based on the obtained evaluation value result. 50 performs exposure control and distance measurement control. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and the like are performed.

画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、撮像部103から出力された画像データや、表示部109に表示するための画像データを格納する。 The image data output from the image processing unit 105 is written to the image memory 106 via the memory control unit 107. The image memory 106 stores the image data output from the imaging unit 103 and the image data to be displayed on the display unit 109.

また、D/A変換器108は、画像メモリ106に格納されている画像表示用のデータをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示器上に、D/A変換器108からのアナログ信号に応じた表示を行う。 Further, the D / A converter 108 converts the image display data stored in the image memory 106 into an analog signal and supplies it to the display unit 109. The display unit 109 displays on a display such as an LCD according to the analog signal from the D / A converter 108.

コーデック部110は、画像メモリ106に記録された画像データをJPEG,MPEGなどの規格に基づきそれぞれ圧縮符号化する。システム制御部50は符号化した画像データを関連付けて、記録インタフェース111を介して記録媒体に格納する。 The codec unit 110 compresses and encodes the image data recorded in the image memory 106 based on standards such as JPEG and MPEG. The system control unit 50 associates the encoded image data and stores it in the recording medium via the recording interface 111.

以上、被写体撮影時の基本動作について説明した。 The basic operation when shooting a subject has been described above.

上記の基本動作以外に、システム制御部50は、前述した不揮発性メモリ124に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。この際、システム制御部50の動作用の定数、変数、不揮発性メモリ121から読み出したプログラム等をシステムメモリ122に展開する。 In addition to the above basic operations, the system control unit 50 realizes each process of the present embodiment described later by executing the program recorded in the non-volatile memory 124 described above. The program referred to here is a program for executing various flowcharts described later in this embodiment. At this time, the constants and variables for the operation of the system control unit 50, the program read from the non-volatile memory 121, and the like are expanded in the system memory 122.

なお、本実施形態ではシステム制御部50の制御の下、後述する画像処理を行う構成としたが、ハードウェアの構成は本実施形態には限定されない。例えば1つのハードウェアが入力信号またはプログラムに従って各種手段として機能してもよいし、複数のハードウェアが協働して1つの手段として機能する構成としてもよい。また、処理の一部をいわゆるソフトウェアプログラムに従う処理ではなく、回路を用いて実現してもよい。 In this embodiment, the image processing described later is performed under the control of the system control unit 50, but the hardware configuration is not limited to this embodiment. For example, one hardware may function as various means according to an input signal or a program, or a plurality of hardware may cooperate to function as one means. Further, a part of the processing may be realized by using a circuit instead of the processing according to the so-called software program.

また、表示部や記録媒体は必ずしも装置自身が有している必要はなく、外部ディスプレイや外部記録媒体を接続する構成としてもよい。装置は少なくとも表示制御および記録制御を行う手段を有していれば足りる。 Further, the display unit and the recording medium do not necessarily have to be possessed by the device itself, and may be configured to connect an external display or an external recording medium. It suffices that the device has at least means for performing display control and recording control.

次に、画像処理部105の詳細について図2を用いて説明する。図2は画像処理部105の構成を示すブロック図である。 Next, the details of the image processing unit 105 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the image processing unit 105.

図2において、200は同時化処理部、201はWB増幅部、202は輝度・色信号生成部、203は輪郭強調処理部、204は輝度ガンマ処理部、205は色変換処理部、206は色γ処理部、207は色差信号生成部、である。また、208は画像の特徴情報を出力する評価値生成部である。 In FIG. 2, 200 is a simultaneous processing unit, 201 is a WB amplification unit, 202 is a brightness / color signal generation unit, 203 is a contour enhancement processing unit, 204 is a brightness gamma processing unit, 205 is a color conversion processing unit, and 206 is a color. The γ processing unit and 207 are color difference signal generation units. Reference numeral 208 denotes an evaluation value generation unit that outputs feature information of the image.

次に、画像処理部105における処理について説明する。図1のA/D変換部104から入力された画像信号が画像処理部105に入力される。 Next, the processing in the image processing unit 105 will be described. The image signal input from the A / D conversion unit 104 of FIG. 1 is input to the image processing unit 105.

画像処理部105に入力された画像信号は同時化処理部200に入力される。同時化処理部200は入力されたベイヤーRGBの画像データに対して、同時化処理を行い、色信号R,G,Bを生成する。WB増幅部201は、後述するフローによりユーザによって設定されたホワイトバランスゲイン値に基づき、RGBの色信号にゲインをかけ、ホワイトバランス補正を行う。WB増幅部201が出力したRGB信号は輝度・色信号生成部202に入力される。輝度・色信号生成部202RGB信号から輝度信号Yを生成し、生成した輝度信号Yを輪郭強調処理部203、色信号RGBを色変換処理部205へ出力する。 The image signal input to the image processing unit 105 is input to the simultaneous processing unit 200. The simultaneous processing unit 200 performs simultaneous processing on the input Bayer RGB image data to generate color signals R, G, and B. The WB amplification unit 201 applies a gain to the RGB color signal based on the white balance gain value set by the user according to the flow described later, and performs the white balance correction. The RGB signal output by the WB amplification unit 201 is input to the luminance / color signal generation unit 202. Luminance / color signal generation unit 202 A luminance signal Y is generated from the RGB signal, the generated luminance signal Y is output to the contour enhancement processing unit 203, and the color signal RGB is output to the color conversion processing unit 205.

輪郭強調処理部203では、輝度信号に対して輪郭強調処理を行い、輝度ガンマ処理部204へ出力する。輝度ガンマ処理部204では輝度信号Yに対してガンマ補正を行い、輝度信号Yを画像メモリ106に出力する。 The contour enhancement processing unit 203 performs contour enhancement processing on the luminance signal and outputs it to the luminance gamma processing unit 204. The luminance gamma processing unit 204 performs gamma correction on the luminance signal Y and outputs the luminance signal Y to the image memory 106.

色変換処理部205は、RGB信号に対するマトリクス演算などにより、所望のカラーバランスへ変換する。色ガンマ処理部206では、RGBの色信号にガンマ補正を行う。色差信号生成部207では、RGB信号から色差信号R−Y、B−Y信号を生成する。 The color conversion processing unit 205 converts the RGB signal into a desired color balance by performing a matrix calculation or the like. The color gamma processing unit 206 performs gamma correction on the RGB color signal. The color difference signal generation unit 207 generates color difference signals RY and BY signals from RGB signals.

画像メモリ106に出力された画像信号Y,R−Y,B−Y信号は、コーデック部110によって圧縮符号化し、記録媒体200に記録する。 The image signals Y, RY, and BY signals output to the image memory 106 are compressed and encoded by the codec unit 110 and recorded on the recording medium 200.

また、同時化処理部200の出力RGB信号は評価値生成部208へも入力する。評価値生成部208は、入力画像を図6に示すような複数のブロックに分割し、そのブロック毎のRGB値の平均値を評価値として算出する。評価値生成部208は、算出した評価値をシステムメモリ122に出力する。 Further, the output RGB signal of the simultaneous processing unit 200 is also input to the evaluation value generation unit 208. The evaluation value generation unit 208 divides the input image into a plurality of blocks as shown in FIG. 6, and calculates the average value of the RGB values for each block as the evaluation value. The evaluation value generation unit 208 outputs the calculated evaluation value to the system memory 122.

次にリライティング処理部114の構成および動作について図3を用いて説明する。 Next, the configuration and operation of the rewriting processing unit 114 will be described with reference to FIG.

後述するフローにより「背景色シフトモード」がONになっている場合には、画像処理部105から出力したデータをリライティング処理部114に入力し、仮想光源による仮想光を照射した効果を付与するリライティング(仮想ライティング)処理を行う。 When the "background color shift mode" is turned on by the flow described later, the data output from the image processing unit 105 is input to the rewriting processing unit 114, and the effect of irradiating the virtual light by the virtual light source is given. Performs (virtual lighting) processing.

図3はリライティング処理部114の構成を示すブロック図である。 FIG. 3 is a block diagram showing the configuration of the rewriting processing unit 114.

図3において、301は入力された輝度・色差信号(Y、B−Y、R−Y)をRGB信号に変換するRGB信号変換部、302はデガンマ処理を行うデガンマ処理部である。 In FIG. 3, 301 is an RGB signal conversion unit that converts input luminance / color difference signals (Y, BY, RY) into RGB signals, and 302 is a degamma processing unit that performs degamma processing.

303は仮想光源が被写体に反射した成分を算出し、仮想光源の影響を入力画像に反映する仮想光源処理部である。 Reference numeral 303 denotes a virtual light source processing unit that calculates a component reflected by the virtual light source on the subject and reflects the influence of the virtual light source on the input image.

また、304はRGB信号にガンマ特性をかけるガンマ処理部、305は、RGB信号を輝度・色差信号(Y、B−Y、R−Y)に変換する輝度・色差信号変換部である。 Further, 304 is a gamma processing unit that applies a gamma characteristic to an RGB signal, and 305 is a luminance / color difference signal conversion unit that converts an RGB signal into a luminance / color difference signal (Y, BY, RY).

また、306は距離情報から法線を算出する法線算出部、307は、仮想光源が被写体に反射した成分を算出する仮想光源反射成分算出部である。 Further, 306 is a normal calculation unit for calculating a normal from distance information, and 307 is a virtual light source reflection component calculation unit for calculating a component reflected by a virtual light source on a subject.

上記の構成のリライティング処理部114の動作について説明する。 The operation of the rewriting processing unit 114 having the above configuration will be described.

リライティング処理部114は、画像メモリ106に記録された輝度・色差信号(Y、B−Y、R−Y)を読み出し、入力とする。RGB信号変換部301は、入力された輝度・色差信号(Y、B−Y、R−Y)をRGB信号に変換し、デガンマ処理部302へ出力する。 The rewriting processing unit 114 reads out the luminance / color difference signals (Y, BY, RY) recorded in the image memory 106 and uses them as inputs. The RGB signal conversion unit 301 converts the input luminance / color difference signals (Y, BY, RY) into RGB signals and outputs them to the degamma processing unit 302.

デガンマ処理部302は、画像処理部105のガンマ処理部で掛けられたガンマ特性と逆の特性の演算を行いリニアデータに変換する。デガンマ処理部302は、リニア変換後のRGB信号(Rin、Gin、Bin)を、仮想光源処理部303に出力する。 The degamma processing unit 302 performs an operation of a characteristic opposite to the gamma characteristic multiplied by the gamma processing unit of the image processing unit 105 and converts it into linear data. The degamma processing unit 302 outputs the RGB signals (Rin, Gin, Bin) after linear conversion to the virtual light source processing unit 303.

法線算出部306は測距センサ(図1の124)から取得した被写体距離情報から法線マップを算出する。被写体距離情報とは、撮影画像の画素単位で得られる2次元の距離情報のことである。被写体距離情報から法線マップを生成する方法に関しては、公知の技術を用いるものとするが、具体的な処理例について図4を用いて説明する。図4はカメラ撮影座標と、被写体の関係を示す図である。 The normal calculation unit 306 calculates a normal map from the subject distance information acquired from the distance measuring sensor (124 in FIG. 1). The subject distance information is two-dimensional distance information obtained in pixel units of a captured image. As for the method of generating the normal map from the subject distance information, a known technique is used, but a specific processing example will be described with reference to FIG. FIG. 4 is a diagram showing the relationship between the camera shooting coordinates and the subject.

図4に示す被写体401の法線N402を算出する場合、撮影画像の水平方向の差分ΔHに対する距離(奥行き)Dの差分ΔDから勾配情報を算出し、勾配情報から法線Nを算出することが可能である。法線算出部306は、撮影した被写体の各画素に対して上記の処理を行うことで、撮影画像の各画素に対応する法線情報Nを算出する。法線算出部306は、撮影画像の各画素に対して算出した法線情報を法線マップとして仮想光源処理部303へ出力する。 When calculating the normal N402 of the subject 401 shown in FIG. 4, the gradient information can be calculated from the difference ΔD of the distance (depth) D with respect to the horizontal difference ΔH of the captured image, and the normal N can be calculated from the gradient information. It is possible. The normal calculation unit 306 calculates the normal information N corresponding to each pixel of the photographed image by performing the above processing on each pixel of the photographed subject. The normal calculation unit 306 outputs the normal information calculated for each pixel of the captured image as a normal map to the virtual light source processing unit 303.

仮想光源処理部303では、設置した仮想光源が被写体に反射する反射成分の影響を入力信号(Rin、Gin、Bin)に付与する。 The virtual light source processing unit 303 applies the influence of the reflection component reflected by the installed virtual light source to the subject to the input signal (Rin, Gin, Bin).

仮想光源の反射成分の算出について図4を用いて説明する。図4において、仮想光源を403の位置に設置した場合について考える。カメラ100で撮影された撮影画像の水平画素位置H1(垂直画素位置は説明の簡略化のため省略)における反射成分は、カメラ座標H1における法線N1と仮想光源の方向ベクトルL1の内積に比例する。そして仮想光源と被写体位置の距離K1の二乗に反比例する値となる。 The calculation of the reflection component of the virtual light source will be described with reference to FIG. In FIG. 4, consider the case where the virtual light source is installed at the position of 403. The reflection component at the horizontal pixel position H1 (the vertical pixel position is omitted for simplification of explanation) of the captured image taken by the camera 100 is proportional to the inner product of the normal N1 at the camera coordinates H1 and the direction vector L1 of the virtual light source. .. Then, the value is inversely proportional to the square of the distance K1 between the virtual light source and the subject position.

この関係を数式で表現すると仮想光源による反射成分(Rout、Gout、Bout)は下記の通りとなる。
(式1)
Rout=β×Rin×Rcolor+(1−β)×Rin
Gout=Gin
Bout=β×B×Bcolor+(1−β)×Bin
When this relationship is expressed by a mathematical formula, the reflection components (Rout, Gout, Bout) by the virtual light source are as follows.
(Equation 1)
Rout = β × Rin × Rcolor + (1-β) × Rin
Gout = Gin
Bout = β × B × Bcolor + (1-β) × Bin

ここで、Rcolor、Bcolorは仮想光源の色を制御するパラメータであり、後述する処理に基づき決定する。また、βは仮想光源と被写体の位置関係も含めた仮想光源の被写体への寄与度合いを示し下記の式で算出する。 Here, Rcolor and Bcolor are parameters that control the color of the virtual light source, and are determined based on the processing described later. Further, β indicates the degree of contribution of the virtual light source to the subject including the positional relationship between the virtual light source and the subject, and is calculated by the following formula.

Figure 2021087125
Figure 2021087125

ここで、αは仮想光源のゲインの大きさ、Lは仮想光源の3次元方向ベクトル、Nは被写体の3次元法線ベクトル、Kは仮想光源と被写体の距離である。ただし、β≦1とする。 Here, α is the magnitude of the gain of the virtual light source, L is the three-dimensional direction vector of the virtual light source, N is the three-dimensional normal vector of the subject, and K is the distance between the virtual light source and the subject. However, β ≦ 1 is set.

上記の式により、仮想光源の影響を強く受ける画素はβが1に近くなり、Rcolor、Bcolorによる色の補正を強く受けることになる。一方で、仮想光源の影響を受けない画素はβ=0となり、入力信号(Rin、Gin、Bin)がそのまま出力される。 According to the above equation, the pixel strongly affected by the virtual light source has β close to 1, and is strongly subjected to color correction by Rcolor and Bcolor. On the other hand, the pixels that are not affected by the virtual light source have β = 0, and the input signals (Rin, Gin, Bin) are output as they are.

なお、上記は、仮想光源が一つの場合の例であるが、仮想光源は複数設定することも可能であり、その場合は光源毎にβ値を算出し、それぞれの仮想光源の影響を加重加算して出力信号を生成する。 The above is an example when there is one virtual light source, but it is possible to set multiple virtual light sources. In that case, the β value is calculated for each light source and the influence of each virtual light source is weighted and added. To generate an output signal.

仮想光源付加処理部303から出力された画像信号(Rout、Gout、Bout)はガンマ処理部304に入力される。ガンマ処理部304では、RGBの入力信号にガンマ補正を行い、ガンマ後のRGB信号(R’out、G’out、B’out)を色差信号生成部305に出力する。色差信号生成部305では、RGB信号から輝度Y、色差信号R−Y、B−Y信号を生成する。 The image signals (Rout, Gout, Bout) output from the virtual light source addition processing unit 303 are input to the gamma processing unit 304. The gamma processing unit 304 performs gamma correction on the RGB input signal, and outputs the RGB signals (R'out, G'out, B'out) after the gamma to the color difference signal generation unit 305. The color difference signal generation unit 305 generates luminance Y, color difference signals RY, and BY signals from RGB signals.

以上が、リライティング処理部114の動作である。 The above is the operation of the rewriting processing unit 114.

システム制御部50は、リライティング補正部114が出力した輝度・色差信号を、メモリ制御部107の制御によって、画像メモリ106に蓄積したのち、コーデック部110で圧縮符号化を行う。また、I/F111を介して記録媒体112に記録する。 The system control unit 50 stores the luminance / color difference signal output by the rewriting correction unit 114 in the image memory 106 under the control of the memory control unit 107, and then compresses and encodes it in the codec unit 110. Also, recording is performed on the recording medium 112 via the I / F 111.

次に、システム制御部50が、仮想光源の色パラメータ(Rcolor、Bcolor)および、光源方向等の各種パラメータを決定する処理フローについて図5を用いて説明する。画像処理部105の処理が完了するとシステム制御部50は図5のフローに従ってリライティングのパラメータを算出する。 Next, a processing flow in which the system control unit 50 determines various parameters such as the color parameters (Rcolor, Bcolor) of the virtual light source and the direction of the light source will be described with reference to FIG. When the processing of the image processing unit 105 is completed, the system control unit 50 calculates the rewriting parameters according to the flow of FIG.

図5においてステップS501では、「背景色シフトモード」がONに設定されているか否かを判定する。ここで、図5に示したフローに先だって、図示しないメニュー操作によりユーザから「背景色シフトモード」をON(有効)にするかOFF(無効)にするかのユーザ入力を受け付けているものとする。 In step S501 in FIG. 5, it is determined whether or not the "background color shift mode" is set to ON. Here, prior to the flow shown in FIG. 5, it is assumed that the user inputs whether to turn the "background color shift mode" ON (enabled) or OFF (disabled) by a menu operation (not shown). ..

「背景色シフトモード」とは、ユーザによって手動でホワイトバランスゲインが調整された場合に、主に背景領域に手動ホワイトバランスゲインの調整結果が反映されるモードである。「背景色シフトモード」がONの場合は、手動ホワイトバランスゲインの値に関わらず、仮想光源が当たる領域は適正な色バランス(白が白に近づく)になるように制御する。この結果、仮想光源が当たる被写体領域は常にホワイトバランスが合った状態に近づき、仮想光源が当たらない背景領域に関してはユーザが手動でホワイトバランスを調整した色味が反映される。 The "background color shift mode" is a mode in which the adjustment result of the manual white balance gain is mainly reflected in the background area when the white balance gain is manually adjusted by the user. When the "background color shift mode" is ON, the area exposed to the virtual light source is controlled so as to have an appropriate color balance (white approaches white) regardless of the value of the manual white balance gain. As a result, the subject area exposed to the virtual light source always approaches the state in which the white balance is matched, and the color tone for which the user manually adjusts the white balance is reflected in the background area not exposed to the virtual light source.

ステップS501において、「背景色シフトモード」がONの場合はステップS502に進む。「背景色シフトモード」がOFFの場合は、処理を終了する。 If the "background color shift mode" is ON in step S501, the process proceeds to step S502. If the "background color shift mode" is OFF, the process ends.

ステップS502では、ユーザによるメニュー操作により手動ホワイトバランスゲイン値の入力を受け付ける。これは、例えば、ユーザが2000Kから9000Kの間で好みの色温度を指定することで行う。ユーザから指定された色温度に対応するホワイトバランスゲイン値は、手動ホワイトバランスゲインとしてWB増幅部(図2の201)に設定する。この時の手動ホワイトバランスゲインを下記のように表記する。
手動Rゲイン=Rshift
手動Gゲイン=1
手動Bゲイン=Bshift
In step S502, the input of the manual white balance gain value is accepted by the menu operation by the user. This is done, for example, by allowing the user to specify a preferred color temperature between 2000K and 9000K. The white balance gain value corresponding to the color temperature specified by the user is set in the WB amplification unit (201 in FIG. 2) as a manual white balance gain. The manual white balance gain at this time is described as follows.
Manual R gain = Rshift
Manual G gain = 1
Manual B gain = Bshift

例えば、環境光の色温度が3000Kのときに、手動ホワイトバランスを8000Kに設定した場合を考える。この場合、環境光が3000Kに対して、8000K用のゲインを設定しているため、WB増幅部(図2の201)からの出力としては、画像全体が赤みを帯びた色にシフトした画像を出力することになる。 For example, consider the case where the manual white balance is set to 8000K when the color temperature of the ambient light is 3000K. In this case, since the gain for 8000K is set for the ambient light of 3000K, the output from the WB amplification unit (201 in FIG. 2) is an image in which the entire image is shifted to a reddish color. It will be output.

ステップS503では、評価値生成部(図2の208)で生成した評価値から環境光の色温度を推定し、環境光を適正に補正するホワイトバランスゲインを算出する。具体的には、評価値生成部から出力されるブロック評価値(図6)から、白(無彩色)に近い色比率を持つブロックを抽出し、抽出した複数のブロックの平均RGB値を算出する。算出した白(無彩色)に近いブロック平均RGB値を無彩色(R=G=B)に補正するホワイトバランスゲインを環境光補正のホワイトバランスゲインとして算出する。環境光補正のホワイトバランスゲインを下記のように表記する。
環境光補正Rゲイン=Rambient
環境光補正Gゲイン=1
環境光補正Bゲイン=Bambient
In step S503, the color temperature of the ambient light is estimated from the evaluation value generated by the evaluation value generation unit (208 in FIG. 2), and the white balance gain for appropriately correcting the ambient light is calculated. Specifically, a block having a color ratio close to white (achromatic color) is extracted from the block evaluation value (FIG. 6) output from the evaluation value generation unit, and the average RGB value of the extracted plurality of blocks is calculated. .. The white balance gain that corrects the calculated block average RGB value close to white (achromatic color) to achromatic color (R = G = B) is calculated as the white balance gain for ambient light correction. The white balance gain for ambient light correction is expressed as follows.
Ambient light correction R gain = Rambient
Ambient light correction G gain = 1
Ambient light correction B gain = Bambient

ステップS504では、ステップS502で設定した手動ホワイトバラスゲインと、ステップS503で算出した環境光補正ホワイトバランスゲインを比較して、所定の閾値以上の差異があるかを判定する。所定の閾値以上の差異がある場合はステップS505に進み、差異がない場合は処理を終える。 In step S504, the manual white ballast gain set in step S502 is compared with the ambient light correction white balance gain calculated in step S503, and it is determined whether or not there is a difference of a predetermined threshold value or more. If there is a difference of the predetermined threshold value or more, the process proceeds to step S505, and if there is no difference, the process ends.

ステップS505では、リライティングに用いる仮想光源の光源色を決定する。本実施例では、ステップS502で取得した手動ホワイトバランスゲインと、環境光から算出した環境光補正ホワイトバランスゲインに基づき仮想光源の光源色を決定する。具体的には、仮想光源を照射した結果、手動ホワイトバランスゲイン成分をキャンセルし、環境光補正ホワイトバランスゲインをかけた状態に近づくように、下記の式に基づき仮想光源の色(Rcolor、Bcolor)を設定する。
Rcolor=Rambient/Rshift
Bcolor=Bambient/Bshift
In step S505, the light source color of the virtual light source used for rewriting is determined. In this embodiment, the light source color of the virtual light source is determined based on the manual white balance gain acquired in step S502 and the ambient light correction white balance gain calculated from the ambient light. Specifically, as a result of irradiating the virtual light source, the color of the virtual light source (Rcolor, Bcolor) is based on the following formula so as to cancel the manual white balance gain component and approach the state in which the ambient light correction white balance gain is applied. To set.
Rcolor = Rambient / Rshift
Bcolor = Bambient / Bshift

ステップS506では、主被写体の特徴に基づき仮想光源の照射方向および、照射範囲を決定する。本実施例では主被写体を検出し、仮想光源の照射方向を主被写体の向きに基づき決定する。本実施例では、カメラの光軸方向に対して45度傾いた方向で、かつ主被写体の正面側から仮想光源を照射するように仮想光源の位置と方向を制御する。この具体例について図7を用いて説明する。 In step S506, the irradiation direction and irradiation range of the virtual light source are determined based on the characteristics of the main subject. In this embodiment, the main subject is detected, and the irradiation direction of the virtual light source is determined based on the orientation of the main subject. In this embodiment, the position and direction of the virtual light source are controlled so as to irradiate the virtual light source from the front side of the main subject in a direction inclined by 45 degrees with respect to the optical axis direction of the camera. A specific example of this will be described with reference to FIG.

図7は、主被写体とカメラ100および仮想光源の情報からの位置関係を示した図である。図7において、100はカメラの位置、701は検出した主被写体の位置を示している。図7に示す通り、カメラの光軸に対して45度傾いた方向で、かつ主被写体正面方向ベクトルとの角度が小さくなる方向を光源方向として設定する。また、主被写体の位置から所定の距離離れた位置(図7では702の位置)に仮想光源の位置を決定する。 FIG. 7 is a diagram showing a positional relationship between the main subject and the information of the camera 100 and the virtual light source. In FIG. 7, 100 indicates the position of the camera, and 701 indicates the position of the detected main subject. As shown in FIG. 7, the direction tilted by 45 degrees with respect to the optical axis of the camera and the direction in which the angle with the main subject front direction vector becomes smaller is set as the light source direction. Further, the position of the virtual light source is determined at a position (position 702 in FIG. 7) separated from the position of the main subject by a predetermined distance.

上記のように被写体に対して斜めから照射するような光源方向を設定することで、被写体の正面側の色が訂正に補正されつつ、側面は背景に近い色となり立体感を出すことが可能となる。 By setting the light source direction so that the subject is illuminated diagonally as described above, the color on the front side of the subject is corrected for correction, and the side surface becomes a color close to the background, making it possible to create a three-dimensional effect. Become.

次に、仮想光源の照射範囲を主被写体の領域に基づき決定する。主被写体が人物である場合の例を図8に示す。図8(A)は撮影画像を示しており、801は主被写体の人物領域である。主被写体領域(人物領域)を抽出したものが図8(B)であり、802は主被写体領域を示している。また、主被写体領域を包含するように光の照射範囲803を決定する。この被写体領域803を包含するように決めた仮想光源の照射範囲例を図8(C)の804に示す。ここで、仮想光源の光源強度特性として、照射範囲すべてを均一な強度で照射するのではなく、照射中心から周辺に行くにしたがって徐々に仮想光源の強度が弱くなるような特性となるように仮想光源の特性を決める。したがって、主被写体に仮想光を照射する場合は、主被写体領域の端部ほど仮想光の強度が低下する。 Next, the irradiation range of the virtual light source is determined based on the area of the main subject. FIG. 8 shows an example in which the main subject is a person. FIG. 8A shows a photographed image, and 801 is a person area of the main subject. FIG. 8B is an extract of the main subject area (personal area), and 802 shows the main subject area. Further, the light irradiation range 803 is determined so as to include the main subject area. An example of the irradiation range of the virtual light source determined to include the subject area 803 is shown in FIG. 804 of FIG. 8C. Here, the light source intensity characteristic of the virtual light source is such that the intensity of the virtual light source gradually weakens from the irradiation center to the periphery, instead of irradiating the entire irradiation range with a uniform intensity. Determine the characteristics of the light source. Therefore, when irradiating the main subject with virtual light, the intensity of the virtual light decreases toward the edge of the main subject area.

図5に戻り、ステップS507では、上述のステップで算出した仮想光源の色、位置、照射範囲などのパラメータを仮想光源処理部(図3の303)に設定する。 Returning to FIG. 5, in step S507, parameters such as the color, position, and irradiation range of the virtual light source calculated in the above step are set in the virtual light source processing unit (303 in FIG. 3).

以上、仮想光源のパラメータを決定する処理フローについて説明した。上記のように決定した仮想光源のパラメータに基づきライティング処理を行うことで、仮想光源の光に照射された被写体領域の色が適正な(白が白で再現される)ホワイトバランスで撮影した色に近づく。 The processing flow for determining the parameters of the virtual light source has been described above. By performing the lighting process based on the parameters of the virtual light source determined as described above, the color of the subject area illuminated by the light of the virtual light source becomes the color shot with the appropriate white balance (white is reproduced in white). Get closer.

以上で説明したように、本実施例ではユーザが手動で設定したホワイトバランス値と、環境光に基づくホワイトバランス値の差異に基づき、仮想光源の色を制御する構成とした。これにより、仮想光源の光に照射された被写体領域の色を環境光に対して適正なホワイトバランスで撮影した色に近づけることが可能となる。 As described above, in this embodiment, the color of the virtual light source is controlled based on the difference between the white balance value manually set by the user and the white balance value based on the ambient light. This makes it possible to bring the color of the subject area irradiated with the light of the virtual light source closer to the color captured with an appropriate white balance with respect to the ambient light.

また、カメラの向きに応じて斜めから仮想光源を照射するように仮想光源の照射方向を制御する構成とした。これにより、単純に被写体領域の色を一律で変更する場合と比較して立体感を出した画像を生成することが可能となる。 In addition, the irradiation direction of the virtual light source is controlled so as to irradiate the virtual light source diagonally according to the direction of the camera. This makes it possible to generate an image having a stereoscopic effect as compared with the case where the color of the subject area is simply changed uniformly.

なお、上記の実施例では、ストロボ装置を用いない場合の、仮想光源を利用した背景色シフト制御について説明したが、ストロボ装置を利用する場合についても仮想光源を利用した背景色シフト制御を行うことが可能である。 In the above embodiment, the background color shift control using the virtual light source is described when the strobe device is not used, but the background color shift control using the virtual light source is also performed when the strobe device is used. Is possible.

その場合、図5のステップS503、S504で環境光の色からホワイトバランスゲインを算出する代わりにストロボ光に対応した(ストロボ光の色を白にする)ホワイトバランスゲインを取得する。ストロボ光に対応したホワイトバランスゲインは予めカメラ100の不揮発性メモリ121内に記録しておくものとする。ストロボ光に対応したホワイトバランスゲインを下記のように表記する。
ストロボ光補正Rゲイン=Rstrobe
ストロボ光補正Gゲイン=1
ストロボ光補正Bゲイン=Bstrobe
In that case, instead of calculating the white balance gain from the color of the ambient light in steps S503 and S504 of FIG. 5, the white balance gain corresponding to the strobe light (making the color of the strobe light white) is acquired. The white balance gain corresponding to the strobe light shall be recorded in advance in the non-volatile memory 121 of the camera 100. The white balance gain corresponding to the strobe light is described as follows.
Strobe light correction R gain = R strobe
Strobe light correction G gain = 1
Strobe light correction B gain = B strobe

仮想光源の色(Rcolor、Bcolor)に関しても、S505の環境光のホワイトバランスゲインをストロボ光ホワイトバランスゲインに置き換えて下記のように算出する。
Rcolor=Rstrobe/Rshift
Bcolor=Bstrobe/Bshift
The colors of the virtual light source (Rcolor, Bcolor) are also calculated as follows by replacing the white balance gain of the ambient light of S505 with the white balance gain of the strobe light.
Rcolor = Rstrobe / Rshift
Bcolor = Bstrom / Bshift

仮想光源の方向や位置の決定方法は前述と同様に制御してもよいが、実際のストロボ装置とカメラの位置関係を参照して決定してもよい。例えば、ストロボ装置がカメラ本体とは別の位置に置かれている場合ストロボ装置がある側に仮想光源を配置するものとする。 The method of determining the direction and position of the virtual light source may be controlled in the same manner as described above, but may be determined by referring to the positional relationship between the actual strobe device and the camera. For example, when the strobe device is placed at a position different from that of the camera body, the virtual light source is placed on the side where the strobe device is located.

また、仮想光源の位置および範囲をストロボ装置の位置に基づき決めるのではなく、仮想光源の当たり方を示すβ値(式2)を、ストロボ発光画像を利用して直接算出する方法をとることも可能である。この場合はストロボ非発光とストロボ発光後の輝度差が大きいほどβが1に近づくように算出する。ストロボ光が強く当たっている場所に関してはβが大きくなるため、ストロボ光が当たっている領域に対しては、色バランスが適切(白が白に)な画像を生成することが可能となる。 Further, instead of determining the position and range of the virtual light source based on the position of the strobe device, it is also possible to directly calculate the β value (Equation 2) indicating how the virtual light source hits by using the strobe light emission image. It is possible. In this case, it is calculated so that β approaches 1 as the difference in brightness between non-strobe light emission and strobe light emission increases. Since β becomes large in the place where the strobe light is strongly hit, it is possible to generate an image with an appropriate color balance (white becomes white) in the region where the strobe light is hit.

上記のように制御することで、ストロボ光が当たっている場合についても背景色シフトが可能となる。 By controlling as described above, the background color can be shifted even when the strobe light is shining.

また、本実施例では仮想光源の方向を、カメラの光軸方向に対して45度斜めにずらした方向としたが、仮想光源の方向の決定方法をこれに限定するものではなく、カメラの光軸方向から所定の角度以上ずらした方向であればどのような方法で決定してもよい。 Further, in this embodiment, the direction of the virtual light source is set to be a direction shifted at an angle of 45 degrees with respect to the optical axis direction of the camera, but the method of determining the direction of the virtual light source is not limited to this, and the light of the camera is used. Any method may be used as long as the direction is deviated from the axial direction by a predetermined angle or more.

また、上記実施例では、人物領域を主被写体として、人物領域を包含するように仮想光源の照射範囲を設定したが、前景と背景を分離できる方法であればどのような構成をとってもよい。例えば、主被写体を人物に限定するものではなく、その他の動物や物体領域を検出し、主被写体として同様の処理を行っても構わない。また、人物認識などのオブジェクト認識を利用する方法以外にストロボ光の発光と非発光の画像を比較し、差分が大きい領域を主被写体とする構成をとることも可能である。 Further, in the above embodiment, the irradiation range of the virtual light source is set so as to include the person area as the main subject, but any configuration may be adopted as long as the foreground and the background can be separated. For example, the main subject is not limited to a person, and other animals or object areas may be detected and the same processing may be performed as the main subject. In addition to the method of using object recognition such as person recognition, it is also possible to compare images that emit light with strobe light and images that do not emit light, and to adopt a configuration in which a region having a large difference is the main subject.

また、距離情報を利用し、主被写体と同距離にある被写体領域を包含するように光の照射範囲を決定してもよいし、距離情報のみを参照し、距離がカメラに近い領域だけを主被写体領域としてもよい。 Further, the distance information may be used to determine the light irradiation range so as to include the subject area at the same distance as the main subject, or only the distance information is referred to and only the area where the distance is close to the camera is mainly used. It may be a subject area.

<他の実施形態>
また、上記実施形態ではカメラが画像処理まで行う例を説明したが、カメラが撮影した、画像に対して、別の画像処理装置がいわゆる現像処理を行う際にホワイトバランス補正およびリライティング処理を行う構成としてもよい。
<Other Embodiments>
Further, in the above embodiment, an example in which the camera performs image processing has been described, but the image taken by the camera is configured to perform white balance correction and rewriting processing when another image processing device performs so-called development processing. May be.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

Claims (11)

撮影画像に対してホワイトバランス補正を行うホワイトバランス補正手段と、
前記撮影画像の被写体に対して仮想光を照射した効果を付与する仮想ライティング手段と、
前記被写体に照射している光源色に基づいた第1のホワイトバランスゲインを算出する手段と、を有し、
前記ホワイトバランス補正手段は、前記第1のホワイトバランスゲインとは異なる第2のホワイトバランスゲインを設定し、
前記仮想ライティング手段は、前記仮想光が照射された効果を付与する領域が、ホワイトバランス補正手段が第1のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御することを特徴とする画像処理装置。
A white balance correction means that corrects the white balance of the captured image,
A virtual lighting means that imparts the effect of irradiating the subject of the captured image with virtual light,
It has a means for calculating a first white balance gain based on the color of the light source irradiating the subject.
The white balance correction means sets a second white balance gain different from the first white balance gain, and sets the second white balance gain.
The virtual lighting means controls the color of the virtual light so that the region to which the effect of the virtual light is applied approaches the color when the white balance correction means sets the first white balance gain. An image processing device characterized by.
画像の背景色を変更するモードをさらに有し、
前記仮想ライティング手段は、前記画像の背景色を変更するモードが有効である場合に、前記仮想光が照射された効果を付与する領域が、前記ホワイトバランス補正手段が第1のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御し、
前記画像の背景色を変更するモードとは異なる他のモードが有効である場合には、前記仮想光が照射された効果を付与する領域が、前記ホワイトバランス補正手段が第2のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御することを特徴とする請求項1に記載の画像処理装置。
It also has a mode to change the background color of the image,
In the virtual lighting means, when the mode for changing the background color of the image is effective, the white balance correction means sets the first white balance gain in the region to which the effect of being irradiated with the virtual light is given. Control the color of the virtual light so that it approaches the color when
When another mode different from the mode for changing the background color of the image is effective, the area to which the effect of irradiating the virtual light is applied is the area where the white balance correction means obtains the second white balance gain. The image processing apparatus according to claim 1, wherein the color of the virtual light is controlled so as to approach the color when the setting is made.
前記仮想ライティング手段は、環境光の色に基づき算出した第1のホワイトバランスゲインと、第2のホワイトバランスゲインの差が所定の閾値よりも大きい場合に、前記仮想光が照射された効果を付与する領域が、前記ホワイトバランス補正手段が第1のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御することを特徴とする請求項1または2に記載の画像処理装置。 The virtual lighting means imparts the effect of being irradiated with the virtual light when the difference between the first white balance gain calculated based on the color of the ambient light and the second white balance gain is larger than a predetermined threshold value. The image processing apparatus according to claim 1 or 2, wherein the color of the virtual light is controlled so that the area to be processed approaches the color when the white balance correction means sets the first white balance gain. .. 前記仮想ライティング手段は、前記仮想光の光源強度特性を被写体領域ごとに算出し、前記仮想光の光源強度特性が高い領域ほど、前記ホワイトバランス補正手段が第1のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The virtual lighting means calculates the light source intensity characteristic of the virtual light for each subject area, and the region where the light source intensity characteristic of the virtual light is higher is the case where the white balance correction means sets the first white balance gain. The image processing apparatus according to any one of claims 1 to 3, wherein the color of the virtual light is controlled so as to approach the color. 前記仮想ライティング手段は、
前記仮想光の照射方向を、前記撮影画像を撮影した撮像装置の光軸方向とは異なる方向に設定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The virtual lighting means
The image processing device according to any one of claims 1 to 4, wherein the irradiation direction of the virtual light is set in a direction different from the optical axis direction of the image pickup device that has captured the captured image.
前記撮影画像の主被写体の向きを検出する検出手段をさらに有し、
前記仮想ライティング手段は、仮想光の照射方向を、前記主被写体の向きに応じて制御することを特徴とする請求項5に記載の画像処理装置。
Further having a detection means for detecting the orientation of the main subject of the captured image,
The image processing apparatus according to claim 5, wherein the virtual lighting means controls the irradiation direction of virtual light according to the direction of the main subject.
前記撮影画像の主被写体の領域を抽出する抽出手段をさらに有し、
前記仮想ライティング手段は、前記主被写体の領域を含むように仮想光の照射範囲を決定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
Further having an extraction means for extracting a region of the main subject of the captured image,
The image processing apparatus according to any one of claims 1 to 6, wherein the virtual lighting means determines an irradiation range of virtual light so as to include an area of the main subject.
前記仮想ライティング手段は、前記主被写体の領域の端部で前記仮想光の強度が低下するように前記仮想光を制御することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the virtual lighting means controls the virtual light so that the intensity of the virtual light is reduced at an end portion of a region of the main subject. 前記撮影画像の被写体と前記撮影画像を撮影した撮像装置との距離に関する情報を取得する手段をさらに有し、
前記主被写体領域は、前記被写体の距離が所定の閾値よりも前記撮像装置に近いことを特徴とする請求項7または8に記載の画像処理装置。
Further having a means for acquiring information regarding the distance between the subject of the captured image and the imaging device that captured the captured image.
The image processing device according to claim 7 or 8, wherein the main subject area is closer to the image pickup device than the distance of the subject is closer to the image pickup device.
画像処理装置の制御方法であって、
撮影画像に対してホワイトバランス補正を行うホワイトバランス補正工程と、
前記撮影画像の被写体に対して仮想光を照射した効果を付与する仮想ライティング工程と、
前記被写体に照射している光源色に基づいた第1のホワイトバランスゲインを算出する算出工程と、を有し、
前記ホワイトバランス補正工程では、前記第1のホワイトバランスゲインとは異なる第2のホワイトバランスゲインを設定し、
前記仮想ライティング工程では、前記仮想光が照射された効果を付与する領域が、ホワイトバランス補正工程で第1のホワイトバランスゲインを設定した場合の色に近づくよう、前記仮想光の色を制御することを特徴とする画像処理装置の制御方法。
It is a control method of an image processing device.
A white balance correction process that corrects the white balance of the captured image,
A virtual lighting process that imparts the effect of irradiating the subject of the captured image with virtual light, and
It has a calculation step of calculating a first white balance gain based on the color of the light source irradiating the subject.
In the white balance correction step, a second white balance gain different from the first white balance gain is set.
In the virtual lighting step, the color of the virtual light is controlled so that the region to which the effect of the virtual light is applied approaches the color when the first white balance gain is set in the white balance correction step. A control method for an image processing device.
コンピュータを、請求項1乃至9のいずれか1項に記載の画像処理装置として機能させる、コンピュータにより実行が可能なプログラム。 A program that can be executed by a computer, which causes the computer to function as the image processing device according to any one of claims 1 to 9.
JP2019215448A 2019-11-28 2019-11-28 Image processing device, control method thereof, and program Pending JP2021087125A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215448A JP2021087125A (en) 2019-11-28 2019-11-28 Image processing device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215448A JP2021087125A (en) 2019-11-28 2019-11-28 Image processing device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2021087125A true JP2021087125A (en) 2021-06-03

Family

ID=76088511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215448A Pending JP2021087125A (en) 2019-11-28 2019-11-28 Image processing device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2021087125A (en)

Similar Documents

Publication Publication Date Title
JP5665436B2 (en) Image processing apparatus, image processing method, and program
JP5743696B2 (en) Image processing apparatus, image processing method, and program
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
JP5808142B2 (en) Image processing apparatus, image processing method, and program
JP6381404B2 (en) Image processing apparatus and method, and imaging apparatus
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
US9961319B2 (en) Image processing apparatus and control method thereof
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP5804856B2 (en) Image processing apparatus, image processing method, and program
JP2013243639A (en) Image processing apparatus, image processing method, and program
JP2021128791A (en) Image processing apparatus, image processing method, and program
CN110324529B (en) Image processing apparatus and control method thereof
US10863103B2 (en) Setting apparatus, setting method, and storage medium
JP7307541B2 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6937603B2 (en) Image processing equipment and its control methods, programs, and storage media
JP5854716B2 (en) Image processing apparatus, image processing method, and program
JP2018182700A (en) Image processing apparatus, control method of the same, program, and storage medium
JP6921606B2 (en) Image processing equipment, image processing methods and programs
US10021314B2 (en) Image processing apparatus, image capturing apparatus, method of controlling the same, and storage medium for changing shading using a virtual light source
JP6541416B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM
JP2021087125A (en) Image processing device, control method thereof, and program
JP2021064884A (en) Image processing apparatus, imaging apparatus, control method, program, and imaging system
JP7462464B2 (en) Image processing device and method, program, and storage medium
JP6675461B2 (en) Image processing apparatus, control method therefor, and program
JP6946055B2 (en) Image processing equipment and image processing methods, programs