JP2017147568A - Image processing apparatus, imaging apparatus, control method, and program - Google Patents
Image processing apparatus, imaging apparatus, control method, and program Download PDFInfo
- Publication number
- JP2017147568A JP2017147568A JP2016027243A JP2016027243A JP2017147568A JP 2017147568 A JP2017147568 A JP 2017147568A JP 2016027243 A JP2016027243 A JP 2016027243A JP 2016027243 A JP2016027243 A JP 2016027243A JP 2017147568 A JP2017147568 A JP 2017147568A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- virtual light
- image
- subject
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置、制御方法及びプログラムに関し、特に撮像後に追加的に定義された仮想光源による照明効果を画像に付加する画像処理技術に関する。 The present invention relates to an image processing apparatus, an imaging apparatus, a control method, and a program, and more particularly to an image processing technique for adding an illumination effect by a virtual light source additionally defined after imaging to an image.
撮影後に得られた画像について、撮影環境には存在しなかった仮想的な光源による照明効果を付加し、被写体に生じた陰影を低減させる技術がある。特許文献1に記載の技術では、画像中の顔領域を検出し、該顔領域に対して定義した仮想光源による明度の調整を行っている。 There is a technique for adding a lighting effect by a virtual light source that does not exist in the shooting environment to an image obtained after shooting to reduce shadows generated on the subject. In the technique described in Patent Document 1, a face area in an image is detected, and brightness adjustment is performed using a virtual light source defined for the face area.
ところで、特許文献1のような明度を上げることで陰影を低減する画像処理では、画像の撮影環境において順光または斜光の関係となるように仮想光源を定義している。一方で、撮影環境は必ずしも順光や斜光ではなく、撮影者によっては逆光特有の表現を所望して撮影を行うこともあり、特許文献1のような画像処理を行うことで、所望の表現が得られない可能性があった。即ち、逆光シーンにおける、被写体の周囲において背後からの光が抜けてくる透過光や、被写体の斜め背後から当たったことにより稜線付近で生じる反射光に係る照明効果は表現されるものでなかった。 By the way, in the image processing for reducing the shadow by increasing the brightness as in Patent Document 1, the virtual light source is defined so as to have the relationship of the following light or the oblique light in the image capturing environment. On the other hand, the shooting environment is not always forward light or oblique light, and depending on the photographer, there are cases where shooting is performed with a desire for expression specific to backlight. By performing image processing as in Patent Document 1, a desired expression can be obtained. There was a possibility that it could not be obtained. That is, in the backlight scene, the illumination effect related to the transmitted light in which light from behind from around the subject passes through or the reflected light generated near the ridge line by hitting from behind the subject is not expressed.
本発明は、上述の問題点に鑑みてなされたものであり、撮像後に逆光特有の表現を好適に実現した画像を生成する画像処理装置、撮像装置、制御方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an image processing apparatus, an imaging apparatus, a control method, and a program that generate an image that preferably realizes expression specific to backlight after imaging. To do.
前述の目的を達成するために、本発明の画像処理装置は、撮像により得られた画像を取得する取得手段と、取得手段により取得された画像に含まれる被写体について、撮像時に存在しなかった仮想光源による影響を演算する演算手段と、演算手段による演算結果に基づき、被写体に仮想光源による影響を付加した画像を出力する出力手段とを有し、演算手段は、仮想光源を定義する位置を決定する決定手段と、取得された画像に含まれる被写体領域を特定する特定手段と、決定手段により逆光の関係となる位置に仮想光源を定義する位置が決定される場合に、特定手段により特定された被写体領域の形状に基づいて、仮想光源による透過光の発生率を決定する第1の決定手段と、仮想光源を定義する位置と被写体領域との位置に基づいて、仮想光源による反射光の発生率を決定する第2の決定手段と、第1の決定手段により決定された透過光の発生率と第2の決定手段により決定された反射光の発生率とに基づいて、仮想光源による影響を演算する処理手段と、を含むことを特徴とする。 In order to achieve the above-described object, an image processing apparatus according to the present invention includes an acquisition unit that acquires an image obtained by imaging, and a virtual object that does not exist at the time of imaging with respect to a subject included in the image acquired by the acquisition unit. A calculation unit that calculates the influence of the light source; and an output unit that outputs an image in which the influence of the virtual light source is added to the subject based on a calculation result of the calculation unit. The calculation unit determines a position where the virtual light source is defined. Determining means, specifying means for specifying the subject area included in the acquired image, and specifying position when the position for defining the virtual light source is determined by the determining means at a position that is in a backlight relationship Based on the shape of the subject area, the first determining means for determining the incidence rate of the transmitted light by the virtual light source, and based on the position of the virtual light source and the position of the subject area, Based on the second determining means for determining the generation rate of the reflected light by the light source, the generation rate of the transmitted light determined by the first determination unit, and the generation rate of the reflected light determined by the second determination unit And processing means for calculating the influence of the virtual light source.
このような構成により本発明によれば、撮像後に逆光特有の表現を好適に実現した画像を生成することが可能となる。 With such a configuration, according to the present invention, it is possible to generate an image that suitably realizes expression specific to backlight after imaging.
[実施形態1]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、仮想光源による照明効果を付加するリライティング処理を実行可能なデジタルカメラに、本発明を適用した例を説明する。しかし、本発明の実施において撮像機能は必須の構成ではなく、画像信号に対して追加的な仮想光源による照明効果を付加する種々の処理が実行可能な任意の機器に適用可能である。また、本明細書において、「リライティング処理」とは、撮像により得られた画像信号に対し、撮影環境には実際に存在しなかった仮想光源を追加的に定義し、該仮想光源による照明効果を付加する処理を言うものとして説明する。
[Embodiment 1]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an example in which the present invention is applied to a digital camera that can execute a relighting process that adds a lighting effect by a virtual light source as an example of an image processing apparatus will be described. However, the imaging function is not an essential configuration in the implementation of the present invention, and can be applied to any device capable of executing various processes for adding an illumination effect by an additional virtual light source to an image signal. Further, in this specification, “relighting processing” is to additionally define a virtual light source that did not actually exist in the shooting environment with respect to the image signal obtained by imaging, and to determine the lighting effect by the virtual light source. Description will be made assuming that the processing to be added is said.
《デジタルカメラ100の構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。
<< Configuration of Digital Camera 100 >>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.
レンズ群101は、ズームレンズ、フォーカスレンズを含む撮像光学系であり、撮影環境の被写体の反射光束や光源からの光束を撮像部103に導く。導かれた光束は、絞り機能を備えるシャッター102により光量制御され、撮像部103によりアナログ画像信号に変換される。撮像部103は、例えばCCDやCMOSセンサ等の撮像装置であり、撮像部103により撮像面に結像された光学像を光電変換し、アナログ画像信号を出力する。撮像部103により出力されたアナログ画像信号はA/D変換器104によりデジタル画像信号(画像データ)に変換され、画像処理部105においてホワイトバランス処理や、ガンマ補正処理、輪郭強調処理、色補正処理等の各種画像処理が適用される。また顔検出部113は、入力された画像データに含まれる人物の顔領域を検出する顔検出処理を実行し、検出結果を出力する。リライティング処理部114は、入力された画像データに対して、仮想光源による照明効果を付加するリライティング処理を適用する。画像に係る各種の処理においては、画像メモリ106が作業領域やデータ格納領域として利用可能に設けられ、画像メモリ106への書き込み/読み出し等のアクセスに係る全般の動作はメモリ制御部107により制御される。 The lens group 101 is an imaging optical system including a zoom lens and a focus lens, and guides a reflected light beam of a subject in a shooting environment and a light beam from a light source to the imaging unit 103. The light flux of the guided light beam is controlled by a shutter 102 having a diaphragm function, and converted to an analog image signal by an imaging unit 103. The imaging unit 103 is an imaging device such as a CCD or CMOS sensor, and photoelectrically converts an optical image formed on the imaging surface by the imaging unit 103 and outputs an analog image signal. The analog image signal output from the imaging unit 103 is converted into a digital image signal (image data) by the A / D converter 104, and the image processing unit 105 performs white balance processing, gamma correction processing, contour enhancement processing, and color correction processing. Various image processing such as these are applied. The face detection unit 113 executes a face detection process for detecting a human face area included in the input image data, and outputs a detection result. The relighting processing unit 114 applies relighting processing for adding a lighting effect by a virtual light source to the input image data. In various processing relating to images, the image memory 106 is provided so as to be usable as a work area and a data storage area, and the overall operation related to access such as writing / reading to the image memory 106 is controlled by the memory control unit 107. The
画像処理部105及びリライティング処理部114それぞれの詳細については、別図を用いて後述する。なお、本実施形態のデジタルカメラ100では各種の画像処理を、画像処理部105、顔検出部113及びリライティング処理部114に分離して構成するものとして説明する。しかしながら、本発明の実施において、これらの画像処理が1以上の任意の数の処理回路で構成されてもよいことは容易に理解されよう。 Details of each of the image processing unit 105 and the relighting processing unit 114 will be described later with reference to another drawing. In the digital camera 100 of the present embodiment, various image processing is described as being configured by being separated into the image processing unit 105, the face detection unit 113, and the relighting processing unit 114. However, it will be readily understood that in the practice of the present invention, these image processes may be comprised of any number of processing circuits greater than one.
撮像により得られ、各種の画像処理や重畳処理が適用された画像データは、D/A変換器108において変換されることで表示用のアナログ画像信号となる。表示用のアナログ画像信号が例えばLCD等の表示部109に表示されることで、電子ビューファインダに係る機能が撮影者に提供される。また撮影動作に係り取得された画像データを記録(保存)する場合には、コーデック部110が予め定められた圧縮・符号化形式で記録用データに変換し、該データがI/F111を介して内蔵メモリやメモリカード等の記録装置である記録媒体112に記録される。また記録媒体112に記録された画像データを表示する場合には、コーデック部110は該データの復号を行う。 Image data obtained by imaging and applied with various image processing and superimposition processing is converted by the D / A converter 108 to become an analog image signal for display. The analog image signal for display is displayed on the display unit 109 such as an LCD, for example, so that a function relating to the electronic viewfinder is provided to the photographer. When recording (storing) image data acquired in connection with a shooting operation, the codec unit 110 converts the data into recording data in a predetermined compression / encoding format, and the data is transmitted via the I / F 111. The data is recorded on a recording medium 112 that is a recording device such as a built-in memory or a memory card. When displaying the image data recorded on the recording medium 112, the codec unit 110 decodes the data.
システム制御部50は、例えばCPU等の演算装置であり、デジタルカメラ100が有する各ブロックの動作を制御する。より詳しくはシステム制御部50は、不揮発性メモリ121に記憶されている各ブロックの動作プログラムを読み出し、システムメモリ122に展開して実行することにより、各ブロックの動作を制御する。不揮発性メモリ121は、例えばEEPROM等の不揮発性の記憶装置である。不揮発性メモリ121は、各ブロックの動作プログラムに限らず、各ブロックの動作において必要となる各種パラメータ等を記憶する。システムメモリ122は、書き換え可能に構成された揮発性メモリであってよく、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データ等を一時的に保持する格納領域としても用いられる。 The system control unit 50 is an arithmetic device such as a CPU, for example, and controls the operation of each block included in the digital camera 100. More specifically, the system control unit 50 controls the operation of each block by reading the operation program for each block stored in the non-volatile memory 121 and developing it in the system memory 122 for execution. The nonvolatile memory 121 is a nonvolatile storage device such as an EEPROM. The nonvolatile memory 121 stores not only the operation program for each block but also various parameters necessary for the operation of each block. The system memory 122 may be a volatile memory configured to be rewritable. The system memory 122 not only serves as a development area for the operation program of each block but also temporarily stores intermediate data output in the operation of each block. Also used as a region.
また、顔検出部113による顔検出結果や撮像により得られた画像データを用いて画像処理部105が行った所定の評価値に基づき、システム制御部50は撮像に係る露光制御、測距制御(レンズ群101、シャッター102、撮像部103の状態制御)を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等が実現される。 In addition, based on a predetermined evaluation value performed by the image processing unit 105 using a face detection result by the face detection unit 113 and image data obtained by imaging, the system control unit 50 performs exposure control and distance measurement control ( The lens group 101, the shutter 102, and the imaging unit 103 are controlled). As a result, TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and the like are realized.
デジタルカメラ100はこの他、撮影時の実際の光源として機能するストロボ123、デジタルカメラ100と被写体との距離を計測する測距センサ124、各種の操作入力を検出するユーザインタフェースである操作部120を有する。操作部120は、操作入力がなされたことを検出した場合、対応する制御信号をシステム制御部50に出力する。 In addition, the digital camera 100 includes a strobe 123 that functions as an actual light source at the time of shooting, a distance measuring sensor 124 that measures the distance between the digital camera 100 and the subject, and an operation unit 120 that is a user interface that detects various operation inputs. Have. When the operation unit 120 detects that an operation input has been made, the operation unit 120 outputs a corresponding control signal to the system control unit 50.
本実施形態ではハードウェアとしてデジタルカメラ100が備える各ブロックに対応した回路やプロセッサにより処理が実現されるものとして説明する。しかしながら、本発明の実施はこれに限られるものではなく、各ブロックの処理が該各ブロックと同様の処理を行うプログラムにより実現されるものであってもよい。 In the present embodiment, description will be made assuming that processing is realized by a circuit and a processor corresponding to each block included in the digital camera 100 as hardware. However, the implementation of the present invention is not limited to this, and the processing of each block may be realized by a program that performs the same processing as each block.
〈画像処理部105の構成〉
次に、画像処理部105の構成について、図2のブロック図を用いて詳述する。なお、本実施形態のデジタルカメラ100において、撮像が行われた場合、画像処理部105には各画素がR成分、G成分及びB成分のいずれかの成分の信号レベルを示すベイヤー形式のデジタル画像信号が入力されるものとする。
<Configuration of Image Processing Unit 105>
Next, the configuration of the image processing unit 105 will be described in detail with reference to the block diagram of FIG. In the digital camera 100 of the present embodiment, when an image is taken, the image processing unit 105 has a Bayer-type digital image in which each pixel indicates the signal level of any one of the R component, the G component, and the B component. Assume that a signal is input.
同時化処理部200は、入力されたベイヤー形式の画像信号に対して同時化処理を実行し、画像信号の各画素について信号レベルが示されない色成分を補間し、R成分、G成分及びB成分の画像信号(RGB信号)を生成する。WB増幅部201は、システム制御部50により決定されたホワイトバランス(WB)ゲイン値に基づき、RGB信号の色成分ごとに信号レベルを増幅し、WBの調整を行う。また輝度・色信号生成部202は、WB調整がなされたRGB信号から輝度信号(Y信号)を生成して輪郭強調処理部203に出力する。また輝度・色信号生成部202は、入力されたRGB信号を色変換処理部205に出力する。 The synchronization processing unit 200 performs synchronization processing on the input Bayer-format image signal, interpolates color components that do not indicate the signal level for each pixel of the image signal, and performs R component, G component, and B component. Image signals (RGB signals) are generated. Based on the white balance (WB) gain value determined by the system control unit 50, the WB amplification unit 201 amplifies the signal level for each color component of the RGB signal and adjusts the WB. Further, the luminance / color signal generation unit 202 generates a luminance signal (Y signal) from the RGB signal subjected to the WB adjustment and outputs the luminance signal (Y signal) to the contour enhancement processing unit 203. The luminance / color signal generation unit 202 outputs the input RGB signal to the color conversion processing unit 205.
輪郭強調処理部203は、入力されたY信号に対して輪郭強調処理を行い、輝度ガンマ処理部204に出力する。輝度ガンマ処理部204は、輪郭強調処理が適用されたY信号に対してガンマ補正処理を実行し、補正後のY信号をメモリ制御部107を介して画像メモリ106に出力する。 The contour enhancement processing unit 203 performs contour enhancement processing on the input Y signal and outputs the result to the luminance gamma processing unit 204. The luminance gamma processing unit 204 performs gamma correction processing on the Y signal to which the contour enhancement processing is applied, and outputs the corrected Y signal to the image memory 106 via the memory control unit 107.
一方、色変換処理部205は、入力されたRGB信号に対して所定のマトリクス演算を適用し、予め定められたカラーバランスに各色成分の信号レベルを変更する。色変換処理部205は、変更後のRGB信号を色ガンマ処理部206及び評価値生成部208に出力する。色ガンマ処理部206はカラーバランスが変更されたRGB信号の各色成分についてガンマ補正処理を行い、色差信号生成部207に出力する。色差信号生成部207は、入力されたRGB信号に基づき、色差信号R−Y、B−Y信号を生成し、メモリ制御部107を介して画像メモリ106に出力する。 On the other hand, the color conversion processing unit 205 applies a predetermined matrix operation to the input RGB signal and changes the signal level of each color component to a predetermined color balance. The color conversion processing unit 205 outputs the changed RGB signal to the color gamma processing unit 206 and the evaluation value generation unit 208. The color gamma processing unit 206 performs gamma correction processing on each color component of the RGB signal whose color balance has been changed, and outputs the result to the color difference signal generation unit 207. The color difference signal generation unit 207 generates color difference signals RY and BY based on the input RGB signals and outputs them to the image memory 106 via the memory control unit 107.
本実施形態のデジタルカメラ100において記録用の画像データは、輝度・色差信号Y、R−Y、B−Yの形式で構成されるものとする。即ち、撮影に係る操作が行われた場合には、画像メモリ106に格納されたY、R−Y、B−Y信号が、コーデック部110により圧縮符号化され、記録媒体112に記録される。 In the digital camera 100 of the present embodiment, image data for recording is configured in the format of luminance / color difference signals Y, RY, and BY. That is, when an operation related to photographing is performed, the Y, RY, and BY signals stored in the image memory 106 are compression-coded by the codec unit 110 and recorded on the recording medium 112.
また、評価値生成部208は、撮影環境中に実際に存在していた光源(環境光源)の状態の推定に用いる評価値を生成する。本実施形態のデジタルカメラ100で行われる後述のリライティング制御処理では、環境光源の状態として逆光シーンであるか否かを推定するため、評価値生成部208は評価値として輝度、色相、彩度の値の分布を生成する。より詳しくは評価値生成部208は、入力されたRGB信号に係る画像の領域を複数のブロックに分割し、各ブロックに含まれる画素の輝度値、色相値、彩度値に基づき、該ブロックに係るそれぞれの値の代表値を決定する。代表値は、最大値、平均値、ブロック中所定の位置に存在する画素の値、総和値等、種々の値であってよい。評価値生成部208は、画像に含まれる複数のブロックに係る代表値群で構成された評価値を出力する。評価値の情報は、例えばシステムメモリ122に格納されればよい。 Further, the evaluation value generation unit 208 generates an evaluation value used for estimating the state of the light source (environment light source) that actually exists in the shooting environment. In the later-described relighting control process performed by the digital camera 100 of the present embodiment, the evaluation value generation unit 208 estimates whether the scene is a backlight scene as the state of the environmental light source, so that the evaluation value generation unit 208 uses the luminance, hue, and saturation as evaluation values. Generate a distribution of values. More specifically, the evaluation value generation unit 208 divides the image area related to the input RGB signal into a plurality of blocks, and based on the luminance value, hue value, and saturation value of the pixels included in each block, A representative value for each such value is determined. The representative value may be various values such as a maximum value, an average value, a value of a pixel existing at a predetermined position in the block, and a total value. The evaluation value generation unit 208 outputs an evaluation value composed of representative value groups related to a plurality of blocks included in the image. The evaluation value information may be stored in the system memory 122, for example.
〈リライティング処理部114の構成〉
次にリライティング処理部114の構成について、図3のブロック図を用いて詳述する。本実施形態のデジタルカメラ100では、リライティング処理部114は、リライティング処理を適用するものとして予め定められたモードが設定されている場合に、画像処理部105により生成された輝度・色差信号に対して処理を行うものとして説明する。あるいはリライティング処理部114は、記録媒体112から読み出されて画像メモリ106に展開された輝度・色差信号に対して処理を行うものであってもよい。
<Configuration of Relighting Processing Unit 114>
Next, the configuration of the relighting processing unit 114 will be described in detail with reference to the block diagram of FIG. In the digital camera 100 of the present embodiment, the relighting processing unit 114 performs the luminance / color difference signal generated by the image processing unit 105 when a predetermined mode is set to apply the relighting processing. It demonstrates as what performs a process. Alternatively, the relighting processing unit 114 may perform processing on the luminance / color difference signal read from the recording medium 112 and developed in the image memory 106.
RGB信号変換部301は、入力された輝度・色差信号を所定の色変換処理を適用し、RGB信号に変換し、デガンマ処理部302に出力する。デガンマ処理部302は、入力されたRGB信号に適用されているガンマ補正に係るガンマ特性に基づき、ガンマ補正による効果を解除するデガンマ処理を実行する。撮像時においては、デガンマ処理部302は、ガンマ特性は色ガンマ処理部206において適用されたガンマ補正に係るガンマ特性の逆特性を用いて、入力されたRGB信号をガンマ補正前のリニアな信号に変換する。デガンマ処理部302は、デガンマ処理適用後のRGB信号(Rt、Gt、Bt)を、ゲイン処理部303及び後述の仮想光源透過・反射成分算出部313に出力する。 The RGB signal conversion unit 301 applies a predetermined color conversion process to the input luminance / color difference signal, converts it to an RGB signal, and outputs the RGB signal to the degamma processing unit 302. The degamma processing unit 302 executes degamma processing for canceling the effect of gamma correction based on gamma characteristics related to gamma correction applied to the input RGB signal. At the time of imaging, the degamma processing unit 302 uses the inverse characteristic of the gamma characteristic related to the gamma correction applied by the color gamma processing unit 206 as the gamma characteristic, and converts the input RGB signal into a linear signal before gamma correction. Convert. The degamma processing unit 302 outputs the RGB signals (R t , G t , B t ) after applying the degamma processing to the gain processing unit 303 and a virtual light source transmission / reflection component calculation unit 313 described later.
ゲイン処理部303は、入力されたRGB信号に対して、係る画像の全体の信号レベルを増幅させるゲイン処理を行う。ゲイン処理は、例えば定義する仮想光源とは無関係に暗部の信号レベルを引き上げるために行われるものであってよい。ゲイン処理部303は、ゲイン処理後のRGB信号(Rg、Gg、Bg)を仮想光源付加処理部304に出力する。 The gain processing unit 303 performs gain processing for amplifying the entire signal level of the image on the input RGB signal. The gain process may be performed, for example, to raise the signal level of the dark part regardless of the virtual light source to be defined. The gain processing unit 303 outputs the RGB signals (R g , G g , B g ) after gain processing to the virtual light source addition processing unit 304.
仮想光源付加処理部304は、ゲイン処理部303においてゲイン処理が適用されたRGB信号に対して、仮想光源による影響を付加するリライティング処理を行う。仮想光源による影響は、仮想光源透過・反射成分算出部313により出力された付加用RGB信号(Ra、Ga、Ba)を加算することにより行われる。 The virtual light source addition processing unit 304 performs relighting processing that adds the influence of the virtual light source to the RGB signal to which the gain processing is applied in the gain processing unit 303. The influence of the virtual light source is performed by adding the additional RGB signals (R a , G a , B a ) output by the virtual light source transmission / reflection component calculation unit 313.
仮想光源透過・反射成分算出部313は、仮想光源を配置することで被写体に生じる影響を、色成分ごとに算出するものである。本実施形態の仮想光源透過・反射成分算出部313は、特に逆光の関係となる位置に仮想光源を配置した場合に生じる影響を算出する。以下、逆光の関係となる位置に仮想光源を配置した場合の処理を主として、仮想光源透過・反射成分算出部313における付加用RGB信号の生成に係り行われる各ブロックの処理について、説明する。 The virtual light source transmission / reflection component calculation unit 313 calculates, for each color component, the influence generated on the subject by arranging the virtual light source. The virtual light source transmission / reflection component calculation unit 313 according to the present embodiment calculates the influence that occurs when the virtual light source is arranged at a position that is particularly in a backlight relationship. Hereinafter, processing of each block performed in connection with the generation of the additional RGB signal in the virtual light source transmission / reflection component calculation unit 313 will be described mainly with respect to the processing when the virtual light source is arranged at the position where the backlight is related.
被写体領域抽出部310は、RGB信号に係る画像中の被写体領域を特定する。本実施形態の被写体領域抽出部310では、主被写体である人物を被写体領域(主被写体領域)として特定するものとして説明するが、被写体領域は人物に限らず、種々の被写体が対象であってよい。故に被写体領域抽出部310は、顔検出部113の検出結果(顔位置情報)及び測距センサ124の出力(距離情報)に基づき、画像中の主被写体である人物に係る領域を被写体領域として特定する。 The subject area extraction unit 310 identifies a subject area in an image related to RGB signals. In the present embodiment, the subject area extraction unit 310 will be described as specifying the person who is the main subject as the subject area (main subject area), but the subject area is not limited to a person, and may be various subjects. . Therefore, the subject region extraction unit 310 identifies the region related to the person who is the main subject in the image as the subject region based on the detection result (face position information) of the face detection unit 113 and the output (distance information) of the distance measuring sensor 124. To do.
例えば図4(a)に示されるように主被写体が中央に配置された構図で撮像された画像について処理を行う場合を説明する。このとき顔位置情報では画像中の人物の顔領域の位置及びサイズが特定されるため、被写体領域抽出部310はまず、該顔領域に含まれる被写体についての平均距離(深度)を算出する。顔領域に係る平均距離は、距離情報中の対応する画素の値の平均値として算出される。そして被写体領域抽出部310は、該顔領域に係る平均距離を基準に、所定の距離範囲に含まれる画素を被写体領域として特定する。所定の距離範囲は、顔領域を基準に人体に対応する領域を抽出するよう予め定められた深度方向前後の幅の閾値に基づき規定されるものであってよく、手前方向の閾値を平均距離から減算した距離から、奥方向の閾値を平均距離に加算した距離までの範囲となる。被写体領域抽出部310は、距離情報に基づき所定の距離範囲に含まれる画素位置を把握し、画像中の被写体領域を特定する。なお、顔領域に基づく被写体領域の特定においては、所定の距離範囲に含まれる画素であっても、顔領域を含む領域に属さない画素は被写体領域から除外されるものであってもよい。このようにすることで、被写体領域抽出部310は、特定した被写体領域を示す情報(被写体領域情報)を例えば図4(b)に示されるような二値の画像信号として生成することができる。生成された被写体領域情報は、輪郭距離重み算出部311及び光源角度重み算出部312に出力される。 For example, a case will be described in which processing is performed on an image captured with a composition in which the main subject is arranged in the center as shown in FIG. At this time, since the position and size of the face area of the person in the image are specified by the face position information, the subject area extraction unit 310 first calculates the average distance (depth) for the subject included in the face area. The average distance related to the face area is calculated as the average value of the corresponding pixel values in the distance information. Then, the subject area extraction unit 310 identifies pixels included in a predetermined distance range as a subject area based on the average distance related to the face area. The predetermined distance range may be defined on the basis of a threshold value before and after the depth direction so as to extract a region corresponding to the human body based on the face region. The range is from the subtracted distance to the distance obtained by adding the threshold in the back direction to the average distance. The subject area extraction unit 310 grasps pixel positions included in a predetermined distance range based on the distance information, and identifies a subject area in the image. Note that in specifying the subject area based on the face area, pixels that do not belong to the area that includes the face area may be excluded from the subject area even if they are included in a predetermined distance range. In this way, the subject area extraction unit 310 can generate information (subject area information) indicating the identified subject area as a binary image signal as shown in FIG. 4B, for example. The generated subject area information is output to the contour distance weight calculation unit 311 and the light source angle weight calculation unit 312.
輪郭距離重み算出部311は、特定された被写体領域について、その端部(輪郭)において重みが最大となり、かつ領域内において端部からの距離に応じて重みが減少する輪郭距離重みWdを決定する。輪郭距離重みは、被写体に対して逆光の関係に仮想光源がある場合(主被写体背後に仮想光源が配置)において、仮想光源から照射された光束がデジタルカメラ100方向(手前側)に抜ける確率(透過光の発生率)の高さに応じて定められた重みである。具体的には輪郭距離重み算出部311はまず、入力された被写体領域情報である画像信号に対してバンドパスフィルタを適用することで、図4(c)に示されるような周波数の高い部分を抽出した、即ち輪郭部分を示す画像信号(輪郭信号)を生成する。そして輪郭距離重み算出部311は、輪郭信号に対して図5(a)に示されるような輪郭距離重み算出フィルタを適用し、さらに被写体領域情報との間でAND演算を行うことで、輪郭距離重みを示す図4(d)に示される画像信号を得る。図4(d)に示されるように、輪郭距離重みでは被写体領域内において、輪郭に近いほど大きい(白に近い)重みが示される。換言すれば、輪郭距離重み算出部311は、被写体領域の境界から離れるほど透過光の発生率が減衰するように、輪郭距離重みを生成する。輪郭距離重み算出部311は、得られた輪郭距離重みWdの情報を仮想光源透過・反射成分算出部313に出力する。 The contour distance weight calculation unit 311 determines a contour distance weight W d that has the maximum weight at the end (contour) of the specified subject region and that decreases in weight according to the distance from the end in the region. To do. The contour distance weight is the probability that the light beam emitted from the virtual light source will exit in the direction of the digital camera 100 (front side) when there is a virtual light source in a backlight relationship with the subject (a virtual light source is arranged behind the main subject) ( The weight is determined according to the height of the transmission light generation rate. Specifically, the contour distance weight calculation unit 311 first applies a band-pass filter to the image signal that is the input subject area information, so that a high-frequency portion as shown in FIG. An extracted image signal (contour signal) indicating a contour portion is generated. Then, the contour distance weight calculation unit 311 applies a contour distance weight calculation filter as shown in FIG. 5A to the contour signal, and further performs an AND operation with the subject area information, thereby performing the contour distance. The image signal shown in FIG. 4D showing the weight is obtained. As shown in FIG. 4D, the contour distance weight indicates a weight (closer to white) that is closer to the contour in the subject area. In other words, the contour distance weight calculation unit 311 generates the contour distance weight so that the incidence rate of transmitted light decreases as the distance from the subject region boundary increases. The contour distance weight calculation unit 311 outputs information on the obtained contour distance weight W d to the virtual light source transmission / reflection component calculation unit 313.
一方、光源角度重み算出部312は、リライティング処理において定義される仮想光源(点光源)による反射光の発生度合い(発生率)を示す光源角度重みWaを決定する。光源角度重みは、特定された被写体領域について例えば反射によって明るさの変化を生じさせる度合い等を示すよう定められた重みであり、仮想光源からの光束の入射角に応じて定められる(被写体に対する入射角が小さいほど高い)。 On the other hand, the light source angle weight calculation unit 312 determines a light source angle weight W a that indicates the generation degree (occurrence rate) of reflected light from the virtual light source (point light source) defined in the relighting process. The light source angle weight is a weight determined to indicate the degree of brightness change caused by reflection, for example, for the specified subject region, and is determined according to the incident angle of the light beam from the virtual light source (incident on the subject). The smaller the corner, the higher).
なお、定義される仮想光源の位置や属性(順光/逆光、強度、光源色)の情報(仮想光源情報)は、システム制御部50により決定され、リライティング処理部114に供給される。仮想光源の順光/逆光に係る属性は、例えばユーザの操作入力によりリライティング処理を順光、逆光のいずれの関係にある仮想光源について行うか否かを選択可能に構成されてもよい。また仮想光源が順光、逆光のいずれの関係にあるかをユーザが決定する態様ではなく、距離情報における主被写体の位置と、ユーザの操作入力により決定された仮想光源の位置との関係に応じてシステム制御部50が該属性の判断を行うものであってもよい。この場合、ユーザが決定する仮想光源の位置は、例えば奥行き距離であってよい。システム制御部50は、このような仮想光源の設定により得られた情報を基に仮想光源情報を生成し、リライティング処理部114に入力する。仮想光源の位置については、後述するように撮影環境中の環境光源の状態に基づきシステム制御部50が好適であろう位置を決定する構成であってよい。 Information (virtual light source information) on the position and attributes (forward / backlight, intensity, light source color) of the defined virtual light source is determined by the system control unit 50 and supplied to the relighting processing unit 114. The attribute relating to the forward / backlight of the virtual light source may be configured such that, for example, whether or not the relighting process is performed with respect to the virtual light source having the relationship between forward light and backlight by an operation input by the user may be selected. Also, it is not an aspect in which the user determines whether the virtual light source is in the following light or backlight, depending on the relationship between the position of the main subject in the distance information and the position of the virtual light source determined by the user's operation input The system control unit 50 may determine the attribute. In this case, the position of the virtual light source determined by the user may be a depth distance, for example. The system control unit 50 generates virtual light source information based on the information obtained by setting the virtual light source, and inputs the virtual light source information to the relighting processing unit 114. The position of the virtual light source may be configured such that the system control unit 50 determines a suitable position based on the state of the environment light source in the shooting environment, as will be described later.
ここで、光源角度重みの生成例を、順光時と逆光時の双方について説明する。図6(a)及び(b)では主被写体601と定義する仮想光源602との位置関係が示されている。奥行き方向において主被写体601よりも手前側に仮想光源602が配置される図6(a)が順光(斜光)時、主被写体601よりも奥側に仮想光源602が配置される図6(b)が逆光時を示す。なお、本実施形態の光源角度重み算出部312では簡単のため、主被写体601は深度方向の長さ(厚み)を有さない、被写体領域形状の平板であるものとして説明する。 Here, an example of generation of light source angle weights will be described for both normal light and backlight. 6A and 6B show the positional relationship between the main subject 601 and the virtual light source 602 defined. When the virtual light source 602 is arranged in front of the main subject 601 in the depth direction, FIG. 6A shows the virtual light source 602 arranged behind the main subject 601 when forward light (oblique light) is shown in FIG. ) Indicates backlight. For the sake of simplicity, the light source angle weight calculation unit 312 of the present embodiment will be described assuming that the main subject 601 is a subject area-shaped flat plate that does not have a length (thickness) in the depth direction.
図6(a)において、仮想光源602はデジタルカメラ100から見て左方向(xがデジタルカメラ100よりも小)に配置されている。従って、主被写体601の法線ベクトル(デジタルカメラ100に向かう側)と、仮想光源602から主被写体601に入射する光束の入射ベクトルとがなす角θは、(デジタルカメラ100から見て)主被写体601の左右で異なる。光源角度重みは、仮想光源による(反射)寄与度がこれらのベクトルの内積に基づくことから、該なす角θの余弦cosθとして算出されればよく、図7(a)に示すような重み分布となる。なす角θが直角に近いほど重みが大きくなる。 In FIG. 6A, the virtual light source 602 is arranged in the left direction as viewed from the digital camera 100 (x is smaller than the digital camera 100). Therefore, the angle θ formed by the normal vector of the main subject 601 (the side toward the digital camera 100) and the incident vector of the light beam incident on the main subject 601 from the virtual light source 602 is the main subject (as viewed from the digital camera 100). 601 is different on the left and right. The light source angle weight may be calculated as the cosine cos θ of the angle θ formed because the (reflection) contribution by the virtual light source is based on the inner product of these vectors, and the weight distribution as shown in FIG. Become. The weight becomes larger as the formed angle θ is closer to a right angle.
一方、図6(b)において、仮想光源602はデジタルカメラ100から見て右方向(xがデジタルカメラ100よりも大)に配置されている。従って主被写体601の法線ベクトル(デジタルカメラ100から遠離する側)と、仮想光源602からの入射ベクトルとがなす角θは、(デジタルカメラ100から見て)主被写体601の左右で異なる。故に、光源角度重みは図7(b)に示すような重み分布となる。同様に、なす角θが垂直に近いほど重みが大きくなる。 On the other hand, in FIG. 6B, the virtual light source 602 is arranged in the right direction (x is larger than the digital camera 100) when viewed from the digital camera 100. Accordingly, the angle θ formed between the normal vector of the main subject 601 (the side far from the digital camera 100) and the incident vector from the virtual light source 602 differs between the left and right of the main subject 601 (as viewed from the digital camera 100). Therefore, the light source angle weight has a weight distribution as shown in FIG. Similarly, the weight becomes larger as the angle θ formed is closer to the vertical.
光源角度重み算出部312は、このようにして得られた光源角度重みWaの情報を、仮想光源透過・反射成分算出部313に出力する。 Source angle weight calculator 312, the information of the thus obtained light angle weights W a, and outputs to a virtual light source transmission-reflection component calculation unit 313.
仮想光源透過・反射成分算出部313は、入力された輪郭距離重みWdの情報及び光源角度重みWaの情報に基づき、仮想光源による影響を示す付加用RGB信号(Ra、Ga、Ba)を生成する。仮想光源が主被写体の背後に定義される逆光時において、仮想光源透過・反射成分算出部313は該光源からの光束が主被写体を透過したことによる影響、または主被写体において反射したことによる影響を示すために、2種類の重みを用いる。まず仮想光源透過・反射成分算出部313は、輪郭距離重みWdと光源角度重みWaとを画素ごとに乗算し、仮想光源による透過成分及び反射成分に係る総合重みWt(=Wd×Wa)を算出する。なお、順光の関係となる位置に仮想光源が定義される場合は、透過成分は生じないため、輪郭距離重みWdは全画素に渡って1となり、Wt=Waとなる。例えば、図6(b)に示したような逆光の関係となる位置に仮想光源が定義される場合、図4(d)に示した輪郭距離重みと図7(b)に示した光源角度重みに基づき、図8(a)に示されるような総合重みが得られる。 The virtual light source transmission / reflection component calculation unit 313 adds RGB signals (R a , G a , B) indicating the influence of the virtual light source based on the input information on the contour distance weight W d and the information on the light source angle weight W a. a ) is generated. When the virtual light source is defined behind the main subject, the virtual light source transmission / reflection component calculation unit 313 is affected by the fact that the light beam from the light source is transmitted through the main subject or reflected by the main subject. Two types of weights are used to illustrate. First, the virtual light source transmission / reflection component calculation unit 313 multiplies the contour distance weight W d and the light source angle weight W a for each pixel to obtain a total weight W t (= W d ×) related to the transmission component and reflection component of the virtual light source. W a ) is calculated. In the case where the virtual light source position where the relationship between the forward light is defined, for transmission component does not occur, the contour distance weight W d is next 1 over the entire pixel, and W t = W a. For example, when a virtual light source is defined at a position having a backlight relationship as shown in FIG. 6B, the contour distance weight shown in FIG. 4D and the light source angle weight shown in FIG. 7B. Based on the above, the total weight as shown in FIG.
また仮想光源透過・反射成分算出部313は、得られた総合重みに基づき、デガンマ処理適用後のRGB信号(Rt、Gt、Bt)から付加用RGB信号(Ra、Ga、Ba)に係る各信号レベルを算出する。付加用RGB信号に係る各信号レベルは、仮想光源の強度α(輝度等)、光源色の制御値(赤色成分Rw及び青色成分Bw)を用い、以下の数式により算出できる。
Ra=α×Wt×Rw×Rt
Ga=α×Wt ×Gt
Ba=α×Wt×Bw×Bt
The virtual light source transmission / reflection component calculation unit 313 also adds the RGB signals (R a , G a , B t ) from the RGB signals (R t , G t , B t ) after applying the degamma processing based on the obtained total weight. a ) Calculate each signal level related to. Each signal level related to the additional RGB signal can be calculated by the following formula using the intensity α (luminance, etc.) of the virtual light source and the control values of the light source color (red component R w and blue component B w ).
R a = α × W t × R w × R t
G a = α × W t × G t
B a = α × W t × B w × B t
従って、このようにして得られた演算結果である付加用RGB信号と、ゲイン処理後のRGB信号(Rg、Gg、Bg)とを加算し、仮想光源付加処理部304はリライティングが実現された出力RGB信号を生成する。即ち、出力RGB信号の各色成分(Rout、Gout、Bout)は
Rout=Ra+Rg
Gout=Ga+Gg
Bout=Ba+Bg
により得られる。例えば逆光の関係となる位置に仮想光源が配置される場合、出力RGB信号は、図4(a)に示した画像信号に図8(a)に示した付加用RGB信号を加算し、図8(b)のように、被写体領域の境界付近における逆光特有の光の透過や反射表現が実現される。
Accordingly, the additional RGB signal, which is the calculation result obtained in this way, and the RGB signal (R g , G g , B g ) after gain processing are added, and the virtual light source addition processing unit 304 realizes relighting. The output RGB signal thus generated is generated. That is, each color component (R out , G out , B out ) of the output RGB signal is R out = R a + R g
G out = G a + G g
B out = B a + B g
Is obtained. For example, when the virtual light source is arranged at a position that is in a backlight relationship, the output RGB signal is obtained by adding the additional RGB signal shown in FIG. 8A to the image signal shown in FIG. As shown in (b), light transmission and reflection expression peculiar to backlighting in the vicinity of the boundary of the subject area is realized.
ガンマ処理部305は、仮想光源付加処理部304において生成された出力RGB信号に対してガンマ補正処理を行う。またガンマ補正が適用された出力RGB信号は、輝度色差信号変換部306に入力され、輝度・色差信号に変換され出力される。 The gamma processing unit 305 performs gamma correction processing on the output RGB signal generated by the virtual light source addition processing unit 304. The output RGB signal to which the gamma correction is applied is input to the luminance / color difference signal conversion unit 306, converted into a luminance / color difference signal, and output.
《リライティング制御処理》
このような構成をもつ本実施形態のデジタルカメラ100において、リライティング処理に先行して実行されるリライティング制御処理について、図9のフローチャートを用いて具体的な処理を説明する。本実施形態ではリライティング制御処理は、リライティング処理を実行する際のリライティング処理部114の各ブロックの動作パラメータを決定するために処理前に行われるものとして説明する。しかしながら、パラメータの設定タイミングはこれに限られるものでなく、本リライティング制御処理はリライティング処理と並行して実行されるものであってよい。該フローチャートに対応する処理は、システム制御部50が、例えば不揮発性メモリ121に記憶されている対応する処理プログラムを読み出し、システムメモリ122に展開して実行することにより実現することができる。本リライティング制御処理は、例えばリライティング処理を行う撮影モードが設定された状態で撮影指示がなされたことを検出した際に開始されるものとして説明する。
《Relighting control processing》
With respect to the relighting control process executed prior to the relighting process in the digital camera 100 of the present embodiment having such a configuration, a specific process will be described with reference to the flowchart of FIG. In the present embodiment, the relighting control process will be described as being performed before the process in order to determine the operation parameter of each block of the relighting processing unit 114 when executing the relighting process. However, the parameter setting timing is not limited to this, and the relighting control process may be executed in parallel with the relighting process. The processing corresponding to the flowchart can be realized by the system control unit 50 reading out a corresponding processing program stored in, for example, the non-volatile memory 121, developing the program in the system memory 122, and executing the program. This relighting control process will be described as being started, for example, when it is detected that a shooting instruction has been made in a state where a shooting mode for performing the relighting process is set.
S901で、システム制御部50は、評価値生成部208により生成された評価値に基づき環境光源の状態の推定を行い、対象の画像信号を撮影した撮影環境が逆光シーンと順光シーン(逆光シーン以外のシーン)のいずれであるかを判定する。具体的にはシステム制御部50は、撮影に用いられた露出情報及び撮影により得られた画像信号に係る輝度信号に基づき照度を算出する。そしてシステム制御部50は、該照度が所定の閾値よりも高く、かつ画像信号に係る複数のブロックについて得られた評価値が所定の分布である場合に撮影環境が逆光シーンであると判定し、これに該当しない場合に順光シーンであると判定する。 In step S <b> 901, the system control unit 50 estimates the state of the environment light source based on the evaluation value generated by the evaluation value generation unit 208, and the shooting environment in which the target image signal is captured includes a backlight scene and a backlight scene (backlight scene). Or any other scene). Specifically, the system control unit 50 calculates the illuminance based on the exposure information used for photographing and the luminance signal related to the image signal obtained by photographing. The system control unit 50 determines that the shooting environment is a backlight scene when the illuminance is higher than a predetermined threshold and the evaluation values obtained for the plurality of blocks related to the image signal have a predetermined distribution, When it does not correspond to this, it determines with it being a follow light scene.
例えば図10(a)のように、画像上部に輝度値(EV値)が所定の閾値を超えて高輝度に分類されるブロックが所定数を超えて存在する場合には、システム制御部50は逆光シーンであると判定する。一方、例えば図10(b)のように、画像上部に高輝度に分類されるブロックが所定数に満たない場合には、逆光シーンではないと判定する。またシステム制御部50は、明るさの分布から被写体に対して環境光源が照射している方向を特定する。図10(a)の例では、主被写体である人物に対して、デジタルカメラ100から見て右奥方向から環境光源が照射されているものと特定される。一方、図10(b)の例では、主被写体である人物に対してデジタルカメラ100から見て左手前方向から環境光源が照射されているものと特定される。 For example, as shown in FIG. 10A, when there are more than a predetermined number of blocks whose luminance values (EV values) exceed the predetermined threshold and are classified as high luminance in the upper part of the image, the system control unit 50 It is determined that the scene is a backlight scene. On the other hand, as shown in FIG. 10B, for example, when the number of blocks classified as high luminance is less than a predetermined number at the top of the image, it is determined that the scene is not a backlight scene. Further, the system control unit 50 identifies the direction in which the environment light source is radiating the subject from the brightness distribution. In the example of FIG. 10A, it is specified that the person who is the main subject is irradiated with the environmental light source from the back right direction when viewed from the digital camera 100. On the other hand, in the example of FIG. 10B, it is specified that the person who is the main subject is irradiated with the environmental light source from the left front side when viewed from the digital camera 100.
S902で、システム制御部50は、実行させるリライティング処理が逆光の関係となる仮想光源について照明効果を付加するものであるか否かを判断する。本ステップの判断は、上述したように、リライティング処理において照明効果を付加する仮想光源に係る操作入力の内容や設定に基づいて行われる。システム制御部50は、リライティング処理が逆光の関係となる仮想光源についての照明効果を付加するものであると判断した場合は処理をS903に移す。またシステム制御部50は、リライティング処理が順光の関係となる仮想光源についての照明効果を付加するものであると判断した場合は処理をS906に移す。 In step S <b> 902, the system control unit 50 determines whether or not the relighting process to be performed is to add an illumination effect to a virtual light source having a backlight relationship. As described above, the determination in this step is performed based on the contents and settings of the operation input related to the virtual light source to which the lighting effect is added in the relighting process. If the system control unit 50 determines that the relighting process is to add an illumination effect for the virtual light source having a backlight relationship, the system control unit 50 moves the process to S903. If the system control unit 50 determines that the relighting process is to add an illumination effect for the virtual light source having the following light relationship, the system control unit 50 proceeds to S906.
S903で、システム制御部50は、S901によるシーン判定結果に基づき、対象の画像信号を撮影した撮影環境が逆光シーンであったか否かを判断する。システム制御部50は、撮影環境が逆光シーンであると判断した場合は処理をS904に移し、逆光シーンではないと判断した場合は処理をS905に移す。 In step S903, the system control unit 50 determines whether the shooting environment in which the target image signal is shot is a backlight scene based on the scene determination result in step S901. If the system control unit 50 determines that the shooting environment is a backlight scene, it moves the process to S904, and if it determines that the shooting environment is not a backlight scene, it moves the process to S905.
S904で、システム制御部50は、S901において推定した環境光源の照射方向に基づき仮想光源を定義する位置を決定する。本実施形態では仮想光源を定義する位置は、仮想光源から主被写体に向かう方向が、環境光源の照射方向と同方向となるように、あるいは同等の方向成分を有するように決定される。またシステム制御部50は、仮想光源透過・反射成分算出部313において用いられる仮想光源に係る強度(α)及び光源色(Rw、Bw)に係るパラメータを決定する。光源強度は、例えばユーザによりなされた操作入力に基づき決定されるものであってよいし、例えば環境光源が明るいほど強度を高くする等、環境光源に応じて決定されるものであってもよい。また光源色は、逆光シーンにおいて適用するものであるため、赤寄りの色成分となるようRw>Bwの関係が実現されるよう決定される。システム制御部50は、このように決定した、仮想光源の位置及び各種属性の情報に基づき仮想光源情報を構成し、リライティング処理部114に出力し、本リライティング制御処理を完了する。 In step S904, the system control unit 50 determines a position where the virtual light source is defined based on the irradiation direction of the environmental light source estimated in step S901. In the present embodiment, the position defining the virtual light source is determined so that the direction from the virtual light source toward the main subject is the same as the irradiation direction of the environment light source or has an equivalent direction component. Further, the system control unit 50 determines parameters related to the intensity (α) and the light source color (R w , B w ) related to the virtual light source used in the virtual light source transmission / reflection component calculation unit 313. The light source intensity may be determined based on, for example, an operation input made by the user, or may be determined according to the environmental light source, such as increasing the intensity as the environmental light source is brighter. Further, since the light source color is applied in a backlight scene, it is determined so that the relationship of R w > B w is realized so that the color component is closer to red. The system control unit 50 configures virtual light source information based on the virtual light source position and various attribute information determined as described above, and outputs the virtual light source information to the relighting processing unit 114 to complete the relighting control process.
一方、S903において逆光シーンではないと判断した場合、システム制御部50はS905で、設定された仮想光源の位置に係るリライティング処理を実行しない旨のエラー通知を行い、本リライティング制御処理を完了する。これは、逆光シーンでない画像に対して、逆光の関係にある仮想光源による照明効果を付加することで、不自然な表現となることに依る。エラー通知は、表示部109を介して行われるものであってよい。またシステム制御部50は、撮影により得られた画像信号に対するリライティング処理部114でのリライティング処理が行われないよう、動作の制御を行う。 On the other hand, if it is determined in step S903 that the scene is not a backlight scene, the system control unit 50 notifies the error notifying that the relighting process related to the set position of the virtual light source is not executed in step S905, thereby completing the relighting control process. This is because an unnatural expression is obtained by adding an illumination effect by a virtual light source having a backlight relationship to an image that is not a backlight scene. The error notification may be performed via the display unit 109. Further, the system control unit 50 controls the operation so that the relighting processing unit 114 does not perform the relighting processing on the image signal obtained by photographing.
またS902においてリライティング処理が順光の関係となる仮想光源についての照明効果を付加するものであると判断した場合、システム制御部50はS906で、仮想光源を定義する位置を決定する。本ステップにおいて決定される仮想光源を定義する位置は、S903と同様に、推定した環境光源の照射方向に基づき決定される。より詳しくは、システム制御部50は、仮想光源から主被写体に向かう方向が、環境光源の照射方向と同方向となるように、あるいは同等の方向成分を有するように仮想光源の位置を決定する。またシステム制御部50は、S903と同様に仮想光源透過・反射成分算出部313において用いられる仮想光源に係る強度及び光源色に係るパラメータを決定する。そしてシステム制御部50は、このように決定した、仮想光源の位置及び各種属性の情報に基づき仮想光源情報を構成し、リライティング処理部114に供給し、本リライティング制御処理を完了する。なお、システム制御部50は、順光の関係にある仮想光源による照明効果の付加においては、光源の透過成分を表現する必要がないため、輪郭距離重みWdが全ての画素について1となるよう、輪郭距離重み算出部311の動作の制御も行う。 If it is determined in step S902 that the relighting process is to add an illumination effect for the virtual light source that has the relationship of direct light, the system control unit 50 determines a position in which the virtual light source is defined in step S906. The position that defines the virtual light source determined in this step is determined based on the estimated irradiation direction of the environmental light source, as in S903. More specifically, the system control unit 50 determines the position of the virtual light source so that the direction from the virtual light source toward the main subject is the same as the irradiation direction of the environment light source or has an equivalent direction component. Further, the system control unit 50 determines parameters related to the intensity and the light source color related to the virtual light source used in the virtual light source transmission / reflection component calculation unit 313 as in S903. Then, the system control unit 50 configures virtual light source information based on the virtual light source position and various attribute information determined as described above, supplies the virtual light source information to the relighting processing unit 114, and completes the relighting control process. Note that the system control unit 50 does not need to express the transmission component of the light source when adding the illumination effect by the virtual light source having the relationship of the follow light, so that the contour distance weight W d becomes 1 for all the pixels. The operation of the contour distance weight calculation unit 311 is also controlled.
このようにすることで、本実施形態のデジタルカメラ100ではリライティング処理の実行にあたり、逆光の関係となる仮想光源による照明効果を付加する際であっても、好適なリライティング結果を得ることができる。 By doing in this way, in the digital camera 100 of this embodiment, a suitable relighting result can be obtained even when the lighting effect by the virtual light source having a backlight relationship is added in executing the relighting process.
なお、本実施形態では輪郭距離重みを算出するために、図5(a)に示したような7×7のフィルタを用いる例について説明したが、本発明の実施はこれに限定されるものでなく、輪郭からの距離に応じて重み付けを行う手法であればいずれの方法を用いてもよい。例えば、より被写体の内側に対する光の透過や回り込みの特性を表現する場合は9×9以上のタップ数の多いフィルタを用いてもよい。また例えば、処理対象画素から最も近い輪郭画素を特定し、該輪郭画素と処理対象の距離に応じて重みを決定する手法を用いてるものであってもよい。 In this embodiment, the example of using the 7 × 7 filter as shown in FIG. 5A in order to calculate the contour distance weight has been described, but the embodiment of the present invention is not limited to this. Any method may be used as long as weighting is performed according to the distance from the contour. For example, a filter with a large number of taps of 9 × 9 or more may be used to express the characteristics of light transmission and wraparound to the inside of the subject. Alternatively, for example, a method may be used in which a contour pixel closest to the processing target pixel is specified and a weight is determined according to the distance between the contour pixel and the processing target.
またこの他、光源角度重みの決定においては、部分的な輪郭が形成する方向(法線方向あるいは接線方向)を検出し、該方向に基づきさらに重み付けを行ってもよい。輪郭が形成する方向は、従前のいずれの手法を用いて検出されるものであってもよい。例えば図11に示されるように、重みを算出する処理対象画素1101につき、該画素を含む部分的な輪郭の法線ベクトル1103と仮想光源1102から該画素に向かう仮想光源ベクトル1104とがθをなす場合、θに応じて該画素の重みを変更する。具体的には光源角度重み算出部312は、輪郭信号において輪郭として抽出されている画素につき、該画素に係る法線ベクトルと仮想光源ベクトルとの内積(cosθ)を乗じて信号レベルを変更し、変更後の輪郭信号に基づき光源角度重みを算出する。輪郭が形成する方向の検出を45度単位とすることで、このような手法により、仮想光源と正対する方向を形成する輪郭にのみ透過光による照明効果が現れるよう、光源角度重みを決定することができる。 In addition, in determining the light source angle weight, the direction (normal direction or tangent direction) formed by the partial contour may be detected and further weighted based on the direction. The direction in which the contour is formed may be detected using any conventional method. For example, as shown in FIG. 11, for a processing target pixel 1101 whose weight is to be calculated, a normal vector 1103 of a partial contour including the pixel and a virtual light source vector 1104 from the virtual light source 1102 toward the pixel form θ. In this case, the weight of the pixel is changed according to θ. Specifically, the light source angle weight calculation unit 312 changes the signal level by multiplying the pixel extracted as the contour in the contour signal by the inner product (cos θ) of the normal vector and the virtual light source vector related to the pixel, The light source angle weight is calculated based on the changed contour signal. By detecting the direction in which the contour is formed in units of 45 degrees, the light source angle weight is determined by such a method so that the illumination effect by the transmitted light appears only in the contour that forms the direction facing the virtual light source. Can do.
また本実施形態では、逆光の関係となる仮想光源に係るリライティングを行う場合には、輪郭における透過光、反射光の照明効果のみを表現するものとして説明したが、さらに別の、主被写体に正対する仮想光源を定義して照明効果を変更してもよい。これにより環境からの回り込み光を表現することも可能である。 In the present embodiment, when relighting related to a virtual light source having a backlight relationship is described, only the illumination effect of transmitted light and reflected light in the contour is expressed. The virtual light source may be defined to change the lighting effect. In this way, it is also possible to express the sneak light from the environment.
[変形例]
上述した実施形態では、主被写体である人物を強調するよう、輪郭周辺における透過光に係る輪郭距離重みWdを決定した。しかしながら、本発明の実施はこれに限られるものでなく、例えば照明効果の付加対象である被写体の種類、材質、反射特性を考慮して輪郭距離重みWdを決定するようにしてもよい。また、人物であっても髪の毛、肌、衣服等の部位や材質に応じて分離して認識し、輪郭距離重みWdの決定に係る処理を部位ごとに異ならせてもよい。このとき、例えば髪の毛であれば透過光が強調されるように図5(a)に示したフィルタを用いて輪郭距離重みWdを決定すればよい。一方で、その他の人体については透過光よりも反射光が強調されるよう、例えば図5(b)に示すようなフィルタを用い、より輪郭に近い画素において重みが高くなるようにしてもよい。
[Modification]
In the embodiment described above, the contour distance weight W d related to the transmitted light around the contour is determined so as to emphasize the person who is the main subject. However, the implementation of the present invention is not limited to this. For example, the contour distance weight W d may be determined in consideration of the type, material, and reflection characteristics of the subject to which the illumination effect is added. Further, hair even a person, the skin, and recognized separated according to the site or materials such as clothes, may have different processing according to the determination of the contour distance weight W d for each site. At this time, for example, in the case of hair, the contour distance weight W d may be determined using the filter shown in FIG. 5A so that transmitted light is emphasized. On the other hand, for other human bodies, for example, a filter as shown in FIG. 5B may be used so that the reflected light is more emphasized than the transmitted light, and the weight closer to the contour may be increased.
[実施形態2]
また実施形態1では簡単のため、被写体領域は平板であるものとして光源角度重みWaを決定するものとして説明したが、被写体立体的形状の推定に基づき決定した各画素の法線を考慮してもよい。例えば、被写体領域1201について推定した形状に基づく法線ベクトルが図12に示されるような分布を示す場合を考える。このとき、光源角度重み算出部312は仮想光源1202から被写体領域の各画素に向かう仮想光源ベクトル1203と該画素の法線ベクトルとの内積を考慮し、1−cosθを該画素に係る光源角度重みWaに乗算する。このようにすることで総合重みWtを、被写体の輪郭であって、リライティング対象の被写体に対して仮想光源ベクトル1203が垂直であるほど、反射光が強くなるよう構成することができる。
[Embodiment 2]
In the first embodiment, for the sake of simplicity, the light source angle weight W a is determined on the assumption that the subject area is a flat plate. However, the normal of each pixel determined based on the estimation of the three-dimensional shape of the subject is considered. Also good. For example, consider a case where the normal vector based on the shape estimated for the subject region 1201 shows a distribution as shown in FIG. At this time, the light source angle weight calculation unit 312 considers the inner product of the virtual light source vector 1203 from the virtual light source 1202 to each pixel of the subject region and the normal vector of the pixel, and 1-cos θ is set as the light source angle weight related to the pixel. Multiply W a . Such a comprehensive weight W t by, a contour of the object can be more virtual light source vector 1203 against rewriting target object is vertical, constituting so that the reflected light becomes stronger.
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:デジタルカメラ、103:撮像部、105:画像処理部、113:顔検出部、114:リライティング処理部、50:システム制御部、120:操作部、124:測距センサ、208:評価値生成部、304:仮想光源付加処理部、310:被写体領域抽出部、311:輪郭距離重み算出部、312:光源角度重み算出部、313:仮想光源透過・反射成分算出部 100: Digital camera, 103: Imaging unit, 105: Image processing unit, 113: Face detection unit, 114: Relighting processing unit, 50: System control unit, 120: Operation unit, 124: Distance sensor, 208: Evaluation value generation Unit 304: virtual light source addition processing unit 310: subject region extraction unit 311: contour distance weight calculation unit 312: light source angle weight calculation unit 313: virtual light source transmission / reflection component calculation unit
Claims (10)
前記取得手段により取得された画像に含まれる被写体について、撮像時に存在しなかった仮想光源による影響を演算する演算手段と、
前記演算手段による演算結果に基づき、前記被写体に前記仮想光源による影響を付加した画像を出力する出力手段とを有し、
前記演算手段は、
前記仮想光源を定義する位置を決定する決定手段と、
前記取得された画像に含まれる被写体領域を特定する特定手段と、
前記決定手段により逆光の関係となる位置に前記仮想光源を定義する位置が決定される場合に、
前記特定手段により特定された被写体領域の形状に基づいて、前記仮想光源による透過光の発生率を決定する第1の決定手段と、
前記仮想光源を定義する位置と前記被写体領域との位置に基づいて、前記仮想光源による反射光の発生率を決定する第2の決定手段と、
前記第1の決定手段により決定された前記透過光の発生率と前記第2の決定手段により決定された前記反射光の発生率とに基づいて、前記仮想光源による影響を演算する処理手段と、
を含むことを特徴とする画像処理装置。 Acquisition means for acquiring an image obtained by imaging;
A computing means for computing the influence of a virtual light source that did not exist at the time of imaging for a subject included in the image obtained by the obtaining means;
Output means for outputting an image in which the influence of the virtual light source is added to the subject based on a calculation result by the calculation means;
The computing means is
Determining means for determining a position defining the virtual light source;
Specifying means for specifying a subject area included in the acquired image;
When the position that defines the virtual light source is determined at a position that is in a backlight relationship by the determining means,
First determining means for determining the incidence rate of transmitted light by the virtual light source based on the shape of the subject area specified by the specifying means;
Second determining means for determining a rate of occurrence of reflected light by the virtual light source based on a position of the virtual light source and a position of the subject region;
A processing unit that calculates the influence of the virtual light source based on the generation rate of the transmitted light determined by the first determination unit and the generation rate of the reflected light determined by the second determination unit;
An image processing apparatus comprising:
前記反射光の発生率は、前記被写体領域の画素について、前記仮想光源を定義する位置から該画素に向かうベクトルと、該画素について推定された立体的形状の法線ベクトルとに基づいて決定される
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The calculation means further includes estimation means for estimating a three-dimensional shape of a subject corresponding to the subject area,
The incidence rate of the reflected light is determined based on a vector from the position defining the virtual light source toward the pixel and a normal vector of a three-dimensional shape estimated for the pixel for the pixel in the subject area. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記演算手段は、前記判断手段により前記撮像した環境が逆光シーンであると判断された場合に、前記第1の決定手段、前記第2の決定手段、及び前記処理手段に係る演算を実行する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 A judgment means for judging whether or not the environment in which the acquired image is captured is a backlight scene;
The computing means performs computations related to the first determining means, the second determining means, and the processing means when the determining means determines that the captured environment is a backlight scene. The image processing apparatus according to claim 1, wherein:
前記撮像手段により生成された画像を取得し、仮想光源による影響を付加した画像を出力する請求項1乃至7のいずれか1項に記載の画像処理装置と、を有する
ことを特徴とする撮像装置。 Imaging means for generating an image by imaging;
An image processing apparatus comprising: the image processing apparatus according to claim 1, which acquires an image generated by the imaging unit and outputs an image to which an influence of a virtual light source is added. .
前記取得工程において取得された画像に含まれる被写体について、撮像時に存在しなかった仮想光源による影響を演算する演算工程と、
前記演算工程における演算結果に基づき、前記被写体に前記仮想光源による影響を付加した画像を出力する出力工程とを有し、
前記演算工程は、
前記仮想光源を定義する位置を決定する決定工程と、
前記取得された画像に含まれる被写体領域を特定する特定工程と、
前記決定工程において逆光の関係となる位置に前記仮想光源を定義する位置が決定される場合に、
前記特定工程において特定された被写体領域の形状に基づいて、前記仮想光源による透過光の発生率を決定する第1の決定工程と、
前記仮想光源を定義する位置と前記被写体領域との位置に基づいて、前記仮想光源による反射光の発生率を決定する第2の決定工程と、
前記第1の決定工程において決定された前記透過光の発生率と前記第2の決定工程において決定された前記反射光の発生率とに基づいて、前記仮想光源による影響を演算する処理工程と、
を含むことを特徴とする画像処理装置の制御方法。 An acquisition step of acquiring an image obtained by imaging;
A calculation step of calculating the influence of the virtual light source that did not exist at the time of imaging for the subject included in the image acquired in the acquisition step;
An output step of outputting an image in which the influence of the virtual light source is added to the subject based on the calculation result in the calculation step;
The calculation step includes
A determining step for determining a position defining the virtual light source;
A specifying step of specifying a subject area included in the acquired image;
When the position that defines the virtual light source is determined at a position that is in a backlight relationship in the determination step,
A first determination step of determining a generation rate of transmitted light by the virtual light source based on the shape of the subject region specified in the specification step;
A second determining step of determining an incidence rate of reflected light by the virtual light source based on a position of the virtual light source and a position of the subject region;
A processing step of calculating the influence of the virtual light source based on the generation rate of the transmitted light determined in the first determination step and the generation rate of the reflected light determined in the second determination step;
A control method for an image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016027243A JP6702752B2 (en) | 2016-02-16 | 2016-02-16 | Image processing device, imaging device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016027243A JP6702752B2 (en) | 2016-02-16 | 2016-02-16 | Image processing device, imaging device, control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017147568A true JP2017147568A (en) | 2017-08-24 |
JP2017147568A5 JP2017147568A5 (en) | 2019-04-04 |
JP6702752B2 JP6702752B2 (en) | 2020-06-03 |
Family
ID=59682441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016027243A Active JP6702752B2 (en) | 2016-02-16 | 2016-02-16 | Image processing device, imaging device, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6702752B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018100059A1 (en) | 2017-07-31 | 2019-01-31 | Nippon Avionics Co. Ltd. | imaging device |
JP2019179464A (en) * | 2018-03-30 | 2019-10-17 | キヤノン株式会社 | Image processing device, control method thereof, and program |
JP2020005084A (en) * | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
CN112262563A (en) * | 2018-11-20 | 2021-01-22 | 华为技术有限公司 | Image processing method and electronic device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014096621A (en) * | 2012-11-07 | 2014-05-22 | Olympus Imaging Corp | Imaging apparatus and imaging method |
-
2016
- 2016-02-16 JP JP2016027243A patent/JP6702752B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014096621A (en) * | 2012-11-07 | 2014-05-22 | Olympus Imaging Corp | Imaging apparatus and imaging method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018100059A1 (en) | 2017-07-31 | 2019-01-31 | Nippon Avionics Co. Ltd. | imaging device |
JP2019179464A (en) * | 2018-03-30 | 2019-10-17 | キヤノン株式会社 | Image processing device, control method thereof, and program |
JP7102192B2 (en) | 2018-03-30 | 2022-07-19 | キヤノン株式会社 | Image processing device, its control method, program |
JP2020005084A (en) * | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7207876B2 (en) | 2018-06-27 | 2023-01-18 | キヤノン株式会社 | Image processing device, image processing method, and program |
CN112262563A (en) * | 2018-11-20 | 2021-01-22 | 华为技术有限公司 | Image processing method and electronic device |
CN112262563B (en) * | 2018-11-20 | 2022-07-22 | 华为技术有限公司 | Image processing method and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP6702752B2 (en) | 2020-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10997696B2 (en) | Image processing method, apparatus and device | |
US11503219B2 (en) | Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject | |
JP6381404B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP6412386B2 (en) | Image processing apparatus, control method therefor, program, and recording medium | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
KR20130031574A (en) | Image processing method and image processing apparatus | |
JP7292905B2 (en) | Image processing device, image processing method, and imaging device | |
JP2016213718A (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP6702752B2 (en) | Image processing device, imaging device, control method, and program | |
JP7277158B2 (en) | Setting device and method, program, storage medium | |
JP2019205055A (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2017152866A (en) | Image processing system and image processing method | |
US11037279B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP2017138927A (en) | Image processing device, imaging apparatus, control method and program thereof | |
JP2019179463A (en) | Image processing device, control method thereof, program, and recording medium | |
JP2016127388A (en) | Image processing system, control method of the same, program, and storage medium | |
JP2018182700A (en) | Image processing apparatus, control method of the same, program, and storage medium | |
JP2018182699A (en) | Image processing apparatus, control method of the same, program, and storage medium | |
JP6921606B2 (en) | Image processing equipment, image processing methods and programs | |
JP2016051982A (en) | Image processing system, camera, and image processing program | |
JP7398939B2 (en) | Image processing device and its control method, imaging device, program, and storage medium | |
US20200051212A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2016213717A (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP2017011364A (en) | Image capturing device, image capturing method and computer program | |
JP6675461B2 (en) | Image processing apparatus, control method therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200507 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6702752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |