JP2016092808A - Imaging apparatus and imaging apparatus control method - Google Patents
Imaging apparatus and imaging apparatus control method Download PDFInfo
- Publication number
- JP2016092808A JP2016092808A JP2014229343A JP2014229343A JP2016092808A JP 2016092808 A JP2016092808 A JP 2016092808A JP 2014229343 A JP2014229343 A JP 2014229343A JP 2014229343 A JP2014229343 A JP 2014229343A JP 2016092808 A JP2016092808 A JP 2016092808A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- gain
- imaging
- unit
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像に対するデジタル覆い焼き処理を行う撮像装置および撮像装置の制御方法に関する。 The present invention relates to an imaging apparatus that performs digital dodging processing on an image and a method for controlling the imaging apparatus.
従来、アナログ写真技術として、焼付け時に画像の一部を覆って適切な明るさのプリントを得ようとする、いわゆる覆い焼き処理という技術がある。また、デジタル画像の撮像を行う撮像装置においても、このようなアナログの覆い焼き処理に相当するデジタル覆い焼き処理を行い、デジタル画像のコントラストを部分的に補正することが可能である。 Conventionally, as an analog photographic technique, there is a so-called dodging process in which part of an image is covered during printing to obtain a print with appropriate brightness. An imaging apparatus that captures a digital image can also perform digital dodging processing corresponding to such an analog dodging process to partially correct the contrast of the digital image.
このデジタル覆い焼き処理の手法に関する従来の技術としては、例えば、下記の特許文献1に示すものが挙げられる。特許文献1によれば、画像の輝度レベルを参照し、が低い場合には覆い焼き処理に係るゲインを大きく入力画像信号の輝度信号に乗算することで、輝度レベルの低い領域を補正するデジタル覆い焼き処理が可能としている。 As a conventional technique related to the digital dodging processing technique, for example, the technique disclosed in Patent Document 1 below can be cited. According to Japanese Patent Laid-Open No. 2004-260688, a digital cover that corrects an area having a low brightness level by referring to the brightness level of the image and, when the brightness level is low, multiplying the brightness signal of the input image signal by a large gain related to the dodging process. Baking process is possible.
また従来から、被写体の反射率に応じた適切な露出制御を行う技術として、特許文献2に示すものが挙げられる。特許文献2によれば、ストロボなど被写体に対して投光する投光手段を投光した状態で撮影した画像情報と、投光手段を投光しない状態で撮影した画像情報の輝度の差分値に基づいて被写体の反射率を測定し、被写体の反射率に応じた露出制御を可能としている。 Conventionally, as a technique for performing appropriate exposure control according to the reflectance of a subject, a technique disclosed in Patent Document 2 can be cited. According to Japanese Patent Application Laid-Open No. 2004-260688, the difference between the luminance values of image information captured with a light projecting unit that projects a subject such as a strobe light and image information captured without projecting the light projecting unit. Based on this, the reflectance of the subject is measured, and exposure control according to the reflectance of the subject is possible.
しかしながら、上記特許文献1では、ゲインが輝度レベルにのみ応じて算出されるため、もともと反射率の低い被写体に対してもゲインが大きくなり、デジタル覆い焼き処理の過補正によるコントラストの低下を招いていた。 However, since the gain is calculated only in accordance with the luminance level in the above-mentioned Patent Document 1, the gain is increased even for a subject with originally low reflectance, resulting in a decrease in contrast due to overcorrection of the digital dodging process. It was.
また、上記特許文献2に示される従来技術では、被写体の反射率に応じて露出制御を行うものの、覆い焼き処理に相当する部分的なコントラスト補正を行うことはできなかった。 In the prior art disclosed in Patent Document 2, although exposure control is performed according to the reflectance of the subject, partial contrast correction corresponding to the dodging process cannot be performed.
本発明は前述の問題点を鑑み、被写体の反射率に応じて、覆い焼き処理に係るゲインを調整することで、デジタル覆い焼き処理の過補正によるコントラストの低下を軽減する撮像装置及び撮像装置の制御方法を提供することを目的としている。 In view of the above-described problems, the present invention provides an imaging apparatus and an imaging apparatus that reduce a decrease in contrast due to overcorrection of the digital dodging process by adjusting a gain related to the dodging process according to the reflectance of the subject. It aims to provide a control method.
上記目的を達成するために、本発明の撮像装置は、被写体を撮像して画像データを出力する撮像手段と、前記画像データと、前記撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと前記投光手段が第2の状態で撮像した第2の画像データとを比較した結果とに基づいて、ゲインを算出する算出手段と、前記算出手段により算出されたゲインで前記画像データにゲインを掛ける画像処理手段と、を有することを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention includes: an imaging unit that images a subject and outputs image data; the image data; and a light projecting unit that projects light at the time of imaging by the imaging unit. A calculation unit that calculates a gain based on a result of comparing the first image data captured in a state with the second image data captured by the light projecting unit in a second state; and calculated by the calculation unit And image processing means for multiplying the image data by the gain obtained.
本発明によれば、被写体の反射率に応じて、覆い焼き処理に係るゲインを適切に調整することが可能となり、ユーザーに好ましい画像を提供することができる。 According to the present invention, it is possible to appropriately adjust the gain related to the dodging process according to the reflectance of the subject, and a preferable image can be provided to the user.
以下、本発明を実施するための最良の形態について、添付図面を参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the accompanying drawings.
本発明の第一の実施形態について説明する。 A first embodiment of the present invention will be described.
図2は、本発明の実施形態に係る撮像装置の概略構成の一例を示すブロック図である。本発明でいう撮像装置は、撮像可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。 FIG. 2 is a block diagram illustrating an example of a schematic configuration of the imaging apparatus according to the embodiment of the present invention. The imaging device referred to in the present invention can be applied to any electronic device that can capture an image. These electronic devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.
図2に示す撮像装置200は、撮像素子201、A/D変換回路部202、画像信号処理部203、スイッチ部204、画像メモリ部205、覆い焼き処理部100、記録部206、システム制御部207、ストロボ部208(投光手段)により構成される。なお、ストロボ部208は撮像装置1に対して着脱可能な構成であっても良い。
An
次に、上記構成の撮像装置による撮像動作について説明する。 Next, an imaging operation by the imaging apparatus having the above configuration will be described.
まず、システム制御部207により、ストロボ部208により投光した状態で、撮像素子201により撮像する。このときの撮像素子の露光時間は実際(ストロボ部208を発光しない状態で)の撮像時と同じ撮像条件とする、撮像素子201の出力は、A/D変換回路部202でデジタル画像データに変換され、画像処理部203に入力される。
First, the image is picked up by the
画像処理部203では、入力されたデジタル画像データに対して、色分離、アパーチャ補正、ガンマ補正、ホワイトバランス補正等の処理を行った後、輝度(Y)成分と色差(U、V)成分を有するYUVフォーマットの画像データに変換され出力される。
The
以後、ストロボ部208を発光した状態で撮像した際に画像処理部203から出力されるYUVフォーマットの画像データをストロボ画像データと呼ぶこととする。
Hereinafter, image data in the YUV format output from the
画像処理部203から出力されたストロボ画像データは、スイッチ部204を介して、画像メモリ部205に格納される。
The strobe image data output from the
次に、システム制御部207により、ストロボ部208を発光しない、あるいは少ない光量で発光する(第2の光量)状態で、撮像素子201により撮像する。撮像素子201の出力は、A/D変換回路部202でデジタル画像データに変換される。
Next, the
A/D変換回路部202から出力された画像データは、画像処理部203で同様に色分離、アパーチャ補正、ガンマ補正、ホワイトバランス補正等の処理を行う。その後、輝度(Y)成分と色差(UV)成分を有するYUVフォーマットの画像データに変換され出力される。
The image data output from the A / D
以後ストロボ部208を発光しない状態で撮像した際に画像処理部203から出力されるYUVフォーマットの画像データを本画像データと呼ぶこととする。
Hereinafter, YUV format image data output from the
画像処理部203の出力から出力された本画像データは、スイッチ部204を介して、覆い焼き処理部100に入力される。
The main image data output from the output of the
覆い焼き処理部100では、スイッチ部204を介して画像処理部203から入力された本画像データに対して、本画像データと画像メモリ部205に格納されているストロボ画像データに基づいて、覆い焼き処理を行う。その後、覆い焼き処理後のYUVフォーマットの画像データを記録部205に出力する。
In the
なお、覆い焼き処理部100の処理の詳細は後述する。
Details of the process of the dodging
画像記録部205では、入力されたYUVフォーマットの画像データを、JPEG等のフォーマットに圧縮処理を行った後、SDカードなどの記録媒体に記録する。
The
なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。 Note that one or more of the functional blocks shown in FIG. 2 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or by executing software by a programmable processor such as a CPU or MPU. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.
次に、覆い焼き処理部100における処理の流れを図1のブロック図と、図3のフローチャートを用いて説明する。
Next, the flow of processing in the dodging
ステップS300では、まずスイッチ部204を介して、画像処理部203から本画像データが、ゲイン算出部101、反射率係数算出部102、補正処理部104にそれぞれ入力される。
In step S300, first, the main image data is input from the
ステップS301では、ゲイン算出部101において、入力された本画像データに対して、各画素毎に覆い焼き処理に係る補正パラメータであるゲインαが算出される。
In step S301, the
ここで図5は、図1に示すゲイン算出部101でゲインαを算出する際の変換テーブルの一例を示す図である。
Here, FIG. 5 is a diagram illustrating an example of a conversion table when the gain α is calculated by the
図5において、横軸に入力される本画像データの各画素の輝度のレベルYh(8bit)を示し、縦軸をゲイン算出部101の出力であるゲインαとする。
In FIG. 5, the horizontal axis represents the luminance level Yh (8 bits) of each pixel of the main image data input, and the vertical axis represents the gain α that is the output of the
図5の横軸に示す境界値Lth500は、覆い焼き処理の境界値である。入力される本画像データの各画素の輝度のレベルYhが境界値Lth500よりも大きい場合には、ゲインαは0が出力される。また、入力される本画像データの各画素の輝度のレベルYhが境界値Lth500よりも低い場合には、図5に示すように、輝度レベルがYhが低いほど、ゲインが大きく算出されることとなる。 A boundary value Lth500 shown on the horizontal axis in FIG. 5 is a boundary value of the dodging process. When the luminance level Yh of each pixel of the input main image data is larger than the boundary value Lth500, 0 is output as the gain α. When the luminance level Yh of each pixel of the input main image data is lower than the boundary value Lth500, as shown in FIG. 5, the gain is calculated to be larger as the luminance level is lower. Become.
ここで、入力される本画像データの着目画素(i,j)の輝度レベルをYh(i,j)、図5に示す変換テーブルをohy_tblとしたとき、着目画素(i,j)に対してのゲインをα(i,j)は次式によって算出される。
α(i,j)=ohy_tbl(Yh(i,j)) (式1)
Here, when the luminance level of the target pixel (i, j) of the input main image data is Yh (i, j) and the conversion table shown in FIG. 5 is ohy_tbl, the target pixel (i, j) The gain of α (i, j) is calculated by the following equation.
α (i, j) = ohy_tbl (Yh (i, j)) (Formula 1)
上記の(式1)に示す様に、ゲイン算出部102で算出された各画素毎のゲインα(i,j)は、本画像データの各画素の輝度レベルYh(i,j)にのみ依存する。そのため、例えば光源と被写体との位置関係により、被写体が光源の陰となる領域だけでなく、もともと反射率が低い被写体、例えば黒い被写体で輝度レベルYhが低くなっている領域に対しても、ゲインα(i,j)は大きく算出されることとなる。
As shown in (Equation 1) above, the gain α (i, j) for each pixel calculated by the
なお、本実施例では各画素毎にゲインを算出したが、本画像データを少なくとも2つ以上の小ブロックに分割し、各ブロック毎の輝度の積算値に対して、それぞれゲインαを算出しても良い。 In this embodiment, the gain is calculated for each pixel. However, the main image data is divided into at least two small blocks, and the gain α is calculated for the integrated luminance value for each block. Also good.
ステップS302では、画像メモリ部204に格納されているストロボ画像データが反射率係数算出部102に入力される。
In
ステップS303では、反射率係数算出部102において、入力された本画像データと、ストロボ画像データに基づいて、各画素毎に反射率係数βが算出される。
In step S303, the reflectance
反射率係数算出部102の詳細は後述するが、着目画素(i,j)に対する反射率係数β(i,j)は、着目画素(i,j)の被写体の反射率の強度を示す。被写体の反射率の強度が低い場合には0.0を、被写体の反射率の強度が高い場合には、1.0を出力する。また、反射率係数β(i,j)は、着目画素(i,j)の被写体の反射率の強度が高くもなく、低くもなく、その中間である場合には、反射率の強度に応じて0.0〜1.0の間の値を出力する。
Although details of the reflectance
ステップS304では、ゲイン調整部103において、ゲイン算出部101で算出されたゲインαと、反射率係数算出部102で算出された反射率係数βに基づいて、各画素毎に覆い焼き係数γが算出される。
In step S304, the
ここで、着目画素(i,j)に対する覆い焼き係数をγ(i,j)とすると、覆い焼きゲインγ(i,j)はゲインα(i,j)、反射率係数β(i,j)を用いて、次式によって演算される。
γ(i,j)=α(i,j)*β(i,j) (式2)
Here, if the dodging coefficient for the pixel of interest (i, j) is γ (i, j), the dodging gain γ (i, j) is gain α (i, j) and the reflectance coefficient β (i, j). ) And is calculated by the following equation.
γ (i, j) = α (i, j) * β (i, j) (Formula 2)
上記の(式2)に示す様に、ゲイン調整部103で算出された各画素毎の覆い焼き係数γ(i,j)は、ゲイン算出部101で算出されたゲインα(i,j)と、反射率係数算出部102で算出された反射率係数β(i,j)を乗算した結果となる。
As shown in (Equation 2) above, the dodging coefficient γ (i, j) for each pixel calculated by the
よって、被写体の輝度レベルYhが高く、ゲインαが0となる場合には、覆い焼きゲインγも0となる。 Therefore, when the luminance level Yh of the subject is high and the gain α is 0, the dodging gain γ is also 0.
また、被写体の輝度レベルYhが低く、ゲインα(i,j)が大きい値となる場合でも、被写体の反射率が低く、例えばもともと黒い被写体の場合には、反射率係数βは0.0またはそれに近い値となる。そのため、結果として覆い焼きゲインγも0または、それに近い値となる。このため、覆い焼きゲインγが大きい値となるのは、被写体の輝度レベルYhが低く、ゲインα(i,j)が大きい値となる場合で、かつ反射率係数βも1.0またはそれに近い値の時となる。つまり、被写体の反射率は低くないが、被写体が光源の陰となり輝度レベルYhが低くなっている場合には、適切にコントラスト補正処理を行うための覆い焼きゲインγが算出されることとなる。 Even when the luminance level Yh of the subject is low and the gain α (i, j) is a large value, the reflectance of the subject is low. For example, when the subject is originally a black subject, the reflectance coefficient β is 0.0 or A value close to that. As a result, the dodging gain γ is also 0 or a value close thereto. For this reason, the dodging gain γ has a large value when the luminance level Yh of the subject is low and the gain α (i, j) has a large value, and the reflectance coefficient β is 1.0 or close to it. The time of value. That is, the reflectance of the subject is not low, but when the subject is behind the light source and the brightness level Yh is low, the dodging gain γ for appropriately performing the contrast correction processing is calculated.
ステップS305では、補正処理部104において、入力された本画像データに対して、ゲイン調整部103の出力である、覆い焼き係数γに基づいて、補正処理が行われる。
In step S305, the
ここで着目画素(i,j)における本画像データの覆い焼き処理による補正処理後の輝度レベルをYo(i,j)とする。また、輝度レベルYo(i,j)は、本画像データの輝度レベルYh(i,j)、覆い焼きゲインγ(i,j)とすると、次式によって演算される。
Yo(i,j)=(1+γ(i,j))*Yh(i,j) (式3)
Here, the luminance level after the correction process by the dodging process of the main image data at the target pixel (i, j) is assumed to be Yo (i, j). Also, the luminance level Yo (i, j) is calculated by the following equation, assuming that the luminance level Yh (i, j) of the main image data and the dodging gain γ (i, j).
Yo (i, j) = (1 + γ (i, j)) * Yh (i, j) (Formula 3)
上記の(式3)によって覆い焼き処理後の輝度レベルYoを算出する。これによりで、覆い焼き係数γが大きい値の場合には、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhより大きくなる。また、覆い焼き係数γが0の場合には、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhと同じ値となる。 The luminance level Yo after the dodging process is calculated by the above (Equation 3). Thus, when the dodging coefficient γ is a large value, the luminance level Yo after the dodging process is higher than the luminance level Yh of the main image data before the dodging process. When the dodging coefficient γ is 0, the luminance level Yo after the dodging process is the same value as the luminance level Yh of the main image data before the dodging process.
つまり、被写体の反射率は低くないが、被写体が光源の陰となり輝度レベルYhが低くなっている場合には、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhより大きい値となる。したがって、適切なコントラスト補正を行うことが可能である。また、反射率が低い被写体、例えばもともと黒い被写体に対しては、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhと同じ、またはそれに近い値となる。これにより、覆い焼き処理による過補正を軽減することが可能である。 That is, if the subject has a low reflectance, but the subject is behind the light source and the luminance level Yh is low, the luminance level Yo after the dodging process is the luminance level of the main image data before the dodging process. It becomes a value larger than Yh. Therefore, it is possible to perform appropriate contrast correction. For a subject with low reflectance, for example, a black subject, the brightness level Yo after the dodging process is the same as or close to the brightness level Yh of the main image data before the dodging process. Thereby, it is possible to reduce the overcorrection due to the dodging process.
次に、反射率係数算出部102における詳細な処理の流れを図4のブロック図と、図6のフローチャートを用いて説明する。
Next, the detailed processing flow in the reflectance
ステップS600では、スイッチ部204を介して、画像処理部203から本画像データが、ゲイン調整部401へ入力される。
In step S <b> 600, the main image data is input from the
ステップS601では、本画像データ撮影時の撮影条件とストロボ画像データ撮影時の撮影条件に応じて、ゲイン調整部401へ入力された本画像データに対してゲイン処理が行われる。例えば、ストロボ画像データ撮像時の露光時間が、本画像データ撮像時の露光時間に対して、半分の時間であった場合には、入力された本画像データに対して0.5倍のゲインでゲインをかけるものとする。また、露光時間以外の条件が違う場合にも、適宜ゲイン処理が行われるものとする。本画像データ撮影時の撮影条件とストロボ画像データ撮影時の撮影条件が同じ場合には、ゲイン処理は行われず(ゲイン1でゲイン処理が行われ)、本画像データが出力される。ゲイン調整部401の出力は、移動ベクトル算出部402、ストロボ反射成分抽出部404にそれぞれ入力される。
In step S601, gain processing is performed on the main image data input to the
ステップS602では、画像メモリ部205に格納されているストロボ画像データが、移動ベクトル算出部402と、座標変換部403にそれぞれ入力される。
In step S <b> 602, the strobe image data stored in the
ステップS603では、移動ベクトル算出部402において、ゲイン調整部401の出力であるゲイン調整後の本画像データ上の被写体の位置の座標に対する、ストロボ画像データ上の被写体の位置の座標への移動ベクトルを算出する。
In step S603, the movement
具体的には、まずゲイン調整後の本画像データとストロボ画像データの輝度(Y)信号に対してそれぞれバンドパスフィルタ処理により、高周波成分を抽出した本画像データのエッジ画像とストロボ画像データのエッジ画像を抽出する。次に本画像データのエッジ画像に対し、ストロボ画像データのエッジ画像を、水平方向、垂直方向にそれぞれ1画素ずつ移動させて各画素の差分絶対値を積算する。本画像データのエッジ画像と、移動後のストロボ画像データのエッジ画像の各画素の差分絶対値の積算値が最も小さくなる水平方向の移動量と垂直方法の移動量を移動ベクトルとして出力するなどの公知の方法が挙げられる。 Specifically, first, the edge image of the main image data and the edge of the strobe image data from which high frequency components are extracted by the band pass filter processing on the luminance (Y) signal of the main image data and the strobe image data after the gain adjustment, respectively. Extract images. Next, with respect to the edge image of the main image data, the edge image of the strobe image data is moved one pixel at a time in the horizontal direction and the vertical direction, and the difference absolute value of each pixel is integrated. For example, the horizontal movement amount and the vertical method movement amount that minimize the integrated value of the absolute value of each pixel difference between the edge image of the main image data and the edge image of the strobe image data after movement are output as movement vectors. A well-known method is mentioned.
ステップS604では、座標変換部403において、移動ベクトル算出部402の出力である移動ベクトルを用いて、ストロボ画像データの被写体の位置の座標が、本画像データの被写体の位置座標と同じ座標となるように、位置合せ(座標変換)を行う。
In step S604, the coordinate
なお、本実施例では移動ベクトル算出部402において移動ベクトルを算出した。しかしこれに限らず公知の技術を用いて、ゲイン調整後の本画像データとストロボ画像データを小ブロックに分割し、複数の移動ベクトルから射影変換係数を算出しても良い。また同様に座標変換部403においても、移動ベクトル算出部402において算出された射影変換係数を用いて、ストロボ画像データの被写体の位置の座標が、本画像データの被写体の位置座標と同じ座標となるように、斜影変換による座標変換を行っても良い。
In this embodiment, the movement
ステップS605では、ストロボ反射成分抽出部404において、入力された本画像データと、座標変換部403から出力された座標変換後のストロボ画像データに基づいて、ストロボの反射成分Shが抽出される。
In step S605, the strobe reflection
ここで、着目画素(i,j)における入力される本画像データの輝度レベルをYh(i,j)、座標変換後のストロボ画像データの輝度レベルをYs(i,j)とする。着目画素(i,j)に対してのストロボの反射成分をSh(i,j)は次式によって演算される。
Sh(i,j)=Ys(i,j)−Yh(i,j) (式4)
Here, it is assumed that the luminance level of the main image data input at the pixel of interest (i, j) is Yh (i, j), and the luminance level of the strobe image data after coordinate conversion is Ys (i, j). The reflection component of the strobe for the pixel of interest (i, j) is calculated by the following equation.
Sh (i, j) = Ys (i, j) −Yh (i, j) (Formula 4)
上記の(式4)に示すように、ストロボ光、外光の反射成分とからなる座標変換後のストロボ画像データの輝度レベルYs(i,j)から、本画像データの輝度レベルYh(i,j)を減算して差分値を求めストロボの反射成分Sh(i,j)とする。また、反射成分としてはこれに限らず、比を取るなど、2つの画像データの比較をした結果であれば、いずれの手法であってもよい。 As shown in (Equation 4) above, the luminance level Yh (i, j,) of the main image data is obtained from the luminance level Ys (i, j) of the stroboscopic image data after coordinate conversion composed of the strobe light and the reflection component of external light. j) is subtracted to obtain a difference value and set as a strobe reflection component Sh (i, j). Further, the reflection component is not limited to this, and any method may be used as long as it is a result of comparing two image data, such as taking a ratio.
ステップS606では、反射係数算出部405において、ストロボ反射成分抽出部403から出力されるストロボ反射成分Shに基づいて、被写体の反射率の強度を示す反射率係数βが算出される。
In step S606, the reflection
ここで図7は、図4に示す反射係数算出部405で反射率係数βを算出する際の変換テーブルの一例を示す図である。
Here, FIG. 7 is a diagram illustrating an example of a conversion table when the reflectance coefficient β is calculated by the reflection
図7において、横軸に入力されるストロボ反射成分Shを示し、縦軸を反射係数算出部405の出力である反射率係数βとする。反射率係数βは、被写体の反射率の強度を示し、被写体の反射率の強度が低い場合には0.0を、被写体の反射率の強度が高い場合には、1.0を出力する。また、被写体の反射率の強度が高くもなく、低くもなく、その中間である場合には、反射率の強度に応じて0.0〜1.0の間の値を出力する。
In FIG. 7, the horizontal axis represents the strobe reflection component Sh input, and the vertical axis represents the reflectance coefficient β that is the output of the reflection
この時、図7に示す閾値700は、被写体の反射率強度が低く、覆い焼きによるコントラスト補正を行う必要がないストロボ反射成分Shに対して、反射率係数βが0.0となるように設定されることが望ましい。また、傾き701は被写体の反射率強度が高く、覆い焼きによるコントラスト補正を行うことが望ましいストロボ反射成分Shに対して、反射率係数が1.0となるように設定されることが望ましい。
At this time, the threshold 700 shown in FIG. 7 is set so that the reflectance coefficient β is 0.0 with respect to the strobe reflection component Sh where the contrast intensity of the subject is low and the contrast correction by dodging is not required. It is desirable that The
このように、本実施形態では、ストロボ部208を発光した状態で撮像したストロボ画像データと、ストロボ部208を発光しない状態で撮像した本画像データとに基づいて、被写体の反射成分の強度を算出することが可能である。また、被写体の反射成分の強度に応じて、覆い焼き処理に係る係数を調整する。これにより被写体が光源の陰となり暗くなっているような場合には、適正にコントラストの補正を行うことが可能となった。そのうえ、例えば黒い被写体のように、もともと反射率が低い被写体の場合には、覆い焼き処理による過補正を低減することが可能となる。
As described above, in the present embodiment, the intensity of the reflection component of the subject is calculated based on the strobe image data captured with the
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。例えば、本実施形態では、画像処理部203において、輝度(Y)成分と色差(UV)成分を有するYUVフォーマットの画像データに変換された後に、覆い焼き処理部100において覆い焼き処理を行った。しかし、これに限らず、画像処理部203内において、ガンマ補正を行う前のRGB信号に対して、同様に覆い焼き処理を行っても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention. For example, in the present embodiment, the dodging process is performed in the
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。 Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。 Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.
更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。 Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.
また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。 In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device. Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.
100 覆い焼き処理部
101 ゲイン算出部
102 反射率係数算出部
103 ゲイン調整部
104 補正処理部
200 撮像装置
201 撮像素子
202 A/D変換回路部
203 画像処理部
204 スイッチ部
205 画像メモリ部
206 季肋部
207 システム制御部
208 ストロボ部
401 移動ベクトル算出部
402 座標変換部
403 反射成分抽出部
404 反射係数算出部
DESCRIPTION OF
Claims (9)
前記撮像手段から出力された前記画像データに基づいて、前記被写体の明るさを調整するための前記画像データに対するゲインを算出する第1のゲイン算出手段と、
撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと、前記投光手段が第2の状態で撮像した第2の画像データとの比較に基づいた、第2のゲインを算出する第2のゲイン算出手段とを有し、
前記第1のゲイン算出手段により算出された第1のゲインと、前記第2のゲイン算出手段により算出された第2のゲインから、第3のゲインを算出することを特徴とする撮像装置。 Imaging means for imaging a subject and outputting image data;
First gain calculating means for calculating a gain for the image data for adjusting the brightness of the subject based on the image data output from the imaging means;
Based on a comparison between the first image data captured in the first state by the light projecting unit that projects light during imaging by the imaging unit and the second image data captured in the second state by the light projecting unit, Second gain calculating means for calculating a second gain;
An imaging apparatus, wherein a third gain is calculated from the first gain calculated by the first gain calculating means and the second gain calculated by the second gain calculating means.
前記撮像手段から出力された前記画像データに基づいて、前記画像データに対するゲインを算出する第1のゲイン算出工程と、
投光手段を第1の状態とした際に撮像した第1の画像データと、投光手段を第2の状態とした際に撮像した第2の画像データに基づいて、第1の画像データと第2の画像データの差分値に基づいた、第2のゲインを算出する第2のゲイン算出工程とを有し、
前記第1のゲイン算出工程により算出された第1のゲインと、前期第2のゲイン算出工程により算出された第2のゲインから、第3のゲインを算出する工程を有することを特徴とする撮像装置の制御方法。 An imaging process for imaging a subject and outputting image data;
A first gain calculating step of calculating a gain for the image data based on the image data output from the imaging means;
Based on the first image data imaged when the light projecting means is in the first state and the second image data imaged when the light projecting means is in the second state, A second gain calculation step of calculating a second gain based on the difference value of the second image data,
An imaging method comprising: calculating a third gain from the first gain calculated in the first gain calculation step and the second gain calculated in the second gain calculation step in the previous period. Control method of the device.
前記画像データと、前記撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと前記投光手段が第2の状態で撮像した第2の画像データとを比較した結果とに基づいて、ゲインを算出する算出手段と、
前記算出手段により算出されたゲインで前記画像データにゲインを掛ける画像処理手段と、を有することを特徴とする撮像装置。 Imaging means for imaging a subject and outputting image data;
The image data, the first image data captured in the first state by the light projecting unit that projects light during imaging by the imaging unit, and the second image data captured in the second state by the light projecting unit. A calculation means for calculating a gain based on the comparison result;
And an image processing unit that multiplies the image data by a gain calculated by the calculation unit.
前記画像データと、前記撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと前記投光手段が第2の状態で撮像した第2の画像データとを比較した結果とに基づいて、ゲインを算出する算出工程と、
前記算出工程により算出されたゲインで前記画像データにゲインを掛ける画像処理工程と、を有することを特徴とする撮像装置の制御方法。 An imaging step in which an imaging means images a subject and outputs image data;
The image data, the first image data captured in the first state by the light projecting unit that projects light during imaging by the imaging unit, and the second image data captured in the second state by the light projecting unit. A calculation step of calculating a gain based on the comparison result;
An image processing step of multiplying the image data by a gain calculated by the calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014229343A JP6576032B2 (en) | 2014-11-11 | 2014-11-11 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014229343A JP6576032B2 (en) | 2014-11-11 | 2014-11-11 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016092808A true JP2016092808A (en) | 2016-05-23 |
JP6576032B2 JP6576032B2 (en) | 2019-09-18 |
Family
ID=56019141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014229343A Active JP6576032B2 (en) | 2014-11-11 | 2014-11-11 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6576032B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008070611A (en) * | 2006-09-14 | 2008-03-27 | Casio Comput Co Ltd | Imaging apparatus, exposure condition adjustment method and program |
JP2009260565A (en) * | 2008-04-15 | 2009-11-05 | Canon Inc | Imaging apparatus and control method thereof, and program |
EP2128693A1 (en) * | 2008-05-28 | 2009-12-02 | ETH Zurich | Spatially Adaptive Photographic Flash Unit |
-
2014
- 2014-11-11 JP JP2014229343A patent/JP6576032B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008070611A (en) * | 2006-09-14 | 2008-03-27 | Casio Comput Co Ltd | Imaging apparatus, exposure condition adjustment method and program |
JP2009260565A (en) * | 2008-04-15 | 2009-11-05 | Canon Inc | Imaging apparatus and control method thereof, and program |
EP2128693A1 (en) * | 2008-05-28 | 2009-12-02 | ETH Zurich | Spatially Adaptive Photographic Flash Unit |
Also Published As
Publication number | Publication date |
---|---|
JP6576032B2 (en) | 2019-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11044453B2 (en) | Data processing apparatus, imaging apparatus and data processing method | |
JP6442209B2 (en) | Image processing apparatus and control method thereof | |
JP5089405B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP6445844B2 (en) | Imaging device and method performed in imaging device | |
US8982249B2 (en) | Image capturing apparatus and method for controlling an image capturing apparatus for capturing and processing a plurality of pieces of exposure and dark image data to correct combined exposure image data in accordance with combined dark image data | |
US10382671B2 (en) | Image processing apparatus, image processing method, and recording medium | |
US8441554B2 (en) | Image capturing apparatus capable of extracting subject region from captured image | |
JP6006543B2 (en) | Image processing apparatus and image processing method | |
US9813634B2 (en) | Image processing apparatus and method | |
JP2011109373A (en) | Imaging apparatus, imaging processing method and program | |
JP2014126803A (en) | Image processing apparatus, image processing method, and image processing program | |
US20230096541A1 (en) | Image processing apparatus and image processing method | |
US9413974B2 (en) | Information processing apparatus, image sensing apparatus, control method, and recording medium for conversion processing | |
US10021314B2 (en) | Image processing apparatus, image capturing apparatus, method of controlling the same, and storage medium for changing shading using a virtual light source | |
JP2014007528A (en) | Image processing apparatus and control method thereof | |
JP6576032B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM | |
US11405598B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11057598B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP5371135B2 (en) | Luminance correction apparatus, luminance correction system, and luminance correction method | |
JP2014093037A (en) | Image processing apparatus | |
JP2010161563A (en) | Image processing apparatus and image processing method | |
JP2012173943A (en) | Device and program for image processing | |
JP6601062B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP2012173944A (en) | Device and program for image processing | |
JP5602825B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190820 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6576032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |