JP2016092808A - Imaging apparatus and imaging apparatus control method - Google Patents

Imaging apparatus and imaging apparatus control method Download PDF

Info

Publication number
JP2016092808A
JP2016092808A JP2014229343A JP2014229343A JP2016092808A JP 2016092808 A JP2016092808 A JP 2016092808A JP 2014229343 A JP2014229343 A JP 2014229343A JP 2014229343 A JP2014229343 A JP 2014229343A JP 2016092808 A JP2016092808 A JP 2016092808A
Authority
JP
Japan
Prior art keywords
image data
gain
imaging
unit
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014229343A
Other languages
Japanese (ja)
Other versions
JP6576032B2 (en
Inventor
洋 荻野
Hiroshi Ogino
洋 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014229343A priority Critical patent/JP6576032B2/en
Publication of JP2016092808A publication Critical patent/JP2016092808A/en
Application granted granted Critical
Publication of JP6576032B2 publication Critical patent/JP6576032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging apparatus control method which reduce contrast deterioration due to excessive correction in a digital dodging process.SOLUTION: An imaging apparatus 200 comprises: imaging means 201 which images a subject and outputs image data; calculation means which calculates a gain on the basis of the image data and a result of comparing first image data imaged in a first state by strobe means 208 for projecting light at the time of imaging by the imaging means with second image data imaged in a second state by the strobe means; and image processing means 203 which applies the gain calculated by the calculation means to the image data.SELECTED DRAWING: Figure 2

Description

本発明は、画像に対するデジタル覆い焼き処理を行う撮像装置および撮像装置の制御方法に関する。   The present invention relates to an imaging apparatus that performs digital dodging processing on an image and a method for controlling the imaging apparatus.

従来、アナログ写真技術として、焼付け時に画像の一部を覆って適切な明るさのプリントを得ようとする、いわゆる覆い焼き処理という技術がある。また、デジタル画像の撮像を行う撮像装置においても、このようなアナログの覆い焼き処理に相当するデジタル覆い焼き処理を行い、デジタル画像のコントラストを部分的に補正することが可能である。   Conventionally, as an analog photographic technique, there is a so-called dodging process in which part of an image is covered during printing to obtain a print with appropriate brightness. An imaging apparatus that captures a digital image can also perform digital dodging processing corresponding to such an analog dodging process to partially correct the contrast of the digital image.

このデジタル覆い焼き処理の手法に関する従来の技術としては、例えば、下記の特許文献1に示すものが挙げられる。特許文献1によれば、画像の輝度レベルを参照し、が低い場合には覆い焼き処理に係るゲインを大きく入力画像信号の輝度信号に乗算することで、輝度レベルの低い領域を補正するデジタル覆い焼き処理が可能としている。   As a conventional technique related to the digital dodging processing technique, for example, the technique disclosed in Patent Document 1 below can be cited. According to Japanese Patent Laid-Open No. 2004-260688, a digital cover that corrects an area having a low brightness level by referring to the brightness level of the image and, when the brightness level is low, multiplying the brightness signal of the input image signal by a large gain related to the dodging process. Baking process is possible.

また従来から、被写体の反射率に応じた適切な露出制御を行う技術として、特許文献2に示すものが挙げられる。特許文献2によれば、ストロボなど被写体に対して投光する投光手段を投光した状態で撮影した画像情報と、投光手段を投光しない状態で撮影した画像情報の輝度の差分値に基づいて被写体の反射率を測定し、被写体の反射率に応じた露出制御を可能としている。   Conventionally, as a technique for performing appropriate exposure control according to the reflectance of a subject, a technique disclosed in Patent Document 2 can be cited. According to Japanese Patent Application Laid-Open No. 2004-260688, the difference between the luminance values of image information captured with a light projecting unit that projects a subject such as a strobe light and image information captured without projecting the light projecting unit. Based on this, the reflectance of the subject is measured, and exposure control according to the reflectance of the subject is possible.

特開2009−260565号公報JP 2009-260565 A 特開2008−70611号公報JP 2008-70611 A

しかしながら、上記特許文献1では、ゲインが輝度レベルにのみ応じて算出されるため、もともと反射率の低い被写体に対してもゲインが大きくなり、デジタル覆い焼き処理の過補正によるコントラストの低下を招いていた。   However, since the gain is calculated only in accordance with the luminance level in the above-mentioned Patent Document 1, the gain is increased even for a subject with originally low reflectance, resulting in a decrease in contrast due to overcorrection of the digital dodging process. It was.

また、上記特許文献2に示される従来技術では、被写体の反射率に応じて露出制御を行うものの、覆い焼き処理に相当する部分的なコントラスト補正を行うことはできなかった。   In the prior art disclosed in Patent Document 2, although exposure control is performed according to the reflectance of the subject, partial contrast correction corresponding to the dodging process cannot be performed.

本発明は前述の問題点を鑑み、被写体の反射率に応じて、覆い焼き処理に係るゲインを調整することで、デジタル覆い焼き処理の過補正によるコントラストの低下を軽減する撮像装置及び撮像装置の制御方法を提供することを目的としている。   In view of the above-described problems, the present invention provides an imaging apparatus and an imaging apparatus that reduce a decrease in contrast due to overcorrection of the digital dodging process by adjusting a gain related to the dodging process according to the reflectance of the subject. It aims to provide a control method.

上記目的を達成するために、本発明の撮像装置は、被写体を撮像して画像データを出力する撮像手段と、前記画像データと、前記撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと前記投光手段が第2の状態で撮像した第2の画像データとを比較した結果とに基づいて、ゲインを算出する算出手段と、前記算出手段により算出されたゲインで前記画像データにゲインを掛ける画像処理手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes: an imaging unit that images a subject and outputs image data; the image data; and a light projecting unit that projects light at the time of imaging by the imaging unit. A calculation unit that calculates a gain based on a result of comparing the first image data captured in a state with the second image data captured by the light projecting unit in a second state; and calculated by the calculation unit And image processing means for multiplying the image data by the gain obtained.

本発明によれば、被写体の反射率に応じて、覆い焼き処理に係るゲインを適切に調整することが可能となり、ユーザーに好ましい画像を提供することができる。   According to the present invention, it is possible to appropriately adjust the gain related to the dodging process according to the reflectance of the subject, and a preferable image can be provided to the user.

実施形態に係る覆い焼き処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the dodging process part which concerns on embodiment. 実施形態に係る撮像装置の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the imaging device which concerns on embodiment. 覆い焼き処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of a dodging process. 実施形態に係る反射率係数算出部の一例を示すブロック図である。It is a block diagram which shows an example of the reflectance factor calculation part which concerns on embodiment. ゲイン算出部の入出力特性の関係の一例を示す特性図である。It is a characteristic view which shows an example of the relationship of the input-output characteristic of a gain calculation part. 反射率係数算出処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of a reflectance factor calculation process. 反射係数算出部の入出力特性の関係の一例を示す特性図である。It is a characteristic view which shows an example of the relationship of the input-output characteristic of a reflection coefficient calculation part.

以下、本発明を実施するための最良の形態について、添付図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings.

本発明の第一の実施形態について説明する。   A first embodiment of the present invention will be described.

図2は、本発明の実施形態に係る撮像装置の概略構成の一例を示すブロック図である。本発明でいう撮像装置は、撮像可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。   FIG. 2 is a block diagram illustrating an example of a schematic configuration of the imaging apparatus according to the embodiment of the present invention. The imaging device referred to in the present invention can be applied to any electronic device that can capture an image. These electronic devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.

図2に示す撮像装置200は、撮像素子201、A/D変換回路部202、画像信号処理部203、スイッチ部204、画像メモリ部205、覆い焼き処理部100、記録部206、システム制御部207、ストロボ部208(投光手段)により構成される。なお、ストロボ部208は撮像装置1に対して着脱可能な構成であっても良い。   An imaging apparatus 200 illustrated in FIG. 2 includes an imaging element 201, an A / D conversion circuit unit 202, an image signal processing unit 203, a switch unit 204, an image memory unit 205, a dodging processing unit 100, a recording unit 206, and a system control unit 207. The flash unit 208 (light projecting means). Note that the flash unit 208 may be detachable from the imaging apparatus 1.

次に、上記構成の撮像装置による撮像動作について説明する。   Next, an imaging operation by the imaging apparatus having the above configuration will be described.

まず、システム制御部207により、ストロボ部208により投光した状態で、撮像素子201により撮像する。このときの撮像素子の露光時間は実際(ストロボ部208を発光しない状態で)の撮像時と同じ撮像条件とする、撮像素子201の出力は、A/D変換回路部202でデジタル画像データに変換され、画像処理部203に入力される。   First, the image is picked up by the image pickup device 201 while being projected by the flash unit 208 by the system control unit 207. The exposure time of the image sensor at this time is set to the same image capturing condition as that during actual image capturing (when the flash unit 208 does not emit light). The output of the image sensor 201 is converted into digital image data by the A / D conversion circuit unit 202. And input to the image processing unit 203.

画像処理部203では、入力されたデジタル画像データに対して、色分離、アパーチャ補正、ガンマ補正、ホワイトバランス補正等の処理を行った後、輝度(Y)成分と色差(U、V)成分を有するYUVフォーマットの画像データに変換され出力される。   The image processing unit 203 performs processing such as color separation, aperture correction, gamma correction, and white balance correction on the input digital image data, and then calculates the luminance (Y) component and the color difference (U, V) component. The image data is converted into YUV format image data.

以後、ストロボ部208を発光した状態で撮像した際に画像処理部203から出力されるYUVフォーマットの画像データをストロボ画像データと呼ぶこととする。   Hereinafter, image data in the YUV format output from the image processing unit 203 when the strobe unit 208 is imaged with light emitted is referred to as strobe image data.

画像処理部203から出力されたストロボ画像データは、スイッチ部204を介して、画像メモリ部205に格納される。   The strobe image data output from the image processing unit 203 is stored in the image memory unit 205 via the switch unit 204.

次に、システム制御部207により、ストロボ部208を発光しない、あるいは少ない光量で発光する(第2の光量)状態で、撮像素子201により撮像する。撮像素子201の出力は、A/D変換回路部202でデジタル画像データに変換される。   Next, the image pickup device 201 captures an image with the system control unit 207 not emitting light from the flash unit 208 or emitting light with a small amount of light (second light amount). The output of the image sensor 201 is converted into digital image data by the A / D conversion circuit unit 202.

A/D変換回路部202から出力された画像データは、画像処理部203で同様に色分離、アパーチャ補正、ガンマ補正、ホワイトバランス補正等の処理を行う。その後、輝度(Y)成分と色差(UV)成分を有するYUVフォーマットの画像データに変換され出力される。   The image data output from the A / D conversion circuit unit 202 is similarly subjected to processing such as color separation, aperture correction, gamma correction, and white balance correction in the image processing unit 203. Thereafter, the image data is converted into YUV format image data having a luminance (Y) component and a color difference (UV) component, and output.

以後ストロボ部208を発光しない状態で撮像した際に画像処理部203から出力されるYUVフォーマットの画像データを本画像データと呼ぶこととする。   Hereinafter, YUV format image data output from the image processing unit 203 when the strobe unit 208 is imaged without emitting light will be referred to as main image data.

画像処理部203の出力から出力された本画像データは、スイッチ部204を介して、覆い焼き処理部100に入力される。   The main image data output from the output of the image processing unit 203 is input to the dodging processing unit 100 via the switch unit 204.

覆い焼き処理部100では、スイッチ部204を介して画像処理部203から入力された本画像データに対して、本画像データと画像メモリ部205に格納されているストロボ画像データに基づいて、覆い焼き処理を行う。その後、覆い焼き処理後のYUVフォーマットの画像データを記録部205に出力する。   In the dodging processing unit 100, dodging is performed on the main image data input from the image processing unit 203 via the switch unit 204 based on the main image data and the strobe image data stored in the image memory unit 205. Process. Thereafter, the image data in the YUV format after the dodging process is output to the recording unit 205.

なお、覆い焼き処理部100の処理の詳細は後述する。   Details of the process of the dodging processor 100 will be described later.

画像記録部205では、入力されたYUVフォーマットの画像データを、JPEG等のフォーマットに圧縮処理を行った後、SDカードなどの記録媒体に記録する。   The image recording unit 205 compresses the input image data in the YUV format into a format such as JPEG, and then records it on a recording medium such as an SD card.

なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。   Note that one or more of the functional blocks shown in FIG. 2 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or by executing software by a programmable processor such as a CPU or MPU. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

次に、覆い焼き処理部100における処理の流れを図1のブロック図と、図3のフローチャートを用いて説明する。   Next, the flow of processing in the dodging processor 100 will be described with reference to the block diagram of FIG. 1 and the flowchart of FIG.

ステップS300では、まずスイッチ部204を介して、画像処理部203から本画像データが、ゲイン算出部101、反射率係数算出部102、補正処理部104にそれぞれ入力される。   In step S300, first, the main image data is input from the image processing unit 203 to the gain calculation unit 101, the reflectance coefficient calculation unit 102, and the correction processing unit 104 via the switch unit 204.

ステップS301では、ゲイン算出部101において、入力された本画像データに対して、各画素毎に覆い焼き処理に係る補正パラメータであるゲインαが算出される。   In step S301, the gain calculation unit 101 calculates gain α, which is a correction parameter related to the dodging process, for each pixel of the input main image data.

ここで図5は、図1に示すゲイン算出部101でゲインαを算出する際の変換テーブルの一例を示す図である。   Here, FIG. 5 is a diagram illustrating an example of a conversion table when the gain α is calculated by the gain calculation unit 101 illustrated in FIG. 1.

図5において、横軸に入力される本画像データの各画素の輝度のレベルYh(8bit)を示し、縦軸をゲイン算出部101の出力であるゲインαとする。   In FIG. 5, the horizontal axis represents the luminance level Yh (8 bits) of each pixel of the main image data input, and the vertical axis represents the gain α that is the output of the gain calculation unit 101.

図5の横軸に示す境界値Lth500は、覆い焼き処理の境界値である。入力される本画像データの各画素の輝度のレベルYhが境界値Lth500よりも大きい場合には、ゲインαは0が出力される。また、入力される本画像データの各画素の輝度のレベルYhが境界値Lth500よりも低い場合には、図5に示すように、輝度レベルがYhが低いほど、ゲインが大きく算出されることとなる。   A boundary value Lth500 shown on the horizontal axis in FIG. 5 is a boundary value of the dodging process. When the luminance level Yh of each pixel of the input main image data is larger than the boundary value Lth500, 0 is output as the gain α. When the luminance level Yh of each pixel of the input main image data is lower than the boundary value Lth500, as shown in FIG. 5, the gain is calculated to be larger as the luminance level is lower. Become.

ここで、入力される本画像データの着目画素(i,j)の輝度レベルをYh(i,j)、図5に示す変換テーブルをohy_tblとしたとき、着目画素(i,j)に対してのゲインをα(i,j)は次式によって算出される。
α(i,j)=ohy_tbl(Yh(i,j)) (式1)
Here, when the luminance level of the target pixel (i, j) of the input main image data is Yh (i, j) and the conversion table shown in FIG. 5 is ohy_tbl, the target pixel (i, j) The gain of α (i, j) is calculated by the following equation.
α (i, j) = ohy_tbl (Yh (i, j)) (Formula 1)

上記の(式1)に示す様に、ゲイン算出部102で算出された各画素毎のゲインα(i,j)は、本画像データの各画素の輝度レベルYh(i,j)にのみ依存する。そのため、例えば光源と被写体との位置関係により、被写体が光源の陰となる領域だけでなく、もともと反射率が低い被写体、例えば黒い被写体で輝度レベルYhが低くなっている領域に対しても、ゲインα(i,j)は大きく算出されることとなる。   As shown in (Equation 1) above, the gain α (i, j) for each pixel calculated by the gain calculation unit 102 depends only on the luminance level Yh (i, j) of each pixel of the main image data. To do. Therefore, for example, depending on the positional relationship between the light source and the subject, the gain is applied not only to the region where the subject is shaded by the light source, but also to the subject that originally has a low reflectance, for example, a black subject and the luminance level Yh is low. α (i, j) is greatly calculated.

なお、本実施例では各画素毎にゲインを算出したが、本画像データを少なくとも2つ以上の小ブロックに分割し、各ブロック毎の輝度の積算値に対して、それぞれゲインαを算出しても良い。   In this embodiment, the gain is calculated for each pixel. However, the main image data is divided into at least two small blocks, and the gain α is calculated for the integrated luminance value for each block. Also good.

ステップS302では、画像メモリ部204に格納されているストロボ画像データが反射率係数算出部102に入力される。   In step S 302, the strobe image data stored in the image memory unit 204 is input to the reflectance coefficient calculation unit 102.

ステップS303では、反射率係数算出部102において、入力された本画像データと、ストロボ画像データに基づいて、各画素毎に反射率係数βが算出される。   In step S303, the reflectance coefficient calculation unit 102 calculates the reflectance coefficient β for each pixel based on the input main image data and strobe image data.

反射率係数算出部102の詳細は後述するが、着目画素(i,j)に対する反射率係数β(i,j)は、着目画素(i,j)の被写体の反射率の強度を示す。被写体の反射率の強度が低い場合には0.0を、被写体の反射率の強度が高い場合には、1.0を出力する。また、反射率係数β(i,j)は、着目画素(i,j)の被写体の反射率の強度が高くもなく、低くもなく、その中間である場合には、反射率の強度に応じて0.0〜1.0の間の値を出力する。   Although details of the reflectance coefficient calculation unit 102 will be described later, the reflectance coefficient β (i, j) for the target pixel (i, j) indicates the intensity of the reflectance of the subject of the target pixel (i, j). When the reflectance intensity of the subject is low, 0.0 is output, and when the reflectance intensity of the subject is high, 1.0 is output. The reflectance coefficient β (i, j) is not high, low, or intermediate between the subject of the pixel of interest (i, j), and depends on the reflectance intensity. And outputs a value between 0.0 and 1.0.

ステップS304では、ゲイン調整部103において、ゲイン算出部101で算出されたゲインαと、反射率係数算出部102で算出された反射率係数βに基づいて、各画素毎に覆い焼き係数γが算出される。   In step S304, the gain adjustment unit 103 calculates a dodging coefficient γ for each pixel based on the gain α calculated by the gain calculation unit 101 and the reflectance coefficient β calculated by the reflectance coefficient calculation unit 102. Is done.

ここで、着目画素(i,j)に対する覆い焼き係数をγ(i,j)とすると、覆い焼きゲインγ(i,j)はゲインα(i,j)、反射率係数β(i,j)を用いて、次式によって演算される。
γ(i,j)=α(i,j)*β(i,j) (式2)
Here, if the dodging coefficient for the pixel of interest (i, j) is γ (i, j), the dodging gain γ (i, j) is gain α (i, j) and the reflectance coefficient β (i, j). ) And is calculated by the following equation.
γ (i, j) = α (i, j) * β (i, j) (Formula 2)

上記の(式2)に示す様に、ゲイン調整部103で算出された各画素毎の覆い焼き係数γ(i,j)は、ゲイン算出部101で算出されたゲインα(i,j)と、反射率係数算出部102で算出された反射率係数β(i,j)を乗算した結果となる。   As shown in (Equation 2) above, the dodging coefficient γ (i, j) for each pixel calculated by the gain adjustment unit 103 is equal to the gain α (i, j) calculated by the gain calculation unit 101. As a result, the reflectance coefficient β (i, j) calculated by the reflectance coefficient calculation unit 102 is multiplied.

よって、被写体の輝度レベルYhが高く、ゲインαが0となる場合には、覆い焼きゲインγも0となる。   Therefore, when the luminance level Yh of the subject is high and the gain α is 0, the dodging gain γ is also 0.

また、被写体の輝度レベルYhが低く、ゲインα(i,j)が大きい値となる場合でも、被写体の反射率が低く、例えばもともと黒い被写体の場合には、反射率係数βは0.0またはそれに近い値となる。そのため、結果として覆い焼きゲインγも0または、それに近い値となる。このため、覆い焼きゲインγが大きい値となるのは、被写体の輝度レベルYhが低く、ゲインα(i,j)が大きい値となる場合で、かつ反射率係数βも1.0またはそれに近い値の時となる。つまり、被写体の反射率は低くないが、被写体が光源の陰となり輝度レベルYhが低くなっている場合には、適切にコントラスト補正処理を行うための覆い焼きゲインγが算出されることとなる。   Even when the luminance level Yh of the subject is low and the gain α (i, j) is a large value, the reflectance of the subject is low. For example, when the subject is originally a black subject, the reflectance coefficient β is 0.0 or A value close to that. As a result, the dodging gain γ is also 0 or a value close thereto. For this reason, the dodging gain γ has a large value when the luminance level Yh of the subject is low and the gain α (i, j) has a large value, and the reflectance coefficient β is 1.0 or close to it. The time of value. That is, the reflectance of the subject is not low, but when the subject is behind the light source and the brightness level Yh is low, the dodging gain γ for appropriately performing the contrast correction processing is calculated.

ステップS305では、補正処理部104において、入力された本画像データに対して、ゲイン調整部103の出力である、覆い焼き係数γに基づいて、補正処理が行われる。   In step S305, the correction processing unit 104 performs correction processing on the input main image data based on the dodging coefficient γ that is an output of the gain adjustment unit 103.

ここで着目画素(i,j)における本画像データの覆い焼き処理による補正処理後の輝度レベルをYo(i,j)とする。また、輝度レベルYo(i,j)は、本画像データの輝度レベルYh(i,j)、覆い焼きゲインγ(i,j)とすると、次式によって演算される。
Yo(i,j)=(1+γ(i,j))*Yh(i,j) (式3)
Here, the luminance level after the correction process by the dodging process of the main image data at the target pixel (i, j) is assumed to be Yo (i, j). Also, the luminance level Yo (i, j) is calculated by the following equation, assuming that the luminance level Yh (i, j) of the main image data and the dodging gain γ (i, j).
Yo (i, j) = (1 + γ (i, j)) * Yh (i, j) (Formula 3)

上記の(式3)によって覆い焼き処理後の輝度レベルYoを算出する。これによりで、覆い焼き係数γが大きい値の場合には、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhより大きくなる。また、覆い焼き係数γが0の場合には、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhと同じ値となる。   The luminance level Yo after the dodging process is calculated by the above (Equation 3). Thus, when the dodging coefficient γ is a large value, the luminance level Yo after the dodging process is higher than the luminance level Yh of the main image data before the dodging process. When the dodging coefficient γ is 0, the luminance level Yo after the dodging process is the same value as the luminance level Yh of the main image data before the dodging process.

つまり、被写体の反射率は低くないが、被写体が光源の陰となり輝度レベルYhが低くなっている場合には、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhより大きい値となる。したがって、適切なコントラスト補正を行うことが可能である。また、反射率が低い被写体、例えばもともと黒い被写体に対しては、覆い焼き処理後の輝度レベルYoは、覆い焼き処理前の本画像データの輝度レベルYhと同じ、またはそれに近い値となる。これにより、覆い焼き処理による過補正を軽減することが可能である。   That is, if the subject has a low reflectance, but the subject is behind the light source and the luminance level Yh is low, the luminance level Yo after the dodging process is the luminance level of the main image data before the dodging process. It becomes a value larger than Yh. Therefore, it is possible to perform appropriate contrast correction. For a subject with low reflectance, for example, a black subject, the brightness level Yo after the dodging process is the same as or close to the brightness level Yh of the main image data before the dodging process. Thereby, it is possible to reduce the overcorrection due to the dodging process.

次に、反射率係数算出部102における詳細な処理の流れを図4のブロック図と、図6のフローチャートを用いて説明する。   Next, the detailed processing flow in the reflectance coefficient calculation unit 102 will be described with reference to the block diagram of FIG. 4 and the flowchart of FIG.

ステップS600では、スイッチ部204を介して、画像処理部203から本画像データが、ゲイン調整部401へ入力される。   In step S <b> 600, the main image data is input from the image processing unit 203 to the gain adjustment unit 401 via the switch unit 204.

ステップS601では、本画像データ撮影時の撮影条件とストロボ画像データ撮影時の撮影条件に応じて、ゲイン調整部401へ入力された本画像データに対してゲイン処理が行われる。例えば、ストロボ画像データ撮像時の露光時間が、本画像データ撮像時の露光時間に対して、半分の時間であった場合には、入力された本画像データに対して0.5倍のゲインでゲインをかけるものとする。また、露光時間以外の条件が違う場合にも、適宜ゲイン処理が行われるものとする。本画像データ撮影時の撮影条件とストロボ画像データ撮影時の撮影条件が同じ場合には、ゲイン処理は行われず(ゲイン1でゲイン処理が行われ)、本画像データが出力される。ゲイン調整部401の出力は、移動ベクトル算出部402、ストロボ反射成分抽出部404にそれぞれ入力される。   In step S601, gain processing is performed on the main image data input to the gain adjustment unit 401 in accordance with shooting conditions at the time of main image data shooting and shooting conditions at the time of flash image data shooting. For example, if the exposure time when capturing strobe image data is half the exposure time when capturing main image data, the gain is 0.5 times that of the input main image data. Gain shall be applied. Further, it is assumed that gain processing is appropriately performed even when conditions other than the exposure time are different. When the shooting conditions at the time of actual image data shooting and the shooting conditions at the time of flash image data shooting are the same, gain processing is not performed (gain processing is performed with gain 1), and the main image data is output. The output of the gain adjustment unit 401 is input to the movement vector calculation unit 402 and the strobe reflection component extraction unit 404, respectively.

ステップS602では、画像メモリ部205に格納されているストロボ画像データが、移動ベクトル算出部402と、座標変換部403にそれぞれ入力される。   In step S <b> 602, the strobe image data stored in the image memory unit 205 is input to the movement vector calculation unit 402 and the coordinate conversion unit 403, respectively.

ステップS603では、移動ベクトル算出部402において、ゲイン調整部401の出力であるゲイン調整後の本画像データ上の被写体の位置の座標に対する、ストロボ画像データ上の被写体の位置の座標への移動ベクトルを算出する。   In step S603, the movement vector calculation unit 402 calculates a movement vector to the coordinates of the subject position on the strobe image data with respect to the coordinates of the subject position on the main image data after gain adjustment, which is the output of the gain adjustment unit 401. calculate.

具体的には、まずゲイン調整後の本画像データとストロボ画像データの輝度(Y)信号に対してそれぞれバンドパスフィルタ処理により、高周波成分を抽出した本画像データのエッジ画像とストロボ画像データのエッジ画像を抽出する。次に本画像データのエッジ画像に対し、ストロボ画像データのエッジ画像を、水平方向、垂直方向にそれぞれ1画素ずつ移動させて各画素の差分絶対値を積算する。本画像データのエッジ画像と、移動後のストロボ画像データのエッジ画像の各画素の差分絶対値の積算値が最も小さくなる水平方向の移動量と垂直方法の移動量を移動ベクトルとして出力するなどの公知の方法が挙げられる。   Specifically, first, the edge image of the main image data and the edge of the strobe image data from which high frequency components are extracted by the band pass filter processing on the luminance (Y) signal of the main image data and the strobe image data after the gain adjustment, respectively. Extract images. Next, with respect to the edge image of the main image data, the edge image of the strobe image data is moved one pixel at a time in the horizontal direction and the vertical direction, and the difference absolute value of each pixel is integrated. For example, the horizontal movement amount and the vertical method movement amount that minimize the integrated value of the absolute value of each pixel difference between the edge image of the main image data and the edge image of the strobe image data after movement are output as movement vectors. A well-known method is mentioned.

ステップS604では、座標変換部403において、移動ベクトル算出部402の出力である移動ベクトルを用いて、ストロボ画像データの被写体の位置の座標が、本画像データの被写体の位置座標と同じ座標となるように、位置合せ(座標変換)を行う。   In step S604, the coordinate conversion unit 403 uses the movement vector output from the movement vector calculation unit 402 so that the coordinates of the subject position of the strobe image data are the same as the position coordinates of the subject of the main image data. Next, alignment (coordinate conversion) is performed.

なお、本実施例では移動ベクトル算出部402において移動ベクトルを算出した。しかしこれに限らず公知の技術を用いて、ゲイン調整後の本画像データとストロボ画像データを小ブロックに分割し、複数の移動ベクトルから射影変換係数を算出しても良い。また同様に座標変換部403においても、移動ベクトル算出部402において算出された射影変換係数を用いて、ストロボ画像データの被写体の位置の座標が、本画像データの被写体の位置座標と同じ座標となるように、斜影変換による座標変換を行っても良い。   In this embodiment, the movement vector calculation unit 402 calculates the movement vector. However, the present invention is not limited to this, and a known technique may be used to divide the main image data and the strobe image data after gain adjustment into small blocks and calculate projective transformation coefficients from a plurality of movement vectors. Similarly, in the coordinate conversion unit 403, the coordinates of the subject position in the strobe image data are the same as the position coordinates of the subject in the main image data, using the projection conversion coefficient calculated in the movement vector calculation unit 402. As described above, coordinate transformation by oblique transformation may be performed.

ステップS605では、ストロボ反射成分抽出部404において、入力された本画像データと、座標変換部403から出力された座標変換後のストロボ画像データに基づいて、ストロボの反射成分Shが抽出される。   In step S605, the strobe reflection component extraction unit 404 extracts the strobe reflection component Sh based on the input main image data and the coordinate-converted strobe image data output from the coordinate conversion unit 403.

ここで、着目画素(i,j)における入力される本画像データの輝度レベルをYh(i,j)、座標変換後のストロボ画像データの輝度レベルをYs(i,j)とする。着目画素(i,j)に対してのストロボの反射成分をSh(i,j)は次式によって演算される。
Sh(i,j)=Ys(i,j)−Yh(i,j) (式4)
Here, it is assumed that the luminance level of the main image data input at the pixel of interest (i, j) is Yh (i, j), and the luminance level of the strobe image data after coordinate conversion is Ys (i, j). The reflection component of the strobe for the pixel of interest (i, j) is calculated by the following equation.
Sh (i, j) = Ys (i, j) −Yh (i, j) (Formula 4)

上記の(式4)に示すように、ストロボ光、外光の反射成分とからなる座標変換後のストロボ画像データの輝度レベルYs(i,j)から、本画像データの輝度レベルYh(i,j)を減算して差分値を求めストロボの反射成分Sh(i,j)とする。また、反射成分としてはこれに限らず、比を取るなど、2つの画像データの比較をした結果であれば、いずれの手法であってもよい。   As shown in (Equation 4) above, the luminance level Yh (i, j,) of the main image data is obtained from the luminance level Ys (i, j) of the stroboscopic image data after coordinate conversion composed of the strobe light and the reflection component of external light. j) is subtracted to obtain a difference value and set as a strobe reflection component Sh (i, j). Further, the reflection component is not limited to this, and any method may be used as long as it is a result of comparing two image data, such as taking a ratio.

ステップS606では、反射係数算出部405において、ストロボ反射成分抽出部403から出力されるストロボ反射成分Shに基づいて、被写体の反射率の強度を示す反射率係数βが算出される。   In step S606, the reflection coefficient calculation unit 405 calculates a reflectance coefficient β indicating the intensity of the reflectance of the subject based on the strobe reflection component Sh output from the strobe reflection component extraction unit 403.

ここで図7は、図4に示す反射係数算出部405で反射率係数βを算出する際の変換テーブルの一例を示す図である。   Here, FIG. 7 is a diagram illustrating an example of a conversion table when the reflectance coefficient β is calculated by the reflection coefficient calculation unit 405 illustrated in FIG. 4.

図7において、横軸に入力されるストロボ反射成分Shを示し、縦軸を反射係数算出部405の出力である反射率係数βとする。反射率係数βは、被写体の反射率の強度を示し、被写体の反射率の強度が低い場合には0.0を、被写体の反射率の強度が高い場合には、1.0を出力する。また、被写体の反射率の強度が高くもなく、低くもなく、その中間である場合には、反射率の強度に応じて0.0〜1.0の間の値を出力する。   In FIG. 7, the horizontal axis represents the strobe reflection component Sh input, and the vertical axis represents the reflectance coefficient β that is the output of the reflection coefficient calculation unit 405. The reflectance coefficient β indicates the intensity of the reflectance of the subject. When the reflectance intensity of the subject is low, 0.0 is output, and when the reflectance intensity of the subject is high, 1.0 is output. In addition, when the reflectance intensity of the subject is neither high nor low, and in between, a value between 0.0 and 1.0 is output according to the reflectance intensity.

この時、図7に示す閾値700は、被写体の反射率強度が低く、覆い焼きによるコントラスト補正を行う必要がないストロボ反射成分Shに対して、反射率係数βが0.0となるように設定されることが望ましい。また、傾き701は被写体の反射率強度が高く、覆い焼きによるコントラスト補正を行うことが望ましいストロボ反射成分Shに対して、反射率係数が1.0となるように設定されることが望ましい。   At this time, the threshold 700 shown in FIG. 7 is set so that the reflectance coefficient β is 0.0 with respect to the strobe reflection component Sh where the contrast intensity of the subject is low and the contrast correction by dodging is not required. It is desirable that The inclination 701 is preferably set so that the reflectance coefficient is 1.0 with respect to the strobe reflection component Sh for which the contrast intensity of the subject is high and contrast correction by dodging is desired.

このように、本実施形態では、ストロボ部208を発光した状態で撮像したストロボ画像データと、ストロボ部208を発光しない状態で撮像した本画像データとに基づいて、被写体の反射成分の強度を算出することが可能である。また、被写体の反射成分の強度に応じて、覆い焼き処理に係る係数を調整する。これにより被写体が光源の陰となり暗くなっているような場合には、適正にコントラストの補正を行うことが可能となった。そのうえ、例えば黒い被写体のように、もともと反射率が低い被写体の場合には、覆い焼き処理による過補正を低減することが可能となる。   As described above, in the present embodiment, the intensity of the reflection component of the subject is calculated based on the strobe image data captured with the strobe unit 208 emitting light and the main image data captured without the strobe unit 208 emitting light. Is possible. Also, the coefficient related to the dodging process is adjusted according to the intensity of the reflection component of the subject. As a result, when the subject is dark behind the light source, the contrast can be corrected appropriately. In addition, overcorrection due to the dodging process can be reduced in the case of a subject that originally has a low reflectance, such as a black subject.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。例えば、本実施形態では、画像処理部203において、輝度(Y)成分と色差(UV)成分を有するYUVフォーマットの画像データに変換された後に、覆い焼き処理部100において覆い焼き処理を行った。しかし、これに限らず、画像処理部203内において、ガンマ補正を行う前のRGB信号に対して、同様に覆い焼き処理を行っても良い。   The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention. For example, in the present embodiment, the dodging process is performed in the dodging processing unit 100 after the image processing unit 203 converts the image data into YUV format image data having a luminance (Y) component and a color difference (UV) component. However, the present invention is not limited to this, and the dodging process may be similarly performed on the RGB signals before the gamma correction in the image processing unit 203.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。   In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device. Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.

100 覆い焼き処理部
101 ゲイン算出部
102 反射率係数算出部
103 ゲイン調整部
104 補正処理部
200 撮像装置
201 撮像素子
202 A/D変換回路部
203 画像処理部
204 スイッチ部
205 画像メモリ部
206 季肋部
207 システム制御部
208 ストロボ部
401 移動ベクトル算出部
402 座標変換部
403 反射成分抽出部
404 反射係数算出部
DESCRIPTION OF SYMBOLS 100 Dodge processing part 101 Gain calculation part 102 Reflectivity coefficient calculation part 103 Gain adjustment part 104 Correction processing part 200 Imaging device 201 Imaging element 202 A / D conversion circuit part 203 Image processing part 204 Switch part 205 Image memory part 206 Unit 207 system control unit 208 strobe unit 401 movement vector calculation unit 402 coordinate conversion unit 403 reflection component extraction unit 404 reflection coefficient calculation unit

Claims (9)

被写体を撮像して画像データを出力する撮像手段と、
前記撮像手段から出力された前記画像データに基づいて、前記被写体の明るさを調整するための前記画像データに対するゲインを算出する第1のゲイン算出手段と、
撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと、前記投光手段が第2の状態で撮像した第2の画像データとの比較に基づいた、第2のゲインを算出する第2のゲイン算出手段とを有し、
前記第1のゲイン算出手段により算出された第1のゲインと、前記第2のゲイン算出手段により算出された第2のゲインから、第3のゲインを算出することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting image data;
First gain calculating means for calculating a gain for the image data for adjusting the brightness of the subject based on the image data output from the imaging means;
Based on a comparison between the first image data captured in the first state by the light projecting unit that projects light during imaging by the imaging unit and the second image data captured in the second state by the light projecting unit, Second gain calculating means for calculating a second gain;
An imaging apparatus, wherein a third gain is calculated from the first gain calculated by the first gain calculating means and the second gain calculated by the second gain calculating means.
前記第1の画像データとは、前記投光手段を投光し撮像した画像データであり、前記第2の画像データとは、前記投光手段を投光せず撮像した画像データであることを特徴とする、請求項1に記載の撮像装置。   The first image data is image data captured by projecting the light projecting means, and the second image data is image data captured without projecting the light projecting means. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記第2のゲイン算出手段は、前記投光手段により第1の光量で投光し撮像した第1の画像データと、前記投光手段により第2の光量で投光し撮像した第2の画像データとを、あらかじめ位置合わせを行った上で、前記第2のゲインを算出することを特徴とする請求項1または2に記載の撮像装置。   The second gain calculating means projects the first image data projected and imaged with the first light quantity by the light projecting means, and the second image projected and imaged with the second light quantity by the light projecting means. The image pickup apparatus according to claim 1, wherein the second gain is calculated after aligning data in advance. 前記第2のゲイン算出手段は、前記第1の画像データと、前記第2の画像データの差分値に基づいて、前記差分値が大きいほどゲインが小さくなるようにゲインを調整することを特徴とする請求項1、請求項2または請求項3に記載の撮像装置。   The second gain calculating means adjusts the gain based on a difference value between the first image data and the second image data so that the gain decreases as the difference value increases. The imaging device according to claim 1, claim 2, or claim 3. 被写体を撮像して画像データを出力する撮像工程と、
前記撮像手段から出力された前記画像データに基づいて、前記画像データに対するゲインを算出する第1のゲイン算出工程と、
投光手段を第1の状態とした際に撮像した第1の画像データと、投光手段を第2の状態とした際に撮像した第2の画像データに基づいて、第1の画像データと第2の画像データの差分値に基づいた、第2のゲインを算出する第2のゲイン算出工程とを有し、
前記第1のゲイン算出工程により算出された第1のゲインと、前期第2のゲイン算出工程により算出された第2のゲインから、第3のゲインを算出する工程を有することを特徴とする撮像装置の制御方法。
An imaging process for imaging a subject and outputting image data;
A first gain calculating step of calculating a gain for the image data based on the image data output from the imaging means;
Based on the first image data imaged when the light projecting means is in the first state and the second image data imaged when the light projecting means is in the second state, A second gain calculation step of calculating a second gain based on the difference value of the second image data,
An imaging method comprising: calculating a third gain from the first gain calculated in the first gain calculation step and the second gain calculated in the second gain calculation step in the previous period. Control method of the device.
被写体を撮像して画像データを出力する撮像手段と、
前記画像データと、前記撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと前記投光手段が第2の状態で撮像した第2の画像データとを比較した結果とに基づいて、ゲインを算出する算出手段と、
前記算出手段により算出されたゲインで前記画像データにゲインを掛ける画像処理手段と、を有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting image data;
The image data, the first image data captured in the first state by the light projecting unit that projects light during imaging by the imaging unit, and the second image data captured in the second state by the light projecting unit. A calculation means for calculating a gain based on the comparison result;
And an image processing unit that multiplies the image data by a gain calculated by the calculation unit.
撮像手段が、被写体を撮像して画像データを出力する撮像工程と、
前記画像データと、前記撮像手段による撮像時に投光する投光手段が第1の状態で撮像した第1の画像データと前記投光手段が第2の状態で撮像した第2の画像データとを比較した結果とに基づいて、ゲインを算出する算出工程と、
前記算出工程により算出されたゲインで前記画像データにゲインを掛ける画像処理工程と、を有することを特徴とする撮像装置の制御方法。
An imaging step in which an imaging means images a subject and outputs image data;
The image data, the first image data captured in the first state by the light projecting unit that projects light during imaging by the imaging unit, and the second image data captured in the second state by the light projecting unit. A calculation step of calculating a gain based on the comparison result;
An image processing step of multiplying the image data by a gain calculated by the calculation step.
請求項7に記載の撮像装置の制御方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which a procedure of a control method for an imaging apparatus according to claim 7 is described. コンピュータに、請求項7に記載の撮像装置の制御方法の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the control method of the imaging apparatus according to claim 7.
JP2014229343A 2014-11-11 2014-11-11 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM Active JP6576032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014229343A JP6576032B2 (en) 2014-11-11 2014-11-11 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014229343A JP6576032B2 (en) 2014-11-11 2014-11-11 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM

Publications (2)

Publication Number Publication Date
JP2016092808A true JP2016092808A (en) 2016-05-23
JP6576032B2 JP6576032B2 (en) 2019-09-18

Family

ID=56019141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229343A Active JP6576032B2 (en) 2014-11-11 2014-11-11 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM

Country Status (1)

Country Link
JP (1) JP6576032B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070611A (en) * 2006-09-14 2008-03-27 Casio Comput Co Ltd Imaging apparatus, exposure condition adjustment method and program
JP2009260565A (en) * 2008-04-15 2009-11-05 Canon Inc Imaging apparatus and control method thereof, and program
EP2128693A1 (en) * 2008-05-28 2009-12-02 ETH Zurich Spatially Adaptive Photographic Flash Unit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070611A (en) * 2006-09-14 2008-03-27 Casio Comput Co Ltd Imaging apparatus, exposure condition adjustment method and program
JP2009260565A (en) * 2008-04-15 2009-11-05 Canon Inc Imaging apparatus and control method thereof, and program
EP2128693A1 (en) * 2008-05-28 2009-12-02 ETH Zurich Spatially Adaptive Photographic Flash Unit

Also Published As

Publication number Publication date
JP6576032B2 (en) 2019-09-18

Similar Documents

Publication Publication Date Title
US11044453B2 (en) Data processing apparatus, imaging apparatus and data processing method
JP6442209B2 (en) Image processing apparatus and control method thereof
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6445844B2 (en) Imaging device and method performed in imaging device
US8982249B2 (en) Image capturing apparatus and method for controlling an image capturing apparatus for capturing and processing a plurality of pieces of exposure and dark image data to correct combined exposure image data in accordance with combined dark image data
US10382671B2 (en) Image processing apparatus, image processing method, and recording medium
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
JP6006543B2 (en) Image processing apparatus and image processing method
US9813634B2 (en) Image processing apparatus and method
JP2011109373A (en) Imaging apparatus, imaging processing method and program
JP2014126803A (en) Image processing apparatus, image processing method, and image processing program
US20230096541A1 (en) Image processing apparatus and image processing method
US9413974B2 (en) Information processing apparatus, image sensing apparatus, control method, and recording medium for conversion processing
US10021314B2 (en) Image processing apparatus, image capturing apparatus, method of controlling the same, and storage medium for changing shading using a virtual light source
JP2014007528A (en) Image processing apparatus and control method thereof
JP6576032B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM
US11405598B2 (en) Image processing apparatus, image processing method, and storage medium
US11057598B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP5371135B2 (en) Luminance correction apparatus, luminance correction system, and luminance correction method
JP2014093037A (en) Image processing apparatus
JP2010161563A (en) Image processing apparatus and image processing method
JP2012173943A (en) Device and program for image processing
JP6601062B2 (en) Imaging control apparatus, imaging control method, and program
JP2012173944A (en) Device and program for image processing
JP5602825B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190820

R151 Written notification of patent or utility model registration

Ref document number: 6576032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151