JP5929019B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5929019B2 JP5929019B2 JP2011146750A JP2011146750A JP5929019B2 JP 5929019 B2 JP5929019 B2 JP 5929019B2 JP 2011146750 A JP2011146750 A JP 2011146750A JP 2011146750 A JP2011146750 A JP 2011146750A JP 5929019 B2 JP5929019 B2 JP 5929019B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- value
- exposure
- correction amount
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 32
- 238000004364 calculation method Methods 0.000 claims description 37
- 238000012937 correction Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 16
- 238000005375 photometry Methods 0.000 claims description 16
- 230000006872 improvement Effects 0.000 description 21
- 238000007906 compression Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000006835 compression Effects 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 230000006837 decompression Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging equipment.
従来から、輝度差の大きなシーンの撮影において、露出を下げて明部のデータが飽和しないように撮影した上で、暗部のゲインを大きくして明るくする画像処理を施して、画像のダイナミックレンジを拡大する方法が知られている(例えば、特許文献1参照)。 Conventionally, when shooting a scene with a large luminance difference, the image was processed so that the data in the bright part was not saturated by lowering the exposure, and then the gain in the dark part was increased to make it brighter, thereby increasing the dynamic range of the image. A method of enlarging is known (see, for example, Patent Document 1).
しかし、上記従来の技術では、逆光の人物のように顔が暗いときに露出を大きく下げると、撮影した画像の顔部分のデータのS/Nが劣化するために顔が検出できなくなる可能性がある。また、検出できたとしても顔部分のデータのゲインを大きくするとノイズが目立ってしまう可能性がある。 However, in the above conventional technique, if the exposure is greatly lowered when the face is dark like a backlit person, the S / N of the data of the face portion of the photographed image may deteriorate, and the face may not be detected. is there. Even if it can be detected, noise may become conspicuous if the gain of the face portion data is increased.
本発明の課題は、顔が暗い場合でも顔の検出が可能で、且つノイズが目立たないような画像を得ることのできる撮像装置を提供することにある。 An object of the present invention, face detection can be face even when dark, it is to provide an imaging equipment capable and noise of obtaining an image as inconspicuous.
本発明は、以下のような解決手段により前記課題を解決する。 The present invention is, that solve the problems by following such a solution.
本発明は、被写界を複数の領域に分割して測光する測光部と、前記測光部による測光結果に基づいて第1の露出値を演算する第1露出演算部と、前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する補正量演算部と、前記測光結果に基づいて主要被写体を検出する主要被写体検出部と、前記主要被写体の輝度を演算する主要被写体輝度演算部と、前記主要被写体の輝度に基づいて前記補正量を制限する補正量制限部と、前記制限された補正量に基づいて前記第1の露出値を補正した第2の露出値を演算する第2露出演算部と、前記第2の露出値に基づいて被写体を撮像して画像データを生成する撮像部とを有し、前記補正量が制限値以上の場合、前記制限された補正量を前記制限値とし、前記制限値は、前記第1の露出値から顔のアンダー許容量を引いたものを、主要被写体の代表輝度から引いた値である撮像装置である。
また、本発明は、被写界を複数の領域に分割して測光する測光部による測光結果に基づいて第1露出値を演算する第1露出演算部と、前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する第1演算部と、主要被写体の輝度に基づいて前記補正量を制限する制限値を演算する第2演算部と、前記制限値が前記補正量よりも小さいとき前記制限値を選択する選択部と、前記制限値が前記補正量よりも小さいとき前記選択部により選択された前記制限値に基づいて前記第1露出値を補正した第2露出値を演算する第2露出演算部と、前記第2露出値に基づいて被写体を撮像して画像データを生成する撮像部と、前記画像データの画像が明るくなるように階調を補正する画像処理部とを有し、前記制限値は、前記第1露出値から顔のアンダー許容量を引いたものを、前記主要被写体の輝度から引いた値である撮像装置である。
The present invention is based on a photometry unit that divides a subject field into a plurality of areas and performs photometry, a first exposure calculation unit that calculates a first exposure value based on a photometry result by the photometry unit, and the photometry result A correction amount calculation unit that calculates a correction amount for restoring the bright portion of the subject with respect to the first exposure value, a main subject detection unit that detects a main subject based on the photometric result, A main subject luminance calculation unit for calculating luminance; a correction amount limiting unit for limiting the correction amount based on the luminance of the main subject; and a first exposure value corrected for the first exposure value based on the limited correction amount. A second exposure calculation unit that calculates an exposure value of 2, and an imaging unit that images a subject based on the second exposure value and generates image data, and the correction amount is equal to or greater than a limit value, The limited correction amount is the limit value, and the limit value The minus under allowance of the face from the first exposure value, Ru imaging apparatus der a value obtained by subtracting from the representative luminance of the main object.
In addition, the present invention provides a first exposure calculation unit that calculates a first exposure value based on a photometry result obtained by a photometry unit that performs photometry by dividing an object scene into a plurality of areas, and a first exposure based on the photometry result. A first calculation unit that calculates a correction amount for restoring the bright portion of the subject with respect to the exposure value; a second calculation unit that calculates a limit value for limiting the correction amount based on the luminance of the main subject; A selection unit that selects the limit value when the limit value is smaller than the correction amount, and the first exposure value based on the limit value selected by the selection unit when the limit value is smaller than the correction amount. A second exposure calculation unit that calculates the corrected second exposure value, an imaging unit that captures an image of a subject based on the second exposure value and generates image data, and a gradation so that an image of the image data becomes brighter An image processing unit that corrects, and the limit value is The minus the under-capacity of the face from the serial first exposure value, the an image pickup apparatus which is a value obtained by subtracting from the luminance of the main object.
本発明によれば、顔が暗い場合でも顔の検出が可能で、且つノイズが目立たないような画像を得ることのできる撮像装置を提供することができる。
According to the present invention, can be detected face even when the face is dark, it is possible to provide an imaging equipment to and capable of noise to obtain an image as inconspicuous.
以下に本発明の実施形態を説明する。
図1は、本実施形態のカメラ100の構成を示す図である。
カメラ100はカメラ本体1と、レンズユニット2から構成される。ここで、レンズユニット2はカメラ本体1に対して交換可能に装着される。またレンズユニット2は撮影レンズ3と撮影レンズ3を駆動するモータ4およびレンズユニットの情報を記録したレンズ内メモリ18を含む。
Embodiments of the present invention will be described below.
FIG. 1 is a diagram illustrating a configuration of a
The
カメラ本体1は、メインミラー5と、サブミラー6と、フォーカルプレーンシャッター8と、被写体像を光電変換する第1撮像センサ9と、ファインダ光学系20と、被写体像を光電変換する第2撮像センサ16と、焦点検出ユニット7と、制御部10と、手振れセンサ17(例、角速度センサ)と表示ユニット19を有している。
The
ここで第1撮像センサ9は高画質な静止画を生成するためのセンサである。また第2撮像センサ16は撮影シーンを解析して第1撮像センサ9の撮影及び画像処理条件を演算するためのセンサである。撮影シーンを解析するに十分な画素数を持つ。後述する図7(a)は第2撮像センサ16の画素配列の例である。
Here, the
メインミラー5、サブミラー6、フォーカルプレーンシャッター8および第1撮像センサ9は、撮影レンズ3の光軸に沿って配置され、ファインダ光学系20はメインミラー5の上部領域に、焦点検出ユニット7はサブミラー6の下部領域に配置されている。
The
ここで、撮影者がファインダ光学系20を通して被写界を観察する時、つまり静止画撮影およびライブビュー以外の時は、メインミラー5は、撮影レンズ3から第1撮像センサ9までの撮影光路と交差し、撮影レンズ3を通過した光束を上方に反射させてファインダ光学系20に導くようになっている(実線の位置)。
一方、ライブビュー時および静止画撮影時はメインミラー5は上方に跳ね上げられ、撮影レンズ3を通過した光束はフォーカルプレーンシャッター8および第1撮像センサ9に導かれ、第1撮像センサ9の画像信号に基づいて被写体の撮影画像データを生成することができる(点線の位置)。
Here, when the photographer observes the object scene through the finder
On the other hand, at the time of live view and still image shooting, the
また、メインミラー5の中央部は光を透過するハーフミラーとなっていて、非撮影時のメインミラー5を透過した一部の光束はサブミラー6によって下方に反射され、焦点検出ユニット7に導かれるようになっている。
Further, the central portion of the
ファインダ光学系20は、拡散スクリーン11と、コンデンサレンズ12と、ペンタプリズム13と、接眼レンズ14と、再結像レンズ15を有している。
The finder
拡散スクリーン11はメインミラー5の上方に配置され、実線の位置でのメインミラー5が反射した光束を一旦結像させる。拡散スクリーン11で結像した光束はコンデンサレンズ12およびペンタプリズム13および接眼レンズ14を通過して撮影者の目に到達する。また、拡散スクリーン11によって拡散された光束の一部はコンデンサレンズ12およびペンタプリズム13および再結像レンズ15を通過して第2撮像センサ16に到達する。
The diffusing
図2は、実施形態のカメラ100の機能ブロック図である。図2に示すように、カメラ100は、図1の構成に加えて、タイミングジェネレータ20、信号処理部21、A/D変換部22、バッファメモリ23、バス24、カードインターフェース25、圧縮伸長部26、画像表示部27の各部を備える。タイミングジェネレータ20は、第1撮像センサ9に出力パルスを供給する。また、第1撮像センサ9で生成される画像データは、信号処理部21(撮像感度に対応するゲイン調整部を含む)およびA/D変換部22を介して、バッファメモリ23に一時記憶される。バッファメモリ23は、バス24に接続される。このバス24には、カードインターフェース25、図1で説明した制御部10、圧縮伸長部26、および画像表示部27が接続される。カードインターフェース25は、着脱自在なメモリカード28と接続し、メモリカード28に画像データを記録する。
FIG. 2 is a functional block diagram of the
また、制御部10は、後述する露出値演算部10a、復元量演算部10b、主要被写体検出部10c、主要被写体輝度演算部10d、復元量制限部10eを備える。そして制御部10には、カメラ100のスイッチ群29(不図示のレリーズ釦などを含む)、タイミングジェネレータ20、および第2撮像センサ16が接続される。さらに、画像表示部27は、カメラ100の背面に設けられた表示ユニット19に画像などを表示する。
The
次に図3のフローチャートに基づいて動作を説明する。
不図示のレリーズボタンが半押しされると、制御部10はメインミラー5を実線の位置のままにしてステップ101の測光演算サブルーチンの動作を行って露出制御値BvCntl1を演算する。詳細は後述する。
Next, the operation will be described based on the flowchart of FIG.
When a release button (not shown) is half-pressed, the
ステップ102において、レリーズボタンが全押しされたか否かを判定する。全押しされていなければステップ101へ戻り、全押しされていればステップ103へ進む。 In step 102, it is determined whether or not the release button has been fully pressed. If not fully depressed, the process returns to step 101. If fully depressed, the process proceeds to step 103.
ステップ103において、制御部10は、各部を制御し、ステップ101で行った測光演算の結果に基づいて、第1撮像センサ9により被写体像を撮像して画像データを生成する。そして、第1撮像センサ9により生成された画像データは、信号処理部21およびA/D変換部22を介して、バッファメモリ23に一時記憶される。
In step 103, the
ステップ104において、制御部10は、バッファメモリ23から画像データを読み出し、顔検出を行う。顔検出の具体的な方法は公知技術と同様であるため説明を省略する。なお、検出対象の画像データに複数の人物が含まれる場合、制御部10は、それぞれの人物の顔検出を行う。
In step 104, the
ステップ105において、制御部10は、ステップ104においてバッファメモリ23から読み出した画像データに対して、通常の画像処理を行う。通常の画像処理とは、ホワイトバランス調整、補間処理、色調補正処理、階調変換処理などである。各処理の具体的な方法は公知技術と同様であるため説明を省略する。
In step 105, the
ステップ106において、制御部10は、階調圧縮モードであるか否かを判定する。そして、制御部10は、階調圧縮モードであると判定するとステップ107に進む。一方、階調圧縮モードでない(階調非圧縮モードである)と判定すると、制御部10は後述するステップ111に進む。
In step 106, the
ステップ107において、制御部10は、ステップ104においてバッファメモリ23から読み出した画像データから、ローパス画像を作成する。
制御部10は、次式を用いて、ステップ104においてバッファメモリ23から読み出した画像データからローパス画像Lyを作成する。
In step 107, the
The
式1中のYは、注目画素の輝度値を示す。また、式1中のkr,kg,kbは所定の係数である。また、式2中のLpwは、注目画素周りのローパスフィルタであり、このローパスフィルタは、図4に示す特性を有する。このローパスフィルタは、半値幅(図4のd)が画像の短辺の1/100以上の広い幅のローパスフィルタである。
Y in
ステップ108において、制御部10は、明るさに関する評価値を算出する。制御部10は、まず、ステップ104で行った顔検出の結果に基づいて、顔領域の中心座標(Fx,Fy)を求める。ただし、ステップ104において複数の顔を検出した場合には、面積が最大の顔領域の中心座標を求める。
In step 108, the
次に、制御部10は、明るさに関する評価値として、顔の明度Yfを求める。顔の明度Yfは次式により求められる。
Next, the
Yf=Ly[Fx,Fy]…(式3)
なお、ステップ104において複数の顔を検出した場合には、面積が最大の顔領域の中心座標を求める例を示したが、最も暗い顔領域の中心座標を求めても良い。このように、最も暗い顔領域に応じた処理を行うことにより、複数の顔の全てを好ましい明るさに表現することができる。
Yf = Ly [Fx, Fy] (Formula 3)
In the case where a plurality of faces are detected in step 104, the example of obtaining the center coordinates of the face area having the largest area has been shown. However, the center coordinates of the darkest face area may be obtained. In this way, by performing the processing according to the darkest face region, all of the plurality of faces can be expressed with a preferable brightness.
また、複数の顔のそれぞれについて明度Yfを求め、それぞれの顔領域の面積に応じた重み付けを行っても良い。
ステップ109において、制御部10は、暗部階調を補正する際の明度向上量を決定する。制御部10は、まず、表1に基づいて、ステップ108で求めた顔の明度Yfに応じた明度向上量候補fupを求める。
Alternatively, the brightness Yf may be obtained for each of a plurality of faces, and weighting may be performed according to the area of each face region.
In step 109, the
ただし、制御部10は、ステップ103で行った撮像時のISO感度に応じて、明度向上量候補fupを制限する。すなわち、制御部10は、表2に基づいて、求めた明度向上量候補fupを制限する。
However, the
次に、制御部10は、表3に基づいて、後述する図6のステップ206で求めたハイライト復元量HiRcvに応じた明度向上量候補Hupを求める。
Next, the
そして、制御部10は、顔の明度Yfに応じた明度向上量候補fupと、ハイライト復元量HiRcvに応じた明度向上量候補Hupとを比較し、大きい方の値をハイライト復元量HiRcvに応じた明度向上量Gupとする。
Then, the
ステップ110において、制御部10は、ステップ109で決定した明度向上量Gupにしたがって、ステップ105で通常の画像処理を施した画像データに対して階調圧縮処理を行う。
In step 110, the
制御部10は、まず、ステップ109で決定した明度向上量Gupにしたがって、ゲイン向上関数fgを選択する。
図5は、明度向上量Gupに対応する階調圧縮のゲイン向上関数fgを示す図である。ゲイン向上関数fgは、画像の輝度Yに応じたゲインを有する。そして、輝度Yが小さいほど(処理画素を含む近傍範囲が暗いほど)、ゲイン向上関数fgは大きくなる。逆に、輝度Yが大きいほど(処理画素を含む近傍範囲が明るいほど)、ゲイン向上関数fgは1に近づく。
First, the
FIG. 5 is a diagram showing a gain enhancement function fg for gradation compression corresponding to the brightness enhancement amount Gup. The gain improvement function fg has a gain corresponding to the luminance Y of the image. And the gain improvement function fg becomes large, so that the brightness | luminance Y is small (the neighborhood range containing a process pixel is dark). Conversely, the gain improvement function fg approaches 1 as the luminance Y increases (the neighborhood range including the processing pixel is brighter).
制御部10は、上述した明度向上量Gupにしたがって、ゲイン向上関数fgを選択し、注目画素x、y付近の明度に応じて暗部領域を後述する方法でゲインアップする。
The
なお、図5には、明度向上量Gup=0,1,2,3のそれぞれに対応するゲイン向上関数fgを例示した。ゲイン向上関数fgは明度向上量Gupに応じて予め数本用意しても良いし、ゲインアップ量が最大のゲイン向上関数のみを用意し、ゲインアップ量が最大のゲイン向上関数fgとゲイン1との間を適宜補間して無段階としても良い。 FIG. 5 illustrates gain improvement functions fg corresponding to lightness improvement amounts Gup = 0, 1, 2, and 3, respectively. Several gain improvement functions fg may be prepared in advance according to the lightness improvement amount Gup, or only a gain improvement function having the maximum gain increase amount is prepared, and the gain improvement function fg and gain 1 having the maximum gain increase amount are prepared. It is also possible to interpolate between the steps to make it stepless.
また、ステップ106において階調圧縮モードでない(階調非圧縮モードである)と判定した際に、制御部10内の処理回路の構成上、階調圧縮処理をスキップできない場合には、図5のGup=0に示すゲイン向上関数fgを用いる。
Further, when it is determined in step 106 that the gradation compression mode is not set (the gradation non-compression mode is set), if the gradation compression process cannot be skipped due to the configuration of the processing circuit in the
各画素R[x,y],G[x,y],B[x,y]における階調圧縮演算は以下の式4から式6により行う。
The gradation compression calculation in each pixel R [x, y], G [x, y], B [x, y] is performed by the following
式4から式6中のfgは、上述したゲイン向上関数fgに対応し、Lyは、ステップ107で説明したローパス画像に対応する。
Fg in
ステップ111において、制御部10は、ステップ110で階調圧縮処理を施した画像データ、またはステップ105で通常の画像処理を施した画像データを、カードインターフェース25を介してメモリカード28に記録し、一連の処理を終了する。なお、画像データをメモリカード28に記録する前に、圧縮伸長部26を介して、必要に応じて画像圧縮処理(JPEG圧縮処理など)を施しても良い。
In step 111, the
次に図6のフローチャートに基づいて測光演算サブルーチン(図3のステップ101)の動作を説明する。
まずステップ201において、制御部10は第2撮像センサ16を駆動して被写界のプレ画像を取得する。
Next, the operation of the photometric calculation subroutine (step 101 in FIG. 3) will be described based on the flowchart in FIG.
First, in step 201, the
ステップ202において、制御部10の露出値演算部10aは、撮影の為の仮露出制御値BvCntl0を算出する。具体的な算出方法は例えば、第2撮像センサ16の画素を図7(b)のように24領域に分割して各領域ごとの平均出力を求める。
In step 202, the exposure
その仮露出制御値BvCntl0の具体的な算出方法を、図8に示すフローチャートを用いて説明する。
まず、ステップ301において、制御部10は、第2撮像センサ16から24分割の測光結果を取得する。第2撮像センサ16は、入射した光を光電変換し、図9(a)に示すように、分割されたそれぞれの領域に対応する24分割の輝度値Bv[1,1]からBv[6,4]を出力する。
A specific method for calculating the temporary exposure control value BvCntl0 will be described with reference to the flowchart shown in FIG.
First, in step 301, the
ステップ302において、制御部10は、ステップ301で取得した24分割の測光結果に基づいて、15分割の測光結果を取得する。制御部10は、ステップ301で取得した24分割の輝度値Bv[1,1]からBv[6,4]を4つずつまとめて、15分割の輝度値RBv[1]からRBv[15]を取得する。15分割の輝度値RBv[1]からRBv[15]は、以下の式7から式21により演算される。また、図9(b)に15分割の領域の一部(RBv[1],RBv[3],RBv[5],RBv[11],RBv[13],RBv[15])を例示する。
In step 302, the
RBv[1]=(Bv[1,1]+Bv[2,1]+Bv[1,2]+Bv[2,2])/4…(式7)
RBv[2]=(Bv[2,1]+Bv[3,1]+Bv[2,2]+Bv[3,2])/4…(式8)
RBv[3]=(Bv[3,1]+Bv[4,1]+Bv[3,2]+Bv[4,2])/4…(式9)
RBv[4]=(Bv[4,1]+Bv[5,1]+Bv[4,2]+Bv[5,2])/4…(式10)
RBv[5]=(Bv[5,1]+Bv[6,1]+Bv[5,2]+Bv[6,2])/4…(式11)
RBv[6]=(Bv[1,2]+Bv[2,2]+Bv[1,3]+Bv[2,3])/4…(式12)
RBv[7]=(Bv[2,2]+Bv[3,2]+Bv[2,3]+Bv[3,3])/4…(式13)
RBv[8]=(Bv[3,2]+Bv[4,2]+Bv[3,3]+Bv[4,3])/4…(式14)
RBv[9]=(Bv[4,2]+Bv[5,2]+Bv[4,3]+Bv[5,3])/4…(式15)
RBv[10]=(Bv[5,2]+Bv[6,2]+Bv[5,3]+Bv[6,3])/4…(式16)
RBv[11]=(Bv[1,3]+Bv[2,3]+Bv[1,4]+Bv[2,4])/4…(式17)
RBv[12]=(Bv[2,3]+Bv[3,3]+Bv[2,4]+Bv[3,4])/4…(式18)
RBv[13]=(Bv[3,3]+Bv[4,3]+Bv[3,4]+Bv[4,4])/4…(式19)
RBv[14]=(Bv[4,3]+Bv[5,3]+Bv[4,4]+Bv[5,4])/4…(式20)
RBv[15]=(Bv[5,3]+Bv[6,3]+Bv[5,4]+Bv[6,4])/4…(式21)
RBv [1] = (Bv [1,1] + Bv [2,1] + Bv [1,2] + Bv [2,2]) / 4 (Expression 7)
RBv [2] = (Bv [2,1] + Bv [3,1] + Bv [2,2] + Bv [3,2]) / 4 ... (Equation 8)
RBv [3] = (Bv [3,1] + Bv [4,1] + Bv [3,2] + Bv [4,2]) / 4 ... (Equation 9)
RBv [4] = (Bv [4,1] + Bv [5,1] + Bv [4,2] + Bv [5,2]) / 4 ... (Equation 10)
RBv [5] = (Bv [5,1] + Bv [6,1] + Bv [5,2] + Bv [6,2]) / 4 ... (Equation 11)
RBv [6] = (Bv [1,2] + Bv [2,2] + Bv [1,3] + Bv [2,3]) / 4 ... (Equation 12)
RBv [7] = (Bv [2,2] + Bv [3,2] + Bv [2,3] + Bv [3,3]) / 4 ... (Equation 13)
RBv [8] = (Bv [3,2] + Bv [4,2] + Bv [3,3] + Bv [4,3]) / 4 ... (Formula 14)
RBv [9] = (Bv [4,2] + Bv [5,2] + Bv [4,3] + Bv [5,3]) / 4 ... (Equation 15)
RBv [10] = (Bv [5,2] + Bv [6,2] + Bv [5,3] + Bv [6,3]) / 4 ... (Equation 16)
RBv [11] = (Bv [1,3] + Bv [2,3] + Bv [1,4] + Bv [2,4]) / 4 (Expression 17)
RBv [12] = (Bv [2,3] + Bv [3,3] + Bv [2,4] + Bv [3,4]) / 4 ... (Equation 18)
RBv [13] = (Bv [3,3] + Bv [4,3] + Bv [3,4] + Bv [4,4]) / 4 ... (Equation 19)
RBv [14] = (Bv [4,3] + Bv [5,3] + Bv [4,4] + Bv [5,4]) / 4 ... (Equation 20)
RBv [15] = (Bv [5,3] + Bv [6,3] + Bv [5,4] + Bv [6,4]) / 4 (Expression 21)
ステップ303において、制御部10は、ステップ301およびステップ302で取得した測光結果に基づいて、平均輝度値BvMean、15分割の輝度値RBvの最大輝度値BvMax15、最小輝度値BvMin15、中央部輝度値BvC、24分割の輝度値Bvの最大輝度値BvMax24を特徴量として演算する。各値は、以下の各式により求められる。
In step 303, the
BvMax15=MAX(RBv[1]~RBv[15])…(式23)
BvMin15=MIN(RBv[1]~RBv[15])…(式24)
BvC=RBv[8] …(式25)
BvMax24=MAX(Bv[1,1]~Bv[6,4])…(式26)
BvMax15 = MAX (RBv [1] to RBv [15]) (Equation 23)
BvMin15 = MIN (RBv [1] to RBv [15]) (Equation 24)
BvC = RBv [8] (Equation 25)
BvMax24 = MAX (Bv [1,1] to Bv [6,4]) (Equation 26)
ステップ304において、制御部10は、ステップ303で演算した各値に基づいて、仮露出制御値BvCntl0を演算する。仮露出制御値BvCntl0は、次式により求められる。
In step 304, the
BvCntl0=k1・BvMean+k2・BvMax15+k3・BvMin15+k4・BvC+k5…(式27)
式27において、k1からk4は、各項の重みを示す係数である。また、k5は、定数項である。k1からk5は、平均輝度値BvMeanに応じた数であり、様々なサンプルシーンでより良い画像となるように予め決定される。k1からk5の例を以下の表4に示す。
BvCntl0 = k1, BvMean + k2, BvMax15 + k3, BvMin15 + k4, BvC + k5 (Equation 27)
In
図6に戻り、ステップ203において、制御部10の復元量演算部10bは、仮ハイライト復元量Pre_HiRcvを演算する。仮ハイライト復元量Pre_HiRcvの演算は図10のステップ401及び402に従って行う。
図10のステップ401において、制御部10は、ステップ304で演算した仮露出制御値BvCntl0と、24分割の輝度値Bvの最大輝度値BvMax24とを比較する。制御部10は、仮露出制御値BvCntl0と24分割の輝度値Bvの最大輝度値BvMax24との差が所定値thHiをこえる値dHiを、次式を用いて求める。
Returning to FIG. 6, in Step 203, the restoration
In step 401 in FIG. 10, the
dHi=BvMax24-BvCntl0-thHi…(式28)
式28において、所定値thHiは、画像のハイライト部分が飽和を起こすと推定される量で、例えば、2Evから3Ev程度である。この所定値thHiは、撮像センサである第1撮像センサ9の飽和レベルや、第2撮像センサ16の画素の大きさなどにより最適な値とする。
dHi = BvMax24-BvCntl0-thHi ... (Formula 28)
In
ステップ402において、制御部10は、ステップ401における比較結果に基づいて、仮ハイライト復元量Pre_HiRcvを演算する。制御部10は、仮ハイライト復元量Pre_HiRcvを、次式を用いて求める。
In step 402, the
式29に示すように、制御部10は、ステップ401で求めた、仮露出制御値BvCntl0と24分割の輝度値Bvの最大輝度値BvMax24との差が所定値thHiをこえる値dHiを、0から閾値thdHiの間へクリップして仮ハイライト復元量Pre_HiRcvとする。
As shown in Expression 29, the
式29において、閾値thdHiは撮像センサである第1撮像センサ9のダイナミックレンジの大きさに依存するハイライト復元可能な量を示す所定の閾値である。制御部10は、閾値thdHiを、撮影モードとISO感度とに応じて変更する。
In Expression 29, the threshold thdHi is a predetermined threshold indicating the amount of highlight restoration that depends on the dynamic range of the
制御部10は、表5に基づいて、撮影モードに応じた閾値thdHiを求めるとともに、表6に基づいて、ISO感度に応じた閾値thdHiを求める。そして、より大きい方の閾値thdHiを、上述した仮ハイライト復元量Pre_HiRcvの算出に用いる。
The
主要被写体が人物であると推定可能な人物撮影モードが設定されている場合には、人物の顔部分が不要に暗く撮影されるのを避ける必要がある。そのため、人物撮影モードが設定されている場合には、表5に示すように、閾値thdHiの値を小さくする。 When a person shooting mode is set in which it can be estimated that the main subject is a person, it is necessary to avoid unnecessarily dark shooting of the face portion of the person. Therefore, when the person photographing mode is set, as shown in Table 5, the value of the threshold thdHi is decreased.
また、第1撮像センサ9が高ISO感度に設定されている場合には、ノイズが増加してダイナミックレンジが不足するおそれがある。そのため、第1撮像センサ9が高ISO感度に設定されている場合には、表6に示すように、閾値thdHiの値を小さくする。
Further, when the
さらに、撮像時のノイズ発生予想量を適宜検出し、検出結果に応じて、仮ハイライト復元量Pre_HiRcvに上限を設けたり、上述した閾値thdHiを小さくする構成としても良い。 Furthermore, a configuration may be adopted in which an expected amount of noise generation at the time of imaging is detected as appropriate, and an upper limit is set for the temporary highlight restoration amount Pre_HiRcv or the threshold thdHi described above is reduced according to the detection result.
図6に戻り、ステップ204において、制御部10の主要被写体検出部10cは、第2撮像センサの出力から主要被写体の検出を行う。例えば人物の顔検出である。具体的な方法は公知技術と同様なので説明を省略する。
Returning to FIG. 6, in step 204, the main
ステップ205において、制御部10の復元量制限部10eは、ハイライト復元量の制限値Lmt_HiRcvを算出する。
Lmt_HiRcv=BvObj-(BvCntl0-BvSth)…(式30)
In step 205, the restoration
Lmt_HiRcv = BvObj- (BvCntl0-BvSth) (Equation 30)
ここでBvObjは、ステップ204においてで検出した主要被写体の代表輝度値である。例えば図7(c)のようなシーンを撮影する場合、図7(d)の白抜き領域のように顔の中心部分の画素出力から輝度を求めることで背景の影響を受けないようにする。 Here, BvObj is the representative luminance value of the main subject detected in step 204. For example, when a scene as shown in FIG. 7C is photographed, the luminance is obtained from the pixel output at the center of the face as in the white area in FIG. 7D so as not to be affected by the background.
具体的な算出は、制御部10の主要被写体輝度演算部10dにより、以下のように行う。
The specific calculation is performed by the main subject luminance calculation unit 10d of the
(イ)主要被写体と背景との輝度が極端に異なる場合(例えば逆光や過順光のシーンなど)において、顔領域よりも広い領域(図11(a)、図11(b)の領域FA0)から代表輝度値BvObjを求めると、背景の影響を受けて適正な顔の輝度を求められないケースがある。 (A) When the luminance of the main subject and the background are extremely different (for example, a scene of backlight or excessively forward light), an area wider than the face area (area FA0 in FIGS. 11A and 11B) When the representative luminance value BvObj is obtained from the above, there are cases where the appropriate face luminance cannot be obtained due to the influence of the background.
そこで、制御部10は、人物の顔の輪郭に内接する領域(図11(a)に示す領域FA1)から代表輝度値BvObjを求めるようにしてもよい。あるいは、制御部10は、人物の顔の輪郭に外接する領域よりもサイズが小さい領域(図11(b)に示す領域FA2)から代表輝度値BvObjを求めるようにしてもよい。
Therefore, the
ここで、図11(b)では、領域FA2の重心が領域FA0の重心と重なって配置される例を示す。もっとも、髪の影響を受けにくくするために領域FA2の重心を領域FA0の重心よりも下側にずらしてもよい(この場合の図示は省略する)。また、図11(b)では、領域FA2のサイズが領域FA0の縦横1/2のサイズに設定された例を示す。もっとも、上記の領域FA2のサイズは背景の影響を受けない範囲で適宜設定できる。 Here, FIG. 11B shows an example in which the center of gravity of the area FA2 is arranged so as to overlap the center of gravity of the area FA0. However, the center of gravity of the area FA2 may be shifted below the center of gravity of the area FA0 in order to make it less susceptible to the influence of hair (illustration is omitted in this case). Further, FIG. 11B shows an example in which the size of the area FA2 is set to 1/2 the size of the area FA0. However, the size of the area FA2 can be appropriately set within a range not affected by the background.
(ロ)顔領域内の輝度差が大きい場合(例えば顔の半分に光が当たり、顔の半分が暗くなっている半逆光のシーンなど)には、顔領域の平均輝度値に基づいて代表輝度値BvObjを求めると、顔の明るい部分が白トビするおそれもある。そこで、制御部10は、主要被写体の顔を複数の領域に分割して測光し、複数の領域のそれぞれに対して得られる複数の測光値に基づいて代表輝度値BvObjを求めてもよい。
(B) When the luminance difference in the face area is large (for example, a half-backlit scene in which light is applied to half of the face and half of the face is dark), the representative luminance is based on the average luminance value of the face area. When the value BvObj is obtained, the bright part of the face may be overexposed. Therefore, the
一例として、制御部10は、図12に示すように縦横に2×2となるように顔領域を4分割する。そして、制御部10は、以下の式(31)により各分割領域(FA41−FA44)の測光値のうちの最大値を代表輝度値BvObjとしてもよい。
BvObj=Max(BvFA41,BvFA42,BvFA43,BvFA44)…(式31)
ここで、本明細書において、「BvBVFA41-44」は、それぞれ顔領域の分割領域(BVFA41-44)の平均輝度値を示している。また、本明細書において、「Max(A,B)」は、A,Bのうちの最大値を返す関数を意味する。
As an example, the
BvObj = Max (BvFA41, BvFA42, BvFA43, BvFA44) ... (Formula 31)
Here, in this specification, “BvBVFA41-44” indicates the average luminance value of the divided area (BVFA41-44) of the face area. In this specification, “Max (A, B)” means a function that returns the maximum value of A and B.
式30に戻り、BvSthは顔のアンダー許容量である。
BvSthは予め求めた固定値でも良いし、顔の大きさに依存した変数にしても良い。
変数の場合の算出例を図13を使って説明する。
BvSth=ObjUdLv2-(ObjUdLv2-ObjUdLv1)/(SthObjSz2-SthObjSz1)*(ObjSize-SthObjSz1)…(式32)
但し、BvSthはObjUdLv1〜ObjUdLv2の間で制限する。
BvSth<ObjUdLv1 の場合は BvSth=ObjUdLv1…(式33)
BvSth>ObjUdLv2 の場合は BvSth=ObjUdLv2…(式34)
Returning to Equation 30, BvSth is the permissible under face amount.
BvSth may be a fixed value obtained in advance or a variable depending on the size of the face.
A calculation example in the case of variables will be described with reference to FIG.
BvSth = ObjUdLv2- (ObjUdLv2-ObjUdLv1) / (SthObjSz2-SthObjSz1) * (ObjSize-SthObjSz1) (Equation 32)
However, BvSth is limited between ObjUdLv1 and ObjUdLv2.
If BvSth <ObjUdLv1, BvSth = ObjUdLv1 (Equation 33)
If BvSth> ObjUdLv2, BvSth = ObjUdLv2 (Formula 34)
ここで、ObjSizeは検出した顔の大きさ、SthObjSz1、SthObjSz2は顔の大きさの閾値、ObjUdLv1、ObjUdLv2は顔の画像出力アンダーレベル閾値である。
ステップ206において、制御部10の復元量制限部10eは復元量を制限してハイライト復元量HiRcvを算出する。
HiRcv=Pre_HiRcv…(式35)
但し、
HiRcv>Lmt_HiRcv の場合は HiRcv=Lmt_HiRcv…(式36)
ステップ207において、制御部10は次式から露出制御値BvCntl1を求める。
BvCntl1=BvCntl0+HiRcv…(式37)
Here, ObjSize is the detected face size, SthObjSz1 and SthObjSz2 are face size thresholds, and ObjUdLv1 and ObjUdLv2 are face image output underlevel threshold values.
In step 206, the restoration
HiRcv = Pre_HiRcv ... (Formula 35)
However,
If HiRcv> Lmt_HiRcv, then HiRcv = Lmt_HiRcv (Equation 36)
In step 207, the
BvCntl1 = BvCntl0 + HiRcv (Formula 37)
上記の実施例によれば、例えば人物が逆光の為に顔が暗い場合はBvObjが小さくなると、数式33よりLmt_HiRcvも小さくなり、式35および6よりHiRcvがLmt_HiRcvで制限され易くなる。制限された場合の式37は以下のように置き換えられる。
BvCntl1=BvObj+BvSth…(式38)
According to the above-described embodiment, for example, when the face is dark due to backlight, when BvObj becomes small, Lmt_HiRcv becomes smaller from Expression 33, and HiRcv becomes easier to be limited by Lmt_HiRcv from Expressions 35 and 6. Equation 37 in the restricted case is replaced as follows:
BvCntl1 = BvObj + BvSth ... (Formula 38)
つまり露出制御値BvCntl1は式38の右辺よりも大きな値を取り得ない。従ってステップ103で露出制御値BvCntl1に基づいて第1撮像センサによって撮像された画像データは顔部分の出力レベルが「基準露出レベルよりもBvSth分低いレベル」よりも低くなることがない。その為にステップ104で顔の画像レベルが低いために顔検出が出来なくなる事も無く、またステップ110の階調圧縮処理後の画像の顔部分にノイズが目立つ事も無くなる。 That is, the exposure control value BvCntl1 cannot take a value larger than the right side of Expression 38. Accordingly, the output level of the face portion of the image data captured by the first image sensor based on the exposure control value BvCntl1 in step 103 does not become lower than the “level lower by BvSth than the reference exposure level”. For this reason, the face image level in step 104 is low and face detection cannot be performed, and noise is not conspicuous in the face portion of the image after the gradation compression processing in step 110.
逆光人物シーンにおいて、顔が大きい場合はハイライト復元量が制限され易くなるので、人物の顔が暗くならずに済む。また顔が小さい場合、つまり写り込む背景が多い場合はハイライト復元量が制限されにくくなるので、背景のハイライト部分の飽和を抑える事が出来る。 In a backlit person scene, if the face is large, the amount of highlight restoration is likely to be limited, so that the face of the person does not have to be dark. In addition, when the face is small, that is, when there are many backgrounds to be reflected, the amount of highlight restoration is difficult to be limited, so that saturation of the highlight portion of the background can be suppressed.
上記の実施例では第1撮像センサ9とは異なる第2撮像センサ16の出力に基づいて露出制御値を求めたが、第1撮像センサ9の画像信号をファインダとするライブビュー・モードの場合は、上記第2撮像センサ16の出力の代わりに第1撮像センサの9出力を用いても構わない。
In the above embodiment, the exposure control value is obtained based on the output of the
また、上記実施例のObjSizeは検出された主要被写体の大きさを撮影画面の大きさで規格化しても良い。
ObjSize=ObjSize÷PicSize…(式39)
ここでPicSizeは第1撮像センサによる撮影画面の大きさである。例えば撮影画面の対角の長さでも良いし、短辺の長さでもよい。
Further, ObjSize in the above embodiment may normalize the size of the detected main subject by the size of the shooting screen.
ObjSize = ObjSize ÷ PicSize (Formula 39)
Here, PicSize is the size of the shooting screen by the first image sensor. For example, the diagonal length of the shooting screen may be used, or the length of the short side may be used.
主要被写体の大きさを規格化する事で第1撮像センサによる撮影画面の比率を4:3や16:9に切り替えたり、デジタルズームによって任意の領域を切出したりしても、撮影画面に占める主要被写体の大きさに対して主要被写体のアンダー許容量を約同じにして違和感の無い画像を得る事が出来る。また分割数の異なる第2撮像センサを備える複数の撮像装置の間でも主要被写体のアンダー許容量を同じにする事が出来る。 Even if the ratio of the shooting screen by the first image sensor is switched to 4: 3 or 16: 9 by standardizing the size of the main subject, or an arbitrary area is cut out by digital zoom, the main subject occupying the shooting screen By making the under allowance of the main subject about the same with respect to the size of the image, it is possible to obtain an image with no sense of incongruity. In addition, the under-allowance amount of the main subject can be made the same among a plurality of imaging devices including the second imaging sensors having different numbers of divisions.
(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。例えば、上記の実施形態では、ローパス画像に基づいて部分的に階調補正を行うものであった、画面全体の階調補正を行うものであってもよい。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention. For example, in the above-described embodiment, gradation correction may be performed on the entire screen, which is partly gradation correction based on a low-pass image.
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.
1:カメラ本体、2:レンズユニット、3:撮影レンズ、9:第1撮像センサ、10:制御部、10a:露出値演算部、10b:復元量演算部、10c:主要被写体検出部、10d:主要被写体輝度演算部、10e:復元量制限部、16:第2撮像センサ、:、:、:、:Pre_HiRcv:仮ハイライト復元量、HiRcv:ハイライト復元量、BvCntl0:仮露出制限値、BvCntl1:露出制限値、BvObj:主要被写体の代表輝度値 1: camera body, 2: lens unit, 3: photographing lens, 9: first imaging sensor, 10: control unit, 10a: exposure value calculation unit, 10b: restoration amount calculation unit, 10c: main subject detection unit, 10d: Main subject luminance calculation unit, 10e: restoration amount restriction unit, 16: second imaging sensor, ::,:,:, Pre_HiRcv: provisional highlight restoration amount, HiRcv: highlight restoration amount, BvCntl0: provisional exposure restriction value, BvCntl1 : Exposure limit value, BvObj: Representative luminance value of main subject
Claims (3)
前記測光部による測光結果に基づいて第1の露出値を演算する第1露出演算部と、
前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する補正量演算部と、
前記測光結果に基づいて主要被写体を検出する主要被写体検出部と、
前記主要被写体の輝度を演算する主要被写体輝度演算部と、
前記主要被写体の輝度に基づいて前記補正量を制限する補正量制限部と、
前記制限された補正量に基づいて前記第1の露出値を補正した第2の露出値を演算する第2露出演算部と、
前記第2の露出値に基づいて被写体を撮像して画像データを生成する撮像部とを有し、
前記補正量が制限値以上の場合、前記制限された補正量を前記制限値とし、
前記制限値は、前記第1の露出値から顔のアンダー許容量を引いたものを、主要被写体の代表輝度から引いた値である撮像装置。 A metering unit for metering the subject field into a plurality of areas;
A first exposure calculation unit that calculates a first exposure value based on a photometric result by the photometric unit;
A correction amount calculation unit for calculating a correction amount for restoring the bright portion of the subject with respect to the first exposure value based on the photometric result;
A main subject detection unit for detecting a main subject based on the photometric results;
A main subject luminance calculation unit for calculating the luminance of the main subject;
A correction amount limiting unit that limits the correction amount based on the luminance of the main subject;
A second exposure calculation unit that calculates a second exposure value obtained by correcting the first exposure value based on the limited correction amount;
An imaging unit that images the subject based on the second exposure value and generates image data;
If the correction amount is greater than or equal to a limit value, the limited correction amount is the limit value,
The image pickup apparatus, wherein the limit value is a value obtained by subtracting a face under allowance from the first exposure value and subtracting the representative luminance of a main subject.
前記画像データの暗部を明るくするように階調を補正する画像処理部を有する撮像装置。 The imaging device according to claim 1,
An imaging apparatus having an image processing unit that corrects gradation so that a dark part of the image data is brightened.
前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する第1演算部と、
主要被写体の輝度に基づいて前記補正量を制限する制限値を演算する第2演算部と、
前記制限値が前記補正量よりも小さいとき前記制限値を選択する選択部と、
前記制限値が前記補正量よりも小さいとき前記選択部により選択された前記制限値に基づいて前記第1露出値を補正した第2露出値を演算する第2露出演算部と、
前記第2露出値に基づいて被写体を撮像して画像データを生成する撮像部と、
前記画像データの画像が明るくなるように階調を補正する画像処理部とを有し、
前記制限値は、前記第1露出値から顔のアンダー許容量を引いたものを、前記主要被写体の輝度から引いた値である撮像装置。 A first exposure calculation unit that calculates a first exposure value based on a photometry result obtained by a photometry unit that divides the object field into a plurality of areas and performs photometry ;
A first calculation unit that calculates a correction amount for restoring a bright portion of the subject with respect to the first exposure value based on the photometric result ;
A second calculation unit for calculating a limit value for limiting the correction amount based on the luminance of the main subject ;
A selector for selecting said limit value when said limit value is smaller than the correction amount,
A second exposure calculation unit that calculates a second exposure value obtained by correcting the first exposure value based on the limit value selected by the selection unit when the limit value is smaller than the correction amount ;
An imaging unit that captures an image of a subject based on the second exposure value and generates image data;
An image processing unit that corrects gradation so that the image of the image data becomes brighter ,
The image pickup apparatus , wherein the limit value is a value obtained by subtracting a face under allowance from the first exposure value and subtracting the luminance of the main subject .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011146750A JP5929019B2 (en) | 2011-06-30 | 2011-06-30 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011146750A JP5929019B2 (en) | 2011-06-30 | 2011-06-30 | Imaging device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013016926A JP2013016926A (en) | 2013-01-24 |
JP2013016926A5 JP2013016926A5 (en) | 2014-08-14 |
JP5929019B2 true JP5929019B2 (en) | 2016-06-01 |
Family
ID=47689184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011146750A Active JP5929019B2 (en) | 2011-06-30 | 2011-06-30 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5929019B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4289259B2 (en) * | 2004-08-31 | 2009-07-01 | カシオ計算機株式会社 | Imaging apparatus and exposure control method |
JP5292829B2 (en) * | 2008-01-25 | 2013-09-18 | 株式会社ニコン | Imaging device |
JP2010072619A (en) * | 2008-08-22 | 2010-04-02 | Nikon Corp | Exposure operation device and camera |
-
2011
- 2011-06-30 JP JP2011146750A patent/JP5929019B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013016926A (en) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4678060B2 (en) | Imaging apparatus and image processing program | |
JP5523143B2 (en) | Imaging apparatus and automatic focusing method | |
JP5076716B2 (en) | Imaging device | |
JP2001103366A (en) | Camera | |
JP2010130231A (en) | Imaging apparatus | |
JP2010072619A (en) | Exposure operation device and camera | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP5076650B2 (en) | Imaging apparatus and image processing program | |
JP2009284136A (en) | Electronic camera | |
WO2019124289A1 (en) | Device, control method, and storage medium | |
JP2014179920A (en) | Imaging apparatus, control method thereof, program, and storage medium | |
JP5245648B2 (en) | Image processing apparatus and program | |
JP2018050149A (en) | Image processing apparatus | |
JP4523629B2 (en) | Imaging device | |
JP5849515B2 (en) | Exposure calculation device and camera | |
JP5515852B2 (en) | Imaging apparatus and image generation program | |
JP5929019B2 (en) | Imaging device | |
JP5561389B2 (en) | Image processing program, image processing apparatus, electronic camera, and image processing method | |
JP5772064B2 (en) | Imaging apparatus and image generation program | |
JP6990988B2 (en) | Control method of image pickup device and image sensor | |
JP2015037222A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP6554009B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM | |
US8121473B2 (en) | Imaging apparatus | |
WO2023042453A1 (en) | Imaging device, image processing method, and program | |
JP5351663B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5929019 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |