JP2009302747A - Imaging device, image processing device, and program - Google Patents
Imaging device, image processing device, and program Download PDFInfo
- Publication number
- JP2009302747A JP2009302747A JP2008153027A JP2008153027A JP2009302747A JP 2009302747 A JP2009302747 A JP 2009302747A JP 2008153027 A JP2008153027 A JP 2008153027A JP 2008153027 A JP2008153027 A JP 2008153027A JP 2009302747 A JP2009302747 A JP 2009302747A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- main
- area
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 98
- 238000012545 processing Methods 0.000 title claims abstract description 52
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 238000012937 correction Methods 0.000 claims description 54
- 230000003287 optical effect Effects 0.000 description 48
- 238000000034 method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 22
- 238000007906 compression Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 230000006835 compression Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 230000007246 mechanism Effects 0.000 description 14
- 238000009432 framing Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000003825 pressing Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000005375 photometry Methods 0.000 description 4
- 102100022441 Sperm surface protein Sp17 Human genes 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 101100498160 Mus musculus Dach1 gene Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 102100031798 Protein eva-1 homolog A Human genes 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010137 moulding (plastic) Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Stroboscope Apparatuses (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Exposure Control For Cameras (AREA)
Abstract
Description
本発明は、撮影画像の画像処理技術に関する。 The present invention relates to an image processing technique for captured images.
一般に、暗所でフラッシュ撮影を行うと、フラッシュ光の届く主被写体のみが明るく、フラッシュ光の届かない背景領域が暗い撮影画像が取得されることになる。そこで、シャッタースピードを低速にしたスローシンクロ撮影を行えば、暗所においても背景領域の明るさを適正にした撮影画像を取得することが可能になる。 In general, when flash photography is performed in a dark place, a photographed image is acquired in which only the main subject to which the flash light reaches is bright and the background area to which the flash light does not reach is dark. Therefore, if slow sync photography with a low shutter speed is performed, it is possible to obtain a photographed image in which the brightness of the background area is appropriate even in a dark place.
しかし、スローシンクロ撮影では、シャッタースピードが遅く設定されるので、手ブレの発生する可能性が高くなる。 However, in slow sync photography, the shutter speed is set slower, so the possibility of camera shake increases.
ところで、撮影画像への画像処理手法として、撮影画像において、フラッシュ光の照射によって輝度が上昇する部分を主被写体部分(主被写体領域)として特定し、主被写体領域およびそれ以外の背景部分(背景領域)に対して、それぞれ異なる画像処理を行う技術が提案されている(例えば、特許文献1)。 By the way, as an image processing method for a photographed image, a portion of the photographed image whose luminance increases due to flash light irradiation is identified as a main subject portion (main subject region), and the main subject region and other background portions (background regions) are identified. ) Have been proposed (for example, Patent Document 1).
特許文献1のように、主被写体領域と背景領域とを区分することができれば、背景領域に対して明るさを適正にする画像処理を施すことによって、スローシンクロ撮影と同様の効果が得られるとともに、手ブレの影響を低減させることが可能になる。
If the main subject area and the background area can be distinguished as in
しかしながら、上記特許文献1に記載の技術では、フラッシュ光の照射による輝度の変化量を用いて主被写体領域と背景領域とが区別されるので、例えば、主被写体における髪部分(髪領域)が背景領域と判断される可能性がある。このように、主被写体領域の特定が精度良く行われず、主被写体領域の一部が背景領域と誤判断されると、背景領域の明るさを適正にする上記画像処理によって、主被写体領域に不適切な画像処理を施すことになる。
However, in the technique described in
そこで、本発明は、主被写体領域を精度良く特定することが可能な技術を提供することを目的とする。 Accordingly, an object of the present invention is to provide a technique capable of specifying a main subject area with high accuracy.
本発明の第1の側面は、撮像装置であって、フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とを撮影する撮影手段と、前記第1の撮影画像と前記第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、前記撮影手段による撮影領域から、主被写体の顔領域を検出する検出手段と、前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段とを備える。 According to a first aspect of the present invention, there is provided an imaging apparatus, the first imaging image with flash emission and the second imaging image without flash emission, and the first imaging device. A difference means for obtaining a difference value between corresponding pixels in the photographed image and the second photographed image, a detection means for detecting a face area of the main subject from the photographing area by the photographing means, and the detection means Image processing means for performing image processing according to the difference value on each pixel included in the imaging region using a face detection result.
また、本発明の第2の側面は、画像処理装置であって、フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、前記第1の撮影画像または前記第2の撮影画像から、主被写体の顔領域を検出する検出手段と、前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段とを備える。 The second aspect of the present invention is an image processing apparatus, and the difference between corresponding pixels in a first photographed image with flash emission and a second photographed image without flash emission. A difference means for acquiring a value, a detection means for detecting a face area of a main subject from the first photographed image or the second photographed image, and a face detection result by the detection means, Image processing means for performing image processing according to the difference value for each pixel included.
本発明によれば、主被写体領域の特定を精度良く行うことが可能になる。 According to the present invention, it is possible to specify the main subject area with high accuracy.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
<1.第1実施形態>
<構成>
図1および図2は、本発明の第1実施形態に係る撮像装置1Aの外観構成を示す図である。ここで、図1は、撮像装置1Aの正面外観図であり、図2は、撮像装置1Aの背面外観図である。この撮像装置1Aは、レンズ交換式一眼レフレックスタイプのデジタルカメラとして構成されている。
<1. First Embodiment>
<Configuration>
1 and 2 are diagrams showing an external configuration of an
図1に示すように、撮像装置1Aは、撮像装置本体(カメラ本体部)2を備えている。このカメラ本体部2に対して、交換式の撮影レンズユニット(単に、「撮影レンズ」または「交換レンズ」とも称する)3が着脱可能である。
As shown in FIG. 1, the
撮影レンズ3は、主として、鏡胴101、ならびに、鏡胴101の内部に設けられるレンズ群37(図3参照)および絞り(不図示)等によって構成される。レンズ群37には、光軸方向に移動することによって焦点位置を変更するフォーカスレンズ等が含まれている。
The
カメラ本体部2は、撮影レンズ3が装着される円環状のマウント部Mtを正面略中央に備え、撮影レンズ3を着脱するための着脱ボタン89を円環状のマウント部Mt付近に備えている。
The
また、カメラ本体部2は、その正面左上部にモード設定ダイアル82を備え、その正面右上部に制御値設定ダイアル86を備えている。モード設定ダイアル82を操作することによって、カメラの各種モード(各種撮影モード(人物撮影モード、風景撮影モード、および連続撮影モード等)、撮影した画像を再生する再生モード、および外部機器との間でデータ交信を行う通信モード等を含む)の設定動作(切替動作)を行うことが可能である。また、制御値設定ダイアル86を操作することによれば、各種撮影モードにおける制御値を設定することが可能である。
Further, the
また、カメラ本体部2は、正面左端部にユーザが把持するためのグリップ部14を備えている。グリップ部14の上面には露光開始を指示するためのレリーズボタン(シャッターボタン)11が設けられている。グリップ部14の内部には電池収納室とカード収納室とが設けられている。電池収納室にはカメラの電源として、例えば4本の単3形乾電池が収納されており、カード収納室には撮影画像の画像データを記録するための記録媒体(ここでは、メモリカード90(図5参照))が着脱可能に収納されるようになっている。
Further, the
レリーズボタン11は、半押し状態(S1状態)と全押し状態(S2状態)の2つの状態を検出可能な2段階検出ボタンである。レリーズボタン11が半押しされS1状態になると、被写体に関する記録用静止画像(本撮影画像)を取得するための準備動作(例えば、AF制御動作およびAE制御動作等)が行われる。また、レリーズボタン11がさらに押し込まれてS2状態になると、当該本撮影画像の撮影動作(撮像素子(「主撮像素子」とも称する)5(後述)を用いて被写体像に関する露光動作を行い、その露光動作によって得られた画像信号に所定の画像処理を施す一連の本撮影動作)が行われる。
The
図2において、カメラ本体部2の背面の略中央には、表示部としてモニタ12が設けられている。モニタ12は、例えばカラー液晶ディスプレイ(LCD)として構成される。モニタ12は、撮影条件等を設定するためのメニュー画面を表示したり、再生モードにおいてメモリカード90に記録された撮影画像を再生表示したりすることができる。
In FIG. 2, a
カメラ本体部2の背面略中央上部には、ファインダ窓10が設けられている。ファインダ窓10には、撮影レンズ3からの被写体像が導かれ、ユーザは、ファインダ窓10を覗くことによって、主撮像素子5によって取得される被写体像と等価な像を視認することができる。具体的には、撮影光学系に入射された被写体像は、ミラー機構6(図3参照)で上方に反射され、接眼レンズ67を介して視認される。このように、ユーザは、ファインダ窓10を覗くことによって構図決めを行うことが可能である。なお、レリーズボタン11のS2状態の検出によって本撮影動作が開始されると、ミラー機構6は被写体像を形成する光(被写体光)の光路から待避し、撮影レンズ3からの光(被写体像を形成する光)が主撮像素子5に到達し、被写体に係る撮影画像(画像データ)が得られる。
A
ファインダ窓10の下部には、接眼検知センサ13が設けられている。接眼検知センサ13は、近接物体の有無を検知するセンサであり、ユーザによる光学ファインダ使用の有無を検知する。
An
モニタ12の左上部にはメインスイッチ81が設けられている。メインスイッチ81は、2点のスライドスイッチからなり、接点を左方の「OFF」位置に設定すると、撮像装置1Aの電源がオフになり、接点を右方の「ON」位置に設定すると、撮像装置1Aの電源がオンになる。
A
フラッシュ発光部91は、ポップアップ式の内蔵フラッシュとして構成されている。
The flash
モニタ12の右側には方向選択キー84と表示切替スイッチ9とが設けられている。方向選択キー84は、円形の操作ボタンを有し、この操作ボタンにおける上下左右の4方向の押圧操作と、右上、左上、右下および左下の4方向の押圧操作とが、それぞれ検出されるようになっている。なお、方向選択キー84は、上記8方向の押圧操作とは別に、中央部のプッシュボタンの押圧操作も検出されるようになっている。
A direction selection key 84 and a display changeover switch 9 are provided on the right side of the
表示切替スイッチ9は、3点のスライドスイッチからなる。表示切替スイッチ9の接点が上段の「光学」位置に設定されると光学ビューファインダモード(「OVFモード」とも称する)が選択され、光学ファインダ視野内に被写体像が表示される。これにより、ユーザは、ファインダ窓10を介して光学ファインダ視野内の被写体像を視認して、構図決め操作(「フレーミング」とも称する)を行うことが可能になる。
The display changeover switch 9 is composed of three slide switches. When the contact of the display changeover switch 9 is set to the upper “optical” position, the optical viewfinder mode (also referred to as “OVF mode”) is selected, and the subject image is displayed in the optical viewfinder field of view. Accordingly, the user can visually recognize the subject image in the optical finder field through the
また、表示切替スイッチ9の接点が下段の「液晶」位置に設定されると電子ビューファインダモード(「EVFモード」とも称する)が選択され、モニタ12において被写体像に係るライブビュー画像が動画的態様にて表示(ライブビュー表示)される。これにより、ユーザは、モニタ12に表示されるライブビュー画像を視認することによって、フレーミングを行うことが可能になる。
Further, when the contact point of the display changeover switch 9 is set to the lower “liquid crystal” position, an electronic viewfinder mode (also referred to as “EVF mode”) is selected, and the live view image related to the subject image on the
また、表示切替スイッチ9の接点が中段の「自動」位置に設定されると、ファインダ窓10への接眼の有無に応じて、光学ファインダ視野内の表示(「OVF表示」とも称する)とライブビュー表示とが自動的に切り替えられる。これにより、ユーザは、撮像装置1Aの使用態様に応じて、光学ファインダ視野内の表示、或いはライブビュー表示のいずれかを視認して、フレーミングを行うことが可能となる。
Further, when the contact of the display changeover switch 9 is set to the middle “automatic” position, the display in the optical finder field of view (also referred to as “OVF display”) and the live view depending on the presence or absence of the eyepiece on the
モニタ12の左側には、メニュー画面の設定、画像の削除などを行うための複数のボタンからなる設定ボタン群83が設けられている。
On the left side of the
次に、撮像装置1Aの内部構成について説明する。図3および図4は、第1実施形態に係る撮像装置1Aの縦断面図である。
Next, the internal configuration of the
図3に示すように、撮像装置1Aの内部には、ファインダ部(「ファインダ光学系」とも称する)102、ミラー機構6、位相差AFモジュール(以下、単にAFモジュールとも称する)20、シャッタ4、主撮像素子5、および副撮像素子7などが備えられている。
As shown in FIG. 3, in the
主撮像素子(ここではCCDセンサ(単にCCDとも称する))5は、撮影レンズ3が備えているレンズ群37の光軸L上において、光軸Lに対して垂直な平面内に配置される。主撮像素子5は、その撮像面で受光された被写体像を光電変換作用により電気的信号に変換して、本撮影画像に係る画像信号を生成する。
The main image pickup element (here, a CCD sensor (also simply referred to as a CCD)) 5 is disposed on a plane perpendicular to the optical axis L on the optical axis L of the
主撮像素子5の直前には、シャッタ4が配置されている。このシャッタ4は、上下方向に移動する幕体を備え、光軸Lに沿って主撮像素子5に導かれる被写体光の光路開口動作および光路遮断動作を行うメカニカルフォーカルプレーンシャッタである。
A
また、図3に示されるように、撮影レンズ3から主撮像素子5に至る光路(「撮影光路」とも称する)上には、ミラー機構6が設けられている。
As shown in FIG. 3, a
ミラー機構6は、撮影光学系からの光を上方に向けて反射する主ミラー61(主反射面)を有している。この主ミラー61は、例えばその一部または全部がハーフミラーとして構成され、撮影光学系からの光の一部を透過させる。また、ミラー機構6は、主ミラー61を透過した光を下方に反射させるサブミラー62(副反射面)をも有している。
The
また、ミラー機構6は、所謂クイックリターンミラーとして構成されており、ミラーダウン状態とミラーアップ状態との間で姿勢を切り替えることが可能である。
Further, the
具体的には、撮影モードにおいてレリーズボタン11が全押し状態S2にされるまで、換言すれば構図決めの際には、ミラー機構6はミラーダウン状態となるように配置される(図3参照)。そして、ミラーダウン状態では、撮影レンズ3からの被写体光は、主ミラー61で上方に反射され観察用光束としてファインダ部(「ファインダ光学系」とも称する)102に入射する。
Specifically, the
また、被写体光の一部は、主ミラー61を透過し、サブミラー62によって下方に反射され、AFモジュール20へと導かれる。
A part of the subject light is transmitted through the
AFモジュール20は、被写体のピント情報(「測距情報」とも称する)を検出するラインセンサ(焦点検出センサ)等によって構成され、所謂AFセンサとして機能する。具体的には、AFモジュール20は、撮影領域に設定された測距エリア(「フォーカスエリア」または「AFエリア」とも称する)における被写体からの光を受光して、被写体像の合焦度合いに応じた位相差検出信号を発生させる位相差検出機能を有している。すなわち、撮影待機時におけるミラーダウン状態においては、AFモジュール20に導かれる被写体光に基づいて、AFモジュール20から位相差検出信号が出力される。
The
このようにAFモジュール20は、撮影領域の所定位置に固定的に設定されたAFエリアから、撮影情報としての測距情報を取得する撮影情報取得手段として機能する。
As described above, the
一方、レリーズボタン11が全押し状態S2にされると、ミラー機構6はミラーアップ状態(図4参照)となるように駆動され、露光動作が開始される。
On the other hand, when the
具体的には、図4に示すように、露光時には、ミラー機構6は、回転軸63を支点として上方に向けて跳ね上がり、撮影光路から待避する。詳細には、撮影光学系からの光を遮らないように主ミラー61とサブミラー62とが上方に待避し、撮影レンズ3からの光がシャッタ4の開放タイミングに合わせて主撮像素子5に到達する。主撮像素子5は、光電変換によって、受光した光束に基づいて被写体像に関する画像信号を生成する。このように、被写体からの光が撮影レンズ3を介して主撮像素子5に導かれることによって、被写体に係る撮影画像(撮影画像データ)が得られる。
Specifically, as shown in FIG. 4, at the time of exposure, the
<機能ブロック>
次に、撮像装置1Aの機能の概要について説明する。図5は、第1実施形態に係る撮像装置1Aの機能構成を示すブロック図である。
<Functional block>
Next, an outline of functions of the
図5に示されるように、撮像装置1Aは、位相差AFモジュール20、操作部80、全体制御部100、フラッシュ回路92、ミラー機構6、シャッタ4、主撮像素子5、A/D変換回路52、デジタル信号処理回路50、および画像メモリ56等を備える。
As illustrated in FIG. 5, the
操作部80は、レリーズボタン11(図1参照)を含む各種ボタンおよびスイッチ等を備えて構成される。操作部80に対するユーザの入力操作に応答して、全体制御部100が各種動作を実現する。
The
フラッシュ回路92は、フラッシュ発光部91の発光量を、全体制御部100により設定された発光量に制御するものである。
The
主撮像素子5は、タイミング制御回路(不図示)から入力される駆動制御信号(蓄積開始信号および蓄積終了信号)に応答して、受光面(撮像面)に結像された被写体像の露光(光電変換による電荷蓄積)を行い、当該被写体像に係る画像信号を生成する。
The
主撮像素子5で取得された画像信号(アナログ信号)は、A/D変換回路52によってデジタル信号に変換される。デジタル信号に変換された画像信号は、デジタル信号処理回路50に入力される。
The image signal (analog signal) acquired by the
デジタル信号処理回路50は、A/D変換回路52から入力される画像信号に対してデジタル信号処理を施す。具体的には、黒レベル補正処理、ホワイトバランス(WB)処理、γ補正処理等の信号処理を行う。当該信号処理後の画像信号(画像データ)は、画像メモリ56に格納される。
The digital
画像メモリ56は、生成された画像データを一時的に記憶するための、高速アクセス可能なメモリであり、複数フレーム分の画像データを記憶可能な容量を有している。
The
本撮影時には、画像メモリ56に一時記憶される画像データは、全体制御部100において適宜画像処理(圧縮処理等)が施された後、メモリカード90に記憶される。
At the time of actual photographing, the image data temporarily stored in the
副撮像素子7は、基本的には主撮像素子5と同様の機能を有し、いわゆるライブビュー画像取得用(電子ファインダ用)の撮像素子(補助撮像素子)としての役割を果たす。具体的には、副撮像素子7は、ファインダ光学系に導かれた被写体像の露光を行い、ライブビュー表示用の画像に関する画像信号を取得する。なお、副撮像素子7は、ライブビュー用の画像信号を生成するための解像度を有していればよく、通常、主撮像素子5よりも少ない数の画素で構成される。
The
副撮像素子7によって取得された画像データは、A/D変換回路52およびデジタル信号処理回路50において所定の処理が実行され画像メモリ56に一旦記憶された後、モニタ12に表示される。
The image data acquired by the
全体制御部100は、マイクロコンピュータとして構成され、主にCPU,RAM120A、およびROM120B等を備える。全体制御部100は、ROM120B内に格納されたプログラムを読み出し、当該プログラムをCPUで実行することによって、各種機能を実現する。
The
全体制御部100は、上述のプログラムの実行によって、位相差AF制御部121、被写体検出部122、画像比較部123、領域判定部124、補正係数決定部125、および表示制御部126等を機能的に実現する。
The
なお、画像比較部123、領域判定部124、および補正係数決定部125によって実現される各種機能は、階調圧縮モードにおいて用いられる。階調圧縮モードは、フラッシュ発光をともなう撮影において取得された本撮影画像の階調調整を行うモードである。階調圧縮モードと通常の撮影モードとの切替は、メニュー画面を用いたユーザ操作(メニュー操作)、または専用のボタン(ボタン不図示)操作等によって行われる。
Various functions realized by the
位相差AF制御部121は、位相差方式による自動合焦(AF)動作(「位相差AF」とも称する)を行う。具体的には、位相差AF制御部121は、AFモジュール20から出力される位相差検出信号に基づいて、合焦時のフォーカスレンズの位置(レンズ合焦位置)を特定するレンズ合焦位置特定動作を行う。
The phase difference
また、位相差AF制御部121は、レンズ合焦位置にフォーカスレンズを移動させるレンズ駆動動作をも実行する。
The phase difference
具体的には、位相差AF制御部121は、撮影レンズ3のレンズ側制御部31に制御信号を伝達し、レンズ駆動部38を駆動させ、撮影レンズ3のレンズ群37に含まれるフォーカスレンズを光軸方向に移動させる。また、フォーカスレンズの位置は、撮影レンズ3のレンズ位置検出部39によって検出され、フォーカスレンズの位置を示すデータがレンズ側制御部31からカメラ本体部2の全体制御部100に送られる。
Specifically, the phase difference
被写体検出部122は、副撮像素子7によって取得された撮影画像(補助画像)および主撮像素子5によって取得された撮影画像(本実施形態では、本撮影画像)から、特定被写体を検出する被写体検出動作を行う。ここでは、人物の顔(「顔領域」とも称する)を特定被写体とし、顔領域を補助画像および本撮影画像から検出する顔検出動作が実行される。
The
顔領域の検出手法としては、例えば、撮影画像における各画素の画素値に基づいて、画像の肌色部分を抽出し、この肌色部分の面積が予め設定された閾値以上であった場合に、その肌色部分を含む領域を顔領域として検出する手法を採用してもよい。或いは、周知のパターン認識技術を用いて、目や口などの顔の特定部分を抽出することで、顔領域を検出する手法を採用してもよい。 As a face area detection method, for example, when a skin color part of an image is extracted based on a pixel value of each pixel in a photographed image, and the area of the skin color part is equal to or larger than a preset threshold, the skin color A method of detecting an area including a portion as a face area may be employed. Or you may employ | adopt the method of detecting a face area | region by extracting the specific part of faces, such as eyes and a mouth, using a well-known pattern recognition technique.
補助画像における顔検出動作は、副撮像素子7によって順次に取得される補助画像のうち、数フレームおきの補助画像を用いて実行される。顔領域が検出されると、顔位置表示がライブビュー画像において行われる。また、補助画像から検出された顔領域は、本撮影画像の階調圧縮処理に用いられる。
The face detection operation in the auxiliary image is executed using auxiliary images every several frames among the auxiliary images sequentially obtained by the
本撮影画像における顔検出動作は、階調圧縮モードが選択され、かつフラッシュ発光を伴う本撮影動作が行われた際に実行される。そして、本撮影画像から検出された顔領域は、本撮影画像の階調圧縮処理に用いられる。 The face detection operation in the actual captured image is executed when the gradation compression mode is selected and the actual imaging operation with flash emission is performed. The face area detected from the main captured image is used for gradation compression processing of the main captured image.
機能部の説明(図5)に戻って、画像比較部123は、階調圧縮モードにおいて、補助画像と本撮影画像との差分画像(差分データ)を取得する。具体的には、補助画像と本撮影画像とを比較して、対応する画素間の輝度の差分値(「輝度差分値」または単に「差分値」とも称する)BVを取得する。
Returning to the description of the functional unit (FIG. 5), the
領域判定部124は、階調圧縮モードにおいて、差分値の大きさに応じて、当該差分値を有する画素がいかなる領域に属するのかの判定を行い、画素ごとに領域情報を算出する。これにより、本撮影画像を構成する各画素が、類似の輝度差分値BVを有する画素ごとに分類される。
In the gradation compression mode, the
補正係数決定部125は、階調圧縮モードにおいて、領域情報に基づいて、本撮影画像における各画素の輝度の階調を補正する補正係数を決定する。 The correction coefficient determination unit 125 determines a correction coefficient for correcting the luminance gradation of each pixel in the actual captured image based on the region information in the gradation compression mode.
表示制御部126は、モニタ12などの表示部における表示内容を制御する。例えば、表示制御部126は、副撮像素子7によって連続的に取得される撮影画像に基づいて、モニタ12に連続的な画像を表示させる。
The
<構図決め動作(フレーミング動作)について>
次に、撮像装置1Aにおける構図決め動作について説明する。上述のように、撮像装置1Aでは、ユーザは、表示切替スイッチ9のスライド操作によって、OVFモードで光学ファインダを利用して構図決めを行うか、EVFモードで電子ファインダを利用して構図決めを行うかを選択することができる。図6は、EVFモードにおける撮像装置1Aの縦断面図である。
<Composition determination operation (framing operation)>
Next, the composition determination operation in the
構図決めの際には、ミラー機構6はミラーダウン状態となるように配置される(図3および図6参照)。上述のように、ミラーダウン状態では、撮影レンズ3からの被写体像は、主ミラー61で上方に反射され観察用光束としてファインダ部102に導かれる。
When the composition is determined, the
ファインダ部102は、ペンタミラー65、接眼レンズ67、アイピースシャッター68、ファインダ窓10、測光素子66、結像レンズ69、および副撮像素子7等を備えている。
The
ペンタミラー65は、複数のミラー(反射面)を有しており、反射によって被写体像の天地左右を入れ替えて正立像にする機能および被写体光の光路を変更する機能を有している。
The
具体的には、ペンタミラー65は、三角屋根状に形成された2面のミラー(ダハミラー)65a,65bと、当該ダハミラー(ダハ面)65a,65bに対して固定された面65cと、光路変更ミラー(反射面)65eとを有している。
Specifically, the
ダハミラー65a,65bは、プラスチック成型により一体部品65dとして形成され、被写体光を2回反射させることによって被写体像の姿勢を反転させる機能を有している。光路変更ミラー65eは、光学ファインダおよび電子ファインダのいずれを採用して構図決めを行うかに応じて、被写体光の光路を変更する機能を有している。
The roof mirrors 65a and 65b are formed as an
接眼レンズ67は、ペンタミラー65により正立像にされた被写体像をファインダ窓10の外側に導く機能を有している。
The
アイピースシャッター68は、接眼レンズ67とファインダ窓10との間に設けられ、ファインダ窓10から撮像装置1A内に進入する外光を遮断する遮光状態と、ファインダ窓10からの外光を遮らない非遮光状態との間で状態切替が可能な遮光(シャッター)手段として機能する。例えば、EVFモードでは、アイピースシャッター68は遮光状態となり、OVFモードでは、非遮光状態となる。
The
測光素子66は、ファインダ部102に入射された観察用光束の一部を受光し、被写体の明るさ、すなわち被写体の輝度(「被写体輝度」とも称する)に関する測光信号(測光値)を生成(出力)する。
The
測光素子66では、受光部が複数のエリア(「測光領域」または「測光エリア」とも称する)に分割されており、各測光エリアについて個別に測光値が得られるようになっている。
In the
以下では、光学ファインダを用いたフレーミング動作および電子ファインダを用いたフレーミング動作それぞれについて詳述する。 Hereinafter, each of the framing operation using the optical finder and the framing operation using the electronic finder will be described in detail.
まず、光学ファインダを用いたフレーミング動作について説明する。 First, the framing operation using the optical finder will be described.
図3に示すように、OVFモードでは、ミラー機構6が、撮影レンズ3からの被写体像の光路上に配置され、被写体像が主ミラー61とペンタミラー65と接眼レンズ67とを順に介してファインダ窓10へと導かれる。
As shown in FIG. 3, in the OVF mode, the
より詳細には、撮影レンズ3を通過した被写体光は、主ミラー61で上方に反射され、焦点板64に結像する。焦点板64に結像した被写体光は、当該焦点板64を通過し、ペンタミラー65で進路変更された後に、接眼レンズ67を通ってファインダ窓10へ向かう(図3の光路PA参照)。このように光路PAに沿って、ファインダ窓10に導かれた被写体像は、ユーザ(観察者)の眼へ到達して視認される。
More specifically, the subject light that has passed through the photographing
このようにOVFモードでは、ユーザは、ファインダ窓10を覗くことによって、ファインダ視野内に表示された被写体像を視認し、構図決めを行うことができる。
As described above, in the OVF mode, the user can visually check the subject image displayed in the finder field of view and determine the composition by looking through the
次に、電子ファインダを用いたフレーミング動作について説明する。 Next, a framing operation using the electronic viewfinder will be described.
図6に示すように、EVFモードでは、ミラー機構6は、撮影レンズ3からの被写体像の光路上に配置される。そして、撮影レンズ3を通過した被写体光は、主ミラー61で上方に反射され、焦点板64に結像する。焦点板64に結像した被写体光は、焦点板64を通過し、ペンタミラー65で進路変更された後に、結像レンズ69(結像光学系)を介して副撮像素子7の撮像面上で再結像する(図6の光路PB参照)。
As shown in FIG. 6, in the EVF mode, the
このようにEVFモードでは、被写体像は、OVFモードにおける光路PAとは異なる光路PBに沿って副撮像素子7に導かれる。
As described above, in the EVF mode, the subject image is guided to the
このようなファインダ部102における光路変更は、光路変更ミラー65eの角度(カメラ本体部2に対する設置角度)をファインダモードに応じて変更することによって実現される。
Such an optical path change in the
具体的には、光路変更ミラー65eは、表示切替スイッチ9のスライド動作に連動して、軸AX1を中心に回転可能に構成され、EVFモード(図6参照)では、OVFモード(図3参照)に比べて軸AX1を中心に矢印YVの向きに所定角度AN回動される。
Specifically, the optical
このように、EVFモードでは、光路変更ミラー65eの姿勢を変更することによって、ファインダ部102内の被写体光の光路が変更される。これにより、被写体光は、結像レンズ69を通過して副撮像素子7に到達する。
Thus, in the EVF mode, the optical path of the subject light in the
上述のように、副撮像素子7は、光路PBに沿って到達した被写体光を受光し、被写体像に係る撮影画像を微小時間間隔(例えば、1/60秒)で順次に取得する。取得された時系列の撮影画像は、モニタ12に動画的態様にて順次に表示(ライブビュー表示)される。
As described above, the
これによって、ユーザは、モニタ12に表示される動画像(ライブビュー画像)を視認して構図決めを行うことが可能になる。
Thus, the user can determine the composition by visually recognizing the moving image (live view image) displayed on the
なお、結像レンズ69、副撮像素子7および測光素子66は、OVFモードにおいて光路変更ミラー65eから接眼レンズ67へと進行する光束を遮らない位置(ここでは、接眼レンズ67の上方位置)に配置されている。
The
このように、撮像装置1Aでは、ファインダ部102の光路変更ミラー65eの姿勢を変更することによって被写体光の光路が変更され、OVFモードとEVFモードとが切り換えられる。
Thus, in the
<階調圧縮モードにおける動作>
次に、EVFモードにおいて、階調圧縮モードが選択されている際に実行される撮像装置1Aの撮影動作について説明する。図7は、階調圧縮モードが選択されている撮像装置1Aの撮影動作のフローチャートである。図8は、領域分割された本撮影画像HG1を示す図である。図9は、分割領域と補正係数との関係を示すデータテーブルを示す図である。
<Operation in gradation compression mode>
Next, the imaging operation of the
図7に示されるように、ステップSP11では、予備撮影が行われ、予備撮影画像が取得される。本実施形態の撮像装置1Aでは、ライブビュー画像取得用の副撮像素子7を用いて予備撮影が行われる。より詳細には、副撮像素子7によって順次に取得される補助画像のうち、数フレームおきの補助画像が予備撮影画像として画像メモリ56に上書きして記憶される。
As shown in FIG. 7, in step SP11, preliminary shooting is performed and a preliminary shooting image is acquired. In the
ステップSP12では、レリーズボタン11の押し込み状態に基づいて撮影開始判定が行われる。具体的には、レリーズボタン11の全押し状態(S2状態)が検出されると、ステップSP13に移行する。レリーズボタン11の全押し状態が検出されなければステップSP11に移行して、全押し状態が検出されるまでステップSP11およびステップSP12の処理が繰り返し実行される。
In step SP12, the photographing start determination is performed based on the pressing state of the
ステップSP13では、本撮影動作が実行される。具体的には、全ての被写体像が主撮像素子5に導かれるミラーアップ状態となり、主撮像素子5による露光が行われる。
In step SP13, the actual photographing operation is executed. Specifically, all the subject images are in a mirror-up state in which the subject image is guided to the
ステップSP14では、ステップSP13の本撮影においてフラッシュが発光されたか否かが判断される。本撮影の際に、フラッシュが発光された場合は、ステップSP15に移行し、フラッシュが発光されていない場合は、そのまま撮影動作が終了される。 In step SP14, it is determined whether or not the flash is emitted in the main photographing in step SP13. If the flash is emitted during the main photographing, the process proceeds to step SP15. If the flash is not emitted, the photographing operation is terminated as it is.
ステップSP15では、主撮像素子5または副撮像素子7で撮影された撮影領域を、各画素の輝度値等を用いて複数の領域に分割する領域分割処理が実行される。
In step SP15, an area division process is executed to divide an imaging area imaged by the
例えば、本撮影画像を、背景領域と主被写体の存在領域(「主被写体領域」とも称する)とに分割する場合は、各画素が、主被写体領域に属するのか背景領域に属するのかの所属判別が行われ、撮影領域が分割される。詳細は、後述する。 For example, when the actual captured image is divided into a background region and a main subject existing region (also referred to as a “main subject region”), it is determined whether each pixel belongs to the main subject region or the background region. The shooting area is divided. Details will be described later.
次のステップSP16では、補正係数決定部125において、分割された領域(「分割領域」とも称する)ごとに、各分割領域に応じた補正係数が設定される。 In the next step SP16, the correction coefficient determination unit 125 sets a correction coefficient corresponding to each divided area for each divided area (also referred to as “divided area”).
補正係数は、例えば、各分割領域と補正係数とが対応づけられたデータテーブルDT1を参照することによって取得され、当該データテーブルDT1は、ROM120Bに予め格納されている。
The correction coefficient is acquired, for example, by referring to the data table DT1 in which each divided region is associated with the correction coefficient, and the data table DT1 is stored in the
例えば、図8に示されるように、ステップSP15において、本撮影画像HG1が、主被写体領域TRと背景領域BR(斜線ハッチング領域)とに分割されたと仮定する。このとき、図9に示されるデータテーブルDT1がROM120Bに格納されていた場合は、主被写体領域TRの補正係数は、「1.0」に設定され、背景領域BRの補正係数は、「1.7」に設定される。
For example, as shown in FIG. 8, it is assumed that the main captured image HG1 is divided into a main subject area TR and a background area BR (shaded hatching area) in step SP15. At this time, if the data table DT1 shown in FIG. 9 is stored in the
ステップSP17では、本撮影画像HGに対して、設定された補正係数に応じて分割領域ごと(画素ごと)に画像処理(詳細には、輝度補正処理)が施される。 In step SP17, the actual captured image HG is subjected to image processing (specifically, luminance correction processing) for each divided region (for each pixel) in accordance with the set correction coefficient.
補正係数は、「1.0」を基準にしたときの補正の程度を表しており、補正係数が「1.0」より大きい場合は、分割領域が明るくなるように当該分割領域に含まれる各画素の輝度値を上げる補正処理が行われる。一方、補正係数が「1.0」より小さい場合は、分割領域が暗くなるように当該分割領域に含まれる各画素の輝度値を下げる補正処理が行われる。また、補正係数が「1.0」の場合は、分割領域の輝度補正は実行されない。 The correction coefficient represents the degree of correction when “1.0” is used as a reference. When the correction coefficient is larger than “1.0”, each correction area includes each division area so that the division area becomes brighter. Correction processing for increasing the luminance value of the pixel is performed. On the other hand, when the correction coefficient is smaller than “1.0”, correction processing is performed to lower the luminance value of each pixel included in the divided area so that the divided area becomes dark. When the correction coefficient is “1.0”, the luminance correction of the divided area is not executed.
例えば、補正係数が「1.0」に設定された主被写体領域TRでは、補正処理が実行されない(または、補正処理によって主被写体領域TRの各画素の輝度値が1.0倍される)。 For example, in the main subject region TR in which the correction coefficient is set to “1.0”, the correction process is not executed (or the luminance value of each pixel in the main subject region TR is multiplied by 1.0 by the correction process).
また、補正係数が「1.7」に設定された背景領域BRでは、補正処理によって当該背景領域BRの各画素の輝度値が1.7倍される。 Further, in the background region BR in which the correction coefficient is set to “1.7”, the luminance value of each pixel in the background region BR is multiplied by 1.7 by the correction process.
ここで、領域分割処理(ステップSP15)について詳述する。図10は、領域分割処理の詳細を示すフローチャートである。図11は、差分データSG1が取得される様子を示す概念図である。図12は、撮像装置1Aにおいて取得される差分データSG1に関する輝度差分値のヒストグラムを示す図である。図13は、差分データSG1に関する輝度差分値のヒストグラムと閾値THとの関係を示す図である。図14は、本撮影画像において検出された顔領域を示す図である。
Here, the region division processing (step SP15) will be described in detail. FIG. 10 is a flowchart showing details of the region division processing. FIG. 11 is a conceptual diagram showing how the difference data SG1 is acquired. FIG. 12 is a diagram illustrating a histogram of luminance difference values regarding the difference data SG1 acquired in the
本撮影の際に、フラッシュが発光された場合は、図10のステップSP51に移行する。 If the flash is emitted during the main shooting, the process proceeds to step SP51 in FIG.
ステップSP51では、被写体検出部122によって顔検出動作が実行され、撮影領域から顔領域が検出される。
In step SP51, the face detection operation is executed by the
ステップSP52では、画像比較部123によって、予備撮影画像BGと本撮影画像HGとの対応する画素間で輝度値の差分が行われ、差分データSG1が取得される(図11参照)。
In step SP52, the
より詳細には、RGBの原色成分をもつ予備撮影画像BGおよび本撮影画像HGの色空間が、マトリクス演算により輝度成分(Y)(以下、「輝度信号」とも称する)と色差成分(Cr、Cb)(「色差信号」とも称する)とをもつ色空間に変換される。 More specifically, the color space of the preliminary photographed image BG having the RGB primary color components and the main photographed image HG is converted into a luminance component (Y) (hereinafter also referred to as “luminance signal”) and a color difference component (Cr, Cb) by matrix calculation. ) (Also referred to as “color difference signal”).
そして、予備撮影画像と本撮影画像との間で対応する画素同士の輝度信号(輝度値)の差分が行われ、画素ごとに輝度差分値BVが算出される。 Then, a difference in luminance signal (luminance value) between corresponding pixels is performed between the preliminary captured image and the main captured image, and a luminance difference value BV is calculated for each pixel.
なお、差分値BVの算出に際して、予備撮影画像と本撮影画像との間で画素数が異なる場合は、画素数を一致させる調整処理(例えば、画素の間引き処理、画像の縮小処理または補間処理)が差分値の算出前に実行される。 When the difference value BV is calculated, if the number of pixels is different between the pre-photographed image and the main-photographed image, adjustment processing for matching the number of pixels (for example, pixel thinning processing, image reduction processing, or interpolation processing) Is executed before the difference value is calculated.
図11に示されるように、予備撮影画像BGでは、主被写体MHの存在領域(「主被写体領域」とも称する)TRおよび背景領域はともに暗くなる。 As shown in FIG. 11, in the pre-photographed image BG, the region where the main subject MH exists (also referred to as “main subject region”) TR and the background region are both dark.
一方、フラッシュ発光をともなう本撮影画像HGでは、予備撮影画像BGと比較して、フラッシュ光が届かない背景領域(「遠背景領域」とも称する)は同様に暗いが、フラッシュ光が若干届く背景領域(「近背景領域」とも称する)は若干明るくなる。また、主被写体領域TRは明るく、主被写体MHの髪部分の領域(髪領域)HRは若干明るくなる。 On the other hand, in the main photographic image HG with flash emission, the background region where the flash light does not reach (also referred to as “far background region”) is similarly dark compared to the preliminary image BG, but the background region where the flash light reaches slightly. (Also referred to as “near background region”) is slightly brighter. The main subject region TR is bright, and the hair region (hair region) HR of the main subject MH is slightly bright.
このため、予備撮影画像BGと本撮影画像HGとの差分データSG1においては、遠背景領域の差分値は小さく、近背景領域および髪領域HRの差分値は、遠背景領域の差分値より若干大きく、主被写体領域TRの差分値は、近背景領域の差分値より大きくなる。 Therefore, in the difference data SG1 between the preliminary image BG and the main image HG, the difference value of the far background region is small, and the difference value of the near background region and the hair region HR is slightly larger than the difference value of the far background region. The difference value of the main subject region TR is larger than the difference value of the near background region.
ここで、差分データSG1に含まれる各画素を輝度差分値BVの大きさに基づいて分類すると、画素の分布は、例えば、図12のように輝度差分値BVの特定範囲RN1〜RN3ごとに偏ったものとなる。 Here, when each pixel included in the difference data SG1 is classified based on the magnitude of the luminance difference value BV, the pixel distribution is biased for each of the specific ranges RN1 to RN3 of the luminance difference value BV as shown in FIG. It will be.
図12において、特定範囲RN1内の輝度差分値BVを有する画素の群GG1には、主被写体MHから比較的遠い位置に存在する遠背景領域の画素が多く含まれている。なお、遠背景領域は、フラッシュの発光によって輝度が変化しない(上昇しない)領域であることから、「輝度無変領域」(または「輝度非増領域」)AR1とも称される。 In FIG. 12, the group GG1 of pixels having the luminance difference value BV within the specific range RN1 includes many pixels in the far background region that are located relatively far from the main subject MH. Since the far background area is an area where the luminance does not change (does not increase) due to flash emission, it is also referred to as “luminance unchanged area” (or “luminance non-increased area”) AR1.
また、特定範囲RN2内の輝度差分値BVを有する画素の群GG2には、主被写体MHから比較的近い位置に存在する近背景領域の画素、および主被写体MHの髪領域HRの画素が多く含まれている。なお、近背景領域および髪領域HRは、フラッシュ光の照射によって輝度が少し変化する(上昇する)領域であることから、「輝度微変領域」(または「輝度微増領域」)とも称される。 In addition, the group of pixels GG2 having the luminance difference value BV within the specific range RN2 includes many pixels in the near background region that are relatively close to the main subject MH and pixels in the hair region HR of the main subject MH. It is. The near background region and the hair region HR are also referred to as “luminance slightly changing region” (or “luminance slightly increasing region”) because the luminance is slightly changed (increased) by irradiation with flash light.
また、特定範囲RN3内の輝度差分値BVを有する画素の群GG3には、主被写体MHを構成する主被写体領域(例えば、主被写体MHの体幹領域)の画素が多く含まれている。なお、「主被写体領域」は、フラッシュ光の照射によって輝度が変化する(比較的大幅に上昇する)領域であることから、「輝度変化領域」(または「輝度上昇領域」)とも称される。 In addition, the pixel group GG3 having the luminance difference value BV within the specific range RN3 includes many pixels in the main subject region (for example, the trunk region of the main subject MH) that constitutes the main subject MH. Note that the “main subject area” is an area in which the luminance changes (relatively increases significantly) by irradiation with flash light, and is also referred to as a “luminance change area” (or “brightness increase area”).
以下のステップSP53およびステップSP54では、差分データSG1の各画素が、上記3つの領域(詳細には、輝度無変領域AR1、輝度微変領域AR2および輝度変化領域AR3)のいずれの領域に属する画素であるかを判別する領域判別処理が実行される。 In the following step SP53 and step SP54, each pixel of the difference data SG1 belongs to any of the above three regions (specifically, the luminance unchanged region AR1, the luminance slightly changing region AR2, and the luminance changing region AR3). An area determination process is performed to determine whether or not.
具体的には、ステップSP53では、各画素の輝度差分値BVが閾値THと比較され、画素ごとに比較値CVが算出される。各画素の比較値CVは、輝度差分値BVから閾値THを引く、式(1)に示される演算を、画素ごとに実行して取得される。 Specifically, in step SP53, the luminance difference value BV of each pixel is compared with a threshold value TH, and a comparison value CV is calculated for each pixel. The comparison value CV of each pixel is obtained by executing the calculation shown in Expression (1) for each pixel by subtracting the threshold value TH from the luminance difference value BV.
本実施形態では、閾値THとして、2つの閾値(詳細には、第1閾値TH1と、第1閾値TH1よりも大きい第2閾値TH2)が用いられ、当該2つの閾値TH1,TH2それぞれを用いた上記式(1)の演算によって、第1比較値CV1および第2比較値CV2が画素ごとに取得される。 In this embodiment, two threshold values (specifically, a first threshold value TH1 and a second threshold value TH2 larger than the first threshold value TH1) are used as the threshold value TH, and the two threshold values TH1 and TH2 are used. By the calculation of the above formula (1), the first comparison value CV1 and the second comparison value CV2 are acquired for each pixel.
なお、第1閾値TH1としては、図13に示されるように、特定範囲RN1と特定範囲RN2との間における比較的画素数の少ない輝度差分値が採用される。また、第2閾値TH2としては、特定範囲RN2と特定範囲RN3との間における比較的画素数の少ない輝度差分値が採用される。なお、このような第1閾値TH1および第2閾値TH2は、予めROM120Bに記憶され、演算の際にROM120Bから読み出される。
As the first threshold TH1, a luminance difference value having a relatively small number of pixels between the specific range RN1 and the specific range RN2 is adopted as shown in FIG. As the second threshold TH2, a luminance difference value having a relatively small number of pixels between the specific range RN2 and the specific range RN3 is employed. Note that the first threshold value TH1 and the second threshold value TH2 are stored in the
ステップSP54では、各画素が、輝度無変領域AR1、輝度微変領域AR2および輝度変化領域AR3のうち、いずれの領域に属するかの領域判定(所属領域判定)が比較値CV1,CV2を用いて行われる。 In step SP54, the region determination (affiliation region determination) to which each pixel belongs among the luminance unchanged region AR1, the luminance slightly changing region AR2, and the luminance changing region AR3 is performed using the comparison values CV1 and CV2. Done.
具体的には、或る画素の第1比較値CV1が「0」より小さい場合(第1比較値CV1<0)は、当該画素は、輝度無変領域AR1に含まれる画素と判定される(みなされる)。 Specifically, when the first comparison value CV1 of a certain pixel is smaller than “0” (first comparison value CV1 <0), the pixel is determined to be a pixel included in the luminance unchanged region AR1 ( It is regarded).
また、或る画素の第1比較値CV1が「0」以上であり、かつ第2比較値CV2が「0」より小さい場合(第1比較値CV1≧0かつ第2比較値CV2<0)は、当該画素は、輝度微変領域AR2に含まれる画素と判定される。 Further, when the first comparison value CV1 of a certain pixel is equal to or larger than “0” and the second comparison value CV2 is smaller than “0” (first comparison value CV1 ≧ 0 and second comparison value CV2 <0). The pixel is determined as a pixel included in the brightness slight change area AR2.
また、或る画素の第2比較値CV2が「0」以上であった場合(第2比較値CV2≧0)は、当該画素は、輝度変化領域AR3に含まれる画素と判定される。 When the second comparison value CV2 of a certain pixel is “0” or more (second comparison value CV2 ≧ 0), the pixel is determined to be a pixel included in the luminance change area AR3.
さらに、ステップSP54では、ステップSP51の顔検出結果を用いた領域判定の修正が行われる。 Further, in step SP54, the region determination is corrected using the face detection result in step SP51.
具体的には、図14に示されるように、ステップSP51で顔領域が検出された場合、検出された顔領域を内包する顔内包領域SRが規定され、当該顔内包領域SRに含まれる各画素について所属領域の変更が行われる。より詳細には、顔内包領域SRに含まれる画素が輝度微変領域AR2の画素であったときは、当該画素は髪領域HRの画素とされる。また、顔内包領域SRに含まれる画素が、輝度変化領域AR3の画素であったときは、当該画素は、主被写体MHの顔面領域GRの画素とされる。なお、顔内包領域SRに含まれる画素が、輝度無変領域AR1の画素であったときは、領域判定の修正は行われず、当該画素は、輝度無変領域AR1の画素のままとされる。 Specifically, as shown in FIG. 14, when a face area is detected in step SP51, a face inclusion area SR that includes the detected face area is defined, and each pixel included in the face inclusion area SR is defined. The affiliation area is changed for. More specifically, when a pixel included in the face inclusion region SR is a pixel in the brightness slight change region AR2, the pixel is a pixel in the hair region HR. Further, when the pixel included in the face inclusion region SR is a pixel in the luminance change region AR3, the pixel is a pixel in the face region GR of the main subject MH. When a pixel included in the face inclusion region SR is a pixel in the luminance unchanged region AR1, the region determination is not corrected, and the pixel is left as a pixel in the luminance unchanged region AR1.
このように、領域分割処理(ステップSP15)では、撮影領域から顔領域が検出されるとともに、予備撮影画像BGと本撮影画像HGとの差分データSG1が取得される。そして、顔検出結果と差分データSG1とに基づいて、差分データSG1における各画素の所属領域が判別され、撮影領域が分割される。 As described above, in the area division process (step SP15), the face area is detected from the shooting area, and the difference data SG1 between the preliminary shooting image BG and the main shooting image HG is acquired. Then, based on the face detection result and the difference data SG1, the affiliation region of each pixel in the difference data SG1 is determined, and the imaging region is divided.
特に、顔内包領域SRに含まれる画素が輝度微変領域AR2の画素であったときは、当該画素を髪領域HRの画素と判断することによれば、主被写体MHの髪領域HRを精度良く特定することができるので、髪領域HRと近背景領域とを区別することが可能になる。すなわち、髪領域HRの画素と判断された画素に対しては、近背景領域に含まれる画素とは異なる輝度補正処理が行われることになる。 In particular, when a pixel included in the face inclusion region SR is a pixel in the brightness slightly changing region AR2, by determining that the pixel is a pixel in the hair region HR, the hair region HR of the main subject MH is accurately determined. Since it can be specified, the hair region HR and the near background region can be distinguished. That is, a luminance correction process different from the pixels included in the near background region is performed on the pixels determined to be the pixels of the hair region HR.
なお、領域分割処理では、差分データSG1の各画素の所属領域を判別していたが、予備撮影画像BGまたは本撮影画像HGの各画素についての所属領域を判別してもよい。 In the area dividing process, the belonging area of each pixel of the difference data SG1 is determined. However, the belonging area of each pixel of the preliminary photographed image BG or the main photographed image HG may be determined.
領域分割処理によって差分データSG1の各画素の所属領域が決定され、領域分割されると、次のステップSP16(既述)において、各領域に応じて補正係数が決定され、ステップSP17において補正係数に応じた画像処理が本撮影画像の画素ごとに実行される。 When the region to which each pixel of the difference data SG1 belongs is determined by the region dividing process and the region is divided, a correction coefficient is determined according to each region in the next step SP16 (described above), and the correction coefficient is set in step SP17. The corresponding image processing is executed for each pixel of the actual captured image.
本実施形態では、上述のように、撮影領域が、輝度無変領域AR1、輝度微変領域AR2、輝度変化領域AR3、主被写体MHの髪領域HRおよび主被写体MHの顔面領域GRのうちのいずれかの分割領域に細分化されることになる。 In the present embodiment, as described above, the imaging region is any one of the luminance unchanged region AR1, the luminance slightly changing region AR2, the luminance changing region AR3, the hair region HR of the main subject MH, and the face region GR of the main subject MH. It will be subdivided into such divided areas.
補正係数は、例えば、輝度無変領域AR1を「1.0」、輝度微変領域AR2を「1.7」、輝度変化領域AR3を「1.0」、主被写体MHの髪領域HRを「1.2」、そして主被写体MHの顔面領域GRを「1.0」と設定してもよい。 The correction coefficients are, for example, “1.0” for the luminance unchanged region AR1, “1.7” for the luminance slightly changing region AR2, “1.0” for the luminance changing region AR3, and “1” for the hair region HR of the main subject MH. 1.2 ”, and the face area GR of the main subject MH may be set to“ 1.0 ”.
輝度無変領域AR1の補正係数を「1.0」とし、輝度を上げる補正(輝度上昇補正)を抑制することによれば、遠背景領域に含まれるノイズ成分が輝度上昇補正によって目立ちやすくなることを防ぐことができる。 By setting the correction coefficient of the luminance invariant area AR1 to “1.0” and suppressing the correction to increase the brightness (brightness increase correction), the noise component included in the far background region becomes easily noticeable by the brightness increase correction. Can be prevented.
また、輝度微変領域AR2の補正係数を「1.7」に設定することによれば、フラッシュ光が若干届く近背景領域を明るくすることができるので、スローシンクロの効果を発揮した本撮影画像HGを取得することができる。 In addition, by setting the correction coefficient of the brightness slight change area AR2 to “1.7”, the near background area where the flash light reaches a little can be brightened, so that the actual captured image exhibiting the effect of slow sync HG can be acquired.
また、輝度変化領域AR3の補正係数を「1.0」とし、輝度上昇補正を抑制することによれば、フラッシュ光の照射によって既に輝度が上昇している領域を過度に明るくしすぎることを防ぐことができる。 Further, by setting the correction coefficient of the luminance change area AR3 to “1.0” and suppressing the luminance increase correction, it is possible to prevent the area where the luminance has already increased due to the flash light irradiation from being excessively brightened. be able to.
また、主被写体MHの髪領域HRの補正係数を「1.2」に設定することによれば、髪領域HRを過度に明るくすることなく、適度な明るさに補正することができる。 Further, by setting the correction coefficient for the hair region HR of the main subject MH to “1.2”, the hair region HR can be corrected to an appropriate brightness without excessively brightening the hair region HR.
以上のように、撮像装置1Aでは、予備撮影画像BGと本撮影画像HGとに基づいて対応する画素間の輝度差分値BVが取得されるとともに、撮影領域における顔領域が検出される。そして、顔領域の検出結果を用いて、撮影領域に含まれる各画素に対して、差分値に応じた画像処理が施される。これによれば、輝度差分値BVを用いて主被写体を特定するだけでなく、輝度差分値BVとは別の顔領域の検出結果を用いて、主被写体領域を特定することができるので、主被写体領域を精度良く特定することが可能になる。
As described above, in the
<2.第2実施形態>
次に、本発明の第2実施形態について説明する。
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described.
第1実施形態に係る撮像装置1Aは、予備撮影画像BGと本撮影画像HGとに基づいて差分データSG1を取得していたが、第2実施形態に係る撮像装置1Bは、予備撮影画像BGとプレ撮影画像EGとに基づいて差分データSG2を取得する。図15は、階調圧縮モードが選択されている撮像装置1Bの撮影動作のフローチャートである。図16は、撮像装置1Bにおいて取得される差分データSG2に関する輝度差分値のヒストグラムを示す図である。
The
なお、第2実施形態に係る撮像装置1Bは、本撮影前にプレ撮影を行う点以外は、第1実施形態に係る撮像装置1Aとほぼ同様の構成および機能(図1〜図6参照)を有しており、共通する部分については同じ符号を付して説明を省略する。
The
図15に示されるように、撮像装置1Bでは、ステップSP21において、上記ステップSP11と同様に、副撮像素子7を用いた予備撮影が行われ、予備撮影画像BGが取得される。
As shown in FIG. 15, in the
ステップSP22では、ステップSP12と同様に、レリーズボタン11の押し込み状態に基づいて撮影開始判定が行われる。具体的には、レリーズボタン11の全押し状態(S2状態)が検出されると、ステップSP23に移行する。レリーズボタン11の全押し状態が検出されなければステップSP21に移行して、全押し状態が検出されるまでステップSP21およびステップSP22の処理が繰り返し実行される。
In step SP22, as in step SP12, the photographing start determination is performed based on the pressing state of the
ステップSP23では、後に実行される本撮影においてフラッシュが使用されるか否かが判断される。フラッシュが使用されない場合は、ステップSP24に移行し、本撮影動作が実行され、本撮影終了後、撮影動作が終了される。一方、フラッシュが使用される場合は、ステップSP25に移行する。 In step SP23, it is determined whether or not the flash is used in the main photographing to be executed later. When the flash is not used, the process proceeds to step SP24, where the main photographing operation is executed, and after the main photographing is finished, the photographing operation is finished. On the other hand, when the flash is used, the process proceeds to step SP25.
ステップSP25では、フラッシュ発光を伴ったプレ撮影動作が実行される。具体的には、ミラーアップ状態において、主撮像素子5による露光が行われるとともに、当該露光時に、フラッシュが発光される。プレ撮影時のフラッシュの発光量(「プレ発光量」とも称する)は、本撮影時のフラッシュの発光量(「本発光量」とも称する)よりも多く設定される。
In step SP25, a pre-photographing operation with flash emission is executed. Specifically, in the mirror-up state, exposure by the
このように、プレ撮影では、適正露出となるように設定される本撮影時の本発光量よりも多い発光量下で露光が行われ、プレ撮影画像EGが取得される。 As described above, in the pre-photographing, exposure is performed under a light emission amount larger than the main light emission amount at the time of main photographing which is set so as to obtain proper exposure, and the pre-photographed image EG is acquired.
ステップSP26では、フラッシュ発光を伴う本撮影動作が実行され、本撮影画像HGが取得される。 In step SP26, a main shooting operation with flash emission is executed, and a main shooting image HG is acquired.
ステップSP27では、図7のステップSP15(詳細には、図10の各工程)とほぼ同様の領域分割処理が実行される。 In step SP27, an area division process substantially similar to that in step SP15 in FIG. 7 (specifically, each step in FIG. 10) is executed.
具体的には、ステップSP27では、撮影領域における顔領域が検出されるとともに(ステップSP51)、予備撮影画像BGとプレ撮影画像EGとの差分データSG2が取得される(ステップSP52)。そして、顔検出結果と差分データSG2とに基づいて、差分データSG2における各画素の所属領域が判別される(ステップSP53およびステップSP54)。 Specifically, in step SP27, a face area in the shooting area is detected (step SP51), and difference data SG2 between the preliminary shooting image BG and the pre-shooting image EG is acquired (step SP52). Based on the face detection result and the difference data SG2, the affiliation area of each pixel in the difference data SG2 is determined (step SP53 and step SP54).
このように、撮像装置1Bでは、予備撮影画像BGとプレ撮影画像EGとの対応する画素間で輝度値の差分が行われ、差分データSG2、すなわち各画素の輝度差分値BVが取得される。
As described above, in the
プレ撮影の際のプレ発光量は、本撮影の際の本発光量よりも多いことから、プレ撮影画像EGは、本撮影画像HGよりも明るくなる。このため、プレ撮影画像EGに基づいて取得される差分データSG2の各画素の輝度差分値BVは、本撮影画像HGに基づいて取得される差分データSG1の各画素の輝度差分値よりも大きくなる。このように、輝度差分値が大きくなると、図16に示されるように、輝度差分値に応じた画素の分布の偏りが顕著になるので、閾値THを用いた領域の分割精度が向上する。 Since the pre-emission amount at the time of the pre-photographing is larger than the main emission amount at the time of the main photo-taking, the pre-photographed image EG becomes brighter than the main photo-taking image HG. For this reason, the luminance difference value BV of each pixel of the difference data SG2 acquired based on the pre-captured image EG is larger than the luminance difference value of each pixel of the difference data SG1 acquired based on the main captured image HG. . As described above, when the luminance difference value is increased, as shown in FIG. 16, the distribution of pixels according to the luminance difference value becomes noticeable, so that the division accuracy of the region using the threshold value TH is improved.
図15に戻って、ステップSP28では、ステップSP16と同様に、分割された領域(「分割領域」とも称する)ごとに、各領域に応じた補正係数が設定される。 Returning to FIG. 15, in step SP <b> 28, as in step SP <b> 16, a correction coefficient corresponding to each area is set for each divided area (also referred to as “divided area”).
ステップSP29では、ステップSP17と同様に、設定された補正係数に応じて、分割領域ごとに本撮影画像HGの補正処理が行われる。 In step SP29, as in step SP17, the correction processing of the actual captured image HG is performed for each divided region in accordance with the set correction coefficient.
以上のように、第2実施形態に係る撮像装置1Bでは、本撮影の際のフラッシュ発光量よりも多い発光量の下で撮影したプレ撮影画像EGを用いて差分データSG2が取得される。これによれば、差分データSG2における各画素の輝度差分値BVが大きくなり、領域の分割精度が向上する。
As described above, in the
<3.変形例>
以上、この発明の実施の形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.
例えば、上記第1実施形態では、画素の所属判別に用いる閾値THは、予めROM120Bに記憶された値を用いていたが、これに限定されない。
For example, in the first embodiment, the threshold value TH used for pixel belonging determination is a value stored in the
具体的には、フラッシュの発光量に応じて、輝度差分値BVが変化することから、ROM120Bに記憶された閾値THの基準値に基づいて、フラッシュの発光量に適応した閾値TH11,TH12を算出するようにしてもよい。
Specifically, since the luminance difference value BV changes according to the flash emission amount, the thresholds TH11 and TH12 adapted to the flash emission amount are calculated based on the reference value of the threshold TH stored in the
このように、フラッシュの発光量に応じて閾値TH11,TH12を算出することによれば、輝度差分値BVの変化に適応した閾値TH11,TH12を用いて領域分割を行うことができるので、領域分割の精度が向上する。 As described above, by calculating the thresholds TH11 and TH12 according to the light emission amount of the flash, the region division can be performed using the thresholds TH11 and TH12 adapted to the change in the luminance difference value BV. Improves accuracy.
また、上記各実施形態では、2つの閾値TH1,TH2を用いて、本撮影画像HG(または予備撮影画像BG)を3つの領域に区分していたが、これに限定されない。図17は、差分データSG1に関する輝度差分値のヒストグラムと閾値THとの関係を示す図である。 In each of the above embodiments, the main captured image HG (or the preliminary captured image BG) is divided into three regions using the two thresholds TH1 and TH2. However, the present invention is not limited to this. FIG. 17 is a diagram illustrating a relationship between a histogram of luminance difference values relating to the difference data SG1 and the threshold value TH.
具体的には、図17に示されるように、3つの閾値TH1,TH2,TH3を用いて、本撮影画像HGを4つの領域に区分してもよい。このように、閾値THの数を増やすことによれば、領域を細分化することができるので、本撮影画像HGに対してより細かな輝度補正処理を実行することができる。 Specifically, as shown in FIG. 17, the actual captured image HG may be divided into four regions using three threshold values TH1, TH2, and TH3. As described above, by increasing the number of threshold values TH, the region can be subdivided, so that finer luminance correction processing can be executed on the actual captured image HG.
また、上記各実施形態では、分割領域単位で輝度補正が行われていたが、これに限定されない。 In each of the above embodiments, the luminance correction is performed in units of divided areas, but the present invention is not limited to this.
具体的には、或る分割領域と他の分割領域との間(分割領域同士の境目)では、補正係数を連続的に変化させてもよい。これによれば、分割領域間の境界での輝度補正量の急変によるトーンジャンプの発生を防止することができる。 Specifically, the correction coefficient may be continuously changed between a certain divided area and another divided area (between divided areas). According to this, it is possible to prevent occurrence of a tone jump due to a sudden change in the luminance correction amount at the boundary between the divided regions.
また、上記各実施形態では、副撮像素子7によって取得される予備撮影画像BGを用いて差分データSG1,SG2を算出していたが、これに限定されない。
Further, in each of the above embodiments, the difference data SG1 and SG2 are calculated using the preliminary captured image BG acquired by the
具体的には、測光素子66によって取得される複数の測光領域における被写体輝度を用いて差分データを算出してもよい。このように、測光素子66から取得される被写体輝度と、本撮影画像HG(またはプレ撮影画像EG)とから差分データを取得することによれば、OVFモードで撮影された本撮影画像HGに対しても、輝度補正処理を施すことが可能になる。
Specifically, the difference data may be calculated using subject brightness in a plurality of photometry areas acquired by the
また、主撮像素子5でライブビュー表示用の撮影画像が取得される場合は、主撮像素子5によって取得される撮影画像を用いて差分データを算出してもよい。
In addition, when a captured image for live view display is acquired by the
また、上記各実施形態では、階調圧縮処理が撮像装置1A,1B内で実行される場合について例示したが、これに限定されない。
Further, in each of the above embodiments, the case where the gradation compression process is executed in the
具体的には、本撮影画像HG(またはプレ撮影画像EG)および予備撮影画像BGが入力される画像処理装置において階調圧縮処理を実行してもよい。 Specifically, the gradation compression process may be executed in an image processing apparatus to which the actual captured image HG (or the pre-captured image EG) and the preliminary captured image BG are input.
1A,1B 撮像装置
91 フラッシュ発光部
122 被写体検出部
123 画像比較部
124 領域判定部
125 補正係数決定部
AR1 輝度無変領域
AR2 輝度微変領域
AR3 輝度変化領域
BR 背景領域
HR 髪領域
HG,HG1 本撮影画像
BG 予備撮影画像
EG プレ撮影画像
BV 輝度差分値(差分値)
CV,CV1,CV2 比較値
SG1,SG2 差分データ
SR 顔内包領域
TH,TH1,TH2,TH3,TH11,TH12 閾値
TR 主被写体領域
1A,
CV, CV1, CV2 Comparison value SG1, SG2 Difference data SR Facial inclusion area TH, TH1, TH2, TH3, TH11, TH12 Threshold value TR Main subject area
Claims (8)
前記第1の撮影画像と前記第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、
前記撮影手段による撮影領域から、主被写体の顔領域を検出する検出手段と、
前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段と、
を備える撮像装置。 Photographing means for photographing a first photographed image with flash emission and a second photographed image without flash emission;
Difference means for obtaining a difference value between corresponding pixels in the first photographed image and the second photographed image;
Detecting means for detecting a face area of a main subject from a photographing area by the photographing means;
Image processing means for performing image processing according to the difference value for each pixel included in the imaging region using a face detection result by the detection means;
An imaging apparatus comprising:
前記撮影領域に含まれる画素が、前記顔領域を内包する所定領域に含まれる場合は、当該画素に対して、他の画素とは異なる画像処理を施す請求項1に記載の撮像装置。 The image processing means includes
The imaging device according to claim 1, wherein when a pixel included in the imaging region is included in a predetermined region including the face region, image processing different from that of other pixels is performed on the pixel.
前記撮影領域を前記差分値および前記顔検出結果に応じて複数の領域に分割する分割手段と、
前記複数の領域ごとに、補正係数を設定する設定手段と、
前記補正係数に応じて、前記複数の領域ごとに輝度の補正を行う輝度補正手段と、
を備える請求項2に記載の撮像装置。 The image processing means includes
A dividing unit that divides the imaging region into a plurality of regions according to the difference value and the face detection result;
Setting means for setting a correction coefficient for each of the plurality of regions;
Brightness correction means for correcting the brightness for each of the plurality of regions according to the correction coefficient;
An imaging apparatus according to claim 2.
前記各画素の前記差分値と所定の閾値とを比較することによって、前記撮影領域を分割する請求項3に記載の撮像装置。 The dividing means includes
The imaging apparatus according to claim 3, wherein the imaging region is divided by comparing the difference value of each pixel with a predetermined threshold value.
前記第1の撮影画像を撮影する際の前記フラッシュの発光量は、前記本撮影の際のフラッシュの発光量よりも多い請求項1に記載の撮像装置。 The photographing means performs actual photographing,
The imaging apparatus according to claim 1, wherein a flash emission amount when shooting the first captured image is larger than a flash emission amount when performing the main shooting.
前記第1の撮影画像または前記第2の撮影画像における撮影領域から、主被写体の顔領域を検出する検出手段と、
前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段と、
を備える画像処理装置。 Difference means for obtaining a difference value between corresponding pixels in the first photographed image with flash emission and the second photographed image without flash emission;
Detecting means for detecting a face area of a main subject from a shooting area in the first shot image or the second shot image;
Image processing means for performing image processing according to the difference value for each pixel included in the imaging region using a face detection result by the detection means;
An image processing apparatus comprising:
a)フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とを撮影する工程と、
b)前記第1の撮影画像と前記第2の撮影画像とにおいて、対応する画素間の差分値を取得する工程と、
c)前記第1の撮影画像または前記第2の撮影画像における撮影領域から、主被写体の顔領域を検出する工程と、
d)前記c)工程による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す工程と、
を実行させるプログラム。 In the computer built into the imaging device,
a) photographing a first photographed image with flash emission and a second photographed image without flash emission;
b) obtaining a difference value between corresponding pixels in the first captured image and the second captured image;
c) detecting a face area of the main subject from a shooting area in the first shot image or the second shot image;
d) performing image processing according to the difference value on each pixel included in the imaging region using the face detection result obtained in step c);
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008153027A JP2009302747A (en) | 2008-06-11 | 2008-06-11 | Imaging device, image processing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008153027A JP2009302747A (en) | 2008-06-11 | 2008-06-11 | Imaging device, image processing device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009302747A true JP2009302747A (en) | 2009-12-24 |
Family
ID=41549215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008153027A Pending JP2009302747A (en) | 2008-06-11 | 2008-06-11 | Imaging device, image processing device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009302747A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102189954A (en) * | 2010-03-02 | 2011-09-21 | 奥托立夫开发公司 | A driver assistance system and method for a motor vehicle |
CN115546837A (en) * | 2022-10-16 | 2022-12-30 | 三峡大学 | Integrated management system for transformer substation access |
-
2008
- 2008-06-11 JP JP2008153027A patent/JP2009302747A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102189954A (en) * | 2010-03-02 | 2011-09-21 | 奥托立夫开发公司 | A driver assistance system and method for a motor vehicle |
CN115546837A (en) * | 2022-10-16 | 2022-12-30 | 三峡大学 | Integrated management system for transformer substation access |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5233720B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP4332566B2 (en) | Imaging device | |
JP5247076B2 (en) | Image tracking device, focus adjustment device, and imaging device | |
JP5163257B2 (en) | Imaging device | |
US8345147B2 (en) | Image pickup apparatus | |
JP5277873B2 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
US20110194018A1 (en) | Image capturing apparatus and control method therefor | |
JP2009294416A (en) | Imaging apparatus and its control method | |
JP2010072619A (en) | Exposure operation device and camera | |
JP5264326B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2010016613A (en) | Imaging apparatus | |
JP2009302747A (en) | Imaging device, image processing device, and program | |
JP5333888B2 (en) | Imaging apparatus and program thereof | |
JP2009219085A (en) | Imaging apparatus | |
JP5062095B2 (en) | Imaging device | |
JP2006311126A (en) | Imaging apparatus | |
JP2010268108A (en) | Imaging device and display control method | |
JP5078779B2 (en) | Imaging device | |
JP5245644B2 (en) | Exposure calculator | |
JP5053942B2 (en) | Imaging device | |
JP5167919B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2010021621A (en) | Image capturing apparatus, and control method and program thereof | |
JP2007057933A (en) | Camera having electronic view finder | |
JP2007036951A (en) | Camera having electronic viewfinder | |
JP2010016609A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100215 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100304 |