JP2009302747A - Imaging device, image processing device, and program - Google Patents

Imaging device, image processing device, and program Download PDF

Info

Publication number
JP2009302747A
JP2009302747A JP2008153027A JP2008153027A JP2009302747A JP 2009302747 A JP2009302747 A JP 2009302747A JP 2008153027 A JP2008153027 A JP 2008153027A JP 2008153027 A JP2008153027 A JP 2008153027A JP 2009302747 A JP2009302747 A JP 2009302747A
Authority
JP
Japan
Prior art keywords
image
region
main
area
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008153027A
Other languages
Japanese (ja)
Inventor
Daisuke Sato
大輔 佐藤
Atsushi Mizuguchi
淳 水口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008153027A priority Critical patent/JP2009302747A/en
Publication of JP2009302747A publication Critical patent/JP2009302747A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology which enables a main subject range to be specified with sufficient accuracy. <P>SOLUTION: An imaging device 1A has an imaging means for photographing images of a main photographing image accompanied by the light emitting of a flash and a standby photographing image without the light emitting of the flash, an image comparing portion 123 for obtaining a difference value between corresponding pixels in the main photographing image and the standby photographing image, a subject detecting portion 122 for detecting a face range of a main subject from an imaging range by the imaging means, and an image processing means for performing image processing according to the difference value to each pixel included in the imaging range by using a face detection result by the subject detecting portion 122. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影画像の画像処理技術に関する。   The present invention relates to an image processing technique for captured images.

一般に、暗所でフラッシュ撮影を行うと、フラッシュ光の届く主被写体のみが明るく、フラッシュ光の届かない背景領域が暗い撮影画像が取得されることになる。そこで、シャッタースピードを低速にしたスローシンクロ撮影を行えば、暗所においても背景領域の明るさを適正にした撮影画像を取得することが可能になる。   In general, when flash photography is performed in a dark place, a photographed image is acquired in which only the main subject to which the flash light reaches is bright and the background area to which the flash light does not reach is dark. Therefore, if slow sync photography with a low shutter speed is performed, it is possible to obtain a photographed image in which the brightness of the background area is appropriate even in a dark place.

しかし、スローシンクロ撮影では、シャッタースピードが遅く設定されるので、手ブレの発生する可能性が高くなる。   However, in slow sync photography, the shutter speed is set slower, so the possibility of camera shake increases.

ところで、撮影画像への画像処理手法として、撮影画像において、フラッシュ光の照射によって輝度が上昇する部分を主被写体部分(主被写体領域)として特定し、主被写体領域およびそれ以外の背景部分(背景領域)に対して、それぞれ異なる画像処理を行う技術が提案されている(例えば、特許文献1)。   By the way, as an image processing method for a photographed image, a portion of the photographed image whose luminance increases due to flash light irradiation is identified as a main subject portion (main subject region), and the main subject region and other background portions (background regions) are identified. ) Have been proposed (for example, Patent Document 1).

特開2001−92955号公報JP 2001-92955 A

特許文献1のように、主被写体領域と背景領域とを区分することができれば、背景領域に対して明るさを適正にする画像処理を施すことによって、スローシンクロ撮影と同様の効果が得られるとともに、手ブレの影響を低減させることが可能になる。   If the main subject area and the background area can be distinguished as in Patent Document 1, an effect similar to that of slow sync photography can be obtained by performing image processing for making the brightness appropriate for the background area. It becomes possible to reduce the influence of camera shake.

しかしながら、上記特許文献1に記載の技術では、フラッシュ光の照射による輝度の変化量を用いて主被写体領域と背景領域とが区別されるので、例えば、主被写体における髪部分(髪領域)が背景領域と判断される可能性がある。このように、主被写体領域の特定が精度良く行われず、主被写体領域の一部が背景領域と誤判断されると、背景領域の明るさを適正にする上記画像処理によって、主被写体領域に不適切な画像処理を施すことになる。   However, in the technique described in Patent Document 1, since the main subject region and the background region are distinguished using the amount of change in luminance due to the flash light irradiation, for example, the hair portion (hair region) in the main subject is the background. There is a possibility that it is judged as an area. As described above, if the main subject area is not accurately identified and a part of the main subject area is erroneously determined to be the background area, the image processing for adjusting the brightness of the background area is not effective for the main subject area. Appropriate image processing will be performed.

そこで、本発明は、主被写体領域を精度良く特定することが可能な技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique capable of specifying a main subject area with high accuracy.

本発明の第1の側面は、撮像装置であって、フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とを撮影する撮影手段と、前記第1の撮影画像と前記第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、前記撮影手段による撮影領域から、主被写体の顔領域を検出する検出手段と、前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段とを備える。   According to a first aspect of the present invention, there is provided an imaging apparatus, the first imaging image with flash emission and the second imaging image without flash emission, and the first imaging device. A difference means for obtaining a difference value between corresponding pixels in the photographed image and the second photographed image, a detection means for detecting a face area of the main subject from the photographing area by the photographing means, and the detection means Image processing means for performing image processing according to the difference value on each pixel included in the imaging region using a face detection result.

また、本発明の第2の側面は、画像処理装置であって、フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、前記第1の撮影画像または前記第2の撮影画像から、主被写体の顔領域を検出する検出手段と、前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段とを備える。   The second aspect of the present invention is an image processing apparatus, and the difference between corresponding pixels in a first photographed image with flash emission and a second photographed image without flash emission. A difference means for acquiring a value, a detection means for detecting a face area of a main subject from the first photographed image or the second photographed image, and a face detection result by the detection means, Image processing means for performing image processing according to the difference value for each pixel included.

本発明によれば、主被写体領域の特定を精度良く行うことが可能になる。   According to the present invention, it is possible to specify the main subject area with high accuracy.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<1.第1実施形態>
<構成>
図1および図2は、本発明の第1実施形態に係る撮像装置1Aの外観構成を示す図である。ここで、図1は、撮像装置1Aの正面外観図であり、図2は、撮像装置1Aの背面外観図である。この撮像装置1Aは、レンズ交換式一眼レフレックスタイプのデジタルカメラとして構成されている。
<1. First Embodiment>
<Configuration>
1 and 2 are diagrams showing an external configuration of an imaging apparatus 1A according to the first embodiment of the present invention. Here, FIG. 1 is a front external view of the image pickup apparatus 1A, and FIG. 2 is a rear external view of the image pickup apparatus 1A. This imaging device 1A is configured as a lens interchangeable single-lens reflex digital camera.

図1に示すように、撮像装置1Aは、撮像装置本体(カメラ本体部)2を備えている。このカメラ本体部2に対して、交換式の撮影レンズユニット(単に、「撮影レンズ」または「交換レンズ」とも称する)3が着脱可能である。   As shown in FIG. 1, the imaging device 1 </ b> A includes an imaging device main body (camera main body) 2. An interchangeable photographic lens unit (also simply referred to as “photographing lens” or “interchangeable lens”) 3 can be attached to and detached from the camera body 2.

撮影レンズ3は、主として、鏡胴101、ならびに、鏡胴101の内部に設けられるレンズ群37(図3参照)および絞り(不図示)等によって構成される。レンズ群37には、光軸方向に移動することによって焦点位置を変更するフォーカスレンズ等が含まれている。   The photographic lens 3 is mainly composed of a lens barrel 101, a lens group 37 (see FIG. 3) and an aperture (not shown) provided inside the lens barrel 101, and the like. The lens group 37 includes a focus lens that changes the focal position by moving in the optical axis direction.

カメラ本体部2は、撮影レンズ3が装着される円環状のマウント部Mtを正面略中央に備え、撮影レンズ3を着脱するための着脱ボタン89を円環状のマウント部Mt付近に備えている。   The camera body 2 is provided with an annular mount Mt to which the photographing lens 3 is attached at the front center, and an attachment / detachment button 89 for attaching / detaching the photographing lens 3 is provided near the annular mount Mt.

また、カメラ本体部2は、その正面左上部にモード設定ダイアル82を備え、その正面右上部に制御値設定ダイアル86を備えている。モード設定ダイアル82を操作することによって、カメラの各種モード(各種撮影モード(人物撮影モード、風景撮影モード、および連続撮影モード等)、撮影した画像を再生する再生モード、および外部機器との間でデータ交信を行う通信モード等を含む)の設定動作(切替動作)を行うことが可能である。また、制御値設定ダイアル86を操作することによれば、各種撮影モードにおける制御値を設定することが可能である。   Further, the camera body 2 is provided with a mode setting dial 82 in the upper left part of the front surface and a control value setting dial 86 in the upper right part of the front surface. By operating the mode setting dial 82, various camera modes (such as various shooting modes (such as portrait shooting mode, landscape shooting mode, and continuous shooting mode), a playback mode for playing back captured images, and external devices can be used. It is possible to perform a setting operation (switching operation) including a communication mode for performing data communication. Further, by operating the control value setting dial 86, it is possible to set control values in various shooting modes.

また、カメラ本体部2は、正面左端部にユーザが把持するためのグリップ部14を備えている。グリップ部14の上面には露光開始を指示するためのレリーズボタン(シャッターボタン)11が設けられている。グリップ部14の内部には電池収納室とカード収納室とが設けられている。電池収納室にはカメラの電源として、例えば4本の単3形乾電池が収納されており、カード収納室には撮影画像の画像データを記録するための記録媒体(ここでは、メモリカード90(図5参照))が着脱可能に収納されるようになっている。   Further, the camera body 2 includes a grip portion 14 for the user to hold at the left front end portion. A release button (shutter button) 11 for instructing the start of exposure is provided on the upper surface of the grip portion 14. A battery storage chamber and a card storage chamber are provided inside the grip portion 14. For example, four AA batteries are housed in the battery compartment as a power source for the camera, and the card compartment contains a recording medium (here, a memory card 90 (FIG. 5)) is detachably stored.

レリーズボタン11は、半押し状態(S1状態)と全押し状態(S2状態)の2つの状態を検出可能な2段階検出ボタンである。レリーズボタン11が半押しされS1状態になると、被写体に関する記録用静止画像(本撮影画像)を取得するための準備動作(例えば、AF制御動作およびAE制御動作等)が行われる。また、レリーズボタン11がさらに押し込まれてS2状態になると、当該本撮影画像の撮影動作(撮像素子(「主撮像素子」とも称する)5(後述)を用いて被写体像に関する露光動作を行い、その露光動作によって得られた画像信号に所定の画像処理を施す一連の本撮影動作)が行われる。   The release button 11 is a two-stage detection button that can detect two states, a half-pressed state (S1 state) and a fully-pressed state (S2 state). When the release button 11 is half-pressed to enter the S1 state, a preparation operation (for example, an AF control operation and an AE control operation) for acquiring a recording still image (main captured image) related to the subject is performed. When the release button 11 is further pushed into the S2 state, an exposure operation relating to the subject image is performed using the photographing operation (imaging device (also referred to as “main imaging device”)) 5 (described later) of the actual photographed image. A series of main photographing operations for performing predetermined image processing on the image signal obtained by the exposure operation is performed.

図2において、カメラ本体部2の背面の略中央には、表示部としてモニタ12が設けられている。モニタ12は、例えばカラー液晶ディスプレイ(LCD)として構成される。モニタ12は、撮影条件等を設定するためのメニュー画面を表示したり、再生モードにおいてメモリカード90に記録された撮影画像を再生表示したりすることができる。   In FIG. 2, a monitor 12 is provided as a display unit approximately at the center of the back surface of the camera body 2. The monitor 12 is configured as a color liquid crystal display (LCD), for example. The monitor 12 can display a menu screen for setting shooting conditions and the like, and can reproduce and display a captured image recorded in the memory card 90 in the reproduction mode.

カメラ本体部2の背面略中央上部には、ファインダ窓10が設けられている。ファインダ窓10には、撮影レンズ3からの被写体像が導かれ、ユーザは、ファインダ窓10を覗くことによって、主撮像素子5によって取得される被写体像と等価な像を視認することができる。具体的には、撮影光学系に入射された被写体像は、ミラー機構6(図3参照)で上方に反射され、接眼レンズ67を介して視認される。このように、ユーザは、ファインダ窓10を覗くことによって構図決めを行うことが可能である。なお、レリーズボタン11のS2状態の検出によって本撮影動作が開始されると、ミラー機構6は被写体像を形成する光(被写体光)の光路から待避し、撮影レンズ3からの光(被写体像を形成する光)が主撮像素子5に到達し、被写体に係る撮影画像(画像データ)が得られる。   A finder window 10 is provided at the upper center of the back surface of the camera body 2. The subject image from the photographic lens 3 is guided to the finder window 10, and the user can visually recognize an image equivalent to the subject image acquired by the main image sensor 5 by looking into the finder window 10. Specifically, the subject image incident on the photographing optical system is reflected upward by the mirror mechanism 6 (see FIG. 3) and viewed through the eyepiece lens 67. Thus, the user can determine the composition by looking through the finder window 10. When the actual photographing operation is started by detecting the S2 state of the release button 11, the mirror mechanism 6 is retracted from the light path of the light (subject light) forming the subject image, and the light (subject image is taken from the photographing lens 3). Light to be formed) reaches the main image sensor 5 and a captured image (image data) relating to the subject is obtained.

ファインダ窓10の下部には、接眼検知センサ13が設けられている。接眼検知センサ13は、近接物体の有無を検知するセンサであり、ユーザによる光学ファインダ使用の有無を検知する。   An eyepiece detection sensor 13 is provided below the finder window 10. The eyepiece detection sensor 13 is a sensor that detects the presence or absence of a proximity object, and detects whether or not the user is using an optical viewfinder.

モニタ12の左上部にはメインスイッチ81が設けられている。メインスイッチ81は、2点のスライドスイッチからなり、接点を左方の「OFF」位置に設定すると、撮像装置1Aの電源がオフになり、接点を右方の「ON」位置に設定すると、撮像装置1Aの電源がオンになる。   A main switch 81 is provided at the upper left of the monitor 12. The main switch 81 is composed of two slide switches. When the contact is set to the left “OFF” position, the imaging apparatus 1A is turned off, and when the contact is set to the right “ON” position, the imaging is performed. The apparatus 1A is turned on.

フラッシュ発光部91は、ポップアップ式の内蔵フラッシュとして構成されている。   The flash light emitting unit 91 is configured as a pop-up built-in flash.

モニタ12の右側には方向選択キー84と表示切替スイッチ9とが設けられている。方向選択キー84は、円形の操作ボタンを有し、この操作ボタンにおける上下左右の4方向の押圧操作と、右上、左上、右下および左下の4方向の押圧操作とが、それぞれ検出されるようになっている。なお、方向選択キー84は、上記8方向の押圧操作とは別に、中央部のプッシュボタンの押圧操作も検出されるようになっている。   A direction selection key 84 and a display changeover switch 9 are provided on the right side of the monitor 12. The direction selection key 84 has a circular operation button, and it is possible to detect a pressing operation in four directions of upper, lower, left and right, and a pressing operation in four directions of upper right, upper left, lower right and lower left on the operation button. It has become. In addition, the direction selection key 84 is configured to detect a pressing operation of a push button at the center, in addition to the pressing operations in the eight directions.

表示切替スイッチ9は、3点のスライドスイッチからなる。表示切替スイッチ9の接点が上段の「光学」位置に設定されると光学ビューファインダモード(「OVFモード」とも称する)が選択され、光学ファインダ視野内に被写体像が表示される。これにより、ユーザは、ファインダ窓10を介して光学ファインダ視野内の被写体像を視認して、構図決め操作(「フレーミング」とも称する)を行うことが可能になる。   The display changeover switch 9 is composed of three slide switches. When the contact of the display changeover switch 9 is set to the upper “optical” position, the optical viewfinder mode (also referred to as “OVF mode”) is selected, and the subject image is displayed in the optical viewfinder field of view. Accordingly, the user can visually recognize the subject image in the optical finder field through the finder window 10 and perform a composition determination operation (also referred to as “framing”).

また、表示切替スイッチ9の接点が下段の「液晶」位置に設定されると電子ビューファインダモード(「EVFモード」とも称する)が選択され、モニタ12において被写体像に係るライブビュー画像が動画的態様にて表示(ライブビュー表示)される。これにより、ユーザは、モニタ12に表示されるライブビュー画像を視認することによって、フレーミングを行うことが可能になる。   Further, when the contact point of the display changeover switch 9 is set to the lower “liquid crystal” position, an electronic viewfinder mode (also referred to as “EVF mode”) is selected, and the live view image related to the subject image on the monitor 12 is a moving image mode. Is displayed (live view display). Accordingly, the user can perform framing by visually recognizing the live view image displayed on the monitor 12.

また、表示切替スイッチ9の接点が中段の「自動」位置に設定されると、ファインダ窓10への接眼の有無に応じて、光学ファインダ視野内の表示(「OVF表示」とも称する)とライブビュー表示とが自動的に切り替えられる。これにより、ユーザは、撮像装置1Aの使用態様に応じて、光学ファインダ視野内の表示、或いはライブビュー表示のいずれかを視認して、フレーミングを行うことが可能となる。   Further, when the contact of the display changeover switch 9 is set to the middle “automatic” position, the display in the optical finder field of view (also referred to as “OVF display”) and the live view depending on the presence or absence of the eyepiece on the finder window 10. The display is automatically switched. Thus, the user can perform framing by visually recognizing either the display in the optical finder field of view or the live view display according to the usage mode of the imaging apparatus 1A.

モニタ12の左側には、メニュー画面の設定、画像の削除などを行うための複数のボタンからなる設定ボタン群83が設けられている。   On the left side of the monitor 12, a setting button group 83 including a plurality of buttons for setting a menu screen, deleting an image, and the like is provided.

次に、撮像装置1Aの内部構成について説明する。図3および図4は、第1実施形態に係る撮像装置1Aの縦断面図である。   Next, the internal configuration of the imaging apparatus 1A will be described. 3 and 4 are longitudinal sectional views of the imaging apparatus 1A according to the first embodiment.

図3に示すように、撮像装置1Aの内部には、ファインダ部(「ファインダ光学系」とも称する)102、ミラー機構6、位相差AFモジュール(以下、単にAFモジュールとも称する)20、シャッタ4、主撮像素子5、および副撮像素子7などが備えられている。   As shown in FIG. 3, in the imaging apparatus 1 </ b> A, a finder unit (also referred to as “finder optical system”) 102, a mirror mechanism 6, a phase difference AF module (hereinafter also simply referred to as AF module) 20, a shutter 4, A main image sensor 5 and a sub image sensor 7 are provided.

主撮像素子(ここではCCDセンサ(単にCCDとも称する))5は、撮影レンズ3が備えているレンズ群37の光軸L上において、光軸Lに対して垂直な平面内に配置される。主撮像素子5は、その撮像面で受光された被写体像を光電変換作用により電気的信号に変換して、本撮影画像に係る画像信号を生成する。   The main image pickup element (here, a CCD sensor (also simply referred to as a CCD)) 5 is disposed on a plane perpendicular to the optical axis L on the optical axis L of the lens group 37 provided in the photographing lens 3. The main imaging element 5 converts the subject image received on the imaging surface into an electrical signal by photoelectric conversion action, and generates an image signal related to the actual captured image.

主撮像素子5の直前には、シャッタ4が配置されている。このシャッタ4は、上下方向に移動する幕体を備え、光軸Lに沿って主撮像素子5に導かれる被写体光の光路開口動作および光路遮断動作を行うメカニカルフォーカルプレーンシャッタである。   A shutter 4 is disposed immediately before the main image sensor 5. The shutter 4 is a mechanical focal plane shutter that includes a curtain body that moves in the vertical direction and performs an optical path opening operation and an optical path blocking operation of subject light guided to the main image sensor 5 along the optical axis L.

また、図3に示されるように、撮影レンズ3から主撮像素子5に至る光路(「撮影光路」とも称する)上には、ミラー機構6が設けられている。   As shown in FIG. 3, a mirror mechanism 6 is provided on an optical path (also referred to as “imaging optical path”) from the imaging lens 3 to the main image sensor 5.

ミラー機構6は、撮影光学系からの光を上方に向けて反射する主ミラー61(主反射面)を有している。この主ミラー61は、例えばその一部または全部がハーフミラーとして構成され、撮影光学系からの光の一部を透過させる。また、ミラー機構6は、主ミラー61を透過した光を下方に反射させるサブミラー62(副反射面)をも有している。   The mirror mechanism 6 has a main mirror 61 (main reflection surface) that reflects light from the photographing optical system upward. For example, a part or all of the main mirror 61 is configured as a half mirror, and transmits a part of light from the photographing optical system. The mirror mechanism 6 also includes a sub mirror 62 (sub reflective surface) that reflects light transmitted through the main mirror 61 downward.

また、ミラー機構6は、所謂クイックリターンミラーとして構成されており、ミラーダウン状態とミラーアップ状態との間で姿勢を切り替えることが可能である。   Further, the mirror mechanism 6 is configured as a so-called quick return mirror, and the posture can be switched between a mirror-down state and a mirror-up state.

具体的には、撮影モードにおいてレリーズボタン11が全押し状態S2にされるまで、換言すれば構図決めの際には、ミラー機構6はミラーダウン状態となるように配置される(図3参照)。そして、ミラーダウン状態では、撮影レンズ3からの被写体光は、主ミラー61で上方に反射され観察用光束としてファインダ部(「ファインダ光学系」とも称する)102に入射する。   Specifically, the mirror mechanism 6 is arranged so as to be in the mirror-down state until the release button 11 is fully pressed in the shooting mode, in other words, when determining the composition (see FIG. 3). . In the mirror-down state, the subject light from the photographic lens 3 is reflected upward by the main mirror 61 and enters the finder unit (also referred to as “finder optical system”) 102 as an observation light beam.

また、被写体光の一部は、主ミラー61を透過し、サブミラー62によって下方に反射され、AFモジュール20へと導かれる。   A part of the subject light is transmitted through the main mirror 61, reflected downward by the sub mirror 62, and guided to the AF module 20.

AFモジュール20は、被写体のピント情報(「測距情報」とも称する)を検出するラインセンサ(焦点検出センサ)等によって構成され、所謂AFセンサとして機能する。具体的には、AFモジュール20は、撮影領域に設定された測距エリア(「フォーカスエリア」または「AFエリア」とも称する)における被写体からの光を受光して、被写体像の合焦度合いに応じた位相差検出信号を発生させる位相差検出機能を有している。すなわち、撮影待機時におけるミラーダウン状態においては、AFモジュール20に導かれる被写体光に基づいて、AFモジュール20から位相差検出信号が出力される。   The AF module 20 includes a line sensor (focus detection sensor) that detects focus information (also referred to as “ranging information”) of a subject, and functions as a so-called AF sensor. Specifically, the AF module 20 receives light from a subject in a distance measurement area (also referred to as “focus area” or “AF area”) set in the shooting area, and according to the degree of focus of the subject image. A phase difference detection function for generating a phase difference detection signal. That is, in the mirror-down state during shooting standby, the AF module 20 outputs a phase difference detection signal based on subject light guided to the AF module 20.

このようにAFモジュール20は、撮影領域の所定位置に固定的に設定されたAFエリアから、撮影情報としての測距情報を取得する撮影情報取得手段として機能する。   As described above, the AF module 20 functions as a shooting information acquisition unit that acquires distance measurement information as shooting information from an AF area fixedly set at a predetermined position in the shooting area.

一方、レリーズボタン11が全押し状態S2にされると、ミラー機構6はミラーアップ状態(図4参照)となるように駆動され、露光動作が開始される。   On the other hand, when the release button 11 is fully pressed S2, the mirror mechanism 6 is driven so as to be in the mirror up state (see FIG. 4), and the exposure operation is started.

具体的には、図4に示すように、露光時には、ミラー機構6は、回転軸63を支点として上方に向けて跳ね上がり、撮影光路から待避する。詳細には、撮影光学系からの光を遮らないように主ミラー61とサブミラー62とが上方に待避し、撮影レンズ3からの光がシャッタ4の開放タイミングに合わせて主撮像素子5に到達する。主撮像素子5は、光電変換によって、受光した光束に基づいて被写体像に関する画像信号を生成する。このように、被写体からの光が撮影レンズ3を介して主撮像素子5に導かれることによって、被写体に係る撮影画像(撮影画像データ)が得られる。   Specifically, as shown in FIG. 4, at the time of exposure, the mirror mechanism 6 jumps upward with the rotating shaft 63 as a fulcrum and retracts from the photographing optical path. Specifically, the main mirror 61 and the sub mirror 62 are retracted upward so as not to block the light from the photographing optical system, and the light from the photographing lens 3 reaches the main image sensor 5 in accordance with the opening timing of the shutter 4. . The main imaging device 5 generates an image signal related to the subject image based on the received light flux by photoelectric conversion. As described above, the light from the subject is guided to the main image sensor 5 through the photographing lens 3, so that a photographed image (photographed image data) relating to the subject is obtained.

<機能ブロック>
次に、撮像装置1Aの機能の概要について説明する。図5は、第1実施形態に係る撮像装置1Aの機能構成を示すブロック図である。
<Functional block>
Next, an outline of functions of the imaging apparatus 1A will be described. FIG. 5 is a block diagram illustrating a functional configuration of the imaging apparatus 1A according to the first embodiment.

図5に示されるように、撮像装置1Aは、位相差AFモジュール20、操作部80、全体制御部100、フラッシュ回路92、ミラー機構6、シャッタ4、主撮像素子5、A/D変換回路52、デジタル信号処理回路50、および画像メモリ56等を備える。   As illustrated in FIG. 5, the imaging apparatus 1 </ b> A includes a phase difference AF module 20, an operation unit 80, an overall control unit 100, a flash circuit 92, a mirror mechanism 6, a shutter 4, a main imaging device 5, and an A / D conversion circuit 52. A digital signal processing circuit 50, an image memory 56, and the like.

操作部80は、レリーズボタン11(図1参照)を含む各種ボタンおよびスイッチ等を備えて構成される。操作部80に対するユーザの入力操作に応答して、全体制御部100が各種動作を実現する。   The operation unit 80 includes various buttons and switches including the release button 11 (see FIG. 1). In response to a user input operation on the operation unit 80, the overall control unit 100 implements various operations.

フラッシュ回路92は、フラッシュ発光部91の発光量を、全体制御部100により設定された発光量に制御するものである。   The flash circuit 92 controls the light emission amount of the flash light emission unit 91 to the light emission amount set by the overall control unit 100.

主撮像素子5は、タイミング制御回路(不図示)から入力される駆動制御信号(蓄積開始信号および蓄積終了信号)に応答して、受光面(撮像面)に結像された被写体像の露光(光電変換による電荷蓄積)を行い、当該被写体像に係る画像信号を生成する。   The main image sensor 5 responds to drive control signals (accumulation start signal and accumulation end signal) input from a timing control circuit (not shown), and exposes the subject image formed on the light receiving surface (imaging surface) ( Charge accumulation by photoelectric conversion) is performed, and an image signal related to the subject image is generated.

主撮像素子5で取得された画像信号(アナログ信号)は、A/D変換回路52によってデジタル信号に変換される。デジタル信号に変換された画像信号は、デジタル信号処理回路50に入力される。   The image signal (analog signal) acquired by the main image sensor 5 is converted into a digital signal by the A / D conversion circuit 52. The image signal converted into the digital signal is input to the digital signal processing circuit 50.

デジタル信号処理回路50は、A/D変換回路52から入力される画像信号に対してデジタル信号処理を施す。具体的には、黒レベル補正処理、ホワイトバランス(WB)処理、γ補正処理等の信号処理を行う。当該信号処理後の画像信号(画像データ)は、画像メモリ56に格納される。   The digital signal processing circuit 50 performs digital signal processing on the image signal input from the A / D conversion circuit 52. Specifically, signal processing such as black level correction processing, white balance (WB) processing, and γ correction processing is performed. The image signal (image data) after the signal processing is stored in the image memory 56.

画像メモリ56は、生成された画像データを一時的に記憶するための、高速アクセス可能なメモリであり、複数フレーム分の画像データを記憶可能な容量を有している。   The image memory 56 is a high-speed accessible memory for temporarily storing generated image data, and has a capacity capable of storing image data for a plurality of frames.

本撮影時には、画像メモリ56に一時記憶される画像データは、全体制御部100において適宜画像処理(圧縮処理等)が施された後、メモリカード90に記憶される。   At the time of actual photographing, the image data temporarily stored in the image memory 56 is subjected to image processing (compression processing or the like) as appropriate in the overall control unit 100 and then stored in the memory card 90.

副撮像素子7は、基本的には主撮像素子5と同様の機能を有し、いわゆるライブビュー画像取得用(電子ファインダ用)の撮像素子(補助撮像素子)としての役割を果たす。具体的には、副撮像素子7は、ファインダ光学系に導かれた被写体像の露光を行い、ライブビュー表示用の画像に関する画像信号を取得する。なお、副撮像素子7は、ライブビュー用の画像信号を生成するための解像度を有していればよく、通常、主撮像素子5よりも少ない数の画素で構成される。   The sub image sensor 7 basically has the same function as the main image sensor 5 and plays a role as a so-called live view image acquisition (electronic finder) image sensor (auxiliary image sensor). Specifically, the sub image sensor 7 exposes the subject image guided to the finder optical system, and acquires an image signal related to an image for live view display. Note that the sub image sensor 7 only needs to have a resolution for generating an image signal for live view, and is usually configured with a smaller number of pixels than the main image sensor 5.

副撮像素子7によって取得された画像データは、A/D変換回路52およびデジタル信号処理回路50において所定の処理が実行され画像メモリ56に一旦記憶された後、モニタ12に表示される。   The image data acquired by the sub imaging device 7 is subjected to predetermined processing in the A / D conversion circuit 52 and the digital signal processing circuit 50, temporarily stored in the image memory 56, and then displayed on the monitor 12.

全体制御部100は、マイクロコンピュータとして構成され、主にCPU,RAM120A、およびROM120B等を備える。全体制御部100は、ROM120B内に格納されたプログラムを読み出し、当該プログラムをCPUで実行することによって、各種機能を実現する。   The overall control unit 100 is configured as a microcomputer and mainly includes a CPU, a RAM 120A, a ROM 120B, and the like. The overall control unit 100 implements various functions by reading a program stored in the ROM 120B and executing the program by the CPU.

全体制御部100は、上述のプログラムの実行によって、位相差AF制御部121、被写体検出部122、画像比較部123、領域判定部124、補正係数決定部125、および表示制御部126等を機能的に実現する。   The overall control unit 100 functions the phase difference AF control unit 121, the subject detection unit 122, the image comparison unit 123, the region determination unit 124, the correction coefficient determination unit 125, the display control unit 126, and the like by executing the above-described program. Realize.

なお、画像比較部123、領域判定部124、および補正係数決定部125によって実現される各種機能は、階調圧縮モードにおいて用いられる。階調圧縮モードは、フラッシュ発光をともなう撮影において取得された本撮影画像の階調調整を行うモードである。階調圧縮モードと通常の撮影モードとの切替は、メニュー画面を用いたユーザ操作(メニュー操作)、または専用のボタン(ボタン不図示)操作等によって行われる。   Various functions realized by the image comparison unit 123, the region determination unit 124, and the correction coefficient determination unit 125 are used in the gradation compression mode. The gradation compression mode is a mode in which gradation adjustment is performed on an actual captured image acquired in photographing with flash emission. Switching between the gradation compression mode and the normal photographing mode is performed by a user operation (menu operation) using a menu screen, a dedicated button (button not shown) operation, or the like.

位相差AF制御部121は、位相差方式による自動合焦(AF)動作(「位相差AF」とも称する)を行う。具体的には、位相差AF制御部121は、AFモジュール20から出力される位相差検出信号に基づいて、合焦時のフォーカスレンズの位置(レンズ合焦位置)を特定するレンズ合焦位置特定動作を行う。   The phase difference AF control unit 121 performs an automatic focusing (AF) operation (also referred to as “phase difference AF”) by a phase difference method. Specifically, the phase difference AF control unit 121 specifies the position of the focus lens at the time of focusing (lens focusing position) based on the phase difference detection signal output from the AF module 20. Perform the action.

また、位相差AF制御部121は、レンズ合焦位置にフォーカスレンズを移動させるレンズ駆動動作をも実行する。   The phase difference AF control unit 121 also executes a lens driving operation for moving the focus lens to the lens in-focus position.

具体的には、位相差AF制御部121は、撮影レンズ3のレンズ側制御部31に制御信号を伝達し、レンズ駆動部38を駆動させ、撮影レンズ3のレンズ群37に含まれるフォーカスレンズを光軸方向に移動させる。また、フォーカスレンズの位置は、撮影レンズ3のレンズ位置検出部39によって検出され、フォーカスレンズの位置を示すデータがレンズ側制御部31からカメラ本体部2の全体制御部100に送られる。   Specifically, the phase difference AF control unit 121 transmits a control signal to the lens side control unit 31 of the photographic lens 3 to drive the lens driving unit 38, so that the focus lens included in the lens group 37 of the photographic lens 3 is controlled. Move in the direction of the optical axis. Further, the position of the focus lens is detected by the lens position detection unit 39 of the photographing lens 3, and data indicating the position of the focus lens is sent from the lens side control unit 31 to the overall control unit 100 of the camera body 2.

被写体検出部122は、副撮像素子7によって取得された撮影画像(補助画像)および主撮像素子5によって取得された撮影画像(本実施形態では、本撮影画像)から、特定被写体を検出する被写体検出動作を行う。ここでは、人物の顔(「顔領域」とも称する)を特定被写体とし、顔領域を補助画像および本撮影画像から検出する顔検出動作が実行される。   The subject detection unit 122 detects a specific subject from a captured image (auxiliary image) acquired by the sub-image sensor 7 and a captured image (main captured image in the present embodiment) acquired by the main image sensor 5. Perform the action. Here, a face detection operation is performed in which a human face (also referred to as a “face region”) is a specific subject, and the face region is detected from the auxiliary image and the main image.

顔領域の検出手法としては、例えば、撮影画像における各画素の画素値に基づいて、画像の肌色部分を抽出し、この肌色部分の面積が予め設定された閾値以上であった場合に、その肌色部分を含む領域を顔領域として検出する手法を採用してもよい。或いは、周知のパターン認識技術を用いて、目や口などの顔の特定部分を抽出することで、顔領域を検出する手法を採用してもよい。   As a face area detection method, for example, when a skin color part of an image is extracted based on a pixel value of each pixel in a photographed image, and the area of the skin color part is equal to or larger than a preset threshold, the skin color A method of detecting an area including a portion as a face area may be employed. Or you may employ | adopt the method of detecting a face area | region by extracting the specific part of faces, such as eyes and a mouth, using a well-known pattern recognition technique.

補助画像における顔検出動作は、副撮像素子7によって順次に取得される補助画像のうち、数フレームおきの補助画像を用いて実行される。顔領域が検出されると、顔位置表示がライブビュー画像において行われる。また、補助画像から検出された顔領域は、本撮影画像の階調圧縮処理に用いられる。   The face detection operation in the auxiliary image is executed using auxiliary images every several frames among the auxiliary images sequentially obtained by the sub-imaging device 7. When the face area is detected, face position display is performed on the live view image. In addition, the face area detected from the auxiliary image is used for gradation compression processing of the actual captured image.

本撮影画像における顔検出動作は、階調圧縮モードが選択され、かつフラッシュ発光を伴う本撮影動作が行われた際に実行される。そして、本撮影画像から検出された顔領域は、本撮影画像の階調圧縮処理に用いられる。   The face detection operation in the actual captured image is executed when the gradation compression mode is selected and the actual imaging operation with flash emission is performed. The face area detected from the main captured image is used for gradation compression processing of the main captured image.

機能部の説明(図5)に戻って、画像比較部123は、階調圧縮モードにおいて、補助画像と本撮影画像との差分画像(差分データ)を取得する。具体的には、補助画像と本撮影画像とを比較して、対応する画素間の輝度の差分値(「輝度差分値」または単に「差分値」とも称する)BVを取得する。   Returning to the description of the functional unit (FIG. 5), the image comparison unit 123 acquires a difference image (difference data) between the auxiliary image and the actual captured image in the gradation compression mode. Specifically, the auxiliary image and the actual captured image are compared to obtain a luminance difference value (also referred to as “luminance difference value” or simply “difference value”) BV between corresponding pixels.

領域判定部124は、階調圧縮モードにおいて、差分値の大きさに応じて、当該差分値を有する画素がいかなる領域に属するのかの判定を行い、画素ごとに領域情報を算出する。これにより、本撮影画像を構成する各画素が、類似の輝度差分値BVを有する画素ごとに分類される。   In the gradation compression mode, the area determination unit 124 determines which area a pixel having the difference value belongs to according to the magnitude of the difference value, and calculates area information for each pixel. Thereby, each pixel which comprises a real picked-up image is classified for every pixel which has the similar brightness | luminance difference value BV.

補正係数決定部125は、階調圧縮モードにおいて、領域情報に基づいて、本撮影画像における各画素の輝度の階調を補正する補正係数を決定する。   The correction coefficient determination unit 125 determines a correction coefficient for correcting the luminance gradation of each pixel in the actual captured image based on the region information in the gradation compression mode.

表示制御部126は、モニタ12などの表示部における表示内容を制御する。例えば、表示制御部126は、副撮像素子7によって連続的に取得される撮影画像に基づいて、モニタ12に連続的な画像を表示させる。   The display control unit 126 controls display contents on a display unit such as the monitor 12. For example, the display control unit 126 displays a continuous image on the monitor 12 based on the captured images continuously acquired by the sub imaging element 7.

<構図決め動作(フレーミング動作)について>
次に、撮像装置1Aにおける構図決め動作について説明する。上述のように、撮像装置1Aでは、ユーザは、表示切替スイッチ9のスライド操作によって、OVFモードで光学ファインダを利用して構図決めを行うか、EVFモードで電子ファインダを利用して構図決めを行うかを選択することができる。図6は、EVFモードにおける撮像装置1Aの縦断面図である。
<Composition determination operation (framing operation)>
Next, the composition determination operation in the imaging apparatus 1A will be described. As described above, in the imaging apparatus 1A, the user performs composition determination using the optical viewfinder in the OVF mode or the composition determination using the electronic viewfinder in the EVF mode by the slide operation of the display changeover switch 9. Can be selected. FIG. 6 is a longitudinal sectional view of the imaging apparatus 1A in the EVF mode.

構図決めの際には、ミラー機構6はミラーダウン状態となるように配置される(図3および図6参照)。上述のように、ミラーダウン状態では、撮影レンズ3からの被写体像は、主ミラー61で上方に反射され観察用光束としてファインダ部102に導かれる。   When the composition is determined, the mirror mechanism 6 is arranged so as to be in a mirror-down state (see FIGS. 3 and 6). As described above, in the mirror-down state, the subject image from the photographing lens 3 is reflected upward by the main mirror 61 and guided to the finder unit 102 as an observation light beam.

ファインダ部102は、ペンタミラー65、接眼レンズ67、アイピースシャッター68、ファインダ窓10、測光素子66、結像レンズ69、および副撮像素子7等を備えている。   The finder unit 102 includes a pentamirror 65, an eyepiece lens 67, an eyepiece shutter 68, a finder window 10, a photometric element 66, an imaging lens 69, a sub imaging element 7, and the like.

ペンタミラー65は、複数のミラー(反射面)を有しており、反射によって被写体像の天地左右を入れ替えて正立像にする機能および被写体光の光路を変更する機能を有している。   The pentamirror 65 has a plurality of mirrors (reflection surfaces), and has a function of changing the light path of the subject light and a function of changing the light path of the subject light by changing the top and bottom of the subject image by reflection.

具体的には、ペンタミラー65は、三角屋根状に形成された2面のミラー(ダハミラー)65a,65bと、当該ダハミラー(ダハ面)65a,65bに対して固定された面65cと、光路変更ミラー(反射面)65eとを有している。   Specifically, the pentamirror 65 includes two mirrors (dach mirrors) 65a and 65b formed in a triangular roof shape, a surface 65c fixed to the roof mirrors (dach surfaces) 65a and 65b, and an optical path change. And a mirror (reflection surface) 65e.

ダハミラー65a,65bは、プラスチック成型により一体部品65dとして形成され、被写体光を2回反射させることによって被写体像の姿勢を反転させる機能を有している。光路変更ミラー65eは、光学ファインダおよび電子ファインダのいずれを採用して構図決めを行うかに応じて、被写体光の光路を変更する機能を有している。   The roof mirrors 65a and 65b are formed as an integral part 65d by plastic molding, and have a function of reversing the posture of the subject image by reflecting the subject light twice. The optical path changing mirror 65e has a function of changing the optical path of the subject light according to which of the optical finder and the electronic finder is used to determine the composition.

接眼レンズ67は、ペンタミラー65により正立像にされた被写体像をファインダ窓10の外側に導く機能を有している。   The eyepiece 67 has a function of guiding the subject image that has been erected by the pentamirror 65 to the outside of the finder window 10.

アイピースシャッター68は、接眼レンズ67とファインダ窓10との間に設けられ、ファインダ窓10から撮像装置1A内に進入する外光を遮断する遮光状態と、ファインダ窓10からの外光を遮らない非遮光状態との間で状態切替が可能な遮光(シャッター)手段として機能する。例えば、EVFモードでは、アイピースシャッター68は遮光状態となり、OVFモードでは、非遮光状態となる。   The eyepiece shutter 68 is provided between the eyepiece 67 and the finder window 10, and blocks the outside light entering the imaging apparatus 1 </ b> A from the finder window 10 and does not block the outside light from the finder window 10. It functions as a light shielding (shutter) means capable of switching the state between the light shielding states. For example, in the EVF mode, the eyepiece shutter 68 is in a light shielding state, and in the OVF mode, it is in a non-light shielding state.

測光素子66は、ファインダ部102に入射された観察用光束の一部を受光し、被写体の明るさ、すなわち被写体の輝度(「被写体輝度」とも称する)に関する測光信号(測光値)を生成(出力)する。   The photometric element 66 receives a part of the observation light beam incident on the finder unit 102 and generates (outputs) a photometric signal (photometric value) relating to the brightness of the subject, that is, the luminance of the subject (also referred to as “subject luminance”). )

測光素子66では、受光部が複数のエリア(「測光領域」または「測光エリア」とも称する)に分割されており、各測光エリアについて個別に測光値が得られるようになっている。   In the photometric element 66, the light receiving unit is divided into a plurality of areas (also referred to as “photometric area” or “photometric area”), and a photometric value can be obtained individually for each photometric area.

以下では、光学ファインダを用いたフレーミング動作および電子ファインダを用いたフレーミング動作それぞれについて詳述する。   Hereinafter, each of the framing operation using the optical finder and the framing operation using the electronic finder will be described in detail.

まず、光学ファインダを用いたフレーミング動作について説明する。   First, the framing operation using the optical finder will be described.

図3に示すように、OVFモードでは、ミラー機構6が、撮影レンズ3からの被写体像の光路上に配置され、被写体像が主ミラー61とペンタミラー65と接眼レンズ67とを順に介してファインダ窓10へと導かれる。   As shown in FIG. 3, in the OVF mode, the mirror mechanism 6 is arranged on the optical path of the subject image from the photographing lens 3, and the subject image passes through the main mirror 61, the pentamirror 65, and the eyepiece 67 in order. Guided to window 10.

より詳細には、撮影レンズ3を通過した被写体光は、主ミラー61で上方に反射され、焦点板64に結像する。焦点板64に結像した被写体光は、当該焦点板64を通過し、ペンタミラー65で進路変更された後に、接眼レンズ67を通ってファインダ窓10へ向かう(図3の光路PA参照)。このように光路PAに沿って、ファインダ窓10に導かれた被写体像は、ユーザ(観察者)の眼へ到達して視認される。   More specifically, the subject light that has passed through the photographing lens 3 is reflected upward by the main mirror 61 and forms an image on the focusing screen 64. The subject light imaged on the focusing screen 64 passes through the focusing screen 64 and is changed by the pentamirror 65, and then travels through the eyepiece lens 67 to the viewfinder window 10 (see the optical path PA in FIG. 3). Thus, the subject image guided to the finder window 10 along the optical path PA reaches the eyes of the user (observer) and is visually recognized.

このようにOVFモードでは、ユーザは、ファインダ窓10を覗くことによって、ファインダ視野内に表示された被写体像を視認し、構図決めを行うことができる。   As described above, in the OVF mode, the user can visually check the subject image displayed in the finder field of view and determine the composition by looking through the finder window 10.

次に、電子ファインダを用いたフレーミング動作について説明する。   Next, a framing operation using the electronic viewfinder will be described.

図6に示すように、EVFモードでは、ミラー機構6は、撮影レンズ3からの被写体像の光路上に配置される。そして、撮影レンズ3を通過した被写体光は、主ミラー61で上方に反射され、焦点板64に結像する。焦点板64に結像した被写体光は、焦点板64を通過し、ペンタミラー65で進路変更された後に、結像レンズ69(結像光学系)を介して副撮像素子7の撮像面上で再結像する(図6の光路PB参照)。   As shown in FIG. 6, in the EVF mode, the mirror mechanism 6 is disposed on the optical path of the subject image from the photographing lens 3. Then, the subject light that has passed through the photographing lens 3 is reflected upward by the main mirror 61 and forms an image on the focusing screen 64. The subject light imaged on the focusing screen 64 passes through the focusing screen 64 and is changed in path by the pentamirror 65, and then on the imaging surface of the sub imaging device 7 via the imaging lens 69 (imaging optical system). Re-image is formed (see the optical path PB in FIG. 6).

このようにEVFモードでは、被写体像は、OVFモードにおける光路PAとは異なる光路PBに沿って副撮像素子7に導かれる。   As described above, in the EVF mode, the subject image is guided to the sub imaging element 7 along the optical path PB different from the optical path PA in the OVF mode.

このようなファインダ部102における光路変更は、光路変更ミラー65eの角度(カメラ本体部2に対する設置角度)をファインダモードに応じて変更することによって実現される。   Such an optical path change in the finder unit 102 is realized by changing the angle of the optical path change mirror 65e (installation angle with respect to the camera body 2) in accordance with the finder mode.

具体的には、光路変更ミラー65eは、表示切替スイッチ9のスライド動作に連動して、軸AX1を中心に回転可能に構成され、EVFモード(図6参照)では、OVFモード(図3参照)に比べて軸AX1を中心に矢印YVの向きに所定角度AN回動される。   Specifically, the optical path changing mirror 65e is configured to be rotatable around the axis AX1 in conjunction with the slide operation of the display changeover switch 9, and in the EVF mode (see FIG. 6), the OVF mode (see FIG. 3). As compared with the above, the shaft is turned by a predetermined angle AN in the direction of the arrow YV about the axis AX1.

このように、EVFモードでは、光路変更ミラー65eの姿勢を変更することによって、ファインダ部102内の被写体光の光路が変更される。これにより、被写体光は、結像レンズ69を通過して副撮像素子7に到達する。   Thus, in the EVF mode, the optical path of the subject light in the finder unit 102 is changed by changing the posture of the optical path changing mirror 65e. Thereby, the subject light passes through the imaging lens 69 and reaches the sub imaging element 7.

上述のように、副撮像素子7は、光路PBに沿って到達した被写体光を受光し、被写体像に係る撮影画像を微小時間間隔(例えば、1/60秒)で順次に取得する。取得された時系列の撮影画像は、モニタ12に動画的態様にて順次に表示(ライブビュー表示)される。   As described above, the sub-image sensor 7 receives the subject light that has reached along the optical path PB, and sequentially acquires the captured images related to the subject image at a minute time interval (for example, 1/60 seconds). The acquired time-series captured images are sequentially displayed on the monitor 12 in a moving image manner (live view display).

これによって、ユーザは、モニタ12に表示される動画像(ライブビュー画像)を視認して構図決めを行うことが可能になる。   Thus, the user can determine the composition by visually recognizing the moving image (live view image) displayed on the monitor 12.

なお、結像レンズ69、副撮像素子7および測光素子66は、OVFモードにおいて光路変更ミラー65eから接眼レンズ67へと進行する光束を遮らない位置(ここでは、接眼レンズ67の上方位置)に配置されている。   The imaging lens 69, the sub-imaging device 7 and the photometry device 66 are arranged at a position where the light beam traveling from the optical path changing mirror 65e to the eyepiece lens 67 is not blocked in the OVF mode (here, above the eyepiece lens 67). Has been.

このように、撮像装置1Aでは、ファインダ部102の光路変更ミラー65eの姿勢を変更することによって被写体光の光路が変更され、OVFモードとEVFモードとが切り換えられる。   Thus, in the imaging apparatus 1A, the optical path of the subject light is changed by changing the attitude of the optical path changing mirror 65e of the finder unit 102, and the OVF mode and the EVF mode are switched.

<階調圧縮モードにおける動作>
次に、EVFモードにおいて、階調圧縮モードが選択されている際に実行される撮像装置1Aの撮影動作について説明する。図7は、階調圧縮モードが選択されている撮像装置1Aの撮影動作のフローチャートである。図8は、領域分割された本撮影画像HG1を示す図である。図9は、分割領域と補正係数との関係を示すデータテーブルを示す図である。
<Operation in gradation compression mode>
Next, the imaging operation of the imaging apparatus 1A that is executed when the gradation compression mode is selected in the EVF mode will be described. FIG. 7 is a flowchart of the shooting operation of the image pickup apparatus 1A in which the gradation compression mode is selected. FIG. 8 is a diagram illustrating the main captured image HG1 divided into regions. FIG. 9 is a diagram illustrating a data table showing the relationship between the divided areas and the correction coefficients.

図7に示されるように、ステップSP11では、予備撮影が行われ、予備撮影画像が取得される。本実施形態の撮像装置1Aでは、ライブビュー画像取得用の副撮像素子7を用いて予備撮影が行われる。より詳細には、副撮像素子7によって順次に取得される補助画像のうち、数フレームおきの補助画像が予備撮影画像として画像メモリ56に上書きして記憶される。   As shown in FIG. 7, in step SP11, preliminary shooting is performed and a preliminary shooting image is acquired. In the imaging apparatus 1 </ b> A of the present embodiment, preliminary shooting is performed using the sub-imaging device 7 for acquiring a live view image. More specifically, among the auxiliary images sequentially acquired by the sub-image sensor 7, auxiliary images every several frames are overwritten and stored in the image memory 56 as preliminary captured images.

ステップSP12では、レリーズボタン11の押し込み状態に基づいて撮影開始判定が行われる。具体的には、レリーズボタン11の全押し状態(S2状態)が検出されると、ステップSP13に移行する。レリーズボタン11の全押し状態が検出されなければステップSP11に移行して、全押し状態が検出されるまでステップSP11およびステップSP12の処理が繰り返し実行される。   In step SP12, the photographing start determination is performed based on the pressing state of the release button 11. Specifically, when the fully pressed state (S2 state) of the release button 11 is detected, the process proceeds to step SP13. If the fully pressed state of the release button 11 is not detected, the process proceeds to step SP11, and the processes of step SP11 and step SP12 are repeatedly executed until the fully pressed state is detected.

ステップSP13では、本撮影動作が実行される。具体的には、全ての被写体像が主撮像素子5に導かれるミラーアップ状態となり、主撮像素子5による露光が行われる。   In step SP13, the actual photographing operation is executed. Specifically, all the subject images are in a mirror-up state in which the subject image is guided to the main image sensor 5, and exposure by the main image sensor 5 is performed.

ステップSP14では、ステップSP13の本撮影においてフラッシュが発光されたか否かが判断される。本撮影の際に、フラッシュが発光された場合は、ステップSP15に移行し、フラッシュが発光されていない場合は、そのまま撮影動作が終了される。   In step SP14, it is determined whether or not the flash is emitted in the main photographing in step SP13. If the flash is emitted during the main photographing, the process proceeds to step SP15. If the flash is not emitted, the photographing operation is terminated as it is.

ステップSP15では、主撮像素子5または副撮像素子7で撮影された撮影領域を、各画素の輝度値等を用いて複数の領域に分割する領域分割処理が実行される。   In step SP15, an area division process is executed to divide an imaging area imaged by the main image sensor 5 or the sub image sensor 7 into a plurality of areas using the luminance value of each pixel.

例えば、本撮影画像を、背景領域と主被写体の存在領域(「主被写体領域」とも称する)とに分割する場合は、各画素が、主被写体領域に属するのか背景領域に属するのかの所属判別が行われ、撮影領域が分割される。詳細は、後述する。   For example, when the actual captured image is divided into a background region and a main subject existing region (also referred to as a “main subject region”), it is determined whether each pixel belongs to the main subject region or the background region. The shooting area is divided. Details will be described later.

次のステップSP16では、補正係数決定部125において、分割された領域(「分割領域」とも称する)ごとに、各分割領域に応じた補正係数が設定される。   In the next step SP16, the correction coefficient determination unit 125 sets a correction coefficient corresponding to each divided area for each divided area (also referred to as “divided area”).

補正係数は、例えば、各分割領域と補正係数とが対応づけられたデータテーブルDT1を参照することによって取得され、当該データテーブルDT1は、ROM120Bに予め格納されている。   The correction coefficient is acquired, for example, by referring to the data table DT1 in which each divided region is associated with the correction coefficient, and the data table DT1 is stored in the ROM 120B in advance.

例えば、図8に示されるように、ステップSP15において、本撮影画像HG1が、主被写体領域TRと背景領域BR(斜線ハッチング領域)とに分割されたと仮定する。このとき、図9に示されるデータテーブルDT1がROM120Bに格納されていた場合は、主被写体領域TRの補正係数は、「1.0」に設定され、背景領域BRの補正係数は、「1.7」に設定される。   For example, as shown in FIG. 8, it is assumed that the main captured image HG1 is divided into a main subject area TR and a background area BR (shaded hatching area) in step SP15. At this time, if the data table DT1 shown in FIG. 9 is stored in the ROM 120B, the correction coefficient of the main subject area TR is set to “1.0”, and the correction coefficient of the background area BR is “1. 7 ".

ステップSP17では、本撮影画像HGに対して、設定された補正係数に応じて分割領域ごと(画素ごと)に画像処理(詳細には、輝度補正処理)が施される。   In step SP17, the actual captured image HG is subjected to image processing (specifically, luminance correction processing) for each divided region (for each pixel) in accordance with the set correction coefficient.

補正係数は、「1.0」を基準にしたときの補正の程度を表しており、補正係数が「1.0」より大きい場合は、分割領域が明るくなるように当該分割領域に含まれる各画素の輝度値を上げる補正処理が行われる。一方、補正係数が「1.0」より小さい場合は、分割領域が暗くなるように当該分割領域に含まれる各画素の輝度値を下げる補正処理が行われる。また、補正係数が「1.0」の場合は、分割領域の輝度補正は実行されない。   The correction coefficient represents the degree of correction when “1.0” is used as a reference. When the correction coefficient is larger than “1.0”, each correction area includes each division area so that the division area becomes brighter. Correction processing for increasing the luminance value of the pixel is performed. On the other hand, when the correction coefficient is smaller than “1.0”, correction processing is performed to lower the luminance value of each pixel included in the divided area so that the divided area becomes dark. When the correction coefficient is “1.0”, the luminance correction of the divided area is not executed.

例えば、補正係数が「1.0」に設定された主被写体領域TRでは、補正処理が実行されない(または、補正処理によって主被写体領域TRの各画素の輝度値が1.0倍される)。   For example, in the main subject region TR in which the correction coefficient is set to “1.0”, the correction process is not executed (or the luminance value of each pixel in the main subject region TR is multiplied by 1.0 by the correction process).

また、補正係数が「1.7」に設定された背景領域BRでは、補正処理によって当該背景領域BRの各画素の輝度値が1.7倍される。   Further, in the background region BR in which the correction coefficient is set to “1.7”, the luminance value of each pixel in the background region BR is multiplied by 1.7 by the correction process.

ここで、領域分割処理(ステップSP15)について詳述する。図10は、領域分割処理の詳細を示すフローチャートである。図11は、差分データSG1が取得される様子を示す概念図である。図12は、撮像装置1Aにおいて取得される差分データSG1に関する輝度差分値のヒストグラムを示す図である。図13は、差分データSG1に関する輝度差分値のヒストグラムと閾値THとの関係を示す図である。図14は、本撮影画像において検出された顔領域を示す図である。   Here, the region division processing (step SP15) will be described in detail. FIG. 10 is a flowchart showing details of the region division processing. FIG. 11 is a conceptual diagram showing how the difference data SG1 is acquired. FIG. 12 is a diagram illustrating a histogram of luminance difference values regarding the difference data SG1 acquired in the imaging apparatus 1A. FIG. 13 is a diagram illustrating a relationship between a histogram of luminance difference values related to the difference data SG1 and the threshold value TH. FIG. 14 is a diagram illustrating a face area detected in the actual captured image.

本撮影の際に、フラッシュが発光された場合は、図10のステップSP51に移行する。   If the flash is emitted during the main shooting, the process proceeds to step SP51 in FIG.

ステップSP51では、被写体検出部122によって顔検出動作が実行され、撮影領域から顔領域が検出される。   In step SP51, the face detection operation is executed by the subject detection unit 122, and the face area is detected from the shooting area.

ステップSP52では、画像比較部123によって、予備撮影画像BGと本撮影画像HGとの対応する画素間で輝度値の差分が行われ、差分データSG1が取得される(図11参照)。   In step SP52, the image comparison unit 123 performs a difference in luminance value between corresponding pixels of the preliminary captured image BG and the actual captured image HG, and acquires difference data SG1 (see FIG. 11).

より詳細には、RGBの原色成分をもつ予備撮影画像BGおよび本撮影画像HGの色空間が、マトリクス演算により輝度成分(Y)(以下、「輝度信号」とも称する)と色差成分(Cr、Cb)(「色差信号」とも称する)とをもつ色空間に変換される。   More specifically, the color space of the preliminary photographed image BG having the RGB primary color components and the main photographed image HG is converted into a luminance component (Y) (hereinafter also referred to as “luminance signal”) and a color difference component (Cr, Cb) by matrix calculation. ) (Also referred to as “color difference signal”).

そして、予備撮影画像と本撮影画像との間で対応する画素同士の輝度信号(輝度値)の差分が行われ、画素ごとに輝度差分値BVが算出される。   Then, a difference in luminance signal (luminance value) between corresponding pixels is performed between the preliminary captured image and the main captured image, and a luminance difference value BV is calculated for each pixel.

なお、差分値BVの算出に際して、予備撮影画像と本撮影画像との間で画素数が異なる場合は、画素数を一致させる調整処理(例えば、画素の間引き処理、画像の縮小処理または補間処理)が差分値の算出前に実行される。   When the difference value BV is calculated, if the number of pixels is different between the pre-photographed image and the main-photographed image, adjustment processing for matching the number of pixels (for example, pixel thinning processing, image reduction processing, or interpolation processing) Is executed before the difference value is calculated.

図11に示されるように、予備撮影画像BGでは、主被写体MHの存在領域(「主被写体領域」とも称する)TRおよび背景領域はともに暗くなる。   As shown in FIG. 11, in the pre-photographed image BG, the region where the main subject MH exists (also referred to as “main subject region”) TR and the background region are both dark.

一方、フラッシュ発光をともなう本撮影画像HGでは、予備撮影画像BGと比較して、フラッシュ光が届かない背景領域(「遠背景領域」とも称する)は同様に暗いが、フラッシュ光が若干届く背景領域(「近背景領域」とも称する)は若干明るくなる。また、主被写体領域TRは明るく、主被写体MHの髪部分の領域(髪領域)HRは若干明るくなる。   On the other hand, in the main photographic image HG with flash emission, the background region where the flash light does not reach (also referred to as “far background region”) is similarly dark compared to the preliminary image BG, but the background region where the flash light reaches slightly. (Also referred to as “near background region”) is slightly brighter. The main subject region TR is bright, and the hair region (hair region) HR of the main subject MH is slightly bright.

このため、予備撮影画像BGと本撮影画像HGとの差分データSG1においては、遠背景領域の差分値は小さく、近背景領域および髪領域HRの差分値は、遠背景領域の差分値より若干大きく、主被写体領域TRの差分値は、近背景領域の差分値より大きくなる。   Therefore, in the difference data SG1 between the preliminary image BG and the main image HG, the difference value of the far background region is small, and the difference value of the near background region and the hair region HR is slightly larger than the difference value of the far background region. The difference value of the main subject region TR is larger than the difference value of the near background region.

ここで、差分データSG1に含まれる各画素を輝度差分値BVの大きさに基づいて分類すると、画素の分布は、例えば、図12のように輝度差分値BVの特定範囲RN1〜RN3ごとに偏ったものとなる。   Here, when each pixel included in the difference data SG1 is classified based on the magnitude of the luminance difference value BV, the pixel distribution is biased for each of the specific ranges RN1 to RN3 of the luminance difference value BV as shown in FIG. It will be.

図12において、特定範囲RN1内の輝度差分値BVを有する画素の群GG1には、主被写体MHから比較的遠い位置に存在する遠背景領域の画素が多く含まれている。なお、遠背景領域は、フラッシュの発光によって輝度が変化しない(上昇しない)領域であることから、「輝度無変領域」(または「輝度非増領域」)AR1とも称される。   In FIG. 12, the group GG1 of pixels having the luminance difference value BV within the specific range RN1 includes many pixels in the far background region that are located relatively far from the main subject MH. Since the far background area is an area where the luminance does not change (does not increase) due to flash emission, it is also referred to as “luminance unchanged area” (or “luminance non-increased area”) AR1.

また、特定範囲RN2内の輝度差分値BVを有する画素の群GG2には、主被写体MHから比較的近い位置に存在する近背景領域の画素、および主被写体MHの髪領域HRの画素が多く含まれている。なお、近背景領域および髪領域HRは、フラッシュ光の照射によって輝度が少し変化する(上昇する)領域であることから、「輝度微変領域」(または「輝度微増領域」)とも称される。   In addition, the group of pixels GG2 having the luminance difference value BV within the specific range RN2 includes many pixels in the near background region that are relatively close to the main subject MH and pixels in the hair region HR of the main subject MH. It is. The near background region and the hair region HR are also referred to as “luminance slightly changing region” (or “luminance slightly increasing region”) because the luminance is slightly changed (increased) by irradiation with flash light.

また、特定範囲RN3内の輝度差分値BVを有する画素の群GG3には、主被写体MHを構成する主被写体領域(例えば、主被写体MHの体幹領域)の画素が多く含まれている。なお、「主被写体領域」は、フラッシュ光の照射によって輝度が変化する(比較的大幅に上昇する)領域であることから、「輝度変化領域」(または「輝度上昇領域」)とも称される。   In addition, the pixel group GG3 having the luminance difference value BV within the specific range RN3 includes many pixels in the main subject region (for example, the trunk region of the main subject MH) that constitutes the main subject MH. Note that the “main subject area” is an area in which the luminance changes (relatively increases significantly) by irradiation with flash light, and is also referred to as a “luminance change area” (or “brightness increase area”).

以下のステップSP53およびステップSP54では、差分データSG1の各画素が、上記3つの領域(詳細には、輝度無変領域AR1、輝度微変領域AR2および輝度変化領域AR3)のいずれの領域に属する画素であるかを判別する領域判別処理が実行される。   In the following step SP53 and step SP54, each pixel of the difference data SG1 belongs to any of the above three regions (specifically, the luminance unchanged region AR1, the luminance slightly changing region AR2, and the luminance changing region AR3). An area determination process is performed to determine whether or not.

具体的には、ステップSP53では、各画素の輝度差分値BVが閾値THと比較され、画素ごとに比較値CVが算出される。各画素の比較値CVは、輝度差分値BVから閾値THを引く、式(1)に示される演算を、画素ごとに実行して取得される。   Specifically, in step SP53, the luminance difference value BV of each pixel is compared with a threshold value TH, and a comparison value CV is calculated for each pixel. The comparison value CV of each pixel is obtained by executing the calculation shown in Expression (1) for each pixel by subtracting the threshold value TH from the luminance difference value BV.

Figure 2009302747
Figure 2009302747

本実施形態では、閾値THとして、2つの閾値(詳細には、第1閾値TH1と、第1閾値TH1よりも大きい第2閾値TH2)が用いられ、当該2つの閾値TH1,TH2それぞれを用いた上記式(1)の演算によって、第1比較値CV1および第2比較値CV2が画素ごとに取得される。   In this embodiment, two threshold values (specifically, a first threshold value TH1 and a second threshold value TH2 larger than the first threshold value TH1) are used as the threshold value TH, and the two threshold values TH1 and TH2 are used. By the calculation of the above formula (1), the first comparison value CV1 and the second comparison value CV2 are acquired for each pixel.

なお、第1閾値TH1としては、図13に示されるように、特定範囲RN1と特定範囲RN2との間における比較的画素数の少ない輝度差分値が採用される。また、第2閾値TH2としては、特定範囲RN2と特定範囲RN3との間における比較的画素数の少ない輝度差分値が採用される。なお、このような第1閾値TH1および第2閾値TH2は、予めROM120Bに記憶され、演算の際にROM120Bから読み出される。   As the first threshold TH1, a luminance difference value having a relatively small number of pixels between the specific range RN1 and the specific range RN2 is adopted as shown in FIG. As the second threshold TH2, a luminance difference value having a relatively small number of pixels between the specific range RN2 and the specific range RN3 is employed. Note that the first threshold value TH1 and the second threshold value TH2 are stored in the ROM 120B in advance, and are read from the ROM 120B at the time of calculation.

ステップSP54では、各画素が、輝度無変領域AR1、輝度微変領域AR2および輝度変化領域AR3のうち、いずれの領域に属するかの領域判定(所属領域判定)が比較値CV1,CV2を用いて行われる。   In step SP54, the region determination (affiliation region determination) to which each pixel belongs among the luminance unchanged region AR1, the luminance slightly changing region AR2, and the luminance changing region AR3 is performed using the comparison values CV1 and CV2. Done.

具体的には、或る画素の第1比較値CV1が「0」より小さい場合(第1比較値CV1<0)は、当該画素は、輝度無変領域AR1に含まれる画素と判定される(みなされる)。   Specifically, when the first comparison value CV1 of a certain pixel is smaller than “0” (first comparison value CV1 <0), the pixel is determined to be a pixel included in the luminance unchanged region AR1 ( It is regarded).

また、或る画素の第1比較値CV1が「0」以上であり、かつ第2比較値CV2が「0」より小さい場合(第1比較値CV1≧0かつ第2比較値CV2<0)は、当該画素は、輝度微変領域AR2に含まれる画素と判定される。   Further, when the first comparison value CV1 of a certain pixel is equal to or larger than “0” and the second comparison value CV2 is smaller than “0” (first comparison value CV1 ≧ 0 and second comparison value CV2 <0). The pixel is determined as a pixel included in the brightness slight change area AR2.

また、或る画素の第2比較値CV2が「0」以上であった場合(第2比較値CV2≧0)は、当該画素は、輝度変化領域AR3に含まれる画素と判定される。   When the second comparison value CV2 of a certain pixel is “0” or more (second comparison value CV2 ≧ 0), the pixel is determined to be a pixel included in the luminance change area AR3.

さらに、ステップSP54では、ステップSP51の顔検出結果を用いた領域判定の修正が行われる。   Further, in step SP54, the region determination is corrected using the face detection result in step SP51.

具体的には、図14に示されるように、ステップSP51で顔領域が検出された場合、検出された顔領域を内包する顔内包領域SRが規定され、当該顔内包領域SRに含まれる各画素について所属領域の変更が行われる。より詳細には、顔内包領域SRに含まれる画素が輝度微変領域AR2の画素であったときは、当該画素は髪領域HRの画素とされる。また、顔内包領域SRに含まれる画素が、輝度変化領域AR3の画素であったときは、当該画素は、主被写体MHの顔面領域GRの画素とされる。なお、顔内包領域SRに含まれる画素が、輝度無変領域AR1の画素であったときは、領域判定の修正は行われず、当該画素は、輝度無変領域AR1の画素のままとされる。   Specifically, as shown in FIG. 14, when a face area is detected in step SP51, a face inclusion area SR that includes the detected face area is defined, and each pixel included in the face inclusion area SR is defined. The affiliation area is changed for. More specifically, when a pixel included in the face inclusion region SR is a pixel in the brightness slight change region AR2, the pixel is a pixel in the hair region HR. Further, when the pixel included in the face inclusion region SR is a pixel in the luminance change region AR3, the pixel is a pixel in the face region GR of the main subject MH. When a pixel included in the face inclusion region SR is a pixel in the luminance unchanged region AR1, the region determination is not corrected, and the pixel is left as a pixel in the luminance unchanged region AR1.

このように、領域分割処理(ステップSP15)では、撮影領域から顔領域が検出されるとともに、予備撮影画像BGと本撮影画像HGとの差分データSG1が取得される。そして、顔検出結果と差分データSG1とに基づいて、差分データSG1における各画素の所属領域が判別され、撮影領域が分割される。   As described above, in the area division process (step SP15), the face area is detected from the shooting area, and the difference data SG1 between the preliminary shooting image BG and the main shooting image HG is acquired. Then, based on the face detection result and the difference data SG1, the affiliation region of each pixel in the difference data SG1 is determined, and the imaging region is divided.

特に、顔内包領域SRに含まれる画素が輝度微変領域AR2の画素であったときは、当該画素を髪領域HRの画素と判断することによれば、主被写体MHの髪領域HRを精度良く特定することができるので、髪領域HRと近背景領域とを区別することが可能になる。すなわち、髪領域HRの画素と判断された画素に対しては、近背景領域に含まれる画素とは異なる輝度補正処理が行われることになる。   In particular, when a pixel included in the face inclusion region SR is a pixel in the brightness slightly changing region AR2, by determining that the pixel is a pixel in the hair region HR, the hair region HR of the main subject MH is accurately determined. Since it can be specified, the hair region HR and the near background region can be distinguished. That is, a luminance correction process different from the pixels included in the near background region is performed on the pixels determined to be the pixels of the hair region HR.

なお、領域分割処理では、差分データSG1の各画素の所属領域を判別していたが、予備撮影画像BGまたは本撮影画像HGの各画素についての所属領域を判別してもよい。   In the area dividing process, the belonging area of each pixel of the difference data SG1 is determined. However, the belonging area of each pixel of the preliminary photographed image BG or the main photographed image HG may be determined.

領域分割処理によって差分データSG1の各画素の所属領域が決定され、領域分割されると、次のステップSP16(既述)において、各領域に応じて補正係数が決定され、ステップSP17において補正係数に応じた画像処理が本撮影画像の画素ごとに実行される。   When the region to which each pixel of the difference data SG1 belongs is determined by the region dividing process and the region is divided, a correction coefficient is determined according to each region in the next step SP16 (described above), and the correction coefficient is set in step SP17. The corresponding image processing is executed for each pixel of the actual captured image.

本実施形態では、上述のように、撮影領域が、輝度無変領域AR1、輝度微変領域AR2、輝度変化領域AR3、主被写体MHの髪領域HRおよび主被写体MHの顔面領域GRのうちのいずれかの分割領域に細分化されることになる。   In the present embodiment, as described above, the imaging region is any one of the luminance unchanged region AR1, the luminance slightly changing region AR2, the luminance changing region AR3, the hair region HR of the main subject MH, and the face region GR of the main subject MH. It will be subdivided into such divided areas.

補正係数は、例えば、輝度無変領域AR1を「1.0」、輝度微変領域AR2を「1.7」、輝度変化領域AR3を「1.0」、主被写体MHの髪領域HRを「1.2」、そして主被写体MHの顔面領域GRを「1.0」と設定してもよい。   The correction coefficients are, for example, “1.0” for the luminance unchanged region AR1, “1.7” for the luminance slightly changing region AR2, “1.0” for the luminance changing region AR3, and “1” for the hair region HR of the main subject MH. 1.2 ”, and the face area GR of the main subject MH may be set to“ 1.0 ”.

輝度無変領域AR1の補正係数を「1.0」とし、輝度を上げる補正(輝度上昇補正)を抑制することによれば、遠背景領域に含まれるノイズ成分が輝度上昇補正によって目立ちやすくなることを防ぐことができる。   By setting the correction coefficient of the luminance invariant area AR1 to “1.0” and suppressing the correction to increase the brightness (brightness increase correction), the noise component included in the far background region becomes easily noticeable by the brightness increase correction. Can be prevented.

また、輝度微変領域AR2の補正係数を「1.7」に設定することによれば、フラッシュ光が若干届く近背景領域を明るくすることができるので、スローシンクロの効果を発揮した本撮影画像HGを取得することができる。   In addition, by setting the correction coefficient of the brightness slight change area AR2 to “1.7”, the near background area where the flash light reaches a little can be brightened, so that the actual captured image exhibiting the effect of slow sync HG can be acquired.

また、輝度変化領域AR3の補正係数を「1.0」とし、輝度上昇補正を抑制することによれば、フラッシュ光の照射によって既に輝度が上昇している領域を過度に明るくしすぎることを防ぐことができる。   Further, by setting the correction coefficient of the luminance change area AR3 to “1.0” and suppressing the luminance increase correction, it is possible to prevent the area where the luminance has already increased due to the flash light irradiation from being excessively brightened. be able to.

また、主被写体MHの髪領域HRの補正係数を「1.2」に設定することによれば、髪領域HRを過度に明るくすることなく、適度な明るさに補正することができる。   Further, by setting the correction coefficient for the hair region HR of the main subject MH to “1.2”, the hair region HR can be corrected to an appropriate brightness without excessively brightening the hair region HR.

以上のように、撮像装置1Aでは、予備撮影画像BGと本撮影画像HGとに基づいて対応する画素間の輝度差分値BVが取得されるとともに、撮影領域における顔領域が検出される。そして、顔領域の検出結果を用いて、撮影領域に含まれる各画素に対して、差分値に応じた画像処理が施される。これによれば、輝度差分値BVを用いて主被写体を特定するだけでなく、輝度差分値BVとは別の顔領域の検出結果を用いて、主被写体領域を特定することができるので、主被写体領域を精度良く特定することが可能になる。   As described above, in the imaging apparatus 1A, the luminance difference value BV between corresponding pixels is acquired based on the preliminary captured image BG and the main captured image HG, and the face region in the captured region is detected. Then, using the detection result of the face area, image processing corresponding to the difference value is performed on each pixel included in the shooting area. According to this, not only the main subject can be specified using the luminance difference value BV, but also the main subject region can be specified using the detection result of the face region different from the luminance difference value BV. It becomes possible to specify the subject area with high accuracy.

<2.第2実施形態>
次に、本発明の第2実施形態について説明する。
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described.

第1実施形態に係る撮像装置1Aは、予備撮影画像BGと本撮影画像HGとに基づいて差分データSG1を取得していたが、第2実施形態に係る撮像装置1Bは、予備撮影画像BGとプレ撮影画像EGとに基づいて差分データSG2を取得する。図15は、階調圧縮モードが選択されている撮像装置1Bの撮影動作のフローチャートである。図16は、撮像装置1Bにおいて取得される差分データSG2に関する輝度差分値のヒストグラムを示す図である。   The imaging apparatus 1A according to the first embodiment has acquired the difference data SG1 based on the preliminary captured image BG and the main captured image HG. However, the imaging apparatus 1B according to the second embodiment is different from the preliminary captured image BG. Difference data SG2 is acquired based on the pre-photographed image EG. FIG. 15 is a flowchart of the shooting operation of the image pickup apparatus 1B in which the gradation compression mode is selected. FIG. 16 is a diagram illustrating a histogram of luminance difference values related to the difference data SG2 acquired in the imaging apparatus 1B.

なお、第2実施形態に係る撮像装置1Bは、本撮影前にプレ撮影を行う点以外は、第1実施形態に係る撮像装置1Aとほぼ同様の構成および機能(図1〜図6参照)を有しており、共通する部分については同じ符号を付して説明を省略する。   The imaging apparatus 1B according to the second embodiment has substantially the same configuration and function (see FIGS. 1 to 6) as the imaging apparatus 1A according to the first embodiment, except that pre-shooting is performed before the main shooting. The common parts are denoted by the same reference numerals and the description thereof is omitted.

図15に示されるように、撮像装置1Bでは、ステップSP21において、上記ステップSP11と同様に、副撮像素子7を用いた予備撮影が行われ、予備撮影画像BGが取得される。   As shown in FIG. 15, in the imaging apparatus 1B, in step SP21, as in step SP11, preliminary imaging using the sub imaging element 7 is performed, and the preliminary imaging image BG is acquired.

ステップSP22では、ステップSP12と同様に、レリーズボタン11の押し込み状態に基づいて撮影開始判定が行われる。具体的には、レリーズボタン11の全押し状態(S2状態)が検出されると、ステップSP23に移行する。レリーズボタン11の全押し状態が検出されなければステップSP21に移行して、全押し状態が検出されるまでステップSP21およびステップSP22の処理が繰り返し実行される。   In step SP22, as in step SP12, the photographing start determination is performed based on the pressing state of the release button 11. Specifically, when the fully pressed state (S2 state) of the release button 11 is detected, the process proceeds to step SP23. If the fully pressed state of the release button 11 is not detected, the process proceeds to step SP21, and the processes of step SP21 and step SP22 are repeatedly executed until the fully pressed state is detected.

ステップSP23では、後に実行される本撮影においてフラッシュが使用されるか否かが判断される。フラッシュが使用されない場合は、ステップSP24に移行し、本撮影動作が実行され、本撮影終了後、撮影動作が終了される。一方、フラッシュが使用される場合は、ステップSP25に移行する。   In step SP23, it is determined whether or not the flash is used in the main photographing to be executed later. When the flash is not used, the process proceeds to step SP24, where the main photographing operation is executed, and after the main photographing is finished, the photographing operation is finished. On the other hand, when the flash is used, the process proceeds to step SP25.

ステップSP25では、フラッシュ発光を伴ったプレ撮影動作が実行される。具体的には、ミラーアップ状態において、主撮像素子5による露光が行われるとともに、当該露光時に、フラッシュが発光される。プレ撮影時のフラッシュの発光量(「プレ発光量」とも称する)は、本撮影時のフラッシュの発光量(「本発光量」とも称する)よりも多く設定される。   In step SP25, a pre-photographing operation with flash emission is executed. Specifically, in the mirror-up state, exposure by the main image sensor 5 is performed, and a flash is emitted during the exposure. The flash emission amount during pre-shooting (also referred to as “pre-flash emission amount”) is set to be larger than the flash emission amount during main shooting (also referred to as “main flash emission amount”).

このように、プレ撮影では、適正露出となるように設定される本撮影時の本発光量よりも多い発光量下で露光が行われ、プレ撮影画像EGが取得される。   As described above, in the pre-photographing, exposure is performed under a light emission amount larger than the main light emission amount at the time of main photographing which is set so as to obtain proper exposure, and the pre-photographed image EG is acquired.

ステップSP26では、フラッシュ発光を伴う本撮影動作が実行され、本撮影画像HGが取得される。   In step SP26, a main shooting operation with flash emission is executed, and a main shooting image HG is acquired.

ステップSP27では、図7のステップSP15(詳細には、図10の各工程)とほぼ同様の領域分割処理が実行される。   In step SP27, an area division process substantially similar to that in step SP15 in FIG. 7 (specifically, each step in FIG. 10) is executed.

具体的には、ステップSP27では、撮影領域における顔領域が検出されるとともに(ステップSP51)、予備撮影画像BGとプレ撮影画像EGとの差分データSG2が取得される(ステップSP52)。そして、顔検出結果と差分データSG2とに基づいて、差分データSG2における各画素の所属領域が判別される(ステップSP53およびステップSP54)。   Specifically, in step SP27, a face area in the shooting area is detected (step SP51), and difference data SG2 between the preliminary shooting image BG and the pre-shooting image EG is acquired (step SP52). Based on the face detection result and the difference data SG2, the affiliation area of each pixel in the difference data SG2 is determined (step SP53 and step SP54).

このように、撮像装置1Bでは、予備撮影画像BGとプレ撮影画像EGとの対応する画素間で輝度値の差分が行われ、差分データSG2、すなわち各画素の輝度差分値BVが取得される。   As described above, in the imaging device 1B, a difference in luminance value is performed between corresponding pixels of the preliminary captured image BG and the pre-captured image EG, and difference data SG2, that is, a luminance difference value BV of each pixel is acquired.

プレ撮影の際のプレ発光量は、本撮影の際の本発光量よりも多いことから、プレ撮影画像EGは、本撮影画像HGよりも明るくなる。このため、プレ撮影画像EGに基づいて取得される差分データSG2の各画素の輝度差分値BVは、本撮影画像HGに基づいて取得される差分データSG1の各画素の輝度差分値よりも大きくなる。このように、輝度差分値が大きくなると、図16に示されるように、輝度差分値に応じた画素の分布の偏りが顕著になるので、閾値THを用いた領域の分割精度が向上する。   Since the pre-emission amount at the time of the pre-photographing is larger than the main emission amount at the time of the main photo-taking, the pre-photographed image EG becomes brighter than the main photo-taking image HG. For this reason, the luminance difference value BV of each pixel of the difference data SG2 acquired based on the pre-captured image EG is larger than the luminance difference value of each pixel of the difference data SG1 acquired based on the main captured image HG. . As described above, when the luminance difference value is increased, as shown in FIG. 16, the distribution of pixels according to the luminance difference value becomes noticeable, so that the division accuracy of the region using the threshold value TH is improved.

図15に戻って、ステップSP28では、ステップSP16と同様に、分割された領域(「分割領域」とも称する)ごとに、各領域に応じた補正係数が設定される。   Returning to FIG. 15, in step SP <b> 28, as in step SP <b> 16, a correction coefficient corresponding to each area is set for each divided area (also referred to as “divided area”).

ステップSP29では、ステップSP17と同様に、設定された補正係数に応じて、分割領域ごとに本撮影画像HGの補正処理が行われる。   In step SP29, as in step SP17, the correction processing of the actual captured image HG is performed for each divided region in accordance with the set correction coefficient.

以上のように、第2実施形態に係る撮像装置1Bでは、本撮影の際のフラッシュ発光量よりも多い発光量の下で撮影したプレ撮影画像EGを用いて差分データSG2が取得される。これによれば、差分データSG2における各画素の輝度差分値BVが大きくなり、領域の分割精度が向上する。   As described above, in the imaging apparatus 1B according to the second embodiment, the difference data SG2 is acquired using the pre-captured image EG captured under a light emission amount larger than the flash light emission amount at the time of actual photographing. According to this, the luminance difference value BV of each pixel in the difference data SG2 is increased, and the region division accuracy is improved.

<3.変形例>
以上、この発明の実施の形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

例えば、上記第1実施形態では、画素の所属判別に用いる閾値THは、予めROM120Bに記憶された値を用いていたが、これに限定されない。   For example, in the first embodiment, the threshold value TH used for pixel belonging determination is a value stored in the ROM 120B in advance, but is not limited thereto.

具体的には、フラッシュの発光量に応じて、輝度差分値BVが変化することから、ROM120Bに記憶された閾値THの基準値に基づいて、フラッシュの発光量に適応した閾値TH11,TH12を算出するようにしてもよい。   Specifically, since the luminance difference value BV changes according to the flash emission amount, the thresholds TH11 and TH12 adapted to the flash emission amount are calculated based on the reference value of the threshold TH stored in the ROM 120B. You may make it do.

このように、フラッシュの発光量に応じて閾値TH11,TH12を算出することによれば、輝度差分値BVの変化に適応した閾値TH11,TH12を用いて領域分割を行うことができるので、領域分割の精度が向上する。   As described above, by calculating the thresholds TH11 and TH12 according to the light emission amount of the flash, the region division can be performed using the thresholds TH11 and TH12 adapted to the change in the luminance difference value BV. Improves accuracy.

また、上記各実施形態では、2つの閾値TH1,TH2を用いて、本撮影画像HG(または予備撮影画像BG)を3つの領域に区分していたが、これに限定されない。図17は、差分データSG1に関する輝度差分値のヒストグラムと閾値THとの関係を示す図である。   In each of the above embodiments, the main captured image HG (or the preliminary captured image BG) is divided into three regions using the two thresholds TH1 and TH2. However, the present invention is not limited to this. FIG. 17 is a diagram illustrating a relationship between a histogram of luminance difference values relating to the difference data SG1 and the threshold value TH.

具体的には、図17に示されるように、3つの閾値TH1,TH2,TH3を用いて、本撮影画像HGを4つの領域に区分してもよい。このように、閾値THの数を増やすことによれば、領域を細分化することができるので、本撮影画像HGに対してより細かな輝度補正処理を実行することができる。   Specifically, as shown in FIG. 17, the actual captured image HG may be divided into four regions using three threshold values TH1, TH2, and TH3. As described above, by increasing the number of threshold values TH, the region can be subdivided, so that finer luminance correction processing can be executed on the actual captured image HG.

また、上記各実施形態では、分割領域単位で輝度補正が行われていたが、これに限定されない。   In each of the above embodiments, the luminance correction is performed in units of divided areas, but the present invention is not limited to this.

具体的には、或る分割領域と他の分割領域との間(分割領域同士の境目)では、補正係数を連続的に変化させてもよい。これによれば、分割領域間の境界での輝度補正量の急変によるトーンジャンプの発生を防止することができる。   Specifically, the correction coefficient may be continuously changed between a certain divided area and another divided area (between divided areas). According to this, it is possible to prevent occurrence of a tone jump due to a sudden change in the luminance correction amount at the boundary between the divided regions.

また、上記各実施形態では、副撮像素子7によって取得される予備撮影画像BGを用いて差分データSG1,SG2を算出していたが、これに限定されない。   Further, in each of the above embodiments, the difference data SG1 and SG2 are calculated using the preliminary captured image BG acquired by the sub imaging element 7, but the present invention is not limited to this.

具体的には、測光素子66によって取得される複数の測光領域における被写体輝度を用いて差分データを算出してもよい。このように、測光素子66から取得される被写体輝度と、本撮影画像HG(またはプレ撮影画像EG)とから差分データを取得することによれば、OVFモードで撮影された本撮影画像HGに対しても、輝度補正処理を施すことが可能になる。   Specifically, the difference data may be calculated using subject brightness in a plurality of photometry areas acquired by the photometry element 66. As described above, by acquiring the difference data from the subject brightness acquired from the photometry element 66 and the main captured image HG (or the pre-captured image EG), the main captured image HG captured in the OVF mode is obtained. However, the luminance correction process can be performed.

また、主撮像素子5でライブビュー表示用の撮影画像が取得される場合は、主撮像素子5によって取得される撮影画像を用いて差分データを算出してもよい。   In addition, when a captured image for live view display is acquired by the main image sensor 5, difference data may be calculated using the captured image acquired by the main image sensor 5.

また、上記各実施形態では、階調圧縮処理が撮像装置1A,1B内で実行される場合について例示したが、これに限定されない。   Further, in each of the above embodiments, the case where the gradation compression process is executed in the imaging devices 1A and 1B is illustrated, but the present invention is not limited to this.

具体的には、本撮影画像HG(またはプレ撮影画像EG)および予備撮影画像BGが入力される画像処理装置において階調圧縮処理を実行してもよい。   Specifically, the gradation compression process may be executed in an image processing apparatus to which the actual captured image HG (or the pre-captured image EG) and the preliminary captured image BG are input.

本発明の第1実施形態に係る撮像装置の外観構成を示す図である。1 is a diagram illustrating an external configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1実施形態に係る撮像装置の外観構成を示す図である。1 is a diagram illustrating an external configuration of an imaging apparatus according to a first embodiment of the present invention. 第1実施形態に係る撮像装置の縦断面図である。It is a longitudinal cross-sectional view of the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置の縦断面図である。It is a longitudinal cross-sectional view of the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the imaging device which concerns on 1st Embodiment. EVFモードにおける撮像装置の縦断面図である。It is a longitudinal cross-sectional view of the imaging device in EVF mode. 第1実施形態における撮像装置の撮影動作のフローチャートである。3 is a flowchart of a shooting operation of the imaging apparatus according to the first embodiment. 領域分割された本撮影画像を示す図である。It is a figure which shows the real picked-up image by which the area division | segmentation. 分割領域と補正係数との関係を示すデータテーブルを示す図である。It is a figure which shows the data table which shows the relationship between a division area and a correction coefficient. 領域分割処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of an area | region division process. 差分データSG1が取得される様子を示す概念図である。It is a conceptual diagram which shows a mode that difference data SG1 is acquired. 差分データに関する輝度差分値のヒストグラムを示す図である。It is a figure which shows the histogram of the brightness | luminance difference value regarding difference data. 差分データに関する輝度差分値のヒストグラムと閾値との関係を示す図である。It is a figure which shows the relationship between the histogram of the brightness | luminance difference value regarding difference data, and a threshold value. 本撮影画像において検出された顔領域を示す図である。It is a figure which shows the face area | region detected in the real picked-up image. 第2実施形態における撮像装置の撮影動作のフローチャートである。It is a flowchart of imaging | photography operation | movement of the imaging device in 2nd Embodiment. 差分データに関する輝度差分値のヒストグラムを示す図である。It is a figure which shows the histogram of the brightness | luminance difference value regarding difference data. 差分データに関する輝度差分値のヒストグラムと閾値との関係を示す図である。It is a figure which shows the relationship between the histogram of the brightness | luminance difference value regarding difference data, and a threshold value.

符号の説明Explanation of symbols

1A,1B 撮像装置
91 フラッシュ発光部
122 被写体検出部
123 画像比較部
124 領域判定部
125 補正係数決定部
AR1 輝度無変領域
AR2 輝度微変領域
AR3 輝度変化領域
BR 背景領域
HR 髪領域
HG,HG1 本撮影画像
BG 予備撮影画像
EG プレ撮影画像
BV 輝度差分値(差分値)
CV,CV1,CV2 比較値
SG1,SG2 差分データ
SR 顔内包領域
TH,TH1,TH2,TH3,TH11,TH12 閾値
TR 主被写体領域
1A, 1B Imaging device 91 Flash light emitting unit 122 Subject detection unit 123 Image comparison unit 124 Region determination unit 125 Correction coefficient determination unit AR1 Luminance unchanged region AR2 Luminance slight variation region AR3 Luminance variation region BR Background region HR Hair region HG, HG1 Captured image BG Pre-captured image EG Pre-captured image BV Luminance difference value (difference value)
CV, CV1, CV2 Comparison value SG1, SG2 Difference data SR Facial inclusion area TH, TH1, TH2, TH3, TH11, TH12 Threshold value TR Main subject area

Claims (8)

フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とを撮影する撮影手段と、
前記第1の撮影画像と前記第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、
前記撮影手段による撮影領域から、主被写体の顔領域を検出する検出手段と、
前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段と、
を備える撮像装置。
Photographing means for photographing a first photographed image with flash emission and a second photographed image without flash emission;
Difference means for obtaining a difference value between corresponding pixels in the first photographed image and the second photographed image;
Detecting means for detecting a face area of a main subject from a photographing area by the photographing means;
Image processing means for performing image processing according to the difference value for each pixel included in the imaging region using a face detection result by the detection means;
An imaging apparatus comprising:
前記画像処理手段は、
前記撮影領域に含まれる画素が、前記顔領域を内包する所定領域に含まれる場合は、当該画素に対して、他の画素とは異なる画像処理を施す請求項1に記載の撮像装置。
The image processing means includes
The imaging device according to claim 1, wherein when a pixel included in the imaging region is included in a predetermined region including the face region, image processing different from that of other pixels is performed on the pixel.
前記画像処理手段は、
前記撮影領域を前記差分値および前記顔検出結果に応じて複数の領域に分割する分割手段と、
前記複数の領域ごとに、補正係数を設定する設定手段と、
前記補正係数に応じて、前記複数の領域ごとに輝度の補正を行う輝度補正手段と、
を備える請求項2に記載の撮像装置。
The image processing means includes
A dividing unit that divides the imaging region into a plurality of regions according to the difference value and the face detection result;
Setting means for setting a correction coefficient for each of the plurality of regions;
Brightness correction means for correcting the brightness for each of the plurality of regions according to the correction coefficient;
An imaging apparatus according to claim 2.
前記分割手段は、
前記各画素の前記差分値と所定の閾値とを比較することによって、前記撮影領域を分割する請求項3に記載の撮像装置。
The dividing means includes
The imaging apparatus according to claim 3, wherein the imaging region is divided by comparing the difference value of each pixel with a predetermined threshold value.
前記所定の閾値は、前記フラッシュの発光量に応じて算出される請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the predetermined threshold is calculated according to a light emission amount of the flash. 前記撮影手段は、本撮影を行い、
前記第1の撮影画像を撮影する際の前記フラッシュの発光量は、前記本撮影の際のフラッシュの発光量よりも多い請求項1に記載の撮像装置。
The photographing means performs actual photographing,
The imaging apparatus according to claim 1, wherein a flash emission amount when shooting the first captured image is larger than a flash emission amount when performing the main shooting.
フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とにおいて、対応する画素間の差分値を取得する差分手段と、
前記第1の撮影画像または前記第2の撮影画像における撮影領域から、主被写体の顔領域を検出する検出手段と、
前記検出手段による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す画像処理手段と、
を備える画像処理装置。
Difference means for obtaining a difference value between corresponding pixels in the first photographed image with flash emission and the second photographed image without flash emission;
Detecting means for detecting a face area of a main subject from a shooting area in the first shot image or the second shot image;
Image processing means for performing image processing according to the difference value for each pixel included in the imaging region using a face detection result by the detection means;
An image processing apparatus comprising:
撮像装置に内蔵されたコンピュータに、
a)フラッシュの発光をともなう第1の撮影画像と、フラッシュの発光をともなわない第2の撮影画像とを撮影する工程と、
b)前記第1の撮影画像と前記第2の撮影画像とにおいて、対応する画素間の差分値を取得する工程と、
c)前記第1の撮影画像または前記第2の撮影画像における撮影領域から、主被写体の顔領域を検出する工程と、
d)前記c)工程による顔検出結果を用いて、前記撮影領域に含まれる各画素に対して、前記差分値に応じた画像処理を施す工程と、
を実行させるプログラム。
In the computer built into the imaging device,
a) photographing a first photographed image with flash emission and a second photographed image without flash emission;
b) obtaining a difference value between corresponding pixels in the first captured image and the second captured image;
c) detecting a face area of the main subject from a shooting area in the first shot image or the second shot image;
d) performing image processing according to the difference value on each pixel included in the imaging region using the face detection result obtained in step c);
A program that executes
JP2008153027A 2008-06-11 2008-06-11 Imaging device, image processing device, and program Pending JP2009302747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008153027A JP2009302747A (en) 2008-06-11 2008-06-11 Imaging device, image processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008153027A JP2009302747A (en) 2008-06-11 2008-06-11 Imaging device, image processing device, and program

Publications (1)

Publication Number Publication Date
JP2009302747A true JP2009302747A (en) 2009-12-24

Family

ID=41549215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008153027A Pending JP2009302747A (en) 2008-06-11 2008-06-11 Imaging device, image processing device, and program

Country Status (1)

Country Link
JP (1) JP2009302747A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102189954A (en) * 2010-03-02 2011-09-21 奥托立夫开发公司 A driver assistance system and method for a motor vehicle
CN115546837A (en) * 2022-10-16 2022-12-30 三峡大学 Integrated management system for transformer substation access

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102189954A (en) * 2010-03-02 2011-09-21 奥托立夫开发公司 A driver assistance system and method for a motor vehicle
CN115546837A (en) * 2022-10-16 2022-12-30 三峡大学 Integrated management system for transformer substation access

Similar Documents

Publication Publication Date Title
JP5233720B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP4332566B2 (en) Imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5163257B2 (en) Imaging device
US8345147B2 (en) Image pickup apparatus
JP5277873B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US20110194018A1 (en) Image capturing apparatus and control method therefor
JP2009294416A (en) Imaging apparatus and its control method
JP2010072619A (en) Exposure operation device and camera
JP5264326B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010016613A (en) Imaging apparatus
JP2009302747A (en) Imaging device, image processing device, and program
JP5333888B2 (en) Imaging apparatus and program thereof
JP2009219085A (en) Imaging apparatus
JP5062095B2 (en) Imaging device
JP2006311126A (en) Imaging apparatus
JP2010268108A (en) Imaging device and display control method
JP5078779B2 (en) Imaging device
JP5245644B2 (en) Exposure calculator
JP5053942B2 (en) Imaging device
JP5167919B2 (en) Imaging apparatus, control method thereof, and program
JP2010021621A (en) Image capturing apparatus, and control method and program thereof
JP2007057933A (en) Camera having electronic view finder
JP2007036951A (en) Camera having electronic viewfinder
JP2010016609A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100304