JP2009239792A - Imaging device, image processing device, and program - Google Patents

Imaging device, image processing device, and program Download PDF

Info

Publication number
JP2009239792A
JP2009239792A JP2008085492A JP2008085492A JP2009239792A JP 2009239792 A JP2009239792 A JP 2009239792A JP 2008085492 A JP2008085492 A JP 2008085492A JP 2008085492 A JP2008085492 A JP 2008085492A JP 2009239792 A JP2009239792 A JP 2009239792A
Authority
JP
Japan
Prior art keywords
face area
area
brightness
image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008085492A
Other languages
Japanese (ja)
Inventor
Rieko Izume
理恵子 井爪
Atsushi Mizuguchi
淳 水口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008085492A priority Critical patent/JP2009239792A/en
Publication of JP2009239792A publication Critical patent/JP2009239792A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device that stably performs a similar brightness correction to a plurality of images obtained by photographing a scene in which a plurality of object persons whose brightness are different from each other exist in relatively proximity to each other, and to provide a technique related to this. <P>SOLUTION: The imaging device extracts a person's face region from each subject area corresponding to each of a plurality of AF areas (step SP11), calculates luminance of the extracted each face region (step SP13) and obtains distance information on the object in the AF area corresponding to each face region (step SP14). Further, the imaging device sets a weighting coefficient of each face region according to the distance information of the AF area corresponding to each face region (step SP15) and corrects brightness of a taken image based on the luminance in each face region and the weighting coefficient of each face region (steps SP19 and SP20). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、デジタルカメラなどの撮像装置およびそれに関連する技術に関する。   The present invention relates to an imaging apparatus such as a digital camera and a technology related thereto.

近年、デジタルカメラ等の普及に伴い、撮影画像中から人物の顔領域を検出し当該顔領域が適正な明るさとなるように当該撮影画像の明るさを調整する技術が存在する。   In recent years, with the widespread use of digital cameras and the like, there is a technique for detecting the face area of a person from a shot image and adjusting the brightness of the shot image so that the face area has an appropriate brightness.

例えば、特許文献1においては、顔検知領域を決定する際に、複数のAFエリアのうち、対応する被写体距離が短いAFエリアほど、その優先度が高く設定される。そして、高順位の優先度を有するAFエリアに基づいて顔検出が行われる。さらに、選択されたAFエリアに対応する顔領域の画像の輝度分布に応じて、階調補正処理が行われる。   For example, in Patent Document 1, when a face detection area is determined, an AF area having a shorter subject distance among a plurality of AF areas is set to have a higher priority. Then, face detection is performed based on an AF area having a high priority. Further, gradation correction processing is performed according to the luminance distribution of the face area image corresponding to the selected AF area.

特開2005−215750号公報JP 2005-215750 A

しかしながら、明るさの異なる複数の被写体人物が互いに比較的近い距離に存在する撮影シーンに関して複数の画像を撮影する場合において、上記の技術を用いて明るさ補正を行うと、距離情報の若干の変動に応じて明るさの補正結果が複数の画像相互間で変動してしまうことがある。具体的には、いずれかの被写体が実際に若干移動したこと或いはAFの測距誤差が存在することなどに起因して、複数の被写体相互間の遠近関係が変動したと判定され、当該変動に応じて明るさの補正結果が複数の画像相互間で変動する。   However, in the case of shooting a plurality of images regarding a shooting scene in which a plurality of subject persons having different brightness exist at a relatively close distance from each other, if brightness correction is performed using the above technique, a slight variation in distance information occurs. Accordingly, the brightness correction result may fluctuate between a plurality of images. Specifically, it is determined that the perspective relationship between a plurality of subjects has fluctuated due to the fact that one of the subjects has actually moved slightly or there is an AF distance measurement error. Accordingly, the brightness correction result varies among a plurality of images.

例えば、図5のように、直射日光の下で比較的明るい右側の人物と、日傘の影で比較的暗い左側の人物とが存在する撮影シーンを想定する。この場合において、右側の人物が最も近い被写体であると判定される1枚目の画像では、比較的明るい人物を適正輝度に調整するために全体の輝度が比較的抑制される。一方、2枚目の画像においては、測距精度誤差あるいは人物の微小移動等に起因して、今度は左側の人物が最も近い被写体であると判定されるとする。この2枚目の画像では、比較的暗い人物を適正輝度に調整するために全体の輝度が比較的増加される。   For example, as shown in FIG. 5, a shooting scene is assumed in which a relatively bright right person in direct sunlight and a relatively dark left person in the shadow of a parasol exist. In this case, in the first image in which the right person is determined to be the closest subject, the overall brightness is relatively suppressed in order to adjust the relatively bright person to the appropriate brightness. On the other hand, in the second image, it is assumed that the left person is determined to be the closest subject due to a distance measurement accuracy error or a minute movement of the person. In the second image, the overall luminance is relatively increased in order to adjust a relatively dark person to an appropriate luminance.

このように、1枚目の画像と2枚目の画像とでは互いに異なる明るさ補正が施されてしまう。この結果、同様のシーンであるにもかかわらず複数の画像間で、明るさにばらつきが生じてしまう。   In this way, different brightness corrections are applied to the first image and the second image. As a result, the brightness varies among a plurality of images in spite of the same scene.

しかしながら、このようなばらつきは抑制されることが好ましい。特に連写撮影等における連続した複数枚の撮影画像間では、互いに同様の明るさ補正が施されることが好ましい。   However, it is preferable that such variations are suppressed. In particular, it is preferable that the same brightness correction is performed between a plurality of consecutive captured images in continuous shooting or the like.

そこで、明るさの異なる複数の被写体人物が比較的近い距離に存在する撮影シーンを撮影する複数の画像に対して、同様の明るさ補正を安定的に施すことが可能な撮像装置およびそれに関連する技術を提供することを課題とする。   Therefore, an imaging apparatus capable of stably performing the same brightness correction on a plurality of images capturing a shooting scene in which a plurality of subject persons having different brightness exist at a relatively close distance, and the related apparatus The issue is to provide technology.

本発明の第1の側面は、撮像装置または画像処理装置であって、複数のAFエリアにそれぞれ対応する各対象エリアから人物の顔領域をそれぞれ抽出する抽出手段と、前記抽出手段により抽出された各顔領域の輝度をそれぞれ算出する輝度算出手段と、前記各顔領域に対応するAFエリアの被写体に関する距離情報をそれぞれ求める距離情報取得手段と、前記各顔領域に対応するAFエリアの前記距離情報に応じて前記各顔領域に対する重み付け係数を設定し、前記各顔領域の輝度と前記各顔領域の重み付け係数とに基づいて前記撮影画像の明るさを補正する補正手段とを備えるものである。   A first aspect of the present invention is an imaging device or an image processing device, which extracts a human face area from each target area corresponding to each of a plurality of AF areas, and is extracted by the extraction unit Luminance calculation means for calculating the brightness of each face area, distance information acquisition means for obtaining distance information about the subject in the AF area corresponding to each face area, and the distance information for the AF area corresponding to each face area And a correction means for setting a weighting coefficient for each face area in accordance with the brightness of the photographed image based on the luminance of each face area and the weighting coefficient for each face area.

本発明の第2の側面は、プログラムであって、コンピュータに、a)複数のAFエリアにそれぞれ対応する各対象エリアから人物の顔領域をそれぞれ抽出し、抽出された各顔領域の輝度をそれぞれ算出する手順と、b)前記各顔領域に対応するAFエリアの被写体に関する距離情報をそれぞれ求める手順と、c)前記各顔領域に対応するAFエリアの前記距離情報に応じて前記各顔領域に対する重み付け係数を設定し、前記各顔領域の輝度と前記各顔領域の重み付け係数とに基づいて前記撮影画像の明るさを補正する手順とを実行させるためのものである。   According to a second aspect of the present invention, there is provided a program, in which a) a person's face area is extracted from each target area corresponding to each of a plurality of AF areas, and the brightness of each extracted face area is set. A procedure for calculating, b) a procedure for obtaining distance information about the subject in the AF area corresponding to each face area, and c) a step for each face area according to the distance information for the AF area corresponding to each face area. A procedure for setting a weighting coefficient and correcting the brightness of the photographed image based on the luminance of each face area and the weighting coefficient of each face area is executed.

本発明によれば、明るさの異なる複数の被写体人物が比較的近い距離に存在する撮影シーンを撮影する複数の画像に対して、同様の明るさ補正を安定的に施すことが可能である。   According to the present invention, it is possible to stably perform the same brightness correction on a plurality of images capturing a shooting scene in which a plurality of subject persons having different brightness exist at a relatively close distance.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1実施形態>
<1−1.構成概要>
図1および図2は、本発明の第1実施形態に係る撮像装置1の外観構成を示す図である。ここで、図1は、撮像装置1の正面外観図であり、図2は、撮像装置1の背面外観図である。この撮像装置1は、レンズ交換式一眼レフレックスタイプのデジタルカメラとして構成されている。なお、撮像装置1は、後述のような画像処理を実行する画像処理装置であるとも表現される。
<1. First Embodiment>
<1-1. Outline of configuration>
1 and 2 are diagrams showing an external configuration of the imaging apparatus 1 according to the first embodiment of the present invention. Here, FIG. 1 is a front external view of the image pickup apparatus 1, and FIG. 2 is a rear external view of the image pickup apparatus 1. This imaging device 1 is configured as a lens interchangeable single-lens reflex digital camera. The imaging device 1 is also expressed as an image processing device that performs image processing as described below.

図1に示すように、撮像装置1は、カメラ本体部(カメラボディ)2を備えている。このカメラ本体部2に対して、交換式の撮影レンズユニット(交換レンズ)3が着脱可能である。   As shown in FIG. 1, the imaging device 1 includes a camera body (camera body) 2. An interchangeable photographic lens unit (interchangeable lens) 3 can be attached to and detached from the camera body 2.

撮影レンズユニット3は、主として、鏡胴36、ならびに、鏡胴36の内部に設けられるレンズ群37(図3参照)及び絞り等によって構成される。レンズ群37(撮影光学系)には、光軸方向に移動することによって焦点位置を変更するフォーカスレンズ等が含まれている。   The photographic lens unit 3 mainly includes a lens barrel 36, a lens group 37 (see FIG. 3) provided in the lens barrel 36, a diaphragm, and the like. The lens group 37 (shooting optical system) includes a focus lens that changes the focal position by moving in the optical axis direction.

カメラ本体部2は、撮影レンズユニット3が装着される円環状のマウント部Mtを正面略中央に備え、撮影レンズユニット3を着脱するための着脱ボタン89を円環状のマウント部Mt付近に備えている。   The camera body 2 includes an annular mount Mt to which the photographing lens unit 3 is attached at the front center, and an attach / detach button 89 for attaching / detaching the photographing lens unit 3 near the annular mount Mt. Yes.

また、カメラ本体部2は、その正面左上部にモード設定ダイヤル82を備え、その正面右上部に制御値設定ダイヤル86を備えている。モード設定ダイヤル82を操作することによれば、カメラの各種モード(各種撮影モード(人物撮影モード、風景撮影モード、およびフルオート撮影モード等)、撮影した画像を再生する再生モード、および外部機器との間でデータ交信を行う通信モード等を含む)の設定動作(切替動作)を行うことが可能である。また、制御値設定ダイヤル86を操作することによれば、各種撮影モードにおける制御値を設定することが可能である。   Further, the camera body 2 is provided with a mode setting dial 82 in the upper left part of the front surface and a control value setting dial 86 in the upper right part of the front surface. By operating the mode setting dial 82, various camera modes (such as various shooting modes (portrait shooting mode, landscape shooting mode, full-auto shooting mode, etc.), playback mode for playing back captured images, (Including a communication mode in which data communication is performed) is performed (switching operation). Further, by operating the control value setting dial 86, it is possible to set control values in various shooting modes.

また、カメラ本体部2は、正面左端部に撮影者が把持するためのグリップ部14を備えている。グリップ部14の上面には露光開始を指示するためのレリーズボタン11が設けられている。グリップ部14の内部には電池収納室とカード収納室とが設けられている。電池収納室にはカメラの電源として、例えばリチウムイオン電池が収納されており、カード収納室には撮影画像の画像データを記録するためのメモリカード90(図3参照)が着脱可能に収納される。   Further, the camera body 2 includes a grip portion 14 for a photographer to hold at the left end of the front. A release button 11 for instructing the start of exposure is provided on the upper surface of the grip portion 14. A battery storage chamber and a card storage chamber are provided inside the grip portion 14. For example, a lithium ion battery is housed in the battery compartment as a power source for the camera, and a memory card 90 (see FIG. 3) for recording image data of a photographed image is detachably housed in the card compartment. .

レリーズボタン11は、半押し状態(S1状態)と全押し状態(S2状態)との2つの状態を検出可能な2段階検出ボタンである。レリーズボタン11が半押しされS1状態になると、被写体に関する記録用静止画像(本撮影画像)を取得するための準備動作(例えば、AF制御動作およびAE制御動作等)が行われる。また、レリーズボタン11がさらに押し込まれてS2状態になると、当該本撮影画像の撮影動作(撮像素子5(後述)を用いて被写体像(被写体の光像)に関する露光動作を行い、その露光動作によって得られた画像信号に所定の画像処理を施す一連の動作)が行われる。   The release button 11 is a two-stage detection button that can detect two states, a half-pressed state (S1 state) and a fully-pressed state (S2 state). When the release button 11 is half-pressed to enter the S1 state, a preparation operation (for example, an AF control operation and an AE control operation) for acquiring a recording still image (main captured image) related to the subject is performed. When the release button 11 is further pushed into the S2 state, an exposure operation related to a subject image (light image of the subject is performed using the imaging device 5 (described later) using the imaging element 5 (described later), and the exposure operation is performed. A series of operations for applying predetermined image processing to the obtained image signal is performed.

図2において、カメラ本体部2の背面略中央上部には、ファインダ窓(接眼窓)10が設けられている。撮影者は、ファインダ窓10を覗くことによって、撮影レンズユニット3から導かれた被写体の光像を視認して構図決定を行うことができる。すなわち、光学ファインダを用いて構図決めを行うことが可能である。   In FIG. 2, a finder window (eyepiece window) 10 is provided at the upper center of the back surface of the camera body 2. The photographer can determine the composition by viewing the viewfinder window 10 and visually recognizing the light image of the subject guided from the photographing lens unit 3. That is, it is possible to determine the composition using an optical finder.

図2において、カメラ本体部2の背面の略中央には、背面モニタ12が設けられている。背面モニタ12は、例えばカラー液晶ディスプレイ(LCD)として構成される。背面モニタ12は、撮影条件等を設定するためのメニュー画面を表示すること、および再生モードにおいてメモリカード90に記録された撮影画像を再生表示することなどが可能である。   In FIG. 2, a rear monitor 12 is provided in the approximate center of the rear surface of the camera body 2. The rear monitor 12 is configured as a color liquid crystal display (LCD), for example. The rear monitor 12 can display a menu screen for setting shooting conditions and the like, and can reproduce and display the captured image recorded in the memory card 90 in the reproduction mode.

背面モニタ12の左上部にはメインスイッチ81が設けられている。メインスイッチ81は2点スライドスイッチからなり、接点を左方の「OFF」位置に設定すると、電源がオフになり、接点の右方の「ON」位置に設定すると、電源がオンになる。   A main switch 81 is provided at the upper left of the rear monitor 12. The main switch 81 is a two-point slide switch. When the contact is set to the left “OFF” position, the power is turned off. When the contact is set to the right “ON” position, the power is turned on.

背面モニタ12の右側には方向選択キー84が設けられている。この方向選択キー84は円形の操作ボタンを有し、この操作ボタンにおける上下左右の4方向の押圧操作と、右上、左上、右下及び左下の4方向の押圧操作とを、それぞれ検出できるように構成されている。なお、方向選択キー84は、上記8方向の押圧操作とは別に、中央部のプッシュボタンの押圧操作も検出できる。   A direction selection key 84 is provided on the right side of the rear monitor 12. This direction selection key 84 has a circular operation button so that it can detect a pressing operation in four directions of upper, lower, left and right, and a pressing operation in four directions of upper right, upper left, lower right and lower left. It is configured. In addition, the direction selection key 84 can also detect the push operation of the push button in the center, in addition to the push operation in the eight directions.

背面モニタ12の左側には、メニュー画面の設定、画像の削除などを行うための複数のボタンからなる設定ボタン群83が設けられている。   A setting button group 83 including a plurality of buttons for setting a menu screen, deleting an image, and the like is provided on the left side of the rear monitor 12.

<1−2.機能ブロック>
つぎに、図3を参照しながら、撮像装置1の機能の概要について説明する。図3は、撮像装置1の機能構成を示すブロック図である。
<1-2. Functional block>
Next, an overview of functions of the imaging apparatus 1 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus 1.

図3に示すように、撮像装置1は、操作部80、全体制御部101、フォーカス制御部121、ミラー制御部122、シャッタ制御部123、タイミング制御回路124、およびデジタル信号処理回路50等を備える。   As shown in FIG. 3, the imaging apparatus 1 includes an operation unit 80, an overall control unit 101, a focus control unit 121, a mirror control unit 122, a shutter control unit 123, a timing control circuit 124, a digital signal processing circuit 50, and the like. .

操作部80は、レリーズボタン11(図1参照)を含む各種ボタンおよびスイッチ等を備えて構成される。操作部80に対するユーザーの入力操作に応答して、全体制御部101が各種動作を実現する。   The operation unit 80 includes various buttons and switches including the release button 11 (see FIG. 1). In response to a user input operation on the operation unit 80, the overall control unit 101 implements various operations.

全体制御部101は、マイクロコンピュータとして構成され、主にCPU、メモリ、及びROM等を備える。全体制御部101は、ROM(EEPROM等)内に格納されるプログラムを読み出し、当該プログラムをCPUで実行することによって、各種の機能を実現する。   The overall control unit 101 is configured as a microcomputer and mainly includes a CPU, a memory, a ROM, and the like. The overall control unit 101 implements various functions by reading a program stored in a ROM (such as an EEPROM) and executing the program on the CPU.

全体制御部101は、距離情報取得部21と顔領域抽出部22と輝度算出部23と補正制御部24とを含む各処理部を実現する。   The overall control unit 101 realizes each processing unit including a distance information acquisition unit 21, a face area extraction unit 22, a luminance calculation unit 23, and a correction control unit 24.

距離情報取得部21は、AFモジュール20、レンズ位置検出部39およびフォーカス制御部121によって取得された情報等に基づいて、複数のAFエリア(合焦領域)FRi(図6参照)における各被写体に関する距離情報をそれぞれ求める。   The distance information acquisition unit 21 relates to each subject in a plurality of AF areas (focus areas) FRi (see FIG. 6) based on information acquired by the AF module 20, the lens position detection unit 39, and the focus control unit 121. Each distance information is obtained.

顔領域抽出部22は、複数のAFエリアFRiにそれぞれ対応する各対象エリアQRi(図6参照)から人物の顔領域HFi(図9参照)をそれぞれ抽出する。   The face area extraction unit 22 extracts a human face area HFi (see FIG. 9) from each target area QRi (see FIG. 6) corresponding to each of the plurality of AF areas FRi.

輝度算出部23は、顔領域抽出部22により抽出された複数の顔領域HFiのそれぞれの輝度を算出する。   The luminance calculation unit 23 calculates the luminance of each of the plurality of face regions HFi extracted by the face region extraction unit 22.

補正制御部24は、γ補正回路55等と協働して、撮像画像の階調変換を行う。補正制御部24は、複数の顔領域HFiに対応する各AFエリアFRiの距離情報に応じて各顔領域HFiのそれぞれの重み付け係数Wiを設定し、各顔領域HFiの輝度と各顔領域HFiの重み付け係数Wiとに基づいて撮影画像の明るさを補正する。   The correction control unit 24 performs gradation conversion of the captured image in cooperation with the γ correction circuit 55 and the like. The correction control unit 24 sets the weighting coefficient Wi of each face area HFi according to the distance information of each AF area FRi corresponding to the plurality of face areas HFi, and determines the brightness of each face area HFi and each face area HFi. The brightness of the captured image is corrected based on the weighting coefficient Wi.

全体制御部101は、これらの処理部を用いて、撮影画像に対する輝度調整動作(後述)等を実現する。   The overall control unit 101 uses these processing units to implement a brightness adjustment operation (described later) for a captured image.

また、全体制御部101は、AFモジュール20およびフォーカス制御部121等と協動して、フォーカスレンズの位置を制御する合焦制御動作を行う。全体制御部101は、AFモジュール20によって検出される被写体の合焦状態に応じて、フォーカス制御部121を用いてAF動作を実現する。なお、AFモジュール20は、ミラー機構6を介して進入してきた光を用いて、位相差方式等の合焦状態検出手法により被写体の合焦状態を検出することが可能である。   The overall control unit 101 performs a focus control operation for controlling the position of the focus lens in cooperation with the AF module 20, the focus control unit 121, and the like. The overall control unit 101 implements an AF operation using the focus control unit 121 according to the focus state of the subject detected by the AF module 20. The AF module 20 can detect the in-focus state of the subject by using the light that has entered through the mirror mechanism 6 by a focus state detection method such as a phase difference method.

フォーカス制御部121は、全体制御部101から入力される信号に基づいて制御信号を生成しモータM1を駆動することによって、撮影レンズユニット3のレンズ群37に含まれるフォーカスレンズを移動する。また、フォーカスレンズの位置は、撮影レンズユニット3のレンズ位置検出部39によって検出され、フォーカスレンズの位置を示すデータが全体制御部101に送られる。このように、フォーカス制御部121および全体制御部101等は、フォーカスレンズの光軸方向の動きを制御する。   The focus control unit 121 moves a focus lens included in the lens group 37 of the photographing lens unit 3 by generating a control signal based on a signal input from the overall control unit 101 and driving the motor M1. The position of the focus lens is detected by the lens position detection unit 39 of the photographing lens unit 3, and data indicating the position of the focus lens is sent to the overall control unit 101. As described above, the focus control unit 121, the overall control unit 101, and the like control the movement of the focus lens in the optical axis direction.

ミラー制御部122は、ミラー機構6が光路から退避した状態(ミラーアップ状態)とミラー機構6が光路を遮断した状態(ミラーダウン状態)との状態切替を制御する。ミラー制御部122は、全体制御部101から入力される信号に基づいて制御信号を生成しモータM2を駆動することによって、ミラーアップ状態とミラーダウン状態とを切り替える。   The mirror control unit 122 controls state switching between a state in which the mirror mechanism 6 is retracted from the optical path (mirror up state) and a state in which the mirror mechanism 6 blocks the optical path (mirror down state). The mirror control unit 122 switches between the mirror up state and the mirror down state by generating a control signal based on the signal input from the overall control unit 101 and driving the motor M2.

シャッタ制御部123は、全体制御部101から入力される信号に基づいて制御信号を生成しモータM3を駆動することによって、シャッタ4の開閉を制御する。   The shutter control unit 123 controls the opening and closing of the shutter 4 by generating a control signal based on the signal input from the overall control unit 101 and driving the motor M3.

タイミング制御回路124は、撮像素子5等に対するタイミング制御を行う。   The timing control circuit 124 performs timing control for the image sensor 5 and the like.

撮像素子(ここではCCDセンサ(単にCCDとも称する))5は、光電変換作用により被写体の光像を電気的信号に変換して、本撮影画像に係る画像信号(記録用の画像信号)を生成する。撮像素子5は、記録画像取得用の撮像素子であるとも表現される。   An imaging device (here, a CCD sensor (also simply referred to as a CCD)) 5 converts an optical image of a subject into an electrical signal by a photoelectric conversion action, and generates an image signal (recording image signal) related to the actual captured image. To do. The image sensor 5 is also expressed as an image sensor for acquiring a recorded image.

撮像素子5は、タイミング制御回路124から入力される駆動制御信号(蓄積開始信号および蓄積終了信号)に応答して、受光面に結像された被写体像の露光(光電変換による電荷蓄積)を行い、当該被写体像に係る画像信号を生成する。また、撮像素子5は、タイミング制御回路124から入力される読出制御信号に応答して、当該画像信号を信号処理部51へ出力する。また、タイミング制御回路124からのタイミング信号(同期信号)は、信号処理部51及びA/D(アナログ/デジタル)変換回路52にも入力される。   In response to the drive control signals (accumulation start signal and accumulation end signal) input from the timing control circuit 124, the image sensor 5 performs exposure (charge accumulation by photoelectric conversion) of the subject image formed on the light receiving surface. Then, an image signal related to the subject image is generated. Further, the image sensor 5 outputs the image signal to the signal processing unit 51 in response to the read control signal input from the timing control circuit 124. The timing signal (synchronization signal) from the timing control circuit 124 is also input to the signal processing unit 51 and the A / D (analog / digital) conversion circuit 52.

撮像素子5で取得された画像信号は、信号処理部51において所定のアナログ信号処理が施され、当該アナログ信号処理後の画像信号はA/D変換回路52によってデジタル画像データ(画像データ)に変換される。この画像データは、デジタル信号処理回路50に入力される。   The image signal acquired by the image sensor 5 is subjected to predetermined analog signal processing in the signal processing unit 51, and the image signal after the analog signal processing is converted into digital image data (image data) by the A / D conversion circuit 52. Is done. This image data is input to the digital signal processing circuit 50.

デジタル信号処理回路50は、A/D変換回路52から入力される画像データに対してデジタル信号処理を行い、撮像画像に係る画像データを生成する。デジタル信号処理回路50は、黒レベル補正回路53、ホワイトバランス(WB)回路54、γ補正回路55及び画像メモリ56を備える。   The digital signal processing circuit 50 performs digital signal processing on the image data input from the A / D conversion circuit 52 to generate image data related to the captured image. The digital signal processing circuit 50 includes a black level correction circuit 53, a white balance (WB) circuit 54, a γ correction circuit 55, and an image memory 56.

黒レベル補正回路53は、A/D変換回路52が出力した画像データを構成する各画素データの黒レベルを基準の黒レベルに補正する。WB回路54は、画像のホワイトバランス調整を行う。γ補正回路55は、撮像画像の階調変換を行う。画像メモリ56は、生成された画像データを一時的に記憶するための、高速アクセス可能な画像メモリであり、複数フレーム分の画像データを記憶可能な容量を有する。   The black level correction circuit 53 corrects the black level of each pixel data constituting the image data output from the A / D conversion circuit 52 to a reference black level. The WB circuit 54 performs white balance adjustment of the image. The γ correction circuit 55 performs gradation conversion of the captured image. The image memory 56 is a high-speed accessible image memory for temporarily storing generated image data, and has a capacity capable of storing image data for a plurality of frames.

本撮影時には、画像メモリ56に一時記憶される画像データは、全体制御部101において適宜画像処理(圧縮処理等を含む)が施された後、カードI/F132を介してメモリカード90に記憶される。   At the time of actual photographing, the image data temporarily stored in the image memory 56 is appropriately subjected to image processing (including compression processing) in the overall control unit 101 and then stored in the memory card 90 via the card I / F 132. The

また、画像メモリ56に一時記憶される画像データは、全体制御部101によって適宜VRAM131に転送され、背面モニタ12に画像データに基づく画像が表示される。これによって、撮影画像を確認するための確認表示(アフタービュー)、および撮影済みの画像を再生する再生表示等が実現される。   Further, the image data temporarily stored in the image memory 56 is appropriately transferred to the VRAM 131 by the overall control unit 101, and an image based on the image data is displayed on the rear monitor 12. Thereby, confirmation display (after view) for confirming the captured image, reproduction display for reproducing the captured image, and the like are realized.

<1−3.撮影動作>
図4を参照しながら、撮像装置1の動作について説明する。図4は、撮像装置1の撮影動作直後における動作を示すフローチャートである。
<1-3. Shooting action>
The operation of the imaging apparatus 1 will be described with reference to FIG. FIG. 4 is a flowchart illustrating an operation immediately after the imaging operation of the imaging apparatus 1.

操作者によってレリーズボタン11が全押し状態S2にまで押下されて撮影指令が付与されると、撮像装置1は、シャッタ4を所定の露光時間にわたって開放し、被写体に関する画像データを撮像素子5を用いて取得する。そして、撮像装置1は、当該画像データに対して次述するような輝度(明るさ)調整処理(γ補正)等を施す。この結果、輝度調整動作等が施された画像データが、本撮影画像として生成され、メモリカード90に記録される。以下では、撮像素子5により取得された露光画像(画像データ)が画像メモリ56に一時的に読み出された状態からメモリカード90に記録されるまでの動作について、輝度調整動作(画像処理動作)に関連する動作を中心に説明する。   When the release button 11 is pressed down to the fully-pressed state S2 by the operator and a shooting command is given, the image pickup apparatus 1 opens the shutter 4 for a predetermined exposure time and uses the image pickup device 5 for image data relating to the subject. Get. Then, the imaging apparatus 1 performs a brightness (brightness) adjustment process (γ correction) and the like as described below on the image data. As a result, the image data subjected to the brightness adjustment operation or the like is generated as a main photographic image and recorded in the memory card 90. Hereinafter, with respect to the operation from when the exposure image (image data) acquired by the image sensor 5 is temporarily read to the image memory 56 until it is recorded on the memory card 90, the luminance adjustment operation (image processing operation). The operation related to the above will be mainly described.

ここでは、図5に示されるような撮影シーンを想定する。この撮影シーンにおいては、右側の人物は直射日光の下で比較的明るい輝度状態を有しており、一方、左側の人物は日傘の影で比較的暗い輝度状態を有している。また、左側の人物と右側の人物とは互いに比較的近い距離に存在する。すなわち、この撮影シーンにおいては、明るさの異なる複数の被写体人物が比較的近い距離に存在する。   Here, a shooting scene as shown in FIG. 5 is assumed. In this shooting scene, the person on the right has a relatively bright luminance state under direct sunlight, while the person on the left has a relatively dark luminance state with the shadow of a parasol. Also, the left person and the right person are at a relatively close distance from each other. That is, in this shooting scene, a plurality of subject persons having different brightness exist at a relatively close distance.

この実施形態においては、以下のような動作を実行することによって、図5のような撮影シーンに関する複数の撮影画像を連続的に撮影する状況(例えば連写)において、当該複数の撮影画像に対して同様の明るさ補正を安定的に施すことが可能である。   In this embodiment, by performing the following operations, in a situation where a plurality of photographed images relating to the photographing scene as shown in FIG. 5 are continuously photographed (for example, continuous shooting), the plurality of photographed images are processed. Therefore, the same brightness correction can be stably performed.

ステップSP11においては、AFモジュール20に設けられた各AFエリア(合焦領域)FRi(ここでは4個のAFエリアFR1〜FR4(図6参照))に関連して、人物の顔領域HFiの抽出処理が施される。なお、ステップSP11〜SP18の処理は、複数のAFエリアFRiについて順次施される。具体的には、まず、複数のAFエリアFRiのうち、最初のAFエリア(例えばFR1)が処理対象のAFエリアとして選択される。   In step SP11, the face area HFi of the person is extracted in association with each AF area (focus area) FRi (here, four AF areas FR1 to FR4 (see FIG. 6)) provided in the AF module 20. Processing is performed. Note that the processing of steps SP11 to SP18 is sequentially performed for a plurality of AF areas FRi. Specifically, first, among the plurality of AF areas FRi, the first AF area (for example, FR1) is selected as the AF area to be processed.

ステップSP11における顔領域の抽出処理は、各AFエリアFRiを拡大した対象エリアQRi(すなわち、AFエリアFRiおよびその周辺エリア)を抽出対象領域(探索対象領域とも称する)として設定して実行される。   The face area extraction process in step SP11 is executed by setting the target area QRi (that is, the AF area FRi and its surrounding area) obtained by enlarging each AF area FRi as an extraction target area (also referred to as a search target area).

各対象エリアQRiは、対応する各AFエリアFRiを中心とする所定の大きさのエリアである。例えば、図6に示すように、AFエリアFR1には対象エリアQR1が対応し、AFエリアFR2には対象エリアQR2が対応する。また、AFエリアFR3,FR4に対しては、対象エリアQR3が対応する。   Each target area QRi is an area having a predetermined size centered on each corresponding AF area FRi. For example, as shown in FIG. 6, the target area QR1 corresponds to the AF area FR1, and the target area QR2 corresponds to the AF area FR2. The target area QR3 corresponds to the AF areas FR3 and FR4.

各対象エリアQR(QR1〜QR4)としては、図7に示される複数のブロック(区分領域)Bj(次述)のうち、横方向に12個および縦方向に16個配置された合計192個のブロックに対応するエリアが選択される。なお、図7は、画像G1における複数のブロックBjを示す図である。画面G1は、横方向に40個および縦方向に30個に区分されている。この結果、画像G1は、合計1200個の小領域(ブロック)Bjに区分されている。   As each target area QR (QR1 to QR4), among the plurality of blocks (partition areas) Bj shown in FIG. The area corresponding to the block is selected. FIG. 7 is a diagram illustrating a plurality of blocks Bj in the image G1. The screen G1 is divided into 40 pieces in the horizontal direction and 30 pieces in the vertical direction. As a result, the image G1 is divided into a total of 1200 small regions (blocks) Bj.

次に、選択されたAFエリアに対応する各対象エリアQRに関して、人物の顔領域の抽出処理が実行される。具体的には、各ブロックBjの肌色情報に基づいて顔領域が抽出される。より詳細には、各対象エリアQR内の肌色ブロックが顔領域(人物領域)であるととみなされて抽出される。また、各ブロックBjが肌色ブロック(その色が肌色に分類されるブロック)であるか否かは次のようにして判定される。   Next, for each target area QR corresponding to the selected AF area, a human face area extraction process is executed. Specifically, the face area is extracted based on the skin color information of each block Bj. More specifically, the skin color block in each target area QR is regarded as a face area (person area) and extracted. Whether each block Bj is a flesh color block (a block whose color is classified into flesh color) is determined as follows.

具体的には、まず、当該ブロックBj内の各画素のRGB成分の画素値が、輝度値Yと色成分Cr,Cbとに変換される。   Specifically, first, the pixel value of the RGB component of each pixel in the block Bj is converted into a luminance value Y and color components Cr and Cb.

そして、当該ブロックBj内の各画素の変換後の色成分(Cr,Cb)が、図8に示されるように、Cr−Cb空間(色空間)において肌色を表す所定の範囲EA(肌色エリアないし肌色空間とも称する)内に存在する場合には、当該画素は肌色画素であると判定される。   Then, the color components (Cr, Cb) after the conversion of each pixel in the block Bj are, as shown in FIG. 8, a predetermined range EA (skin color area or color) representing the skin color in the Cr-Cb space (color space). The pixel is determined to be a skin color pixel.

さらに、当該ブロックBjにおいて、このような肌色画素が所定の割合(例えば8割)を超える場合には、当該ブロックBjの色が肌色であると判定され、当該ブロックBjは「肌色ブロック」であると判定される。なお、これに限定されず、ブロックBj内の1つ又は複数の代表画素の色によって当該ブロックBjの色を決定するようにしてもよい。また、抽出された肌色ブロックBjは、色空間内の肌色空間EAにその色が属するブロックである、とも表現される。   Further, in the block Bj, when such skin color pixels exceed a predetermined ratio (for example, 80%), it is determined that the color of the block Bj is a skin color, and the block Bj is a “skin color block”. It is determined. Note that the present invention is not limited to this, and the color of the block Bj may be determined by the color of one or more representative pixels in the block Bj. The extracted skin color block Bj is also expressed as a block to which the color belongs to the skin color space EA in the color space.

ここにおいて、抽出された肌色ブロックBjは、人物の顔領域(人物領域)に属する領域であるとみなされ、肌色ブロックBjの集合領域が人物の顔領域HFであるとして抽出される。換言すれば、各対象エリアQR内の肌色ブロックBj(肌色領域)が顔領域HFとみなされて抽出される。   Here, the extracted skin color block Bj is regarded as an area belonging to the person's face area (person area), and the aggregate area of the skin color blocks Bj is extracted as the person's face area HF. In other words, the skin color block Bj (skin color region) in each target area QR is regarded as the face region HF and extracted.

図9は、抽出された顔領域HFi(HF1,HF2)を示す図である。図9においては、例えば、対象エリアQR1から顔領域HF1が抽出されている。また、対象エリアQR2から顔領域HF2が抽出されている。   FIG. 9 is a diagram showing the extracted face area HFi (HF1, HF2). In FIG. 9, for example, the face area HF1 is extracted from the target area QR1. Further, the face area HF2 is extracted from the target area QR2.

以上のようにして、或るAFエリアFRi(例えばFR1)に対応する対象エリアQRi(例えばQR1)から人物の顔領域HFiが抽出されると、ステップSP12からステップSP13に進む。   As described above, when the human face area HFi is extracted from the target area QRi (for example, QR1) corresponding to a certain AF area FRi (for example, FR1), the process proceeds from step SP12 to step SP13.

ステップSP13では、抽出された顔領域HFiの輝度YSiが算出される。具体的には、顔領域HFiに含まれる複数の肌色ブロックBjの平均輝度(肌色平均輝度)が顔領域HFiの輝度YSiとして算出される。   In step SP13, the brightness YSi of the extracted face area HFi is calculated. Specifically, the average brightness (skin color average brightness) of the plurality of skin color blocks Bj included in the face area HFi is calculated as the brightness YSi of the face area HFi.

また、ステップSP14では、或るAFエリアFRiにおける被写体に関する距離情報が取得される。換言すれば、各顔領域HGiに対応するAFエリアFRiの被写体に関する距離情報がそれぞれ求められる。   In step SP14, distance information about the subject in a certain AF area FRi is acquired. In other words, distance information regarding the subject in the AF area FRi corresponding to each face region HGi is obtained.

ここでは当該距離情報として、各AFエリアFRiにおけるデフォーカス量ΔDi(次述)を取得するものとする。具体的には、各AFエリアFRiにおける被写体を合焦状態にする(フォーカスレンズの)仮想的なレンズ位置(合焦レンズ位置とも称する)が求められ、各AFエリアFRiの合焦レンズ位置と実際のレンズ位置とのずれ量(詳細にはその絶対値)が、各AFエリアFRiのデフォーカス量ΔDiとして算出される。合焦しているAFエリアのデフォーカス量は0(ゼロ)である。   Here, it is assumed that a defocus amount ΔDi (described below) in each AF area FRi is acquired as the distance information. Specifically, a virtual lens position (of the focus lens) (also referred to as a focus lens position) for bringing the subject in each AF area FRi into focus is determined, and the focus lens position of each AF area FRi and the actual focus lens position are actually determined. Is calculated as a defocus amount ΔDi of each AF area FRi. The defocus amount of the in-focus AF area is 0 (zero).

なお、デフォーカス量ΔDiは、レンズ位置xと被写体距離Lとの関係を表すデータテーブル等に基づいて、撮像装置1から被写体までの距離Lに換算可能である。具体的には、実際のレンズ位置からデフォーカス量ΔDiを加算(あるいは減算)したレンズ位置に対応する被写体距離Lが、当該データテーブルに基づいて算出され得る。   Note that the defocus amount ΔDi can be converted into the distance L from the imaging device 1 to the subject based on a data table or the like representing the relationship between the lens position x and the subject distance L. Specifically, the subject distance L corresponding to the lens position obtained by adding (or subtracting) the defocus amount ΔDi from the actual lens position can be calculated based on the data table.

次のステップSP15では、各顔領域HFの重み付けがそれぞれ算出される。   In the next step SP15, the weight of each face area HF is calculated.

具体的には、例えば式(1)に基づいて、各AFエリアFRiの重み付け係数Wiが算出される。   Specifically, the weighting coefficient Wi of each AF area FRi is calculated based on, for example, the equation (1).

Figure 2009239792
Figure 2009239792

ただし、ΔDi>Dmaxのときには、Wi=0、とする。   However, when ΔDi> Dmax, Wi = 0.

ここで、値ΔDiはAFエリアFRiのデフォーカス量であり、値Dmaxは所定値である。   Here, the value ΔDi is the defocus amount of the AF area FRi, and the value Dmax is a predetermined value.

図10は、式(1)の関係を示すグラフである。図10に示されるように、デフォーカス量ΔDiが大きくなるにつれて、重み付け係数Wiは徐々に小さくなっていく。そして、デフォーカス量ΔDiが値Dmax以上になると、重み付け係数Wiは0(ゼロ)になる。   FIG. 10 is a graph showing the relationship of Equation (1). As shown in FIG. 10, the weighting coefficient Wi gradually decreases as the defocus amount ΔDi increases. When the defocus amount ΔDi is equal to or greater than the value Dmax, the weighting coefficient Wi is 0 (zero).

例えば、値Dmaxが2000(マイクロメートル)と定められる場合において、AFエリアFR1のデフォーカス量ΔD1が0(ゼロ)であり、AFエリアFR2のデフォーカス量ΔD2が100(マイクロメートル)であるとする。このときには、式(1)に基づいて、AFエリアFR1の重み付け係数W1は、1.0であるとして算出され(W1=1.0)、AFエリアFR2の重み付け係数W2は、0.95であるとして算出される(W2=0.95)。   For example, when the value Dmax is determined to be 2000 (micrometers), the defocus amount ΔD1 of the AF area FR1 is 0 (zero), and the defocus amount ΔD2 of the AF area FR2 is 100 (micrometers). . At this time, the weighting coefficient W1 of the AF area FR1 is calculated as 1.0 based on the formula (1) (W1 = 1.0), and the weighting coefficient W2 of the AF area FR2 is 0.95. (W2 = 0.95).

また、所定値Dmaxは、例えば次のようにして定められればよい。   Further, the predetermined value Dmax may be determined as follows, for example.

一般的に合焦AFエリアの被写体から大きく離れた距離に存在する被写体は、主要な被写体でないことが多い。そして、主要でない被写体に関する輝度情報は、明るさ補正に反映されないことが好ましい。   In general, a subject that exists at a large distance from the subject in the focusing AF area is often not the main subject. And it is preferable that the luminance information regarding the non-main subject is not reflected in the brightness correction.

そこで、ここでは、明るさ補正に反映させるべき被写体に関するデフォーカス量の最大値として値Dmaxを定める。換言すれば、合焦している被写体から距離Xmaxよりも大きく離れた被写体に関する輝度情報を明るさ補正に反映させないものとする。   Therefore, here, the value Dmax is determined as the maximum value of the defocus amount related to the subject to be reflected in the brightness correction. In other words, luminance information relating to a subject that is farther than the distance Xmax from the focused subject is not reflected in the brightness correction.

具体的には、距離Xmaxと被写体倍率(被写体倍率)βとを用いて、式(2)に基づいて値Dmaxを定めればよい。   Specifically, the value Dmax may be determined based on Equation (2) using the distance Xmax and the subject magnification (subject magnification) β.

Figure 2009239792
Figure 2009239792

なお、この式(2)は、デフォーカス量ΔDiと被写体倍率βと合焦被写体からの距離Xとの関係を示す式(3)に基づいて算出される(図11参照)。また、被写体倍率βは、撮像装置1の焦点距離fと撮像装置1から合焦被写体までの距離Lとの比(β=f/L)として表現される。   The equation (2) is calculated based on the equation (3) indicating the relationship among the defocus amount ΔDi, the subject magnification β, and the distance X from the focused subject (see FIG. 11). The subject magnification β is expressed as a ratio (β = f / L) between the focal length f of the imaging device 1 and the distance L from the imaging device 1 to the focused subject.

Figure 2009239792
Figure 2009239792

例えば、Xmax=5(メートル)、β=1/50、とすると、式(2)に基づいて、値Dmaxは、Dmax=5×(1/50)×(1/50)=0.002(メートル)=2000(マイクロメートル)として算出されて定められる。   For example, if Xmax = 5 (meters) and β = 1/50, the value Dmax is calculated based on the equation (2) as follows: Dmax = 5 × (1/50) × (1/50) = 0.002 ( Meter) = 2000 (micrometers).

これにより、例えばAFエリアFR3,FR4の被写体が値Xmaxよりも遠い距離(例えば無限遠)に存在する場合には、当該AFエリアFR3,FR4に対応する対象エリアQR3,QR4に関する顔領域が仮に存在するとしても、当該顔領域の輝度は明るさ補正処理に影響を及ぼさない。   Thereby, for example, when the subject in the AF areas FR3 and FR4 exists at a distance (for example, infinity) farther than the value Xmax, a face area regarding the target areas QR3 and QR4 corresponding to the AF areas FR3 and FR4 temporarily exists. Even then, the brightness of the face area does not affect the brightness correction process.

一方、ステップSP11で肌色ブロックが全く検出されない場合には、ステップSP12からステップSP16に進む。   On the other hand, if no flesh color block is detected in step SP11, the process proceeds from step SP12 to step SP16.

ステップSP16では、ステップSP13とは異なり、顔領域の平均輝度(肌色平均輝度)YSiが0(ゼロ)に設定される。また、ステップSP17では、ステップSP15とは異なり、重み付け係数Wiが0(ゼロ)に設定される。   In step SP16, unlike step SP13, the average luminance (skin color average luminance) YSi of the face area is set to 0 (zero). In step SP17, unlike step SP15, the weighting coefficient Wi is set to 0 (zero).

以上のような動作(ステップSP11〜SP17)が或るAFエリアFRi(例えばFR1)に関して終了すると、ステップSP18に進む。   When the operation as described above (steps SP11 to SP17) is finished for a certain AF area FRi (for example, FR1), the process proceeds to step SP18.

ステップSP18においては、全てのAFエリアについて上記の動作(ステップSP11〜SP17)が終了したか否かが判定される。上記の動作が未だ実行されていないAFエリアが残存している場合には、別のAFエリアFRi(例えばFR2等)に関して上記のような処理が同様に実行される。そして、全てのAFエリアについて上記の動作が終了すると、複数の顔領域HFiの輝度YSiと複数の顔領域HFiの重み付け係数Wiとが算出された状態で、ステップSP19に進む。   In step SP18, it is determined whether or not the above operation (steps SP11 to SP17) has been completed for all AF areas. When an AF area where the above operation has not been performed still remains, the above-described processing is similarly performed with respect to another AF area FRi (for example, FR2). When the above operation is completed for all the AF areas, the process proceeds to step SP19 in a state where the luminance YSi of the plurality of face areas HFi and the weighting coefficient Wi of the plurality of face areas HFi are calculated.

ステップSP19では、各顔領域HFiの重み付け係数Wiに応じて各顔領域HFiの輝度YSiを重み付け加算した値YSが算出される。この値YSは、次のステップSP20における明るさ補正において基準輝度として利用される。このような値YSが基準輝度として利用されることによれば、合焦しているAFエリア周辺の顔領域の輝度だけでなく、他のAFエリア(特にそのデフォーカス量ΔDiが比較的小さなAFエリア)周辺の顔領域の輝度をも適切に反映させて明るさ補正を行うことができる。   In step SP19, a value YS obtained by weighting and adding the luminance YSi of each face area HFi according to the weighting coefficient Wi of each face area HFi is calculated. This value YS is used as the reference luminance in the brightness correction in the next step SP20. By using such a value YS as the reference brightness, not only the brightness of the face area around the focused AF area, but also other AF areas (especially AF whose defocus amount ΔDi is relatively small). Area) Brightness correction can be performed by appropriately reflecting the brightness of the surrounding face area.

基準輝度YSは、例えば、ステップSP13で取得された輝度YSiとステップSP15で取得された重み付け係数Wiとを用いて、式(4)に基づいて定められる。   The reference luminance YS is determined based on the equation (4) using, for example, the luminance YSi acquired in step SP13 and the weighting coefficient Wi acquired in step SP15.

Figure 2009239792
Figure 2009239792

そして、ステップSP20では、基準輝度YSに基づいて撮影画像G1の明るさが補正される。   In step SP20, the brightness of the captured image G1 is corrected based on the reference luminance YS.

具体的には、基準輝度YSが適正輝度となるように撮影画像G1の明るさが補正される。より詳細には、基準輝度YSを目標値YTに近づけるγ(ガンマ)補正曲線が採用され、当該γ補正曲線に基づくγ補正が施される。   Specifically, the brightness of the captured image G1 is corrected so that the reference luminance YS becomes an appropriate luminance. More specifically, a γ (gamma) correction curve that brings the reference luminance YS closer to the target value YT is adopted, and γ correction based on the γ correction curve is performed.

図12は、異なる補正量GCを有する複数のγ補正曲線を示す図である。「+30」、「+50」、「+70」は画像全体の輝度(明るさ)を増加させる曲線であり、「−30」、「−50」、「−70」は画像全体の輝度(明るさ)を減少させる曲線である。また、正負の符号の後の数値が大きくなるにつれて、その曲線による補正の程度が大きくなることを示している。   FIG. 12 is a diagram illustrating a plurality of γ correction curves having different correction amounts GC. “+30”, “+50”, and “+70” are curves that increase the luminance (brightness) of the entire image, and “−30”, “−50”, and “−70” are the luminance (brightness) of the entire image. It is a curve that decreases. In addition, as the numerical value after the positive / negative sign increases, the degree of correction by the curve increases.

例えば、基準輝度YS(値70)を目標値YT(値120)にするためには、平均値を約50増加させる(「+50」)γ補正曲線(GC=+50)が採用され、当該γ補正曲線に基づくγ補正が施される。   For example, in order to set the reference luminance YS (value 70) to the target value YT (value 120), a γ correction curve (GC = + 50) that increases the average value by about 50 (“+50”) is adopted, and the γ correction is performed. Γ correction based on the curve is performed.

この実施形態においては、以上のように基準輝度YSに基づいて撮影画像の明るさが補正される。   In this embodiment, the brightness of the captured image is corrected based on the reference luminance YS as described above.

ここにおいて、図5の撮影シーンに関して複数の画像を連続的に撮影する場合(例えば連写等)において、測距精度誤差あるいは人物の微小移動等に起因して、1枚目の画像では右側の人物が最も近い被写体であると判定され、2枚目の画像では左側の人物が最も近い被写体であると判定されるものとする。   Here, in the case where a plurality of images are continuously photographed with respect to the photographing scene of FIG. 5 (for example, continuous shooting), the right side of the first image is caused by a distance measurement accuracy error or a minute movement of a person. It is assumed that the person is determined to be the closest subject, and the left person is determined to be the closest subject in the second image.

また、比較例として、単純に最も近距離の人物に対応する顔領域の輝度に基づいて画像の明るさを調整する技術を仮に想定する。   In addition, as a comparative example, a technique for simply adjusting the brightness of an image based on the luminance of a face area corresponding to a person who is closest to the shortest distance is assumed.

このような比較例においては、1枚目の画像においては、比較的明るい人物を適正輝度に調整するために全体の輝度が比較的抑制され、一方、2枚目の画像では、比較的暗い人物を適正輝度に調整するために全体の輝度が比較的増加される。このため、1枚目の画像と2枚目の画像とでは互いに異なる明るさ補正が施されてしまう。すなわち、同様のシーンであるにもかかわらず複数の画像間で、明るさにばらつきが生じてしまう。   In such a comparative example, in the first image, the overall brightness is relatively suppressed in order to adjust a relatively bright person to an appropriate brightness, while in the second image, a relatively dark person In order to adjust the brightness to the proper brightness, the overall brightness is relatively increased. For this reason, different brightness corrections are applied to the first image and the second image. That is, the brightness varies among a plurality of images despite the same scene.

これに対して、上記の実施形態によれば、最も近距離の人物に対応する顔領域の輝度のみに基づいて画像の明るさが調整されるのではなく、複数の顔領域の輝度YSiが各重み付け係数Wiに基づいて反映された輝度YSに基づいて画像G1の明るさが補正される。   On the other hand, according to the above embodiment, the brightness YSi of the plurality of face regions is not adjusted based on only the brightness of the face region corresponding to the person at the shortest distance. The brightness of the image G1 is corrected based on the luminance YS reflected based on the weighting coefficient Wi.

例えば、2枚目の画像において左側の人物が最も近い被写体であると判定されたとしても、2枚目の画像における右側の人物に関するデフォーカス量ΔDi(ΔD2)は、1枚目の画像における左側の人物に関するデフォーカス量ΔDi(ΔD1)とほぼ同程度である。そのため、1枚目の撮影画像と2枚目の撮影画像との双方において、同様の基準輝度YSが算出され且つ同様の明るさ補正が施される。   For example, even if it is determined that the left person is the closest subject in the second image, the defocus amount ΔDi (ΔD2) regarding the right person in the second image is the left side in the first image. Is approximately the same as the defocus amount ΔDi (ΔD1) for the person. Therefore, the same reference luminance YS is calculated and the same brightness correction is performed on both the first photographed image and the second photographed image.

すなわち、明るさの異なる複数の被写体人物が比較的近い距離に存在する撮影シーンに関して、複数の画像を連続的に撮影する場合(例えば連写等)であっても、複数の画像の相互間で明るさにばらつきが生じることを抑制して、同様の明るさ補正を安定的に施すことが可能である。   That is, even in the case where a plurality of images are continuously shot (for example, continuous shooting, etc.) regarding a shooting scene in which a plurality of subject persons having different brightness exist at a relatively close distance, It is possible to stably perform the same brightness correction while suppressing variations in brightness.

<2.第2実施形態>
第2実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The second embodiment is a modification of the first embodiment. Below, it demonstrates centering on difference with 1st Embodiment.

上記第1実施形態においては、各顔領域HFiの重み付け係数Wiに応じて各顔領域HFiの輝度YSiを重み付け加算した値を基準輝度YSとして算出し、当該基準輝度YSに基づいて撮影画像の明るさを補正する場合を例示した。   In the first embodiment, a value obtained by weighting and adding the luminance YSi of each face area HFi according to the weighting coefficient Wi of each face area HFi is calculated as the reference luminance YS, and the brightness of the captured image is calculated based on the reference luminance YS. The case where the thickness is corrected is illustrated.

一方、この第2実施形態においては、各顔領域HFiの輝度YSiをそれぞれ目標輝度YTに近づけるための各補正量GCiをまず算出する。そして、各顔領域HFiの補正量GCiを各顔領域HFiの重み付け係数Wiに応じて加算した修正補正量GMを算出し、修正補正量GMを用いて撮影画像の明るさを補正する。   On the other hand, in the second embodiment, each correction amount GCi for calculating the brightness YSi of each face area HFi close to the target brightness YT is first calculated. Then, a correction correction amount GM is calculated by adding the correction amount GCi of each face region HFi according to the weighting coefficient Wi of each face region HFi, and the brightness of the captured image is corrected using the correction correction amount GM.

図13は、第2実施形態に係る動作を示すフローチャートである。図13に示すように、ステップSP31,SP35,SP39の処理に関しては第1実施形態と相違するが、それ以外に関しては第1実施形態と同様である。   FIG. 13 is a flowchart showing an operation according to the second embodiment. As shown in FIG. 13, the processing of steps SP31, SP35, and SP39 is different from that of the first embodiment, but the rest is the same as that of the first embodiment.

このうち、ステップSP31は、ステップSP13の次に実行される。   Of these, step SP31 is executed next to step SP13.

ステップSP31においては、或る顔領域HFiについてステップSP13で算出された輝度(肌色平均輝度)YSiに基づいて、顔領域HFiに関する明るさ補正の補正量GCiが決定される。具体的には、顔領域HFiの輝度YSiを目標輝度YTに近づけるための各補正量GCiが算出される。例えば、目標値YTが値120である場合に、輝度YSiが値90であるとすると、値+30が補正量GCiとして決定される。あるいは、輝度YSiが値170であるときには、補正量GCiとして値−50が決定される。   In step SP31, based on the brightness (skin color average brightness) YSi calculated in step SP13 for a certain face area HFi, a brightness correction correction amount GCi for the face area HFi is determined. Specifically, each correction amount GCi for calculating the brightness YSi of the face area HFi to be close to the target brightness YT is calculated. For example, when the target value YT is the value 120 and the luminance YSi is the value 90, the value +30 is determined as the correction amount GCi. Alternatively, when the luminance YSi is a value 170, the value −50 is determined as the correction amount GCi.

また、ステップSP35において、補正量GCiが0(ゼロ)に設定される。すなわち、対象エリアQR内に肌色領域が存在しない場合には補正量GCiが0に設定される。   In step SP35, the correction amount GCi is set to 0 (zero). That is, the correction amount GCi is set to 0 when there is no skin color area in the target area QR.

また、ステップSP39においては、修正補正量GMが算出される。この修正補正量GMは、複数の顔領域HFiの各補正量GCiを複数の顔領域HFiの各重み付けに応じて加算した値として算出される。具体的には、ステップSP31で取得された各補正量GCiとステップSP15で取得された重み付け係数Wiとを用いて、式(5)に基づいて定められる。   In step SP39, the correction correction amount GM is calculated. The correction correction amount GM is calculated as a value obtained by adding the correction amounts GCi of the plurality of face regions HFi in accordance with the weightings of the plurality of face regions HFi. Specifically, the correction amount GCi acquired at step SP31 and the weighting coefficient Wi acquired at step SP15 are used to determine the correction based on the equation (5).

Figure 2009239792
Figure 2009239792

そして、この修正補正量GMを用いて撮影画像G1の明るさが補正される。具体的には、この修正補正量GMに対応するγ(ガンマ)補正曲線が採用され、当該γ補正曲線に基づくγ補正が施される。   Then, the brightness of the captured image G1 is corrected using the correction correction amount GM. Specifically, a γ (gamma) correction curve corresponding to the correction correction amount GM is adopted, and γ correction based on the γ correction curve is performed.

この第2実施形態においては、以上のように修正補正量GMに基づいて撮影画像の明るさが補正される。このような態様によっても、第1実施形態と同様に、明るさの異なる複数の被写体人物が比較的近い距離に存在する撮影シーンを撮影する複数の画像に対して、同様の明るさ補正を安定的に施すことが可能である。   In the second embodiment, the brightness of the captured image is corrected based on the correction correction amount GM as described above. Even in such an aspect, similarly to the first embodiment, the same brightness correction is stably performed on a plurality of images that shoot a shooting scene in which a plurality of subject persons having different brightness exist at a relatively close distance. It can be applied automatically.

<3.第3実施形態>
上記第1実施形態および第2実施形態においては、肌色情報に基づいて顔領域HFを抽出する場合を例示したが、これに限定されない。例えば、画像における輪郭情報に基づいて、人物の顔領域HFを抽出するようにしてもよい。第3実施形態においては、このような変形例について説明する。以下では、第1実施形態との相違点を中心に説明する。
<3. Third Embodiment>
In the said 1st Embodiment and 2nd Embodiment, although the case where the face area | region HF was extracted based on skin color information was illustrated, it is not limited to this. For example, the human face area HF may be extracted based on the contour information in the image. In the third embodiment, such a modification will be described. Below, it demonstrates centering on difference with 1st Embodiment.

図14は、第3実施形態に係る動作を示すフローチャートである。図14に示すように、ステップSP41,SP42,SP43,SP46の処理に関しては第1実施形態と相違するが、それ以外に関しては第1実施形態と同様である。   FIG. 14 is a flowchart showing an operation according to the third embodiment. As shown in FIG. 14, the processing of steps SP41, SP42, SP43, and SP46 is different from that of the first embodiment, but the rest is the same as that of the first embodiment.

ステップSP41においては、撮影画像における輪郭情報に基づいて、人物の顔領域HFを抽出する。   In step SP41, a human face region HF is extracted based on the contour information in the captured image.

具体的には、まず、エッジ抽出フィルタ(例えばソーベル(Sobel)フィルタ)を用いて画像G1に対してエッジ抽出処理を施して画像G1b(図15参照)を得る。そして、この画像G1bにおけるAFエリアFRi周辺のエリアQRiを対象として、予め準備されたテンプレート画像とのパターンマッチング処理を行う。このパターンマッチング処理においては、図16のようなテンプレート画像TM1,TM2,TM3等が用いられる。図16には、その大きさが互いに異なる3つのテンプレート画像TM1,TM2,TM3が示されている。各テンプレート画像は、略楕円形状を有するエッジ画像である。これらのテンプレート画像を用いることによって、画像における輪郭情報に基づき人間の顔領域を抽出する。   Specifically, first, an edge extraction process is performed on the image G1 using an edge extraction filter (for example, a Sobel filter) to obtain an image G1b (see FIG. 15). Then, pattern matching processing with a template image prepared in advance is performed for the area QRi around the AF area FRi in the image G1b. In this pattern matching process, template images TM1, TM2, TM3 and the like as shown in FIG. 16 are used. FIG. 16 shows three template images TM1, TM2 and TM3 having different sizes. Each template image is an edge image having a substantially elliptical shape. By using these template images, a human face region is extracted based on contour information in the images.

また、ここでは、より正確に顔領域であるか否かを判別するために、抽出された顔領域(より詳細には顔領域の候補)のうち、領域内の所定の基準位置に目に相当する部分および/または口に相当する部分が存在するものを最終的な顔領域として抽出する(図17参照)。なお、図17においては、抽出された顔領域が斜線領域で示されている。   Also, here, in order to determine whether or not the face area is more accurate, it corresponds to the eye at a predetermined reference position in the extracted face area (more specifically, a face area candidate). A part having a part corresponding to the mouth and / or the mouth is extracted as a final face area (see FIG. 17). In FIG. 17, the extracted face area is indicated by a hatched area.

また、ステップSP42では、対象エリアQRに顔領域が存在するか否かに応じて分岐処理が行われる。対象エリアQRに顔領域が存在する場合にはステップSP43に進み、対象エリアQRに顔領域が存在しない場合にはステップSP46に進む。   In step SP42, branch processing is performed depending on whether or not a face area exists in the target area QR. When the face area exists in the target area QR, the process proceeds to step SP43, and when the face area does not exist in the target area QR, the process proceeds to step SP46.

ステップSP43では、抽出された顔領域HFiの輝度YSiが算出される。具体的には、顔領域HFiの輪郭内に含まれる複数のブロックBjの平均輝度が顔領域HFiの輝度YSiとして算出される。なお、ステップSP43においては、検出した略楕円形状の顔領域のうち下側半分の領域内に含まれる複数のブロックBjの平均輝度を顔領域HFiの輝度YSiとして算出するようにしてもよい。これによれば、頭髪部分の影響を低減することが可能である。   In step SP43, the luminance YSi of the extracted face area HFi is calculated. Specifically, the average brightness of the plurality of blocks Bj included in the outline of the face area HFi is calculated as the brightness YSi of the face area HFi. In step SP43, the average luminance of the plurality of blocks Bj included in the lower half region of the detected substantially elliptical face region may be calculated as the luminance YSi of the face region HFi. According to this, it is possible to reduce the influence of the hair portion.

一方、ステップSP46では、顔領域の平均輝度YSiが0(ゼロ)に設定される。   On the other hand, in step SP46, the average luminance YSi of the face area is set to 0 (zero).

その他のステップにおいては、第1実施形態と同様の動作が実行される。   In other steps, the same operation as in the first embodiment is executed.

このような態様によっても、第1実施形態と同様に、明るさの異なる複数の被写体人物が比較的近い距離に存在する撮影シーンを撮影する複数の画像に対して、同様の明るさ補正を安定的に施すことが可能である。   Even in such an aspect, similarly to the first embodiment, the same brightness correction is stably performed on a plurality of images that shoot a shooting scene in which a plurality of subject persons having different brightness exist at a relatively close distance. It can be applied automatically.

<4.その他>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<4. Other>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

例えば、上記第3実施形態の思想を第2実施形態に適用するようにしてもよい。具体的には、画像における輪郭情報に基づいて人物の顔領域HFを抽出し、抽出された顔領域HFに関する補正量GCiを求め、さらに式(5)を用いることによって各補正量GCiに対する重み付けを行って、最終的な明るさ補正量(修正補正量)GMを求めるようにしてもよい。   For example, the idea of the third embodiment may be applied to the second embodiment. Specifically, the face area HF of the person is extracted based on the contour information in the image, the correction amount GCi for the extracted face area HF is obtained, and the weights for the respective correction amounts GCi are weighted by using equation (5). The final brightness correction amount (correction correction amount) GM may be obtained.

また、上記各実施形態等においては、撮像装置1において記録用の撮影画像(本撮影画像)を得る際の画像処理技術に対して本発明の思想を適用する場合を例示したが、これに限定されない。例えば、撮像装置1によって取得された撮影画像に対して、パーソナルコンピュータ等のコンピュータを用いて画像処理を行う場合に本発明の思想を適用するようにしてもよい。具体的には、パーソナルコンピュータにおいて上記の機能を実現するプログラムを実行し、撮像装置1によって取得された撮影画像の明るさを補正するようにしてもよい。なお、この際、各AFエリアに関するデフォーカス量ΔDi等の情報を撮影画像に付随して格納しておき、当該デフォーカス量ΔDi等の情報を用いて上記と同様の動作を実行するようにすればよい。   Further, in each of the above-described embodiments, the case where the idea of the present invention is applied to the image processing technique for obtaining a recording image (main image) for recording in the imaging apparatus 1 is illustrated, but the present invention is not limited thereto. Not. For example, the idea of the present invention may be applied when image processing is performed on a captured image acquired by the imaging apparatus 1 using a computer such as a personal computer. Specifically, a program that realizes the above function may be executed in a personal computer to correct the brightness of the captured image acquired by the imaging apparatus 1. At this time, information such as the defocus amount ΔDi regarding each AF area is stored along with the photographed image, and the same operation as described above is executed using the information such as the defocus amount ΔDi. That's fine.

また、上記各実施形態等においては、記録用の静止画像(撮影画像)を得る際の画像処理技術に本発明の思想を適用する場合を例示したが、これに限定されない。例えば、ライブビュー画像などの動画像(撮影画像)を得る際の画像処理技術に本発明の思想を適用するようにしてもよい。   Further, in each of the above-described embodiments, the case where the idea of the present invention is applied to an image processing technique for obtaining a recording still image (captured image) is illustrated, but the present invention is not limited to this. For example, the idea of the present invention may be applied to an image processing technique for obtaining a moving image (captured image) such as a live view image.

撮像装置の正面外観図である。It is a front external view of an imaging device. 撮像装置の背面外観図である。It is a back external view of an imaging device. 撮像装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an imaging device. 撮像装置の撮影動作直後における動作を示すフローチャートである。It is a flowchart which shows the operation | movement immediately after imaging | photography operation | movement of an imaging device. 或る撮影シーンを示す図である。It is a figure which shows a certain imaging | photography scene. AFエリア等を示す図である。It is a figure which shows AF area etc. 撮影画像を区分した複数のブロックを示す図である。It is a figure which shows the some block which divided the picked-up image. Cr−Cb空間における肌色エリアを示す図である。It is a figure which shows the skin color area in Cr-Cb space. 抽出された顔領域を示す図である。It is a figure which shows the extracted face area | region. デフォーカス量と重み付け係数との関係を示す図である。It is a figure which shows the relationship between a defocus amount and a weighting coefficient. 合焦被写体からの距離などを示す図である。It is a figure which shows the distance etc. from a focusing object. 複数のγ補正曲線を示す図である。It is a figure which shows several gamma correction curves. 第2実施形態に係る動作を示すフローチャートである。It is a flowchart which shows the operation | movement which concerns on 2nd Embodiment. 第3実施形態に係る動作を示すフローチャートである。It is a flowchart which shows the operation | movement which concerns on 3rd Embodiment. エッジ画像を示す図である。It is a figure which shows an edge image. テンプレート画像を示す図である。It is a figure which shows a template image. 抽出された顔領域を示す図である。It is a figure which shows the extracted face area | region.

符号の説明Explanation of symbols

1 撮像装置
Bj ブロック
Cr,Cb 色成分
EA 肌色空間
FR1〜FR4 AFエリア
G1 撮影画像
G1b エッジ抽出画像
GC,GCi 補正量
GM 修正補正量
HF,HFi 顔領域
QR,QRi 対象エリア
Wi 重み付け係数
YS 基準輝度
YSi 平均輝度
YT 目標輝度
1 imaging device Bj block Cr, Cb color component EA skin color space FR1 to FR4 AF area G1 photographed image G1b edge extracted image GC, GCi correction amount GM correction correction amount HF, HFi face area QR, QRi target area Wi weighting coefficient YS reference luminance YSi average brightness YT Target brightness

Claims (7)

複数のAFエリアにそれぞれ対応する各対象エリアから人物の顔領域をそれぞれ抽出する抽出手段と、
前記抽出手段により抽出された各顔領域の輝度をそれぞれ算出する輝度算出手段と、
前記各顔領域に対応するAFエリアの被写体に関する距離情報をそれぞれ求める距離情報取得手段と、
前記各顔領域に対応するAFエリアの前記距離情報に応じて前記各顔領域に対する重み付け係数を設定し、前記各顔領域の輝度と前記各顔領域の重み付け係数とに基づいて前記撮影画像の明るさを補正する補正手段と、
を備えることを特徴とする撮像装置。
Extracting means for extracting a human face area from each target area corresponding to each of a plurality of AF areas;
Luminance calculating means for calculating the luminance of each face area extracted by the extracting means;
Distance information acquisition means for respectively obtaining distance information about the subject in the AF area corresponding to each face area;
A weighting coefficient for each face area is set according to the distance information of the AF area corresponding to each face area, and the brightness of the captured image is determined based on the brightness of each face area and the weighting coefficient of each face area. Correction means for correcting the thickness;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記抽出手段は、前記各対象エリア内の肌色領域を前記顔領域とみなして抽出することを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging device is characterized in that the extraction means extracts a skin color area in each target area as the face area.
請求項1に記載の撮像装置において、
前記抽出手段は、撮像画像内における輪郭情報に基づいて前記顔領域を抽出することを特徴とする撮像装置。
The imaging device according to claim 1,
The image pickup apparatus, wherein the extraction unit extracts the face area based on contour information in a picked-up image.
請求項1に記載の撮像装置において、
前記補正手段は、
前記各顔領域の重み付け係数に応じて前記各顔領域の輝度を重み付け加算した値を基準輝度として算出し、
当該基準輝度に基づいて前記撮影画像の明るさを補正することを特徴とする撮像装置。
The imaging device according to claim 1,
The correction means includes
A value obtained by weighted addition of the brightness of each face area according to the weighting coefficient of each face area is calculated as a reference brightness,
An imaging apparatus that corrects brightness of the captured image based on the reference luminance.
請求項1に記載の撮像装置において、
前記補正手段は、
前記各顔領域の輝度をそれぞれ目標輝度に近づけるための補正量をそれぞれ算出し、
前記各顔領域の補正量を前記各顔領域の重み付け係数に応じて重み付け加算した修正補正量を算出し、
前記修正補正量を用いて前記撮影画像の明るさを補正することを特徴とする撮像装置。
The imaging device according to claim 1,
The correction means includes
Calculating a correction amount for bringing the brightness of each face area close to the target brightness,
Calculating a correction correction amount obtained by weighting and adding the correction amount of each face area according to a weighting coefficient of each face area;
An imaging apparatus, wherein the brightness of the captured image is corrected using the correction correction amount.
複数のAFエリアにそれぞれ対応する各対象エリアから人物の顔領域をそれぞれ抽出する抽出手段と、
前記抽出手段により抽出された各顔領域の輝度をそれぞれ算出する輝度算出手段と、
前記各顔領域に対応するAFエリアの被写体に関する距離情報をそれぞれ求める距離情報取得手段と、
前記各顔領域に対応するAFエリアの前記距離情報に応じて前記各顔領域に対する重み付け係数を設定し、前記各顔領域の輝度と前記各顔領域の重み付け係数とに基づいて前記撮影画像の明るさを補正する補正手段と、
を備えることを特徴とする画像処理装置。
Extracting means for extracting a human face area from each target area corresponding to each of a plurality of AF areas;
Luminance calculating means for calculating the luminance of each face area extracted by the extracting means;
Distance information acquisition means for respectively obtaining distance information about the subject in the AF area corresponding to each face area;
A weighting coefficient for each face area is set according to the distance information of the AF area corresponding to each face area, and the brightness of the captured image is determined based on the brightness of each face area and the weighting coefficient of each face area. Correction means for correcting the thickness;
An image processing apparatus comprising:
コンピュータに、
a)複数のAFエリアにそれぞれ対応する各対象エリアから人物の顔領域をそれぞれ抽出し、抽出された各顔領域の輝度をそれぞれ算出する手順と、
b)前記各顔領域に対応するAFエリアの被写体に関する距離情報をそれぞれ求める手順と、
c)前記各顔領域に対応するAFエリアの前記距離情報に応じて前記各顔領域に対する重み付け係数を設定し、前記各顔領域の輝度と前記各顔領域の重み付け係数とに基づいて前記撮影画像の明るさを補正する手順と、
を実行させるためのプログラム。
On the computer,
a) extracting a human face area from each target area corresponding to each of a plurality of AF areas, and calculating the luminance of each extracted face area;
b) a procedure for obtaining distance information about the subject in the AF area corresponding to each face area;
c) A weighting coefficient for each face area is set according to the distance information of the AF area corresponding to each face area, and the captured image is based on the luminance of each face area and the weighting coefficient of each face area. The procedure to correct the brightness of
A program for running
JP2008085492A 2008-03-28 2008-03-28 Imaging device, image processing device, and program Pending JP2009239792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008085492A JP2009239792A (en) 2008-03-28 2008-03-28 Imaging device, image processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008085492A JP2009239792A (en) 2008-03-28 2008-03-28 Imaging device, image processing device, and program

Publications (1)

Publication Number Publication Date
JP2009239792A true JP2009239792A (en) 2009-10-15

Family

ID=41253172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008085492A Pending JP2009239792A (en) 2008-03-28 2008-03-28 Imaging device, image processing device, and program

Country Status (1)

Country Link
JP (1) JP2009239792A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118636A (en) * 2014-12-19 2016-06-30 キヤノン株式会社 Imaging device and method for controlling the same
WO2019163576A1 (en) * 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
WO2019218823A1 (en) * 2018-05-18 2019-11-21 杭州海康威视数字技术股份有限公司 Method and apparatus for calculating brightness value of region of interest

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118636A (en) * 2014-12-19 2016-06-30 キヤノン株式会社 Imaging device and method for controlling the same
WO2019163576A1 (en) * 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
EP3761629A4 (en) * 2018-02-26 2021-04-21 Sony Corporation Information processing device, information processing method, and program
US11430204B2 (en) 2018-02-26 2022-08-30 Sony Corporation Information processing device, information processing method, and program
WO2019218823A1 (en) * 2018-05-18 2019-11-21 杭州海康威视数字技术股份有限公司 Method and apparatus for calculating brightness value of region of interest
CN110505412A (en) * 2018-05-18 2019-11-26 杭州海康威视数字技术股份有限公司 A kind of calculation method and device of area-of-interest brightness value
EP3618422A4 (en) * 2018-05-18 2020-06-03 Hangzhou Hikvision Digital Technology Co., Ltd. Method and apparatus for calculating brightness value of region of interest
CN110505412B (en) * 2018-05-18 2021-01-29 杭州海康威视数字技术股份有限公司 Method and device for calculating brightness value of region of interest
US11205088B2 (en) 2018-05-18 2021-12-21 Hangzhou Hikvision Digital Technology Co., Ltd. Method and apparatus for calculating a luminance value of a region of interest

Similar Documents

Publication Publication Date Title
US8890993B2 (en) Imaging device and AF control method
US8111315B2 (en) Imaging device and imaging control method that detects and displays composition information
US8395694B2 (en) Apparatus and method for blurring image background in digital image processing device
JP4290100B2 (en) Imaging apparatus and control method thereof
JP4829186B2 (en) Imaging device
US8610784B2 (en) Imaging apparatus, imaging system, control method of imaging apparatus, and program
US10205878B2 (en) Image processing apparatus, image-capturing apparatus, image processing method, and non-transitory computer-readable storage medium
US8345147B2 (en) Image pickup apparatus
JP5277873B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2003307669A (en) Camera
JP2016032181A (en) Image processing apparatus, image pickup device and image processing method
JP2008104069A (en) Digital camera and program of digital camera
JP4853414B2 (en) Imaging apparatus, image processing apparatus, and program
JP2010072619A (en) Exposure operation device and camera
CN104246597A (en) Imaging device, imaging method, recording medium and program
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP2009239792A (en) Imaging device, image processing device, and program
JP2011217334A (en) Imaging apparatus and method of controlling the same
JP2009053296A (en) Imaging device and control method for same
JP2008172732A (en) Imaging apparatus, control method thereof, and program
CN105991910B (en) Image pickup apparatus and control method thereof
JP2009219085A (en) Imaging apparatus
JP2014206711A (en) Imaging apparatus, and control method therefor
JP2012003128A (en) Autofocus control device, electronic camera, and autofocus control method
JP2009267893A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100329