JP6786643B2 - Exposure control device, exposure control method, and program - Google Patents

Exposure control device, exposure control method, and program Download PDF

Info

Publication number
JP6786643B2
JP6786643B2 JP2019029679A JP2019029679A JP6786643B2 JP 6786643 B2 JP6786643 B2 JP 6786643B2 JP 2019029679 A JP2019029679 A JP 2019029679A JP 2019029679 A JP2019029679 A JP 2019029679A JP 6786643 B2 JP6786643 B2 JP 6786643B2
Authority
JP
Japan
Prior art keywords
exposure control
face
exposure
face region
photometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019029679A
Other languages
Japanese (ja)
Other versions
JP2019118115A (en
Inventor
天志 上坂
天志 上坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019029679A priority Critical patent/JP6786643B2/en
Publication of JP2019118115A publication Critical patent/JP2019118115A/en
Application granted granted Critical
Publication of JP6786643B2 publication Critical patent/JP6786643B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、露出制御装置、露出制御方法、およびプログラムに関し、特に、動画撮影の際の露出制御に関する。 The present invention relates to an exposure control device, an exposure control method, and a program, and more particularly to an exposure control during moving image shooting.

一般に、デジタルカメラなどの撮像装置において静止画を撮影する際、その測光として撮影画面を複数のエリアに分割して測光が行われる。そして、複数のエリアにおいて明るい部分と暗い部分とのバランスに応じて露出を決める評価測光があり、さらには、特定の狭い領域のみについて測光を行うスポット測光などがある。いずれの側光においても測光領域の決定あるいは分割エリア毎の重み付けの決定の際にはピント合わせを行う焦点検出領域の位置情報が用いられる。 Generally, when a still image is photographed by an imaging device such as a digital camera, the photographing screen is divided into a plurality of areas for photometry. Then, there is evaluative metering that determines the exposure according to the balance between the bright part and the dark part in a plurality of areas, and further, there is spot metering that measures only a specific narrow area. In any of the side lights, the position information of the focus detection region for focusing is used when determining the metering region or the weighting for each divided area.

一方、動画撮影の際に用いられる測光においては、被写体の移動および構図の変更に関して、露出の安定性を重視して露出制御が行われる。このため、画面中央に重みを置きつつ比較的広い範囲を平均的に測光する中央部重点平均測光を専用の測光モードとして備える撮像装置がある。 On the other hand, in photometry used when shooting a moving image, exposure control is performed with an emphasis on exposure stability with respect to movement of the subject and change of composition. For this reason, there is an imaging device provided with a center-weighted average metering as a dedicated metering mode, which averagely measures a relatively wide range while placing a weight in the center of the screen.

さらに、近年、撮影画像から人物の顔を検知して追尾する手法が撮像装置に用いられている。そして、動画撮影の際に、人物の顔が検知された場合には測光を中央部重点平均測光から顔部分の分割エリア(測光分割領域)に重み付けをおく顔評価測光に切り替える制御を行う撮像装置がある。 Further, in recent years, a method of detecting and tracking a person's face from a captured image has been used in an imaging device. Then, when a person's face is detected during movie shooting, an imaging device that controls switching from center-weighted average metering to face-evaluation metering that weights the face division area (photometric division area). There is.

この撮像装置においては、人物の顔が検知できないと、中央部重点平均測光を用いて露出制御が行われることになる。この場合、例えば、画面中央が明るく、画面の端に逆光気味の人物が存在する構図であると、画面中央については白飛びが抑止されて適正レベルの露出となるものの、人物の顔については暗めの露出となってしまう。 If the face of a person cannot be detected in this imaging device, exposure control is performed using center-weighted average metering. In this case, for example, if the center of the screen is bright and there is a person with a slight backlight at the edge of the screen, overexposure is suppressed in the center of the screen and the exposure is at an appropriate level, but the face of the person is darkened. Will be exposed.

加えて、人物の顔が検知可能であるか否かが微妙である状態が継続すると、つまり、顔検知可能な状態と顔検知不可の状態が交互に現れると、上記の撮像装置では顔評価測光と中央部重点平均測光とが断続的に切り替えられることになる。その結果、露出が断続的に変化することになって明るさがちらついた動画となる。 In addition, if the state in which it is delicate whether or not the face of a person can be detected continues, that is, when the state in which the face can be detected and the state in which the face cannot be detected appear alternately, the above image pickup apparatus performs face evaluation metering. And the central focused average metering will be switched intermittently. As a result, the exposure changes intermittently, resulting in a moving image with flickering brightness.

上述のような測光の切り替えの発生を抑制するため、顔検出結果についてチャタリング処理、つまり、複数回の顔検出結果を参照して、測光手法を決定する撮像装置が知られている(特許文献1参照)。 In order to suppress the occurrence of switching of photometry as described above, there is known an imaging device that determines a photometric method by chattering the face detection result, that is, referring to a plurality of face detection results (Patent Document 1). reference).

特開2010−41399号公報Japanese Unexamined Patent Publication No. 2010-41399

ところが、チャタリング処理によって顔検知結果の揺らぎを抑制しようとすると、次のような課題がある。 However, when trying to suppress the fluctuation of the face detection result by the chattering process, there are the following problems.

画面に人物が存在する構図で動画を撮影中に、画面を別の物体が横切ると、複数回の顔検知結果を参照する結果、人物の前を別の物体が横切り始めてから顔検出不可という判定結果がでるまでに遅延が生じる。このため、人物の前を別の物体が横切り始めてから顔検出不可という判定結果がでるまでの間は、横切った物体の明るさを人物の顔の明るさとみなして顔評価測光が行われ、横切った物体に露出制御が影響されるという現象が生じる。 If another object crosses the screen while shooting a video with a composition in which a person exists on the screen, as a result of referring to the face detection results multiple times, it is judged that the face cannot be detected after the other object starts crossing in front of the person. There will be a delay before the results are available. For this reason, from the time when another object starts to cross in front of the person until the judgment result that the face cannot be detected is obtained, the brightness of the crossed object is regarded as the brightness of the person's face and face evaluation metering is performed and the face is crossed. A phenomenon occurs in which exposure control is affected by an object.

例えば、横切った物体が黒色であると、適正露出であった顔が一時的に露出オーバーとなって露出のふらつきが生じることがある。特に、二人の人物が存在する撮影シーンにおいて、主被写体(主顔)を黒色の物体が横切ると、他方の被写体に対する露出が適正状態から外れてしまうことになる。 For example, if the crossed object is black, the face that was properly exposed may be temporarily overexposed and the exposure may fluctuate. In particular, in a shooting scene in which two people are present, if a black object crosses the main subject (main face), the exposure to the other subject will be out of the proper state.

そこで、本発明の目的は、顔検出の誤検知および揺らぎに起因する露出の影響を防止するとともに、物体が横切った際の露出の影響を抑えることのできる露出制御装置、露出制御方法、およびプログラムを提供することにある。 Therefore, an object of the present invention is an exposure control device, an exposure control method, and a program capable of preventing the influence of exposure due to false detection and fluctuation of face detection and suppressing the influence of exposure when an object crosses. Is to provide.

上記の目的を達成するため、本発明による露出制御装置は、被写体を撮像して得られた画像から顔領域を検知する検知手段と、前記顔領域に重みを付けて測光を行う第1の測光方式又は前記第1の測光方式とは異なる第2の測光方式による測光結果に基づいて露出制御を行う露出制御手段と、を有し、前記第1の測光方式では、前記検知手段によって1つ以上の前記顔領域が検知された場合に、所定の条件を満たす顔領域に重みを付けて測光を行い、前記露出制御手段は、動画の取得中に前記第1の測光方式で露出制御を行っている際に、前記所定の条件を満たす顔領域が検知されなくなった後の所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知したことに応じて、当該新たに検知された顔領域に重みを付けて前記第1の測光方式を用いて再び露出制御を行い、前記所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知しない場合には、前記所定の期間が経過したことに応じて前記第2の測光方式を用いて露出制御を行い、前記第1の測光方式から前記第2の測光方式に変更する場合、変更前の前記第1の測光方式による測光結果に基づく露出を前記所定の期間において維持した後に、前記第2の測光方式を用いて露出制御を行い、前記露出制御手段は、動画の取得中に前記第1の測光方式で露出制御を行っておらず且つ前記所定の条件を満たす顔領域が検知されていない場合は、前記所定の期間の経過に依らずに前記第2の測光方式を用いて露出制御を行うことを特徴とする。 In order to achieve the above object, the exposure control device according to the present invention includes a detection means for detecting a face region from an image obtained by photographing a subject, and a first photometric measurement in which the face region is weighted and metered. It has an exposure control means for performing exposure control based on a method or a second photometric method different from the first photometric method, and in the first photometric method, one or more by the detection means. When the face area is detected, the face area satisfying a predetermined condition is weighted and measured, and the exposure control means performs exposure control by the first light measuring method during acquisition of a moving image. In a predetermined period after the face region satisfying the predetermined condition is no longer detected, the detection means newly detects the new face region according to the detection of the new face region satisfying the predetermined condition. When the face region is weighted and the exposure control is performed again using the first photometric method, and the detection means does not detect a new face region satisfying the predetermined condition in the predetermined period. When exposure control is performed using the second photometric method according to the elapse of the predetermined period and the first photometric method is changed to the second photometric method, the first photometric method before the change is performed. After maintaining the exposure based on the photometric result by the photometric method according to the above predetermined period, the exposure is controlled by using the second photometric method, and the exposure control means uses the first photometric method during the acquisition of the moving image. If the exposure control is not performed and the face region satisfying the predetermined condition is not detected, the exposure control is performed using the second photometric method regardless of the elapse of the predetermined period. It is a feature.

本発明によれば、顔領域などの特定領域検知の際の誤検知および揺らぎに起因する露出の影響を防止するとともに、物体が横切った際の露出の影響を抑えることができる。 According to the present invention, it is possible to prevent the influence of exposure caused by false detection and fluctuation when detecting a specific area such as a face area, and to suppress the influence of exposure when an object crosses.

従来の撮像装置における動画撮影の一例を説明するための図であり、(A)は顔が検知できた状態の画像を示す図、(B)は顔が検知できない状態の画像を示す図である。It is a figure for demonstrating an example of moving image shooting in a conventional image pickup apparatus, (A) is a figure which shows the image of the state which a face can detect, (B) is a figure which shows the image of the state where a face cannot be detected. .. 従来の撮像装置における動画撮影の他の例を説明するための図であり、(A)は人物が一人である場合に物体が横切った状態を示す図、(A)は人物が二人である場合に物体が横切った状態を示す図である。It is a figure for demonstrating another example of moving image shooting in a conventional image pickup apparatus, (A) is the figure which shows the state which the object crossed when there is one person, (A) is the figure which there are two people. It is a figure which shows the state which the object crossed in the case. 本発明の実施の形態による撮像装置の一例についてその構成を示す図である。It is a figure which shows the structure about the example of the image pickup apparatus by embodiment of this invention. 図3に示すカメラで行われる撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the shooting operation performed by the camera shown in FIG. 図4に示す露出制御を説明するためのフローチャートである。It is a flowchart for demonstrating the exposure control shown in FIG. 図5に示す顔使用判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face use determination process shown in FIG. 図1に示すカメラマイコンに記憶された顔リストを説明するための図であり、(a)は顔リストの一例を示す図、(b)は並べ替え後の顔リストを示す図である。It is a figure for demonstrating the face list stored in the camera microcomputer shown in FIG. 1, (a) is a figure which shows an example of a face list, (b) is a figure which shows the face list after rearranging. 図5に示す揺らぎ除去処理を説明するためのフローチャートである。It is a flowchart for demonstrating the fluctuation removing process shown in FIG. 図8で説明した揺らぎ除去処理による効果を説明するための図である。It is a figure for demonstrating the effect by the fluctuation removing process explained with FIG.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。 An example of the image pickup apparatus according to the embodiment of the present invention will be described below with reference to the drawings.

ここでは、本発明の実施の形態による撮像装置について説明する前に、まず従来の撮像装置において動画撮影を行った場合の露出制御について概説する。 Here, before explaining the image pickup apparatus according to the embodiment of the present invention, first, the exposure control when moving image is taken by the conventional image pickup apparatus will be outlined.

図1は、従来の撮像装置における動画撮影の一例を説明するための図である。そして、図1(A)は顔が検知できた状態の画像を示す図であり、図1(B)は顔が検知できない状態の画像を示す図である。 FIG. 1 is a diagram for explaining an example of moving image shooting in a conventional imaging device. FIG. 1A is a diagram showing an image in a state where the face can be detected, and FIG. 1B is a diagram showing an image in a state where the face cannot be detected.

いま、図1(A)に示すように、画面の中央が明るく、画面の端に逆光気味の人物が存在する構図を動画撮影するものとする。ここで、撮像装置において人物の顔(特定領域)を正しく検知できると、撮像装置は、前述の評価測光を用いて露出制御を行う。この結果、人物の顔における逆光状態が解消されて顔部分に対して露出が適正な動画を得ることができる。 Now, as shown in FIG. 1A, it is assumed that a moving image is taken of a composition in which the center of the screen is bright and a person with a slight backlight exists at the edge of the screen. Here, if the image pickup device can correctly detect the face (specific area) of the person, the image pickup device performs exposure control using the evaluation metering described above. As a result, the backlit state on the face of the person is eliminated, and a moving image having an appropriate exposure to the face portion can be obtained.

一方、画像において顔部分が暗い、顔部分が小さい、又は顔の向きによって顔の特徴点が抽出できないなど理由で顔検知ができないと、撮像装置は中央部重点平均測光を用いて露出制御を行う。この結果、画面中央部における高輝度部分に対しては白飛びが抑止された適正露出となるものの、人物の顔部分に対しては露出が低くなってしまう(図1(B)参照)。 On the other hand, if the face cannot be detected because the face part is dark, the face part is small, or the feature points of the face cannot be extracted depending on the orientation of the face in the image, the image pickup device performs exposure control using the center-weighted average metering. .. As a result, the high-brightness portion in the center of the screen has an appropriate exposure in which overexposure is suppressed, but the exposure is low in the face portion of the person (see FIG. 1 (B)).

さらに、間欠的に人物の顔検知ができない状態が生じると、撮像装置は評価測光と中央部重点平均測光とを断続的に切り替えて露出制御を行うことになる。このように測光が断続的に切り替えられると、露出が繰り返し変化することになって動画の明るさがちらついてしまう。 Further, when a state in which the face of a person cannot be detected intermittently occurs, the image pickup apparatus intermittently switches between evaluative metering and center-weighted average metering to perform exposure control. When the metering is switched intermittently in this way, the exposure changes repeatedly and the brightness of the moving image flickers.

このような動画の明るさのちらつきを抑止するため、顔検出結果についてチャタリング処理するようにした撮像装置がある。この撮像装置では、複数回の検出結果を参照して測光手法を決定している。 In order to suppress such flickering of the brightness of the moving image, there is an imaging device in which the face detection result is chattered. In this imaging device, the photometric method is determined by referring to the detection results of a plurality of times.

図2は、従来の撮像装置における動画撮影の他の例を説明するための図である。そして、図2(A)は人物が一人である場合に物体が横切った状態を示す図であり、図2(A)は人物が二人である場合に物体が横切った状態を示す図である。 FIG. 2 is a diagram for explaining another example of moving image shooting in a conventional imaging device. Then, FIG. 2A is a diagram showing a state in which an object crosses when there is one person, and FIG. 2A is a diagram showing a state in which an object crosses when there are two people. ..

図2(A)に示すように、画面に一人の人物が存在する構図で動画を撮影中に、画面を別の物体(ここでは車)が横切ったとする。撮像装置では複数回の顔検知結果に基づいて測光手法を決定しているので、測光手法の決定に遅延が生じることになる。この結果、露出制御が別の物体に影響されてしまうという現象が生じる。 As shown in FIG. 2A, it is assumed that another object (here, a car) crosses the screen while shooting a moving image in a composition in which one person exists on the screen. Since the photometric method is determined based on the results of multiple face detections in the image pickup apparatus, the determination of the photometric method is delayed. As a result, a phenomenon occurs in which the exposure control is affected by another object.

別の物体の色が黒いと、顔が適正露出であった動画が一時的に露出オーバーとなって露出にふらつきが生じることになる。特に、図2(B)に示すように、二人の人物が存在する構図においては、主被写体(図中左側の人物)を黒い物体が横切ると、他方の被写体(図中右側の人物)に対して露出が不適正となってしまう。 If the color of another object is black, the moving image whose face was properly exposed will be temporarily overexposed and the exposure will fluctuate. In particular, as shown in FIG. 2B, in a composition in which two people exist, when a black object crosses the main subject (the person on the left side of the figure), the other subject (the person on the right side of the figure) becomes On the other hand, the exposure becomes inappropriate.

図3は、本発明の実施の形態による撮像装置の一例についてその構成を示す図である。 FIG. 3 is a diagram showing a configuration of an example of an image pickup apparatus according to an embodiment of the present invention.

図示の撮像装置は、例えばデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ本体100と交換レンズタイプのレンズユニット200とを有している。 The illustrated imaging device is, for example, a digital camera (hereinafter, simply referred to as a camera), and has a camera body 100 and an interchangeable lens type lens unit 200.

カメラ本体100はマイクロコンピュータ(CCPU:以下カメラマイコンと呼ぶ)101を備えており、カメラマイコンはカメラ全体の制御を司る。カメラ本体100において、レンズユニット200の光軸(光路)上には、CCD又はCMOSイメージセンサなどの撮像素子102が配置されている。図示はしないが、この撮像素子102には赤外カットフィルタおよびローパスフィルタが備えられている。そして、撮像素子102にはレンズユニット200を介して被写体像(光学像)が結像し、撮像素子102は光学像に応じた画像信号(アナログ信号)を出力する。 The camera body 100 includes a microcomputer (CCPU: hereinafter referred to as a camera microcomputer) 101, and the camera microcomputer controls the entire camera. In the camera body 100, an image sensor 102 such as a CCD or CMOS image sensor is arranged on the optical axis (optical path) of the lens unit 200. Although not shown, the image sensor 102 is provided with an infrared cut filter and a low-pass filter. Then, a subject image (optical image) is formed on the image sensor 102 via the lens unit 200, and the image sensor 102 outputs an image signal (analog signal) corresponding to the optical image.

撮像素子102の出力である画像信号はA/D変換器(A/D)109によってデジタル画像信号に変換される。そして、デジタル画像信号は信号処理回路111に送られる。信号処理回路111はデジタル画像信号を所定のパラメータに基づいて画像処理して画像データを生成する。 The image signal output from the image sensor 102 is converted into a digital image signal by the A / D converter (A / D) 109. Then, the digital image signal is sent to the signal processing circuit 111. The signal processing circuit 111 performs image processing on the digital image signal based on a predetermined parameter to generate image data.

測光回路(AE)106は信号処理回路111の出力である画像データに応じて後述する測光制御を行う。また、焦点検出回路(AF)107は画像データに基づいて後述する焦点検出制御を行う。 The photometric circuit (AE) 106 performs photometric control, which will be described later, according to the image data output from the signal processing circuit 111. Further, the focus detection circuit (AF) 107 performs focus detection control described later based on the image data.

ゲイン切換え回路108は、撮像素子102におけるゲインを切換えるための回路であり、ゲイン切換え回路108によるゲインの切換えは、撮影の条件および撮影者の入力などに応じてカメラマイコン101によって制御される。 The gain switching circuit 108 is a circuit for switching the gain in the image pickup element 102, and the gain switching by the gain switching circuit 108 is controlled by the camera microcomputer 101 according to the shooting conditions, the input of the photographer, and the like.

タイミングジェネレータ(TG)110は、カメラマイコン101の制御下で撮像素子102の出力である画像信号の入力とA/D変換器109によるA/D変換のタイミングを同期させる。なお、ここでは、信号処理回路111による信号処理の結果得られた画像データを記憶するためのメモリについては説明を省略する。 The timing generator (TG) 110 synchronizes the input of the image signal, which is the output of the image sensor 102, with the timing of the A / D conversion by the A / D converter 109 under the control of the camera microcomputer 101. Here, the description of the memory for storing the image data obtained as a result of the signal processing by the signal processing circuit 111 will be omitted.

レンズマウント130は、後述するレンズマイコン201とのインタフェースであり、レンズマイコン201とカメラマイコン101との間でデータ通信を行うための通信端子を有している。当該データ通信によって、カメラマイコン101は、カメラ本体100に装着されたレンズユニット200の種類およびその状態を判別することができる。 The lens mount 130 is an interface with the lens microcomputer 201 described later, and has a communication terminal for performing data communication between the lens microcomputer 201 and the camera microcomputer 101. Through the data communication, the camera microcomputer 101 can determine the type and state of the lens unit 200 mounted on the camera body 100.

入力部112は、例えば、カメラを撮影待機状態とする撮影待機ボタン(待機ボタン)114および録画開始ボタン(録画ボタン)115を備えている。さらに、図示はしないが、入力部112はAFエリアの任意選択モードと多点/顔追尾モードとを切り替えるためのスイッチやボタン、そして、シャッター速度優先モードと絞り優先モードとを切り替える撮影モード切り替えダイヤルなどを有している。ユーザは入力部112によってカメラの設定などを入力することができる。 The input unit 112 includes, for example, a shooting standby button (standby button) 114 and a recording start button (recording button) 115 that put the camera in the shooting standby state. Further, although not shown, the input unit 112 has switches and buttons for switching between the AF area arbitrary selection mode and the multi-point / face tracking mode, and a shooting mode switching dial for switching between the shutter speed priority mode and the aperture priority mode. And so on. The user can input camera settings and the like through the input unit 112.

表示部113は、液晶装置および発光素子などを有し、設定されたモードおよびその他の撮影に関する情報などを表示する。顔検出回路116は信号処理回路111の出力である画像データにおいて人物の顔(顔領域:特定領域)を検知して、顔領域検知結果をカメラマイコン101に送る。顔検知回路116によって、画像データにおける顔領域の数、各顔領域の画像データにおける位置および大きさ、そして、顔領域の向きなどが特定される。 The display unit 113 includes a liquid crystal device, a light emitting element, and the like, and displays information on the set mode and other shooting. The face detection circuit 116 detects a person's face (face area: specific area) in the image data output from the signal processing circuit 111, and sends the face area detection result to the camera microcomputer 101. The face detection circuit 116 specifies the number of face regions in the image data, the position and size of each face region in the image data, the orientation of the face region, and the like.

顔領域の検知手法として、例えば、画像データにおいて目、鼻、および口など顔の特徴部分を抽出して顔領域を特定する手法が用いられる。さらに、画像データにおいて肌色データを抽出して肌色範囲と判定された領域を顔領域として検知するようにしてもよい。また、顔領域の輪郭に注目して、その輪郭を示す楕円形状情報を用いて顔領域を検知するようにしてもよい。 As a face region detection method, for example, a method of extracting facial feature portions such as eyes, nose, and mouth from image data to specify the face region is used. Further, the skin color data may be extracted from the image data and the region determined to be the skin color range may be detected as the face region. Further, the face region may be detected by paying attention to the contour of the face region and using the elliptical shape information indicating the contour.

図示のように、カメラマイコン101には顔使用判定回路117が備えられており、顔使用判定回路117は、後述するようにして顔領域検知結果を露出の決定に用いるか否かを判定する。そして、顔使用判定回路117による判定結果(顔使用判定結果)は測光回路106における測光制御に用いられる。 As shown in the figure, the camera microcomputer 101 is provided with a face use determination circuit 117, and the face use determination circuit 117 determines whether or not to use the face area detection result for determining the exposure as described later. Then, the determination result (face use determination result) by the face use determination circuit 117 is used for the photometric control in the photometric circuit 106.

レンズユニット200には、マイクロコンピュータ(LPU:レンズマイコン)201が備えられており、レンズマイコン201はレンズユニット200の動作を制御する。つまり、レンズマイコン201はレンズユニット200を制御するとともに、各種の条件判定を行う。 The lens unit 200 is provided with a microcomputer (LPU: lens microcomputer) 201, and the lens microcomputer 201 controls the operation of the lens unit 200. That is, the lens microcomputer 201 controls the lens unit 200 and determines various conditions.

レンズユニット200には、複数枚のレンズを有するレンズ群202を有している。そして、レンズ群202には光軸に沿って移動可能に配置され、焦点調節を行うフォーカスレンズが含まれている。 The lens unit 200 has a lens group 202 having a plurality of lenses. The lens group 202 includes a focus lens that is movably arranged along the optical axis and adjusts the focus.

レンズ駆動部203はレンズ群202において焦点検出および焦点位置合わせ用の光学系を移動させるためのアクチュエータである。カメラマイコン101は焦点検出回路107による焦点検出結果に基づいて、レンズ駆動部202の制御量、つまり、レンズ群202の駆動量(レンズ駆動量)を求める。 The lens driving unit 203 is an actuator for moving the optical system for focusing detection and focusing in the lens group 202. The camera microcomputer 101 obtains the control amount of the lens drive unit 202, that is, the drive amount of the lens group 202 (lens drive amount) based on the focus detection result of the focus detection circuit 107.

カメラマイコン101は、算出したレンズ駆動量をレンズマイコン201に送る。一方、レンズ群202の位置は、エンコーダ204によって検知され、レンズ位置情報としてレンズマイコン101に送られる。 The camera microcomputer 101 sends the calculated lens drive amount to the lens microcomputer 201. On the other hand, the position of the lens group 202 is detected by the encoder 204 and sent to the lens microcomputer 101 as lens position information.

レンズマイコン201はレンズ位置情報を参照しつつ、レンズ駆動量に応じてレンズ駆動部203を制御して、レンズ群202を合焦位置に移動する。なお、焦点検出の際には、カメラマイコン101からレンズマイコン201にレンズ群202の駆動方向および駆動速度を示す焦点検出用情報が送られる。そして、レンズマイコン201は焦点検出用情報に応じてレンズ駆動部203を制御してレンズ群202を光軸に沿って駆動する。 The lens microcomputer 201 controls the lens driving unit 203 according to the lens driving amount while referring to the lens position information, and moves the lens group 202 to the focusing position. At the time of focus detection, focus detection information indicating the drive direction and drive speed of the lens group 202 is sent from the camera microcomputer 101 to the lens microcomputer 201. Then, the lens microcomputer 201 controls the lens driving unit 203 according to the focus detection information to drive the lens group 202 along the optical axis.

絞り205は、カメラ本体100に入射する光量を調節するためのものである。絞り制御回路206は、レンズマイコン201の制御下で絞り205を駆動制御する。絞り205を制御するために必要な絞り駆動量は、カメラマイコン101からレンズマイコン201に送られる。なお、レンズ群202の焦点距離は単焦点であってもよく、ズームレンズのように焦点距離が可変であってもよい。 The aperture 205 is for adjusting the amount of light incident on the camera body 100. The aperture control circuit 206 drives and controls the aperture 205 under the control of the lens microcomputer 201. The aperture drive amount required to control the aperture 205 is sent from the camera microcomputer 101 to the lens microcomputer 201. The focal length of the lens group 202 may be a single focal length, or the focal length may be variable like a zoom lens.

図4は、図3に示すカメラで行われる撮影動作を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining a shooting operation performed by the camera shown in FIG.

撮影動作を開始すると、まず、カメラマイコン101は撮影待機ボタン114が操作されたか否かを判定する(ステップS101)。撮影待機ボタン114が操作されないと、つまり、撮影待機ボタン114が押されないと(ステップS101において、NO)、カメラマイコン101は待機する。 When the shooting operation is started, the camera microcomputer 101 first determines whether or not the shooting standby button 114 has been operated (step S101). If the shooting standby button 114 is not operated, that is, if the shooting standby button 114 is not pressed (NO in step S101), the camera microcomputer 101 stands by.

一方、撮影待機ボタン114が操作されると(ステップS101において、YES)、カメラマイコン101は、最初の露出制御の際の測光手法(測光方式)として中央重点平均測光(中重)を選択する(ステップS102)。なお、前述のように、中央重点平均測光においては、画面中央に重みをおいて比較的広い範囲を平均的に測光する。 On the other hand, when the shooting standby button 114 is operated (YES in step S101), the camera microcomputer 101 selects center-weighted average metering (medium weight) as the metering method (photometric method) at the time of the first exposure control (medium weight). Step S102). As described above, in the center-weighted average metering, a weight is placed in the center of the screen to averagely measure a relatively wide range.

続いて、カメラマイコン101は顔検知回路116によって画像データにおける顔検出を行う(ステップS103)。そして、カメラマイコン101は、顔検知回路116で検知された顔領域検知結果に応じて、顔領域の数、各顔領域の画像データにおける位置およびその大きさ、顔の向きなどを特定して記憶する。 Subsequently, the camera microcomputer 101 detects the face in the image data by the face detection circuit 116 (step S103). Then, the camera microcomputer 101 identifies and stores the number of face regions, the position and size of each face region in the image data, the orientation of the face, and the like according to the face region detection result detected by the face detection circuit 116. To do.

次に、カメラマイコン101は、後述するようにして、露出制御を行う(ステップS104)。そして、カメラマイコン101は録画開始ボタン115が操作されたか否かを判定する(ステップS105)。録画開始ボタン115が操作されると(ステップS105において、YES)、カメラマイコン101は現在録画中であるか否かを判定する(ステップS106)。 Next, the camera microcomputer 101 performs exposure control as described later (step S104). Then, the camera microcomputer 101 determines whether or not the recording start button 115 has been operated (step S105). When the recording start button 115 is operated (YES in step S105), the camera microcomputer 101 determines whether or not recording is currently in progress (step S106).

現在録画中でないと(ステップS106において、NO)、カメラマイコン101はカメラを制御して録画を開始する(ステップS107)。一方、現在録画中であると(ステップS106において、YES)、カメラマイコン101は録画を停止する(ステップS108)。 If recording is not currently in progress (NO in step S106), the camera microcomputer 101 controls the camera and starts recording (step S107). On the other hand, if recording is currently in progress (YES in step S106), the camera microcomputer 101 stops recording (step S108).

ステップS107又はS108の処理の後、カメラマイコン101は撮影待機ボタン114が操作されたか否かを判定する(ステップS109)。撮影待機ボタン114が操作されると(ステップS109において、YES)、カメラマイコン101は撮影を終了する。 After the process of step S107 or S108, the camera microcomputer 101 determines whether or not the shooting standby button 114 has been operated (step S109). When the shooting standby button 114 is operated (YES in step S109), the camera microcomputer 101 ends shooting.

一方、撮影ボタンが操作されないと(ステップS109において、NO)、カメラマイコン101はステップS103の処理に戻る。なお、録画開始ボタン115が操作されないと(ステップS105において、NO)、カメラマイコン101はステップS109の処理に進む。 On the other hand, if the shooting button is not operated (NO in step S109), the camera microcomputer 101 returns to the process of step S103. If the recording start button 115 is not operated (NO in step S105), the camera microcomputer 101 proceeds to the process of step S109.

図5は、図4に示す露出制御を説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining the exposure control shown in FIG.

露出制御を開始すると、カメラマイコン101は顔検知回路116による顔検知結果を参照して、検知された顔領域の数が1以上であるか否かを判定する(ステップS201)。顔領域の検知数が1以上であると、つまり、画像データに顔領域が存在すると(ステップS201において、YES)、カメラマイコン101は顔使用判定回路117によって検出された顔領域のうち露出制御に使用する顔領域が存在するか否かを判定して、後述するようにして優先順位付けを行う(ステップS202)。 When the exposure control is started, the camera microcomputer 101 refers to the face detection result by the face detection circuit 116 and determines whether or not the number of detected face regions is 1 or more (step S201). When the number of detected face regions is 1 or more, that is, when the face region exists in the image data (YES in step S201), the camera microcomputer 101 performs exposure control among the face regions detected by the face use determination circuit 117. It is determined whether or not the face area to be used exists, and prioritization is performed as described later (step S202).

続いて、カメラマイコン101は現在の露出制御において顔領域検知結果が用いられているか否かを判定する(ステップS203)。現在の露出制御において顔領域検知結果が用いられていないと(ステップS203において、NO)、つまり、現在の露出制御において顔領域検知結果が用いられていない状態で、新たに露出制御に使用する顔領域が検知されると、カメラマイコン101は、後述するようにして、顔使用判定結果に対して揺らぎ除去処理を行う(ステップS204)。 Subsequently, the camera microcomputer 101 determines whether or not the face area detection result is used in the current exposure control (step S203). If the face area detection result is not used in the current exposure control (NO in step S203), that is, the face to be newly used for the exposure control in the state where the face area detection result is not used in the current exposure control. When the region is detected, the camera microcomputer 101 performs a fluctuation removing process on the face use determination result as described later (step S204).

続いて、カメラマイコン101は、顔使用判定結果又は揺らぎ除去処理後の顔使用判定結果に応じて新たな露出制御(AE)で使用する顔領域が存在するか否かを判定する(ステップS205)。なお、現在の露出制御において顔領域検知結果が用いられていると(ステップS203において、YES)、カメラマイコン101はステップS205の処理に進む。 Subsequently, the camera microcomputer 101 determines whether or not there is a face region used in the new exposure control (AE) according to the face use determination result or the face use determination result after the fluctuation removal process (step S205). .. If the face area detection result is used in the current exposure control (YES in step S203), the camera microcomputer 101 proceeds to the process of step S205.

新たな露出制御において使用する顔領域が存在すると(ステップS205において、YES)、カメラマイコン101は測光方式(測光モード)を評価測光とする(ステップS206)。一方、新たな露出制御において使用する顔領域が存在しないと(ステップS205において、NO)、カメラマイコン101は測光方式として中央重点平均測光を選択する(ステップS207)。 If there is a face region to be used in the new exposure control (YES in step S205), the camera microcomputer 101 uses the metering method (photometric mode) as the evaluative metering (step S206). On the other hand, if there is no face region to be used in the new exposure control (NO in step S205), the camera microcomputer 101 selects center-weighted average metering as the metering method (step S207).

これによって、顔領域を使用しないで露出制御を行っている状態で、新たに顔領域が検出されたとしても、顔領域検知結果が安定的に出力されていないと、直ちに露出制御に顔領域を使用することなく露出制御を継続することになる。ここでは、測光方式として中央重点平均測光を継続して用いることになる。 As a result, even if a new face area is detected while the exposure control is performed without using the face area, if the face area detection result is not output stably, the face area is immediately applied to the exposure control. Exposure control will continue without use. Here, center-weighted average metering will continue to be used as the metering method.

画像データにおいて顔領域が検知されないと(ステップS201において、NO)、カメラマイコン101は現在の露出制御において顔領域検出結果が用いられているか否かを判定する(ステップS208)。現在の露出制御において顔領域検出結果が用いられていると(ステップS208において、YES)、カメラマイコン101は人物の顔が消失したとして、所定の時間、露出制御値を固定(ロック)する(AEロック:ステップS209)。つまり、現在の露出制御において顔領域検知結果が使用されている状態で、露出制御に使用する顔領域が消失してしまった場合には、カメラマイコン101は所定の時間AEロックを行う。 If the face region is not detected in the image data (NO in step S201), the camera microcomputer 101 determines whether or not the face region detection result is used in the current exposure control (step S208). When the face area detection result is used in the current exposure control (YES in step S208), the camera microcomputer 101 fixes (locks) the exposure control value for a predetermined time, assuming that the face of the person has disappeared (AE). Lock: Step S209). That is, when the face area detection result is used in the current exposure control and the face area used for the exposure control disappears, the camera microcomputer 101 locks the AE for a predetermined time.

この所定の時間は、例えば、5秒であり、AEロックにおいては露出制御の目標値となる測光結果、つまり、被写体輝度の更新を停止する。なお、露出の固定手法については、特に限定するものではなく、測光結果の更新を継続して、露出制御に用いる制御値、例えば、TV(シャッタースピード)、AV(絞り値)、およびISO感度を固定するようにしてもよい。 This predetermined time is, for example, 5 seconds, and in the AE lock, the photometric result that is the target value of the exposure control, that is, the update of the subject brightness is stopped. The exposure fixing method is not particularly limited, and the photometric results are continuously updated to control the exposure control values such as TV (shutter speed), AV (aperture value), and ISO sensitivity. It may be fixed.

続いて、カメラマイコン101は測光方式として中央重点平均測光を選択する(ステップS210)。なお、現在の露出制御において顔領域検出結果が用いられていないと(ステップS208において、NO)、カメラマイコン101はステップS210の処理に進む。 Subsequently, the camera microcomputer 101 selects center-weighted average metering as the metering method (step S210). If the face area detection result is not used in the current exposure control (NO in step S208), the camera microcomputer 101 proceeds to the process of step S210.

なお、ステップS209においてAEロックが行われた場合には、測光方式が評価測光から中央重点平均測光に切り替わるものの、直ちに画像における露出が変化することはない。また、AEロック期間中に人物の顔領域が再び検知されて、露出制御に使用できる場合には、測光方式は再び評価測光に戻る。この結果、画像の露出は変化しない。 When the AE lock is performed in step S209, the metering method is switched from the evaluation metering to the center-weighted average metering, but the exposure in the image does not change immediately. Further, if the face area of the person is detected again during the AE lock period and can be used for exposure control, the metering method returns to the evaluation metering again. As a result, the exposure of the image does not change.

ステップS206、S207、又はS210の処理の後、カメラマイコン101は、決定した測光方式を用いて露出制御における目標輝度を求める(ステップS211)。なお、AEロック中においては目標輝度は更新されない。 After the processing of steps S206, S207, or S210, the camera microcomputer 101 obtains the target luminance in the exposure control using the determined photometric method (step S211). The target brightness is not updated during the AE lock.

続いて、カメラマイコン101は目標輝度に応じて露出制御値であるTV、AV、およびISO感度を決定する(ステップS212)。なお、AEロック中においては、露出制御値は更新されない。そして、カメラマイコン101は露出制御を終了して、図4に示すステップS105の処理に進む。 Subsequently, the camera microcomputer 101 determines the exposure control values of TV, AV, and ISO sensitivity according to the target brightness (step S212). The exposure control value is not updated during the AE lock. Then, the camera microcomputer 101 ends the exposure control and proceeds to the process of step S105 shown in FIG.

図6は、図5に示す顔使用判定処理を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining the face use determination process shown in FIG.

顔使用判定処理を開始すると、カメラマイコン101は顔検知回路116によって人物の顔の特徴点に基づいて画像データにおける顔領域を検知して、顔領域検知結果を得る。そして、カメラマイコン101は顔領域検知結果に基づいて、顔領域毎に識別番号(ID)を付与して、その大きさ、向き、および位置(座標)をリスト化して顔リストとして記憶する。 When the face use determination process is started, the camera microcomputer 101 detects the face area in the image data based on the feature points of the face of the person by the face detection circuit 116, and obtains the face area detection result. Then, based on the face area detection result, the camera microcomputer 101 assigns an identification number (ID) to each face area, lists the size, orientation, and position (coordinates) of the identification number (ID), and stores it as a face list.

図7は、図1に示すカメラマイコン101に記憶された顔リストを説明するための図である。そして、図7(a)は顔リストの一例を示す図であり、図7(b)は並べ替え後の顔リストを示す図である。 FIG. 7 is a diagram for explaining a face list stored in the camera microcomputer 101 shown in FIG. FIG. 7A is a diagram showing an example of the face list, and FIG. 7B is a diagram showing the rearranged face list.

図7(a)に示すように、画像データにおいて検知された顔領域には、IDが付与されて、顔領域毎にその大きさ、向き、および画像における顔領域の中心位置を示す座標が規定されている。 As shown in FIG. 7A, an ID is assigned to the face area detected in the image data, and the size, orientation, and coordinates indicating the center position of the face area in the image are defined for each face area. Has been done.

カメラマイコン101は、図7(a)に示す顔リストにおいて顔領域を顔の大きさの順に並べ替える(ステップS301)。そして、カメラマイコン101は顔領域の向きを調べて、正面方向又は斜め方向を向く顔領域以外の顔領域を除外する。つまり、ここでは、カメラマイコン101は、横向きおよび後向きの顔領域を除外する(ステップS302)。 The camera microcomputer 101 rearranges the face areas in the face list shown in FIG. 7A in the order of face size (step S301). Then, the camera microcomputer 101 examines the orientation of the face region and excludes the face region other than the face region facing the front direction or the oblique direction. That is, here, the camera microcomputer 101 excludes the sideways and backward face regions (step S302).

なお、カメラマイコン101は、例えば、顔領域の向きが正面方向から左右45度の範囲にない顔領域を除外する。このように、横向きおよび後向きの顔領域を除外することによって、露出制御の際に、例えば、髪毛の色に露出制御が影響を受けることを防止することができる。 The camera microcomputer 101 excludes, for example, a face region in which the orientation of the face region is not within a range of 45 degrees to the left and right from the front direction. By excluding the sideways and backward face regions in this way, it is possible to prevent the exposure control from being affected by, for example, the color of the hair during the exposure control.

このようにして、図7(a)に示す顔リストの並べ替えを行うと、例えば、図7(b)に示す並べ替え後の顔リストが得られる。並べ替え後の顔リストにおいては、順位にID、向き、および座標が対応付けられる。なお、図7(b)において、ID欄に「無」が挿入された顔領域は除外された顔領域である。 By rearranging the face list shown in FIG. 7A in this way, for example, the rearranged face list shown in FIG. 7B can be obtained. In the rearranged face list, ID, orientation, and coordinates are associated with the rank. In FIG. 7B, the face area in which "None" is inserted in the ID column is an excluded face area.

続いて、カメラマイコン101は、選択条件に基づいて並べ替え後の顔リストから最も優先順位の高い顔領域(選択検知結果)を選択する。つまり、カメラマイコン101は並べ替え後の顔リストにおいて最も優先順位の高い顔領域に係る向きおよび座標(顔使用判定結果)を出力して(ステップS303)、顔使用判定処理を終了する。そして、カメラマイコン101は図5に示すステップS203の処理に進む。 Subsequently, the camera microcomputer 101 selects the face region (selection detection result) having the highest priority from the sorted face list based on the selection condition. That is, the camera microcomputer 101 outputs the orientation and coordinates (face use determination result) related to the face region having the highest priority in the rearranged face list (step S303), and ends the face use determination process. Then, the camera microcomputer 101 proceeds to the process of step S203 shown in FIG.

露出制御においては、ステップS303で出力された座標の顔領域が用いられる。なお、顔の向きについては正面方向から左右45度の範囲にある顔領域を用いるようにしたが、誤差を考慮すると被写体の状況によっては顔使用判定結果が安定しないことがある。このため、次のようにして、揺らぎ除去処理が行われることになる。 In the exposure control, the face region of the coordinates output in step S303 is used. Regarding the orientation of the face, the face region within a range of 45 degrees to the left and right from the front direction is used, but the face use determination result may not be stable depending on the condition of the subject in consideration of the error. Therefore, the fluctuation removing process is performed as follows.

図8は、図5に示す揺らぎ除去処理を説明するためのフローチャートである。なお、複数の顔領域が検知されている場合には、揺らぎ除去処理はそれぞれの顔領域に対して行われる。 FIG. 8 is a flowchart for explaining the fluctuation removing process shown in FIG. When a plurality of face areas are detected, the fluctuation removal process is performed on each face area.

揺らぎ除去処理を開始すると、カメラマイコン101は今回の顔使用判定結果Fnと前回の顔使用判定結果F(n−1)とを比較して、同一であるか否かを判定する(ステップS401)。Fn=F(n−1)であれば(ステップS401において、YES)、カメラマイコン101は繰り返し回数判定用カウンタである変数countに1を加算する(ステップS402)。一方、Fn=F(n−1)でないと(ステップS401において、NO)、カメラマイコン101は変数countをゼロにクリアする(ステップS403)。 When the fluctuation removal process is started, the camera microcomputer 101 compares the current face use determination result Fn with the previous face use determination result F (n-1), and determines whether or not they are the same (step S401). .. If Fn = F (n-1) (YES in step S401), the camera microcomputer 101 adds 1 to the variable count, which is a counter for determining the number of repetitions (step S402). On the other hand, if Fn = F (n-1) (NO in step S401), the camera microcomputer 101 clears the variable count to zero (step S403).

ステップS402又はS403の処理の後、カメラマイコン101は変数countが所定のカウント値以上、例えば、5以上となったか否かを判定する(ステップS404)。変数countが5以上であると(ステップS404において、YES)、カメラマイコン101は顔使用判定結果に対する揺らぎ除去結果Foutとして最新の顔使用判定結果Fnを用いる(ステップS405)。そして、カメラマイコン101は揺らぎ除去処理を終了して、図5に示すステップS205の処理に進む。 After the process of step S402 or S403, the camera microcomputer 101 determines whether or not the variable count is equal to or greater than a predetermined count value, for example, 5 or more (step S404). When the variable count is 5 or more (YES in step S404), the camera microcomputer 101 uses the latest face use determination result Fn as the fluctuation removal result Fout for the face use determination result (step S405). Then, the camera microcomputer 101 ends the fluctuation removing process, and proceeds to the process of step S205 shown in FIG.

一方、変数countが5未満であると(ステップS404において、NO)、カメラマイコン101は揺らぎ除去処理を終了して、図5に示すステップS205の処理に進む。 On the other hand, when the variable count is less than 5 (NO in step S404), the camera microcomputer 101 ends the fluctuation removing process and proceeds to the process of step S205 shown in FIG.

図9は、図3に示すカメラで行われる揺らぎ除去動作を説明するための図である。 FIG. 9 is a diagram for explaining a fluctuation removing operation performed by the camera shown in FIG.

いま、顔領域が2回連続して検知された後、顔領域が5回連続して検知されない状態となったとする。この場合、カメラは、露出制御で用いられる顔領域について、顔領域が検知されない状態が4回続くと、顔領域なしと判定することになる。つまり、カメラは顔領域判定結果を複数回参照した後、露出制御で用いられる顔領域を切り替えることになる。これによって、顔領域判定結果の揺らぎに関して画像の露出が過敏に反応することがなくなる。 Now, it is assumed that the face region is detected twice in a row and then the face region is not detected five times in a row. In this case, the camera determines that there is no face area in the face area used in the exposure control if the state in which the face area is not detected continues four times. That is, the camera switches the face area used in the exposure control after referring to the face area determination result a plurality of times. As a result, the exposure of the image does not react hypersensitively to the fluctuation of the face area determination result.

一方、物体が横切ったことによって人物の顔が遮蔽された場合においても、しばらくの間露出制御において遮蔽された人物に係る顔の座標が用いられることになる。このため、前述のように、露出制御に用いる顔領域が消失した際には、図5のステップS204に示す揺らぎ除去処理を行わない。 On the other hand, even when the face of the person is shielded by the crossing of the object, the coordinates of the face of the shielded person are used in the exposure control for a while. Therefore, as described above, when the face region used for exposure control disappears, the fluctuation removing process shown in step S204 of FIG. 5 is not performed.

この結果、物体が横切った際に露出制御を移行する顔領域が別に存在する場合には速やかに当該顔領域によって露出制御を行う。そして、別に顔領域が存在しない場合には所定時間の露出を固定して(AEロック)、人物の顔領域が遮蔽されない状態となった後に再び適正な露出制御に復帰することができる。 As a result, if there is another face region to which the exposure control is transferred when the object crosses, the exposure control is promptly performed by the face region. Then, when the face area does not exist separately, the exposure for a predetermined time can be fixed (AE lock), and after the face area of the person is not shielded, the proper exposure control can be restored again.

以上のように、本発明の実施の形態では、露出制御の際に、新たに顔領域が出現した場合には揺らぎ除去処理を行い、露出制御に用いている顔領域が消失した場合には揺らぎ除去処理を行わずに、別の顔領域を露出制御に用いる。これによって、顔領域の誤検知又は検知能力の限界付近における顔領域検知結果の揺らぎに起因する画像の露出に対する影響を抑止することができる。 As described above, in the embodiment of the present invention, when a new face region appears during exposure control, fluctuation removal processing is performed, and when the face region used for exposure control disappears, fluctuation is performed. Another face area is used for exposure control without removing. As a result, it is possible to suppress the influence on the exposure of the image due to the false detection of the face region or the fluctuation of the face region detection result near the limit of the detection ability.

さらに、本発明の実施形態では、露出制御に用いていた顔領域が消失して、別に顔領域が存在しない場合には、揺らぎ除去処理を行うことなく、所定の期間の露出を固定状態とする。これによって、顔領域の誤検知又は検知能力の限界付近における顔領域検知結果の揺らぎに起因する画像の露出に対する影響を除去することができる。さらには、人物を横切った物体による露出に対する影響も抑止することができる。 Further, in the embodiment of the present invention, when the face area used for the exposure control disappears and the face area does not exist separately, the exposure for a predetermined period is fixed without performing the fluctuation removing process. .. As a result, it is possible to eliminate the influence on the exposure of the image due to the false detection of the face region or the fluctuation of the face region detection result near the limit of the detection ability. Furthermore, the influence of the object crossing the person on the exposure can be suppressed.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described above based on the embodiments, the present invention is not limited to these embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. ..

例えば、上記の実施の形態の機能を制御方法として、この制御方法を露出制御装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを露出制御装置が備えるコンピュータに実行させるようにしてもよい。なお、プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and the exposure control device may be made to execute this control method. Further, the computer provided with the exposure control device may execute the program having the function of the above-described embodiment. The program is recorded on, for example, a computer-readable recording medium.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 カメラ本体
101 カメラマイコン(CCPU)
102 撮像素子
106 測光回路(AE)
111 信号処理回路
116 顔検知回路
117 顔使用判定回路
200 レンズユニット
201 レンズマイコン(LPU)
206 絞り制御回路
100 Camera body 101 Camera microcomputer (CCPU)
102 Image sensor 106 Photometric circuit (AE)
111 Signal processing circuit 116 Face detection circuit 117 Face use judgment circuit 200 Lens unit 201 Lens microcomputer (LPU)
206 Aperture control circuit

Claims (7)

被写体を撮像して得られた画像から顔領域を検知する検知手段と、
前記顔領域に重みを付けて測光を行う第1の測光方式又は前記第1の測光方式とは異なる第2の測光方式による測光結果に基づいて露出制御を行う露出制御手段と、を有し、
前記第1の測光方式では、前記検知手段によって1つ以上の前記顔領域が検知された場合に、所定の条件を満たす顔領域に重みを付けて測光を行い、
前記露出制御手段は、動画の取得中に前記第1の測光方式で露出制御を行っている際に、前記所定の条件を満たす顔領域が検知されなくなった後の所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知したことに応じて、当該新たに検知された顔領域に重みを付けて前記第1の測光方式を用いて再び露出制御を行い、前記所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知しない場合には、前記所定の期間が経過したことに応じて前記第2の測光方式を用いて露出制御を行い、前記第1の測光方式から前記第2の測光方式に変更する場合、変更前の前記第1の測光方式による測光結果に基づく露出を前記所定の期間において維持した後に、前記第2の測光方式を用いて露出制御を行い、
前記露出制御手段は、動画の取得中に前記第1の測光方式で露出制御を行っておらず且つ前記所定の条件を満たす顔領域が検知されていない場合は、前記所定の期間の経過に依らずに前記第2の測光方式を用いて露出制御を行うことを特徴とする露出制御装置。
A detection means that detects the face area from the image obtained by imaging the subject,
It has a first metering method that weights the face region and performs photometry, or an exposure control means that controls exposure based on a photometric result by a second photometric method different from the first photometric method.
In the first photometric method, when one or more of the face regions are detected by the detection means, the face regions satisfying a predetermined condition are weighted and photometrically measured.
The exposure control means is the detection means during a predetermined period after the face region satisfying the predetermined condition is no longer detected when the exposure is controlled by the first photometric method during the acquisition of a moving image. In response to the detection of a new face region satisfying the predetermined condition, the newly detected face region is weighted and the exposure control is performed again using the first photometric method to perform the exposure control again. in the period, when said detecting means does not detect the predetermined condition is satisfied a new face region performs exposure control using the second metering mode in response to the predetermined time period has elapsed, the When changing from the first photometric method to the second photometric method, the second photometric method is used after maintaining the exposure based on the photometric results of the first photometric method before the change for the predetermined period. To control the exposure
If the exposure control means does not control the exposure by the first photometric method during the acquisition of the moving image and the face region satisfying the predetermined condition is not detected, the exposure control means depends on the elapse of the predetermined period. An exposure control device characterized in that exposure control is performed using the second photometric method without the need for exposure control.
前記第2の測光方式は、前記検知手段によって前記所定の条件を満たす顔領域が検知されない場合に実行され、画像の中央に重みを付けて測光を行うことを特徴とする請求項1に記載の露出制御装置。 The second photometric method according to claim 1, wherein the second photometric method is executed when the detection means does not detect a face region satisfying the predetermined condition, and the photometry is performed by weighting the center of the image. Exposure control device. 前記所定の条件は、前記顔領域の大きさ、位置、および向きの少なくとも1つに基づいて、優先度が高い顔領域を選択するための条件であることを特徴とする請求項1又は2に記載の露出制御装置。 The predetermined condition is a condition for selecting a face region having a high priority based on at least one of the size, position, and orientation of the face region, according to claim 1 or 2 . The exposure control device described. 前記露出制御手段は、被写体の撮影動作が開始された後、最初に前記第2の測光方式による測光結果に基づいて露出制御を行い、その後、前記検知手段により前記所定の条件を満たす顔領域が検出された場合に、前記第1の測光方式による測光結果に基づいて露出制御を行うことを特徴する請求項1乃至のいずれか1項に記載の露出制御装置。 After the shooting operation of the subject is started, the exposure control means first performs exposure control based on the photometric result by the second photometric method, and then the detection means creates a face region satisfying the predetermined condition. The exposure control device according to any one of claims 1 to 3 , wherein when it is detected, exposure control is performed based on the photometric result by the first photometric method. 前記露出制御装置は、撮像手段を備えた撮像装置であることを特徴とする請求項1乃至のいずれか1項に記載の露出制御装置。 The exposure control device according to any one of claims 1 to 4 , wherein the exposure control device is an image pickup device including an image pickup means. 被写体を撮像して得られた画像から顔領域を検知する検知工程と、
前記顔領域に重みを付けて測光を行う第1の測光、又は前記第1の測光とは異なる第2の測光による測光結果に基づいて露出制御を行う露出制御工程と、を有し、
前記第1の測光では、前記検知工程によって1つ以上の前記顔領域が検知された場合に、所定の条件を満たす顔領域に重みを付けた測光を行い、
前記露出制御工程では、動画の取得中に前記第1の測光に基づく露出制御を行っている際に、前記所定の条件を満たす顔領域が検知されなくなった後の所定の期間において、前記所定の条件を満たす新たな顔領域を検知したことに応じて、当該新たに検知された顔領域に重みを付けて前記第1の測光に基づく露出制御を行い、前記所定の期間において、前記所定の条件を満たす新たな顔領域は検知されない場合には、前記所定の期間が経過したことに応じて前記第2の測光に基づく露出制御を行い、前記第1の測光に基づく露出制御から前記第2の測光に基づく露出制御に変更する場合、変更前の前記第1の測光による測光結果に基づく露出を前記所定の期間において維持した後に、前記第2の測光による露出制御を行い、
動画の取得中に前記第1の測光に基づく露出制御を行っていない場合であって、前記検知工程で前記所定の条件を満たす顔領域が検知されていない場合は、前記所定の期間の経過に依らずに前記第2の測光に基づく露出制御を行うことを特徴とする露出制御方法。
A detection process that detects the face area from the image obtained by imaging the subject,
It has a first metering in which the face region is weighted and metered, or an exposure control step in which exposure control is performed based on a metering result by a second metering different from the first metering.
In the first metering, when one or more of the face regions are detected by the detection step, the face regions satisfying a predetermined condition are weighted and metered.
In the exposure control step, when the exposure control based on the first photometry is performed during the acquisition of the moving image, the predetermined period after the face region satisfying the predetermined condition is no longer detected. In response to the detection of a new face area satisfying the condition, the newly detected face area is weighted and the exposure control based on the first photometry is performed, and the predetermined condition is performed in the predetermined period. When a new face region satisfying the condition is not detected, the exposure control based on the second photometry is performed according to the elapse of the predetermined period, and the exposure control based on the first photometry is performed to the second When changing to exposure control based on photometry, after maintaining the exposure based on the photometric result of the first photometry before the change for the predetermined period, the exposure control by the second photometry is performed.
If the exposure control based on the first photometry is not performed during the acquisition of the moving image and the face region satisfying the predetermined condition is not detected in the detection step, the predetermined period elapses. An exposure control method characterized in that exposure control is performed based on the second photometry regardless of the exposure.
請求項に記載の露出制御方法をコンピュータで実行させるためのコンピュータで読み取り可能なプログラム。 A computer-readable program for executing the exposure control method according to claim 6 on a computer.
JP2019029679A 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program Active JP6786643B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029679A JP6786643B2 (en) 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029679A JP6786643B2 (en) 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015002922A Division JP6486109B2 (en) 2015-01-09 2015-01-09 EXPOSURE CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019118115A JP2019118115A (en) 2019-07-18
JP6786643B2 true JP6786643B2 (en) 2020-11-18

Family

ID=67304697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029679A Active JP6786643B2 (en) 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program

Country Status (1)

Country Link
JP (1) JP6786643B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4656657B2 (en) * 2006-07-31 2011-03-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP5945444B2 (en) * 2012-04-19 2016-07-05 オリンパス株式会社 Photography equipment
JP2014216832A (en) * 2013-04-25 2014-11-17 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2019118115A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP6486109B2 (en) EXPOSURE CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6108946B2 (en) Imaging apparatus, control method, program, and storage medium
US9794491B2 (en) Imaging apparatus having anti-flicker timing offset, control method, and storage medium therefor
JP2000180709A (en) Range-finding device
JP2019212989A (en) Imaging apparatus, control method therefor, program, and storage medium
JP2017038169A (en) Imaging apparatus, control method, and control program
US9781347B2 (en) Image pickup apparatus having live view function, and method of controlling the same
JP6786643B2 (en) Exposure control device, exposure control method, and program
JP2017216637A (en) Imaging apparatus and control method
JP5849515B2 (en) Exposure calculation device and camera
US11503216B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for controlling exposure
JP6391319B2 (en) Imaging device, control method thereof, and control program
JP6456038B2 (en) Electronic device, light amount change characteristic calculation method, program, and storage medium
JP6598927B2 (en) Imaging apparatus, control method, program, and storage medium
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP2020134766A (en) Imaging apparatus and method for controlling imaging apparatus
JP2016014762A (en) Imaging device and control method of the same
JP2015220673A (en) Imaging apparatus, control method, program, and storage medium
JPH03107933A (en) Automatic exposure controller for camera
US11516408B2 (en) Image capturing apparatus, method for driving image capturing apparatus to detect flicker during shooting
CN111601045B (en) Image pickup apparatus that controls flash shooting, control method thereof, and storage medium
JP6494829B2 (en) Imaging apparatus, control method, program, and storage medium
JP6351778B2 (en) Imaging apparatus, control method, program, and storage medium
JP2760100B2 (en) Auto focus camera
JP2013040996A (en) Exposure calculation unit and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201028

R151 Written notification of patent or utility model registration

Ref document number: 6786643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151