JP2019118115A - Exposure control device, exposure control method, and program - Google Patents

Exposure control device, exposure control method, and program Download PDF

Info

Publication number
JP2019118115A
JP2019118115A JP2019029679A JP2019029679A JP2019118115A JP 2019118115 A JP2019118115 A JP 2019118115A JP 2019029679 A JP2019029679 A JP 2019029679A JP 2019029679 A JP2019029679 A JP 2019029679A JP 2019118115 A JP2019118115 A JP 2019118115A
Authority
JP
Japan
Prior art keywords
exposure control
photometry
face
face area
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019029679A
Other languages
Japanese (ja)
Other versions
JP6786643B2 (en
Inventor
天志 上坂
Takashi Kamisaka
天志 上坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019029679A priority Critical patent/JP6786643B2/en
Publication of JP2019118115A publication Critical patent/JP2019118115A/en
Application granted granted Critical
Publication of JP6786643B2 publication Critical patent/JP6786643B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

To prevent influences of exposure caused by erroneous detection or fluctuation of face detection and to suppress influences of exposure in a case where an object passes in front of a subject.SOLUTION: A face detection circuit 116 detects a face region from an image obtained by imaging a subject, and a camera microcomputer 101 performs exposure control based on a photometric result in accordance with a first photometric method that performs photometry while weighting the face region, or a second photometric method different from the first photometric method. In the first photometric method, photometry is performed while weighting the face region meeting a predetermined condition in a case where one or more face regions are detected by the face detection circuit. While exposure control is performed in accordance with the first photometric method, in a case where a new face region meeting the predetermined condition is detected in a predetermined period after the face region meeting the predetermined condition is not detected any longer, the camera microcomputer performs exposure control again while weighting the newly detected face region by using the first photometric method. In a case where a new face region meeting the predetermined condition is not detected in the predetermined period, exposure control is performed by using the second photometric method.SELECTED DRAWING: Figure 5

Description

本発明は、露出制御装置、露出制御方法、およびプログラムに関し、特に、動画撮影の際の露出制御に関する。   The present invention relates to an exposure control apparatus, an exposure control method, and a program, and more particularly to exposure control in moving image shooting.

一般に、デジタルカメラなどの撮像装置において静止画を撮影する際、その測光として撮影画面を複数のエリアに分割して測光が行われる。そして、複数のエリアにおいて明るい部分と暗い部分とのバランスに応じて露出を決める評価測光があり、さらには、特定の狭い領域のみについて測光を行うスポット測光などがある。いずれの側光においても測光領域の決定あるいは分割エリア毎の重み付けの決定の際にはピント合わせを行う焦点検出領域の位置情報が用いられる。   In general, when photographing a still image in an imaging device such as a digital camera, the photographing screen is divided into a plurality of areas and light measurement is performed as the light measurement. There is an evaluation photometry in which the exposure is determined according to the balance between the bright part and the dark part in a plurality of areas, and further, there is spot photometry in which photometry is performed only in a specific narrow area. The position information of the focus detection area for focusing is used when determining the photometric area or determining the weighting for each divided area in any of the side lights.

一方、動画撮影の際に用いられる測光においては、被写体の移動および構図の変更に関して、露出の安定性を重視して露出制御が行われる。このため、画面中央に重みを置きつつ比較的広い範囲を平均的に測光する中央部重点平均測光を専用の測光モードとして備える撮像装置がある。   On the other hand, in photometry used for moving image shooting, exposure control is performed with emphasis on the stability of exposure with respect to movement of a subject and change in composition. For this reason, there is an imaging apparatus provided with a center-weighted average metering, which weighs a relatively wide range on average while placing weights in the center of the screen, as a dedicated metering mode.

さらに、近年、撮影画像から人物の顔を検知して追尾する手法が撮像装置に用いられている。そして、動画撮影の際に、人物の顔が検知された場合には測光を中央部重点平均測光から顔部分の分割エリア(測光分割領域)に重み付けをおく顔評価測光に切り替える制御を行う撮像装置がある。   Furthermore, in recent years, a method of detecting and tracking the face of a person from a captured image is used in an imaging apparatus. Then, at the time of moving image shooting, the imaging device performs control to switch photometry from center-weighted average photometry to face evaluation photometry in which weighting is applied to divided areas of the face part (photometric divided areas) when a human face is detected. There is.

この撮像装置においては、人物の顔が検知できないと、中央部重点平均測光を用いて露出制御が行われることになる。この場合、例えば、画面中央が明るく、画面の端に逆光気味の人物が存在する構図であると、画面中央については白飛びが抑止されて適正レベルの露出となるものの、人物の顔については暗めの露出となってしまう。   In this imaging device, if the face of a person can not be detected, exposure control is performed using central weighted average metering. In this case, for example, in a composition in which the center of the screen is bright and a person with a slight backlight is present at the edge of the screen, overexposure is suppressed at the center of the screen and exposure of an appropriate level is obtained. It becomes an exposure of

加えて、人物の顔が検知可能であるか否かが微妙である状態が継続すると、つまり、顔検知可能な状態と顔検知不可の状態が交互に現れると、上記の撮像装置では顔評価測光と中央部重点平均測光とが断続的に切り替えられることになる。その結果、露出が断続的に変化することになって明るさがちらついた動画となる。   In addition, when the state in which whether or not the face of the person can be detected is subtle continues, that is, when the face detectable state and the face undetectable state alternately appear, the above-described imaging device performs face evaluation photometry And center-weighted average metering will be switched intermittently. As a result, the exposure changes intermittently, resulting in a moving image with flickering brightness.

上述のような測光の切り替えの発生を抑制するため、顔検出結果についてチャタリング処理、つまり、複数回の顔検出結果を参照して、測光手法を決定する撮像装置が知られている(特許文献1参照)。   In order to suppress the occurrence of photometric switching as described above, there is known an imaging apparatus that determines a photometric method with reference to a face detection result by chattering processing, that is, a plurality of face detection results. reference).

特開2010−41399号公報Unexamined-Japanese-Patent No. 2010-41399

ところが、チャタリング処理によって顔検知結果の揺らぎを抑制しようとすると、次のような課題がある。   However, in order to suppress the fluctuation of the face detection result by chattering processing, there are the following problems.

画面に人物が存在する構図で動画を撮影中に、画面を別の物体が横切ると、複数回の顔検知結果を参照する結果、人物の前を別の物体が横切り始めてから顔検出不可という判定結果がでるまでに遅延が生じる。このため、人物の前を別の物体が横切り始めてから顔検出不可という判定結果がでるまでの間は、横切った物体の明るさを人物の顔の明るさとみなして顔評価測光が行われ、横切った物体に露出制御が影響されるという現象が生じる。   When another object crosses the screen while shooting a moving image with a composition with a person on the screen, the result of referring to the face detection results of multiple times is determined that another object starts to cross in front of the person and face detection is not possible There is a delay before the results come out. For this reason, between the start of crossing of another object in front of the person and the determination result that face detection is not possible, the brightness of the crossed object is regarded as the brightness of the person's face and face evaluation photometry is performed. There is a phenomenon that exposure control is influenced by an object.

例えば、横切った物体が黒色であると、適正露出であった顔が一時的に露出オーバーとなって露出のふらつきが生じることがある。特に、二人の人物が存在する撮影シーンにおいて、主被写体(主顔)を黒色の物体が横切ると、他方の被写体に対する露出が適正状態から外れてしまうことになる。   For example, if the object crossed is black, the face that has been properly exposed may be temporarily overexposed, resulting in an uneven exposure. In particular, when a black object crosses the main subject (main face) in a shooting scene in which two persons are present, the exposure for the other subject is deviated from the appropriate state.

そこで、本発明の目的は、顔検出の誤検知および揺らぎに起因する露出の影響を防止するとともに、物体が横切った際の露出の影響を抑えることのできる露出制御装置、露出制御方法、およびプログラムを提供することにある。   Therefore, it is an object of the present invention to prevent the influence of exposure caused by false detection and fluctuation of face detection, and to suppress the influence of exposure when an object crosses, an exposure control method, and a program To provide.

上記の目的を達成するため、本発明による露出制御装置は、被写体を撮像して得られた画像から顔領域を検知する検知手段と、前記顔領域に重みを付けて測光を行う第1の測光方式又は前記第1の測光方式とは異なる第2の測光方式による測光結果に基づいて露出制御を行う露出制御手段と、を有し、前記第1の測光方式では、前記検知手段によって1つ以上の前記顔領域が検知された場合に、所定の条件を満たす顔領域に重みを付けて測光を行い、前記露出制御手段は、前記第1の測光方式で露出制御を行っている際に、前記所定の条件を満たす顔領域が検知されなくなった後の所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知した場合には、当該新たに検知された顔領域に重みを付けて前記第1の測光方式を用いて再び露出制御を行い、前記所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知しない場合には、前記第2の測光方式を用いて露出制御を行うことを特徴とする。   In order to achieve the above object, an exposure control apparatus according to the present invention comprises: detection means for detecting a face area from an image obtained by imaging a subject; and first photometry for performing photometry by weighting the face area Exposure control means for performing exposure control on the basis of a photometry result by a second photometry method different from the method or the first photometry method, and in the first photometry method, one or more of the detection means When the face area is detected, the face area satisfying a predetermined condition is weighted to perform photometry, and the exposure control unit performs the exposure control according to the first photometry method. If the detection unit detects a new face area that satisfies the predetermined condition in a predetermined period after the face area that satisfies the predetermined condition is not detected, the newly detected face area is weighted. The first photometric method The exposure control is performed again using the second photometry method when the detection unit does not detect a new face area that satisfies the predetermined condition in the predetermined period. It is characterized by

本発明によれば、顔領域などの特定領域検知の際の誤検知および揺らぎに起因する露出の影響を防止するとともに、物体が横切った際の露出の影響を抑えることができる。   According to the present invention, it is possible to prevent the influence of exposure caused by false detection and fluctuation when detecting a specific area such as a face area, and to suppress the influence of exposure when an object crosses.

従来の撮像装置における動画撮影の一例を説明するための図であり、(A)は顔が検知できた状態の画像を示す図、(B)は顔が検知できない状態の画像を示す図である。It is a figure for demonstrating an example of the moving image imaging | photography in the conventional imaging device, (A) is a figure which shows the image of the state which was able to detect the face, (B) is a figure which shows the image of the state which can not detect a face. . 従来の撮像装置における動画撮影の他の例を説明するための図であり、(A)は人物が一人である場合に物体が横切った状態を示す図、(A)は人物が二人である場合に物体が横切った状態を示す図である。It is a figure for demonstrating the other example of the moving image photography in the conventional imaging device, (A) is a figure which shows the state which the object crossed, when there are one person, (A) is two persons. It is a figure which shows the state which the object crossed in the case. 本発明の実施の形態による撮像装置の一例についてその構成を示す図である。It is a figure which shows the structure about an example of the imaging device by embodiment of this invention. 図3に示すカメラで行われる撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging operation performed with the camera shown in FIG. 図4に示す露出制御を説明するためのフローチャートである。It is a flowchart for demonstrating the exposure control shown in FIG. 図5に示す顔使用判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face use determination processing shown in FIG. 図1に示すカメラマイコンに記憶された顔リストを説明するための図であり、(a)は顔リストの一例を示す図、(b)は並べ替え後の顔リストを示す図である。It is a figure for demonstrating the face list memorize | stored in the camera microcomputer shown in FIG. 1, (a) is a figure which shows an example of a face list, (b) is a figure which shows the face list after rearrangement. 図5に示す揺らぎ除去処理を説明するためのフローチャートである。It is a flowchart for demonstrating the fluctuation removal process shown in FIG. 図8で説明した揺らぎ除去処理による効果を説明するための図である。It is a figure for demonstrating the effect by the fluctuation removal process demonstrated in FIG.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging device according to an embodiment of the present invention will be described with reference to the drawings.

ここでは、本発明の実施の形態による撮像装置について説明する前に、まず従来の撮像装置において動画撮影を行った場合の露出制御について概説する。   Here, before describing an imaging apparatus according to an embodiment of the present invention, first, exposure control in the case where moving image shooting is performed in a conventional imaging apparatus will be outlined.

図1は、従来の撮像装置における動画撮影の一例を説明するための図である。そして、図1(A)は顔が検知できた状態の画像を示す図であり、図1(B)は顔が検知できない状態の画像を示す図である。   FIG. 1 is a diagram for explaining an example of moving image shooting in a conventional imaging device. FIG. 1A is a view showing an image in a state in which a face is detected, and FIG. 1B is a view showing an image in a state in which a face can not be detected.

いま、図1(A)に示すように、画面の中央が明るく、画面の端に逆光気味の人物が存在する構図を動画撮影するものとする。ここで、撮像装置において人物の顔(特定領域)を正しく検知できると、撮像装置は、前述の評価測光を用いて露出制御を行う。この結果、人物の顔における逆光状態が解消されて顔部分に対して露出が適正な動画を得ることができる。   Now, as shown in FIG. 1A, it is assumed that a moving picture is taken of a composition in which the center of the screen is bright and a person with a slight backlight is present at the end of the screen. Here, when the image pickup apparatus can correctly detect the face (specific region) of a person, the image pickup apparatus performs exposure control using the above-described evaluation photometry. As a result, it is possible to eliminate the backlighting state in the face of the person and obtain a moving image with an appropriate exposure for the face portion.

一方、画像において顔部分が暗い、顔部分が小さい、又は顔の向きによって顔の特徴点が抽出できないなど理由で顔検知ができないと、撮像装置は中央部重点平均測光を用いて露出制御を行う。この結果、画面中央部における高輝度部分に対しては白飛びが抑止された適正露出となるものの、人物の顔部分に対しては露出が低くなってしまう(図1(B)参照)。   On the other hand, if face detection can not be performed because the face part is dark in the image, the face part is small, or face feature points can not be extracted due to the face orientation, the imaging device performs exposure control using center-weighted average metering. . As a result, although the appropriate exposure in which the overexposure is suppressed is obtained for the high-intensity part in the central part of the screen, the exposure is reduced for the face part of the person (see FIG. 1B).

さらに、間欠的に人物の顔検知ができない状態が生じると、撮像装置は評価測光と中央部重点平均測光とを断続的に切り替えて露出制御を行うことになる。このように測光が断続的に切り替えられると、露出が繰り返し変化することになって動画の明るさがちらついてしまう。   Furthermore, when a state where the face of the person can not be detected intermittently occurs, the imaging apparatus intermittently switches between the evaluation photometry and the center-weighted average photometry to perform exposure control. In this manner, when the photometry is switched intermittently, the exposure changes repeatedly and the brightness of the moving image flickers.

このような動画の明るさのちらつきを抑止するため、顔検出結果についてチャタリング処理するようにした撮像装置がある。この撮像装置では、複数回の検出結果を参照して測光手法を決定している。   There is an imaging apparatus in which a face detection result is subjected to chattering processing in order to suppress such flickering in the brightness of a moving image. In this imaging device, the photometric method is determined with reference to a plurality of detection results.

図2は、従来の撮像装置における動画撮影の他の例を説明するための図である。そして、図2(A)は人物が一人である場合に物体が横切った状態を示す図であり、図2(A)は人物が二人である場合に物体が横切った状態を示す図である。   FIG. 2 is a diagram for explaining another example of moving image shooting in a conventional imaging device. FIG. 2A is a view showing a state in which an object is crossed when there is only one person, and FIG. 2A is a view showing a state in which an object is crossed when there are two people. .

図2(A)に示すように、画面に一人の人物が存在する構図で動画を撮影中に、画面を別の物体(ここでは車)が横切ったとする。撮像装置では複数回の顔検知結果に基づいて測光手法を決定しているので、測光手法の決定に遅延が生じることになる。この結果、露出制御が別の物体に影響されてしまうという現象が生じる。   As shown in FIG. 2A, it is assumed that another object (here, a car) crosses the screen while shooting a moving image with a composition in which one person exists on the screen. In the image pickup apparatus, the photometric method is determined based on a plurality of times of face detection results, so that the determination of the photometric method is delayed. As a result, a phenomenon occurs in which the exposure control is influenced by another object.

別の物体の色が黒いと、顔が適正露出であった動画が一時的に露出オーバーとなって露出にふらつきが生じることになる。特に、図2(B)に示すように、二人の人物が存在する構図においては、主被写体(図中左側の人物)を黒い物体が横切ると、他方の被写体(図中右側の人物)に対して露出が不適正となってしまう。   If the color of another object is black, a moving image with a proper exposure on the face may be temporarily overexposed, resulting in a blur in the exposure. In particular, as shown in FIG. 2B, in a composition in which two persons are present, when a black object crosses the main subject (person on the left side in the figure), the other object (person on the right side in the figure) The exposure will be inappropriate.

図3は、本発明の実施の形態による撮像装置の一例についてその構成を示す図である。   FIG. 3 is a view showing the configuration of an example of the imaging apparatus according to the embodiment of the present invention.

図示の撮像装置は、例えばデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ本体100と交換レンズタイプのレンズユニット200とを有している。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera), and includes a camera body 100 and a lens unit 200 of an interchangeable lens type.

カメラ本体100はマイクロコンピュータ(CCPU:以下カメラマイコンと呼ぶ)101を備えており、カメラマイコンはカメラ全体の制御を司る。カメラ本体100において、レンズユニット200の光軸(光路)上には、CCD又はCMOSイメージセンサなどの撮像素子102が配置されている。図示はしないが、この撮像素子102には赤外カットフィルタおよびローパスフィルタが備えられている。そして、撮像素子102にはレンズユニット200を介して被写体像(光学像)が結像し、撮像素子102は光学像に応じた画像信号(アナログ信号)を出力する。   The camera body 100 includes a microcomputer (CCPU: hereinafter referred to as a camera microcomputer) 101, and the camera microcomputer controls the entire camera. In the camera body 100, on the optical axis (optical path) of the lens unit 200, an imaging device 102 such as a CCD or a CMOS image sensor is disposed. Although not shown, the image pickup device 102 is provided with an infrared cut filter and a low pass filter. Then, a subject image (optical image) is formed on the image sensor 102 via the lens unit 200, and the image sensor 102 outputs an image signal (analog signal) corresponding to the optical image.

撮像素子102の出力である画像信号はA/D変換器(A/D)109によってデジタル画像信号に変換される。そして、デジタル画像信号は信号処理回路111に送られる。信号処理回路111はデジタル画像信号を所定のパラメータに基づいて画像処理して画像データを生成する。   An image signal output from the image sensor 102 is converted into a digital image signal by an A / D converter (A / D) 109. Then, the digital image signal is sent to the signal processing circuit 111. The signal processing circuit 111 processes the digital image signal based on a predetermined parameter to generate image data.

測光回路(AE)106は信号処理回路111の出力である画像データに応じて後述する測光制御を行う。また、焦点検出回路(AF)107は画像データに基づいて後述する焦点検出制御を行う。   A photometry circuit (AE) 106 performs photometry control, which will be described later, according to image data which is an output of the signal processing circuit 111. Further, the focus detection circuit (AF) 107 performs focus detection control described later based on the image data.

ゲイン切換え回路108は、撮像素子102におけるゲインを切換えるための回路であり、ゲイン切換え回路108によるゲインの切換えは、撮影の条件および撮影者の入力などに応じてカメラマイコン101によって制御される。   The gain switching circuit 108 is a circuit for switching the gain in the image sensor 102. The switching of the gain by the gain switching circuit 108 is controlled by the camera microcomputer 101 in accordance with the photographing condition and the input of the photographer.

タイミングジェネレータ(TG)110は、カメラマイコン101の制御下で撮像素子102の出力である画像信号の入力とA/D変換器109によるA/D変換のタイミングを同期させる。なお、ここでは、信号処理回路111による信号処理の結果得られた画像データを記憶するためのメモリについては説明を省略する。   A timing generator (TG) 110 synchronizes the input of the image signal which is the output of the image sensor 102 with the timing of A / D conversion by the A / D converter 109 under the control of the camera microcomputer 101. Here, description of a memory for storing image data obtained as a result of signal processing by the signal processing circuit 111 is omitted.

レンズマウント130は、後述するレンズマイコン201とのインタフェースであり、レンズマイコン201とカメラマイコン101との間でデータ通信を行うための通信端子を有している。当該データ通信によって、カメラマイコン101は、カメラ本体100に装着されたレンズユニット200の種類およびその状態を判別することができる。   The lens mount 130 is an interface with a lens microcomputer 201 described later, and has a communication terminal for performing data communication between the lens microcomputer 201 and the camera microcomputer 101. By the data communication, the camera microcomputer 101 can determine the type of the lens unit 200 mounted on the camera body 100 and the state thereof.

入力部112は、例えば、カメラを撮影待機状態とする撮影待機ボタン(待機ボタン)114および録画開始ボタン(録画ボタン)115を備えている。さらに、図示はしないが、入力部112はAFエリアの任意選択モードと多点/顔追尾モードとを切り替えるためのスイッチやボタン、そして、シャッター速度優先モードと絞り優先モードとを切り替える撮影モード切り替えダイヤルなどを有している。ユーザは入力部112によってカメラの設定などを入力することができる。   The input unit 112 includes, for example, a shooting standby button (standby button) 114 and a recording start button (recording button) 115 for setting the camera in a shooting standby state. Furthermore, although not shown, the input unit 112 is a switch or button for switching between the AF area arbitrary selection mode and the multipoint / face tracking mode, and a shooting mode switching dial for switching between the shutter speed priority mode and the aperture priority mode Etc. The user can input camera settings and the like by means of the input unit 112.

表示部113は、液晶装置および発光素子などを有し、設定されたモードおよびその他の撮影に関する情報などを表示する。顔検出回路116は信号処理回路111の出力である画像データにおいて人物の顔(顔領域:特定領域)を検知して、顔領域検知結果をカメラマイコン101に送る。顔検知回路116によって、画像データにおける顔領域の数、各顔領域の画像データにおける位置および大きさ、そして、顔領域の向きなどが特定される。   The display unit 113 includes a liquid crystal device, a light emitting element, and the like, and displays the set mode and other information regarding shooting. The face detection circuit 116 detects a face of a person (face area: specific area) in image data which is an output of the signal processing circuit 111, and sends a face area detection result to the camera microcomputer 101. The face detection circuit 116 identifies the number of face areas in the image data, the position and size of each face area in the image data, and the orientation of the face area.

顔領域の検知手法として、例えば、画像データにおいて目、鼻、および口など顔の特徴部分を抽出して顔領域を特定する手法が用いられる。さらに、画像データにおいて肌色データを抽出して肌色範囲と判定された領域を顔領域として検知するようにしてもよい。また、顔領域の輪郭に注目して、その輪郭を示す楕円形状情報を用いて顔領域を検知するようにしてもよい。   As a face area detection method, for example, a method of extracting face characteristic parts such as eyes, nose, and mouth in image data to specify a face area is used. Furthermore, skin color data may be extracted from image data, and a region determined as a skin color range may be detected as a face region. In addition, the face area may be detected by focusing on the contour of the face area and using elliptical shape information indicating the outline.

図示のように、カメラマイコン101には顔使用判定回路117が備えられており、顔使用判定回路117は、後述するようにして顔領域検知結果を露出の決定に用いるか否かを判定する。そして、顔使用判定回路117による判定結果(顔使用判定結果)は測光回路106における測光制御に用いられる。   As shown, the camera microcomputer 101 is provided with a face use determining circuit 117. The face use determining circuit 117 determines whether to use the face area detection result for the determination of exposure as described later. The determination result (face use determination result) by the face use determination circuit 117 is used for photometric control in the photometry circuit 106.

レンズユニット200には、マイクロコンピュータ(LPU:レンズマイコン)201が備えられており、レンズマイコン201はレンズユニット200の動作を制御する。つまり、レンズマイコン201はレンズユニット200を制御するとともに、各種の条件判定を行う。   The lens unit 200 is provided with a microcomputer (LPU: lens microcomputer) 201, and the lens microcomputer 201 controls the operation of the lens unit 200. That is, the lens microcomputer 201 controls the lens unit 200 and performs various condition determinations.

レンズユニット200には、複数枚のレンズを有するレンズ群202を有している。そして、レンズ群202には光軸に沿って移動可能に配置され、焦点調節を行うフォーカスレンズが含まれている。   The lens unit 200 includes a lens group 202 having a plurality of lenses. The lens group 202 includes a focus lens that is disposed movably along the optical axis and performs focus adjustment.

レンズ駆動部203はレンズ群202において焦点検出および焦点位置合わせ用の光学系を移動させるためのアクチュエータである。カメラマイコン101は焦点検出回路107による焦点検出結果に基づいて、レンズ駆動部202の制御量、つまり、レンズ群202の駆動量(レンズ駆動量)を求める。   A lens drive unit 203 is an actuator for moving an optical system for focus detection and focus alignment in the lens group 202. The camera microcomputer 101 obtains a control amount of the lens drive unit 202, that is, a drive amount (lens drive amount) of the lens group 202 based on the focus detection result by the focus detection circuit 107.

カメラマイコン101は、算出したレンズ駆動量をレンズマイコン201に送る。一方、レンズ群202の位置は、エンコーダ204によって検知され、レンズ位置情報としてレンズマイコン101に送られる。   The camera microcomputer 101 sends the calculated lens driving amount to the lens microcomputer 201. On the other hand, the position of the lens group 202 is detected by the encoder 204 and sent to the lens microcomputer 101 as lens position information.

レンズマイコン201はレンズ位置情報を参照しつつ、レンズ駆動量に応じてレンズ駆動部203を制御して、レンズ群202を合焦位置に移動する。なお、焦点検出の際には、カメラマイコン101からレンズマイコン201にレンズ群202の駆動方向および駆動速度を示す焦点検出用情報が送られる。そして、レンズマイコン201は焦点検出用情報に応じてレンズ駆動部203を制御してレンズ群202を光軸に沿って駆動する。   The lens microcomputer 201 controls the lens driving unit 203 according to the lens driving amount while referring to the lens position information, and moves the lens group 202 to the in-focus position. At the time of focus detection, focus detection information indicating the drive direction and drive speed of the lens group 202 is sent from the camera microcomputer 101 to the lens microcomputer 201. Then, the lens microcomputer 201 controls the lens driving unit 203 according to the focus detection information to drive the lens group 202 along the optical axis.

絞り205は、カメラ本体100に入射する光量を調節するためのものである。絞り制御回路206は、レンズマイコン201の制御下で絞り205を駆動制御する。絞り205を制御するために必要な絞り駆動量は、カメラマイコン101からレンズマイコン201に送られる。なお、レンズ群202の焦点距離は単焦点であってもよく、ズームレンズのように焦点距離が可変であってもよい。   The aperture 205 is for adjusting the amount of light incident on the camera body 100. The diaphragm control circuit 206 controls driving of the diaphragm 205 under the control of the lens microcomputer 201. The diaphragm drive amount necessary to control the diaphragm 205 is sent from the camera microcomputer 101 to the lens microcomputer 201. The focal length of the lens group 202 may be a single focal point, or may be variable as in the zoom lens.

図4は、図3に示すカメラで行われる撮影動作を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining a photographing operation performed by the camera shown in FIG.

撮影動作を開始すると、まず、カメラマイコン101は撮影待機ボタン114が操作されたか否かを判定する(ステップS101)。撮影待機ボタン114が操作されないと、つまり、撮影待機ボタン114が押されないと(ステップS101において、NO)、カメラマイコン101は待機する。   When the photographing operation is started, first, the camera microcomputer 101 determines whether the photographing standby button 114 has been operated (step S101). If the photographing standby button 114 is not operated, that is, if the photographing standby button 114 is not pressed (NO in step S101), the camera microcomputer 101 stands by.

一方、撮影待機ボタン114が操作されると(ステップS101において、YES)、カメラマイコン101は、最初の露出制御の際の測光手法(測光方式)として中央重点平均測光(中重)を選択する(ステップS102)。なお、前述のように、中央重点平均測光においては、画面中央に重みをおいて比較的広い範囲を平均的に測光する。   On the other hand, when the shooting standby button 114 is operated (YES in step S101), the camera microcomputer 101 selects center-weighted average photometry (medium weight) as the photometry method (photometry method) at the time of the first exposure control ( Step S102). As described above, in the center-weighted average metering, weight is placed at the center of the screen to average the relatively wide range.

続いて、カメラマイコン101は顔検知回路116によって画像データにおける顔検出を行う(ステップS103)。そして、カメラマイコン101は、顔検知回路116で検知された顔領域検知結果に応じて、顔領域の数、各顔領域の画像データにおける位置およびその大きさ、顔の向きなどを特定して記憶する。   Subsequently, the camera microcomputer 101 performs face detection in the image data by the face detection circuit 116 (step S103). Then, the camera microcomputer 101 specifies and stores the number of face areas, the position in the image data of each face area, the size thereof, the direction of the face, etc. according to the face area detection result detected by the face detection circuit 116. Do.

次に、カメラマイコン101は、後述するようにして、露出制御を行う(ステップS104)。そして、カメラマイコン101は録画開始ボタン115が操作されたか否かを判定する(ステップS105)。録画開始ボタン115が操作されると(ステップS105において、YES)、カメラマイコン101は現在録画中であるか否かを判定する(ステップS106)。   Next, the camera microcomputer 101 performs exposure control as described later (step S104). Then, the camera microcomputer 101 determines whether the recording start button 115 has been operated (step S105). When the recording start button 115 is operated (YES in step S105), the camera microcomputer 101 determines whether or not recording is currently performed (step S106).

現在録画中でないと(ステップS106において、NO)、カメラマイコン101はカメラを制御して録画を開始する(ステップS107)。一方、現在録画中であると(ステップS106において、YES)、カメラマイコン101は録画を停止する(ステップS108)。   If it is not currently recording (NO in step S106), the camera microcomputer 101 controls the camera to start recording (step S107). On the other hand, if recording is currently in progress (YES in step S106), the camera microcomputer 101 stops recording (step S108).

ステップS107又はS108の処理の後、カメラマイコン101は撮影待機ボタン114が操作されたか否かを判定する(ステップS109)。撮影待機ボタン114が操作されると(ステップS109において、YES)、カメラマイコン101は撮影を終了する。   After the process of step S107 or S108, the camera microcomputer 101 determines whether the shooting standby button 114 has been operated (step S109). When the photographing standby button 114 is operated (YES in the step S109), the camera microcomputer 101 ends the photographing.

一方、撮影ボタンが操作されないと(ステップS109において、NO)、カメラマイコン101はステップS103の処理に戻る。なお、録画開始ボタン115が操作されないと(ステップS105において、NO)、カメラマイコン101はステップS109の処理に進む。   On the other hand, when the shooting button is not operated (NO in step S109), the camera microcomputer 101 returns to the process of step S103. If the recording start button 115 is not operated (NO in step S105), the camera microcomputer 101 proceeds to the process of step S109.

図5は、図4に示す露出制御を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining the exposure control shown in FIG.

露出制御を開始すると、カメラマイコン101は顔検知回路116による顔検知結果を参照して、検知された顔領域の数が1以上であるか否かを判定する(ステップS201)。顔領域の検知数が1以上であると、つまり、画像データに顔領域が存在すると(ステップS201において、YES)、カメラマイコン101は顔使用判定回路117によって検出された顔領域のうち露出制御に使用する顔領域が存在するか否かを判定して、後述するようにして優先順位付けを行う(ステップS202)。   When exposure control is started, the camera microcomputer 101 refers to the face detection result by the face detection circuit 116 and determines whether the number of detected face areas is 1 or more (step S201). If the number of face areas detected is one or more, that is, if there is a face area in the image data (YES in step S201), the camera microcomputer 101 performs exposure control in the face areas detected by the face use determination circuit 117. It is determined whether there is a face area to be used, and prioritization is performed as described later (step S202).

続いて、カメラマイコン101は現在の露出制御において顔領域検知結果が用いられているか否かを判定する(ステップS203)。現在の露出制御において顔領域検知結果が用いられていないと(ステップS203において、NO)、つまり、現在の露出制御において顔領域検知結果が用いられていない状態で、新たに露出制御に使用する顔領域が検知されると、カメラマイコン101は、後述するようにして、顔使用判定結果に対して揺らぎ除去処理を行う(ステップS204)。   Subsequently, the camera microcomputer 101 determines whether the face area detection result is used in the present exposure control (step S203). If a face area detection result is not used in the current exposure control (NO in step S203), that is, a face to be newly used for exposure control in a state where the face area detection result is not used in the current exposure control When the area is detected, the camera microcomputer 101 performs fluctuation removal processing on the face use determination result as described later (step S204).

続いて、カメラマイコン101は、顔使用判定結果又は揺らぎ除去処理後の顔使用判定結果に応じて新たな露出制御(AE)で使用する顔領域が存在するか否かを判定する(ステップS205)。なお、現在の露出制御において顔領域検知結果が用いられていると(ステップS203において、YES)、カメラマイコン101はステップS205の処理に進む。   Subsequently, the camera microcomputer 101 determines whether or not there is a face area to be used in new exposure control (AE) according to the face use determination result or the face use determination result after the fluctuation removal process (step S205). . If the face area detection result is used in the current exposure control (YES in step S203), the camera microcomputer 101 proceeds to the process of step S205.

新たな露出制御において使用する顔領域が存在すると(ステップS205において、YES)、カメラマイコン101は測光方式(測光モード)を評価測光とする(ステップS206)。一方、新たな露出制御において使用する顔領域が存在しないと(ステップS205において、NO)、カメラマイコン101は測光方式として中央重点平均測光を選択する(ステップS207)。   If there is a face area to be used in the new exposure control (YES in step S205), the camera microcomputer 101 sets the photometric method (photometric mode) as evaluation photometry (step S206). On the other hand, if there is no face area to be used in the new exposure control (NO in step S205), the camera microcomputer 101 selects center weighted average photometry as the photometric method (step S207).

これによって、顔領域を使用しないで露出制御を行っている状態で、新たに顔領域が検出されたとしても、顔領域検知結果が安定的に出力されていないと、直ちに露出制御に顔領域を使用することなく露出制御を継続することになる。ここでは、測光方式として中央重点平均測光を継続して用いることになる。   As a result, when exposure control is performed without using a face area, even if a face area is newly detected, if a face area detection result is not stably output, the face area is immediately used for exposure control. Exposure control will continue without being used. Here, center-weighted average metering is continuously used as the metering method.

画像データにおいて顔領域が検知されないと(ステップS201において、NO)、カメラマイコン101は現在の露出制御において顔領域検出結果が用いられているか否かを判定する(ステップS208)。現在の露出制御において顔領域検出結果が用いられていると(ステップS208において、YES)、カメラマイコン101は人物の顔が消失したとして、所定の時間、露出制御値を固定(ロック)する(AEロック:ステップS209)。つまり、現在の露出制御において顔領域検知結果が使用されている状態で、露出制御に使用する顔領域が消失してしまった場合には、カメラマイコン101は所定の時間AEロックを行う。   If no face area is detected in the image data (NO in step S201), the camera microcomputer 101 determines whether a face area detection result is used in the present exposure control (step S208). If the face area detection result is used in the current exposure control (YES in step S208), the camera microcomputer 101 fixes (locks) the exposure control value for a predetermined period of time, assuming that the person's face has disappeared (AE) (AE) Lock: step S209). That is, when the face area detection result is used in the current exposure control and the face area used for the exposure control disappears, the camera microcomputer 101 performs AE lock for a predetermined time.

この所定の時間は、例えば、5秒であり、AEロックにおいては露出制御の目標値となる測光結果、つまり、被写体輝度の更新を停止する。なお、露出の固定手法については、特に限定するものではなく、測光結果の更新を継続して、露出制御に用いる制御値、例えば、TV(シャッタースピード)、AV(絞り値)、およびISO感度を固定するようにしてもよい。   The predetermined time is, for example, 5 seconds, and in the AE lock, the update of the photometric result as the target value of the exposure control, that is, the subject brightness is stopped. The method of fixing the exposure is not particularly limited, and updating of the photometry result is continued, and control values used for exposure control, for example, TV (shutter speed), AV (aperture value), and ISO sensitivity It may be fixed.

続いて、カメラマイコン101は測光方式として中央重点平均測光を選択する(ステップS210)。なお、現在の露出制御において顔領域検出結果が用いられていないと(ステップS208において、NO)、カメラマイコン101はステップS210の処理に進む。   Subsequently, the camera microcomputer 101 selects center weighted average metering as the metering method (step S210). If the face area detection result is not used in the current exposure control (NO in step S208), the camera microcomputer 101 proceeds to the process of step S210.

なお、ステップS209においてAEロックが行われた場合には、測光方式が評価測光から中央重点平均測光に切り替わるものの、直ちに画像における露出が変化することはない。また、AEロック期間中に人物の顔領域が再び検知されて、露出制御に使用できる場合には、測光方式は再び評価測光に戻る。この結果、画像の露出は変化しない。   When the AE lock is performed in step S209, although the photometric method is switched from the evaluation photometry to the center-weighted average photometry, the exposure of the image does not change immediately. In addition, when the face area of the person is detected again during the AE lock period, and the exposure control can be used, the photometry method returns to the evaluation photometry again. As a result, the exposure of the image does not change.

ステップS206、S207、又はS210の処理の後、カメラマイコン101は、決定した測光方式を用いて露出制御における目標輝度を求める(ステップS211)。なお、AEロック中においては目標輝度は更新されない。   After the process of step S206, S207, or S210, the camera microcomputer 101 obtains a target luminance in exposure control using the determined photometric method (step S211). The target brightness is not updated during the AE lock.

続いて、カメラマイコン101は目標輝度に応じて露出制御値であるTV、AV、およびISO感度を決定する(ステップS212)。なお、AEロック中においては、露出制御値は更新されない。そして、カメラマイコン101は露出制御を終了して、図4に示すステップS105の処理に進む。   Subsequently, the camera microcomputer 101 determines the TV, AV, and ISO sensitivities, which are exposure control values, according to the target brightness (step S212). During the AE lock, the exposure control value is not updated. Then, the camera microcomputer 101 ends the exposure control, and proceeds to the process of step S105 shown in FIG.

図6は、図5に示す顔使用判定処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the face use determination process shown in FIG.

顔使用判定処理を開始すると、カメラマイコン101は顔検知回路116によって人物の顔の特徴点に基づいて画像データにおける顔領域を検知して、顔領域検知結果を得る。そして、カメラマイコン101は顔領域検知結果に基づいて、顔領域毎に識別番号(ID)を付与して、その大きさ、向き、および位置(座標)をリスト化して顔リストとして記憶する。   When the face use determination process is started, the camera microcomputer 101 detects the face area in the image data based on the feature points of the face of the person by the face detection circuit 116, and obtains the face area detection result. Then, the camera microcomputer 101 assigns an identification number (ID) to each face area based on the face area detection result, and stores the size, direction, and position (coordinates) as a list in a face list.

図7は、図1に示すカメラマイコン101に記憶された顔リストを説明するための図である。そして、図7(a)は顔リストの一例を示す図であり、図7(b)は並べ替え後の顔リストを示す図である。   FIG. 7 is a diagram for explaining the face list stored in the camera microcomputer 101 shown in FIG. 7A shows an example of the face list, and FIG. 7B shows the face list after sorting.

図7(a)に示すように、画像データにおいて検知された顔領域には、IDが付与されて、顔領域毎にその大きさ、向き、および画像における顔領域の中心位置を示す座標が規定されている。   As shown in FIG. 7A, the face area detected in the image data is assigned an ID, and for each face area, its size, direction, and coordinates indicating the center position of the face area in the image are defined. It is done.

カメラマイコン101は、図7(a)に示す顔リストにおいて顔領域を顔の大きさの順に並べ替える(ステップS301)。そして、カメラマイコン101は顔領域の向きを調べて、正面方向又は斜め方向を向く顔領域以外の顔領域を除外する。つまり、ここでは、カメラマイコン101は、横向きおよび後向きの顔領域を除外する(ステップS302)。   The camera microcomputer 101 rearranges the face areas in the order of face size in the face list shown in FIG. 7A (step S301). Then, the camera microcomputer 101 checks the direction of the face area, and excludes the face area other than the face area facing the front direction or the oblique direction. That is, here, the camera microcomputer 101 excludes the face area facing sideways and backward (step S302).

なお、カメラマイコン101は、例えば、顔領域の向きが正面方向から左右45度の範囲にない顔領域を除外する。このように、横向きおよび後向きの顔領域を除外することによって、露出制御の際に、例えば、髪毛の色に露出制御が影響を受けることを防止することができる。   Note that, for example, the camera microcomputer 101 excludes a face area in which the direction of the face area is not within the range of 45 degrees from the front direction. In this manner, by excluding the sideways and backward face regions, it is possible to prevent the exposure control from being influenced by, for example, the color of the hair at the time of exposure control.

このようにして、図7(a)に示す顔リストの並べ替えを行うと、例えば、図7(b)に示す並べ替え後の顔リストが得られる。並べ替え後の顔リストにおいては、順位にID、向き、および座標が対応付けられる。なお、図7(b)において、ID欄に「無」が挿入された顔領域は除外された顔領域である。   When the face list shown in FIG. 7A is rearranged in this way, for example, the rearranged face list shown in FIG. 7B is obtained. In the rearranged face list, ID, orientation, and coordinates are associated with the order. Note that, in FIG. 7B, the face area in which “absent” is inserted in the ID column is the excluded face area.

続いて、カメラマイコン101は、選択条件に基づいて並べ替え後の顔リストから最も優先順位の高い顔領域(選択検知結果)を選択する。つまり、カメラマイコン101は並べ替え後の顔リストにおいて最も優先順位の高い顔領域に係る向きおよび座標(顔使用判定結果)を出力して(ステップS303)、顔使用判定処理を終了する。そして、カメラマイコン101は図5に示すステップS203の処理に進む。   Subsequently, the camera microcomputer 101 selects the face area (selection detection result) having the highest priority from the rearranged face list based on the selection condition. That is, the camera microcomputer 101 outputs the direction and the coordinates (face use determination result) related to the face area with the highest priority in the rearranged face list (step S303), and ends the face use determination process. Then, the camera microcomputer 101 proceeds to the process of step S203 shown in FIG.

露出制御においては、ステップS303で出力された座標の顔領域が用いられる。なお、顔の向きについては正面方向から左右45度の範囲にある顔領域を用いるようにしたが、誤差を考慮すると被写体の状況によっては顔使用判定結果が安定しないことがある。このため、次のようにして、揺らぎ除去処理が行われることになる。   In exposure control, the face area of the coordinates output in step S303 is used. Although the face area in the range of 45 degrees left and right from the front direction is used for the face direction, the face use determination result may not be stable depending on the condition of the subject in consideration of the error. Therefore, the fluctuation removal process is performed as follows.

図8は、図5に示す揺らぎ除去処理を説明するためのフローチャートである。なお、複数の顔領域が検知されている場合には、揺らぎ除去処理はそれぞれの顔領域に対して行われる。   FIG. 8 is a flowchart for explaining the fluctuation removal process shown in FIG. When a plurality of face areas are detected, the fluctuation removal process is performed on each face area.

揺らぎ除去処理を開始すると、カメラマイコン101は今回の顔使用判定結果Fnと前回の顔使用判定結果F(n−1)とを比較して、同一であるか否かを判定する(ステップS401)。Fn=F(n−1)であれば(ステップS401において、YES)、カメラマイコン101は繰り返し回数判定用カウンタである変数countに1を加算する(ステップS402)。一方、Fn=F(n−1)でないと(ステップS401において、NO)、カメラマイコン101は変数countをゼロにクリアする(ステップS403)。   When the fluctuation removal process is started, the camera microcomputer 101 compares the current face use determination result Fn with the previous face use determination result F (n-1) to determine whether they are the same (step S401). . If Fn = F (n-1) (YES in step S401), the camera microcomputer 101 adds 1 to a variable count which is a counter for determining the number of repetitions (step S402). On the other hand, if Fn = F (n-1) (NO in step S401), the camera microcomputer 101 clears the variable count to zero (step S403).

ステップS402又はS403の処理の後、カメラマイコン101は変数countが所定のカウント値以上、例えば、5以上となったか否かを判定する(ステップS404)。変数countが5以上であると(ステップS404において、YES)、カメラマイコン101は顔使用判定結果に対する揺らぎ除去結果Foutとして最新の顔使用判定結果Fnを用いる(ステップS405)。そして、カメラマイコン101は揺らぎ除去処理を終了して、図5に示すステップS205の処理に進む。   After the process of step S402 or S403, the camera microcomputer 101 determines whether or not the variable count is equal to or more than a predetermined count value, for example, five or more (step S404). If the variable count is 5 or more (YES in step S404), the camera microcomputer 101 uses the latest face use determination result Fn as the fluctuation removal result Fout for the face use determination result (step S405). Then, the camera microcomputer 101 ends the fluctuation removal process, and proceeds to the process of step S205 shown in FIG.

一方、変数countが5未満であると(ステップS404において、NO)、カメラマイコン101は揺らぎ除去処理を終了して、図5に示すステップS205の処理に進む。   On the other hand, if the variable count is less than 5 (NO in step S404), the camera microcomputer 101 ends the fluctuation removal process and proceeds to the process of step S205 shown in FIG.

図9は、図3に示すカメラで行われる揺らぎ除去動作を説明するための図である。   FIG. 9 is a diagram for explaining the fluctuation removing operation performed by the camera shown in FIG.

いま、顔領域が2回連続して検知された後、顔領域が5回連続して検知されない状態となったとする。この場合、カメラは、露出制御で用いられる顔領域について、顔領域が検知されない状態が4回続くと、顔領域なしと判定することになる。つまり、カメラは顔領域判定結果を複数回参照した後、露出制御で用いられる顔領域を切り替えることになる。これによって、顔領域判定結果の揺らぎに関して画像の露出が過敏に反応することがなくなる。   Now, it is assumed that the face area is not detected five consecutive times after the face area is detected twice continuously. In this case, the camera determines that there is no face area if the face area not used for exposure control continues to be detected four times. That is, after referring to the face area determination result a plurality of times, the camera switches the face area used in the exposure control. As a result, the exposure of the image is not sensitive to the fluctuation of the face area determination result.

一方、物体が横切ったことによって人物の顔が遮蔽された場合においても、しばらくの間露出制御において遮蔽された人物に係る顔の座標が用いられることになる。このため、前述のように、露出制御に用いる顔領域が消失した際には、図5のステップS204に示す揺らぎ除去処理を行わない。   On the other hand, even when the face of the person is occluded due to the crossing of the object, the coordinates of the face relating to the occluded person in the exposure control for a while are used. Therefore, as described above, when the face area used for the exposure control disappears, the fluctuation removal process shown in step S204 of FIG. 5 is not performed.

この結果、物体が横切った際に露出制御を移行する顔領域が別に存在する場合には速やかに当該顔領域によって露出制御を行う。そして、別に顔領域が存在しない場合には所定時間の露出を固定して(AEロック)、人物の顔領域が遮蔽されない状態となった後に再び適正な露出制御に復帰することができる。   As a result, when there is another face area to which exposure control shifts when an object crosses, exposure control is promptly performed by the face area. Then, if there is no face area separately, the exposure for a predetermined time is fixed (AE lock), and after the face area of the person is not blocked, it is possible to return to the proper exposure control again.

以上のように、本発明の実施の形態では、露出制御の際に、新たに顔領域が出現した場合には揺らぎ除去処理を行い、露出制御に用いている顔領域が消失した場合には揺らぎ除去処理を行わずに、別の顔領域を露出制御に用いる。これによって、顔領域の誤検知又は検知能力の限界付近における顔領域検知結果の揺らぎに起因する画像の露出に対する影響を抑止することができる。   As described above, in the embodiment of the present invention, when exposure control is performed, fluctuation removal processing is performed when a face area newly appears, and fluctuation is performed when the face area used for exposure control disappears. Another face area is used for exposure control without performing removal processing. By this, it is possible to suppress the influence on the exposure of the image due to the false detection of the face area or the fluctuation of the face area detection result in the vicinity of the limit of the detection capability.

さらに、本発明の実施形態では、露出制御に用いていた顔領域が消失して、別に顔領域が存在しない場合には、揺らぎ除去処理を行うことなく、所定の期間の露出を固定状態とする。これによって、顔領域の誤検知又は検知能力の限界付近における顔領域検知結果の揺らぎに起因する画像の露出に対する影響を除去することができる。さらには、人物を横切った物体による露出に対する影響も抑止することができる。   Furthermore, in the embodiment of the present invention, when the face area used for the exposure control disappears and there is no separate face area, the exposure for a predetermined period is fixed without performing the fluctuation removal process. . By this, it is possible to remove the influence on the exposure of the image due to the false detection of the face area or the fluctuation of the face area detection result in the vicinity of the limit of the detection ability. Furthermore, the influence on the exposure by the object crossing the person can also be suppressed.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, The various form of the range which does not deviate from the summary of this invention is also included in this invention .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を露出制御装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを露出制御装置が備えるコンピュータに実行させるようにしてもよい。なお、プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the control method may be performed by the exposure control apparatus as the control method of the above-described embodiment. In addition, a program provided with the functions of the above-described embodiment may be executed by a computer provided in the exposure control apparatus. The program is recorded on, for example, a computer readable recording medium.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100 カメラ本体
101 カメラマイコン(CCPU)
102 撮像素子
106 測光回路(AE)
111 信号処理回路
116 顔検知回路
117 顔使用判定回路
200 レンズユニット
201 レンズマイコン(LPU)
206 絞り制御回路
100 Camera body 101 Camera microcomputer (CCPU)
102 image sensor 106 photometry circuit (AE)
111 signal processing circuit 116 face detection circuit 117 face use determination circuit 200 lens unit 201 lens microcomputer (LPU)
206 Aperture control circuit

Claims (9)

被写体を撮像して得られた画像から顔領域を検知する検知手段と、
前記顔領域に重みを付けて測光を行う第1の測光方式又は前記第1の測光方式とは異なる第2の測光方式による測光結果に基づいて露出制御を行う露出制御手段と、を有し、
前記第1の測光方式では、前記検知手段によって1つ以上の前記顔領域が検知された場合に、所定の条件を満たす顔領域に重みを付けて測光を行い、
前記露出制御手段は、前記第1の測光方式で露出制御を行っている際に、前記所定の条件を満たす顔領域が検知されなくなった後の所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知した場合には、当該新たに検知された顔領域に重みを付けて前記第1の測光方式を用いて再び露出制御を行い、前記所定の期間において、前記検知手段が前記所定の条件を満たす新たな顔領域を検知しない場合には、前記第2の測光方式を用いて露出制御を行うことを特徴とする露出制御装置。
Detection means for detecting a face area from an image obtained by imaging a subject;
Exposure control means for performing exposure control based on a result of photometry by a first photometry method of performing photometry by weighting the face area or a second photometry method different from the first photometry method;
In the first photometry method, when one or more face areas are detected by the detection unit, the face areas satisfying a predetermined condition are weighted to perform photometry.
The exposure control means performs the predetermined condition in a predetermined period after the face area satisfying the predetermined condition is not detected while the exposure control is performed by the first photometric method. If a new face area satisfying the condition is detected, the newly detected face area is weighted and exposure control is performed again using the first photometric method, and the detection means is performed in the predetermined period. An exposure control apparatus characterized by performing exposure control using said 2nd photometry method, when not detecting a new face field which fulfills said predetermined conditions.
前記第2の測光方式は、前記検知手段によって前記所定の条件を満たす顔領域が検知されない場合に実行され、画像の中央に重みを付けて測光を行うことを特徴とする請求項1に記載の露出制御装置。   The second photometry method is executed when the face area not satisfying the predetermined condition is not detected by the detection unit, and the center of the image is weighted to perform photometry. Exposure control device. 前記露出制御手段は、前記第1の測光方式から前記第2の測光方式に変更する場合、変更前の前記第1の測光方式による測光結果に基づく露出を前記所定の期間において維持した後に、前記第2の測光方式を用いて露出制御を行うことを特徴とする請求項1又は2に記載の露出制御装置。   When changing from the first light measurement method to the second light measurement method, the exposure control means maintains an exposure based on a result of light measurement by the first light measurement method before the change during the predetermined period. The exposure control apparatus according to claim 1 or 2, wherein exposure control is performed using a second photometric method. 前記所定の条件は、前記顔領域の大きさ、位置、および向きの少なくとも1つに基づいて、優先度が高い顔領域を選択するための条件であることを特徴とする請求項1乃至3いずれか1項に記載の露出制御装置。   The predetermined condition is a condition for selecting a face area with high priority based on at least one of the size, position, and orientation of the face area. An exposure control device according to any one of the preceding claims. 前記露出制御手段は、被写体の撮影動作が開始された後、最初に前記第2の測光方式による測光結果に基づいて露出制御を行い、その後、前記検知手段により前記所定の条件を満たす顔領域が検出された場合に、前記第1の測光方式による測光結果に基づいて露出制御を行うことを特徴する請求項1乃至4のいずれか1項に記載の露出制御装置。   The exposure control means first performs exposure control based on the photometric result according to the second photometry method after the photographing operation of the subject is started, and then the face area satisfying the predetermined condition is detected by the detection means. The exposure control apparatus according to any one of claims 1 to 4, wherein, when it is detected, exposure control is performed based on a photometric result according to the first photometric method. 前記露出制御手段は、動画を取得する際に、前記第1の測光方式又は前記第2の測光方式による測光結果に基づいて露出制御を行うことによって動画の明るさを調整することを特徴とする請求項1乃至5のいずれか1項に記載の露出制御装置。   The exposure control means adjusts the brightness of the moving image by performing exposure control based on the photometric result according to the first photometric method or the second photometric method when acquiring the moving image. The exposure control apparatus according to any one of claims 1 to 5. 前記露出制御装置は、撮像手段を備えた撮像装置であることを特徴とする請求項1乃至5のいずれか1項に記載の露出制御装置。   The said exposure control apparatus is an imaging device provided with the imaging means, The exposure control apparatus of any one of the Claims 1 thru | or 5 characterized by the above-mentioned. 被写体を撮像して得られた画像から顔領域を検知する検知工程と、
前記顔領域に重みを付けて測光を行う第1の測光、又は前記第1の測光とは異なる第2の測光による測光結果に基づいて露出制御を行う露出制御工程と、を有し、
前記第1の測光では、前記検知工程によって1つ以上の前記顔領域が検知された場合に、所定の条件を満たす顔領域に重みを付けた測光を行い、
前記露出制御工程では、前記第1の測光に基づく露出制御を行っている際に、前記所定の条件を満たす顔領域が検知されなくなった後の所定の期間において、前記所定の条件を満たす新たな顔領域を検知した場合には、当該新たに検知された顔領域に重みを付けて前記第1の測光に基づく露出制御を行い、前記所定の期間において、前記所定の条件を満たす新たな顔領域は検知されない場合には、前記第2の測光に基づく露出制御を行うことを特徴とする露出制御方法。
Detecting a face area from an image obtained by imaging an object;
An exposure control step of performing exposure control on the basis of a photometry result obtained by weighting the face area and performing photometry, or a second photometry result different from the first photometry;
In the first photometry, when one or more face areas are detected by the detection step, photometry is performed in which the face areas that satisfy a predetermined condition are weighted.
In the exposure control step, when performing the exposure control based on the first photometry, a new period satisfying the predetermined condition is satisfied in a predetermined period after the face area satisfying the predetermined condition is not detected. When a face area is detected, the newly detected face area is weighted to perform exposure control based on the first photometry, and a new face area satisfying the predetermined condition in the predetermined period. Is not detected, exposure control based on the second photometry is performed.
請求項8に記載の露出制御方法をコンピュータで実行させるためのコンピュータで読み取り可能なプログラム。   A computer readable program for causing a computer to execute the exposure control method according to claim 8.
JP2019029679A 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program Active JP6786643B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029679A JP6786643B2 (en) 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029679A JP6786643B2 (en) 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015002922A Division JP6486109B2 (en) 2015-01-09 2015-01-09 EXPOSURE CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019118115A true JP2019118115A (en) 2019-07-18
JP6786643B2 JP6786643B2 (en) 2020-11-18

Family

ID=67304697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029679A Active JP6786643B2 (en) 2019-02-21 2019-02-21 Exposure control device, exposure control method, and program

Country Status (1)

Country Link
JP (1) JP6786643B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080024616A1 (en) * 2006-07-31 2008-01-31 Kenji Takahashi Image sensing apparatus and control method therefor
JP2013223233A (en) * 2012-04-19 2013-10-28 Olympus Imaging Corp Photographing apparatus
JP2014216832A (en) * 2013-04-25 2014-11-17 株式会社ニコン Imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080024616A1 (en) * 2006-07-31 2008-01-31 Kenji Takahashi Image sensing apparatus and control method therefor
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same
JP2013223233A (en) * 2012-04-19 2013-10-28 Olympus Imaging Corp Photographing apparatus
JP2014216832A (en) * 2013-04-25 2014-11-17 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP6786643B2 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
JP6486109B2 (en) EXPOSURE CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6257199B2 (en) Optical apparatus, control method therefor, and control program
US11812133B2 (en) Image processing apparatus and method for controlling image processing apparatus
JP2013218177A (en) Imaging device and control method of the same
JP2000180709A (en) Range-finding device
JP6257198B2 (en) Optical apparatus, control method therefor, and control program
JP2015031743A (en) Exposure control device, control method for the same, and control program, and imaging device
JP6786643B2 (en) Exposure control device, exposure control method, and program
CN111835980B (en) Image pickup apparatus, control method therefor, and storage medium
US11272120B2 (en) Imaging device and control method thereof
JP2019004416A (en) Imaging apparatus, control method for the same, and control program
JP2018006802A (en) Imaging apparatus, control method therefor, and program
JP4558174B2 (en) Ranging device
US11516408B2 (en) Image capturing apparatus, method for driving image capturing apparatus to detect flicker during shooting
JPH03107933A (en) Automatic exposure controller for camera
WO2016157569A1 (en) Imaging device and focus evaluation device
JP3180458B2 (en) Camera having line-of-sight detection means
JPH04119338A (en) Photometric computing device for camera
JP2021190992A (en) Imaging apparatus and control method of the same
JP3024628B2 (en) Eye gaze detection device and camera
JP2803168B2 (en) Camera exposure calculation device
JP2596404B2 (en) Eye gaze detection device
JP2013187776A (en) Photometric apparatus and imaging apparatus
JP2019219566A (en) Imaging device, exposure control method and program
JP2020068393A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201028

R151 Written notification of patent or utility model registration

Ref document number: 6786643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151