JP5094561B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP5094561B2
JP5094561B2 JP2008140519A JP2008140519A JP5094561B2 JP 5094561 B2 JP5094561 B2 JP 5094561B2 JP 2008140519 A JP2008140519 A JP 2008140519A JP 2008140519 A JP2008140519 A JP 2008140519A JP 5094561 B2 JP5094561 B2 JP 5094561B2
Authority
JP
Japan
Prior art keywords
area
subject
luminance information
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008140519A
Other languages
Japanese (ja)
Other versions
JP2009290519A (en
JP2009290519A5 (en
Inventor
賢太郎 翠川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008140519A priority Critical patent/JP5094561B2/en
Publication of JP2009290519A publication Critical patent/JP2009290519A/en
Publication of JP2009290519A5 publication Critical patent/JP2009290519A5/ja
Application granted granted Critical
Publication of JP5094561B2 publication Critical patent/JP5094561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像データ上より選択された複数の領域の輝度情報を求めて露出値を算出し、露出制御を行うカメラに関するものである。   The present invention relates to a camera that performs exposure control by calculating exposure values by obtaining luminance information of a plurality of regions selected from image data.

撮影画面を多数に分割し、分割された複数の領域に対応する複数ポイントでそれぞれ測光を行うマルチスポット測光が知られている。特許文献1には、オートフォーカス(AF)ポイントに対応する測光領域で測光を行うカメラについて開示されている。   Multi-spot photometry is known in which a photographing screen is divided into a large number and photometry is performed at a plurality of points corresponding to a plurality of divided areas. Patent Document 1 discloses a camera that performs photometry in a photometry area corresponding to an autofocus (AF) point.

上記カメラは、AFポイントを選択すると、選択AFポイントに対応する測光領域で得られる輝度値を表示する。AFポイントを変更すると、変更後のAFポイントに対応する測光領域で輝度情報を得た上で、前回の輝度情報との間で平均値をさらに算出して表示する。特許文献1のカメラは、さらに各ポイントによる輝度情報の平均値に対する分布を示すバー表示を行うことが開示されている。
特開2000−81647号公報
When the camera selects an AF point, the camera displays a luminance value obtained in a photometric area corresponding to the selected AF point. When the AF point is changed, luminance information is obtained in the photometric area corresponding to the AF point after the change, and an average value is further calculated and displayed with the previous luminance information. Patent Document 1 discloses that the camera further displays a bar indicating the distribution of luminance information with respect to the average value of each point.
JP 2000-81647 A

上記マルチスポット測光では、マルチスポット測光領域が、撮影画角内における位置が固定されたAFポイントに対応しているため、マルチスポット測光領域の対象としていた被写体がAFポイントから外れた場合に、被写体を追尾することができない。そのため、その後に被写体が動いた場合やカメラの向きを変えられた場合には、マルチスポット測光の対象領域が、意図した被写体から外れてしまい、ユーザーの所望する被写体を中心とした輝度情報を得ることができなかった。   In the above multi-spot metering, the multi-spot metering area corresponds to the AF point whose position within the shooting angle of view is fixed. Therefore, when the subject that is the target of the multi-spot metering area deviates from the AF point, the subject Cannot be tracked. Therefore, if the subject subsequently moves or the camera orientation is changed, the target area for multi-spot metering will deviate from the intended subject, and luminance information centered on the subject desired by the user is obtained. I couldn't.

また、AFポイントを選択した際に、そのAFポイントに対応する測光領域で得られた輝度情報を保持することで上記課題を回避することが考えられる。しかしながら、このような構成にすると、撮影直前になって被写体の輝度が変化した場合に対応することができなかった。   Further, when the AF point is selected, it is conceivable to avoid the above problem by holding the luminance information obtained in the photometric area corresponding to the AF point. However, with such a configuration, it is impossible to cope with a case where the luminance of the subject changes immediately before shooting.

また、バー表示において、それぞれのマルチスポット測光領域の輝度情報を示すマークが同じ表示形態であるため、どのマークがどのマルチスポット測光領域の輝度値を示しているかを認識させることができなかった。   Further, in the bar display, since the marks indicating the luminance information of the respective multi-spot photometry areas have the same display form, it is not possible to recognize which mark indicates the brightness value of which multi-spot photometry area.

(発明の目的)
本発明の目的は、輝度情報を求めるための領域が選択された後に輝度が変わった場合や構図変更があった場合にも、所望の被写体が位置する領域での輝度情報に基づいた露出値を算出し、ユーザーに認識させることのできるカメラを提供しようとするものである。
(Object of invention)
An object of the present invention is to set an exposure value based on luminance information in a region where a desired subject is located even when the luminance is changed after the region for obtaining luminance information is selected or when the composition is changed. It is intended to provide a camera that can be calculated and recognized by the user.

上記目的を達成するために、本発明は、画像データ上より検出された顔領域、および、ユーザーの指示に応じて選択された領域の少なくともいずれかに応じた複数の領域における輝度情報を求め、該輝度情報から露出制御に用いる露出値を算出する制御手段を有するカメラにおいて、前記複数の領域それぞれに位置する被写体を判別し、前記被写体が移動した場合には、前記被写体が新たに位置する領域を検出する追尾手段と、前記複数の領域それぞれの輝度情報を示す複数の輝度情報目盛りを表示するための表示部と前記画像データに基づく画像を表示するための表示部を有し、前記画像上に前記複数の領域それぞれを示す枠を表示するものであって、前記複数の領域それぞれを示す枠と前記複数の輝度情報目盛りそれぞれを対応づけて表示する表示手段を有し、前記制御手段が、前記追尾手段にて検出された領域を、新たに選択された領域として設定し、前記新たに選択された領域の輝度情報を含めて前記露出値を算出し直すカメラとするものである。 In order to achieve the above object, the present invention obtains luminance information in a plurality of regions according to at least one of a face region detected from image data and a region selected according to a user instruction , In a camera having a control means for calculating an exposure value used for exposure control from the luminance information, a subject located in each of the plurality of regions is determined, and when the subject moves, a region where the subject is newly located Tracking means, a display unit for displaying a plurality of luminance information scales indicating luminance information of each of the plurality of regions, and a display unit for displaying an image based on the image data, Table in association with a plurality of be one that displays a frame indicating each region, each of the plurality of luminance information scale a frame indicating each of the plurality of regions Display means for setting the area detected by the tracking means as a newly selected area, and including the brightness information of the newly selected area, the exposure value is set. The camera is recalculated.

本発明によれば、輝度情報を求めるための領域が選択された後に輝度が変わった場合や構図変更があった場合にも、所望の被写体が位置する領域での輝度情報に基づいた露出値を算出し、ユーザーに認識させることができるカメラを提供できるものである。   According to the present invention, the exposure value based on the luminance information in the region where the desired subject is located can be obtained even when the luminance is changed after the region for obtaining the luminance information is selected or the composition is changed. It is possible to provide a camera that can be calculated and recognized by the user.

本発明を実施するための最良の形態は、以下の実施例に示す通りである。   The best mode for carrying out the present invention is as shown in the following examples.

図1は本発明の一実施例に係わるカメラの概略を示す構成図である。図1において、101は撮影レンズである。102はAF駆動回路部であり、例えばDCモータやステッピングモータを具備しており、マイクロコンピュータ123の制御によって撮影レンズ101内のフォーカスレンズ位置を変化させることによりピントを合わせる。103はズーム駆動回路部であり、例えばDCモータやステッピングモータを具備しており、マイクロコンピュータ123の制御によって撮影レンズ101内の変倍レンズ位置を変化させることにより焦点距離を変化させる。104は絞り、105は絞り104を駆動する絞り駆動回路部である。絞り104の駆動量はマイクロコンピュータ123によって制御され、光学的な絞り値を変化させる。   FIG. 1 is a block diagram showing an outline of a camera according to an embodiment of the present invention. In FIG. 1, reference numeral 101 denotes a photographing lens. Reference numeral 102 denotes an AF drive circuit unit, which includes, for example, a DC motor or a stepping motor, and adjusts the focus lens position in the photographing lens 101 under the control of the microcomputer 123 to adjust the focus. A zoom drive circuit unit 103 includes, for example, a DC motor and a stepping motor, and changes the focal length by changing the position of the zoom lens in the photographing lens 101 under the control of the microcomputer 123. Reference numeral 104 denotes an aperture, and reference numeral 105 denotes an aperture drive circuit unit that drives the aperture 104. The driving amount of the diaphragm 104 is controlled by the microcomputer 123 to change the optical diaphragm value.

106は撮影レンズ101を透過した光束をファインダ側と後述の撮像素子側へと切り換えるためのミラーである。このミラー106は、常時はファインダ部へと光束を導くよう反射させるように配されているが、撮影が行われる場合には、撮像素子112へと光束を導くように図1中上方に跳ね上げられる。つまり、光束中から待避させられる。またミラー106はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を焦点検出を行うためのセンサに導かれるよう透過させられるようになっている。   Reference numeral 106 denotes a mirror for switching the light beam that has passed through the photographing lens 101 between a viewfinder side and an image sensor side described later. The mirror 106 is normally arranged so as to reflect the light beam to the viewfinder, but when shooting, the mirror 106 is flipped up in FIG. 1 to guide the light beam to the image sensor 112. It is done. That is, it is saved from the light flux. The mirror 106 is a half mirror so that a central portion thereof can transmit a part of light, and a part of the light beam is transmitted so as to be guided to a sensor for detecting a focus.

107はサブミラーであり、ミラー106から透過して来た光束を反射させ、焦点検出を行うためのAFセンサに導くために反射させる。108はファインダを構成するペンタプリズムである。ファインダは、他にピント板、アイピースレンズ(不図示)などによって構成される。109は焦点検出回路であり、ミラー106の中央部を透過し、サブミラー107で反射された光束が内部に配された光電変換を行うためのAFセンサに導かれる。フォーカス演算に用いるデフォーカス量は、画角の予め定められた位置に設けられた複数のAFセンサの出力を演算することによって求められる。演算結果を評価してマイクロコンピュータ123がAF駆動回路102に通信し、撮影レンズ101のフォーカスレンズを駆動する。   Reference numeral 107 denotes a sub-mirror that reflects the light beam transmitted from the mirror 106 and reflects it to the AF sensor for focus detection. Reference numeral 108 denotes a pentaprism constituting the finder. In addition, the finder includes a focus plate, an eyepiece lens (not shown), and the like. Reference numeral 109 denotes a focus detection circuit, which is guided to an AF sensor for performing photoelectric conversion in which a light beam transmitted through the center of the mirror 106 and reflected by the sub-mirror 107 is arranged inside. The defocus amount used for the focus calculation is obtained by calculating the outputs of a plurality of AF sensors provided at predetermined positions of the angle of view. The microcomputer 123 communicates with the AF driving circuit 102 after evaluating the calculation result, and drives the focus lens of the photographing lens 101.

110は後幕フォーカルプレーンシャッタであり、シャッタ駆動回路111により駆動される。シャッタの開口時間はマイクロコンピュータ123によって制御される。一方で、先幕電子シャッタを制御すべく、後述する撮像素子の露光開始タイミングがマイクロコンピュータ123によって制御される。   A rear curtain focal plane shutter 110 is driven by a shutter drive circuit 111. The opening time of the shutter is controlled by the microcomputer 123. On the other hand, in order to control the front curtain electronic shutter, the exposure start timing of the image sensor described later is controlled by the microcomputer 123.

112は撮像素子であり、CCDやCMOSセンサなどが用いられ、撮影レンズ101によってこの撮像素子上に結像された被写体像を光電変換して電気信号として取り出す。この撮像素子112はシャッタ駆動回路111により露光開始タイミングを制御される。   Reference numeral 112 denotes an image sensor, which uses a CCD, a CMOS sensor, or the like. The subject image formed on the image sensor by the photographing lens 101 is photoelectrically converted and taken out as an electric signal. The exposure start timing of the image sensor 112 is controlled by the shutter drive circuit 111.

113はクランプ回路であり、114はAGC(オートゲインコントロール)部であり、A/D変換される前の基本的なアナログ信号処理を行う。マイクロコンピュータ123により、クランプレベルやAGC基準レベルの変更が行われる。115はA/D変換部であり、アナログのAGC部出力信号をデジタル信号に変換する。   A clamp circuit 113 and an AGC (auto gain control) unit 114 perform basic analog signal processing before A / D conversion. The microcomputer 123 changes the clamp level and the AGC reference level. Reference numeral 115 denotes an A / D converter that converts an analog AGC output signal into a digital signal.

116は映像信号処理回路であり、一般的にはゲートアレイなどのロジックデバイスにて実現される。映像信号処理回路116は、デジタル化された画像データに、フィルタ処理、色変換処理、ガンマ処理を行い、JPEGなどの圧縮処理を行い、メモリコントローラ119に出力する。一方で、この映像信号処理回路116は、D/A変換部も内蔵されており、撮像素子112から入力される映像信号や、メモリコントローラ119から逆に入力される画像データをアナログ信号に変換する。そして、EVF駆動回路117を通してEVFモニタ118に出力することも可能である。これらの機能切り換えはマイクロコンピュータ123の指示により行われる。映像信号処理回路116は、必要に応じて撮像素子112からの信号の露出情報やホワイトバランスなどの情報をマイクロコンピュータ123に出力することが可能である。それらの情報を基にマイクロコンピュータ123はホワイトバランスやゲイン調整の指示を行う。   Reference numeral 116 denotes a video signal processing circuit, which is generally realized by a logic device such as a gate array. The video signal processing circuit 116 performs filtering processing, color conversion processing, and gamma processing on the digitized image data, performs compression processing such as JPEG, and outputs the result to the memory controller 119. On the other hand, the video signal processing circuit 116 also includes a D / A converter, and converts the video signal input from the image sensor 112 and the image data input reversely from the memory controller 119 into an analog signal. . It is also possible to output to the EVF monitor 118 through the EVF drive circuit 117. Switching between these functions is performed according to instructions from the microcomputer 123. The video signal processing circuit 116 can output information such as exposure information and white balance of the signal from the image sensor 112 to the microcomputer 123 as necessary. Based on the information, the microcomputer 123 instructs white balance and gain adjustment.

また、映像信号処理回路116は、画像データの中から、人物の顔を検出する顔検出処理を実行する。顔検出の方法としては、一般的にニューラルネットワークに代表される学習を用いた方法、目や鼻といった物理的な形状の特徴のある部位を画像領域からテンプレートマッチングを用いて検出する手法が提案されている。さらには、肌の色や目の形といった画像特徴量を検出し、統計的解析を行う手法など、多数提案されている。一般的にはそれらの方法を複数組み合わせて顔認識される。現在製品として提案されているものとしては、ウェーブレット変換と画像特徴量を利用して顔検出する方法などや、テンプレートマッチング等を組み合わせた方法やその他、多数の顔検出方法がある。   The video signal processing circuit 116 executes face detection processing for detecting a human face from the image data. As a face detection method, a method using learning typified by a neural network and a method of detecting a part having physical shape features such as eyes and nose from an image region by using template matching are proposed. ing. In addition, many methods have been proposed, including a method for detecting image feature quantities such as skin color and eye shape and performing statistical analysis. In general, face recognition is performed by combining a plurality of these methods. Currently proposed products include a face detection method using wavelet transform and image feature amounts, a method combining template matching, and many other face detection methods.

連続撮影動作の場合においては、一旦、未処理画像のままバッファメモリ122に撮影データを格納し、メモリコントローラ119を通して未処理の画像データを読み出し、映像信号処理回路116にて画像処理や圧縮処理を行い、連続撮影を行う。連像撮影枚数は、バッファメモリ122の大きさに左右される。メモリコントローラ119では、映像信号処理回路116から入力された未処理のデジタル画像データをバッファメモリ122に格納する。そして、処理済みのデジタル画像をメモリ120に格納する。また、逆にバッファメモリ122やメモリ120から画像データを映像信号処理回路部116に出力したりする。メモリ120は取り外し自由である場合もある。   In the case of the continuous shooting operation, the shooting data is temporarily stored in the buffer memory 122 as an unprocessed image, the unprocessed image data is read through the memory controller 119, and image processing or compression processing is performed by the video signal processing circuit 116. Perform continuous shooting. The number of continuous images taken depends on the size of the buffer memory 122. The memory controller 119 stores unprocessed digital image data input from the video signal processing circuit 116 in the buffer memory 122. Then, the processed digital image is stored in the memory 120. Conversely, image data is output from the buffer memory 122 or the memory 120 to the video signal processing circuit unit 116. The memory 120 may be removable.

121はコンピュータ等と接続可能な外部インターフェースであり、メモリコントローラ119は、コンピュータ等と接続可能な外部インターフェース121にメモリ120に記憶されている画像を出力可能である。   Reference numeral 121 denotes an external interface that can be connected to a computer or the like, and the memory controller 119 can output an image stored in the memory 120 to the external interface 121 that can be connected to a computer or the like.

124は操作状態検出部であり、マイクロコンピュータ123に該操作状態検出部124に接続されたスイッチの状態を伝え、マイクロコンピュータ123はその状態変化に応じて各部をコントロールする。125は撮影準備用のスイッチ(以下、スイッチSW1)、126はレリーズ用のスイッチ(以下、スイッチSW2)である。スイッチSW1とスイッチSW2はレリーズ釦の操作でオンオフするスイッチであり、それぞれ操作状態検出部124に接続されたスイッチのうちの一つである。スイッチSW1のみオンの状態はレリーズ釦半押し状態であり、このスイッチSW1がオンされた時点での被写体の輝度やAF評価値に基づいて、本撮影時の焦点位置や露出値が決定される。スイッチSW1,SW2が共にオンの場合は、スイッチSW1のオンに応じて決定された焦点位置や露出値にて本撮影が行われ、静止画像が記録される。この状態で撮影が行われる。また、スイッチSW1,SW2が押し続けられている間は、連続撮影動作が行われる。   An operation state detection unit 124 notifies the microcomputer 123 of the state of the switch connected to the operation state detection unit 124, and the microcomputer 123 controls each unit according to the change in state. 125 is a switch for photographing preparation (hereinafter referred to as switch SW1), and 126 is a switch for release (hereinafter referred to as switch SW2). The switches SW1 and SW2 are switches that are turned on and off by operating the release button, and are each one of the switches connected to the operation state detection unit 124. When only the switch SW1 is on, the release button is half-pressed, and the focus position and exposure value at the time of actual photographing are determined based on the brightness of the subject and the AF evaluation value when the switch SW1 is turned on. When both the switches SW1 and SW2 are on, the main photographing is performed at the focal position and the exposure value determined according to the on of the switch SW1, and a still image is recorded. Shooting is performed in this state. Further, the continuous shooting operation is performed while the switches SW1 and SW2 are kept pressed.

操作状態検出部124には、他に、ISO設定スイッチ、画像サイズ設定スイッチ、画質設定スイッチ、情報表示スイッチなど不図示の操作スイッチが接続されており、これらのスイッチ状態を検出している。   In addition, the operation state detection unit 124 is connected to operation switches (not shown) such as an ISO setting switch, an image size setting switch, an image quality setting switch, and an information display switch, and detects these switch states.

127は液晶駆動回路であり、マイクロコンピュータ123の表示内容命令に従って外部液晶表示部128やファインダ内液晶表示部129を駆動する。ファインダ内液晶表示部129には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路127で駆動される。   Reference numeral 127 denotes a liquid crystal driving circuit that drives the external liquid crystal display unit 128 and the in-finder liquid crystal display unit 129 in accordance with a display content command of the microcomputer 123. The in-finder liquid crystal display unit 129 is provided with a backlight such as an LED (not shown), and the LED is also driven by the liquid crystal driving circuit 127.

マイクロコンピュータ123は、撮影前に設定されているISO感度、画像サイズ、画質に応じた、画像サイズの予測値データをもとに、メモリコントローラ119を通して、メモリの容量を確認した上で撮影可能残数を演算することができる。必要に応じて外部液晶表示部128やファインダ内液晶表示部129にも撮影可能残数を表示することができる。   The microcomputer 123 confirms the memory capacity through the memory controller 119 based on the predicted value data of the image size according to the ISO sensitivity, image size, and image quality set before shooting, and then the remaining shootable image. Numbers can be calculated. If necessary, the remaining number of shootable images can be displayed on the external liquid crystal display unit 128 and the finder liquid crystal display unit 129.

130は不揮発性メモリ(EEPROM)であり、カメラに電源が入れられていない状態でも、データを保存することができる。131は電源部であり、各ICや駆動系に必要な電源を供給する。132はライブビュー設定ボタンであり、ライブビューモードのオンとオフを切り換えるためのものである。ライブビューモードが設定されると、ミラー106およびサブミラー107が光路から退避させられ、撮像素子112で生成された画像データが動画としてEVFモニタ(電子ビューファインダ)118に表示される。これにより、EVFモニタ118にて被写体の様子をリアルタイムで観察できるようになる。   Reference numeral 130 denotes a non-volatile memory (EEPROM) that can store data even when the camera is not turned on. A power supply unit 131 supplies power necessary for each IC and drive system. Reference numeral 132 denotes a live view setting button for switching the live view mode on and off. When the live view mode is set, the mirror 106 and the sub mirror 107 are retracted from the optical path, and the image data generated by the image sensor 112 is displayed on the EVF monitor (electronic viewfinder) 118 as a moving image. Thereby, the state of the subject can be observed in real time on the EVF monitor 118.

133はマルチスポット測光ボタンであり、選択された領域から得られた輝度情報のみを用いて、露出制御を行うマルチスポット測光モードを設定するためのものである。   Reference numeral 133 denotes a multi-spot metering button for setting a multi-spot metering mode in which exposure control is performed using only luminance information obtained from a selected area.

134はタッチペンであり、マルチスポット測光モードが設定された場合に、マルチスポット測光の対象となる領域を選択するためのものである。本実施例では、測光領域が予め多数の領域に分割されており、EVFモニタ118には感応センサが搭載され、タッチペン134が接触したいずれかの領域を、マルチスポット測光の対象領域とする。この領域の1つ1つの大きさは、公知のスポット測光と同程度の大きさとすればよい。なお、タッチペン134の代わりに、このカメラのユーザーが指で直接接触した位置を中心として、マルチスポット測光の対象領域を設定するような構成としても構わない。   A touch pen 134 is used to select an area to be subjected to multi-spot metering when the multi-spot metering mode is set. In the present embodiment, the photometric area is divided into a number of areas in advance, and the EVF monitor 118 is equipped with a sensitive sensor, and any area touched by the touch pen 134 is set as a target area for multi-spot photometry. The size of each region may be the same as that of known spot photometry. Instead of the touch pen 134, the configuration may be such that the target area for multi-spot photometry is set around the position where the user of this camera directly touches with a finger.

図2は、上記構成を持つカメラの背面を示す図である。   FIG. 2 is a view showing the back of the camera having the above configuration.

EVFモニタ118の右側に、ライブビュー設定ボタン132、マルチスポット測光ボタン133が配置されている。勿論、これらの位置関係は自由に設計することが可能である。ライブビュー設定ボタン132がオンされると、カメラ背面のEVFモニタ118に撮影画像をリアルタイムに取り込むライブビューモードが設定される。そして、ライブビューモード時に、マルチスポット測光ボタン133が押されると、マルチスポット測光モードが設定される。本実施例では、このマルチスポット測光モードが設定されると、映像信号処理回路116にて顔検出処理が開始され、被写体画像から顔部分が検出されてそこがマルチスポット測光領域として登録される。   On the right side of the EVF monitor 118, a live view setting button 132 and a multi-spot metering button 133 are arranged. Of course, these positional relationships can be designed freely. When the live view setting button 132 is turned on, a live view mode is set in which a captured image is captured in real time on the EVF monitor 118 on the back of the camera. When the multi-spot metering button 133 is pressed in the live view mode, the multi-spot metering mode is set. In this embodiment, when this multi-spot photometry mode is set, the video signal processing circuit 116 starts face detection processing, detects a face part from the subject image, and registers it as a multi-spot photometry area.

次に、図3のフローチャートを用いて、マルチスポット測光ボタン133にてマルチスポット測光モードが設定された場合の動作について説明する。本実施例では、マルチスポット測光の対象となる複数の被写体のそれぞれに対して、カウント値を割り振る。同一の被写体が継続して検出されれば、その被写体に対しては同一のカウント値を割り振り、新たな被写体が指定されれば新たなカウント値が割り振られる。   Next, the operation when the multi-spot metering mode is set with the multi-spot metering button 133 will be described using the flowchart of FIG. In this embodiment, a count value is assigned to each of a plurality of subjects that are targets of multi-spot photometry. If the same subject is continuously detected, the same count value is assigned to the subject, and if a new subject is designated, a new count value is assigned.

後述するステップS102乃至S106では、上述した顔検出処理を用いて画像データから検出された顔に対してカウント値を割り振る。そして、ステップS107乃至S111ではタッチペンで指定された被写体に対してカウント値を割り振る。そして、ステップS112乃至S114では、ステップS102乃至S111で検出された全ての被写体に対して、マルチスポット測光における表示の制御と、露出制御を実行する。
図3において、ライブビュー設定ボタン132にてライブビューモードに設定され、マルチスポット測光ボタン133が押されると、マルチスポット測光モードが設定される。すると、マイクロコンピュータ123は、まずステップS101にて、カウント値を初期値0に設定する。このカウント値は、検出した顔(人物)の数を示す値である。次のステップS102では、映像信号処理回路116に対し、取得した画像データを用いて上記した方法により顔検出処理を行わせる。
In steps S102 to S106, which will be described later, a count value is assigned to a face detected from image data using the face detection process described above. In steps S107 to S111, a count value is assigned to the subject specified with the touch pen. In steps S112 to S114, display control and exposure control in multi-spot photometry are executed for all the subjects detected in steps S102 to S111.
In FIG. 3, when the live view setting button 132 is set to the live view mode and the multi-spot metering button 133 is pressed, the multi-spot metering mode is set. Then, the microcomputer 123 first sets the count value to the initial value 0 in step S101. This count value is a value indicating the number of detected faces (persons). In the next step S102, the video signal processing circuit 116 is caused to perform face detection processing by the method described above using the acquired image data.

次のステップS103では、マイクロコンピュータ123は、上記ステップS102にて映像信号処理回路116により検出された顔の中から1つの顔を選択し、この選択した顔が、新たな顔であるか否かを判定する。その結果、初めての顔(人物)が検出された場合は新たな顔が検出されたものと判定してステップS104へ進むが、顔が検出されなかった場合には直ちにステップS106へ進む。   In the next step S103, the microcomputer 123 selects one face from the faces detected by the video signal processing circuit 116 in the above step S102, and whether or not this selected face is a new face. Determine. As a result, if the first face (person) is detected, it is determined that a new face has been detected, and the process proceeds to step S104. If no face is detected, the process immediately proceeds to step S106.

ここで、検出された顔が新たな顔であるかは、例えば、既に検出されていた顔と新たに検出された顔の画面上での位置や大きさを比較し、所定の範囲内であれば、既に検出されていた顔と同一人物であると判定すればよい。あるいは、検出された顔の形状を数値化した特徴量を演算し、新たな顔と既に検出されていた顔の特徴量を比較して、これらの差分が閾値以内であれば、既に検出されていた顔と同一人物であると判定してもよい。   Here, whether the detected face is a new face can be determined, for example, by comparing the position and size of the already detected face and the newly detected face on the screen and within a predetermined range. For example, it may be determined that the face is the same person as the face that has already been detected. Alternatively, a feature value obtained by converting the detected face shape into a numerical value is calculated, and a new face and a feature value of a face that has already been detected are compared. If these differences are within a threshold value, the feature has already been detected. It may be determined that the person is the same person as the face.

上記ステップS103にて新たな顔が検出されたと判定した場合はステップS104へ進み、マイクロコンピュータ123は、カウント値を1つ増やす。そして、次のステップS105にて、上記ステップS104にて求めたカウント値を、上記ステップS103にて新たな顔と判定した領域と関連付けて記憶する。そして、これらの顔領域の中心位置を基準として、所定の半径で構成された円に囲まれた領域をマルチスポット測光領域とし、その座標を記憶する。続くステップS106では、上記ステップS102で検出された顔が複数である場合もあるので、全ての顔に対して上記ステップS103〜S105の処理が行われたか否かを判定する。全ての顔に対して上記ステップS103〜S105の処理が行われていなければ、全ての顔に対して処理が終了するまで上記ステップS103〜S105の処理を繰り返す。   If it is determined in step S103 that a new face has been detected, the process proceeds to step S104, and the microcomputer 123 increases the count value by one. In the next step S105, the count value obtained in step S104 is stored in association with the area determined as a new face in step S103. Then, using the center position of these face areas as a reference, an area surrounded by a circle having a predetermined radius is set as a multi-spot photometry area, and the coordinates thereof are stored. In subsequent step S106, since there may be a plurality of faces detected in step S102, it is determined whether or not the processes in steps S103 to S105 have been performed for all the faces. If the processes in steps S103 to S105 are not performed for all the faces, the processes in steps S103 to S105 are repeated until the processes are completed for all the faces.

以上の処理により、検出した全ての顔に対してカウント値が割り振られる。検出した顔が、それよりも前のフレームで既に検出されていた顔であれば、ステップS103から直接ステップS106に進むため、カウント値が更新されずに保持される。検出した顔が、初めて検出された顔であれば、ステップS103からステップS104に進むため、新たなカウント値が割り振られることになる。   Through the above processing, count values are assigned to all detected faces. If the detected face is a face that has already been detected in the previous frame, the process proceeds directly from step S103 to step S106, and the count value is held without being updated. If the detected face is the face detected for the first time, the process proceeds from step S103 to step S104, and a new count value is assigned.

その後、全ての顔に対して処理が終了したことを判定するとステップS107へ進み、マイクロコンピュータ123は、ユーザーによりタッチペン134で新たな選択領域が指定(入力)されたことの有無を検出する。これは、顔検出に失敗した顔領域や、顔以外の被写体であっても、タッチペン134を利用することによって、マルチスポット測光の対象となる被写体として追加できるようにするためである。   Thereafter, when it is determined that the processing has been completed for all the faces, the process proceeds to step S107, and the microcomputer 123 detects whether or not a new selection area has been designated (input) by the user with the touch pen 134. This is because even a face region in which face detection has failed or a subject other than the face can be added as a subject to be subjected to multi-spot photometry by using the touch pen 134.

そして、次のステップS108にて、タッチペン134で新たな選択領域が指定されたか否かを判定し、新たな選択領域が指定されていなければ直ちにステップS111へ進み、新たな選択領域が指定されていればステップS109へ進む。   Then, in the next step S108, it is determined whether or not a new selection area is designated with the touch pen 134. If a new selection area is not designated, the process immediately proceeds to step S111, and a new selection area is designated. If so, the process proceeds to step S109.

新たな選択領域が指定されたとしてステップS108からステップS109へ進むと、マイクロコンピュータ123は、カウント値を1つ増やす。そして、次のステップS110にて、上記ステップS109にて求めたカウント値を、上記ステップS108にて新たな選択領域と判定した領域と関連付けて記憶する。そして、これらの選択領域の中心位置を基準として、所定の半径で構成された円に囲まれた領域をマルチスポット測光領域とし、その座標を記憶する。   When the process proceeds from step S108 to step S109 assuming that a new selection area has been designated, the microcomputer 123 increases the count value by one. In the next step S110, the count value obtained in step S109 is stored in association with the area determined as the new selection area in step S108. Then, using the center position of these selected areas as a reference, an area surrounded by a circle having a predetermined radius is set as a multi-spot photometric area, and its coordinates are stored.

次のステップS111では、マイクロコンピュータ123は、映像信号処理回路116に動体追尾を行わせる。これは、次の2つのことを目的とした処理である。1つは、前の周期で検出できていた顔が、画角内に存在しているにも関わらず、今回の周期では何らかの理由で検出に失敗してしまっていた際に、これを救済するためである。もう1つは、新たにタッチペン134で選択された被写体が、前の周期で指定された被写体と同一の被写体であるかを判定するためである。なお、既に前の周期で検出されていた顔領域や選択領域を、以下、過去顔領域、過去選択領域という。   In the next step S111, the microcomputer 123 causes the video signal processing circuit 116 to perform moving object tracking. This is a process for the following two purposes. First, when a face that could be detected in the previous cycle exists within the angle of view, but has failed to be detected for some reason in this cycle, this is remedied. Because. The other is to determine whether the subject newly selected with the touch pen 134 is the same subject as the subject specified in the previous cycle. Note that the face area and the selection area that have already been detected in the previous cycle are hereinafter referred to as a past face area and a past selection area.

ここで、上記動体追尾について詳述する。まず、それぞれの過去顔領域、過去選択領域におけるコントラスト情報、形状情報、色情報、あるいは、領域サイズ等を数値化して特徴量を求める。そして、ステップS103と同様に、新たに取得した最新の画像データのうち、ステップS103で既に検出された顔であると判定された領域を除外した残りの領域の中から、同様の特徴量となる領域を検出する。そして、過去顔領域、過去選択領域と同一の被写体が占める領域を見つけたら、つまり被写体追尾できたら、その領域の中心位置に重畳する測光領域をマルチスポット測光領域として選択する。そして、対応する過去顔領域、過去選択領域と同じカウント値を割り当てる。この手法によれば、前回の周期で検出された顔領域が、直前のステップS102における顔検出で見失われた場合であっても、このステップS111にて再検出できることがある。   Here, the moving object tracking will be described in detail. First, the feature amount is obtained by quantifying the contrast information, shape information, color information, region size, etc. in each past face region and past selected region. Similar to step S103, the same feature amount is obtained from the remaining areas excluding the area determined to be the face already detected in step S103 in the latest image data newly acquired. Detect areas. When an area occupied by the same subject as the past face area and the past selection area is found, that is, when the subject can be tracked, the photometry area superimposed on the center position of the area is selected as the multi-spot photometry area. Then, the same count value as the corresponding past face area and past selection area is assigned. According to this method, even if the face area detected in the previous cycle is lost in the face detection in the previous step S102, it may be detected again in this step S111.

上記したように、ステップS105およびステップS110にて新たに検出された顔領域および選択領域には新たなカウント値が割り振られる。これに対し、ステップS103で既に検出された顔と同一人物であると判定された顔領域や、ステップS111にて検出された過去顔領域、過去選択領域と同一の被写体が占める領域には、新たなカウント値は割り振られない。つまり、同一の被写体に対しては見失わない限りは同じカウント値が割り振られ、新たに検出された被写体に対しては新たなカウント値が割り振られることになる。   As described above, a new count value is assigned to the face area and the selected area that are newly detected in step S105 and step S110. On the other hand, the face area determined to be the same person as the face already detected in step S103, the past face area detected in step S111, and the area occupied by the same subject as the past selected area include a new one. Count values are not allocated. In other words, the same count value is assigned to the same subject as long as it is not lost, and a new count value is assigned to a newly detected subject.

動体追尾の後はステップS112へ進み、直前のステップS102〜S110にて検出されたマルチスポット測光領域と、ステップS111にて検出されたマルチスポット測光領域を足し合わせ、最新の画像データにおけるマルチスポット測光領域を決定する。   After moving body tracking, the process proceeds to step S112, where the multi-spot photometry area detected in the immediately preceding steps S102 to S110 and the multi-spot photometry area detected in step S111 are added to obtain the multi-spot photometry in the latest image data. Determine the area.

このように、新たに検出された顔領域や選択領域があれば、それらの領域がマルチスポット測光領域として新たに追加される。一方、過去の画像データからは検出できていたが、新たな画像データからは見失ってしまった顔領域や選択領域があれば、それらの領域をマルチスポット測光領域から除外する。つまり、マルチスポット測光領域に設定されていた被写体が撮影画角の外側に移動してしまえば、その被写体はマルチスポット測光の対象から除外され、新たに撮影画角内に侵入してきた被写体がいれば、その被写体はマルチスポット測光の対象に設定される。   In this way, if there are newly detected face areas or selected areas, these areas are newly added as multi-spot photometric areas. On the other hand, if there are face areas or selected areas that have been detected from the past image data but have been lost from the new image data, these areas are excluded from the multi-spot photometry area. In other words, if the subject set in the multi-spot metering area moves outside the shooting angle of view, the subject will be excluded from the multi-spot metering target, and any subject that has entered the shooting angle of view will be included. For example, the subject is set as an object for multi-spot photometry.

次のステップS113では、上記ステップS112で統合された各々のマルチスポット測光領域に対して、マルチスポット測光領域を示す枠表示を、被写体画像に重畳して、EVFモニタ118に表示する。   In the next step S113, for each multi-spot photometry area integrated in step S112, a frame display indicating the multi-spot photometry area is superimposed on the subject image and displayed on the EVF monitor 118.

ここで、マルチスポット測光領域を表示したEVFモニタ118の画面について、図4を用いて説明する。撮像素子112にて生成された画像データを用いて、被写体像をリアルタイムで表示する画面の右側に、図4に示すように、各々のマルチスポット測光領域の輝度情報を目盛りでバー表示する輝度表示領域が設けられている。   Here, the screen of the EVF monitor 118 displaying the multi-spot photometry area will be described with reference to FIG. Using the image data generated by the image sensor 112, on the right side of the screen for displaying the subject image in real time, as shown in FIG. 4, the luminance display for displaying the luminance information of each multi-spot photometric area in a bar scale An area is provided.

図4(a)において、301〜305は各々のマルチスポット測光領域のそれぞれ異なる輝度情報目盛りである。この例では、輝度情報目盛り301が青色、輝度情報目盛り302が赤色、輝度情報目盛り303が緑色、輝度情報目盛り304が水色、輝度情報目盛り305をピンク色であるものとする。また、306は輝度情報目盛り301〜305に示される輝度情報の、下記の(1)式にて得られるマルチスポット測光領域の輝度の平均値を示す平均値目盛りである(ステップS114)。

Figure 0005094561
In FIG. 4A, reference numerals 301 to 305 denote different brightness information scales of the respective multi-spot photometry areas. In this example, it is assumed that the brightness information scale 301 is blue, the brightness information scale 302 is red, the brightness information scale 303 is green, the brightness information scale 304 is light blue, and the brightness information scale 305 is pink. Reference numeral 306 denotes an average value scale indicating the average value of the brightness of the multi-spot photometry area obtained by the following equation (1) of the brightness information indicated in the brightness information scales 301 to 305 (step S114).
Figure 0005094561

この平均値目盛り306が示す輝度情報を用いて露出値を算出し、露出制御を行うことになる(ステップS115)。   The exposure value is calculated using the luminance information indicated by the average value scale 306, and exposure control is performed (step S115).

また、図4(a)において、401〜405はマルチスポット測光領域を示す枠表示であり、輝度情報目盛り301〜305のそれぞれに対応している。つまり、枠表示401は青色であり、円で示されるこの領域は青色の輝度情報目盛り301にて示される輝度情報であることを示している。同じく枠表示402は赤色であり、この領域は赤色の輝度情報目盛り302にて示される輝度情報であることを示している。同じく枠表示403は緑色であり、この領域は緑色の輝度情報目盛り303にて示される輝度情報であることを示している。同じく枠表示404は水色であり、この領域は水色の輝度情報目盛り304にて示される輝度情報であることを示している。同じく枠表示405はピンク色であり、この領域はピンク色の輝度情報目盛り305にて示される輝度情報であることを示している。   In FIG. 4A, reference numerals 401 to 405 denote frame displays indicating multi-spot photometric areas, which correspond to the luminance information scales 301 to 305, respectively. That is, the frame display 401 is blue, and this region indicated by a circle indicates that the luminance information is indicated by the blue luminance information scale 301. Similarly, the frame display 402 is red, and this area indicates the luminance information indicated by the red luminance information scale 302. Similarly, the frame display 403 is green, and this area indicates the luminance information indicated by the green luminance information scale 303. Similarly, the frame display 404 is light blue, and this area indicates the luminance information indicated by the lightness luminance information scale 304. Similarly, the frame display 405 is pink, and this area indicates the luminance information indicated by the pink luminance information scale 305.

詳しくは、各マルチスポット測光領域に割り振られたカウント値には、そのカウント値別に上記のような色が割り当てられている。そして、マルチスポット測光領域の枠表示401〜405と、輝度情報目盛り301〜305は、その割り当てられた色で表示されることになる。これにより、ユーザーは、どの枠表示がどの輝度情報であるかを一目で把握することができる。また、各々の輝度情報目盛り301〜305と、平均値目盛り306を比較することで、本撮影時に、各々のマルチスポット測光領域における被写体の露出値を把握することも可能となる。   Specifically, the color as described above is assigned to each count value assigned to each multi-spot photometry area. The frame displays 401 to 405 of the multi-spot photometric area and the luminance information scales 301 to 305 are displayed in the assigned colors. Thereby, the user can grasp at a glance which frame display is which luminance information. Further, by comparing each of the luminance information scales 301 to 305 and the average value scale 306, it becomes possible to grasp the exposure value of the subject in each multi-spot photometric area at the time of actual photographing.

ユーザーがカメラの向きを変えることによって、図4(b)に示すように、撮影画角内に位置する被写体に変化が生じると、撮影画角内から対応する被写体を見失った輝度情報目盛り304,305、および、枠表示404,405は消去される。そして、残った輝度情報目盛り301〜303が示す各輝度情報から平均値目盛り306が示す輝度情報が求められ、露出値が算出される。これは、マルチスポット測光領域の対象となる被写体が自ら動いて、撮影画角内から外れた場合でも同様の処理が行われる。   When the user changes the direction of the camera, as shown in FIG. 4B, when a change occurs in the subject located within the shooting angle of view, the luminance information scale 304, which has lost the corresponding subject from within the shooting angle of view, 305 and the frame displays 404 and 405 are deleted. Then, the luminance information indicated by the average value scale 306 is obtained from the luminance information indicated by the remaining luminance information scales 301 to 303, and the exposure value is calculated. The same process is performed even when the subject that is the target of the multi-spot photometry area moves by itself and moves out of the shooting angle of view.

なお、ステップS103にて、一度撮影画角内から外れた顔が再び撮影画角内に戻ってきたことが判定された場合に、撮影画角内から外れる前と同じカウント値を割り振り、輝度情報目盛りと枠表示を撮影画角内から外れる前と同じ色で表示するようにしてもよい。   If it is determined in step S103 that the face once out of the shooting angle of view has returned to the shooting angle of view again, the same count value as before before falling out of the shooting angle of view is assigned, and the luminance information The scale and frame display may be displayed in the same color as before the shooting angle of view is removed.

また、カウント値に応じて輝度情報目盛りと枠表示の色を区別する例を挙げて説明を行ったが、それぞれの輝度情報目盛りと枠表示の近傍に、カウント値を表示するようにしても構わない。それぞれの輝度情報目盛りと枠表示の対応関係が把握できるのであれば、その表示形態はこれらに限定されるものではない。   Further, the example has been described in which the brightness information scale and the frame display color are distinguished according to the count value. However, the count value may be displayed in the vicinity of each brightness information scale and the frame display. Absent. As long as the correspondence relationship between each luminance information scale and the frame display can be grasped, the display form is not limited to these.

また、タッチペン134で選択領域を指定する例を用いて説明を行ったが、タッチペンの代わりに、カメラ本体に設けられたボタンを用いて、選択領域を指定しても構わない。   Further, although an example in which a selection area is designated with the touch pen 134 has been described, the selection area may be designated by using a button provided on the camera body instead of the touch pen.

以上説明したように、本実施例によれば、マルチスポット測光領域として選択された被写体を追尾する機能を備えているため、マルチスポット測光領域の対象としたい被写体を選択した後でも、自由に構図を変化させることができる。つまり、マルチスポット測光領域が選択された後に輝度が変わった場合や構図変更があった場合にも、それに伴って輝度情報もリアルタイム更新させることができ、EVF表示と整合した輝度情報を提供できる。さらに、タッチペン134などの操作部材を使ってマルチスポット測光領域の選択を出来るようにすることで、直感的な操作でユーザーの得たい輝度情報を得ることができる。   As described above, according to the present embodiment, since it has a function to track the subject selected as the multi-spot photometry area, it is possible to compose freely even after selecting the subject to be the target of the multi-spot photometry area. Can be changed. That is, even when the luminance changes after the multi-spot photometric area is selected or when the composition is changed, the luminance information can be updated in real time, and luminance information consistent with the EVF display can be provided. Furthermore, by making it possible to select a multi-spot photometry area using an operation member such as the touch pen 134, luminance information desired by the user can be obtained through an intuitive operation.

また、マルチスポット測光領域の対象とした被写体が動いた場合であっても、上記のように自動的に追尾してくれるため、ユーザーの負担が軽減される。つまり、EVF表示上で顔検出した領域を自動で選択してマルチスポット測光演算をすることで、煩雑な操作をユーザーに強要することなく、該ユーザーの得たい輝度情報を得ることが出来る。換言すれば、カメラ側が被写体を認識し、マルチスポット測光領域を追尾してマルチスポット測光演算をやり直すことで、ユーザーは構図変更による測光のやり直しを意識しなくてよくなる。   In addition, even when the subject that is the target of the multi-spot photometry area moves, the tracking is automatically performed as described above, so that the burden on the user is reduced. That is, by automatically selecting a region where a face is detected on the EVF display and performing multi-spot photometry calculation, it is possible to obtain luminance information desired by the user without forcing the user to perform complicated operations. In other words, the camera side recognizes the subject, tracks the multi-spot photometry area, and performs the multi-spot photometry calculation again, so that the user does not have to be aware of the re-measurement by the composition change.

さらに、撮影画角内から外れた被写体は自動的にマルチスポット測光領域の対象から外されるため、撮影画角内に存在する被写体が変化した場合であっても、マルチスポット測光領域をユーザーが再選択する手間が省ける。   Furthermore, since subjects outside the shooting angle of view are automatically excluded from the target of the multi-spot metering area, even if the subject existing within the shooting angle of view changes, the user can select the multi-spot metering area. Saves you the trouble of reselecting.

更に、マルチスポット測光領域毎の輝度情報を、それらの対応関係が明確となるように形態にて表示(画面上の色、表示マーク、番号などを変えて)するようにしている。よって、一目で、どの被写体がどの程度の輝度情報(露出値)で撮影されるか、凡その判断をユーザーに容易に認識させることが可能となる。   Further, the luminance information for each multi-spot photometric area is displayed in a form (changing the color, display mark, number, etc. on the screen) so that the correspondence between them is clear. Therefore, it is possible to make the user easily recognize the general determination of which subject is captured with what luminance information (exposure value) at a glance.

なお、本実施例では、顔検出機能を有する例を挙げたが、顔検出機能は必ずしも必要ではない。顔検出機能を有さずに、動体追尾機能を有するカメラであっても、上記の効果を得ることができる。つまり、本実施例は、マルチスポット測光領域として選択された被写体を追尾する機能を有するものであれば、その追尾方法自体は、公知の様々な手法を適用することが可能である。   In the present embodiment, an example having a face detection function has been described, but the face detection function is not necessarily required. The above-described effects can be obtained even with a camera that does not have a face detection function but has a moving object tracking function. That is, in the present embodiment, various known methods can be applied to the tracking method itself as long as it has a function of tracking the subject selected as the multi-spot photometry area.

(本発明と実施例の対応)
マイクロコンピュータ123および映像信号処理回路116が、本発明の、画像データ上より選択された複数の領域における輝度情報を求め、該輝度情報から露出制御に用いる露出値を算出する制御手段に相当する。同じくマイクロコンピュータ123および映像信号処理回路116が、本発明の、複数の領域それぞれに位置する被写体を判別し、被写体が移動した場合には、被写体が新たに位置する領域を検出する追尾手段に相当する。また、映像信号処理回路116が、本発明の、画像データ上の顔領域を検出する顔検出手段に相当する。また、タッチペン134が本発明の操作部材に相当する。また、EVF駆動回路117およびEVFモニタ118が、本発明の、複数の領域それぞれの輝度情報を、それぞれの輝度情報がどの領域に対応するかを識別可能な形態にて表示する表示手段に相当する。
(Correspondence between the present invention and the embodiment)
The microcomputer 123 and the video signal processing circuit 116 correspond to control means for obtaining luminance information in a plurality of regions selected from the image data and calculating an exposure value used for exposure control from the luminance information. Similarly, the microcomputer 123 and the video signal processing circuit 116 discriminate a subject located in each of a plurality of areas according to the present invention, and when the subject moves, the microcomputer 123 and the video signal processing circuit 116 correspond to tracking means for detecting a newly located area. To do. The video signal processing circuit 116 corresponds to a face detection unit that detects a face area on image data according to the present invention. The touch pen 134 corresponds to the operation member of the present invention. Further, the EVF driving circuit 117 and the EVF monitor 118 correspond to display means for displaying the luminance information of each of the plurality of areas in a form that can identify which area each luminance information corresponds to. .

また、マイクロコンピュータ123が、本発明の、追尾手段が被写体の新たな位置に対応する領域の検出に失敗した場合には、検出に失敗した領域を除いて輝度情報および露出値を算出する制御手段に相当する。さらには、この制御手段は、操作手段にて選択された複数の選択領域における輝度情報に加え、顔検出手段にて検出された顔領域における輝度情報に基づいて露出値を算出する。   In addition, when the tracking unit of the present invention fails to detect the area corresponding to the new position of the subject, the microcomputer 123 calculates the luminance information and the exposure value excluding the area where the detection has failed. It corresponds to. Further, the control means calculates an exposure value based on the luminance information in the face area detected by the face detection means in addition to the luminance information in the plurality of selection areas selected by the operation means.

本発明の一実施例に係るカメラの概略構成を示す構成図である。It is a block diagram which shows schematic structure of the camera which concerns on one Example of this invention. 本発明の一実施例に係るカメラを示す背面図である。It is a rear view which shows the camera which concerns on one Example of this invention. 本発明の一実施例に係るカメラのマルチスポット測光モードが設定された場合の動作を示すフローチャートである。It is a flowchart which shows operation | movement when the multi spot photometry mode of the camera which concerns on one Example of this invention is set. 本発明の一実施例に係るカメラのマルチスポット測光領域を表示したEVFモニタの画面を説明するための図である。It is a figure for demonstrating the screen of the EVF monitor which displayed the multi spot photometry area | region of the camera which concerns on one Example of this invention.

符号の説明Explanation of symbols

101 撮影レンズ
102 AF(オートフォーカス)駆動回路部
103 ズーム駆動回路部
109 焦点検出回路
112 撮像素子
116 映像信号処理回路
117 EVF駆動回路
118 EVFモニタ
119 メモリコントローラ
120 メモリ
121 外部インターフェース
122 バッファメモリ
123 マイクロコンピュータ
124 操作状態検出部
127 液晶駆動回路
132 ライブビュー設定ボタン
133 マルチスポット測光ボタン
134 タッチペン
DESCRIPTION OF SYMBOLS 101 Shooting lens 102 AF (autofocus) drive circuit part 103 Zoom drive circuit part 109 Focus detection circuit 112 Image pick-up element 116 Image signal processing circuit 117 EVF drive circuit 118 EVF monitor 119 Memory controller 120 Memory 121 External interface 122 Buffer memory 123 Microcomputer 124 Operation state detection unit 127 Liquid crystal drive circuit 132 Live view setting button 133 Multi-spot metering button 134 Touch pen

Claims (3)

画像データ上より検出された顔領域、および、ユーザーの指示に応じて選択された領域の少なくともいずれかに応じた複数の領域における輝度情報を求め、該輝度情報から露出制御に用いる露出値を算出する制御手段を有するカメラにおいて、
前記複数の領域それぞれに位置する被写体を判別し、前記被写体が移動した場合には、前記被写体が新たに位置する領域を検出する追尾手段と、
前記複数の領域それぞれの輝度情報を示す複数の輝度情報目盛りを表示するための表示部と前記画像データに基づく画像を表示するための表示部を有し、前記画像データ上に前記複数の領域それぞれを示す枠を表示するものであって、それぞれの輝度情報目盛りがどのに対応するのかを識別可能な形態にて表示する表示手段を有し、
前記制御手段は、前記追尾手段にて検出された領域を、新たに選択された領域として設定し、前記新たに選択された領域の輝度情報を含めて前記露出値を算出し直すことを特徴とするカメラ。
Obtain brightness information in multiple areas according to at least one of the face area detected from the image data and the area selected according to the user's instruction, and calculate the exposure value used for exposure control from the brightness information In a camera having control means for
Tracking means for determining a subject located in each of the plurality of regions and detecting a region where the subject is newly located when the subject has moved;
A display unit for displaying a plurality of brightness information scales indicating brightness information of each of the plurality of regions, and a display unit for displaying an image based on the image data, and each of the plurality of regions on the image data be one that displays a frame indicating the, a display means for displaying at identifiable form whether each of the luminance information graduations corresponds to which frame,
The control means sets the area detected by the tracking means as a newly selected area, and recalculates the exposure value including luminance information of the newly selected area. Camera.
前記制御手段は、前記追尾手段が前記被写体の新たな位置に対応する領域の検出に失敗した場合には、検出に失敗した前記領域を除いて前記輝度情報および前記露出値を算出することを特徴とする請求項1に記載のカメラ。   The control means calculates the luminance information and the exposure value excluding the area where the detection has failed when the tracking means fails to detect the area corresponding to the new position of the subject. The camera according to claim 1. 前記表示手段は、さらに、前記複数の領域それぞれの輝度情報の平均値を示す輝度情報目盛りを表示することを特徴とする請求項1または2に記載のカメラ。 The camera according to claim 1 , wherein the display unit further displays a luminance information scale indicating an average value of luminance information of each of the plurality of regions .
JP2008140519A 2008-05-29 2008-05-29 camera Active JP5094561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008140519A JP5094561B2 (en) 2008-05-29 2008-05-29 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008140519A JP5094561B2 (en) 2008-05-29 2008-05-29 camera

Publications (3)

Publication Number Publication Date
JP2009290519A JP2009290519A (en) 2009-12-10
JP2009290519A5 JP2009290519A5 (en) 2011-07-14
JP5094561B2 true JP5094561B2 (en) 2012-12-12

Family

ID=41459298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008140519A Active JP5094561B2 (en) 2008-05-29 2008-05-29 camera

Country Status (1)

Country Link
JP (1) JP5094561B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5469527B2 (en) 2010-05-10 2014-04-16 パナソニック株式会社 Imaging device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08205021A (en) * 1995-01-23 1996-08-09 Canon Inc Image input device
JP4245699B2 (en) * 1998-09-16 2009-03-25 オリンパス株式会社 Imaging device
JP4324170B2 (en) * 2005-03-17 2009-09-02 キヤノン株式会社 Imaging apparatus and display control method
JP4670635B2 (en) * 2005-12-27 2011-04-13 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2009290519A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
US8169530B2 (en) Camera having an autofocusing system
KR100875939B1 (en) Imaging Device and Control Method
JP5789091B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4894661B2 (en) Imaging device
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4998308B2 (en) Focus adjustment device and imaging device
JP5163257B2 (en) Imaging device
US10863079B2 (en) Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
JP2008199486A (en) Single lens reflex type electronic imaging device
JP2009151254A (en) Photographing device and focus detector
JP5899629B2 (en) Imaging device
JP4506779B2 (en) Imaging apparatus and program
JP5056136B2 (en) Image tracking device
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP2012208507A (en) Image tracking device
JP4567538B2 (en) Exposure amount calculation system, control method therefor, and control program therefor
US10455136B2 (en) Information processing to indicate focusable areas in an image
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4996568B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5094561B2 (en) camera
JP2005223658A (en) Digital camera
JP2003289468A (en) Imaging apparatus
JP2008172732A (en) Imaging apparatus, control method thereof, and program
JP4786734B2 (en) camera
JP5359150B2 (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100520

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120918

R151 Written notification of patent or utility model registration

Ref document number: 5094561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3