JP2001100087A - Multispot range finder - Google Patents

Multispot range finder

Info

Publication number
JP2001100087A
JP2001100087A JP27724599A JP27724599A JP2001100087A JP 2001100087 A JP2001100087 A JP 2001100087A JP 27724599 A JP27724599 A JP 27724599A JP 27724599 A JP27724599 A JP 27724599A JP 2001100087 A JP2001100087 A JP 2001100087A
Authority
JP
Japan
Prior art keywords
area
scene
luminance
processing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP27724599A
Other languages
Japanese (ja)
Inventor
Masataka Ide
昌孝 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP27724599A priority Critical patent/JP2001100087A/en
Priority to US09/651,877 priority patent/US6792203B1/en
Publication of JP2001100087A publication Critical patent/JP2001100087A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a multipoint range finder which performs a highly precise range finding processing by deciding the position of a main subject image in a photographic picture plane and performing a sure focus detecting processing for the main subject image. SOLUTION: This range finder is equipped with a store type area sensor 12 which light-receives a two-dimensional area in a detection picture plane, a mean luminance arithmetic means which calculates the mean luminance of the two-dimensional area according to the output of the area sensor, an area deciding means which detects a continuous area having a luminance difference of more than a given value from the mean luminance value calculated by the mean luminance arithmetic means as to the output of the area sensor, and a focus detecting means which detects the focus state in the detection picture plane according to the output of the area sensor at least in the given area detected by the area deciding means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、多点測距装置、
詳しくは写真撮影を行なうカメラ等に具備されて、検出
画面内における主要被写体像を判別し、判別された主要
被写体像の位置する測距点において確実にかつ高精度な
焦点検出処理を実行し得る多点測距装置に関するもので
ある。
The present invention relates to a multipoint distance measuring device,
Specifically, it is provided in a camera or the like that performs photographing, and can determine the main subject image in the detection screen, and can surely and accurately perform focus detection processing at a ranging point where the determined main subject image is located. The present invention relates to a multipoint distance measuring device.

【0002】[0002]

【従来の技術】従来より、写真撮影を行なうカメラ等、
例えば写真撮影用のフイルムを利用して所望の被写体像
を露光することにより画像を取得するようにしたカメラ
等においては、主要となる被写体に対して自動的に焦点
調節動作を行なうために、撮影画面の範囲内における主
要被写体像を判別するためのさまざまな手段が提案され
ている。
2. Description of the Related Art Conventionally, cameras for taking photographs, etc.
For example, in a camera or the like that obtains an image by exposing a desired subject image using a film for photographing, a photographing operation is performed to automatically perform a focus adjustment operation on a main subject. Various means have been proposed for determining the main subject image within the range of the screen.

【0003】例えば特開平5−249369号公報によ
って開示されているカメラにおいては、焦点調節用の電
荷蓄積型イメージセンサ(AFセンサ)により取得され
た被写体像に基づく画像信号が高輝度部分と低輝度部分
との分布に分離していることを検出したときには、人物
等の主要被写体が明るい背景の前に位置した画面構成で
あると判断し、この場合には、AFセンサの積分時間を
長時間となるように設定し、再度積分演算処理を実行さ
せることで、低輝度部分を重視した焦点検出処理を行な
うようにしている。
For example, in a camera disclosed in Japanese Patent Application Laid-Open No. Hei 5-249369, an image signal based on a subject image acquired by a charge accumulation type image sensor (AF sensor) for focus adjustment has a high luminance portion and a low luminance portion. When it is detected that the main subject such as a person is separated from the distribution, it is determined that the screen configuration is such that a main subject such as a person is positioned in front of a bright background. In this case, the integration time of the AF sensor is set to a long time. By performing the integration calculation process again, the focus detection process is performed with emphasis on the low luminance portion.

【0004】これによれば、背景の明るさ(輝度)に影
響を受けることなく、人物等の主要被写体像に対して確
実に自動焦点調節動作を実行することができるというも
のである。
According to this, the automatic focus adjustment operation can be reliably performed on a main subject image such as a person without being affected by the brightness (luminance) of the background.

【0005】[0005]

【発明が解決しようとする課題】ところが、上記特開平
5−249369号公報に開示されている手段では、一
対のラインセンサによって焦点状態を検出するような構
成となっているので、検出エリアが狭いことに起因し
て、例えば高コントラストの、つまり輝度差の大きい被
写体像に対して高輝度部分と低輝度部分とが分布してい
る被写体であると誤認識してしまうような場合がある。
このような場合には、確実な自動焦点検出処理を実行す
ることができないことになる。
However, in the means disclosed in Japanese Patent Laid-Open No. Hei 5-249369, the focus state is detected by a pair of line sensors, so that the detection area is small. For this reason, for example, a subject image having a high contrast, that is, a large luminance difference may be erroneously recognized as a subject in which a high luminance portion and a low luminance portion are distributed.
In such a case, reliable automatic focus detection processing cannot be executed.

【0006】また、同手段では、高輝度部分が検出エリ
アに入らなかった場合には、例えば人物等の主要被写体
が明るい背景の前に位置している画面構成であることを
判別することはできないことになる。このような場合に
は、所望の主要被写体を誤認識してしまったり、検出結
果を得られずに焦点検出処理を繰り返してしまうことも
あり、これによりレリーズ指示から焦点検出処理を介し
て露光動作が実行されるまでの時間が長くなってしま
い、いわゆるレリーズタイムラグが大きくなり、カメラ
の操作性を阻害する原因になる。また、この場合には、
さらに焦点検出結果を得ることができない状態、即ち測
距不能な状態になってしまうことにもなりかねない。
[0006] Further, when the high luminance portion does not enter the detection area, the means cannot determine that the main object such as a person has a screen configuration in front of a bright background. Will be. In such a case, the desired main subject may be erroneously recognized, or the focus detection processing may be repeated without obtaining the detection result. As a result, the exposure operation is performed from the release instruction through the focus detection processing. Becomes longer, so-called release time lag increases, which causes a hindrance to the operability of the camera. Also, in this case,
Further, a state where a focus detection result cannot be obtained, that is, a state where distance measurement cannot be performed may be caused.

【0007】本発明は、上述した点に鑑みてなされたも
のであって、その目的とするところは、主要となる被写
体像の撮影画面内における位置を確実に判別すると共
に、所望の主要被写体像に対して確実に焦点検出処理を
行なって高精度な測距処理を実行することができる多点
測距装置を提供することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned point, and an object of the present invention is to reliably determine a position of a main subject image in a shooting screen and to obtain a desired main subject image. It is an object of the present invention to provide a multi-point distance measuring apparatus capable of performing a focus detection process reliably and performing a highly accurate distance measurement process.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、第1の発明による多点測距装置は、検出画面内の二
次元領域を受光する蓄積型のエリアセンサと、このエリ
アセンサの出力に基づいて上記二次元領域の平均輝度を
算出する平均輝度演算手段と、上記エリアセンサの出力
のうち上記平均輝度演算手段により算出された平均輝度
値を基準として所定値の以上の輝度差を有する連続領域
を検出する領域判別手段と、少なくとも上記領域判別手
段によって検出された所定の領域における上記エリアセ
ンサの出力に基づいて検出画面内の焦点状態の検出を行
なう焦点検出手段とを具備したことを特徴とする。
In order to achieve the above object, a multipoint distance measuring apparatus according to a first aspect of the present invention comprises: a storage area sensor for receiving a two-dimensional area in a detection screen; An average luminance calculating means for calculating an average luminance of the two-dimensional area based on the output; and a luminance difference of a predetermined value or more based on the average luminance value calculated by the average luminance calculating means among the outputs of the area sensor. Area determining means for detecting a continuous area having the same, and focus detecting means for detecting a focus state in a detection screen based on an output of the area sensor in at least a predetermined area detected by the area determining means. It is characterized by.

【0009】また、第2の発明による多点測距装置は、
検出画面内の二次元領域を受光する蓄積型のエリアセン
サと、このエリアセンサの出力に基づいて上記二次元領
域の平均輝度を算出する平均輝度演算手段と、照明光を
発光する発光手段と、検出画面内の二次元領域におい
て、上記発光手段による照明光の発光時と、照明光の非
発光時の輝度差が所定の値を超えている領域を検出する
領域判別手段と、少なくとも上記領域判別手段によって
検出された領域における上記エリアセンサの出力に基づ
いて検出画面内における焦点状態の検出を行なう焦点検
出手段とを具備したことを特徴とする。
The multipoint distance measuring apparatus according to the second invention is
An accumulation-type area sensor that receives a two-dimensional area in the detection screen, an average luminance calculating unit that calculates an average luminance of the two-dimensional area based on an output of the area sensor, and a light emitting unit that emits illumination light, Area discriminating means for detecting, in a two-dimensional area in the detection screen, an area in which the luminance difference between the time when the illumination light is emitted by the light emitting means and the time when the illumination light is not emitted exceeds a predetermined value; And a focus detecting means for detecting a focus state in a detection screen based on an output of the area sensor in an area detected by the means.

【0010】そして、第3の発明による多点測距装置
は、エリアセンサを用いた多点測距装置において、上記
エリアセンサの出力に基づいて平均輝度値を算出する平
均輝度演算手段と、この平均輝度演算手段によって算出
される平均輝度値との輝度差が所定の値以上となる連続
領域を検出する領域判別手段と、この領域判別手段によ
る検出結果に応じて主要となる被写体を特定し、検出画
面内における測距点を確定する手段とを具備したことを
特徴とする。
A multipoint distance measuring apparatus according to a third aspect of the present invention is the multipoint distance measuring apparatus using an area sensor, wherein an average luminance calculating means for calculating an average luminance value based on an output of the area sensor is provided. A region discriminating unit that detects a continuous region in which the luminance difference from the average luminance value calculated by the average luminance calculating unit is equal to or more than a predetermined value, and a main subject is identified according to a detection result by the region discriminating unit. Means for determining a distance measuring point in the detection screen.

【0011】[0011]

【発明の実施の形態】以下、図示の実施の形態によって
本発明を説明する。図1は、本発明の第1の実施形態の
測距装置を備えたカメラの構成を示す要部ブロック構成
図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the illustrated embodiments. FIG. 1 is a main block diagram showing the configuration of a camera provided with a distance measuring device according to the first embodiment of the present invention.

【0012】本実施形態におけるカメラ1は、AFエリ
アセンサ12及び測距光学系14等によって構成される
測距装置(詳細は後述する)と、少なくとも焦点調節に
寄与するフォーカスレンズ10aと変倍動作(ズーム動
作)に寄与するズームレンズ10bとを含む複数のレン
ズからなり被写体からの光束(以下、被写体光束とい
う)を透過させて被写体像を所定の位置に結像させる撮
影光学系10と、フォーカスレンズ10aを撮影光学系
10の光軸に沿う方向に駆動させるフォーカスレンズ駆
動部13と、このフォーカスレンズ10aの移動量に応
じて所定のパルス信号を発生させるフォーカスレンズエ
ンコーダ15と、ズームレンズ10bを撮影光学系10
の光軸に沿う方向に駆動させるズームレンズ駆動部22
と、本カメラ1に装填されるロール状の写真撮影用フイ
ルム(図示せず)の自動給送動作(オートロード)や自
動巻き上げ及び巻き戻し動作等、フイルムを移動させる
ための駆動制御を行なうフイルム駆動部21と、フイル
ムへの露光量を調節するためのシャッタ機構(図示せ
ず)を駆動制御するシャッタ駆動部16と、本カメラ1
の姿勢、即ち撮影画面が縦位置となるような姿勢にある
か又は撮影画面が横位置となるような姿勢にあるかを検
出するカメラ姿勢検出部24と、被写体光束の一部を受
けて光電変換し、所定の光電流信号を発生させる測光用
受光素子23a及びこの測光用受光素子23aの出力信
号を受けて所定の信号処理を行なう測光部23等からな
る測光手段と、測距動作を行なう際に必要に応じて測距
用の補助光を発光させたり露光動作を行なう際の補助照
明光を発光させるストロボ発光部20a及びこのストロ
ボ発光部20aの発光制御や充電等を行なうストロボ回
路部20等からなる閃光発光手段と、液晶表示装置(L
CD)等からなり本カメラ1における各種の情報を視覚
的に識別し得るように表示する表示部19と、撮影動作
がなされるときに使用される操作ボタンであるレリーズ
ボタン(図示せず)に連動する二段スイッチであって、
第一段目の操作によりオン状態となり、これを受けて露
光動作に先立って行われる測光及び測距動作の実行を指
示する指示信号を発生させるファーストレリーズスイッ
チ(以下、1RSWという)17と、レリーズボタンの
第一段目の操作に続く第二段目の操作によりオン状態に
なり、これを受けて露光動作及びフイルムの一コマ分の
巻上動作の実行を指示する指示信号を発生させるセカン
ドレリーズスイッチ(以下、2RSWという)18と、
これら各種の構成部材及びその電気回路等を統括的に制
御する制御手段であるマイコン11等によって構成され
ている。
The camera 1 according to the present embodiment includes a distance measuring device (to be described in detail later) including an AF area sensor 12 and a distance measuring optical system 14, a focus lens 10a contributing at least to focus adjustment, and a variable power operation. A photographing optical system 10 comprising a plurality of lenses including a zoom lens 10b contributing to (zoom operation) and transmitting a light flux from a subject (hereinafter, referred to as a subject light flux) to form a subject image at a predetermined position; A focus lens driving unit 13 that drives the lens 10a in a direction along the optical axis of the photographing optical system 10, a focus lens encoder 15 that generates a predetermined pulse signal according to the amount of movement of the focus lens 10a, and a zoom lens 10b Imaging optical system 10
Lens drive unit 22 for driving in the direction along the optical axis of
And a film for performing drive control for moving the film, such as an automatic feeding operation (auto load) and an automatic winding and rewinding operation of a roll-shaped photographic film (not shown) loaded in the camera 1. A drive unit 21; a shutter drive unit 16 for controlling the drive of a shutter mechanism (not shown) for adjusting the amount of exposure to the film;
, That is, a camera posture detecting unit 24 for detecting whether the photographing screen is in the vertical position or the photographing screen is in the horizontal position. A photometric device including a photometric light receiving element 23a that converts and generates a predetermined photocurrent signal, a photometric unit 23 that receives an output signal of the photometric light receiving element 23a and performs predetermined signal processing, and performs a distance measuring operation. When necessary, a strobe light emitting unit 20a for emitting auxiliary light for distance measurement or for emitting auxiliary illumination light for performing an exposure operation, and a strobe circuit unit 20 for controlling light emission of this strobe light emitting unit 20a and charging. And a liquid crystal display device (L
(CD) and the like, and a display unit 19 for displaying various information in the camera 1 so as to be visually identified, and a release button (not shown) which is an operation button used when a shooting operation is performed. An interlocking two-stage switch,
A first release switch (hereinafter, referred to as 1RSW) 17 that is turned on by the operation of the first stage, receives the signal and generates an instruction signal for instructing execution of photometry and distance measurement performed prior to the exposure operation; A second release that is turned on by the operation of the second stage following the operation of the first stage of the button, and in response thereto, generates an instruction signal for instructing execution of the exposure operation and the winding operation of one frame of the film. A switch (hereinafter referred to as 2RSW) 18;
The microcomputer 11 is a control means for controlling these various components and their electric circuits.

【0013】マイコン11は、本カメラ1の各種の動作
を制御する各種のシーケンスプログラムが予め記憶され
ているROM11bと、このROM11bに格納されて
いるシーケンスプログラムに従って一連の動作を制御す
る中央処理装置(以下、CPUという)11aと、各種
のデータ等を一時的に記憶させたり各種の演算処理等を
行なう際の作業領域となるRAM11cと、AFエリア
センサ12からのアナログ信号を受けてデジタル信号に
変換するA/Dコンバータ11dと、各カメラ毎に異な
る固有の補正データ、例えば焦点検出演算や測光演算・
露光演算等を施す際に必要となる固有の補正データ等が
予め記憶されているEEPROM11e等を有して構成
されている。
The microcomputer 11 includes a ROM 11b in which various sequence programs for controlling various operations of the camera 1 are stored in advance, and a central processing unit (hereinafter referred to as a central processing unit) for controlling a series of operations in accordance with the sequence programs stored in the ROM 11b. A CPU 11a, a RAM 11c serving as a work area for temporarily storing various data and performing various arithmetic processing, and the like, and receiving an analog signal from the AF area sensor 12 and converting it into a digital signal. A / D converter 11d and unique correction data different for each camera, such as focus detection calculation and photometry calculation.
It has an EEPROM 11e and the like in which unique correction data and the like necessary for performing an exposure calculation and the like are stored in advance.

【0014】そして、マイコン11は、AFエリアセン
サ12の積分演算処理を制御すると共に、上述のように
センサデータの読み出し制御を行ない、さらにAFエリ
アセンサ12から出力されるセンサデータに対して所定
の処理を施し、これに基づいて所定の測距演算処理を行
なう。
The microcomputer 11 controls the integration operation of the AF area sensor 12, controls the reading of the sensor data as described above, and performs a predetermined operation on the sensor data output from the AF area sensor 12. The processing is performed, and a predetermined distance measurement calculation processing is performed based on the processing.

【0015】また、焦点検出手段としてのマイコン11
は、上述のようにAFエリアセンサ12からの出力を受
けて所定の測距演算処理を行なうようにしているのであ
るが、その演算結果を受けてマイコン11は、これに基
づく所定の駆動信号をフォーカスレンズ駆動部13に対
して出力するようになっている。これによって、フォー
カスレンズ10aが所定の距離だけ移動し、所定の焦点
調節動作がなされるようになっている。このときマイコ
ン11は、フォーカスレンズエンコーダ15の出力を監
視することによってフォーカスレンズ10aの位置制御
を行なう。
A microcomputer 11 as a focus detecting means
Receives the output from the AF area sensor 12 and performs a predetermined distance measurement calculation process. The microcomputer 11 receives the calculation result and generates a predetermined drive signal based on the calculation result. An output is provided to the focus lens driving unit 13. As a result, the focus lens 10a moves by a predetermined distance, and a predetermined focus adjustment operation is performed. At this time, the microcomputer 11 controls the position of the focus lens 10a by monitoring the output of the focus lens encoder 15.

【0016】さらに、マイコン11は、測光部23から
の測光用の出力信号(アナログ信号)を受けて、これを
A/Dコンバータ11dによってデジタル信号に変換し
た後、このデジタル化された測光用の信号に基づいて適
正な露出値を算出する測光演算処理を行なう。
Further, the microcomputer 11 receives a photometric output signal (analog signal) from the photometric section 23, converts the signal into a digital signal by an A / D converter 11d, and then converts the digitized photometric signal for analog measurement. A photometric calculation process for calculating an appropriate exposure value based on the signal is performed.

【0017】本実施形態の測距装置は、撮影光学系10
を透過した被写体光束のうちの一部を透過させて焦点検
出用の被写体像を形成する測距光学系14と、この測距
光学系14により形成された焦点検出用の被写体像を受
光して電気的な信号を生成し、これをセンサデータとし
て出力する電荷蓄積型のエリアセンサであるAFエリア
センサ12等によって構成されていて、被写体までの距
離を測定するための測距方式としては、いわゆる外光パ
ッシブ方式が適用されている。
The distance measuring apparatus according to the present embodiment has a photographic optical system 10
A distance measuring optical system 14 for transmitting a part of the subject light flux transmitted through the lens to form a subject image for focus detection, and receiving the focus detecting subject image formed by the distance measuring optical system 14 An AF area sensor 12 or the like, which is an electric charge accumulation type area sensor that generates an electric signal and outputs the generated signal as sensor data, includes a so-called distance measuring method for measuring a distance to a subject. An external light passive system is applied.

【0018】AFエリアセンサ12は、被写体光束の一
部を受光する受光面において水平方向と垂直方向とに二
次元的に配置された複数の受光素子、例えばフォトダイ
オード等によって構成され、受光した被写体光束に対し
て光電変換処理を施す受光素子群12aと、この受光素
子群12aからの出力を受けて所定の信号処理を施し所
定の形態のセンサデータを生成する処理回路12bと、
受光素子群12aからの出力を受けて定常光成分を除去
する処理を施す定常光除去部12c等によって構成され
ている。
The AF area sensor 12 is constituted by a plurality of light receiving elements, for example, photodiodes, which are two-dimensionally arranged in a horizontal direction and a vertical direction on a light receiving surface for receiving a part of the light beam of the object. A light receiving element group 12a that performs photoelectric conversion processing on the light flux, a processing circuit 12b that receives an output from the light receiving element group 12a, performs predetermined signal processing, and generates sensor data in a predetermined form,
It is composed of a stationary light removing unit 12c and the like that receive an output from the light receiving element group 12a and remove the stationary light component.

【0019】ここで、AFエリアセンサ12の詳細な構
成について、以下に説明する。図2は、本カメラ1にお
けるAFエリアセンサ12の構成の主要部を示す要部ブ
ロック構成図である。
Here, the detailed configuration of the AF area sensor 12 will be described below. FIG. 2 is a main part block configuration diagram showing a main part of the configuration of the AF area sensor 12 in the camera 1.

【0020】上述したようにAFエリアセンサ12は、
受光素子群12aと、処理回路12b(図2では図示を
省略している)と、固定パターンノイズ除去部12f等
によって構成されている。そして、受光素子群12aか
らの出力は、固定パターンノイズ除去部12f等を介し
て処理回路12bへと伝送されるようになっている。
As described above, the AF area sensor 12
It comprises a light receiving element group 12a, a processing circuit 12b (not shown in FIG. 2), a fixed pattern noise removing unit 12f, and the like. The output from the light receiving element group 12a is transmitted to the processing circuit 12b via the fixed pattern noise removing unit 12f and the like.

【0021】つまり、受光素子群12aは、図2に示す
ように二次元的に配列された複数の受光素子12aaか
らなり、個々の受光素子12aaは、入射光によって電
荷を発生させるフォトダイオード12abと、このフォ
トダイオード12abにより生じた電荷を所定の電圧に
変換すると共に増幅して出力する増幅器12ac等によ
って構成されている。また、上述の定常光除去部12c
は、画素毎に増幅器12ac内部に設けられている。
That is, the light receiving element group 12a is composed of a plurality of light receiving elements 12aa arranged two-dimensionally as shown in FIG. 2, and each light receiving element 12aa is provided with a photodiode 12ab for generating a charge by incident light. And an amplifier 12ac that converts the charge generated by the photodiode 12ab into a predetermined voltage, amplifies and outputs the same. In addition, the above-mentioned stationary light removing unit 12c
Are provided inside the amplifier 12ac for each pixel.

【0022】この増幅器12acの出力は、処理回路1
2bの一部を構成する垂直シフトレジスタ12d及び水
平シフトレジスタ12eや固定パターンノイズ除去部1
2f等を介して所定の画像信号として出力されるように
なっているのである。なお、固定パターンノイズとは、
画素毎の増幅器12acのばらつきにより発生するノイ
ズである。
The output of the amplifier 12ac is supplied to the processing circuit 1
2b, the vertical shift register 12d and the horizontal shift register 12e, and the fixed pattern noise elimination unit 1
This is output as a predetermined image signal via 2f or the like. The fixed pattern noise is
This is noise generated due to variations in the amplifier 12ac for each pixel.

【0023】図3・図4は、本カメラ1における測距装
置を構成する測距光学系とAFエリアセンサの配置関係
を概念的に示す図である。
FIGS. 3 and 4 conceptually show the positional relationship between the distance measuring optical system and the AF area sensor which constitute the distance measuring device in the camera 1. FIG.

【0024】測距光学系14は、一対の受光レンズ14
aによって構成されており、この一対の受光レンズ14
aは、被写体100からの光束を受けて二つの被写体像
に分割し、これをAFエリアセンサ12の受光素子群1
2aの受光面上にそれぞれ結像させるいわゆるセパレー
タレンズの役目をしているものである。
The distance measuring optical system 14 includes a pair of light receiving lenses 14.
a of this pair of light receiving lenses 14
a receives the light beam from the subject 100 and divides it into two subject images, which are divided into two light receiving element groups 1 of the AF area sensor 12.
This serves as a so-called separator lens for forming an image on the light receiving surface 2a.

【0025】そのために、一対の受光レンズ14aは、
図3・図4に示すように所定の間隔、即ち基線長Bを有
して互いに略平行となるように、かつ被写体からの光束
に対して略直交する方向に並べて配置されている。
For this purpose, the pair of light receiving lenses 14a
As shown in FIGS. 3 and 4, they are arranged so as to be substantially parallel to each other with a predetermined interval, that is, a base line length B, and to be arranged in a direction substantially orthogonal to the light beam from the subject.

【0026】このように構成された本実施形態の測距装
置では、三角測距の原理を利用して被写体までの距離を
測定するようにしている。即ち、図3・図4に示すよう
に受光レンズ14aの焦点距離=f、受光レンズ14a
の基線長=B、一対の受光レンズ14aによって形成さ
れる二つの像の相対的な位置の差x(図4参照)とした
場合の被写体までの距離Lは、 L=(B・f)/x によって求めることができる。
In the distance measuring apparatus of the present embodiment having the above-described configuration, the distance to the subject is measured by using the principle of triangulation. That is, as shown in FIGS. 3 and 4, the focal length of the light receiving lens 14a = f, the light receiving lens 14a
Where L is the base line length of B, and the relative position difference x between the two images formed by the pair of light receiving lenses 14a (see FIG. 4), the distance L to the subject is: L = (B · f) / x.

【0027】一方、本カメラ1の撮影光学系10には、
上述したようにズームレンズが適用されている。したが
って、ズーム動作を行なって撮影光学系10の焦点距離
を変化させたときには、これに応じてAFエリアセンサ
12における検出領域(測距エリア)も変化することに
なる。
On the other hand, the photographing optical system 10 of the camera 1 has
The zoom lens is applied as described above. Therefore, when the focal length of the photographing optical system 10 is changed by performing the zoom operation, the detection area (distance measurement area) of the AF area sensor 12 also changes accordingly.

【0028】図5は、AFエリアセンサ12の検出領域
と、撮影光学系10の焦点距離を変更したときの撮影画
面領域との関係を概念的に示す図である。図5におい
て、符号Wで示す領域(点線で示される範囲内の領域)
は、撮影光学系10が最広角側(ワイド側)に配置され
たときの焦点検出処理に用いられるAFエリアセンサ1
2の検出領域、即ち受光素子群12aの受光面(以下、
測距エリアといい、符号Aで示す)内の所定の領域を示
しており、符号Tで示す領域(実線で示される範囲内の
領域)は、撮影光学系10が最望遠側(テレ側)に配置
されたときの焦点検出処理に用いられる測距エリア(符
号A)内の所定の領域を示している。また符号Sで示す
領域(一点鎖線で示される範囲内の領域)は、撮影光学
系10が中間焦点距離となる位置、いわゆる標準位置
(スタンダード位置)に配置されたときの焦点検出処理
に用いられる測距エリア(符号A)内の所定の領域を示
している。
FIG. 5 is a diagram conceptually showing the relationship between the detection area of the AF area sensor 12 and the photographing screen area when the focal length of the photographing optical system 10 is changed. In FIG. 5, an area indicated by reference symbol W (an area within a range indicated by a dotted line)
Is an AF area sensor 1 used for focus detection processing when the photographing optical system 10 is arranged on the widest angle side (wide side).
2, the light receiving surface of the light receiving element group 12a (hereinafter, referred to as a light receiving element group 12a).
A predetermined area within a distance measurement area, which is indicated by reference symbol A), is shown. An area indicated by reference symbol T (an area within a range indicated by a solid line) is defined by the photographing optical system 10 at the most telephoto side (tele side). 2 shows a predetermined area in a distance measurement area (reference numeral A) used for focus detection processing when the area is disposed. The area indicated by the symbol S (the area within the range indicated by the one-dot chain line) is used for focus detection processing when the imaging optical system 10 is located at a position having an intermediate focal length, that is, a standard position (standard position). The figure shows a predetermined area in the distance measurement area (symbol A).

【0029】なお、本実施形態の測距装置を備えたカメ
ラ1は、撮影光学系10と測距光学系14とが、それぞ
れ別に配置され、それぞれの位置によって被写体光束を
受光するようにした、いわゆる外光測距方式のものとし
ている。これによって、撮影光学系10により実際に撮
影される撮影画面と、測距光学系14によって形成され
る像が結像するAFエリアセンサ12の測距エリアとの
間には、視差(パララックス)が生じることになる。し
たがって、このようなパララックスを考慮して、本実施
形態の測距装置では、撮影光学系10の焦点距離情報
(ズーム情報)に応じて焦点検出処理を行なうのに使用
する領域を規定するようにしている。
In the camera 1 provided with the distance measuring apparatus of the present embodiment, the photographing optical system 10 and the distance measuring optical system 14 are separately arranged, and receive the light beam of the subject at each position. The so-called external light distance measurement method is used. As a result, parallax (parallax) exists between the photographing screen actually photographed by the photographing optical system 10 and the ranging area of the AF area sensor 12 on which the image formed by the ranging optical system 14 is formed. Will occur. Therefore, in consideration of such parallax, in the distance measuring apparatus of the present embodiment, an area used for performing the focus detection processing according to the focal length information (zoom information) of the imaging optical system 10 is defined. I have to.

【0030】この場合において、撮影光学系10の焦点
距離の変化に応じた測距エリア位置に関する補正データ
は、予めEEPROM11eに格納されている。これら
のデータは、本カメラ1の起動時においてマイコン11
の初期化がなされた後に、RAM11dへと展開される
ようになっている(後述する図6のステップS1参
照)。
In this case, correction data relating to the distance measurement area position corresponding to the change in the focal length of the photographing optical system 10 is stored in the EEPROM 11e in advance. These data are stored in the microcomputer 11 when the camera 1 is started.
After the initialization is performed, the data is loaded onto the RAM 11d (see step S1 in FIG. 6 described later).

【0031】そして、マイコン11は、この補正データ
を参照してズーム動作に応じてAFエリアセンサ12の
全検出領域のうちから焦点検出処理に使用すべき適切な
測距エリアを決定するようにしている。
The microcomputer 11 refers to the correction data and determines an appropriate distance measurement area to be used for focus detection processing from all the detection areas of the AF area sensor 12 in accordance with the zoom operation. I have.

【0032】このようにしてマイコン11は、その時点
で設定されている撮影光学系10の焦点距離と、そのと
きの撮影画面に対応する測距エリアの補正データを参照
して、焦点検出処理に不要となる領域のセンサデータは
読みとばし、焦点検出処理を行なうのに必要となる領域
のセンサデータのみを読み出して、これをRAM11c
に格納するようになっている。これによってRAM11
cには、必要なデータのみが格納されることになる。
In this manner, the microcomputer 11 refers to the focal length of the photographing optical system 10 set at that time and the correction data of the distance measuring area corresponding to the photographing screen at that time, and performs the focus detection processing. The sensor data in the unnecessary area is skipped, and only the sensor data in the area necessary for performing the focus detection processing is read out and read out from the RAM 11c.
To be stored. As a result, the RAM 11
Only necessary data is stored in c.

【0033】また、これとは別に、マイコン11がAF
エリアセンサ12の読み出し範囲の設定信号を出力する
ようにして、焦点検出処理をするのに必要となるセンサ
データのみをRAM11cへ出力させるようにしても良
い。
Also, separately from this, the microcomputer 11
A setting signal of the read range of the area sensor 12 may be output, and only the sensor data necessary for performing the focus detection processing may be output to the RAM 11c.

【0034】以上のように構成された本カメラ1におけ
る作用を、以下に説明する。図6は、本カメラ1の主要
な動作の流れを示し、マイコン11のメインルーチンを
示すフローチャートである。
The operation of the camera 1 configured as described above will be described below. FIG. 6 is a flowchart showing a main operation flow of the camera 1 and showing a main routine of the microcomputer 11.

【0035】まず、本カメラ1に対して電源となる電池
(図示せず)が装填された状態において、撮影者(カメ
ラの使用者)によって主電源SW(図示せず)がオン状
態となるように所定の操作がなされると、本カメラ1の
マイコン11は、自己の内部のROM11bに予め格納
されている所定のシーケンスプログラムを読み出し、こ
れを実行する。このようにして本カメラ1は、その動作
を開始する。
First, when a battery (not shown) serving as a power source is loaded in the camera 1, a main power switch (not shown) is turned on by a photographer (user of the camera). When a predetermined operation is performed, the microcomputer 11 of the camera 1 reads out and executes a predetermined sequence program stored in advance in its internal ROM 11b. Thus, the camera 1 starts its operation.

【0036】まず、図6のステップS1において、カメ
ラ1の各構成ブロックの初期化を行なうと共に、EEP
ROM11eに格納されている所定のデータを読み出し
て、RAM11cへと展開する。
First, in step S1 of FIG. 6, each of the constituent blocks of the camera 1 is initialized, and
Predetermined data stored in the ROM 11e is read out and expanded in the RAM 11c.

【0037】次いでステップS2において、マイコン1
1は、1RSW17の状態を確認し、同1RSW17が
オン状態になるのを待機する。ここで、1RSW17が
オン状態になったことが確認されると、次のステップS
3の処理に進み、このステップS3において、所定の測
距処理(以下、AF処理という;図7・図8参照。詳細
は後述する)を実行するのと同時に、次のステップS4
の処理、即ち所定の測光動作を行なって露出演算処理を
実行する。
Next, in step S2, the microcomputer 1
1 confirms the state of the 1RSW 17 and waits until the 1RSW 17 is turned on. Here, when it is confirmed that the 1RSW 17 has been turned on, the next step S
In step S3, a predetermined distance measurement process (hereinafter, referred to as AF process; see FIGS. 7 and 8; details will be described later) is performed, and at the same time, the next step S4 is performed.
, Ie, a predetermined photometric operation is performed to execute the exposure calculation process.

【0038】続いてステップS5において、マイコン1
1は、2RSW18の状態を確認する。ここで、マイコ
ン11によって2RSW18のオン状態が確認される
と、次のステップS6の処理に進み、このステップS6
において、所定の露出動作が実行される。この露出動作
が完了すると、続けてステップS7の処理に進み、この
ステップS7において、撮影済みのフイルムを巻き上げ
て、次の未撮影コマを所定の位置に配置するための動
作、即ちフイルムの1コマ分の巻き上げ動作を実行した
後、上述のステップS2の処理に戻り、再度1RSW1
7等からの指示信号が入力されるのを待機する状態にな
り、以降の処理を繰り返す。
Subsequently, in step S5, the microcomputer 1
1 confirms the state of the 2RSW 18. Here, when the microcomputer 11 confirms that the 2RSW 18 is in the on state, the process proceeds to the next step S6.
In, a predetermined exposure operation is performed. When the exposure operation is completed, the process proceeds to step S7, in which the photographed film is wound up and the next unphotographed frame is placed at a predetermined position, ie, one frame of the film. After performing the winding operation for one minute, the process returns to the above-described step S2, and the 1RSW1
Then, the process waits for the input of an instruction signal from 7 or the like, and the subsequent processes are repeated.

【0039】一方、上述のステップS2において、マイ
コン11は、1RSW17の状態を確認しているのと同
時に、他のスイッチの状態も監視している。つまり、上
述のステップS2において、1RSW17がオフ状態で
あることが確認されているときに、ステップS8におい
て、マイコン11が1RSW17及び2RSW18以外
の他のスイッチからの入力信号を検出した場合には、ス
テップS9の処理に進み、このステップS9において、
マイコン11は、入力された指示信号(SW入力)に応
じた所定の処理を実行する。
On the other hand, in the above-described step S2, the microcomputer 11 monitors the states of the other switches at the same time as checking the state of the 1RSW 17. That is, if it is confirmed in step S2 that the 1RSW 17 is in the OFF state, and if the microcomputer 11 detects an input signal from a switch other than the 1RSW 17 and the 2RSW 18 in step S8, the process proceeds to step S8. Proceeding to the process of S9, in this step S9,
The microcomputer 11 performs a predetermined process according to the input instruction signal (SW input).

【0040】例えば上述のステップS8において、マイ
コン11によって確認された指示信号が、変倍動作を行
なうためのズームスイッチ(図示せず)によるズームア
ップ動作又はズームダウン動作を指示する信号であった
場合には、ステップS9において、その入力指示信号に
応じた処理、即ちズームアップ動作又はズームダウン動
作を行なうための所定の処理を実行する。そして、これ
ら所定の処理の実行が完了すると、上述のステップS2
の処理に戻り、以降の処理を繰り返す。
For example, when the instruction signal confirmed by the microcomputer 11 in step S8 is a signal for instructing a zoom-up operation or a zoom-down operation by a zoom switch (not shown) for performing a magnification change operation. In step S9, a process corresponding to the input instruction signal, that is, a predetermined process for performing a zoom-up operation or a zoom-down operation is executed. When the execution of these predetermined processes is completed, the above-described step S2
And the subsequent processing is repeated.

【0041】次に、本カメラ1において自動焦点調節動
作を実行する際のAF処理について、以下に説明する。
なお、このAF処理とは、図6のステップS3に相当す
る処理である。図7は、本カメラ1のAF処理のサブル
ーチンを示すフローチャートである。また、図8は、本
カメラ1のAF処理がなされるときのタイミングチャー
トである。
Next, the AF processing when the camera 1 executes the automatic focusing operation will be described below.
The AF process is a process corresponding to step S3 in FIG. FIG. 7 is a flowchart showing a subroutine of the AF process of the camera 1. FIG. 8 is a timing chart when the AF processing of the camera 1 is performed.

【0042】上述したように図6のステップS2におい
て、マイコン11によって1RSW17のオン状態が確
認されると、次のステップS3の処理、即ちAF処理が
実行される。つまり、図7のフローチャートは、図6の
ステップS3のAF処理に相当するものである。
As described above, when the microcomputer 11 confirms the ON state of the 1RSW 17 in step S2 of FIG. 6, the process of the next step S3, that is, the AF process is executed. That is, the flowchart in FIG. 7 corresponds to the AF processing in step S3 in FIG.

【0043】このAF処理のサブルーチンに移行する
と、図7に示すステップS11において、まずマイコン
11は、AFエリアセンサ12を制御して所定の積分演
算処理を実行させる。この場合において、マイコン11
は、所定の積分制御信号を出力する。この積分制御信号
を受けてAFエリアセンサ12は、測距エリア内の所定
範囲内のピーク出力(最も明るい画素出力)に対応する
モニタ信号を出力する。これを受けてAFエリアセンサ
12が、指定された測距エリアの範囲内のピーク信号を
マイコン11に出力するようになっている。
When the process proceeds to the subroutine of the AF processing, in step S11 shown in FIG. 7, first, the microcomputer 11 controls the AF area sensor 12 to execute a predetermined integral calculation processing. In this case, the microcomputer 11
Outputs a predetermined integration control signal. Upon receiving the integration control signal, the AF area sensor 12 outputs a monitor signal corresponding to a peak output (brightest pixel output) within a predetermined range in the distance measurement area. In response to this, the AF area sensor 12 outputs a peak signal within the range of the designated distance measurement area to the microcomputer 11.

【0044】制御手段であるマイコン11は、上述のモ
ニタ信号を参照しながら、AFエリアセンサ12の受光
素子群12aに対する受光量が適正となるように積分時
間(蓄積時間)を調節する(図8(A)及び(B)参
照)。
The microcomputer 11, which is a control means, adjusts the integration time (accumulation time) so that the amount of light received by the light receiving element group 12a of the AF area sensor 12 becomes appropriate while referring to the above-mentioned monitor signal (FIG. 8). (See (A) and (B)).

【0045】続いてステップS12において、マイコン
11は、AFエリアセンサ12に対して読み出しクロッ
ク(CLK)の信号を出力し、AFエリアセンサ12か
らセンサデータ(画素データ)を読み出す。そして、こ
れを受けてA/Dコンバータ11dによってデジタル信
号化した後、これをRAM11cに格納する(図8
(C)及び(D)参照)。
Subsequently, in step S12, the microcomputer 11 outputs a read clock (CLK) signal to the AF area sensor 12, and reads sensor data (pixel data) from the AF area sensor 12. Then, after receiving this, it is converted into a digital signal by the A / D converter 11d and then stored in the RAM 11c (FIG. 8).
(See (C) and (D)).

【0046】次にステップS13以降の処理において、
マイコン11は、RAM11cに格納されたセンサデー
タに基づいて撮影画面の被写体像の状態、即ち撮影シー
ンの判定を行なう。まず、ステップS13において、撮
影シーンが夜景シーン(詳細は後述する図9参照)であ
るかどうかを判定するための処理である[夜景判定処
理]のサブルーチン(詳細は後述する。図12参照)に
移行し、ステップS14において、夜景シーンであるか
否かの判定を行なう。ここでマイコン11は、AFエリ
アセンサ12のセンサデータに基づいて撮影シーンが夜
景シーンであると判定した場合には、次のステップS1
5の処理に進み、このステップS15において、夜景シ
ーンに応じた適切な自動焦点調節動作を行なうための所
定のAF処理、即ち[夜景AF処理]を実行した後、次
のステップS20に進む。
Next, in the processing after step S13,
The microcomputer 11 determines the state of the subject image on the shooting screen, that is, the shooting scene, based on the sensor data stored in the RAM 11c. First, in step S13, a subroutine of "night scene determination processing" (details will be described later; see FIG. 12) for determining whether or not the shooting scene is a night scene (see FIG. 9 described later). Then, in step S14, it is determined whether or not the scene is a night scene. If the microcomputer 11 determines that the shooting scene is a night scene based on the sensor data of the AF area sensor 12, the microcomputer 11 proceeds to the next step S1.
Then, in step S15, a predetermined AF process for performing an appropriate automatic focus adjustment operation according to the night scene scene, that is, [night scene AF process] is performed, and then the process proceeds to the next step S20.

【0047】一方、上述のステップS14において、夜
景シーンではないと判定された場合には、ステップS1
6の処理に進み、このステップS16において、逆光シ
ーンを判定するための処理である[逆光判定処理]のサ
ブルーチン(詳細は後述する。図18参照)に移行す
る。そしてステップS17において、逆光シーンである
か否かの判定がなされる。ここで、逆光シーンであると
判定された場合には、次のステップS18の処理に進
み、このステップS18において、逆光シーンにおいて
適切に自動焦点調節動作を行なうための所定の[逆光A
F処理]を実行した後、次のステップS20に進む。
On the other hand, if it is determined in step S14 that the scene is not a night scene, the process proceeds to step S1.
In step S16, the process proceeds to a subroutine for determining a backlight scene (a backlight determination process, which will be described later in detail; see FIG. 18). Then, in step S17, it is determined whether or not the scene is a backlight scene. Here, if it is determined that the scene is a backlight scene, the process proceeds to the next step S18, and in this step S18, a predetermined [backlight A] for appropriately performing the automatic focusing operation in the backlight scene.
F processing], and then proceeds to the next step S20.

【0048】また、上述のステップS17において、逆
光シーンでもないと判定された場合には、ステップS1
9の処理に進み、このステップS19において、通常の
AF処理である[通常AF処理]を実行後、次のステッ
プS20に進む。
If it is determined in step S17 that the scene is not a backlight scene, step S1 is executed.
In step S19, the normal AF process [normal AF process] is performed, and then the process proceeds to the next step S20.

【0049】そして、上述のようにして[夜景AF処
理]又は[逆光AF処理]又は[通常AF処理]の何れ
かの処理が完了した後、ステップS20の処理に進む
と、このステップS20において、マイコン11は、
[夜景AF処理]、[逆光AF処理]、[通常AF処
理]によるそれぞれの焦点検出結果(測距結果)に基づ
いてフォーカスレンズ駆動部13を介してフォーカスレ
ンズ10aの駆動制御を行なう。そして、一連のAF処
理を終了すると、上述の図6のメインルーチンに復帰す
る(リターン)。なお、図8(E)に示す[ストロボプ
リ発光]の処理については後述する。
After completion of any one of the "night scene AF process", the "backlight AF process", and the "normal AF process" as described above, the process proceeds to step S20. The microcomputer 11
The drive control of the focus lens 10a is performed via the focus lens drive unit 13 based on the respective focus detection results (distance measurement results) obtained by the [night view AF process], the [backlight AF process], and the [normal AF process]. When a series of AF processes is completed, the process returns to the above-described main routine of FIG. 6 (return). The processing of [pre-flash emission] shown in FIG. 8E will be described later.

【0050】次に、上述のAF処理のうちの[夜景判定
処理]について説明する。この[夜景判定処理]は、上
述の図7におけるステップS13〜ステップS15の処
理に相当するものである。
Next, the "night scene determination process" of the above-described AF process will be described. This [Night scene determination processing] corresponds to the processing of steps S13 to S15 in FIG. 7 described above.

【0051】図9は、典型的な夜景シーンにおける撮影
画面の例を示す図である。通常の場合において、夜景シ
ーンとは、例えば撮影画面の全体が低輝度となる部分
(図9では符号Lで示す領域;斜線部分)となってお
り、同画面内に街灯やネオンサイン等の高輝度となる被
写体像(図9では符号Hで示す領域)が点在している状
態をいうものとしている。
FIG. 9 is a diagram showing an example of a photographing screen in a typical night scene scene. In a normal case, the night view scene is, for example, a portion where the entire photographing screen has low brightness (the area indicated by the symbol L in FIG. 9; a hatched portion). This refers to a state in which subject images having brightness (regions indicated by reference numeral H in FIG. 9) are scattered.

【0052】そして、カメラ等を用いて写真撮影を行な
う際に、上述のような夜景シーンを背景として人物等の
主要被写体101を撮影するといった場合がある(図9
参照)。
When taking a photograph using a camera or the like, there is a case where the main subject 101 such as a person is photographed against the night scene scene as described above (FIG. 9).
reference).

【0053】図10は、図9に示す撮影シーンにおい
て、AFエリアセンサ12により取得されるセンサデー
タを三次元的に示した図である。また図11は、図9に
示す撮影画面内の連続する高輝度部分(符号Hで示す領
域)と連続する低輝度部分(符号Lで示す領域)とのそ
れぞれの面積と、各部分の輝度との関係を示す分布図で
ある。
FIG. 10 is a view three-dimensionally showing sensor data obtained by the AF area sensor 12 in the shooting scene shown in FIG. FIG. 11 shows the areas of a continuous high-luminance portion (region indicated by reference numeral H) and a continuous low-luminance portion (region indicated by reference numeral L) in the photographing screen shown in FIG. It is a distribution diagram showing the relationship of.

【0054】図10・図11に示されるように、図9の
ような撮影シーン、即ち夜景シーンを背景にした人物等
を撮影する場合においては、撮影画面内の輝度分布は、
次に示すような特徴が見られる。即ち、(1)全体的に
は低輝度となっている、(2)高輝度部分は、画面全体
に対して面積的には小さくなっており、かつ点在してい
る状態にある、(3)低輝度部分は、画面全体に対して
面積的に大きな範囲を占めている。
As shown in FIGS. 10 and 11, when a photographing scene as shown in FIG. 9, that is, when a person or the like is photographed against a night scene scene, the luminance distribution in the photographing screen is
The following features are seen. That is, (1) the overall brightness is low, (2) the high-luminance portion is small in area and scattered over the entire screen, (3) ) The low luminance portion occupies a large area in the entire screen.

【0055】したがって、これらのことを考慮すること
によって、AFエリアセンサ12によって取得されるセ
ンサデータに基づいて、撮影シーンが夜景シーンである
か否かの判定を行なうことができるのである。
Therefore, by taking these facts into consideration, it is possible to determine whether or not the shooting scene is a night scene based on the sensor data obtained by the AF area sensor 12.

【0056】図12は、[夜景判定処理]のサブルーチ
ンを示すフローチャートである。図12の[夜景判定処
理]に移行すると、まずステップS21において、マイ
コン11(平均輝度演算手段)は、AFエリアセンサ1
2の検出領域全体のセンサデータと、その積分時間に基
づいて各画素の輝度データの平均値を演算し、その演算
結果である平均輝度値が所定の値よりも小さいか否かの
比較を行なう。これによって、その撮影シーンが低輝度
状態であるか否かの判定を行なう。ここで、演算された
平均輝度値が所定値よりも低いと判断された場合には、
次のステップS22の処理に進む一方、演算された平均
輝度値が所定値よりも高いと判断された場合には、ステ
ップS31の処理に進む。
FIG. 12 is a flowchart showing a subroutine of "night scene judgment processing". When the processing shifts to [Night Scene Determination Processing] in FIG. 12, first, in step S21, the microcomputer 11 (the average luminance calculating means)
An average value of the luminance data of each pixel is calculated based on the sensor data of the entire detection area of No. 2 and the integration time, and a comparison is made as to whether the calculated average luminance value is smaller than a predetermined value. . Thereby, it is determined whether or not the shooting scene is in a low luminance state. Here, when it is determined that the calculated average luminance value is lower than the predetermined value,
On the other hand, when it is determined that the calculated average luminance value is higher than the predetermined value, the process proceeds to step S31.

【0057】上述のステップS21において、平均輝度
が所定値より低いと判断されて、ステップS22の処理
に進むと、このステップS22において、撮影シーンの
中に高輝度部が点在しているか否かを確認するために高
輝度部となる画素の分布を検出する。
In step S21 described above, it is determined that the average luminance is lower than the predetermined value, and the process proceeds to step S22. In step S22, it is determined whether or not high-luminance parts are scattered in the photographic scene. Is detected, the distribution of pixels that will be high-luminance parts is detected.

【0058】つまり、マイコン11(領域判別手段)
は、センサデータのうち所定の値よりも大きい値を示す
画素の分布を検出し、この検出された画素データの分布
が連続して生じている連続領域の面積(高輝度部の面
積)が所定値より小さいものが多く存在するか否かの判
定を行なう。ここで、高輝度部の画素データの分布が連
続する連続領域の面積が小さいものが多い場合には、夜
景シーンであると判断してステップS23の処理に進
み、少ない場合には、夜景シーンではなく、通常の撮影
シーン(ノーマルシーン)であると判断してステップS
31の処理に進む。このようにして、上述のステップS
21及びステップS22における条件を共に満たした場
合に夜景シーンであると判定されるのである。
That is, the microcomputer 11 (area determining means)
Detects the distribution of pixels having a value larger than a predetermined value in the sensor data, and determines the area of the continuous region (the area of the high-luminance portion) in which the distribution of the detected pixel data occurs continuously. It is determined whether there are many things smaller than the value. Here, if the area of the continuous region in which the distribution of the pixel data of the high-luminance part is continuous is small, the area is determined to be a night scene, and the process proceeds to step S23. Is determined to be a normal shooting scene (normal scene)
It proceeds to the process of 31. Thus, the above-described step S
When both the conditions in step 21 and step S22 are satisfied, it is determined that the scene is a night scene.

【0059】そして、夜景シーンであると判定された場
合には、ステップS23において、マイコン11は、ス
トロボ回路部20を介してストロボ発光部20aを制御
し、予備発光動作(ストロボプリ発光動作;(図8
(E)参照)を実行させるのと同時に、AFエリアセン
サ12を制御して積分演算処理を実行する。
If it is determined that the scene is a night scene, in step S23, the microcomputer 11 controls the strobe light emitting unit 20a via the strobe circuit unit 20 to perform a preliminary light emitting operation (strobe pre-lighting operation; ( FIG.
(E), and at the same time, the AF area sensor 12 is controlled to execute the integral calculation processing.

【0060】この場合において、ストロボ発光部20a
のプリ発光動作による照明光は、被写体によって反射さ
れ、その反射光束をAFエリアセンサ12が受光するこ
とになる(図8(A)及び(B)、(E)参照)。そし
て、このときのAFエリアセンサ12による積分演算処
理は、上述の図7のステップS11で説明した通常のA
F処理における積分演算処理と同様である。
In this case, the strobe light emitting section 20a
Is reflected by the subject, and the reflected light beam is received by the AF area sensor 12 (see FIGS. 8A, 8B, and 8E). Then, the integration calculation processing by the AF area sensor 12 at this time is performed by the normal A described in step S11 of FIG.
This is the same as the integral calculation process in the F process.

【0061】次いでステップS24において、マイコン
11は、AFエリアセンサ12からセンサデータを読み
出し(図8(C)参照)、これをA/Dコンバータ11
dを用いてデジタル信号化した後、これをRAM11c
に格納する。
Next, in step S24, the microcomputer 11 reads out sensor data from the AF area sensor 12 (see FIG. 8C), and reads this from the A / D converter 11.
d into a digital signal, which is then stored in the RAM 11c.
To be stored.

【0062】次のステップS25において、マイコン1
1は、上述の図7のステップS12において読み出した
後、RAM11cに格納されているセンサデータ、即ち
プリ発光動作を行なわずに実行した通常の積分演算処理
によって取得したセンサデータと、今回、上述のステッ
プS23において行なったプリ発光動作を伴う積分演算
処理によって取得したセンサデータとの差を演算する。
なお、この演算についての詳細は後述する(図19〜図
22参照)。
In the next step S25, the microcomputer 1
1 is the sensor data stored in the RAM 11c after being read out in step S12 of FIG. 7 described above, that is, the sensor data acquired by the normal integration operation performed without performing the pre-emission operation, and The difference from the sensor data obtained by the integration calculation processing involving the pre-light emission operation performed in step S23 is calculated.
The details of this calculation will be described later (see FIGS. 19 to 22).

【0063】続けてステップS26において、上述のス
テップS25による演算結果、即ちプリ発光動作の有無
によるセンサデータの差が所定値以上あるか否かを確認
する。ここで、センサデータの差が所定値以上ある場合
には、差のある領域の面積を算出し、その面積が所定値
以上の広さを有する場合には、ステップS27の処理に
進む。一方、センサデータの差が所定値以上ないものと
判断された場合又はセンサデータの差が所定値以上あっ
ても、その面積が所定の広さよりも狭い場合には、ステ
ップS30の処理に進む。
Subsequently, in step S26, it is checked whether or not the result of the calculation in step S25, that is, the difference between the sensor data due to the presence or absence of the pre-lighting operation is equal to or larger than a predetermined value. Here, if the difference between the sensor data is equal to or more than the predetermined value, the area of the region having the difference is calculated, and if the area is equal to or more than the predetermined value, the process proceeds to step S27. On the other hand, when it is determined that the difference between the sensor data is not more than the predetermined value, or when the area of the sensor data is smaller than the predetermined width even if the difference between the sensor data is more than the predetermined value, the process proceeds to step S30.

【0064】なお、プリ発光動作の有無によるセンサデ
ータに差がある場合の撮影シーンとしては、図13に示
すような場合が考えられる。即ち、撮影画面内において
低輝度部からなる背景部分と、この背景の前に人物等が
略中央部近傍に配されるような撮影シーンでは、図13
の斜線で示す領域において、プリ発光動作を行なったと
きのセンサデータとプリ発光動作を行なわなかったとき
のセンサデータとに差が出ることになる。したがって、
この領域が焦点検出処理を行なうための対象、即ち測距
エリア(符号Asで示す)となる。
FIG. 13 shows a possible photographic scene in which there is a difference in sensor data between the presence and absence of the pre-emission operation. In other words, in a background scene composed of a low-luminance part in a photographing screen and a photographing scene in which a person or the like is arranged near the center in front of the background, FIG.
In the shaded area, there is a difference between the sensor data obtained when the pre-emission operation is performed and the sensor data obtained when the pre-emission operation is not performed. Therefore,
This area is an object for performing the focus detection process, that is, a distance measurement area (denoted by a symbol As).

【0065】次にステップS27において、マイコン1
1は、差のある領域(図13の斜線で示す領域;選択さ
れた測距エリアAs)におけるセンサデータに基づいて
所定の測距演算を実行する。ここで行われる測距演算
は、一般的な測距演算である。つまり、式(1)に相当
する演算等が実行される。
Next, in step S27, the microcomputer 1
1 executes a predetermined distance measurement calculation based on sensor data in an area having a difference (the area indicated by oblique lines in FIG. 13; the selected distance measurement area As). The ranging calculation performed here is a general ranging calculation. That is, the operation corresponding to the equation (1) is performed.

【0066】次にステップS28において、上述のステ
ップS27で算出された測距結果が所定の距離値よりも
近距離を示す値であるか否かの判定を行なう。ここで、
測距結果が近距離であると判断された場合には、次のス
テップS29の処理に進む。
Next, in step S28, it is determined whether or not the distance measurement result calculated in step S27 is a value indicating a short distance than a predetermined distance value. here,
When it is determined that the distance measurement result is a short distance, the process proceeds to the next step S29.

【0067】このステップS29において、マイコン1
1は、夜景を背景に人物等の主要被写体101(図9参
照)を撮影するシーンに最適な露出を得ることができる
ようにした撮影モード、いわゆる[夜景ポートレートモ
ード]を設定した後、一連のシーケンスを終了する(リ
ターン)。この[夜景ポートレートモード]は、被写体
まで距離が比較的近くに位置する主要被写体101(図
9参照)に対して適正な露出となるようにストロボ発光
部20aの発光制御を行なうと共に、低輝度の背景とな
る夜景に対しても適正な露出となるように露光時間を長
く設定する撮影モードである。
In this step S29, the microcomputer 1
1 sets a so-called [night scene portrait mode] in which a photographing mode in which an optimal exposure can be obtained for a scene in which a main subject 101 such as a person (see FIG. 9) is photographed against a night scene is set. Ends the sequence (return). In the [Night Scene Portrait Mode], the light emission of the strobe light emitting unit 20a is controlled so that the main subject 101 (see FIG. 9) located relatively short to the subject is properly exposed, and the brightness is low. This is a shooting mode in which the exposure time is set to be long so that an appropriate exposure is obtained even for a night scene as a background.

【0068】一方、上述のステップS28において、測
距結果が近距離ではないと判断された場合、又は上述し
たようにステップS26において、プリ発光動作の有無
によるセンサデータの差が所定値以上なかった場合に
は、マイコン11は、通常の夜の風景、即ち夜景を撮影
する通常の[夜景モード]を設定した後、一連のシーケ
ンスを終了する(リターン)。この[夜景モード]は、
ストロボ発光部20aの発光を禁止すると共に、低輝度
である夜景に対して適正な露出となるように露光時間を
長く設定する撮影モードである。
On the other hand, if it is determined in step S28 that the distance measurement result is not a short distance, or as described above, in step S26, the difference between the sensor data due to the presence or absence of the pre-light emission operation does not exceed a predetermined value. In this case, the microcomputer 11 sets a normal [night scene mode] for photographing a normal night scene, that is, a night scene, and then ends a series of sequences (return). This [Night Scene Mode]
This is a shooting mode in which light emission of the strobe light emitting unit 20a is prohibited, and an exposure time is set long so that an appropriate exposure is obtained for a night scene with low luminance.

【0069】他方、上述のステップS21において、撮
影画面全体の平均輝度値が所定値よりも高いと判断され
るか、又は上述のステップS22において、撮影画面全
体の平均輝度値が所定値よりも低いのにも関わらず、高
輝度部が点在していないと判断されて、ステップS31
の処理に進むと、このステップS31において、予め設
定されている所定領域毎に測距演算処理を行なう。そし
て、その測距結果から近距離側の測距結果が選択された
後、通常の撮影を行なうのに適する撮影モードが設定さ
れて一連のシーケンスを終了する(リターン)。
On the other hand, in step S21 described above, it is determined that the average luminance value of the entire photographic screen is higher than the predetermined value, or in step S22, the average luminance value of the entire photographic screen is lower than the predetermined value. Despite this, it is determined that no high-luminance parts are scattered, and step S31
In step S31, the distance measurement calculation process is performed for each predetermined region set in advance. Then, after the distance measurement result on the short distance side is selected from the distance measurement result, a shooting mode suitable for performing normal shooting is set, and a series of sequences is terminated (return).

【0070】このようにしてAFエリアセンサ12のセ
ンサデータに基づいて、そのときの撮影シーンに適切な
撮影モードが自動的に設定されると、この一連の[夜景
判定処理]のシーケンスを終了し、図7の[AF処理]
サブルーチンに復帰する(リターン)。
When the appropriate photographing mode is automatically set for the photographing scene at that time based on the sensor data of the AF area sensor 12 in this manner, this series of [Night Scene Judgment Processing] sequence is terminated. [AF processing] in FIG.
Return to subroutine (return).

【0071】上述の図12に示す[夜景判定処理]のサ
ブルーチンにおいて、ステップS21の処理をさらに詳
しく説明すると、次のようになる。即ち図14は、[夜
景判定処理]の別のサブルーチンを示すフローチャート
であって、上述の図12のステップS21の処理につい
て、さらに詳しく説明するために、同処理をステップS
41〜ステップS45の各ステップによって詳しく示し
たものである。なお、ステップS23以降の各ステップ
については、上述の図12との処理と全く同様であるの
で、これらの処理については同じステップ番号で表わし
ている。以下に、異なる部分についてのみ説明する。
The processing of step S21 in the subroutine [Night scene determination processing] shown in FIG. 12 will be described in more detail below. That is, FIG. 14 is a flowchart showing another subroutine of the "night view determination process". In order to describe the process of step S21 in FIG.
This is shown in detail by each of steps 41 to S45. Note that the steps after step S23 are completely the same as the processing in FIG. 12 described above, and thus these processings are represented by the same step numbers. Hereinafter, only different portions will be described.

【0072】まず、ステップS41において、マイコン
11は、AFエリアセンサ12の検出領域全体のセンサ
データと、その積分時間に基づいて各画素の輝度データ
の平均値を演算し、その演算結果である平均輝度値と所
定のスレッシュ値Bthとの比較を行なう。ここで、平
均輝度値<スレッシュ値Bthと判断された場合には、
次のステップS42の処理に進む一方、平均輝度値≧ス
レッシュ値Bthであると判断された場合には、ステッ
プS31の処理に進む。
First, in step S41, the microcomputer 11 calculates the average value of the luminance data of each pixel based on the sensor data of the entire detection area of the AF area sensor 12 and the integration time, and calculates the average value as the calculation result. The luminance value is compared with a predetermined threshold value Bth. Here, when it is determined that the average luminance value <the threshold value Bth,
On the other hand, when it is determined that the average luminance value ≧ the threshold value Bth, the process proceeds to step S31.

【0073】上述のステップS41において、平均輝度
値がスレッシュ値Bthよりも低いと判断されて、ステ
ップS42の処理に進むと、このステップS42におい
て、所定値よりも高輝度(大きい値)を示す画素データ
が連続して分布している連続領域の数を計数し、カウン
ト値=Saを設定する。
In step S41, it is determined that the average luminance value is lower than the threshold value Bth, and the process proceeds to step S42. In step S42, a pixel having a luminance higher than the predetermined value (larger value) is obtained. The number of continuous areas in which data is continuously distributed is counted, and a count value = Sa is set.

【0074】続いてステップS43において、所定値よ
りも低輝度(小さい値)を示す画素データが連続して分
布している連続領域の数を計数し、カウント値=Sbを
設定する。
Subsequently, in step S43, the number of continuous areas in which pixel data having a lower luminance (smaller value) than a predetermined value is continuously distributed is counted, and the count value = Sb is set.

【0075】そして、ステップS44において、高輝度
領域のカウント値Saと所定の判定値=mとを比較す
る。この判定値mは、予めEEPROM11eに格納さ
れている固有の既定値であって、本カメラ1の起動時に
RAM11cに展開されている値である。ここで、Sa
>mが成立する場合には、ステップS45の処理に進
み、成立しない場合には、ステップS31の処理に進
む。
Then, in step S44, the count value Sa of the high luminance area is compared with a predetermined judgment value = m. The determination value m is a unique default value stored in the EEPROM 11e in advance, and is a value developed in the RAM 11c when the camera 1 is started. Where Sa
If> m is satisfied, the process proceeds to step S45; otherwise, the process proceeds to step S31.

【0076】続いてステップS45において、低輝度領
域のカウント値Sbと所定の判定値=nとを比較する。
この判定値nは、上述の判定値mと同様に予めEEPR
OM11eに格納されている固有の既定値であって、本
カメラ1の起動時にRAM11cに展開されている値で
ある。そして、ここで、Sb<nが成立する場合には、
ステップS23の処理に進み、成立しない場合には、ス
テップS31の処理に進む。したがって、Sa>mかつ
Sb<nの条件を満たすときに、センサデータを取得し
た際の撮影シーンの平均輝度が低く高輝度部が点在して
いるものと判定するのである。ステップS23以降の処
理は、上述の図12の処理と全く同様である。
Subsequently, in step S45, the count value Sb of the low luminance area is compared with a predetermined judgment value = n.
This determination value n is determined in advance by the EEPR similarly to the determination value m described above.
This is a unique default value stored in the OM 11e, and is a value developed in the RAM 11c when the camera 1 is started. Then, when Sb <n holds,
The process proceeds to step S23, and if not satisfied, the process proceeds to step S31. Therefore, when the conditions of Sa> m and Sb <n are satisfied, it is determined that the average luminance of the photographed scene at the time of acquiring the sensor data is low and high luminance parts are scattered. The processing after step S23 is exactly the same as the processing in FIG. 12 described above.

【0077】次に、上述のAF処理のうちの[逆光判定
処理]について説明する。この[逆光判定処理]は、上
述の図7におけるステップS16〜ステップS18の処
理に相当するものである。
Next, the [backlight determination processing] of the above-described AF processing will be described. This [backlight determination processing] corresponds to the processing of steps S16 to S18 in FIG. 7 described above.

【0078】図15は、典型的な逆光シーンにおける撮
影画面の例を示す図である。通常の場合において、逆光
シーンとは、人物等の主要被写体101の背景に、例え
ば空や海等の高輝度となる領域(図15では符号Hで示
す領域)を配置した状態の撮影シーンをいう。この場合
においては、人物等の主要被写体101が撮影画面内で
占める領域は、これに対応する画素データに基づく輝度
が中輝度となる領域(図15では符号Mで示す領域)と
して分布していて、撮影画面内においては、低輝度領域
がほとんど存在しない状態となっている。
FIG. 15 is a diagram showing an example of a photographing screen in a typical backlight scene. In a normal case, a backlight scene refers to a shooting scene in which a high-luminance area such as the sky or the sea (the area indicated by reference numeral H in FIG. 15) is arranged on the background of the main subject 101 such as a person. . In this case, the area occupied by the main subject 101 such as a person in the photographing screen is distributed as an area where the luminance based on the corresponding pixel data is medium luminance (the area indicated by the symbol M in FIG. 15). In the photographing screen, there is almost no low-luminance area.

【0079】図15のように示される逆光シーンの場合
にAFエリアセンサ12により取得されるセンサーデー
タの分布を三次元的に示すと図16に示すようになる。
即ち、逆光シーンでは、図16に示すように背景となる
高輝度部分の領域Hと主要被写体101の占める中輝度
領域Mとが撮影画面内にそれぞれ分布することになる。
そして、画面全体の平均的な輝度は、比較的高輝度とな
る傾向にある。なお、図17は、この逆光シーンの場合
における輝度ヒストグラム、即ちセンサデータの各画素
の分布を示している。
FIG. 16 shows a three-dimensional distribution of sensor data acquired by the AF area sensor 12 in the case of a backlight scene shown in FIG.
That is, in a backlight scene, as shown in FIG. 16, a high-luminance portion region H serving as a background and a medium-luminance region M occupied by the main subject 101 are distributed in the shooting screen.
The average luminance of the entire screen tends to be relatively high. FIG. 17 shows a luminance histogram in the case of this backlight scene, that is, a distribution of each pixel of the sensor data.

【0080】図18は、[逆光判定処理]のサブルーチ
ンを示すフローチャートである。なお、ステップS55
〜ステップS59及びステップS61の各ステップにお
ける処理は、上述の図12・図14における[夜景判定
処理]のステップS23〜ステップS27及びステップ
S31の各ステップにおける処理に対応し、略同様の処
理が実行されることになる。
FIG. 18 is a flowchart showing a subroutine of [backlight determination processing]. Step S55
The processes in steps S59 and S61 correspond to the processes in steps S23 to S27 and step S31 of the above-mentioned [night scene determination process] in FIGS. 12 and 14, and substantially the same processes are executed. Will be done.

【0081】図18に示すように、[逆行判定処理]の
サブルーチンに移行すると、まずステップS51におい
て、マイコン11は、AFエリアセンサ12の検出領域
全体のセンサデータと、その積分時間に基づいて各画素
の輝度データの平均値を演算し、その平均輝度値が所定
の値よりも大きい(高い)か否か、即ち、その撮影シー
ンが高輝度状態であるか否かの判定を行なう。ここで、
演算された平均輝度値が所定値よりも高いと判断された
場合には、次のステップS52の処理に進む一方、平均
輝度値が所定値よりも低いと判断された場合には、ステ
ップS61の処理に進む。
As shown in FIG. 18, when the process proceeds to the subroutine of the "reverse determination process", first in step S51, the microcomputer 11 determines each of the data based on the sensor data of the entire detection area of the AF area sensor 12 and the integration time thereof. An average value of the luminance data of the pixels is calculated, and it is determined whether or not the average luminance value is larger (higher) than a predetermined value, that is, whether the photographic scene is in a high luminance state. here,
If it is determined that the calculated average luminance value is higher than the predetermined value, the process proceeds to the next step S52, while if it is determined that the average luminance value is lower than the predetermined value, the process proceeds to step S61. Proceed to processing.

【0082】ステップS52において、相対的に低輝度
となる画素データ、つまり中輝度領域の分布を検出し、
さらに、その中から所定の輝度範囲内の画素データを抽
出した後、次のステップS53の処理に進む。ここで、
規定される所定の輝度範囲としては、図15に示す撮影
シーンのうち中輝度部分の領域=Mの画素数のピーク値
に対応する輝度値=Bvpを中心とする所定の輝度値=
±ΔBvの範囲内を所定の範囲としている(図17参
照)。
In step S52, pixel data having relatively low luminance, that is, distribution of a medium luminance area is detected.
Further, after extracting pixel data within a predetermined luminance range from the above, the process proceeds to the next step S53. here,
As the specified predetermined luminance range, the region of the middle luminance portion in the photographed scene shown in FIG. 15 = the luminance value corresponding to the peak value of the number of pixels of M = the predetermined luminance value centered on Bvp =
The predetermined range is within the range of ± ΔBv (see FIG. 17).

【0083】続いてステップS53において、上述した
所定の輝度範囲内(Bvpを中心とした±ΔBv)にお
ける抽出された画素データが連続して分布している連続
領域の面積=Snを算出した後、次のステップS54の
処理に進む。
Subsequently, in step S53, after calculating the area = Sn of the continuous area in which the extracted pixel data within the above-mentioned predetermined luminance range (± ΔBv centered on Bvp) is continuously distributed, The process proceeds to the next step S54.

【0084】ステップS54において、上述の所定の輝
度範囲内(Bvpを中心とした±ΔBv)における連続
領域の面積=Snと、所定の判定値(判定スレッシュ)
=Snthとの比較を行なう。この所定の判定値=Sn
thは、EEPROM11eに予め格納されている固有
の既定値であって、本カメラ1の起動時にRAM11c
に展開されている値である。そして、ここで、Sn>S
nthが成立する場合には、このときの撮影シーンは、
逆光状態である逆光シーンと判断されて、ステップS5
5の処理に進む。
In step S54, the area of the continuous region = Sn within the above-mentioned predetermined luminance range (± ΔBv around Bvp) and a predetermined judgment value (judgment threshold)
= Snth. This predetermined determination value = Sn
th is a unique default value stored in the EEPROM 11e in advance, and the RAM 11c
Is the value that is expanded to And here, Sn> S
When nth holds, the shooting scene at this time is:
It is determined that the scene is a backlight scene in a backlight state, and step S5
Proceed to step 5.

【0085】つまり、図15に示す逆光シーンの場合に
は、主要被写体101の占める面積=Snは、撮影画面
全体に対して比較的大きな面積を占めている。したがっ
て、Sn>Snthの関係が成立し逆光シーンであるも
のと判断されるわけである。
That is, in the case of the backlight scene shown in FIG. 15, the area occupied by the main subject 101 = Sn occupies a relatively large area with respect to the entire photographing screen. Therefore, the relationship of Sn> Snth is established, and it is determined that the scene is a backlight scene.

【0086】また、上述のステップS54において、S
n>Snthが成立しない場合には、このときの撮影シ
ーンが逆光シーンではなく、順光状態にあるものと判断
されて、ステップS61の処理に進む。
In step S54, S
If n> Snth is not established, it is determined that the shooting scene at this time is not a backlight scene but a normal light state, and the process proceeds to step S61.

【0087】ステップS55において、プリ発光動作を
伴ったAFエリアセンサ12による積分演算処理がなさ
れることになるが、この[逆光判定処理]においては、
AFエリアセンサ12は、同時に定常光除去部12cを
動作させることによって、定常光を除去しながら積分演
算処理を行なう(図8(A)及び(B)、(E)参
照)。
In step S55, the integration calculation process is performed by the AF area sensor 12 with the pre-light emission operation. In this [backlight determination process],
The AF area sensor 12 simultaneously performs the integral calculation processing while removing the steady light by operating the steady light removing unit 12c (see FIGS. 8A, 8B, and 8E).

【0088】また、ステップS56において、AFエリ
アセンサ12によって生成されたセンサデータ(図7の
ステップS11参照)を読み出した後、ステップS57
において、プリ発光動作を伴わない通常の積分演算処理
によるセンサデータと、プリ発光動作を伴った積分演算
処理によるセンサデータとの差を演算する。この演算の
手段について、以下に詳細に説明する。
After reading out the sensor data (see step S11 in FIG. 7) generated by the AF area sensor 12 in step S56, the process proceeds to step S57.
, The difference between the sensor data obtained by the normal integration operation without the pre-emission operation and the sensor data obtained by the integration operation with the pre-emission operation is calculated. The means for this calculation will be described in detail below.

【0089】図19は、図15に示す撮影シーンにおい
て、プリ発光動作を伴う積分演算処理を行なったときの
AFエリアセンサ12により取得されるセンサデータの
分布を三次元的に示した図である。
FIG. 19 is a diagram three-dimensionally showing the distribution of sensor data obtained by the AF area sensor 12 when the integral calculation process involving the pre-flash operation is performed in the shooting scene shown in FIG. .

【0090】この場合においては、本カメラ1から比較
的近い位置にある人物等の被写体101からの反射光は
大きくなり、背景となる遠距離の被写体からの反射光は
小さくなることから、AFエリアセンサ12が受光し得
る被写体光束は、図19に示されるようなものとなる。
In this case, the reflected light from the subject 101 such as a person at a position relatively close to the camera 1 becomes large, and the reflected light from a long-distance subject as the background becomes small. A subject light beam that can be received by the sensor 12 is as shown in FIG.

【0091】プリ発光動作を伴わない通常の積分演算処
理によるセンサデータと、プリ発光動作を伴った積分演
算処理によるセンサデータとの差を演算する際の手順
は、次のようになる。
The procedure for calculating the difference between the sensor data obtained by the normal integration operation without the pre-emission operation and the sensor data obtained by the integration operation with the pre-emission operation is as follows.

【0092】即ち、所望の撮影シーンにおいてAFエリ
アセンサ12により取得される撮影画面の全領域のセン
サデータを解析し、全領域において最も大きな面積を占
める領域のセンサデータを基準として全センサデータを
規格化した後、通常時とプリ発光時のセンサデータの同
一位置における差を算出することになる。
That is, the sensor data of the whole area of the photographing screen acquired by the AF area sensor 12 in the desired photographing scene is analyzed, and the sensor data of the area occupying the largest area in the whole area is standardized. After the conversion, the difference at the same position of the sensor data between the normal time and the pre-light emission is calculated.

【0093】上述の図15の撮影シーンを例に挙げて説
明すると、まず図15の撮影シーンにおいて、通常の積
分演算処理を行なって得られたセンサデータ(図7のス
テップS11参照)に対する規格化データの演算処理を
行なう。
The above-described photographing scene in FIG. 15 will be described as an example. First, in the photographing scene in FIG. 15, normalization is performed on sensor data (see step S11 in FIG. 7) obtained by performing a normal integration operation. Performs data arithmetic processing.

【0094】この場合においては、図16の符号Hで示
す領域のセンサデータの平均値を規格化データの基準値
として規定する。そして、この平均値x1をセンサデー
タのダイナミツクレンジ中央付近r0に合わせるような
比率の係数k1を求めた後、全センサデータに対して係
数k1を乗ずる。
In this case, the average value of the sensor data in the area indicated by the symbol H in FIG. 16 is defined as the reference value of the normalized data. Then, after obtaining a coefficient k1 having such a ratio that the average value x1 is adjusted to r0 near the center of the dynamic range of the sensor data, all the sensor data are multiplied by the coefficient k1.

【0095】k1=r0/x1これにより算出されたセ
ンサデータ(通常積分時の規格化データ)の分布を三次
元的に示すと図20のようになる。
K1 = r0 / x1 FIG. 20 shows a three-dimensional distribution of the sensor data (normalized data at the time of normal integration) calculated thereby.

【0096】次に、プリ発光動作を伴った積分演算処理
によるセンサデータについても同様に規格化データの演
算処理を行なう。プリ発光時のセンサデータから図19
の符号Hで示す領域のセンサデータの規格化データの基
準値として規定する。そして、この平均値x2をセンサ
データのダイナミツクレンジ中央付近r0に合わせるよ
うな比率の係数k2を求めた後、全センサデータに対し
て係数k2を乗ずる。
Next, the normalized data calculation process is similarly performed on the sensor data by the integration calculation process accompanied by the pre-light emission operation. 19 from the sensor data at the time of pre-flash
Is defined as the reference value of the normalized data of the sensor data in the area indicated by the symbol H. Then, after obtaining a coefficient k2 having such a ratio that the average value x2 is adjusted to r0 near the center of the dynamic range of the sensor data, the coefficient k2 is multiplied by all the sensor data.

【0097】k2=r0/x2これにより算出されたセ
ンサデータ(プリ発光積分時の規格化データ)の分布を
三次元的に示すと図21のようになる。
K2 = r0 / x2 FIG. 21 shows a three-dimensional distribution of the sensor data (normalized data at the time of pre-emission integration) calculated in this way.

【0098】このようにしてプリ発光動作を伴わない通
常の積分演算処理によるセンサデータと、プリ発光動作
を伴った積分演算処理によるセンサデータとを、それぞ
れ規格化した後、これらの規格化データに基づいて、全
画面領域における両者の同一位置の差を算出する。これ
により算出されたセンサデータ(差分データ)の分布を
三次元的に示すと図22のようになる。
In this way, the sensor data obtained by the normal integration operation without the pre-emission operation and the sensor data obtained by the integration operation with the pre-emission operation are standardized, Based on this, the difference between the same positions in the entire screen area is calculated. FIG. 22 shows a three-dimensional distribution of the sensor data (difference data) calculated in this way.

【0099】図22は、AFエリアセンサ12により取
得されるセンサデータについて、上述した演算手段によ
り算出されたセンサデータの差分データΔdの分布を三
次元的に示す図である。
FIG. 22 is a diagram three-dimensionally showing the distribution of the difference data Δd of the sensor data calculated by the above-described calculating means with respect to the sensor data obtained by the AF area sensor 12.

【0100】なお、上述の例では、AFエリアセンサ1
2により取得し得る全センサデータを対象に、所定の演
算処理を行なうようにしているが、これに限らず、例え
ば所定の範囲内におけるセンサデータのみを対象として
も良い。
In the above example, the AF area sensor 1
Although the predetermined arithmetic processing is performed on all the sensor data that can be obtained in step 2, the present invention is not limited to this. For example, only the sensor data within a predetermined range may be used.

【0101】また、上述の例では、通常積分時のセンサ
データにおける最も大きな面積を占める領域を基準とし
て全センサデータの規格化を算出するようにしている
が、これに限らず、例えばプリ発光積分時のセンサデー
タに基づいて同様に規格化データを算出するようにして
も良い。
In the above-described example, the normalization of all sensor data is calculated based on the region occupying the largest area in the sensor data during normal integration. However, the present invention is not limited to this. The standardized data may be similarly calculated based on the sensor data at the time.

【0102】図18に戻って、次のステップS58にお
いては、マイコン11は、差分データΔdが、所定値d
thよりも大きくなる領域があるか否かの判定を行な
う。ここで、差分データΔdが所定値dth以上ある画
素が連続して分布している連続領域、即ち図22の符号
Mに示す領域の面積Smを算出する。そして、この面積
Smが所定値Smth以上である場合には、この領域に
主要被写体像が存在するものと判断し、この領域を測距
エリアとして設定する。つまり、図23の符号Asで示
す測距エリアが測距演算処理を行なう対象となるのであ
る。
Returning to FIG. 18, in the next step S58, the microcomputer 11 determines that the difference data Δd has a predetermined value d.
It is determined whether there is an area larger than th. Here, the area Sm of a continuous area in which pixels having the difference data Δd equal to or larger than the predetermined value dth are continuously distributed, that is, the area indicated by the symbol M in FIG. 22 is calculated. If the area Sm is equal to or larger than the predetermined value Smth, it is determined that the main subject image exists in this area, and this area is set as a distance measurement area. That is, the distance measurement area indicated by reference symbol As in FIG. 23 is a target for which the distance measurement calculation processing is performed.

【0103】なお、所定の判定値(判定スレッシュ)=
Smthは、EEPROM11eに予め格納されている
固有の既定値であって、本カメラ1の起動時にRAM1
1cに展開されている値である。
A predetermined judgment value (judgment threshold) =
Smth is a unique default value stored in advance in the EEPROM 11e.
1c.

【0104】一方、上述のステップS58において、差
分データΔdが所定値dth以上ないと判断された場合
又は差分データΔdが所定値dth以上あっても、その
面積Smが所定値Smth以上ない場合には、ステップ
S61の処理に進む。
On the other hand, if it is determined in step S58 that the difference data Δd is not larger than the predetermined value dth, or if the area Sm is not larger than the predetermined value Smth even if the difference data Δd is larger than the predetermined value dth, The process proceeds to step S61.

【0105】次のステップS59において、同測距エリ
アAsを対象とする所定の測距演算処理を行なう。この
ようにして主要被写体像の位置を特定し、この情報を露
出にも反映させるべく、次のステップS60において、
撮影モードを例えば逆光状態にある人物等の主要被写体
像を撮影するためのいわゆる逆光モードに設定する。
In the next step S59, a predetermined distance measurement calculation process for the same distance measurement area As is performed. In this way, in order to specify the position of the main subject image and reflect this information in the exposure, in the next step S60,
The photographing mode is set to a so-called backlight mode for photographing a main subject image such as a person in a backlight state.

【0106】そして、この一連の[逆光判定処理]のシ
ーケンスを終了し(リターン)、上述の図7のステップ
S20の処理へと進む。つまり、上述のステップS59
における測距演算処理の結果に基づいて、マイコン11
は、フォーカスレンズ駆動部13を介してフォーカスレ
ンズ10aを駆動するレンズ駆動処理を実行する。
Then, the sequence of this series of [backlight determination processing] is completed (return), and the flow proceeds to the above-described processing of step S20 in FIG. That is, the aforementioned step S59
Microcomputer 11 based on the result of the distance measurement calculation process in
Executes a lens driving process of driving the focus lens 10a via the focus lens driving unit 13.

【0107】なお、逆光モードにおける測光動作(図6
のステップS4参照)においては、主要被写体像の位置
に対応する測光センサ領域の測光データが採用される。
また、これとは別にAFエリアセンサ12のセンサデー
タより求めた輝度データを測光値として加味するように
しても良い。さらにまた、AFエリアセンサ12のセン
サデータより求めた輝度値に基づいて所定の露出演算処
理(測光動作)を行なうようにしても良い。
The photometric operation in the backlight mode (FIG. 6)
In step S4), photometric data of the photometric sensor area corresponding to the position of the main subject image is employed.
Alternatively, the brightness data obtained from the sensor data of the AF area sensor 12 may be taken into account as a photometric value. Furthermore, a predetermined exposure calculation process (photometric operation) may be performed based on the brightness value obtained from the sensor data of the AF area sensor 12.

【0108】ここで、逆光シーンにおける露出演算処
理、即ち逆光状態にある主要被写体像に対して適正な露
出値を得るための手段としては、例えば露出動作の際に
閃光発光手段によって補助照明光を主要被写体に向けて
照射するようにする手段がある。この場合には、カメラ
から比較的近距離にある人物等の被写体、即ち逆光状態
の主要被写体に対しては閃光発光手段の補助照明光によ
って適正な露出値の画像を得ることができる一方、同補
助照明光は、その背景に影響を及ぼすことがないので、
通常の露出値の画像が得られることになるのである。こ
のようにして、逆光状態にある主要被写体に対して適切
な露出となるように、図6のステップS6における露出
動作が行われる。
Here, as means for exposure calculation processing in a backlight scene, that is, means for obtaining an appropriate exposure value for a main subject image in a backlight state, for example, auxiliary illumination light is emitted by flash light emission means during an exposure operation. There is a means for irradiating the main subject. In this case, for a subject such as a person at a relatively short distance from the camera, that is, for a main subject in a backlight state, an image having an appropriate exposure value can be obtained by the auxiliary illumination light of the flash light emitting means. Since the auxiliary lighting does not affect its background,
An image with a normal exposure value will be obtained. In this manner, the exposure operation in step S6 in FIG. 6 is performed so that the main subject in the backlight state is appropriately exposed.

【0109】一方、逆光シーンではないと判断されて、
図18のステップS61の処理に進んだ場合には、この
ステップS61において、通常のAF処理がなされる。
つまり、予め設定された所定のエリア毎に所定の測距演
算処理を行なって、最も近距離側となる測距結果が選択
されることになる。
On the other hand, if it is determined that the scene is not a backlight scene,
When the process proceeds to step S61 in FIG. 18, normal AF processing is performed in step S61.
In other words, a predetermined distance measurement calculation process is performed for each predetermined predetermined area, and the distance measurement result closest to the short distance is selected.

【0110】以上説明したように上記第1の実施形態に
よれば、夜景シーンにおいては、判別された主要被写体
に対して適正となる露出となる光量の発光を閃光発光手
段により行なうと同時に、低輝度部の背景に対しても適
正な露出を得るようにしたので低輝度部のノイズ低減や
高輝度部分のラチチュード及び色再現性が改善されるこ
とになるので、夜景シーンであってもより良好な写真画
像を取得することができる。
As described above, according to the first embodiment, in the night view scene, the flash light emitting means emits light of the amount of light that provides an appropriate exposure for the determined main subject, and A proper exposure is obtained even for the background of the luminance part, so that noise reduction in the low luminance part and latitude and color reproducibility in the high luminance part are improved, so that even a night scene is better. Photographic images can be obtained.

【0111】また逆光シーンにおいては、相対的に低輝
度となる中輝度領域を検出し、この検出された中輝度領
域に主要被写体があるものと判定し、この領域を重視し
て露出値の設定を行なうようにしたので、所望の主要被
写体像が存在しない領域であって高輝度となる背景部分
の輝度の影響を除去し、所望の主要被写体、例えば人物
等に対して適切となる露出による撮影が実行されるよう
にしている。したがって、主要被写体を適正な露出で撮
影することができ、良好な写真画像を取得することがで
きる。
In a backlight scene, a medium luminance region having relatively low luminance is detected, it is determined that a main subject is present in the detected medium luminance region, and the exposure value is set with emphasis on this region. Is performed, so that the influence of the luminance of the background portion where the desired main subject image does not exist and is high in luminance is removed, and the desired main subject, for example, a person or the like is photographed with an appropriate exposure. Is to be executed. Therefore, the main subject can be photographed with an appropriate exposure, and a good photographic image can be obtained.

【0112】そして、主要被写体像の撮影画面内におけ
る位置を確実に判別し、所望の主要被写体像に対して確
実に焦点検出処理を行なって高精度な測距処理(AF処
理)を実行するようにしたので、これによって快適な操
作性を確保することができる。
Then, the position of the main subject image in the photographing screen is reliably determined, the focus detection process is performed on the desired main subject image reliably, and a highly accurate ranging process (AF process) is executed. Therefore, comfortable operability can be secured.

【0113】なお、上述の第1の実施形態の測距装置を
備えたカメラ1において[逆光判定処理]を行なうにつ
いては、AFエリアセンサ12の受光素子群12aによ
り取得し得る全画素データ(センサデータ)を用いて信
号処理を行なうようにしているが、この場合において、
受光素子群12aを構成する各受光素子の数(画素数)
が多いものほど、センサデータの容量が膨大になる傾向
がある。センサデータのデータ容量が大きくなると、各
種の演算を実行するための時間も長くなってしまうの
で、処理を実行させる指令信号の発生を受けて所定の演
算を行ない一連の処理を終了するまでの時間も長くな
り、よってタイムラグが増大することになる。このよう
にタイムラグが増大すると、カメラ自体の操作性を阻害
することにもなる。
[0113] In the camera 1 equipped with the distance measuring device of the first embodiment, the [backlight determination processing] is performed in order to obtain all pixel data (sensor data) that can be obtained by the light receiving element group 12a of the AF area sensor 12. Data) to perform signal processing. In this case,
Number (number of pixels) of each light receiving element constituting light receiving element group 12a
As the number increases, the capacity of sensor data tends to be enormous. When the data capacity of the sensor data increases, the time required to execute various calculations also increases, so the time required for performing a predetermined calculation in response to the generation of a command signal for executing the process and ending a series of processes is described. And the time lag increases accordingly. When the time lag increases in this way, the operability of the camera itself is impaired.

【0114】そこで、例えばAFエリアセンサ12の受
光素子群12aによる受光面(全測距エリア)を所定の
複数のブロックに分割し、この分割された各ブロック内
部におけるセンサデータを加算処理して所定の一つの画
素データとして扱うことにより、取得し得るセンサデー
タの容量を減らすという手段が考えられる。このように
センサデータの容量を少なくすることができれば、演算
の高速化に寄与し得るので、これにより上述のタイムラ
グの問題を解消し得ることになる。
Therefore, for example, the light receiving surface (entire ranging area) of the light receiving element group 12a of the AF area sensor 12 is divided into a plurality of predetermined blocks, and the sensor data in each of the divided blocks is added to perform predetermined processing. Means for reducing the amount of sensor data that can be obtained by treating the pixel data as one piece of pixel data may be considered. If the capacity of the sensor data can be reduced in this way, it can contribute to speeding up the calculation, thereby solving the above-described problem of the time lag.

【0115】この場合においては、AFエリアセンサ1
2の受光面(全測距エリア)を所定の複数のブロックに
分割するに当たり撮影光学系が変倍可能なズームレンズ
である場合には、分割すべき単位ブロックの大きさ(ブ
ロックの画素数又は受光面積)が焦点距離に関わらず、
常に一定となるように規定してしまうと、撮影画角が広
い広角側に設定された場合のセンサデータ量と、これよ
りも撮影画角が狭くなる望遠側に設定された場合のセン
サデータ量とは、前者の方が多くなってしまい焦点距離
の変化によってセンサデータ量が増大し、これを用いる
演算処理に係る時間も大きく変化してしまうことにな
る。
In this case, the AF area sensor 1
In the case where the photographing optical system is a zoom lens capable of changing the magnification when dividing the light receiving surface (the entire ranging area) into a plurality of predetermined blocks, the size of the unit block to be divided (the number of pixels of the block or Regardless of the focal length)
If it is defined to be always constant, the sensor data amount when the shooting angle of view is set to the wide wide angle side and the sensor data amount when the shooting angle of view is set to the telephoto side where the shooting angle of view is narrower than this The former means that the sensor data amount increases due to a change in the focal length, and the time required for the arithmetic processing using the sensor data also greatly changes.

【0116】したがって、これに対応するための変形例
を、以下に述べる。まず、AFエリアセンサ12の受光
面を所定の単位ブロック(1ブロックの画素数又は受光
面積)によって等分割し、この1ブロックの大きさ(面
積)を、撮影時にその都度設定される撮影光学系の焦点
距離に応じて可変とするような設定を行なうようにすれ
ば、撮影光学系の焦点距離が変化することによって、対
応する演算処理にかかる時間に大きな変化が生じてしま
うのを防止することができる。
Therefore, a modified example corresponding to this will be described below. First, the light receiving surface of the AF area sensor 12 is equally divided by a predetermined unit block (the number of pixels of one block or the light receiving area), and the size (area) of this one block is determined by a photographing optical system that is set each time photographing is performed. If the setting is made to be variable according to the focal length of the camera, it is possible to prevent a change in the focal length of the photographing optical system from causing a large change in the time required for the corresponding arithmetic processing. Can be.

【0117】即ち、図24は、上述の第1の実施形態の
第1変形例を示す図であって、AFエリアセンサ12の
受光素子群12aの受光面の全領域を所定の単位ブロッ
クに分割する際の概念図であって、同時にAFエリアセ
ンサ12の全受光領域に対して、撮影光学系の焦点距離
に応じた受光領域を示している。
FIG. 24 is a view showing a first modification of the first embodiment, in which the entire area of the light receiving surface of the light receiving element group 12a of the AF area sensor 12 is divided into predetermined unit blocks. FIG. 6 is a conceptual diagram showing the light receiving area according to the focal length of the photographing optical system with respect to all the light receiving areas of the AF area sensor 12 at the same time.

【0118】図24において、符号Wで示す領域が撮影
光学系を短焦点(広角;ワイド)側に配置したときのA
Fエリアセンサ12の受光領域(この場合には、全受光
領域が相当する)となっている。
In FIG. 24, the area indicated by the reference symbol W is A when the photographing optical system is disposed on the short focus (wide angle; wide) side.
The light receiving area of the F area sensor 12 (in this case, the entire light receiving area corresponds).

【0119】このように短焦点側では、撮影画面に対応
するAFエリアセンサ12の受光素子12aaの数(画
素数)が多くなる。したがって、例えば2画素×2画素
=4画素を1つの分割ブロックとして規定し、この1ブ
ロックに含まれる4つの画素を加算処理することによっ
て一個の画素データとして扱うようにする。
As described above, on the short focus side, the number (pixel number) of the light receiving elements 12aa of the AF area sensor 12 corresponding to the photographing screen increases. Therefore, for example, 2 pixels × 2 pixels = 4 pixels are defined as one divided block, and the four pixels included in this block are added and processed to be treated as one pixel data.

【0120】ここで行われるセンサデータの加算処理
は、撮影光学系の焦点距離等の情報に基づいてマイコン
11において行われる演算処理である。なお、これとは
別に、マイコン11からの所定の指示信号を受けて、A
Fエリアセンサ12側の処理回路においてアナログ的な
加算処理を行なうようにすることも考えられる。このア
ナログ的加算処理手段としては、フォトダイオード等に
より発生する電荷レベルによって加算処理する手段や画
素増幅回路の電圧出力を加算処理する手段等が考えられ
る。
The addition processing of the sensor data performed here is an arithmetic processing performed by the microcomputer 11 based on information such as the focal length of the photographing optical system. In addition, separately from this, a predetermined instruction signal from the microcomputer 11 is received, and A
It is also conceivable to perform analog addition processing in the processing circuit on the F area sensor 12 side. As the analog addition processing means, a means for performing addition processing based on a charge level generated by a photodiode or the like, a means for performing addition processing on a voltage output of a pixel amplifier circuit, and the like are conceivable.

【0121】一方、上述の図24において符号Tで示す
領域が撮影光学系を長焦点(望遠;テレ)側に配置した
ときのAFエリアセンサ12の受光領域(この場合に
は、略中央部近傍の所定の受光領域が相当する)とな
る。
On the other hand, in FIG. 24, the area indicated by the symbol T is the light receiving area of the AF area sensor 12 when the photographing optical system is arranged on the long focal point (telephoto side: telephoto side) (in this case, near the center part). Corresponds to the predetermined light receiving area).

【0122】このように長焦点側においては、上述の短
焦点側に設定したときに比べて、そのときの撮影画面に
対応するAFエリアセンサ12の受光素子12aaの数
(画素数)は少なくなる。したがって、一画素のセンサ
データをそのまま一画素分の画素データとして扱うよう
にする。
As described above, the number of the light receiving elements 12aa (the number of pixels) of the AF area sensor 12 corresponding to the photographing screen at that time is smaller on the long focal length side than on the short focal length side. . Therefore, the sensor data of one pixel is directly handled as pixel data of one pixel.

【0123】このようにすれば、短焦点(ワイド)側と
長焦点(テレ)側とで扱うセンサデータの容量が変化す
ることがなく、焦点距離の違いによって演算時間が大き
く変化してしまうようなこともない。
In this way, the capacity of sensor data handled on the short focus (wide) side and the long focus (tele) side does not change, and the calculation time greatly changes depending on the difference in focal length. Nothing.

【0124】なお、上述の例では、4つの画素を1ブロ
ックとして設定しているが、この画素数の設定等は、こ
れに限らずAFエリアセンサ12の総画素数や撮影光学
系の焦点距離及び変倍率等、各種の条件によってさまざ
まに変更して適用することができる。
In the above example, four pixels are set as one block. However, the setting of the number of pixels is not limited to this, and the total number of pixels of the AF area sensor 12 and the focal length of the photographing optical system are not limited to this. The present invention can be applied with various changes depending on various conditions such as a magnification and a magnification.

【0125】また、これとは別に、例えばAFエリアセ
ンサ12により取得し得る全センサデータに対して所定
の間引処理等を行なうことによってセンサデータ容量を
減じることによっても、同様の効果を得ることができ
る。
Alternatively, the same effect can be obtained by reducing the sensor data capacity by performing a predetermined thinning process or the like on all sensor data that can be obtained by the AF area sensor 12, for example. Can be.

【0126】ところで、上述の第1の実施形態の測距装
置を備えたカメラ1において[逆光判定処理]を行なう
際の変形例として、次に示すような手段(第2変形例)
も考えられる。即ち、主要となる人物等の形状やこの主
要被写体像が撮影画面内に占める面積(大きさ)等を考
慮して、これを判別する手段である。
By the way, as a modified example of performing the [backlight determination processing] in the camera 1 equipped with the distance measuring device of the first embodiment, the following means (second modified example)
Is also conceivable. That is, this is a means for determining the shape of a main person or the like in consideration of the shape of the main subject image and the area (size) occupied by the main subject image in the shooting screen.

【0127】この場合においては、例えば主要被写体と
して人物を例に考えると、その形状は、顔面及び頭部に
相当する部分は略円形状からなり、胴体部に相当する部
分は略長方形状となる。
In this case, for example, taking a person as an example of the main subject, the shape thereof is substantially circular in a portion corresponding to the face and the head, and substantially rectangular in a portion corresponding to the body. .

【0128】また、主要被写体が人物の場合には、その
大きさは、年齢や個人毎に差異が存在するのは当然であ
るが、AFエリアセンサ12の受光面上に結像する人物
像の大きさは、被写体までの距離に応じてほぼ標準的な
大きさを規定することができるものである。
In the case where the main subject is a person, the size of the person naturally differs depending on the age and the individual, but the size of the person image formed on the light receiving surface of the AF area sensor 12 is obvious. The size can define a substantially standard size according to the distance to the subject.

【0129】したがって、本変形例においては、被写体
までの距離に応じた標準的な人物の大きさのデータ(以
下、被写体データという)を予めEEPROM11e等
に用意しておき、この被写体データと、AFエリアセン
サ12の受光面上に結像する像の大きさとを比較するこ
とで、主要被写体像が人物によるものであるか否かを判
定するのである。
Therefore, in the present modification, standard person size data (hereinafter referred to as subject data) corresponding to the distance to the subject is prepared in advance in the EEPROM 11e or the like, and the subject data and the AF By comparing the size of the image formed on the light receiving surface of the area sensor 12 with the size of the image, it is determined whether or not the main subject image is a person.

【0130】図25は、上述の第1の実施形態の第2変
形例を示す図であって、カメラ1において[逆光判定処
理]を行なう際に、主要被写体が人物である場合におけ
る主要被写体像を判別する手段を説明する図である。
FIG. 25 is a diagram showing a second modification of the above-described first embodiment. When performing the [backlight determination process] in the camera 1, the main subject image when the main subject is a person is shown. FIG. 6 is a diagram for explaining a means for determining the state of the image.

【0131】図25に示すように、本変形例の測距装置
が人物等の主要被写体100に対向するように配置され
ている場合においては、主要被写体100側からの光束
は、本測距装置の測距光学系14を透過して、これによ
り被写体像が形成されてAFエリアセンサ12の受光面
上に、主要被写体像101が結像される。
As shown in FIG. 25, when the distance measuring apparatus of the present modification is arranged so as to face a main subject 100 such as a person, a light beam from the main Through the distance measuring optical system 14, thereby forming a subject image, and a main subject image 101 is formed on the light receiving surface of the AF area sensor 12.

【0132】ここで、人物の頭部に相当する部分であっ
て、AFエリアセンサ12の受光面に略平行となる被写
体自体の幅寸法を符号Whで示し、同様に胴体部に相当
する部分の被写体自体の幅寸法(具体的には人物100
の肩幅)を符号Wsで示している。また、測距光学系1
4から被写体までの距離を符号Lで示し、測距光学系1
4とAFエリアセンサ12の受光面との間の距離、即ち
測距光学系14の焦点距離を符号fで示している。
Here, the width dimension of the subject itself, which is a portion corresponding to the head of the person and substantially parallel to the light receiving surface of the AF area sensor 12, is indicated by a reference symbol Wh, and similarly, the portion corresponding to the body portion is shown. The width of the subject itself (specifically, the person 100
Is represented by reference symbol Ws. Also, a distance measuring optical system 1
The distance from the object 4 to the subject is indicated by a symbol L,
The distance between the light receiving surface 4 and the light receiving surface of the AF area sensor 12, that is, the focal length of the distance measuring optical system 14 is indicated by a symbol f.

【0133】このときのAFエリアセンサ12の受光面
上における人物像101は、頭部に相当する部分の像幅
Whh、胴体部に相当する部分の像幅Wssは、それぞ
れ以下のように表わすことができる。即ち、 Whh=Wh×f/L Wss=Ws・f/L このように、被写体までの距離に応じた所定の被写体デ
ータを予めEEPROM11e等に用意しておけば、こ
のデータとAFエリアセンサ12によって取得されるセ
ンサデータに基づく被写体像の形状や大きさ(寸法)等
のデータとを比較して、人物像であるか否を判定し得る
のである。なお、このように、被写体像の形状等に基づ
いて主要被写体であるか否かを判別する処理を、以下形
状判別処理というものとする。
At this time, in the human image 101 on the light receiving surface of the AF area sensor 12, the image width Whh of the portion corresponding to the head and the image width Wss of the portion corresponding to the body are expressed as follows. Can be. Whh = Wh × f / L Wss = Ws · f / L As described above, if predetermined subject data corresponding to the distance to the subject is prepared in advance in the EEPROM 11 e or the like, this data and the AF area sensor 12 are used. By comparing data such as the shape and size (dimensions) of the subject image based on the acquired sensor data, it can be determined whether the subject image is a human image. Note that the process of determining whether or not the subject is the main subject based on the shape of the subject image and the like is hereinafter referred to as a shape determination process.

【0134】図26は、本変形例における[逆光判定処
理]のシーケンスを示すフローチャートであって、上述
の形状判別処理を付加したシーケンスからなるものであ
る。このフローチャートによって本変形例における[光
判定処理]が行われる際の作用を、以下に説明する。
FIG. 26 is a flowchart showing the sequence of [backlight determination processing] in this modification, which is a sequence to which the above-described shape determination processing is added. The operation when the “light determination process” in this modification is performed will be described below with reference to this flowchart.

【0135】まず、ステップS71において、焦点距離
情報に応じて読み出したセンサデータの加算処理を行な
ってブロックデータ作成する。ここで行われる処理は、
上述の第1変形例(図24参照)において説明した処理
である。
First, in step S71, block data is created by adding the read sensor data according to the focal length information. The processing performed here is
This is the processing described in the first modified example (see FIG. 24).

【0136】次にステップS72において、上述のステ
ップS71で作成したブロックデータから各ブロック毎
の輝度データを作成すると共に、作成された全輝度デー
タに基づいて平均輝度を算出する。
Next, in step S72, brightness data for each block is created from the block data created in step S71, and an average brightness is calculated based on the created all brightness data.

【0137】続いて、次のステップS73において、全
センサデータの平均輝度が所定の値よりも高いか否かの
判定を行なう。ここで、平均輝度が所定の値よりも高い
と判断された場合には、次のステップS74の処理に進
み、平均輝度が所定の値よりも低いと判断された場合に
は、ステップS86の処理に進む。
Subsequently, in the next step S73, it is determined whether or not the average luminance of all sensor data is higher than a predetermined value. Here, if it is determined that the average luminance is higher than the predetermined value, the process proceeds to the next step S74. If it is determined that the average luminance is lower than the predetermined value, the process of step S86 is performed. Proceed to.

【0138】ステップS74においては、高輝度である
と判断された場合であるので、ここで所定の輝度範囲内
にあるブロックの輝度データを抽出する処理を行ない、
次のステップS75において、連続するブロック輝度デ
ータの面積を算出し、これを面積=Snとする。
In step S74, since it is determined that the luminance is high, a process of extracting luminance data of a block within a predetermined luminance range is performed.
In the next step S75, the area of the continuous block luminance data is calculated, and this is set as area = Sn.

【0139】次に、ステップS76において、上述のス
テップS75において算出された面積=Snを所定の判
定値Snthと比較する。ここで、Sn>Snthが成
立する場合には、次のステップS77の処理に進み、S
n>Snthが成立しない場合、即ちSn≦Snthで
ある場合には、ステップS86の処理に進む。
Next, in step S76, the area = Sn calculated in step S75 is compared with a predetermined determination value Snth. If Sn> Snth holds, the process proceeds to the next step S77, and
If n> Snth is not satisfied, that is, if Sn ≦ Snth, the process proceeds to step S86.

【0140】ステップS77において、抽出された領域
の画像の形状が略円形状であるか否かの形状判別処理を
行なう。ここで、抽出された領域の画像の形状が略円形
状であると判断された場合には、次のステップS78の
処理に進み、略円形状ではないものと判断された場合に
は、ステップS82の処理に進む。
In step S77, a shape discriminating process is performed to determine whether or not the image of the extracted area is substantially circular. Here, when it is determined that the shape of the image of the extracted area is substantially circular, the process proceeds to the next step S78, and when it is determined that the image is not substantially circular, the process proceeds to step S82. Proceed to processing.

【0141】ここで、形状判別処理の詳細について説明
する。上述のステップS74及びステップS75におい
て抽出される領域は、領域P(面積=Scとする)と領
域Q(面積=Sdとする)である(図25参照)。ここ
で、像の形状を判別するためには、所定の画像とのパタ
ーンマッチングによる手段が一般的に用いられる。
Here, the details of the shape determination processing will be described. The regions extracted in the above steps S74 and S75 are a region P (area = Sc) and a region Q (area = Sd) (see FIG. 25). Here, means for performing pattern matching with a predetermined image is generally used to determine the shape of the image.

【0142】即ち、抽出された領域において、領域Pの
像の面積=Scからは、この面積=Scとなる円形状の
半径を特定することができる。したがって、これを基準
円形とし、抽出された領域の画像と基準円形画像との相
関度を算出して、その相関度が所定値以上高い場合には
円形と判別するのである。
That is, in the extracted area, the radius of the circular shape where the area = Sc can be specified from the area = Sc of the image of the area P. Therefore, this is set as a reference circle, the degree of correlation between the image of the extracted area and the reference circular image is calculated, and if the degree of correlation is higher than a predetermined value, it is determined to be a circle.

【0143】図26のステップS78においては、上述
のステップS77の判別により抽出された領域の画像の
形状が略円形状と判断された場合であるので、この略円
形状領域(円形エリア)の像幅方向の長さWhhを算出
する。
In step S78 in FIG. 26, since the shape of the image of the region extracted by the determination in step S77 is determined to be substantially circular, the image of this substantially circular region (circular area) is determined. The length Whh in the width direction is calculated.

【0144】次にステップS79において、上述のステ
ップS78の算出結果、即ち略円形状領域の幅方向の長
さWhhと、予めEEPROM11eに格納されている
所定の判定値W1及びW2との関係が、W1<Whh<
W2の関係にあるか否かの判断を行なう。ここで、W1
<Whh<W2の関係が成立する場合には、次のステッ
プS80の処理に進み、同関係が成立しない場合には、
ステップS86の処理に進む。
Next, at step S79, the relationship between the calculation result at step S78 described above, that is, the relationship between the width Whh of the substantially circular region in the width direction and the predetermined determination values W1 and W2 stored in advance in the EEPROM 11e is given by the following equation. W1 <Whh <
It is determined whether or not the relationship is W2. Here, W1
If the relationship <Whh <W2 is established, the process proceeds to the next step S80, and if the relationship is not established,
Proceed to step S86.

【0145】ステップS80において、円形状の領域P
(図25参照)に少なくとも一つの測距エリアAs(図
27参照)を設定した後、この測距エリアについて所定
の測距演算処理を実行して測距データを作成する。な
お、ここで複数の測距エリアを設定した場合には、各測
距エリア毎に所定の測距演算処理を実行し、それら複数
の測距演算結果に対して、例えば最至近選択処理や平均
処理等を行なうことにより一つの測距データを作成す
る。
In step S80, the circular region P
After setting at least one ranging area As (see FIG. 27) in (see FIG. 25), predetermined ranging calculation processing is performed on this ranging area to create ranging data. When a plurality of distance measurement areas are set, predetermined distance measurement calculation processing is executed for each distance measurement area, and the plurality of distance measurement results are subjected to, for example, the closest selection processing or averaging. One distance measurement data is created by performing processing and the like.

【0146】そして、ステップS81において、カメラ
の撮影モードを逆光シーンモードに設定した後、一連の
[逆光判定処理]のシーケンスを終了する(リター
ン)。
Then, in step S81, after setting the shooting mode of the camera to the backlight scene mode, a series of [backlight determination processing] sequence is terminated (return).

【0147】一方、上述のステップS77において、抽
出された領域の画像の形状が略円形状ではないものと判
断された場合にステップS82の処理に進むと、このス
テップS82において、抽出された領域の画像の形状が
略長方形状であるか否かの判別を行なう。この場合にお
ける形状判別処理は、上述のステップS77において行
われる略円形状の形状判別処理と略同様の処理が行われ
る。即ち、このステップS82において行われる形状判
別処理は、図25の領域Qに対して行われることにな
る。
On the other hand, if it is determined in step S77 that the shape of the image of the extracted area is not substantially circular, the process proceeds to step S82. It is determined whether or not the image has a substantially rectangular shape. In the shape determination process in this case, substantially the same process as the substantially circular shape determination process performed in step S77 described above is performed. That is, the shape discrimination processing performed in step S82 is performed on the area Q in FIG.

【0148】このステップS82において、抽出された
領域の画像の形状が略長方形状であると判断された場合
には、次のステップS83の処理に進み、略長方形状で
はないものと判断された場合には、ステップS86の処
理に進む。
If it is determined in step S82 that the image of the extracted area is substantially rectangular, the process proceeds to the next step S83, and if it is determined that the image is not substantially rectangular. , The process proceeds to step S86.

【0149】ステップS83において、抽出された領
域、即ち略長方形状領域(長方形エリア)の像幅方向の
長さWssを算出し、次のステップS84において、上
述のステップS83の算出結果、即ち略長方形状領域の
幅方向の長さWssと、予めEEPROM11eに格納
されている所定の判定値W3及びW4との関係が、W3
<Wss<W4の関係にあるか否かの判断を行なう。こ
こで、W3<Wss<W4の関係が成立する場合には、
次のステップS85の処理に進み、同関係が成立しない
場合には、ステップS86の処理に進む。
In step S83, the length Wss in the image width direction of the extracted area, that is, the substantially rectangular area (rectangular area) is calculated. In the next step S84, the calculation result in step S83 described above, that is, the substantially rectangular The relationship between the length Wss in the width direction of the shape region and the predetermined determination values W3 and W4 stored in the EEPROM 11e in advance is W3.
It is determined whether <Wss <W4. Here, when the relationship of W3 <Wss <W4 holds,
The process proceeds to the next step S85, and if the same relationship is not established, the process proceeds to a step S86.

【0150】ステップS85において、長方形状の領域
Q(図25参照)に少なくとも一つの測距エリアを設定
した後、この測距エリアについて所定の測距演算処理を
実行し測距データを作成する。なお、ここで複数の測距
エリアを設定した場合には、各測距エリア毎に所定の測
距演算処理を実行し、それら複数の測距演算結果に対し
て、例えば最至近選択処理や平均処理等を行なうことに
より一つの測距データを作成する。そして、ステップS
81の処理に進み、ここで、カメラの撮影モードを逆光
シーンモードに設定した後、一連の[逆光判定処理]の
シーケンスを終了する(リターン)。
In step S85, at least one distance measurement area is set in the rectangular area Q (see FIG. 25), and a predetermined distance measurement calculation process is performed on this distance measurement area to generate distance measurement data. When a plurality of distance measurement areas are set, predetermined distance measurement calculation processing is executed for each distance measurement area, and the plurality of distance measurement results are subjected to, for example, the closest selection processing or averaging. One distance measurement data is created by performing processing and the like. And step S
The process proceeds to 81, where the shooting mode of the camera is set to the backlight scene mode, and then a series of [backlight determination processing] sequence is terminated (return).

【0151】他方、上述したように(1)上述のステッ
プS73において、全センサデータの平均輝度が所定値
よりも低いと判断された場合、(2)上述のステップS
76において、Sn>Snthが成立しない(Sn≦S
nthである)場合、(3)上述のステップS79にお
いて、W1<Whh<W2の関係が成立しない場合、
(4)上述のステップS77において、抽出された領域
の画像の形状が略円形状ではないものと判断され、かつ
上述のステップS82において抽出された領域の画像の
形状が略長方形状ではないものと判断された場合、
(5)上述のステップS84において、W3<Wss<
W4の関係が成立しない場合、等においてステップS8
6に進むと、このステップS86においては、通常の測
距演算処理、つまり分割測距エリア毎に所定の測距演算
処理を実行し、これにより得られた複数の演算結果に対
して最至近選択処理や平均処理等を行なって、一つの測
距データを作成した後、一連の[逆光判定処理]のシー
ケンスを終了する(リターン)。なお、この場合におい
ては、撮影モードの切り換えは行なわれず、[通常撮影
モード]のままとなる。
On the other hand, as described above, (1) when it is determined in step S73 that the average luminance of all sensor data is lower than a predetermined value, (2) in step S73
At 76, Sn> Snth does not hold (Sn ≦ S
nth), (3) In the above-described step S79, when the relationship of W1 <Whh <W2 is not established,
(4) In the above step S77, it is determined that the shape of the image of the extracted region is not substantially circular, and the shape of the image of the region extracted in step S82 is not substantially rectangular. If determined,
(5) In the above step S84, W3 <Wss <
If the relationship of W4 is not established, step S8
In step S86, the routine proceeds to step S86, in which a normal distance measurement calculation process, that is, a predetermined distance measurement calculation process is executed for each of the divided distance measurement areas, and a plurality of calculation results obtained by the closest distance selection are selected. After one distance measurement data is created by performing processing, averaging processing, etc., a series of [backlight determination processing] sequence is terminated (return). Note that, in this case, the shooting mode is not switched, and the normal shooting mode is maintained.

【0152】なお、上述のステップS79及びステップ
S84においてEEPROM11eから読み出される所
定の判定値W1・W2・W3・W4は、撮影画面のうち
逆光状態になる人物(被写体)の存在する距離範囲、例
えば撮影倍率1/30〜1/80の範囲を考慮すると共
に、さらに個人差も考慮して設定される値である。
The predetermined determination values W1, W2, W3, and W4 read out from the EEPROM 11e in the above-described steps S79 and S84 are determined based on the distance range where the person (subject) in the backlit state exists in the shooting screen, for example, the shooting range. The value is set in consideration of the range of the magnification ratio 1/30 to 1/80 and also considering individual differences.

【0153】一方、上述のステップS80又はステップ
S85において測距データを作成した後においては、さ
らに次のような処理を行なうようにしても良い。即ち、
測距データの作成後、この測距データLsと、略円形状
領域の像幅方向の長さ=Whh及び略長方形状領域の像
幅方向の長さ=Wssを、予めEEPROM11eに有
している所定の被写体データ、即ち頭部に相当する部分
の像幅Wha及び胴体部に相当する部分の像幅Wsaの
各データと照合し確認する。このようにすれば、より確
実に測距精度を向上させることができることになる。
On the other hand, after the distance measurement data is created in step S80 or step S85, the following processing may be further performed. That is,
After the distance measurement data is created, the distance measurement data Ls, the length of the substantially circular region in the image width direction = Whh, and the length of the substantially rectangular region in the image width = Wss are stored in the EEPROM 11e in advance. It is checked against predetermined subject data, that is, data of the image width Wha of the part corresponding to the head and the data of the image width Wsa of the part corresponding to the body. By doing so, it is possible to more reliably improve the ranging accuracy.

【0154】つまり、 Wha+ΔW1h<Wh・Ls/f<Wha+ΔW2h Wsa+ΔWls<Ws・Ls/f<Wsa十ΔW2s ここで、符号ΔW1h・ΔW2h・ΔW1s・ΔW2s
は、それぞれ許容範囲を示す係数をあらわす。このよう
な関係が成立する場合にのみ選択された測距エリアを採
用することにする。
That is, Wha + ΔW1h <Wh · Ls / f <Wha + ΔW2h Wsa + ΔWls <Ws · Ls / f <Wsa + ΔW2s where the sign ΔW1h · ΔW2h · ΔW1s · ΔW2s
Represents coefficients each indicating an allowable range. Only when such a relationship is established, the selected ranging area is adopted.

【0155】なお、この第2変形例によれば、次に示す
ような効果もある。図28は、主要となる被写体よりも
近距離に非主要被写体が存在する場合における撮影画面
の構成例である。
According to the second modification, the following effects are also obtained. FIG. 28 is a configuration example of a shooting screen in a case where a non-main subject exists closer than the main subject.

【0156】図28に示す撮影画面の構成は、例えば逆
光状態において主要被写体像(人物等)101が略中央
部に配置され、この被写体像101よりも近距離となる
位置に、他の雑被写体(非主要被写体110)が位置し
ている場合を示している。
The configuration of the photographing screen shown in FIG. 28 is such that, for example, in a backlight state, a main subject image (person, etc.) 101 is arranged substantially at the center, and another rough subject is located at a position closer to the subject image 101. This shows a case where the (non-main subject 110) is located.

【0157】このような場合においては、非主要被写体
110の形状は共に略円形ではなく、かつその大きさが
人物像101とは異なる、即ち人物像101よりも近距
離にあるために、その幅方向の長さが人物像101の所
定の像幅Whh・Wssのそれぞれよりも大きいことに
なるので、この領域の像は抽出されず、人物像101に
対応する領域が確実に抽出されることになるのである。
In such a case, the shape of the non-main subject 110 is not substantially circular, and its size is different from that of the human image 101, that is, since it is closer than the human image 101, the width of the Since the length in the direction is larger than each of the predetermined image widths Whh and Wss of the human image 101, the image of this area is not extracted, and the area corresponding to the human image 101 is reliably extracted. It becomes.

【0158】したがって、このような撮影画面構成の場
合にも、人物像101に対して確実に測距エリアが設定
され、これに基づいて所定の焦点検出処理が実行される
ことになる。
Therefore, even in the case of such a photographic screen configuration, the distance measurement area is reliably set for the human image 101, and a predetermined focus detection process is executed based on this.

【0159】次に、上述の第1の実施形態の測距装置を
備えたカメラ1における[逆光判定処理]の第3変形例
として、逆光判定処理を行なうための面積判定値Snt
h及び主要被写体判定値Smthを、撮影画面内の位置
によって異なる値となるようにする手段も考えられる。
Next, as a third modified example of the “backlight determination process” in the camera 1 including the distance measuring device of the first embodiment, an area determination value Snt for performing the backlight determination process is described.
Means for setting h and the main subject determination value Smth to different values depending on the position in the shooting screen may be considered.

【0160】図29は、この第3変形例において、撮影
画面の位置と判定スレッシュ値の関係を示す図である。
この図29に示すように、撮影画面の略中央部では判定
スレッシュ値を小さくなるように、また周辺部分では判
定スレッシュ値が大きくなるように設定するのである。
FIG. 29 is a diagram showing the relationship between the position of the photographing screen and the judgment threshold value in the third modification.
As shown in FIG. 29, the determination threshold value is set so as to be small in a substantially central portion of the photographing screen, and to be large in a peripheral portion.

【0161】通常、写真撮影を行なう場合の撮影画面の
構成としては、例えば人物等の主要被写体が撮影画面の
略中央部近傍に配置される傾向がある。したがって、撮
影画面の略中央部分における判定スレッシュ値を、周辺
部分に比較して小さく設定することにより、逆光判定処
理が容易になるものと考えられる。また、逆光判定処理
を行なうのに利用する領域の面積が小さくなれば、扱う
データ容量も少なくなり、よって処理を高速化すること
も容易になるという効果もある。
Usually, as a configuration of a photographing screen when photographing, a main subject such as a person tends to be arranged near a substantially central portion of the photographing screen. Therefore, it is considered that the backlight determination processing is facilitated by setting the determination threshold value in the substantially central portion of the photographing screen smaller than that in the peripheral portion. In addition, if the area of the region used for performing the backlight determination process is reduced, the data capacity to be handled is reduced, so that there is an effect that the process can be speeded up easily.

【0162】またこれとは別に、逆光判定処理を行なう
ための面積判定値Snth及び主要被写体判定値Smt
hを、各種の撮影モードに応じて変更するようにする手
段も考えられる。
Separately from this, the area determination value Snth and the main subject determination value Smt for performing the backlight determination processing are described.
Means for changing h in accordance with various shooting modes is also conceivable.

【0163】例えば主に人物撮影等を行なう際に利用さ
れるポートレートモードでは、撮影画面の略中央部近傍
に人物等の主要被写体像を配置するような構図が一般的
である。そして、このとき主要被写体像は、撮影画面の
全領域に対して比較的広い領域を占める場合が多くな
る。したがって、このような場合には、判定値Snth
・Smthを、その他の撮影モード、即ち風景モードや
マクロモード等の場合よりも小さく設定することによっ
て逆光判定処理を容易にすると共に、処理の高速化に寄
与することができるのである。
For example, in a portrait mode mainly used for photographing a person, a composition in which a main subject image of a person or the like is arranged substantially near the center of a photographing screen is generally used. At this time, the main subject image often occupies a relatively large area with respect to the entire area of the shooting screen. Therefore, in such a case, the determination value Snth
By setting Smth smaller than in other shooting modes, that is, landscape mode, macro mode, etc., it is possible to facilitate backlight determination processing and contribute to speeding up the processing.

【0164】一方、主要被写体が人物等である場合に
は、撮影画面の下辺寄りの位置に主要被写体像が配置さ
れ、上辺寄りの側は主に背景となるような構図が多く見
られる。このとき背景となる部分では、高輝度領域で占
められるので、この領域を検出するのは、比較的容易で
あると考えられる。したがって、このような構図情報
(撮影画面内における主要被写体像の位置情報等)を加
えて、逆光シーンであるか否かを判定するようにした第
4変形例も考えられる。
On the other hand, when the main subject is a person or the like, there are many compositions in which the main subject image is arranged at a position near the lower side of the shooting screen, and the upper side is mainly the background. At this time, since the background portion is occupied by the high luminance region, it is considered that it is relatively easy to detect this region. Therefore, a fourth modified example in which such composition information (position information of the main subject image in the shooting screen and the like) is added to determine whether or not the scene is a backlight scene is also conceivable.

【0165】通常の場合、カメラ1の撮影画面は、長方
形状となるように設定されているのが普通である。した
がって、写真撮影を行なう場合には、長方形状の撮影画
面が横長となるようにする横位置撮影と、長方形状の撮
影画面が縦長となるようにする縦位置撮影とによって所
望の構図が決定されることになる。
In a normal case, the photographing screen of the camera 1 is usually set to have a rectangular shape. Therefore, when photographing is performed, a desired composition is determined by landscape shooting in which a rectangular shooting screen is horizontally long and vertical shooting in which a rectangular shooting screen is vertically long. Will be.

【0166】図30・図31は、人物等を主要な被写体
として写真撮影を行なったときの構図の例を示してお
り、図30は、横位置撮影の場合の例であり、図31
は、縦位置撮影の場合の例である。
FIGS. 30 and 31 show examples of compositions when photographing is performed with a person or the like as a main subject. FIG. 30 shows an example of horizontal position photographing.
Is an example in the case of vertical shooting.

【0167】図30・図31に示されるように横位置撮
影の場合に背景となる領域、即ち検出領域Asaと、縦
位置撮影の場合に背景となる領域、即ち検出領域Asb
とは、異なる位置になっている。
As shown in FIGS. 30 and 31, an area serving as a background in the case of horizontal position shooting, ie, a detection area Asa, and an area serving as a background in the case of vertical position shooting, ie, a detection area Asb
And a different position.

【0168】このことを考慮して本変形例では、撮影シ
ーンの判定を行なうのに先立って撮影画面が横位置とさ
れているか縦位置とされているかの検出を行なって、撮
影画面の方向に応じて検出領域の設定を行なうようにし
ている。
In consideration of this, in the present modification, prior to the determination of the shooting scene, whether the shooting screen is in the horizontal position or the vertical position is detected, and the detection is performed in the direction of the shooting screen. The detection area is set accordingly.

【0169】そのために本変形例のカメラ1には、本カ
メラ1の撮影時の姿勢を検出するカメラ姿勢検出部24
を配設する(図1参照)。そして、このカメラ姿勢検出
部24によってカメラ1の撮影画面が縦位置にされてい
るか又は横位置にされているかを検出し、これにより検
出された撮影画面の方向に基づいて検出領域の位置を設
定するようにしている。
For this purpose, the camera 1 of the present modified example includes a camera posture detecting section 24 for detecting the posture of the camera 1 at the time of photographing.
(See FIG. 1). Then, the camera posture detection unit 24 detects whether the photographing screen of the camera 1 is in the vertical position or the horizontal position, and sets the position of the detection area based on the direction of the photographing screen detected thereby. I am trying to do it.

【0170】ここで、本変形例の[逆光判定処理]にお
ける作用を、図32のフローチャートによって、以下に
説明する。なお、本変形例の[逆光判定処理]は、上述
の第2変形例の[逆光判定処理]のシーケンス(図26
参照)に対して、さらに上述の処理、即ち撮影画面の縦
横判定と、撮影画面の方向に応じた検出領域の輝度を判
定をする処理を付加したものである。したがって、上述
の第2変形例で説明した部分については、説明を省略し
異なる部分についてのみ説明する。
Here, the operation in the [backlight determination processing] of this modification will be described below with reference to the flowchart of FIG. The [backlight determination process] of this modification is a sequence of the [backlight determination process] of the above-described second modification (FIG. 26).
) Is added to the above-described processing, that is, the processing of determining the length and width of the shooting screen and the processing of determining the luminance of the detection area according to the direction of the shooting screen. Therefore, the description of the portions described in the second modification will be omitted, and only different portions will be described.

【0171】逆光判定処理に入りステップS71〜ステ
ップS85の処理を経て対象となる撮影画面が逆光シー
ンであると判断され、所定の測距エリアにおける焦点検
出処理がなされた後、ステップS91の処理に進む。
In the backlight determination processing, the processing in steps S71 to S85 determines that the target photographing screen is a backlight scene. After the focus detection processing in a predetermined distance measurement area is performed, the processing proceeds to step S91. move on.

【0172】このステップS91においては、まずカメ
ラ姿勢検出部24によってカメラ1の姿勢が検出され
る。ここで、カメラ1の撮影画面が横位置にされている
と判断された場合には、次のステップS92の処理に進
み、撮影画面が縦位置にされていると判断された場合に
は、ステップS94の処理に進む。
In this step S91, the attitude of the camera 1 is detected by the camera attitude detector 24 first. Here, if it is determined that the shooting screen of the camera 1 is in the horizontal position, the process proceeds to the next step S92. If it is determined that the shooting screen is in the vertical position, the process proceeds to step S92. The process proceeds to S94.

【0173】ステップS92においては、撮影画面が横
位置の場合であるので、図30に示す領域Asaを検出
領域(検出エリアともいう)に設定し、この検出領域A
saにおける平均輝度値を算出する。
In step S92, since the photographing screen is in the horizontal position, the area Asa shown in FIG. 30 is set as a detection area (also referred to as a detection area).
The average luminance value at sa is calculated.

【0174】続いてステップS93において、上述のス
テップS92で算出された検出領域Asaの平均輝度値
が所定の輝度値以上であるか否か、即ち高輝度であるか
否かの判断が行なわれる。ここで、高輝度であると判断
された場合には、この撮影シーンは逆光シーンであるも
のと判定されて、ステップS81の処理に進む。また、
高輝度ではないと判断された場合には、ステップS86
の処理に進む。このステップS86以降の処理は、上述
した通りである(図26参照)。
Subsequently, in step S93, it is determined whether or not the average luminance value of the detection area Asa calculated in step S92 is equal to or greater than a predetermined luminance value, that is, whether or not the luminance is high. Here, if it is determined that the brightness is high, the shooting scene is determined to be a backlight scene, and the process proceeds to step S81. Also,
If it is determined that the brightness is not high, step S86
Proceed to processing. The processing after step S86 is as described above (see FIG. 26).

【0175】一方、上述のステップS91において、カ
メラ1の撮影画面が横位置ではなく縦位置にされている
と判断された場合には、ステップS94の処理に進み、
このステップS94において、図31に示す領域Asb
を検出領域に設定し、この検出領域Asbにおける平均
輝度値を算出する。
On the other hand, if it is determined in step S91 that the shooting screen of the camera 1 is not in the horizontal position but in the vertical position, the process proceeds to step S94.
In this step S94, the area Asb shown in FIG.
Is set as a detection area, and an average luminance value in the detection area Asb is calculated.

【0176】続いてステップS95において、上述のス
テップS94で算出された検出領域Asbの平均輝度値
が所定の輝度値以上であるか否か、即ち高輝度であるか
否かの判断が行なわれる。ここで、高輝度であると判断
された場合には、この撮影シーンは逆光シーンであるも
のと判定されて、ステップS81の処理に進む。また、
高輝度ではないと判断された場合には、ステップS86
の処理に進む。このステップS86以降の処理は、上述
した通りである(図26参照)。
Subsequently, in step S95, it is determined whether or not the average luminance value of the detection area Asb calculated in step S94 is equal to or higher than a predetermined luminance value, that is, whether or not the luminance is high. Here, if it is determined that the brightness is high, the shooting scene is determined to be a backlight scene, and the process proceeds to step S81. Also,
If it is determined that the brightness is not high, step S86
Proceed to processing. The processing after step S86 is as described above (see FIG. 26).

【0177】このように上述の第4変形例によれば、背
景領域における輝度を確認する処理を加えることによっ
て、さらに逆光シーンであるか否かの判定を確実かつ正
確なものとすることができる。
As described above, according to the above-described fourth modification, the processing for confirming the luminance in the background area is added, so that it is possible to more reliably and accurately determine whether or not the scene is a backlight scene. .

【0178】ところで、[夜景判定処理]については、
上述の第1の実施形態では、高輝度部分が点在している
か否かを検出することによって夜景シーンであるか否か
を判定するようにしたが、この例とは別に、次に示す第
5変形例も考えられる。
By the way, with regard to the [Night Scene Judgment Processing],
In the first embodiment described above, it is determined whether or not the scene is a night scene by detecting whether or not high-luminance portions are scattered. Five modifications are also conceivable.

【0179】通常の場合、夜景シーン(図9参照)で
は、高輝度部分と低輝度部分との輝度差が大きいことか
ら、高コントラストの画像になる傾向がある。つまり、
夜景シーンの特徴としては、(1)全体的に低輝度とな
っている(平均輝度が低い)状態にある、(2)撮影画
面内のコントラスト(輝度差の絶対値)の総和が所定値
より大きい(高コントラストである、)という傾向があ
る。したがって、撮影画面内の高コントラストとなる部
分を検出することによっても夜景シーンであるか否かを
判定することは容易であるものと考えられる。
In a normal case, in a night scene (see FIG. 9), a high contrast image tends to be formed because the luminance difference between the high luminance portion and the low luminance portion is large. That is,
The features of the night view scene are as follows: (1) the overall brightness is low (the average brightness is low); and (2) the sum of the contrast (absolute value of the brightness difference) in the shooting screen is greater than a predetermined value. They tend to be large (high contrast). Therefore, it can be considered that it is easy to determine whether or not the scene is a night scene by detecting a portion having a high contrast in the shooting screen.

【0180】図33は、上述の第1の実施形態の測距装
置を備えたカメラのAFエリアセンサにより取得される
夜景シーン(図9)のセンサデータに基づくコントラス
ト分布を三次元的に示す図である。
FIG. 33 is a diagram three-dimensionally showing a contrast distribution based on sensor data of a night scene (FIG. 9) obtained by the AF area sensor of the camera provided with the distance measuring device of the first embodiment. It is.

【0181】画像のコントラストは、AFエリアセンサ
12の受光素子群12aの個々の受光素子12aaによ
って取得される個々の画素データ(センサデータ)と、
その周辺部分の画素データ(センサデータ)の差の絶対
値(コントラスト値)を各画素について求めた後、所定
の領域における全画素のコントラスト値を総和すること
により算出される。
The contrast of the image is determined by the individual pixel data (sensor data) obtained by the individual light receiving elements 12aa of the light receiving element group 12a of the AF area sensor 12, and
After calculating the absolute value (contrast value) of the difference between the pixel data (sensor data) in the peripheral portion for each pixel, the sum is calculated by summing the contrast values of all the pixels in a predetermined area.

【0182】なお、図33に示すように元になるセンサ
データの分布図上の断面形状(符号M)に対してコント
ラスト演算処理後の分布図上の断面形状は、符号Nで示
すようになる。つまり、高輝度部分の領域と低輝度部分
の領域の境界部分において、最も高コントラストになる
ことが示されているのである。
It should be noted that, as shown in FIG. 33, the cross-sectional shape on the distribution diagram of the original sensor data after the contrast calculation processing with respect to the cross-sectional shape (reference M) is indicated by the reference character N. . In other words, it is shown that the highest contrast is obtained at the boundary between the high luminance area and the low luminance area.

【0183】次に、撮影画面のコントラスト値に基づい
て[夜景判定処理]を行なう際の作用は、図34に示す
フローチャートのようになる。なお図34は、上述の第
1の実施形態における[夜景判定処理]のシーケンス
(図12)におけるステップS21及びステップS22
の各処理に代えて、ステップS101及びステップS1
02の処理を行うようにした点が異なるものである。
Next, the operation at the time of performing the [night scene judgment processing] based on the contrast value of the photographing screen is as shown in the flowchart of FIG. FIG. 34 shows steps S21 and S22 in the sequence of the “night scene determination process” (FIG. 12) in the first embodiment.
Steps S101 and S1
02 is different.

【0184】即ち、本変形例では、図34の[夜景判定
処理]に移行すると、まずステップS101において、
AFエリアセンサ12の検出領域全体のセンサデータ
と、その積分時間に基づいて各画素の輝度データの平均
値を演算し、その演算結果である平均輝度値が所定の輝
度値を表わすスレッシュ値Bthよりも小さいか否かの
比較を行なう。これによって、その撮影シーンが低輝度
状態であるか否かの判定を行なう。ここで、演算された
平均輝度値が所定値Bthよりも低いと判断された場合
には、次のステップS102の処理に進む一方、演算さ
れた平均輝度値が所定値Bthよりも高いと判断された
場合には、ステップS31の処理に進む。
That is, in the present modified example, when the processing shifts to the [night scene judgment processing] of FIG. 34, first in step S101,
The average value of the luminance data of each pixel is calculated based on the sensor data of the entire detection area of the AF area sensor 12 and the integration time, and the calculated average luminance value is calculated from a threshold value Bth representing a predetermined luminance value. Is also compared. Thereby, it is determined whether or not the shooting scene is in a low luminance state. Here, when it is determined that the calculated average luminance value is lower than the predetermined value Bth, the process proceeds to the next step S102, while it is determined that the calculated average luminance value is higher than the predetermined value Bth. If so, the process proceeds to step S31.

【0185】上述のステップS101において、平均輝
度が所定値Bthより低いと判断されて、ステップS1
02の処理に進むと、このステップS102において、
撮影シーン全体に対して上述した所定のコントラスト演
算を行なって、その演算結果が所定のスレッシュ値Ct
hよりも高いか否かの比較を行なう。ここで、所定値C
thよりも高コントラストであると判断された場合に
は、夜景シーンであると判断してステップS23の処理
に進み、低コントラストであると判断された場合には、
夜景シーンではなく通常の撮影シーン(ノーマルシー
ン)であると判断してステップS31の処理に進む。
In step S101 described above, it is determined that the average luminance is lower than the predetermined value Bth, and step S1 is executed.
02, in this step S102,
The above-described predetermined contrast calculation is performed on the entire shooting scene, and the calculation result is a predetermined threshold value Ct.
h is compared. Here, the predetermined value C
If it is determined that the contrast is higher than th, it is determined that the scene is a night scene, and the process proceeds to step S23. If it is determined that the contrast is low,
It is determined that the scene is not a night scene but a normal shooting scene (normal scene), and the process proceeds to step S31.

【0186】このようにして、上述のステップS101
の条件、即ち、 平均輝度<Bth とステップS102における条件、即ち、 コントラスト値>Cth を共に満たした場合に夜景シーンであると判定されるの
である。そして、夜景シーンであると判定された場合に
は、ステップS23以降の一連の処理が実行される。な
お、このステップS23以降の一連の処理については、
上述の図12で説明した処理と全く同様であるので、そ
の詳細な説明は省略する。このようにした第5変形例に
よっても、夜景シーンの判定を確実に行なうことができ
る。
Thus, the above-described step S101 is performed.
Is satisfied, that is, when both the average luminance <Bth and the condition in step S102, that is, the contrast value> Cth are satisfied, it is determined that the scene is a night scene. When it is determined that the scene is a night scene, a series of processes from step S23 is performed. In addition, about a series of processes after this step S23,
Since the processing is exactly the same as the processing described with reference to FIG. 12, a detailed description thereof will be omitted. According to the fifth modified example as described above, it is possible to reliably determine the night scene scene.

【0187】次に、上述の第1の実施形態の第6変形例
について説明する。この第6変形例では、撮影シーンが
図9に示すような場合を例に挙げて図12のステップS
25〜S27の処理、即ち夜景シーンであるものと判定
されたときに設定すべき撮影モードを[夜景ポートレー
トモード]とするか又は通常の[夜景モード]に設定す
るかの判断を行なう場合を説明する(なお図19〜図2
2も参照)。
Next, a sixth modification of the above-described first embodiment will be described. In the sixth modification, the case where the shooting scene is as shown in FIG.
25 to S27, that is, a case where it is determined whether the shooting mode to be set when it is determined that the scene is a night scene scene is the “night scene portrait mode” or the normal “night scene mode” is set. It will be described (FIGS. 19 to 2)
2).

【0188】図35は、図9の撮影シーンに対してスト
ロボ発光部20aを発光させるプリ発光動作を行なった
ときのAFエリアセンサ12による積分演算処理で得ら
れるセンサデータを三次元的に示す図である。
FIG. 35 is a diagram three-dimensionally showing sensor data obtained by integration calculation processing by the AF area sensor 12 when a pre-emission operation of causing the strobe light emission unit 20a to emit light is performed on the shooting scene of FIG. It is.

【0189】また、図36は、図9の撮影シーンに対し
てプリ発光を伴わない場合のセンサデータとプリ発光を
伴うセンサデータとを比較し、両者の差のある部分のみ
を抽出したセンサデータを三次元的に示す図である。
FIG. 36 shows sensor data obtained by comparing sensor data without pre-emission with sensor data with pre-emission in the photographed scene of FIG. 9 and extracting only a part having a difference between the two. FIG. 3 is a diagram showing three-dimensionally.

【0190】ここで、両センサデータを比較する場合に
おいては、例えば輝度のピーク値における両者のデータ
を規格化し、対応するセンサデータ又はエリア毎の差を
演算する等の手段が用いられる。
Here, when comparing the two sensor data, for example, means for normalizing the two data at the peak luminance value and calculating the corresponding sensor data or the difference for each area is used.

【0191】図9に示すような夜景シーンにおいて、カ
メラから比較的近い位置(近距離の位置)に人物等の主
要となる被写体が存在している場合には、図35及び図
36に示すようにストロボ発光の有無によって得られる
画像データに差が生じる。そして、この差のある部分
(領域)に主要被写体が存在していると推測できる。し
たがって、この場合には、撮影モードを[夜景ポートレ
ートモード]に設定して、この差のある領域、即ち図1
3の符号Asで示す領域を測距エリアに設定し、この測
距エリアAsにおいて所定の測距演算処理を実行する。
In the night view scene as shown in FIG. 9, when a main subject such as a person is present at a position relatively close to the camera (position at a short distance), as shown in FIGS. 35 and 36. There is a difference in image data obtained depending on the presence or absence of strobe light. Then, it can be inferred that the main subject exists in the part (area) having the difference. Therefore, in this case, the photographing mode is set to [Night scene portrait mode], and the area having this difference, that is, FIG.
An area indicated by a symbol As of No. 3 is set as a distance measurement area, and a predetermined distance measurement calculation process is executed in this distance measurement area As.

【0192】一方、夜景シーンにおいて、カメラから近
距離の位置に人物等の被写体が存在しない場合には、ス
トロボ発光の有無によって得られる画像データに差は生
じないことになる。したがって、この場合には、通常の
[夜景モード]が設定されることになる。この場合に
は、夜景そのものの風景が主要被写体であると考えられ
るので、焦点調節動作は無限遠距離に設定するようにす
れば良い。
On the other hand, in the night scene scene, if there is no subject such as a person at a position close to the camera, there is no difference in the obtained image data depending on the presence or absence of strobe light emission. Therefore, in this case, the normal [Night Scene Mode] is set. In this case, the scene of the night view itself is considered to be the main subject, so that the focus adjustment operation may be set to an infinite distance.

【0193】このように本変形例では、撮影シーンが夜
景シーンであると判定された場合において、夜景撮影に
適する撮影モードのうち[夜景ポートレートモード]と
通常の[夜景モード]の切り替えを行なうようにするの
である。
As described above, in the present modification, when it is determined that the shooting scene is a night scene scene, the [Night scene portrait mode] and the normal [Night scene mode] among the shooting modes suitable for night scene shooting are switched. To do so.

【0194】これによれば、撮影シーンに応じてさらに
適切な撮影モードを自動的に切り替えることになるの
で、常に良好な写真撮影結果を取得することができるこ
とになる。
According to this, a more appropriate photographing mode is automatically switched according to the photographing scene, so that a good photographing result can always be obtained.

【0195】また、撮影シーンが図9に示す場合におい
て、夜景シーンであることが判定されたときの設定すべ
き撮影モードの切り替え、即ち[夜景ポートレートモー
ド]とするか又は通常の[夜景モード]に設定するかの
切り替え判断処理については、上述の例とは別の手段と
して、次に示す第7変形例も考えられる。
In the case where the shooting scene is as shown in FIG. 9, switching of the shooting mode to be set when it is determined that the scene is a night scene, that is, [Night scene portrait mode] or the normal [Night scene mode] is performed. As for the switching determination processing of whether or not to set to [], a seventh modified example shown below can be considered as means different from the above-described example.

【0196】図37は、図9の撮影シーンにおける輝度
と、これに対応する画素数又はエリア数との関係を示す
図である。AFエリアセンサ12によって取得されるセ
ンサデータに基づいて、輝度とその輝度に対応する画素
数又はエリア数との関係に着目すると、通常の夜景シー
ンでは、次のような傾向が見られる。即ち、(1)低輝
度部分の領域と高輝度部分の領域の分布が偏る一方、中
輝度部分の領域の分布が少ない、(2)近距離に主要と
なる被写体が存在する場合には、プリ発光動作を行なっ
たときのセンサデータと、プリ発光動作を行なわなかっ
たときのセンサデータとでは輝度分布が異なり、プリ発
光動作を行なわなかったときのセンサデータに比べてプ
リ発光動作を行なったときのセンサデータには、中輝度
部分の領域が増大している、(3)近距離に主要となる
被写体が存在しない場合には、プリ発光動作の有無に関
わらず輝度分布の差はほとんどみられない。
FIG. 37 is a diagram showing the relationship between the luminance in the photographing scene of FIG. 9 and the number of pixels or areas corresponding thereto. Focusing on the relationship between the luminance and the number of pixels or areas corresponding to the luminance based on the sensor data acquired by the AF area sensor 12, the following tendency is observed in a normal night scene. In other words, when (1) the distribution of the low luminance area and the high luminance area is biased, while the distribution of the medium luminance area is small, and (2) there is a main subject at a short distance, The brightness distribution is different between the sensor data when the light emission operation is performed and the sensor data when the pre-light emission operation is not performed, and when the pre-light emission operation is performed compared to the sensor data when the pre-light emission operation is not performed. (3) When there is no main subject at a short distance, there is almost no difference in the luminance distribution regardless of the presence or absence of the pre-emission operation. Absent.

【0197】このような傾向を考慮すると、次のような
判定基準を規定することができる。即ち、(1)高輝度
部分の領域と低輝度部分の領域の分布が偏り、かつ中輝
度部分の領域の分布が少ない場合には、夜景シーンと判
定し、通常の[夜景モード]に設定する、(2)プリ発
光動作の有無により得られるそれぞれのセンサデータを
比較したときに輝度分布に差が見られる場合には、夜景
を背景とした人物等の主要被写体が近距離に存在する状
態であると判定し夜景シーンにおけるポートレート撮影
に適した[夜景ポートレートモード]に設定する、
(3)プリ発光動作の有無により得られるそれぞれのセ
ンサデータを比較したときに輝度分布に差がない場合に
は、風景としての夜景のみを撮影する通常の夜景シーン
であると判定し、通常の[夜景モード]に設定する。
In consideration of such a tendency, the following criterion can be defined. That is, (1) when the distribution of the high luminance area and the low luminance area is uneven and the distribution of the medium luminance area is small, it is determined that the scene is a night scene, and the normal [night scene mode] is set. (2) If there is a difference in the luminance distribution when comparing the respective sensor data obtained according to the presence or absence of the pre-emission operation, the main subject such as a person against a night view is present at a short distance. Set to [Night scene portrait mode] suitable for portrait shooting in night scene scenes,
(3) If there is no difference in luminance distribution when comparing the respective sensor data obtained depending on the presence or absence of the pre-light emission operation, it is determined that the scene is a normal night scene scene in which only a night scene as a landscape is photographed, Set to [Night Scene Mode].

【0198】上述のような判断基準を規定した場合にお
ける本変形例の[夜景判定処理]のシーケンスを図38
のフローチャートによって、以下に説明する。まず、ス
テップS111において、撮影画面に対応する所定の範
囲の領域(測距エリア)について、所定の値よりも高輝
度となる画素数をカウントして、これをカウント値BH
Cとする。
FIG. 38 shows the sequence of the "night scene determination process" of the present modification when the above-described determination criteria are defined.
This will be described below with reference to the flowchart of FIG. First, in step S111, the number of pixels having a luminance higher than a predetermined value is counted for an area (distance measurement area) within a predetermined range corresponding to the shooting screen, and this is counted as a count value BH.
C.

【0199】次いでステップS112においても同様
に、撮影画面に対応する所定の範囲の領域(測距エリ
ア)について、所定の値よりも中輝度となる画素数をカ
ウントして、これをカウント値BMCとする。
Next, in step S112, similarly, the number of pixels having a medium luminance value larger than a predetermined value is counted for a predetermined range of an area (ranging area) corresponding to the photographing screen, and this is referred to as a count value BMC. I do.

【0200】続いてステップS113においても同様
に、撮影画面に対応する所定の範囲の領域(測距エリ
ア)について、所定の値よりも低輝度となる画素数をカ
ウントして、これをカウント値BLCとする。
Subsequently, also in step S113, similarly, the number of pixels having a luminance lower than the predetermined value is counted in a predetermined range area (distance measuring area) corresponding to the photographing screen, and this is counted by the count value BLC. And

【0201】ステップS114〜S116において、上
述のようにして計数された各カウント値BHC・BMC
・BLCのそれぞれと所定の判定値a・b・cとを比較
する。
In steps S114 to S116, each count value BHC / BMC counted as described above
-Each of the BLCs is compared with a predetermined determination value a, b, c.

【0202】つまり、ステップS114において、カウ
ント値BHCと所定の判定値aとを比較して、BHC>
aの関係が成立すれば、次のステップS115の処理に
進み、このステップS115において、カウント値BM
Cと所定の判定値bとを比較する。ここでBMC<bの
関係が成立すれば、次のステップS116の処理に進
み、このステップS116において、カウント値BLC
と所定の判定値cとを比較すし、BLC>cの関係が成
立すれば、次のステップS117の処理に進む。
That is, in step S114, the count value BHC is compared with a predetermined determination value a, and the value of BHC>
If the relationship a is established, the process proceeds to the next step S115, and in this step S115, the count value BM
C is compared with a predetermined determination value b. Here, if the relationship of BMC <b is established, the process proceeds to the next step S116, and in this step S116, the count value BLC
Is compared with a predetermined determination value c, and if the relationship of BLC> c is established, the process proceeds to the next step S117.

【0203】このようにして、BHC>a、BMC<
b、BLC>Cのそれぞれの関係をいずれも満たす場合
には、その撮影シーンが夜景シーンであると判定される
ことになる。
Thus, BHC> a, BMC <
If both of b and BLC> C are satisfied, it is determined that the shooting scene is a night scene.

【0204】上述のようにして夜景シーンであることが
判定された場合には、次のステップS117において、
ストロボ発光部20aを発光させるプリ発光動作を行な
ってAFエリアセンサ12による積分演算処理を行な
い、続いてステップS118において、AFエリアセン
サ12からセンサデータを読み出す。
When it is determined that the scene is a night scene, as described above, in the next step S117,
A pre-emission operation for causing the strobe light emission unit 20a to emit light is performed, and the integration calculation process is performed by the AF area sensor 12. Subsequently, in step S118, sensor data is read from the AF area sensor 12.

【0205】次にステップS119において、所定の測
距エリアのセンサデータに基づいて中輝度となる画素数
をカウントし、これをカウント値BMCaとする。
Next, in step S119, the number of pixels having medium luminance is counted based on the sensor data of the predetermined distance measurement area, and this is set as a count value BMCa.

【0206】ステップS120において、上述のカウン
ト値BMCaと所定の値bとの比較を行なう。ここで、
BMCa>bの関係が成立する場合には、夜景を背景と
して主要被写体が存在している状態であると判断し、次
のステップS121の処理に進む。また、BMCa>b
の関係が成立しない場合には、通常の夜景シーンである
と判断し、ステップS124の処理に進む。
In step S120, the count value BMCa is compared with a predetermined value b. here,
When the relationship of BMCa> b is established, it is determined that the main subject is present with the night view as the background, and the process proceeds to the next step S121. Also, BMCa> b
If the relationship is not established, it is determined that the scene is a normal night scene, and the process proceeds to step S124.

【0207】ステップS121においては、中輝度とな
る画素数が増加した領域を測距エリアに設定して、所定
の測距演算処理を実行し、次のステップS122の処理
に進む。
In step S121, an area in which the number of pixels having medium luminance is increased is set as a distance measurement area, a predetermined distance measurement calculation process is performed, and the flow advances to the next step S122.

【0208】ステップS122において、上述のステッ
プS121における測距演算の結果に基づいて被写体ま
での距離が近いか否かを判定する。ここで、被写体が近
距離に存在すると判定された場合には、ステップS12
3の処理に進む一方、被写体が近距離にない通常の夜景
シーンであると判定された場合には、ステップS124
の処理に進む。
In step S122, it is determined whether or not the distance to the subject is short based on the result of the distance measurement calculation in step S121. Here, if it is determined that the subject exists at a short distance, the process proceeds to step S12.
On the other hand, if it is determined that the subject is a normal night view scene where the subject is not at a short distance, the process proceeds to step S124.
Proceed to processing.

【0209】そして、上述のステップS122で被写体
が近距離に存在すると判定されてステップS123の処
理に進むと、このステップS123において、撮影モー
ドを[夜景ポートレートモード]に設定し、一連の[夜
景判定処理]のシーケンスを終了する(リターン)。
If it is determined in step S122 that the subject exists at a short distance, and the process proceeds to step S123, in this step S123, the photographing mode is set to [Night Scene Portrait Mode] and a series of [Night Scene Portrait Mode] is set. Judgment process] is terminated (return).

【0210】一方、上述のステップS120及びステッ
プS122において通常の夜景シーンであると判定され
てステップS124の処理に進むと、このステップS1
24において、撮影モードを通常の[夜景モード]に設
定し、一連の[夜景判定処理]のシーケンスを終了する
(リターン)。
On the other hand, when it is determined in step S120 and step S122 that the scene is a normal night scene, and the process proceeds to step S124, the process proceeds to step S1.
At 24, the shooting mode is set to the normal "night scene mode", and the sequence of the "night scene determination process" is terminated (return).

【0211】なお、 ・ステップS114でBHC>aの関係が成立しない場
合、 ・ステップS115でBMC<bの関係が成立しない場
合、 ・ステップS116でBLC>cの関係が成立しない場
合、には、いずれの場合も通常の撮影シーン(ノーマル
シーン)であるものと判定されてステップS125の処
理に進む。そして、このステップS125において、予
め設定されている所定領域毎に測距演算処理を行なう。
そして、その測距結果から近距離側の測距結果が選択さ
れて、通常の撮影を行なうのに適する撮影モードを設定
した後、一連のシーケンスを終了する(リターン)。
If the relationship of BHC> a is not established in step S114, if the relationship of BMC <b is not established in step S115, if the relationship of BLC> c is not established in step S116, In either case, it is determined that the scene is a normal shooting scene (normal scene), and the process proceeds to step S125. Then, in step S125, a distance measurement calculation process is performed for each predetermined region set in advance.
Then, the distance measurement result on the short distance side is selected from the distance measurement result, and a shooting mode suitable for performing normal shooting is set. Then, a series of sequences is terminated (return).

【0212】このように上記第7変形例においても、撮
影シーンに応じた適切な撮影モードとなるように自動切
り替えを行なうようにして、常に良好な写真撮影結果を
取得することができる。
As described above, also in the seventh modified example, a good photographing result can be always obtained by automatically switching to an appropriate photographing mode according to a photographing scene.

【0213】ところで、上述の第1の実施形態の測距装
置を備えたカメラ及びこれの各変形例において、夜景シ
ーンであると判定された場合には、通常の場合、シャッ
ター速度値を遅くして露光量を制御するのが普通であ
る。したがって、撮影者がカメラ1を手等によって保持
したのでは、手ブレ等に起因して良好な写真撮影結果を
得ることができないことがある。このような場合には、
三脚等を用いることによってカメラ1を固定した状態に
して写真撮影を行なうのが望ましい。
By the way, in the camera provided with the distance measuring apparatus of the first embodiment and the modifications thereof, when it is determined that the scene is a night scene, the shutter speed value is decreased in a normal case. Usually, the exposure amount is controlled. Therefore, if the photographer holds the camera 1 with his / her hand or the like, good photographing results may not be obtained due to camera shake or the like. In such a case,
It is desirable to take a picture with the camera 1 fixed by using a tripod or the like.

【0214】そこで、上述のように撮影シーンが夜景シ
ーンと判定されたときに、測光手段等により算出された
露出値に基づくシャッター速度値が比較的遅いシャッタ
ー速度であって手ブレ等が発生し易いような情況になっ
た場合には、表示部19(図1参照)等を利用して、そ
の旨の情報表示を行なうように構成し、これによってカ
メラ1の撮影者に対して所定の警告を発するようにすれ
ば良い。この警告表示としては、例えば表示部19の受
光面に表示される警告指標を表示させると共に、これを
点滅表示させるといったものである。また、これとは別
に、警告音等を発生させ得る発音手段を設け、この発音
手段によるビープ音や音声等を用いて警告するようにし
ても良い。
Therefore, when the photographic scene is determined to be a night scene scene as described above, the shutter speed based on the exposure value calculated by the photometric means or the like is a relatively slow shutter speed, and camera shake or the like occurs. When the situation becomes easy, the display unit 19 (see FIG. 1) or the like is used to display information to that effect, thereby giving a predetermined warning to the photographer of the camera 1. Should be issued. As the warning display, for example, a warning index displayed on the light receiving surface of the display unit 19 is displayed, and the warning indicator is displayed in a blinking manner. Alternatively, a sounding means capable of generating a warning sound or the like may be provided, and a warning may be issued by using a beep sound or a sound by the sounding means.

【0215】また、測光手段によって決定される露出値
は、撮影シーンに応じて決められるものであるが、これ
以外にカメラ1に装填されているフイルムの条件、即ち
フイルム感度等も考慮されるのが普通である。
The exposure value determined by the photometric means is determined according to the shooting scene. In addition, the condition of the film loaded in the camera 1, that is, the film sensitivity and the like are also taken into consideration. Is common.

【0216】したがって、適正露出値が低速度のシャッ
ター速度値となるような情況では、より高い感度を有す
るフイルムであれば、より速いシャッター速度値として
も同等の露出値を得ることができるのは周知である。
Therefore, in a situation where the proper exposure value is a low shutter speed value, a film having a higher sensitivity can obtain the same exposure value as a faster shutter speed value. It is well known.

【0217】そこで、上述したように夜景シーンと判定
され、そのときの適正露出値を実現するシャッター速度
値が比較的遅いシャッター速度となった場合には、高感
度フイルムの使用を促す旨の情報を、表示部19による
警告表示又は上記発音手段による警告音等として表示又
は発音させるようにすれば良い。また、これとは別に、
その撮影シーンに適切となるフイルムの感度情報等を、
表示部19によって表示させるようにする手段も考えら
れる。
Therefore, as described above, when the scene is determined to be a night scene, and the shutter speed value for realizing the appropriate exposure value at that time becomes a relatively slow shutter speed, information indicating that the use of the high-sensitivity film is promoted. May be displayed or sounded as a warning display by the display unit 19 or a warning sound by the sounding means. Also, apart from this,
The film sensitivity information etc. that is appropriate for the shooting scene
Means for displaying on the display unit 19 is also conceivable.

【0218】このようにフイルム交換を促す情報がカメ
ラ1によってもたらされた場合には、カメラの使用者
は、現在カメラ1に装填されているフイルムを所定の途
中巻戻操作等を行なった上で、これをカメラ外部に取り
出し、これに代えてそのときの撮影シーンに適切な高感
度フイルムを装填することにより、支障なく撮影を続行
することができる。
When the information prompting the user to exchange the film is provided by the camera 1, the user of the camera performs a predetermined halfway rewind operation or the like of the film currently loaded in the camera 1. Then, by taking this out of the camera and loading a high-sensitivity film appropriate for the shooting scene at that time, shooting can be continued without hindrance.

【0219】なお、カメラに装填されている使用中のフ
イルムを撮影の途中で巻き戻して、カメラから取り出
し、これを後日、再びカメラに装填して、前回撮影済み
の撮影コマの次の未使用コマの位置まで巻き上げて、続
けて再使用することができるようにする機能、いわゆる
フイルム途中交換機能(MRC;midroll chenge機能)
を備えたカメラ及びカートリッジ入りフイルムについて
は、一般的に実用化されているものである。
The used film loaded in the camera is rewound in the course of photography, taken out of the camera, and loaded again in the camera at a later date. A function that winds up to the top of the frame and allows it to be reused continuously, a so-called mid-film change function (MRC; midroll change function)
Are generally put into practical use.

【0220】ところで、写真撮影を行なうカメラ等に用
いられる測距装置の方式としては、例えば赤外光等を所
望の被写体に向けて照射させ、その反射光を受光するこ
とで被写体までの距離を測定するいわゆるアクティブ方
式の測距装置や、一対の受光レンズによって結像される
一対の被写体像のずれ量から被写体までの距離を算出す
るいわゆるパッシブ方式の測距装置のほかに、アクティ
ブ方式とパッシブ方式との二つの測距装置を組み合わせ
て構成し、両者を被写体距離によって切り替えて使用す
るようにしたいわゆるハイブリッド方式の測距装置等、
様々な方式の測距装置が一般的に実用化されている。
By the way, as a method of a distance measuring device used for a camera or the like for taking a photograph, for example, an infrared ray or the like is irradiated toward a desired subject, and the reflected light is received to determine the distance to the subject. In addition to the so-called active type distance measuring device that measures the distance and the so-called passive type distance measuring device that calculates the distance to the subject from the amount of shift between the pair of subject images formed by the pair of light receiving lenses, the active type and the passive type So-called hybrid type distance measuring device, which is configured by combining two distance measuring devices with the method, and switches between them according to the subject distance.
Various types of distance measuring devices are generally put into practical use.

【0221】そこで、本発明の第2の実施形態の測距装
置を備えたカメラは、アクティブ方式とパッシブ方式と
を単にハイブリッド的に組み合わせたのみではなく、さ
らに両方式を用いることによって撮影画面内における主
要となる被写体像を検出するようにしたいわゆるスーパ
ーコンビネーション測距装置を適用したカメラについて
説明している。
Therefore, the camera provided with the distance measuring apparatus according to the second embodiment of the present invention is not only a hybrid combination of the active system and the passive system, but also employs both systems to obtain a photographic screen. A camera to which a so-called super combination distance measuring device adapted to detect a main subject image in is applied.

【0222】なお、本実施形態の測距装置を備えたカメ
ラは、上述の第1の実施形態と略同様の構成からなり、
適用される測距装置の方式が異なるのみである。したが
って、上述の第1の実施形態と同様の構成については、
詳細な構成についての説明を省略し、異なる点について
のみ、以下に説明する。
The camera provided with the distance measuring device of the present embodiment has substantially the same configuration as that of the first embodiment.
The only difference is the method of the applied distance measuring device. Therefore, for the same configuration as the first embodiment described above,
A detailed description of the configuration will be omitted, and only different points will be described below.

【0223】図39は、本実施形態の測距装置を備えた
カメラの主要構成部材を示す要部ブロック構成図であ
る。本実施形態の測距装置を備えたカメラの構成を図3
9によって、以下に説明する。
FIG. 39 is a main block diagram showing the main components of a camera provided with the distance measuring apparatus of this embodiment. FIG. 3 shows a configuration of a camera provided with the distance measuring device of the present embodiment.
9 will be described below.

【0224】図39に示すように本カメラに適用される
測距装置は、AFエリアセンサ12A及び測距光学系1
4A等によって構成されている。測距光学系14Aは、
カメラの前面側に設けられ、被写体100からの光束を
透過させて二つの被写体像を結像させる一対の受光レン
ズ14Aa等によって構成されており、この測距光学系
14Aの一対の受光レンズ14Aaによって形成される
被写体像は、AFエリアセンサ12の受光面上で結像す
るように所定の位置に配置されている。
As shown in FIG. 39, the distance measuring apparatus applied to this camera includes an AF area sensor 12A and a distance measuring optical system 1
4A and the like. The distance measuring optical system 14A is
It is provided on the front side of the camera, and is constituted by a pair of light receiving lenses 14Aa and the like for transmitting a light flux from the object 100 to form two object images, and by a pair of light receiving lenses 14Aa of the distance measuring optical system 14A. The formed subject image is arranged at a predetermined position so as to form an image on the light receiving surface of the AF area sensor 12.

【0225】AFエリアセンサ12Aは、測距光学系1
4Aの一対の受光レンズ14Aaにより形成される一対
の被写体像をそれぞれ受光し、これに対して光電変換処
理を施す一対の受光素子群12Aaと、この一対の受光
素子群12aからの出力を受けて定常光成分を除去する
処理を施す定常光除去手段12Acと、一対の受光素子
群12aからの出力をデジタル信号に変換し、カメラ内
部の所定の位置に配置されるマイコン11Aへと出力す
るA/Dコンバータ12Afと、一対の受光素子群12
aからの出力を受けてその他必要となる信号処理等を行
ない所定の形態のセンサデータを生成する処理回路(図
示せず)等によって構成されている。
The AF area sensor 12A includes the distance measuring optical system 1
A pair of subject images formed by a pair of 4A light receiving lenses 14Aa are respectively received, and a pair of light receiving element groups 12Aa for performing a photoelectric conversion process on the pair of subject images and an output from the pair of light receiving element groups 12a are received. A / A which converts the output from the pair of light receiving elements 12a into a digital signal and outputs the digital signal to the microcomputer 11A arranged at a predetermined position inside the camera, and a stationary light removing unit 12Ac for performing processing for removing the stationary light component. D converter 12Af and a pair of light receiving element groups 12
It is configured by a processing circuit (not shown) that receives the output from a and performs other necessary signal processing and the like to generate sensor data in a predetermined form.

【0226】なお、一対の受光素子群12Aaは、被写
体光束の受光面において水平方向と垂直方向とに二次元
的に配置された複数のフォトダイオード等の受光素子に
よって構成されている。
The pair of light receiving element groups 12Aa is composed of a plurality of light receiving elements such as photodiodes arranged two-dimensionally in the horizontal and vertical directions on the light receiving surface of the subject light beam.

【0227】また、定常光除去手段12Acは、マイコ
ン11Aによってストロボ発光手段20Aと共に制御さ
れるようになっており、ストロボ発光手段20Aにより
発光制御のなされるストロボ発光部20Aaから照明光
を照射したときに定常光除去手段12Acを作動させる
と、一対の受光素子群12Aaからの出力信号から定常
的に入射する直流的な光信号を除去するようになってい
る。したがって、このときの一対の受光素子群12Aa
からの出力信号は、ストロボ発光部20Aaからのパル
ス光束のみに基づく出力信号となるのである。
The steady light removing means 12Ac is controlled by the microcomputer 11A together with the strobe light emitting means 20A, and emits illumination light from the strobe light emitting section 20Aa whose light emission is controlled by the strobe light emitting means 20A. When the steady light removing means 12Ac is operated, the DC light signal which is constantly incident is removed from the output signals from the pair of light receiving element groups 12Aa. Therefore, the pair of light receiving element groups 12Aa at this time
Is an output signal based only on the pulsed light beam from the strobe light emitting unit 20Aa.

【0228】そして、このように構成された本実施形態
の測距装置は、カメラ側のマイコン11Aにより制御さ
れるようになっている。また、マイコン11Aは、上述
したようにストロボ発光手段20Aを介してストロボ発
光部20Aaを制御するようになっている。
The distance measuring apparatus according to the present embodiment thus configured is controlled by the microcomputer 11A on the camera side. Further, the microcomputer 11A controls the strobe light emitting section 20Aa via the strobe light emitting means 20A as described above.

【0229】一方、本実施形態の測距装置を備えたカメ
ラにおいては、音声信号発生手段25がさらに配設され
ており、この音声信号発生手段25もまた、マイコン1
1Aにより制御されるようになっている。
On the other hand, in the camera provided with the distance measuring device of the present embodiment, an audio signal generating means 25 is further provided.
1A.

【0230】また、マイコン11Aの内部には、上述の
第1の実施形態と同様にCPU・ROM・RAM・EE
PROM11e等の部材に加えて、さらにAFエリアセ
ンサ12Aの一対の受光素子群12Aaの受光面上に形
成される被写体像の像パターンを分析するパターン判別
手段11Af等を備えて構成されている。
Further, inside the microcomputer 11A, the CPU, ROM, RAM, and EE are stored as in the first embodiment.
In addition to the members such as the PROM 11e, it further includes a pattern determination unit 11Af for analyzing an image pattern of a subject image formed on the light receiving surfaces of the pair of light receiving elements 12Aa of the AF area sensor 12A.

【0231】このように構成された本実施形態において
は、被写体100からの光束は、次のように処理される
ことになる。即ち、一対の受光レンズ14Aaを透過し
て入射する被写体光束は、まず一対のAFのエリアセン
サ12Aの受光面、即ち受光素子群12Aaへと入射す
る。すると受光素子群12Aaは、所定の信号処理を行
なうことにより自身の受光面に結像されている光学的な
被写体像を、電気的な画像信号となるように所定の信号
処理、即ち光電変換処理等を行なって、これをA/Dコ
ンバータ12Afへと出力する。そして、A/Dコンバ
ータ12Afにおいてデジタル信号に変換された画像信
号は、マイコン11Aへと伝送される。
In the present embodiment configured as described above, the luminous flux from the subject 100 is processed as follows. That is, the subject luminous flux transmitted through the pair of light receiving lenses 14Aa first enters the light receiving surfaces of the pair of AF area sensors 12A, that is, the light receiving element group 12Aa. Then, the light receiving element group 12Aa performs predetermined signal processing so that the optical subject image formed on its own light receiving surface is subjected to predetermined signal processing, that is, photoelectric conversion processing so as to become an electrical image signal. And outputs it to the A / D converter 12Af. Then, the image signal converted into a digital signal by the A / D converter 12Af is transmitted to the microcomputer 11A.

【0232】このときマイコン11Aは、必要に応じて
定常光除去手段12Acを制御して、これを作動させる
と共に、ストロボ発光手段20Aを介してストロボ発光
部20Aaを制御して所定の照明光を被写体に向けて照
射させるようにする場合がある。例えば撮影シーンが夜
景シーンである場合等には、プリ発光動作を伴うAF処
理がなされる。このような場合には、同ストロボ発光部
20Aaからの照明光束の被写体による反射光が測距光
学系14を介してAFエリアセンサ12へと入射し、A
Fエリアセンサ12Aの受光面上に結像する被写体像の
うち図40の示す符号101の領域(図40の斜線で示
す部分)の出力信号、即ち定常光除去手段12Acの作
用によって定常的に入射する直流的な光の信号が除去さ
れて、ストロボ発光部20Aaのパルス光のみに基づく
出力信号がAFエリアセンサ12Aから出力される。
At this time, the microcomputer 11A controls the steady light removing means 12Ac as necessary to operate it, and controls the strobe light emitting section 20Aa via the strobe light emitting means 20A to emit predetermined illumination light to the object. In some cases. For example, when the shooting scene is a night scene, the AF process involving the pre-emission operation is performed. In such a case, the reflected light of the illumination light flux from the strobe light emitting unit 20Aa by the subject enters the AF area sensor 12 via the distance measuring optical system 14, and A
In the subject image formed on the light receiving surface of the F area sensor 12A, an output signal of an area indicated by reference numeral 101 in FIG. 40 (a portion indicated by oblique lines in FIG. 40), that is, a steady incidence by the action of the steady light removing means 12Ac. Then, an output signal based on only the pulse light of the strobe light emitting unit 20Aa is output from the AF area sensor 12A.

【0233】図40は、定常光除去手段及びストロボ発
光手段を作用させたときのAFエリアセンサからの出力
信号に対応する像の領域を示す図である。
FIG. 40 is a diagram showing an image area corresponding to an output signal from the AF area sensor when the steady light removing means and the strobe light emitting means are operated.

【0234】そして、この出力信号を受けてマイコン1
1Aは、自己の内部に有するパターン判別手段11Af
によってAFエリアセンサ12Aの受光面上に結像され
ている像のパターン分析を行なう。その分析結果によっ
て、例えば人間の形状であるとの判定がなされた場合に
は、これを主要被写体であると推定するのである。
The microcomputer 1 receives the output signal and receives the output signal.
1A is a pattern discriminating means 11Af included in the self.
Performs a pattern analysis of the image formed on the light receiving surface of the AF area sensor 12A. If it is determined, for example, that the object is a human figure based on the analysis result, it is estimated that the object is the main subject.

【0235】図41は、本実施形態の測距装置を備えた
カメラにおいて、AF処理のシーケンスを示すフローチ
ャートである。なお、このAF処理は、上述の第1の実
施形態におけるメインルーチンのうちのAF処理、即ち
図6のステップS3に相当する処理である。
FIG. 41 is a flowchart showing the sequence of the AF processing in the camera provided with the distance measuring apparatus of the present embodiment. This AF process is an AF process in the main routine in the above-described first embodiment, that is, a process corresponding to step S3 in FIG.

【0236】まず、AF処理に移行するとステップS1
31において、マイコン11Aは、ストロボ発光手段2
0Aを介してストロボ発光部20Aaを制御すると共
に、AFエリアセンサ12Aを制御してプリ発光動作を
伴う積分演算処理を行なう。このとき同時に定常光除去
手段12Acを作用させる。
First, when the flow shifts to the AF processing, step S1 is executed.
At 31, the microcomputer 11A operates
In addition to controlling the strobe light emitting unit 20Aa via 0A, the flash unit 20A controls the AF area sensor 12A to perform integral calculation processing involving a pre-flash operation. At this time, the stationary light removing means 12Ac is operated at the same time.

【0237】これにより、次のステップS132におい
て、AFエリアセンサ12Aからは、図40で示す像1
01の領域における信号、即ちストロボ発光部20Aa
の照明光による反射光束によるパターン信号(以下、反
射信号光という)のみがセンサデータとして抽出され、
同データは、マイコン11Aに出力される。
Thus, in the next step S132, the AF area sensor 12A outputs the image 1 shown in FIG.
01, that is, the strobe light emitting section 20Aa
Only the pattern signal (hereinafter, referred to as reflected signal light) due to the reflected light beam of the illumination light is extracted as the sensor data,
The data is output to the microcomputer 11A.

【0238】続いてステップS133において、マイコ
ン11Aは、上述のステップS131で抽出されたセン
サデータを受けてパターン判別手段11Afにより反射
信号光による信号の形状を判別する。ここで、同反射信
号光のパターンが所定の人物等の主要被写体であると判
定された場合には、主要被写体の撮影画面内に対応する
測距エリア内における位置を検出した後、次のステップ
S134の処理に進む。ここで行われる被写体位置の検
出は、反射信号光のパターンを形成する画像信号の強度
が所定のレベルにあるか否かによって、又は所定のコン
トラストを有しているか否かの判別を行なうことにより
なされる。
Subsequently, in step S133, the microcomputer 11A receives the sensor data extracted in step S131, and determines the shape of the signal based on the reflected signal light by the pattern determining means 11Af. Here, when the pattern of the reflected signal light is determined to be a main subject such as a predetermined person, after detecting the position of the main subject in the ranging area corresponding to the shooting screen, the next step is performed. The process proceeds to S134. The detection of the subject position performed here is performed by determining whether the intensity of the image signal forming the pattern of the reflected signal light is at a predetermined level or by determining whether the image signal has a predetermined contrast. Done.

【0239】ステップS134において、実行すべきA
F処理をアクティブ方式によるか又はパッシブタイプ方
式によるかの選択を行なう。つまり、上述のステップS
133において、像信号のコントラストが所定のレベル
に到達していないものと判定された場合には、アクティ
ブ方式によるAF処理を実行するために、次のステップ
S137の処理に進む。
In step S134, A to be executed
A selection is made as to whether the F processing is of the active type or of the passive type. That is, the above-described step S
If it is determined in 133 that the contrast of the image signal has not reached the predetermined level, the process proceeds to the next step S137 to execute the AF process by the active method.

【0240】ステップS137においては、再度ストロ
ボ発光部20Aaによる照明光の照射を伴い、かつ定常
光除去手段12Acを作用させた積分演算処理を実行
し、ステップS138において、アクティブ方式のAF
処理を実行する。なお、この場合においては、前回の積
分演算処理において抽出されたセンサデータに基づく像
の領域、即ち図40に示す像101の領域を測距点とし
て、この測距点に対して重点的に所定の演算処理を行な
う。
In step S137, the illumination operation is performed again by the strobe light emitting section 20Aa, and the integral operation is performed with the stationary light removing means 12Ac acting. In step S138, the active AF is performed.
Execute the process. In this case, the area of the image based on the sensor data extracted in the previous integration calculation process, that is, the area of the image 101 shown in FIG. Is performed.

【0241】次いでステップS139において、マイコ
ン11Aは、音声信号発生手段25を制御してアクティ
ブ方式のAF処理を行なった旨を表わす第1の音声パタ
ーンによる音声情報を出力する。そして、一連のシーケ
ンスを終了する(リターン)。
Next, in step S139, the microcomputer 11A controls the audio signal generating means 25 to output audio information in a first audio pattern indicating that active AF processing has been performed. Then, a series of sequences ends (return).

【0242】一方、上述のステップS133において、
反射信号光の強度が所定のレベルに到達していない(弱
い)ものと判定されて、ステップS134に進み、ここ
でパッシブ方式によるAF処理を実行すべきことが選択
されて、次のステップS135の処理に進む。
On the other hand, in the above-mentioned step S133,
It is determined that the intensity of the reflected signal light has not reached the predetermined level (weak), and the process proceeds to step S134, where it is selected to execute the AF process by the passive method, and the process proceeds to step S135. Proceed to processing.

【0243】ステップS135において、パッシブ方式
のAF処理を実行する。この場合においても、前回の積
分演算処理で抽出されたセンサデータに基づく像の領域
(図40の像101の領域)を測距点として、この測距
点に対して重点的に所定の演算処理を行なう。
At step S135, a passive AF process is executed. Also in this case, the area of the image (the area of the image 101 in FIG. 40) based on the sensor data extracted in the previous integration calculation processing is set as the distance measurement point, and the predetermined calculation processing is focused on this distance measurement point. Perform

【0244】次いでステップS136において、マイコ
ン11Aは、音声信号発生手段25を制御してパッシブ
方式のAF処理を行なった旨を表わす第2音声パターン
による音声情報を出力する。そして、一連のシーケンス
を終了する(リターン)。
Next, in step S136, the microcomputer 11A controls the audio signal generating means 25 to output audio information in the second audio pattern indicating that the passive AF process has been performed. Then, a series of sequences ends (return).

【0245】他方、上述のステップS133において、
上述のステップS132の処理で抽出された反射信号光
のパターンが所定の人物等のパターン形状と一致せず、
主要被写体ではないと判定された場合には、ステップS
140の処理に進む。
On the other hand, in the above-mentioned step S133,
The pattern of the reflected signal light extracted in the process of step S132 does not match the pattern shape of a predetermined person or the like,
If it is determined that the subject is not the main subject, step S
Proceed to 140.

【0246】ステップS140においては、マイコン1
1Aは、輝度情報等を加味して、アクティブ方式又はパ
ッシブ方式のいずれかの測距手段によってAF処理を実
行する。この場合においては、撮影画面内において被写
体が最も多く配置される可能性の高い画面中央部近傍を
測距点として、この測距点に対して重点的に所定の演算
処理を行なう。
At step S140, the microcomputer 1
1A executes AF processing by either active method or passive method distance measuring means in consideration of luminance information and the like. In this case, a predetermined calculation process is performed with emphasis on the distance measurement point, with the vicinity of the center of the screen where the object is most likely to be arranged in the shooting screen as the distance measurement point.

【0247】次いでステップS141において、マイコ
ン11Aは、音声信号発生手段25を制御して通常のA
F処理(アクティブ方式又はパッシブ方式のいずれか一
方による通常のハイブリッド方式のAF処理)を行なっ
た旨を表わす第3音声パターンによる音声情報を出力す
る。そして、一連のシーケンスを終了する(リター
ン)。
Next, in step S141, the microcomputer 11A controls the audio signal generating means 25 to
The audio information is output in the third audio pattern indicating that the F processing (the normal hybrid AF processing using either the active method or the passive method) has been performed. Then, a series of sequences ends (return).

【0248】このように上記第2の実施形態によれば、
アクティブ方式のAF処理とパッシブ方式のAF処理と
を単にハイブリッド的に組み合わせて、撮影シーンの情
況に応じて測距動作を行なうのみではなく、さらに夜景
シーン等のストロボプリ発光動作を伴うAF処理がなさ
れたときには、撮影画面内における主要となる被写体像
を検出するようにしているので、より確実なAF処理を
実行することができる。
As described above, according to the second embodiment,
The AF processing of the active method and the passive method are simply combined in a hybrid manner to perform not only the distance measurement operation according to the situation of the shooting scene, but also the AF processing accompanied by the flash pre-flash operation such as a night scene scene. When this is done, the main subject image in the shooting screen is detected, so that more reliable AF processing can be executed.

【0249】また、各AF処理を実行した後には、処理
に応じた音声信号発生手段25による音声情報を発生さ
せるようにしているので、カメラの使用者の操作性を向
上させるのに寄与することができる。
Also, after each AF process is executed, audio information is generated by the audio signal generating means 25 according to the process, which contributes to improving the operability of the camera user. Can be.

【0250】ところで、近年においては、従来のフイル
ムを用いて写真撮影を行なうカメラ等とは別に、光学的
な被写体像をCCD等の撮像素子等によって光電変換す
ることで生成した電気的な画像信号を所定の形態、例え
ばデジタルデータ等として所定の記録媒体に記録し得る
ようにしたいわゆる電子的撮像装置(以下、電子カメラ
という)等が広く普及している。
In recent years, an electric image signal generated by subjecting an optical subject image to photoelectric conversion by an image pickup device such as a CCD separately from a camera or the like for taking a photograph using a conventional film. A so-called electronic imaging device (hereinafter, referred to as an electronic camera), which is capable of recording on a predetermined recording medium as digital data or the like in a predetermined form, is widely used.

【0251】このような従来の電子カメラ等を用いて夜
景シーンを撮影した場合に得られる画像には、例えば高
輝度部分にいわゆる色飛び現象が発生したり、S/N比
の劣化等に起因して撮影された画像全体に不自然さが見
られる傾向がある。
An image obtained when a night view scene is photographed by using such a conventional electronic camera or the like is caused by, for example, a so-called color skipping phenomenon in a high luminance portion or deterioration of the S / N ratio. There is a tendency for unnaturalness to be seen in the entire image taken by the camera.

【0252】また、逆光シーンにおける撮影の結果得ら
れる画像では、背景となる高輝度部分の影響を受けて人
物等の主要被写体の低輝度部分がいわゆる黒く潰れてし
まうという現象が見られることがある。
Further, in an image obtained as a result of shooting in a backlight scene, a phenomenon may be seen in which a low-luminance portion of a main subject such as a person is so-called blackened by the influence of a high-luminance portion serving as a background. .

【0253】そこで、これらの問題点を解消するために
本発明の測距装置を適用することが考えられる。次に説
明する第3の実施形態は、本発明を電子カメラ等に応用
した場合の例である。
In order to solve these problems, it is conceivable to apply the distance measuring apparatus of the present invention. A third embodiment described below is an example in which the present invention is applied to an electronic camera or the like.

【0254】図42は、本発明の第3の実施形態の測距
装置を備えた電子カメラの構成を示す要部ブロック構成
図である。
FIG. 42 is a main block diagram showing the configuration of an electronic camera provided with the distance measuring apparatus according to the third embodiment of the present invention.

【0255】本電子カメラ50は、被写体光束Oを透過
させて被写体像を所定の位置に結像させる複数のレンズ
等からなる撮影光学系51と、この撮影光学系51によ
り形成される光学的な被写体像を電気信号に変換するC
CD等の光電変換素子である撮像素子53と、撮影光学
系51と撮像素子53との間に設けられ撮影光学系51
を透過する被写体光束Oの撮像素子53への入射光量を
規制する絞り部52と、撮像素子53の出力信号を受け
て相関2重サンプリング等を行なって所定のリセットノ
イズ等を除去するCDS部54及びサンプルホールド回
路(以下、S/H部という)55と、このCDS部54
及びS/H部55を経て出力される出力信号(アナログ
信号)をデジタル信号に変換するA/Dコンバータ56
と、このA/D回路56からのデジタル信号を受けて各
種の画像処理等を施すプロセス処理部57と、プロセス
処理部57からの出力信号(画像信号)を受けてこれを
一時的に記憶しておくDRAM等からなる一時メモリ6
3と、この一時メモリ63に記憶される画像信号と同等
の信号を記録媒体65に記録するのに最適な形態となる
ように圧縮処理等を施してデータ化する一方、記録媒体
65に所定の形態で記録されている圧縮データを読み出
して、これを所定の形態の信号となるように伸長処理を
施し一時メモリ63へと記憶させる圧縮伸長部64と、
所定の形態の画像データを記録する磁気記録媒体又は半
導体メモリ等の記録媒体65と、プロセス処理部57に
おいて処理済の信号を受けて被写体輝度等を測定し、撮
影シーンに適切な露光量に応じた絞り設定値等を設定す
る測光部61と、この測光部61により設定される所定
値等を受けて絞り部52を駆動制御する絞り制御部62
等によって構成されている。
The electronic camera 50 has a photographic optical system 51 composed of a plurality of lenses and the like for transmitting a subject light beam O to form a subject image at a predetermined position, and an optical system formed by the photographic optical system 51. C to convert subject image into electrical signal
An imaging element 53 which is a photoelectric conversion element such as a CD, and an imaging optical system 51 provided between the imaging optical system 51 and the imaging element 53;
Aperture section 52 that regulates the amount of light of subject light flux O passing through the imaging element 53 and a CDS section 54 that receives an output signal of the imaging element 53 and performs correlated double sampling or the like to remove a predetermined reset noise or the like. And a sample-and-hold circuit (hereinafter, referred to as an S / H unit) 55, and the CDS unit 54
And an A / D converter 56 for converting an output signal (analog signal) output via the S / H unit 55 into a digital signal
And a process processing unit 57 that receives the digital signal from the A / D circuit 56 and performs various image processing and the like, and receives an output signal (image signal) from the process processing unit 57 and temporarily stores it. Temporary memory 6 such as DRAM
3 and a signal equivalent to the image signal stored in the temporary memory 63 is subjected to a compression process or the like so as to be in an optimal form for recording on the recording medium 65, and is converted into data. A compression / decompression unit 64 which reads out the compressed data recorded in the form, performs a decompression process on the compressed data so as to become a signal of a predetermined form, and stores it in the temporary memory 63;
A recording medium 65 such as a magnetic recording medium or a semiconductor memory for recording image data of a predetermined form and a signal processed by the process processing unit 57 are used to measure subject brightness and the like, and to adjust an exposure amount suitable for a shooting scene. Metering section 61 for setting the aperture setting value and the like, and an aperture control section 62 for controlling the driving of the aperture section 52 in response to a predetermined value and the like set by the metering section 61.
And so on.

【0256】そして、プロセス処理部57は、例えばオ
ートゲインコントロール等の処理を行なうAGC・γ補
正部58と、撮影シーンが夜景シーンであるか否かを判
定する夜景シーン判定部59と、撮影シーンが逆光シー
ンであるか否かを判定する逆光シーン判定部60等の各
種の回路等によって構成されている。
The process processing section 57 includes an AGC / γ correction section 58 for performing processing such as automatic gain control, a night scene scene determination section 59 for determining whether or not the shooting scene is a night scene scene, and a shooting scene scene. Is constituted by various circuits such as a backlight scene determination unit 60 that determines whether or not the scene is a backlight scene.

【0257】このように構成された本電子カメラ50の
作用を、以下に説明する。撮影光学系51を透過した被
写体光束Oは、絞り部52において所定の入射量に規制
された後、撮像素子53へと入射し、その受光面上に被
写体像を結像させる。撮像素子53では、入射した被写
体光束を受けてこれを光電変換処理し、同光束により形
成される被写体像に応じた画像信号を生成する。この撮
像素子53によって生成された画像信号は、CDS部5
4及びS/H部55において所定の信号処理が施された
後、A/D回路56へと出力され、ここでデジタル信号
化される。
The operation of the electronic camera 50 thus configured will be described below. The subject light beam O transmitted through the photographing optical system 51 is regulated to a predetermined incident amount by the diaphragm unit 52, then enters the image sensor 53, and forms a subject image on the light receiving surface thereof. The imaging device 53 receives the incident subject light beam, performs photoelectric conversion on the received subject light beam, and generates an image signal corresponding to the subject image formed by the light beam. The image signal generated by the image sensor 53 is transmitted to the CDS unit 5.
After predetermined signal processing is performed in the S / H unit 4 and the S / H unit 55, the signal is output to an A / D circuit 56, where it is converted into a digital signal.

【0258】こうしてデジタル信号に変換された画像信
号は、プロセス処理部57へと出力され、AGC・γ補
正部58によってゲインコントロール処理やγ変換処理
等の画像処理が施される。また、夜景シーン判定部59
及び逆光シーン判定部60においては、撮影シーンが夜
景シーン又は逆光シーンであるか否かの判定処理がなさ
れる(詳細については後述する)。
The image signal thus converted into a digital signal is output to the process processing section 57, and subjected to image processing such as gain control processing and γ conversion processing by the AGC / γ correction section 58. In addition, the night scene determination section 59
The backlight scene determination unit 60 performs a determination process as to whether the shooting scene is a night scene or a backlight scene (details will be described later).

【0259】次いで、測光部61においては、プロセス
処理部57の出力に基づいて所定の測光演算処理が実行
されて、撮影シーンに最適な絞り部52の設定値や撮像
素子53の電子シャッタ速度値等を算出する。そして、
この測光部61による演算結果に基づいて絞り制御部6
2によって絞り部52の駆動制御を行なう。
Next, in the photometric unit 61, a predetermined photometric calculation process is executed based on the output of the process processing unit 57, and the optimal setting value of the aperture unit 52 and the electronic shutter speed value of the image sensor 53 are selected for the photographic scene. Is calculated. And
The aperture control unit 6 based on the calculation result by the photometric unit 61
2, the drive control of the aperture section 52 is performed.

【0260】一方、プロセス処理部57によって処理済
みの画像信号は、一時メモリ63へも出力されて、ここ
に一時的に記憶された後、圧縮伸長部64へと出力さ
れ、ここで所定の圧縮処理等が施されることによって、
記録するのに最適な形態の画像データが生成される。そ
して、この画像データは、記録媒体65へと出力され
て、ここに記録される。
On the other hand, the image signal processed by the process processing section 57 is also output to a temporary memory 63, temporarily stored therein, and then output to a compression / decompression section 64, where a predetermined compression is performed. By being processed,
Image data in a form optimal for recording is generated. Then, the image data is output to the recording medium 65 and recorded therein.

【0261】図43は、本電子カメラ50において実行
される[夜景判定処理]のシーケンスを示すフローチャ
ートである。本実施形態の測距装置を備えた電子カメラ
50においては、プロセス処理部57の夜景シーン判定
部59において、撮像素子53により生成された画像信
号に基づいて、次に示すような[夜景判定処理]が実行
される。
FIG. 43 is a flow chart showing the sequence of the "night scene determination process" executed in the electronic camera 50. In the electronic camera 50 provided with the distance measuring device of the present embodiment, the night scene determination section 59 of the process processing section 57 performs the following [night scene determination processing based on the image signal generated by the image sensor 53. Is executed.

【0262】図43に示すように、まずステップS15
1において、撮像素子53による所定の積分処理が実行
され、次のステップS152において、撮像素子53に
より生成された画像信号の読み出し処理が実行される。
この読み出し処理は、CDS部54・S/H部55・A
/D回路56等においてそれぞれ実行される各種の信号
処理を含むものである。
As shown in FIG. 43, first, in step S15
In 1, a predetermined integration process is performed by the imaging device 53, and in the next step S <b> 152, a reading process of the image signal generated by the imaging device 53 is performed.
This read processing is performed by the CDS unit 54, S / H unit 55, and A
This includes various signal processings executed in the / D circuit 56 and the like.

【0263】次いで、ステップS153において、プロ
セス処理部57の夜景シーン判定部59は撮影シーンの
輝度を測定する。この場合において、夜景シーン判定部
59は、図44に示すように撮像素子53の受光面を複
数の領域に分割した状態を想定し、各分割エリア53a
について、それぞれの輝度値を算出し、撮影シーン全体
の平均輝度値を算出する処理を行なう。
Next, in step S153, the night scene determining section 59 of the processing section 57 measures the luminance of the photographed scene. In this case, the night scene determination section 59 assumes that the light receiving surface of the image sensor 53 is divided into a plurality of regions as shown in FIG.
, A process of calculating respective brightness values and calculating an average brightness value of the entire shooting scene is performed.

【0264】続いて、ステップS154において、上述
のステップS153において算出された平均輝度値と所
定の輝度値を表わすスレッシュ値Bthとを比較する。
ここで、平均輝度値<Bthの関係が成立する場合に
は、ステップS155の処理に進み、このステップS1
55において、分割エリアコントラスト値と所定のスレ
ッシュ値Cthとの比較を行なう。ここで、分割エリア
コントラスト値>Cthの関係が成立する場合には、夜
景シーンであると判定されて、次のステップS155の
処理に進む。
Subsequently, in step S154, the average luminance value calculated in step S153 is compared with a threshold value Bth representing a predetermined luminance value.
Here, if the relationship of average luminance value <Bth holds, the process proceeds to step S155, and the process proceeds to step S1.
At 55, a comparison is made between the divided area contrast value and a predetermined threshold value Cth. Here, when the relationship of the divided area contrast value> Cth holds, it is determined that the scene is a night scene, and the process proceeds to the next step S155.

【0265】ここで、分割エリアコントラスト値とは、
各分割エリア毎にその分割エリアとその周辺の分割エリ
アとの輝度値の差を求め、こうして算出された各分割エ
リアに対応する輝度値の差の絶対値の和を算出した値で
ある。
Here, the division area contrast value is
This is a value obtained by calculating a difference between the luminance values of the divided area and the peripheral divided areas for each divided area, and calculating the sum of the absolute values of the luminance values corresponding to the divided areas thus calculated.

【0266】なお、上述のステップS154において、
平均輝度値<Bthの関係が成立しない場合と、上述の
ステップS155において、分割エリアコントラスト値
>Cthの関係が成立しない場合には、いずれの場合も
通常の撮影シーン(ノーマルシーン)であるものと判定
されて、この一連のシーケンスを終了する(リター
ン)。
[0266] In the above step S154,
In the case where the relationship of the average luminance value <Bth is not established, and in the case where the relationship of the divided area contrast value> Cth is not established in the above-described step S155, it is determined that the normal shooting scene (normal scene) is used in any case. After the determination, the series of sequences is terminated (return).

【0267】上述のようにして夜景シーンであることが
判定された場合には、ステップS156において、AG
C・γ補正部58のゲインを低下させるように設定を制
御した後、一連のシーケンスを終了する(リターン)。
If it is determined that the scene is a night view scene as described above, at step S156, AG
After controlling the setting so as to decrease the gain of the C / γ correction unit 58, a series of sequences is terminated (return).

【0268】つまり、夜景シーンのように、全体的に低
輝度状態の撮影シーンでは、AGC・γ補正部58によ
り設定されるゲインレベルは、非常に高く設定されるこ
とになる。したがって、この場合には、低輝度部分、即
ち画像の夜景としての暗い部分のノイズ(画像劣化)が
目立ってしまうことになる。
That is, in a photographing scene in a low luminance state as a whole, such as a night scene, the gain level set by the AGC / γ correction unit 58 is set to be very high. Therefore, in this case, noise (image deterioration) in a low-luminance portion, that is, a dark portion as a night view of the image becomes conspicuous.

【0269】そこで、上述したように本実施形態におい
ては、撮影シーンが夜景シーンであるか否かを判定する
処理を設け、これにより夜景シーンであることが判別さ
れた場合には、AGC・γ補正部58のゲインレベルを
低下させるように制御したことによって、不要なノイズ
の発生を抑えることができるのである。
Therefore, as described above, in the present embodiment, a process for determining whether or not the shooting scene is a night scene is provided. If it is determined that the scene is a night scene, AGC · γ By performing control to lower the gain level of the correction unit 58, generation of unnecessary noise can be suppressed.

【0270】なお、上述の第3の実施形態における[夜
景判定処理]では、図43のステップS156に示すよ
うに、AGC・γ補正部58のゲインレベルを低下させ
るように制御することで、低輝度部分の画像劣化を防止
するようにしているが、これとは別に、次に示すような
手段も考えられる。
In the [night scene determination process] in the third embodiment described above, as shown in step S156 in FIG. 43, by controlling the AGC / γ correction unit 58 to lower the gain level, Although the image deterioration in the luminance portion is prevented, the following means may be separately provided.

【0271】即ち、図43のステップS155において
夜景シーンであると判定されたときには、AGC・γ補
正部58における高輝度部分に対する圧縮特性を、ノー
マルシーンの場合における処理と夜景シーンの場合にお
ける処理とで異なるように制御することで画像信号に基
づいて表示されるべき画像の発色の改善を行なうように
する。
That is, when it is determined in step S155 of FIG. 43 that the scene is a night scene, the compression characteristics of the high-luminance portion in the AGC / γ correction unit 58 are determined by comparing the processing in the case of the normal scene with the processing in the case of the night scene. To improve the color development of the image to be displayed based on the image signal.

【0272】図45は、AGC・γ補正部58により実
行される信号処理の結果、入力輝度信号に対する出力輝
度信号の関係を示す図である。この図45に示すよう
に、ノーマルシーンの場合には、入力輝度信号に対する
出力輝度信号は、ほぼ比例関係を保持して出力されるよ
うにしている一方、夜景シーンの場合には、高輝度部分
において、入力輝度信号に対して出力輝度信号を抑えて
出力する高輝度圧縮処理を行うようにしている。
FIG. 45 is a diagram showing the relationship between the output luminance signal and the input luminance signal as a result of the signal processing executed by the AGC / γ correction section 58. As shown in FIG. 45, in the case of a normal scene, the output luminance signal with respect to the input luminance signal is output while maintaining a substantially proportional relationship, whereas in the case of a night scene, a high luminance portion is output. , A high-luminance compression process for suppressing an output luminance signal and outputting the input luminance signal is performed.

【0273】このようにすれば、撮影シーン全体のラチ
チュードを改善することができるので、高輝度部分に発
生するいわゆる白飛び現象等による画像劣化を防止する
と共に発色性を改善することができるのである。
By doing so, the latitude of the entire photographic scene can be improved, so that it is possible to prevent image deterioration due to the so-called overexposure phenomenon occurring in a high-luminance portion and to improve the color developability. .

【0274】次に、本実施形態における[逆光判定処
理]について、以下に説明する。図46は、本実施形態
において実行される[逆光判定処理]のシーケンスを示
すフローチャートである。本実施形態の測距装置を備え
た電子カメラ50においては、プロセス処理部57の逆
光シーン判定部60において、撮像素子53により生成
された画像信号に基づいて、次に示すような[逆光判定
処理]が実行される。
Next, the [backlight determination processing] in the present embodiment will be described below. FIG. 46 is a flowchart illustrating a sequence of the “backlight determination process” executed in the present embodiment. In the electronic camera 50 including the distance measuring device of the present embodiment, the backlight scene determination unit 60 of the process processing unit 57 performs the following [backlight determination process] based on the image signal generated by the image sensor 53. Is executed.

【0275】図46に示すように、まずステップS16
1において、撮像素子53による所定の積分処理が実行
され、次のステップS162において、生成された画像
信号の読み出し処理が実行される。
As shown in FIG. 46, first, in step S16
In 1, a predetermined integration process is performed by the image sensor 53, and in the next step S <b> 162, a process of reading out the generated image signal is performed.

【0276】次いで、ステップS163において、プロ
セス処理部57の逆光シーン判定部60は撮影シーンの
輝度を測定する。なお、上述のステップS151〜ステ
ップS163の処理は、上述の[夜景判定処理]におけ
るステップS151〜ステップS153の処理と略同様
である(図43参照)。
Next, in step S163, the backlight scene determination section 60 of the process processing section 57 measures the luminance of the photographed scene. The processing in steps S151 to S163 is substantially the same as the processing in steps S151 to S153 in the above-mentioned [night scene determination processing] (see FIG. 43).

【0277】続いて、ステップS164において、上述
のステップS163で算出された平均輝度値と所定の輝
度値を表わすスレッシュ値Bgthとを比較する。ここ
で、平均輝度値>Bgthの関係が成立する場合には、
ステップS165の処理に進み、このステップS165
において、各分割エリアにおける輝度値を図47に示さ
れるようなヒストグラム化する処理を行なう。
Subsequently, in step S164, the average luminance value calculated in step S163 is compared with a threshold value Bgth representing a predetermined luminance value. Here, when the relationship of average luminance value> Bgth holds,
Proceeding to the process of step S165, this step S165
, A process of converting the luminance value in each divided area into a histogram as shown in FIG. 47 is performed.

【0278】図47は、上述のステップS165におい
て作成される輝度ヒストグラムを示している。このとき
の撮影シーンとしては、上述の第1の実施形態における
図17の輝度ヒストグラムと同様に図15に示す逆光シ
ーンに基づくものである。
FIG. 47 shows a luminance histogram created in step S165 described above. The shooting scene at this time is based on the backlight scene shown in FIG. 15 similarly to the brightness histogram of FIG. 17 in the first embodiment described above.

【0279】次いで、ステップS166において、図4
7の輝度ヒストグラムに基づいて所定のスレッシュ値B
vqを用いることでセンサデータの二値化処理を行な
う。即ち図47に示すように、中輝度部分のピーク値と
高輝度部分のピーク値との間の中間輝度部分において、
画素数(ブロック数=分割エリアの一領域)が最も少な
い輝度値に相当する値をスレッシュ値Bvqとして設定
し、これに基づいてセンサデータ(輝度データ)の二値
化処理を行なう。ここで、二値化処理とは、スレッシュ
値Bvqよりも輝度値が高くなる(明るい)センサデー
タを「1」とし、輝度値が低い(暗い)センサデータを
「0」とする処理である。
Next, in step S166, FIG.
7 based on the luminance histogram of
By using vq, binarization processing of sensor data is performed. That is, as shown in FIG. 47, in the intermediate luminance portion between the peak value of the middle luminance portion and the peak value of the high luminance portion,
A value corresponding to the luminance value with the smallest number of pixels (the number of blocks = one area of the divided area) is set as the threshold value Bvq, and based on this, the binarization processing of the sensor data (luminance data) is performed. Here, the binarization process is a process in which sensor data having a brightness value higher (bright) than the threshold value Bvq is set to “1”, and sensor data having a lower brightness value (dark) is set to “0”.

【0280】続いてステップS167において、上述の
二値化処理によって得られたセンサデータのうち「0」
の画素分布が連続する領域の面積Snを算出し、次のス
テップS168において、連続領域の面積Snと所定の
判定値Snthとの比較を行なって、連続領域の面積S
nが所定の判定値Snthより大きいか否かの判定を行
なう。ここで、Sn>Snthの関係が成立する場合、
即ち連続領域の面積Snが所定値Snthより大きい場
合には、その撮影シーンは逆光シーンであると判定さ
れ、次のステップS169の処理に進む。
Subsequently, in step S167, “0” of the sensor data obtained by the above-described binarization processing is set.
Is calculated, and in the next step S168, the area Sn of the continuous area is compared with a predetermined determination value Snth to determine the area S of the continuous area.
It is determined whether or not n is greater than a predetermined determination value Snth. Here, when the relationship of Sn> Snth holds,
That is, if the area Sn of the continuous region is larger than the predetermined value Snth, it is determined that the shooting scene is a backlight scene, and the process proceeds to the next step S169.

【0281】例えば図15に示される逆光シーンの場合
には、二値化処理されたセンサデータ(画像信号)によ
って表わされる撮影画面の像は、図48に示されるよう
になる。図48は、二値化処理によるセンサデータによ
って表わされる分割エリア毎の輝度分布を示す図であ
る。この場合において、撮影画面全体の平均的な輝度
は、高輝度状態にあり、人物等の主要被写体に対応する
低輝度部分では、データ「0」が連続する領域の面積S
nと所定値Snthとの関係が、Sn>Snthとなる
と逆光シーンにあるものと判定されるわけである。
For example, in the case of the backlight scene shown in FIG. 15, the image of the photographing screen represented by the binarized sensor data (image signal) is as shown in FIG. FIG. 48 is a diagram showing a luminance distribution for each divided area represented by sensor data obtained by the binarization processing. In this case, the average brightness of the entire shooting screen is in a high brightness state, and in a low brightness portion corresponding to a main subject such as a person, the area S of a region where data “0” is continuous
If the relationship between n and the predetermined value Snth is Sn> Snth, it is determined that the scene is in a backlight scene.

【0282】そして、次のステップS169に進むと、
ここでは低輝度部分を重視した所定の測光処理が行なわ
れる。即ち図47に示す輝度ビストグラムにおいて、輝
度スレッシュ値Bvq以下となる部分のデータに基づく
測光演算処理が行なわれるのである。
Then, when the flow proceeds to the next step S169,
Here, a predetermined photometric process is performed with emphasis on a low luminance portion. That is, in the luminance bistogram shown in FIG. 47, a photometric calculation process is performed based on data of a portion that is equal to or less than the luminance threshold value Bvq.

【0283】一方、上述のステップS164において平
均輝度値>Bgthの関係が成立しなかった場合やステ
ップS168においてSn>Snthの関係が成立しな
い場合には、ステップS170において、通常の測光演
算処理、即ち撮影画面全体を対象として所定の平均測光
演算処理が行われた後、一連のシーケンスを終了する
(リターン)。
On the other hand, if the relationship of average luminance value> Bgth is not established in step S164 or if the relationship of Sn> Snth is not established in step S168, normal photometric calculation processing is performed in step S170. After a predetermined average photometry calculation process is performed on the entire photographing screen, a series of sequences ends (return).

【0284】このように撮影シーンが逆光シーンである
場合には、まず撮影シーンが逆光状態にあるか否かを検
出し、逆光シーンであると判定された場合には、人物等
の主要被写体が位置するべき領域の輝度、即ち二値化処
理した画像信号により略中央部に配置される像を重要視
した所定の測光処理がなされるのである。
As described above, when the shooting scene is a backlight scene, it is first detected whether or not the shooting scene is in a backlight state, and when it is determined that the shooting scene is a backlight scene, a main subject such as a person is detected. Predetermined photometric processing is performed on the basis of the luminance of the region to be located, that is, the image signal which has been subjected to the binarization processing, with emphasis on the image arranged substantially in the center.

【0285】以上説明したように、上記第3の実施形態
によれば、電子カメラにおいても上述の各実施形態と同
様の効果を得ることができ、よって良好な画質の画像を
表わす電子的な画像データを容易に取得することができ
る。
As described above, according to the third embodiment, the same effects as those of the above-described embodiments can be obtained in the electronic camera, and therefore, the electronic image representing a high quality image can be obtained. Data can be easily obtained.

【0286】[付記]上記発明の実施形態により、以下
のような構成の発明を得ることができる。
[Supplementary Note] According to the above-described embodiment, the invention having the following configuration can be obtained.

【0287】(1) 撮影画面内の輝度分布を検出する
像検出手段と、この像検出手段の出力のうち連続して所
定の範囲内の輝度値を出力する領域の分布に基づいて主
要被写体の位置を特定する手段と、を具備してなる多点
測距装置。
(1) Image detecting means for detecting the luminance distribution in the photographing screen, and the main subject based on the distribution of the area which continuously outputs a luminance value within a predetermined range among the outputs of the image detecting means. And a means for specifying a position.

【0288】(2) 付記1に記載の多点測距装置に
おいて、上記輝度分布は、カメラによる投光の反射光に
基づく輝度分布である。
(2) In the multipoint distance measuring apparatus according to Supplementary Note 1, the luminance distribution is a luminance distribution based on reflected light of light projected by a camera.

【0289】(3) 撮影画面内の輝度分布を検出する
像検出手段と、この像検出手段の出力のうち、平均輝度
情報と、連続して所定輝度値を出力する領域の面積並び
にその形状を判別した結果に基づいて主要被写体の位置
を特定する手段と、を具備してなる多点測距装置。
(3) Image detecting means for detecting the luminance distribution in the photographing screen, the average luminance information among the outputs of the image detecting means, the area of the area for continuously outputting a predetermined luminance value, and the shape of the area. Means for specifying the position of the main subject based on the result of the determination.

【0290】(4) 付記3に記載の多点測距装置にお
いて、上記輝度分布は、カメラによる投光の反射光に基
づく輝度分布である。
(4) In the multipoint distance measuring apparatus described in Appendix 3, the brightness distribution is a brightness distribution based on reflected light of light projected by a camera.

【0291】(5) 撮影画面内の輝度分布を検出する
像検出手段と、この像検出手段の出力のうち、平均輝度
情報と、連続して所定輝度値を出力する領域の面積及び
その形状を判別し、その判別結果に基づいて逆光シーン
を判定し、動作モードを設定するための手段と、を具備
してなる多点測距装置。
(5) Image detecting means for detecting the luminance distribution in the photographing screen, average luminance information among the outputs of the image detecting means, and the area and the shape of the area for continuously outputting a predetermined luminance value. Means for determining a backlight scene based on the determination result and setting an operation mode.

【0292】(6) 付記5に記載の多点測距装置にお
いて、上記輝度分布は、カメラによる投光の反射光に基
づく輝度分布である。
(6) In the multipoint distance measuring apparatus according to Supplementary Note 5, the luminance distribution is a luminance distribution based on reflected light of light projected by a camera.

【0293】(7) 撮影シーンを判定する判定手段
と、この判定結果に応じて主要被写体位置の検出方法を
切換える制御手段と、を具備してなる多点測距装置。
(7) A multi-point distance measuring apparatus comprising: a determination means for determining a shooting scene; and a control means for switching a method of detecting a main subject position according to the determination result.

【0294】[0294]

【発明の効果】以上述べたように本発明によれば、エリ
アセンサによって得られる画像信号に基づいて主要被写
体像の撮影画面内における位置を確実に判別すると共
に、所望の主要被写体像に対して確実に焦点検出処理を
行なって高精度な測距処理を実行することができる多点
測距装置を提供することことができる。
As described above, according to the present invention, the position of the main subject image in the photographing screen can be reliably determined based on the image signal obtained by the area sensor, and the desired main subject image can be determined with respect to the desired main subject image. It is possible to provide a multi-point distance measuring apparatus capable of performing a focus detection process reliably and executing a high-accuracy distance measurement process.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の測距装置を備えたカ
メラの構成を示す要部ブロック構成図。
FIG. 1 is a main block diagram showing the configuration of a camera provided with a distance measuring device according to a first embodiment of the present invention.

【図2】図1のカメラにおけるAFエリアセンサの構成
の主要部を示す要部ブロック構成図。
FIG. 2 is a main part block configuration diagram showing a main part of a configuration of an AF area sensor in the camera of FIG. 1;

【図3】図1のカメラにおける測距装置を構成する測距
光学系とAFエリアセンサの配置関係を概念的に示す斜
視図。
FIG. 3 is a perspective view conceptually showing an arrangement relationship between a distance measuring optical system and an AF area sensor constituting a distance measuring device in the camera of FIG.

【図4】図1のカメラにおける測距装置を構成する測距
光学系とAFエリアセンサの配置関係を概念的に示す配
置図。
FIG. 4 is an arrangement diagram conceptually showing an arrangement relationship between a distance measuring optical system and an AF area sensor constituting a distance measuring device in the camera of FIG. 1;

【図5】図1のカメラにおけるAFエリアセンサの検出
領域と、撮影光学系の焦点距離を変更したときの撮影画
面領域との関係を概念的に示す図。
5 is a diagram conceptually showing a relationship between a detection area of an AF area sensor in the camera of FIG. 1 and a shooting screen area when a focal length of a shooting optical system is changed.

【図6】図1のカメラの主要な動作の流れを示し、マイ
コンのメインルーチンを示すフローチャート。
6 is a flowchart showing a main operation flow of the camera in FIG. 1 and showing a main routine of the microcomputer.

【図7】図1のカメラのAF処理のサブルーチンを示す
フローチャート。
FIG. 7 is a flowchart showing a subroutine of AF processing of the camera in FIG. 1;

【図8】図1のカメラのAF処理がなされるときのタイ
ミングチャート。
FIG. 8 is a timing chart when AF processing of the camera in FIG. 1 is performed.

【図9】典型的な夜景シーンにおける撮影画面の例を示
す図。
FIG. 9 is a diagram showing an example of a shooting screen in a typical night view scene.

【図10】図9に示す撮影シーンにおいて、AFエリア
センサにより取得されるセンサデータを三次元的に示し
た図。
FIG. 10 is a diagram three-dimensionally showing sensor data acquired by an AF area sensor in the shooting scene shown in FIG. 9;

【図11】図9に示す撮影画面内の連続する高輝度部分
(符号H)と連続する低輝度部分(符号L)とのそれぞ
れの面積と、各部分の輝度との関係を示す分布図。
11 is a distribution diagram showing a relationship between each area of a continuous high-luminance part (reference numeral H) and a continuous low-luminance part (reference numeral L) in the photographing screen shown in FIG. 9 and luminance of each part.

【図12】図1のカメラにおける[夜景判定処理]のサ
ブルーチンを示すフローチャート。
FIG. 12 is a flowchart showing a subroutine of “night scene judgment processing” in the camera of FIG. 1;

【図13】図1のカメラの撮影画面領域のうちプリ発光
動作を行なったときのセンサデータとプリ発光動作を行
なわなかったときのセンサデータとに差が出る領域を示
す図。
FIG. 13 is a diagram showing an area of the photographing screen area of the camera of FIG. 1 in which a difference between sensor data obtained when the pre-emission operation is performed and sensor data obtained when the pre-emission operation is not performed;

【図14】図1のカメラにおける[夜景判定処理]の別
のサブルーチンを示すフローチャート。
FIG. 14 is a flowchart illustrating another subroutine of [night scene determination processing] in the camera of FIG. 1;

【図15】典型的な逆光シーンにおける撮影画面の例を
示す図。
FIG. 15 is a diagram showing an example of a shooting screen in a typical backlight scene.

【図16】図15に示す逆光シーンの場合にAFエリア
センサにより取得されるセンサーデータの分布を三次元
的に示した図。
FIG. 16 is a diagram showing a three-dimensional distribution of sensor data acquired by the AF area sensor in the case of the backlight scene shown in FIG. 15;

【図17】図15の逆光シーンの場合のセンサデータの
各画素の分布を示す輝度ヒストグラム。
FIG. 17 is a luminance histogram showing a distribution of each pixel of sensor data in the case of the backlight scene of FIG. 15;

【図18】図1のカメラにおける[逆光判定処理]のサ
ブルーチンを示すフローチャート。
FIG. 18 is a flowchart illustrating a subroutine of [backlight determination processing] in the camera of FIG. 1;

【図19】図15に示す撮影シーンにおいて、プリ発光
動作を伴う積分演算処理を行なったときのAFエリアセ
ンサにより取得されるセンサデータの分布を三次元的に
示した図。
FIG. 19 is a diagram three-dimensionally showing a distribution of sensor data obtained by the AF area sensor when performing an integration operation process involving a pre-emission operation in the shooting scene shown in FIG. 15;

【図20】通常積分時におけるセンサデータを規格化し
た規格化データの分布を三次元的に示す図。
FIG. 20 is a diagram showing a three-dimensional distribution of normalized data obtained by normalizing sensor data during normal integration.

【図21】プリ発光積分時におけるセンサデータを規格
化した規格化データの分布を三次元的に示す図。
FIG. 21 is a diagram three-dimensionally showing a distribution of normalized data obtained by normalizing sensor data at the time of pre-light emission integration.

【図22】図20及び図21の規格化データに基づいて
算出された差分データの分布を三次元的に示す図。
FIG. 22 is a diagram showing a three-dimensional distribution of difference data calculated based on the normalized data of FIGS. 20 and 21;

【図23】図1のカメラの撮影画面内において測距演算
処理を行なう対象となる測距エリアを示す図。
FIG. 23 is a view showing a distance measurement area to be subjected to distance measurement calculation processing in the photographing screen of the camera in FIG. 1;

【図24】本発明の第1の実施形態の第1変形例を示
し、AFエリアセンサの受光素子群の受光面の全領域を
所定の単位ブロックに分割する際の概念図であって、同
時にAFエリアセンサの全受光領域に対して撮影光学系
の焦点距離に応じた受光領域を示す図。
FIG. 24 is a conceptual diagram showing a first modification of the first embodiment of the present invention, in which the entire area of the light receiving surface of the light receiving element group of the AF area sensor is divided into predetermined unit blocks; FIG. 4 is a diagram showing light receiving areas according to the focal length of the imaging optical system with respect to all light receiving areas of the AF area sensor.

【図25】本発明の第1の実施形態の第2変形例を示
し、[逆光判定処理]を行なう際に主要被写体が人物で
ある場合の主要被写体像を判別する手段を説明する図。
FIG. 25 is a diagram illustrating a second modified example of the first embodiment of the present invention and illustrating a means for determining a main subject image when a main subject is a person when performing [backlight determination processing].

【図26】図25の第2変形例における[逆光判定処
理]のシーケンスを示すフローチャート。
FIG. 26 is a flowchart showing the sequence of “backlight determination processing” in a second modification of FIG. 25;

【図27】図25のカメラの撮影画面内において測距演
算処理を行なう対象となる測距エリアを示す図。
FIG. 27 is a diagram showing a distance measurement area to be subjected to distance measurement calculation processing in the photographing screen of the camera in FIG. 25;

【図28】主要となる被写体よりも近距離に非主要被写
体が存在する場合の撮影画面の構成例を示す図。
FIG. 28 is a diagram showing a configuration example of a shooting screen when a non-main subject is present at a shorter distance than a main subject.

【図29】本発明の第1の実施形態の第3変形例を示
し、撮影画面の位置と判定スレッシュ値の関係を示す
図。
FIG. 29 is a view showing a third modification of the first embodiment of the present invention, and showing the relationship between the position of a shooting screen and a judgment threshold value.

【図30】本発明の第1の実施形態の第4変形例におい
て、人物等を主要な被写体として写真撮影を行なったと
きの横位置撮影の場合の構図の例を示し、この場合の測
距エリアを合わせて示す図。
FIG. 30 shows an example of composition in the case of horizontal position photographing when a photograph is taken with a person or the like as a main subject in a fourth modification of the first embodiment of the present invention, and distance measurement in this case. FIG.

【図31】図30の第4変形例において、人物等を主要
な被写体として写真撮影を行なったときの縦位置撮影の
場合の構図の例を示し、この場合の測距エリアを合わせ
て示す図。
FIG. 31 is a diagram illustrating an example of a composition in the case of vertical shooting when a photograph is taken with a person or the like as a main subject in the fourth modified example of FIG. 30, and also illustrates a ranging area in this case. .

【図32】本発明の第1の実施形態の第4変形例におけ
る[逆光判定処理]のシーケンスを示すフローチャー
ト。
FIG. 32 is a flowchart showing a sequence of [backlight determination processing] in a fourth modification of the first embodiment of the present invention.

【図33】本発明の第1の実施形態の第5変形例を示
し、カメラ(図1)のAFエリアセンサにより取得され
る夜景シーン(図9)のセンサデータに基づくコントラ
スト分布を三次元的に示す図。
FIG. 33 shows a fifth modification of the first embodiment of the present invention, and shows a three-dimensional contrast distribution based on sensor data of a night scene (FIG. 9) acquired by an AF area sensor of a camera (FIG. 1). FIG.

【図34】本発明の第1の実施形態の第5変形例におい
て、撮影画面のコントラスト値に基づいて[夜景判定処
理]のシーケンスを示すフローチャート。
FIG. 34 is a flowchart illustrating a sequence of a “night scene determination process” based on a contrast value of a shooting screen in a fifth modification of the first embodiment of the present invention.

【図35】本発明の第1の実施形態の第6変形例を示
し、図9の撮影シーンに対してプリ発光動作を行なった
ときのAFエリアセンサの積分演算処理で得られるセン
サデータを三次元的に示す図。
FIG. 35 shows a sixth modification of the first embodiment of the present invention, in which the sensor data obtained by the integral calculation processing of the AF area sensor when performing the pre-emission operation on the shooting scene of FIG. FIG.

【図36】本発明の第1の実施形態の第6変形例を示
し、図9の撮影シーンに対してプリ発光を伴わない場合
のセンサデータとプリ発光を伴うセンサデータとの差の
ある部分のみを抽出したセンサデータを三次元的に示す
図。
FIG. 36 shows a sixth modification of the first embodiment of the present invention, in which there is a difference between sensor data without pre-emission and sensor data with pre-emission for the shooting scene of FIG. 9; The figure which shows the sensor data which extracted only three-dimensionally.

【図37】本発明の第1の実施形態の第7変形例を示
し、図9の撮影シーンにおける輝度と、これに対応する
画素数又はエリア数との関係を示す図。
FIG. 37 is a view showing a seventh modification of the first embodiment of the present invention, showing the relationship between the brightness in the shooting scene of FIG. 9 and the number of pixels or areas corresponding to the brightness.

【図38】本発明の第1の実施形態の第7変形例におけ
る[夜景判定処理]のシーケンスを示すフローチャー
ト。
FIG. 38 is a flowchart illustrating a sequence of a “night scene determination process” according to a seventh modification of the first embodiment of the present invention.

【図39】本発明の第2の実施形態の測距装置を備えた
カメラの主要構成部材を示す要部ブロック構成図。
FIG. 39 is a block diagram of a main part showing main components of a camera provided with a distance measuring apparatus according to a second embodiment of the present invention.

【図40】図39のカメラにおいて定常光除去手段及び
ストロボ発光手段を作用させたときのAFエリアセンサ
からの出力信号に対応する像の領域を示す図。
FIG. 40 is a diagram showing an image area corresponding to an output signal from an AF area sensor when a steady light removing unit and a strobe light emitting unit are operated in the camera of FIG. 39;

【図41】図39のカメラにおけるAF処理のシーケン
スを示すフローチャート。
FIG. 41 is a flowchart showing a sequence of an AF process in the camera shown in FIG. 39;

【図42】本発明の第3の実施形態の測距装置を備えた
電子カメラの構成を示す要部ブロック構成図。
FIG. 42 is a main block diagram showing the configuration of an electronic camera including a distance measuring device according to a third embodiment of the present invention.

【図43】図42のカメラにおける[夜景判定処理]の
シーケンスを示すフローチャート。
FIG. 43 is a flowchart showing the sequence of “night scene determination processing” in the camera of FIG. 42;

【図44】図42のカメラにおける撮像素子の受光面を
複数の領域に分割した状態の分割エリアを示す概念図。
FIG. 44 is a conceptual diagram showing a divided area in which the light receiving surface of the image sensor in the camera of FIG. 42 is divided into a plurality of regions.

【図45】図42のカメラにおいて、AGC・γ補正部
により実行される信号処理の結果、入力輝度信号に対す
る出力輝度信号の関係を示す図。
FIG. 45 is a diagram illustrating a relationship between an input luminance signal and an output luminance signal as a result of signal processing performed by the AGC / γ correction unit in the camera of FIG. 42;

【図46】図42のカメラにおける[逆光判定処理]の
シーケンスを示すフローチャート。
46 is a flowchart showing a sequence of [backlight determination processing] in the camera in FIG. 42.

【図47】図42のカメラにおいて、図15の撮影シー
ンに対応する撮影画面の輝度値を示すヒストグラム。
FIG. 47 is a histogram showing luminance values of a photographing screen corresponding to the photographing scene of FIG. 15 in the camera of FIG. 42;

【図48】図42のカメラにおいて、二値化処理による
センサデータによって表わされる分割エリア毎の輝度分
布を示す図。
FIG. 48 is a view showing a luminance distribution for each divided area represented by sensor data by binarization processing in the camera of FIG. 42;

【符号の説明】[Explanation of symbols]

1……カメラ 10……撮影光学系 10a……フォーカスレンズ 10b……ズームレンズ 11・11A……マイコン 11a……CPU(中央処理装置) 11b……ROM 11c……RAM 11d……A/Dコンバータ 11e……EEPROM 11Af……パターン判別手段 12・12A……エリアセンサ(像検出手段) 12a……受光素子群 12b……処理回路 12c……定常光除去部 12d……垂直シフトレジスタ 12e……水平シフトレジスタ 12f……固定パターンノイズ除去部 12aa……受光素子 12ab……フォトダイオード 12ac……増幅器 12Aa……受光素子群 12Ac……定常光除去手段 12Af……A/Dコンバータ 13……フォーカスレンズ駆動部 14・14A……測距光学系 14a・14Aa……受光レンズ 15……フォーカスレンズエンコーダ 16……シャッタ駆動部 19……表示部 20……ストロボ回路部 20a・20Aa……ストロボ発光部 20A……ストロボ発光手段 21……フイルム駆動部 22……ズームレンズ駆動部 23……測光部 23a……測光用受光素子 24……カメラ姿勢検出部 25……音声信号発生手段 50……電子カメラ 51……撮影光学系 52……絞り部 53……撮像素子 54……CDS部 55……S/H部(サンプルホールド回路) 56……A/D回路(A/Dコンバータ) 57……プロセス処理部 58……AGC・γ補正部 59……夜景シーン判定部 60……逆光シーン判定部 61……測光部 62……絞り制御部 63……一時メモリ(DRAM) 64……圧縮伸長部 65……記録媒体 DESCRIPTION OF SYMBOLS 1 ... Camera 10 ... Photographing optical system 10a ... Focus lens 10b ... Zoom lens 11 / 11A ... Microcomputer 11a ... CPU (Central processing unit) 11b ... ROM 11c ... RAM 11d ... A / D converter 11e ... EEPROM 11Af ... pattern discriminating means 12.12A ... area sensor (image detecting means) 12a ... light receiving element group 12b ... processing circuit 12c ... steady light removing section 12d ... vertical shift register 12e ... horizontal Shift register 12f Fixed pattern noise removing unit 12aa Light receiving element 12ab Photodiode 12ac Amplifier 12Aa Light receiving element group 12Ac Steady light removing means 12Af A / D converter 13 Focus lens drive Section 14 ・ 14A Distance measuring optical system 14a ・ 14Aa ... Light receiving lens 15... Focus lens encoder 16... Shutter drive unit 19... Display unit 20... Lens drive unit 23 Photometry unit 23a Photometric light-receiving element 24 Camera attitude detection unit 25 Audio signal generation unit 50 Electronic camera 51 Photographic optical system 52 Diaphragm unit 53 Image sensor 54 CDS unit 55 S / H unit (sample and hold circuit) 56 A / D circuit (A / D converter) 57 process processing unit 58 AGC / γ correction unit 59 night scene scene determination Unit 60 Backlight scene determination unit 61 Photometry unit 62 Aperture control unit 63 Temporary memory (DRAM) 64 Compression / expansion unit 65 Recording medium

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 検出画面内の二次元領域を受光する蓄
積型のエリアセンサと、 このエリアセンサの出力に基づいて上記二次元領域の平
均輝度を算出する平均輝度演算手段と、 上記エリアセンサの出力のうち上記平均輝度演算手段に
より算出された平均輝度値を基準として所定値の以上の
輝度差を有する連続領域を検出する領域判別手段と、 少なくとも上記領域判別手段によって検出された所定の
領域における上記エリアセンサの出力に基づいて検出画
面内の焦点状態の検出を行なう焦点検出手段と、 を具備したことを特徴とする多点測距装置。
1. An accumulation type area sensor for receiving a two-dimensional area in a detection screen, an average luminance calculating means for calculating an average luminance of the two-dimensional area based on an output of the area sensor, Area determining means for detecting a continuous area having a luminance difference equal to or greater than a predetermined value based on the average luminance value calculated by the average luminance calculating means in the output; and at least a predetermined area detected by the area determining means. And a focus detecting means for detecting a focus state in the detection screen based on the output of the area sensor.
【請求項2】 検出画面内の二次元領域を受光する蓄
積型のエリアセンサと、 このエリアセンサの出力に基づいて上記二次元領域の平
均輝度を算出する平均輝度演算手段と、 照明光を発光する発光手段と、 検出画面内の二次元領域において、上記発光手段による
照明光の発光時と、照明光の非発光時の輝度差が所定の
値を超えている領域を検出する領域判別手段と、 少なくとも上記領域判別手段によって検出された領域に
おける上記エリアセンサの出力に基づいて検出画面内に
おける焦点状態の検出を行なう焦点検出手段と、 を具備したことを特徴とする多点測距装置。
2. An accumulation type area sensor for receiving a two-dimensional area in a detection screen, an average luminance calculating means for calculating an average luminance of the two-dimensional area based on an output of the area sensor, and emitting illumination light. A light emitting unit that performs light emission, and an area discriminating unit that detects an area in which the luminance difference between when the illumination light is emitted by the light emission unit and when the illumination light is not emitted exceeds a predetermined value in a two-dimensional area in the detection screen. And a focus detecting means for detecting a focus state in a detection screen based on at least an output of the area sensor in an area detected by the area determining means.
【請求項3】 エリアセンサを用いた多点測距装置に
おいて、 上記エリアセンサの出力に基づいて平均輝度値を算出す
る平均輝度演算手段と、 この平均輝度演算手段によって算出される平均輝度値と
の輝度差が所定の値以上となる連続領域を検出する領域
判別手段と、 この領域判別手段による検出結果に応じて主要となる被
写体を特定し、検出画面内における測距点を確定する手
段と、 を具備したことを特徴とする多点測距装置。
3. A multi-point distance measuring apparatus using an area sensor, comprising: an average luminance calculating means for calculating an average luminance value based on an output of the area sensor; and an average luminance value calculated by the average luminance calculating means. Area determining means for detecting a continuous area in which the luminance difference is equal to or greater than a predetermined value; and means for specifying a main subject in accordance with a result of detection by the area determining means and determining a ranging point in a detection screen. A multi-point distance measuring device comprising:
JP27724599A 1999-09-01 1999-09-29 Multispot range finder Withdrawn JP2001100087A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27724599A JP2001100087A (en) 1999-09-29 1999-09-29 Multispot range finder
US09/651,877 US6792203B1 (en) 1999-09-01 2000-08-30 Camera and distance measuring apparatus used in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27724599A JP2001100087A (en) 1999-09-29 1999-09-29 Multispot range finder

Publications (1)

Publication Number Publication Date
JP2001100087A true JP2001100087A (en) 2001-04-13

Family

ID=17580853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27724599A Withdrawn JP2001100087A (en) 1999-09-01 1999-09-29 Multispot range finder

Country Status (1)

Country Link
JP (1) JP2001100087A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298142A (en) * 2001-03-29 2002-10-11 Minolta Co Ltd Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
JP2003087646A (en) * 2001-09-10 2003-03-20 Sony Corp Imaging apparatus
WO2006129601A1 (en) * 2005-06-03 2006-12-07 Nikon Corporation Image processing device, image processing method, image processing program product, and imaging device
WO2007058099A1 (en) * 2005-11-15 2007-05-24 Olympus Corporation Imaging device
JP2007256885A (en) * 2006-03-27 2007-10-04 Nikon Corp Focusing apparatus and camera
JP2009121870A (en) * 2007-11-13 2009-06-04 Panasonic Corp Stereo image processing device, stereo image processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298142A (en) * 2001-03-29 2002-10-11 Minolta Co Ltd Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
JP2003087646A (en) * 2001-09-10 2003-03-20 Sony Corp Imaging apparatus
JP4622196B2 (en) * 2001-09-10 2011-02-02 ソニー株式会社 Imaging device
WO2006129601A1 (en) * 2005-06-03 2006-12-07 Nikon Corporation Image processing device, image processing method, image processing program product, and imaging device
US8150099B2 (en) 2005-06-03 2012-04-03 Nikon Corporation Image processing device, image processing method, image processing program product, and imaging device
WO2007058099A1 (en) * 2005-11-15 2007-05-24 Olympus Corporation Imaging device
JP2007139894A (en) * 2005-11-15 2007-06-07 Olympus Corp Imaging apparatus
JP2007256885A (en) * 2006-03-27 2007-10-04 Nikon Corp Focusing apparatus and camera
JP2009121870A (en) * 2007-11-13 2009-06-04 Panasonic Corp Stereo image processing device, stereo image processing method, and program

Similar Documents

Publication Publication Date Title
JP4040613B2 (en) Imaging device
US7405762B2 (en) Camera having AF function
US9137450B2 (en) Image sensing apparatus, exposure control method and recording medium
US20050212950A1 (en) Focal length detecting method, focusing device, image capturing method and image capturing apparatus
US20050099522A1 (en) Variable length encoding method and variable length decoding method
US6792203B1 (en) Camera and distance measuring apparatus used in the same
JP2002051255A (en) Main object detectable camera
JP2001091819A (en) Range-finding device for camera
JP4307648B2 (en) camera
EP2963471A1 (en) Image pickup apparatus and control method
JP2006217413A (en) Electronic camera
JP2001100087A (en) Multispot range finder
JP4859194B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2004004449A (en) Exposure control system for camera
JP4967826B2 (en) Focus detection apparatus and imaging apparatus
US7027726B2 (en) Camera having proper exposure controlling function
JP2012108281A (en) Focus detector and imaging apparatus
JP4657543B2 (en) Focus detection device
JP3963535B2 (en) Multi-point distance measuring device
JP4550211B2 (en) camera
JP4286077B2 (en) Camera with flash light control function
JP6660036B2 (en) Focus detection device and imaging device
JP2001174689A (en) Range-finder
JP4076364B2 (en) camera
JP6799411B2 (en) Focus detection device and method, and imaging device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061205