JP2002072283A - Camera - Google Patents

Camera

Info

Publication number
JP2002072283A
JP2002072283A JP2000252305A JP2000252305A JP2002072283A JP 2002072283 A JP2002072283 A JP 2002072283A JP 2000252305 A JP2000252305 A JP 2000252305A JP 2000252305 A JP2000252305 A JP 2000252305A JP 2002072283 A JP2002072283 A JP 2002072283A
Authority
JP
Japan
Prior art keywords
information
subject
lens
photometric
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000252305A
Other languages
Japanese (ja)
Inventor
Motoyuki Yamaguchi
基志 山口
Tsutomu Ichikawa
勉 市川
Norihiko Akamatsu
範彦 赤松
Ichiro Tsujimura
一郎 辻村
Yasushi Hasegawa
靖 長谷川
Akio Nakamaru
晃男 中丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000252305A priority Critical patent/JP2002072283A/en
Publication of JP2002072283A publication Critical patent/JP2002072283A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform photographing under an optimum exposure condition or light-controlling condition in accordance with subject position by estimating the subject position in the case of attaching a non-autofocusing lens or in the case of manually operating an autofocusing lens in an autofocusing single lens reflex camera having a multi-point range finding function, a multi-division photometric function and a multi-division light-controlling function. SOLUTION: The subject position is estimated by adding the focal distance information of a lens 200, the magnification of an image and subject distance information to defocusing information from a range-finding unit 140 having a plurality of range-finding areas, and weighting is performed for the output of each area of a photometric unit 180 or a light-controlling sensor 150 having a plurality of photometric areas or light-controlling areas on the basis of an estimation result so that stationary light photographing or flashing photographing is performed under the optimum exposure condition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、銀塩フィルムや固
体撮像素子を用いた多点測距、多分割調光、フラッシュ
の多分割調光が可能なオートフォーカス(以下、「A
F」とする)カメラにおいて、特に非AFレンズが装着
されている場合又はユーザがAFレンズをマニュアル操
作する場合に、合焦位置又は主要被写体位置を推定して
適正露光条件を決定する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autofocus (hereinafter referred to as "A") capable of multi-point ranging, multi-division dimming, and multi-division dimming of a flash using a silver halide film or a solid-state imaging device.
The present invention relates to a technique for estimating a focus position or a main subject position to determine an appropriate exposure condition, particularly when a non-AF lens is attached to a camera or when a user manually operates an AF lens.

【0002】[0002]

【従来の技術】従来から、画面を複数の部分に分割し、
各部分ごとに被写体輝度を測定し、得られた複数の輝度
情報を演算処理して最適な露光量を決定する多分割測光
方式のカメラが知られている。また、カメラ内部のフィ
ルム面に対向する位置に調光センサを設け、フラッシュ
撮影中にフィルム面からの反射光を測定し、所定露光量
に達した時点でフラッシュの発光を停止する自動調光機
能を有するカメラも知られている。
2. Description of the Related Art Conventionally, a screen is divided into a plurality of parts,
2. Description of the Related Art A multi-segment photometric camera is known which measures subject brightness for each portion and performs arithmetic processing on a plurality of pieces of obtained brightness information to determine an optimal exposure amount. In addition, an automatic dimming function is provided, in which a dimming sensor is installed at a position facing the film surface inside the camera to measure the reflected light from the film surface during flash photography and stop flash emission when a predetermined exposure is reached. Are also known.

【0003】さらに、近年のAF一眼レフカメラでは、
上記多分割測光機能及び自動調光機能に加えて、画面内
に複数の測距領域を設定し、各測距領域に対応してそれ
ぞれ測距センサを配置し、少なくともいずれか1つの測
距領域に合焦させる多点測距機能を有するものが主流と
なっている。
Further, in recent AF single-lens reflex cameras,
In addition to the multi-segment photometry function and the automatic light control function, a plurality of distance measurement areas are set in the screen, and a distance measurement sensor is arranged corresponding to each distance measurement area, and at least one of the distance measurement areas A camera having a multi-point distance measuring function for focusing on a camera has become mainstream.

【0004】多点測距機能及び多分割測光機能を有する
AF一眼レフカメラでは、AFレンズをAF制御する場
合、各測距センサの出力であるデフォーカス量の大小に
基づいて、カメラ側から画面内のどの部分に合焦してい
るかをカメラ側のCPUで判断することができる。そし
て、合焦した測距領域に対応する測光領域及びその周辺
領域に重みをつけて測光し、合焦した主要被写体に対す
る適正露光条件を決定することが可能である。以下、こ
の測光方式を「重み付け測光方式」と称する。
In an AF single-lens reflex camera having a multi-point distance measuring function and a multi-segment photometry function, when AF control is performed on an AF lens, a screen is displayed from the camera based on the magnitude of a defocus amount output from each distance measuring sensor. Which part of the camera is in focus can be determined by the CPU on the camera side. Then, it is possible to determine the appropriate exposure condition for the focused main subject by weighting the photometry area corresponding to the focused distance measurement area and the surrounding area and performing photometry. Hereinafter, this photometry method is referred to as a “weighted photometry method”.

【0005】同様に、フラッシュ撮影時においても、合
焦した主要被写体に対して適正な露光を行うべく、複数
の測距領域又は測距領域群に対応して複数の調光センサ
を配置し、合焦した測距センサが含まれる測距領域又は
測距領域群に対応する調光センサの出力に重みをつけて
調光を行うことも提案されている(特許2778000
号参照)。
Similarly, in flash photography, a plurality of light control sensors are arranged in correspondence with a plurality of ranging areas or a group of ranging areas in order to perform proper exposure for a focused main subject. It has also been proposed to perform weighting by weighting the output of a light control sensor corresponding to a distance measurement area or a group of distance measurement areas including a focused distance measurement sensor (Japanese Patent No. 2778000).
No.).

【0006】一方、多点測距機能、多分割測光機能及び
多分割調光機能を有するAF一眼レフカメラにおいて、
ユーザがAFレンズをMF操作する場合及び非AFレン
ズが装着されている場合、カメラ側のCPUでは、画面
中のどこに合焦しているのか判断できない。そこで、各
測距センサのデフォーカス量の大小を比較し、最もデフ
ォーカス量の小さい測距領域を合焦位置又は主要被写体
位置と推定し、推定結果に基づいて重み付け測光又は調
光を行うことも提案されている。
On the other hand, in an AF single-lens reflex camera having a multi-point distance measuring function, a multi-division photometry function and a multi-division light control function,
When the user performs the MF operation on the AF lens or when a non-AF lens is attached, the camera-side CPU cannot determine where on the screen the image is focused. Therefore, comparing the magnitude of the defocus amount of each ranging sensor, estimating the ranging area having the smallest defocus amount as the in-focus position or the main subject position, and performing weighted photometry or dimming based on the estimation result. Has also been proposed.

【0007】[0007]

【発明が解決しようとする課題】一般的に、上記重み付
け測光は、例えば撮影レンズの焦点距離が50〜100
mm程度でカメラから被写体までの距離が2〜8m程度の
いわゆる中距離撮影の場合などに有効である。これに対
して、例えば近接撮影などのように像倍率(像の大きさ
/被写体の大きさ)が大きい場合や風景撮影などのよう
に像倍率が小さい場合、上記重み付け測光方式によるよ
りも、むしろ通常の中央部重点平均測光方式による方
が、より適正な露光条件が得られる。
Generally, the above-mentioned weighted photometry is performed, for example, when the focal length of the photographing lens is 50 to 100.
This is effective in the case of so-called middle-range shooting where the distance from the camera to the subject is about 2 mm and the distance is about 2 to 8 m. On the other hand, when the image magnification (image size / subject size) is large, for example, in close-up photography, or when the image magnification is small, for example, in landscape photography, the weighted photometry method is used rather than the above-described weighted photometry method. More appropriate exposure conditions can be obtained by the ordinary center-weighted average photometry method.

【0008】一方、周知のように、一眼レフカメラに
は、様々な焦点距離のレンズが装着可能であり、レンズ
の焦点距離に応じて被写界深度が異なる。従って、測距
センサからのデフォーカス量が同じであっても、装着さ
れているレンズの焦点距離によりカメラから被写体まで
の距離が異なる。従って、測距センサからのデフォーカ
ス量にのみ基づいて合焦位置又は主要被写体位置を推定
し、推定結果に基づいて重み付け測光を行うと、重み付
け測光方式が有効な中距離撮影と上記近接撮影や風景撮
影などのように重み付け測光が不要な場合とを区別する
ことができず、重み付け測光が不要な場合、かえって適
正な露光条件が得られなくなるという問題点を有してい
た。
On the other hand, as is well known, a single-lens reflex camera can be mounted with lenses having various focal lengths, and the depth of field differs depending on the focal length of the lens. Therefore, even if the defocus amount from the distance measurement sensor is the same, the distance from the camera to the subject differs depending on the focal length of the lens mounted. Therefore, if the in-focus position or the main subject position is estimated based only on the defocus amount from the distance measurement sensor and weighted photometry is performed based on the estimation result, the weighted photometry method is effective for middle-range shooting and the close-up shooting described above. There is a problem that it is not possible to distinguish a case where weighted photometry is not required, such as landscape photography, and when weighted photometry is not required, an appropriate exposure condition cannot be obtained.

【0009】さらに、測距センサからのデフォーカス量
にのみ基づいて合焦位置又は主要被写体位置を推定する
場合、暗中被写体のように被写体をカバーする測距領域
が低コントラスト条件に該当して、測距センサからデフ
ォーカス情報が得られない場合、合焦位置又は主要被写
体位置を推定することができないという問題点を有して
いた。
Further, when the in-focus position or the main object position is estimated based only on the defocus amount from the distance measurement sensor, a distance measurement area covering the object such as a dark object corresponds to a low contrast condition. When defocus information cannot be obtained from the distance measurement sensor, there is a problem that the in-focus position or the main subject position cannot be estimated.

【0010】本発明は、上記従来例の問題を解決するた
めになされたものであり、多点測距機能、多分割測光機
能及び/又は多分割調光機能を有するAF一眼レフカメ
ラにおいて、合焦位置又は主要被写体の位置の検出又は
推定精度を高め、より安定した適正露光条件を得ること
を目的としている。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and is intended to provide an AF single-lens reflex camera having a multi-point distance measuring function, a multi-division photometry function, and / or a multi-division dimming function. It is an object of the present invention to improve the accuracy of detecting or estimating the focus position or the position of the main subject and obtain more stable appropriate exposure conditions.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、本発明の第1のカメラは、被写界内に設定された複
数の測距領域について、それぞれ被写体の位置と撮影レ
ンズの合焦位置とのずれ量に関するデフォーカス情報を
出力する多点測距手段と、被写界内に設定された複数の
測光領域について、それぞれ被写体の輝度に関する輝度
情報を出力する多分割測光手段と、装着されている撮影
レンズの焦点距離に関する情報を出力する焦点距離情報
出力手段と、前記デフォーカス情報及び前記焦点距離情
報を用いて被写体位置に関する情報を演算する被写体位
置情報演算手段と、前記被写体位置情報を用いて前記輝
度情報に乗ずる重みを演算する重み演算手段と、前記輝
度情報に前記重みを乗ずることにより、撮影時の露光量
に関する露光情報を演算し、露光制御する露光制御手段
とを具備する。
In order to achieve the above object, a first camera according to the present invention comprises a plurality of distance measurement areas set in an object field, each of which is provided with a focus of a subject and a photographing lens. Multi-point distance measuring means for outputting defocus information relating to the amount of deviation from the position; multi-segment light measuring means for outputting luminance information relating to the luminance of the subject for each of a plurality of photometry areas set in the object field; Focal length information output means for outputting information about the focal length of the photographing lens, subject position information calculating means for calculating information about the subject position using the defocus information and the focal length information, and the subject position information Weight calculation means for calculating a weight for multiplying the luminance information by using Calculated and comprises an exposure control unit for exposure control.

【0012】上記構成において、前記多点測距手段にお
ける複数の測距領域を、所定数の測距領域ごとに複数の
測距領域群に分割し、各測距領域群ごとにデフォーカス
情報を決定する測距領域群分割手段をさらに具備するこ
とが好ましい。
In the above configuration, the plurality of ranging areas in the multipoint ranging means are divided into a plurality of ranging area groups for each of a predetermined number of ranging areas, and defocus information is stored for each ranging area group. It is preferable to further include a distance measurement area group division unit for determining.

【0013】また、前記被写体位置情報演算手段は、前
記各測距領域又は各測距領域群のデフォーカス値DFn
と撮影レンズの焦点距離の逆数(1/f1)との積Vn
(Vn=DFn×(1/f1)(n=1,2,・・・
m))に基づいて被写体位置情報を演算することが好ま
しい。
The subject position information calculating means may include a defocus value DFn for each of the distance measurement areas or each of the distance measurement area groups.
Vn of the inverse of the focal length of the taking lens (1 / f1)
(Vn = DFn × (1 / f1) (n = 1, 2,...)
It is preferable to calculate subject position information based on m)).

【0014】さらに、前記被写体位置情報演算手段は、
前記各測距領域又は各測距領域群について演算した複数
のVn値のうち最小値を有する測距領域又は測距領域群
のデフォーカス情報に基づいて被写体位置を演算するこ
とが好ましい。
Further, the subject position information calculating means includes:
It is preferable to calculate the subject position based on the defocus information of the ranging area or the ranging area group having the minimum value among the plurality of Vn values calculated for each ranging area or each ranging area group.

【0015】さらに、前記被写体位置情報演算手段は、
前記各測距領域群について演算した複数のVn値の平均
値を演算し、その平均値に基づいて被写体位置を演算す
ることが好ましい。
Further, the subject position information calculating means includes:
It is preferable that an average value of a plurality of Vn values calculated for each of the distance measurement area groups is calculated, and a subject position is calculated based on the average value.

【0016】さらに、前記被写体位置情報演算手段は、
前記各測距領域群に含まれる測距領域のうち被写体の低
コントラストによりデフォーカス情報が得られなかった
測距領域を除外して、残りの測距領域からのデフォーカ
ス情報を用いて被写体位置情報を演算することが好まし
い。
Further, the subject position information calculating means includes:
Excluding the distance measurement areas in which defocus information was not obtained due to the low contrast of the object among the distance measurement areas included in each of the distance measurement area groups, the object position was determined using the defocus information from the remaining distance measurement areas. It is preferable to calculate the information.

【0017】さらに、前記被写体位置情報演算手段は、
前記各測距領域群に含まれる全ての測距領域について、
被写体の低コントラストによりデフォーカス情報が得ら
れなかった場合には、当該測距領域群を除外して、残り
の測距領域群について被写体位置情報を演算することが
好ましい。
Further, the subject position information calculating means includes:
For all the ranging areas included in each of the ranging area groups,
When the defocus information cannot be obtained due to the low contrast of the subject, it is preferable to exclude the distance measurement area group and calculate the object position information for the remaining distance measurement area group.

【0018】さらに、前記被写体位置情報演算手段は、
前記各測距領域又は各測距領域群のデフォーカス情報を
用いて、撮影レンズの合焦位置が被写体よりも遠いか近
いかを判断し、判断結果に応じて被写体位置情報を補正
することが好ましい。
Further, the subject position information calculating means includes:
Using the defocus information of each ranging area or each ranging area group, it is possible to determine whether the focus position of the taking lens is farther or closer than the subject, and correct the subject position information according to the determination result. preferable.

【0019】本発明の第2のカメラは、被写界内に設定
された複数の測距領域について、それぞれ被写体の位置
と撮影レンズの合焦位置とのずれ量に関するデフォーカ
ス情報を出力する多点測距手段と、被写界内に設定され
た複数の測光領域について、それぞれ被写体の輝度に関
する輝度情報を出力する多分割測光手段と、装着されて
いる撮影レンズの焦点距離に関する情報を出力する焦点
距離情報出力手段と、撮影被写体の像倍率情報を演算す
る像倍率情報演算手段と、前記デフォーカス情報、焦点
距離情報及び像倍率情報を用いて前記各測光領域の撮影
露光における測光寄与率を演算する測光寄与率演算手段
と、前記測光寄与率に基づいて、撮影時の露光量に関す
る露光情報を演算し、露光制御する露光制御手段とを具
備する。
A second camera according to the present invention outputs defocus information relating to a shift amount between a position of a subject and an in-focus position of a photographing lens for each of a plurality of distance measurement areas set in an object field. Point distance measuring means, multi-segment light measuring means for outputting luminance information on the luminance of the subject for each of a plurality of light measuring areas set in the object field, and information on the focal length of the mounted photographing lens are output. A focal length information output unit, an image magnification information calculating unit that calculates image magnification information of a photographing subject, and a photometric contribution ratio in the photographing exposure of each photometric region using the defocus information, the focal length information, and the image magnification information. It comprises a photometric contribution ratio calculating means for calculating, and an exposure control means for calculating exposure information relating to an exposure amount at the time of photographing based on the photometric contribution rate, and controlling the exposure.

【0020】また、本発明の第3のカメラは、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の測光領域について、それぞれ被写体の輝
度に関する輝度情報を出力する多分割測光手段と、装着
されている撮影レンズの焦点距離に関する情報を出力す
る焦点距離情報出力手段と、撮影被写体の距離情報を出
力する被写体距離情報出力手段と、前記デフォーカス情
報、焦点距離情報及び被写体距離情報を用いて前記各測
光領域の撮影露光における測光寄与率を演算する測光寄
与率演算手段と、前記測光寄与率に基づいて、撮影時の
露光量に関する露光情報を演算し、露光制御する露光制
御手段とを具備する。
Further, the third camera of the present invention outputs defocus information relating to a shift amount between a position of a subject and a focus position of a photographing lens for each of a plurality of distance measurement areas set in an object scene. Multi-point distance measurement means, multi-segment light measurement means for outputting luminance information on the luminance of the subject for each of a plurality of light measurement areas set in the object field, and information on the focal length of the mounted photographing lens. A focal length information output unit for outputting, a subject distance information output unit for outputting distance information of a photographing subject, and a photometric contribution ratio in the photographing exposure of each photometric region using the defocus information, the focal length information, and the subject distance information. And exposure control means for calculating exposure information relating to an exposure amount at the time of photographing based on the photometric contribution rate and controlling exposure. .

【0021】上記各構成において、装着されている撮影
レンズに関するレンズ設定情報を出力するレンズ設定情
報出力手段をさらに具備し、前記測光寄与率演算手段は
前記レンズ設定情報に応じて前記測光寄与率を補正する
ことが好ましい。
In each of the above arrangements, the apparatus further comprises lens setting information output means for outputting lens setting information on the mounted photographing lens, wherein the photometric contribution rate calculating means calculates the photometric contribution rate in accordance with the lens setting information. It is preferable to correct.

【0022】また、前記レンズ設定情報は、特殊光学系
を有する撮影レンズが装着されたことを示す情報を含
み、前記測光寄与率演算手段は、特殊光学系を有する撮
影レンズが装着されている場合に、全ての測光領域に対
して平均的な測光寄与率を設定することが好ましい。
Further, the lens setting information includes information indicating that a photographic lens having a special optical system is mounted, and the photometric contribution ratio calculating means determines whether a photographic lens having a special optical system is mounted. In addition, it is preferable to set an average photometric contribution ratio for all photometric regions.

【0023】さらに、前記レンズ設定情報は、フィルタ
を含む光学素子が撮影レンズに装着されたことを示す情
報を含み、前記測光寄与率演算手段は、光学素子が撮影
レンズに装着されている場合に、全ての測光領域に対し
て平均的な測光寄与率を設定することが好ましい。
Further, the lens setting information includes information indicating that an optical element including a filter is mounted on the photographic lens, and the photometric contribution ratio calculating means determines whether the optical element is mounted on the photographic lens. It is preferable to set an average photometric contribution ratio for all photometric regions.

【0024】さらに、前記測光寄与率演算手段は、撮影
レンズの合焦位置が被写体よりも遠いか近いかに応じて
被写体位置情報を補正することが好ましい。
Further, it is preferable that the photometric contribution ratio calculating means corrects the subject position information according to whether the focus position of the taking lens is farther or closer than the subject.

【0025】また、本発明の第4のカメラは、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の調光領域について、それぞれ被写体から
の反射光を測定する多分割調光手段と、装着されている
撮影レンズの焦点距離に関する情報を出力する焦点距離
情報出力手段と、前記デフォーカス情報及び前記焦点距
離情報を用いて被写体位置に関する情報を演算する被写
体位置情報演算手段と、前記被写体位置情報を用いて、
フラッシュ撮影時における前記各調光領域に対応する測
光出力に乗ずる重みを演算する重み演算手段と、各調光
領域に対応する前記測光出力に前記重みを乗ずることに
より、フラッシュ撮影時の発光量を演算し、フラッシュ
光の発光制御するフラッシュ制御手段とを具備する。
Further, the fourth camera of the present invention outputs defocus information relating to the amount of deviation between the position of the subject and the in-focus position of the photographing lens for each of a plurality of distance measurement areas set in the object field. Multi-point distance measuring means, multi-division light measuring means for measuring reflected light from a subject in each of a plurality of light adjusting areas set in the field of view, and information on the focal length of the mounted photographing lens. Focal length information output means for outputting, subject position information calculating means for calculating information about the subject position using the defocus information and the focal length information, using the subject position information,
Weight calculation means for calculating a weight for multiplying the photometric output corresponding to each light control area during flash shooting, and multiplying the weight by the photometric output corresponding to each light control area to reduce the light emission amount during flash shooting. Flash control means for calculating and controlling flash light emission.

【0026】上記構成において、前記多点測距手段にお
ける複数の測距領域を、所定数の測距領域ごとに複数の
測距領域群に分割し、各測距領域群ごとにデフォーカス
情報を決定する測距領域群分割手段をさらに具備するこ
とが好ましい。
In the above configuration, the plurality of ranging areas in the multipoint ranging means are divided into a plurality of ranging area groups for each of a predetermined number of ranging areas, and defocus information is stored for each of the ranging area groups. It is preferable to further include a distance measurement area group division unit for determining.

【0027】また、前記被写体位置情報演算手段は、前
記各測距領域又は各測距領域群のデフォーカス値DFn
と撮影レンズの焦点距離の逆数(1/f1)との積Vn
(Vn=DFn×(1/f1)(n=1,2,・・・
m))に基づいて被写体位置情報を演算することが好ま
しい。
Further, the subject position information calculating means includes a defocus value DFn for each of the distance measuring areas or each of the distance measuring area groups.
Vn of the inverse of the focal length of the taking lens (1 / f1)
(Vn = DFn × (1 / f1) (n = 1, 2,...)
It is preferable to calculate subject position information based on m)).

【0028】さらに、前記被写体位置情報演算手段は、
前記各測距領域又は各測距領域群について演算した複数
のVn値のうち最小値を有する測距領域又は測距領域群
のデフォーカス情報に基づいて被写体位置を演算するこ
とが好ましい。
Further, the object position information calculating means includes:
It is preferable to calculate the subject position based on the defocus information of the ranging area or the ranging area group having the minimum value among the plurality of Vn values calculated for each ranging area or each ranging area group.

【0029】さらに、前記被写体位置情報演算手段は、
前記各測距領域群について演算した複数のVn値の平均
値を演算し、その平均値に基づいて被写体位置を演算す
ることが好ましい。
Further, the subject position information calculating means includes:
It is preferable that an average value of a plurality of Vn values calculated for each of the distance measurement area groups is calculated, and a subject position is calculated based on the average value.

【0030】さらに、前記被写体位置情報演算手段は、
前記各測距領域群に含まれる測距領域のうち被写体の低
コントラストによりデフォーカス情報が得られなかった
測距領域を除外して、残りの測距領域からのデフォーカ
ス情報を用いて被写体位置情報を演算することが好まし
い。
Further, the subject position information calculating means includes:
Excluding the distance measurement areas in which defocus information was not obtained due to the low contrast of the object among the distance measurement areas included in each of the distance measurement area groups, the object position was determined using the defocus information from the remaining distance measurement areas. It is preferable to calculate the information.

【0031】さらに、前記被写体位置情報演算手段は、
前記各測距領域群に含まれる全ての測距領域について、
被写体の低コントラストによりデフォーカス情報が得ら
れなかった場合には、当該測距領域群を除外して、残り
の測距領域群について被写体位置情報を演算することが
好ましい。
Further, the subject position information calculating means includes:
For all the ranging areas included in each of the ranging area groups,
When the defocus information cannot be obtained due to the low contrast of the subject, it is preferable to exclude the distance measurement area group and calculate the object position information for the remaining distance measurement area group.

【0032】さらに、前記被写体位置情報演算手段は、
前記各測距領域又は各測距領域群のデフォーカス情報を
用いて、撮影レンズの合焦位置が被写体よりも遠いか近
いかを判断し、判断結果に応じて被写体位置情報を補正
することが好ましい。
Further, the subject position information calculating means includes:
Using the defocus information of each ranging area or each ranging area group, it is possible to determine whether the focus position of the taking lens is farther or closer than the subject, and correct the subject position information according to the determination result. preferable.

【0033】また、本発明の第5のカメラは、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の調光領域について、それぞれ被写体から
の反射光を測定する多分割調光手段と、装着されている
撮影レンズの焦点距離に関する情報を出力する焦点距離
情報出力手段と、前記デフォーカス情報及び前記焦点距
離情報を用いて被写体位置に関する情報を演算する被写
体位置情報演算手段と、撮影被写体の像倍率情報を演算
する像倍率情報演算手段と、前記デフォーカス情報、焦
点距離情報及び像倍率情報を用いて前記各調光領域の撮
影露光における調光寄与率を演算する調光寄与率演算手
段と、前記調光寄与率に基づいて、フラッシュ撮影時の
発光量を演算し、フラッシュ光の発光制御するフラッシ
ュ制御手段とを具備する。
Further, the fifth camera of the present invention outputs defocus information relating to the amount of deviation between the position of the subject and the in-focus position of the photographic lens for each of a plurality of distance measurement areas set in the object field. Multi-point distance measuring means, multi-division light measuring means for measuring reflected light from a subject in each of a plurality of light adjusting areas set in the field of view, and information on the focal length of the mounted photographing lens. , A subject position information calculating unit that calculates information on a subject position using the defocus information and the focal length information, and an image magnification information calculating unit that calculates image magnification information of a shooting subject A dimming contribution ratio calculating means for calculating a dimming contribution ratio in the photographing exposure of each of the dimming regions using the defocus information, the focal length information, and the image magnification information; Based on the rate, it calculates the light emission amount at the time of flash photography, comprising a flash control means for controlling light emission of the flash light.

【0034】さらに、本発明の第6のカメラは、被写界
内に設定された複数の測距領域について、それぞれ被写
体の位置と撮影レンズの合焦位置とのずれ量に関するデ
フォーカス情報を出力する多点測距手段と、被写界内に
設定された複数の調光領域について、それぞれ被写体か
らの反射光を測定する多分割調光手段と、装着されてい
る撮影レンズの焦点距離に関する情報を出力する焦点距
離情報出力手段と、撮影被写体の距離情報を出力する被
写体距離情報出力手段と、前記デフォーカス情報、焦点
距離情報及び被写体距離率情報を用いて前記各調光領域
の撮影露光における調光寄与率を演算する調光寄与率演
算手段と、前記調光寄与率に基づいて、フラッシュ撮影
時の発光量を演算し、フラッシュ光の発光制御するフラ
ッシュ制御手段とを具備する。
Further, the sixth camera of the present invention outputs defocus information relating to a shift amount between the position of the subject and the focusing position of the photographing lens for each of a plurality of distance measurement areas set in the object field. Multi-point distance measuring means, multi-division light measuring means for measuring reflected light from a subject in each of a plurality of light adjusting areas set in the field of view, and information on the focal length of the mounted photographing lens. A focal length information output means for outputting the distance information of the photographing subject, and a subject distance information output means for outputting the distance information of the photographing subject. A dimming contribution calculating means for calculating a dimming contribution, and a flash controlling means for calculating a light emission amount at the time of flash photography based on the dimming contribution and controlling light emission of flash light. Comprising.

【0035】上記各構成において、装着されている撮影
レンズに関するレンズ設定情報を出力するレンズ設定情
報出力手段をさらに具備し、前記調光寄与率演算手段は
前記レンズ設定情報に応じて前記調光寄与率を補正する
ことが好ましい。
In each of the above arrangements, the apparatus further comprises lens setting information output means for outputting lens setting information relating to the mounted photographing lens, wherein the dimming contribution ratio calculating means is adapted to calculate the dimming contribution in accordance with the lens setting information. It is preferable to correct the rate.

【0036】また、前記レンズ設定情報は、特殊光学系
を有する撮影レンズが装着されたことを示す情報を含
み、前記調光寄与率演算手段は、特殊光学系を有する撮
影レンズが装着されている場合に、全ての調光領域に対
して平均的な調光寄与率を設定することが好ましい。
The lens setting information includes information indicating that a photographing lens having a special optical system has been mounted, and the dimming contribution ratio calculating means has a photographing lens having a special optical system mounted. In this case, it is preferable to set an average dimming contribution ratio for all dimming regions.

【0037】さらに、前記レンズ設定情報は、フィルタ
を含む光学素子が撮影レンズに装着されたことを示す情
報を含み、前記調光寄与率演算手段は、光学素子が撮影
レンズに装着されている場合に、全ての調光領域に対し
て平均的な調光寄与率を設定することが好ましい。
Further, the lens setting information includes information indicating that the optical element including the filter is mounted on the photographic lens, and the dimming contribution ratio calculating means determines whether the optical element is mounted on the photographic lens. In addition, it is preferable to set an average dimming contribution ratio for all dimming regions.

【0038】さらに、前記調光寄与率演算手段は、撮影
レンズの合焦位置が被写体よりも遠いか近いかに応じて
被写体位置情報を補正することが好ましい。
Furthermore, it is preferable that the dimming contribution ratio calculating means corrects the subject position information according to whether the focus position of the taking lens is farther or closer than the subject.

【0039】さらに、上記各構成において、前記撮影レ
ンズはオートフォーカス不可レンズであることが好まし
い。または、前記撮影レンズはオートフォーカス可能レ
ンズであり、ユーザがマニュアルフォーカスを選択した
ものであることが好ましい。
Further, in each of the above structures, it is preferable that the taking lens is a lens which cannot be auto-focused. Alternatively, it is preferable that the photographing lens is an auto-focusable lens, and that the user selects manual focusing.

【0040】[0040]

【発明の実施の形態】本発明の一実施形態について、図
面を参照しつつ詳細に説明する。まず、本発明の一実施
形態に係るAF一眼レフカメラの一構成例を図1に示
す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described in detail with reference to the drawings. First, FIG. 1 shows a configuration example of an AF single-lens reflex camera according to an embodiment of the present invention.

【0041】カメラボディ100のほぼ中央には、光軸
Lに対して略45度傾斜した主ミラー111、主ミラー
111の背面に設けられ、主ミラー111の傾斜に対し
て略90度傾斜した補助ミラー112等を具備するミラ
ーボックス110が設けられている。ミラーボックス1
10の上部には、焦点板121、プリズム122、接眼
レンズ123、インファインダ表示素子124等を具備
するファインダ120が設けられている。ファインダ1
20の上部には、フラッシュ光を発光させるための発光
ユニット170が設けられている。
At the substantially center of the camera body 100, a main mirror 111 is provided at an angle of about 45 degrees with respect to the optical axis L, and an auxiliary is provided at the back of the main mirror 111, at an angle of about 90 degrees with respect to the angle of the main mirror 111. A mirror box 110 having a mirror 112 and the like is provided. Mirror box 1
A finder 120 including a reticle 121, a prism 122, an eyepiece 123, an infinder display element 124, and the like is provided at an upper portion of the apparatus 10. Finder 1
A light emitting unit 170 for emitting flash light is provided on the upper part of the light emitting unit 20.

【0042】ミラーボックス110の底部(ファインダ
120とは反対側)には、複数の測距領域を有する測距
ユニット140、複数の調光領域を有する調光センサ1
50、AF駆動ユニット160等が設けられている。ミ
ラーボックス110の背面(レンズ200とは反対側)
とフィルム面1との間には、シャッタユニット130が
設けられている。カメラCPU301及び配線302等
が設けられたフレキシブルプリント基板は、カメラボデ
ィ100の隙間等に設けられている。
A distance measuring unit 140 having a plurality of distance measuring areas and a light control sensor 1 having a plurality of light controlling areas are provided at the bottom of the mirror box 110 (the side opposite to the finder 120).
50, an AF drive unit 160, and the like. The back of the mirror box 110 (the side opposite to the lens 200)
A shutter unit 130 is provided between the shutter unit 130 and the film surface 1. The flexible printed board provided with the camera CPU 301, the wiring 302, and the like is provided in a gap or the like of the camera body 100.

【0043】レンズ200は、撮像光学系201、撮像
光学系201を保持する鏡胴202、鏡胴202を光軸
Lに平行な方向Aに駆動するレンズ駆動機構203、レ
ンズの焦点距離、F値(開放F値、AF用開放F値、最
小F値等)等を記憶し、カメラボディ100側のカメラ
CPU301に出力するレンズCPU204、鏡胴20
2の移動量を検出するための距離エンコーダ205、撮
像光学系201又は鏡胴202の移動可能限界を検出す
る終端スイッチ206、絞り機構210等を具備する。
The lens 200 includes an imaging optical system 201, a lens barrel 202 holding the imaging optical system 201, a lens driving mechanism 203 for driving the lens barrel 202 in a direction A parallel to the optical axis L, a focal length of the lens, and an F value. (An open F value, an open F value for AF, a minimum F value, etc.) and the like, and output to the camera CPU 301 on the camera body 100 side.
2 includes a distance encoder 205 for detecting the amount of movement, an end switch 206 for detecting a movable limit of the imaging optical system 201 or the lens barrel 202, an aperture mechanism 210, and the like.

【0044】主ミラー111は、撮像光学系201によ
る光束の大部分を焦点板121方向に反射し、残りの部
分を透過させる。補助ミラー112は主ミラー111を
透過した光束を測距ユニット140に導く。プリズム1
22は、焦点板121上の像の左右を反転させ接眼レン
ズ123を介して撮影者の目に導く。
The main mirror 111 reflects most of the light beam from the imaging optical system 201 in the direction of the reticle 121 and transmits the remaining part. The auxiliary mirror 112 guides the light beam transmitted through the main mirror 111 to the distance measuring unit 140. Prism 1
Reference numeral 22 reverses the left and right of the image on the reticle 121 and guides the image to the photographer's eye via the eyepiece 123.

【0045】プリズム122の出射面近傍には、測光ユ
ニット180が設けられている。測光ユニット180
は、複数組の集光レンズ及びフォトダイオード等の光電
変換素子を含む多分割測光ユニットであり、被写体2の
輝度に対応する信号をカメラCPU301に出力する。
インファインダ表示素子124は、発光ダイオード等の
発光素子及び液晶表示素子等を含み、レンズの焦点が被
写体2に合っている状態(合焦状態)や、シャッター速
度、レンズの絞り値等を表示する。
A photometric unit 180 is provided near the exit surface of the prism 122. Photometric unit 180
Is a multi-segment photometry unit including a plurality of sets of condenser lenses and photoelectric conversion elements such as photodiodes, and outputs a signal corresponding to the luminance of the subject 2 to the camera CPU 301.
The infinder display element 124 includes a light-emitting element such as a light-emitting diode, a liquid crystal display element, and the like, and displays a state in which the lens is focused on the subject 2 (in-focus state), a shutter speed, a lens aperture value, and the like. .

【0046】発光ユニット170は、発光エネルギーを
蓄積するためのコンデンサ(図示せず)、コンデンサを
充電するための充電回路(図示せず)、コンデンサに蓄
積された電気エネルギーを放電し、光エネルギーに変換
する発光管171、発光管171によるフラッシュ光を
カメラ前方に反射する反射板172、フラッシュ光を所
定の範囲に集光又は拡散するためのフレネルレンズ17
3等を具備する。調光センサ150は、例えば集光レン
ズ及びフォトダイオード等の光電変換素子を含み、発光
ユニット170によるフラッシュ光の発光中に、フィル
ム面1からの反射光を検出し、その光量に対応する信号
をカメラCPU301に出力する。カメラCPU301
は、調光センサ150からの信号に基づいて、フィルム
面1の露光量が所定値に達したと判断すると、発光ユニ
ット170の発光を停止させる。
The light-emitting unit 170 includes a capacitor (not shown) for storing light-emitting energy, a charging circuit (not shown) for charging the capacitor, and discharges electric energy stored in the capacitor to light energy. An arc tube 171 for conversion, a reflector 172 for reflecting flash light from the arc tube 171 forward of the camera, and a Fresnel lens 17 for condensing or diffusing the flash light in a predetermined range.
3 and so on. The light control sensor 150 includes, for example, a photoelectric conversion element such as a condenser lens and a photodiode, detects reflected light from the film surface 1 during emission of flash light by the light emitting unit 170, and outputs a signal corresponding to the light amount. Output to the camera CPU 301. Camera CPU 301
Stops the light emission of the light emitting unit 170 when it determines that the exposure amount of the film surface 1 has reached a predetermined value based on a signal from the light control sensor 150.

【0047】AF駆動ユニット160は、DCモータ
ー、ステッピングモータ、超音波モータ等のモータ及び
モータの回転数を減速するための減速系等(図示せず)
を含むAFアクチュエータ161、AFアクチュエータ
161の回転方向及び回転数等を検出してカメラCPU
301に出力するための距離エンコーダ162、AFモ
ードが選択されている場合にのみAFアクチュエータの
回転数などを検出するためのAFエンコーダ163、レ
ンズ駆動機構203に連結される出力軸164などで構
成されている。
The AF drive unit 160 includes a motor such as a DC motor, a stepping motor, and an ultrasonic motor, and a reduction system (not shown) for reducing the number of rotations of the motor.
AF 161 including the camera, the rotation direction and the number of rotations of the AF actuator 161 are detected, and the camera CPU
It comprises a distance encoder 162 for outputting to the 301, an AF encoder 163 for detecting the number of revolutions of the AF actuator only when the AF mode is selected, an output shaft 164 connected to the lens driving mechanism 203, and the like. ing.

【0048】レンズ駆動機構203は、例えばヘリコイ
ド及びヘリコイドを回転させるギヤ等(図示せず)で構
成され、AF駆動ユニット160のAFアクチュエータ
161の駆動力により、撮像光学系201及び鏡胴20
2を一体的に矢印A方向に移動させる。撮像光学系20
1及び鏡胴202の移動方向及び移動量は、それぞれア
クチュエータの回転方向及び回転数に従う。
The lens driving mechanism 203 is composed of, for example, a helicoid and a gear for rotating the helicoid (not shown).
2 is integrally moved in the direction of arrow A. Imaging optical system 20
The moving direction and the moving amount of 1 and the lens barrel 202 follow the rotating direction and the number of rotations of the actuator, respectively.

【0049】なお、カメラボディ100に発光ユニット
170が設けられていない場合又はカメラボディ100
に設けられた発光ユニット170の光量(ガイドナンバ
ー)では不十分な場合は、図1中破線で示すように、カ
メラボディ100のアクセサリーシューに外付けのフラ
ッシュ発光装置400を装着してもよい。
When the light emitting unit 170 is not provided on the camera body 100 or when the camera body 100
When the light quantity (guide number) of the light emitting unit 170 provided in the camera body 100 is not sufficient, an external flash light emitting device 400 may be mounted on an accessory shoe of the camera body 100 as shown by a broken line in FIG.

【0050】次に、上記AF一眼レフカメラの制御回路
系のブロック構成を図2に示す。図2に示すように、カ
メラCPU301には、カメラボディ100及びレンズ
200の各回路及びモータやディスプレイなどの各機能
素子の駆動用電力を供給するための電源回路300、測
光ユニット180からの出力を演算処理する測光回路3
03、測距ユニット140からの出力を演算処理する測
距回路304、調光センサ150からの出力を演算処理
する調光回路305、フィルム給送用モータ307を制
御するための巻き上げモータドライバ306、被写体輝
度などに応じてシャッタユニット130のシャッタ速度
(露光時間)やレンズ200の絞り値(Fナンバー)を
決定し制御するための露光制御回路308、AFアクチ
ュエータ161のモータの回転数や回転方向などを制御
するためのAFモータドライバ309、前述の距離エン
コーダ162及びAFエンコーダ163、発光ユニット
170を制御するための内蔵フラッシュ発光制御回路3
10、外付けのフラッシュ発光装置400を制御するた
めの外付けフラッシュ発光制御回路311、上記ファイ
ンダ120のインファインダ表示素子124、カメラボ
ディ100の上部などに設けられた液晶ディスプレイな
どのオンボディ表示素子312及び各スイッチ類S1、
S2、SMODE、SSELFなどが接続されている。一方、レ
ンズCPU204には、上記距離エンコーダ205、終
端スイッチ206及び各スイッチ類S FILT、SLAFMF
どが接続されている。また、出力軸164は機械的にレ
ンズ駆動機構203に連結されている。
Next, a control circuit of the AF single-lens reflex camera will be described.
FIG. 2 shows a block configuration of the system. As shown in FIG.
The camera CPU 100 includes a camera body 100 and a lens.
200 circuits and functions such as motors and displays
A power supply circuit 300 for supplying power for driving the element is provided.
Photometric circuit 3 for calculating the output from optical unit 180
03, a measurement for processing the output from the distance measurement unit 140
Distance circuit 304, computes output from dimming sensor 150
Light control circuit 305 and film feed motor 307 are controlled.
Hoist motor driver 306 to control
Shutter speed of the shutter unit 130 according to the degree
(Exposure time) and aperture value (F number) of lens 200
Exposure control circuit 308 for determining and controlling
Controls the number and direction of motor rotation of the motor 161
AF motor driver 309 for performing
Coder 162, AF encoder 163, light emitting unit
Built-in flash emission control circuit 3 for controlling 170
10. For controlling the external flash light emitting device 400
External flash control circuit 311
The infinder display element 124 of the
Such as a liquid crystal display provided at the top of
Which on-body display element 312 and each switch S1,
S2, SMODE, SSELFEtc. are connected. On the other hand,
The distance encoder 205 and the end
End switch 206 and switches S FILT, SLAFMFWhat
Are connected. The output shaft 164 is mechanically
Connected to the lens drive mechanism 203.

【0051】スイッチS1は、カメラボディ100のシ
ャッターレリーズボタンにユーザが指をかけたり、ある
いはシャッターレリーズボタンを途中まで半押ししたと
きにオンするスイッチである。スイッチS1がオンする
と、カメラCPU301は測光回路303及び測距回路
304を駆動して撮影準備態勢に入ると共に、AFモー
タドライバ309を駆動してレンズ200の撮像光学系
201の合焦動作を行う。スイッチS2は、カメラボデ
ィ100のシャッターレリーズボタンを完全に押し込ん
だときにオンするスイッチである。スイッチS2がオン
すると、カメラCPU301は測光回路303及び測距
回路304などを駆動して、適正露光条件の決定、合焦
動作、シャッタユニット130及びレンズ200の絞り
機構210を駆動し、フィルム面上に露光を開始する。
The switch S1 is a switch that is turned on when the user places a finger on the shutter release button of the camera body 100 or presses the shutter release button halfway. When the switch S1 is turned on, the camera CPU 301 drives the photometry circuit 303 and the distance measurement circuit 304 to enter a shooting preparation state, and drives the AF motor driver 309 to perform a focusing operation of the imaging optical system 201 of the lens 200. The switch S2 is a switch that is turned on when the shutter release button of the camera body 100 is completely pressed. When the switch S2 is turned on, the camera CPU 301 drives the photometric circuit 303 and the distance measuring circuit 304 to determine an appropriate exposure condition, perform a focusing operation, drive the shutter unit 130 and the aperture mechanism 210 of the lens 200, and operate on the film surface. Exposure starts.

【0052】スイッチSMODEは、カメラボディ100の
上面や背面などに設けられたモード選択スイッチであ
り、AFモードとMFモードの切り替え、マニュアル露
光モードと自動露光モードの切り替え、自動露光モード
のうち各種の優先制御モード切り替えなど各種のモード
選択を行う際に使用される。スイッチSSELFは、通常の
撮影モードとセルフタイマーモードの切替を行うスイッ
チである。スイッチSFI LTは、レンズ200の撮像光学
系201に各種のフィルタが装着されているか否かを検
出し、その検出結果を入力するためのスイッチである。
スイッチSLAFMFは、レンズ側のAFモードとMFもー
どの切り替えスイッチである。
Switch SMODEIs the camera body 100
Mode select switches provided on the top or back
Switch between AF mode and MF mode,
Switching between light mode and automatic exposure mode, automatic exposure mode
Various modes such as switching of various priority control modes
Used when making a selection. Switch SSELFIs a normal
Switch to switch between shooting mode and self-timer mode
Ji. Switch SFI LTIs the imaging optics of the lens 200
Checks whether various filters are installed in the system 201.
Switch for inputting the detection result.
Switch SLAFMFIs the AF mode and MF on the lens side
Which changeover switch.

【0053】次に、測距ユニット140に設けられてい
る複数の測距領域の配置を図3(a)に示す。図3
(a)に示すように、測距ユニット140の中央部には
十字測距領域A5が設けられており、十字測距領域A5
を中心として縦方向、横方向及び斜め方向に8箇所の測
距領域A1〜A4及びA6〜A9が設けられている。各
測距領域A1〜A9に対応して、それぞれ1対(測距領
域A5に関しては十字状に配置された2対)のCCDな
どで構成された測距センサが設けられている。
Next, the arrangement of a plurality of distance measurement areas provided in the distance measurement unit 140 is shown in FIG. FIG.
As shown in (a), a cross-shaped ranging area A5 is provided in the center of the ranging unit 140, and the cross-shaped ranging area A5 is provided.
, Eight distance measurement areas A1 to A4 and A6 to A9 are provided in the vertical, horizontal, and oblique directions. Corresponding to each of the distance measurement areas A1 to A9, a distance measurement sensor including a pair of CCDs (two pairs arranged in a cross shape for the distance measurement area A5) is provided.

【0054】また、測光ユニット180の多分割測光領
域の配置を図3(b)に示す。図3(b)に示すよう
に、縦方向に3列、横方向に1/2ピッチずらした状態
でB1〜B13の13個の測光領域が配置されている。
また、画面全体に対応する領域B0も1つの測光領域と
している。各測光領域に対応して、それぞれフォトダイ
オードなどの光電変換素子で構成された受光素子が設け
られている。
FIG. 3B shows the arrangement of the multi-segment photometry area of the photometry unit 180. As shown in FIG. 3B, thirteen photometric areas B1 to B13 are arranged in a state shifted by three rows in the vertical direction and by ピ ッ チ pitch in the horizontal direction.
The area B0 corresponding to the entire screen is also one photometric area. A light receiving element composed of a photoelectric conversion element such as a photodiode is provided corresponding to each photometry area.

【0055】さらに、調光センサ150の調光素子の配
置を図3(c)に示す。図3(c)に示すように、横方
向に3つの調光素子又は調光領域C1〜C3が配置され
ている。また、画面全体に対応する領域C0も1つの調
光領域としている。各調光領域に対応して、それぞれフ
ォトダイオードなどの光電変換素子で構成された調光素
子が設けられている。
FIG. 3C shows the arrangement of the light control elements of the light control sensor 150. As shown in FIG. 3C, three light control elements or light control areas C1 to C3 are arranged in the horizontal direction. The area C0 corresponding to the entire screen is also one dimming area. A light control element composed of a photoelectric conversion element such as a photodiode is provided corresponding to each light control area.

【0056】測距領域A1〜A9、測光領域B1〜B1
3及び調光領域C1〜C3の関係を図4(a)〜(c)
に示す。図4(a)は測距領域A1〜A9と測光領域B
1〜B13を重ね合わせたものである。図4(a)から
わかるように、画面中央の十字測距領域A5とその横方
向の両隣の測距領域A2及びA8と、測光領域B6、B
7及びB8はそれぞれ1対1に対応しているが、その他
の測距領域と測光領域とは直接には対応していない。そ
こで、本実施形態では、9つの測距領域A1〜A9をそ
れぞれ画面横方向に3つのグループに分割し、画面左側
で縦方向に配列された3つの測距領域A1〜A3を第1
群、画面中央部で縦方向に配列された3つの測距領域A
4〜A6を第2群、画面右側で縦方向に配列された3つ
の測距領域A7〜A9を第3群とする。そして、各測距
領域A1〜A9に対応する測距センサのうち最もデフォ
ーカス量の小さいものが含まれている群に対応して、各
測距領域B1〜B13に対応する受光素子の出力に乗ず
る重み係数の値を変化させる(詳細は後述する)。
Distance measuring areas A1 to A9, photometric areas B1 to B1
4 (a) to 4 (c) show the relationship between No. 3 and the light control areas C1 to C3.
Shown in FIG. 4A shows the distance measurement areas A1 to A9 and the photometry area B.
1 to B13 are superimposed. As can be seen from FIG. 4A, a cross-shaped distance measurement area A5 at the center of the screen, distance measurement areas A2 and A8 on both sides in the horizontal direction, and photometry areas B6 and B
7 and B8 correspond to each other on a one-to-one basis, but the other distance measurement areas do not directly correspond to the photometry areas. Therefore, in the present embodiment, the nine ranging areas A1 to A9 are each divided into three groups in the horizontal direction of the screen, and the three ranging areas A1 to A3 arranged in the vertical direction on the left side of the screen are referred to as the first groups.
Group, three ranging areas A vertically arranged in the center of the screen
4 to A6 are a second group, and three ranging areas A7 to A9 arranged in the vertical direction on the right side of the screen are a third group. The output of the light receiving element corresponding to each of the distance measurement areas B1 to B13 corresponds to the group including the one having the smallest defocus amount among the distance measurement sensors corresponding to each of the distance measurement areas A1 to A9. The value of the multiplication weight coefficient is changed (details will be described later).

【0057】図4(b)は測距領域A1〜A9と調光領
域C1〜C3を重ね合わせたものである。図4(b)か
らわかるように、調光領域C1は第1群の3つの測距領
域A1、A2及びA3に対応する。同様に、調光領域C
2は第2群の3つの測距領域A4、A5及びA6に対応
し、調光領域C3は第3群の3つの測距領域A7、A8
及びA9に対応する。
FIG. 4B is a view in which the distance measurement areas A1 to A9 and the light control areas C1 to C3 are superimposed. As can be seen from FIG. 4B, the light control area C1 corresponds to the three distance measurement areas A1, A2, and A3 of the first group. Similarly, the light control area C
Numeral 2 corresponds to the three groups of three distance measuring areas A4, A5 and A6, and the light control area C3 corresponds to the third group of three distance measuring areas A7 and A8.
And A9.

【0058】なお、図4(c)は測距領域A1〜A9
と、測光領域B1〜B13と、調光領域C1〜C3を重
ね合わせたものである。
FIG. 4C shows the distance measurement areas A1 to A9.
And photometric areas B1 to B13 and light control areas C1 to C3.

【0059】次に、本実施形態における動作について説
明する。まず、図5〜図6に示すメインフローにおい
て、カメラボディ100のメインスイッチがオンされる
と、カメラCPU301はシャッタレリーズボタンに設
けられたスイッチS1がオンされたか否かを判断する
(ステップ#1)。スイッチS1がオンされると、カメ
ラCPU301はレンズCPU204にアクセスして、
現在装着されているレンズ200に関する各種の情報を
読み込む(ステップ#3)。
Next, the operation of this embodiment will be described. First, in the main flow shown in FIGS. 5 and 6, when the main switch of the camera body 100 is turned on, the camera CPU 301 determines whether or not the switch S1 provided on the shutter release button is turned on (step # 1). ). When the switch S1 is turned on, the camera CPU 301 accesses the lens CPU 204 and
Various information on the currently mounted lens 200 is read (step # 3).

【0060】次に、カメラCPU301は測距ユニット
140を駆動して、各測距領域A1〜A9に対応する測
距センサの出力を読み出す(多点測距:ステップ#
5)。さらに、カメラCPU301は、読み出した各測
距センサの出力すなわちデフォーカス量とレンズ200
の焦点距離などから被写体までの距離を演算したり、い
ずれかの測距領域において合焦しているか否かなどを判
断する(測距情報演算:ステップ#7)。
Next, the camera CPU 301 drives the distance measuring unit 140 to read the output of the distance measuring sensor corresponding to each of the distance measuring areas A1 to A9 (multipoint distance measuring: step #).
5). Further, the camera CPU 301 reads out the output of each ranging sensor, that is, the defocus amount and the lens 200.
Then, the distance to the subject is calculated from the focal length or the like, and it is determined whether or not any one of the distance measurement areas is in focus (distance measurement information calculation: step # 7).

【0061】測距情報を演算すると、カメラCPU30
1はレンズCPU204からのレンズ情報及びカメラボ
ディ100のモード選択スイッチSMODEの設定などか
ら、AFが可能か否かを判断する(ステップ#9)。具
体的には、装着されているレンズ200が非AFレンズ
の場合及びレンズ200はAFレンズであるが、ユーザ
がMFモードを選択している場合には、AF動作を行わ
ずにMF動作を行う。そのため、カメラCPU301は
AFモードフラグをオフに設定する(ステップ#1
1)。一方、レンズ200がAFレンズであってAFモ
ードが選択されている場合、カメラCPU301はAF
モードフラグをオンに設定し(ステップ#13)、AF
駆動ユニット160を駆動してAF動作を行う(ステッ
プ#15)。
When the distance measurement information is calculated, the camera CPU 30
1 determines whether or not AF is possible based on the lens information from the lens CPU 204 and the setting of the mode selection switch S MODE of the camera body 100 (step # 9). Specifically, when the mounted lens 200 is a non-AF lens and the lens 200 is an AF lens, when the user selects the MF mode, the MF operation is performed without performing the AF operation. . Therefore, the camera CPU 301 sets the AF mode flag to off (step # 1).
1). On the other hand, when the lens 200 is an AF lens and the AF mode is selected, the camera CPU 301
The mode flag is set to ON (step # 13), and AF
The driving unit 160 is driven to perform the AF operation (step # 15).

【0062】次に、カメラCPU301は、フラッシュ
の設定に関する情報、例えばカメラボディ100に内蔵
されている発光ユニット170を使用するのか、あるい
は外付けのフラッシュ発光装置400が装着されている
か否か及びそのガイドナンバーなどを設定する(ステッ
プ#17)。さらに、モード設定スイッチSMODEの設定
に従って撮影条件を設定する(ステップ#19)撮影設
定情報が演算されると、カメラCPU301は測光ユニ
ット180を制御して全測光領域に対応する受光素子を
用いて多分割測光を行い(ステップ#21)、各測光領
域に対応する受光素子からの出力信号を用いて、ステッ
プ#19で設定された撮影条件に従って多分割測光値
(被写体輝度情報に相当)を演算する(ステップ#2
3)。さらに、カメラCPU301は、演算された多分
割測光値及び露光の決定方法に従って絞り値及びシャッ
タ速度を演算する(AE演算:ステップ#25)。
Next, the camera CPU 301 determines information on the flash setting, for example, whether to use the light emitting unit 170 built in the camera body 100, whether or not the external flash light emitting device 400 is mounted, A guide number and the like are set (step # 17). Further, the photographing conditions are set according to the setting of the mode setting switch S MODE (step # 19). When the photographing setting information is calculated, the camera CPU 301 controls the photometric unit 180 to use the light receiving elements corresponding to the entire photometric area. Multi-segment photometry is performed (step # 21), and multi-segment photometry values (corresponding to subject brightness information) are calculated using output signals from the light receiving elements corresponding to the respective photometry areas in accordance with the shooting conditions set in step # 19. Yes (Step # 2)
3). Further, the camera CPU 301 calculates the aperture value and the shutter speed according to the calculated multi-segment photometric value and the method of determining the exposure (AE calculation: step # 25).

【0063】絞り値及びシャッタ速度が設定されると、
カメラCPU301はシャッタレリーズボタンに設けら
れているスイッチS2がオンしたか否か、すなわちユー
ザがシャッタレリーズボタンを最後まで押し込んだか否
かを判断する(ステップ#27)。スイッチS2がオン
されていない場合(ステップ#27でNO)、カメラC
PU301はステップ#1に戻って上記各ステップを繰
り返す。
When the aperture value and the shutter speed are set,
The camera CPU 301 determines whether or not the switch S2 provided on the shutter release button has been turned on, that is, whether or not the user has pressed the shutter release button to the end (step # 27). If the switch S2 is not turned on (NO in step # 27), the camera C
The PU 301 returns to step # 1 and repeats the above steps.

【0064】スイッチS2がオンされると(ステップ#
27でYES)、カメラCPU301は、ステップ#2
5で演算した絞り値及びシャッタ速度に基づいてフラッ
シュの使用が必要か否かを判断する(ステップ#2
9)。本実施形態の場合、カメラボディ100に内蔵さ
れている発光ユニット170には、フラッシュ予備発光
機能が設けられている。一方、外付けのフラッシュ発光
装置400には、必ずしもフラッシュ予備発光機能が設
けられているとは限らない。また、ユーザ自身がフラッ
シュ予備発光機能を解除している場合もあり得る。そこ
で、カメラCPU301は、フラッシュの使用が必要と
判断した場合、フラッシュ予備発光制御を行うか否かを
判断する(ステップ#31)。
When the switch S2 is turned on (step #)
(YES at 27), the camera CPU 301 proceeds to step # 2
It is determined whether the use of the flash is necessary based on the aperture value and the shutter speed calculated in step 5 (step # 2).
9). In the case of the present embodiment, the light emitting unit 170 incorporated in the camera body 100 is provided with a flash preliminary light emission function. On the other hand, the external flash light emitting device 400 does not always have the flash preliminary light emission function. Further, the user may have canceled the flash preliminary light emission function. Therefore, when the camera CPU 301 determines that the use of the flash is necessary, the camera CPU 301 determines whether or not to perform flash preliminary light emission control (step # 31).

【0065】フラッシュ予備発光制御を行う場合(ステ
ップ#31でYES)、カメラCPU301は内蔵の発
光ユニット170又は外付けのフラッシュ発光装置40
0を制御して所定光量の予備発光を行い(ステップ#3
3)、発光ユニット170又は外付けのフラッシュ発光
装置400に設けられている受光素子(図示せず)を用
いて被写体からの反射光を受光する(モニタ測光:ステ
ップ#35)。そして、カメラCPU301は予備発光
量と受光量とから、例えばカメラから被写体までの距離
や被写体の反射率などの調光用パラメータを演算する
(ステップ#37)。本実施形態では、AFエンコーダ
163の出力や測距ユニット140の測距センサからの
デフォーカス情報及びレンズ200の焦点距離情報など
から合焦している被写体までの距離を演算することがで
きるので、予備発光量とモニタ測光量の比と被写体まで
の距離に相当する光の減衰から、被写体の反射率を演算
で求めることができる。また、カメラから被写体までの
距離がわからない場合は、被写体の反射率を標準反射率
(18%)と仮定すれば、予備発光量とモニタ測光量の
比から被写体までの距離を推定することができる。
When the flash preliminary light emission control is performed (YES in step # 31), the camera CPU 301 operates the built-in light emitting unit 170 or the external flash light emitting device 40.
0 to perform a predetermined amount of preliminary light emission (step # 3).
3) The light reflected from the subject is received using the light receiving element (not shown) provided in the light emitting unit 170 or the external flash light emitting device 400 (monitor photometry: step # 35). Then, the camera CPU 301 calculates dimming parameters such as the distance from the camera to the subject and the reflectance of the subject from the preliminary light emission amount and the received light amount (step # 37). In the present embodiment, the distance to the focused object can be calculated from the output of the AF encoder 163, the defocus information from the distance measurement sensor of the distance measurement unit 140, the focal length information of the lens 200, and the like. The reflectance of the subject can be obtained by calculation from the ratio between the preliminary light emission amount and the monitor light measurement amount and the attenuation of light corresponding to the distance to the subject. If the distance from the camera to the subject is not known, assuming that the reflectance of the subject is the standard reflectance (18%), the distance to the subject can be estimated from the ratio between the preliminary light emission amount and the monitor light measurement amount. .

【0066】被写体輝度が高くフラッシュの使用をする
必要がない場合(ステップ#29でNO)、フラッシュ
を使用するけれども予備発光機能がない場合又は予備発
光機能が選択されていない場合(ステップ#31でN
O)及びステップ#35で調光用パラメータが演算され
た場合、カメラCPU301は、主ミラー111及び補
助ミラー112の光路からの退避(ミラーアップ動作)
などのシャッタレリーズ準備動作を行う(ステップ#3
9)。これと並行して、レンズ200側の絞り210を
駆動してステップ#25で演算された絞り値に設定(絞
り込み動作)する(ステップ#41)。
When the object brightness is high and it is not necessary to use the flash (NO in step # 29), when the flash is used but there is no preliminary light emission function, or when the preliminary light emission function is not selected (step # 31). N
O) and when the dimming parameters are calculated in step # 35, the camera CPU 301 retracts the main mirror 111 and the auxiliary mirror 112 from the optical path (mirror up operation).
(Step # 3)
9). In parallel with this, the aperture 210 on the lens 200 side is driven to set (aperture operation) the aperture value calculated in step # 25 (step # 41).

【0067】ミラーアップ動作及び絞り込み動作が完了
すると、シャッタユニット130を駆動して露光を開始
する(シャッタ開:ステップ#43)。スリット式シャ
ッタの場合、先膜が走行を開始し、フィルム面1が露光
される。これと並行して、カメラCPU301はフラッ
シュの発光を制御するか否かを判断し(ステップ#4
5)、フラッシュを発光させる場合、内蔵の発光ユニッ
ト170又は外付けのフラッシュ発光装置400を制御
してフラッシュの発光を開始する(ステップ#47)。
When the mirror-up operation and the aperture-down operation are completed, the exposure is started by driving the shutter unit 130 (shutter open: step # 43). In the case of the slit type shutter, the leading film starts running, and the film surface 1 is exposed. In parallel with this, the camera CPU 301 determines whether or not to control flash emission (step # 4).
5) When the flash is to be emitted, the built-in light emitting unit 170 or the external flash light emitting device 400 is controlled to start emitting the flash (step # 47).

【0068】フラッシュの発光を開始すると、被写体2
からの反射光はレンズ200の撮像光学系201により
フィルム面1に到達し、フィルム面1で反射されて調光
センサ150に入射する。カメラCPU301は、調光
センサ150による受光量が一定値に到達した時点で内
蔵の発光ユニット170又は外付けのフラッシュ発光装
置400を制御してフラッシュの発光を停止させる(ス
テップ#49)。
When the flash emission starts, the subject 2
Is reflected by the imaging optical system 201 of the lens 200, reaches the film surface 1, is reflected by the film surface 1, and enters the light control sensor 150. When the amount of light received by the light control sensor 150 reaches a certain value, the camera CPU 301 controls the built-in light emitting unit 170 or the external flash light emitting device 400 to stop flash emission (step # 49).

【0069】ステップ#43でシャッタユニット130
の動作を開始した後、フラッシュの発光を制御するか否
かに関わらず、カメラCPU301はシャッタ開時間を
カウントし(ステップ#51)、ステップ#25で演算
されたシャッタ速度に対応する時間が経過するとシャッ
タユニット130を駆動して露光を終了する(シャッタ
閉:ステップ#53)。スリット式シャッタの場合、後
膜が走行を開始し、フィルム面1を覆う。これと並行し
て、光路外に退避していた主ミラー111及び補助ミラ
ー112が初期位置に復帰し、またレンズ200の絞り
機構210が開放位置に戻る。
In step # 43, the shutter unit 130
After the operation is started, the camera CPU 301 counts the shutter open time (step # 51) irrespective of whether or not to control the emission of the flash, and the time corresponding to the shutter speed calculated in step # 25 elapses. Then, the shutter unit 130 is driven to end the exposure (shutter closed: step # 53). In the case of the slit type shutter, the posterior film starts running and covers the film surface 1. At the same time, the main mirror 111 and the auxiliary mirror 112 that have been retracted outside the optical path return to the initial position, and the aperture mechanism 210 of the lens 200 returns to the open position.

【0070】フィルム面1への露光が完了すると、カメ
ラCPU301はインファインダ表示素子124やオン
ボディ表示素子312などに露光が完了したことを知ら
せる表示を行う(ステップ#55)。さらに、カメラC
PU301は巻き上げモータドライバ306などを駆動
して、フィルムの露光済みの部分をスプールに巻き取る
と共に、シャッタユニット130をチャージして次のコ
マの露光準備を行う(ステップ#57)。
When the exposure of the film surface 1 is completed, the camera CPU 301 makes a display notifying the completion of the exposure to the infinder display element 124 and the on-body display element 312 (step # 55). Furthermore, camera C
The PU 301 drives the winding motor driver 306 and the like to wind the exposed portion of the film around the spool, and charges the shutter unit 130 to prepare for exposure of the next frame (step # 57).

【0071】上記ステップ#3において読み込まれるレ
ンズ情報としては、現在装着されているレンズ200に
関する各種の情報、例えばAFレンズか非AFレンズ
か、その焦点距離(ズームレンズの場合、現在設定され
ている焦点距離)、その開放絞り値(開放Fナンバー又
は最少Fナンバー)及び最少絞り値(最大Fナンバ
ー)、レンズ200側の距離エンコーダ205の出力に
基づく被写体までの距離、距離精度情報及び絞り精度情
報、フィルタ装着の有無、撮像光学系201が特殊光学
系か否かなどが挙げられる。
The lens information read in step # 3 includes various information on the currently mounted lens 200, for example, whether the lens is an AF lens or a non-AF lens, or its focal length (in the case of a zoom lens, it is currently set. Focal length), its open aperture value (open F number or minimum F number) and minimum aperture value (maximum F number), distance to the subject based on the output of the distance encoder 205 on the lens 200 side, distance accuracy information, and aperture accuracy information , Whether or not the filter is mounted, and whether or not the imaging optical system 201 is a special optical system.

【0072】また、ステップ#19において設定される
撮影条件としては、フラッシュ使用時における多分割T
TL調光モードか平均TTL調光モードかなどの調光モ
ード設定、フラッシュ非使用時における多分割測光モー
ド、中央部重点平均測光モード、スポット測光モードな
どの測光モード設定、AFレンズ使用時におけるAF/
MF設定、セルフタイマー撮影のオン/オフ、フラッシ
ュブラケット撮影のオン/オフ設定、多重露光撮影のオ
ン/オフなどが挙げられる。
The photographing conditions set in step # 19 include a multi-division T when using a flash.
Dimming mode setting such as TTL dimming mode or average TTL dimming mode, multi-segment metering mode when flash is not used, center-weighted average metering mode, spot metering mode, etc., AF when using AF lens /
The setting includes MF setting, on / off of self-timer shooting, on / off setting of flash bracket shooting, on / off of multiple exposure shooting, and the like.

【0073】次に、ステップ#7における測距情報演算
ルーチンについて、図7に示すフローチャートを参照し
つつ説明する。ステップ#7における距離情報には、例
えばレンズ200の撮像光学系201が被写体に対して
合焦しているか否かの情報、AFモードにおける被写体
距離情報、測距ユニット140の各測距センサによるデ
フォーカス量に関する情報、像倍率に関する情報などが
含まれる。
Next, the distance measurement information calculation routine in step # 7 will be described with reference to the flowchart shown in FIG. The distance information in step # 7 includes, for example, information as to whether or not the imaging optical system 201 of the lens 200 is focused on the subject, subject distance information in the AF mode, and data obtained by each of the distance measurement sensors of the distance measurement unit 140. Information about the focus amount, information about the image magnification, and the like are included.

【0074】ステップ#7において測距情報演算を開始
すると、カメラCPU301はMFモードか否かを判断
する(ステップ#101)。MFモードでない、すなわ
ちAFモードの場合(ステップ#101でYES)、カ
メラCPU301はステップ#5で得た測距ユニット1
40の各測距センサからのデフォーカス量を用いて、レ
ンズ200の撮像光学系201が被写体に合焦している
か否かを判断する(ステップ#103)。被写体の合焦
していない場合、レンズ200の撮像光学系201の位
置がさらに変化する可能性があるので、AF演算情報か
ら求めたデフォーカス量込みの距離情報を現時点での被
写体までの距離情報DVtmpとして設定する(ステップ
#105)。
When the distance measurement information calculation is started in step # 7, the camera CPU 301 determines whether or not the mode is the MF mode (step # 101). If the mode is not the MF mode, that is, if the mode is the AF mode (YES in step # 101), the camera CPU 301 determines the distance measurement unit 1 obtained in step # 5.
It is determined whether or not the imaging optical system 201 of the lens 200 is focused on the subject by using the defocus amount from each of the distance measurement sensors 40 (step # 103). If the subject is out of focus, the position of the imaging optical system 201 of the lens 200 may further change. Therefore, the distance information including the defocus amount obtained from the AF calculation information is used as the current distance information to the subject. It is set as DVtmp (step # 105).

【0075】一方、MFモードの場合(ステップ#10
1でYES)及びAFモードで撮像光学系201が被写
体に合焦している場合(ステップ#103でYES)、
カメラCPU301はレンズCPU204からのレンズ
側距離情報が有効か否かを判断する(ステップ#10
7)。ここで、「レンズ側距離情報が有効」とは、図1
に示すようにレンズ200側にも距離エンコーダ205
が設けられており、レンズ200側で検出した距離情報
が使用できる場合をいう。非AFレンズや従来のAFレ
ンズのようにレンズ200側に距離エンコーダ205が
設けられていない場合(ステップ#107でNO)、カ
メラボディ100側に設けられた距離エンコーダ162
で検出した距離情報を現時点での被写体までの距離情報
DVtmpとして設定する(ステップ#109)。一方、
図1に示すようにレンズ200側にも距離エンコーダ2
05が設けられている場合、レンズ200側の距離エン
コーダ205で検出した距離情報を現時点での被写体ま
での距離情報DVtmpとして設定する(ステップ#11
1)。
On the other hand, in the case of the MF mode (step # 10)
1 is YES) and when the imaging optical system 201 is focused on the subject in the AF mode (YES in step # 103),
The camera CPU 301 determines whether the lens-side distance information from the lens CPU 204 is valid (step # 10).
7). Here, “the lens-side distance information is valid” refers to the case in FIG.
As shown in FIG.
Is provided, and the distance information detected on the lens 200 side can be used. When the distance encoder 205 is not provided on the lens 200 side like a non-AF lens or a conventional AF lens (NO in step # 107), the distance encoder 162 provided on the camera body 100 side
Is set as distance information DVtmp to the subject at the present time (step # 109). on the other hand,
As shown in FIG. 1, the distance encoder 2 is also provided on the lens 200 side.
If 05 is provided to set the distance information detected by a distance encoder 205 of the lens 200 side as the distance information DV tmp to the subject at the current time (step # 11
1).

【0076】ステップ#105、#109又は#111
で距離情報DVtmpが設定されると、カメラCPU30
1は、距離情報DVtmpを適正露光条件決定時に用いる
被写体距離情報DVaeとして設定する(ステップ#11
3)。さらに、カメラCPU301は、被写体距離とレ
ンズ200の撮像光学系の焦点距離情報を用いて像倍率
βaeを演算する(ステップ#115)。さらに、カメラ
CPU301は、測距ユニット140の各測距領域A1
〜A9に対応する各測距センサのデフォーカス量をそれ
ぞれ適正露光条件決定時に使用するデフォーカス量DF
(i)(i=1〜9)として設定する(ステップ#11
7)。
Step # 105, # 109 or # 111
When the distance information DVtmp is set by the user, the camera CPU 30
1 sets the distance information DV tmp as subject distance information DV ae to be used when determining an appropriate exposure condition (step # 11).
3). Further, the camera CPU 301 calculates the image magnification β ae using the subject distance and the focal length information of the imaging optical system of the lens 200 (step # 115). Further, the camera CPU 301 controls each of the distance measurement areas A1 of the distance measurement unit 140.
The defocus amount DF used when determining the appropriate exposure condition is the defocus amount of each distance measuring sensor corresponding to.
(I) Set as (i = 1 to 9) (Step # 11)
7).

【0077】次に、ステップ#23における多分割測光
値演算及びステップ#25におけるAE演算ルーチンに
ついて、図8に示すフローチャートを参照しつつ説明す
る。多分割測光値演算を開始すると、カメラCPU30
1は、ステップ#21で測定した測光ユニット180の
各測光領域B1〜B13に対応する受光素子の出力をそ
れぞれ各測光領域の輝度値BVcell(i)(i=1〜1
3)として設定し(ステップ#121)、それらの平均
値BWave=ΣBVcell(i)/13(i=1〜13)
を求める(ステップ#123)。さらに、ステップ#7
で演算された測距情報を判別する(ステップ#12
5)。測距情報判別ルーチンの詳細は後述する。
Next, the multi-segment photometry value calculation in step # 23 and the AE calculation routine in step # 25 will be described with reference to the flowchart shown in FIG. When the multi-segment metering value calculation is started, the camera CPU 30
1, the output of the light receiving element corresponding to each of the photometry areas B1 to B13 of the photometry unit 180 measured in step # 21 is set to the brightness value BV cell (i) (i = 1 to 1) of each photometry area.
3) (step # 121), and their average value BW ave = ΣBV cell (i) / 13 (i = 1 to 13)
Is obtained (step # 123). Further, Step # 7
Is determined (step # 12)
5). Details of the distance measurement information determination routine will be described later.

【0078】さらに、カメラCPU301はAFモード
フラグがオンしているか否か、すなわちレンズ200の
撮像光学系201の合焦を自動的に行う(AF)か、ユ
ーザが手動で行う(MF)かを判別し(ステップ#12
7)、AFモードフラグがオンしている場合はAF時被
写体輝度BVSを演算する(ステップ#129)。AF
時被写体輝度演算は、従来から行われている方法と実質
的に同じであり、測距ユニット140の各測距領域A1
〜A9に対応する各測距センサの出力であるデフォーカ
ス量の大小を比較して、どの測距領域に合焦しているか
をカメラPU301で判断し、合焦した測距領域に対応
する測光領域及びその周辺領域に重みをつけて測光し、
合焦した主要被写体に対する適正露光条件を決定する。
Further, the camera CPU 301 determines whether the AF mode flag is turned on, that is, whether the focusing of the image pickup optical system 201 of the lens 200 is automatically performed (AF) or manually performed by the user (MF). Determine (Step # 12)
7) If the AF mode flag is on, the AF subject brightness BVS is calculated (step # 129). AF
The time subject luminance calculation is substantially the same as the conventional method, and each distance measurement area A1 of the distance measurement unit 140 is calculated.
By comparing the magnitude of the defocus amount, which is the output of each distance measurement sensor corresponding to A9 to A9, the camera PU301 determines which distance measurement area is in focus, and performs photometry corresponding to the focused distance measurement area. Photometry with weighting the area and its surrounding area,
An appropriate exposure condition for the focused main subject is determined.

【0079】一方、ステップ#127でAFモードフラ
グがオンしていない場合、装着されているレンズ200
が非AFレンズであるか又はAFレンズであってもユー
ザがMFを選択している場合である。この場合、カメラ
CPU301は、後述するルーチンに従ってMF時被写
体輝度BVSを演算する(ステップ#131)。
On the other hand, if the AF mode flag is not turned on in step # 127,
Is a non-AF lens or a case where the user has selected the MF even if the lens is an AF lens. In this case, the camera CPU 301 calculates the MF subject brightness BVS in accordance with a routine described later (step # 131).

【0080】被写体輝度が演算されると、カメラCPU
301は、フラッシュを使用するか否かを判断する(ス
テップ#133)。フラッシュを使用しない場合は、A
F時被写体輝度又はMF時被写体輝度BVSを制御輝度
値BVTとして設定する(ステップ#135)。一方、
フラッシュを使用する場合(ステップ#133でN
O)、カメラCPU301は、さらにスローシンクロを
使用するか否かを判断する(ステップ#137)。スロ
ーシンクロを使用する場合、カメラCPU301は、ス
テップ#123で演算した輝度の平均値BVaveを制御
輝度値として設定する(ステップ#139)。スローシ
ンクロを使用しない場合は、カメラCPU301は、A
F時被写体輝度又はMF時被写体輝度BVS(定常光成
分)に1EV(フラッシュ光成分)を加算した値を制御
輝度値BVTとして設定する(ステップ#141)。
When the subject brightness is calculated, the camera CPU
301 determines whether or not to use a flash (step # 133). If you do not use flash, A
The F-time subject brightness or the MF-time subject brightness BVS is set as the control brightness value BVT (step # 135). on the other hand,
When using a flash (N in step # 133)
O), the camera CPU 301 further determines whether or not to use slow sync (step # 137). When using the slow sync, the camera CPU 301 sets the average brightness value BV ave calculated in step # 123 as the control brightness value (step # 139). When the slow sync is not used, the camera CPU 301
A value obtained by adding 1 EV (flash light component) to the F-time subject brightness or the MF-time subject brightness BVS (steady light component) is set as the control brightness value BVT (step # 141).

【0081】このようにして制御輝度値BVTが決定さ
れると、ステップ#25におけるAE演算に移行する。
カメラCPU301は、制御輝度値BVTにフィルム感
度値(SV)及びユーザが露光補正を設定している場合
にはその補正値(+/−EV)を加えた値を制御露光値
EVTとして設定する(ステップ#143)。制御露光
値EVTが決定されると、カメラCPU301は、あら
かじめ設定されているプログラム線図に従って絞り値A
V及びシャッタ速度TVを決定する(ステップ#14
5)。あるいは、撮影者が選択設定した絞り値またはシ
ャッタ速度に基づいて決定しても良い。
When the control brightness value BVT is determined in this way, the flow shifts to the AE calculation in step # 25.
The camera CPU 301 sets a value obtained by adding the film sensitivity value (SV) and the exposure correction value (+/− EV) to the control luminance value BVT as the control exposure value EVT when the user has set the exposure correction value (+/− EV) ( Step # 143). When the control exposure value EVT is determined, the camera CPU 301 sets the aperture value A according to a preset program chart.
V and shutter speed TV are determined (step # 14)
5). Alternatively, it may be determined based on the aperture value or shutter speed selected and set by the photographer.

【0082】次に、ステップ#125における距離情報
判別ルーチンについて、図9に示すフローチャートを参
照しつつ説明する。距離情報判別を開始すると、カメラ
CPU301はまず補正フラグをオフにし(ステップ#
151)、装着されているレンズ200が非AFレンズ
か否かを判断する(ステップ#153)。レンズ200
がAFレンズの場合、カメラCPU301は、さらにレ
ンズ200の撮像光学系201が魚眼レンズなどの特殊
光学系か否かを判断する(ステップ#155)。撮像光
学系201が特殊光学系でない場合、カメラCPU30
1はフィルタなどが装着されているか否かを判断する
(ステップ#157)。
Next, the distance information determination routine in step # 125 will be described with reference to the flowchart shown in FIG. When the distance information determination is started, the camera CPU 301 first turns off the correction flag (step #
151), it is determined whether or not the mounted lens 200 is a non-AF lens (step # 153). Lens 200
Is an AF lens, the camera CPU 301 further determines whether or not the imaging optical system 201 of the lens 200 is a special optical system such as a fisheye lens (step # 155). If the imaging optical system 201 is not a special optical system, the camera CPU 30
1 judges whether or not a filter or the like is mounted (step # 157).

【0083】フィルタなどが装着されていない場合、カ
メラCPU301は絞り精度が無効か否かを判断する
(ステップ#159)。「絞り精度が無効」とは、例え
ばレンズ200の絞り機構210の精度が低く、ステッ
プ#145で演算された所定の絞り値及びその一定の誤
差範囲内で絞り機構が停止できないような場合をいう。
「絞り精度が無効」かどうかは、レンズ設定情報に基づ
き判断する。絞り精度が有効な場合、カメラCPU30
1は、レンズ距離情報が有効か否か、すなわちレンズ2
00側に距離エンコーダ205などが設けられているか
否か又は距離エンコーダ205が有効に機能しているか
否かを判断する(ステップ#161)。レンズ200側
の距離エンコーダ205が有効に機能している場合(ス
テップ#161でYES)、カメラCPU301は、レ
ンズ200側の距離エンコーダ205からの出力信号を
距離情報として使用する。一方、レンズ距離情報が利用
できない場合、カメラCPU301は、さらにボディ距
離情報が無効か否か、すなわちカメラボディ100側の
距離エンコーダ163が有効に機能しているか否かを判
断する(ステップ#163)。
If no filter or the like is mounted, the camera CPU 301 determines whether or not the aperture accuracy is invalid (step # 159). “The aperture precision is invalid” means, for example, a case where the precision of the aperture mechanism 210 of the lens 200 is low and the aperture mechanism cannot be stopped within the predetermined aperture value calculated in step # 145 and a certain error range thereof. .
Whether the “aperture accuracy is invalid” is determined based on the lens setting information. If the aperture accuracy is valid, the camera CPU 30
1 indicates whether the lens distance information is valid, that is, the lens 2
It is determined whether the distance encoder 205 or the like is provided on the 00 side or whether the distance encoder 205 is functioning effectively (step # 161). When the distance encoder 205 on the lens 200 side is functioning effectively (YES in step # 161), the camera CPU 301 uses an output signal from the distance encoder 205 on the lens 200 side as distance information. On the other hand, if the lens distance information cannot be used, the camera CPU 301 further determines whether the body distance information is invalid, that is, whether the distance encoder 163 of the camera body 100 is functioning effectively (step # 163). .

【0084】ステップ#153で非AFレンズが装着さ
れていると判断した場合、ステップ#155で撮像光学
系201が特殊光学系であると判断した場合、ステップ
#157でフィルタなどが装着されていると判断した場
合、ステップ#159で絞り精度が無効であると判断し
た場合及びステップ#163でボディ距離情報が無効で
あると判断した場合、カメラCPU301は、AF駆動
ユニット160の駆動を禁止するためにAFモードフラ
グをオフにし(ステップ#165)、補正フラグをオン
する(ステップ#167)。
If it is determined in step # 153 that a non-AF lens is mounted, and if it is determined in step # 155 that the imaging optical system 201 is a special optical system, a filter or the like is mounted in step # 157. If it is determined that the aperture accuracy is invalid in step # 159 and if the body distance information is invalid in step # 163, the camera CPU 301 prohibits the driving of the AF driving unit 160. Then, the AF mode flag is turned off (step # 165), and the correction flag is turned on (step # 167).

【0085】次に、ステップ#131におけるMF時被
写体輝度演算ルーチンについて、図10に示すフローチ
ャートを参照しつつ説明する。MF時被写体輝度演算を
開始すると、カメラCPU301は、ユーザによりスポ
ット測光モードが選択されているか否かを判断する(ス
テップ#171)。スポット測光モードが選択されてい
る場合、画面中央に位置する測光領域B7に対応する受
光素子の出力のみを用いるので、被写体輝度BVSとし
て測光領域B7に対応する受光素子の出力BV cell7の
値を設定する。
Next, in step # 131, the MF
The flowchart shown in FIG.
This will be described with reference to a chart. MF subject brightness calculation
When the camera CPU 301 starts, the camera CPU 301
Judgment whether the photometry mode is selected
Step # 171). When spot metering mode is selected
The photometry area B7 located at the center of the screen.
Since only the output of the optical element is used, the subject brightness BVS
Output BV of the light receiving element corresponding to the photometry area B7 cell7 of
Set the value.

【0086】一方、スポット測光モードが選択されてい
ない場合(ステップ#171でNO)、カメラCPU3
01は、中央部重点平均測光モード用に、各測光領域B
1〜B13(図3(b)参照)に対応する受光素子の出
力に対してそれぞれウエイトを設定する(ステップ#1
75)。ウエイトの設定方法は特に限定されず、一例と
して、図3(b)における中央の測光領域B7及びその
横方向の両隣の測光領域B6及びB8のウエイトをその
他の測光領域にウエイトよりも大幅に高く設定してもよ
い。あるいは、中央の測光領域B7のウエイトを最大値
とし、それに隣接する6つの測光領域B2、B3、B
6、B8、B11及びB12のウエイトを中間値とし、
残りの測光領域B1、B4、B5、B9、B10及びB
13のウエイトを最小値に設定してもよい。
On the other hand, when the spot metering mode is not selected (NO in step # 171), the camera CPU 3
01 denotes each photometry area B for the center-weighted average photometry mode.
Weights are set for the outputs of the light receiving elements corresponding to 1 to B13 (see FIG. 3B) (step # 1).
75). The method of setting the weight is not particularly limited, and as an example, the weight of the central photometric area B7 and the photometric areas B6 and B8 on both sides in the horizontal direction in FIG. May be set. Alternatively, the weight of the central photometry area B7 is set to the maximum value, and six photometry areas B2, B3,
6, the weights of B8, B11 and B12 are set to intermediate values,
The remaining photometric areas B1, B4, B5, B9, B10 and B
Thirteen weights may be set to the minimum value.

【0087】ウエイトを設定すると、カメラCPU30
1は、多分割測光モードが選択されているか否かを判断
する(ステップ#177)。多分割測光モードが選択さ
れている場合、カメラCPU301は、測距領域のグル
ープ化(ステップ#179)、被写体位置情報演算(ス
テップ#181)、多分割測光用ウエイト設定(ステッ
プ#183)を実行する。これらのステップ#179〜
#183については後述する。次に、カメラCPU30
1は、多分割測光モードが設定されていない場合は(ス
テップ#177でNO)、ステップ#175で設定した
中央部重点測光用ウエイトを用い、多分割測光モードが
選択されている場合はステップ#183で設定した多分
割測光用ウエイトを用いて、各測光領域B1〜B13に
対応する受光素子の出力に、それぞれ設定されたウエイ
トを掛けて、重み付け平均値を演算し、その値を被写体
輝度BVSとして、以後の処理を行う。
When the weight is set, the camera CPU 30
1 judges whether the multi-segment photometry mode is selected or not (step # 177). When the multi-segment photometry mode is selected, the camera CPU 301 executes the grouping of the distance measurement areas (step # 179), the calculation of the subject position information (step # 181), and the setting of the multi-segment photometry weight (step # 183). I do. These steps # 179-
Step # 183 will be described later. Next, the camera CPU 30
If the multi-segment metering mode is not set (NO in step # 177), the center-weighted metering weight set in step # 175 is used, and if the multi-segment metering mode is selected, step # 1 is executed. Using the weight for multi-segment photometry set in 183, the output of the light receiving element corresponding to each of the photometry areas B1 to B13 is multiplied by the set weight, and a weighted average value is calculated. The subsequent processing is performed.

【0088】次に、上記ステップ#179における測距
領域のグループ化ルーチンについて、図11に示すフロ
ーチャートを参照しつつ説明する。ここでは、図3
(a)に示す9つの測距領域のうち、画面の横方向の左
側に位置する3つの測距領域A1〜A3を第1群、同中
央部に位置する3つの測距領域A4〜A6を第2群、同
右側に位置する3つの測距領域A7〜A9を第3群と
し、各群ごとに、その中に含まれる測距センサの出力か
らデフォーカス量が演算できない低コントラストの領域
の数及び低コントラストでない領域の数を演算する。
Next, the routine for grouping the distance measurement areas in step # 179 will be described with reference to the flowchart shown in FIG. Here, FIG.
Of the nine distance measurement areas shown in FIG. 7A, three distance measurement areas A1 to A3 located on the left side in the horizontal direction of the screen are a first group, and three distance measurement areas A4 to A6 located in the center are the same. The second group and the three distance measurement areas A7 to A9 located on the right side of the second group are referred to as a third group. For each group, a low-contrast area in which the defocus amount cannot be calculated from the output of the distance measurement sensor included therein. Compute the number and the number of non-low contrast areas.

【0089】測距領域のグループ化を開始すると、カメ
ラCPU301は、各群の低コントラストでない測距領
域数NUMdf(i)(i=1〜3)を初期化する(NU
df(j)=0:ステップ#191)。そして、第1群
に属する測距領域A1〜A3について、カメラCPU3
01は、カウンタの計数値i=1を初期設定し(ステッ
プ#193)、続いて第i番目の測距領域Aiに対応す
る測距センサの出力DFiが低コントラストであるか否
かを判断する(ステップ#195)。測距センサの出力
DFiが低コントラストである場合、被写体領域演算用
の換算デフォーカス量DFRi=0を設定する(ステッ
プ#197)。
When the grouping of the ranging areas is started, the camera CPU 301 initializes the number of non-contrast ranging areas NUM df (i) (i = 1 to 3) of each group (NU).
M df (j) = 0: Step # 191). Then, for the distance measurement areas A1 to A3 belonging to the first group, the camera CPU 3
01 initializes the count value i = 1 of the counter (step # 193), and subsequently determines whether or not the output DFi of the distance measurement sensor corresponding to the i-th distance measurement area Ai has low contrast. (Step # 195). When the output DFi of the distance measurement sensor is low contrast, the conversion defocus amount DFRi = 0 for the subject area calculation is set (step # 197).

【0090】一方、測距センサの出力DFiが低コント
ラストでない場合、測距領域数NUMdf1の値を1つ進
め(ステップ#199)、換算でフォーカス量DFRi
(i=1〜3)を演算する(ステップ#201)。ここ
で、デフォーカス量DFiが正の場合、レンズ200の
撮像光学系201の焦点が被写体よりも手前(カメラに
近い側)にあることを意味する。また、デフォーカス量
DFiが負の場合、レンズ200の撮像光学系201の
焦点が被写体よりも後ろ(カメラから遠い側)にあるこ
とを意味する。さらに、デフォーカス量DFiが0の場
合、レンズ200の撮像光学系201の焦点が被写体に
合焦していることを意味する。デフォーカス量DFiが
0又は正の場合、換算デフォーカス量として測定したデ
フォーカス量をそのまま用いる(DFRi=DFi)。
一方、デフォーカス量DFiが負の場合、測定したデフ
ォーカス量に一定の係数Ci(例えば,Ci=−2)を
掛けた値を換算でフォーカス量として用いる(DFRi
=Ci×DFi)。レンズの焦点深度は合焦位置から手
前の方が浅いので、被写体の位置に対するレンズの合焦
位置の画像への影響の度合いを考慮することにより、マ
ニュアルフォーカス時におけるより適正な露光条件を得
ることができる。
On the other hand, if the output DFi of the distance measuring sensor is not low contrast, the value of the number NUM df 1 of the distance measuring areas is increased by one (step # 199), and the focus amount DFRi is converted.
(I = 1 to 3) is calculated (step # 201). Here, if the defocus amount DFi is positive, it means that the focal point of the imaging optical system 201 of the lens 200 is closer to the subject (closer to the camera). When the defocus amount DFi is negative, it means that the focal point of the imaging optical system 201 of the lens 200 is behind the subject (farther from the camera). Further, when the defocus amount DFi is 0, it means that the focus of the imaging optical system 201 of the lens 200 is focused on the subject. When the defocus amount DFi is 0 or positive, the measured defocus amount is used as it is as the converted defocus amount (DFRi = DFi).
On the other hand, when the defocus amount DFi is negative, a value obtained by multiplying the measured defocus amount by a constant coefficient Ci (for example, Ci = −2) is used as the focus amount (DFRi).
= Ci x DFi). Since the depth of focus of the lens is shallower in front of the in-focus position, more appropriate exposure conditions during manual focus can be obtained by considering the degree of influence of the in-focus position of the lens on the image relative to the position of the subject. Can be.

【0091】ステップ#197又は#201において換
算でフォーカス量が得られると、カメラCPU301
は、カウンタの計数値iを1つ進め(i=i+1:ステ
ップ#203)、さらにカウンタの計数値iが3に到達
したか否かを判断する(ステップ#205)。カウンタ
の計数値iが3に到達していない場合は、ステップ#1
95に戻って上記ステップを繰り返す。また、カウンタ
の計数値iが3に到達した場合は、第2群の測距領域A
4〜A6について上記と同様のステップを行う。(ステ
ップ#193’〜#205’)また、第3群の測距領域
A7〜A9に付いても同様である(ステップ#193”
〜#205”)。
When the focus amount is obtained by conversion in step # 197 or # 201, the camera CPU 301
Increments the count i of the counter by one (i = i + 1: step # 203), and further determines whether or not the count i of the counter has reached 3 (step # 205). If the count i of the counter has not reached 3, step # 1
Returning to step 95, the above steps are repeated. When the count value i of the counter reaches 3, the distance measurement area A of the second group is used.
The same steps as above are performed for 4-A6. (Steps # 193 'to # 205') The same applies to the third group distance measurement areas A7 to A9 (step # 193 ").
~ # 205 ").

【0092】次に、ステップ#181における被写体位
置情報演算ルーチンについて、図12に示すフローチャ
ートを参照しつつ説明する。被写体位置情報演算を開始
すると、カメラCPU301は、第1〜3群の各測距領
域群ごとにそれぞれの群に属する測距領域についてのデ
フォーカス量の平均値DFave(j)(j=1〜3)を
演算する(ステップ#211)。具体的には、第1群に
ついては、DFave(1)=(DFR1+DFR2+D
FR3)/NUMdf1の式に基づいて演算される。第2
群及び第3群についても同様である。但し、ステップ#
197で低コントラストと判断され、換算デフォーカス
量DFRi=0とされたものは除く。また、各群に属す
る全ての測距領域のデフォーカス量が0の場合は、例え
ばDFav e(j)=−32768などの実際にはあり得
ない数値を設定する。
Next, the position of the subject in step # 181
The flow chart shown in FIG.
The explanation will be made with reference to the chart. Start subject position information calculation
Then, the camera CPU 301 determines each of the distance measurement areas of the first to third groups.
For each area group, data on the ranging areas belonging to each group
Average focus value DFave(J) (j = 1 to 3)
The calculation is performed (step # 211). Specifically, the first group
About DFave(1) = (DFR1 + DFR2 + D
FR3) / NUMdf1 is calculated based on the equation (1). Second
The same applies to the group and the third group. However, step #
In 197, it is determined that the contrast is low, and the defocus is calculated.
Excludes those for which the quantity DFRi = 0. Also belong to each group
If the defocus amounts of all the distance measurement areas are 0,
DFav e(J) = 32768, etc.
Set a non-numeric value.

【0093】次に、カメラCPU301は、第1〜3群
の各測距領域群ごとにそれぞれの群に属する測距領域に
ついてのデフォーカス量の最小値DFmin(j)(j=
1〜3)を求める(ステップ#213)。また、各群に
属する全ての測距領域のデフォーカス量が0の場合は、
例えばDFave(j)=−32768などの実際にはあ
り得ない数値を設定する。
Next, the camera CPU 301 sets the minimum value DF min (j) (j = j
1 to 3) are obtained (step # 213). When the defocus amounts of all the distance measurement areas belonging to each group are 0,
For example, a numerical value that cannot be actually set, such as DF ave (j) = − 32768, is set.

【0094】さらに、カメラCPU301は、ステップ
#211及び#213で求めた第1〜3群の各測距領域
群ごとのデフォーカス量の平均値DFave(j)及び最
小値DFmin(j)(単位:μm)をそれぞれ撮像光学
系201の焦点距離f1(単位:mm)で割った値に所
定の係数C2を掛けた値DFFLave(j)及びDFF
min(j)を演算する(ステップ#215)。具体的
には、DFFLave(j)=C2・DFave(j)/f1
及びDFFLmin(j)=C2・DFmin(j)/f1の
式に基づいて演算される。
Further, the camera CPU 301 determines the average value DF ave (j) and the minimum value DF min (j) of the defocus amount for each of the first to third distance measuring areas obtained in steps # 211 and # 213. DFFL ave (j) and DFF obtained by multiplying a value obtained by dividing (unit: μm) by the focal length f1 (unit: mm) of the imaging optical system 201 by a predetermined coefficient C2.
L min (j) is calculated (step # 215). Specifically, DFFL ave (j) = C2 · DF ave (j) / f1
And DFFL min (j) = C2 · DF min (j) / f1.

【0095】次に、カメラCPU301は、ステップ#
215で求めた値DFFLave(j)及びDFFL
min(j)に対するウエイト値WTDFave(j)及びW
TDFmi n(j)を演算により求める(ステップ#21
7)。例えば、横軸をDFFLave(j)又はDFFL
min(j)とし、縦軸をウエイト値WTDFave(j)又
はWTDFmin(j)とする図13に示すグラフを用い
てウエイト値を決定する。
Next, the camera CPU 301 proceeds to step #
The value DFFL obtained in 215ave(J) and DFFL
minWeight value WTDF for (j)ave(J) and W
TDFmi n(J) is calculated (Step # 21)
7). For example, the horizontal axis is DFFLave(J) or DFFL
min(J), the vertical axis is the weight value WTDFave(J) Also
Is WTDFmin(J) using the graph shown in FIG.
To determine the weight value.

【0096】ウエイト値が決定すると、カメラCPU3
01は、ステップ#217で求めたウエイト値WTDF
ave(j)及びWTDFmin(j)にそれぞれ所定の係数
C5及びC6を掛けた値を加算することにより各被写体
領域群に対するウエイト値WTDF(j)(j=1〜
3)を演算する。具体的には、WTDF(j)=C5・
WTDFave(j)+C6・WTDFmin(j)の式に基
づいて演算される。そして、カメラCPU301は、ス
テップ#219で求めた各測距領域群に対するウエイト
値を比較し、ウエイト値が最大となる測距領域群を合焦
領域又は主要被写体領域SELareaとして選択する(ス
テップ#221)。
When the weight value is determined, the camera CPU 3
01 is the weight value WTDF obtained in step # 217
By adding values obtained by multiplying ave (j) and WTDF min (j) by predetermined coefficients C5 and C6, weight values WTDF (j) (j = 1 to 1) for each subject region group
3) is calculated. Specifically, WTDF (j) = C5 ·
It is calculated based on the equation of WTDF ave (j) + C6 · WTDF min (j). Then, the camera CPU 301 compares the weight values for the respective distance measurement area groups obtained in step # 219, and selects the distance measurement area group having the largest weight value as the focus area or the main subject area SEL area (step ##). 221).

【0097】次に、ステップ#183における多分割測
光ウエイト演算ルーチンについて、図14に示すフロー
チャートを参照しつつ説明する。多分割測光を行う場
合、カメラCPU301は、図3(b)に示す各測光領
域B1〜B13に対応する受光素子に出力について、同
じウエイト値WTAVE(n)=8(n=1〜13)を設
定する。また、画面全体の測光領域B0については、ウ
エイト値WTAVE(0)=0を設定する(ステップ#2
31)。そして、カメラCPU301は、被写体重視測
光ウエイト値WTs(n)及び被写体重視度合γ1を設
定する(ステップ#233)。被写体重視測光ウエイト
値WTs(n)の設定及び被写体重視度合γ1の設定ル
ーチンの詳細は後述する。
Next, the multi-segment photometry weight calculation routine in step # 183 will be described with reference to the flowchart shown in FIG. When performing multi-segment photometry, the camera CPU 301 uses the same weight value WT AVE (n) = 8 (n = 1 to 13) for the outputs to the light receiving elements corresponding to the photometry areas B1 to B13 shown in FIG. Set. For the photometric area B0 of the entire screen, the weight value WT AVE (0) = 0 is set (step # 2).
31). Then, the camera CPU 301 sets the subject importance photometric weight value WTs (n) and the subject importance degree γ1 (step # 233). The setting of the subject-oriented photometric weight value WTs (n) and the setting of the subject-oriented degree γ1 will be described later in detail.

【0098】被写体重視測光ウエイト値WTs(n)を
設定し、被写体重視度合γ1を演算すると、カメラCP
U301は、補正フラグがオンしているか否かを判断す
る(ステップ#235)。補正フラグがオンしている場
合、カメラCPU301は、被写体重視度合γ1を小さ
な値(γ1/8)に設定変更する(ステップ#23
7)。そして、カメラCPU301は、カウンタn=0
を初期設定し(ステップ#239)、各測光領域B1〜
B13に対応する受光素子の制御ウエイトWT(n)を
順に演算する(ステップ#241)。具体的には、WT
(n)=γ1・WTs(n)+(1−γ1)・WTAVE
(n)の式に基づいて演算される。そして測光領域B1
〜B13の全てについて制御ウエイトWT(n)を演算
する(ステップ#243、#245)。
When the subject importance photometric weight value WTs (n) is set and the subject importance degree γ1 is calculated, the camera CP
U301 determines whether or not the correction flag is on (step # 235). If the correction flag is ON, the camera CPU 301 changes the setting of the subject importance degree γ1 to a small value (γ1 / 8) (step # 23).
7). Then, the camera CPU 301 sets the counter n = 0.
Are initialized (step # 239), and the respective photometric areas B1 to B1 are set.
The control weights WT (n) of the light receiving elements corresponding to B13 are sequentially calculated (step # 241). Specifically, WT
(N) = γ1 · WTs (n) + (1−γ1) · WT AVE
It is calculated based on the equation (n). And the photometry area B1
The control weight WT (n) is calculated for all of B13 to B13 (steps # 243 and # 245).

【0099】次に、ステップ#233における被写体重
視測光ウエイト値及び被写体重視度合設定ルーチンの第
1例について、図15に示すフローチャート、図16に
示すウエイトパターン及び図17に示すテーブルを参照
しつつ説明する。被写体重視測光ウエイト値及び被写体
重視度合設定を開始すると、カメラCPU301は、ス
テップ#221で選択された被写体領域SELareaの値
を比較し、被写体領域SELarea=3か否かを判断する
(ステップ#251)。被写体領域SELarea=3の場
合、合焦位置又は主要被写体の位置が画面の向かって右
側の第3群に含まれるので、図16(c)に示すウエイ
トパターンの第3パターンを選択する(ステップ#25
3)。第3パターンでは、測光領域B8(図3(b)参
照)を中心として測光領域B8に最も大きなウエイト
値”8”を設定し、測光領域B8に隣接する6つの測光
領域B3、B4、B7、B9、B12及びB13に中間
のウエイト値”4”を設定し、その他の測光領域にはウ
エイト値”0”を設定している。
Next, the first example of the subject-oriented photometric weight value and subject-oriented degree setting routine in step # 233 will be described with reference to the flowchart shown in FIG. 15, the weight pattern shown in FIG. 16, and the table shown in FIG. I do. When the subject-oriented photometric weight value and the subject-oriented degree setting are started, the camera CPU 301 compares the value of the subject area SEL area selected in step # 221 and determines whether or not the subject area SEL area = 3 (step #) 251). When the subject area SEL area = 3, the in-focus position or the position of the main subject is included in the third group on the right side of the screen, so the third weight pattern shown in FIG. # 25
3). In the third pattern, the largest weight value “8” is set in the photometry area B8 centering on the photometry area B8 (see FIG. 3B), and the six photometry areas B3, B4, B7, An intermediate weight value “4” is set for B9, B12, and B13, and a weight value “0” is set for other photometric areas.

【0100】被写体領域SELarea≠3の場合、カメラ
CPU301は、被写体領域SEL area=2か否かを判
断する(ステップ#255)。被写体領域SELarea
2の場合、合焦位置又は主要被写体の位置が画面中央の
第2群に含まれるので、図16(b)に示すウエイトパ
ターンの第2パターンを選択する(ステップ#25
7)。第2パターンでは、測光領域B7を中心として測
光領域B7に最も大きなウエイト値”8”を設定し、測
光領域B7に隣接する6つの測光領域B2、B3、B
6、B8、B11及びB12に中間のウエイト値”4”
を設定し、その他の測光領域にはウエイト値”0”を設
定している。
Object area SELarea$ 3, camera
The CPU 301 sets the subject area SEL area= 2 or not
Is turned off (step # 255). Subject area SELarea=
In the case of 2, the focus position or the position of the main subject is
The weight group shown in FIG. 16B is included in the second group.
Select the second pattern of the turn (step # 25)
7). In the second pattern, the photometry area B7 is measured at the center.
The largest weight value “8” is set in the light area B7, and measurement is performed.
Six photometric areas B2, B3, B adjacent to the optical area B7
6, B8, B11 and B12 have an intermediate weight value “4”
And set the weight value “0” in the other photometry areas.
I have decided.

【0101】被写体領域SELarea≠2の場合、合焦位
置又は主要被写体の位置が画面の向かって右側の第1群
に含まれるので、図16(a)に示すウエイトパターン
の第1パターンを選択する(ステップ#259)。第1
パターンでは、測光領域B6を中心として測光領域B6
に最も大きなウエイト値”8”を設定し、測光領域B6
に隣接する6つの測光領域B1、B2、B5、B7、B
10及びB11に中間のウエイト値”4”を設定し、そ
の他の測光領域にはウエイト値”0”を設定している。
In the case of the subject area SEL area # 2, since the in-focus position or the position of the main subject is included in the first group on the right side of the screen, the first one of the weight patterns shown in FIG. (Step # 259). First
In the pattern, the photometry area B6 is centered on the photometry area B6.
Is set to the largest weight value “8”, and the photometric area B6 is set.
Six photometric areas B1, B2, B5, B7, B
An intermediate weight value “4” is set in 10 and B11, and a weight value “0” is set in other photometric areas.

【0102】被写体重視測光ウエイト値が設定される
と、カメラCPU301は、図17に示すテーブルを参
照して、被写体重視度合γ1を設定する(ステップ#2
61)。図17中、(a)のテーブルは撮像光学系20
1の焦点距離f1と像倍率βaeに基づいて設定されてお
り、(b)のテーブルは撮像光学系201の焦点距離f
1と被写体距離情報DVaeに基づいて設定されている。
When the subject-oriented photometric weight value is set, the camera CPU 301 sets the subject-oriented degree γ1 with reference to the table shown in FIG. 17 (step # 2).
61). In FIG. 17, the table shown in FIG.
1 are set based on the focal length f1 and the image magnification β ae , and the table in FIG.
1 and subject distance information DV ae .

【0103】次に、ステップ#233における被写体重
視測光ウエイト値及び被写体重視度合設定ルーチンの第
2例について、図18に示すチャート及び図17に示す
テーブルを参照しつつ説明する。被写体重視測光ウエイ
ト値及び被写体重視度合設定を開始すると、カメラCP
U301は、第1〜3群の各被写体領域群に対するウエ
イト値WTDF(j)(j=1〜3)のうちから最大値
WTDFMAXを選び出す(ステップ#271)。さら
に、カメラCPU301は、以下の式に基づいて各測距
領域B0〜B13のウエイト値WTS(j)(j=0〜
13)を演算する(ステップ#273)。被写体重視測
光ウエイト値が設定されると、カメラCPU301は、
図17に示すテーブルを参照して、被写体重視度合γ1
を設定する(ステップ#275)。
Next, a second example of the subject-oriented photometric weight value and subject-oriented degree setting routine in step # 233 will be described with reference to the chart shown in FIG. 18 and the table shown in FIG. When the subject-oriented photometric weight value and the subject-oriented degree setting are started, the camera CP
U301 selects the maximum value WTDF MAX from the weight values WTDF (j) (j = 1 to 3) for each of the first to third groups of object region groups (step # 271). Further, the camera CPU 301 calculates the weight value WTS (j) (j = 0 to 0) of each of the distance measurement areas B0 to B13 based on the following equation.
13) is calculated (step # 273). When the subject-oriented photometry weight value is set, the camera CPU 301
Referring to the table shown in FIG.
Is set (step # 275).

【0104】WTS(0)=0 WTS(1)=8・(WTDF(1)/WTDFMAX) WTS(2)=8・(WTDF(1)+WTDF(2))/2)/WTDFMAX) WTS(3)=8・(WTDF(2)+WTDF(3))/2)/WTDFMAX) WTS(4)=8・(WTDF(3)/WTDFMAX) WTS(5)=8・(WTDF(1)/WTDFMAX) WTS(6)=8・(WTDF(1)+WTDF(2))/2)/WTDFMAX) WTS(7)=8・(WTDF(1)+2WTDF(2)+WTDF(3))/4)/WTDFMAX) WTS(8)=8・(WTDF(2)+WTDF(3))/2)/WTDFMAX) WTS(9)=8・(WTDF(3)/WTDFMAX) WTS(10)=8・(WTDF(1)/WTDFMAX) WTS(11)=8・(WTDF(1)+WTDF(2))/2)/WTDFMAX) WTS(12)=8・(WTDF(2)+WTDF(3))/2)/WTDFMAX) WTS(13)=8・(WTDF(3)/WTDFMAX) 次に、ステップ#37における調光用パラメータ演算ル
ーチンについて、図19に示すフローチャートを参照し
つつ説明する。調光用パラメータ演算を開始すると、カ
メラCPU301は、平均TTL調光モードが設定され
ているか否かを判断する(ステップ#281)。平均T
TL調光モードが設定されている場合、全ての調光領域
C0〜C3に対応する調光素子の出力に乗ずるウエイト
値WTF(m)(m=0〜3)として同じ値、例えばW
TF(m)=”8”を設定する(ステップ#283)。
WTS (0) = 0 WTS (1) = 8 · (WTDF (1) / WTDF MAX ) WTS (2) = 8 · (WTDF (1) + WTDF (2)) / 2) / WTDF MAX ) WTS (3) = 8 ・ (WTDF (2) + WTDF (3)) / 2) / WTDF MAX ) WTS (4) = 8 ・ (WTDF (3) / WTDF MAX ) WTS (5) = 8 ・ (WTDF (1) / WTDF MAX ) WTS (6) = 8 ・ (WTDF (1) + WTDF (2)) / 2) / WTDF MAX ) WTS (7) = 8 ・ (WTDF (1) + 2WTDF (2) + WTDF (3)) / 4) / WTDF MAX ) WTS (8) = 8 ・ (WTDF (2) + WTDF (3)) / 2) / WTDF MAX ) WTS (9) = 8 ・ (WTDF (3) / WTDF MAX ) WTS (10) = 8 ・ (WTDF (1) / WTDF MAX ) WTS (11) = 8 ・ (WTDF (1) + WTDF (2)) / 2) / WTDF MAX ) WTS (12) = 8・ (WTDF (2) + WTDF (3)) / 2) / WTDF MAX ) WTS (13) = 8 ・ (WTDF (3) / WTDF MAX ) Next, regarding the dimming parameter calculation routine in step # 37, This will be described with reference to the flowchart shown in FIG. Upon starting the dimming parameter calculation, the camera CPU 301 determines whether or not the average TTL dimming mode is set (step # 281). Average T
When the TL dimming mode is set, the same value as the weight value WTF (m) (m = 0 to 3) multiplied by the outputs of the dimming elements corresponding to all the dimming regions C0 to C3, for example, W
TF (m) = “8” is set (step # 283).

【0105】一方、平均TTL調光モードが設定されて
いない場合(ステップ#281でNO)、カメラCPU
301はAFモードフラグがオンしているか否かを判断
する(ステップ#285)。AFモードフラグがオンし
ている場合、AF時多分割TTLウエイト値を演算する
(ステップ#287)。AF時多分割TTLウエイト値
演算は、従来から行われている方法と実質的に同じであ
り、測距ユニット140の各測距領域A1〜A9に対応
する各測距センサの出力であるデフォーカス量の大小を
比較して、どの測距領域に合焦しているかをカメラPU
301で判断し、合焦した測距領域に対応する調光領域
及びその周辺領域に重みをつけて調光する。
On the other hand, if the average TTL light control mode is not set (NO in step # 281), the camera CPU
At step 301, it is determined whether or not the AF mode flag is on (step # 285). If the AF mode flag is ON, the AF multi-division TTL weight value is calculated (step # 287). The AF multi-division TTL weight value calculation is substantially the same as the conventional method, and the defocus which is the output of each distance measurement sensor corresponding to each of the distance measurement areas A1 to A9 of the distance measurement unit 140. The camera PU compares the magnitude of the amount and determines which focusing area is in focus.
A judgment is made in 301, and a light control area corresponding to the focused distance measurement area and a peripheral area are weighted for light control.

【0106】一方、ステップ#285でAFモードフラ
グがオンしていない場合、装着されているレンズ200
が非AFレンズであるか又はAFレンズであってもユー
ザがMFを選択している場合である。この場合、カメラ
CPU301は、後述するルーチンに従ってMF時多分
割TTL調光ウエイト値を演算する(ステップ#28
9)。ステップ、#283、#287及び#289でウ
エイト値が設定されると、カメラっCPU301は、こ
れらの値を用いて調光補正値を演算する(ステップ#2
91)。
On the other hand, if the AF mode flag has not been turned on in step # 285,
Is a non-AF lens or a case where the user has selected the MF even if the lens is an AF lens. In this case, the camera CPU 301 calculates an MF time multi-division TTL dimming weight value according to a routine described later (step # 28).
9). When the weight values are set in steps # 283, # 287, and # 289, the camera CPU 301 calculates a dimming correction value using these values (step # 2).
91).

【0107】次に、ステップ#289におけるMF時多
分割TTL調光ウエイト値演算ルーチンについて、図2
0に示すフローチャートを参照しつつ説明する。MF時
多分割TTL調光を行う場合、カメラCPU301は、
図3(c)に示す各調光領域C0〜C3に対応する調光
素子に出力について、同じウエイト値WTFAVE(m)
=”8”(n=0〜3)を設定する。(ステップ#30
1)。そして、カメラCPU301は、被写体重視調光
ウエイト値WTFs(m)及び調光用被写体重視度合γ
2を設定する(ステップ#303)。被写体重視調光ウ
エイト値WTFs(m)の設定及び調光用被写体重視度
合γ2の設定ルーチンの詳細は後述する。
Next, the MF multi-division TTL light control weight value calculation routine in step # 289 will be described with reference to FIG.
This will be described with reference to the flowchart shown in FIG. When performing multi-division TTL light control in MF mode, the camera CPU 301
The same weight value WTF AVE (m) is applied to the output of the light control element corresponding to each of the light control areas C0 to C3 shown in FIG.
= “8” (n = 0 to 3) is set. (Step # 30
1). Then, the camera CPU 301 determines the subject-oriented light control weight value WTFs (m) and the light-control subject importance degree γ.
2 is set (step # 303). The details of the setting of the subject-oriented light control weight value WTFs (m) and the setting of the light control subject-focused degree γ2 will be described later.

【0108】被写体重視調光ウエイト値WTFs(m)
を設定し、被写体重視度合γ2を演算すると、カメラC
PU301は、補正フラグがオンしているか否かを判断
する(ステップ#305)。補正フラグがオンしている
場合、カメラCPU301は、調光用被写体重視度合γ
2を小さな値(γ2/8)に設定変更する(ステップ#
307)。そして、カメラCPU301は、カウンタm
=0を初期設定し(ステップ#309)、各調光領域C
0〜C3に対応する調光素子の制御ウエイトWTF
(m)を順に演算する(ステップ#311)。具体的に
は、WTF(m)=γ2・WTFs(m)+(1−γ
2)・WTFAVE(m)の式に基づいて演算される。そ
して調光領域C0〜C3の全てについて制御ウエイトW
TF(m)を演算する(ステップ#313、#31
5)。
Subject-oriented light control weight value WTFs (m)
Is calculated, and the subject importance degree γ2 is calculated.
The PU 301 determines whether the correction flag is turned on (Step # 305). When the correction flag is on, the camera CPU 301 determines that the dimming subject importance degree γ
2 to a small value (γ2 / 8) (step #)
307). Then, the camera CPU 301 sets the counter m
= 0 (step # 309), and each light control area C
Control weight WTF of dimming element corresponding to 0 to C3
(M) are sequentially calculated (step # 311). Specifically, WTF (m) = γ2 · WTFs (m) + (1−γ
2) Calculated based on the formula of WTF AVE (m). The control weights W for all the light control areas C0 to C3
Calculate TF (m) (Steps # 313, # 31
5).

【0109】次に、ステップ#303における被写体重
視調光ウエイト値及び調光用被写体重視度合設定ルーチ
ンの第1例について、図21に示すフローチャート、図
22に示すウエイトパターン及び図23に示すテーブル
を参照しつつ説明する。被写体重視調光ウエイト値及び
調光用被写体重視度合設定を開始すると、カメラCPU
301は、ステップ#221で選択された被写体領域S
ELareaの値を比較し、被写体領域SELarea=3か否
かを判断する(ステップ#321)。被写体領域SEL
area=3の場合、合焦位置又は主要被写体の位置が画面
の向かって右側の第3群に含まれるので、図22(c)
に示すウエイトパターンの第3パターンを選択する(ス
テップ#323)。第3パターンでは、図中右側の調光
領域C3(図3(c)参照)に最も大きなウエイト値”
8”を設定し、中央の調光領域C2に中間のウエイト
値”4”を設定し、左側の調光領域C1及び全体の調光
領域C0にはウエイト値”0”を設定している。
Next, a flowchart shown in FIG. 21, a weight pattern shown in FIG. 22, and a table shown in FIG. 23 for the first example of the subject-oriented light control weight value and the light control subject importance degree setting routine in step # 303. It will be described with reference to FIG. When the subject-oriented dimming weight value and the dimming subject-priority degree setting are started, the camera CPU
Reference numeral 301 denotes a subject area S selected in step # 221.
The values of the EL area are compared to determine whether or not the subject area SEL area = 3 (step # 321). Subject area SEL
When area = 3, the in-focus position or the position of the main subject is included in the third group on the right side of the screen, so that FIG.
Is selected (step # 323). In the third pattern, the largest weight value is provided in the dimming area C3 on the right side in the figure (see FIG. 3C).
8 ", an intermediate weight value" 4 "is set in the central dimming area C2, and a weight value" 0 "is set in the left dimming area C1 and the entire dimming area C0.

【0110】被写体領域SELarea≠3の場合、カメラ
CPU301は、被写体領域SEL area=2か否かを判
断する(ステップ#325)。被写体領域SELarea
2の場合、合焦位置又は主要被写体の位置が画面中央の
第2群に含まれるので、図22(b)に示すウエイトパ
ターンの第2パターンを選択する(ステップ#32
7)。第2パターンでは、中央の調光領域C2に最も大
きなウエイト値”8”を設定し、その両隣の調光領域C
1及びC3に中間のウエイト値”4”を設定し、全体の
調光領域C0にはウエイト値”0”を設定している。
Subject area SELarea$ 3, camera
The CPU 301 sets the subject area SEL area= 2 or not
Is interrupted (step # 325). Subject area SELarea=
In the case of 2, the focus position or the position of the main subject is
The weight group shown in FIG. 22B is included in the second group.
Select the second pattern of the turn (step # 32)
7). In the second pattern, the central light control region C2 has the largest light intensity.
And set the appropriate weight value “8” and adjust the dimming area C
Set an intermediate weight value “4” to 1 and C3, and
A weight value “0” is set in the light control area C0.

【0111】被写体領域SELarea≠2の場合、合焦位
置又は主要被写体の位置が画面の向かって右側の第1群
に含まれるので、図22(a)に示すウエイトパターン
の第1パターンを選択する(ステップ#329)。第1
パターンでは、左側の調光領域C1に最も大きなウエイ
ト値”8”を設定し、中央の調光領域C2に中間のウエ
イト値”4”を設定し、右側の調光領域C3及び全体の
調光領域C0にはウエイト値”0”を設定している。
In the case of the subject area SEL area # 2, since the in-focus position or the position of the main subject is included in the first group on the right side of the screen, the first pattern of the weight patterns shown in FIG. (Step # 329). First
In the pattern, the largest weight value “8” is set in the left dimming area C1, the middle weight value “4” is set in the central dimming area C2, and the right dimming area C3 and the entire dimming are set. A weight value “0” is set in the area C0.

【0112】被写体重視調光ウエイト値が設定される
と、カメラCPU301は、図23に示すテーブルを参
照して、調光用被写体重視度合γ2を設定する(ステッ
プ#331)。図23中、(a)のテーブルは撮像光学
系201の焦点距離f1と像倍率βaeに基づいて設定さ
れており、(b)のテーブルは撮像光学系201の焦点
距離f1と被写体距離情報DVaeに基づいて設定されて
いる。
When the subject-oriented dimming weight value is set, the camera CPU 301 sets the dimming subject-oriented degree γ2 with reference to the table shown in FIG. 23 (step # 331). 23, the table (a) is set based on the focal length f1 of the imaging optical system 201 and the image magnification β ae , and the table (b) is set based on the focal length f1 of the imaging optical system 201 and the subject distance information DV. It is set based on ae .

【0113】次に、ステップ#303における被写体重
視調光ウエイト値及び被写体重視度合設定ルーチンの第
2例について、図24に示すフローチャート及び図23
に示すテーブルを参照しつつ説明する。被写体重視調光
ウエイト値及び調光用被写体重視度合設定を開始する
と、カメラCPU301は、第1〜3群の各被写体領域
群に対するウエイト値WTDF(j)(j=1〜3)の
うちから最大値WTDF MAXを選び出す(ステップ#3
41)。さらに、カメラCPU301は、以下の式に基
づいて各調光領域C0〜C3のウエイト値WTFS
(k)(k=0〜3)を演算する(ステップ#34
3)。被写体重視調光ウエイト値が設定されると、カメ
ラCPU301は、図23に示すテーブルを参照して、
被写体重視度合γ2を設定する(ステップ#345)。
Next, the subject weight in step # 303
The routine of the routine for setting the dimming light weight value and the subject importance level
The flowchart shown in FIG. 24 and FIG.
This will be described with reference to the table shown in FIG. Subject-oriented light control
Start setting weight value and dimming subject importance level
And the camera CPU 301 sets each of the subject areas in the first to third groups.
Of the weight values WTDF (j) (j = 1 to 3) for the group
Maximum value WTDF from home MAX(Step # 3)
41). Further, the camera CPU 301 calculates
Weight value WTFS of each of the light control areas C0 to C3
(K) (k = 0 to 3) is calculated (step # 34)
3). When the subject-oriented dimming weight value is set,
CPU 301 refers to the table shown in FIG.
The subject importance degree γ2 is set (step # 345).

【0114】WTSF(0)=0 WTSF(1)=8・(((2・WTDF(1)+WTDF(2))/3)/WTDFMAX) WTSF(2)=8・(((WTDF(1)+2・WTDF(2)+WTDF(3))/4)/WTD
FMAX) WTS(3)=8・(((WTDF(2)+2・WTDF(3))/3)/WTDFMAX) なお、図1に示すAF一眼レフカメラの一構成例では、
カメラボディ100側にAF駆動ユニット160を設け
たが、図25に示すように、レンズ200側にAF駆動
ユニット160を設けるように構成してもよい。この場
合、レンズ200の外側のMF用の操作環の回転角度を
検出するパワーフォーカスエンコーダ207を設け、操
作環の回転角度に応じてAF駆動ユニット160を駆動
することにより、MF操作を非常に軽くかつ高速で行う
ことができる(パワーフォーカス)。
WTSF (0) = 0 WTSF (1) = 8 ・ (((2 ・ WTDF (1) + WTDF (2)) / 3) / WTDF MAX ) WTSF (2) = 8 ・ (((WTDF ( 1) +2 ・ WTDF (2) + WTDF (3)) / 4) / WTD
F MAX ) WTS (3) = 8 ・ (((WTDF (2) +2 ・ WTDF (3)) / 3) / WTDF MAX ) Note that in the configuration example of the AF single-lens reflex camera shown in FIG. 1,
Although the AF drive unit 160 is provided on the camera body 100 side, the AF drive unit 160 may be provided on the lens 200 side as shown in FIG. In this case, the power focus encoder 207 for detecting the rotation angle of the MF operation ring outside the lens 200 is provided, and the AF drive unit 160 is driven according to the rotation angle of the operation ring, so that the MF operation can be made very light. It can be performed at high speed (power focus).

【0115】また、上記実施形態では、銀塩フィルムを
使用するカメラを例にして説明したが、これに限定され
るものではなく、銀塩フィルムの代わりにCCDなどの
撮像素子を使用したディジタルスチルカメラであっても
よい。
In the above embodiment, a camera using a silver halide film has been described as an example. However, the present invention is not limited to this. It may be a camera.

【0116】さらに、上記実施形態では、非AFレンズ
が装着された場合又はAFレンズをMFモードで使用す
る場合に、被写体位置の推定においてデフォーカス情報
だけでなく、撮影レンズの焦点距離、被写体像の像倍率
情報、被写体距離情報などを加味するように説明した
が、これに限定されるものではなく、AFレンズをAF
モードで使用する際にもこれらの情報を加味して被写体
位置の決定又は推定を行ってもよい。
Further, in the above embodiment, when a non-AF lens is mounted or when the AF lens is used in the MF mode, not only the defocus information but also the focal length of the photographing lens and the However, the present invention is not limited to this, and is not limited to this.
When using in the mode, the position of the subject may be determined or estimated in consideration of such information.

【0117】[0117]

【発明の効果】以上説明したように、本発明の第1のカ
メラによれば、被写界内に設定された複数の測距領域に
ついて、それぞれ被写体の位置と撮影レンズの合焦位置
とのずれ量に関するデフォーカス情報を出力する多点測
距手段と、被写界内に設定された複数の測光領域につい
て、それぞれ被写体の輝度に関する輝度情報を出力する
多分割測光手段と、装着されている撮影レンズの焦点距
離に関する情報を出力する焦点距離情報出力手段と、デ
フォーカス情報及び焦点距離情報を用いて被写体位置に
関する情報を演算する被写体位置情報演算手段と、被写
体位置情報を用いて輝度情報に乗ずる重みを演算する重
み演算手段と、輝度情報に重みを乗ずることにより、撮
影時の露光量に関する露光情報を演算し、露光制御する
露光制御手段とを具備するので、定常光による撮影時に
おいて、デフォーカス情報だけでなく、撮影レンズの焦
点距離情報も加味して被写体の位置を測定又は推定する
ことができる。その結果、撮影レンズの焦点距離に応じ
た被写界深度の違いを被写体位置の推定に加味すること
ができ、被写体位置の検出又は推定精度が向上する。ま
た、AFレンズを用いてAFモードで撮影する場合だけ
でなく、非AFレンズが装着された場合又はユーザがA
FレンズをMFモードで撮影する場合のように度の測距
領域で合焦しているかに関する情報を正確に得られない
場合であっても、被写体位置を推定することができ、被
写体の位置に応じた最適な露出条件で撮影することがで
きる。
As described above, according to the first camera of the present invention, for each of a plurality of distance measurement areas set in the object scene, the position of the subject and the in-focus position of the photographing lens are determined. A multi-point distance measuring unit that outputs defocus information about a shift amount, a multi-segment metering unit that outputs luminance information about the luminance of a subject for each of a plurality of photometry regions set in the object scene, and is mounted. A focal length information output unit that outputs information about the focal length of the taking lens; a subject position information calculation unit that calculates information about the subject position using the defocus information and the focal length information; and a luminance information using the subject position information. Weight calculation means for calculating the weight to be multiplied; and exposure control means for calculating the exposure information relating to the exposure amount at the time of photographing by multiplying the luminance information by the weight, and controlling the exposure. Since Bei, during photographing by the ambient light, not only defocus information can be taken into consideration for measuring or estimating the position of the subject the focal length information of the photographing lens. As a result, the difference in the depth of field according to the focal length of the photographing lens can be added to the estimation of the subject position, and the detection or estimation accuracy of the subject position is improved. Further, not only when shooting in the AF mode using the AF lens, but also when the non-AF lens is attached or when the user
Even when it is not possible to accurately obtain information on whether or not the subject is in focus in the distance measurement area as in the case of photographing the F lens in the MF mode, the subject position can be estimated, and the subject position can be estimated. It is possible to shoot under the optimal exposure conditions according to the conditions.

【0118】また、測距領域群分割手段を設けて、多点
測距手段における複数の測距領域を、所定数の測距領域
ごとに複数の測距領域群に分割し、各測距領域群ごとに
デフォーカス情報を決定することにより、演算処理すべ
きデータ数を少なくすることができ、演算処理速度を向
上させることができる。
Further, a distance measuring area group dividing means is provided to divide a plurality of distance measuring areas in the multipoint distance measuring means into a plurality of distance measuring area groups for each of a predetermined number of distance measuring areas. By determining the defocus information for each group, the number of data to be processed can be reduced, and the processing speed can be improved.

【0119】具体的には、被写体位置情報演算手段は、
各測距領域又は各測距領域群のデフォーカス値DFnと
撮影レンズの焦点距離の逆数(1/f1)との積Vn
(Vn=DFn×(1/f1)(n=1,2,・・・
m))に基づいて被写体位置情報を演算する。さらに、
前記各測距領域又は各測距領域群について演算した複数
のVn値のうち最小値を有する測距領域又は測距領域群
のデフォーカス情報に基づいて被写体位置を演算するよ
うに構成してもよい。または、各測距領域群について演
算した複数のVn値の平均値を演算し、その平均値に基
づいて被写体位置を演算するように構成してもよい。
More specifically, the subject position information calculating means includes:
Product Vn of defocus value DFn of each ranging area or each ranging area group and reciprocal (1 / f1) of focal length of photographing lens
(Vn = DFn × (1 / f1) (n = 1, 2,...)
m)) to calculate subject position information. further,
The position of the subject may be calculated based on the defocus information of the ranging area or the ranging area group having the minimum value among the plurality of Vn values calculated for each ranging area or each ranging area group. Good. Alternatively, an average value of a plurality of Vn values calculated for each ranging area group may be calculated, and the position of the subject may be calculated based on the average value.

【0120】さらに、各測距領域群に含まれる測距領域
のうち被写体の低コントラストによりデフォーカス情報
が得られなかった測距領域を除外して、残りの測距領域
からのデフォーカス情報を用いて被写体位置情報を演算
するように構成してもよい。さらに、各測距領域群に含
まれる全ての測距領域について、被写体の低コントラス
トによりデフォーカス情報が得られなかった場合には、
当該測距領域群を除外して、残りの測距領域群について
被写体位置情報を演算するように構成してもよい。この
ように、被写体位置と推定される可能性のないデータを
除外することにより、被写体位置の推定精度をさらに向
上させることができる。
Further, of the distance measuring areas included in each distance measuring area group, the distance measuring areas for which defocus information could not be obtained due to the low contrast of the subject are excluded, and defocus information from the remaining distance measuring areas is excluded. It may be configured to calculate the subject position information using the information. Furthermore, when defocus information cannot be obtained due to the low contrast of the subject for all the ranging areas included in each ranging area group,
The configuration may be such that subject position information is calculated for the remaining ranging area groups, excluding the ranging area groups. In this manner, by excluding data that is not likely to be estimated as the subject position, the accuracy of estimating the subject position can be further improved.

【0121】さらに、各測距領域又は各測距領域群のデ
フォーカス情報を用いて、撮影レンズの合焦位置が被写
体よりも遠いか近いかを判断し、判断結果に応じて被写
体位置情報を補正するように構成することにより、撮影
レンズの合焦位置に対する前後における被写界深度の差
を、被写体位置の推定に加味することができ、被写体位
置の推定精度をさらに高くすることができる。
Further, using the defocus information of each ranging area or each ranging area group, it is determined whether the focus position of the photographing lens is farther or closer than the subject, and the subject position information is determined according to the determination result. With such a configuration, the difference between the depth of field before and after the in-focus position of the photographing lens can be added to the estimation of the subject position, and the estimation accuracy of the subject position can be further increased.

【0122】本発明の第2のカメラによれば、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の測光領域について、それぞれ被写体の輝
度に関する輝度情報を出力する多分割測光手段と、装着
されている撮影レンズの焦点距離に関する情報を出力す
る焦点距離情報出力手段と、撮影被写体の像倍率情報を
演算する像倍率情報演算手段と、前記デフォーカス情
報、焦点距離情報及び像倍率情報を用いて前記各測光領
域の撮影露光における測光寄与率を演算する測光寄与率
演算手段と、前記測光寄与率に基づいて、撮影時の露光
量に関する露光情報を演算し、露光制御する露光制御手
段とを具備するので、被写体位置の推定に際し、被写体
像の倍率を考慮することができ、被写体位置の検出又は
推定精度が向上する。
According to the second camera of the present invention, defocus information relating to the amount of deviation between the position of the subject and the in-focus position of the photographic lens is output for each of a plurality of distance measurement areas set in the field of view. Multi-point distance measuring means, multi-segment light measuring means for outputting luminance information on the luminance of the subject for each of a plurality of light measuring areas set in the object field, and information on the focal length of the mounted photographing lens. Output means for outputting focal length information; image magnification information calculating means for calculating image magnification information of the photographing subject; and photometric contribution in photographing exposure of each photometric area using the defocus information, focal length information and image magnification information. A photometric contribution ratio calculating unit for calculating a ratio, and an exposure control unit for calculating exposure information on an exposure amount at the time of photographing based on the photometric contribution ratio and controlling exposure. Upon estimation of the object position, it is possible to consider the magnification of the subject image, thereby improving the detection or estimation accuracy of the object position.

【0123】本発明の第3のカメラによれば、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の測光領域について、それぞれ被写体の輝
度に関する輝度情報を出力する多分割測光手段と、装着
されている撮影レンズの焦点距離に関する情報を出力す
る焦点距離情報出力手段と、撮影被写体の距離情報を出
力する被写体距離情報出力手段と、前記デフォーカス情
報、焦点距離情報及び被写体距離情報を用いて前記各測
光領域の撮影露光における測光寄与率を演算する測光寄
与率演算手段と、前記測光寄与率に基づいて、撮影時の
露光量に関する露光情報を演算し、露光制御する露光制
御手段とを具備するので、被写体位置の推定に際し、カ
メラ側又はレンズ側に設けられたエンコーダなどの出力
を用いて直接被写体までの距離情報を得ることができ、
被写体位置の検出又は推定精度が向上する。
According to the third camera of the present invention, defocus information on the amount of deviation between the position of the subject and the focusing position of the photographing lens is output for each of a plurality of distance measurement areas set in the object scene. Multi-point distance measuring means, multi-segment light measuring means for outputting luminance information on the luminance of the subject for each of a plurality of light measuring areas set in the object field, and information on the focal length of the mounted photographing lens. A focal length information output unit for outputting, a subject distance information output unit for outputting distance information of a photographing subject, and a photometric contribution ratio in the photographing exposure of each photometric region using the defocus information, the focal length information, and the subject distance information. And exposure control means for calculating exposure information relating to an exposure amount at the time of photographing based on the photometric contribution rate and controlling exposure. Because, when the estimation of the object position, it is possible to obtain distance information to directly subject using the output of such an encoder provided on the camera side or a lens side,
The accuracy of detecting or estimating the position of the subject is improved.

【0124】また、装着されている撮影レンズに関する
レンズ設定情報を出力するレンズ設定情報出力手段をさ
らに設け、レンズ設定情報に応じて測光寄与率を補正す
る用に構成してもよい。例えば、装着されている撮影レ
ンズが特殊光学系を有するものである場合や、フィルタ
などの光学素子が撮影レンズに装着されている場合、全
ての測光領域に対して平均的な測光寄与率を設定しても
よい。あるいは、撮影レンズの合焦位置が被写体よりも
遠いか近いかに応じて被写体位置情報を補正してもよ
い。
Further, a lens setting information output means for outputting lens setting information relating to the mounted photographing lens may be further provided so as to correct the photometric contribution ratio in accordance with the lens setting information. For example, when the mounted photographic lens has a special optical system, or when an optical element such as a filter is mounted on the photographic lens, an average photometric contribution ratio is set for all photometric areas. May be. Alternatively, the subject position information may be corrected according to whether the focus position of the taking lens is farther or closer than the subject.

【0125】本発明の第4のカメラによれば、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の調光領域について、それぞれ被写体から
の反射光を測定する多分割調光手段と、装着されている
撮影レンズの焦点距離に関する情報を出力する焦点距離
情報出力手段と、前記デフォーカス情報及び前記焦点距
離情報を用いて被写体位置に関する情報を演算する被写
体位置情報演算手段と、前記被写体位置情報を用いて、
フラッシュ撮影時における前記各調光領域に対応する測
光出力に乗ずる重みを演算する重み演算手段と、各調光
領域に対応する前記測光出力に前記重みを乗ずることに
より、フラッシュ撮影時の発光量を演算し、フラッシュ
光の発光制御するフラッシュ制御手段とを具備するの
で、フラッシュ撮影においても、デフォーカス情報だけ
でなく、撮影レンズの焦点距離情報も加味して被写体の
位置を測定又は推定することができる。その結果、撮影
レンズの焦点距離に応じた被写界深度の違いを被写体位
置の推定に加味することができ、被写体位置の検出又は
推定精度が向上する。また、AFレンズを用いてAFモ
ードで撮影する場合だけでなく、非AFレンズが装着さ
れた場合又はユーザがAFレンズをMFモードで撮影す
る場合のように度の測距領域で合焦しているかに関する
情報を正確に得られない場合であっても、被写体位置を
推定することができ、被写体の位置に応じた最適な調光
条件でフラッシュ撮影することができる。
According to the fourth camera of the present invention, defocus information relating to the amount of deviation between the position of the subject and the in-focus position of the photographic lens is output for each of a plurality of distance measurement areas set in the object field. Multipoint dimming means for measuring reflected light from a subject for each of a plurality of dimming areas set in the object field, and information on the focal length of the mounted photographing lens. Focal length information output means for outputting, subject position information calculating means for calculating information on the subject position using the defocus information and the focal length information, using the subject position information,
Weight calculation means for calculating a weight for multiplying the photometric output corresponding to each light control area during flash shooting, and multiplying the weight by the photometric output corresponding to each light control area to reduce the light emission amount during flash shooting. It is provided with a flash control means for calculating and controlling the emission of flash light, so that even in flash photography, it is possible to measure or estimate the position of the subject taking into account not only the defocus information but also the focal length information of the taking lens. it can. As a result, the difference in the depth of field according to the focal length of the photographing lens can be added to the estimation of the subject position, and the detection or estimation accuracy of the subject position is improved. In addition, not only when shooting in the AF mode using the AF lens, but also when focusing on the ranging area of the degree, such as when a non-AF lens is attached or when the user shoots the AF lens in the MF mode. Even when information on whether or not the subject is not accurately obtained, the position of the subject can be estimated, and flash photography can be performed under optimal dimming conditions according to the position of the subject.

【0126】本発明の第5のカメラによれば、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の調光領域について、それぞれ被写体から
の反射光を測定する多分割調光手段と、装着されている
撮影レンズの焦点距離に関する情報を出力する焦点距離
情報出力手段と、前記デフォーカス情報及び前記焦点距
離情報を用いて被写体位置に関する情報を演算する被写
体位置情報演算手段と、撮影被写体の像倍率情報を演算
する像倍率情報演算手段と、前記デフォーカス情報、焦
点距離情報及び像倍率情報を用いて前記各調光領域の撮
影露光における調光寄与率を演算する調光寄与率演算手
段と、前記調光寄与率に基づいて、フラッシュ撮影時の
発光量を演算し、フラッシュ光の発光制御するフラッシ
ュ制御手段とを具備するので、被写体位置の推定に際
し、被写体像の倍率を考慮することができ、被写体位置
の検出又は推定精度が向上する。
According to the fifth camera of the present invention, for a plurality of ranging areas set in the field, defocus information relating to the amount of deviation between the position of the subject and the focusing position of the photographing lens is output. Multi-point distance measuring means, multi-division light measuring means for measuring reflected light from a subject in each of a plurality of light adjusting areas set in the field of view, and information on the focal length of the mounted photographing lens. , A subject position information calculating unit that calculates information on a subject position using the defocus information and the focal length information, and an image magnification information calculating unit that calculates image magnification information of a shooting subject A dimming contribution ratio calculating means for calculating a dimming contribution ratio in the photographing exposure of each of the dimming regions using the defocus information, the focal length information, and the image magnification information; A flash control means for calculating the amount of light emission at the time of flash photography based on the rate and controlling the emission of the flash light. Detection or estimation accuracy is improved.

【0127】本発明の第6のカメラによれば、被写界内
に設定された複数の測距領域について、それぞれ被写体
の位置と撮影レンズの合焦位置とのずれ量に関するデフ
ォーカス情報を出力する多点測距手段と、被写界内に設
定された複数の調光領域について、それぞれ被写体から
の反射光を測定する多分割調光手段と、装着されている
撮影レンズの焦点距離に関する情報を出力する焦点距離
情報出力手段と、撮影被写体の距離情報を出力する被写
体距離情報出力手段と、前記デフォーカス情報、焦点距
離情報及び被写体距離率情報を用いて前記各調光領域の
撮影露光における調光寄与率を演算する調光寄与率演算
手段と、前記調光寄与率に基づいて、フラッシュ撮影時
の発光量を演算し、フラッシュ光の発光制御するフラッ
シュ制御手段とを具備するので、被写体位置の推定に際
し、カメラ側又はレンズ側に設けられたエンコーダなど
の出力を用いて直接被写体までの距離情報を得ることが
でき、被写体位置の検出又は推定精度が向上する。
According to the sixth camera of the present invention, for a plurality of distance measurement areas set in the object field, defocus information relating to the amount of deviation between the position of the subject and the focus position of the photographing lens is output. Multi-point distance measuring means, multi-division light measuring means for measuring reflected light from a subject in each of a plurality of light adjusting areas set in the field of view, and information on the focal length of the mounted photographing lens. A focal length information output means for outputting the distance information of the photographing subject, and a subject distance information output means for outputting the distance information of the photographing subject. Dimming contribution ratio calculating means for calculating a dimming contribution ratio, and flash control means for calculating a light emission amount at the time of flash photographing based on the dimming contribution ratio and controlling flash light emission. Since Bei, upon estimation of the object position using the output of such an encoder provided on the camera side or the lens side can obtain distance information to direct the object, thereby improving the detection or estimation accuracy of the object position.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態であるAF一眼レフカメ
ラの一構成例を示す図である。
FIG. 1 is a diagram illustrating a configuration example of an AF single-lens reflex camera according to an embodiment of the present invention.

【図2】 上記AF一眼レフカメラの制御回路系のブロ
ック構成を示す図である。
FIG. 2 is a diagram showing a block configuration of a control circuit system of the AF single-lens reflex camera.

【図3】 (a)は測距ユニット140に設けられてい
る複数の測距領域の配置を示す図、(b)は測光ユニッ
ト180の多分割測光領域の配置を示す図、(c)は調
光センサ150の調光素子の配置を示す図である。
3A is a diagram showing an arrangement of a plurality of distance measurement areas provided in a distance measurement unit 140, FIG. 3B is a view showing an arrangement of a multi-segment photometry area of the photometry unit 180, and FIG. FIG. 4 is a diagram showing an arrangement of light control elements of the light control sensor 150.

【図4】 図3(a)〜(c)に示す測距領域A1〜A
9、測光領域B1〜B13及び調光領域C1〜C3の関
係を示す図であり、(a)は測距領域A1〜A9と測光
領域B1〜B13を重ね合わせたもの、(b)は測距領
域A1〜A9と調光領域C1〜C3を重ね合わせたも
の、(c)は測距領域A1〜A9と、測光領域B1〜B
13と、調光領域C1〜C3を重ね合わせたものであ
る。
FIG. 4 shows distance measurement areas A1 to A shown in FIGS.
9 is a diagram showing a relationship between photometric areas B1 to B13 and dimming areas C1 to C3, where (a) shows a range in which distance measuring areas A1 to A9 and photometric areas B1 to B13 are superimposed, and (b) shows a distance measurement. Areas A1 to A9 and light control areas C1 to C3 superimposed, (c) shows distance measurement areas A1 to A9 and light measurement areas B1 to B
13 and light control areas C1 to C3 are superimposed.

【図5】 上記実施形態における基本動作のメインルー
チンを示すフローチャートである。
FIG. 5 is a flowchart showing a main routine of a basic operation in the embodiment.

【図6】 図5に示すフローチャートの続きである。FIG. 6 is a continuation of the flowchart shown in FIG. 5;

【図7】 ステップ#7における測距情報演算ルーチン
を示すフローチャートである。
FIG. 7 is a flowchart showing a ranging information calculation routine in step # 7.

【図8】 ステップ#23における多分割測光値演算ル
ーチン及びステップ#25におけるAE演算ルーチンを
示すフローチャートである。
FIG. 8 is a flowchart showing a multi-segment photometry value calculation routine in step # 23 and an AE calculation routine in step # 25.

【図9】 ステップ#125における距離情報判別ルー
チンを示すフローチャートを参照しつつ説明する
FIG. 9 is described with reference to a flowchart showing a distance information determination routine in step # 125.

【図10】 ステップ#131におけるMF時被写体輝
度演算ルーチンを示すフローチャートである。
FIG. 10 is a flowchart showing a MF subject luminance calculation routine in step # 131.

【図11】 ステップ#179における測距領域のグル
ープ化ルーチンを示すフローチャートである。
FIG. 11 is a flowchart showing a routine for grouping distance measurement areas in step # 179.

【図12】 ステップ#181における被写体位置情報
演算ルーチンを示すフローチャートである。
FIG. 12 is a flowchart showing a subject position information calculation routine in step # 181.

【図13】 ステップ#215で求めた値DFFLave
(j)及びDFFLm in(j)に対するウエイト値WT
DFave(j)及びWTDFmin(j)を演算する際に用
いるグラフである。
FIG. 13 shows a value DFFL obtained in step # 215.ave
(J) and DFFLm inWeight value WT for (j)
DFave(J) and WTDFminUsed when calculating (j)
It is a graph that is.

【図14】 ステップ#183における多分割測光ウエ
イト演算ルーチンを示すフローチャートである。
FIG. 14 is a flowchart showing a multi-division photometry weight calculation routine in step # 183.

【図15】 ステップ#233における被写体重視測光
ウエイト値及び被写体重視度合設定ルーチンの第1例を
示すフローチャートである。
FIG. 15 is a flowchart showing a first example of a subject-weighted photometric weight value and subject-weighted degree setting routine in step # 233.

【図16】 (a)〜(c)はそれぞれステップ#23
3における被写体重視測光ウエイト値のパターン例を示
す図である。
16 (a) to (c) show steps # 23, respectively.
FIG. 9 is a diagram illustrating an example of a pattern of subject-oriented photometric weight values in No. 3;

【図17】 (a)及び(b)はそれぞれステップ#2
33における被写体重視度合設定に用いられるテーブル
の例を示す図である。
FIGS. 17A and 17B show steps # 2 and FIG.
FIG. 33 is a diagram illustrating an example of a table used for setting the degree of importance of a subject in 33.

【図18】 ステップ#233における被写体重視測光
ウエイト値及び被写体重視度合設定ルーチンの第2例を
示すフローチャートである。
FIG. 18 is a flowchart illustrating a second example of a subject-weighted photometric weight value and subject-weighted degree setting routine in step # 233.

【図19】 ステップ#37における調光用パラメータ
演算ルーチンを示すフローチャートである。
FIG. 19 is a flowchart showing a dimming parameter calculation routine in step # 37.

【図20】 ステップ#289におけるMF時多分割T
TL調光ウエイト値演算ルーチンを示すフローチャート
である。
FIG. 20: MF time multi-division T in step # 289
9 is a flowchart illustrating a TL light control weight value calculation routine.

【図21】 ステップ#303における被写体重視調光
ウエイト値及び調光用被写体重視度合設定ルーチンの第
1例を示すフローチャートである。
FIG. 21 is a flowchart illustrating a first example of a subject-oriented dimming weight value and a dimming subject importance level setting routine in step # 303.

【図22】 (a)〜(c)はそれぞれステップ#30
3における被写体重視調光ウエイト値のパターン例を示
す図である。
FIGS. 22A to 22C show steps # 30 and FIG.
FIG. 6 is a diagram illustrating an example of a pattern of subject-oriented light control weight values in No. 3;

【図23】 (a)及び(b)はそれぞれステップ#3
03における調光用被写体重視度合設定に用いられるテ
ーブルの例を示す図である。
FIGS. 23 (a) and (b) show steps # 3, respectively.
FIG. 13 is a diagram illustrating an example of a table used for setting the degree of importance of a light control subject in 03.

【図24】 ステップ#303における被写体重視調光
ウエイト値及び調光用被写体重視度合設定ルーチンの第
2例を示すフローチャートである。
FIG. 24 is a flowchart showing a second example of a subject-oriented light control weight value and a light control subject importance level setting routine in step # 303.

【図25】 本発明の一実施形態に係るAF一眼レフカ
メラの他の構成例を示す図である。
FIG. 25 is a diagram illustrating another configuration example of the AF single-lens reflex camera according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100:カメラボディ 130:シャッタユニット 140:測距ユニット 150:調光センサ 160:AF駆動ユニット 161:AFアクチュエータ 162:距離エンコーダ 163:AFエンコーダ 164:出力軸 170:発光ユニット 180:測光ユニット 200:レンズ 201:撮像光学系 202:鏡胴 203:レンズ駆動機構 204:レンズCPU 205:距離エンコーダ 206:終端スイッチ 210:絞り機構 300:電源回路 301:カメラCPU 303:測光回路 304:測距回路 305:調光回路 308:露光制御回路 400:フラッシュ発光装置 100: Camera body 130: Shutter unit 140: Distance measuring unit 150: Light control sensor 160: AF drive unit 161: AF actuator 162: Distance encoder 163: AF encoder 164: Output shaft 170: Light emitting unit 180: Photometric unit 200: Lens 201: imaging optical system 202: lens barrel 203: lens driving mechanism 204: lens CPU 205: distance encoder 206: terminal switch 210: aperture mechanism 300: power supply circuit 301: camera CPU 303: photometry circuit 304: distance measurement circuit 305: adjustment Optical circuit 308: Exposure control circuit 400: Flash light emitting device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G03B 15/03 G03B 17/14 2H101 15/05 G02B 7/11 N 17/14 G03B 3/00 A (72)発明者 赤松 範彦 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 (72)発明者 辻村 一郎 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 (72)発明者 長谷川 靖 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 (72)発明者 中丸 晃男 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 Fターム(参考) 2H002 CD00 CD07 CD13 DB07 DB14 DB15 DB24 DB25 DB26 DB28 DB30 DB31 DB32 EB17 FB29 FB30 FB31 FB32 FB33 FB36 FB37 FB39 GA54 GA74 GA75 2H011 AA01 BA21 CA01 CA18 DA01 2H051 AA06 BA02 CE27 DA03 DA08 DA22 DA28 DA31 EB02 EB04 EB07 EB13 FA29 2H053 AA00 AA01 AA05 AD12 AD23 BA51 BA54 BA82 2H083 AA41 AA53 2H101 EE08 EE13 EE21 EE24 EE26 EE51 EE52 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G03B 15/03 G03B 17/14 2H101 15/05 G02B 7/11 N 17/14 G03B 3/00 A (72 ) Inventor Norihiko Akamatsu 2-13-13 Azuchicho, Chuo-ku, Osaka City, Osaka International Building Minolta Co., Ltd. (72) Inventor Ichiro Tsujimura 2-3-13 Azuchicho, Chuo-ku, Osaka City, Osaka International Building Minolta Co. (72) Inventor Yasushi Hasegawa 2-3-13 Azuchicho, Chuo-ku, Osaka City Inside Osaka International Building Minolta Co., Ltd. (72) Inventor Akio Nakamaru 2-3-13 Azuchicho, Chuo-ku, Osaka City Osaka International Building Minolta Stock Company F-term (reference) 2H002 CD00 CD07 CD13 DB07 DB14 DB15 DB24 DB25 DB26 DB28 DB30 DB31 DB32 EB17 FB29 FB30 FB31 FB32 FB33 FB36 FB37 FB39 GA54 GA74 GA75 2H011 AA01 BA21 CA01 CA18 DA01 2H051 AA06 BA02 CE27 DA03 DA08 DA22 DA28 DA31 EB02 EB04 EB07 EB13 FA29 2H053 AA00 AA01 AA05 AD12 AD23 BA51 BA54 BA82 2H083 AA41 AA53 EE21 EE52 EE08

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】 被写界内に設定された複数の測距領域に
ついて、それぞれ被写体の位置と撮影レンズの合焦位置
とのずれ量に関するデフォーカス情報を出力する多点測
距手段と、 被写界内に設定された複数の測光領域について、それぞ
れ被写体の輝度に関する輝度情報を出力する多分割測光
手段と、 装着されている撮影レンズの焦点距離に関する情報を出
力する焦点距離情報出力手段と、 前記デフォーカス情報及び前記焦点距離情報を用いて被
写体位置に関する情報を演算する被写体位置情報演算手
段と、 前記被写体位置情報を用いて前記輝度情報に乗ずる重み
を演算する重み演算手段と、 前記輝度情報に前記重みを乗ずることにより、撮影時の
露光量に関する露光情報を演算し、露光制御する露光制
御手段とを具備するカメラ。
1. A multi-point distance measuring means for outputting defocus information relating to a shift amount between a position of a subject and a focusing position of a photographing lens for each of a plurality of distance measuring areas set in an object field. For a plurality of photometric regions set in the field of view, a multi-segment photometric unit that outputs luminance information about the luminance of the subject, a focal length information output unit that outputs information about the focal length of the mounted photographing lens, Subject position information calculating means for calculating information about a subject position using the defocus information and the focal length information; weight calculating means for calculating a weight for multiplying the luminance information using the subject position information; An exposure control means for calculating exposure information relating to an exposure amount at the time of photographing by multiplying the weight by the weight, and controlling the exposure.
【請求項2】 前記多点測距手段における複数の測距領
域を、所定数の測距領域ごとに複数の測距領域群に分割
し、各測距領域群ごとにデフォーカス情報を決定する測
距領域群分割手段をさらに具備することを特徴とする請
求項1記載のカメラ。
2. The method according to claim 1, wherein the plurality of ranging areas in the multi-point ranging unit are divided into a plurality of ranging area groups for each predetermined number of ranging areas, and defocus information is determined for each ranging area group. 2. The camera according to claim 1, further comprising a distance measurement area group dividing unit.
【請求項3】 前記被写体位置情報演算手段は、前記各
測距領域又は各測距領域群のデフォーカス値DFnと撮
影レンズの焦点距離の逆数(1/f1)との積Vn(V
n=DFn×(1/f1)(n=1,2,・・・m))
に基づいて被写体位置情報を演算することを特徴とする
請求項1又は2記載のカメラ。
3. The object position information calculating means calculates a product Vn (V) of a defocus value DFn of each of the distance measurement areas or each of the distance measurement area groups and a reciprocal (1 / f1) of a focal length of the photographing lens.
n = DFn × (1 / f1) (n = 1, 2,... m))
3. The camera according to claim 1, wherein subject position information is calculated based on the following.
【請求項4】 前記被写体位置情報演算手段は、前記各
測距領域又は各測距領域群について演算した複数のVn
値のうち最小値を有する測距領域又は測距領域群のデフ
ォーカス情報に基づいて被写体位置を演算することを特
徴とする請求項3記載のカメラ。
4. The object position information calculating means calculates a plurality of Vn values calculated for each of the distance measurement areas or each of the distance measurement area groups.
4. The camera according to claim 3, wherein a subject position is calculated based on defocus information of a ranging area or a ranging area group having a minimum value among the values.
【請求項5】 前記被写体位置情報演算手段は、前記各
測距領域群について演算した複数のVn値の平均値を演
算し、その平均値に基づいて被写体位置を演算すること
を特徴とする請求項3記載のカメラ。
5. The object position information calculating means calculates an average value of a plurality of Vn values calculated for each of the distance measurement area groups, and calculates an object position based on the average value. Item 3. The camera according to Item 3.
【請求項6】 前記被写体位置情報演算手段は、前記各
測距領域群に含まれる測距領域のうち被写体の低コント
ラストによりデフォーカス情報が得られなかった測距領
域を除外して、残りの測距領域からのデフォーカス情報
を用いて被写体位置情報を演算することを特徴とする請
求項2記載のカメラ。
6. The object position information calculating means excludes the remaining distance measurement areas in which defocus information was not obtained due to low contrast of the object among the distance measurement areas included in each of the distance measurement area groups, 3. The camera according to claim 2, wherein subject position information is calculated using defocus information from the distance measurement area.
【請求項7】 前記被写体位置情報演算手段は、前記各
測距領域群に含まれる全ての測距領域について、被写体
の低コントラストによりデフォーカス情報が得られなか
った場合には、当該測距領域群を除外して、残りの測距
領域群について被写体位置情報を演算することを特徴と
する請求項2記載のカメラ。
7. The object position information calculating means, if defocus information cannot be obtained due to low contrast of the object for all the distance measurement areas included in each of the distance measurement area groups, 3. The camera according to claim 2, wherein the group is excluded and subject position information is calculated for the remaining ranging area groups.
【請求項8】 前記被写体位置情報演算手段は、前記各
測距領域又は各測距領域群のデフォーカス情報を用い
て、撮影レンズの合焦位置が被写体よりも遠いか近いか
を判断し、判断結果に応じて被写体位置情報を補正する
ことを特徴とする請求項1又は2記載のカメラ。
8. The subject position information calculating means determines whether the in-focus position of the photographing lens is farther or closer than the subject by using the defocus information of each ranging area or each ranging area group, 3. The camera according to claim 1, wherein subject position information is corrected according to a result of the determination.
【請求項9】 被写界内に設定された複数の測距領域に
ついて、それぞれ被写体の位置と撮影レンズの合焦位置
とのずれ量に関するデフォーカス情報を出力する多点測
距手段と、 被写界内に設定された複数の測光領域について、それぞ
れ被写体の輝度に関する輝度情報を出力する多分割測光
手段と、 装着されている撮影レンズの焦点距離に関する情報を出
力する焦点距離情報出力手段と、 撮影被写体の像倍率情報を演算する像倍率情報演算手段
と、 前記デフォーカス情報、焦点距離情報及び像倍率情報を
用いて前記各測光領域の撮影露光における測光寄与率を
演算する測光寄与率演算手段と、 前記測光寄与率に基づいて、撮影時の露光量に関する露
光情報を演算し、露光制御する露光制御手段とを具備す
るカメラ。
9. A multi-point distance measuring means for outputting defocus information relating to an amount of deviation between a position of a subject and a focusing position of a photographing lens for each of a plurality of distance measuring areas set in an object field. For a plurality of photometric regions set in the field of view, a multi-segment photometric unit that outputs luminance information about the luminance of the subject, a focal length information output unit that outputs information about the focal length of the mounted photographing lens, Image magnification information computing means for computing image magnification information of a photographing subject; and photometric contribution rate computing means for computing a photometric contribution rate in photographing exposure of each photometric area using the defocus information, focal length information and image magnification information. A camera comprising: an exposure control unit configured to calculate exposure information regarding an exposure amount at the time of shooting based on the photometric contribution ratio and control exposure.
【請求項10】 被写界内に設定された複数の測距領域
について、それぞれ被写体の位置と撮影レンズの合焦位
置とのずれ量に関するデフォーカス情報を出力する多点
測距手段と、 被写界内に設定された複数の測光領域について、それぞ
れ被写体の輝度に関する輝度情報を出力する多分割測光
手段と、 装着されている撮影レンズの焦点距離に関する情報を出
力する焦点距離情報出力手段と、 撮影被写体の距離情報を出力する被写体距離情報出力手
段と、 前記デフォーカス情報、焦点距離情報及び被写体距離情
報を用いて前記各測光領域の撮影露光における測光寄与
率を演算する測光寄与率演算手段と、 前記測光寄与率に基づいて、撮影時の露光量に関する露
光情報を演算し、露光制御する露光制御手段とを具備す
るカメラ。
10. A multi-point distance measuring means for outputting defocus information relating to a shift amount between a position of a subject and a focusing position of a photographing lens for each of a plurality of distance measuring areas set in a field of view. For a plurality of photometric regions set in the field of view, a multi-segment photometric unit that outputs luminance information about the luminance of the subject, a focal length information output unit that outputs information about the focal length of the mounted photographing lens, A subject distance information output unit that outputs distance information of a photographing subject; and a photometric contribution ratio calculating unit that calculates a photometric contribution ratio in shooting exposure of each of the photometric regions using the defocus information, the focal length information, and the subject distance information. A camera comprising: exposure control means for calculating exposure information relating to an exposure amount at the time of photographing based on the photometric contribution ratio and performing exposure control.
【請求項11】 装着されている撮影レンズに関するレ
ンズ設定情報を出力するレンズ設定情報出力手段をさら
に具備し、前記測光寄与率演算手段は前記レンズ設定情
報に応じて前記測光寄与率を補正することを特徴とする
請求項9又は10記載のカメラ。
11. A lens setting information output unit for outputting lens setting information relating to a mounted photographing lens, wherein the photometric contribution ratio calculating unit corrects the photometric contribution ratio according to the lens setting information. The camera according to claim 9 or 10, wherein:
【請求項12】 前記レンズ設定情報は、特殊光学系を
有する撮影レンズが装着されたことを示す情報を含み、
前記測光寄与率演算手段は、特殊光学系を有する撮影レ
ンズが装着されている場合に、全ての測光領域に対して
平均的な測光寄与率を設定することを特徴とする請求項
11記載のカメラ。
12. The lens setting information includes information indicating that a photographing lens having a special optical system is mounted,
12. The camera according to claim 11, wherein the photometric contribution ratio calculating means sets an average photometric contribution ratio for all photometric regions when a photographing lens having a special optical system is mounted. .
【請求項13】 前記レンズ設定情報は、フィルタを含
む光学素子が撮影レンズに装着されたことを示す情報を
含み、前記測光寄与率演算手段は、光学素子が撮影レン
ズに装着されている場合に、全ての測光領域に対して平
均的な測光寄与率を設定することを特徴とする請求項1
1記載のカメラ。
13. The lens setting information includes information indicating that an optical element including a filter is mounted on a photographic lens, and the photometric contribution ratio calculating means determines whether the optical element is mounted on the photographic lens. 2. An average photometric contribution ratio is set for all photometric regions.
The camera according to 1.
【請求項14】 前記測光寄与率演算手段は、撮影レン
ズの合焦位置が被写体よりも遠いか近いかに応じて被写
体位置情報を補正することを特徴とする請求項9又は1
0記載のカメラ。
14. The apparatus according to claim 9, wherein the photometric contribution ratio calculating means corrects the subject position information according to whether the focus position of the taking lens is farther or closer than the subject.
The camera according to 0.
【請求項15】 被写界内に設定された複数の測距領域
について、それぞれ被写体の位置と撮影レンズの合焦位
置とのずれ量に関するデフォーカス情報を出力する多点
測距手段と、 被写界内に設定された複数の調光領域について、それぞ
れ被写体からの反射光を測定する多分割調光手段と、 装着されている撮影レンズの焦点距離に関する情報を出
力する焦点距離情報出力手段と、 前記デフォーカス情報及び前記焦点距離情報を用いて被
写体位置に関する情報を演算する被写体位置情報演算手
段と、 前記被写体位置情報を用いて、フラッシュ撮影時におけ
る前記各調光領域に対応する測光出力に乗ずる重みを演
算する重み演算手段と、 各調光領域に対応する前記測光出力に前記重みを乗ずる
ことにより、フラッシュ撮影時の発光量を演算し、フラ
ッシュ光の発光制御するフラッシュ制御手段とを具備す
るカメラ。
15. A multi-point distance measuring means for outputting defocus information relating to a shift amount between a position of a subject and a focusing position of a photographing lens for each of a plurality of distance measuring areas set in an object field. A multi-division dimming unit that measures reflected light from a subject for each of a plurality of dimming regions set in the field of view; and a focal length information output unit that outputs information about the focal length of the mounted photographing lens. A subject position information calculating means for calculating information on a subject position using the defocus information and the focal length information; and using the subject position information, a photometric output corresponding to each of the light control areas during flash photography. Weight calculation means for calculating a weight to be multiplied; and multiplying the photometric output corresponding to each light control area by the weight to calculate a light emission amount at the time of flash photographing; Camera and a flash control means for controlling light emission of the rush light.
【請求項16】 前記多点測距手段における複数の測距
領域を、所定数の測距領域ごとに複数の測距領域群に分
割し、各測距領域群ごとにデフォーカス情報を決定する
測距領域群分割手段をさらに具備することを特徴とする
請求項15記載のカメラ。
16. A plurality of ranging areas in the multipoint ranging means are divided into a plurality of ranging area groups for each predetermined number of ranging areas, and defocus information is determined for each ranging area group. 16. The camera according to claim 15, further comprising a distance measurement area group dividing unit.
【請求項17】 前記被写体位置情報演算手段は、前記
各測距領域又は各測距領域群のデフォーカス値DFnと
撮影レンズの焦点距離の逆数(1/f1)との積Vn
(Vn=DFn×(1/f1)(n=1,2,・・・
m))に基づいて被写体位置情報を演算することを特徴
とする請求項15又は16記載のカメラ。
17. The object position information calculating means calculates a product Vn of a defocus value DFn of each of the distance measurement areas or each of the distance measurement area groups and a reciprocal (1 / f1) of a focal length of the photographing lens.
(Vn = DFn × (1 / f1) (n = 1, 2,...)
17. The camera according to claim 15, wherein subject position information is calculated based on m)).
【請求項18】 前記被写体位置情報演算手段は、前記
各測距領域又は各測距領域群について演算した複数のV
n値のうち最小値を有する測距領域又は測距領域群のデ
フォーカス情報に基づいて被写体位置を演算することを
特徴とする請求項17記載のカメラ。
18. The object position information calculating means calculates a plurality of Vs calculated for each of the distance measuring areas or each of the distance measuring area groups.
18. The camera according to claim 17, wherein a subject position is calculated based on defocus information of a ranging area or a ranging area group having a minimum value among n values.
【請求項19】 前記被写体位置情報演算手段は、前記
各測距領域群について演算した複数のVn値の平均値を
演算し、その平均値に基づいて被写体位置を演算するこ
とを特徴とする請求項17記載のカメラ。
19. The object position information calculating means calculates an average value of a plurality of Vn values calculated for each of the distance measurement area groups, and calculates an object position based on the average value. Item 18. The camera according to Item 17.
【請求項20】 前記被写体位置情報演算手段は、前記
各測距領域群に含まれる測距領域のうち被写体の低コン
トラストによりデフォーカス情報が得られなかった測距
領域を除外して、残りの測距領域からのデフォーカス情
報を用いて被写体位置情報を演算することを特徴とする
請求項16記載のカメラ。
20. The object position information calculating means excludes the remaining distance measurement areas from which defocus information was not obtained due to low contrast of the object among the distance measurement areas included in each of the distance measurement area groups. 17. The camera according to claim 16, wherein subject position information is calculated using defocus information from a distance measurement area.
【請求項21】 前記被写体位置情報演算手段は、前記
各測距領域群に含まれる全ての測距領域について、被写
体の低コントラストによりデフォーカス情報が得られな
かった場合には、当該測距領域群を除外して、残りの測
距領域群について被写体位置情報を演算することを特徴
とする請求項16記載のカメラ。
21. If the defocus information cannot be obtained due to the low contrast of the object for all the distance measurement areas included in each of the distance measurement area groups, the object position information calculation means may calculate the distance measurement area. 17. The camera according to claim 16, wherein the group is excluded and subject position information is calculated for the remaining ranging area groups.
【請求項22】 前記被写体位置情報演算手段は、前記
各測距領域又は各測距領域群のデフォーカス情報を用い
て、撮影レンズの合焦位置が被写体よりも遠いか近いか
を判断し、判断結果に応じて被写体位置情報を補正する
ことを特徴とする請求項15又は16載のカメラ。
22. The subject position information calculating means determines whether the in-focus position of the taking lens is farther or closer to the subject by using the defocus information of each ranging area or each ranging area group, 17. The camera according to claim 15, wherein subject position information is corrected according to a result of the determination.
【請求項23】 被写界内に設定された複数の測距領域
について、それぞれ被写体の位置と撮影レンズの合焦位
置とのずれ量に関するデフォーカス情報を出力する多点
測距手段と、 被写界内に設定された複数の調光領域について、それぞ
れ被写体からの反射光を測定する多分割調光手段と、 装着されている撮影レンズの焦点距離に関する情報を出
力する焦点距離情報出力手段と、 前記デフォーカス情報及び前記焦点距離情報を用いて被
写体位置に関する情報を演算する被写体位置情報演算手
段と、 撮影被写体の像倍率情報を演算する像倍率情報演算手段
と、 前記デフォーカス情報、焦点距離情報及び像倍率情報を
用いて前記各調光領域の撮影露光における調光寄与率を
演算する調光寄与率演算手段と、 前記調光寄与率に基づいて、フラッシュ撮影時の発光量
を演算し、フラッシュ光の発光制御するフラッシュ制御
手段とを具備するカメラ。
23. A multi-point distance measuring means for outputting defocus information relating to a shift amount between a position of a subject and a focusing position of a photographing lens for each of a plurality of distance measuring areas set in an object field; A multi-division dimming unit that measures reflected light from a subject for each of a plurality of dimming regions set in the field of view; and a focal length information output unit that outputs information about the focal length of the mounted photographing lens. Subject position information calculating means for calculating information on a subject position using the defocus information and the focal length information; image magnification information calculating means for calculating image magnification information of a photographic subject; A dimming contribution ratio calculating means for calculating a dimming contribution ratio in the photographing exposure of each of the dimming regions using information and image magnification information; A flash control means for calculating a light emission amount during flash photographing and controlling light emission of a flash light.
【請求項24】 被写界内に設定された複数の測距領域
について、それぞれ被写体の位置と撮影レンズの合焦位
置とのずれ量に関するデフォーカス情報を出力する多点
測距手段と、 被写界内に設定された複数の調光領域について、それぞ
れ被写体からの反射光を測定する多分割調光手段と、 装着されている撮影レンズの焦点距離に関する情報を出
力する焦点距離情報出力手段と、 撮影被写体の距離情報を出力する被写体距離情報出力手
段と、 前記デフォーカス情報、焦点距離情報及び被写体距離率
情報を用いて前記各調光領域の撮影露光における調光寄
与率を演算する調光寄与率演算手段と、 前記調光寄与率に基づいて、フラッシュ撮影時の発光量
を演算し、フラッシュ光の発光制御するフラッシュ制御
手段とを具備するカメラ。
24. A multi-point distance measuring means for outputting defocus information relating to an amount of deviation between a position of a subject and a focusing position of a photographing lens for each of a plurality of distance measuring areas set in an object field; A multi-division dimming unit that measures reflected light from a subject for each of a plurality of dimming regions set in the field of view; and a focal length information output unit that outputs information about the focal length of the mounted photographing lens. Subject distance information output means for outputting distance information of a photographing subject; dimming for calculating a dimming contribution ratio in shooting exposure of each of the dimming regions using the defocus information, focal length information and subject distance ratio information A camera comprising: a contribution ratio calculating unit; and a flash control unit that calculates a light emission amount at the time of flash photography based on the dimming contribution ratio and controls light emission of the flash light.
【請求項25】 装着されている撮影レンズに関するレ
ンズ設定情報を出力するレンズ設定情報出力手段をさら
に具備し、前記調光寄与率演算手段は前記レンズ設定情
報に応じて前記調光寄与率を補正することを特徴とする
請求項23又は24記載のカメラ。
25. The image forming apparatus further comprising lens setting information output means for outputting lens setting information relating to a mounted photographing lens, wherein the dimming contribution ratio calculating means corrects the dimming contribution ratio according to the lens setting information. 25. The camera according to claim 23, wherein the camera is operated.
【請求項26】 前記レンズ設定情報は、特殊光学系を
有する撮影レンズが装着されたことを示す情報を含み、
前記調光寄与率演算手段は、特殊光学系を有する撮影レ
ンズが装着されている場合に、全ての調光領域に対して
平均的な調光寄与率を設定することを特徴とする請求項
25記載のカメラ。
26. The lens setting information includes information indicating that a photographic lens having a special optical system is mounted,
26. The dimming contribution ratio calculating means sets an average dimming contribution ratio for all dimming regions when a photographing lens having a special optical system is mounted. The described camera.
【請求項27】 前記レンズ設定情報は、フィルタを含
む光学素子が撮影レンズに装着されたことを示す情報を
含み、前記調光寄与率演算手段は、光学素子が撮影レン
ズに装着されている場合に、全ての調光領域に対して平
均的な調光寄与率を設定することを特徴とする請求項2
5記載のカメラ。
27. The lens setting information includes information indicating that an optical element including a filter has been mounted on a photographic lens, and the dimming contribution ratio calculating unit has a configuration in which the optical element is mounted on a photographic lens. 3. An average dimming contribution ratio is set for all dimming regions.
5. The camera according to 5.
【請求項28】 前記調光寄与率演算手段は、撮影レン
ズの合焦位置が被写体よりも遠いか近いかに応じて被写
体位置情報を補正することを特徴とする請求項23は2
4記載のカメラ。
28. The method according to claim 23, wherein the dimming contribution ratio calculating means corrects the subject position information according to whether the focus position of the taking lens is farther or closer than the subject.
4. The camera according to 4.
【請求項29】 前記撮影レンズはオートフォーカス不
可レンズであることを特徴とする請求項1から28のい
ずれかに記載のカメラ。
29. The camera according to claim 1, wherein the photographing lens is a non-autofocusable lens.
【請求項30】 前記撮影レンズはオートフォーカス可
能レンズであり、ユーザがマニュアルフォーカスを選択
したものであることを特徴とする請求項1から28のい
ずれかに記載のカメラ。
30. The camera according to claim 1, wherein the photographing lens is an auto-focusable lens, and a user selects manual focusing.
JP2000252305A 2000-08-23 2000-08-23 Camera Pending JP2002072283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000252305A JP2002072283A (en) 2000-08-23 2000-08-23 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000252305A JP2002072283A (en) 2000-08-23 2000-08-23 Camera

Publications (1)

Publication Number Publication Date
JP2002072283A true JP2002072283A (en) 2002-03-12

Family

ID=18741566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000252305A Pending JP2002072283A (en) 2000-08-23 2000-08-23 Camera

Country Status (1)

Country Link
JP (1) JP2002072283A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229093A (en) * 2001-02-01 2002-08-14 Canon Inc Imaging unit and its exposure control method, its operation processing program, and storage medium stored with the program
JP2011053378A (en) * 2009-08-31 2011-03-17 Canon Inc Image pickup device and exposure control method
JP2013019977A (en) * 2011-07-08 2013-01-31 Nikon Corp Lens barrel and camera body
JP2013076951A (en) * 2011-09-30 2013-04-25 Canon Inc Imaging apparatus and control method for the same
JP2014095593A (en) * 2012-11-08 2014-05-22 Shimadzu Corp Appearance inspection device and appearance inspection method
JP2016028297A (en) * 2015-10-06 2016-02-25 株式会社ニコン Lens barrel and camera body
JP2016080791A (en) * 2014-10-14 2016-05-16 オリンパス株式会社 Imaging device and control method of imaging device
US9769370B2 (en) 2011-05-31 2017-09-19 Nikon Corporation Exchangeable lens having a settable aperture and camera body that captures an image by an optical system which has a settable aperture
JP2018124281A (en) * 2017-02-01 2018-08-09 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー Method for determining exposure time of three-dimentional recording

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229093A (en) * 2001-02-01 2002-08-14 Canon Inc Imaging unit and its exposure control method, its operation processing program, and storage medium stored with the program
JP2011053378A (en) * 2009-08-31 2011-03-17 Canon Inc Image pickup device and exposure control method
US9769370B2 (en) 2011-05-31 2017-09-19 Nikon Corporation Exchangeable lens having a settable aperture and camera body that captures an image by an optical system which has a settable aperture
US10362212B2 (en) 2011-05-31 2019-07-23 Nikon Corporation Exchangeable lens having a settable aperture and camera body that captures an image by an optical system which has a settable aperture
JP2013019977A (en) * 2011-07-08 2013-01-31 Nikon Corp Lens barrel and camera body
JP2013076951A (en) * 2011-09-30 2013-04-25 Canon Inc Imaging apparatus and control method for the same
JP2014095593A (en) * 2012-11-08 2014-05-22 Shimadzu Corp Appearance inspection device and appearance inspection method
JP2016080791A (en) * 2014-10-14 2016-05-16 オリンパス株式会社 Imaging device and control method of imaging device
JP2016028297A (en) * 2015-10-06 2016-02-25 株式会社ニコン Lens barrel and camera body
JP2018124281A (en) * 2017-02-01 2018-08-09 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー Method for determining exposure time of three-dimentional recording
JP7077031B2 (en) 2017-02-01 2022-05-30 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー How to determine the exposure time for 3D recording

Similar Documents

Publication Publication Date Title
JP4346926B2 (en) Strobe photographing system and imaging apparatus
JP5424708B2 (en) Focus detection device
JPH04257830A (en) Flash light dimming controller for camera
JPH10312009A (en) Camera system
JP4280515B2 (en) Strobe shooting system and camera
JP2002072283A (en) Camera
JP2005128192A (en) Camera system
JP4447902B2 (en) Flash photography system and control method thereof
JP2002072302A (en) Dimming controller for camera
JP4950634B2 (en) Imaging apparatus and imaging system
JP4461523B2 (en) Flash control device
JP3647085B2 (en) Camera system
JP3780051B2 (en) Camera autofocus device
JP2000081647A (en) Camera
JP2004264783A (en) Camera and electronic camera
JP2003043549A (en) Dimming controller for camera
JP2019139031A (en) Imaging apparatus and method for controlling the same
JPH0961910A (en) Camera system and stroboscopic device
JPH0961904A (en) Stroboscopic control system
JP3706659B2 (en) Camera system
JPS61286820A (en) Focus adjusting device for camera
JP2003066505A (en) Camera
JP2005134468A (en) Stroboscopic device
JP2006017854A (en) Imaging apparatus and flash light emitting device
JP2002072070A (en) Automatic focusing camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615