JP3097201B2 - Exposure calculation device - Google Patents

Exposure calculation device

Info

Publication number
JP3097201B2
JP3097201B2 JP03215180A JP21518091A JP3097201B2 JP 3097201 B2 JP3097201 B2 JP 3097201B2 JP 03215180 A JP03215180 A JP 03215180A JP 21518091 A JP21518091 A JP 21518091A JP 3097201 B2 JP3097201 B2 JP 3097201B2
Authority
JP
Japan
Prior art keywords
photometric
subject
exposure
distance
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP03215180A
Other languages
Japanese (ja)
Other versions
JPH0553169A (en
Inventor
宏之 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP03215180A priority Critical patent/JP3097201B2/en
Priority to US07/933,819 priority patent/US5392091A/en
Publication of JPH0553169A publication Critical patent/JPH0553169A/en
Priority to US08/341,978 priority patent/US5461452A/en
Application granted granted Critical
Publication of JP3097201B2 publication Critical patent/JP3097201B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P10/00Technologies related to metal processing
    • Y02P10/25Process efficiency

Landscapes

  • Exposure Control For Cameras (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、カメラの露出演算装置
に関する。カメラにおいては、適切な露光条件でフィル
ムなどの撮像媒体の露光を行うために、被写体やその周
囲の光量に合わせて、撮影レンズに備えられた絞りや露
光時間を制御する必要があり、この制御処理は、カメラ
に備えられた露出演算装置によって行われている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exposure calculating device for a camera. In a camera, in order to perform exposure of an imaging medium such as a film under an appropriate exposure condition, it is necessary to control an aperture and an exposure time provided in a photographing lens in accordance with a light amount of a subject and its surroundings. The processing is performed by an exposure calculation device provided in the camera.

【0002】[0002]

【従来の技術】従来の露出制御方法としては、被写体が
撮影レンズの被写界の中央部にあることを前提として、
被写界の中央部分からの光量に応じて露出値を決定する
方法がある。この場合は、被写界の光量を測定する測光
素子として、被写界の中央部に対応する部分の感度が極
大であり、周辺に近づくに従って感度が単調減少するよ
うな特性を有する測光素子を用いて露出演算装置を構成
し、この測光素子の出力に応じて、露出値を決定する構
成となっている。
2. Description of the Related Art A conventional exposure control method is based on the premise that a subject is located at the center of the field of a photographing lens.
There is a method of determining an exposure value according to the amount of light from a central portion of a field. In this case, as a photometric element that measures the amount of light in the field, a photometric element having a characteristic in which the sensitivity of the portion corresponding to the center of the field is maximum and the sensitivity monotonically decreases as approaching the periphery. The exposure calculation device is used to determine the exposure value according to the output of the photometric element.

【0003】このような構成は中央重点測光方式と呼ば
れており、この方式を採用した場合は、露出演算装置の
構成を簡易とすることができる。しかし、上述した中央
重点測光方式の場合は、強い逆光状態での撮影のよう
に、中央部分と周辺部分とで輝度値が大幅に異なってい
た場合などには、適正な露光が得られない場合がある。
[0003] Such a configuration is called a center-weighted photometry system. When this system is adopted, the configuration of an exposure calculation device can be simplified. However, in the case of the center-weighted metering method described above, when the brightness value is significantly different between the central portion and the peripheral portion, such as when shooting in a strong backlight state, when an appropriate exposure cannot be obtained. There is.

【0004】このような場合に対応して、図27に示す
ように被写界を複数の測光領域に分割し、各測光領域の
光量のバランスを考慮して露出値を決定する方法もあ
り、分割測光方式と呼ばれている。この場合は、各測光
領域に対応する測光素子をそれぞれ設けて露出演算装置
を構成し、各測光領域を独立に測光して得られた測光結
果から各測光領域の輝度値を求め、これらの輝度値から
露出値を求める構成となっている。
In order to cope with such a case, there is a method of dividing an object field into a plurality of photometric areas as shown in FIG. 27, and determining an exposure value in consideration of a balance of light amounts of the respective photometric areas. This is called a split photometry method. In this case, an exposure calculation device is configured by providing photometric elements corresponding to the respective photometric regions, and a luminance value of each photometric region is obtained from photometric results obtained by independently measuring the photometric regions. The exposure value is obtained from the value.

【0005】但し、上述した分割測光方式においても、
被写体は被写界の中央部にあることを前提としているの
で、露出値を求める際には、図27に示した5つの測光
領域の中央の円形の測光領域による測光結果に大きい重
みが付けられる。
[0005] However, even in the above-described split photometry method,
Since it is assumed that the subject is located at the center of the object scene, when the exposure value is obtained, a large weight is given to the photometry result by the circular photometry area at the center of the five photometry areas shown in FIG. .

【0006】[0006]

【発明が解決しようとする課題】ところで、上述した従
来方式においては、いずれも被写体が中央部にあること
を前提としているため、被写体を被写界の周辺部に捉え
た状態で撮影を行う場合には、上述した露出演算装置に
よっては適正な露出値が得られなかった。このような場
合にも適正な露出値を得るための方法として、いくつか
の測光パターンから被写体位置に対応する測光パターン
を選択し、被写体に適合した露出値を求める技法が、特
開平2−32312号公報『視線入力カメラ』で開示さ
れている。
However, in the above-mentioned conventional methods, since it is assumed that the subject is located at the center, the photographing is performed in a state where the subject is captured at the periphery of the scene. In the above, an appropriate exposure value could not be obtained by the above-described exposure calculation device. As a method for obtaining an appropriate exposure value even in such a case, a technique of selecting a photometric pattern corresponding to a subject position from several photometric patterns and finding an exposure value suitable for the subject is disclosed in Japanese Patent Laid-Open No. 2-32312. It is disclosed in Japanese Patent Publication No. "Gaze input camera".

【0007】図28に、上述した視線入力カメラの露出
演算装置の概略構成を示す。図28において、露出演算
装置は、結像レンズ511と、複数の領域に分割された
測光素子512と、この測光素子512による測光結果
に基づいて露出演算処理を行うマイクロプロセッサ51
3とを備えて構成されている。また、撮影レンズ210
の予定結像面に設けられたピント板203に結ばれた像
は、上述した結像レンズ511により、ペンタプリズム
202を介して測光素子512上に結ばれる構成となっ
ている。
FIG. 28 shows a schematic configuration of an exposure calculating device of the above-mentioned eye-gaze input camera. In FIG. 28, an exposure calculation device includes an imaging lens 511, a photometry element 512 divided into a plurality of areas, and a microprocessor 51 that performs an exposure calculation process based on a photometry result by the photometry element 512.
3 is provided. Also, the photographing lens 210
The image formed on the focus plate 203 provided on the predetermined image forming plane is formed on the photometric element 512 via the pentaprism 202 by the above-described image forming lens 511.

【0008】この測光素子512は、例えば、図29に
示すように分割されており、各領域ごとに独立に測光可
能な構成となっている。また、マイクロプロセッサ51
3は、上述した各領域による測光結果に与える重みを変
更することにより、測光素子512の測光感度分布の極
大値の位置を様々に変化させた場合に対応する測光結果
を得て、露出値を算出する構成となっている。
The photometric element 512 is divided, for example, as shown in FIG. 29, and has a configuration in which photometry can be performed independently for each area. The microprocessor 51
3 obtains a photometric result corresponding to a case where the position of the maximum value of the photometric sensitivity distribution of the photometric element 512 is variously changed by changing a weight given to the photometric result of each region described above, and sets the exposure value. It is configured to calculate.

【0009】また、視線検出回路520は、接眼レンズ
204を介して撮影者の眼球を観察することにより、撮
影者の視線の方向を判別し、撮影者の視線が被写界と交
差する視線位置を求める構成となっており、この視線位
置が、マイクロプロセッサ513に被写体位置として入
力されている。従って、マイクロプロセッサ513が、
入力される被写体位置に応じて、各領域による測光結果
に与える重みを変更することにより、被写体位置におい
て感度が極大となる測光感度分布を有する測光素子で被
写界の測光を行った場合と同等な測光結果が得られる。
The line-of-sight detection circuit 520 determines the direction of the line of sight of the photographer by observing the eyeball of the photographer through the eyepiece lens 204, and determines the line-of-sight position where the line of sight of the photographer intersects the object scene. The line-of-sight position is input to the microprocessor 513 as the subject position. Therefore, the microprocessor 513
By changing the weight given to the photometric result by each area according to the input subject position, the same as when the subject field photometry is performed by a photometric element having a photometric sensitivity distribution in which the sensitivity is maximized at the subject position The photometry results are excellent.

【0010】このようにして、被写体位置を中央重点測
光の中心位置として露出制御を行うことが可能とされ、
被写界の周辺にある被写体の輝度に対応して、被写体に
適合する露出制御を行うことができる。しかしながら、
この技法は、あくまで中央重点測光方式において測光感
度分布の中心位置を可変としたものである。従って、被
写界全体のバランスは考慮されていないので、逆光での
撮影で被写体の周囲が白くとんでしまったり、被写体よ
りも暗い部分が全く写らなかったりする可能性がある。
In this manner, exposure control can be performed with the subject position as the center position of center-weighted metering.
Exposure control suitable for the subject can be performed in accordance with the brightness of the subject around the object scene. However,
In this technique, the center position of the photometric sensitivity distribution is made variable in the center-weighted photometric method. Therefore, since the balance of the entire object field is not taken into account, there is a possibility that the surroundings of the subject will be whitened in the shooting in the backlight, or a part darker than the subject will not be captured at all.

【0011】本発明は、被写体位置を重視するとともに
被写界全体のバランスを考慮して、適正な露出値を得る
ことが可能な露出演算装置を提供することを目的とす
る。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an exposure calculating device capable of obtaining an appropriate exposure value while giving importance to the position of a subject and taking into account the balance of the entire scene.

【0012】[0012]

【課題を解決するための手段】図1は、請求項1の露出
演算装置の構成を示す図である。図3は、請求項1ない
し請求項3の分類手段の構成を示す図である。請求項1
の発明は、結像光学系101の被写界を分割して得られ
る各要素領域にそれぞれ対応する複数の測光素子111
から形成され、被写界における光の強度分布を測定する
測光手段112と、被写界における被写体位置が入力さ
れ、被写体位置に対応して変化する分割パターンに従っ
て、測光手段112の各測光素子111を複数のグルー
プに分類する分類手段113と、複数の測光素子111
の出力に対して、それぞれが属するグループに対応する
重みをつけて露出値を求め、露出制御に供する第1演算
手段114と、分類手段113が、被写界をそれぞれ所
定の形状を有する複数の測光領域に分割する境界線位置
を保持する保持手段131と、被写界内の基準位置から
被写体位置への変位を求める変位算出手段132と、変
位算出手段132で得られた変位に応じて、保持手段1
31に保持された境界線位置から複数の測光領域の境界
線を移動させて、被写体位置に対応する分割パターンを
生成する第2パターン生成手段133とを備えたことを
特徴とする。
FIG. 1 is a diagram showing a configuration of an exposure calculation device according to the present invention. FIG. 3 shows no claim 1.
FIG. 9 is a diagram showing a configuration of a classification means of claim 3. Claim 1
According to the invention, a plurality of photometric elements 111 corresponding to respective element regions obtained by dividing the object field of the imaging optical system 101 are provided.
And photometric means 112 for measuring the intensity distribution of light in the object scene, and the respective photometric elements 111 of the photometric means 112 according to a division pattern which receives the position of the object in the object field and changes in accordance with the position of the object. Classifying means 113 for classifying the light into a plurality of groups;
The first arithmetic means 114 and the classifying means 113 for obtaining the exposure value by assigning weights corresponding to the groups to which they belong to the output of
Boundary position to divide into multiple photometric areas with a fixed shape
From the reference position in the object scene
A displacement calculating unit 132 for obtaining a displacement to the subject position;
In accordance with the displacement obtained by the position calculating means 132, the holding means 1
The boundaries of the plurality of photometric areas from the boundary position held in 31
Move the line to create a division pattern corresponding to the position of the subject.
And a second pattern generating means 133 for generating the pattern .

【0013】[0013]

【0014】[0014]

【0015】請求項2の発明は、請求項1に記載の露出
演算装置において、分類手段113が、複数の測光領域
それぞれの面積に応じて、第2パターン生成手段133
による境界線の移動量を制御する移動制御手段134を
有する構成であることを特徴とする。請求項3の発明
は、請求項1に記載の露出演算装置において、分類手段
113が、第2パターン生成手段133による境界線の
移動範囲を所定の範囲に制限する移動制限手段135を
有する構成であることを特徴とする。
[0015] According to a second aspect of the invention, the exposure calculation device according to claim 1, the classification unit 113, according to the area of each of the plurality of detection areas, the second pattern generation unit 133
Characterized in that it has a movement control means 134 for controlling the amount of movement of the boundary line due to. A third aspect of the present invention, the exposure calculation device according to claim 1, the classification unit 113, a configuration having a movement limiting means 135 for limiting the range of movement of the boundary line by the second pattern generation unit 133 in a predetermined range There is a feature.

【0016】図4は、請求項4または請求項5の露出演
算装置の構成を示す図である。図5は、請求項4の発明
の要部を示す図である。 請求項4の発明は、結像光学系
101の被写界をそれぞれ所定の形状を用いて分割して
得られる複数の測光領域にそれぞれ対応し、各測光領域
における光量の測定を行う複数の領域測光手段141
と、被写界における被写体位置の入力に応じて、被写体
位置を含む要素領域における光量を測定する被写体測光
手段142と、複数の測光手段141と被写体測光手段
142との出力に基づいて露出値を算出して、結像光学
系101の露出制御に供する第2演算手段143と、結
像光学系101と被写体との距離を判別する距離判別手
段151と、距離判別手段151で得られた距離に基づ
いて、被写体測光手段142が測光する要素領域の大き
さを変更する第1変更手段152とを備えたことを特徴
とする。
FIG. 4 is a diagram showing a configuration of an exposure calculation device according to the fourth or fifth aspect . FIG. 5 shows the invention of claim 4.
It is a figure which shows the principal part of. A plurality of areas corresponding to a plurality of photometric areas obtained by dividing the object field of the imaging optical system 101 using a predetermined shape, and measuring a light amount in each of the photometric areas. Photometric means 141
A subject light meter 142 for measuring the amount of light in an element area including the subject position in response to the input of the subject position in the object scene; and an exposure value based on the outputs of the plurality of light meters 141 and the subject light meter 142. A second calculating means 143 for calculating and providing exposure control of the imaging optical system 101 ;
Distance discriminator for discriminating the distance between the image optical system 101 and the subject
Based on the step 151 and the distance obtained by the distance determining means 151,
And the size of the element area measured by the subject
And first changing means 152 for changing the length .

【0017】[0017]

【0018】図6は、請求項5の発明の要部を示す図で
ある。請求項5の発明は、結像光学系101の被写界を
それぞれ所定の形状を用いて分割して得られる複数の測
光領域にそれぞれ対応し、各測光領域における光量の測
定を行う複数の領域測光手段141と、被写界における
被写体位置の入力に応じて、被写体位置を含む要素領域
における光量を測定する被写体測光手段142と、複数
の測光手段141と被写体測光手段142との出力に基
づいて露出値を算出して、結像光学系101の露出制御
に供する第2演算手段143と、結像光学系101と被
写体との距離を判別する距離判別手段151と、結像光
学系101の焦点距離を判別する焦点距離判別手段15
3と、距離判別手段151で得られた距離と焦点距離判
別手段153で得られた焦点距離とに基づいて、被写体
測光手段142が測光する要素領域の大きさを変更する
第2変更手段154とを備えたことを特徴とする。
FIG. 6 is a diagram showing a main part of the fifth aspect of the present invention. According to the invention of claim 5, the object field of the imaging optical system 101 is
Multiple measurements obtained by dividing each using a predetermined shape
Each of the photometric areas corresponds to the
A plurality of area photometric means 141 for determining the
Element area including subject position according to subject position input
Object photometric means 142 for measuring the amount of light at
Based on the outputs of the photometric unit 141 and the subject photometric unit 142.
The exposure value is calculated based on the exposure value, and the exposure control of the imaging optical system 101 is performed.
The second arithmetic means 143 for providing the
A distance discriminating unit 151 for discriminating the distance from the object, and a focal length discriminating unit 15 for discriminating the focal length of the imaging optical system 101.
3, the distance obtained by the distance determination means 151 and the focal length
A second changing unit 154 for changing the size of the element area measured by the subject light metering unit 142 based on the focal length obtained by the different unit 153 is provided.

【0019】図7請求項6の発明を適用した請求項
1の露出演算装置の要部を示す図である。請求項6の発
明は、請求項1または請求項4ないし請求項5に記載の
露出演算装置において、撮影者の眼球103の向きから
撮影者の被写界における視線位置を検出して被写体位置
として出力し、露出演算距離に供する視線検出手段16
1を備えたことを特徴とする。
FIG. 7 is a diagram showing a main part of an exposure calculation device according to the first aspect of the present invention to which the invention of the sixth aspect is applied. According to a sixth aspect of the present invention, in the exposure calculation device according to the first aspect or the fourth or fifth aspect , a line-of-sight position of the photographer in the field of view is detected from the direction of the eyeball 103 of the photographer to determine the position as the subject position. Line-of-sight detecting means 16 for outputting and providing the calculated exposure distance
1 is provided.

【0020】[0020]

【作用】請求項1の発明は、分類手段113が、複数の
測光手段111を複数のグループに分類することによ
り、測光手段112をこれらの複数のグループに対応す
る複数の測光領域に分割することができる。ここで、こ
れらの測光領域の境界は、被写体位置に応じて変化する
ので、様々な被写体位置に柔軟に対応した分割測光を実
現することができ、第1演算手段114により、被写体
位置とともに、全体のバランスを考慮した露出値を得る
ことが可能となる。
According to the first aspect of the present invention, the classification means 113 classifies the plurality of photometry means 111 into a plurality of groups, thereby dividing the photometry means 112 into a plurality of photometry areas corresponding to the plurality of groups. Can be. Here, since the boundaries of these photometric regions change according to the position of the subject, it is possible to realize divided photometry flexibly corresponding to various subject positions. It is possible to obtain an exposure value in consideration of the balance of.

【0021】[0021]

【0022】また、移動制御手段134によって、各測
光領域の境界線の移動量を制御して、例えば、同心円状
の測光領域のうち、外側の測光領域の移動量を抑えるこ
とにより、被写界の周辺部分に被写体位置がある場合に
おいても、被写界の中央部分の測光情報が、露出値に適
切に寄与するようにすることができる。また、移動制限
手段135によって、境界線の移動範囲を制限すること
により、被写体位置に応じて境界線を移動させたことに
より、測光領域のいずれかが欠けてしまうことを防ぐこ
とができる。
Further, the movement control means 134 controls the amount of movement of the boundary line between the respective photometric regions, and for example, by suppressing the amount of movement of the outer photometric region among the concentric photometric regions, the object scene is obtained. Even if there is a subject position in the peripheral portion of, the photometric information of the central portion of the object scene can appropriately contribute to the exposure value. In addition, by limiting the movement range of the boundary line by the movement restriction unit 135, it is possible to prevent any one of the photometry areas from being lost due to the movement of the boundary line according to the position of the subject.

【0023】請求項4の発明は、複数の領域測光手段1
41と被写体測光手段142とが独立にそれぞれ対応す
る被写界の領域を測光するので、第2露出演算手段14
3により、分割測光方式の特徴を活かしながら被写体に
適合した露出値を求めることができる。これにより、全
体のバランスを重視しつつ、被写体位置の情報をも考慮
した露出値を得ることが可能となる。
According to a fourth aspect of the present invention, a plurality of area photometric means 1 are provided.
Since the subject 41 and the subject photometering unit 142 independently measure the photometry of the corresponding areas of the scene, the second exposure calculating unit 14
According to 3, the exposure value suitable for the subject can be obtained while utilizing the features of the split photometry method. As a result, it is possible to obtain an exposure value in which information on the position of the subject is also taken into consideration while emphasizing the overall balance.

【0024】また、距離判別手段151と第1変更手段
152とによって、被写体までの距離に基づいて、被写
界において捉えられた被写体の大きさを評価して、被写
体測光手段142が対応する要素領域の大きさを変更す
ることができる。これにより、被写体部分の輝度を示す
測光情報を過不足なく反映した露出値を得ることが可能
となる。
Further, the size of the object captured in the object scene is evaluated by the distance determining means 151 and the first changing means 152 based on the distance to the object, and the object photometric means 142 The size of the area can be changed. As a result, it is possible to obtain an exposure value that reflects the photometric information indicating the luminance of the subject portion without excess or deficiency.

【0025】更に、距離判別手段151と焦点距離判別
手段153と第2変更手段154とによって、被写体ま
での距離と結像光学系101の焦点距離との基づいて、
被写体の大きさを評価した場合は、より正確に被写体の
大きさを評価することができる。請求項6の発明は、視
線検出手段161により、正確な被写体位置を得ること
ができるので、分類手段113あるいは被写体測光手段
142に正確な被写体位置を入力することができる。
Further, the distance determining means 151, the focal length determining means 153 and the second changing means 154 determine the distance to the object and the focal length of the imaging optical system 101 based on the distance.
When the size of the subject is evaluated, the size of the subject can be more accurately evaluated. According to the sixth aspect of the present invention, an accurate subject position can be obtained by the line-of-sight detection means 161, so that an accurate subject position can be input to the classification means 113 or the subject photometry means 142.

【0026】[0026]

【実施例】以下、図面に基づいて本発明の実施例につい
て詳細に説明する。図8に、請求項1の露出演算装置を
適用した一眼レフカメラの実施例構成を示す。図8にお
いて、撮影レンズ210は結像光学系101に相当する
ものである。露光時以外は、この撮影レンズ210を介
してカメラに入射する光束の一部は、メインミラー20
1ではねあげられ、ペンタプリズム(プリズム)202
の入射面に設けられたピント板203上に結像する構成
となっており、撮影者が、接眼レンズ204を介して、
このピント板203上の像を観察できる構成となってい
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 8 shows an embodiment configuration of a single-lens reflex camera to which the exposure calculation device of claim 1 is applied. In FIG. 8, a photographing lens 210 corresponds to the imaging optical system 101. Except during exposure, a part of the light beam incident on the camera via the taking lens 210 is
Pentaprism (prism) 202
Is formed on a focus plate 203 provided on the entrance surface of the camera.
The image on the focus plate 203 can be observed.

【0027】また、レンズ206と2次元CCDイメー
ジセンサ(以下、単にCCDと称する)231とは、測
光手段112を形成しており、上述したピント板203
上の像の強度分布を測定する構成となっている。上述し
たレンズ206は、接眼レンズ204の光軸からわずか
にずれた別の光軸に配置されており、この光軸に交差す
る位置に配置されたCCD231上にピント板203上
の像を結像する構成となっている。また、このCCD2
31は、n×m個の測光素子111から形成されてお
り、これら測光素子111が、上述したピント板203
上の像のそれぞれ対応する微小領域における光量を測定
する構成となっている。
The lens 206 and the two-dimensional CCD image sensor (hereinafter simply referred to as CCD) 231 form the photometric means 112, and the focus plate 203 described above.
It is configured to measure the intensity distribution of the upper image. The above-mentioned lens 206 is arranged on another optical axis slightly shifted from the optical axis of the eyepiece 204, and forms an image on the focus plate 203 on a CCD 231 arranged at a position intersecting this optical axis. Configuration. In addition, this CCD2
31 is formed of n × m photometric elements 111, and these photometric elements 111
The configuration is such that the amount of light in a minute area corresponding to each of the upper images is measured.

【0028】ここで、ピント板203上の像は、撮影レ
ンズ210の被写界に対応しているので、上述したCC
D231の各測光素子111により、撮影レンズ210
の被写界をn×m個に分割して得られる各要素領域それ
ぞれからの光量の測定が行われ、全体として、被写界に
おける光の強度分布を測定する構成となっている。ま
た、上述した接眼レンズ204の内部には、ビームスプ
リッタ(BS)205が設けられており、視線検出手段
161は、この接眼レンズ204を介して、撮影者の眼
球を観察し、視線位置を検出する構成となっている。
Here, since the image on the focus plate 203 corresponds to the field of the photographing lens 210, the above-described CC
The photographing lens 210 is formed by each photometric element 111 of D231.
The light quantity from each element region obtained by dividing the object field into n × m is measured, and the light intensity distribution in the object field is measured as a whole. Further, a beam splitter (BS) 205 is provided inside the above-mentioned eyepiece 204, and the line-of-sight detecting means 161 observes the photographer's eyeball through this eyepiece 204 to detect the line-of-sight position. Configuration.

【0029】図9に、視線検出手段161の詳細構成を
示す。図9において、視線検出手段161は、発光素子
221から放射される光をハーフミラー222と接眼レ
ンズ204のビームスプリッタ205とによって眼球に
入射させ、網膜からの反射光をレンズ223によって、
2次元CCDイメージセンサ(以下、単にCCDと称す
る)224上に結像する構成となっている。このCCD
224は、上述したCCD231と同様にn×m個の素
子から形成されており、レンズ223による像の強度分
布を測定する構成となっている。また、検出処理部22
5は、CCD224の出力に基づいて、撮影者の視線位
置を検出する構成となっている。
FIG. 9 shows a detailed structure of the visual line detecting means 161. In FIG. 9, the line-of-sight detection unit 161 causes light emitted from the light-emitting element 221 to enter the eyeball by the half mirror 222 and the beam splitter 205 of the eyepiece 204, and reflects light reflected from the retina by the lens 223.
The image is formed on a two-dimensional CCD image sensor (hereinafter simply referred to as a CCD) 224. This CCD
224 is formed of n × m elements similarly to the above-mentioned CCD 231, and is configured to measure the intensity distribution of the image by the lens 223. The detection processing unit 22
Reference numeral 5 denotes a configuration for detecting the gaze position of the photographer based on the output of the CCD 224.

【0030】ここで、網膜からの反射光は、人間の眼が
注視している方向への強度が最も強くなる。つまり、上
述したCCD224によって得られた強度分布の極大値
に対応する素子の位置により、撮影者の視線方向を判別
することができる。例えば、上述した被写界の各要素領
域と上述したCCD224の各素子とが対応するよう
に、上述したレンズ223の倍率などを決めておけば、
極大値に対応する素子の座標として、視線位置を検出す
ることができる。
Here, the reflected light from the retina has the highest intensity in the direction in which the human eye is gazing. That is, it is possible to determine the gaze direction of the photographer based on the position of the element corresponding to the maximum value of the intensity distribution obtained by the above-described CCD 224. For example, if the magnification and the like of the lens 223 described above are determined so that each element region of the above-described field corresponds to each element of the CCD 224,
The gaze position can be detected as the coordinates of the element corresponding to the maximum value.

【0031】この場合は、検出処理部225をCCD2
24の出力を順次に比較して極大値をみつける構成と
し、該当する素子の座標(Xa, Ya)を被写体位置として、
分類手段113に送出する構成とすればよい。この視線
検出手段161は、被写体位置を正確に評価することが
可能であるので、分類手段113に正確な被写体位置を
入力することができる。
In this case, the detection processing unit 225 is
24 are sequentially compared to find the maximum value, and the coordinates (Xa, Ya) of the corresponding element are used as the subject position,
What is necessary is just to send it to the classification means 113. Since the line-of-sight detection unit 161 can accurately evaluate the subject position, the accurate subject position can be input to the classification unit 113.

【0032】図10に、分類手段113の詳細構成を示
す。また、図11に、分類手段113による分類処理を
表す流れ図を示す。図10において、分類手段113
は、距離算出部241と距離判別部242とからなる第
1パターン生成手段121と、分類保持部243とから
形成されており、距離判別部242による判別結果が、
上述したCCD231の各測光素子111の座標に対応
して、分類保持部243に保持される構成となってい
る。
FIG. 10 shows a detailed configuration of the classification means 113. FIG. 11 is a flowchart showing a classification process performed by the classification unit 113. In FIG. 10, the classification means 113
Is composed of a first pattern generation unit 121 including a distance calculation unit 241 and a distance determination unit 242, and a classification holding unit 243. The determination result by the distance determination unit 242 is
The configuration is such that it is held in the classification holding unit 243 in correspondence with the coordinates of each photometric element 111 of the CCD 231 described above.

【0033】まず、距離算出部241は、上述した被写
体位置の入力に応じて、CCD231の各測光素子11
1と被写体位置に対応する測光素子111との距離Dを
算出する(ステップ301)。ここで、上述したCCD
224とCCD231とは、ともに撮影レンズ210の
被写界に対応しており、各CCD224,231におい
て、同一の座標で示される素子は、被写界の同一の要素
領域に対応している。従って、この距離算出部241
は、CCD231の各測光素子111の座標(X,Y)と、
被写体位置(Xa, Ya)とを用いて、 D={(Xa−X)2 +(Ya−Y)2 1/2 のように表される距離Dを求めて、距離判別部242に
送出すればよい。
First, the distance calculation section 241 responds to the input of the above-described subject position by using each of the photometric elements 11 of the CCD 231.
The distance D between the photometric device 111 and the photometric element 111 corresponding to the subject position is calculated (step 301). Here, the above-mentioned CCD
Both 224 and the CCD 231 correspond to the object field of the photographing lens 210, and in each of the CCDs 224 and 231, elements indicated by the same coordinates correspond to the same element region of the object field. Therefore, the distance calculation unit 241
Are the coordinates (X, Y) of each photometric element 111 of the CCD 231;
Using the subject position (Xa, Ya), a distance D expressed as D = {(Xa−X) 2 + (Ya−Y) 21/2 is determined and transmitted to the distance determination unit 242. do it.

【0034】これに応じて、距離判別部242は、ま
ず、ステップ301で得られた距離Dと閾値d1 とを比
較する(ステップ302)。このステップ302におい
て、閾値d1 よりも小さいとされたときに、距離判別部
242は、ステップ302における肯定判定とし、座標
(X, Y)で示されるCCD231の測光素子111に対応
する判別結果としてコード『A1』を分類保持部243
に送出する(ステップ303)。これに応じて、分類保
持部243は、座標(X, Y)に対応して上述したコード
『A1』を該当するCCD231の測光素子111の分
類結果として保持する。
[0034] In response to this, the distance determination unit 242 first compares the distance D and the threshold value d 1 obtained in step 301 (step 302). When it is determined in step 302 that the distance is smaller than the threshold value d 1 , the distance determination unit 242 makes an affirmative determination in step 302
The code “A1” is stored as a classification holding unit 243 as a determination result corresponding to the photometric element 111 of the CCD 231 indicated by (X, Y).
(Step 303). In response to this, the classification storage unit 243 stores the above-described code “A1” corresponding to the coordinates (X, Y) as a classification result of the photometric element 111 of the corresponding CCD 231.

【0035】一方、ステップ302における否定判定の
場合に、距離判別部242は、上述した距離Dと別の閾
値d2 (閾値d2 >閾値d1 )とを比較し(ステップ3
04)、距離Dが閾値d2 よりも小さいとされた(ステ
ップ304の肯定判定)ときに、判別結果としてコード
『A2』を分類保持部243に送出する(ステップ30
5)。これに応じて、分類保持部243は、座標(X, Y)
に対応して上述したコード『A2』を該当するCCD2
31の測光素子111の分類結果として保持する。
On the other hand, in the case of a negative determination in step 302, the distance discriminating unit 242 compares the distance D with another threshold value d 2 (threshold value d 2 > threshold value d 1 ) (step 3).
04), when the distance D is smaller than the threshold value d 2 (affirmative determination in step 304), and sends the classification holding portion 243 code "A2" as the determination result (Step 30
5). In response, the classification holding unit 243 stores the coordinates (X, Y)
The above code "A2" corresponding to the CCD2
It is stored as a classification result of the 31 photometric elements 111.

【0036】また、ステップ304における否定判定の
場合に、距離判別部242は、同様にして、距離Dと別
の閾値d3 (閾値d3 >閾値d2 )とを比較し(ステッ
プ306)、比較結果に応じて、距離Dが閾値d3 より
小さい場合(ステップ306の肯定判定)はコード『A
3』を判別結果とし、否定判定の場合はコード『A4』
を判別結果として、それぞれ分類保持部243に送出す
る(ステップ307,ステップ308)。これに応じ
て、分類保持部243は、座標(X, Y)に対応して上述し
たコード『A3』(あるいはコード『A4』)を該当す
るCCD231の測光素子111の分類結果として保持
する。
In the case of a negative determination in step 304, the distance determination unit 242 similarly compares the distance D with another threshold d 3 (threshold d 3 > threshold d 2 ) (step 306). If the distance D is smaller than the threshold value d 3 according to the comparison result (a positive determination in step 306), the code “A
3 ”as a determination result, and in the case of a negative determination, code“ A4 ”
Are sent to the classification holding unit 243 as the determination results (steps 307 and 308). In response to this, the classification holding unit 243 stores the code “A3” (or the code “A4”) corresponding to the coordinates (X, Y) as a classification result of the photometric element 111 of the corresponding CCD 231.

【0037】次に、上述したステップ301〜ステップ
308の処理をCCD231の全ての測光素子111に
ついて行ったか否かを判定し(ステップ309)、否定
判定の場合は、ステップ309における肯定判定となる
まで、ステップ301〜ステップ308の処理を繰り返
す。このようにして、各測光素子111と被写体位置に
対応する測光素子111との距離Dと3つの閾値d1,
2,3 とをそれぞれ比較して距離Dの大きさを判別し、
この判別結果に応じて、コード『A1』〜コード『A
4』に対応する4つのグループに分類することがきる。
Next, it is determined whether or not the processing of the above-mentioned steps 301 to 308 has been performed for all the photometric elements 111 of the CCD 231 (step 309). , The processing of steps 301 to 308 is repeated. In this way, the distance D between each photometric element 111 and the photometric element 111 corresponding to the subject position and the three thresholds d 1, d
2 and d 3 to determine the magnitude of the distance D,
According to the result of this determination, the code “A1” to the code “A
4 "can be classified into four groups.

【0038】これにより、図12に示すように、被写体
位置を中心とする同心円状の分割パターンを用いて、C
CD231の各測光素子111をグループ分けすること
ができる。但し、図12において、同心円状の分割パタ
ーンの各領域に付した符号は、上述した分類結果を示す
コード(コード『A1』〜コード『A4』)を示してお
り、以下、各領域を測光領域A1〜測光領域A4と称す
る。また、上述した閾値d1,2,3 は、それぞれ測光
領域A1,A2,A3の半径に相当する値である。
Thus, as shown in FIG. 12, the concentric division pattern centered on the position of the subject is used to
Each photometric element 111 of the CD 231 can be grouped. However, in FIG. 12, the codes attached to the respective regions of the concentric divided pattern indicate codes (codes “A1” to “A4”) indicating the above-described classification results. A1 to photometry area A4. The threshold value d 1, d 2, d 3 described above is a value corresponding to the radius of the metering area A1, A2, A3, respectively.

【0039】なお、例えば、3つの比較器を用いて距離
判別部242を形成し、各比較器によって距離Dと各閾
値d1,2,3 とを比較した結果を判別結果として分類
保持部243に送出する構成としてもよい。ここで、n
×m個の測光素子111からなるCCD231を用いて
測光手段111を構成し、これらの測光素子111を上
述したようにして複数のグループに分類して、各グルー
プに対応する測光領域を形成することにより、被写体位
置に柔軟に対応して分割パターンを変化させて、分割測
光を行うことができる。
It should be noted, for example, by using the three comparators to form a distance discriminating section 242, classified as a discrimination result the results of comparison between the distance D and the respective threshold values d 1, d 2, d 3 by the comparators retention It may be configured to send it to the unit 243. Where n
The photometric means 111 is constituted by using a CCD 231 composed of × m photometric elements 111, and these photometric elements 111 are classified into a plurality of groups as described above, and a photometric area corresponding to each group is formed. Accordingly, the divided photometry can be performed by changing the divided pattern flexibly in accordance with the subject position.

【0040】次に、上述した分類結果を用いて、露出値
を求める方法について説明する。図8において、第1演
算手段114は、上述した測光手段112および分類手
段113に例えばバスなどを介して接続されており、C
CD231および分類保持部243に対するデータのア
クセスが可能な構成となっている。また、この第1演算
手段114によって得られた露出値は、メカ制御部26
1に送出されており、このメカ制御部261が、露出値
に応じて絞り211およびシャッター(図示せず)の動
作を制御して、露出制御を行う構成となっている。
Next, a method for obtaining an exposure value using the above-described classification result will be described. In FIG. 8, a first calculating unit 114 is connected to the photometric unit 112 and the classifying unit 113 via a bus or the like, for example.
The configuration is such that data access to the CD 231 and the classification holding unit 243 is possible. The exposure value obtained by the first calculating means 114 is
The mechanism controller 261 controls the operation of the aperture 211 and the shutter (not shown) according to the exposure value to perform exposure control.

【0041】図13に、第1演算手段114の詳細構成
を示す。また、図14に、露出演算処理を表す流れ図を
示す。図13において、第1演算手段114は、輝度算
出部251と、輝度差判別部252と、露出値算出部2
53とから形成されている。まず、輝度算出部251に
より、上述した各測光領域A1〜A4の輝度値B1〜B
4をそれぞれ求める(ステップ401)。この輝度算出
部251は、上述した分類保持部243に保持された分
類結果に基づいて、各測光領域A1〜A4に属するCC
D231の各測光素子111の出力の平均値を求め、こ
の平均値から輝度値B1〜B4をそれぞれ求めればよ
い。
FIG. 13 shows a detailed configuration of the first calculating means 114. FIG. 14 is a flowchart showing exposure calculation processing. In FIG. 13, a first calculation unit 114 includes a brightness calculation unit 251, a brightness difference determination unit 252, and an exposure value calculation unit 2.
53. First, the luminance value B1 to B4 of each of the photometric areas A1 to A4 described above is calculated by the luminance calculation unit 251.
4 are obtained (step 401). Based on the classification result held in the above-described classification holding unit 243, the brightness calculation unit 251 determines whether the CCs belonging to each of the photometry areas A1 to A4 are present.
The average value of the outputs of the photometric elements 111 in D231 may be obtained, and the luminance values B1 to B4 may be obtained from the average value.

【0042】ここで、輝度算出部251において、測光
素子111による光電流値をそのまま平均し、平均値を
数値2を底とした対数を用いて圧縮して輝度値を求めた
場合は、各測光領域がそれぞれ1つの測光素子で構成さ
れている場合と同等な輝度値が得られる。一方、各測光
領域に属する測光素子111の光電流値を対数圧縮し、
得られた輝度値を平均して該当する測光領域の輝度値と
してもよい。この場合は、対数圧縮した後に平均してい
るので、光電流値をそのまま平均した場合に比べて、測
光領域内の低輝度部分を重視して平均した輝度値が得ら
れるので、これらの方法を用途に応じて使い分ければよ
い。
In the case where the luminance calculation unit 251 averages the photocurrent values of the photometric elements 111 as they are and compresses the average value using a logarithm having a base of 2, a luminance value is obtained. A luminance value equivalent to the case where each area is constituted by one photometric element is obtained. On the other hand, the photocurrent value of the photometric element 111 belonging to each photometric area is logarithmically compressed,
The obtained luminance values may be averaged to obtain the luminance value of the corresponding photometry area. In this case, since averaging is performed after logarithmic compression, compared to the case where the photocurrent values are averaged as they are, an averaged luminance value can be obtained with emphasis on a low luminance portion in the photometry area. What is necessary is just to use properly according to a use.

【0043】次に、輝度差判別部252は、隣接する測
光領域間の輝度値の差が所定の閾値(例えば輝度値2)
よりも小さいか否かを判定し(ステップ402,40
3,404)、大きな輝度差がある測光領域の境界を判
別する。この判別結果に応じて、露出算出部253は、
大きな輝度差が検出された2つの測光領域間の境界付近
に被写体と周囲との境界があると判断して、それぞれの
場合に対応した重みを各測光領域に与えて、輝度値の重
み付け平均を行って露出値を求める(ステップ405,
406,407,408)。
Next, the luminance difference discriminating section 252 determines that the luminance value difference between adjacent photometric areas is equal to a predetermined threshold value (for example, luminance value 2).
It is determined whether it is smaller than (steps 402 and 40).
3, 404), the boundary of the photometric area having a large luminance difference is determined. According to the determination result, the exposure calculation unit 253
It is determined that there is a boundary between the subject and the surroundings near the boundary between the two photometric regions where a large luminance difference is detected, and a weight corresponding to each case is given to each photometric region, and a weighted average of the luminance values is calculated. To determine the exposure value (step 405,
406, 407, 408).

【0044】例えば、図15(a) に示すように、被写体
が測光領域A1に対応する被写界の領域にほぼ収まって
いる場合は、測光領域A1と測光領域A2との輝度値差
が輝度値2よりも大きくなり、ステップ402における
否定判定となる。この場合に、露出算出部253は、ス
テップ405において、測光領域A1の輝度値B1に大
きな重みを付けた重み付け平均処理を行い、 Ba=(6×B1+B2+B3+B4)/9 で表される露出値Baを求める。
For example, as shown in FIG. 15 (a), when the subject is substantially within the area of the object scene corresponding to the photometric area A1, the luminance difference between the photometric area A1 and the photometric area A2 becomes The value becomes larger than the value 2, and a negative determination is made in step 402. In this case, in step 405, the exposure calculation unit 253 performs a weighted averaging process in which the luminance value B1 of the photometric area A1 is weighted to a large value, and calculates the exposure value Ba represented by Ba = (6 × B1 + B2 + B3 + B4) / 9. Ask.

【0045】また、図15(b) に示すように、被写体が
測光領域A2に対応する被写界の領域まで拡がっている
場合は、ステップ402において肯定判定とされた後
に、ステップ403における否定判定となる。この場合
は、露出算出部253は、ステップ406において、測
光領域A1,A2の輝度値B1,B2に同等の重みを付
けた重み付け平均処理を行い、 Ba=(3×B1+3×B2+B3+B4)/8 で表される露出値Baを求める。
As shown in FIG. 15B, when the subject has expanded to the area of the object scene corresponding to the photometry area A2, an affirmative determination is made in step 402 and a negative determination is made in step 403. Becomes In this case, in step 406, the exposure calculation unit 253 performs weighted averaging processing in which the luminance values B1 and B2 of the photometric areas A1 and A2 are weighted equally, and Ba = (3 × B1 + 3 × B2 + B3 + B4) / 8 The exposure value Ba represented is determined.

【0046】また、図15(c) に示すように、被写体が
測光領域A3に対応する被写界の領域まで拡がっている
場合は、ステップ403において肯定判定とされた後
に、ステップ404における否定判定となる。この場合
は、露出算出部253は、ステップ407において、測
光領域A1,A2,A2の輝度値B1,B2,B3に同
等の重みを付けた重み付け平均処理を行い、 Ba=(2×B1+2×B2+2×B3+B4)/7 で表される露出値Baを求める。
As shown in FIG. 15 (c), when the subject has expanded to the area of the object scene corresponding to the photometry area A3, an affirmative determination is made in step 403, and a negative determination is made in step 404. Becomes In this case, in step 407, the exposure calculation unit 253 performs weighted averaging processing in which the luminance values B1, B2, and B3 of the photometric areas A1, A2, and A2 are weighted equally, and Ba = (2 × B1 + 2 × B2 + 2) × B3 + B4) / 7 Exposure value Ba is calculated.

【0047】一方、被写体とその周囲とで大きな輝度差
がない場合は、上述したステップ404における肯定判
定となり、この場合は、露出算出部253は、ステップ
408において、各測光領域A1〜A4の輝度値B1〜
B4を単純に平均して、 Ba=(B1+B2+B3+B4)/4 で表される露出値Baを求める。
On the other hand, if there is no large difference in luminance between the subject and its surroundings, an affirmative determination is made in step 404 described above. In this case, the exposure calculation unit 253 determines in step 408 that the brightness of each of the photometric areas A1 to A4 Value B1
The exposure value Ba represented by Ba = (B1 + B2 + B3 + B4) / 4 is obtained by simply averaging B4.

【0048】このように、大きな輝度差がある測光領域
の境界の位置に応じて、各測光領域の輝度値に与える重
みを変えることにより、被写体と被写体の周囲との輝度
差を考慮して露出値を求めることが可能となり、被写体
位置の輝度とともに、被写界全体のバランスを考慮して
露出値を得ることができる。従って、この露出値Baに
応じて、メカ制御部261が、絞り211およびシャッ
ター(図示せず)の制御を行うことにより、被写体に適
合した露出制御を行うことが可能となり、良好な露光状
態を得ることができる。
As described above, by changing the weight given to the luminance value of each photometric area in accordance with the position of the boundary of the photometric area having a large luminance difference, the exposure is performed in consideration of the luminance difference between the subject and the periphery of the subject. The value can be obtained, and the exposure value can be obtained in consideration of the balance of the entire object scene together with the luminance of the object position. Therefore, the mechanical control unit 261 controls the aperture 211 and the shutter (not shown) in accordance with the exposure value Ba, so that exposure control suitable for the subject can be performed. Obtainable.

【0049】なお、被写体位置を分類手段113に入力
する方法としては、上述した視線検出手段161を用い
る方法に限らず、例えば、撮影者がマニュアルで被写体
位置を指定する構成としてもよいし、また、自動合焦制
御部(図示せず)で捉えられた最も近距離にある物体の
位置を被写体位置として入力する構成としてもよい。ま
た、分類手段113において、図27に示したような5
分割パターンを変形して、被写体位置に対応する分割パ
ターンを得る構成としてもよい。
The method of inputting the subject position to the classifying means 113 is not limited to the method using the above-mentioned line-of-sight detecting means 161. For example, the photographer may manually designate the subject position. Alternatively, a configuration may be employed in which the position of the closest object captured by an automatic focusing control unit (not shown) is input as the subject position. In addition, the classifying unit 113 performs the processing as shown in FIG.
The configuration may be such that the division pattern is deformed to obtain a division pattern corresponding to the position of the subject.

【0050】図16に、請求項3の分類手段の実施例構
成を示す。図16において、分類手段113は、図10
に示した第1パターン生成手段121に代えて、ROM
244と減算器245と加算器246と距離判別部24
7と比較回路248とを備えて構成されている。上述し
たROM244は、保持手段131に相当するものであ
り、例えば、5分割パターンの境界線に関する情報とし
て、円形の測光領域a1の中心位置に対応する座標(X0,
Y0)を格納している。また、減算器245は、変位算出
手段132に相当するものであり、被写体位置の座標(X
a, Ya)から上述した測光領域a1の中心位置の座標(X0,
Y0)を差し引いて変位ΔX,ΔYを求める構成となって
いる。また、加算器246には、上述した座標(X0, Y0)
が基準位置として入力されており、この加算器246
が、基準位置と変位ΔX,ΔYとを加算して、被写体位
置に対応する分割パターンにおける測光領域a1の中心
位置(Xc, Yc)を求める構成となっている。
FIG. 16 shows an embodiment of the classification means according to the third aspect. In FIG. 16, the classification means 113
ROM instead of the first pattern generation means 121 shown in FIG.
244, a subtractor 245, an adder 246, and a distance discriminator 24
7 and a comparison circuit 248. The above-described ROM 244 corresponds to the holding unit 131. For example, the coordinates (X 0,
Y 0 ) is stored. Further, the subtractor 245 corresponds to the displacement calculating means 132, and the coordinates (X
a, Ya) from the coordinates (X 0,
Y 0 ) is subtracted to obtain the displacements ΔX and ΔY. The adder 246 has the coordinates (X 0, Y 0 ) described above.
Is input as a reference position.
However, the configuration is such that the center position (Xc, Yc) of the photometric area a1 in the divided pattern corresponding to the subject position is obtained by adding the reference position and the displacements ΔX, ΔY.

【0051】ここで、上述した5分割パターンにおいて
は、測光領域a1の中心位置が他の4つの測光領域a2
〜a5を分割する境界線の交点位置となっている。従っ
て、上述したようにして、測光領域a1の新しい中心位
置(Xc, Yc)を求めることにより、被写体位置に対応した
分割パターンを得ることができる。つまり、加算器24
6により、第2パターン生成手段133の機能が実現さ
れている。
Here, in the above-described five-divided pattern, the center position of the photometry area a1 is different from the other four photometry areas a2.
To a5 at the intersection of the boundary lines. Therefore, as described above, by obtaining a new center position (Xc, Yc) of the photometric area a1, a divided pattern corresponding to the subject position can be obtained. That is, the adder 24
6 implements the function of the second pattern generation means 133.

【0052】また、この新しい中心位置(Xc, Yc)は、距
離判別部247と比較回路248とに送出され、測光素
子111の分類処理に供される。まず、距離判別部24
7は、各測光素子111と上述した中心位置との距離
が、測光領域a1の半径に相当する閾値r以下である測
光素子111を判別し、該当する測光素子111につい
ての分類結果として、測光領域a1に対応するコード
『a1』を分類保持部243に送出する。一方、中心位
置との距離が閾値rを超えるとされた測光素子111の
座標(X, Y)は、比較回路248に送出され、この比較回
路248による分類処理に供される。
The new center position (Xc, Yc) is sent to the distance discriminating section 247 and the comparing circuit 248, and is used for classification of the photometric element 111. First, the distance determination unit 24
7 determines a photometric element 111 in which the distance between each photometric element 111 and the above-described center position is equal to or less than a threshold value r corresponding to the radius of the photometric area a1, and as a classification result of the corresponding photometric element 111, The code “a1” corresponding to a1 is sent to the classification holding unit 243. On the other hand, the coordinates (X, Y) of the photometric element 111 whose distance from the center position is determined to exceed the threshold value r are sent to the comparison circuit 248 and are subjected to classification processing by the comparison circuit 248.

【0053】これに応じて、比較回路248は、入力さ
れる測光素子111の座標(X, Y)と中心位置(Xc, Yc)と
を各座標成分ごとに比較し、得られた比較結果に応じ
て、各測光素子111を他の4つの測光領域a2〜a5
に分類すればよい。例えば、測光素子111の座標(X,
Y)が、X>XcかつY>Ycなる条件を満たしていれ
ば、この測光素子111は、測光領域a1の右上の測光
領域a3に属すると判断され、この測光領域a3を示す
コード『a3』が分類保持部243に送出される。同様
にして、X≦XcかつY>Ycなる条件を満たす測光素
子111は測光領域a2に分類され、X≦XcかつY≦
Ycなる条件を満たす測光素子111は測光領域a4に
分類され、X>XcかつY≦Ycなる条件を満たす測光
素子111は測光領域a5に分類される。
In response, the comparison circuit 248 compares the input coordinates (X, Y) and the center position (Xc, Yc) of the photometric element 111 for each coordinate component, and compares the obtained comparison result with the obtained comparison result. Accordingly, each photometric element 111 is connected to the other four photometric areas a2 to a5.
It can be classified as For example, the coordinates (X,
If Y) satisfies the conditions of X> Xc and Y> Yc, the photometric element 111 is determined to belong to the upper right photometric area a3 of the photometric area a1, and the code “a3” indicating the photometric area a3 Is sent to the classification holding unit 243. Similarly, the photometric element 111 that satisfies the conditions of X ≦ Xc and Y> Yc is classified into the photometric area a2, and X ≦ Xc and Y ≦ Yc.
The photometric element 111 that satisfies the condition of Yc is classified into the photometric area a4, and the photometric element 111 that satisfies the conditions of X> Xc and Y ≦ Yc is classified into the photometric area a5.

【0054】このようにして、CCD231の各測光素
子111を分類して、図17に示すような5つの測光領
域を形成することができる。また、図16において、第
1演算手段114は、輝度算出部251と露出値算出部
254とを備えて形成されており、輝度算出部251
が、上述したステップ401と同様にして、各測光領域
a1〜a5に対応する輝度値B1〜B5を求め、露出値
算出部254が、測光領域a1に対応する輝度値B1に
重みを付けた重み付け平均処理を行って露出値を求める
構成とすればよい。
In this manner, the photometric elements 111 of the CCD 231 can be classified to form five photometric areas as shown in FIG. In FIG. 16, the first calculation unit 114 includes a luminance calculation unit 251 and an exposure value calculation unit 254 and is formed.
However, in the same manner as in step 401 described above, the brightness values B1 to B5 corresponding to the respective photometric areas a1 to a5 are obtained, and the exposure value calculating unit 254 assigns weights to the brightness values B1 corresponding to the photometric areas a1. What is necessary is just to set it as the structure which calculates | requires an exposure value by performing an averaging process.

【0055】例えば、露出値算出部254は、 Ba=(4×B1+B2+B3+B4+B5)/8 で表される露出値Baを求めればよい。これにより、上
述した同心円状の分割パターンを用いた実施例と同様
に、被写体位置を重視しながら、画面全体のバランスを
も考慮した露出値を求めることが可能となり、被写体に
適合した露出制御を行うことができる。
For example, the exposure value calculation section 254 may calculate the exposure value Ba represented by Ba = (4 × B1 + B2 + B3 + B4 + B5) / 8. As a result, similarly to the above-described embodiment using the concentric division pattern, it is possible to obtain an exposure value in consideration of the balance of the entire screen while emphasizing the subject position. It can be carried out.

【0056】この場合は、上述した同心円状の分割パタ
ーンを採用した場合に比べて、被写界全体のバランスを
重視した露出値を得ることができる。なお、上述した5
分割パターンにおいては、測光領域a1の中心位置が基
準位置となっており、また、新しい分割パターンにおい
て、この測光領域a1の中心位置と被写体位置とが一致
させられているので、基準位置からの変位を求めてから
新しい中心位置を求める必要はなく、被写体位置をその
まま測光領域a1の新しい中心位置としてもよい。この
場合は、被写体位置を直接に距離判別部247に入力す
る構成とすればよい。これに応じて、ROM244,減
算器245,加算器246が不要となるので、分類手段
113の回路構成を簡単とすることができる。
In this case, it is possible to obtain an exposure value that emphasizes the balance of the entire object scene, as compared with the case where the above-described concentric division pattern is adopted. Note that the above 5
In the division pattern, the center position of the photometry area a1 is the reference position, and in the new division pattern, the center position of the photometry area a1 matches the subject position. It is not necessary to obtain a new center position after obtaining the above, and the subject position may be used as it is as the new center position of the photometric area a1. In this case, the configuration may be such that the subject position is directly input to the distance determination unit 247. Accordingly, since the ROM 244, the subtractor 245, and the adder 246 are not required, the circuit configuration of the classification unit 113 can be simplified.

【0057】また、被写界を分割する分割パターンとし
ては、上述した5分割パターンに限らず、様々なパター
ンを用いることが可能である。但し、各測光領域の境界
線が複数の交点を持つ場合や被写界を斜めに横切る境界
線を有する分割パターンを用いる場合は、ROM244
に各領域の境界線を特定するための情報を保持しておく
必要があり、また、被写体位置に対応した分割パターン
の境界線位置を求める処理およびCCD231の測光素
子111を各測光領域に分類する処理は、上述した実施
例よりも複雑な処理となる。
The division pattern for dividing the scene is not limited to the above-described five division pattern, but various patterns can be used. However, when the boundary line of each photometric region has a plurality of intersections or when a divided pattern having a boundary line obliquely crossing the object scene is used, the ROM 244 is used.
It is necessary to hold information for specifying a boundary line of each area, and a process of obtaining a boundary position of a division pattern corresponding to a subject position and classifying the photometric element 111 of the CCD 231 into each photometric area. The processing is more complicated than the above-described embodiment.

【0058】ところで、上述した視線検出手段161に
よって被写界の端の方に被写体位置が検出された場合
に、図12に示した同心円状の分割パターンの中心位置
を被写体位置に移動させると、被写界の中央部分に対応
する測光情報が露出値に寄与する重みが極端に小さくな
ってしまう。しかしながら、被写界の中央部分の測光情
報は、画面全体のバランスを考慮する上で重要な情報で
あるため、中央部分の測光情報に対応する重みが極端に
小さくなることを防ぐ必要がある。
By the way, when the above-mentioned line-of-sight detecting means 161 detects the position of the subject toward the end of the field, the center position of the concentric divided pattern shown in FIG. 12 is moved to the position of the subject. The weight at which the photometric information corresponding to the central part of the object field contributes to the exposure value becomes extremely small. However, since the photometry information in the central portion of the object scene is important information in consideration of the balance of the entire screen, it is necessary to prevent the weight corresponding to the photometry information in the central portion from becoming extremely small.

【0059】図18に、請求項4の発明を適用した分類
手段113の実施例構成を示す。この場合は、ROM2
44に被写界の中央を示す座標を保持されており、この
座標を基準位置として、減算器245による変位の算出
が行われ、得られた変位が移動制御手段134に送出さ
れている。また、図18において、移動制御手段134
は、測光領域A1〜A3それぞれの面積S1〜S3に対
応する重みW1〜W3を保持する重み保持部271と、
減算器245で得られた基準位置からの変位に、測光領
域A1〜A3それぞれに対応する重みを乗じる乗算器2
72とから構成されている。
FIG. 18 shows an embodiment of the classification means 113 to which the invention of claim 4 is applied. In this case, ROM2
The coordinates indicating the center of the object field are held at 44, and the displacement is calculated by the subtractor 245 using the coordinates as a reference position, and the obtained displacement is sent to the movement control means 134. Also, in FIG.
Is a weight holding unit 271 that holds weights W1 to W3 corresponding to the areas S1 to S3 of the photometric areas A1 to A3, respectively,
A multiplier 2 for multiplying the displacement from the reference position obtained by the subtractor 245 by a weight corresponding to each of the photometric areas A1 to A3
72.

【0060】この重み保持部271は、例えば、各測光
領域の面積S1,S2,S3と所定の定数kとを用い
て、 W1=k/S11/2 W2=k/(S2/S1)1/2 W3=k/(S3/S1)1/2 で表される重みW1,W2,W3を保持しており、乗算
器272に順次に送出する構成とすればよい。また、面
積S1および面積S1と各測光領域の面積との比に逆比
例する重みを保持しておいてもよい。
The weight holding unit 271 uses, for example, the areas S1, S2, and S3 of the respective photometric regions and a predetermined constant k to obtain W1 = k / S1 1/2 W2 = k / (S2 / S1) 1 / 2 W3 = k / (S3 / S1) The weights W1, W2, and W3 represented by 1/2 are held, and may be sequentially transmitted to the multiplier 272. Further, the area S1 and a weight that is inversely proportional to the ratio of the area S1 to the area of each photometric region may be held.

【0061】このような重みを上述した変位に乗じて移
動量を求めることにより、大きな面積を有する測光領域
の移動量を抑える制御を行うことが可能となる。従っ
て、上述した乗算器272の出力を各測光領域の移動量
として、第2パターン生成手段133に入力すればよ
い。この場合は、測光領域A1,A2,A3に対応して
3つの加算器2731,2732,2733 を用いて、第2
パターン生成手段133を形成し、各測光領域に対応す
る移動量と基準位置の座標とを加算して、各測光領域の
境界線を示す円の新しい中心位置を求める構成とすれば
よい。
By calculating the amount of movement by multiplying the weight by the above-described displacement, it is possible to perform control to suppress the amount of movement of the photometric region having a large area. Therefore, the output of the multiplier 272 described above may be input to the second pattern generation unit 133 as the amount of movement of each photometric area. In this case, the three adders 273 1, 273 2, and 273 3 are used in correspondence with the photometric areas A 1, A 2, and A 3 to obtain the second
The pattern generating means 133 may be formed to add a movement amount corresponding to each photometric area and the coordinates of the reference position to obtain a new center position of a circle indicating a boundary line of each photometric area.

【0062】このようにして、測光領域A1,A2,A
3が被写体位置に応じて移動する移動量を制御すること
が可能となり、被写体位置が周辺部にある場合において
も、図19に示すように、被写界の中央部分が測光領域
A2あるいは測光領域A3に含まれるようにして、被写
界中央部分の測光情報に適度な重みを与えて露出値を求
めることができる。
In this manner, the photometric areas A1, A2, A
3 can be controlled in accordance with the position of the subject, and even when the position of the subject is in the peripheral part, as shown in FIG. The exposure value can be obtained by giving an appropriate weight to the photometry information in the central part of the object scene so as to be included in A3.

【0063】一方、図16に示した分類手段113を採
用した場合に、被写界の端の方に被写体位置が検出され
ると、測光領域a1の一部が欠けてしまったり、周囲の
4つの測光領域a2〜a5のいずれかがなくなってしま
う可能性がある。このような場合には、上述した露出値
算出部254による重み付け平均処理によって、被写体
を重視しながら全体のバランスを考慮した露出値Baを
得ることができなくなってしまう。
On the other hand, in the case where the classification means 113 shown in FIG. 16 is adopted, if the position of the subject is detected toward the edge of the object field, a part of the photometric area a1 is lost or the surrounding photometric area a1 is lost. There is a possibility that one of the two photometric areas a2 to a5 will be lost. In such a case, the above-described weighted averaging process performed by the exposure value calculation unit 254 makes it impossible to obtain an exposure value Ba in which the overall balance is taken into consideration while focusing on the subject.

【0064】図20に、請求項3の分類手段の実施例構
成を示す。図20において、分類手段113は、図16
に示した分類手段113に、比較回路275とセレクタ
回路276とを付加して構成されている。この比較回路
275とセレクタ回路276とは、移動制限手段135
に相当するものであり、比較回路275が、加算器24
6によって得られた中心位置の各座標成分と、各座標成
分の上限および下限とを比較し、この比較結果に応じて
セレクタ回路276が、中心位置の各座標成分と該当す
る上限(あるいは下限)とのいずれかを選択して、距離
判別部247に新しい中心位置として入力する構成とな
っている。
FIG. 20 shows an embodiment of the classification means according to the third aspect . In FIG. 20, the classification means 113
The comparison means 275 and the selector circuit 276 are added to the classification means 113 shown in FIG. The comparison circuit 275 and the selector circuit 276 are provided with a movement limiting unit 135.
And the comparison circuit 275 includes the adder 24
6 is compared with the upper limit and the lower limit of each coordinate component, and according to the comparison result, the selector circuit 276 determines each coordinate component of the center position and the corresponding upper limit (or lower limit). Is selected and input to the distance determination unit 247 as a new center position.

【0065】上述した比較回路275には、例えば、測
光領域a1の半径に相当する値rを用いて、X座標およ
びY座標の下限rと、X座標の上限m−rおよびY座標
の上限n−rとを設定すればよい。これにより、5分割
パターンの測光領域a1の中心位置(Xc, Yc)の移動範囲
は、図21に斜線を付して示した範囲に制限される。従
って、図21に点線で示した位置まで、各測光領域の境
界線が移動してしまうことはないから、5つの測光領域
a1〜a5のいずれかが欠けてしまうことはなく、露出
値算出部254によって、常に、全体のバランスを考慮
した露出値を得ることができる。
The comparison circuit 275 uses, for example, a value r corresponding to the radius of the photometry area a1 to determine the lower limit r of the X coordinate and the Y coordinate, the upper limit mr of the X coordinate, and the upper limit n of the Y coordinate. -R may be set. As a result, the moving range of the center position (Xc, Yc) of the photometric area a1 of the five-divided pattern is limited to the range shown by hatching in FIG. Therefore, since the boundary line of each photometric area does not move to the position indicated by the dotted line in FIG. 21, any one of the five photometric areas a1 to a5 does not become missing, and the exposure value calculation unit With 254, it is always possible to obtain an exposure value in consideration of the overall balance.

【0066】さて、図27に示した従来の5分割パター
ンは、被写界全体のバランスを考慮した露出値を得るた
めのものであるから、全体のバランスを重視したい場合
には、この基本となる5分割パターンが大幅に変形しな
いことが望ましい。次に、このような分割測光方式の特
徴を活かしながら、被写体位置の測光情報をも重視して
露出値を決定する方法について説明する。
The conventional five-division pattern shown in FIG. 27 is for obtaining an exposure value in consideration of the balance of the whole object field. It is desirable that the resulting five-divided pattern does not significantly deform. Next, a description will be given of a method of determining an exposure value while also taking advantage of photometric information of a subject position while making use of the features of such a divided photometric method.

【0067】図22に、請求項4または請求項5の露出
演算装置を適用した一眼レフカメラの実施例構成図を示
す。
FIG. 22 shows an embodiment of a single-lens reflex camera to which the exposure calculating device according to claim 4 or 5 is applied.

【0068】図22において、撮影レンズ210,メイ
ンミラー201,ペンタプリズム202,ピント板20
3,接眼レンズ204,ビームスプリッタ205,レン
ズ206などの光学系は、図8に示した一眼レフカメラ
と同様に配置されており、n×m個の測光素子111か
らなるCCD231上に、被写界に対応した像が結ばれ
ている。
In FIG. 22, a photographing lens 210, a main mirror 201, a pentaprism 202, and a focus plate 20
3. Optical systems such as an eyepiece 204, a beam splitter 205, and a lens 206 are arranged in the same manner as in the single-lens reflex camera shown in FIG. 8, and an image is captured on a CCD 231 comprising n × m photometric elements 111. An image corresponding to the world is formed.

【0069】このCCD231の各測光素子111は、
予め、図27に示した5分割パターンに従ってグループ
分けされており、各測光領域a1〜a5に属する測光素
子111の出力が、測光領域に対応する輝度算出部23
1 〜2325 にそれぞれ入力され、これらの輝度算出
部2321 〜2325 が、各測光領域a1〜a5の輝度
値B1〜B5をそれぞれ求めて、第2演算手段143に
送出する構成となっている。
Each photometric element 111 of the CCD 231 is
27. The output of the photometric element 111 belonging to each of the photometric areas a1 to a5 is previously divided into groups according to the five-division pattern shown in FIG.
21 1 -232 5 , respectively, and these brightness calculating sections 232 1 -232 5 determine the brightness values B 1 -B 5 of the respective photometric areas a 1 -a 5 and send them to the second calculating means 143. ing.

【0070】つまり、この場合は、上述したレンズ20
6とCCD231と輝度算出部2321 〜2325 とに
よって、上述した5分割パターンの各測光領域の測光が
行われており、複数の領域測光手段141の機能が実現
されている。また、視線検出手段161によって、撮影
者の視線位置が検出されており、この検出結果が被写体
位置として、抽出回路233に入力されている。
That is, in this case, the lens 20
6, the CCD 231 and the brightness calculators 232 1 to 232 5 perform photometry of each photometric area of the above-described five-divided pattern, and the functions of a plurality of area photometric means 141 are realized. In addition, the line-of-sight position of the photographer is detected by the line-of-sight detection unit 161, and the detection result is input to the extraction circuit 233 as the position of the subject.

【0071】この抽出回路233は、上述したCCD2
31の各測光素子111の中から、被写体位置から距離
u以内の範囲に含まれるものを抽出して、該当する測光
素子111の出力を被写体輝度算出部234に送出する
構成となっている。この被写体輝度算出部234は、入
力された測光素子111の出力から、上述した範囲で示
される領域の輝度値B6を求めて、第2演算手段143
に送出する構成となっている。
The extraction circuit 233 is connected to the CCD 2
Among the 31 photometric elements 111, those included in a range within a distance u from the subject position are extracted, and the output of the corresponding photometric element 111 is sent to the subject brightness calculation unit 234. The subject brightness calculation unit 234 obtains the brightness value B6 of the area indicated by the above range from the input output of the photometric element 111, and
Is transmitted to

【0072】すなわち、レンズ206とCCD231と
抽出回路233と被写体輝度算出部234とによって、
被写体位置を含む要素領域の測光処理が行われており、
被写体測光手段142の機能が実現されている。この場
合は、抽出回路233によって抽出される測光素子11
1の範囲(被写体位置から距離u以内の範囲)が、上述
した被写体位置を含む要素領域(以下、測光領域a6と
称する)となる。
That is, the lens 206, the CCD 231, the extraction circuit 233, and the subject luminance calculation unit 234
Photometric processing of the element area including the subject position is performed,
The function of the subject photometer 142 is realized. In this case, the photometric element 11 extracted by the extraction circuit 233
The range of 1 (the range within the distance u from the subject position) is an element region including the above-described subject position (hereinafter, referred to as a photometric region a6).

【0073】これにより、図23に点線で示す固定され
た5つの測光領域a1〜a5とは独立に、被写体位置(X
a, Ya)に対応して被写界内を移動する測光領域a6が得
られる。また、このようにして得られた測光領域a1〜
a5に対応する輝度値B1〜B5と、上述した測光領域
a6に対応する輝度値B6とに基づいて、第2演算手段
143は、測光領域a6の輝度値B6を重視した重み付
け平均処理を行って、 Ba=(B1+B2+B3+B4+B5+3×B6)/
8 で表される露出値Baを求めて、メカ制御部261に送
出すればよい。
Thus, independently of the five fixed photometric areas a1 to a5 shown by the dotted lines in FIG.
a, Ya) corresponding to (a, Ya) is obtained. In addition, the photometric regions a1 to
Based on the luminance values B1 to B5 corresponding to a5 and the luminance value B6 corresponding to the photometric area a6 described above, the second calculating unit 143 performs a weighted averaging process that emphasizes the luminance value B6 of the photometric area a6. Ba = (B1 + B2 + B3 + B4 + B5 + 3 × B6) /
The exposure value Ba represented by 8 may be obtained and sent to the mechanical control unit 261.

【0074】このようにして、分割測光方式の特徴を活
かしながら、被写体の輝度情報に対応した露出値を得る
ことが可能となるので、全体のバランスに配慮した露出
制御を行うことができる。なお、上述したCCD231
とは別に、5分割パターンの各測光領域a1〜a5に対
応する分割測光素子を設けた構成としてもよい。この場
合は、各分割測光素子の出力から直接に各測光領域a1
〜a5における輝度値を求めることができるので、CC
D231の測光素子111の出力に基づいて、測光領域
a1〜a5の輝度値を求める場合に比べて、露出演算処
理に要する時間を短縮することができる。しかし、これ
らの分割測光素子とCCD231との両方に光束を分割
する必要があるので、光学系が複雑となり、また、光量
不足によって測光精度が低下する可能性もある。
As described above, it is possible to obtain the exposure value corresponding to the luminance information of the subject while utilizing the features of the divided photometry method, so that the exposure control can be performed in consideration of the overall balance. Note that the CCD 231 described above is used.
Separately from the above, a configuration in which divided photometric elements corresponding to the respective photometric areas a1 to a5 of the 5-divided pattern may be provided. In this case, each photometry area a1 is directly obtained from the output of each divided photometry element.
To a5, it is possible to obtain the
The time required for the exposure calculation processing can be reduced as compared with the case where the luminance values of the photometric areas a1 to a5 are obtained based on the output of the photometric element 111 in D231. However, since it is necessary to split the light beam into both the split photometric element and the CCD 231, the optical system becomes complicated, and the photometric accuracy may be reduced due to insufficient light quantity.

【0075】また、被写界に捉えられた被写体の大きさ
に応じて、被写体測光手段142が測光する要素領域の
大きさを変える構成としてもよい。図24に、請求項4
の露出演算装置の実施例構成を示す。図24において、
距離判別手段151は、撮影レンズ210に設けられた
距離環212と、この距離環212の回転位置を検出す
るエンコーダ213と、このエンコーダ213の出力を
距離を表す数値に変換する変換回路214とから構成さ
れており、この数値をROM281にアドレス入力する
構成となっている。
Further, a configuration may be adopted in which the size of the element area measured by the subject photometering means 142 is changed according to the size of the subject captured in the object scene. Figure 24, claim 4
1 shows the configuration of an embodiment of the exposure calculator. In FIG.
The distance determining means 151 includes a distance ring 212 provided on the photographing lens 210, an encoder 213 for detecting a rotational position of the distance ring 212, and a conversion circuit 214 for converting an output of the encoder 213 into a numerical value representing a distance. The numerical value is input to the ROM 281 as an address.

【0076】このROM281は、第1変更手段152
に相当するものであり、距離を表す数値に対応するアド
レスに、それぞれ距離に対応する標準的な被写体(例え
ば人物)の大きさを示す値を保持している。また、この
ROM281は、距離判別手段151による判別結果と
して得られる数値の入力に応じて、対応する値を出力し
て、抽出回路272による抽出範囲を示す距離uとして
設定する構成となっている。上述した被写体の大きさを
示す値は、予め、様々な距離において人物などが被写界
で占める面積を評価する実験を行って求めておけばよ
い。
The ROM 281 stores the first changing means 152
The address corresponding to the numerical value representing the distance holds a value indicating the size of a standard subject (for example, a person) corresponding to the distance. The ROM 281 is configured to output a corresponding value in response to the input of a numerical value obtained as a result of the determination by the distance determining unit 151 and set the value as a distance u indicating an extraction range by the extraction circuit 272. The value indicating the size of the subject described above may be obtained in advance by performing an experiment for evaluating the area occupied by the person or the like in the scene at various distances.

【0077】これにより、図25に示すように、被写体
が被写界において占める大きさに応じて、上述した測光
領域a6の大きさを変更することができ、被写体部分の
測光情報を過不足なく取り入れて、露出値に反映するこ
とが可能となるので、より、被写体に適合した露出値を
得ることができる。また、図26に示すように、レンズ
駆動部282に備えられたレンズ位置検出部283と、
撮影レンズ210の位置に関する情報から撮影レンズ2
10の焦点距離を算出する焦点距離算出部284とを備
えて、焦点距離判別手段153を形成し、この焦点距離
判別手段153で得られた焦点距離と、距離判別手段1
51からの被写体までの距離とを第2変更手段154に
入力する構成としてもよい。
As a result, as shown in FIG. 25, the size of the photometric area a6 can be changed in accordance with the size of the object in the object field, and the photometric information of the object portion can be changed without excess or deficiency. The exposure value can be taken into account and reflected on the exposure value, so that an exposure value more suitable for the subject can be obtained. Also, as shown in FIG. 26, a lens position detecting unit 283 provided in the lens driving unit 282,
From the information on the position of the taking lens 210, the taking lens 2
And a focal length calculating unit 284 for calculating the focal length of the ten focal lengths, forming a focal length determining means 153, and the focal length obtained by the focal length determining means 153 and the distance determining means 1
The distance from 51 to the subject may be input to the second changing unit 154.

【0078】この第2変更手段154は、入力される焦
点距離と被写体までの距離とから撮影レンズ210の倍
率を求める倍率算出部285と、撮影レンズ210の倍
率に対応する測光領域a6の大きさを保持するROM2
86とから形成されており、倍率算出部285の出力に
対応する測光領域a6の大きさを上述した抽出回路27
2に送出する構成となっている。
The second changing means 154 includes a magnification calculator 285 for calculating the magnification of the photographing lens 210 from the input focal length and the distance to the subject, and the size of the photometric area a6 corresponding to the magnification of the photographing lens 210. ROM2 that holds
86 and the size of the photometric area a6 corresponding to the output of the magnification calculator 285.
2.

【0079】この場合は、撮影レンズ210の倍率に基
づいて、被写界における被写体の大きさを正確に評価す
ることができるので、被写体までの距離のみに基づい
て、測光領域a6の大きさを変更した場合に比べて、被
写体の大きさによりよく対応した測光領域a6を得るこ
とができる。
In this case, the size of the subject in the field can be accurately evaluated based on the magnification of the photographing lens 210. Therefore, the size of the photometric area a6 is determined based only on the distance to the subject. As compared with the case where the size is changed, it is possible to obtain the photometric area a6 that better corresponds to the size of the subject.

【0080】[0080]

【発明の効果】以上説明したように本発明は、各要素領
域に対応する測光素子を分類することにより、被写体位
置に柔軟に対応して変化する測光領域を得ることがで
き、これらの測光領域に対応する測光結果から被写体位
置と被写界全体のバランスとの双方を考慮した露出値を
求めることができる。
As described above, according to the present invention, by classifying photometric elements corresponding to each element area, it is possible to obtain photometric areas that change flexibly according to the position of the subject. Can be obtained from the photometry result corresponding to the exposure value in consideration of both the position of the subject and the balance of the entire object field.

【0081】また、領域測光手段と被写体測光手段とが
独立に対応する測光領域の測光を行うことにより、分割
測光方式の特徴を活かして、全体のバランスを重視しな
がら被写体に適合した露出値を求めることができる。更
に、被写体測光手段に対応する測光領域の大きさを変更
可能とすることにより、被写体部分の測光情報を過不足
なく反映した露出値を求めることができる。
Further, the area photometering means and the subject photometering means independently perform photometry in the corresponding photometry area, so that the exposure value suitable for the subject can be adjusted while taking into account the overall balance by utilizing the features of the divided photometry method. You can ask. Furthermore, by making it possible to change the size of the photometry area corresponding to the subject photometry means, it is possible to obtain an exposure value reflecting the photometry information of the subject portion without excess or deficiency.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1の露出演算装置の構成を示す図であ
る。
FIG. 1 is a diagram showing a configuration of an exposure calculation device according to claim 1;

【図2】分類手段の構成を示す図である。FIG. 2 is a diagram showing a configuration of a classification unit.

【図3】請求項1ないし請求項3の分類手段の構成を示
す図である。
FIG. 3 is a diagram showing a configuration of a classification means according to claims 1 to 3 ;

【図4】請求項4または請求項5の露出演算装置の構成
を示す図である。
FIG. 4 is a diagram showing a configuration of an exposure calculation device according to claim 4 or 5 ;

【図5】請求項4の発明の要部を示す図である。FIG. 5 is a diagram showing a main part of the invention of claim 4 ;

【図6】請求項5の発明の要部を示す図である。FIG. 6 is a diagram showing a main part of the invention of claim 5 ;

【図7】請求項6の発明を適用した請求項1の露出演算
装置の要部を示す図である。
FIG. 7 is a diagram showing a main part of an exposure calculation device according to claim 1 to which the invention of claim 6 is applied.

【図8】請求項1の露出演算装置を適用した一眼レフカ
メラの実施例構成図である。
FIG. 8 is a configuration diagram of an embodiment of a single-lens reflex camera to which the exposure calculation device of claim 1 is applied.

【図9】視線検出手段の詳細構成を示す図である。FIG. 9 is a diagram showing a detailed configuration of a visual line detection unit.

【図10】分類手段の詳細構成を示す図である。FIG. 10 is a diagram showing a detailed configuration of a classification unit.

【図11】分類処理を表す流れ図である。FIG. 11 is a flowchart illustrating a classification process.

【図12】測光領域の分割例を示す図である。FIG. 12 is a diagram illustrating an example of dividing a photometry area.

【図13】第1演算手段の詳細構成を示す図である。FIG. 13 is a diagram showing a detailed configuration of a first calculating means.

【図14】露出演算処理を表す流れ図である。FIG. 14 is a flowchart illustrating exposure calculation processing.

【図15】被写体と測光領域との関係を示す図である。FIG. 15 is a diagram illustrating a relationship between a subject and a photometry area.

【図16】請求項1の分類手段の実施例構成図である。FIG. 16 is a block diagram showing an embodiment of a classification means according to claim 1 ;

【図17】測光領域の分割例を示す図である。FIG. 17 is a diagram illustrating an example of division of a photometry area.

【図18】請求項2の発明を適用した分類手段の実施例
構成図である。
FIG. 18 is a block diagram showing an embodiment of a classification means to which the invention of claim 2 is applied.

【図19】測光領域の分割例を示す図である。FIG. 19 is a diagram illustrating an example of dividing a photometry area.

【図20】請求項3を適用した分類手段の実施例構成図
である。
FIG. 20 is a block diagram showing an embodiment of a classification means to which claim 3 is applied.

【図21】測光領域の分割例を示す図である。FIG. 21 is a diagram illustrating an example of division of a photometry area.

【図22】請求項4または請求項5の露出演算装置を適
用した一眼レフカメラの実施例構成図である。
FIG. 22 is a configuration diagram of an embodiment of a single-lens reflex camera to which the exposure calculation device according to claim 4 or 5 is applied.

【図23】測光領域の分割例を示す図である。FIG. 23 is a diagram illustrating an example of dividing a photometry area.

【図24】請求項4の露出演算装置の実施例構成図であ
る。
FIG. 24 is a block diagram showing an embodiment of an exposure calculating device according to claim 4 ;

【図25】測光領域の分割例を示す図である。FIG. 25 is a diagram illustrating an example of division of a photometry area.

【図26】請求項5の露出演算装置の実施例構成図であ
る。
FIG. 26 is a block diagram showing an embodiment of an exposure calculating device according to claim 5 ;

【図27】分割測光方式の説明図である。FIG. 27 is an explanatory diagram of a split photometry method.

【図28】視線入力カメラの露出演算装置の概略構成図
である。
FIG. 28 is a schematic configuration diagram of an exposure calculation device of the eye-gaze input camera.

【図29】測光素子の構成を示す図である。FIG. 29 is a diagram showing a configuration of a photometric element.

【符号の説明】[Explanation of symbols]

101 結像光学系 111 測光素子 112 測光手段 113 分類手段 114 第1演算手段 121 第1パターン生成手段 131 保持手段 132 変位算出手段 133 第2パターン生成手段 134 移動制御手段 135 移動制限手段 141 領域測光手段 142 被写体測光手段 143 第2演算手段 151 距離判別手段 152 第1変更手段 153 焦点距離判別手段 154 第2変更手段 161 視線検出手段 201 メインミラー 202 ペンタプリズム(プリズム) 203 ピント板 204 接眼レンズ 205 ビームスプリッタ(BS) 206,223 レンズ 210 撮影レンズ 211 絞り 212 距離環 213 エンコーダ 214 変換回路 221 発光素子 222 ハーフミラー 224,231 2次元CCDイメージセンサ(CC
D) 225 検出処理部 232,251 輝度算出部 233 抽出回路 234 被写体輝度算出部 241 距離算出部 242,247 距離判別部 243 分類保持部 244,281,286 ROM 245 減算器 246,273 加算器 248,275 比較回路 252 輝度差判別部 253,254 露出値算出部 261 メカ制御部 271 重み保持部 272 乗算器 276 セレクタ回路 282 レンズ駆動部 283 レンズ位置検出部 284 焦点位置検出部 285 倍率算出部 511 結像レンズ 512 測光素子 513 マイクロプロセッサ 520 視線検出回路
Reference Signs List 101 imaging optical system 111 photometry element 112 photometry means 113 classification means 114 first calculation means 121 first pattern generation means 131 holding means 132 displacement calculation means 133 second pattern generation means 134 movement control means 135 movement restriction means 141 area photometry means 142 Object photometric means 143 Second calculating means 151 Distance discriminating means 152 First changing means 153 Focal length discriminating means 154 Second changing means 161 Line of sight detecting means 201 Main mirror 202 Pentaprism (prism) 203 Focus plate 204 Eyepiece lens 205 Beam splitter (BS) 206, 223 Lens 210 Photographing lens 211 Aperture 212 Distance ring 213 Encoder 214 Conversion circuit 221 Light emitting element 222 Half mirror 224, 231 Two-dimensional CCD image sensor (CC)
D) 225 detection processing unit 232, 251 brightness calculation unit 233 extraction circuit 234 subject brightness calculation unit 241 distance calculation unit 242, 247 distance discrimination unit 243 classification holding unit 244, 281, 286 ROM 245 subtractor 246, 273 adder 248, 275 Comparison circuit 252 Luminance difference determination unit 253, 254 Exposure value calculation unit 261 Mechanical control unit 271 Weight holding unit 272 Multiplier 276 Selector circuit 282 Lens driving unit 283 Lens position detection unit 284 Focus position detection unit 285 Magnification calculation unit 511 Imaging Lens 512 Photometric element 513 Microprocessor 520 Eye gaze detection circuit

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 結像光学系の被写界を分割して得られる
各要素領域にそれぞれ対応する複数の測光素子から形成
され、前記被写界における光の強度分布を測定する測光
手段と、 前記被写界における被写体位置が入力され、前記被写体
位置に対応して変化する分割パターンに従って、前記測
光手段の各測光素子を複数のグループに分類する分類手
段と、 前記複数の測光素子の出力に対して、それぞれが属する
グループに対応する重みをつけて露出値を求め、露出制
御に供する第1演算手段と 前記分類手段が、前記被写界をそれぞれ所定の形状を有
する複数の測光領域に分割する境界線位置を保持する保
持手段と、 前記被写界内の基準位置から被写体位置への変位を求め
る変位算出手段と、 前記変位算出手段で得られた変位に応じて、前記保持手
段に保持された境界線位置から前記複数の測光領域の境
界線を移動させて、被写体位置に対応する分割パターン
を生成する第2パターン生成手段と を備えたことを特徴
とする露出演算装置。
1. A photometric unit formed of a plurality of photometric elements respectively corresponding to respective element regions obtained by dividing an object field of an imaging optical system, and measuring a light intensity distribution in the object field. Classification means for classifying each of the photometric elements of the photometric means into a plurality of groups in accordance with a division pattern that changes according to the subject position, wherein the subject position in the scene is input, On the other hand, a first calculation unit for obtaining an exposure value by assigning a weight corresponding to a group to which each belongs and providing exposure control, and the classifying unit, each of the object fields has a predetermined shape.
To maintain the position of the boundary line to be divided into multiple
Holding means and a displacement from a reference position in the object scene to a subject position.
The holding means in accordance with the displacement obtained by the displacement calculating means.
The boundary between the plurality of photometric areas is determined from the boundary line position held in the step.
By moving the field line, the division pattern corresponding to the subject position
And a second pattern generating means for generating a second pattern .
【請求項2】 請求項1に記載の露出演算装置におい
て、 前記分類手段が、前記複数の測光領域それぞれの面積に
応じて、前記第2パターン生成手段による境界線の移動
量を制御する移動制御手段を有する構成であることを特
徴とする露出演算装置。
2. The exposure calculation device according to claim 1, wherein the classification unit determines an area of each of the plurality of photometric regions.
Accordingly, moving the boundary line by the second pattern generating means.
An exposure calculation device comprising a movement control means for controlling an amount .
【請求項3】 請求項1に記載の露出演算装置におい
て、 前記分類手段が、前記第2パターン生成手段による境界
線の移動範囲を所定の範囲に制限する移動制限手段を有
する構成であることを特徴とする露出演算装置。
3. The exposure calculation device according to claim 1 , wherein said classifying means includes a boundary defined by said second pattern generating means.
An exposure calculation device comprising a movement limiting means for limiting a movement range of a line to a predetermined range .
【請求項4】 結像光学系の被写界をそれぞれ所定の形
状を用いて分割して得られる複数の測光領域にそれぞれ
対応し、各測光領域における光量の測定を行 う複数の領
域測光手段と、 前記被写界における被写体位置の入力に応じて、前記被
写体位置を含む要素領域における光量を測定する被写体
測光手段と、 前記複数の測光手段と前記被写体測光手段との出力に基
づいて露出値を算出して、結像光学系の露出制御に供す
る第2演算手段と、 前記結像光学系と被写体との距離を判別する距離判別手
段と、 前記距離判別手段で得られた距離に基づいて、前記被写
体測光手段が測光する要素領域の大きさを変更する第1
変更手段と を備えた ことを特徴とする露出演算装置。
4. An image forming optical system according to claim 1, wherein said object field has a predetermined shape.
Each of the photometric areas obtained by dividing using the shape
Corresponding, row cormorants plurality of territory measuring the amount of light in each of the photometry areas
Area light metering means, and the object position in the object scene
The subject whose light quantity is to be measured in the element area including the object position
Photometric means , based on outputs from the plurality of photometric means and the subject photometric means.
To calculate the exposure value and use it to control the exposure of the imaging optical system.
Second calculating means for determining a distance between the imaging optical system and the subject
A step and the distance based on the distance obtained by the distance determining means.
A first method for changing the size of the element area measured by the body photometer
Exposure calculation apparatus characterized by comprising a changing means.
【請求項5】 結像光学系の被写界をそれぞれ所定の形
状を用いて分割して得られる複数の測光領域にそれぞれ
対応し、各測光領域における光量の測定を行う複数の領
域測光手段と、 前記被写界における被写体位置の入力に応じて、前記被
写体位置を含む要素領域における光量を測定する被写体
測光手段と、 前記複数の測光手段と前記被写体測光手段との出力に基
づいて露出値を算出して、結像光学系の露出制御に供す
る第2演算手段と、 前記結像光学系と被写体との距離を判別する距離判別手
段と、 前記結像光学系の焦点距離を判別する焦点距離判別手段
と、 前記距離判別手段で得られた距離と前記焦点距離判別手
段で得られた焦点距離とに基づいて、前記被写体測光手
段が測光する要素領域の大きさを変更する第2変更手段
を備えた ことを特徴とする露出演算装置。
5. An image forming optical system according to claim 1, wherein said object field has a predetermined shape.
Each of the photometric areas obtained by dividing using the shape
Multiple areas for measuring the amount of light in each
Area light metering means, and the object position in the object scene
The subject whose light quantity is to be measured in the element area including the object position
Photometric means , based on outputs from the plurality of photometric means and the subject photometric means.
To calculate the exposure value and use it to control the exposure of the imaging optical system.
Second calculating means for determining a distance between the imaging optical system and the subject
Step and focal length determining means for determining the focal length of the imaging optical system
And the distance obtained by the distance determining means and the focal length determining means.
The subject photometer based on the focal length obtained in the step.
Second changing means for changing the size of the element area measured by the step
Exposure calculation apparatus characterized by comprising and.
【請求項6】 請求項1または請求項4ないし請求項5
に記載の露出演算装置において、 撮影者の眼球の向きから前記撮影者の被写界における視
線位置を検出して被写体位置として出力し、露出演算距
離に供する視線検出手段を 備えたことを特徴とする露出
演算装置。
6. The method according to claim 1, wherein
In the exposure calculation device according to the above, the view of the photographer in the field from the direction of the eyeball of the photographer
Detects the line position and outputs it as the subject position.
An exposure calculation device comprising: a line-of-sight detection unit provided for separation .
JP03215180A 1991-08-27 1991-08-27 Exposure calculation device Expired - Lifetime JP3097201B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP03215180A JP3097201B2 (en) 1991-08-27 1991-08-27 Exposure calculation device
US07/933,819 US5392091A (en) 1991-08-27 1992-08-24 Exposure calculating apparatus
US08/341,978 US5461452A (en) 1991-08-27 1994-11-16 Exposure calculating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03215180A JP3097201B2 (en) 1991-08-27 1991-08-27 Exposure calculation device

Publications (2)

Publication Number Publication Date
JPH0553169A JPH0553169A (en) 1993-03-05
JP3097201B2 true JP3097201B2 (en) 2000-10-10

Family

ID=16667997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03215180A Expired - Lifetime JP3097201B2 (en) 1991-08-27 1991-08-27 Exposure calculation device

Country Status (1)

Country Link
JP (1) JP3097201B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9556947B2 (en) 2010-03-05 2017-01-31 Cornell University Bidirectional gear, method, and applications
KR102065302B1 (en) * 2019-04-17 2020-01-10 김정일 Spindle for latch-bolt drive of door lock

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4040139B2 (en) 1997-05-12 2008-01-30 キヤノン株式会社 camera
US6412815B1 (en) 1998-09-28 2002-07-02 Daicel Chemical Industries, Ltd. Gas generator for air bag and air bag device
EP1029751B1 (en) 1998-09-28 2004-01-21 Daicel Chemical Industries, Ltd. Air bag gas generator and air bag apparatus
JP3220443B2 (en) 1998-11-30 2001-10-22 ダイセル化学工業株式会社 Gas generator for airbag and airbag device
US6722694B1 (en) 1999-02-16 2004-04-20 Daicel Chemical Industries, Ltd. Gas generator for multi-stage air bag and air bag device
JP4868791B2 (en) 2005-08-12 2012-02-01 キヤノン株式会社 Imaging apparatus and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9556947B2 (en) 2010-03-05 2017-01-31 Cornell University Bidirectional gear, method, and applications
KR102065302B1 (en) * 2019-04-17 2020-01-10 김정일 Spindle for latch-bolt drive of door lock

Also Published As

Publication number Publication date
JPH0553169A (en) 1993-03-05

Similar Documents

Publication Publication Date Title
USRE48595E1 (en) Method and system for determining optimal exposure of structured light based 3D camera
CN108777767A (en) Photographic method, device, terminal and computer readable storage medium
JPS61279829A (en) Photometric device for camera
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
US5392091A (en) Exposure calculating apparatus
JP2535988B2 (en) Three-dimensional multi-pattern photometer
JP3097201B2 (en) Exposure calculation device
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP2886865B2 (en) Focus state detection device
JP3335419B2 (en) Camera ranging device
JP5500915B2 (en) Imaging apparatus and exposure control method
JP3630965B2 (en) Focus detection apparatus, camera, and focus detection method
US5305046A (en) Multi-point distance measurement apparatus
JP2003037767A (en) Digital camera
JP3163668B2 (en) Subject recognition device and camera
JP4539276B2 (en) Camera photometric device and camera
JP3442409B2 (en) camera
JP3963535B2 (en) Multi-point distance measuring device
JP2870852B2 (en) Optical equipment
CN114500870B (en) Image processing method and device and electronic equipment
JP3180458B2 (en) Camera having line-of-sight detection means
JP2979417B2 (en) Multi-photometer
JP3106613B2 (en) Camera exposure calculation device
JPH055925A (en) Exposure arithmetic unit for camera with gaze detector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 12