JPH1068874A - Focus detection camera - Google Patents

Focus detection camera

Info

Publication number
JPH1068874A
JPH1068874A JP9182773A JP18277397A JPH1068874A JP H1068874 A JPH1068874 A JP H1068874A JP 9182773 A JP9182773 A JP 9182773A JP 18277397 A JP18277397 A JP 18277397A JP H1068874 A JPH1068874 A JP H1068874A
Authority
JP
Japan
Prior art keywords
focus
subject
mode
area
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9182773A
Other languages
Japanese (ja)
Other versions
JP2985126B2 (en
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP18277397A priority Critical patent/JP2985126B2/en
Publication of JPH1068874A publication Critical patent/JPH1068874A/en
Application granted granted Critical
Publication of JP2985126B2 publication Critical patent/JP2985126B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a focus detection camera adequately changing the reference value of moving body decision in accordance with contrast and the information of a photographing mode. SOLUTION: The amount of the moving speed of an object is compared with the reference value, so that which one is large is decided and decision that whether the object is the moving body or not is performed. At the time, a changing means 40 changes the reference value in accordance with the contrast and the information of the photographing mode. When the photographing mode is portrait and the contrast is low, the reference value is set high; so that it is hard to decide that the object is the moving body and when the photographing mode is sports, and the contrast is high, the reference value set low; so that it is easy to decide that the object is the moving body.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は焦点検出カメラに関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detection camera.

【0002】[0002]

【従来の技術】例えば本出願人による特願昭63−33
1748号に開示された焦点検出装置が知られている。
これは、いわゆる瞳分割方式の焦点検出光学系により撮
影光学系を通過する一対の光束から一対の被写体像を光
電変換素子上に形成し、光電変換素子により被写体像を
光電変換することにより被写体像信号を得、この被写体
像信号に対して所定の演算を行なって撮影光学系のデフ
ォーカス量を算出するものである。
2. Description of the Related Art For example, Japanese Patent Application No. 63-33 filed by the present applicant.
A focus detection device disclosed in No. 1748 is known.
This is because a so-called pupil division type focus detection optical system forms a pair of subject images on a photoelectric conversion element from a pair of light beams passing through an imaging optical system, and subjects the subject image to photoelectric conversion by the photoelectric conversion element. A signal is obtained, and a predetermined operation is performed on the subject image signal to calculate a defocus amount of the photographing optical system.

【0003】このような瞳分割方式の焦点検出装置にお
いては、撮影光学系と焦点検出光学系の組合せによって
は焦点検出に用いる光束のケラレが生ずる場合があり、
そのケラレが一様でない場合は焦点検出精度に悪影響を
与え、最悪時には焦点検出不能になってしまうという問
題点があった。
In such a pupil division type focus detection device, vignetting of a light beam used for focus detection may occur depending on a combination of a photographing optical system and a focus detection optical system.
If the vignetting is not uniform, there is a problem that the focus detection accuracy is adversely affected, and in the worst case the focus detection becomes impossible.

【0004】図10を用いてケラレが発生する原理を説
明する。
The principle of occurrence of vignetting will be described with reference to FIG.

【0005】図10に示す焦点検出光学系は、本出願人
による特願昭63−331748号に開示されたいわゆ
る瞳分割方式の光学系である。この焦点検出光学系は、
撮影光学系の第1次結像面に配置され被写界における焦
点検出を行う領域を規制するための開口部300Aを有
する視野マスク300と、視野マスク背後に配置された
フィールドレンズ301と、開口部300Aに形成され
た被写体像を第2次結像面に再結像するための2対の再
結像レンズ303A、303B、303C、303D
と、これらの再結像レンズの前に配置され各々の再結像
レンズに入射する光束を規制するための4つの開口部3
02A、302B、302C、302Dを有する絞りマ
スク302とから成る。再結像された各々の被写体像
は、第2次結像面に配置された光電変換素子304上の
受光部(例えば、CCDイメ−ジセンサ)304A、3
04B、304C、304D上に投影され、各受光部か
ら被写体像の光強度分布に対応する被写体像信号を発生
する。
The focus detection optical system shown in FIG. 10 is a so-called pupil division type optical system disclosed in Japanese Patent Application No. 63-331748 filed by the present applicant. This focus detection optical system
A field mask 300 having an opening 300A for regulating an area for focus detection in a field of view, which is arranged on a primary image forming plane of a photographing optical system; a field lens 301 arranged behind the field mask; Two pairs of re-imaging lenses 303A, 303B, 303C, 303D for re-imaging the subject image formed on the section 300A on the secondary imaging surface.
And four apertures 3 arranged in front of these re-imaging lenses for restricting a light beam incident on each of the re-imaging lenses.
And a stop mask 302 having 02A, 302B, 302C, and 302D. Each of the re-formed subject images is received by a light receiving unit (for example, a CCD image sensor) 304A, 3A on the photoelectric conversion element 304 arranged on the secondary imaging plane.
04B, 304C, and 304D, and a subject image signal corresponding to the light intensity distribution of the subject image is generated from each light receiving unit.

【0006】以上のような構成において、4つの開口部
302A、302B、302C、302Dの形状はフィ
ールドレンズ301により第1次結像面から所定距離d
0にある瞳面305(以後焦点検出瞳とも呼ぶ)に投影
されることになり、投影された開口部形状はそれぞれ瞳
領域305A、305B、305C、305D(以後焦
点検出瞳絞りとも呼ぶ)を形成している。従って、第2
次結像面に再結像される被写体像は瞳領域305A、3
05B、305C、305Dを通過する光束にのみによ
って形成されることになる。
In the above configuration, the shape of the four openings 302A, 302B, 302C, and 302D is determined by the field lens 301 at a predetermined distance d from the primary imaging plane.
0 is projected onto a pupil plane 305 at 0 (hereinafter also referred to as a focus detection pupil), and the projected aperture shapes respectively form pupil areas 305A, 305B, 305C, and 305D (hereinafter also referred to as a focus detection pupil stop). doing. Therefore, the second
The subject image re-imaged on the next imaging plane is the pupil area 305A, 3
It is formed only by the light beam passing through 05B, 305C, and 305D.

【0007】図16は、図10に示す焦点検出光学系を
X及びZ軸を含む面で切断した図である。
FIG. 16 is a diagram in which the focus detection optical system shown in FIG. 10 is cut along a plane including the X and Z axes.

【0008】瞳領域305A、305Bを通過し視野マ
スク300の開口部300AのX軸方向端点のA点から
他の端点C点の間に集光する光線は、図で斜線で示す領
域の内側の領域(瞳領域305A、305BのX軸方向
の外側の端点をF点、H点とすると第1次結像面から距
離d0にある瞳面305まではA−F点を結んだ線とC
−H点を結んだ線の内側で、瞳面305以遠ではC−F
点を結んだ線とA−H点を結んだ線の内側の領域)を必
ず通過する。従って、撮影光学系のFナンバーが小さく
射出瞳101の外径が斜線部の領域にある場合には、焦
点検出に利用される光束はケラレないので焦点検出に悪
影響を及ぼす危険性はないが、Fナンバーが大きく射出
瞳101の外径が斜線部の領域より内側の領域に入り込
んで来た場合には、焦点検出光束にケラレが生ずるので
焦点検出に悪影響を及ぼす。ケラレによる焦点検出の影
響は射出瞳101の大きさとともに瞳位置にも依存す
る。例えば絞りマスク302の開口部302A、302
Bをキャッツアイのような形状とすると、瞳面305で
は図17に示す瞳領域305A、305Bが形成され
る。従って、視野マスク300の開口部300Aのあら
ゆる点に集光してから開口部 302A、302Bを通
過する光束は、瞳面305において同一の瞳領域305
A、305Bを通過することになる。そのため、撮影光
学系の射出瞳101の瞳位置が瞳面305と一致してい
る場合には、ケラレが生じても開口部300Aの各点を
通り光電変換素子304に集光する光束は一様にケラレ
るので、光電変換素子304の各受光部において光量が
全体的に一様に低下するだけで影響はない。
Light rays passing through the pupil areas 305A and 305B and condensing between the point A at the end point in the X-axis direction of the opening 300A of the field mask 300 and the other end point C are located inside the hatched area in the drawing. Assuming that the outer end points of the pupil regions 305A and 305B in the X-axis direction are point F and point H, a line connecting points A to F from the primary imaging plane to the pupil plane 305 at a distance d0 is C
-Inside the line connecting the point H, and beyond the pupil plane 305, CF
(The area inside the line connecting the points and the line connecting the points AH) without fail. Therefore, when the F-number of the photographing optical system is small and the outer diameter of the exit pupil 101 is in the shaded area, the light beam used for focus detection does not have vignetting, so there is no risk of adversely affecting the focus detection. When the F-number is large and the outer diameter of the exit pupil 101 enters an area inside the shaded area, vignetting occurs in the focus detection light beam, which adversely affects focus detection. The influence of focus detection due to vignetting depends on the size of the exit pupil 101 as well as the pupil position. For example, the openings 302A and 302 of the aperture mask 302
If B has a shape like a cat's eye, pupil areas 305A and 305B shown in FIG. Therefore, a light beam that passes through the openings 302A and 302B after being condensed on all points of the opening 300A of the field mask 300 is transmitted to the same pupil area 305 on the pupil plane 305.
A, 305B. Therefore, when the pupil position of the exit pupil 101 of the imaging optical system coincides with the pupil plane 305, even if vignetting occurs, the light flux passing through each point of the opening 300A and condensing on the photoelectric conversion element 304 is uniform. Therefore, the amount of light in each light receiving portion of the photoelectric conversion element 304 is uniformly reduced as a whole, and has no effect.

【0009】しかし、瞳面305以外の位置では、視野
マスク300の開口部300Aの各点を通り光電変換素
子304に集光する光束は空間的に異なる領域を通過す
る。例えば図10に示すような開口部300AのA,
B,C点に集光してから絞りマスク302の開口部30
2Bを通過する光束が瞳面305と異なる位置d1にあ
る面において通過する領域は、図18に示すごとく各点
に対応する光束毎に異なった領域306A、306B、
306Cとなる。従って、撮影光学系の射出瞳101の
瞳位置が瞳面以外の場合には、ケラレが生じた際に開口
部300Aの各点を通り光電変換素子304に集光する
光束のケラレ量が各点で一様でなくなり、光量低下は光
電変換素子304の受光部の場所毎に異なってくるので
焦点検出に悪影響を及ぼす。
However, at a position other than the pupil plane 305, the light flux passing through each point of the opening 300A of the field mask 300 and condensing on the photoelectric conversion element 304 passes through a spatially different region. For example, as shown in FIG.
After condensing light at points B and C, the aperture 30 of the aperture mask 302
As shown in FIG. 18, the area where the light beam passing through 2B passes on a plane at a position d1 different from the pupil plane 305 is different for each light beam corresponding to each point.
306C. Accordingly, when the pupil position of the exit pupil 101 of the photographing optical system is other than the pupil plane, the amount of vignetting of the light beam passing through each point of the opening 300A and condensing on the photoelectric conversion element 304 when vignetting occurs is reduced , And the decrease in the amount of light varies depending on the location of the light receiving portion of the photoelectric conversion element 304, which adversely affects the focus detection.

【0010】上記のようなケラレが発生した場合のケラ
レの状況を図19(a),(b),(c)および(d)
に示す。(b),(c)および(d)において、A’,
B’,C’,D’,E’及びA”,B”,C”,D”,
E”は、(a)に示す開口部300Aの各点A,B,
C,D,E点を再結像レンズ303A,303Bにより
再結像させた時の対応点である。
FIGS. 19 (a), (b), (c) and (d) show the states of vignetting when vignetting as described above occurs.
Shown in In (b), (c) and (d), A ′,
B ', C', D ', E' and A ", B", C ", D",
E "indicates points A, B, and A of the opening 300A shown in FIG.
These are corresponding points when points C, D, and E are re-imaged by the re-imaging lenses 303A and 303B.

【0011】図19(b)および(c)は、開口部30
0Aが再結像レンズ303A、303Bによって再結像
された像におけるケラレを示している。一様輝度の被写
体に対して実線内部(再結像レンズ 303Aによる像
においてはA点を含む部分,再結像レンズ300Bによ
る像においてはC点を含む部分)においてはケラレがな
い(光量100%)。しかし、破線と実線の間では光量
が90%〜100%のケラレが発生し、破線より外側は
光量が90%以下のケラレとなる。再結像レンズ303
A、303Bによる像を重ね合わせると図19(d)の
ごとくケラレが生じていない部分が共通になっておら
ず、この場合、焦点検出の際に比較する2像が一致しな
くなるので正確な焦点検出ができなくなる。
FIGS. 19B and 19C show an opening 30
0A indicates vignetting in the image re-formed by the re-imaging lenses 303A and 303B. There is no vignetting (100% light amount) inside the solid line (a portion including point A in the image formed by the re-imaging lens 303A and a portion including point C in the image formed by the re-imaging lens 300B) for a subject having uniform luminance. ). However, between the broken line and the solid line, vignetting occurs at a light amount of 90% to 100%, and outside the broken line, vignetting has a light amount of 90% or less. Re-imaging lens 303
When the images of A and 303B are superimposed on each other, a portion where no vignetting occurs is not common as shown in FIG. 19D. In this case, the two images to be compared at the time of focus detection do not coincide with each other. Detection becomes impossible.

【0012】このような問題点に対しては、従来、次の
ような対策が施されている。
Conventionally, the following countermeasures have been taken against such problems.

【0013】例えば特開昭55−111927号公報に
開示されている焦点検出装置では、焦点検出用Fナンバ
ーの異なる2種類の焦点検出系を備えるとともに、撮影
光学系のFナンバーに応じてケラレが生じない焦点検出
系を選択する方式により上記問題点を解決している。こ
こで、焦点検出用Fナンバーは、例えば図10に示す瞳
面305における瞳領域305A、305B、305
C、305Dを含む外接円の大きさと、瞳面305の位
置d0とによって決まる。
For example, the focus detection device disclosed in Japanese Patent Application Laid-Open No. 55-111927 has two types of focus detection systems having different focus detection F-numbers, and vignetting occurs in accordance with the F-number of the photographing optical system. The above problem is solved by a method of selecting a focus detection system that does not generate. Here, the F number for focus detection is, for example, the pupil area 305A, 305B, 305 in the pupil plane 305 shown in FIG.
It is determined by the size of the circumscribed circle including C and 305D and the position d0 of the pupil plane 305.

【0014】あるいは、本出願人の特開昭60−865
17号公報に開示されている焦点検出装置では、焦点検
出用光電変換素子の出力状態から焦点検出光束のケラレ
状態を検出し、ケラレ状態が発生した場合には光電変換
素子の出力から低周波成分を取り除き、これによりケラ
レによる影響を軽減してから焦点検出演算を行って上記
問題点を解決している。
Alternatively, the applicant's Japanese Patent Application Laid-Open No. 60-865.
In the focus detection device disclosed in Japanese Patent Publication No. 17, the vignetting state of the focus detection light beam is detected from the output state of the focus detection photoelectric conversion element, and when the vignetting state occurs, the low frequency component is detected from the output of the photoelectric conversion element. The focus detection calculation is performed after reducing the influence of vignetting, thereby solving the above problem.

【0015】また同じく本出願人の特開昭62−229
213 号公報に開示されている焦点検出装置では、撮
影光学系の射出瞳Fナンバーと射出瞳位置情報とからケ
ラレ量を算出し、このケラレ量に応じてケラレの影響を
軽減する焦点検出演算処理を行って上記問題点を解決し
ている。
[0015] Japanese Patent Application Laid-Open No.
In the focus detection device disclosed in Japanese Patent Publication No. 213, a vignetting amount is calculated from the exit pupil F number of the photographing optical system and the exit pupil position information, and a focus detection calculation process for reducing the influence of vignetting according to the vignetting amount. To solve the above problem.

【0016】[0016]

【発明が解決しようとする課題】しかしながら上記のよ
うな従来の焦点検出装置においては、ケラレによる光量
低下に撮影光学系及び焦点検出光学系の周辺光量の低下
を加味していないので正確な光量低下を算出できず誤差
が大きかった。そのため、光量低下に基づいて焦点検出
演算処理を切り替えた場合に正確な切り替えができなか
った。また、光電変換出力の光量低下分を補正して焦点
検出処理に使用することや、光量低下のない部分だけを
焦点検出に使用するといったことも困難であった。特に
最近のように焦点検出する領域が撮影画面に対して拡大
してくると、撮影光学系及び焦点検出光学系の周辺光量
低下が無視できなくなるので、この問題はさらに深刻で
ある。また、動体判定基準値に関しては、ポートレート
撮影時に例えば動体判定基準値が低く設定された場合に
は、撮影者の体の揺れなどによっても動体と判定されて
しまうときがあり、焦点調節位置が定まらなくなり煩わ
しい。逆に、スポーツ撮影時に例えば動体判定基準値が
高く設定された場合には、被写体の移動に焦点調節位置
が追尾しなくなるときがありシャッターチャンスを逃し
てしまう。さらに、コントラストが低い場合には、明確
な焦点調節位置が得にくいため瞬間瞬間において検出さ
れる焦点検出位置が不安定となりやすく、このような場
合動体判定基準値が低く設定されるとたとえ被写体が静
止物体であってもCPUは動体と判定してしまうときが
あり焦点調節動作の不安定性を招く。本発明の目的は、
撮影モードの設定およびコントラストの情報に応じて、
動体判定しきい値の設定を変更し、上述の問題を解決す
る焦点検出カメラを提供することにある。
However, in the above-mentioned conventional focus detecting device, since the light amount reduction due to vignetting does not take into account the reduction in the peripheral light amount of the photographing optical system and the focus detection optical system, the accurate light amount reduction is performed. Could not be calculated and the error was large. Therefore, when the focus detection calculation processing is switched based on the decrease in the amount of light, accurate switching cannot be performed. Further, it has been difficult to correct the decrease in the light amount of the photoelectric conversion output and use it for focus detection processing, or to use only a portion where there is no decrease in the light amount for focus detection. In particular, when the focus detection area is enlarged with respect to the photographing screen as recently, the decrease in the peripheral light amount of the photographing optical system and the focus detection optical system cannot be ignored, and this problem is further serious. Also, regarding the moving object determination reference value, for example, when the moving object determination reference value is set low during portrait shooting, it may be determined that the moving object is due to shaking of the photographer's body, etc. It is not fixed and it is troublesome. Conversely, if the moving object determination reference value is set high during sports shooting, for example, the focus adjustment position may not track the movement of the subject, and a photo opportunity is missed. Further, when the contrast is low, it is difficult to obtain a clear focus adjustment position, so that the focus detection position detected at the instant is likely to be unstable. In such a case, if the moving object determination reference value is set low, even if the subject Even if the object is a stationary object, the CPU sometimes determines that the object is a moving object, which causes instability of the focus adjustment operation. The purpose of the present invention is
Depending on the shooting mode setting and contrast information,
An object of the present invention is to provide a focus detection camera that changes the setting of a moving object determination threshold value and solves the above-described problem.

【0017】[0017]

【課題を解決するための手段】[Means for Solving the Problems]

(1) 請求項1の発明は、画面上に被写体像を形成す
るための撮影光学系と、画面上の所定位置において前記
被写体像のコントラストを繰り返し検出するコントラス
ト検出手段と、画面上の所定位置において前記被写体像
のデフォーカス量を繰り返し検出する焦点検出手段と、
焦点検出手段により検出された複数のデフォーカス量よ
り被写体像面の移動速度に関する量を演算する演算手段
と、移動速度に関する量を基準値と比較し、該基準値よ
り検出された移動速度に関する量が大きい場合には、被
写体が移動被写体であると判定する判定手段と、コント
ラストに応じて基準値を変更する変更手段とを備えるこ
とにより上記目的を達成する。 (2) 請求項2の発明は、画面上に被写体像を形成す
るための撮影光学系と、被写体のジャンルを指定するこ
とによりカメラの撮影に関する動作を選択する選択手段
と、画面上の所定位置において被写体像のデフォーカス
量を繰り返し検出する焦点検出手段と、焦点検出手段に
より検出された複数のデフォーカス量より被写体像面の
移動速度に関する量を演算する演算手段と、移動速度に
関する量を基準値と比較し、該基準値より検出された移
動速度に関する量が大きい場合には、被写体が移動被写
体であると判定する判定手段と、選択手段によって指定
された被写体のジャンルに応じて基準値を変更する変更
手段とを備えることにより上記目的を達成する。
(1) An invention according to claim 1, wherein a photographing optical system for forming a subject image on a screen, contrast detection means for repeatedly detecting the contrast of the subject image at a predetermined position on the screen, and a predetermined position on the screen Focus detection means for repeatedly detecting the defocus amount of the subject image,
Calculating means for calculating an amount related to the moving speed of the object image plane from a plurality of defocus amounts detected by the focus detecting means; comparing the amount related to the moving speed with a reference value; and calculating an amount related to the moving speed detected from the reference value In the case where is large, the above object is achieved by providing a determination unit that determines that the subject is a moving subject and a change unit that changes a reference value according to contrast. (2) A second aspect of the present invention provides a photographing optical system for forming a subject image on a screen, a selection means for selecting an operation related to photographing of a camera by designating a genre of the subject, and a predetermined position on the screen. A focus detecting means for repeatedly detecting the defocus amount of the subject image, a calculating means for calculating an amount related to the moving speed of the subject image plane from the plurality of defocus amounts detected by the focus detecting means, and an amount related to the moving speed. If the amount related to the moving speed detected from the reference value is larger than the reference value, the reference value is determined in accordance with the genre of the subject designated by the determining means for determining that the subject is a moving subject and the genre of the subject designated by the selecting means. The above object is achieved by providing a changing means for changing.

【0018】[0018]

【発明の実施の形態】本実施の形態に係わる焦点検出装
置の概念を図1により説明すると、本発明に係る焦点検
出装置は、被写体像を基準面上に形成する撮影光学系1
と、撮影光学系1を通過する光束のうち前記基準面から
光軸上で第1の距離隔たった第1の所定面上において空
間的に異なる領域を通過する少なくとも一対の光束を分
離して被写体像を形成する焦点検出光学系2と、複数の
受光素子からなり、被写体像の強度分布に対応した被写
体像信号を発生する光電変換手段3と、撮影光学系1の
絞り開放時の射出瞳Fナンバー,前記基準面から射出瞳
までの第2の距離,および撮影光学系1の周辺光量低下
に関する情報を発生する撮影系情報発生手段4と、前記
第1の所定面における前記領域の大きさ,前記第1の距
離,および焦点検出光学系2の周辺光量低下に関する情
報を発生する焦点検出系情報発生手段5と、前記撮影系
情報発生手段4と焦点検出系情報発生手段5からの情報
に基づいて、撮影光学系1と焦点検出光学系3を組合せ
た場合の周辺光量の低下及び前記焦点検出光束のケラレ
によって生ずる、光電変換手段3の受光素子面上での光
量低下を受光素子面上の位置に関連して光量分布情報と
して求める光量分布検出手段6と、被写体像信号に対し
て光量分布情報に応じた処理を行って前記基準面に対す
る現在の被写体像面のデフォーカス量を検出する焦点検
出演算手段7とを設けたものである。図2は本発明に係
る焦点検出装置を備える一眼レフカメラの全体構成を示
すブロック図である。図2において、カメラボデイ20
に対して交換可能なレンズ10が着脱自在にマウントし
うるようになされている。レンズ10を装着した状態に
おいて、被写体から到来する撮影光束は、撮影レンズ1
1を通ってカメラボデイ20に設けられているメインミ
ラー21により一部は反射されてファインダーに導か
れ、スクリーン23、ペンタプリズム24、接眼レンズ
25を通ることにより、スクリーン像が撮影者により観
察される。他の一部はメインミラ−21を透過してサブ
ミラー22により反射され、焦点検出用の光束として焦
点検出光学系30に導かれる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The concept of a focus detecting device according to the present embodiment will be described with reference to FIG. 1. A focus detecting device according to the present invention comprises a photographing optical system 1 for forming a subject image on a reference plane.
And separating at least a pair of light beams passing through spatially different regions on a first predetermined surface separated by a first distance on the optical axis from the reference surface out of the light beams passing through the photographing optical system 1, and A focus detection optical system 2 for forming an image, a photoelectric conversion unit 3 comprising a plurality of light receiving elements and generating a subject image signal corresponding to the intensity distribution of the subject image, and an exit pupil F of the photographing optical system 1 when the aperture is opened. A photographing system information generating means 4 for generating information relating to a number, a second distance from the reference plane to the exit pupil, and a decrease in the amount of peripheral light of the photographing optical system 1, and a size of the area on the first predetermined plane; A focus detection system information generating means for generating information relating to the first distance and a decrease in the peripheral light amount of the focus detection optical system, and based on information from the imaging system information generating means and the focus detection system information generating means And shoot The decrease in the amount of light on the light receiving element surface of the photoelectric conversion means 3 caused by the decrease in the peripheral light amount when the optical system 1 and the focus detection optical system 3 are combined and the vignetting of the focus detection light beam are related to the position on the light receiving element surface. Light amount distribution detecting means 6 for obtaining the light amount distribution information as the light amount distribution information, and a focus detection calculating means for performing processing according to the light amount distribution information on the object image signal to detect the current defocus amount of the object image plane with respect to the reference plane. 7 is provided. FIG. 2 is a block diagram showing the overall configuration of a single-lens reflex camera provided with a focus detection device according to the present invention. Referring to FIG.
The interchangeable lens 10 can be detachably mounted. In a state where the lens 10 is mounted, the photographing light flux coming from the subject is
1 is partially reflected by a main mirror 21 provided on a camera body 20 and guided to a finder. You. The other part is transmitted through the main mirror 21 and reflected by the sub-mirror 22, and is guided to the focus detection optical system 30 as a light beam for focus detection.

【0019】焦点検出光学系30は例えば図10に示す
ように構成でき、撮影レンズ11によって結像された被
写体像を光電変換回路32の受光素子上に再結像させ
る。受光素子の受光面は焦点検出光学系30の焦点検出
面(フィルム共役面)である。したがって、光電変換回
路32の受光素子は、焦点検出光学系30によって再結
像された被写体像を光電変換し被写体像信号を発生す
る。
The focus detection optical system 30 can be configured as shown in FIG. 10, for example, and re-images the subject image formed by the photographing lens 11 on the light receiving element of the photoelectric conversion circuit 32. The light receiving surface of the light receiving element is the focus detecting surface (film conjugate surface) of the focus detecting optical system 30. Therefore, the light receiving element of the photoelectric conversion circuit 32 photoelectrically converts the subject image re-formed by the focus detection optical system 30 to generate a subject image signal.

【0020】光電変換回路32で検出された被写体像信
号はカメラ本体側のマイクロコンピュ−タ400に入力
されて、後述する各種演算に供される。機能的にマイク
ロコンピュ−タ400の構成要素を取り出すと、マイク
ロコンピュ−タ400は、焦点検出光学系の周辺光量演
算部400Aと、焦点検出光学系の各種情報記憶部40
0Bと、光量分布演算部400Cと、焦点検出演算部4
00Dとを備える。各部の詳細は後述する。また、シャ
ッター装置27や不図示の巻き上げ装置等周知のカメラ
内部機構も設けられている。
The subject image signal detected by the photoelectric conversion circuit 32 is input to the microcomputer 400 of the camera body, and is subjected to various calculations described later. When the components of the microcomputer 400 are functionally extracted, the microcomputer 400 includes a peripheral light amount calculation unit 400A of the focus detection optical system and various information storage units 40 of the focus detection optical system.
0B, the light amount distribution calculation unit 400C, and the focus detection calculation unit 4
00D. Details of each part will be described later. A well-known camera internal mechanism such as a shutter device 27 and a winding device (not shown) is also provided.

【0021】AFモータ51は、マイクロコンピュ−タ
400で演算されたデフォーカス量に基づいて回転駆動
され、ボディ伝達系52、クラッチ53、カップリング
54,18、レンズ伝達系13を介して撮影レンズ11
のフォ−カシングレンズを光軸方向に移動せしめる。エ
ンコーダ55は、AFモータ51の回転数を検出してマ
イクロコンピュ−タ400に入力する。
The AF motor 51 is rotationally driven based on the defocus amount calculated by the microcomputer 400, and takes a photographing lens through the body transmission system 52, the clutch 53, the couplings 54 and 18, and the lens transmission system 13. 11
Is moved in the optical axis direction. The encoder 55 detects the number of rotations of the AF motor 51 and inputs it to the microcomputer 400.

【0022】レンズCPU12は、撮影レンズ11の周
辺光量と、絞り開放時の射出瞳のFナンバー(f0)
と、射出瞳のフィルム面基準の位置(図16の d1)に
関する情報とを発生し、カップリング59E,19Eを
介してマイクロコンピュ−タ400に入力する。またレ
ンズCPU12は、撮影レンズ11のフォーカシング、
ズーミングによって上記情報が変化する場合にはフォー
カシング、ズーミング位置を検出するとともに検出した
フォーカシング、ズーミング位置に応じて上記情報を変
化させる。
The lens CPU 12 determines the amount of light around the photographing lens 11 and the F number (f0) of the exit pupil when the aperture is opened.
And information relating to the position of the exit pupil with respect to the film surface (d1 in FIG. 16) are generated and input to the microcomputer 400 via the couplings 59E and 19E. The lens CPU 12 focuses the photographing lens 11,
When the information changes due to zooming, the focusing and zooming positions are detected, and the information is changed according to the detected focusing and zooming positions.

【0023】例えば図5に示すような撮影レンズ11の
周辺光量の情報は、画面上での光軸からの距離dをパラ
メータにした関数F(d)として与えられる。例えば
(1)式のように、関数F(d)をdのべき乗項で展開
した近似式の係数a0・・・anによって周辺光量の情報
を発生することができる。
For example, information on the amount of light around the photographing lens 11 as shown in FIG. 5 is given as a function F (d) using the distance d from the optical axis on the screen as a parameter. For example, as in equation (1), information on the amount of peripheral light can be generated by coefficients a0... An of an approximate expression obtained by expanding the function F (d) by a power term of d.

【0024】 F(d)=a0×d0+a1×d1+a2×d2+・・・+an×dn …(1) 撮影レンズ11の射出瞳形状が特殊な場合には、レンズ
CPU12は、絞り形状と位置に関する情報をFナンバ
ーの代わりに発生する。例えばレフレックスレンズのよ
うな場合は、絞り形状の外接Fナンバーと内接Fナンバ
ー及びそれぞれの瞳位置に関する情報を発生する。
[0024] When the exit pupil shape of F (d) = a0 × d 0 + a1 × d 1 + a2 × d 2 + ··· + an × d n ... (1) taking lens 11 is a special, the lens CPU12 is , Information about the aperture shape and position is generated instead of the F-number. For example, in the case of a reflex lens, information about the circumscribed F-number and the inscribed F-number of the aperture shape and the respective pupil positions are generated.

【0025】焦点検出光学系の情報記憶部400Bは、
焦点検出光学系30の周辺光量と、焦点検出瞳位置(図
16d0)と、焦点検出瞳絞りの形状・位置に関する情
報とを予め記憶している。例えば図17に示す焦点検出
瞳絞り305Aの場合、焦点検出瞳絞りの形状・位置に
関する情報は、瞳絞り外側径r0と内側径r1と内側径の
中心位置d2である。
The information storage section 400B of the focus detection optical system includes:
The peripheral light amount of the focus detection optical system 30, the focus detection pupil position (FIG. 16d0), and information on the shape and position of the focus detection pupil stop are stored in advance. For example, in the case of the focus detection pupil stop 305A shown in FIG. 17, the information on the shape and position of the focus detection pupil stop is the center position d2 of the outside diameter r0, the inside diameter r1, and the inside diameter of the pupil stop.

【0026】焦点検出光学系30の周辺光量演算部40
0Aは、光電変換回路32の受光素子が設置された面に
おいての周辺光量情報を、光電変換面位置を撮影画面の
位置に変換して、撮影レンズ11の周辺光量に関する情
報と同様な形で演算すれば良い。但し焦点検出光学系3
0は偏心光学系となっているので、周辺光量の情報も
(1)式のように中心に対して点対称にはならない。こ
のような場合、光軸対応点(例えば図16の点B,
B”)を中心とした2次元の軸X,Yを用いて例えば
(2)式として周辺光量情報を表すことができる。 Ga(x,y)=Ha(x)・Ia(y) Ha(x)=b0×x0+b1×x1+・・・+bn×xn Ia(y)=c0×y0+c1×y1+・・・+cn×yn〓 …(2)
A peripheral light amount calculation unit 40 of the focus detection optical system 30
0A is calculated by converting the peripheral light amount information on the surface of the photoelectric conversion circuit 32 on which the light receiving element is installed, by converting the position of the photoelectric conversion surface into a position on the photographing screen, and in the same manner as the information on the peripheral light amount of the photographing lens 11. Just do it. However, focus detection optical system 3
Since 0 is an eccentric optical system, the information on the peripheral light quantity is not point-symmetric with respect to the center as in the equation (1). In such a case, the optical axis corresponding point (for example, point B,
Using two-dimensional axes X and Y centered on B "), the peripheral light amount information can be represented, for example, as equation (2). Ga (x, y) = Ha (x) .Ia (y) Ha ( x) = b0 × x 0 + b1 × x 1 + ··· + bn × x n Ia (y) = c0 × y 0 + c1 × y 1 + ··· + cn × y n ¬ ... (2)

【0027】焦点検出光学系30が図10のように2対
ある場合には、それぞれのセパレータレンズ303A
,303B,303C,303Dについて周辺光量情
報Ga(x,y),Gb(x,y),Gc(x,y),
Gd(x,y)が必要となるが、セパレータレンズ30
3Aと303Bおよび303Cと303Dが光軸に対し
対称な場合はGb(x,y)=Ga(−x,y)および
Gd(x,y)=Gc(x,−y)となるので情報量を
圧縮することができる。また、光電変換面を細かいセル
(x,y)に分割しそれぞれのセルに対応する光量とし
て周辺光量情報をあらわしてもよい。上記焦点検出光学
系30の周辺光量情報は、焦点検出光学系の焦点検出面
(フィルム共役面)に一様輝度の被写体像を結像させた
状態での受光素子出力に基づいて決定したり、光学系設
計時のデータに基づいて決定しても良い。
When there are two pairs of focus detecting optical systems 30 as shown in FIG. 10, each separator lens 303A
, 303B, 303C, 303D, the peripheral light amount information Ga (x, y), Gb (x, y), Gc (x, y),
Gd (x, y) is required, but the separator lens 30
When 3A and 303B and 303C and 303D are symmetric with respect to the optical axis, Gb (x, y) = Ga (−x, y) and Gd (x, y) = Gc (x, −y), and thus the information amount. Can be compressed. Alternatively, the photoelectric conversion surface may be divided into fine cells (x, y), and peripheral light amount information may be expressed as light amounts corresponding to the respective cells. The peripheral light amount information of the focus detection optical system 30 is determined based on a light receiving element output in a state where a subject image having uniform luminance is formed on a focus detection surface (film conjugate surface) of the focus detection optical system, The determination may be made based on data at the time of designing the optical system.

【0028】光量分布検出部400Cは、レンズCPU
12,焦点検出光学系周辺光量演算部400Aからの情
報に基づいて、一様照明された被写体に対する受光素子
上の光量分布を検出する。この光量分布は、焦点検出光
学系30により形成される像毎に求められる。すなわ
ち、図10のごとき焦点検出光学系の場合は、4個の再
結像レンズ303A、303B、303C、303D毎
に光量分布が求められる。
The light quantity distribution detecting section 400C is a lens CPU.
12. The light amount distribution on the light receiving element for the uniformly illuminated subject is detected based on the information from the focus detection optical system peripheral light amount calculation unit 400A. This light quantity distribution is obtained for each image formed by the focus detection optical system 30. That is, in the case of the focus detection optical system as shown in FIG. 10, a light amount distribution is obtained for each of the four re-imaging lenses 303A, 303B, 303C, and 303D.

【0029】ここで、光量分布演算について説明する。Here, the light amount distribution calculation will be described.

【0030】撮影レンズ11の射出瞳位置がd1、開放
Fナンバーがf0、周辺光量情報の関数がF(x,y)
で、焦点検出光学系30が図10のような構成であり、
焦点検出瞳位置がd0、焦点検出瞳面での焦点検出瞳絞
り形状が図6に示すような中心位置(xb、0)で半径
r2の円形、周辺光量情報がGb(x,y)であった場
合、例えば再結像レンズ303Bによる光量分布は以下
のようにして求められる。
The exit pupil position of the photographing lens 11 is d1, the open F number is f0, and the function of the peripheral light amount information is F (x, y).
The focus detection optical system 30 has a configuration as shown in FIG.
The focus detection pupil position is d0, the focus detection pupil aperture shape on the focus detection pupil plane is a center position (xb, 0) as shown in FIG. 6, a circle of radius r2, and the peripheral light amount information is Gb (x, y). In this case, for example, the light amount distribution by the re-imaging lens 303B is obtained as follows.

【0031】開口部300Aの座標(x0,y0)及び再
結像レンズ303Bを通る光束は、撮影レンズ11の射
出瞳面において図7のごとく座標(x1,y1)を中心と
した半径r3の円Pとなる。一方、瞳面において撮影レ
ンズ11の射出瞳の形状は中心(0,0)で半径r4の円
Qとなるので、円Pと円Qの共通部分の面積A1を円P
の面積A2で割ったものが座標(x0,y0)及び再結像
レンズ303Bを通る光束のケラレ情報Jb(x0,y
0)となる。 Jb(x,y)=A1/A2 x1=x0+(xb−x0)・d1/d0 y1=y0−y0・d1/d0 r3=r2・d1/d0 r4=d1/(2f0) …(3) 以上のようにして任意の座標(x,y)におけるケラレ
情報Jb(x,y)を求めることができる。従って最終
的な光量分布情報Kb(x,y)は(4)式のように表
される。 Kb(x,y)=F(x,y)・Gb(x,y)・Jb(x,y) …(4)
The light flux passing through the coordinates (x0, y0) of the opening 300A and the re-imaging lens 303B is a circle having a radius r3 centered on the coordinates (x1, y1) as shown in FIG. It becomes P. On the other hand, since the shape of the exit pupil of the photographing lens 11 on the pupil plane is a circle Q having a radius r4 at the center (0, 0), the area A1 of the common part of the circle P and the circle Q is changed to the circle P
Is divided by the area A2 of coordinates (x0, y0) and the vignetting information Jb (x0, y) of the light beam passing through the re-imaging lens 303B.
0). Jb (x, y) = A1 / A2 x1 = x0 + (xb−x0) · d1 / d0 y1 = y0−y0 · d1 / d0 r3 = r2 · d1 / d0 r4 = d1 / (2f0) (3) Thus, the vignetting information Jb (x, y) at an arbitrary coordinate (x, y) can be obtained. Therefore, the final light quantity distribution information Kb (x, y) is expressed as in equation (4). Kb (x, y) = F (x, y) · Gb (x, y) · Jb (x, y) (4)

【0032】同様にして再結像レンズ303A、303
C、303Dを通る光束のケラレ情報Ja(x,y)、
Jc(x,y)、Jd(x,y)を求めることができ、
焦点検出光学系30の他の周辺光量情報をGa(x,
y)、Gc(x,y)、Gd(x,y)とすれば、光量
分布情報Ka(x,y)、Kc(x,y)、Kd(x,
y)を求めることができる。図8に光量分布情報Ka
(x,y)の様子を示す。焦点検出演算部400Dは、
光電変換回路32の出力する被写体像信号に対して周知
の焦点検出演算を施して撮影レンズ11の現在の像面と
フィルム面との偏差(デフォーカス量)を検出する。
Similarly, the re-imaging lenses 303A, 303
C, vignetting information Ja (x, y) of a light beam passing through 303D,
Jc (x, y) and Jd (x, y) can be obtained,
Other peripheral light amount information of the focus detection optical system 30 is expressed as Ga (x,
y), Gc (x, y), Gd (x, y), the light amount distribution information Ka (x, y), Kc (x, y), Kd (x, y)
y) can be determined. FIG. 8 shows light amount distribution information Ka.
(X, y) is shown. The focus detection calculation unit 400D includes:
A well-known focus detection calculation is performed on the subject image signal output from the photoelectric conversion circuit 32 to detect a deviation (a defocus amount) between the current image plane of the photographing lens 11 and the film plane.

【0033】例えば焦点検出光学系30として図10の
ものを用い、光電変換素子304の受光部304A、3
04B、304C、304Dからの被写体像信号をAD
変換したデータをap、bp(p=1〜n)およびc
q、dq(q=1〜m)とするとき、次のようにしてデ
フォーカス量が求められる。
For example, the focus detection optical system 30 shown in FIG.
Of the subject image signals from the video signals 04B, 304C, and 304D.
Convert the converted data to ap, bp (p = 1 to n) and c
When q and dq (q = 1 to m), the defocus amount is obtained as follows.

【0034】簡単のため以後の相関演算の説明において
は、受光素子出力データap、bpについてのみ説明を
行うが、データcq、dqについても同様である。受光
素子出力データap、bpに対してまず(5)式に示す
相関演算によって相関量C(L)が求められる。 ただし、(5)式においてLは整数であり、一対の受光
素子出力データの受光素子のピッチを単位とした相対的
シフト量(ずらし量)である。また、(5)式の積算演
算においてパラメータiのとる範囲は、シフト量Lおよ
びデータ数nに応じて適宜決定される。
For the sake of simplicity, in the following description of the correlation calculation, only the light-receiving element output data ap and bp will be described, but the same applies to the data cq and dq. First, a correlation amount C (L) is obtained from the light-receiving element output data ap and bp by the correlation operation shown in Expression (5). In the expression (5), L is an integer, and is a relative shift amount (shift amount) in units of the pitch of the light receiving elements of the pair of light receiving element output data. In addition, the range taken by the parameter i in the integration operation of the equation (5) is appropriately determined according to the shift amount L and the number n of data.

【0035】(5)式の演算結果は,データの相関が高
いシフト量L=kjにおいて相関量C(L)が最小にな
る。次に(6)式の3点内挿の手法を用いて連続的な相
関量に対する最小値C(L)min=C(km)を求める。 km=kj+D/SLOP C(km)= C(kj)−|D| D={C(kj−1)−C(kj+1)}/2 SLOP=MAX(C(kj+1)−C(kj)、C(kj−1)−C(kj)) …(6)
In the calculation result of the equation (5), the correlation amount C (L) is minimized when the shift amount L = kj where the data correlation is high. Next, the minimum value C (L) min = C (km) for the continuous correlation amount is obtained by using the three-point interpolation method of the equation (6). km = kj + D / SLOP C (km) = C (kj)-| D | D = {C (kj-1) -C (kj + 1)} / 2 SLOP = MAX (C (kj + 1) -C (kj), C (kj-1) -C (kj)) (6)

【0036】また、(6)式で求めたシフト量kjより
デフォ−カス量DEFを次式で求めることができる。 DEF=KX×PY×km …(7)
Further, the defocus amount DEF can be obtained by the following equation from the shift amount kj obtained by the equation (6). DEF = KX × PY × km (7)

【0037】(7)式においてPYは光電変換素子30
4の各受光部を構成する受光素子の並び方向のピッチ、
KXは図10の焦点検出光学系の構成によって決まる係
数である。
In the equation (7), PY is the photoelectric conversion element 30
4, the pitch in the arrangement direction of the light receiving elements constituting each light receiving unit,
KX is a coefficient determined by the configuration of the focus detection optical system in FIG.

【0038】また(6)式で求めたパラメータC(k
m),SLOPの値によってデフォーカス量DEFの信頼
性を判定することができ、このパラメータに基づいて焦
点検出可否の決定を行う。
The parameter C (k
m), the reliability of the defocus amount DEF can be determined based on the value of SLOP, and whether or not focus detection is possible is determined based on this parameter.

【0039】さらに、以上の説明においては1次元のデ
ータ同士の相関演算について述べたが、光電変換回路の
受光部が2次元で、データも2次元であった場合にも上
記の演算法を容易に拡張することができる。
Further, in the above description, the correlation calculation between one-dimensional data has been described. Can be extended to

【0040】焦点検出演算部400Dはまた、光量分布
情報に基づいて、(5)式の相関演算に用いるデータの
範囲を決めて相関演算を行う。例えば図9のごとく光量
分布情報Ka(x,0)が求められ、受光部304Aの
データa1〜anが画面上で設定されている場合には、光
量分布が所定値t%以上のデータau〜awを相関演算に
用いる。その他のデータbi,ci,diについても同様
にして相関演算に用いるデータ範囲を決定することがで
きる。このようにすれば相関演算において光量低下によ
るデータ同士のアンバランスを抑えることができ、焦点
検出演算の精度も向上する。
The focus detection calculation unit 400D determines the range of data used for the correlation calculation of the equation (5) based on the light quantity distribution information and performs the correlation calculation. For example, as shown in FIG. 9, light amount distribution information Ka (x, 0) is obtained, and when the data a1 to an of the light receiving unit 304A are set on the screen, the data au. aw is used for the correlation operation. For other data bi, ci, di, the data range used for the correlation operation can be determined in the same manner. By doing so, it is possible to suppress imbalance between data due to a decrease in light amount in the correlation calculation, and to improve the accuracy of the focus detection calculation.

【0041】焦点検出演算部400Dはさらに、光量分
布情報に基づいて、(5)式の相関演算に用いるデータ
を変換するようにしてもよい。例えば光量分布情報によ
り光量低下が著しいと判定された場合には、(8)式の
ような低周波成分除去フィルタ演算によってデータ変換
を行ってもよい。 a'i=−ai+2・a(i+1)−a(i+2)…(8)
The focus detection calculation section 400D may further convert the data used for the correlation calculation of the equation (5) based on the light quantity distribution information. For example, when it is determined from the light amount distribution information that the light amount decrease is remarkable, data conversion may be performed by a low-frequency component removal filter operation as in Expression (8). a′i = −ai + 2 · a (i + 1) −a (i + 2) (8)

【0042】この(8)式のようにして変換されたデー
タa'i,b'i,c'i,d'iを生データai,bi,ci,
diの代わりに(5)式に代入して相関演算を行う。こ
のようにすれば、光量低下によって生ずる被写体像信号
の低周波成分を取り除くことができ、焦点検出演算の精
度も向上する。
The data a'i, b'i, c'i, d'i converted as shown in the equation (8) are converted into raw data ai, bi, ci,
The correlation operation is performed by substituting into equation (5) instead of di. By doing so, it is possible to remove the low frequency component of the subject image signal caused by the decrease in the light amount, and to improve the accuracy of the focus detection calculation.

【0043】焦点検出演算部400Dはまた、光量分布
情報に基づいて、(6)式のパラメータC(km),SL
OPの値によってデフォーカス量DEFの信頼性を判定
する際の判定基準値を変更するようにしてもよい。例え
ば、光量分布情報により光量低下が著しいと判定された
場合には、判定基準値を甘くして光量低下分による信頼
性低下を救うことができる。このようにすれば同一の被
写体に対して光量低下の有無に拘らず同じ焦点検出可否
の決定ができる。
The focus detection calculation unit 400D also calculates the parameters C (km), SL in equation (6) based on the light amount distribution information.
The reference value for determining the reliability of the defocus amount DEF may be changed based on the value of OP. For example, when it is determined from the light amount distribution information that the light amount decrease is remarkable, the determination reference value can be reduced to save the reliability decrease due to the light amount decrease. In this way, it is possible to determine whether or not the same focus can be detected for the same subject regardless of whether or not the amount of light has decreased.

【0044】また、光量分布情報に基づいて、被写体像
信号を光量低下がない一様な状態の被写体像信号に補正
するようにしてもよい。例えば光電変換素子が一対の2
次元センサであり、その出力信号である被写体像信号を
Sa(x,y),Sb(x,y)、光量分布情報をKa
(x,y)、Kb(x,y)とすると(9)式のような
補正を行う。 S'a(x,y)=Sa(x,y)/Ka(x,y) S'b(x,y)=Sb(x,y)/Kb(x,y) …(9) このような補正を行うことにより、被写体像信号に含ま
れる光量低下分が補正され、焦点検出演算部400Dに
おいて正確な相関演算を行うことができるので、焦点検
出演算の精度も向上する。
Further, based on the light amount distribution information, the object image signal may be corrected into a uniform state of the image signal without a decrease in light amount. For example, a photoelectric conversion element is a pair of 2
It is a dimensional sensor, and outputs the subject image signals Sa (x, y) and Sb (x, y), and outputs the light amount distribution information Ka.
Assuming that (x, y) and Kb (x, y), correction is performed as in equation (9). S′a (x, y) = Sa (x, y) / Ka (x, y) S′b (x, y) = Sb (x, y) / Kb (x, y) (9) By performing the appropriate correction, the amount of decrease in the amount of light included in the subject image signal is corrected, and an accurate correlation calculation can be performed in the focus detection calculation unit 400D, so that the accuracy of the focus detection calculation is also improved.

【0045】以上の各演算はマイクロコンピュ−タ40
0内のプログラムにしたがって行われる。
The above operations are performed by the microcomputer 40.
This is performed according to the program in 0.

【0046】図3(a)はメインのフローチャートであ
り、まず、ステップS100で光量分布情報ka〜kd
を演算する。次に、ステップS200で被写体像信号に
対して、演算された光量分布情報ka〜kdに基づいた
処理を行い、ステップS300でその処理後の被写体像
信号により焦点検出演算を行い、デフォーカス量を演算
する。そして、不図示の処理手順に従ってデフォーカス
量に応じたレンズ駆動を行う。
FIG. 3A is a main flowchart. First, in step S100, the light amount distribution information ka to kd
Is calculated. Next, in step S200, processing is performed on the subject image signal based on the calculated light amount distribution information ka to kd. In step S300, focus detection calculation is performed using the processed subject image signal, and the defocus amount is calculated. Calculate. Then, the lens is driven in accordance with the defocus amount according to a processing procedure (not shown).

【0047】光量分布情報ka〜kdは図3(b)に示
すフローチャートで求められる。
The light quantity distribution information ka to kd can be obtained by the flowchart shown in FIG.

【0048】ステップS101で撮影レンズ11の周辺
光量F(d)を上記(1)式により求める。これは、レ
ンズCPU12にあらかじめ記憶されている(1)式を
カメラ本体のマイクロコンピュ−タ400に読み込むこ
とで実行される。ついでステップS102に進み、焦点
検出光学系の周辺光量Ga(x,y)〜Gd(x,y)
を上記(2)式から求める。さらにステップS103に
おいて、ケラレ情報Ja(x,y)〜Jd(x,y)を
上記(3)式から求める。その後にステップS104で
光量分布情報ka(x,y)〜kd(x,y)を上記
(4)式から求める。
In step S101, the peripheral light amount F (d) of the photographing lens 11 is obtained by the above equation (1). This is executed by reading the expression (1) stored in the lens CPU 12 in advance into the microcomputer 400 of the camera body. Then, the process proceeds to step S102, in which the peripheral light amounts Ga (x, y) to Gd (x, y) of the focus detection optical system are set.
Is determined from the above equation (2). Further, in step S103, the vignetting information Ja (x, y) to Jd (x, y) are obtained from the above equation (3). After that, in step S104, light quantity distribution information ka (x, y) to kd (x, y) are obtained from the above equation (4).

【0049】図3(c)は被写体像信号に対する前処理
の手順を示す。
FIG. 3C shows the procedure of the pre-processing for the subject image signal.

【0050】ステップS201では、光量分布情報ka
(x,y)〜kd(x,y)が基準値より小さいか否か
を判定する。光量分布情報が基準値より大きいとこのス
テップS201が否定され、ステップS202におい
て、被写体像信号をSa(x,y)〜Sd(x,y)と
してメモリに記憶する。光量分布情報が基準値未満だと
ステップS201が肯定されてステップS202をジャ
ンプしてステップS203に進む。ステップS203で
は全画素について比較判定が終了したか否かを判定し、
全画素について判定が終了すると図3(c)の手順を終
了する。以上の手順により、光量分布情報ka(x,
y)〜kd(x,y)が基準値より大きい被写体像信号
のみがメモリに記憶される。
In step S201, light amount distribution information ka
It is determined whether (x, y) to kd (x, y) are smaller than a reference value. If the light amount distribution information is larger than the reference value, step S201 is denied, and in step S202, the subject image signal is stored in the memory as Sa (x, y) to Sd (x, y). If the light amount distribution information is less than the reference value, step S201 is affirmed, and step S202 is jumped to step S203. In step S203, it is determined whether the comparison determination has been completed for all pixels,
When the determination is completed for all the pixels, the procedure of FIG. By the above procedure, the light amount distribution information ka (x,
Only the subject image signal in which y) to kd (x, y) are larger than the reference value is stored in the memory.

【0051】図3(d)は焦点検出演算処理のフローチ
ャートである。
FIG. 3D is a flowchart of the focus detection calculation processing.

【0052】ステップS301では、前処理の施された
被写体像信号により周知の相関量演算を(5)式により
行い、相関量C(L)を求める。さらにステップS30
2において、上記(6)式により相関の高いシフト量k
jを演算する。さらにステップS303において、上記
(6)式によりデフォーカス量を求める。
In step S301, a well-known correlation amount calculation is performed by the equation (5) using the preprocessed subject image signal to obtain a correlation amount C (L). Further, step S30
2, the shift amount k having a high correlation according to the above equation (6)
Calculate j. Further, in step S303, the defocus amount is obtained by the above equation (6).

【0053】図3(c)の前処理Iにおいては、光量分
布情報が基準値より大きい被写体像信号のみをメモリに
記憶するようにしたが、図4(a)のようにすべての被
写体像信号に対して光量分布情報ka〜kdにより
(9)式の補正を施してメモリに記憶するようにしても
良い。
In the preprocessing I shown in FIG. 3C, only the subject image signals whose light amount distribution information is larger than the reference value are stored in the memory. However, as shown in FIG. May be corrected based on the light amount distribution information ka to kd and stored in a memory.

【0054】また、図4(b)の前処理手順では、ステ
ップS221で基準値よりも小さい光量分布情報ka〜
kdの有無を判定し、肯定されたときにステップS22
2で第8式による低周波成分除去フィルタ演算を行い、
そのフィルタ演算後の被写体像信号により焦点検出演算
を行う。
In the pre-processing procedure of FIG. 4B, in step S221, the light amount distribution information ka to ka smaller than the reference value is set.
The presence or absence of kd is determined, and if affirmative, step S22
A low-frequency component removal filter operation is performed by Equation 8 in 2 and
Focus detection calculation is performed based on the subject image signal after the filter calculation.

【0055】ここで、焦点検出光学系30の構成は図1
0に示すものでもよいし、図11のような構成でもよ
い。図11に示す焦点検出光学系30は、2次元的な開
口部300Aを有する視野マスク300と、フィールド
レンズ301と、一対の開口部302A,302Bを有
する絞りマスク302と、一対の再結像レンズ303
A、303Bと、2次元的に受光素子を配置した受光部
304A、304Bを有する光電変換素子304とから
構成される。このように構成すれば、画面上での焦点検
出領域(AFエリア)を2次元状に配置できるととも
に、後述するAFエリア選択の結果や視点検知結果に基
づいて焦点検出領域を任意に変更することが可能にな
る。
Here, the configuration of the focus detection optical system 30 is shown in FIG.
0 or a configuration as shown in FIG. The focus detection optical system 30 shown in FIG. 11 includes a field mask 300 having a two-dimensional opening 300A, a field lens 301, an aperture mask 302 having a pair of openings 302A and 302B, and a pair of re-imaging lenses. 303
A and 303B, and a photoelectric conversion element 304 having light receiving sections 304A and 304B in which light receiving elements are arranged two-dimensionally. With this configuration, the focus detection area (AF area) on the screen can be arranged two-dimensionally, and the focus detection area can be arbitrarily changed based on the AF area selection result and the viewpoint detection result described later. Becomes possible.

【0056】また焦点検出光学系30を図12に示すよ
うに構成してもよい。この焦点検出光学系30では、絞
りマスク302をEC(エレクトロクロミック)、LC
(液晶)等の電気的に光透過率を変更可能な物性素子か
ら形成したものである。そして、外部から電気的に選択
することにより、開口部形状を、図11に示す開口部3
02A,302Bと、開口部302A,302Bより外
接円の半径が小さな開口部302A’,302B’とに
選択可能である。このようにすれば、開口部302A,
302Bを用いていてケラレが発生した場合には、開口
部を外接円の半径が小さな開口部302A’,302
B’に切り替え、焦点検出瞳面における焦点検出絞りを
小さくしてケラレが発生しないようにすることができ
る。図12においては、開口部302A’,302B’
の形状を小さくし外接円を小さくするようにしている
が、レフレックスレンズのように射出瞳形状がドーナツ
状になっているレンズに対しては、開口部302A’,
302B’の内接円を大きくし、焦点検出絞りがドーナ
ツ状射出瞳の内側でケラレないようにすればよい。
The focus detection optical system 30 may be configured as shown in FIG. In the focus detection optical system 30, the aperture mask 302 is set to EC (electrochromic), LC
It is formed from a physical element such as (liquid crystal) which can electrically change light transmittance. Then, the shape of the opening portion is electrically selected from the outside, so that the shape of the opening portion 3 shown in FIG.
02A and 302B, and openings 302A 'and 302B' having a smaller circumcircle radius than the openings 302A and 302B. By doing so, the openings 302A,
When vignetting occurs with the use of the 302B, the openings 302A 'and 302 have small circumscribed circle radii.
By switching to B ', the focus detection aperture on the focus detection pupil plane can be reduced to prevent vignetting. In FIG. 12, the openings 302A 'and 302B'
Is made smaller so that the circumscribed circle is made smaller. However, for a lens having an exit pupil shape like a doughnut like a reflex lens, the openings 302A ′,
The inscribed circle of 302B 'may be increased so that the focus detection aperture does not vignet inside the donut-shaped exit pupil.

【0057】あるいは、図13に示すような焦点検出光
学系30を用いることもできる。この焦点検出光学系3
0は、絞りマスク302の構造と再結像レンズの構造が
図12の構成と異なっており、外部から電気的に選択す
ることにより、絞りマスク302の開口部形状を、図1
2に示す開口部302A,302Bとそれと並び方向が
異なる開口部302C,302Dとに選択できる。さら
に、開口部302C,302Dの背後に再結像レンズ3
03C、303Dが設けられている。このように構成す
ることにより、被写体のパターン(縦横)に応じて焦点
検出がやりやすい並び方向の開口部を選択することがで
き、焦点検出精度を向上させることができる。また、光
電変換素子304の受光部304Eが2次元状になって
いるので、開口部302A,302Bおよび再結像レン
ズ303A,303Bを使用する場合と、開口部302
C,302Dおよび再結像レンズ303C,303Dを
使用する場合で光電変換領域を共通化することができ
る。すなわち、再結像レンズ303A,303Bによる
像と再結像レンズ303C,303Dの像は同時には形
成されないので像間のオーバラップの問題がなくなる。
Alternatively, a focus detection optical system 30 as shown in FIG. 13 can be used. This focus detection optical system 3
0 is different from the configuration of FIG. 12 in the structure of the aperture mask 302 and the configuration of the re-imaging lens.
2 can be selected from the openings 302A and 302B shown in FIG. Further, the re-imaging lens 3 is provided behind the openings 302C and 302D.
03C and 303D are provided. With such a configuration, it is possible to select the openings in the arrangement direction in which focus detection can be easily performed according to the pattern (length and width) of the subject, and it is possible to improve focus detection accuracy. Further, since the light receiving portion 304E of the photoelectric conversion element 304 has a two-dimensional shape, when the openings 302A and 302B and the re-imaging lenses 303A and 303B are used,
When the C and 302D and the re-imaging lenses 303C and 303D are used, the photoelectric conversion region can be shared. That is, since the images formed by the re-imaging lenses 303A and 303B and the images formed by the re-imaging lenses 303C and 303D are not formed at the same time, the problem of overlapping between the images is eliminated.

【0058】図13では、開口部302C,302Dの
並び方向が開口部302A,302Bの並び方向と直角
になっているが、もちろんこれ以外の方向でもよい。
In FIG. 13, the direction in which the openings 302C and 302D are arranged is perpendicular to the direction in which the openings 302A and 302B are arranged.

【0059】図12、図13のような構成では開口部の
形状を切り替えるのに物性素子を用いていたが、複数の
開口部を機械的に切り替えるようにしても構わない。
In the configurations shown in FIGS. 12 and 13, a physical element is used to switch the shape of the opening, but a plurality of openings may be mechanically switched.

【0060】次に本発明を一眼レフカメラに適用した場
合の具体的応用例について図20以降の図を用いて説明
する。 <AF検出系制御CPUの動作>AF検出系制御CPU
33は、前記AF絞りの選択を、後述するAF演算CP
U40の指令または独自の判断のもとに行うとともに、
光電変換素子32の電荷蓄積制御、電荷転送等の動作を
周知の制御信号、転送クロック信号を用いて制御し、転
送されてきた被写体像信号をAD変換してメモリ34に
格納する機能を有する。
Next, a specific application example when the present invention is applied to a single-lens reflex camera will be described with reference to FIGS. <Operation of AF detection system control CPU> AF detection system control CPU
Reference numeral 33 denotes the selection of the AF aperture, which is described later in an AF calculation CP.
While under the direction of U40 or under its own judgment,
It has a function of controlling operations such as charge accumulation control and charge transfer of the photoelectric conversion element 32 using a well-known control signal and a transfer clock signal, and AD-converting the transferred subject image signal and storing it in the memory 34.

【0061】図21〜図27を用いてAF検出系制御C
PU33の動作を詳しく説明する。
AF detection system control C using FIGS.
The operation of the PU 33 will be described in detail.

【0062】図21はAF検出系制御CPU33の動作
フローチャートの例であって、ステップS000でそれ
以前に決定されている電荷蓄積時間だけ光電変換素子3
2に電荷蓄積を行う。蓄積が終了するとステップS00
5で光電変換素子32の出力をAD変換したデータのメ
モリ格納領域を示すヘッダを更新する。ステップS01
0では光電変換素子32の出力の転送、AD変換、デー
タの補正、メモリへの格納が1データ毎に行われる。デ
ータ補正には周辺光量補正のための(9)式の演算を行
うことも含む。この場合AF検出系制御CPU33は焦
点検出光学系の情報を内蔵するとともにレンズCPU1
2から撮影光学系の情報を受け取って上記補正演算を行
う。全ての出力転送が終了するとステップS015で最
新データ格納領域のヘッダを現在のデータ格納領域のヘ
ッダに更新し、S020では得られた被写体像データの
ピーク値が所定値となるように次回の蓄積時間を決定
し、ステップS000に戻り以上の一連の動作を繰り返
す。図22は上述の動作を行った場合のメモリ34のデ
ータ格納領域が変化していく様子のイメージ図であっ
て、今回の最新データ格納領域とデータ格納中であるデ
ータ格納領域が図のようになっていると、次回には今回
のデータ格納領域が次回の最新データ格納領域になる。
最新データ格納領域とデータ格納領域のヘッダはメモリ
34に格納されるので、AF演算CPU40は最新デー
タ格納領域のヘッダをメモリ34から読みだして、該領
域のデータを用いて焦点検出演算をすることにより、常
に最新のデータを利用できるとともに、光電変換素子3
2の制御動作と焦点検出演算動作が分離されるので、光
電変換素子32の制御動作と焦点検出演算動作を並行し
て行うことができ時間的な効率即ち焦点検出の応答性が
向上する。
FIG. 21 is an example of an operation flowchart of the AF detection system control CPU 33. In step S000, the photoelectric conversion element 3 is charged for the charge accumulation time determined before that.
2 is charged. When the storage is completed, step S00
In step 5, the header indicating the memory storage area of the data obtained by AD-converting the output of the photoelectric conversion element 32 is updated. Step S01
At 0, the transfer of the output of the photoelectric conversion element 32, AD conversion, data correction, and storage in the memory are performed for each data. The data correction includes performing the calculation of equation (9) for peripheral light amount correction. In this case, the AF detection system control CPU 33 incorporates information of the focus detection optical
The information of the photographing optical system is received from 2 and the above-described correction operation is performed. When all output transfers are completed, the header of the latest data storage area is updated to the header of the current data storage area in step S015, and the next accumulation time is set in step S020 so that the obtained peak value of the subject image data becomes a predetermined value. And returns to step S000 to repeat the above series of operations. FIG. 22 is a conceptual diagram showing how the data storage area of the memory 34 changes when the above-described operation is performed. The latest data storage area of this time and the data storage area in which data is being stored are as shown in the figure. Then, next time, the current data storage area becomes the next latest data storage area.
Since the latest data storage area and the header of the data storage area are stored in the memory 34, the AF calculation CPU 40 reads out the header of the latest data storage area from the memory 34 and performs focus detection calculation using the data in the area. With this, the latest data can always be used and the photoelectric conversion element 3
Since the control operation 2 and the focus detection calculation operation are separated, the control operation of the photoelectric conversion element 32 and the focus detection calculation operation can be performed in parallel, and the time efficiency, that is, the focus detection responsiveness is improved.

【0063】図23(a)は上述の動作を行った場合の
タイムチャートであり、光電変換素子32の電荷蓄積動
作を終了すると即出力の転送動作が開始される。また転
送動作が終了すると即次回の電荷蓄積動作が開始され
る。図23(a)では蓄積動作と転送動作が時間的に分
離しているが、これらの動作を図23(b),(c)の
ように時間的にオーバラップさせることもできる。電荷
蓄積時間と出力の転送時間の大小を比較して、蓄積時間
が転送時間よりも長い場合は、図23(b)に示すよう
に蓄積動作終了後即今回の転送動作を開始するとともに
次回の蓄積動作を開始する。また蓄積時間が転送時間よ
りも短い場合は、図23(c)に示すように蓄積動作終
了後即今回の転送動作を開始するとともに次回の蓄積動
作終了が今回の転送動作終了後即となるようにタイミン
グを合わせて次回の蓄積動作を開始する。このように蓄
積動作と転送動作を時間的にオーバラップさせることに
より時間的な効率即ち焦点検出の応答性を向上させるこ
とができるとともに、2次元の光電変換素子を用いた場
合のデータ数の増加による応答性の低下をも吸収するこ
とができる。
FIG. 23A is a time chart in the case where the above-described operation is performed. When the charge storage operation of the photoelectric conversion element 32 is completed, the transfer operation of the output is started immediately. When the transfer operation is completed, the next charge storage operation is started immediately. In FIG. 23A, the accumulation operation and the transfer operation are temporally separated, but these operations can be overlapped temporally as shown in FIGS. 23B and 23C. The charge accumulation time is compared with the transfer time of the output. If the accumulation time is longer than the transfer time, the current transfer operation is started immediately after the end of the accumulation operation as shown in FIG. Start the accumulation operation. When the accumulation time is shorter than the transfer time, as shown in FIG. 23C, the current transfer operation is started immediately after the end of the accumulation operation, and the end of the next accumulation operation is immediately after the end of the current transfer operation. Next, the next accumulation operation is started. By temporally overlapping the accumulation operation and the transfer operation in this manner, the temporal efficiency, that is, the response of the focus detection can be improved, and the number of data when a two-dimensional photoelectric conversion element is used is increased. Can also absorb a decrease in responsiveness due to

【0064】2次元の光電変換素子を用いた場合のデー
タ数の増加による応答性の低下を吸収するための他の方
策として、図24(a)のような四角な2次元受光部が
あった場合に、受光部をX軸に平行な細長いYB1〜Y
Bnのn個のブロックに分割して各々のブロックに対し
て時間的に分離して蓄積、転送動作を行うようにしても
よい。図24(a)のようにすればX軸方向のデータの
同時性が維持されるので、図15に示す絞りマスクのう
ちX軸方向に並んだ開口部302A,302Bを使用す
る場合にマッチングがよい。一方、図15に示す絞りマ
スクのうちY軸方向に並んだ開口部302C,302D
を使用する場合には、図24(b)に示すように受光部
をX軸に平行な細長いYB1〜YBnのn個のブロック
に分割して、各々のブロックに対して時間的に分離して
蓄積、転送動作を行うようにすれば、Y軸方向のデータ
の同時性が維持されるので都合がよい。
As another measure for absorbing a decrease in responsiveness due to an increase in the number of data when a two-dimensional photoelectric conversion element is used, there is a square two-dimensional light receiving portion as shown in FIG. In such a case, the light receiving section is elongated YB1 to Y parallel to the X axis.
Bn may be divided into n blocks, and each block may be temporally separated and stored and transferred. 24A, the synchronization of data in the X-axis direction is maintained, so that matching is performed when the apertures 302A and 302B of the aperture mask shown in FIG. 15 are arranged in the X-axis direction. Good. On the other hand, the openings 302C and 302D of the aperture mask shown in FIG.
Is used, as shown in FIG. 24B, the light receiving unit is divided into n long and narrow blocks YB1 to YBn parallel to the X axis, and each block is temporally separated. Performing the accumulation and transfer operations is convenient because the data synchronization in the Y-axis direction is maintained.

【0065】また高輝度で光源の変動(フリッカー)が
問題(蓄積動作を光源変動周期のどの時点で行うかによ
って同じ蓄積時間でも出力が異なる)となるような場合
には、図23(d)のように蓄積動作を複数回に分割し
て光源の変動(フリッカー)周期中に複数回に渡って蓄
積動作を行い、光源変動による影響を軽減することがで
きる。
In the case where the fluctuation of the light source (flicker) causes a problem at high luminance (the output differs even at the same accumulation time depending on when the accumulation operation is performed in the light source fluctuation cycle), FIG. As described above, the accumulation operation is divided into a plurality of times, and the accumulation operation is performed a plurality of times during the fluctuation (flicker) period of the light source, so that the influence of the light source fluctuation can be reduced.

【0066】また周辺光量が図8(b)、図9のごとく
落ちていた場合には、焦点検出演算に使用する被写体像
の領域の部分のみ通常の転送動作を行い、使用しない部
分については通常よりも高速な転送を行って転送時間を
稼ぐこともできる。例えば図15に示す絞りマスクのう
ちX軸方向に並んだ開口部302A,302BまたはY
軸方向に並んだ開口部302C,302Dを使用した際
に焦点検出演算に使用可能なデータが図25(a)及び
(b)で示す受光部上で破線内部であった場合は、破線
内部に相当する出力のみ通常の転送動作を行い、他の部
分に相当する出力は高速転送動作を行いAD変換及びメ
モリ格納は行わない。通常の転送動作を行ってメモリに
格納されたデータと受光部上での領域との対応に関する
情報もメモリに格納され、AF演算CPU40の焦点検
出演算の際に利用される。
When the amount of peripheral light has fallen as shown in FIGS. 8B and 9, the normal transfer operation is performed only for the portion of the subject image used for the focus detection calculation, and the normal transfer operation is performed for the portion not used. It is also possible to increase the transfer time by performing faster transfer. For example, in the aperture mask shown in FIG. 15, the openings 302A, 302B or Y arranged in the X-axis direction.
When the data that can be used for the focus detection calculation when the openings 302C and 302D arranged in the axial direction are used are inside the broken line on the light receiving unit shown in FIGS. Only the corresponding output performs the normal transfer operation, and the outputs corresponding to the other portions perform the high-speed transfer operation and do not perform AD conversion and memory storage. Information on the correspondence between the data stored in the memory by performing the normal transfer operation and the area on the light receiving unit is also stored in the memory, and is used when the AF calculation CPU 40 performs the focus detection calculation.

【0067】また2次元イメージセンサーを光電変換素
子32として使用する場合には、信号量が膨大になり信
号転送およびAD変換だけでかなりの時間を消費するこ
とになるので、低輝度でセンサーの電荷蓄積時間が長く
なった場合にはイメージセンサの蓄積動作と読み出し動
作が所定時間内に納まらなくなり応答性が低下してしま
う。このような事態を回避するために、低輝度時はイメ
ージセンサーの全出力のうち焦点検出には1部分のみを
用いるようにして、使用部分のイメージセンサー出力の
転送,AD変換のみを通常の動作速度で行い、他の未使
用部分の出力については転送速度を高速にして転送する
とともにAD変換も行わないようにしたり、あるいはイ
メージセンサーの使用部分のみの出力が取り出せるよう
にして、蓄積動作と読み出し動作の和が所定時間内に納
まるようにする。上記低輝度の焦点検出に用いる部分は
画面中央部分にするのが望ましい。
When a two-dimensional image sensor is used as the photoelectric conversion element 32, the signal amount becomes enormous, and a considerable amount of time is consumed only by signal transfer and AD conversion. If the accumulation time becomes long, the accumulation operation and the read operation of the image sensor do not fall within a predetermined time, and the responsiveness is reduced. In order to avoid such a situation, only one portion of the entire output of the image sensor is used for focus detection at the time of low luminance, and only the transfer of the image sensor output of the used portion and the AD conversion are performed in a normal operation. The transfer operation is performed at a high speed, and the output of other unused parts is transferred at a high transfer rate so that the A / D conversion is not performed, or the output of only the used parts of the image sensor can be taken out, and the accumulation operation and readout are performed. The sum of the operations is set to fall within a predetermined time. It is desirable that the portion used for the low-luminance focus detection be the center portion of the screen.

【0068】上記説明では、光電変換素子32の電荷蓄
積時間は被写体像信号データのピーク値が所定値になる
ように決定していたが、このように被写体像データで次
回の蓄積時間を決めると蛍光灯のように強度が周期的に
変動する光源で被写体が照明されている場合には発振す
る恐れがあった。光電変換素子の受光部の近くにモニタ
素子を設け被写体像強度の平均値を実時間でモニタし
て、モニタ信号が所定値となった時に受光部の電荷蓄積
を終了させることもできるが、黒地に白線のような被写
体ではピーク値がAD変換の範囲を越えてしまう場合が
あった。
In the above description, the charge accumulation time of the photoelectric conversion element 32 is determined so that the peak value of the subject image signal data becomes a predetermined value. When a subject is illuminated by a light source whose intensity varies periodically, such as a fluorescent lamp, oscillation may occur. It is also possible to provide a monitor element near the light receiving section of the photoelectric conversion element and monitor the average value of the image intensity of the object in real time, and terminate the charge accumulation in the light receiving section when the monitor signal reaches a predetermined value. In some cases, such as a white line, the peak value may exceed the range of AD conversion.

【0069】図26、図27にそのような問題点を解決
した蓄積時間制御方法を示す。
FIGS. 26 and 27 show an accumulation time control method which solves such a problem.

【0070】図26において、蓄積開始と同時にモニタ
信号をVRにリセットし、モニタ信号は被写体像輝度の
平均値に応じて増加していき、リセットされてから時間
Tmで所定値Vsに達する。AF検出系制御CPU33
は、図27に示す前回の被写体像データのピーク値PE
AKと、平均値AVと、モニタ時間Tmlと、前回蓄積
時間Tilと、目標ピーク値と、今回のモニタ時間Tm
と、所定値K1とから次式のごとく今回の蓄積時間Ti
を決定し、蓄積開始から時間Ti後に蓄積を終了させ
る。
In FIG. 26, the monitor signal is reset to VR simultaneously with the start of accumulation, and the monitor signal increases according to the average value of the luminance of the subject image, and reaches the predetermined value Vs at time Tm after the reset. AF detection system control CPU 33
Is the peak value PE of the previous subject image data shown in FIG.
AK, average value AV, monitor time Tml, previous accumulation time Til, target peak value, and current monitor time Tm
And the predetermined value K1, the current storage time Ti
Is determined, and the accumulation is ended after the time Ti from the start of the accumulation.

【0071】またAF検出系制御CPU33は、焦点検
出光学系の情報及びレンズCPU12からの撮影光学系
の情報に基づき周辺光量が低下していると判断した場
合、またはAF演算CPU40の要求があった場合(例
えば焦点検出不能時に検出可能なデフォーカス量の範囲
を拡大するため)には、図14に示す絞りマスク開口部
302A,302Bをケラレの発生しにくい開口部30
2A’、302B’に切り替えることもできる。さら
に、AF演算CPU40の要求(例えば縦パターンがな
くて横方向では焦点検出不能な場合)あるいは後述する
AFエリア選択手段66による縦横選択(図10に示す
横方向受光部304A、304Bと縦方向受光部304
C,304Dのうちどちらを焦点検出に用いるかを選択
する)あるいはボディ姿勢検出手段69の縦横姿勢検出
結果に応じて、図15の絞りマスクの開口部302A,
302Bを開口部302C,302Dに切り替えること
もできる。また絞りマスクを切り替えた場合の情報はA
F演算CPU40に送られそれに応じた処理が行われ
る。 <AF演算CPUの動作>図20において、AF演算C
PU40はメモリ34に格納された被写体像データに基
づき周知の焦点検出演算を行い、撮影光学系のデフォー
カス量を算出する機能を有する。例えば焦点検出光学系
として図10のようなものを採用した場合には、本出願
人による特願昭63ー331748号に開示したよう
に、焦点検出エリアを複数のブロックに分割して各々に
ついて焦点検出演算を行い、算出された複数のデフォー
カス量から種々の方針に従って最適なデフォーカス量を
選択する。AF演算CPU40で行われる焦点検出演算
の動作は、図28の動作フローチャートに示すように、
大きく分けるとステップS030のデータ補正・変換
と、ステップ035の焦点検出エリア選択と、ステップ
S040のブロック分割と、ステップS045のブロッ
ク毎のデフォーカス量算出と、S050の最終デフォー
カス量選択となり、AF演算CPU40で以上の動作を
繰り返している。以下各ステップでの動作を詳しく述べ
る。
When the AF detection system control CPU 33 determines that the amount of peripheral light has decreased based on the information on the focus detection optical system and the information on the photographing optical system from the lens CPU 12, or there has been a request from the AF calculation CPU 40. In the case (for example, to expand the range of the defocus amount that can be detected when the focus cannot be detected), the aperture mask openings 302A and 302B shown in FIG.
2A 'and 302B' can also be switched. Further, a request from the AF calculation CPU 40 (for example, when the focus cannot be detected in the horizontal direction because there is no vertical pattern) or a vertical / horizontal selection by the AF area selecting means 66 described later (the horizontal light receiving units 304A and 304B shown in FIG. Part 304
C or 304D is selected for focus detection) or the aperture mask openings 302A, 302A,
The opening 302B can be switched to the openings 302C and 302D. The information when the aperture mask is switched is A
The data is sent to the F calculation CPU 40, and the corresponding processing is performed. <Operation of AF Calculation CPU> In FIG.
The PU 40 has a function of performing a well-known focus detection calculation based on subject image data stored in the memory 34 and calculating a defocus amount of the photographing optical system. For example, when a focus detection optical system as shown in FIG. 10 is employed, as disclosed in Japanese Patent Application No. 63-331748 filed by the present applicant, the focus detection area is divided into a plurality of blocks and each of the focus detection areas is focused. A detection calculation is performed, and an optimum defocus amount is selected from the calculated plurality of defocus amounts according to various policies. The operation of the focus detection calculation performed by the AF calculation CPU 40 is as shown in the operation flowchart of FIG.
This is roughly divided into data correction / conversion in step S030, focus detection area selection in step 035, block division in step S040, defocus amount calculation for each block in step S045, and final defocus amount selection in S050. The above operation is repeated by the arithmetic CPU 40. Hereinafter, the operation in each step will be described in detail.

【0072】データ補正・変換のステップには周辺光量
補正のための(9)式の演算を行うことも含まれる。こ
の場合AF演算CPU40は、焦点検出光学系の情報を
内蔵またはAF焦点検出系制御CPU33から受け取る
とともに、レンズCPU12から撮影光学系の情報を受
け取って光量分布情報を求め、上記補正演算(9)式を
行う。
The data correction / conversion step includes calculating the expression (9) for correcting the peripheral light amount. In this case, the AF calculation CPU 40 receives the information of the focus detection optical system from the built-in or AF focus detection system control CPU 33, receives the information of the photographing optical system from the lens CPU 12, obtains the light amount distribution information, and obtains the correction calculation (9). I do.

【0073】また得られた光量分布情報により光量低下
が著しいと判定された場合には、(8)式のような低周
波成分除去フィルタ演算によってデータ変換を行う。
(8)式のような低周波成分除去フィルタ演算によるデ
ータ変換を、被写体コントラストを検出して高周波成分
を多く含む被写体についてのみ行うようにしてもよい。
例えば図31(a)、(b)のような像信号が得られた
場合、像信号を複数のブロックに分割して各々のブロッ
ク内で(11)式のようなコントラスト(=CON)検
出演算を行い、すべてのブロックで所定値のコントラス
トが得られない場合は低周波被写体と判定して、(8)
式のデータ変換を行わず、1つ以上のブロックで所定値
以上のコントラストが得られたら(8)式のデータ変換
を行うようにする。 CON=Σ|ai−a(i+1)| …(11)
If it is determined from the obtained light amount distribution information that the light amount is significantly reduced, data conversion is performed by a low-frequency component removal filter operation as shown in equation (8).
The data conversion by the low-frequency component removal filter operation as in the equation (8) may be performed only for a subject containing a large amount of high-frequency components by detecting the subject contrast.
For example, when an image signal as shown in FIGS. 31A and 31B is obtained, the image signal is divided into a plurality of blocks, and a contrast (= CON) detection operation as shown in Expression (11) is performed in each block. Is performed, and if a predetermined value of contrast cannot be obtained in all blocks, it is determined that the object is a low-frequency object, and (8)
When the contrast of a predetermined value or more is obtained in one or more blocks without performing the data conversion of the equation, the data conversion of the equation (8) is performed. CON = Σ | ai−a (i + 1) | (11)

【0074】このように被写体像のコントラストに応じ
て、フィルタによるデータ変換の有無を決定すれば低周
波成分を多く含む被写体に対しては、低周波をフィルタ
しないで焦点検出演算することができるので焦点検出精
度が向上する。
As described above, if the data conversion by the filter is determined according to the contrast of the subject image, the focus detection operation can be performed without filtering the low frequency for the subject including many low frequency components. The focus detection accuracy is improved.

【0075】焦点検出エリア選択のステップでは、例え
ば図29(a)に示すごとく画面中で焦点検出を行うエ
リアとして画面中央スポットエリア(狭い)とワイドエ
リア(広い)が設定されている場合、これらのエリアを
なんらかの方法で切り替える。焦点検出エリアを図29
(b)のように画面任意の位置のエリア(複数でもよ
い)にマニュアル(AFエリア選択手段66)または視
点検知手段68によって設定するようにしてもよい。
In the step of selecting the focus detection area, for example, as shown in FIG. 29A, when the center spot area (narrow) and the wide area (wide) of the screen are set as the areas for focus detection in the screen, Switch the area in some way. FIG. 29 shows the focus detection area.
As shown in (b), an area (a plurality of areas) at an arbitrary position on the screen may be set manually (the AF area selecting means 66) or the viewpoint detecting means 68.

【0076】図30(a),(b)に視点検知手段68
の構成例を示す。赤外光面発光素子683はハーフミラ
−681、レンズ680、接眼レンズ25中に設置され
た赤外光反射ダイクロイックミラー682を介し、ファ
インダ観察者の目685に投影される。このような光学
系において、赤外光面発光素子683の発光面がファイ
ンダ画面と形状・位置が重なるように上記光学部材の形
状及び位置が設定されている。観察者の目685に投影
された赤外光は網膜686で反射され再び接眼レンズ2
5に戻り、出射する時とは逆の経路をたどり、赤外光反
射ダイクロイックミラー682で反射され、レンズ68
0、ハーフミラ−681を通過して面受光素子684で
受光される。上記構成において注視点方向の反射効率が
他の方向よりも高いので、観察者がファインダスクリー
ン上で注視しているエリア(注視点)に対応する面受光
素子684上のエリアでの受光量が他のエリアよりも大
きくなる。ファインダからの赤外光の影響を除去するた
めに面発光素子683の発光時と非発光時の面受光素子
684の受光量分布の差(図30(b)に示す)を取
り、該分布の最大受光量を示すエリア位置により注視点
を検知する。
FIGS. 30A and 30B show the viewpoint detecting means 68.
An example of the configuration will be described. The infrared light surface emitting element 683 is projected to a finder observer's eye 685 via a half mirror 681, a lens 680, and an infrared light reflecting dichroic mirror 682 installed in the eyepiece 25. In such an optical system, the shape and position of the optical member are set such that the light emitting surface of the infrared light emitting element 683 overlaps the shape and position with the viewfinder screen. The infrared light projected on the eyes 685 of the observer is reflected by the retina 686 and is again reflected on the eyepiece 2.
5 and follows a path reverse to that when the light is emitted, is reflected by the infrared light reflecting dichroic mirror 682 and is
0, the light passes through the half mirror 681 and is received by the surface light receiving element 684. In the above configuration, since the reflection efficiency in the gazing point direction is higher than in other directions, the amount of light received in the area on the surface light receiving element 684 corresponding to the area (gazing point) on which the observer is gazing on the finder screen is different. Area. In order to remove the influence of infrared light from the finder, the difference (shown in FIG. 30B) between the light receiving amount distribution of the surface light receiving element 684 when the surface light emitting element 683 emits light and when it does not emit light is calculated. The gazing point is detected based on the area position indicating the maximum amount of received light.

【0077】視点検知の結果に応じて、前述のように焦
点検出エリアを選択するようにしてもよいし、スポット
測光を行うエリアを選択するようにしてもよい。また上
記構成において、面受光素子684としてCCDの2次
元センサを用いてもよいし、受光量の重心位置を検出す
るポジションセンサをもちいてもよい。面発光素子68
3の代わりに2次元でビーム走査をおこなってもよい。
また上記注視点の検知の際には、観察者のまばたきで誤
検出する可能性があるので、総受光量の変動を見て受光
量が低下した場合には、そのときの受光量データは注視
点検知には用いないようにするとともに、まばたきや一
瞬の注視点の変動等の不安定要素に追従しないように、
統計処理等を用いて注視点検知の時間的応答性を落とし
て安定性を向上させる。
According to the result of the viewpoint detection, the focus detection area may be selected as described above, or the area for spot photometry may be selected. In the above configuration, a two-dimensional CCD sensor may be used as the surface light receiving element 684, or a position sensor that detects the position of the center of gravity of the amount of received light may be used. Surface emitting element 68
Instead of 3, beam scanning may be performed in two dimensions.
In addition, when detecting the above-mentioned point of gaze, there is a possibility of erroneous detection due to blinking of the observer. Do not use it for viewpoint detection, and do not follow unstable factors such as blinking or momentary changes in the gazing point.
Stability is improved by lowering the temporal response of gaze point detection by using statistical processing or the like.

【0078】図28のステップS040のブロック分割
のステップでは、前ステップで選択された焦点検出エリ
ア内を被写体パターンに応じて複数のブロックに分割す
る。例えば図31(a)、(b)のような像信号が得ら
れた場合、像信号を複数のブロックに分割して各々のブ
ロック内で(11)式のようなコントラスト(=CO
N)検出演算を行い、すべてのブロックで所定値のコン
トラストが得られない場合は低周波被写体と判定して、
図31(c)のように焦点検出エリア内の少数のブロッ
クに分割し(図において破線部がブロック境界)、1つ
以上のブロックで所定値以上のコントラストが得られた
ら図31(d)のように多数のブロックに分割する。
In the block division step of step S040 in FIG. 28, the inside of the focus detection area selected in the previous step is divided into a plurality of blocks according to the subject pattern. For example, when image signals as shown in FIGS. 31A and 31B are obtained, the image signal is divided into a plurality of blocks, and a contrast (= CO
N) Perform a detection operation, and if a predetermined value of contrast cannot be obtained in all blocks, the block is determined to be a low-frequency subject,
As shown in FIG. 31 (c), the focus detection area is divided into a small number of blocks (broken lines in FIG. 31 indicate block boundaries). If a contrast equal to or more than a predetermined value is obtained in one or more blocks, FIG. Divided into many blocks.

【0079】ステップS045のブロック毎のデフォー
カス量の算出のステップでは、公知の焦点検出演算を前
ステップで分割された各々のブロックについて適用すれ
ばよい。このようにして複数のブロック毎にデフォーカ
ス量を求めることができる。
In the step of calculating the defocus amount for each block in step S045, a known focus detection operation may be applied to each of the blocks divided in the previous step. In this way, the defocus amount can be obtained for each of a plurality of blocks.

【0080】ステップS050のデフォーカス量の補正
のステップでは、撮影光学系の光学的収差に基づく補正
をブロック位置に応じてデフォーカス量に加える。例え
ば、像面湾曲収差の情報が画面上の中心からの距離dの
関数S(d)として(12)式中の係数M2、M4、・
・・ような形でレンズCPU12から送られてきた場
合、ブロックの中心位置の画面中心からの距離dcを
(12)式に代入すればそのブロックのデフォーカス量
に対する補正量を求めることができる。 S(d)=M2×d2+M4×d4+・・・ …(12)
In the step of correcting the defocus amount in step S050, the correction based on the optical aberration of the photographing optical system is added to the defocus amount according to the block position. For example, when the information of the field curvature aberration is a function S (d) of the distance d from the center on the screen, the coefficients M2, M4,.
.. When the lens CPU 12 is sent in such a manner, the correction amount for the defocus amount of the block can be obtained by substituting the distance dc of the center position of the block from the screen center into the equation (12). S (d) = M2 × d 2 + M4 × d 4 +... (12)

【0081】その他の収差の補正についても同様にして
行うことができる。
The other aberrations can be corrected in the same manner.

【0082】ステップS055の最終デフォーカス量の
選択のステップでは、以上のようにして求められた複数
のデフォーカス量から所定の基準(アルゴリズム)に従
って1つのデフォーカス量が算出される。例えば、選択
アルゴリズムが中央優先の場合は、画面中心に一番近く
かつ検出不能でないブロックのデフォーカス量が選ばれ
る。また至近優先の場合は算出されたデフォーカス量の
うち最も近距離を示すもの、遠距離優先の場合は算出さ
れたデフォーカス量のうち最も遠距離を示すもの、平均
優先の場合は算出されたデフォーカス量のうち平均また
は信頼性を重みとした重み付け平均が、さらに現状優先
では算出されたデフォーカス量のうち最も絶対値の小さ
いものが選ばれる。
In the step of selecting the final defocus amount in step S055, one defocus amount is calculated according to a predetermined reference (algorithm) from the plurality of defocus amounts obtained as described above. For example, when the selection algorithm is center-priority, the defocus amount of the block that is closest to the center of the screen and that is not detectable is selected. In the case of closest priority, the calculated defocus amount indicates the shortest distance, in the case of long distance priority, the calculated defocus amount indicates the longest distance, and in the case of average priority, the calculated defocus amount is calculated. Among the defocus amounts, an average or a weighted average using the reliability as a weight is selected, and in the current priority, the calculated defocus amount having the smallest absolute value is selected.

【0083】以上の各ステップの動作を経て最終的に1
つのデフォーカス量が算出されることになる。次に焦点
検出エリアの決定、最終デフォーカス量の選択ステップ
におけるエリア選択とアルゴリズム選択のバリエーショ
ンについて詳しく述べる。
After the operation of each of the above steps,
One defocus amount is calculated. Next, variations of area selection and algorithm selection in the step of determining the focus detection area and selecting the final defocus amount will be described in detail.

【0084】まずエリア選択をマニュアルで行う場合、
カメラボデイにAFエリア選択手段66を設け、これを
操作することにより図50のごとくAFエリアを選択す
ることができる。
First, when the area is selected manually,
An AF area selecting means 66 is provided on the camera body, and by operating the AF area selecting means 66, an AF area can be selected as shown in FIG.

【0085】図50において、視点検知は前述の視点検
知手段68の結果に基づいたエリア、中央スポットは図
29(a)の画面中央のスポットエリア、選択スポット
は図29(b)の画面中任意に選択されたスポットエリ
ア、ワイドは図29(a)に示すワイドエリア、横及び
縦は図10の焦点検出光学系を用いた場合の画面横方向
受光部304A,Bに対応するエリア及び画面横方向受
光部304C,Dに対応するエリアを選択することを示
している。また、中央スポット→ワイドは、一旦合焦す
る前は中央スポットで合焦後はAFエリアがワイドエリ
アになるモードである。このようにAFエリアをマニュ
アルで選択可能にすることによって、被写体に最適なエ
リアを撮影者が自ら選択することができる。
In FIG. 50, the viewpoint is detected based on the result of the viewpoint detecting means 68, the center spot is the spot area at the center of the screen of FIG. 29 (a), and the selected spot is arbitrary in the screen of FIG. 29 (b). The wide area is the wide area shown in FIG. 29A, and the horizontal and vertical areas are the areas corresponding to the screen horizontal direction light receiving units 304A and 304B when the focus detection optical system shown in FIG. This indicates that an area corresponding to the direction light receiving units 304C and 304D is selected. The center spot → wide mode is a mode in which the focus is once at the center spot and the AF area is a wide area after focusing. By allowing the AF area to be manually selected in this manner, the photographer can himself select the optimum area for the subject.

【0086】AFエリアの選択に連動して図50の右欄
のごとくアルゴリズムを切り替えてもよい。AFエリア
選択が視点検知モードまたは選択スポットモードではA
Fエリアが複数設定される場合があるので、アルゴリズ
ムを平均優先モードにすることにより複数被写体のどれ
にもピントが大体合うようにすることができる。また、
AFエリア選択が中央スポットモードではAFエリアが
中央に設定されるので、アルゴリズムを中央優先モード
にすることにより画面中央の被写体にピントを合わせる
ことができる。さらにAFエリア選択が中央スポット→
ワイドモード、ワイドモード、横モードではAFエリア
が広いので、アルゴリズムを至近優先→現状優先モード
にすることにより、合焦までは至近優先で至近被写体に
ピントを合わせ、合焦後は現状優先で至近に邪魔な物体
が入ってレンズを駆動してしまうようなことがないよう
に安定性を高めることができる。さらにまた、AFエリ
ア選択が縦モードではAFエリアが比較的狭く邪魔な被
写体が入る可能性が少ないので、アルゴリズムを至近優
先モードにすることにより常に最至近の被写体にピント
を合わせることができる。
The algorithm may be switched as shown in the right column of FIG. 50 in conjunction with the selection of the AF area. When the AF area is selected in the viewpoint detection mode or the selected spot mode, A
Since a plurality of F areas may be set, by setting the algorithm to the average priority mode, it is possible to roughly focus on any of the plurality of subjects. Also,
When the AF area is selected in the center spot mode, the AF area is set at the center. By setting the algorithm to the center priority mode, the subject at the center of the screen can be focused. Furthermore, AF area selection is center spot →
Since the AF area is wide in the wide mode, wide mode, and horizontal mode, the algorithm is set to the closest priority → the current priority mode to focus on the closest subject with the closest priority until focusing, and the current priority is closest after focusing. The stability can be increased so that an object that is not in the way enters the lens and drives the lens. Furthermore, when the AF area is selected in the vertical mode, the AF area is relatively narrow, and there is little possibility that a disturbing subject enters. Therefore, by setting the algorithm to the closest priority mode, it is possible to always focus on the closest subject.

【0087】アルゴリズム選択をマニュアルで行う場
合、カメラボデイにAF被写体選択手段67を設け、こ
れを操作することにより図51のごとくアルゴリズムを
選択することができる。
When the algorithm is selected manually, an AF object selecting means 67 is provided in the camera body, and by operating this, the algorithm can be selected as shown in FIG.

【0088】図51において、中央優先→現状優先は合
焦前は中央優先、合焦後は現状優先となり、至近優先→
現状優先は合焦前は至近優先、合焦後は現状優先となる
ことを表す。このようにアルゴリズムをマニュアルで選
択可能にすることによって、被写体に最適なアルゴリズ
ムを撮影者が自ら選択することができる。
In FIG. 51, the center priority → the current status priority is the center priority before focusing, the current status priority after focusing, and the closest priority →
The current priority indicates that prior to focusing, the closest priority is given, and after focusing, the current priority is given. In this way, by allowing the algorithm to be manually selected, the photographer can himself select the most appropriate algorithm for the subject.

【0089】また、アルゴリズムの選択に連動して図5
1の中央欄のごとくAFエリアを切り替えてもよい。ア
ルゴリズム選択が中央優先モードまたは至近優先モード
ではAFエリアを小さくしたほうが相性がよいので、A
Fエリアを中央スポットにする。アルゴリズム選択が平
均優先モードまたは遠距離優先モードまたは至近優先→
現状優先ではAFエリアを大きくしたほうが相性がよい
ので、AFエリアをワイドにする。アルゴリズム選択が
中央優先→現状優先ではAFエリアを合焦前は中央スポ
ットで小さくしておき、合焦後はワイドにして安定性を
高めたほうが相性がよいので、AFエリアを中央スポッ
ト→ワイドにする。
Further, in conjunction with the selection of the algorithm, FIG.
The AF area may be switched as in the center column of No. 1. When the algorithm selection is in the center priority mode or the close priority mode, it is better to make the AF area smaller so that A
Make area F a central spot. Algorithm selection is average priority mode, long distance priority mode or close priority →
In the current priority, it is better to make the AF area larger, so the AF area is made wider. When the algorithm selection is center priority → current priority, it is better to make the AF area smaller at the center spot before focusing and widen it after focusing to improve stability. I do.

【0090】次に、AFエリア選択、アルゴリズム選択
を専用の選択手段で選択するのではなく、カメラの他の
動作の選択・切り替えに用いられる選択手段の操作に連
動して選択する例について述べる。
Next, an example will be described in which AF area selection and algorithm selection are not selected by dedicated selection means but are selected in conjunction with the operation of the selection means used to select and switch other operations of the camera.

【0091】測光モードを、測光モード選択手段71に
より図52の左欄のごとく中央スポット(画面中央部の
比較的狭い領域による測光モード)、選択スポット(画
面任意部の比較的狭い領域による測光モード)、部分
(画面中央部のスポットより広い領域による測光モー
ド)、中央重点(画面全体領域で中央部を重視した測光
モード)、マルチ(画面全体を複数の領域に分割する測
光モード)に選択した場合には、それに連動してAFエ
リアを中央欄、アルゴリズムを右欄のごとく選択する。
測光モードが中央スポットの場合は画面中央が重視され
ているので、AFエリアも中央スポットにしアルゴリズ
ムも中央優先にする。測光モードが選択スポットの場合
は画面複数カ所が選択されるので、AFエリアも測光に
あわせて選択スポットにしアルゴリズムは至近優先にす
る。測光モードが部分または中央重点の場合は比較的広
い領域が選択されるので、AFエリアも中央スポット→
ワイドにしアルゴリズムも中央優先→現状優先にする。
測光モードがマルチの場合は画面全体が測光されるの
で、AFエリアもワイドにしアルゴリズムも至近優先→
現状優先にする。このようにすれば、AFエリアと測光
エリアとの対応が取れるとともにAFの安定性や被写体
の選択性も向上する。
As shown in the left column of FIG. 52, the photometric mode is selected from the central spot (a photometric mode based on a relatively narrow area at the center of the screen) and the selected spot (a photometric mode based on a relatively narrow area at an arbitrary area on the screen). ), Part (metering mode with area wider than spot in center of screen), center-weighted (metering mode with emphasis on center in entire screen area), and multi (metering mode that divides entire screen into multiple areas) In this case, the AF area is selected in the center column and the algorithm is selected in the right column in conjunction with the selection.
When the metering mode is the center spot, the center of the screen is emphasized. Therefore, the AF area is set to the center spot, and the algorithm is set to the center priority. When the photometry mode is the selected spot, a plurality of locations on the screen are selected. Therefore, the AF area is also set to the selected spot in accordance with the photometry, and the algorithm is given the closest priority. If the metering mode is partial or center-weighted, a relatively large area is selected, so the AF area is also a center spot.
Widen and the algorithm is given priority from the center → current priority.
When the metering mode is multi, the entire screen is metered, so the AF area is also wide and the algorithm has the closest priority. →
Give priority to the current situation. In this way, the correspondence between the AF area and the photometry area can be obtained, and the stability of AF and the selectivity of the subject can be improved.

【0092】AEモードを、AEモード選択手段70に
より図53の左欄のごとく絞り優先、シャッタ速度優
先、プログラムに選択した場合には、それに連動してA
Fエリアを中央欄、アルゴリズムを右欄のごとく選択す
る。AEモードが絞り優先の場合は画面中央の静止した
被写体を撮影する場合が多いので、AFエリアも中央ス
ポット→ワイドにしアルゴリズムも中央優先→現状優先
にし被写体の選択性を向上させる。AEモードがシャッ
タ速度優先の場合は移動被写体を撮影する場合が多いの
で、AFエリアもワイドにしアルゴリズムも至近優先に
し被写体の捕捉性を向上させる。AEモードがプログラ
ムの場合は初心者が撮影する場合やスナップ撮影する場
合が多いので、AFエリアもワイドにしアルゴリズムも
至近優先→現状優先にして、被写体の捕捉性と安定性を
向上させる。このようにすれば、被写体種類に対応させ
てAEモードの選択すれだけで、被写体種類に最適なA
Fエリアとアルゴリズムを選択することができる。
When the AE mode is selected by the AE mode selection means 70 as aperture priority, shutter speed priority, or program as shown in the left column of FIG.
Select the F area as shown in the center column and the algorithm as shown in the right column. When the AE mode is aperture-priority, a stationary subject at the center of the screen is often photographed. Therefore, the AF area is also changed from the center spot to the wide area, and the algorithm is also changed from the center-priority to the current state to improve the object selectivity. When the AE mode is prioritizing the shutter speed, the moving subject is often photographed. Therefore, the AF area is widened, and the algorithm is prioritized to the closest, thereby improving the capturing performance of the subject. When the AE mode is a program, beginners often take pictures or take snapshots. Therefore, the AF area is widened, and the algorithm is given priority from the closest to the current state to improve the capturing performance and stability of the subject. In this way, the optimum A / A mode for the subject type can be obtained simply by selecting the AE mode corresponding to the subject type.
F area and algorithm can be selected.

【0093】巻き上げモードを、巻き上げモード選択手
段65により図54の左欄のごとくシングル(1枚取
り)、連続高速、連続低速、セルフ(セルフタイマ)に
選択した場合には、それに連動してAFエリアを中央
欄、アルゴリズムを右欄のごとく選択する。巻き上げモ
ードがシングルの場合は画面中央の静止した被写体を撮
影する場合が多いので、AFエリアも中央スポットにし
アルゴリズムも中央優先にして、被写体の選択性を向上
させる。巻き上げモードが連続高速の場合は移動被写体
を撮影する場合が多いので、AFエリアもワイドにしア
ルゴリズムも至近優先→現状優先にして、被写体の捕捉
性とAFの安定性を向上させる。巻き上げモードが連続
低速の場合はシングルと連続高速の中間なので、AFエ
リアも中央スポット→ワイドにしアルゴリズムも至近優
先→現状優先にして、被写体の捕捉性と選択性を調和さ
せる。巻き上げモードがセルフの場合は主要被写体が画
面のどこに入るかわからないので、AFエリアをワイド
にしアルゴリズムも至近優先にして、被写体の捕捉性を
向上させる。このようにすれば、撮影状況に応じて巻き
上げモードを選択するだけで、該撮影状況に最適なAF
エリアとアルゴリズムを選択することができる。
When the winding mode is selected by the winding mode selection means 65 as single (single-sheet taking), continuous high speed, continuous low speed, or self (self-timer) as shown in the left column of FIG. Select the area as the center column and the algorithm as the right column. When the winding mode is single, a still subject in the center of the screen is often photographed. Therefore, the AF area is set to the center spot, and the algorithm is given priority to the center to improve the selectivity of the subject. When the winding mode is continuous high speed, a moving subject is often photographed. Therefore, the AF area is widened, and the algorithm is given priority from the closest to the current state, so that the subject capturing performance and the AF stability are improved. When the winding mode is continuous low speed, the AF area is intermediate between single and continuous high speed. Therefore, the AF area is set to the center spot → wide, and the algorithm is set to the closest priority → the current priority, thereby harmonizing the capturing property and the selectivity of the subject. When the winding mode is the self mode, it is not known where the main subject enters the screen, so that the AF area is widened and the algorithm is given the closest priority to improve the capturing performance of the subject. With this configuration, the optimum AF mode for the shooting situation can be obtained simply by selecting the winding mode according to the shooting situation.
Area and algorithm can be selected.

【0094】撮影モードを、撮影モード選択手段64に
より図55の左欄のごとくスポーツ、ポートレート、ス
ナップ、風景、接写モードに選択した場合には、それに
連動してAFエリアを中央欄、アルゴリズムを右欄のご
とく選択する。撮影モード選択により、各々のモードに
最適な測光モード、AEモード、巻き上げモード、フォ
ーカスモードが自動的に選択されるようになっている。
撮影モードがスポーツの場合は動きのある被写体を撮影
する場合が多いので、AFエリアもワイドにしアルゴリ
ズムも至近優先→現状優先にして、被写体の捕捉性を向
上させる。撮影モードがポートレートの場合は静止被写
体を撮影する場合が多いので、AFエリアも中央スポッ
トにしアルゴリズムも至近優先にして、被写体の選択性
を向上させる。撮影モードがスナップの場合は被写体が
中央に来るとは限らないので、AFエリアもワイドにし
アルゴリズムも至近優先→現状優先にして、被写体の捕
捉性とAFの安定性を向上させる。撮影モードが風景の
場合は主要被写体を中央にしてからフォーカスロックを
してフレーミング変更する余裕がある場合が多いので、
AFエリアを中央スポットにしアルゴリズムも中央優先
にして、被写体の選択性を向上させる。撮影モードが接
写の場合は被写体のピントを合わせるエリアが狭い場合
が多いので、AFエリアも中央スポットにしアルゴリズ
ムも中央優先にして、被写体の選択性を向上させる。こ
のようにすれば、撮影対象に応じて撮影モードの選択す
るだけで、該撮影対象に最適なAFエリアとアルゴリズ
ムを選択することができる。
When the photographing mode is selected by the photographing mode selecting means 64 into the sports, portrait, snap, landscape, close-up mode as shown in the left column of FIG. Select as shown in the right column. By selecting a shooting mode, a photometric mode, an AE mode, a winding mode, and a focus mode that are optimal for each mode are automatically selected.
When the shooting mode is sports, a moving subject is often photographed. Therefore, the AF area is widened, and the algorithm is given priority from the closest to the current state, thereby improving the capturing performance of the subject. When the photographing mode is portrait, a still subject is often photographed. Therefore, the AF area is also set to the center spot, and the algorithm is prioritized to the nearest, thereby improving the selectivity of the subject. When the shooting mode is snap, the subject does not always come to the center. Therefore, the AF area is widened, and the algorithm is given priority from the closest to the current status, thereby improving the subject capturing performance and the AF stability. If the shooting mode is landscape, there is often room for the main subject to be centered before locking the focus and changing the framing.
The AF area is set to the center spot, and the algorithm is set to the center priority to improve the selectivity of the subject. When the shooting mode is the close-up mode, the focus area of the subject is often narrow, so that the AF area is set to the center spot and the algorithm is given priority to the center to improve the selectivity of the subject. By doing so, it is possible to select an AF area and an algorithm that are optimal for the target by simply selecting a shooting mode according to the target.

【0095】フォーカスモードを、フォーカスモード選
択手段63により図56の左欄のごとくシングル(合焦
後フォーカスロック)、コンティニュアス、追尾(移動
被写体に対してレンズ駆動量を補正)、パワーフォーカ
ス、マニュアルに選択した場合には、それに連動してA
Fエリアを中央欄、アルゴリズムを右欄のごとく選択す
る。フォーカスモードがシングルの場合は静止被写体を
撮影する場合が多いので、AFエリアも中央スポットに
しアルゴリズムも中央優先にして、被写体の選択性を向
上させる。フォーカスモードがコンティニュアスの場合
は移動被写体を撮影する場合が多いので、AFエリアも
ワイドにしアルゴリズムも至近優先→現状優先にして、
被写体の捕捉性とAFの安定性を向上させる。フォーカ
スモードが追尾の場合は至近方向に移動する被写体を撮
影する場合が多いので、AFエリアも中央スポット→ワ
イドにしアルゴリズムも至近優先にして、被写体の選択
性と捕捉性を向上させる。フォーカスモードがパワーフ
ォーカスの場合はフレーミング変更する余裕がない場合
が多いので、AFエリアをワイドにしアルゴリズムも至
近優先→現状優先にして、被写体の捕捉性を向上させ
る。フォーカスモードがマニュアルの場合は正確に被写
体の1部分だけにピントを合わせたい場合が多いので、
AFエリアも中央スポットにしアルゴリズムも中央優先
にして、被写体の選択性を向上させる。このようにすれ
ば、撮影対象に応じてフォーカスモードを選択するだけ
で、該撮影対象に最適なAFエリアとアルゴリズムを選
択することができる。
As shown in the left column of FIG. 56, the focus mode is set to single (focus lock after focusing), continuous, tracking (correcting the lens drive amount for a moving subject), power focus, If you select manual, A
Select the F area as shown in the center column and the algorithm as shown in the right column. When the focus mode is single, a still subject is often photographed. Therefore, the AF area is set to the center spot, and the algorithm is given priority to the center to improve the selectivity of the subject. When the focus mode is continuous, a moving subject is often photographed.
The object capturing performance and AF stability are improved. When the focus mode is tracking, an object moving in a close direction is often photographed. Therefore, the AF area is also changed from the center spot to the wide area, and the algorithm is prioritized to the close area, thereby improving the selectivity and the capturing property of the object. When the focus mode is the power focus, there is often no room to change the framing, so that the AF area is widened and the algorithm is given priority from the closest to the current state to improve the subject capturing performance. When the focus mode is manual, you often want to focus on just one part of the subject accurately,
The AF area is set to the center spot, and the algorithm is set to the center priority to improve the selectivity of the subject. With this configuration, it is possible to select an optimum AF area and algorithm for the target by simply selecting the focus mode according to the target.

【0096】以上のように各種撮影のためのモードをマ
ニュアルで切り替える際に、切り替えに連動してAFエ
リアとアルゴリズムを切り替えることについて説明した
が、各種撮影モードの切り替えを自動的に行うようにし
た場合にでも、切り替えに連動してAFエリアとアルゴ
リズムを切り替えることにより同様の効果が得られる。
As described above, when the mode for various photographing is manually switched, the AF area and the algorithm are switched in conjunction with the switching, but the various photographing modes are automatically switched. In this case, the same effect can be obtained by switching the AF area and the algorithm in conjunction with the switching.

【0097】AFエリアとアルゴリズムの切り替えを図
57のごとく、レーリズボタン61の半押しONからの
経過時間Tと所定時間T1とを比較して行ってもよい。
経過時間Tが所定時間T1より短い場合は被写体の選択
性を重視して、AFエリアを中央スポットにしアルゴリ
ズムを至近優先にし、長い場合は被写体の捕捉性とAF
の安定性を重視して、AFエリアをワイドにしアルゴリ
ズムを現状優先にする。
As shown in FIG. 57, the switching between the AF area and the algorithm may be performed by comparing the elapsed time T from the half-press ON of the release button 61 with a predetermined time T1.
If the elapsed time T is shorter than the predetermined time T1, the selectivity of the subject is emphasized, the AF area is set to the center spot, and the algorithm is given the closest priority.
Focusing on the stability of the AF area, the AF area is made wide, and the algorithm is given the current priority.

【0098】次にAFエリア選択、アルゴリズム選択を
他のカメラ動作の選択手段の選択に連動するのではな
く、カメラ自身が有する各種検出手段の結果に応じて選
択する例について述べる。
Next, an example will be described in which AF area selection and algorithm selection are not performed in conjunction with the selection of other camera operation selection means, but are selected in accordance with the results of various detection means of the camera itself.

【0099】被写体距離の情報を得た場合には、該情報
に従って図58の中央欄、右欄のごとくAFエリアとア
ルゴリズムを選択する。周知のごとく、被写体距離情報
は例えば焦点検出結果のデフォーカス量情報と撮影レン
ズの絶対的位置情報より得ることができる。被写体距離
が近い場合には、被写体がアップになり画面位置により
ピント位置がかなり異なってくるので被写体選択性を高
めるために、AFエリアを中央スポットにしアルゴリズ
ムを中央優先にする。被写体距離が遠距離な場合は被写
体が小さくなり捕捉するのが困難になるので、AFエリ
アをワイドにしアルゴリズムを至近優先→現状優先にす
る。被写体距離が中間にある場合にはAFエリアを中央
スポット→ワイド、アルゴリズムを至近優先→現状優先
として上記選択の中間とする。このようにすれば被写体
距離に応じて最適なAFエリアとアルゴリズムを選択す
ることができる。
When the information on the subject distance is obtained, the AF area and the algorithm are selected as shown in the center column and the right column of FIG. 58 according to the information. As is well known, the subject distance information can be obtained, for example, from the defocus amount information of the focus detection result and the absolute position information of the photographing lens. When the subject distance is short, the subject is up, and the focus position is considerably different depending on the screen position. Therefore, in order to enhance the subject selectivity, the AF area is set to the center spot and the algorithm is set to the center priority. If the subject distance is long, the subject becomes small and it becomes difficult to capture it. Therefore, the AF area is widened and the algorithm is given priority from the closest to the present. When the subject distance is intermediate, the AF area is set to the middle spot from the center spot to wide, and the algorithm is set to the closest priority to the current priority. This makes it possible to select an optimal AF area and algorithm according to the subject distance.

【0100】撮影倍率の情報を得られる場合には、該情
報に従って図59の中央欄、右欄のごとくAFエリアと
アルゴリズムを選択する。周知のごとく、倍率情報は例
えば焦点検出結果のデフォーカス量情報と撮影レンズの
絶対的位置情報と撮影レンズの焦点距離情報より得るこ
とができる。倍率が大きい場合には、被写体がアップに
なり画面位置によりピント位置がかなり異なってくるの
で被写体選択性を高めるために、AFエリアを中央スポ
ットにしアルゴリズムを中央優先にする。倍率が小さい
な場合は被写体が小さくなり捕捉するのが困難になるの
で、AFエリアをワイドにしアルゴリズムを至近優先→
現状優先にする。倍率が中間にある場合には、AFエリ
アを中央スポット→ワイド、アルゴリズムを至近優先→
現状優先として上記選択の中間とする。このようにすれ
ば、撮影倍率に応じて最適なAFエリアとアルゴリズム
を選択することができる。
If information on the photographing magnification can be obtained, an AF area and an algorithm are selected according to the information as shown in the center column and the right column in FIG. As is well known, the magnification information can be obtained from, for example, defocus amount information of the focus detection result, absolute position information of the photographing lens, and focal length information of the photographing lens. When the magnification is large, the object is up and the focus position is considerably different depending on the screen position. Therefore, in order to enhance the object selectivity, the AF area is set to the center spot and the algorithm is set to the center priority. If the magnification is small, the subject becomes small and it becomes difficult to capture it.
Give priority to the current situation. When the magnification is in the middle, the AF area is set to the center spot → wide, and the algorithm is given the closest priority →
The middle of the above selection is set as the current priority. In this way, an optimal AF area and algorithm can be selected according to the shooting magnification.

【0101】焦点距離の情報を得られる場合には、該情
報に従って図60の中央欄、右欄のごとくAFエリアと
アルゴリズムを選択する。周知のごとく、焦点距離情報
は例えばレンズCPU12から送られて来るレンズ情報
より得ることができる。マクロ状態では、被写体がアッ
プになり画面位置によりピント位置がかなり異なってく
るので被写体選択性を高めるために、AFエリアを中央
スポットにしアルゴリズムを中央優先にする。焦点距離
が短い場合は被写体が小さくなり捕捉するのが困難にな
るので、AFエリアをワイドにしアルゴリズムを至近優
先→現状優先にする。焦点距離が長い場合はマクロと短
焦点距離の中間と考えて、AFエリアを中央スポット→
ワイド、アルゴリズムを至近優先→現状優先として上記
選択の中間とする。このようにすれば焦点距離情報に応
じて最適なAFエリアとアルゴリズムを選択することが
できる。
If information on the focal length can be obtained, the AF area and algorithm are selected as shown in the center column and right column of FIG. 60 according to the information. As is well known, the focal length information can be obtained from the lens information sent from the lens CPU 12, for example. In the macro state, the subject is up and the focus position is considerably different depending on the screen position. Therefore, in order to enhance the selectivity of the subject, the AF area is set to the center spot, and the algorithm is set to the center priority. If the focal length is short, the subject becomes small and it becomes difficult to capture it. Therefore, the AF area is widened, and the algorithm is given priority from the closest to the current. If the focal length is long, the AF area is considered to be halfway between the macro and short focal lengths, and the AF area is
Wide and algorithm are given priority from the closest to the current priority, which is in the middle of the above selection. This makes it possible to select an optimal AF area and algorithm according to the focal length information.

【0102】上記被写体距離と倍率と焦点距離の情報に
基づいてAFエリアの選択、およびアルゴリズムの選択
をする際に画面上で被写体が拡大して写る場合は、AF
エリアとアルゴリズムをスポット的にし被写体選択性を
高め、画面上で被写体が縮小して写る場合は、AFエリ
アをアルゴリズムをワイド的にし被写体捕捉性を高めて
いるが、反対に画面上で被写体が拡大して写る場合は被
写体自体が大きいので、AFエリアをアルゴリズムをワ
イド的にし被写体捕捉性とAF安定性を高め、画面上で
被写体が縮小して写る場合は他の被写体と混じらないよ
うにAFエリアとアルゴリズムをスポット的にし被写体
選択性を高めるようにしてもよい。
When an AF area is selected and an algorithm is selected based on the information on the subject distance, the magnification, and the focal length, if the subject is enlarged on the screen, the AF
When the area and algorithm are spotted to enhance the subject selectivity and the subject is reduced on the screen, the AF area is widened to improve the subject capture, but the subject is enlarged on the screen. If the subject is large, the AF area will be widened to improve the subject capture and AF stability, and if the subject is reduced on the screen, the AF area will not be mixed with other subjects. And the algorithm may be spotted to enhance the object selectivity.

【0103】絞り値の情報を得られる場合には、該情報
に従って図61の中央欄、右欄のごとくAFエリアとア
ルゴリズムを選択する。周知のごとく、絞り値情報は絞
り制御手段83をコントロールするメインCPU60よ
り得ることができる。絞り値が小さい場合には、ピント
精度が要求されるのでそれに応じて被写体選択性を高め
るために、AFエリアを中央スポットにしアルゴリズム
を中央優先にする。絞り値が大きい場合は被写界深度も
深くピント精度もそれほど要求されないので、AFエリ
アをワイドにしアルゴリズムを平均優先にする。このよ
うにすれば、絞り値情報に応じて最適なAFエリアとア
ルゴリズムを選択することができる。
When the information on the aperture value can be obtained, the AF area and the algorithm are selected as shown in the center column and the right column of FIG. 61 according to the information. As is well known, the aperture value information can be obtained from the main CPU 60 that controls the aperture control unit 83. When the aperture value is small, focusing accuracy is required, so that the AF area is set to the center spot and the algorithm is given priority to the center in order to enhance the subject selectivity accordingly. When the aperture value is large, the depth of field is large and the focus accuracy is not so required, so that the AF area is widened and the algorithm is given the average priority. This makes it possible to select an optimal AF area and algorithm according to the aperture value information.

【0104】シャッタ速度の情報を得られる場合には、
該情報に従って図62の中央欄、右欄のごとくAFエリ
アとアルゴリズムを選択する。周知のごとく、シャッタ
速度情報はシャッタ速度制御手段82をコントロールす
るメインCPU60より得ることができる。シャッタ速
度が高速な場合には移動被写体を撮影する場合が多いの
で、被写体捕捉性を高めるために、AFエリアをワイド
にしアルゴリズムを至近優先→現状優先にする。シャッ
タ速度が低速な場合は静止被写体を撮影する場合が多い
ので、被写体選択性を高めるために、AFエリアを中央
スポットにしアルゴリズムを中央優先→現状優先にす
る。このようにすれば、シャッタ速度情報に応じて最適
なAFエリアとアルゴリズムを選択することができる。
When information on the shutter speed can be obtained,
According to the information, the AF area and the algorithm are selected as shown in the center column and the right column of FIG. As is well known, the shutter speed information can be obtained from the main CPU 60 that controls the shutter speed control means 82. When the shutter speed is high, the moving subject is often photographed. Therefore, in order to enhance the subject capturing performance, the AF area is widened and the algorithm is prioritized from the closest to the present. When the shutter speed is low, a still object is often photographed. Therefore, in order to enhance the object selectivity, the AF area is set to the center spot, and the algorithm is given priority from the center to the current state. This makes it possible to select an optimal AF area and algorithm according to the shutter speed information.

【0105】被写体輝度の情報を得られる場合には、該
情報に従って図63の中央欄、右欄のごとくAFエリア
とアルゴリズムを選択する。周知のごとく、輝度情報は
例えば測光センサ86の出力を受けてメインCPU60
が輝度検出することにより得ることができる。高輝度な
場合には被写体を明確に識別できる場合が多いので、被
写体選択性を重視して、AFエリアを中央スポットにし
アルゴリズムを中央優先にする。低輝度な場合は被写体
を明確に識別できない場合が多いので、被写体捕捉性を
重視して、AFエリアをワイドにしアルゴリズムを至近
優先にする。このようにすれば、被写体輝度情報に応じ
て最適なAFエリアとアルゴリズムを選択することがで
きる。
When the information on the subject luminance can be obtained, the AF area and the algorithm are selected according to the information as shown in the center column and the right column of FIG. As is well known, the luminance information is output from the photometric sensor 86, for example, and the main CPU 60 receives the luminance information.
Can be obtained by detecting the luminance. In the case of high brightness, the subject can be clearly identified in many cases. Therefore, focusing on the subject selectivity, the AF area is set to the center spot, and the algorithm is set to the center priority. In the case of low brightness, the subject cannot be clearly identified in many cases. Therefore, the focus on the subject is emphasized, the AF area is widened, and the algorithm is given the closest priority. This makes it possible to select an optimal AF area and algorithm according to the subject luminance information.

【0106】ストロボ発光の情報を得られる場合には、
該情報に従って図64の中央欄、右欄のごとくAFエリ
アとアルゴリズムを選択する。周知のごとく、ストロボ
情報は例えば不図示の内蔵ストロボを制御するメインC
PU60またはストロボに内蔵された不図示の制御CP
Uと通信することにより得ることができる。ストロボを
発光しない場合には高輝度で被写体を明確に識別できる
場合が多いので、被写体選択性を重視して、AFエリア
を中央スポットにしアルゴリズムを中央優先にする。ス
トロボを発光する場合は低輝度で被写体を明確に識別で
きない場合が多いので、被写体捕捉性を重視して、AF
エリアをワイドにしアルゴリズムを至近優先にする。こ
のようにすればストロボ情報に応じて最適なAFエリア
とアルゴリズムを選択することができる。
When information on strobe light emission can be obtained,
According to the information, the AF area and the algorithm are selected as shown in the center column and the right column of FIG. As is well known, the flash information is, for example, a main C for controlling a built-in flash (not shown).
Control CP (not shown) built in PU60 or strobe
It can be obtained by communicating with U. When the strobe is not fired, the subject can often be clearly identified with high brightness. Therefore, the AF area is set to the center spot and the algorithm is set to the center priority with emphasis on the object selectivity. When a flash is used, it is often difficult to clearly identify the subject at low brightness.
Make the area wide and give the algorithm the closest priority. In this way, an optimal AF area and algorithm can be selected according to the flash information.

【0107】撮影光学系の収差の情報を得られる場合に
は、該情報に従って図65の中央欄、右欄のごとくAF
エリアとアルゴリズムを選択する。周知のごとく、収差
情報は例えばレンズCPU12から送られて来るレンズ
情報より得ることできる。軸上と周辺の収差が大きい場
合(例えば像面湾曲が大きい)には軸上近辺で焦点検出
を行ったほうが精度がよいので、AFエリアを中央スポ
ットにしアルゴリズムを中央優先にする。軸上と周辺の
収差が小さい場合は周辺で焦点検出しても精度がでるの
で、AFエリアをワイドにしアルゴリズムを至近優先→
現状優先にする。このようにすれば、収差情報に応じて
最適なAFエリアとアルゴリズムを選択することができ
る。
When the information on the aberration of the photographing optical system can be obtained, the AF is performed according to the information as shown in the center column and the right column of FIG.
Select area and algorithm. As is well known, the aberration information can be obtained from the lens information sent from the lens CPU 12, for example. If the on-axis and peripheral aberrations are large (for example, the curvature of field is large), it is better to perform focus detection near the axis, so that the AF area is set to the central spot and the algorithm is given priority to the center. When on-axis and peripheral aberrations are small, accuracy can be obtained even when focus detection is performed at the periphery, so the AF area is widened and the algorithm is given priority to the closest point. →
Give priority to the current situation. This makes it possible to select an optimum AF area and algorithm according to the aberration information.

【0108】カメラボデイ姿勢の情報を得られる場合に
は、該情報に従って図66の中央欄、右欄のごとくAF
エリアとアルゴリズムを選択する。周知のごとく、ボデ
ィ姿勢情報情報は、例えばボデイ内に水銀スイッチ等の
位置検出手段69を設けることにより得ることできる。
ボディが縦位置の場合には水平方向で焦点検出を行った
ほうが被写体を検出できる確率が高いので、AFエリア
を図10の縦列方向受光部にしアルゴリズムを至近優先
にする。ボディが横位置の場合は水平方向で焦点検出を
行ったほうが被写体を検出できる確率が高いので、AF
エリアを図10の横列方向にしアルゴリズムを至近優先
→現状優先にする。このようにすれば、ボディ姿勢情報
に応じて最適なAFエリアとアルゴリズムを選択するこ
とができる。
If the camera body posture information can be obtained, AF information can be obtained as shown in the center column and right column of FIG.
Select area and algorithm. As is well known, the body posture information can be obtained by providing a position detecting means 69 such as a mercury switch in the body, for example.
When the body is in the vertical position, the focus detection in the horizontal direction is more likely to detect the subject, so the AF area is set to the light receiving section in the vertical direction in FIG. 10 and the algorithm is given the closest priority. When the body is in the horizontal position, the focus detection in the horizontal direction is more likely to detect the subject.
The area is set in the row direction in FIG. This makes it possible to select an optimal AF area and algorithm according to the body posture information.

【0109】次にAFエリア選択、アルゴリズム選択を
焦点検出の結果または被写体像データに応じて選択する
例について述べる。
Next, an example in which AF area selection and algorithm selection are selected according to the result of focus detection or subject image data will be described.

【0110】被写体パターンの情報を得られる場合に
は、該情報に従って図67の中央欄、右欄のごとくAF
エリアとアルゴリズムを選択する。被写体パターンの情
報は、例えば(11)式の演算を焦点検出用の被写体像
データに施すことによりAF演算CPU40自体で求め
ることができる。被写体パターンが高コントラストの場
合には被写体を明確に識別できる場合が多いので、被写
体選択性を重視して、AFエリアを中央スポットにしア
ルゴリズムを中央優先にする。低コントラストの場合は
被写体を明確に識別できない場合が多いので、被写体捕
捉性を重視して、AFエリアをワイドにしアルゴリズム
を至近優先→現状優先にする。このようにすれば被写体
パターン情報に応じて最適なAFエリアとアルゴリズム
を選択することができる。
If the information on the subject pattern can be obtained, the AF is performed according to the information as shown in the center column and the right column of FIG.
Select area and algorithm. The subject pattern information can be obtained by the AF calculation CPU 40 itself by applying the calculation of the formula (11) to the subject image data for focus detection, for example. When the subject pattern has a high contrast, the subject can be clearly identified in many cases. Therefore, the focus is placed on the subject selectivity, and the AF area is set to the center spot, and the algorithm is set to the center priority. In the case of low contrast, the subject cannot be clearly identified in many cases. Therefore, emphasis is placed on the subject capturing property, the AF area is widened, and the algorithm is given priority from the closest to the present. In this way, an optimal AF area and algorithm can be selected according to the subject pattern information.

【0111】デフォーカス情報を得られる場合には、該
情報に従って図68の中央欄、右欄のごとくAFエリア
とアルゴリズムを選択する。デフォーカス情報は、例え
ば焦点検出演算を行っているAF演算CPU40自体で
求めることができる。デフォーカスが小さい場合には被
写体を明確に識別できる場合が多く、焦点検出のための
相関演算においても被写体像データの相互のずらし量も
少なくてよいので、被写体選択性を重視して、AFエリ
アを中央スポットにしアルゴリズムを中央優先にする。
デフォーカスが大きい場合は被写体を明確に識別できな
い場合が多く、焦点検出のための相関演算においても被
写体像データの相互のずらし量も大きくなるので、被写
体捕捉性を重視して、AFエリアをワイドにしアルゴリ
ズムを至近優先にする。このようにすればデフォーカス
情報に応じて最適なAFエリアとアルゴリズムを選択す
ることができる。
When defocus information can be obtained, an AF area and an algorithm are selected according to the information as shown in the center column and the right column of FIG. The defocus information can be obtained, for example, by the AF calculation CPU 40 that performs the focus detection calculation. When the defocus is small, the subject can often be clearly identified, and the amount of mutual shift of the subject image data may be small even in the correlation calculation for focus detection. And make the algorithm a central priority.
When the defocus is large, the subject cannot be clearly identified in many cases, and the mutual shift amount of the subject image data also becomes large in the correlation calculation for the focus detection. And give the algorithm the closest priority. This makes it possible to select an optimal AF area and algorithm according to the defocus information.

【0112】以上、AFエリアとアルゴリズムを各種条
件に連動して選択することについて説明したが、上記条
件に応じてAF演算における各種判定条件を切り替える
ようにしてもよい。例えば(6)式で求めたパラメータ
C(km),SLOPの値によってデフォーカス量DEF
の信頼性を判定することができ、このパラメータに基づ
いて(13)式のごとく焦点検出可否の決定を行うこと
ができる。 C(km)>Cs または SLOP<Ss−−−検出不能 C(km)≦Cs かつ SLOP≧Ss−−−検出可能 …(13)
In the above, the selection of the AF area and the algorithm in conjunction with various conditions has been described. However, various determination conditions in the AF calculation may be switched according to the above conditions. For example, the defocus amount DEF is determined by the value of the parameter C (km) and SLOP obtained by the equation (6).
Can be determined, and it is possible to determine whether or not the focus can be detected based on this parameter as shown in Expression (13). C (km)> Cs or SLOP <Ss --- not detectable C (km) ≤Cs and SLOP≥Ss --- detectable ... (13)

【0113】従って(13)式における所定値Cs,S
sを前述各種条件に連動して変更すれば、各種条件に最
適な焦点検出可否の判定を行うことができる。基本的に
は正確な焦点検出が行える状態または行う必要がある状
態(AFエリアが小さい、アルゴリズムが中央または至
近優先、測光モードがスポット、AEモードが絞り優
先、巻き上げモードがシングル、撮影モードがポートレ
ート、フォーカスモードがシングル、被写体距離が近
い、倍率が高い、焦点距離が長い、絞り値が小さい、シ
ャッタ速度が速い、高輝度、収差が小さい、コントラス
トが高い、デフォーカス量が小さい)には所定値をきび
しく設定(Csを小さく、Ssを大きく)し、正確な焦
点検出が行えない状態または行う必要がない状態(AF
エリアが大きい、アルゴリズムが現状優先、測光モード
がマルチ、AEモードがプログラム、巻き上げモードが
連続、撮影モードがスポーツ、フォーカスモードがコン
ティニュアス、被写体距離が遠い、倍率が小さい、焦点
距離が短い、絞り値が大きい、シャッタ速度が遅い、低
輝度、収差が大きい、コントラストが低い、デフォーカ
ス量が大きい)には所定値を甘く設定(Csを大きく、
Ssを小さく)する。
Therefore, the predetermined values Cs, S in the equation (13)
If s is changed in conjunction with the various conditions described above, it is possible to determine whether or not focus detection is optimal for various conditions. Basically, a state where accurate focus detection can be performed or needs to be performed (the AF area is small, the algorithm is centered or close priority, the metering mode is spot, the AE mode is aperture priority, the winding mode is single, and the shooting mode is port (Single rate, focus mode, close subject distance, high magnification, long focal length, small aperture value, fast shutter speed, high brightness, small aberration, high contrast, small defocus amount) A predetermined value is set strictly (Cs is small and Ss is large), and a state in which accurate focus detection cannot be performed or a state in which accurate focus detection is not required (AF
Area is large, algorithm is current priority, metering mode is multi, AE mode is programmed, winding mode is continuous, shooting mode is sports, focus mode is continuous, subject distance is long, magnification is small, focal length is short, When the aperture value is large, the shutter speed is low, the brightness is low, the aberration is large, the contrast is low, and the defocus amount is large, the predetermined value is set loosely (Cs is increased,
Ss).

【0114】(14)式に示すような合焦判定の基準値
Ns、Ws(>Ns)を上記条件によって可変にしても
よい。 非合焦中 |DEF|>Ns、合焦中 |DEF|>Ws−−非合焦 非合焦中 |DEF|≦Ns、合焦中 |DEF|≦Ws−−合焦 …(14)
The reference values Ns and Ws (> Ns) for the focus determination as shown in the equation (14) may be made variable according to the above conditions. Out of focus | DEF |> Ns, in focus | DEF |> Ws-out of focus Out of focus | DEF | ≦ Ns, in focus | DEF | ≦ Ws—in focus… (14)

【0115】基本的には正確な焦点検出が行える状態ま
たは行う必要があり応答性より精度を重視する状態(A
Fエリアが小さい、アルゴリズムが中央または至近優
先、測光モードがスポット、AEモードが絞り優先、巻
き上げモードがシングル、撮影モードがポートレート、
フォーカスモードがシングル、被写体距離が近い、倍率
が高い、焦点距離が長い、絞り値が小さい、シャッタ速
度が速い、高輝度、収差が小さい、コントラストが高
い、デフォーカス量が小さい)には所定値をきびしく設
定(Ns、Wsを小さく)し、正確な焦点検出が行えな
い状態または精度より応答性を重視する状態(AFエリ
アが大きい、アルゴリズムが現状優先、測光モードがマ
ルチ、AEモードがプログラム、巻き上げモードが連
続、撮影モードがスポーツ、フォーカスモードがコンテ
ィニュアス、被写体距離が遠い、倍率が小さい、焦点距
離が短い、絞り値が大きい、シャッタ速度が遅い、低輝
度、収差が大きい、コントラストが低い、デフォーカス
量が大きい)には所定値を甘く設定(Ns、Wsを大き
く)する。
Basically, a state in which accurate focus detection can be performed, or a state in which accurate focus detection is required, and a state in which accuracy is more important than responsiveness (A
F area is small, algorithm is center or close priority, metering mode is spot, AE mode is aperture priority, winding mode is single, shooting mode is portrait,
Single focus mode, short subject distance, high magnification, long focal length, small aperture value, fast shutter speed, high brightness, small aberration, high contrast, small defocus value) Strictly setting (Ns, Ws small), a state where accurate focus detection cannot be performed or a state where responsiveness is more important than accuracy (AF area is large, algorithm has priority over current, photometry mode is multi, AE mode is program, Winding mode is continuous, shooting mode is sports, focus mode is continuous, subject distance is long, magnification is small, focal length is short, aperture value is large, shutter speed is slow, low brightness, aberration is large, and contrast is high. The predetermined value is set loosely (Ns, Ws is increased) for (low, large defocus amount).

【0116】また、本出願人による特願昭63−247
829号に開示されている予測駆動技術(被写体の光軸
方向の移動を検出してAFレンズ駆動量に被写体移動に
伴う補正を加える)における移動被写体の判定基準値
(該特許明細書第16図ステップ490、510、51
5のパラメータα、δ、r、k)を上記条件に応じて変
更するようにしてもよい。基本的には、静止被写体を撮
影する状態または応答性より安定性を重視する状態(A
Fエリアが小さい、アルゴリズムが中央または至近優
先、測光モードがスポット、AEモードが絞り優先、巻
き上げモードがシングル、撮影モードがポートレート、
フォーカスモードがシングル、被写体距離が近い、倍率
が高い、焦点距離が長い、絞り値が小さい、シャッタ速
度が遅い、低輝度、収差が大きい、コントラストが低
い、デフォーカス量が小さい)には予測駆動に入りにく
く(δとkを大きく、αとrを小さく)し、移動被写体
を撮影する状態または安定性より応答性を重視する状態
(AFエリアが大きい、アルゴリズムが現状優先、測光
モードがマルチ、AEモードがプログラム、巻き上げモ
ードが連続、撮影モードがスポーツ、フォーカスモード
がコンティニュアス、被写体距離が遠い、倍率が小さ
い、焦点距離が短い、絞り値が大きい、シャッタ速度が
速い、高輝度、収差が小さい、コントラストが高い、デ
フォーカス量が大きい)には所定値を甘く設定(δとk
を小さく、αとrを大きく)する。以上のようにして、
フォーカスモード選択手段63により追尾モードが選択
されていると、AF演算CPU40は移動被写体の判定
を行うとともに移動被写体と判定した場合にはデフォー
カス量に被写体移動による補正量を加える。
Also, Japanese Patent Application No. 63-247 filed by the present applicant.
No. 829, which describes a reference value for a moving subject in the predictive driving technique (detecting the movement of the subject in the optical axis direction and correcting the AF lens drive amount with the movement of the subject). Steps 490, 510, 51
The five parameters α, δ, r, and k) may be changed according to the above conditions. Basically, a state in which a still object is photographed or a state in which stability is more important than responsiveness (A
F area is small, algorithm is center or close priority, metering mode is spot, AE mode is aperture priority, winding mode is single, shooting mode is portrait,
Predictive driving when the focus mode is single, the subject distance is short, the magnification is long, the focal length is long, the aperture value is small, the shutter speed is slow, the brightness is low, the aberration is large, the contrast is low, and the defocus amount is small. Hard to enter (δ and k are large, α and r are small), and a state in which a moving subject is photographed or a state in which responsiveness is more important than stability (the AF area is large, the algorithm currently has priority, the metering mode is multi, AE mode is program, winding mode is continuous, shooting mode is sports, focus mode is continuous, subject distance is long, magnification is small, focal length is short, aperture value is large, shutter speed is fast, high brightness, aberration Is small, the contrast is high, and the defocus amount is large).
Is smaller, and α and r are larger). As described above,
When the tracking mode is selected by the focus mode selection means 63, the AF calculation CPU 40 determines the moving subject, and when the tracking mode is determined, adds the correction amount due to the movement of the subject to the defocus amount.

【0117】以上がAF演算CPUの動作である。 <レンズ駆動制御CPUの動作>AF演算CPU40で
図28のような処理が行われて最終的に1つのデフォー
カス量が算出され合焦判定が行われると、該デフォーカ
ス量とピント調節状態(検出不能,合焦)の情報が図2
0のレンズ駆動制御CPU50に送られる。レンズ駆動
制御CPU50では、フォーカスモード選択手段63に
よりAFモード(シングル、コンティニュアス、追尾)
が選択されていた場合には、デフォーカス量に基づいて
合焦点までのレンズ駆動量を計算し、AFモータ51を
撮影レンズ11が合焦点に近づく方向へ回転させる。A
Fモータの回転運動はボデイ20に内蔵されたギヤ等か
ら構成されたボデイ伝達系52とクラッチB53を経
て、ボデイ20とレンズ10のマウント部に設けられた
ボデイ側のカップリング54とこれに嵌合するレンズ側
のカップリング18に伝達され、更にレンズ10に内蔵
されたギヤ等から構成されたレンズ伝達系13を経て、
最終的に撮影レンズ11を合焦方向へ移動させる。AF
モータ51の駆動量は、ボデイ伝達系52を構成するギ
ヤ等の回転量をフォトインタラプタ等から構成されるエ
ンコーダ55によりパルス列信号に変換されてレンズ駆
動制御CPU50にフィードバックされる。レンズ駆動
制御CPU50はパルス数とパルス間隔を測定すること
によりAFモータ50の駆動量と駆動速度を検出し、レ
ンズが合焦点に正確に停止するようにAFモータ51の
駆動停止と駆動速度を制御する。
The above is the operation of the AF calculation CPU. <Operation of Lens Drive Control CPU> When the AF calculation CPU 40 performs the processing as shown in FIG. 28 and finally calculates one defocus amount and makes a focus determination, the defocus amount and the focus adjustment state ( Fig. 2
0 is sent to the lens drive control CPU 50. In the lens drive control CPU 50, the AF mode (single, continuous, tracking) is set by the focus mode selection unit 63.
Is selected, the lens driving amount up to the focal point is calculated based on the defocus amount, and the AF motor 51 is rotated in a direction in which the photographing lens 11 approaches the focal point. A
The rotational motion of the F motor passes through a body transmission system 52 composed of gears and the like built in the body 20 and a clutch B53, and is fitted to a body-side coupling 54 provided on the mount portion of the body 20 and the lens 10. The coupling is transmitted to the coupling 18 on the lens side, and further passes through a lens transmission system 13 composed of gears and the like built in the lens 10,
Finally, the photographing lens 11 is moved in the focusing direction. AF
The drive amount of the motor 51 is converted into a pulse train signal by an encoder 55 including a photo interrupter and the like, and the feedback amount is fed back to the lens drive control CPU 50. The lens drive control CPU 50 detects the drive amount and drive speed of the AF motor 50 by measuring the number of pulses and the pulse interval, and controls the drive stop and drive speed of the AF motor 51 so that the lens stops accurately at the focal point. I do.

【0118】フォーカスモード選択手段63によりパワ
ーフォーカスモードが選択されている場合には、レンズ
駆動制御CPU50は、レンズ10に内蔵されているレ
ンズ距離環15の操作方向と操作量と操作速度を、フォ
トインタラプタ等から構成されるエンコーダ16によ
り、ボデイ20とレンズ10のマウント部に設けられた
レンズ側の接点19Bとこれに対応するボディ側の接点
59Bを介して受け取る。操作方向は例えばレンズ距離
環の動きを90゜位相をずらしてモニタした2つの信号
を発生し、該モニタ信号の位相関係を検出することによ
り識別できる。このようにして検出した操作量と操作方
向と操作速度に基づいてレンズ駆動量と駆動速度と駆動
方向を決定し、AFモードの制御動作と同様にしてAF
モータ51の駆動制御を行い、撮影レンズ11をレンズ
距離環の操作に対応して移動させる。
When the power focus mode is selected by the focus mode selection means 63, the lens drive control CPU 50 determines the operation direction, the operation amount, and the operation speed of the lens distance ring 15 built in the lens The signal is received by the encoder 16 composed of an interrupter or the like via a contact 19B on the lens side provided on the mount portion of the body 20 and the lens 10 and a corresponding contact 59B on the body side. The operation direction can be identified, for example, by generating two signals obtained by monitoring the movement of the lens distance ring by shifting the phase by 90 ° and detecting the phase relationship between the monitor signals. The lens drive amount, the drive speed, and the drive direction are determined based on the operation amount, the operation direction, and the operation speed detected in this manner, and the AF operation is performed in the same manner as the AF mode control operation.
The drive control of the motor 51 is performed, and the photographing lens 11 is moved in accordance with the operation of the lens distance ring.

【0119】上記AFモードとパワーフォーカスモード
においては、レンズ駆動のための動力源がAFモータ5
1であるのでレンズ駆動制御CPU50はクラッチ制御
手段56によりクラッチB53を結合状態にし、AFモ
ータ51の回転力がレンズ側に伝わるようにするととも
に、ボデイ20とレンズ10のマウント部に設けられた
レンズ側の接点19Aとこれに対応するボディ側の接点
59Aを介してレンズ側に内蔵されたクラッチL14を
切り離してレンズ距離環15の操作力がレンズ伝達系1
3に伝わらないようにする。また、レンズ駆動量や駆動
速度をモニタするためにボディ伝達系52の動きをエン
コーダ55によりモニタしていたが、このようにすると
ボディからレンズ側に駆動力を伝達する経路が長いので
ギヤのバックラッシュによる誤差が大きくなる。そこで
この問題を解決するために、最終駆動制御対象である撮
影レンズ11の動きを直接モニタできるようにレンズ側
にレンズ伝達系13の動きをモニタするエンコーダ17
を設け、駆動量のモニタ信号を、ボデイ20とレンズ1
0のマウント部に設けられたレンズ側の接点19Cとこ
れに対応するボディ側の接点59Cを介してレンズ駆動
制御CPU50にフィードバックする駆動制御を行い、
レンズ駆動量と駆動速度をより正確に制御するようにし
てもよい。
In the AF mode and the power focus mode, the power source for driving the lens is the AF motor 5.
Therefore, the lens drive control CPU 50 sets the clutch B53 to the coupled state by the clutch control means 56 so that the rotational force of the AF motor 51 is transmitted to the lens side, and the lens provided on the mount portion of the body 20 and the lens 10. The clutch L14 built in the lens side is disconnected via the contact 19A on the lens side and the contact 59A on the body side corresponding thereto, and the operating force of the lens distance ring 15 is applied to the lens transmission system 1.
Do not transmit to 3. In addition, the movement of the body transmission system 52 is monitored by the encoder 55 in order to monitor the lens drive amount and the drive speed. However, in this case, since the path for transmitting the drive force from the body to the lens is long, the gear Error due to rush increases. Therefore, in order to solve this problem, an encoder 17 that monitors the movement of the lens transmission system 13 on the lens side so as to directly monitor the movement of the photographing lens 11 that is the final drive control target.
And the monitor signal of the drive amount is transmitted to the body 20 and the lens 1.
A drive control for feeding back to the lens drive control CPU 50 via a contact 19C on the lens side provided on the mount portion of No. 0 and a corresponding contact 59C on the body side is performed.
The lens driving amount and the driving speed may be controlled more accurately.

【0120】フォーカスモード選択手段63によりマニ
ュアルモードが選択されていた場合には、レンズ駆動制
御CPU50はレンズ駆動のための動力源がレンズ距離
環15の操作であるので、クラッチ制御手段56により
クラッチB53を切り離し状態にし、AFモータ51の
回転力がレンズ側に伝わらないようにするとともに、ボ
デイ20とレンズ10のマウント部に設けられたレンズ
側の接点19Aとこれに対応するボディ側の接点59A
を介して、レンズ側に内蔵されたクラッチL14を結合
状態にしてレンズ距離環15の操作力がレンズ伝達系1
3に伝わるようにする。
When the manual mode is selected by the focus mode selection means 63, the lens drive control CPU 50 determines that the power source for driving the lens is the operation of the lens distance ring 15, so that the clutch control means 56 controls the clutch B53. In order to prevent the rotational force of the AF motor 51 from being transmitted to the lens side, a lens-side contact 19A provided on the mount portion of the body 20 and the lens 10 and a corresponding body-side contact 59A.
The clutch L14 built in the lens side is brought into the connected state via the
3

【0121】上記説明において、パワーフォーカスモー
ドとマニュアルフォーカスモードはボディ側に設けられ
たフォーカスモード選択手段63によって選択されてい
るが、図39に示すように、レンズ10の焦点調節のた
めのレンズ距離環15を撮影者がさわったことまたは操
作したことを検知する接触センサ手段41を設け、該接
触センサ手段41によりレンズ距離環15を撮影者がさ
わったことまたは操作したことを検知された場合にパワ
ーフォーカスモードとマニュアルフォーカスモードに切
り替わり、レンズ距離環15を撮影者がさわっていない
ことまたは操作していないことを検知された場合にフォ
ーカスモード選択手段63によって選択されている他の
AFモードに切り替わるようにしてもよい。このように
すれば撮影者がパワーフォーカスモードまたはマニュア
ルフォーカスモードで焦点調節を行いたい場合、いちい
ちフォーカスモード選択手段63を選択する必要がな
く、従来のマニュアル焦点調節動作と同様に距離環を操
作するだけでよいので使い勝手が向上する。
In the above description, the power focus mode and the manual focus mode have been selected by the focus mode selection means 63 provided on the body side. As shown in FIG. A contact sensor means 41 is provided for detecting that the photographer has touched or operated the ring 15. When the contact sensor means 41 detects that the photographer has touched or operated the lens distance ring 15. The mode is switched between the power focus mode and the manual focus mode, and when it is detected that the photographer is not touching or operating the lens distance ring 15, the mode is switched to another AF mode selected by the focus mode selection unit 63. You may do so. In this way, when the photographer wants to perform the focus adjustment in the power focus mode or the manual focus mode, it is not necessary to select the focus mode selection unit 63 each time, and the distance ring is operated as in the conventional manual focus adjustment operation. It is easy to use because only it is necessary.

【0122】前述のAFモードではレンズ駆動量を正確
に制御する必要があるが、正確にレンズ位置を制御する
ためには合焦点付近で駆動速度を低速にする必要があっ
た。一般にレンズの駆動速度制御はAFモータ51の駆
動停止をパルス的にON/OFFするとともに、該パル
スのデューティを変更することにより行われる。また上
記速度制御は例えば本出願人による特開昭57−462
16号公報に開示されたように、合焦点から現在のレン
ズ位置との偏差をいくつかのゾーンに分割して同一ゾー
ンのなかでは同一の駆動速度になるように速度制御を行
っていた。しかしこのように合焦点からの偏差でゾーン
分けし徐々に速度を落としていく制御方式では速度が階
段状に落とされて行くため、無駄な速度制御が発生し結
果的に合焦点に到達するまでの時間が長くなってしまっ
た。
In the above-described AF mode, it is necessary to accurately control the lens driving amount. However, in order to accurately control the lens position, it is necessary to reduce the driving speed near the focal point. Generally, the drive speed control of the lens is performed by turning ON / OFF the drive stop of the AF motor 51 in a pulse manner and changing the duty of the pulse. The above speed control is performed, for example, in Japanese Patent Application Laid-Open No.
As disclosed in Japanese Patent Application Laid-Open No. 16, the deviation from the focal point to the current lens position is divided into several zones, and speed control is performed so that the same driving speed is obtained in the same zone. However, in the control method in which the speed is gradually decreased by dividing into zones based on the deviation from the focal point as described above, the speed is gradually reduced, so that useless speed control occurs and until the focal point is finally reached. Time has become longer.

【0123】一般にモータの停止特性は(15)式で表
される。即ちモータの回転速度はEXPONENTIALな関数で
減衰する。 N(t)=N0×exp(−t/T0) WT=T0×N0 …(15)
In general, the stop characteristics of the motor are expressed by equation (15). That is, the rotation speed of the motor is attenuated by an EXPONENTIAL function. N (t) = N0.times.exp (-t / T0) WT = T0.times.N0 (15)

【0124】(15)式においてN(t)はモータ回転
速度、N0はブレーキ開始時の回転速度、tは時間、T0
は時定数、WTはブレーキ開始時から停止までの回転量
である。従って目標回転量(駆動量)に対して残回転量
(駆動量)がWTとなった時点でブレーキをかければ、
理想的にはブレーキをかけたままで目標停止位置に停止
することができる。一般にはレンズ毎に駆動トルクの差
異等があり、(15)式からのずれが生ずるが、Nr=
Wr/T0の如く減速時の回転速度Nrを残回転量(駆
動量)Wrに比例させるように制御すれば最短時間で目
標停止位置に停止させることができる。AF駆動制御の
場合、合焦点までの残駆動量は、ブレーキ開始レンズ位
置から合焦点までの駆動量(パルス数)からブレーキ開
始時点からのエンコーダ16または55の発生するパル
スの数を引算することにより測定し、駆動速度はパルス
間隔によって測定することができる。例えばAFモータ
全速回転時の回転数と駆動系の時定数より合焦点の手前
残パルスmの時点でブレーキをかけた時、理論的に合焦
点で停止する場合のモニタ信号の様子を図32に示す。
この場合、残パルス数がnの場合のパルス間隔tnは
(16)式のごとく残パルス数に逆比例するように定め
てAFモータの制御を行えば、駆動負荷の変動等により
多少停止特性が変化しても短い時間で合焦点へ到達でき
る。 tn=t0/n …(16) (16)式において、時定数t0はレンズ駆動系に応じ
て理論的に定められた値である。従って、残パルス数n
とパルス間隔tnの関係は図34のようになる。残パル
ス数nにおいて測定されたパルス間隔tn’が図34の
理論的パルス間隔tnより短かい場合は、駆動速度が速
すぎるので駆動速度を落とし、長い場合は遅すぎるので
駆動速度を速める。駆動速度の増速減速はAFモータの
駆動信号のON/OFFのデューティを変えることによ
り行われる。例えば図33に示す駆動信号において、固
定周期txに対して駆動ON時の時間tdを増減するこ
とにより駆動速度が変化させることができる。
In equation (15), N (t) is the motor rotation speed, N0 is the rotation speed at the start of braking, t is time, T0
Is the time constant, and WT is the rotation amount from the start to the stop of the brake. Therefore, if the brake is applied when the remaining rotation amount (drive amount) becomes WT with respect to the target rotation amount (drive amount),
Ideally, the vehicle can be stopped at the target stop position with the brake applied. Generally, there is a difference in driving torque between lenses, and a deviation from equation (15) occurs.
If the rotational speed Nr at the time of deceleration is controlled so as to be proportional to the remaining rotation amount (drive amount) Wr as in Wr / T0, the vehicle can be stopped at the target stop position in the shortest time. In the case of AF drive control, the number of pulses generated by the encoder 16 or 55 from the start of braking is subtracted from the driving amount (number of pulses) from the brake start lens position to the focal point for the remaining drive amount until the focal point. The driving speed can be measured by the pulse interval. For example, FIG. 32 shows the state of the monitor signal when the brake is applied at the point of the residual pulse m short of the focal point and theoretically stops at the focal point, based on the rotation speed at the time of full-speed rotation of the AF motor and the time constant of the drive system. Show.
In this case, if the pulse interval tn when the number of remaining pulses is n is determined so as to be inversely proportional to the number of remaining pulses as shown in the equation (16), the stop characteristics may be slightly reduced due to a change in driving load and the like. Even if it changes, it can reach the focal point in a short time. tn = t0 / n (16) In the equation (16), the time constant t0 is a value theoretically determined according to the lens driving system. Therefore, the remaining pulse number n
FIG. 34 shows the relationship between and the pulse interval tn. When the pulse interval tn ′ measured at the remaining pulse number n is shorter than the theoretical pulse interval tn in FIG. 34, the driving speed is decreased because the driving speed is too high, and when it is longer, the driving speed is increased because it is too slow. The drive speed is increased / decreased by changing the ON / OFF duty of the drive signal of the AF motor. For example, in the drive signal shown in FIG. 33, the drive speed can be changed by increasing or decreasing the time td when the drive is ON with respect to the fixed cycle tx.

【0125】次に図35〜図38を用いてレンズ駆動制
御CPU50の動作を説明する。図35において、まず
電源が入るとステップS060でレンズ位置情報が必要
か判定を行い、必要な場合はステップS065でレンズ
を∞端まで繰り込んでから、その位置をレンズリセット
位置とし、以後エンコーダパルスを駆動方向に応じて増
減することによりレンズの∞端からの繰り出し量を測定
する。必要でない場合はステップS065を省略する。
ステップS070では、フォーカスモード選択手段63
等に設定されたフォーカスモードに従った動作を繰り返
す。但しフォーカスモードに変更が生じた場合はステッ
プS060に戻る。従来はレンズ位置情報が不要な場合
も一律にレンズを繰り込んでいたので、レンズ位置情報
が不要で電源ONで即撮影したい場合もレンズ繰り込み
が終了するまで待たなければならなかったが、このよう
にすればレンズ位置情報が必要となった場合(例えばレ
ンズ繰り出し位置に応じてAEやAFの動作モードやパ
ラメータを変える)のみレンズが繰り込むので従来の煩
わしさをなくすことができる。
Next, the operation of the lens drive control CPU 50 will be described with reference to FIGS. In FIG. 35, first, when the power is turned on, it is determined whether or not lens position information is necessary in step S060. If necessary, in step S065, the lens is retracted to the ∞ end, and the position is set as the lens reset position. Is increased or decreased according to the driving direction to measure the amount of extension from the ∞ end of the lens. If not necessary, step S065 is omitted.
In step S070, the focus mode selection unit 63
The operation according to the focus mode set in the above is repeated. However, when the focus mode is changed, the process returns to step S060. Conventionally, even when lens position information is unnecessary, the lens is uniformly retracted, so even if you do not need lens position information and want to shoot immediately with the power on, you have to wait until the lens retraction is completed. In this case, the lens moves in only when lens position information is required (for example, the operation mode or parameter of the AE or AF is changed according to the lens moving-out position), so that the conventional inconvenience can be eliminated.

【0126】図36はAF駆動モード(シングルモー
ド、コンティニュアスモード、追尾モード)における動
作フローチャートであり、まずステップS080でクラ
ッチ制御を行い、AFモータの駆動力が撮影レンズに伝
達し、距離環15の操作力が撮影レンズに伝達しないよ
うにする。ステップS085ではAF演算CPU40の
焦点検出結果が合焦か判定し、合焦でない場合は、ステ
ップS090でデフォーカス量をレンズ駆動量に変換
し、ステップS095で該駆動量だけAFモータ51に
よりレンズを駆動し、駆動が終了すると再びステップS
085に戻る。ステップS085で合焦した場合はステ
ップS100でシングルモードか判定し、シングルモー
ドでない場合は駆動を行わないでステップS085に戻
り次の焦点検出結果を待つ。シングルモードの場合はス
テップS105でフォーカスロックを行い以後のレンズ
駆動を禁止するとともに、メインCPU60に対しレリ
ーズ許可を出す。ステップS105からはレリーズボタ
ン61の半押しOFFまたはシャッタ作動により、ステ
ップS085に復帰する。
FIG. 36 is an operation flowchart in the AF driving mode (single mode, continuous mode, tracking mode). First, in step S080, clutch control is performed, the driving force of the AF motor is transmitted to the photographing lens, and the distance ring is controlled. The 15 operation forces are not transmitted to the taking lens. In step S085, it is determined whether the focus detection result of the AF calculation CPU 40 is in focus. If the focus is not in focus, the defocus amount is converted into a lens drive amount in step S090, and the lens is moved by the AF motor 51 by the drive amount in step S095. Drive, and when the drive is completed, step S is performed again.
Return to 085. If the focus is achieved in step S085, it is determined in step S100 whether the mode is the single mode. If the mode is not the single mode, the process returns to step S085 without driving and waits for the next focus detection result. In the case of the single mode, the focus is locked in step S105, the subsequent lens driving is prohibited, and a release permission is issued to the main CPU 60. From step S105, the process returns to step S085 by half-pressing the release button 61 or by shutter operation.

【0127】図37はパワーフォーカスモードにおける
動作フローチャートで、ステップS110でクラッチ制
御を行い、AFモータ51の駆動力が撮影レンズに伝達
し、距離環15の操作力が撮影レンズに伝達しないよう
にする。ステップS115ではレンズ距離環の操作量と
操作方向を測定し、ステップS120では該操作量をレ
ンズ駆動量に変換し、ステップS125で該駆動量だけ
AFモータ51によりレンズを駆動し、駆動が終了する
と再びステップS115に戻る。
FIG. 37 is a flowchart of the operation in the power focus mode. In step S110, clutch control is performed so that the driving force of the AF motor 51 is transmitted to the photographing lens and the operating force of the distance ring 15 is not transmitted to the photographing lens. . In step S115, the operation amount and operation direction of the lens distance ring are measured. In step S120, the operation amount is converted into a lens drive amount. In step S125, the lens is driven by the AF motor 51 by the drive amount. It returns to step S115 again.

【0128】図38はマニュアルモードでの動作フロー
チャートで、ステップS130でクラッチ制御を行い、
距離環15の操作力が撮影レンズに伝達し、AFモータ
51の駆動力が撮影レンズに伝達しないようにする。
FIG. 38 is an operation flowchart in the manual mode. In step S130, clutch control is performed.
The operating force of the distance ring 15 is transmitted to the photographing lens, and the driving force of the AF motor 51 is not transmitted to the photographing lens.

【0129】上記レンズ駆動制御CPU50の動作説明
ではフォーカスモードはフォーカスモード選択手段63
により選択されていたが、次にフォーカスモードの選択
を専用の選択手段で選択するのではなく、カメラの他の
動作の選択・切り替えに用いられる選択手段の操作に連
動して選択する例について述べる。
In the description of the operation of the lens drive control CPU 50, the focus mode is the focus mode selection means 63.
Next, an example will be described in which the focus mode is selected in conjunction with the operation of the selection unit used for selecting / switching other operations of the camera, instead of selecting the focus mode using the dedicated selection unit. .

【0130】AFエリア選択を、AFエリア選択手段6
6により図69の左欄のごとく視点検知、中央スポッ
ト、選択スポット、ワイド、中央スポット→ワイドに選
択した場合には、それに連動してフォーカスモードを右
欄のごとく選択する。AFエリアが中央スポット、選択
スポットの場合は画面の特定ポイントの静止被写体を撮
影する場合が多いので、フォーカスモードも安定性を重
視してシングルにする。AFエリアが視点検知、ワイド
の場合は被写体が次々と変わる場合が多いので、フォー
カスモードも応答性を重視してコンティニュアスにす
る。AFエリアが中央スポット→ワイドの場合は移動被
写体を撮影する場合が多いので、フォーカスモードも追
従性を重視して追尾にする。このようにすればAFエリ
アとフォーカスモードとの対応が取れるとともにAFの
安定性や応答性も向上する。
The AF area is selected by the AF area selecting means 6
When the user selects viewpoint detection, center spot, selected spot, wide, center spot → wide as shown in the left column of FIG. 69 according to 6, the focus mode is selected as shown in the right column in conjunction with the selection. When the AF area is a center spot or a selected spot, a still subject at a specific point on the screen is often photographed. When the AF area is the viewpoint detection and wide, the subject often changes one after another. Therefore, the focus mode is also made continuous with emphasis on responsiveness. When the AF area is from the center spot to the wide area, the moving subject is often photographed. In this way, the correspondence between the AF area and the focus mode can be obtained, and the stability and responsiveness of the AF can be improved.

【0131】アルゴリズム選択を、AF被写体選択手段
66により図70の左欄のごとく中央優先、至近優先、
平均優先、遠距離優先、至近優先→現状優先、中央優先
→現状優先に選択した場合には、それに連動してフォー
カスモードを右欄のごとく選択する。アルゴリズムが中
央優先、遠距離優先の場合は画面の特定ポイントの静止
被写体を撮影する場合が多いので、フォーカスモードも
安定性を重視してシングルにする。アルゴリズムが平均
優先、至近優先→現状優先、中央優先→現状優先の場合
は被写体が次々と変わる場合が多いので、フォーカスモ
ードも応答性を重視してコンティニュアスにする。アル
ゴリズムが至近優先の場合は移動被写体を撮影する場合
が多いので、フォーカスモードも追従性を重視して追尾
にする。このようにすればアルゴリズムとフォーカスモ
ードとの対応が取れるとともにAFの安定性や応答性も
向上する。
The algorithm selection is performed by the AF subject selecting means 66 as shown in the left column of FIG.
When average priority, long-distance priority, close-priority priority → current priority, central priority → current priority is selected, the focus mode is selected as shown in the right column in conjunction with the selection. In the case where the algorithm is centered priority or long distance priority, a still subject at a specific point on the screen is often photographed. When the algorithm is average priority, closest priority → current priority, central priority → current priority, the subject often changes one after another, so that the focus mode is also continuous with emphasis on responsiveness. Since the moving object is often photographed when the algorithm has the closest priority, the focus mode is also set to the tracking with emphasis on followability. In this way, the correspondence between the algorithm and the focus mode can be obtained, and the stability and responsiveness of the AF can be improved.

【0132】測光モードを、測光モード選択手段71に
より図71の左欄のごとく中央スポット、選択スポッ
ト、部分、中央重点、マルチに選択した場合には、それ
に連動してフォーカスモードを右欄のごとく選択する。
測光モードが中央スポット、選択スポットの場合は画面
の特定ポイントの静止被写体を撮影する場合が多いの
で、フォーカスモードも安定性を重視してシングルにす
る。測光モードが部分、中央重点の場合は被写体が次々
と変わる場合が多いので、フォーカスモードも応答性を
重視してコンティニュアスにする。測光モードがマルチ
の場合は移動被写体を撮影する場合が多いので、フォー
カスモードも追従性を重視して追尾にする。このように
すれば被写体種類に対応させて測光モードの選択するだ
けで、被写体種類に最適なフォーカスモードを選択する
ことができる。
When the photometry mode is selected by the photometry mode selection means 71 as shown in the left column of FIG. 71, center spot, selected spot, portion, center-weighted, and multi-point, the focus mode is linked to that as shown in the right column. select.
When the metering mode is the center spot or the selected spot, a still subject at a specific point on the screen is often photographed. Therefore, the focus mode is also made single with emphasis on stability. When the photometry mode is partial or center-weighted, the subject often changes one after another. Therefore, the focus mode is also made continuous with emphasis on responsiveness. When the metering mode is multi, the moving subject is often photographed. By doing so, it is possible to select a focus mode that is optimal for the type of subject simply by selecting the photometric mode in accordance with the type of subject.

【0133】AEモードを、AEモード選択手段70に
より図72の左欄のごとく絞り優先、シャッタ速度優
先、プログラムに選択した場合には、それに連動してフ
ォーカスモードを右欄のごとく選択する。AEモードが
絞り優先の場合は画面の特定ポイントの静止被写体を撮
影する場合が多いので、フォーカスモードも安定性を重
視してシングルにする。AEモードがプログラムの場合
は被写体が次々と変わる場合が多いので、フォーカスモ
ードも応答性を重視してコンティニュアスにする。AE
モードがシャッタ速度優先の場合は移動被写体を撮影す
る場合が多いので、フォーカスモードも追従性を重視し
て追尾にする。このようにすれば被写体種類に対応させ
てAEモードの選択するだけで、被写体種類に最適なフ
ォーカスモードを選択することができる。
When the AE mode is selected by the AE mode selection means 70 as aperture priority, shutter speed priority, or program as shown in the left column of FIG. 72, the focus mode is selected in conjunction with the selection as shown in the right column. When the AE mode is aperture-priority, a still object at a specific point on the screen is often photographed. Therefore, the focus mode is set to single with emphasis on stability. When the AE mode is a program, the subject often changes one after another. Therefore, the focus mode is also made continuous with emphasis on responsiveness. AE
When the mode is the shutter speed priority, a moving subject is often photographed. Therefore, the focus mode is also set to the tracking with emphasis on the followability. By doing so, it is possible to select the optimum focus mode for the subject type simply by selecting the AE mode corresponding to the subject type.

【0134】巻き上げモードを、巻き上げモード選択手
段65により図73の左欄のごとくシングル(1枚撮
り)、連続高速、連続低速、セルフ(セルフタイマ)に
選択した場合には、それに連動してフォーカスモードを
右欄のごとく選択する。巻き上げモードがシングルの場
合は画面の特定ポイントの静止被写体を撮影する場合が
多いので、フォーカスモードも安定性を重視してシング
ルにする。巻き上げモードがセルフの場合は後から被写
体が加わる場合があるので、フォーカスモードも応答性
を重視してコンティニュアスにする。巻き上げモードが
連続高速、連続低速の場合は移動被写体を撮影する場合
が多いので、フォーカスモードも追従性を重視して追尾
にする。このようにすれば被写体種類に対応させて巻き
上げモードの選択するだけで、被写体種類に最適なフォ
ーカスモードを選択することができる。
When the winding mode is selected by the winding mode selecting means 65 as single (single image taking), continuous high speed, continuous low speed, and self (self-timer) as shown in the left column of FIG. Select the mode as shown in the right column. When the winding mode is the single mode, a still subject at a specific point on the screen is often photographed. When the winding mode is the self mode, the subject may be added later, so the focus mode is also made continuous with an emphasis on responsiveness. When the winding mode is continuous high-speed or continuous low-speed, a moving object is often photographed. By doing so, it is possible to select a focus mode that is optimal for the type of subject simply by selecting the winding mode corresponding to the type of subject.

【0135】撮影モードを、撮影モード選択手段64に
より図74の左欄のごとくスポーツ、ポートレート、ス
ナップ、風景、接写モードに選択した場合には、それに
連動してフォーカスモードを右欄のごとく選択する。撮
影モードがポートレート、風景の場合は画面の特定ポイ
ントの静止被写体を撮影する場合が多いので、フォーカ
スモードも安定性を重視してシングルにする。撮影モー
ドがスナップ、接写の場合は被写体が次々と変わる場合
が多いので、フォーカスモードも応答性を重視してコン
ティニュアスにする。撮影モードがスポーツの場合は移
動被写体を撮影する場合が多いので、フォーカスモード
も追従性を重視して追尾にする。このようにすれば被写
体種類に対応させて撮影モードの選択するだけで、被写
体種類に最適なフォーカスモードを選択することができ
る。
When the photographing mode is selected by the photographing mode selecting means 64 into the sports, portrait, snap, landscape, and close-up mode as shown in the left column of FIG. 74, the focus mode is selected in conjunction with the mode as shown in the right column. I do. When the shooting mode is portrait or landscape, a still subject at a specific point on the screen is often shot, so the focus mode is also made single with emphasis on stability. When the shooting mode is snap or close-up, the subject often changes one after another. Therefore, the focus mode is also made continuous with emphasis on responsiveness. When the shooting mode is sports, a moving subject is often shot, so that the focus mode is also set to track with emphasis on followability. By doing so, it is possible to select a focus mode that is optimal for the type of subject simply by selecting a shooting mode corresponding to the type of subject.

【0136】以上のように各種撮影のためのモードをマ
ニュアルで切り替える際に、切り替えに連動してフォー
カスモードを切り替えることについて説明したが、各種
撮影モードの切り替えを自動的に行うようにした場合に
でも、切り替えに連動してフォーカスモードを切り替え
ることにより同様の効果が得られる。
As described above, when the mode for various shootings is manually switched, the focus mode is switched in conjunction with the switching. However, when the switching between the various shooting modes is performed automatically. However, a similar effect can be obtained by switching the focus mode in conjunction with the switching.

【0137】フォーカスモードの切り替えを、図75の
ごとくレーリズボタン61の半押しONからの経過時間
Tと所定時間T1とを比較して行ってもよい。経過時間
Tが所定時間T1より短い場合は移動被写体への応答性
を重視して、フォーカスモードをコンティニュアスまた
は追尾にし、長い場合はAFの安定性を重視して、フォ
ーカスモードをシングルにする。
The switching of the focus mode may be performed by comparing the elapsed time T from the half-press ON of the release button 61 with a predetermined time T1, as shown in FIG. When the elapsed time T is shorter than the predetermined time T1, importance is placed on responsiveness to the moving subject, and the focus mode is set to continuous or tracking. When the elapsed time T is longer, the stability of AF is emphasized, and the focus mode is set to single. .

【0138】次にフォーカスモード選択を他のカメラ動
作の選択手段の選択に連動するのではなく、カメラ自身
が有する各種検出手段の結果に応じて選択する例につい
て述べる。
Next, an example will be described in which focus mode selection is not performed in conjunction with the selection of other camera operation selection means, but is selected in accordance with the results of various detection means of the camera itself.

【0139】被写体距離の情報を得た場合には、該情報
に従って図76の右欄のごとくフォーカスモードを選択
する。周知のごとく、被写体距離情報は例えば焦点検出
結果のデフォーカス量情報と撮影レンズの絶対的位置情
報より得ることができる。被写体距離が近い場合には画
面の特定ポイントの静止被写体を撮影する場合が多いの
で、フォーカスモードも安定性を重視してシングルにす
る。被写体距離が中間にある場合には被写体が次々と変
わる場合が多いので、フォーカスモードも応答性を重視
してコンティニュアスにする。被写体距離が遠距離な場
合は移動被写体を撮影する場合が多いので、フォーカス
モードも追従性を重視して追尾にする。このようにすれ
ば被写体距離に応じてフォーカスモードを選択すること
ができる。
When the information on the subject distance is obtained, the focus mode is selected as shown in the right column of FIG. 76 according to the information. As is well known, the subject distance information can be obtained, for example, from the defocus amount information of the focus detection result and the absolute position information of the photographing lens. When the subject distance is short, a still subject at a specific point on the screen is often photographed. Therefore, the focus mode is also made single with emphasis on stability. When the subject distance is intermediate, the subject often changes one after another, so that the focus mode is also continuous with emphasis on responsiveness. When the subject distance is long, a moving subject is often photographed. Therefore, the focus mode is also set to the tracking with emphasis on followability. In this way, the focus mode can be selected according to the subject distance.

【0140】撮影倍率の情報を得られる場合には、該情
報に従って図77の右欄のごとくフォーカスモードを選
択する。倍率が大きい場合には画面の特定ポイントの静
止被写体を撮影する場合が多いので、フォーカスモード
も安定性を重視してシングルにする。倍率が中間の場合
には被写体が次々と変わる場合が多いので、フォーカス
モードも応答性を重視してコンティニュアスにする。倍
率が小さい場合は移動被写体を撮影する場合が多いの
で、フォーカスモードも追従性を重視して追尾にする。
このようにすれば撮影倍率に応じてフォーカスモードを
選択することができる。
When the information of the photographing magnification can be obtained, the focus mode is selected as shown in the right column of FIG. 77 according to the information. When the magnification is large, a still object at a specific point on the screen is often photographed, so that the focus mode is made single with emphasis on stability. When the magnification is intermediate, the subject often changes one after another. Therefore, the focus mode is also made continuous with emphasis on responsiveness. When the magnification is small, the moving subject is often photographed, so that the focus mode is also set to the tracking with emphasis on the followability.
In this way, the focus mode can be selected according to the photographing magnification.

【0141】焦点距離の情報を得られる場合には、該情
報に従って図78の右欄のごとくフォーカスモードを選
択する。焦点距離が短い場合には風景等の静止被写体を
撮影する場合が多いので、フォーカスモードも安定性を
重視してシングルにする。焦点距離が長い場合には移動
被写体を撮影する場合が多いので、フォーカスモードも
応答性を重視してコンティニュアスまたは追尾にする。
マクロの場合はピントを合わせたい部分が撮影者の意図
により変わる場合が多いので、フォーカスモードも被写
体選択性を重視してマニュアルまたはパワーフォーカス
にする。このようにすれば焦点距離に応じて最適なフォ
ーカスモードを選択することができる。
If the focal length information can be obtained, the focus mode is selected as shown in the right column of FIG. 78 according to the information. When the focal length is short, a still subject such as a landscape is often photographed. Therefore, the focus mode is set to a single focusing on stability. When the focal length is long, a moving subject is often photographed, so that the focus mode is continuous or tracking with emphasis on responsiveness.
In the case of a macro, the portion to be focused often changes depending on the intention of the photographer, so that the focus mode is set to manual or power focus with emphasis on the subject selectivity. This makes it possible to select an optimal focus mode according to the focal length.

【0142】絞り値の情報を得られる場合には、該情報
に従って図79の右欄のごとくフォーカスモードを選択
する。絞り値が小さい場合には人物や風景等の静止被写
体を撮影する場合が多いので、フォーカスモードも安定
性を重視してシングルにする。絞り値が大きい場合には
移動被写体を撮影する場合が多いので、フォーカスモー
ドも応答性を重視してコンティニュアスまたは追尾にす
る。このようにすれば絞り値情報に応じて最適なフォー
カスモードを選択することができる。
If the information on the aperture value can be obtained, the focus mode is selected as shown in the right column of FIG. 79 according to the information. When the aperture value is small, a still object such as a person or a landscape is often photographed. When the aperture value is large, a moving subject is often photographed. Therefore, the focus mode is set to continuous or tracking with emphasis on responsiveness. This makes it possible to select an optimum focus mode according to the aperture value information.

【0143】シャッタ速度の情報を得られる場合には、
該情報に従って図80の右欄のごとくフォーカスモード
を選択する。シャッタ速度が低速な場合には人物や風景
等の静止被写体を撮影する場合が多いので、フォーカス
モードも安定性を重視してシングルにする。シャッタ速
度が高速な場合には移動被写体を撮影する場合が多いの
で、フォーカスモードも応答性を重視してコンティニュ
アスまたは追尾にする。このようにすればシャッタ速度
情報に応じて最適なフォーカスモードを選択することが
できる。
When information on the shutter speed can be obtained,
According to the information, the focus mode is selected as shown in the right column of FIG. When the shutter speed is low, a still object such as a person or a landscape is often photographed. Therefore, the focus mode is set to a single focusing on stability. When the shutter speed is high, a moving subject is often photographed. Therefore, the focus mode is set to continuous or tracking with emphasis on responsiveness. This makes it possible to select an optimal focus mode according to the shutter speed information.

【0144】被写体輝度の情報を得られる場合には、該
情報に従って図81の右欄のごとくフォーカスモードを
選択する。低輝度の場合には人物や風景等の静止被写体
を撮影する場合が多いので、フォーカスモードも安定性
を重視してシングルにする。高輝度な場合には移動被写
体を撮影する場合が多いので、フォーカスモードも応答
性を重視してコンティニュアスまたは追尾にする。この
ようにすれば輝度情報に応じて最適なフォーカスモード
を選択することができる。
When information on the subject luminance can be obtained, the focus mode is selected as shown in the right column of FIG. 81 according to the information. In the case of low brightness, a still object such as a person or a landscape is often photographed, so that the focus mode is made single with emphasis on stability. In the case of high brightness, a moving subject is often photographed, so that the focus mode is set to continuous or tracking with emphasis on responsiveness. This makes it possible to select an optimal focus mode according to the luminance information.

【0145】ストロボ発光の情報を得られる場合には、
該情報に従って図82の右欄のごとくフォーカスモード
を選択する。ストロボ発光の場合は人物等の静止被写体
を撮影する場合が多いので、フォーカスモードも安定性
を重視してシングルにする。ストロボ非発光の場合には
移動被写体を撮影する場合が多いので、フォーカスモー
ドも応答性を重視してコンティニュアスまたは追尾にす
る。このようにすればストロボ情報に応じて最適なフォ
ーカスモードを選択することができる。
When information on strobe light emission can be obtained,
The focus mode is selected as shown in the right column of FIG. 82 according to the information. In the case of stroboscopic light emission, a still object such as a person is often photographed. Therefore, the focus mode is set to single with emphasis on stability. In the case of no flash emission, a moving subject is often photographed, so that the focus mode is set to continuous or tracking with emphasis on responsiveness. This makes it possible to select an optimal focus mode according to the flash information.

【0146】撮影光学系の収差の情報を得られる場合に
は、該情報に従って図83の右欄のごとくフォーカスモ
ードを選択する。軸上と周辺の収差が大きい場合はAF
モードの撮影には向かないので、フォーカスモードもマ
ニュアルまたはパワーフォーカスにする。軸上と周辺の
収差が小さい場合はAFモードの撮影に適しているの
で、フォーカスモードもシングルまたはコンティニュア
スまたは追尾のAFモードにする。このようにすれば収
差情報に応じて最適なフォーカスモードを選択すること
ができる。
If the information on the aberration of the photographing optical system can be obtained, the focus mode is selected as shown in the right column of FIG. 83 according to the information. AF when the on-axis and peripheral aberrations are large
Since it is not suitable for shooting in the mode, the focus mode is also set to manual or power focus. If the on-axis and peripheral aberrations are small, it is suitable for shooting in the AF mode. Therefore, the focus mode is also set to the single, continuous, or tracking AF mode. This makes it possible to select an optimal focus mode according to the aberration information.

【0147】次にフォーカスモードの選択を焦点検出の
結果または被写体像データに応じて選択する例について
述べる。
Next, an example in which the focus mode is selected according to the result of focus detection or subject image data will be described.

【0148】合焦情報を得られる場合には、該情報に従
って図84の右欄のごとくフォーカスモードを選択す
る。合焦する以前はAFモードの撮影するために、フォ
ーカスモードもシングルにする。合焦後は撮影者の意志
でピントを微調整するために、フォーカスモードをマニ
ュアルまたはパワーフォーカスする。このようにすれば
合焦情報に応じて最適なフォーカスモードを選択するこ
とができる。
When focus information can be obtained, the focus mode is selected as shown in the right column of FIG. 84 according to the information. Before focusing, the focus mode is also set to single in order to shoot in the AF mode. After focusing, the focus mode is manually or power-focused in order to finely adjust the focus according to the photographer's will. This makes it possible to select an optimum focus mode according to the focusing information.

【0149】検出可否情報を得られる場合には、該情報
に従って図85の右欄のごとくフォーカスモードを選択
する。焦点検出可能な場合はAFモードの撮影するため
に、フォーカスモードもシングルまたはコンティニュア
スにする。焦点検出不能な場合は撮影者によってピント
調節を行うために、フォーカスモードをマニュアルまた
はパワーフォーカスする。このようにすれば検出可否情
報に応じて最適なフォーカスモードを選択することがで
きる。
When the detection possibility information can be obtained, the focus mode is selected as shown in the right column of FIG. 85 according to the information. If the focus can be detected, the focus mode is also set to single or continuous for shooting in the AF mode. If the focus cannot be detected, the focus mode is set to manual or power focus in order to adjust the focus by the photographer. This makes it possible to select an optimum focus mode according to the detection possibility information.

【0150】被写体パターンの情報を得られる場合に
は、該情報に従って図86の右欄のごとくフォーカスモ
ードを選択する。被写体コントラストが低い場合には移
動被写体の撮影には向かないので、フォーカスモードも
安定性を重視してシングルにする。コントラストが高い
場合には移動被写体の撮影に適しているので、フォーカ
スモードも応答性を重視してコンティニュアスまたは追
尾にする。このようにすればシャッタ速度情報に応じて
最適なフォーカスモードを選択することができる。
If the information on the subject pattern can be obtained, the focus mode is selected as shown in the right column of FIG. 86 according to the information. If the subject contrast is low, it is not suitable for photographing a moving subject, so the focus mode is made single with emphasis on stability. When the contrast is high, it is suitable for photographing a moving subject. Therefore, the focus mode is set to continuous or tracking with emphasis on responsiveness. This makes it possible to select an optimal focus mode according to the shutter speed information.

【0151】デフォーカス情報を得られる場合には、該
情報に従って図87の右欄のごとくフォーカスモードを
選択する。デフォーカスが大きい場合には応答性を重視
して、フォーカスモードをコンティニュアスにする。デ
フォーカスが小さくなった場合には安定性を重視して、
フォーカスモードシングルにする。このようにすればデ
フォーカス情報に応じて最適なフォーカスモードを選択
することができる。
When the defocus information can be obtained, the focus mode is selected as shown in the right column of FIG. 87 according to the information. When the defocus is large, responsiveness is emphasized and the focus mode is set to continuous. When the defocus decreases, focus on stability,
Set focus mode to single. This makes it possible to select an optimum focus mode according to the defocus information.

【0152】以上がレンズ駆動制御CPU50の動作で
ある。
The operation of the lens drive control CPU 50 has been described above.

【0153】<メインCPUの動作>図20において、
ボデイ20の内部にはまたカメラシ−ケンス、露出動作
を主として制御するメインCPU60がある。メインC
PU60は被写体輝度を測光センサ86から得るととも
に、フィルム感度、絞り値、シャッター速度等の露出設
定に関する情報を不図示の設定手段より得て、それらの
情報に基づいて絞り値、シャッター速度を決定するとと
もに、これらの情報を表示手段85に表示する。また撮
影動作においては、ミラー制御手段81によるメインミ
ラー21のアップ、ダウン動作の制御を行い、絞り制御
手段83による絞り機構の動作制御を行い、シャッタ制
御手段82によるシャッター機構の動作制御を行うとと
もに、撮影動作終了後は次の撮影動作に備えて、巻き上
げチャージ制御手段84による巻き上げチャージ機構の
動作制御を行う。メインCPU60は各種カメラの操作
手段80、レンズCPU12、レンズ駆動制御CPU5
0、AF演算CPU40、AF検出系制御CPU33等
とも結合されており、カメラシ−ケンス、露出動作の制
御に必要な情報を他のCPU等からもらったり、他のC
PUに必要なカメラシーケンスの情報を送ったりする。
例えばフォーカスモードがシングルに設定されていた場
合には、レンズ駆動制御CPU50から送られるレリー
ズ許可情報により、レリーズ動作を制御する。
<Operation of Main CPU> Referring to FIG.
Inside the body 20, there is also a main CPU 60 for mainly controlling the camera sequence and the exposure operation. Main C
The PU 60 obtains the subject brightness from the photometric sensor 86, obtains information on exposure settings such as the film sensitivity, the aperture value, and the shutter speed from setting means (not shown), and determines the aperture value and the shutter speed based on the information. At the same time, such information is displayed on the display means 85. In the photographing operation, the mirror control unit 81 controls the up / down operation of the main mirror 21, the aperture control unit 83 controls the operation of the aperture mechanism, and the shutter control unit 82 controls the operation of the shutter mechanism. After the photographing operation is completed, the operation of the winding charge mechanism is controlled by the winding charge control means 84 in preparation for the next photographing operation. The main CPU 60 includes operation means 80 of various cameras, a lens CPU 12, a lens drive control CPU 5,
0, an AF calculation CPU 40, an AF detection system control CPU 33, etc., to obtain information necessary for controlling the camera sequence and the exposure operation from another CPU or the like.
It sends necessary camera sequence information to the PU.
For example, when the focus mode is set to single, the release operation is controlled by the release permission information sent from the lens drive control CPU 50.

【0154】またメインCPU60はAF検出系制御C
PU33とメモリ34とに接続されており、被写体輝度
情報は専用の測光センサ86だけから得るのではなく、
焦点検出に用いられる被写体像データ及び光電変換手段
の電荷蓄積時間とに基づいて得ることもできる。例えば
測光に用いられる被写体像領域のデータの平均値をB
v,蓄積時間をTvとすればBv/Tvに基づいて被写
体輝度を決定することができる。
The main CPU 60 controls the AF detection system control C
It is connected to the PU 33 and the memory 34, and the subject luminance information is not obtained from only the dedicated photometric sensor 86,
It can also be obtained based on the subject image data used for focus detection and the charge accumulation time of the photoelectric conversion means. For example, the average value of the data of the subject image area used for photometry is B
If v and the accumulation time are Tv, the subject brightness can be determined based on Bv / Tv.

【0155】測光に用いる被写体像領域の選択方法とし
ては以下のものが用いられる。例えば図29(a)、
(b)に示すエリアをAFエリア選択手段66の操作ま
たは視点検知手段68の動作に応じて測光エリアとして
用いることができる。このようにすれば、AFエリアと
測光エリアが常に一致するのでピントと露出が同一被写
体に最適化することができる。またAF検出系制御CP
U33またはAF演算CPU40により周辺光量の低下
が判定され、焦点検出演算に用いられる被写体像のデー
タエリアが制限された場合は、それに応じて測光演算に
用いる被写体像のデータエリアを制限するようにしても
よい。
The following is used as a method of selecting a subject image area used for photometry. For example, FIG.
The area shown in (b) can be used as a photometry area according to the operation of the AF area selection unit 66 or the operation of the viewpoint detection unit 68. By doing so, the AF area and the photometry area always match, so that focus and exposure can be optimized for the same subject. Also, AF detection system control CP
If the decrease in the peripheral light amount is determined by the U33 or the AF calculation CPU 40, and the data area of the subject image used in the focus detection calculation is limited, the data area of the subject image used in the photometry calculation is limited accordingly. Is also good.

【0156】以上がメインCPU60の動作である。The above is the operation of the main CPU 60.

【0157】<画像表示制御CPUの動作>図20にお
いて、ボデイ20の内部にはまた焦点検出に関する情報
表示を制御する画像表示CPU90がある。画像表示制
御CPU90はAF演算CPU40から焦点検出情報
(焦点検出エリア、選択ポイント、合焦/非合焦、合焦
方向等)を得るとともに、該情報を表示手段92に表示
する。また表示選択手段91によりマニュアルで表示の
ON/OFFを選択可能に構成されている。
<Operation of Image Display Control CPU> In FIG. 20, inside the body 20, there is also an image display CPU 90 for controlling information display relating to focus detection. The image display control CPU 90 obtains focus detection information (focus detection area, selection point, focus / non-focus, focus direction, etc.) from the AF calculation CPU 40 and displays the information on the display means 92. Further, the display selection means 91 is configured so that display ON / OFF can be manually selected.

【0158】あるいは他の操作手段の操作に連動して表
示手段92のON/OFFを選択してもよい。例えばフ
ォーカスモード選択手段63によりマニュアルモードが
選択された場合は自動的に表示手段92を表示しないよ
うにする。このようにすれば、表示が煩わしい時は撮影
者の意志で表示を消すことができる。表示手段92はス
クリーン23上のフィルム面と共役な面上にエレクトロ
クロミック素子やエレクトロルミネッセンス素子等の光
電物性素子と透明電極とから構成されている。例えば焦
点検出エリアの選択状態であるスポット、ワイドは図4
0(a)、(b)に示すごとく画面内に表示される。焦
点検出エリアの選択は前述のごとく、光量分布検出手段
の検出結果や、AFエリア選択手段66の操作やその他
操作手段の操作に連動して選択される。また画面内に複
数の焦点検出エリアがAFエリア選択手段66または視
点検知手段68等により設定された場合には、AF演算
CPU40により最終的に選択されたエリアを図40
(c)のように表示する。
Alternatively, ON / OFF of the display means 92 may be selected in conjunction with the operation of another operation means. For example, when the manual mode is selected by the focus mode selection unit 63, the display unit 92 is not automatically displayed. In this way, when the display is troublesome, the display can be erased by the photographer's will. The display means 92 is composed of a photoelectric property element such as an electrochromic element or an electroluminescence element and a transparent electrode on a surface conjugate to the film surface on the screen 23. For example, the spot and the wide in the selected state of the focus detection area are shown in FIG.
0 (a) and (b) are displayed in the screen. As described above, the focus detection area is selected in conjunction with the detection result of the light amount distribution detection means, the operation of the AF area selection means 66, and the operation of other operation means. When a plurality of focus detection areas are set in the screen by the AF area selection unit 66 or the viewpoint detection unit 68, the area finally selected by the AF calculation CPU 40 is determined as shown in FIG.
It is displayed as shown in (c).

【0159】焦点検出状態の表示(合焦、非合焦)は図
41のごとく表示する。図41(a)では非合焦時には
測距エリアの枠部(測距フレーム)のみを表示し、合焦
時には測距フレーム内を半透明にし合焦を表示する。
(a)の表示形態の変形として、測距フレーム内の色付
けを合焦時と非合焦時で切り替えるようにしてもよい
し、非合焦時にデフォーカス方向により色付けを切り替
えてもよい。図41(b)では非合焦時には測距フレー
ムを細く表示し、合焦時には測距フレームを太くするこ
とにより合焦表示する。(b)の変形として測距フレー
ムの色付けを合焦時と非合焦時で切り替えるとともに、
非合焦時にデフォーカス方向により色付けを切り替える
ようにしてもよい。図41(c)では非合焦時には測距
フレームを破線で表示し、合焦時には測距フレームを通
常線により合焦表示する。図41(d)では非合焦時に
は測距フレームを鍵括弧で表示し、合焦時には測距フレ
ームを長方形で合焦表示する。図41(e)では非合焦
時のみ測距フレームを表示し、合焦時には測距フレーム
を表示しないことにより合焦表示する。このようにすれ
ば被写体を選択する必要がある時のみ焦点検出エリアが
表示され、合焦後はエリア表示が消えて画面が見やすく
なるので使い勝手が向上する。図41(f)では非合焦
時には長方形の測距フレームの一部を切り欠くとともに
切り欠き部位置によりデフォーカス方向と量を表示し、
合焦時には測距フレームを切り欠きなしで表示すること
により合焦表示する。以上のように画面内に焦点検出情
報を表示することにより、画面外の表示と比較して被写
体から目を逸す必要がなくなり、移動する被写体に対し
ても被写体を追いながらかつ焦点検出情報を確認するこ
とができる。
The display of the focus detection state (in-focus, out-of-focus) is displayed as shown in FIG. In FIG. 41A, only the frame portion (distance measurement frame) of the distance measurement area is displayed at the time of out-of-focus, and at the time of focus, the inside of the distance measurement frame is made translucent to display focus.
As a modification of the display mode of (a), the coloring in the ranging frame may be switched between in-focus and out-of-focus, or the coloring may be switched depending on the defocus direction when out of focus. In FIG. 41B, the focusing frame is displayed thin when out of focus, and the focusing frame is displayed thick by focusing when focusing. As a variation of (b), the coloring of the distance measurement frame is switched between in-focus and out-of-focus, and
Coloring may be switched depending on the defocus direction when out of focus. In FIG. 41 (c), when out of focus, the distance measurement frame is displayed by a broken line, and when in focus, the distance measurement frame is displayed in focus by a normal line. In FIG. 41D, the focusing frame is displayed in brackets when out of focus, and the focusing frame is displayed as a rectangle when focused. In FIG. 41 (e), the focusing frame is displayed only when the subject is out of focus, and the focusing frame is not displayed when the subject is in focus. In this way, the focus detection area is displayed only when it is necessary to select a subject, and after focusing, the area display disappears and the screen becomes easy to see, so that the usability is improved. In FIG. 41 (f), when out of focus, a part of the rectangular ranging frame is cut out, and the defocus direction and the amount are displayed by the position of the notch,
At the time of focusing, the focusing frame is displayed by displaying the distance measurement frame without a notch. By displaying the focus detection information on the screen as described above, it is not necessary to look away from the subject compared to the display outside the screen, and the focus detection information is confirmed while following the subject even for the moving subject can do.

【0160】図20のようにスクリーン23面上に表示
手段92があり、かつファインダ内に測光センサ86が
あり、該測光センサ86がスクリーン23を通る光を測
光する場合は、表示手段92の動作状態により測光値が
変動する恐れがある。そこで表示手段92の動作と測光
センサの測光動作を時分割で周期的に行うようにする。
前記周期は人間の視覚特性を考慮して表示のON/OF
Fが目だたないような周期(100ms以下)とする。
As shown in FIG. 20, there is a display means 92 on the screen 23 and a photometric sensor 86 in the finder. When the photometric sensor 86 measures light passing through the screen 23, the operation of the display means 92 is performed. The photometric value may fluctuate depending on the state. Therefore, the operation of the display means 92 and the photometric operation of the photometric sensor are periodically performed in a time-division manner.
The cycle is ON / OF of display in consideration of human visual characteristics.
A period (100 ms or less) is set so that F is inconspicuous.

【0161】また測光センサに表示の影響を与えないよ
うに図42のように表示手段92を構成してもよい。図
42において照明手段94に照明された表示素子93は
レンズ95、接眼レンズ25中に設置されたハーフミラ
ー96を介し、ファインダ観察者の目97に投影され
る。このような光学系において表示素子93の表示面が
ファインダ画面と形状・位置が重なるように上記光学部
材の形状及び位置が設定されている。図42の構成では
焦点検出エリアを表示するために表示面がスクリーン面
とほぼ共役な位置になるように設定されたが、合焦表示
のみでよい場合は前記共役関係をくずして光学系を簡単
にし、LED等の発光素子の光を単に目の方向に投射す
るだけにしてもよい。このようにすればカメラ内のスペ
ースも少なくて済む。
The display means 92 may be configured as shown in FIG. 42 so as not to affect the display of the photometric sensor. In FIG. 42, the display element 93 illuminated by the illumination means 94 is projected to the eye 97 of the finder observer via the lens 95 and the half mirror 96 installed in the eyepiece 25. In such an optical system, the shape and position of the optical member are set such that the display surface of the display element 93 overlaps the shape and position with the viewfinder screen. In the configuration of FIG. 42, the display surface is set to be substantially conjugate with the screen surface in order to display the focus detection area. However, if only the focused display is required, the conjugate relationship is broken to simplify the optical system. Alternatively, the light of a light emitting element such as an LED may be simply projected toward the eyes. In this way, the space in the camera can be reduced.

【0162】図20においてはファインダにより光学的
な被写体像を観察していたが、図43のごとく画像表示
手段98により一度電気的信号に変換した被写体像を観
察するような構成にすれば、被写体像とAF情報の表示
合成が比較的簡単に行うことができる。
In FIG. 20, an optical object image is observed by the finder. However, as shown in FIG. 43, if the image display means 98 observes the object image once converted into an electric signal, the object can be observed. The display synthesis of the image and the AF information can be performed relatively easily.

【0163】図43においてカメラボデイ20にレンズ
10を装着した状態において、被写体から到来する撮影
光束は、撮影レンズ11を通ってカメラボデイ20内の
光路中に出し入れ可能な縮小光学系99を通り、ミラー
100により反射されて、焦点検出及び観察用の光束と
して前記焦点検出光学系30に導かれる。縮小光学系9
9は、画面サイズを焦点検出光学系30を通った後にA
F用の2次元的光電変換手段32の受光部のサイズと揃
えるための光学手段であって、フィルムへの露光が行わ
れる時は光路外にミラー100とともにAF検出系制御
CPU33の制御により待避される。光電変換部32で
光電変換された複数対の被写体像データはメモリ34に
格納されるとともに、画像表示制御CPU90に読み出
され、被写体像データとAF表示情報が画像表示制御C
PU90により合成されて画像表示手段98に表示さ
れ、該表示画面が接眼レンズ25を介して観察される。
例えば図13に示す焦点検出光学系においては一対の2
次元被写体像データが得られるが、表示される被写体像
データとして片方のみの被写体像データを用いてもよい
し、両方を合成してもよいし、2つの方法を切り替える
ようにしてもよい。片方のみを用いれば、デフォーカス
時にも被写体のボケが少ないので被写体の視認性が高ま
るとともに、合成した場合にはボケかたが撮影時に近く
なるのでボケの様子の確認に有利である。またAF検出
系制御CPU33の制御により縮小光学系99の一部を
移動して縮小倍率を変更することにより画像表示手段9
8による倍率を変えることができ、撮影光学系11を変
更せずに被写体の一部のみを拡大して焦点検出および観
察したいような場合に便利である。
In FIG. 43, when the lens 10 is mounted on the camera body 20, a photographing light beam coming from the subject passes through the photographing lens 11, passes through a reduction optical system 99 that can enter and exit the optical path in the camera body 20, and The light is reflected by the mirror 100 and guided to the focus detection optical system 30 as a light beam for focus detection and observation. Reduction optical system 9
9 is a screen size after passing the focus detection optical system 30
This is an optical unit for adjusting the size of the light receiving unit of the two-dimensional photoelectric conversion unit 32 for F. When the film is exposed, it is evacuated to the outside of the optical path together with the mirror 100 under the control of the AF detection system control CPU 33. You. The plural pairs of subject image data photoelectrically converted by the photoelectric conversion unit 32 are stored in the memory 34 and read out by the image display control CPU 90, and the subject image data and the AF display information are stored in the image display control C.
The images are synthesized by the PU 90 and displayed on the image display means 98, and the display screen is observed through the eyepiece 25.
For example, in the focus detection optical system shown in FIG.
Although one-dimensional subject image data is obtained, only one subject image data may be used as subject image data to be displayed, both may be combined, or two methods may be switched. If only one of them is used, the blur of the subject is small even at the time of defocusing, so that the visibility of the subject is improved. In addition, when combined, the blur becomes closer to the time of shooting, which is advantageous for confirming the state of blur. Further, by moving a part of the reduction optical system 99 under the control of the AF detection system control CPU 33 to change the reduction magnification, the image display means 9 is controlled.
The magnification by 8 can be changed, which is convenient when it is desired to detect and observe a focus by enlarging only a part of the subject without changing the photographing optical system 11.

【0164】上記説明は画像表示手段98がボディ20
に内蔵されている場合であったが、次に図44を用いて
ボディ外で画像表示を行う例について述べる。
In the above description, the image display means 98 is the body 20
Next, an example in which an image is displayed outside the body will be described with reference to FIG.

【0165】図44において画像表示制御CPU90で
合成された被写体像データとAF表示情報とからなる画
像データはボディ20と外部装置を結合するための結合
手段B202を介してボディ外にある液晶テレビ等の外
部画像表示手段200に表示される。結合手段B202
は有線でも無線でもよい。このようにすればカメラボデ
ィ20を手元におかなくても被写体像とAF状態を観察
できるので不図示のリモコン撮影装置等と組み合わせれ
ば、撮影可能な状況を拡大することができる。また画像
表示制御CPU90に取り込まれた被写体像データはボ
ディ20と外部装置を結合するための結合手段A203
を介してボディ外にあるメモリカード等の外部画像記憶
手段201に記憶させることもできる。
In FIG. 44, the image data composed of the subject image data and the AF display information synthesized by the image display control CPU 90 is supplied to a liquid crystal television or the like outside the body via a connecting means B202 for connecting the body 20 to an external device. Is displayed on the external image display means 200. Coupling means B202
May be wired or wireless. In this way, the subject image and the AF state can be observed without holding the camera body 20 at hand, and therefore, when combined with a remote control photographing device (not shown) or the like, it is possible to expand the photographable state. Further, the subject image data taken in by the image display control CPU 90 is connected to a connecting means A203 for connecting the body 20 and an external device.
Via an external image storage means 201 such as a memory card outside the body.

【0166】上記のような構成では観察用または記憶用
被写体像データをAF用の光電変換手段によって得られ
た瞳分割型焦点検出用データと共通化しているので光電
変換手段を共用できスペース的にもコスト的にも有利で
ある。
In the above configuration, the object image data for observation or storage is shared with the data for pupil division type focus detection obtained by the photoelectric conversion means for AF. This is also advantageous in terms of cost.

【0167】また図20に示す焦点検出装置の構成で
は、AF検出系制御CPU33、AF演算CPU40、
レンズ駆動制御CPU50、画像表示制御CPU90を
それぞれ分離独立して設けているので、光電変換手段の
制御、焦点検出演算、レンズ駆動制御、表示制御動作を
時間的にオーバラップさせることができ焦点検出動作の
応答性向上をはかることができる。
In the configuration of the focus detection device shown in FIG. 20, the AF detection system control CPU 33, the AF calculation CPU 40,
Since the lens drive control CPU 50 and the image display control CPU 90 are provided separately and independently, the control of the photoelectric conversion means, the focus detection calculation, the lens drive control, and the display control operation can be temporally overlapped, and the focus detection operation can be performed. Responsiveness can be improved.

【0168】以上図20に示した焦点検出装置について
説明した。次に焦点検出光学系を変更した焦点検出装置
の別実施例について述べる。
The focus detection apparatus shown in FIG. 20 has been described. Next, another embodiment of the focus detection device in which the focus detection optical system is changed will be described.

【0169】図45は、瞳分割型焦点検出光学系とし
て、図10のような再結像光学系ではなく撮影光学系1
1の光路中にエレクトロクロミック素子等の光電的物性
素子を用いた物性絞り450を設置して、再結像させず
に一次像面より前で機械的に瞳分割を行うタイプの光学
系を使用した焦点検出装置のブロック図であって、図2
0と同じ部分は省略してある。
FIG. 45 shows a photographing optical system 1 as a pupil division type focus detection optical system, instead of the re-imaging optical system shown in FIG.
An optical system of a type that mechanically splits the pupil before the primary image plane without re-imaging is installed by installing a physical stop 450 using a photoelectric physical element such as an electrochromic element in the optical path of 1. FIG. 2 is a block diagram of a focus detection device according to the first embodiment.
Parts that are the same as 0 are omitted.

【0170】図46は該焦点検出光学系部分のみを取り
出した場合の斜視図であって、物性絞り450により焦
点検出瞳305A、305Bが形成され、該瞳を通過し
た光束が縮小光学系99を通りフィルム面と等価な位置
に置かれた2次元状受光部304Dを有する光電変換手
段32上に被写体像を形成する。このような光学系にお
いて、物性絞り450により焦点検出瞳305A、30
5Bを時分割で切り替えると同時に、焦点検出瞳305
A、305Bが設置されていた時間に光電変換手段32
から得られる一対の被写体像信号を前述の焦点検出演算
処理と同様に処理することにより、撮影レンズ11のデ
フォーカス量を求めることができる。
FIG. 46 is a perspective view when only the focus detection optical system portion is taken out. The focus stop pupils 305A and 305B are formed by the physical stop 450, and the light beam passing through the pupil is transmitted to the reduction optical system 99. A subject image is formed on the photoelectric conversion unit 32 having the two-dimensional light receiving unit 304D placed at a position equivalent to the film surface. In such an optical system, the focus stop pupils 305A and 30
5B is switched in a time-division manner, and at the same time, the focus detection pupil 305
A, the photoelectric conversion means 32
The defocus amount of the photographing lens 11 can be obtained by processing the pair of subject image signals obtained from the above in the same manner as the focus detection calculation processing described above.

【0171】図45においてカメラボデイ20にレンズ
10を装着した場合、被写体から到来する撮影光束は、
撮影レンズ11中に設置された物性絞り450を通り、
カメラボデイ20内の光路中に出し入れ可能な縮小光学
系99を通り、ミラー100により反射されて、焦点検
出用光束としてフィルム面と共役な面に設置された光電
変換手段32に導かれる。物性絞り450はAF用の焦
点検出瞳を時分割で制御するための手段であって、ボデ
イ20と、レンズ10のマウント部に設けられたレンズ
側の接点19Fと、これに対応するボディ側の接点59
Fを介してAF検出系制御CPU33の制御によりその
絞り形状が図47(a)と(b)のごとく時分割して切
り替えられるとともに、フィルムへの露光が行われる時
は図47(c)のように決められた絞り値となるように
形状を制御され、通常の撮影絞りとして機能する。また
上記AF時の物性絞り450の焦点検出瞳305A、3
05Bの形状及び位置の情報はレンズCPU12からボ
ディ側に伝えられ、該情報はケラレ検出や焦点検出演算
に用いられる。縮小光学系99は画面サイズをAF用の
2次元的光電変換手段32の受光部のサイズと揃えるた
めの光学手段であって、フィルムへの露光が行われる時
は光路外にミラー100とともにAF検出系制御CPU
33の制御により待避される。尚、縮小光学系99は必
ずしも必須の構成要件ではない。
In FIG. 45, when the lens 10 is mounted on the camera body 20, the luminous flux coming from the subject is
It passes through a physical property stop 450 installed in the taking lens 11,
The light passes through a reduction optical system 99 that can be put into and taken out of the optical path in the camera body 20, is reflected by the mirror 100, and is guided as a focus detection light beam to the photoelectric conversion unit 32 provided on a surface conjugate with the film surface. The physical property stop 450 is a means for controlling the focus detection pupil for AF in a time-division manner, and includes a body 20, a contact 19F on the lens side provided on the mount portion of the lens 10, and a corresponding body side contact 19F. Contact 59
Under the control of the AF detection system control CPU 33 via F, the aperture shape is switched in a time-division manner as shown in FIGS. 47A and 47B, and when the film is exposed, the aperture shape shown in FIG. The shape is controlled so as to have the determined aperture value, and functions as a normal shooting aperture. Further, the focus detection pupils 305A, 305A, 3
Information on the shape and position of 05B is transmitted from the lens CPU 12 to the body side, and the information is used for vignetting detection and focus detection calculation. The reduction optical system 99 is an optical unit for adjusting the screen size to the size of the light receiving unit of the two-dimensional photoelectric conversion unit 32 for AF, and detects AF along with the mirror 100 outside the optical path when the film is exposed. System control CPU
It is saved by the control of 33. Note that the reduction optical system 99 is not an essential component.

【0172】光電変換手段32の受光部304Dは例え
ば図49(a)のような構成になっている。
The light receiving portion 304D of the photoelectric conversion means 32 has, for example, a configuration as shown in FIG.

【0173】図49において、フォトダイオード等の光
電変換素子アレイ500で発生した電荷はゲート50
1、502により電荷蓄積素子アレイ503、504に
一時的に蓄えられた後、ゲート505、506によりC
CD等の電荷転送部507に送られ、電荷転送部507
の動作により光電変換手段32外に出力転送される。
In FIG. 49, charges generated in the photoelectric conversion element array 500 such as a photodiode are
After being temporarily stored in the charge storage element arrays 503 and 504 by 1 and 502, C
The charge is transferred to the charge transfer unit 507 such as a CD, and
Is output and transferred to the outside of the photoelectric conversion means 32.

【0174】図49(a)に示す構造を持った光電変換
手段32を用いた時の図45に示す焦点検出装置の動作
を、図48のタイミングチャート及び図49(b),
(c),(d),(e)に示す図49(a)の光電変換
手段32の受光部ポテンシャル概念図を用いて説明す
る。
The operation of the focus detection device shown in FIG. 45 when the photoelectric conversion means 32 having the structure shown in FIG. 49A is used will be described with reference to the timing chart of FIG.
This will be described with reference to the conceptual diagrams of the light receiving portion potential of the photoelectric conversion means 32 shown in FIG. 49 (a) shown in (c), (d) and (e).

【0175】物性絞り450により時分割で切り替えら
れられる焦点検出瞳305A、305Bに同期した光電
変換手段32から得られる一対の被写体像信号を処理す
る場合、一回のみの同期で取り込んだ一対の被写体像信
号は同時性が薄いので、移動する被写体等時間的に変化
する被写体に対して該信号を用いて焦点検出を行うと誤
差を生じてしまう。そこで図48(c)に示す光電変換
手段32の蓄積時間ON中に図48(a)、(b)に示
すフェーズP1,P2を交互に複数回挿入することによ
り、一対の被写体像信号は同時性を高める。図48
(a)において、フェーズP1のONの期間には図47
(a)のごとく物性絞り450により焦点検出瞳305
Aを設定するとともに、図49(b)に示すごとくゲー
ト501部のポテンシャルを低めて光電変換素子アレイ
500で発生した電荷を電荷蓄積アレイ503に蓄え
る。尚、この時ゲート502、505、506部のポテ
ンシャルは高く設定しておく。図48(b)において、
フェーズP2のONの期間には、図47(b)のごとく
物性絞り450により焦点検出瞳305Bを設定すると
ともに、図49(c)に示すごとくゲート502部のポ
テンシャルを低めて光電変換素子アレイ500で発生し
た電荷を電荷蓄積アレイ504に蓄える。尚この時ゲー
ト503、505、506部のポテンシャルは高く設定
しておく。
When processing a pair of subject image signals obtained from the photoelectric conversion means 32 in synchronization with the focus detection pupils 305A and 305B which are switched in a time-division manner by the physical property stop 450, a pair of subject images captured only once in synchronization Since the image signal has low synchronism, an error occurs when focus detection is performed using the signal on a temporally changing subject such as a moving subject. Therefore, by inserting the phases P1 and P2 shown in FIGS. 48A and 48B alternately a plurality of times during the accumulation time ON of the photoelectric conversion means 32 shown in FIG. Enhance the nature. FIG.
In FIG. 47A, during the ON period of the phase P1, FIG.
(A) As shown in FIG.
A is set, and as shown in FIG. 49B, the potential of the gate 501 is lowered to store the charges generated in the photoelectric conversion element array 500 in the charge storage array 503. At this time, the potentials of the gates 502, 505, and 506 are set high. In FIG. 48 (b),
In the ON period of the phase P2, the focus detection pupil 305B is set by the physical property stop 450 as shown in FIG. 47B, and the potential of the gate 502 is lowered as shown in FIG. Are stored in the charge storage array 504. At this time, the potentials of the gates 503, 505 and 506 are set high.

【0176】以上のように蓄積時間中にフェーズP1、
P2を複数回繰り返した後、蓄積を終了させ電荷読みだ
しフェーズP3、P4に移行する。フェーズP3では図
49(d)に示すごとく、ゲート505部のポテンシャ
ルを低めて電荷蓄積素子アレイ503に蓄えられた電荷
を電荷転送部507にパラレルに転送し、その後、電荷
転送部507に移動した電荷は電荷転送部507の動作
により外部に転送される。電荷蓄積素子アレイ503に
蓄えられたすべての電荷が電荷転送部507の動作によ
り外部に転送されてフェーズP3が終了すると、フェー
ズP4が開始される。フェーズP4では図49(e)に
示すごとく、ゲート506部のポテンシャルを低めて電
荷蓄積素子アレイ504に蓄えられた電荷を電荷転送部
507にパラレルに転送し、その後電荷転送部507に
移動した電荷は電荷転送部507の動作により外部に転
送される。電荷蓄積素子アレイ504に蓄えられたすべ
ての電荷が電荷転送部507の動作により外部に転送さ
れると、フェーズP4が終了して一連の蓄積読みだし動
作が終わる。
As described above, during the accumulation time, the phase P1,
After P2 is repeated a plurality of times, the accumulation is terminated, and the process proceeds to the charge reading phases P3 and P4. In phase P3, as shown in FIG. 49 (d), the potential of the gate 505 is lowered, the charge stored in the charge storage element array 503 is transferred to the charge transfer unit 507 in parallel, and then moved to the charge transfer unit 507. The charge is transferred to the outside by the operation of the charge transfer unit 507. When all charges stored in the charge storage element array 503 are transferred to the outside by the operation of the charge transfer unit 507 and the phase P3 ends, the phase P4 starts. In phase P4, as shown in FIG. 49 (e), the potential of the gate 506 is lowered, the charge stored in the charge storage element array 504 is transferred to the charge transfer unit 507 in parallel, and then the charge moved to the charge transfer unit 507. Are transferred to the outside by the operation of the charge transfer unit 507. When all the charges stored in the charge storage element array 504 are transferred to the outside by the operation of the charge transfer unit 507, the phase P4 ends, and a series of storage reading operations ends.

【0177】ところで、上記のように蓄積時間中に物性
絞り450による焦点検出瞳305A、305Bの切り
替えや光電変換手段32のゲート切り換えを高速に行う
場合、切り換え時の遷移に伴い、どうしても被写体像信
号間にクロストーク(光束や電荷の洩れ)が発生する。
クロストークがない理想的な状態での一対の被写体像信
号をf(x、y)、g(x、y)とすればクロストーク
が発生した場合の一対の被写体像信号F(x,y)、G
(x,y)は(17)式のように表される。 F(x,y)=a×f(x,y)+b×g(x,y) G(x,y)=b×f(x,y)+a×g(x,y) …(17) (17)式においてa,bは定数であり、aとbは予め
測定しておけば既知の値である。従って(17)式を変
形して(18)式のようにクロストークのない一対の被
写体像信号をf(x、y)、g(x、y)を求めること
ができる。 f(x,y)={b×F(x,y)−a×G(x,y)}/(b−a) g(x,y)={a×F(x,y)−b×G(x,y)}/(a−b) …(18) (18)式で求めたクロストークのない一対の被写体像
信号により従来と同様にして焦点検出演算処理を行うこ
とができる。
As described above, when switching the focus detection pupils 305A and 305B by the physical property stop 450 and switching the gates of the photoelectric conversion means 32 at high speed during the accumulation time, the subject image signal is inevitably accompanied by the transition at the time of switching. Crosstalk (light flux or charge leakage) occurs between them.
Assuming that a pair of subject image signals in an ideal state without crosstalk are f (x, y) and g (x, y), a pair of subject image signals F (x, y) when crosstalk occurs. , G
(X, y) is expressed as in equation (17). F (x, y) = a × f (x, y) + b × g (x, y) G (x, y) = b × f (x, y) + a × g (x, y) (17) In the equation (17), a and b are constants, and a and b are known values if measured in advance. Accordingly, f (x, y) and g (x, y) can be obtained from a pair of subject image signals without crosstalk as in equation (18) by modifying equation (17). f (x, y) = {b × F (x, y) −a × G (x, y)} / (ba) g (x, y) = {a × F (x, y) −b × G (x, y)} / (ab) (18) The focus detection calculation processing can be performed in the same manner as in the related art by using a pair of subject image signals without crosstalk obtained by Expression (18).

【0178】以上のように、図45に示す焦点検出装置
においては、焦点検出光学系として再結像しないタイプ
の瞳分割光学系を用いているので、従来のように焦点検
出のためのカメラボディ内のスペースを必要とせず、カ
メラボディをコンパクトにできるとともに、コスト的に
も有利である。また物性絞りをAF絞りと撮影絞りに兼
用できるのでレンズ内のスペースも節約できる。
As described above, in the focus detection device shown in FIG. 45, a pupil division optical system of a type that does not re-image is used as the focus detection optical system. The space inside the camera is not required, the camera body can be made compact, and the cost is also advantageous. In addition, since the physical diaphragm can be used for both the AF diaphragm and the photographing diaphragm, the space in the lens can be saved.

【0179】[0179]

【発明の効果】以上詳細に説明したように、請求項1の
発明によれば、コントラストの情報に応じて動体判定基
準値の設定を変更するようにしたので、コントラストが
低い場合には動体と判定しにくくすることにより焦点調
節動作の不安定性を防止することができる。また、請求
項2の発明によれば、撮影モードの選択に応じて動体判
定基準値の設定を変更するようにしたので、例えばポー
トレート撮影時には動体と判定しにくくすることにより
安定した焦点調節を行うことができ、スポーツ撮影時に
は逆に動体と判定しやすくすることによりシャターチャ
ンスを逃すこともない。
As described above in detail, according to the first aspect of the present invention, the setting of the moving object determination reference value is changed according to the information of the contrast. By making the determination difficult, the instability of the focus adjustment operation can be prevented. According to the second aspect of the present invention, the setting of the moving object determination reference value is changed in accordance with the selection of the shooting mode. It can be performed, and when shooting sports, it is easy to judge that the subject is a moving object, so that a shutter chance is not missed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態に係る焦点検出装置の構
成を示す概念図。
FIG. 1 is a conceptual diagram showing a configuration of a focus detection device according to an embodiment of the present invention.

【図2】 本発明の実施の形態に係る焦点検出装置の構
成を示すブロック図。
FIG. 2 is a block diagram showing a configuration of a focus detection device according to the embodiment of the present invention.

【図3】 焦点検出演算の処理手順を示すフローチャー
ト。
FIG. 3 is a flowchart showing a processing procedure of a focus detection calculation.

【図4】 図3(c)に示す前処理ルーチンの変形処理
例を示すフローチャートであり、(a)が被写体信号に
含まれる光量低下分の補正を行うフローを、(b)が低
周波成分除去フィルタ演算を行うフローをそれぞれ示
す。
FIGS. 4A and 4B are flowcharts showing a modification example of the preprocessing routine shown in FIG. 3C, in which FIG. 4A shows a flow for correcting a decrease in the amount of light included in a subject signal, and FIG. The flow which performs a removal filter operation is shown, respectively.

【図5】 撮影レンズの周辺光量比を示す図。FIG. 5 is a diagram showing a peripheral light amount ratio of a photographing lens.

【図6】 焦点検出瞳面での焦点検出瞳絞り形状を示す
図。
FIG. 6 is a diagram showing a focus detection pupil aperture shape on a focus detection pupil plane.

【図7】 撮影レンズの射出瞳面において開口部300
Aの座標(X0,Y0)および再結像レンズを通る光束を示
す図。
FIG. 7 shows an opening 300 in the exit pupil plane of the taking lens.
FIG. 6 is a diagram showing coordinates (X0, Y0) of A and a light beam passing through a re-imaging lens.

【図8】 光量分布情報Kaの様子を示す図。FIG. 8 is a diagram showing a state of light amount distribution information Ka.

【図9】 光量分布情報Kaの一例を示す図。FIG. 9 is a diagram showing an example of light amount distribution information Ka.

【図10】 本発明の実施の形態に係る焦点検出光学系
の構成の例を示す図。
FIG. 10 is a diagram showing an example of a configuration of a focus detection optical system according to an embodiment of the present invention.

【図11】 本発明の実施の形態に係る焦点検出光学系
の構成の別の例を示す図。
FIG. 11 is a diagram showing another example of the configuration of the focus detection optical system according to the embodiment of the present invention.

【図12】 本発明の実施の形態に係る焦点検出光学系
の構成のさらに別の例を示す図。
FIG. 12 is a diagram showing still another example of the configuration of the focus detection optical system according to the embodiment of the present invention.

【図13】 本発明の実施の形態に係る焦点検出光学系
の構成のもう一つの例を示す図。
FIG. 13 is a diagram showing another example of the configuration of the focus detection optical system according to the embodiment of the present invention.

【図14】 分割瞳を2つ有する例を示す図。FIG. 14 is a diagram showing an example having two split pupils.

【図15】 分割瞳を4つ有する例を示す図。FIG. 15 is a diagram showing an example having four split pupils.

【図16】 図10に示す焦点検出光学系を、X及びZ
軸を含む面で切断した図。
FIG. 16 shows the focus detection optical system shown in FIG.
The figure cut | disconnected by the plane containing an axis | shaft.

【図17】 ケラレにより瞳領域305A、305Bが
形成される様子を示す図。
FIG. 17 is a diagram showing how pupil regions 305A and 305B are formed by vignetting.

【図18】 光電変換素子上で集光する光束のケラレ量
が一様でなくなる様子を示す図。
FIG. 18 is a diagram showing a state in which the vignetting amount of a light beam condensed on a photoelectric conversion element is not uniform.

【図19】 光電変換素子上で集光する光束のケラレを
説明する図であり、(a)が開口部300A上の各点A
〜Eの配置を示し、(b)が再結像レンズ303Bによ
り結像された像を、(c)が再結像レンズ303Aによ
り結像された像を、(d)が(b)および(c)に示す
像を重ね合わせた状態をそれぞれ示す。
19A and 19B are diagrams illustrating vignetting of a light beam condensed on a photoelectric conversion element. FIG. 19A illustrates each point A on an opening 300A.
(B) shows an image formed by the re-imaging lens 303B, (c) shows an image formed by the re-imaging lens 303A, and (d) shows (b) and (b). 3C shows a state in which the images shown in FIG.

【図20】 焦点検出装置のより具体的な実施の形態を
示すブロック図。
FIG. 20 is a block diagram showing a more specific embodiment of the focus detection device.

【図21】 AF検出系制御CPUの動作を説明するフ
ローチャート。
FIG. 21 is a flowchart illustrating the operation of an AF detection system control CPU.

【図22】 メモリのデータ格納領域を説明する図。FIG. 22 illustrates a data storage area of a memory.

【図23】 光電変換素子の電荷蓄積動作と転送動作と
の動作タイミングを示す図であり、(a)が蓄積動作と
転送動作とを時間的に分離したものを、(b)および
(c)が時間的にオーバーラップさせたものを、(d)
が複数回に分割して蓄積動作を行った後、転送動作をす
るものをそれぞれ示す。
23A and 23B are diagrams showing operation timings of a charge accumulation operation and a transfer operation of the photoelectric conversion element, wherein FIG. 23A is a diagram in which the accumulation operation and the transfer operation are temporally separated, and FIGS. Are overlapped in time, (d)
Indicate that the transfer operation is performed after the storage operation is performed in a plurality of times.

【図24】 2次元の光電変換素子を分割して蓄積、転
送動作を行う様子を説明する図。
FIG. 24 is a diagram illustrating a state in which a two-dimensional photoelectric conversion element is divided to perform accumulation and transfer operations.

【図25】 2次元の光電変換素子上で使用可能なデー
タの領域を説明する図。
FIG. 25 is a diagram illustrating an area of data that can be used on a two-dimensional photoelectric conversion element.

【図26】 光電変換素子の蓄積時間を制御する様子を
示す図。
FIG. 26 is a diagram illustrating a state in which the accumulation time of a photoelectric conversion element is controlled.

【図27】 光電変換素子上の被写体像強度分布の一例
を示す図。
FIG. 27 is a diagram showing an example of a subject image intensity distribution on a photoelectric conversion element.

【図28】 AF演算CPUで行われる焦点検出演算の
動作を説明するフローチャート。
FIG. 28 is a flowchart illustrating an operation of a focus detection calculation performed by the AF calculation CPU.

【図29】 焦点検出エリアの設定例を示す図。FIG. 29 is a diagram showing a setting example of a focus detection area.

【図30】 視点検知手段の構成例を示す図で、(a)
がその構成の概略を、(b)が面受光素子684で受光
された光量の分布を示す図。
FIG. 30 is a diagram illustrating a configuration example of a viewpoint detection unit, wherein (a)
7B is a diagram schematically illustrating the configuration, and FIG. 7B is a diagram illustrating the distribution of the amount of light received by the surface light receiving element 684.

【図31】 光電変換素子上で得られた像信号と、コン
トラスト検出ブロックの分割の例を示す図。
FIG. 31 is a view showing an example of division of an image signal obtained on a photoelectric conversion element and a contrast detection block.

【図32】 AF駆動系のモニタ信号を説明する図。FIG. 32 is a view for explaining monitor signals of an AF drive system.

【図33】 AFモータの駆動信号のON/OFFのデ
ューティを示す図。
FIG. 33 is a diagram showing ON / OFF duty of a drive signal of an AF motor.

【図34】 AF駆動系の目標停止位置に対する、モニ
タ信号の残パルス数とパルス間隔との関係を示す図。
FIG. 34 is a view showing the relationship between the number of remaining pulses of the monitor signal and the pulse interval with respect to the target stop position of the AF drive system.

【図35】 レンズ駆動CPUの動作を説明するフロー
チャート。
FIG. 35 is a flowchart illustrating the operation of a lens driving CPU.

【図36】 レンズ駆動CPUがAF駆動モードに応じ
てレンズ駆動制御を行う際のフローチャート。
FIG. 36 is a flowchart when the lens drive CPU performs lens drive control according to the AF drive mode.

【図37】 レンズ駆動CPUのパワーフォーカスモー
ドにおける動作フローチャート。
FIG. 37 is an operation flowchart of a lens drive CPU in a power focus mode.

【図38】 レンズ駆動CPUのマニュアルモードにお
ける動作フローチャート。
FIG. 38 is an operation flowchart of a lens driving CPU in a manual mode.

【図39】 撮影レンズの概略を示す図。FIG. 39 is a view schematically showing a taking lens.

【図40】 焦点検出エリアの選択状態をファインダ内
に表示する例を示す図。
FIG. 40 is a view showing an example in which a focus detection area selection state is displayed in the viewfinder.

【図41】 焦点検出状態をファインダ内に表示する例
を示す図。
FIG. 41 is a diagram showing an example in which a focus detection state is displayed in a viewfinder.

【図42】 表示装置の構成の一例を示す図。FIG. 42 illustrates an example of a structure of a display device.

【図43】 本発明に係る焦点検出装置において、ファ
インダを画像表示装置98で構成した例を示す図。
FIG. 43 is a view showing an example in which a finder is constituted by an image display device 98 in the focus detection device according to the present invention.

【図44】 本発明に係る焦点検出装置において、被写
体像とAF状態とをカメラのボディ外にある外部表示装
置に表示するように構成した例を示す図。
FIG. 44 is a diagram showing an example in which the focus detection device according to the present invention is configured to display the subject image and the AF state on an external display device outside the body of the camera.

【図45】 本発明に係る焦点検出装置の変形例を示す
図。
FIG. 45 is a diagram showing a modification of the focus detection device according to the present invention.

【図46】 本発明に係る焦点検出装置の焦点検出瞳を
物性絞りにて構成した例を示す図。
FIG. 46 is a diagram showing an example in which the focus detection pupil of the focus detection device according to the present invention is configured by a physical diaphragm.

【図47】 図46に示す焦点検出装置の物性絞りの作
動の様子を説明する図。
FIG. 47 is a view for explaining the operation of the physical property stop of the focus detection device shown in FIG. 46;

【図48】 図46に示す焦点検出装置の光電変換動作
タイミングを示す図。
48 is a diagram showing a photoelectric conversion operation timing of the focus detection device shown in FIG. 46.

【図49】 図46に示す焦点検出装置に用いられる光
電変換装置を説明する図で、(a)はその構造を、
(b)〜(e)はその受光部のポテンシャル概念を示
す。
FIGS. 49A and 49B are diagrams illustrating a photoelectric conversion device used in the focus detection device illustrated in FIG. 46. FIG.
(B)-(e) show the concept of the potential of the light receiving section.

【図50】 任意のAFエリア選択時、これに対応する
AFエリアとアルゴリズムの対応図。
FIG. 50 is a diagram showing a correspondence between an AF area and an algorithm when an arbitrary AF area is selected.

【図51】 任意のAF被写体選択時、これに対応する
AFエリアとアルゴリズムの対応図。
FIG. 51 is a diagram showing a correspondence between an AF area and an algorithm when an arbitrary AF subject is selected.

【図52】 任意の測光モード選択時、これに対応する
AFエリアとアルゴリズムの対応図。
FIG. 52 is a diagram showing a correspondence between an AF area and an algorithm corresponding to an arbitrary photometric mode when the mode is selected.

【図53】 任意のAEモード選択時、これに対応する
AFエリアとアルゴリズムの対応図。
FIG. 53 is a view showing a correspondence between an AF area and an algorithm corresponding to an arbitrary AE mode selection.

【図54】 任意の巻き上げモード選択時、これに対応
するAFエリアとアルゴリズムの対応図。
FIG. 54 is a diagram showing a correspondence between an AF area and an algorithm corresponding to an arbitrary winding mode when the winding mode is selected;

【図55】 任意の撮影モード選択時、これに対応する
AFエリアとアルゴリズムの対応図。
FIG. 55 is a view showing a correspondence between an AF area and an algorithm corresponding to an arbitrary shooting mode when the mode is selected;

【図56】 任意のフォーカスモード選択時、これに対
応するAFエリアとアルゴリズムの対応図。
FIG. 56 is a view showing a correspondence between an AF area and an algorithm corresponding to an arbitrary focus mode when the focus mode is selected.

【図57】 レリーズボタンの半押しONからの経過時
間に対応するAFエリアとアルゴリズムの対応図。
FIG. 57 is a diagram showing the correspondence between the AF area and the algorithm corresponding to the elapsed time from the half-press ON of the release button.

【図58】 被写体距離情報に対応するAFエリアとア
ルゴリズムの対応図。
FIG. 58 is a diagram showing a correspondence between an AF area corresponding to subject distance information and an algorithm;

【図59】 倍率情報に対応するAFエリアとアルゴリ
ズムの対応図。
FIG. 59 is a diagram showing a correspondence between an AF area corresponding to magnification information and an algorithm;

【図60】 焦点距離情報に対応するAFエリアとアル
ゴリズムの対応図。
FIG. 60 is a diagram showing a correspondence between an AF area corresponding to focal length information and an algorithm;

【図61】 絞り値情報に対応するAFエリアとアルゴ
リズムの対応図。
FIG. 61 is a diagram showing a correspondence between an AF area corresponding to aperture value information and an algorithm;

【図62】 シャッタ速度情報に対応するAFエリアと
アルゴリズムの対応図。
FIG. 62 is a view showing a correspondence between an AF area corresponding to shutter speed information and an algorithm;

【図63】 輝度情報に対応するAFエリアとアルゴリ
ズムの対応図。
FIG. 63 is a view showing a correspondence between an AF area corresponding to luminance information and an algorithm;

【図64】 ストロボ情報に対応するAFエリアとアル
ゴリズムの対応図。
FIG. 64 is a diagram showing a correspondence between an AF area corresponding to strobe information and an algorithm.

【図65】 収差情報に対応するAFエリアとアルゴリ
ズムの対応図。
FIG. 65 is a view showing a correspondence between an AF area corresponding to aberration information and an algorithm.

【図66】 ボディ姿勢情報に対応するAFエリアとア
ルゴリズムの対応図。
FIG. 66 is a view showing a correspondence between an AF area and an algorithm corresponding to body posture information.

【図67】 被写体パターン情報に対応するAFエリア
とアルゴリズムの対応図。
FIG. 67 is a view showing a correspondence between an AF area corresponding to subject pattern information and an algorithm;

【図68】 デフォーカス情報に対応するAFエリアと
アルゴリズムの対応図。
FIG. 68 is a diagram showing a correspondence between an AF area corresponding to defocus information and an algorithm;

【図69】 任意のAFエリア選択に連動するフォーカ
スモードの対応図。
FIG. 69 is a view showing a focus mode associated with selection of an arbitrary AF area.

【図70】 任意のAF被写体選択に連動するフォーカ
スモードの対応図。
FIG. 70 is a view illustrating a focus mode associated with selection of an arbitrary AF subject.

【図71】 任意の測光モード選択に連動するフォーカ
スモードの対応図。
FIG. 71 is a view showing a focus mode corresponding to an arbitrary photometric mode selection.

【図72】 任意のAEモード選択に連動するフォーカ
スモードの対応図。
FIG. 72 is a view showing a focus mode corresponding to an arbitrary AE mode selection.

【図73】 任意の巻き上げモード選択に連動するフォ
ーカスモードの対応図。
FIG. 73 is a view showing a focus mode corresponding to an arbitrary winding mode selection.

【図74】 任意の撮影モード選択に連動するフォーカ
スモードの対応図。
FIG. 74 is a view showing a focus mode corresponding to an arbitrary photographing mode selection.

【図75】 レリーズボタンの半押しONからの経過時
間に連動するフォーカスモードの対応図。
FIG. 75 is a diagram illustrating a focus mode corresponding to the elapsed time from the half-press ON of the release button.

【図76】 被写体距離情報に対応するフォーカスモー
ドの対応図。
FIG. 76 is a view showing a focus mode corresponding to subject distance information.

【図77】 倍率情報に対応するフォーカスモードの対
応図。
FIG. 77 is a view illustrating a focus mode corresponding to magnification information.

【図78】 焦点距離情報に対応するフォーカスモード
の対応図。
FIG. 78 is a view illustrating a focus mode corresponding to focal length information.

【図79】 絞り値情報に対応するフォーカスモードの
対応図。
FIG. 79 is a view illustrating a focus mode corresponding to aperture value information.

【図80】 シャッタ速度情報に対応するフォーカスモ
ードの対応図。
FIG. 80 is a view showing a focus mode corresponding to shutter speed information.

【図81】 輝度情報に対応するフォーカスモードの対
応図。
FIG. 81 is a view showing a focus mode corresponding to luminance information.

【図82】 ストロボ情報に対応するフォーカスモード
の対応図。
FIG. 82 is a view showing a focus mode corresponding to strobe information.

【図83】 収差情報に対応するフォーカスモードの対
応図。
FIG. 83 is a view illustrating a focus mode corresponding to aberration information.

【図84】 合焦情報に対応するフォーカスモードの対
応図。
FIG. 84 is a view showing a focus mode corresponding to focus information.

【図85】 検出可否情報に対応するフォーカスモード
の対応図。
FIG. 85 is a view showing a focus mode corresponding to detection possibility information;

【図86】 被写体パターン情報に対応するフォーカス
モードの対応図。
FIG. 86 is a view showing a focus mode corresponding to subject pattern information.

【図87】 デフォーカス情報に対応するフォーカスモ
ードの対応図。
FIG. 87 is a view illustrating a focus mode corresponding to defocus information.

【符号の説明】[Explanation of symbols]

10 レンズ 30 焦点検出光学系 31 AF絞り 32 光電変換手段 33 AF検出系制御CPU 34 メモリ 40 AF演算CPU 64 撮影モード選択手段 Reference Signs List 10 lens 30 focus detection optical system 31 AF stop 32 photoelectric conversion means 33 AF detection system control CPU 34 memory 40 AF calculation CPU 64 shooting mode selection means

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 画面上に被写体像を形成するための撮影
光学系と、 前記画面上の所定位置において前記被写体像のコントラ
ストを繰り返し検出するコントラスト検出手段と、 前記画面上の所定位置において前記被写体像のデフォー
カス量を繰り返し検出する焦点検出手段と、 前記焦点検出手段により検出された複数のデフォーカス
量より被写体像面の移動速度に関する量を演算する演算
手段と、 前記移動速度に関する量を基準値と比較し、該基準値よ
り検出された移動速度に関する量が大きい場合には、被
写体が移動被写体であると判定する判定手段と、 前記コントラストに応じて前記基準値を変更する変更手
段とを備えることを特徴とする焦点検出カメラ。
An imaging optical system for forming a subject image on a screen; contrast detection means for repeatedly detecting a contrast of the subject image at a predetermined position on the screen; Focus detecting means for repeatedly detecting the defocus amount of the image; calculating means for calculating an amount related to the moving speed of the subject image plane from a plurality of defocus amounts detected by the focus detecting means; Comparing with the reference value, when the amount related to the moving speed detected from the reference value is large, determining means for determining that the subject is a moving subject; and changing means for changing the reference value according to the contrast. A focus detection camera, comprising:
【請求項2】 画面上に被写体像を形成するための撮影
光学系と、 被写体のジャンルを指定することによりカメラの撮影に
関する動作を選択する選択手段と、 前記画面上の所定位置において前記被写体像のデフォー
カス量を繰り返し検出する焦点検出手段と、 前記焦点検出手段により検出された複数のデフォーカス
量より被写体像面の移動速度に関する量を演算する演算
手段と、 前記移動速度に関する量を基準値と比較し、該基準値よ
り検出された移動速度に関する量が大きい場合には、被
写体が移動被写体であると判定する判定手段と、 前記選択手段によって指定された被写体のジャンルに応
じて前記基準値を変更する変更手段とを備えることを特
徴とする焦点検出カメラ。
2. A photographing optical system for forming a subject image on a screen, a selection unit for selecting an operation related to photographing of a camera by designating a genre of the subject, and the subject image at a predetermined position on the screen. Focus detecting means for repeatedly detecting the amount of defocusing; calculating means for calculating an amount related to the moving speed of the subject image plane from a plurality of defocus amounts detected by the focus detecting means; and a reference value for the amount related to the moving speed. Comparing with the reference value, when the amount related to the moving speed detected from the reference value is large, determining means for determining that the subject is a moving subject; and the reference value according to the genre of the subject designated by the selecting means. A focus detecting camera, comprising: changing means for changing the distance.
JP18277397A 1997-07-08 1997-07-08 Focus detection camera Expired - Lifetime JP2985126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18277397A JP2985126B2 (en) 1997-07-08 1997-07-08 Focus detection camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18277397A JP2985126B2 (en) 1997-07-08 1997-07-08 Focus detection camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011066A Division JPH03214133A (en) 1990-01-18 1990-01-18 Focus detector

Publications (2)

Publication Number Publication Date
JPH1068874A true JPH1068874A (en) 1998-03-10
JP2985126B2 JP2985126B2 (en) 1999-11-29

Family

ID=16124174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18277397A Expired - Lifetime JP2985126B2 (en) 1997-07-08 1997-07-08 Focus detection camera

Country Status (1)

Country Link
JP (1) JP2985126B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194578A (en) * 1999-11-02 2001-07-19 Olympus Optical Co Ltd Multipoint automatic focusing camera
JP2007086326A (en) * 2005-09-21 2007-04-05 Fujinon Corp Camera system
JP2007225808A (en) * 2006-02-22 2007-09-06 Pentax Corp Autofocus unit and digital camera
JP2008026790A (en) * 2006-07-25 2008-02-07 Canon Inc Imaging apparatus and focus control method
JP2008052009A (en) * 2006-08-24 2008-03-06 Nikon Corp Focus detection device, focus detection method and imaging apparatus
JP2008224801A (en) * 2007-03-09 2008-09-25 Nikon Corp Focus detector and imaging apparatus
JP2009109839A (en) * 2007-10-31 2009-05-21 Nikon Corp Image tracking device and imaging device
JP2016057499A (en) * 2014-09-10 2016-04-21 キヤノン株式会社 Imaging system, illumination device, and control method
JP2017032874A (en) * 2015-08-04 2017-02-09 キヤノン株式会社 Focus detection device and method, and imaging apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194578A (en) * 1999-11-02 2001-07-19 Olympus Optical Co Ltd Multipoint automatic focusing camera
JP4610714B2 (en) * 1999-11-02 2011-01-12 オリンパス株式会社 Multi-point autofocus camera
JP2007086326A (en) * 2005-09-21 2007-04-05 Fujinon Corp Camera system
JP4618072B2 (en) * 2005-09-21 2011-01-26 富士フイルム株式会社 Camera system
JP2007225808A (en) * 2006-02-22 2007-09-06 Pentax Corp Autofocus unit and digital camera
JP2008026790A (en) * 2006-07-25 2008-02-07 Canon Inc Imaging apparatus and focus control method
JP2008052009A (en) * 2006-08-24 2008-03-06 Nikon Corp Focus detection device, focus detection method and imaging apparatus
JP2008224801A (en) * 2007-03-09 2008-09-25 Nikon Corp Focus detector and imaging apparatus
JP2009109839A (en) * 2007-10-31 2009-05-21 Nikon Corp Image tracking device and imaging device
US8571402B2 (en) 2007-10-31 2013-10-29 Nikon Corporation Image tracking device, imaging device, image tracking method, and imaging method
JP2016057499A (en) * 2014-09-10 2016-04-21 キヤノン株式会社 Imaging system, illumination device, and control method
JP2017032874A (en) * 2015-08-04 2017-02-09 キヤノン株式会社 Focus detection device and method, and imaging apparatus

Also Published As

Publication number Publication date
JP2985126B2 (en) 1999-11-29

Similar Documents

Publication Publication Date Title
US5650607A (en) Focus detecting device having light distribution detection
JP4040139B2 (en) camera
JP5424708B2 (en) Focus detection device
JP2985126B2 (en) Focus detection camera
JP3236799B2 (en) Focus detection device and interchangeable lens
JP2012113189A (en) Imaging apparatus
JPH08136798A (en) Automatic focusing camera
US9921454B2 (en) Imaging apparatus capable of generating an image with a weight of a signal corresponding to each type of spectral sensitivity characteristics and method of controlling the apparatus
JP2005064699A (en) Camera
JPH1068872A (en) Autofocusing camera
JPH10170813A (en) Focus detector, automatic focusing device, and camera
JP3197004B2 (en) camera
JP5747510B2 (en) Imaging device
JP5309661B2 (en) Exposure calculation device and imaging device
JP4950634B2 (en) Imaging apparatus and imaging system
JP2004012493A (en) Focus detector
JP3780051B2 (en) Camera autofocus device
JP4086367B2 (en) camera
JP4928236B2 (en) Imaging apparatus and imaging system
JP2008203407A (en) Imaging apparatus, lens device and imaging system
JP2757396B2 (en) camera
JP2005099608A (en) Automatic focusing camera
JPH11271596A (en) Camera
JP2000221387A (en) Optical equipment
JPH0682678A (en) Focus detector for optical equipment

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081001

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 11