JPH0618772A - Camera provided with function for detecting line of sight - Google Patents

Camera provided with function for detecting line of sight

Info

Publication number
JPH0618772A
JPH0618772A JP17107892A JP17107892A JPH0618772A JP H0618772 A JPH0618772 A JP H0618772A JP 17107892 A JP17107892 A JP 17107892A JP 17107892 A JP17107892 A JP 17107892A JP H0618772 A JPH0618772 A JP H0618772A
Authority
JP
Japan
Prior art keywords
line
sight
lens
detection
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17107892A
Other languages
Japanese (ja)
Inventor
Yasuo Suda
康夫 須田
Akihiko Nagano
明彦 長野
Kazuki Konishi
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP17107892A priority Critical patent/JPH0618772A/en
Publication of JPH0618772A publication Critical patent/JPH0618772A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Abstract

PURPOSE:To eliminate a concrete trouble occurring when a camera having a function executing focusing based on the detected information of the line of sight is used. CONSTITUTION:The camera is provided with a lens control means controlling the focusing of an objective lens 1, detection means for the line of sight 9 and 11-15 detecting the line of the sight of an observer and a means 6 detecting a focus as for plural detection areas in a picture. In a servo action mode in which the change of the position of the image forming surface of the lens 1 acompanied with the change of an object distance is followingly corrected, the position of the line of the sight is detected before a focus detecting action by the detection means for the line of sight. Besides, such an action that the image forming position of the lens 1 is continuously controlled as for a focus detection output at a part based on the positional information of the line of the sight is executed by the lens control means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、銀塩フィルムを使用す
るカメラあるいはビデオカメラもしくは産業機器と協同
する撮影装置に関し、特に操作者の視線を検出して視線
を向けられた物体に焦点調節し得る様なカメラ(カメラ
・ボディも含むものとする)に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera or a video camera using a silver salt film, or a photographing apparatus which cooperates with industrial equipment, and in particular, detects the line of sight of an operator and adjusts the focus on an object to which the line of sight is directed. It relates to cameras (including camera bodies) that can be obtained.

【0002】[0002]

【従来の技術】画面内の異なった領域に位置する物体に
焦点合わせのできるカメラは、画面の中央にある物体に
焦点合わせの行われるカメラの様に合焦後に再フレーミ
ングする所謂AFロックの必要性がなくなるので速写性
が向上すると共に特に移動する物体(動体)に対するフ
レーミングの自由度が増す利点がある。また撮影者がカ
メラに不慣れな場合でもピント合わせを気にせずに写真
をとることが可能である。
2. Description of the Related Art A camera capable of focusing on an object located in a different area of a screen requires a so-called AF lock for re-framing after focusing like a camera for focusing an object in the center of the screen. Since this has no effect, there is an advantage that the quick-shooting property is improved and the degree of freedom of framing is increased especially for a moving object (moving object). In addition, even if the photographer is unfamiliar with the camera, it is possible to take a picture without worrying about focusing.

【0003】但し、この種の利点を生かすためには最適
な測距領域を常に選択していなければならず、選択を手
動で行うのは大変煩わしいのでものとなる。
However, in order to take advantage of this kind of advantage, it is necessary to always select the optimum distance measuring area, and it is very troublesome to make the selection manually.

【0004】例えば特開平2−32312号公報は操作
者の視線情報に基づいてピント合わせを行う技術を開示
しており、この技術によれば主被写体の前に障害物があ
る様なシーンでも所望の被写体の方に適正な焦点調整が
行われて便利である。
For example, Japanese Patent Application Laid-Open No. 2-332312 discloses a technique for focusing on the basis of the line-of-sight information of the operator. According to this technique, it is desired even in a scene where there is an obstacle in front of the main subject. This is convenient because the subject is subject to proper focus adjustment.

【0005】一方、従来の自動カメラでは所謂ワンショ
ット動作モードとサーボ動作モードが設けられており、
対象の動きにより使い分けられている。例えばワンショ
ット動作モードは主に静止した被写体に対して使用さ
れ、一旦合焦した後はレンズ駆動が禁止され(AFロッ
ク状態)、もし必要ならその後にフレーミングを行うモ
ードであり、サーボ動作モードとは主として動く被写体
に対して用いられ、被写体距離の変化に付随して連続し
たレンズ駆動を行うモードである。
On the other hand, the conventional automatic camera is provided with so-called one-shot operation mode and servo operation mode.
It is used properly depending on the movement of the object. For example, the one-shot operation mode is mainly used for a stationary subject, the lens drive is prohibited (AF lock state) after focusing once, and if necessary, the framing is performed thereafter. Is a mode mainly used for a moving subject and is a mode in which continuous lens driving is accompanied with a change in subject distance.

【0006】一眼レフレックスカメラで動きのある被写
体に対してピントを追従させるための技術としては予測
制御や検出領域を多数配置することが考えられ、従来の
自動カメラで行われている予測制御の場合は、被写体情
報を得てから測距演算を経て撮影レンズの駆動が終了
し、更にシャッターの走行までにある程度の時間が掛か
ることを考慮し、これら追従遅れを過去の測距データか
ら予測し補正するものである。また検出視野を多数配置
する構成であれば被写体を画面の中央に捉えなくとも、
焦点合わせを可能にした技術である。この2つの技術の
組合せによってある程度の追従性能の向上は実現され
る。
As a technique for tracking a moving subject with a single-lens reflex camera, it is conceivable to arrange a large number of predictive controls or detection areas. In such a case, consider that it may take some time until the shutter lens travels after the shooting lens is driven through distance measurement calculation after obtaining subject information, and these tracking delays are predicted from past distance measurement data. To correct. Also, if you have a configuration that arranges a large number of detection fields,
It is a technology that enables focusing. A certain degree of improvement in tracking performance is realized by the combination of these two techniques.

【0007】しかしながら、多数の検出領域が並列する
と主被写体以外の物体情報も検出されるので、誤って背
景にピントが合うことも起り得る。
However, when a large number of detection areas are arranged in parallel, object information other than the main subject is also detected, so that the background may be erroneously focused.

【0008】一方、カメラの自動焦点調節における重要
な技術の一つとして、合焦スピードの高速化がある。こ
れは、例えばレリーズボタンの押込み等による焦点調節
開始指示からピントが合って撮影可能となるまでの時間
をいかに短縮するかということである。従来より、光電
変換素子の高感度化による蓄積時間の短縮、高速マイコ
ンによる演算処理時間の短縮、合焦レンズを駆動するア
クチュエータの改良等による高速化が図られている。
On the other hand, as one of the important techniques in automatic focus adjustment of a camera, there is an increase in focusing speed. This means how to shorten the time from the focus adjustment start instruction by pressing the release button or the like until the subject is in focus and photographing is possible. 2. Description of the Related Art Conventionally, speedup has been achieved by shortening the storage time by increasing the sensitivity of photoelectric conversion elements, shortening the calculation processing time by a high-speed microcomputer, and improving the actuator that drives the focusing lens.

【0009】ところで、カメラの自動焦点調節は、焦点
検出とレンズ駆動とを繰返して合焦に至るわけで、毎回
の焦点検出動作に先だって、視線検出を行い、その結果
に基づいて測距視野を選択し直すといった動作は、上述
した合焦スピードの高速性を極めて大きく損なうことも
ある。
By the way, in the automatic focus adjustment of the camera, focus detection and lens driving are repeated until focusing is achieved. Therefore, prior to each focus detection operation, the line of sight is detected, and the distance measuring field of view is determined based on the result. The operation of reselecting may significantly impair the high-speed focusing speed described above.

【0010】それとは別に操作者の視線を検出し、それ
に基づいて検出領域を選択する技術が既知であることに
は触れたが、視線検出方式には種々あり、その中でも、
カメラのファインダー部から観察者眼に対して赤外光を
照射し、これによって生じる光源の反射像(いわゆるプ
ルキンエ像)と、瞳孔中心との相対位置に従って眼球の
回転角を求めるものが、装置が小さい、眼球位置の制約
が少ないといった理由からカメラに適している。
Apart from that, it has been mentioned that there is known a technique for detecting the line of sight of the operator and selecting the detection area based on the line of sight.
A device that irradiates the observer's eye with infrared light from the viewfinder of the camera and obtains the rotation angle of the eyeball according to the relative position between the reflection image of the light source (so-called Purkinje image) and the center of the pupil It is suitable for cameras because it is small and there are few restrictions on the position of the eyeball.

【0011】ところが、このように光学的に眼球を観察
する場合、まぶたが防げとなって、瞳孔全体が見えない
場合も多い。したがって、瞳孔中心の検出精度は横方向
に対して縦方向が劣ることがあり、この方式による縦方
向の視線検出精度は低いことがある。但し一般にカメラ
の撮影画面は横長であるので、横方向の検出のみでも実
用上充分である。また、一方で、特定方向の視線検出な
らば、後述するように一配列のみの光電変換素子を用い
ることで実現可能となり、コスト的に極めて有利であ
る。これらのことを考え合わせると、横方向の視線位置
を検出する視線検出装置がカメラ用としては、最適と言
える。
However, when the eyeball is optically observed in this way, the eyelids are often obstructed and the entire pupil cannot be seen. Therefore, the accuracy of detecting the center of the pupil may be inferior in the vertical direction with respect to the horizontal direction, and the accuracy of visual axis detection in the vertical direction by this method may be low. However, since the photographing screen of the camera is generally horizontally long, only lateral detection is practically sufficient. On the other hand, the line-of-sight detection in a specific direction can be realized by using only one array of photoelectric conversion elements as described later, which is extremely advantageous in terms of cost. Taking these things into consideration, it can be said that the visual line detection device that detects the lateral visual line position is optimal for a camera.

【0012】しかしながら、このタイプの視線検出装置
においては、前述したような構造的な欠点があるため
に、カメラの姿勢による検出精度の低下を免れ得ない。
すなわち、通常カメラの画面は縦横比が1でないことか
ら、当然ながら、カメラを90°回転させた構え方があ
り得る。このときは、視線検出位置を基準にして、縦方
向の眼球回転を検出していることになるわけである。
However, in this type of line-of-sight detection device, there is an unavoidable decrease in detection accuracy due to the attitude of the camera because of the structural drawbacks described above.
That is, since the aspect ratio of the screen of a normal camera is not 1, naturally, the camera may be rotated by 90 °. At this time, the eyeball rotation in the vertical direction is detected based on the line-of-sight detection position.

【0013】[0013]

【発明が解決しようとする課題】本発明は、視線検出情
報で焦点調節を行う機能を持ったカメラを使用する際に
起きてくる難点を解消することを課題とする。なお、本
願では、撮影レンズを固着したカメラ、撮影レンズを着
脱するカメラそして撮影レンズを離脱させた所謂カメラ
ボディを、言葉の煩雑さを避けるため全てカメラと言う
こととする。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the problems that occur when using a camera having a function of adjusting the focus based on the sight line detection information. In the present application, the camera to which the taking lens is fixed, the camera to which the taking lens is attached and detached, and the so-called camera body where the taking lens is detached are all referred to as cameras in order to avoid complication of words.

【0014】そして上述の課題をより具体的に述べれ
ば、第1に主被写体に正確にピントが合う様にすること
である。また、まつげ、眼鏡によるまばたき、眼球の跳
躍運動等、視線検出に不都合な要因の作用で検出不能に
なった場合でも安定した追従を実現することにある。ま
た別に大デフォーカス状態からであっても、操作者の意
図位置にピントが合う装置を提供することにある。また
他に視線情報によって測距視野を選択するカメラで、確
実な動作モードの切換えを可能にするための動体検出機
能を与えることである。更に高い合焦スピードを維持し
た視線検出機能付カメラを提供することである。また更
に姿勢に起因した検出精度の低下、検出不能時の誤動作
が焦点調節動作に影響を与えないカメラを提供するもの
である。
More specifically, the above-mentioned problem will be described firstly so that the main subject is accurately focused. Further, it is to realize stable follow-up even when detection cannot be performed due to the action of an inconvenient factor such as eyelashes, eyeblink blinking, eyeball jumping movement, and the like. Another object of the present invention is to provide a device in which the operator can focus on the intended position even in the large defocus state. Another object of the present invention is to provide a moving object detection function for enabling reliable switching of operation modes in a camera that selects a distance measuring field of view based on line-of-sight information. An object of the present invention is to provide a camera with a visual axis detection function that maintains a higher focusing speed. Further, the present invention provides a camera in which the focus adjustment operation is not affected by a decrease in detection accuracy due to the posture and a malfunction when detection is impossible.

【0015】[0015]

【課題を解決するための手段】本発明は、対物レンズの
焦点調節を制御するレンズ制御手段と観察者の眼の視線
を検出する視線検出手段と画面内の異なる部位に関して
焦点検出を行う手段を備えるカメラで、物体距離の変化
に伴う結像面位置の変化を追従して補正するサーボ動作
モードでは前記視線検出手段は焦点検出動作に先だって
視線位置を検出し、前記レンズ制御手段は視線位置情報
に基づく部位の焦点検出出力に関して対物レンズの結像
位置を連続的に制御する動作を行う。
SUMMARY OF THE INVENTION The present invention comprises a lens control means for controlling the focus adjustment of an objective lens, a visual axis detection means for detecting the visual axis of an observer's eye, and a means for performing focus detection for different parts on the screen. In the provided camera, in the servo operation mode in which the change in the image plane position due to the change in the object distance is tracked and corrected, the line-of-sight detecting unit detects the line-of-sight position prior to the focus detection operation, and the lens control unit sets the line-of-sight position information. The operation of continuously controlling the image forming position of the objective lens is performed with respect to the focus detection output of the part based on.

【0016】また本発明は、対物レンズの焦点調節を制
御するレンズ制御手段と観察者の眼の視線を検出する視
線検出手段と画面内の異なる部位に関して焦点検出を行
う手段とを有し、視線の検出と焦点検出を繰返し行うカ
メラで、視線検出が不能であった場合は前回の視線位置
もしくはその近傍に関する新たな焦点検出出力に基づい
てレンズ制御手段を動作させる。
Further, the present invention has a lens control means for controlling the focus adjustment of the objective lens, a visual axis detecting means for detecting the visual axis of the observer's eye, and a means for performing focus detection for different parts within the screen. If the line-of-sight cannot be detected by a camera that repeatedly detects the line-of-sight and focus detection, the lens control means is operated based on a new focus detection output regarding the previous line-of-sight position or its vicinity.

【0017】また本発明は、対物レンズの焦点調節を制
御するレンズ制御手段と観察者の眼の視線を検出する視
線検出手段と画面内の異なる部位に関して焦点検出を行
う手段を備えるカメラで、レンズ制御手段は対物レンズ
の結像位置の移動方向のみを制御する第1の動作モード
と、移動方向と移動量とを制御する第2の動作モードと
を有し、焦点検出が不能の場合は第1の動作モードによ
る制御が行われ、第1の動作モードによる対物レンズの
調節制御中は視線の検出と視線位置もしくはその近傍の
焦点検出が所定順序で行われる。
The present invention is also a camera provided with a lens control means for controlling the focus adjustment of an objective lens, a visual axis detection means for detecting the visual axis of the observer's eye, and a means for performing focus detection on different parts of the screen. The control means has a first operation mode for controlling only the moving direction of the image forming position of the objective lens and a second operation mode for controlling the moving direction and the moving amount. The control in the first operation mode is performed, and during the adjustment control of the objective lens in the first operation mode, the sight line detection and the focus detection at or near the sight line position are performed in a predetermined order.

【0018】更に本発明は、対物レンズの焦点調節を制
御するレンズ制御手段と観察者の眼の視線を検出する視
線検出手段と画面内の異なる部位に関して焦点検出を行
う手段と動体検出手段を備えるカメラで、焦点調節の開
示指示操作を受けて前記制御手段を駆動し、一旦合焦状
態であることを焦点検出を行う手段が出力した後はそれ
以降の制御手段の駆動を禁止する第1の動作モードと、
物体距離の変化に伴う結像面の変化を補正すべく連続的
に前記制御手段を駆動する第2の動作モードを有し、前
記動体検出手段は視線検出結果に基づいて得られた焦点
検出出力の変動に因り第1の動作モードから第2の動作
モードへ切換えを行うとともに、第1の動作モードにお
いて一旦合焦状態であることを検出してから第2の動作
モードに切換わるまでは前記視野検出手段による画面内
部位の再選定を抑制する。
Further, the present invention comprises a lens control means for controlling the focus adjustment of the objective lens, a visual axis detection means for detecting the visual axis of the observer's eye, a means for performing focus detection for a different portion in the screen, and a moving body detection means. In the camera, in response to a focus adjustment disclosure instruction operation, the control means is driven, and after the focus detection means outputs that the focus state is once in focus, driving of the control means thereafter is prohibited. Operating mode,
The moving object detecting means has a second operation mode in which the control means is continuously driven to correct the change of the image plane due to the change of the object distance, and the moving body detecting means obtains the focus detection output based on the visual line detection result. The first operation mode is switched to the second operation mode due to the fluctuation of the above, and until the second operation mode is switched after the focus state is once detected in the first operation mode. Re-selection of a site in the screen by the visual field detection means is suppressed.

【0019】また本発明は、対物レンズの焦点調節を制
御するレンズ制御手段と観察者の眼の視線を検出する視
線検出手段と画面内の異なる部位に関して焦点検出を行
う手段とを備えるカメラで、焦点調節の開示指示操作を
受けて、前記レンズ制御手段を駆動し、一旦合焦状態で
あることを焦点検出を行う手段が出力した後はそれ以降
の駆動を禁止するワンショット動作モードで、前記視線
検出手段は初回の焦点検出動作に先立って視線位置を検
出し、またレンズ制御手段は視線位置に基づいて検出し
た焦点検出出力に因り駆動され、2回目以降の焦点検出
動作においては、前回と同じ視線位置に基づく焦点検出
出力に因ってレンズ制御手段を制御する。
The present invention is also a camera provided with a lens control means for controlling the focus adjustment of an objective lens, a visual axis detection means for detecting the visual axis of the observer's eye, and a means for performing focus detection with respect to different parts of the screen. In response to a disclosure instruction operation of focus adjustment, the lens control means is driven, and after the focus detection means outputs the focus state, the one-shot operation mode for prohibiting further driving is performed. The line-of-sight detection unit detects the line-of-sight position prior to the first focus detection operation, and the lens control unit is driven by the focus detection output detected based on the line-of-sight position. The lens control means is controlled based on the focus detection output based on the same line-of-sight position.

【0020】また、本発明は対物レンズの焦点調節を制
御するレンズ制御手段と観察者の眼の視線を検出視線検
出手段と画面内の異なる部位に関して焦点検出を行う手
段と重力の方向に対する姿勢を検出する姿勢検出装置を
有するカメラで、前記視線検出手段は前眼部からの反射
光を用いることによりカメラが正位置の状態において検
方向についての視線位置を検出することが可能であり、
前記姿勢検出手段による出力がカメラの姿勢が縦位置で
あることを示したときは、前記視線検出手段の動作を禁
止すると共に画面内の特定の部位についての焦点検出出
力に基づいて対物レンズの結像状態を判定する。
Further, according to the present invention, the lens control means for controlling the focus adjustment of the objective lens, the line of sight of the observer's eye are detected, the means for performing focus detection with respect to a different part of the screen, and the attitude in the direction of gravity. In a camera having a posture detection device for detecting, the line-of-sight detection means is capable of detecting the line-of-sight position with respect to the detection direction in the state where the camera is in the normal position by using the reflected light from the anterior segment.
When the output from the posture detecting means indicates that the posture of the camera is in the vertical position, the operation of the line-of-sight detecting means is prohibited, and the objective lens coupling is performed based on the focus detection output for a specific part in the screen. Determine the image state.

【0021】[0021]

【実施例】以下、図面に従って本発明の実施例を説明す
るもので、図1から図11は装置の動作を説明するため
のフローチャートであり、図12は視線方向の検出装置
を具えたカメラの光学配置を示し、図13から図16は
視線方向の検出方法を説明する図である。また、図17
から図20は焦点検出装置の構成を説明するための図、
図24はカメラの主に電気系を示す図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the present invention will be described below with reference to the drawings. FIGS. 1 to 11 are flowcharts for explaining the operation of the apparatus, and FIG. 12 shows a camera equipped with a sight line direction detecting apparatus. An optical arrangement is shown, and FIGS. 13 to 16 are views for explaining a method of detecting the line-of-sight direction. In addition, FIG.
To FIG. 20 are views for explaining the configuration of the focus detection apparatus,
FIG. 24 is a diagram mainly showing an electric system of the camera.

【0022】まず図12において、4は一眼レフレック
スカメラのカメラ本体で、5はレンズ鏡筒であり、カメ
ラ本体4に着脱自在もしくは固設されているものとす
る。1は撮影レンズを図式的に示しており、レンズ鏡筒
5内に収納されており、図示しない駆動モータの駆動力
により光軸x方向へ移動しフォーカシングが実行され
る。
First, in FIG. 12, reference numeral 4 is a camera body of a single-lens reflex camera, and 5 is a lens barrel, which is detachable or fixed to the camera body 4. Reference numeral 1 schematically shows a photographic lens, which is housed in a lens barrel 5, and is moved in the optical axis x direction by a driving force of a drive motor (not shown) to perform focusing.

【0023】2はクイック・リターン・ミラー(主ミラ
ー)で、3はサブ・ミラーであり、サブミラー3は主ミ
ラー2に支持されているものとする。続く6は焦点検出
装置で、詳細は後述するが、撮影レンズ1を屈折通過
し、主ミラー2を透過してサブ・ミラー3で反射した光
を受ける。一方、主ミラー2の反射光路上に配された付
番3はフォーカシングスクリーン、8はベンタゴナル・
プリズム、15は接眼レンズで、これらはファインダー
系を構成する。9は光分割器で、内部には赤外光を反射
し可視光を透過するダイクロイックミラーが斜設されて
おり、ファインダー系光路に設けられる。11は投受光
レンズ、12はハーフミラー、13は赤外光を発光す
る、LEDの様な照明点光源である。光源13は投受光
レンズ11と接眼レンズ15を合成した系の一方の焦点
位置にあるものとし、光源13を発した光束はハーフ・
ミラー12、投受光レンズ11、光分割器9を経て、接
眼レンズ15から平行光として移出する。14は素子配
列を具える光電変換器で、接眼レンズ15と投受光レン
ズ11により前眼部が結像される位置に配され、眼球像
と光源の角膜反射像を受像する。部材9,11,12,
13,14そして接眼レンズ15が視線検出装置の光学
系を構成する。
It is assumed that 2 is a quick return mirror (main mirror), 3 is a sub mirror, and the sub mirror 3 is supported by the main mirror 2. Reference numeral 6 is a focus detecting device, which will be described later in detail, and receives the light refracted and passed through the taking lens 1, the main mirror 2, and the light reflected by the sub mirror 3. On the other hand, the number 3 arranged on the reflection optical path of the main mirror 2 is a focusing screen, and the numeral 8 is bentagonal.
A prism and 15 are eyepieces, which form a finder system. Reference numeral 9 denotes a light splitter, in which a dichroic mirror that reflects infrared light and transmits visible light is obliquely installed and is provided in the finder optical path. Reference numeral 11 is a light emitting / receiving lens, 12 is a half mirror, and 13 is an illumination point light source such as an LED that emits infrared light. It is assumed that the light source 13 is at one focus position of the system in which the light emitting / receiving lens 11 and the eyepiece lens 15 are combined, and the light flux emitted from the light source 13 is half
After passing through the mirror 12, the light emitting / receiving lens 11, and the light splitter 9, the light exits as parallel light from the eyepiece lens 15. Reference numeral 14 denotes a photoelectric converter having an element array, which is arranged at a position where the anterior eye part is imaged by the eyepiece lens 15 and the light projecting / receiving lens 11, and receives an eyeball image and a corneal reflection image of the light source. Members 9, 11, 12,
13, 14 and the eyepiece lens 15 form an optical system of the visual axis detection device.

【0024】続いて視線の方向の検出方法を図13を使
って説明する。図中20は投受光レンズ11と接眼レン
ズ15を合成したレンズを示すものとし、22は観察者
の眼球を模型眼的に示すもので、21は角膜、23は虹
彩である。
Next, a method of detecting the direction of the line of sight will be described with reference to FIG. In the figure, reference numeral 20 denotes a lens in which the light projecting / receiving lens 11 and the eyepiece lens 15 are combined, 22 denotes a model eye of an observer's eye, 21 is a cornea, and 23 is an iris.

【0025】LED13より放射された赤外光はレンズ
20により平行光となり眼球の角膜21を照明する。こ
のとき角膜21の表面で反射した赤外光の一部により形
成される角膜反射像dは虹彩23の近傍に生じレンズ2
0により集光されハーフミラー12を透過し光電変換器
14上の位置d′に再結像する。
The infrared light emitted from the LED 13 becomes parallel light by the lens 20 and illuminates the cornea 21 of the eyeball. At this time, the corneal reflection image d formed by a part of the infrared light reflected on the surface of the cornea 21 occurs near the iris 23 and the lens 2
The light is focused by 0, passes through the half mirror 12, and is re-imaged at the position d ′ on the photoelectric converter 14.

【0026】また虹彩23の端部a、bからの光束は受
光レンズ20、ハーフミラー12を介して光電変換器1
4上の位置a′、b′に該端部a、bの像を結像する。
レンズ20の光軸アに対する眼球の光軸イの回転角θが
小さい場合、虹彩23の端部a、bのZ座標をZa、Z
bとすると、虹彩23の中心位置cの座標Zcは、 Zc≒(Za+Zb)/2 と表わされる。
Light fluxes from the ends a and b of the iris 23 pass through the light receiving lens 20 and the half mirror 12 and the photoelectric converter 1 is provided.
The images of the end portions a and b are formed at the positions a ′ and b ′ on the position 4.
When the rotation angle θ of the optical axis a of the eyeball with respect to the optical axis a of the lens 20 is small, the Z coordinates of the ends a and b of the iris 23 are set to Za and Z.
Assuming b, the coordinate Zc of the center position c of the iris 23 is expressed as Zc≈ (Za + Zb) / 2.

【0027】また、角膜反射像の発生位置dのZ座標を
Zd、角膜21の曲率中心Oと虹彩23の中心Cまでの
距離をOCとすると眼球光軸イの回転角θは、 OC*SINθ≒Zc−Zd(1) の関係式を略満足する。ここで角膜反射像の位置dのZ
座標Zdと角膜21の曲率中心のOのZ座標Zoとは一
致している。このため光電変換器14上に投影された各
特異点(角膜反射像dおよび虹彩の端部a、b)の位置
を検出することにより眼球光軸イの回転角θを求めるこ
とができる。この時(1)式は、 β*OC*SINθ≒(Za′+Zb′)/2−Zd′(2) とかきかえられる。ただし、βは角膜反射像の発生位置
dとレンズ20との距離L1とレンズ20と光電変換器
14との距離L0とで決まる倍率である。
Further, when the Z coordinate of the corneal reflection image generation position d is Zd and the distance between the center of curvature O of the cornea 21 and the center C of the iris 23 is OC, the rotation angle θ of the eyeball optical axis a is OC * SINθ. Almost satisfy the relational expression of Zc-Zd (1). Here, Z at the position d of the corneal reflection image
The coordinate Zd and the Z coordinate Zo of O at the center of curvature of the cornea 21 match. Therefore, the rotation angle θ of the eyeball optical axis a can be obtained by detecting the position of each singular point (corneal reflection image d and the edges a and b of the iris) projected on the photoelectric converter 14. At this time, the equation (1) can be rewritten as β * OC * SINθ≈ (Za ′ + Zb ′) / 2−Zd ′ (2). However, β is a magnification determined by the distance L1 between the corneal reflection image generation position and the lens 20, and the distance L0 between the lens 20 and the photoelectric converter 14.

【0028】なお、ここでは角膜における反射像いわゆ
るプルキンエ第1像を用いた視線検出方法を示したが、
人眼の構造から水晶体の反射像等、4個のプルキンエ像
の形成が知られており、光電変換器14上にはこれらの
像も形成されることになるがプルキンエ第1像以外は比
較的光強度が低いので、適当な電気処理を施すことで検
出の妨げになることはない。また実際に人が物を見る場
合、黄斑が視界の中央になるため眼球の幾何学的な光軸
と視軸(視線)の間には偏差が存在するが、演算の際に
一定量の修正を施すことで実用上問題がなく、精密な修
正を要する場合には特開平1−241511号公報で説
明した方法が採用できる。
Although a line-of-sight detection method using a reflection image on the cornea, a so-called Purkinje's first image, is shown here,
It is known that four Purkinje images such as a reflection image of the crystalline lens are formed from the structure of the human eye, and these images are also formed on the photoelectric converter 14, but other than the Purkinje first image, it is relatively large. Since the light intensity is low, detection will not be hindered by applying appropriate electrical processing. In addition, when a person actually sees an object, there is a deviation between the geometrical optical axis of the eyeball and the visual axis (line of sight) because the macula is in the center of the field of view, but there is a certain amount of correction during calculation. If there is no problem in practice by applying the above method and precise correction is required, the method described in JP-A-1-241511 can be adopted.

【0029】図13の配置で、光電変換器14は図中上
下方向に素子を一次元的に配列しているものとし、検出
装置の単純化のために図14に描く通り各素子14は縦
幅が横幅の数倍以上の短冊形状になっている。これによ
り縦方向の検出は困難となるが、眼球の縦方向の平行移
動もしくは回転に対してほとんど不感にすることができ
て信号処理は簡単になる。なお、類似の作用を得るため
素子の並び方向と垂直な方向に屈折力を持つ円柱レンズ
を光電変換器の前面に接着しても良い。
In the arrangement shown in FIG. 13, it is assumed that the photoelectric converter 14 has elements arranged one-dimensionally in the vertical direction in the figure, and each element 14 is vertically arranged as shown in FIG. 14 for simplification of the detection apparatus. The width of the strip is more than several times the width. This makes it difficult to detect in the vertical direction, but makes it almost insensitive to vertical translation or rotation of the eyeball and simplifies signal processing. In order to obtain a similar effect, a cylindrical lens having a refractive power in the direction perpendicular to the arrangement direction of the elements may be attached to the front surface of the photoelectric converter.

【0030】図14は光電変換器に瞳孔像61とプルキ
ンエ第1像62が形成された様子を描いており、図15
は正面から見た時の観察眼の像を示す。
FIG. 14 shows a state in which a pupil image 61 and a Purkinje first image 62 are formed on the photoelectric converter, and FIG.
Shows the image of the observation eye when viewed from the front.

【0031】光電変換器で観察眼の像を受像すると図1
6に示す出力が得られ、65はプリキンエ第1像62に
相当する出力、67と68は虹彩のエッジ部に当り、両
側の高い出力値は強膜(白目)に当る。
When the image of the observation eye is received by the photoelectric converter, FIG.
The outputs shown in FIG. 6 are obtained, 65 is the output corresponding to the first Purkinje image 62, 67 and 68 are the edges of the iris, and the high output values on both sides are the sclera (white eye).

【0032】瞳孔中心はエッジ部67、68の位置情報
から得られる。最も簡単にはエッジ部において、虹彩部
81平均の半値に近い出力を生ずる画素番号をi1 ,i
2 とする瞳孔中心の位置座標は i0 =(i1 +i2 )/2 で与えられる。プルキンエ第1像の位置は、瞳孔暗部に
おいて局部的に現われる最大のピークから求められるの
で、この位置と先の瞳孔中心との相対位置関係により、
眼球の回転状況、従って、視線の方向を知ることができ
る。なお、82、83は上下のまぶたである。続いて図
17を使って焦点検出装置の構成を説明するが、本焦点
検出装置は、夫々、複数の検出視野を有するブロックの
1つを選択し得る様になっている。図18は軸上ブロッ
クを選択した場合、図19は軸外ブロックを選択した場
合の光学作用を示している。
The center of the pupil is obtained from the position information of the edge portions 67 and 68. In the simplest way, at the edge part, the pixel numbers that produce an output close to half the average of the iris part 81 are i 1 , i
Position coordinates of the pupil center to 2 is given by i 0 = (i 1 + i 2) / 2. The position of the Purkinje's first image is obtained from the maximum peak that appears locally in the dark part of the pupil, so the relative positional relationship between this position and the center of the pupil above
It is possible to know the rotation state of the eyeball, and hence the direction of the line of sight. Reference numerals 82 and 83 are upper and lower eyelids. Next, the configuration of the focus detection device will be described with reference to FIG. 17, but the present focus detection device can select one of the blocks having a plurality of detection fields of view, respectively. FIG. 18 shows the optical action when the on-axis block is selected, and FIG. 19 shows the optical action when the off-axis block is selected.

【0033】図中Xは光軸で、図12のサブ・ミラー3
で反射した後の部位に当る。破線と実践で描かれた部材
81は視野マスクで、軸上ブロックの検出視野を極める
矩形開口81a,81b,81c左軸外ブロック81
d,81e,81f,右軸外ブロック81g,81h,
81iを具え、撮影レンズの予定結像面またはその近傍
に配される。80は可動マスクで、軸上もしくは両軸外
ブロックの1つを選択するための矩形開口80aを具
え、視野マスク81に接近して図示しない保持部材に摺
動自在に支持されているものとする。また可動マスク8
0の端部には駆動片122が固設されており、駆動片に
は雌ねじが形成されている。121はステッピングモー
タで、モータの回転軸にリードスクリュー121aが連
結される。リードスクリュー121aは先程の駆動片の
雌ねじに螺合しているので、ステッピングモータに給電
されるとリードスクリュー121aが回転し、駆動片1
22そして可動マスク80が矢印A方向に移動する。
In the figure, X is the optical axis, and the sub mirror 3 in FIG.
Hit the area after reflection at. A member 81 drawn with a broken line and shown in practice is a field mask, and rectangular openings 81a, 81b, 81c for the left off-axis block 81 that maximize the detection field of the on-axis block.
d, 81e, 81f, right off-axis blocks 81g, 81h,
81i, and is arranged at or near the planned image forming plane of the taking lens. A movable mask 80 has a rectangular opening 80a for selecting one of the on-axis block and the off-axis block, and is assumed to be slidably supported by a holding member (not shown) close to the field mask 81. . The movable mask 8
A drive piece 122 is fixed to the end portion of 0, and a female screw is formed on the drive piece. Reference numeral 121 is a stepping motor, and a lead screw 121a is connected to the rotation shaft of the motor. Since the lead screw 121a is screwed into the female screw of the drive piece, the lead screw 121a rotates when power is supplied to the stepping motor, and the drive piece 1
22 and the movable mask 80 moves in the direction of arrow A.

【0034】従ってステッピングモータ121を正逆転
することで可動マスクの開口は視野マスク81の3つの
ブロックに対応した3つの位置を選択し得る。
Therefore, by rotating the stepping motor 121 forward and backward, the opening of the movable mask can select three positions corresponding to the three blocks of the field mask 81.

【0035】82は分割フィールドレンズで、軸上ブロ
ックを通過した光束と軸外ブロックを通過した光束に互
いに異なった屈折力を付与し、後述する光電変換素子8
5が良好な状態で光束を受ける様に調整している。84
は2次結像レンズ群で、84aから84dまでの正レン
ズが一体的に作られている。正レンズ84a乃至84d
は3通りの対、即ち84aと84d、84bと84c、
84cと84dを構成する。
Reference numeral 82 denotes a split field lens, which imparts different refracting powers to the light flux passing through the on-axis block and the light flux passing through the off-axis block, and a photoelectric conversion element 8 to be described later.
5 is adjusted so as to receive the luminous flux in a good state. 84
Is a secondary imaging lens group, and positive lenses 84a to 84d are integrally formed. Positive lenses 84a to 84d
Are three pairs, namely 84a and 84d, 84b and 84c,
84c and 84d are formed.

【0036】83は多孔マスクで、正レンズ84a乃至
84dを通過する光束を規制するため夫々の正レンズに
対応する楕円開口を備える。85は光電変換素子で、組
をなす画素の配列SNS3とSNS4、SNS5とSN
S6、SNS7とSNS8を有し、透明樹脂製のパッケ
ージ86に封入されている。なお、視野マスク81の各
ブロックの上段、中段、下段の検出視野を通過した光束
は光電変換素子85の下段、中段、上段のアレイの組に
夫々、入射することになる。
Reference numeral 83 denotes a porous mask, which has elliptical openings corresponding to the respective positive lenses for restricting the light flux passing through the positive lenses 84a to 84d. Reference numeral 85 is a photoelectric conversion element, which is an array of pixel pairs SNS3 and SNS4, SNS5 and SN.
It has S6, SNS7 and SNS8, and is enclosed in a package 86 made of transparent resin. The light fluxes passing through the upper, middle, and lower detection fields of each block of the field mask 81 are incident on the lower, middle, and upper arrays of photoelectric conversion elements 85, respectively.

【0037】図18は可動マスク80の開口80aが対
物レンズ1の光軸上にある場合の例で、焦点検出のため
の光束は、可動マスク開口80a、固定マスク開口81
bを通った後、分割フィールドレンズの中央部82aに
入射する。この分割フィールドレンズ82は中央部にお
いて、多孔マスク83と対物レンズの射出瞳面38とを
共役関係におき、特に、多孔マスクの2つの開口83
b、83cの中心を射出瞳の中心に投影している。ま
た、多孔マスクの開口83b、83cを通った光束は、
その背後に置かれた再結像レンズ84のレンズ部84
b、84cに夫々入射する。2次結像レンズ群のレンズ
84b、84cは対物レンズ1の予定結像面と光電変換
素子85の受光面とを共役な関係におき、一対の物体の
2次像を光電変換素子の受光面上に形成する。この2次
結像レンズによって固定マスクの開口81bの像が形成
される光電変換素子上に配された多数の画素から成る一
対の画素列SNS5、SNS6の逆投影像が測距視野と
なる。上記の2次像は撮影レンズ1の予定結像面に対す
る結像状態に応じて、その相対的間隔が変化するため、
これを光電変換した後、所定の演算を施すことで撮影レ
ンズの結像状態を知ることができる。図20のAiとB
iは光電変換した信号の1例である。
FIG. 18 shows an example in which the opening 80a of the movable mask 80 is on the optical axis of the objective lens 1, and the light flux for focus detection is the movable mask opening 80a and the fixed mask opening 81.
After passing through b, the light enters the central portion 82a of the split field lens. In the central portion of the split field lens 82, the porous mask 83 and the exit pupil plane 38 of the objective lens are placed in a conjugate relationship, and in particular, the two openings 83 of the porous mask are arranged.
The centers of b and 83c are projected onto the center of the exit pupil. Further, the light flux passing through the openings 83b and 83c of the porous mask is
The lens portion 84 of the re-imaging lens 84 placed behind it
It is incident on b and 84c, respectively. The lenses 84b and 84c of the secondary image forming lens group place the planned image forming surface of the objective lens 1 and the light receiving surface of the photoelectric conversion element 85 in a conjugate relationship so that a secondary image of a pair of objects is formed on the light receiving surface of the photoelectric conversion element. Form on top. The back projection images of a pair of pixel rows SNS5 and SNS6, which are composed of a large number of pixels arranged on the photoelectric conversion element on which the image of the opening 81b of the fixed mask is formed by the secondary imaging lens, serve as a distance measuring field. Since the relative distance of the secondary image changes depending on the image forming state of the taking lens 1 with respect to the planned image forming surface,
After photoelectrically converting this, the image formation state of the photographing lens can be known by performing a predetermined calculation. 20 Ai and B
i is an example of a photoelectrically converted signal.

【0038】また、視野マスク81bの上下の開口より
焦点検出系に入射した光束は、2次結像レンズ84b、
84cの作用により、光電変換素子の画素列SNS3、
SNS4、SNS7、SNS8の上に結像し、物体の2
次像を形成する。これらの像も同様に対物レンズの結像
状態に応じて、相対的間隔が変化することを利用して固
定マスク81a、81c部におけるが可能である。
The light flux that has entered the focus detection system through the upper and lower openings of the field mask 81b is the secondary imaging lens 84b,
By the action of 84c, the pixel column SNS3 of the photoelectric conversion element,
Image on SNS4, SNS7, SNS8, 2 of the object
Form the next image. These images can also be formed in the fixed masks 81a and 81c by utilizing the fact that the relative distance changes in accordance with the image formation state of the objective lens.

【0039】図19は、可動マスク80の開口80aが
対物レンズ1の光軸から外れた位置にある場合の例で、
焦点検出のための光束は、可動マスク開口80a、固定
マスク開口81eを通った後、分割フィールドレンズ8
2の周辺部82bに入射している。分割フィールドレン
ズの周辺部82bの光軸88は対物レンズの光軸とは異
なり、多孔マスク83と対物レンズ1の射出瞳面38と
を共役関係におくとともに、多孔マスクの開口83a、
83bの中心を射出瞳の中心に投影している。多孔マス
ク83a、83bを通った光束は、2次結像レンズ84
のレンズ部に84a、84bに夫々入射し、光電変換素
子の一対の画素列SNS5、SNS6上に夫々物体の2
次像を形成する。従って図18を使って説明した軸上検
出視野の場合と同様に、一対の2次像を画素列SNS
5、SNS6によって光電変換した信号に対し所定の演
算を施すことによって対物レンズの結像状態を知ること
ができる。また、視野マスク81eの上下の開口につい
ては画素列SNS3、SNS4、SNS7、SNS8上
の像を光電変換することで検出可能である。
FIG. 19 shows an example in which the opening 80a of the movable mask 80 is located off the optical axis of the objective lens 1.
The light flux for focus detection passes through the movable mask opening 80a and the fixed mask opening 81e, and then the split field lens 8
The light is incident on the second peripheral portion 82b. The optical axis 88 of the peripheral portion 82b of the split field lens is different from the optical axis of the objective lens, the porous mask 83 and the exit pupil plane 38 of the objective lens 1 are placed in a conjugate relationship, and the aperture 83a of the porous mask,
The center of 83b is projected onto the center of the exit pupil. The light flux that has passed through the perforated masks 83a and 83b receives the secondary imaging lens 84.
Incident on the lens section of the photoelectric conversion element 84a and 84b, respectively, and on the pair of pixel rows SNS5 and SNS6 of the photoelectric conversion element, the object of
Form the next image. Therefore, as in the case of the on-axis detection field of view described with reference to FIG. 18, a pair of secondary images are displayed on the pixel array SNS.
5. The image formation state of the objective lens can be known by performing a predetermined calculation on the signal photoelectrically converted by the SNS6. The upper and lower openings of the field mask 81e can be detected by photoelectrically converting the images on the pixel columns SNS3, SNS4, SNS7, SNS8.

【0040】なお、視野マスク81g,81h,81i
側の検出系については、軸対称であるための説明を省略
する。
The field masks 81g, 81h, 81i
Since the detection system on the side is axisymmetric, the description is omitted.

【0041】以上のように、画素列SNS3、SNS4
は視野マスク開口81d,81a,81gの位置におけ
る焦点検出に供され、画素列SNS5、SNS6は開口
81e,81b,81hの位置、画素列SNS7、SN
S8は開口81f,81c,81iの位置での焦点検出
に供される。合計9ヵ所の位置における焦点検出が3対
の画素列で可能になっている。いずれも画素列の2次結
像レンズによる逆投影像が実際の検出視野であって、こ
れらをファインダー視野内に図13の様に表示すれば操
作者に都合が良い。但し、検出枠94a乃至94iを図
4のフォーカシングスクリーンの内1面に書き込んでも
良いし、別にフォーカシングスクリーンの上方に隣接し
て例えば液晶表示板16を設け、選択したブロックの検
出視野を表示しても良い。
As described above, the pixel columns SNS3, SNS4
Are used for focus detection at the positions of the field mask openings 81d, 81a, 81g, and the pixel columns SNS5, SNS6 are at the positions of the openings 81e, 81b, 81h, and the pixel columns SNS7, SN.
S8 is used for focus detection at the positions of the openings 81f, 81c, 81i. Focus detection at a total of nine positions is possible with three pairs of pixel rows. In each case, the back projection image by the secondary imaging lens of the pixel row is the actual detection visual field, and it is convenient for the operator to display these in the finder visual field as shown in FIG. However, the detection frames 94a to 94i may be written on one surface of the focusing screen of FIG. 4, or a liquid crystal display plate 16 may be provided adjacently above the focusing screen to display the detection field of view of the selected block. Is also good.

【0042】図22は、多孔マスク83の詳細図で、特
に射出瞳像との位置関係を示すものである。図中90
a,90b,90cはそれぞれ、分割フィールドレンズ
の中央部82a、周辺部82b、82cによる対物レン
ズ1の射出瞳の像で、視野マスク81の9つの開口を通
して得られたものである。射出瞳像90aの内部には、
多孔マスク開口83b、83cが、射出瞳像90bの内
部には、多孔マスク開口83a、83bが、射出瞳像9
0cの内部には多孔マスク開口83c、83dが夫々置
かれている。多孔マスク開口83b、83cは2つの射
出瞳像の共通する領域にあり、これらには2つの検出視
野からの光束が、可動マスク80の位置により選択的に
入射する。このように、一つのマスク開口が2つの検出
視野からの光束を受けるように構成することによって、
撮影レンズの予定結像面と光電変換素子との投影を縮小
結像として、センサー面積を小さくしつつ、更に視野マ
スク81a乃至81iの光束を光電変換素子上に導くこ
とが可能となった。
FIG. 22 is a detailed view of the porous mask 83, and particularly shows the positional relationship with the exit pupil image. 90 in the figure
Reference characters a, 90b, and 90c are images of the exit pupil of the objective lens 1 by the central portion 82a and the peripheral portions 82b and 82c of the split field lens, respectively, which are obtained through the nine openings of the visual field mask 81. Inside the exit pupil image 90a,
The porous mask openings 83b and 83c are formed inside the exit pupil image 90b, and the porous mask openings 83a and 83b are formed inside the exit pupil image 90b.
Porous mask openings 83c and 83d are placed inside 0c, respectively. The perforated mask openings 83b and 83c are located in a common area of the two exit pupil images, and the light beams from the two detection fields of view are selectively incident on the movable mask 80 depending on the position of the movable mask 80. Thus, by configuring one mask aperture to receive light flux from two detection fields,
By projecting the projected image formation surface of the photographing lens and the photoelectric conversion element into a reduced image, it is possible to further guide the light flux of the field masks 81a to 81i onto the photoelectric conversion element while reducing the sensor area.

【0043】次に、図23はカメラを横に構えている
か、縦に構えているかを検知するためのスイッチを示
す。図12に示す視線検知装置で光電変換器14に2次
元のエリア・センサを採用すれば、カメラの構えに応じ
てエリアセンサの縦の辺の出力と横の辺の出力を切替え
れば水平の視線方向を検出することは可能である。しか
しながら本実施例は光電変換器14に1次元センサを採
用しているため、カメラを縦に構えたときは誤検出を生
じるため、検出を中止する構成を取っている。
Next, FIG. 23 shows a switch for detecting whether the camera is held horizontally or vertically. If a two-dimensional area sensor is adopted for the photoelectric converter 14 in the visual axis detection device shown in FIG. 12, the output of the vertical side and the output of the horizontal side of the area sensor can be switched according to the attitude of the camera so that the horizontal side is output. It is possible to detect the line-of-sight direction. However, in this embodiment, since the photoelectric converter 14 employs the one-dimensional sensor, when the camera is held vertically, an erroneous detection occurs, so that the detection is stopped.

【0044】本図は重力を利用した検出スイッチの一例
であって、107は回転軸で、軸支されたレバーの1端
には重り108が、他端には摩擦が少なくなる様に構成
したマイクロブラシ106aが設けられる。109、1
10、111は同一円上に配されたわん曲した電極で、
マイクロブラシ106aと電極109が接触していると
きには横位置信号が発生し、マイクロブラシ106aと
電極110または111が接触しているときは縦位置信
号が発生する。
This drawing is an example of a detection switch utilizing gravity, and 107 is a rotating shaft, which is constructed so that a weight 108 is provided at one end of a lever supported by the shaft and friction is reduced at the other end. A micro brush 106a is provided. 109, 1
Reference numerals 10 and 111 denote curved electrodes arranged on the same circle.
A horizontal position signal is generated when the microbrush 106a and the electrode 109 are in contact with each other, and a vertical position signal is generated when the microbrush 106a and the electrode 110 or 111 are in contact with each other.

【0045】図24は電気系を主に示す。但し、FLS
は図12の鏡筒5に対応し、1はLNSに対応する。ま
た、LEDは同じく図12の照明光源13、SAは光電
変換器14に当る。またSNSは図12の部材6、詳細
には図17の焦点検出装置の光電変換素子85に対応
し、MTR3には図17のステッピングモータ121に
当る。因みにMTR1はフィルム給送用モータ、MTR
2はシャッターばね巻上げモータである。またSW1と
SW2は、図示しないレリーズボタンの押し下げで順次
閉成されるスイッチを示し、SPCは露光制御用の測光
センサを示す。DSPはカメラの諸情報を表示する表示
板を示す。
FIG. 24 mainly shows the electric system. However, FLS
Corresponds to the lens barrel 5 in FIG. 12, and 1 corresponds to the LNS. Similarly, the LED corresponds to the illumination light source 13 of FIG. 12, and the SA corresponds to the photoelectric converter 14. The SNS corresponds to the member 6 of FIG. 12, specifically the photoelectric conversion element 85 of the focus detection device of FIG. 17, and the MTR 3 corresponds to the stepping motor 121 of FIG. By the way, MTR1 is a film feeding motor, MTR
2 is a shutter spring winding motor. SW1 and SW2 indicate switches that are sequentially closed by pressing down a release button (not shown), and SPC indicates a photometric sensor for exposure control. The DSP indicates a display board for displaying various information of the camera.

【0046】一方、PRSはカメラの制御装置で、例え
ば、内部にCPU(中央処理装置)、ROM、RAM、
EEPROM(電気的消去可能プログラムマブルRO
M)、A/D変換機能を持つ1チップのマイクロ・コン
ピュータであり、ROMに格納されたカメラのシーケン
スプログラムに従って、自動露出制御機能、自動焦点検
出機能、フィルムの巻上げ・巻戻し等のカメラの動作を
行っている。EEPROMは不揮発性メモリの一種で、
各種の調整データが工程において書き込まれている。カ
メラの制御装置PRSは通信用信号SO、SI、SCL
Kを用いて、周辺回路およびレンズと通信し、各々の回
路やレンズの動作を制御する。
On the other hand, PRS is a control device of the camera, for example, a CPU (central processing unit), ROM, RAM,
EEPROM (Electrically Erasable Programmable RO
M), which is a 1-chip microcomputer having an A / D conversion function, according to the camera sequence program stored in the ROM, the automatic exposure control function, the automatic focus detection function, the film winding / rewinding, etc. It's working. EEPROM is a type of non-volatile memory,
Various adjustment data are written in the process. The camera control unit PRS uses communication signals SO, SI, SCL
K is used to communicate with the peripheral circuits and the lens to control the operation of each circuit and lens.

【0047】SOはPRSから出力されるデータ信号、
SIはPRSに入力されるデータ信号、SCLKは信号
SO、SIの同期信号である。
SO is a data signal output from PRS,
SI is a data signal input to PRS, and SCLK is a synchronization signal of signals SO and SI.

【0048】LCMはレンズ通信バッファ回路であり、
カメラの動作中のときはレンズ用電源VLをレンズに与
え、PRSからの信号CLCMが高電位レベルのとき
は、カメラとレンズ間通信のバッファとなる。
LCM is a lens communication buffer circuit,
When the camera is in operation, the lens power supply VL is applied to the lens, and when the signal CLCM from the PRS is at a high potential level, it serves as a buffer for communication between the camera and the lens.

【0049】PRSがCLCMを“H”にして、SCL
Kに同期して所定のデータをSOから送出すると、LC
Mはカメラ・レンズ間接点を介して、SCLK、SOの
各々のバッファ信号LCK、DCLをレンズへ出力す
る。それと同時にレンズからの信号DLCのバッファ信
号をSIに出力し、PRSはSCLKに同期してSIか
らレンズのデータを入力する。
PRS sets CLCM to "H", and SCL
When certain data is sent from SO in synchronization with K, LC
M outputs the buffer signals LCK and DCL of SCLK and SO to the lens via the camera / lens indirect point. At the same time, the buffer signal of the signal DLC from the lens is output to SI, and the PRS inputs the lens data from SI in synchronization with SCLK.

【0050】SDR1は焦点検出用のラインセンサ装置
SNSの駆動回路であり、信号CSDR1が“H”のと
き選択されて、SO、SI、SCLKを用いてPRSか
ら制御される。
SDR1 is a drive circuit of the line sensor device SNS for focus detection, which is selected when the signal CSDR1 is "H" and controlled by the PRS using SO, SI and SCLK.

【0051】信号CK1はCCD駆動用クロックφ1
1、φ12を生成するためのクロックであり、信号IN
TEND1は蓄積動作が終了したことをPRSへ知らせ
る信号である。
The signal CK1 is the CCD driving clock φ1.
Clock for generating 1 and φ12, signal IN
TEND1 is a signal notifying the PRS that the accumulation operation has been completed.

【0052】SNSの出力信号OS1はクロックφ1
1、φ12に同期した時系列の像信号であり、SDR1
内の増幅回路で増幅された後、AOS1としてPRSに
出力される。PRSはAOS1をアナログ入力端子から
入力し、CK1に同期して、内部のA/D変換機能でA
/D変換後RAMの所定のアドレスに順次格納する。
The output signal OS1 of the SNS is the clock φ1.
1, a time-series image signal synchronized with φ12, SDR1
After being amplified by the amplifier circuit inside, it is output to PRS as AOS1. The PRS inputs AOS1 from the analog input terminal and synchronizes with CK1 by using the internal A / D conversion function.
After the / D conversion, the data is sequentially stored in a predetermined address of the RAM.

【0053】同じくSNSの出力信号であるAGC1
は、SNS内のAGC制御用センサの出力であり、SD
R1に入力されて、SNSの蓄積制御に用いられる。
Similarly, the output signal of SNS, AGC1
Is the output of the AGC control sensor in the SNS, and SD
It is input to R1 and used for SNS storage control.

【0054】対となるセンサ列上に形成された2像の光
電変換出力の、一方の出力をA(i)、他方出力をB
(i)として図12にした。なお、この例ではセンサの
画素数を40画素(i=0,…,39)としている。
One of the two photoelectric conversion outputs formed on the pair of sensor arrays is A (i) and the other is B.
It is shown in FIG. 12 as (i). In this example, the number of pixels of the sensor is 40 pixels (i = 0, ..., 39).

【0055】像信号A(i)、B(i)から像ずれ量P
Rを検出する信号処理方法としては特開昭58−142
306号公報、特開昭59−107313号公報、特開
昭60−101513号公報、あるいは特開昭63−1
8314号などが開示されている。
Image shift amount P from the image signals A (i) and B (i)
A signal processing method for detecting R is disclosed in Japanese Patent Laid-Open No. 58-142.
No. 306, No. 59-107313, No. 60-101513, or No. 63-1.
No. 8314 is disclosed.

【0056】SDR2は視線検出用のラインセンサ装置
SAの駆動回路であり、信号CSDR2が“H”のとき
選択されて、SO、SI、SCLKを用いてPRSから
制御される。
SDR2 is a drive circuit of the line sensor device SA for detecting the line of sight, which is selected when the signal CSDR2 is "H" and is controlled by the PRS using SO, SI and SCLK.

【0057】信号CK2はCCD駆動用クロックφ2
1、φ22を生成するためのクロックであり、信号IN
TEND2は蓄積動作が終了したことをPRSへ知らせ
る信号である。
The signal CK2 is the CCD driving clock φ2.
Clock for generating 1 and φ22, signal IN
TEND2 is a signal notifying the PRS that the accumulation operation has been completed.

【0058】SAの出力信号OS2はクロックφ21、
φ22に同期した時系列の像信号であり、SDR2内の
増幅回路で増幅された後、AOS2としてPRSに出力
される。PRSはAOS2をアナログ入力端子から入力
し、CK2に同期して、内部のA/D変換機能でA/D
変換後RAMの所定のアドレスに順次格納する。
The output signal OS2 of SA is clock φ21,
These are time-series image signals synchronized with φ22, and after being amplified by the amplifier circuit in SDR2, are output to PRS as AOS2. The PRS inputs AOS2 from the analog input terminal, synchronizes with CK2, and A / D by the internal A / D conversion function.
After conversion, the data is sequentially stored at a predetermined address in the RAM.

【0059】同じくSNS2の出力信号であるAGC2
は、SA内のAGC制御用センサの出力であり、SDR
2に入力されて、SNSの蓄積制御に用いられる。
Similarly, AGC2 which is the output signal of SNS2
Is the output of the AGC control sensor in the SA, and SDR
2 is input and used for SNS storage control.

【0060】LED(図12の13)は人眼照明用のL
EDで、光電素子SA(図12の14)の蓄積と同期し
てトランジスタTR3によって通電され視線の検出に供
される。
The LED (13 in FIG. 12) is an L for human eye illumination.
At the ED, the transistor TR3 is energized in synchronism with the accumulation of the photoelectric element SA (14 in FIG. 12) to be used for detecting the line of sight.

【0061】SPCは撮影レンズを介した光を受光する
露出制御用の測光センサであり、その出力SSPCはP
RSのアナログ入力端子に入力され、A/D変換後、自
動露出制御(AE)に用いられる。
SPC is a photometric sensor for exposure control that receives light from the taking lens, and its output SSPC is P
It is input to the analog input terminal of RS, used for automatic exposure control (AE) after A / D conversion.

【0062】DDRはスイッチ・センスおよび表示用回
路であり、信号CDDRが“H”のとき選択されて、S
O、SI、SCLKを用いてPRSから制御される。即
ち、PRSから送られてくるデータに基づいてカメラの
表示部材DSPの表示を切替えたり、不図示のレリーズ
ボタン(スイッチSW1、SW2に連動)をはじめモー
ド設定ボタン等各種操作部材のオン・オフ状態、また図
23に示した重力検出スイッチSWCの状態をPRSに
連絡する。
DDR is a switch sense and display circuit, which is selected when the signal CDRD is "H", and S
Controlled from PRS using O, SI, SCLK. That is, the display of the display member DSP of the camera is switched based on the data sent from the PRS, and the ON / OFF state of various operation members such as a release button (not shown) (interlocked with the switches SW1 and SW2) and mode setting buttons. Also, the state of the gravity detection switch SWC shown in FIG. 23 is notified to the PRS.

【0063】MDR1、MDR2はフィルム給送、シャ
ッターばね巻上げ用モータMTR1、MTR2の駆動回
路で、信号M1F、M1R、M2F、M2Rでモータの
正転・逆転を実行する。
MDR1 and MDR2 are drive circuits for the film feeding and shutter spring hoisting motors MTR1 and MTR2, which carry out normal / reverse rotation of the motors by the signals M1F, M1R, M2F and M2R.

【0064】MDR3は、焦点検出装置の可動マスク8
0移動用ステッピングモータMTR3(図9の121)
の駆動回路で信号M3Pで駆動ステップ数、信号M3D
で駆動方向指示を受け、ステッピングモータの各相にパ
ルスを分配し、励磁のための電流増幅を行う。
The MDR 3 is a movable mask 8 of the focus detection device.
Zero-moving stepping motor MTR3 (121 in FIG. 9)
Drive circuit, the number of drive steps by signal M3P, signal M3D
The drive direction instruction is received at, the pulse is distributed to each phase of the stepping motor, and current amplification for excitation is performed.

【0065】MG1、MG2は各々シャッター先幕・後
幕走行開始用マグネットで、信号SMG1、SMG2、
増幅トランジスタTR1、TR2で通電され、PRSに
よりシャッター制御が行われる。
MG1 and MG2 are shutter front and rear curtain running start magnets, respectively. Signals SMG1 and SMG2,
Power is supplied to the amplification transistors TR1 and TR2, and shutter control is performed by the PRS.

【0066】SW1、SW2はレリーズボタン87に連
動したスイッチで、レリーズボタン87の第一段階の押
下によりSW1がオンし、引き続いて第2段階の押下で
SW2がオンする。制御装置PRSはSW1オンで測光
・視線検出・自動焦点調節を行い、SW2オンをトリガ
として露出制御とその後のフィルムの巻き上げを行う。
SW1 and SW2 are switches interlocked with the release button 87. SW1 is turned on when the release button 87 is pressed in the first step, and subsequently SW2 is turned on when the release button 87 is pressed in the second step. The control device PRS performs photometry, line-of-sight detection, and automatic focus adjustment when SW1 is on, and exposure control and subsequent film winding are triggered by SW2 on.

【0067】なお、前記SW2はマイクロコンピュータ
である制御装置PRSの「割り込み入力端子」に接続さ
れ、SW1オン時のプログラム実行中でもSW2オンに
よって割り込みがかかり、直ちに所定の割り込みプログ
ラムへ制御を移すことができる。
The SW2 is connected to the "interrupt input terminal" of the control device PRS, which is a microcomputer, so that even if the program is executed when the SW1 is on, an interrupt is generated by turning on the SW2, and control can be immediately transferred to a predetermined interrupt program. it can.

【0068】なお、スイッチ・センス表示用回路DD
R、モータ駆動回路MDR1、MDR2、シャッター制
御は、本発明と直接関わりがないので、詳しい説明は省
略する。
The switch / sense display circuit DD
Since R, motor drive circuits MDR1 and MDR2, and shutter control are not directly related to the present invention, detailed description thereof will be omitted.

【0069】LCKに同期してレンズ内制御回路LPR
Sに入力される信号DCLは、カメラからレンズFLN
Sに対する命令のデータであり、命令に対するレンズの
動作が予め決められている。
In-lens control circuit LPR synchronized with LCK
The signal DCL input to S is the lens FLN from the camera.
This is command data for S, and the operation of the lens with respect to the command is predetermined.

【0070】LPRSは、所定の手続きに従ってその命
令を解析し、焦点調節や絞り制御の動作や、出力DLC
からのレンズの各種パラメータ(開放Fナンバー、焦点
距離、デフォーカス量対繰り出し量の係数等)の出力を
行う。
The LPRS analyzes the command according to a predetermined procedure, and performs focus adjustment and aperture control operations and output DLC.
Various lens parameters (open F number, focal length, coefficient of defocus amount vs amount of extension, etc.) are output.

【0071】実施例では、全体繰り出しの単レンズの例
を示しており、カメラから焦点調節の命令が送られた場
合には、同時に送られてくる駆動量・方向に従って、焦
点調節用モータLMTRを信号LMF、LMRによって
駆動して、光学系を光軸方向移動させて焦点調節を行
う。光学系の移動量はエンコーダ回路ENCのパルス信
号SENCでモニターして、LPRS内のカウンタで係
数しており、所定の移動が完了した時点で、信号LM
F、LMRを“L”にしてモータLMTRをS制御す
る。
In the embodiment, an example of a single lens for the entire extension is shown. When a focus adjustment command is sent from the camera, the focus adjustment motor LMTR is driven in accordance with the drive amount and direction sent at the same time. Driven by the signals LMF and LMR, the optical system is moved in the optical axis direction to perform focus adjustment. The amount of movement of the optical system is monitored by the pulse signal SENC of the encoder circuit ENC, and is counted by the counter in the LPRS. When the predetermined movement is completed, the signal LM
F and LMR are set to "L", and the motor LMTR is S-controlled.

【0072】カメラから絞り制御の命令が送られた場合
には、同時に送られてくる絞り段数に従って、絞り駆動
用としては公知のステッピング・モータDMTRを駆動
する。なお、ステッピング・モータはオープン制御が可
能なため、動作をモニターするためのエンコーダを必要
としない。
When a diaphragm control command is sent from the camera, a stepping motor DMTR known for driving the diaphragm is driven in accordance with the number of diaphragm stages sent at the same time. Since the stepping motor can be open-controlled, it does not need an encoder for monitoring the operation.

【0073】次に図1〜図11を用いてカメラの動作を
説明する。図1はPRSに格納されたプログラムの全体
の流れを表わすフローチャートである。上記操作にてプ
ログラムの実行が開始されると、ステップ(002)に
おいてレリーズボタンの第1ストロークにてオンとなる
スイッチSW1の状態検知がなされスイッチSW1がオ
フのときは、ステップ(005)において、レンズに対
して「駆動停止命令」を送出することによって、駆動停
止の指示がなされる。ステップ(005)でPRS内の
RAMに設定されている制御用のフラグが、全てクリア
される。上記ステップ(002)、(005)はスイッ
チSW1がオンとなるか、あるいは電源スイッチがオフ
となるまで繰り返し実行され、従って、レンズ駆動中で
あっても、SW1がオンするとレンズは駆動を停止する
ことになる。SW1がオンとなることによってステップ
(003)へ移行する。ステップ(003)は「AE制
御」のサブルーチンを意味している。この「AE制御」
サブルーチンでは測光演算処理、露光制御ならびに露光
後のシャッタチャージ、フィルム巻き上げ等の一連のカ
メラ動作制御が行われる。なお、「AE制御」サブルー
チンは本発明とは直接関わりがないので詳細な説明は省
略するが、このサブルーチンの機能の概要は次の通りで
ある。
Next, the operation of the camera will be described with reference to FIGS. FIG. 1 is a flowchart showing the overall flow of the program stored in the PRS. When the execution of the program is started by the above operation, the state of the switch SW1 which is turned on by the first stroke of the release button is detected in step (002), and when the switch SW1 is off, in step (005), By sending a "drive stop command" to the lens, a drive stop instruction is given. In step (005), all the control flags set in the RAM in the PRS are cleared. The above steps (002) and (005) are repeatedly executed until the switch SW1 is turned on or the power switch is turned off. Therefore, even when the lens is being driven, the lens stops driving when SW1 is turned on. It will be. When SW1 is turned on, the process proceeds to step (003). Step (003) means a subroutine of "AE control". This "AE control"
In the subroutine, a series of camera operation controls such as photometric calculation processing, exposure control, shutter charging after exposure, film winding, and the like are performed. The "AE control" subroutine is not directly related to the present invention, so a detailed description thereof will be omitted, but the outline of the function of this subroutine is as follows.

【0074】SW1がオン中はこの「AE制御」サブル
ーチンが実行され、その度に測光および露光制御演算、
表示が行われる。不図示のレリーズボタンの第2ストロ
ークでスイッチSW2がオンになると、マイクロコンピ
ュータDRSの持つ割り込み処理機能によってレリーズ
動作が開始され、上記露光制御演算で求められた露光量
に基づいて絞りあるいはシャッタ秒時の制御を行い、露
光終了後にはシャッタ・チャージおよびフィルム給送動
作を行うことによってフィルム1コマの撮影が完了す
る。
While SW1 is on, this "AE control" subroutine is executed, and photometry and exposure control calculations are executed each time.
The display is done. When the switch SW2 is turned on by the second stroke of the release button (not shown), the release operation is started by the interrupt processing function of the microcomputer DRS, and the aperture or shutter speed is changed based on the exposure amount obtained by the exposure control calculation. After the exposure is completed, the shutter charge and the film feeding operation are performed to complete the photographing of one frame of the film.

【0075】なお本発明の実施例のカメラはAFのモー
ドとして、いわゆる「ワンショット」と「サーボ」とい
う2つのモードを有し、被写体に応じて自動的に切換わ
ようになっている。AFモードがワンショットのときに
は、一旦合焦するとスイッチSW1をオフするまでは再
びレンズ駆動動作を行わず、また合焦するまではレリー
ズもできないようになっている。
The camera of the embodiment of the present invention has two AF modes, so-called "one-shot" and "servo", which are automatically switched according to the subject. When the AF mode is one-shot, once the focus is achieved, the lens drive operation is not performed again until the switch SW1 is turned off, and the release cannot be performed until the focus is achieved.

【0076】サーボモードの場合には、合焦後も引き続
き被写体の追きに追従したレンズ駆動を行い、後述する
動体予測制御によるレンズ駆動が終了した時点でレリー
ズが許可される。
In the case of the servo mode, the lens drive that follows the pursuit of the object is continuously performed even after focusing, and the release is permitted when the lens drive by the moving body prediction control described later is completed.

【0077】先に述べたように、レリーズ動作はスイッ
チSW2オンによって行われるが、フィルム1コマの撮
影が完了した後もSW2をオンさせたままの場合も、
「AE制御」は一旦終了されたものとしてリターンす
る。従って、SW2をオンさせたままの動作を説明する
と、ワンショットの場合には、合焦するまではレリーズ
できず、合焦すると初めてレリーズ可となり、1コマの
撮影を行う、その後はワンショットなので焦点調節は行
わず、同じレンズ位置のまま次のコマの撮影が行われ、
スイッチSW2がオンしている間は引き続いて撮影が実
行される。
As described above, the release operation is performed by turning on the switch SW2. However, even if the switch SW2 is turned on even after the shooting of one frame of film is completed,
The "AE control" is returned once it has been completed. Therefore, to explain the operation with the SW2 turned on, in the case of one shot, the release cannot be performed until the subject comes into focus, and the release is possible only after the subject comes into focus, and one frame is photographed. Focus adjustment is not performed, the next frame is shot with the same lens position,
Shooting is continuously executed while the switch SW2 is on.

【0078】サーボ・モードの場合はスイッチSW2が
オンしている間は、「レリーズ動作」「AF制御」「レ
リーズ動作」「AF制御」というように交互に繰り返さ
れることになる。
In the servo mode, while the switch SW2 is turned on, "release operation", "AF control", "release operation" and "AF control" are alternately repeated.

【0079】さて、以上述べたようにステップ(00
3)において「AF制御」サブルーチンが終了すると、
ステップ(004)の「AF制御」サブルーチンが実行
される。
Now, as described above, the step (00
When the "AF control" subroutine in 3) is completed,
The "AF control" subroutine of step (004) is executed.

【0080】図2に「AF制御」サブルーチンのフロー
チャートを示す。
FIG. 2 shows a flowchart of the "AF control" subroutine.

【0081】まずステップ(108)ではフラグPRM
Vの状態判別を行う。PRMVは後で述べるように、レ
ンズ制御に関わるフラグで、前回の「AF制御」におい
てレンズ駆動を行ったときに1にセットされるフラグで
ある。いまはスイッチSW1オンから一回目のフローに
ついて述べているのでフラグPRMVは0であり、ステ
ップ(112)に移行する。
First, in step (108), the flag PRM is set.
The state of V is determined. As will be described later, PRMV is a flag related to lens control, and is a flag that is set to 1 when the lens is driven in the previous “AF control”. Since the first flow after the switch SW1 is turned on has been described, the flag PRMV is 0, and the process proceeds to step (112).

【0082】ステップ(112)ではフラグSRMVの
状態を検知しているが、SRMVもレンズ制御に関わる
フラグであり、いまはSRMV=0なのでステップ(1
55)へ移行する。ステップ(155)ではフラグLM
VDIを検知し、やはりφであるのでステップ(15
0)へ移行する。
Although the state of the flag SRMV is detected in step (112), SRMV is also a flag related to lens control, and since SRMV = 0 now, step (1)
55). In step (155), the flag LM
VDI is detected, and since it is φ, step (15
Move to 0).

【0083】ステップ(150)では「視線検出」サブ
ルーチンを実行する。このサブルーチンを図4に示して
いる。ここで撮影者の視線の位置を検出する。なお、こ
のサブルーチンおよび続くサブルーチンの詳細は後述す
る。
In step (150), the "line-of-sight detection" subroutine is executed. This subroutine is shown in FIG. Here, the position of the line of sight of the photographer is detected. The details of this subroutine and the subsequent subroutine will be described later.

【0084】ステップ(151)では、図11に示した
測距視野範囲設定サブルーチンに従い視線検出結果に基
づいて、図17に示した3ブロック9ヵ所測距視野のう
ち、視線位置に最も近い一ブロックを選択し、ステッピ
ングモータ121を制御して可動マスク80の開口を所
望の位置にセットする。
In step (151), based on the line-of-sight detection result according to the range-finding visual field range setting subroutine shown in FIG. Is selected and the stepping motor 121 is controlled to set the opening of the movable mask 80 at a desired position.

【0085】次のステップ(129)では、「焦点検
出」サブルーチンを実行する。このサブルーチンのフロ
ーチャートは図5に示しているが、このサブルーチン内
で撮影レンズの焦点状態を3つの測距視野について検出
する。これに続くステップ(102)では図3に示すサ
ブルーチンにて被写体が動いているか、静止しているか
を検知してAFモードを設定するが、一回目のフローに
おいては、ワンショットモードとしてAFOFLGはク
リアされてリターンされる。
In the next step (129), the "focus detection" subroutine is executed. The flow chart of this subroutine is shown in FIG. 5, and the focus state of the taking lens is detected in the three distance measuring fields in this subroutine. In the subsequent step (102), the AF mode is set by detecting whether the subject is moving or stationary in the subroutine shown in FIG. 3. In the first flow, AFOFLG is cleared as the one-shot mode. Will be returned.

【0086】ステップ(152)ではフラグAFOFL
Gの状態検知を行い、一回目のフローではφであるので
ステップ(130)に移行する。
In step (152), the flag AFOFL is set.
The state of G is detected, and since φ is φ in the first flow, the process proceeds to step (130).

【0087】次のステップ(130)では「判定」サブ
ルーチンを実行する。このサブルーチンのフローチャー
トは図7に示している。「判定」サブルーチンは「焦点
検出」サブルーチンの結果に基づいて、3つの測距視野
のうち、焦点調節に用いる一つの測距視野を選択すると
ともに、合焦あるいは焦点検出不能等の判定を行い、さ
らにレンズ駆動が必要ない場合には、レンズ駆動禁止フ
ラグLMVDI(104)を1にセットする。
In the next step (130), the "determination" subroutine is executed. The flowchart of this subroutine is shown in FIG. Based on the result of the "focus detection" subroutine, the "judgment" subroutine selects one of the three distance measuring fields of view to be used for focus adjustment, and determines whether focusing or focus detection is impossible. Further, when the lens drive is not required, the lens drive prohibition flag LMVDI (104) is set to 1.

【0088】次にステップ(131)では、合焦または
焦点検出不能を表示するための「表示」サブルーチンを
実行する。これは表示用回路DDR(図13)に所定の
データを通信して、表示装置DSPに表示せしめるわけ
であるが、この動作は本発明とは直接関わりがないの
で、これ以上の説明は省略する。
Next, at step (131), a "display" subroutine for displaying the focus or the focus detection inability is executed. This is to communicate predetermined data to the display circuit DDR (FIG. 13) and display it on the display device DSP. However, since this operation is not directly related to the present invention, further description will be omitted. .

【0089】ステップ(132)ではフラグLMVDI
の状態を検知する。先に述べたように、レンズ駆動が必
要ない場合にはLMVDIが1にセットされるので、ス
テップ(132)においてLMVDI=1ならばステッ
プ(133)へ移行して「AF制御」サブルーチンをリ
ターンする。フラグLMVDIが0ならば、ステップ
(134)へ移行して、フラグLCFLGの状態検知を
行う。
In step (132), the flag LMVDI is set.
Detect the state of. As described above, since LMVDI is set to 1 when lens driving is not necessary, if LMVDI = 1 in step (132), the process proceeds to step (133) and the "AF control" subroutine is returned. . If the flag LMVDI is 0, the process proceeds to step (134) to detect the state of the flag LCFLG.

【0090】LCFLGは、ステップ(129)の「焦
点検出」サブルーチン内で設定される低コントラストフ
ラグで、像信号のコントラストが所定値より低い場合に
1にセットされている。ステップ(134)においてL
CFLGが0ならば、焦点検出するにコントラスト充分
であったということになり、ステップ(135)におい
て後述の「レンズ駆動」を行ったのち、ステップ(13
6)でレンズ駆動フラグPRMVを1にセットし、ステ
ップ(137)で「AF制御」サブルーチンをリターン
する。
LCFLG is a low contrast flag which is set in the "focus detection" subroutine of step (129), and is set to 1 when the contrast of the image signal is lower than a predetermined value. L in step (134)
If CFLG is 0, it means that the contrast is sufficient for focus detection, and after "lens driving" described later is performed in step (135), step (13) is performed.
The lens drive flag PRMV is set to 1 in 6), and the "AF control" subroutine is returned in step (137).

【0091】ステップ(134)においてLCFLGが
1ならば、低コントラストであったとして、ステップ
(138)へ移行する。
If LCFLG is 1 in step (134), it is determined that the contrast is low, and the process proceeds to step (138).

【0092】ステップ(138)以降のステップは、い
わゆる「サーチ動作」の最初の制御フローである。
The steps after step (138) are the first control flow of the so-called "search operation".

【0093】さて、ステップ(138)では、レンズと
通信して、焦点調節レンズの移動量をそれに連動したエ
ンコーダの出力パルスで計数する「距離環カウンタ」の
カウント値FCNTをレンズ内制御装置LPRSから入
力する。このカウンタはレンズ用の電源VLの供給開始
時に0にリセットされ、繰り出し方向はアップカウン
ト、繰り込み方向はダウンカウントというように決めら
れている。
Now, in step (138), the count value FCNT of the "distance ring counter" which communicates with the lens and counts the movement amount of the focus adjustment lens by the output pulse of the encoder which is interlocked therewith is set from the in-lens controller LPRS. input. This counter is reset to 0 at the start of supply of the power source VL for the lens, and it is determined that the feeding direction is up-counting and the feeding direction is down-counting.

【0094】従って、距離環カウンタのカウント値FC
NTによってレンズ内の焦点調節レンズの光軸方向に対
する相対位置を知ることができる。
Therefore, the count value FC of the range ring counter
It is possible to know the relative position of the focusing lens in the lens with respect to the optical axis direction by NT.

【0095】次のステップ(139)において、カウン
ト値FCNTをマイクロコンピュータPRS内部のRA
M上の変換領域LPOSに格納・記憶しておく、このカ
ウント値はサーチ動作を開始したときのレンズの相対位
置を表わし、後で述べるように、サーチ動作によってコ
ントラスト充分な被写体を検知できなかった場合に、こ
のサーチ開始レンズ位置にレンズを戻すために使われ
る。
In the next step (139), the count value FCNT is set to RA in the microcomputer PRS.
This count value, which is stored and stored in the conversion area LPOS on M, represents the relative position of the lens when the search operation is started. As will be described later, the search operation could not detect a subject with sufficient contrast. When used to return the lens to this search start lens position.

【0096】続いて、ステップ(140)でレンズに対
して「至近方向駆動命令」を送出し、これによりサーチ
動作が開始される。レンズはこの命令を受けて、焦点調
節レンズを至近方向へ駆動させる。この命令は駆動量は
指定せずに、単に駆動方向のみを指示する命令であり、
焦点調節レンズが至近端の機械的限界にくれば、レンズ
内制御回路LPRSがそれを検知してレンズ自身が駆動
を停止する。なお、機械的限界位置の検知は、エンコー
ダパルスSENCの時間間隔によって認識する。ステッ
プ(141)では変数SRCNT、フラグSRMVを1
にセットする。SRCNTはサーチ動作の状態を表わす
変数で、サーチ動作を行っていないときには0、レンズ
が至近方向へ駆動しているときには1、無限方向へ駆動
しているときには2、サーチ開始レンズ位置に向かって
駆動しているときには3に設定される。いまここではレ
ンズを至近方向へ駆動させたので、変数SRCNTには
1を設定する。またSRMVはサーチ動作のレンズ駆動
を行ったことを表わすフラグである。
Then, in step (140), a "close-up direction drive command" is sent to the lens, and the search operation is started. In response to this command, the lens drives the focus adjustment lens in the close-up direction. This command does not specify the drive amount, it is only a command for the drive direction,
When the focus adjustment lens reaches the mechanical limit at the closest end, the in-lens control circuit LPRS detects it and the lens itself stops driving. The detection of the mechanical limit position is recognized by the time interval of the encoder pulse SENC. In step (141), the variable SRCNT and the flag SRMV are set to 1
Set to. SRCNT is a variable indicating the state of the search operation, and is 0 when the search operation is not performed, 1 when the lens is driving in the closest direction, 2 when the lens is driving in the infinite direction, and is driven toward the search start lens position. Is set to 3 when Since the lens is driven in the close-up direction here, 1 is set to the variable SRCNT. SRMV is a flag indicating that the lens drive in the search operation has been performed.

【0097】ステップ(138)〜(141)にてサー
チ動作の最初の制御を行われ、ステップ(142)で
「AF制御」サブルーチンをリターンする。
The first control of the search operation is performed in steps (138) to (141), and the "AF control" subroutine is returned in step (142).

【0098】図1にてステップ(003)の「AF制
御」サブルーチンが終了すると、再びステップ(00
2)でスイッチSW1の状態判別を行っている。ここ
で、SW1がオフされていればステップ(003)でレ
ンズに対して「駆動停止命令」を送出する。即ち、前回
の「AF制御」サブルーチンで何らかのレンズ駆動命令
を出していたとしても、スイッチSW1がオフしたとき
にはレンズ駆動を停止させる。そして、次のステップ
(005)で全フラグをクリアする。
When the "AF control" subroutine of step (003) in FIG. 1 is completed, the step (00
In 2), the state of the switch SW1 is determined. If SW1 is off, a "drive stop command" is sent to the lens in step (003). That is, even if some lens driving command is issued in the previous "AF control" subroutine, the lens driving is stopped when the switch SW1 is turned off. Then, in the next step (005), all flags are cleared.

【0099】ステップ(002)でスイッチSW1がオ
ンのままならば、ステップ(003)の「AE制御」サ
ブルーチンを実行後、ステップ(005)で再び「AF
制御」サブルーチンの実行を開始する。
If the switch SW1 remains on in step (002), the "AE control" subroutine in step (003) is executed, and then "AF control" is executed again in step (005).
Start execution of the "control" subroutine.

【0100】スイッチSW1がオン中の「AF制御」サ
ブルーチン(図2)の流れを、場合分けして以下に説明
してゆく。
The flow of the "AF control" subroutine (FIG. 2) when the switch SW1 is on will be described below by dividing it into cases.

【0101】(A)先ず、過去の「AF制御」サブルー
チンで、低コントラストでなく(フラグLCFLG(1
34)が0)、レンズ駆動が行われた(フラグPRMV
(108)が1)場合について述べる。
(A) First, in the past "AF control" subroutine, the contrast is not low (flag LCFLG (1
34) is 0), the lens is driven (flag PRMV).
The case where (108) is 1) will be described.

【0102】「AF制御」サブルーチンが実行される
と、ステップ(108)にてフラグPRMVの状態判別
を行い、ステップ(109)へ移行する。ステップ(1
09)ではレンズと通信して、レンズ内制御回路LPR
Sからレンズ駆動状態の情報を入力する。ここで所定の
駆動を完了しレンズが既に停止していれば、ステップ
(110)へ移行してフラグPRMVをクリアした後、
ステップ(129)以降の新たな焦点調節動作を開始す
る。但し、ワンショットモードとサーボモードで測距視
野決定の取扱いが異なり、ステップ(156)におい
て、フラグAFOFLGが1であれば、ステップ(15
0)に移行して再び視線検出を行い、φであれば、ステ
ップ(129)に移行して前回を同じ測距視野範囲にて
焦点検出を行う。レンズが未だ停止していかなければス
テップ(111)へ移行して「AF制御」サブルーチン
をリターンする。即ち、過去の「AF制御」のステップ
(135)でレンズに対して指示した量の駆動が終了す
るまでは、新たな焦点調節動作は行わないことになる。
When the "AF control" subroutine is executed, the state of the flag PRMV is discriminated at step (108), and the routine proceeds to step (109). Step (1
09) communicates with the lens to control the lens internal control circuit LPR
Information on the lens driving state is input from S. Here, if the predetermined driving is completed and the lens is already stopped, the process proceeds to step (110) to clear the flag PRMV,
A new focus adjustment operation after step (129) is started. However, if the handling of determining the distance measuring field is different between the one-shot mode and the servo mode, and if the flag AFOFLG is 1 in step (156), then step (15)
0), the line-of-sight detection is performed again, and if φ, the process proceeds to step (129) and focus detection is performed in the same range-finding visual field range the previous time. If the lens has not stopped, the process proceeds to step (111) and the "AF control" subroutine is returned. That is, the new focus adjustment operation is not performed until the driving of the amount instructed to the lens in the step (135) of the past “AF control” is completed.

【0103】(B)次に、前回の「AF制御」サブルー
チンで、低コントラスト(フラグLCFLGが1)で、
サーチ動作が行われた(フラグSRMVが1)場合につ
いて述べる。
(B) Next, in the previous "AF control" subroutine, with low contrast (flag LCFLG is 1),
A case where the search operation is performed (the flag SRMV is 1) will be described.

【0104】「AF制御」サブルーチンが実行される
と、ステップ(112)にてフラグSRMVの状態検知
を行い、ステップ(113)へ移行する。
When the "AF control" subroutine is executed, the state of the flag SRMV is detected at step (112), and the routine goes to step (113).

【0105】ステップ(113)ではレンズからレンズ
駆動状態の情報を入力し、レンズが既に停止していれば
ステップ(119)へ移行し、駆動中ならばステップ
(153)へ移行する。前述したようにサーチ動作は レンズを至近方向へ駆動する(変数SRCNT=1) の駆動中にコントラストのある被写体を発見できず
に、焦点調節レンズが至近側機械的限界に達すれば、今
後はレンズを無限方向へ駆動する(変数SRCNT=
2) の駆動中にコントラストのある被写体を発見できず
に、焦点調節レンズが無限側機械的限界に達すれば、今
後はレンズをサーチ開始レンズ位置へ駆動する(変数S
RCNT=3) という制御を行っている。
In step (113), information on the lens driving state is input from the lens. If the lens is already stopped, the process proceeds to step (119), and if it is being driven, the process proceeds to step (153). As described above, the search operation drives the lens in the close-up direction (variable SRCNT = 1), and if a subject with contrast cannot be found and the focusing lens reaches the mechanical limit on the close-up side, the lens will be used in the future. To the infinite direction (variable SRCNT =
If a subject with contrast cannot be found during the driving of 2) and the focusing lens reaches the infinite side mechanical limit, the lens is driven to the search start lens position from now on (variable S
RCNT = 3) is controlled.

【0106】サーチ動作中においては、焦点検出の前段
に必ず視線検出を行い、そのつど測距視野範囲を設定し
直す。これは一回目のフローで視線位置に基づいて測距
視野範囲を設定したにもかかわらず、焦点検出の結果が
低コントラストであり、サーチ動作に入ったということ
は、撮影レンズの初期デフォーカスが極めて大きく、撮
影者が被写体を正確に知覚していなかった可能性を示し
ており、この状態での視線検出結果は意味を持たないた
めのものである。上記ステップ(153)とステップ
(154)における視線検出と測距視野範囲の設定サブ
ルーチンがこの動作である。
During the search operation, line-of-sight detection is always performed before focus detection, and the range-finding visual field range is reset each time. This is because the result of focus detection was low contrast even though the distance measurement field range was set based on the line-of-sight position in the first flow, and the search operation started means that the initial defocus of the taking lens was This is because it is extremely large, which indicates that the photographer may not have perceived the subject accurately, and the gaze detection result in this state has no meaning. This operation is the subroutine for detecting the line of sight and setting the range of the visual field for distance measurement in steps (153) and (154).

【0107】ステップ(114)にて「焦点検出」サブ
ルーチンを実行する。このサブルーチンでは被写体のデ
フォーカス量とコントラストを検出する。次にステップ
(115)において低コントラストフラグLCFLGの
状態判定を行い、LCFLGが1で低コントラストなら
ばステップ(117)で「AF制御」サブルーチンをリ
ターンする。即ち、サーチ動作において焦点検出を行っ
たとき、低コントラストならば何もしないことになる。
At step (114), the "focus detection" subroutine is executed. In this subroutine, the defocus amount and the contrast of the subject are detected. Next, in step (115), the state of the low contrast flag LCFLG is determined. If LCFLG is 1 and the contrast is low, the "AF control" subroutine is returned in step (117). That is, when focus detection is performed in the search operation, nothing is done if the contrast is low.

【0108】ここでフラグLDFLGが0で低コントラ
ストでないと判定されたときには、ステップ(116)
へ移行し、レンズに対して「駆動停止命令」を送出す
る。次にステップ(118)でフラグSRMVをクリア
した後、ステップ(129)で新たな焦点調節制御を行
うことになる。即ち、サーチ動作中の焦点検出で低コン
トラストでない、つまり焦点検出するに充分なコントラ
ストを検出した場合には、レンズを停止させてサーチ動
作を終了(SRMVを0とする)し、同じ測距視野範囲
にて新たな焦点調節を行うのである。
If it is determined that the flag LDFLG is 0 and the contrast is not low, then the step (116)
Then, a “drive stop command” is sent to the lens. Next, after clearing the flag SRMV in step (118), new focus adjustment control is performed in step (129). That is, when the focus detection during the search operation is not low contrast, that is, when the contrast sufficient for focus detection is detected, the lens is stopped and the search operation is ended (SRMV is set to 0), and the same distance measuring field of view is obtained. A new focus adjustment is performed within the range.

【0109】上述したの動作でコントラストを検出で
きないときには、レンズの焦点調節レンズが至近側の機
械的限界にたっするまで、「AF制御」サブルーチンが
実行される度にステップ(117)で「AF制御」サブ
ルーチンをリターンすることになる。
When the contrast cannot be detected by the above-described operation, the "AF control" subroutine is executed every time the "AF control" subroutine is executed until the focus adjustment lens of the lens reaches the mechanical limit on the near side. It will return the subroutine.

【0110】レンズが至近端に達すると、ステップ(1
13)でレンズ停止を検知してステップ(119)へ移
行する。いま上記の場合について述べているからステ
ップ(120)へ移行する。なお、の場合ならばステ
ップ(119)からステップ(123)へ移行し、ここ
でステップ(124)へ移行する。の場合にはここで
ステップ(118)へ移行してサーチ動作を終了するわ
けであるが、の場合については後述する。
When the lens reaches the closest end, step (1
In 13), the lens stop is detected and the process proceeds to step (119). Since the above case has been described, the process proceeds to step (120). In the case of, the process shifts from step (119) to step (123), and then shifts to step (124). In the case of, the process proceeds to step (118) to end the search operation, but the case of will be described later.

【0111】さて、ステップ(120)では変数SRC
NTに1を加えている。これはレンズが至近端に達した
ので、次に無限方向へ駆動させるためで、次のステップ
(121)でレンズに「無限方向駆動命令」を送出し、
上記サーチ動作が開始される。そしてステップ(12
2)で「AF制御」サブルーチンをリターンする。動
作中にもコントラストが得られない場合の制御は先に述
べたの場合と同じく、「AF制御」サブルーチンが実
行される度に、ステップ(117)でリターンし、コン
トラストが検出された場合もと同様である。
Now, in step (120), the variable SRC is set.
Adding 1 to NT. This is because the lens has reached the closest end, so that it is driven in the infinite direction next time. In the next step (121), the "infinite direction drive command" is sent to the lens.
The search operation is started. And step (12
The "AF control" subroutine is returned in 2). The control when the contrast is not obtained during the operation is the same as in the case described above, each time the "AF control" subroutine is executed, the process returns at step (117) and the contrast is detected when the contrast is detected. It is the same.

【0112】レンズの焦点調節レンズが無限側の機械的
限界に達すると、ステップ(113)でレンズ停止を検
知し、ステップ(119)を経てステップ(123)へ
移行する。いまサーチ動作はであるからSRCNTは
2であり、ステップ(123)からステップ(124)
へ移行する。ステップ(124)では変数SRCNTに
1を加えており、これによりサーチ動作の動作とな
る。
When the focus adjustment lens of the lens reaches the mechanical limit on the infinite side, the lens stop is detected in step (113), and the process proceeds to step (123) via step (119). Since the search operation is now, SRCNT is 2, and step (123) to step (124)
Move to. At step (124), 1 is added to the variable SRCNT, and the search operation is performed.

【0113】ステップ(125)では前述した距離環カ
ウンタ値FCNTを入力し、ステップ(126)で変数
FPにLPOS−FCNTの値を格納する。変数LPO
Sはサーチ動作をしたときの距離環カウンタの値が格納
されており、これから現在のカウンタ値を減算したFP
は、現在のレンズ位置からサーチ開始位置までの距離環
カウンタ値を表わしている。このFPをステップ(12
7)にてレンズへ送出して、距離環カウンタ値でFPな
る量のレンズ駆動を命令する。即ち、レンズをサーチ開
始位置へ駆動するわけである。そしてステップ(12
8)で「AF制御」サブルーチンをリターンする。サー
チ動作の動作中の制御はこれまで述べたの場合と
同様である。
At step (125), the distance ring counter value FCNT described above is input, and at step (126), the value of LPOS-FCNT is stored in the variable FP. Variable LPO
S stores the value of the distance ring counter when the search operation is performed, and FP obtained by subtracting the current counter value from this value
Represents the distance ring counter value from the current lens position to the search start position. This FP is step (12
In step 7), the light is sent to the lens, and the lens driving is commanded by the distance ring counter value of FP. That is, the lens is driven to the search start position. And step (12
The "AF control" subroutine is returned in 8). The control during the search operation is the same as that described above.

【0114】焦点調節レンズがサーチ開始位置に達する
と、ステップ(113)でレンズ停止が検知され、ステ
ップ(119)、(123)を経て、ステップ(11
8)でフラグSRMVをクリアしてサーチ動作を終了し
た後、ステップ(129)以降で新たな焦点調節動作を
開始する。
When the focus adjustment lens reaches the search start position, the lens stop is detected in step (113), and after steps (119) and (123), step (11)
After the flag SRMV is cleared in 8) to end the search operation, a new focus adjustment operation is started in step (129) and thereafter.

【0115】次に2回目以降のAF制御のフローについ
て述べる。そのためにまずステップ(102)の動体検
知サブルーチンについて詳述する。
Next, the flow of AF control from the second time onward will be described. For that purpose, first, the moving body detection subroutine of step (102) will be described in detail.

【0116】図3に動体検知サブルーチンを示す。この
フローはワンショットモードで合焦後、あるいはワンシ
ョットモードで合焦に致らない場合に、像面上における
被写体の連続した移動を検知することによって、AFモ
ードをサーボに変更する機能を有する。
FIG. 3 shows a moving body detection subroutine. This flow has a function of changing the AF mode to the servo by detecting the continuous movement of the subject on the image plane after focusing in the one-shot mode or when the one-shot mode fails to achieve the focusing. .

【0117】まずステップ(624)において、フラグ
AFOFLGの状態を検知し、1であればステップ(6
23)へ移行し、ただちにサブルーチンをリターンす
る。これは一度サーボモードに入ったらワンショットモ
ードへ戻らないようにするためであり、モード間のハン
チング現象を防止するための処置である。
First, at step (624), the state of the flag AFOFLG is detected.
23) and immediately returns from the subroutine. This is to prevent returning to the one-shot mode once the servo mode is entered, and is a measure to prevent a hunting phenomenon between the modes.

【0118】ステップ(602)では、図2のステップ
(129)での焦点検出で前回のフローにて選択した測
距視野において焦点検出が可能か否かを判別し、焦点検
出が可能であればステップ(603)へ進みそうでなけ
れば、動体検知動作を初期状態に戻すべく、ステップ
(620)へ移行する。
In step (602), it is determined whether or not focus detection is possible in the focus detection field selected in the previous flow in the focus detection in step (129) of FIG. 2, and if focus detection is possible. If the process does not proceed to step (603), the process proceeds to step (620) to return the motion detecting operation to the initial state.

【0119】以降の説明において、デフォーカス量とは
前回あるいは前々回のフローにおいては、選択された測
距視野での値である。
In the following description, the defocus amount is a value in the selected distance measuring field in the flow of the previous time or the time before the previous time.

【0120】ステップ(603)では、前々回検出のデ
フォーカス量DF2をDF3へ、前回のでデフォーカス
量DF3をDF2へ、今回のデフォーカス量DEFをD
F3に入力し、データの更新を行う。次のステップ(6
04)では、焦点検出が3回連続して行えたかどうかを
判別し、ACNT=3であればステップ(607)へ移
行し、そうでなければステップ(605)へ移行する。
In step (603), the defocus amount DF2 detected before before is set to DF3, the defocus amount DF3 is set to DF2 at the previous time, and the current defocus amount DEF is set to D.
Input to F3 to update the data. Next step (6
In 04), it is determined whether or not focus detection can be performed three times in succession. If ACNT = 3, the process proceeds to step (607), and if not, the process proceeds to step (605).

【0121】ステップ(605)では、カウンターAC
NTを1カウントアップし、ステップ(606)へ移行
する。次のステップ(605)では、再度焦点検出が3
回連続して行えたかどうかを判別し、ACNT=3であ
ればステップ(607)へ進んで動体検知動作を行い、
そうでなければ、ステップ(623)へ移行し、このサ
ブルーチンをリターンする。
In step (605), the counter AC
NT is incremented by 1 and the process proceeds to step (606). In the next step (605), focus detection is set to 3 again.
It is determined whether or not the operation can be performed consecutively, and if ACNT = 3, the process proceeds to step (607) to perform the motion detection operation,
If not, the process proceeds to step (623) and this subroutine is returned.

【0122】ステップ(607)では、前々回の焦点検
出から前回の焦点検出までのデフォーカス変化量DFA
および前回の焦点検出から今回の焦点検出までのデフォ
ーカス変化量DFBを演算する。
At step (607), the defocus change amount DFA from the focus detection two times before to the focus detection last time.
Also, the defocus change amount DFB from the previous focus detection to the current focus detection is calculated.

【0123】次のステップ(608)では、前回の焦点
検出から今回の焦点検出までのデフォーカス変化量DF
Bが所定値ADより小さいかどうかを判別し、ADより
小さければステップ(609)へ進み、そうでなければ
ステップ(620)へ移行する。そこでデフォーカス変
化量DFBが所定値ADより大きいときには、被写体の
移動ではなく、障害物の視野への侵入やフレーミング変
更によってデフォーカス量が変化したと考え、このよう
な場合には、動体検知動作をリセットすべくステップ
(620)へ移行する。ADの値の一例として0.5m
m程度の値を用いているが、時間の要素を考慮したデフ
ォーカス変化速度によって、上記判定を行うと、焦点検
出の時間間隔による影響を取り除くことができ、更に正
確な判定が可能になる。
In the next step (608), the defocus change amount DF from the previous focus detection to the current focus detection is calculated.
It is determined whether or not B is smaller than a predetermined value AD. If it is smaller than AD, the process proceeds to step (609), and if not, the process proceeds to step (620). Therefore, when the defocus change amount DFB is larger than the predetermined value AD, it is considered that the defocus amount has changed due to the entry of the obstacle into the visual field or the change of the framing, not the movement of the subject. To reset step (620). 0.5m as an example of the value of AD
Although a value of about m is used, if the above determination is performed based on the defocus change speed in consideration of the time factor, the influence of the time interval of focus detection can be removed, and a more accurate determination can be made.

【0124】ステップ(609)では、撮影レンズの焦
点距離をLF2に入力し、次のステップ(610)で
は、合焦となった時点での撮影レンズの焦点距離LF1
と現在の焦点距離LF2の変化率AIZを計算する。
In step (609), the focal length of the taking lens is input to LF2, and in the next step (610), the focal length LF1 of the taking lens at the time of focusing.
And the change rate AIZ of the current focal length LF2 is calculated.

【0125】ステップ(611)では、ステップ(61
0)で演算された焦点距離変化率AIZが0.2より小
さいか否かを判別し、小さければステップ(612)へ
移行し、そうでなければステップ(620)へ進み、動
体検知動作をリセットする。ここで焦点距離変化率が大
きいとき、すなわち、撮影レンズが部分フォーカスであ
るとかズームレンズ等で大きくズーミングをしたときに
は、ズーミングによってデフォーカス量が変化する可能
性があり、このようなデフォーカス変化によって誤って
動体と判断されることを防止するためである。
In the step (611), the step (61
It is determined whether the focal length change rate AIZ calculated in 0) is smaller than 0.2, and if it is smaller, the process proceeds to step (612), and if not, the process proceeds to step (620) to reset the moving object detection operation. To do. If the rate of change in focal length is large, that is, if the shooting lens is partially focused or if the zoom lens is used for large zooming, the defocus amount may change due to zooming. This is to prevent it from being mistakenly determined to be a moving body.

【0126】ステップ(612)では、デフォーカス変
化量DFAとDFBの値が同じかどうか判別するもので
あり、DFA/DFB>0であれば、同方向であると判
断し、ステップ(613)に移行し、そうでなければ、
ステップ(620)へ進み、動体検知動作をリセットす
る。これは、被写体が一方向に移動していれば、デフォ
ーカス量の変化する方向も同じなので、これによって動
体と判断し、そうでなければ動体検知をやり直すため、
各パラメータをリセットする。
In step (612), it is determined whether or not the defocus change amounts DFA and DFB are the same. If DFA / DFB> 0, it is determined that they are in the same direction, and step (613) follows. Transition, otherwise
Proceeding to step (620), the motion detection operation is reset. This is because if the subject is moving in one direction, the direction in which the defocus amount changes is the same, so it is determined to be a moving object, and if it is not, the moving object detection is redone.
Reset each parameter.

【0127】ステップ(613)では、動体の判定を行
うためのパラメータMOVECNTを1カウントアップ
し、ステップ(614)へ進む。
At step (613), the parameter MOVECNT for judging the moving body is incremented by 1, and the routine proceeds to step (614).

【0128】ステップ(614)では、デフォーカス変
化量DFBが所定値BDより大きいかどうかを判別し、
BDより大きいときステップ(615)へ進み、そうで
ないとき、ステップ(616)へ移行する。ステップ
(615)では、MOVECNTを1カウントアップ
し、ステップ(616)へ移行する。これはデフォーカ
ス変化量DFBが所定値BD(例えば0.08mm)よ
り大きい、すなわち速い被写体に対してはMOVECN
Tのカウントスピードを上げ、サーボ制御への移行を早
くするためのものである。そして、この判定はデフォー
カス変化量以外のパラメータ、例えばでフォーカス変化
速度を使えば、焦点検出の時間間隔による影響を取り除
くことができ、より正確な判定を行うことができる。
At step (614), it is judged if the defocus change amount DFB is larger than a predetermined value BD,
If it is larger than BD, the process proceeds to step (615). If not, the process proceeds to step (616). At step (615), MOVECNT is incremented by 1, and the process proceeds to step (616). This is because the defocus change amount DFB is larger than a predetermined value BD (for example, 0.08 mm), that is, MOVECN for a fast subject.
This is to increase the count speed of T and speed up the transition to servo control. If this determination uses a parameter other than the defocus change amount, for example, the focus change speed, the influence of the focus detection time interval can be removed, and a more accurate determination can be performed.

【0129】ステップ(616)では、今回検出したデ
フォーカス量DF3が所定値CD(例えば0.2mm)
より大きい(後ピン)かどうかを判定し、CDより大き
ければステップ(617)へ進み、そうでなければ、ス
テップ(618)へ移行する。ステップ(617)では
MOVECNTを1カウントアップしてステップ(61
8)へ進む。ここでは、画面中央にある被写体が、ある
程度以上後ピン状態となれば、サーボ制御への移行を早
くするため、MOVECNTのカウントアップスピード
を速くしている。
At step (616), the defocus amount DF3 detected this time is a predetermined value CD (for example, 0.2 mm).
It is determined whether or not it is larger (post pinning). If it is larger than CD, the process proceeds to step (617), and if not, the process proceeds to step (618). In step (617), MOVECNT is counted up by 1 and then step (61)
Proceed to 8). Here, if the subject in the center of the screen is in the rear focus state to some extent or more, the shift to the servo control is accelerated, so that the count-up speed of MOVECNT is increased.

【0130】ステップ(618)では動体判定のパラメ
ータMOVECNTが6以上かどうかを判定し、6以上
であれば動体と判断し、ステップ(619)へ移行し、
そうでなければステップ(623)へ進み、このサブル
ーチンをリターンする。
In step (618), it is determined whether the moving object determination parameter MOVECNT is 6 or more. If it is 6 or more, it is determined to be a moving object, and the process proceeds to step (619).
Otherwise, it proceeds to step (623) and returns from this subroutine.

【0131】ステップ(619)では、焦点検出の制御
モードをサーボ制御にするため、AFOFLGに1を入
力し、ステップ(623)でこのサブルーチンをリター
ンする。次にステップ(620)〜(622)は、動体
検知動作を初期状態に戻すものであり、ステップ(62
0)では焦点検出の回数をカウントするACNTをリセ
ットし、次にステップ(621)では、撮影レンズの現
在の焦点距離をLF1に入力する。そしてステップ(6
22)では、MOVECNTをリセットし、ステップ
(623)にて、このサブルーチンをリターンする。そ
して、このサブルーチンは、動体と検知されるかあるい
はレリーズスイッチSW2オンかSW1がオフするまで
繰り返される。
At step (619), 1 is input to AFOFLG in order to set the focus detection control mode to servo control, and at step (623) this subroutine is returned. Next, steps (620) to (622) are for returning the motion detection operation to the initial state.
In 0), the ACNT that counts the number of times of focus detection is reset, and then in step (621), the current focal length of the taking lens is input to LF1. And step (6
In 22), MOVECNT is reset, and this subroutine is returned in step (623). Then, this subroutine is repeated until a moving object is detected or the release switch SW2 is turned on or SW1 is turned off.

【0132】また、図2のフローにより一度合焦してか
ら、以上説明した動体検知サブルーチンにおいて、AF
OFLGに1がセットされるまでは、レンズ駆動禁止フ
ラグLMVDIに1がセットされており、ステップ(1
55)に続いてはステップ(129)が実行され、視線
検出を行うことなく、同一の測距視野の焦点検出結果に
基づいた動体検知を行う。
In addition, after focusing once according to the flow of FIG. 2, in the moving object detection subroutine described above, AF
Until the OFLG is set to 1, the lens drive prohibition flag LMVDI is set to 1 and the step (1
After step 55), step (129) is executed to detect a moving object based on the focus detection result of the same distance measuring visual field without performing the visual axis detection.

【0133】動体であることが検知され、AFOLFL
Gに1がセットされると、ステップ(152)において
分岐し、ステップ(104)へと移行する。ステップ
(104)においてレンズ駆動禁止フラグLMVDIが
クリアされ、続いてステップ(157)においてサーボ
動作に必要な撮影レンズの予測駆動の演算が行われる。
AFOLFL is detected as a moving object.
When 1 is set in G, the process branches to step (152) and proceeds to step (104). In step (104), the lens drive prohibition flag LMVDI is cleared, and in step (157), calculation of predictive drive of the photographing lens necessary for servo operation is performed.

【0134】ステップ(158)では予測演算の結果に
基づいたレンズ駆動が行われ、ステップ(159)にお
いて、フラグPRMVに1をセットして、ステップ16
0でサブルーチンをリターンする。
In step (158), the lens is driven based on the result of the prediction calculation, and in step (159), the flag PRMV is set to 1 and step 16
When 0, the subroutine is returned.

【0135】続いて図4の「視線検出」サブルーチンの
フローチャートを説明する。
Next, the flow chart of the "visual axis detection" subroutine of FIG. 4 will be described.

【0136】まず、ステップ(201)においては、図
23、図24に示したカメラの縦横検出用スイッチSW
Cの状態を検知することにより、カメラの姿勢を判別す
る。この結果縦位置であれば視線検出動作をせずにステ
ップ(214)に移行する。また、横位置であれば、ス
テップ(203)に移行し、視線検出を開始する。ステ
ップ(214)では視線VPに光軸上であることを意味
する0を入力し、ステップ(213)でリターンする。
First, in step (201), the vertical / horizontal detection switch SW of the camera shown in FIGS.
The posture of the camera is determined by detecting the state of C. As a result, if the position is the vertical position, the line-of-sight detection operation is not performed and the process proceeds to step (214). If it is in the lateral position, the process proceeds to step (203) to start the sight line detection. At step (214), 0 which means on the optical axis is input to the line of sight VP, and the process returns at step (213).

【0137】ステップ(203)では、LED(図12
の13)を点灯させ、眼球を照明すると同時に、視線検
出用光電変換素子SA(図12の14)の蓄積を開始さ
せる。具体的には、図15の制御装置PRSがセンサ駆
動回路SDR2に蓄積開始コマンドを送出し、SDR2
が光電変換素子SAのクリア信号CLRを“L”にして
電荷の蓄積が始まる。
In step (203), the LED (see FIG.
No. 13) is turned on to illuminate the eyeball, and at the same time, accumulation of the line-of-sight detection photoelectric conversion element SA (14 in FIG. 12) is started. Specifically, the control device PRS of FIG. 15 sends an accumulation start command to the sensor drive circuit SDR2,
Changes the clear signal CLR of the photoelectric conversion element SA to "L", and the accumulation of charges starts.

【0138】ステップ(204)では、PRSの入力I
NTEND2端子の状態を検知し、蓄積が終了したかど
うかを調べる。センサ駆動回路SDR2は蓄積開始と同
時に信号INTEND2を“L”にし、SAからのAG
C信号SAGC2をモニターし、SAGC2が所定のレ
ベルに達すると、信号INTEND2を“H”にし、同
時に電荷転送信号SH2を所定時間“H”にして、蓄積
された電荷をCCD部に転送させる構造を有している。
In step (204), the input I of the PRS is input.
The state of the NTEND2 terminal is detected and it is checked whether the accumulation is completed. The sensor drive circuit SDR2 sets the signal INTEND2 to “L” at the same time as the start of accumulation, and the AG from SA
The C signal SAGC2 is monitored, and when the SAGC2 reaches a predetermined level, the signal INTEND2 is set to "H", and at the same time, the charge transfer signal SH2 is set to "H" for a predetermined time to transfer the accumulated charge to the CCD unit. Have

【0139】ステップ(204)でINTEND2端子
が“H”ならば、蓄積が終了したということでステップ
(205)に移行し、“L”ならば蓄積未終了というこ
とで、もう一度ステップ(204)を実行する。
If the INTEND2 terminal is "H" in step (204), it means that the accumulation is completed and the process proceeds to step (205). If it is "L", it means that the accumulation is not completed. Run.

【0140】ステップ(205)では、光電変換素子S
Aの像信号OS2をセンサ駆動回路SDR2で増巾した
信号AOS2のA/D変換および、そのデジタル信号の
RAM格納を行う。より詳しく述べるならば、SDR2
はPRSからのクロックCK2に同期してCCD駆動用
クロックφ21、φ22を生成してSA内部の制御回路
へ与え、SAはφ21、φ22によって、CCD部が駆
動され、CCD内の電荷は、像信号として出力OS2か
ら時系列的に出力される。この信号はSDR2内部の増
巾器で増巾された後に、AOS2として、PRSのアナ
ログ入力端子へ入力される。PRSは自らが出力してい
るクロックCK2に同期してA/D変換を行い、A/D
変換後のデジタル像信号を順次RAMの所定アドレスに
格納していく。
In step (205), the photoelectric conversion element S
The A / D conversion of the signal AOS2 obtained by amplifying the image signal OS2 of A by the sensor drive circuit SDR2 and the storage of the digital signal in the RAM are performed. More specifically, SDR2
Generates the clocks φ21 and φ22 for driving the CCD in synchronization with the clock CK2 from the PRS and gives them to the control circuit inside the SA. SA drives the CCD section by φ21 and φ22, and the charge in the CCD is the image signal. Is output in time series from the output OS2. This signal is amplified by the amplifier in SDR2 and then input as AOS2 to the analog input terminal of PRS. The PRS performs A / D conversion in synchronization with the clock CK2 output by itself, and A / D
The converted digital image signal is sequentially stored in a predetermined address of the RAM.

【0141】ステップ(206)においては、ステップ
(205)において得られた眼球の情報に基づき、瞳孔
のエッジを検出する。前述したように、これは虹彩部の
出力平均の半値に近い出力を生ずる画素を抽出すること
によって行われる。
In step (206), the edge of the pupil is detected based on the eyeball information obtained in step (205). As mentioned above, this is done by extracting the pixels that produce an output close to half the average of the iris output average.

【0142】ステップ(207)においては、ステップ
(206)の処理中に得られた、像のコントラスト値、
およびSPC(図21)出力に対応したファインダー輝
度から算出される予測瞳孔径と検出瞳孔径との差等によ
って、瞳孔径検出結果の信頼性を判断する。なお、予測
瞳孔径とは、外界の明るさに応じて収縮、拡大する瞳孔
径の標準的な値である。すなわち、眼球の跳躍運動中に
蓄積が行われて、瞳の像が不鮮明であった場合や、まつ
げによる像出力の低下を瞳孔と取り違えた場合等を排除
する。信頼性充分と判断されたときは、ステップ(20
8)へ移行し、信頼性が不十分と判断されたときは、ス
テップ(212)へ移行する。
In step (207), the contrast value of the image obtained during the processing in step (206),
Also, the reliability of the pupil diameter detection result is determined by the difference between the predicted pupil diameter calculated from the finder brightness corresponding to the SPC (FIG. 21) output and the detected pupil diameter. The predicted pupil diameter is a standard value of the pupil diameter that contracts and expands according to the brightness of the outside world. That is, it is possible to eliminate the case where the image of the pupil is unclear due to accumulation during the leap motion of the eyeball, the case where the reduction of the image output due to the eyelashes is mistaken for the pupil, and the like. When it is judged that the reliability is sufficient, the step (20
When it is determined that the reliability is insufficient, the process proceeds to step (212).

【0143】次にステップ(208)では、第1プルキ
ンエ像の抽出を行う。これは瞳孔あるいは虹彩上に現わ
れた輝度ピークを検出することによって行われる。
Next, in step (208), the first Purkinje image is extracted. This is done by detecting the brightness peaks that appear on the pupil or iris.

【0144】ステップ(209)では、検出した第1プ
ルキンエ像のコントラストを所定値と比較することによ
って、メガネ等によるゴースト光がプルキンエ像と重な
った場合あるいは、まばたきによってプルキンエ像が半
分欠けた場合等を検出し、このときには信頼性不十分と
してステップ(212)へ分岐し、信頼性が充分なとき
はステップ(210)へ移行する。
In step (209), by comparing the detected contrast of the first Purkinje image with a predetermined value, when the ghost light from glasses or the like overlaps with the Purkinje image, or when the Purkinje image is half missing due to blinking, etc. Is detected, the reliability is insufficient at this time, the process branches to step (212), and when the reliability is sufficient, the process proceeds to step (210).

【0145】続くステップ(210)では、(2)式に
基づいて眼球の回転角を演算する。
In the following step (210), the rotation angle of the eyeball is calculated based on the equation (2).

【0146】ステップ(211)ではステップ(21
0)で得られた眼球の回転角と、ファインダー光学系の
既定値からピント板上の視点(線)VPを算出し、ステ
ップ(213)においてサブルーチンをリターンする。
In step (211), step (21
The viewpoint (line) VP on the focus plate is calculated from the rotation angle of the eyeball obtained in 0) and the default value of the finder optical system, and the subroutine is returned in step (213).

【0147】第1プルキンエ像と瞳孔エッジの抽出にお
いて、信頼性不十分と判定された場合分岐したステップ
(212)では、視線検出不能を表すフラグVLNGに
1をセットし、ステップ(212)においてサブルーチ
ンをリターンする様になっている。
In the extraction of the first Purkinje image and the pupil edge, if it is determined that the reliability is insufficient, the branched step (212) sets 1 to the flag VLNG indicating that the line of sight cannot be detected, and the subroutine in step (212). It is supposed to return.

【0148】次に図11に「測距視野範囲設定」サブル
ーチンのフローチャートに示す。このサブルーチンは、
視線検出結果に基づいて、測距視野を持つ3つのブロッ
クのうち、どれを選択するか決定するものである。
Next, FIG. 11 shows a flow chart of the "distance measuring visual field range setting" subroutine. This subroutine
Based on the line-of-sight detection result, it is determined which of the three blocks having the distance measuring field of view should be selected.

【0149】まずステップ(902)において、視線検
出サブルーチン内で設定された視線検出不能フラグVL
NGの状態を検知し、0であれば、ステップ(903)
に移行し、1であればステップ(906)に分岐して、
サブルーチンをリターンする。これは、視線検出不能時
は、測距視野範囲を前回のフローと同一位置に設定する
ことを意味している。
First, at step (902), the visual axis detection impossible flag VL set in the visual axis detection subroutine is set.
The state of NG is detected, and if it is 0, step (903)
If it is 1, branch to step (906),
Return the subroutine. This means that when the line-of-sight cannot be detected, the range-finding visual field range is set at the same position as in the previous flow.

【0150】ステップ(903)において、ピント板上
の視点VP情報(光軸からの距離)と所定の値a、例え
ばファインダー視野の半分35mmカメラにおいては1
8mmとを比較する。aよりも大なる場合は撮影者は被
写体像以外の撮影情報等を見ていたと判断し、このとき
の視線位置に基づく測距視野範囲の設定はせず、ステッ
プ(906)にてリターンする。
In step (903), the viewpoint VP information (distance from the optical axis) on the focusing plate and a predetermined value a, for example, 1 in the case of a half 35 mm camera of the viewfinder.
Compare with 8 mm. If it is larger than a, it is judged that the photographer was looking at the photographing information other than the subject image, and the range-finding visual field range based on the line-of-sight position at this time is not set, and the process returns at step (906).

【0151】ステップ(904)では、視点VPに最も
近い測距視野範囲を3つのうちから選択する。
In step (904), the range-finding visual field range closest to the viewpoint VP is selected from the three.

【0152】ステップ(905)では、可動マスク80
の移動用ステッピングモータMTR3を駆動制御して、
選択された視野範囲の焦点検出を可能にする。
In step (905), the movable mask 80
Drive control of the moving stepping motor MTR3 of
Enables focus detection for a selected field of view range.

【0153】図5に「焦点検出」サブルーチンのフロー
チャートを示す。ステップ(802)〜(804)にお
いて、選択したブロック内の上、中央、下の各測距視野
について、撮影レンズのデフォーカス量DF(1)、D
F(2)、DF(3)と像信号のコントラストを演算す
る。
FIG. 5 shows a flowchart of the "focus detection" subroutine. In steps (802) to (804), the defocus amounts DF (1) and D of the photographing lens are set for the upper, central, and lower distance measuring fields in the selected block.
The contrast between F (2) and DF (3) and the image signal is calculated.

【0154】ステップ(805)においては、ステップ
(802)〜(804)で演算されたコントラストがす
べて所定値以下であった場合に、ステップ(806)に
分岐する。またどれか一つでも所定値以上のコントラス
トがあれば、ステップ(807)に移行し、サブルーチ
ンをリターンする。
In step (805), if all the contrasts calculated in steps (802) to (804) are less than a predetermined value, the process branches to step (806). If any one of them has a contrast equal to or higher than the predetermined value, the process proceeds to step (807) and the subroutine is returned.

【0155】続いて「判定」サブルーチンおよび「予測
演算」サブルーチンについて説明する。これらは、視線
検出の結果によって測距視野ブロックが決まった後、そ
の範囲内にある複数の測距視野の情報を焦点調節に用い
るためのサブルーチンで、カメラの焦点調節動作モード
に応じて使い分けられる。
Next, the "determination" subroutine and the "prediction calculation" subroutine will be described. These are subroutines for using the information of a plurality of distance measuring fields within that range for focus adjustment after the distance measuring field block is determined by the result of the line-of-sight detection, and are selectively used according to the focus adjusting operation mode of the camera. .

【0156】まず図6で「判定」サブルーチンのフロー
チャートを説明する。
First, the flow chart of the "determination" subroutine will be described with reference to FIG.

【0157】ステップ701では最初の測距演算かどう
かをここで判定する。最初の測距演算の場合ステップ7
02へそうでないときはステップ704へ分岐する。
At step 701, whether or not it is the first distance measurement calculation is determined here. Step 7 for the first distance measurement calculation
If not 02, branch to step 704.

【0158】ステップ702ではレンズとFLNSとの
通信を行ってレンズの情報をマイコン内へ入力する。レ
ンズから焦点距離、至近距離、敏感度係数、くし歯ピッ
チ、などの情報を読み込む。
At step 702, communication between the lens and the FLNS is carried out to input lens information into the microcomputer. Information such as focal length, close-up distance, sensitivity coefficient, and comb tooth pitch is read from the lens.

【0159】ステップ703、ステップ702で読み込
んだ情報をもとに、測距視野別に至近しきい値を計算
(TH(1)、TH(2)、TH(3))する。
On the basis of the information read in steps 703 and 702, the close threshold value is calculated for each distance measuring field (TH (1), TH (2), TH (3)).

【0160】これらしきい値は測距点によって異なった
値が設定される。たとえば、上下の測距点に対するしき
い値は、その時のレンズの焦点距離fを使って、 TH(1)=TH(3)=20f を設定する。中央に対するしきい値は、上下の測距点の
しきい値より近く設定して、例えば、 TH(2)=10f と設定する。これは画面の中央、近距離に撮影者の意図
しないものが入ってしまうことが少ないことを考慮した
ものである。さらにマイクロレンズなど接写状態にある
と想定される場合は、このしきい値に一定の倍率(1よ
り小さい)をかけてしきい値を下げる。
Different values are set for these threshold values depending on the distance measuring points. For example, the threshold values for the upper and lower focus detection points are set to TH (1) = TH (3) = 20f using the focal length f of the lens at that time. The threshold for the center is set closer to the thresholds of the upper and lower focus detection points, for example, TH (2) = 10f. This is because it is unlikely that a photographer does not intend to enter in the center of the screen or at a short distance. Further, when it is assumed that the microlens is in a close-up state, this threshold value is multiplied by a certain magnification (less than 1) to lower the threshold value.

【0161】ステップ704は現在のレンズ絶対位置
(フォーカス値)をレンズから読み込むレンズに絶対位
置の情報がない場合、電源ON時など適当な時に一度レ
ンズを無限端につきあて、それからのレンズの動きを所
定のメモリに記憶しておくことにより、現在のレンズ位
置を求めることができる。
In step 704, when the current absolute lens position (focus value) is read from the lens and there is no information on the absolute position of the lens, the lens is once brought to the infinite end at an appropriate time such as when the power is turned on, and the movement of the lens from that point onward is performed. By storing it in a predetermined memory, the current lens position can be obtained.

【0162】ステップ714ではコントラストが所定値
以上であった測距視野について、デフォーカス量DF
(1)〜DF(3)とS4で記憶したレンズ位置から各
測距点の焦点検出している絶対距離AD(1)〜AD
(3)を求める。また、絶対距離データの個数をNNに
記憶する。
At step 714, the defocus amount DF is set for the distance measuring field whose contrast is equal to or more than the predetermined value.
(1) to DF (3) and the absolute distances AD (1) to AD for detecting the focus of each distance measuring point from the lens positions stored in S4
Find (3). Also, the number of absolute distance data is stored in NN.

【0163】ステップ715ではAD(1)〜AD
(3)を比較して近い距離順の順番をつける。N1にA
D(1)〜AD(3)の最も近い距離の測距点番号を入
れ、2番目の距離の測距点番号はN2へ、N3には最も
遠い距離の測距点番号を入れる。
At step 715, AD (1) to AD
(3) is compared and the order of the closer distance is given. A to N1
The distance measuring point number of the closest distance of D (1) to AD (3) is input to the distance measuring point number of the second distance to N2, and the distance measuring point number of the farthest distance is inserted to N3.

【0164】ステップ724ではNN=1であればステ
ップ(719)に分岐する。
If NN = 1 in step 724, the process branches to step (719).

【0165】ステップ716では測距した点の中で最も
近い距離のものとしきい値を比較する。ステップ715
で最も近い距離の測距点番号(N1)を求めてあるので
測距点N1の測距距離としきい値AD(N1)とTH
(N1)の比較を行う。しきい値TH(N1)より測距
距離AD(N1)が小さければステップ717へ分岐す
る。大きければステップ720へ分岐する。
In step 716, the threshold value is compared with the closest distance measured point. Step 715
Since the distance measuring point number (N1) of the closest distance is obtained in the above, the distance measuring distance of the distance measuring point N1 and the threshold value AD (N1) and TH
(N1) is compared. If the distance measurement distance AD (N1) is smaller than the threshold value TH (N1), the process branches to step 717. If so, the process branches to step 720.

【0166】ステップ725はNN=2であれば、ステ
ップ(719)に分岐する。
If NN = 2, step 725 branches to step (719).

【0167】ステップ720では測距距離が連続的に遠
ざかっているかを判定する。測距点は上から順に番号が
ついているので、近距離順にならべたN1〜N3が小さ
い順か大きい順に並んでいれば測距離が連続的に遠ざか
っていることが判定できる。連続的に遠ざかっている場
合ステップ718に分岐し、そうでなければステップ7
19に分岐する。
At step 720, it is determined whether or not the distance measurement distance is continuously increasing. Since the distance measuring points are numbered in order from the top, it is possible to determine that the distance measuring is continuously distant if the arranged N1 to N3 are arranged in ascending order or in descending order in the order of short distance. If the distance is continuous, branch to step 718; otherwise, step 7
Branch to 19.

【0168】ステップ717は近距離点がしきい値より
小さかった場合なので2番目に近い点を選択する。2番
目の距離の測距点番号N2をOPに記憶する。
At step 717, since the short distance point is smaller than the threshold value, the second closest point is selected. The focus detection point number N2 of the second distance is stored in OP.

【0169】ステップ718において、被写体が連続的
に並んでいる場合、測距点を中央(測距点番号2)にす
る。選択された測距点番号2をOPに記憶する。
In step 718, when the subjects are lined up continuously, the distance measuring point is set to the center (distance measuring point number 2). The selected distance measuring point number 2 is stored in OP.

【0170】ステップ719はステップ716、ステッ
プ720の判定により分岐しなかった場合、最近距離点
をOPに記憶する。
In step 719, the closest distance point is stored in OP when the branch is not made in the determination in steps 716 and 720.

【0171】ステップ721では選択点の選択が終了し
たら、選択した測距点が合焦であるかどうかを判定す
る。合焦時はステップ722に分岐し合焦でなければス
テップ723に分岐する。
In step 721, when the selection of the selected point is completed, it is determined whether or not the selected focus detection point is in focus. If in focus, the process branches to step 722. If not in focus, the process branches to step 723.

【0172】ステップ722において合焦フラグJFF
LDに1をセットし、ステップ723においてサブルー
チンをリターンする。
In step 722, the focus flag JFF is set.
LD is set to 1, and the subroutine returns in step 723.

【0173】次に「予測演算」サブルーチンのフローを
図1(a)を用いて説明する。図3(e)は「予測演
算」サブルーチンのフローを示したものであり、予測演
算の可否を判定し、予測可能であれば、AFタイムラグ
とレリーズタイムラグを考慮したレンズ駆動量を計算す
るものである。
Next, the flow of the "prediction calculation" subroutine will be described with reference to FIG. FIG. 3 (e) shows the flow of the "prediction calculation" subroutine, in which whether or not the prediction calculation is possible is determined, and if it is predictable, the lens drive amount in consideration of the AF time lag and the release time lag is calculated. is there.

【0174】ステップ(302)は、予測に必要なデー
タの蓄積がなされたかどうかを判定するためのカウンタ
ーCOUNTをカウントアップするかどうかを判定す
る。本実施例では3回以上の測距データ・レンズ駆動デ
ータが蓄積されている場合、すなわちCOUNT>2で
あれば予測演算可能であり、これ以上のカウントアップ
は必要ないので、COUNT>2であればステップ(3
04)へ進む。また、COUNT<3であればステップ
(303)でCOUNTをカウントアップした後ステッ
プ(304)へ進む。
The step (302) determines whether or not to count up a counter COUNT for determining whether or not the data necessary for prediction has been accumulated. In the present embodiment, when the distance measurement data and lens drive data are accumulated three or more times, that is, if COUNT> 2, it is possible to perform a predictive calculation, and no further count-up is necessary. Step (3
Go to 04). If COUNT <3, the COUNT is incremented in step (303) and then the process proceeds to step (304).

【0175】ステップ(304)では、今回の予測演算
のためのデータの更新を行っている。即ち予測演算は特
開平1−288816(6)、(7)、(8)、(9)
式に基づいて行われるため、そのデータとしては図2に
おける前回および前々回のデフォーカス量DF2 、DF
1 、前回のレンズ駆動量DL1 、今回のレンズ駆動量D
2 、前々回および前回の時間間隔TM1 、TM2 、見
込タイムラグTLを必要とする。よってステップ(30
4)では焦点検出が行われるごとに前回のデフォーカス
量を記憶領域DF2 に、また前々回のデフォーカス量を
記憶領域DF1に入力し、更に前回の像面移動量換算の
レンズ駆動量DLを記憶領域DL2 に、前々回の像面移
動量換算のレンズ駆動量DL1 を記憶領域DL1 に入力
し、各記憶領域のデータを今回の予測演算に必要なデー
タに更新する。
At step (304), the data for the current prediction calculation is updated. That is, the prediction calculation is performed in JP-A-1-288816 (6), (7), (8), (9).
Since it is performed based on the equation, the data is the defocus amounts DF 2 , DF of the previous and the previous two times in FIG.
1 , previous lens drive amount DL 1 , current lens drive amount D
L 2 , pre-previous and previous time intervals TM 1 , TM 2 , expected time lag TL are required. Therefore, step (30
In 4), each time focus detection is performed, the previous defocus amount is input to the storage area DF 2 , and the previous two defocus amounts are input to the storage area DF 1, and the lens drive amount DL converted to the previous image plane movement amount is input. Is input to the storage area DL 2 and the lens drive amount DL 1 in terms of the amount of movement of the image plane two times before is input to the storage area DL 1, and the data in each storage area is updated to the data required for the current prediction calculation.

【0176】ステップ(305)では使用している測距
点の位置を表わすAFPが「0」かどうか判定する。こ
こでAFPが「−1」のときは下側の測距視野、「0」
のときには中央の測距点、「1」のときには上側の測距
視野を使用していることを示している。すなわちステッ
プ(305)では中央の測距視野を使用中かどうかを判
定し、中央の測距視野を使用していればステップ(30
6)へ移行し、そうでなければステップ(307)へ移
行する。
In step (305), it is determined whether AFP representing the position of the distance measuring point being used is "0". Here, when AFP is "-1", the lower distance measuring field of view, "0"
In the case of, the center distance measuring point is used, and in the case of "1", the upper distance measuring visual field is used. That is, in step (305), it is determined whether or not the central distance measuring visual field is being used, and if the central distance measuring visual field is being used, step (30)
6), otherwise move to step (307).

【0177】ステップ(307)ではステップ(30
5)と同様にして、下側の測距視野を使用しているかど
うかを判定し、下側の測距視野を使用していればステッ
プ(308)へ移行し、上側の測距視野を使用していれ
ばステップ(309)へ移行する。
In step (307), step (30
In the same manner as 5), it is determined whether or not the lower distance measuring visual field is used, and if the lower distance measuring visual field is used, the process proceeds to step (308), and the upper distance measuring visual field is used. If so, the process proceeds to step (309).

【0178】ステップ(306)、(308)、(30
9)では今回使用した測距視野で今回測距したデフォー
カス量をRAM上の記憶領域DF3 に入力し、データの
更新を行う。ここでステップ(306)では中央の測距
視野のセンサの像信号に基づくデフォーカス量DFB、
ステップ(308)では下側の測距点のセンサ像信号に
基づくデフォーカス量DFA、ステップ(309)では
上側の測距点のセンサの像信号に基づくデフォーカス量
DFCを入力している。そして上記ステップを終了する
とステップ(310)へ移行する。
Steps (306), (308), (30
In 9), the defocus amount measured this time in the distance measuring field used this time is input to the storage area DF 3 on the RAM to update the data. Here, in step (306), the defocus amount DFB based on the image signal of the sensor of the central distance measuring field,
In step (308), the defocus amount DFA based on the sensor image signal of the lower distance measuring point is input, and in step (309), the defocus amount DFC based on the image signal of the sensor of the upper distance measuring point is input. When the above steps are completed, the process proceeds to step (310).

【0179】ステップ(310)では予測演算に必要な
データが上記各記憶領域に入力されているか否かを判別
する。上記の如く予測演算は今回、前回、前々回のデフ
ォーカス量と前回、前々回のレンズ駆動量を必要とし、
過去3回以上の焦点調節動作が行われていることを条件
としている。よってステップ(303)にて焦点調節動
作が行われるごとにカウンターCOUNTに+1を行
い、カウンターに焦点調節動作が行われた回数をカウン
トさせ、その回数が2より大きいか否か、即ち3回以上
の動作が行われたか否かを判別し、3回以上行われ、予
測演算が可能な場合にはステップ(312)へ、また、
不可能な場合にはステップ(319)へ移行させる。
At step (310), it is determined whether or not the data required for the prediction calculation is input to each of the storage areas. As described above, the prediction calculation requires the defocus amount of the last time, the last time before and the lens drive amount of the last time before,
The condition is that the focus adjustment operation has been performed three or more times in the past. Therefore, in step (303), the counter COUNT is incremented by 1 each time the focus adjustment operation is performed, and the counter is made to count the number of times the focus adjustment operation is performed, and whether or not the number is greater than 2, that is, three or more times. Is performed 3 times or more, and if the prediction calculation is possible, go to step (312).
If it is impossible, the process proceeds to step (319).

【0180】ステップ(312)では今回更新されたデ
フォーカス量が予測に適しているかどうかについて「像
面位置の連続性」について判定し、連続性があると判定
されればステップ(313)へ移行し、そうでなければ
ステップ(314)へ移行する。ここで「像面位置の連
続性」の判定方法については後述する。
At the step (312), it is judged whether or not the updated defocus amount is suitable for the prediction about the "continuity of the image plane position". If it is judged that there is continuity, the process proceeds to the step (313). If not, the process proceeds to step (314). Here, a method of determining "continuity of image plane position" will be described later.

【0181】ステップ(312)において像面位置の連
続性が無いと判断され、ステップ(314)へ移行する
と、このステップにて「測距視野変更」のサブルーチン
で使用する測距視野を変更する。またこのサブルーチン
の詳細な説明については後述する。
When it is determined in step (312) that there is no continuity of the image plane position, and the process moves to step (314), the distance measuring field used in the "distance measuring field changing" subroutine is changed in this step. A detailed description of this subroutine will be given later.

【0182】ステップ(315)では測距視野を変更
後、ANGによって予測可能になったかどうかを判定
し、可能であればステップ(313)へ移行し、予測不
可能(不適切なデータ)であればステップ(316)へ
移行する。
At step (315), it is determined whether or not prediction is possible by ANG after changing the distance measuring field of view, and if possible, the process proceeds to step (313), and if unpredictable (inappropriate data). If so, the process proceeds to step (316).

【0183】ステップ(316)では一度予測制御を中
止するため、データの蓄積がなされた回数をカウントす
るCOUNTをリセットする。そしてステップ(31
7)では、予測可否判定のフラグANGをリセットす
る。
At step (316), since the prediction control is once stopped, the COUNT for counting the number of times data has been accumulated is reset. And step (31
In 7), the flag ANG for determining whether or not the prediction is possible is reset.

【0184】ステップ(318)では像面移動量換算の
レンズ駆動量DLに中央の測距視野のデフォーカス量D
FBを入力する。これは、1度予測不能となった場合、
再度AFをスタートするときに使用する測距視野を中央
の測距視野としたものであるが、これは、中央の測距視
野である必要はなく、例えば最初に選択した測距視野、
あるいは最後に使用した測距視野を使用しても良い。
In step (318), the defocus amount D of the central distance measuring field is added to the lens driving amount DL converted into the image plane movement amount.
Enter FB. This is once unpredictable,
The range-finding field used when starting AF again is the central range-finding field, but this does not have to be the central range-finding field, and, for example, the initially selected range-finding field,
Alternatively, the distance measuring field used last may be used.

【0185】また、初回と2回目の測距ではステップ
(319)に移行しステップ(319)にて像面移動量
換算のレンズ駆動量DLに今回更新されたデフォーカス
量DF3 を入力する。
In the first and second distance measurement, the process proceeds to step (319), and in step (319), the defocus amount DF 3 updated this time is input to the lens drive amount DL converted into the image plane movement amount.

【0186】また、ステップ(312)で予測可能と判
断され、ステップ(313)へ移行した場合には、ステ
ップ(313)で見込みタイムラグTLの計算を行う。
記憶領域TM2 には前述の如く、前回から今回の焦点検
出動作までの時間が記憶されており、今回の焦点調節に
要する時間もTM2 と一致しているものと仮定のもと
で、見込みタイムラグTL=TM2 +TRを求める。こ
こでTRはレリーズタイムラグである。
If it is determined in step (312) that the prediction is possible and the process proceeds to step (313), the estimated time lag TL is calculated in step (313).
As described above, the time from the previous focus detection operation to the current focus detection operation is stored in the memory area TM 2 , and the time required for the current focus adjustment is assumed to be the same as TM 2. Calculate the time lag TL = TM 2 + TR. Here, TR is the release time lag.

【0187】次のステップ(320)、(321)では
各記憶領域DF1 〜DF3 、DL1、DL2 、TM1
TM2 に格納されたデータに基づき(6)、(7)式の
a,b項を表わすA,Bを求めステップ(322)へ移
行する。
In the next steps (320) and (321), the respective storage areas DF 1 to DF 3 , DL 1 , DL 2 , TM 1 ,
Based on the data stored in TM 2 , A and B representing the a and b terms of the equations (6) and (7) are obtained, and the process proceeds to step (322).

【0188】ステップ(322)では各記憶手段のデー
タおよびステップ(313)およびステップ(32
0)、(321)の演算値に基づき(9)式の演算値を
求め、これを今回の像面移動量換算のレンズ駆動量DL
を求める。
At step (322), the data of each storage means and step (313) and step (32).
0), the calculated value of the expression (9) is calculated based on the calculated values of (321), and this is calculated as the lens drive amount DL in terms of the current image plane movement amount.
Ask for.

【0189】次のステップ(323)では、ステップ
(322)、(318)、(319)で求まったレンズ
駆動量DLと撮影レンズの開放FナンバーFNおよび所
定の係数δ(本実施例では0.035mm)の積FN・
δを比較し、DL<FN・δであればステップ(32
4)へ移行し、そうでなければステップ(325)にて
リターンする。
In the next step (323), the lens drive amount DL obtained in steps (322), (318) and (319), the open F number FN of the taking lens and the predetermined coefficient δ (in this embodiment, 0. 035 mm) product FN
δ is compared, and if DL <FN · δ, step (32
If not so, the process returns to step (325).

【0190】ステップ(324)では先のステップ(3
23)にて、像面深度FN・δよりレンズ駆動量DLが
小さい、すなわちレンズ駆動の必要性がないと判断し、
レンズ駆動量DL=0とし、レンズの駆動を禁止する。
これにより不必要な微小レンズ駆動を行うことがなくな
り、使用感および電力消費の両面を改善することができ
る。また、本実施例ではFNを撮影レンズの開放Fナン
バーとしたが、これを撮影絞り値としても何ら問題はな
く、δも0.035mmに限定するものではない。そし
て、このステップを終了すると、次のステップ(32
5)にてこのサブルーチンをリターンする。
In step (324), the previous step (3
In 23), it is determined that the lens drive amount DL is smaller than the depth of field FN · δ, that is, there is no need for lens drive,
The lens drive amount DL = 0 is set, and the lens drive is prohibited.
As a result, unnecessary microlens driving is not performed, and both usability and power consumption can be improved. Further, although FN is the open F number of the taking lens in this embodiment, there is no problem even if this is used as the taking aperture value, and δ is not limited to 0.035 mm. When this step is completed, the next step (32
This subroutine is returned in 5).

【0191】次に「測距点変更」サブルーチンのフロー
を図8を用いて説明する。図は「測距視野変更」サブル
ーチンのフローを示したものであり、今回、選択された
測距視野のデフォーカス量が予測制御に適さないと判断
されたため、予測制御可能な他の測距点に変更するサブ
ルーチンである。
Next, the flow of the "distance measuring point change" subroutine will be described with reference to FIG. The figure shows the flow of the "distance changing field of view" subroutine. This time, it was determined that the defocus amount of the selected distance measuring field was not suitable for predictive control. It is a subroutine to change to.

【0192】ステップ(402)では、今回使用した測
距視野が中央の測距視野であるかどうかをAFPによっ
て判定し、中央の測距視野を使用していればステップ
(403)へ移行し、そうでなければステップ(41
3)へ移行する。
At step (402), it is judged by AFP whether or not the distance measuring visual field used this time is the central distance measuring visual field, and if the central distance measuring visual field is used, the process proceeds to step (403), Otherwise, step (41
Go to 3).

【0193】ステップ(413)では、ステップ(40
2)と同様にして、今回、使用測距視野が下側の測距視
野であるかどうかを判定し、下側の測距視野を使用して
いれば、ステップ(414)へ移行し、上側の測距視野
を使用していればステップ(425)へ移行する。
In step (413), step (40
In the same manner as 2), it is determined whether or not the range-finding field used is the lower range-finding field this time, and if the lower range-finding field is used, the process proceeds to step (414), and the upper side If the distance measuring field of is used, the process proceeds to step (425).

【0194】ステップ(403)〜(412)、(41
4)〜(423)、(425)〜(434)はそれぞれ
今回使用した測距視野以外の測距視野のデフォーカス量
から、前回までの像面一変化に近い像面位置変化をして
いる測距視野を選択するものである。
Steps (403) to (412) and (41
4) to (423) and (425) to (434) change the image plane position close to the previous image plane change from the defocus amount of the distance measurement visual field other than the distance measurement visual field used this time. This is for selecting the distance measuring field.

【0195】ステップ(403)では、前々回の測距か
ら前回の測距までの像面移動速度V1を計算する。そし
て、次のステップ(404)では左側の測距視野のデフ
ォーカス量DFAを使用して、前回の測距から今回の測
距までの像面移動速度V2を計算する。
At step (403), the image plane moving speed V1 from the distance measurement two times before to the distance measurement last time is calculated. Then, in the next step (404), the defocus amount DFA of the left distance measuring field is used to calculate the image plane moving speed V2 from the last distance measurement to the current distance measurement.

【0196】ステップ(405)では、ステップ(40
3)、(404)で算出されたV1、V2の差の絶対値
VAを計算している。これは今までの像面移動速度V1
と新しい左側の測距視野での像面移動度V2との差、つ
まり連続性を表わすものであり、VAの値が小さいほど
連続性が高い。
In step (405), step (40
3), the absolute value VA of the difference between V1 and V2 calculated in (404) is calculated. This is the image plane moving speed V1
And the image plane mobility V2 in the new left-side distance measuring field, that is, the continuity, and the smaller the value of VA, the higher the continuity.

【0197】ステップ(406)では、上側の測距視野
のデフォーカス量DFCを使用して、前回の測距から今
回の測距までの像面移動度V3を計算する。そして、ス
テップ(407)では、ステップ(405)と同様にし
て上側の測距視野を使用した場合の連続性を表わすVC
を計算する。
In step (406), the defocus amount DFC of the upper distance measuring field is used to calculate the image plane mobility V3 from the last distance measurement to the current distance measurement. Then, in step (407), VC representing the continuity when the upper distance measuring field is used in the same manner as in step (405).
To calculate.

【0198】次のステップ(408)では、像面位置変
化の連続性を評価するVAとVCを比較し、VA<V
C、すなわち下側の測距視野での連続性の方が高ければ
ステップ(411)へ移行し、そうでなければステップ
(409)へ移行する。
At the next step (408), VA and VC for evaluating continuity of image plane position change are compared, and VA <V
C, that is, if the continuity in the lower distance measuring visual field is higher, the process proceeds to step (411), and if not, the process proceeds to step (409).

【0199】ステップ(409)では、上側の測距視野
の方が連続性が高いということから、RAM上の記憶領
域DF3 に上側の測距視野のデフォーカス量DFCを入
力する。そして、ステップ(410)では、使用する測
距点を表わすAFPに上側の測距視野を表わす「1」を
入力する。
At step (409), since the upper distance measuring visual field has higher continuity, the defocus amount DFC of the upper distance measuring visual field is input to the storage area DF 3 on the RAM. Then, in step (410), "1" representing the upper distance measuring field is input to AFP representing the distance measuring point to be used.

【0200】ステップ(411)では、下側の測距視野
の方が連続性が高いということから、RAM上の記憶領
域DF3 に下側の測距視野のデフォーカス量DFAを入
力する。そしてステップ(412)にて、下側の測距視
野を表わす「−1」をAFPに入力する。
At step (411), since the lower distance measuring visual field has higher continuity, the defocus amount DFA of the lower distance measuring visual field is input to the storage area DF 3 on the RAM. Then, in step (412), "-1" representing the lower distance measuring field of view is input to the AFP.

【0201】ステップ(410)あるいは(412)を
終了すると、ステップ(435)へ移行する。また、ス
テップ(414)〜(423)、(425)〜(43
4)も同様にして、前々回から前回までの像面位置変化
に使い、連続性の高い測距点を選択するものであり、そ
の動作はステップ(403)〜(412)と同様であ
り、その詳細な説明は省略する。
Upon completion of step (410) or (412), the process proceeds to step (435). Further, steps (414) to (423) and (425) to (43)
Similarly, 4) is also used to change the image plane position from the time before the last time to the time before, and selects a distance measuring point with high continuity. The operation is the same as steps (403) to (412). Detailed description is omitted.

【0202】ステップ(435)では変更された測距視
野のデフォーカス量から像面位置の連続性が予測制御に
適しているかどうかを判定し、適していればステップ
(438)へ移行し、適していなければステップ(43
6)へ移行する。
At step (435), it is judged from the changed defocus amount of the distance measuring field whether or not the continuity of the image plane position is suitable for the predictive control, and if it is suitable, the process proceeds to step (438) to make it suitable. If not, step (43
Go to 6).

【0203】ステップ(436)では測距視野を最も適
した点に変更したにもかかわらず、予測制御に適してい
ないと判定されたことから、予測制御を一度中止するフ
ラグANGに「1」を入力する。そしてステップ(43
7)では、使用する測距視野を中央の測距視野に戻すた
めAFPに「0」を入力する。そして、このステップを
終了するとステップ(438)に移行し、このサブルー
チンをリターンする。
At step (436), it is determined that the distance measuring field of view is not suitable for the predictive control even though the distance measuring visual field is changed to the most suitable point. Therefore, the flag ANG for temporarily stopping the predictive control is set to "1". input. And step (43
In 7), "0" is input to AFP in order to return the distance measuring field to be used to the central distance measuring field. When this step is completed, the process proceeds to step (438), and this subroutine is returned.

【0204】上述の予測演算および測距点変更サブルー
チンにて、最初に使用した測距点のデフォーカスデータ
でステップ(312)にて像の連続性が認められない時
に測距視野変更がなされ、3測距点のうち最も連続性の
高い測距視野でのデフォーカスデータが検知され、この
データに基づいてステップ(435)にて再度連続性有
無の判定がなされ、連続性が認められれば上記最も連続
性の高いデフォーカスデータに基づく予測演算が(31
3)〜(322)のステップで実行され続ける。なお、
このとき上記デフォーカスデータの測距点を示すAFP
の値が、そのデータの測距点に応じた値となり、以後の
焦点検出は変更された測距点からのデフォーカスデータ
に応じて行われ測距点の変更がなされる。また、ステッ
プ(435)でも連続性が認められない時にはANG=
1となされ予測処理を一時中止し、中央の測距視野のデ
ータによるレンズ駆動が行われる。
In the above-described predictive calculation and distance measuring point changing subroutine, when the continuity of images is not recognized in step (312) in the defocus data of the distance measuring point used first, the distance measuring visual field is changed, The defocus data in the distance measuring field having the highest continuity among the three distance measuring points is detected, and the presence / absence of continuity is determined again in step (435) based on this data. The prediction calculation based on the defocus data with the highest continuity is (31
Execution continues in steps 3) to (322). In addition,
At this time, the AFP indicating the focus detection point of the defocus data
Becomes a value corresponding to the distance measuring point of the data, and the focus detection thereafter is performed according to the defocus data from the changed distance measuring point, and the distance measuring point is changed. Also, when continuity is not recognized even in step (435), ANG =
Then, the prediction process is temporarily stopped, and the lens is driven according to the data of the central distance measuring field.

【0205】次に図9を用いて「像面位置の連続性判
定」サブルーチンについて説明する。
Next, the "image plane position continuity determination" subroutine will be described with reference to FIG.

【0206】ステップ(502)は各記憶領域のデータ
に基づき(DF2 +DL1 −DF1)/TM1 なる演算
を行う。この演算は図2の時刻t1 とt2 間の像面移動
速度の平均値V1を計算するステップである。次のステ
ップ(503)での演算は同様に時刻t2 とt3 間の像
面移動速度の平均値V2を計算するステップである。こ
の後ステップ(504)へ進む。
In step (502), an operation of (DF 2 + DL 1 −DF 1 ) / TM 1 is performed based on the data in each storage area. This calculation is a step of calculating the average value V1 of the image plane moving speed between the times t 1 and t 2 in FIG. Similarly, the calculation in the next step (503) is a step of calculating the average value V2 of the image plane moving speeds between the times t 2 and t 3 . After this, the process proceeds to step (504).

【0207】ステップ(504)では、ステップ(50
2)、(503)で求めた像面移動速度V1、V2の差
の絶対値VAを計算し、ステップ(505)へ移行す
る。
In step (504), step (50
2) Calculate the absolute value VA of the difference between the image plane movement velocities V1 and V2 calculated in (503), and move to step (505).

【0208】ステップ(505)ではステップ(50
4)で求まったVAとあらかじめ設定された数AXを比
較し、VAがAXより大のときは像面位置の連続性無
し、VAがAXより小のときには連続性有りと判断され
る。
In step (505), step (50
The VA obtained in 4) is compared with a preset number AX. When VA is larger than AX, it is determined that there is no continuity of the image plane position, and when VA is smaller than AX, there is continuity.

【0209】上記フローによる連続性の有り、無しの判
定原理は同一の被写体を追っていればその時の像面移動
速度も連続的に変化することになることに基づいてい
る。そこで、時間的に隣接した、像面移動速度を算出
し、この差が小さければ像面移動速度が連続的に変化し
ているものとみなし、同一の被写体を測距していると判
断して予測演算を行う。これに対し像面移動速度の変化
が十分大きい場合には、像面移動速度が連続的に変化し
ていないとみなしている。
The principle of determination of presence / absence of continuity based on the above flow is based on the fact that the moving speed of the image plane at that time also changes continuously if the same subject is being followed. Therefore, the image plane moving speeds that are adjacent in time are calculated, and if this difference is small, it is considered that the image plane moving speeds are continuously changing, and it is determined that the same subject is being measured. Perform prediction calculation. On the other hand, when the change in the image plane moving speed is sufficiently large, it is considered that the image plane moving speed does not continuously change.

【0210】図10に「レンズ駆動」サブルーチンのフ
ローチャートを示す。
FIG. 10 shows a flowchart of the "lens drive" subroutine.

【0211】このサブルーチンが実行されると、ステッ
プ(1502)においてレンズと通信して、2つのデー
タ「S」「PTH」を入力する。「S」は撮影レンズ固
有の「デフォーカス量対焦点調節レンズくり出し量の係
数」であり、例えば全体くり出し型の単レンズの場合に
は、撮影レンズ全体が焦点調節レンズであるからS=1
であり、ズームレンズの場合には各ズーム位置によって
Sは変化する。「PTH」は焦点調節レンズLNSの光
軸方向の移動に連動したエンコーダENCの出力1パル
ス当たりの焦点調節レンズのくり出し量である。
When this subroutine is executed, in step (1502), communication with the lens is made and the two data "S" and "PTH" are input. “S” is a “coefficient of the defocus amount versus the focus adjustment lens extension amount” peculiar to the taking lens. For example, in the case of the whole extension type single lens, S = 1 because the entire taking lens is the focus adjustment lens.
In the case of a zoom lens, S changes depending on each zoom position. “PTH” is the amount of extension of the focus adjustment lens per pulse output from the encoder ENC that is interlocked with the movement of the focus adjustment lens LNS in the optical axis direction.

【0212】従って現在の撮影レンズのデフォーカス量
DEF、上記S、PTHにより焦点調節レンズのくり出
し量をエンコーダの出力パルス数に換算した値、いわゆ
るレンズ駆動量FPは次式で与えられることになる。
Therefore, the current defocus amount DEF of the taking lens, a value obtained by converting the amount of extension of the focus adjusting lens into the number of output pulses of the encoder by S and PTH, so-called lens drive amount FP, is given by the following equation. .

【0213】FP=DEF×S/PTH ステップ(1503)は上式をそのまま実行している。FP = DEF × S / PTH Step (1503) executes the above equation as it is.

【0214】ステップ(1504)ではステップ(50
3)で求めたFPをレンズに送出して焦点調節レンズ
(全体くり出し型単レンズの場合には撮影レンズ全体)
の駆動を命令する。
In step (1504), step (50
The FP calculated in 3) is sent to the lens and the focus adjustment lens (in the case of a single lens with a total extension, the entire shooting lens)
Order to drive.

【0215】以上の説明においては、選択された測距視
野ブロックの中に垂直方向に3つの独立した測距視野が
ある例を用いたが、これらの測距視野は複数の測距視野
を連ねた一続きの測距視野であってもよく、これを元の
複数の領域に分割して、例えば右、中央、左を上、中
央、下に置き換えて前述したと同様の処理が適用でき
る。
In the above description, an example in which there are three independent distance measuring fields in the vertical direction in the selected distance measuring field blocks is used. However, these distance measuring fields connect a plurality of distance measuring fields. Alternatively, a continuous range-finding field may be used, and the same processing as described above can be applied by dividing this into a plurality of original areas and replacing right, center and left with upper, center and lower.

【0216】なお、これまで説明した実施例は受動方式
の焦点検出装置を示したが能動方式の焦点検出装置であ
っても良い。一方、至近距離が比較的長くパララックス
を無視できる場合、あるいはそれを補償できるカメラの
機種では外部測距の検出装置を使用できるケースがあ
る。
Although the embodiments described above show the passive type focus detecting device, the active type focus detecting device may be used. On the other hand, there are cases where the parallax can be ignored and the distance is relatively long, or the external distance detection device can be used in a camera model that can compensate for it.

【図面の簡単な説明】[Brief description of drawings]

【図1】カメラの全体の動作を概略示すフローチャー
ト。
FIG. 1 is a flowchart schematically showing the overall operation of a camera.

【図2】本発明の実施例に係る制御動を説明するための
フローチャート。
FIG. 2 is a flowchart for explaining a control operation according to the embodiment of the present invention.

【図3】動体検知のサブルーチンを説明するためのフロ
ーチャート。
FIG. 3 is a flowchart for explaining a moving object detection subroutine.

【図4】視線検出のサブルーチンを説明するためのフロ
ーチャート。
FIG. 4 is a flowchart for explaining a visual axis detection subroutine.

【図5】焦点検出のサブルーチンを説明するためのフロ
ーチャート。
FIG. 5 is a flowchart for explaining a focus detection subroutine.

【図6】判定のサブルーチンを説明するためのフローチ
ャート。
FIG. 6 is a flowchart illustrating a determination subroutine.

【図7】予測演算のサブルーチンを説明するためのフロ
ーチャート。
FIG. 7 is a flowchart for explaining a prediction calculation subroutine.

【図8】検出点変更のサブルーチンを説明するためのフ
ローチャート。
FIG. 8 is a flowchart for explaining a detection point changing subroutine.

【図9】像面位置の連続性に関するサブルーチンを説明
するためのフローチヤート。
FIG. 9 is a flowchart for explaining a subroutine regarding continuity of image plane positions.

【図10】レンズ駆動に関するサブルーチンを説明する
ためのフローチヤート。
FIG. 10 is a flow chart for explaining a subroutine relating to lens driving.

【図11】測距視野範囲設定のサブルーチンを説明する
ためのフローチャート。
FIG. 11 is a flowchart for explaining a subroutine for setting a distance measuring visual field range.

【図12】実施例に係る一眼レフカメラの断面図。FIG. 12 is a sectional view of the single-lens reflex camera according to the embodiment.

【図13】視線検出の方法を説明するための図。FIG. 13 is a diagram for explaining a method of detecting a line of sight.

【図14】前眼部反射像と光電変換素子の画素列との光
学関係を示す図。
FIG. 14 is a diagram showing an optical relationship between a reflected image of an anterior segment and a pixel row of a photoelectric conversion element.

【図15】前眼部とプルキンエ反射像との光学関係を示
す図。
FIG. 15 is a diagram showing an optical relationship between an anterior segment and a Purkinje reflection image.

【図16】光電変換素子の出力を示す図。FIG. 16 is a diagram showing an output of a photoelectric conversion element.

【図17】焦点検出装置の斜視図。FIG. 17 is a perspective view of a focus detection device.

【図18】軸上検出視野の検出の際の光学挙動を示す
図。
FIG. 18 is a diagram showing an optical behavior when an on-axis detection visual field is detected.

【図19】軸外検出視野の検出の際の光学挙動を示す
図。
FIG. 19 is a diagram showing an optical behavior when an off-axis detection visual field is detected.

【図20】焦点検出装置の任意の一視野に関する出力信
号の例を示す図。
FIG. 20 is a diagram showing an example of an output signal regarding an arbitrary visual field of the focus detection device.

【図21】一眼レフカメラのファインダー視野に検出視
野を表示した様子を示す図。
FIG. 21 is a view showing a state in which a detection visual field is displayed in the finder visual field of a single-lens reflex camera.

【図22】焦点検出装置の多孔マスクの正面図。FIG. 22 is a front view of a porous mask of the focus detection device.

【図23】カメラの姿勢検出スイッチの正面図。FIG. 23 is a front view of the attitude detection switch of the camera.

【図24】カメラの電気系ブロック図。FIG. 24 is a block diagram of an electric system of the camera.

【符号の説明】[Explanation of symbols]

2 主ミラー 3 サブミラー 4 カメラ本体 5 レンズ鏡筒 6 焦点検出装置 9 光分割器 13 光源 14 光電変換器 80 可動マスク 81 視野マスク 83 多孔マスク 84 2次結像レンズ群 2 Main mirror 3 Sub mirror 4 Camera body 5 Lens barrel 6 Focus detection device 9 Light splitter 13 Light source 14 Photoelectric converter 80 Movable mask 81 Field mask 83 Perforated mask 84 Secondary imaging lens group

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 対物レンズの焦点調節を制御するレンズ
制御手段と観察者の眼の視線を検出する視線検出手段と
画面内の異なる部位に関して焦点検出を行う手段を備え
るカメラで、物体距離の変化に伴う結像面位置の変化を
追従して補正するサーボ動作モードでは前記視線検出手
段は焦点検出動作に先だって視線位置を検出し、前記レ
ンズ制御手段は視線位置情報に基づく部位の焦点検出出
力に関して対物レンズの結像位置を連続的に制御する動
作を行うことを特徴とする視線検出機能を有するカメ
ラ。
1. A camera provided with a lens control means for controlling focus adjustment of an objective lens, a visual axis detection means for detecting a visual line of an observer's eye, and a means for performing focus detection on a different portion in a screen, wherein a change in object distance. In the servo operation mode in which the change of the image plane position accompanying the correction is tracked and corrected, the line-of-sight detecting unit detects the line-of-sight position prior to the focus detecting operation, and the lens control unit relates to the focus detection output of the part based on the line-of-sight position information. A camera having a line-of-sight detection function, which is characterized by performing an operation of continuously controlling an imaging position of an objective lens.
【請求項2】 対物レンズの焦点調節を制御するレンズ
制御手段と観察者の眼の視線を検出する視線検出手段と
画面内の異なる部位に関して焦点検出を行う手段とを有
し、視線の検出を焦点検出を繰返し行うカメラで、視線
検出が不能であった場合は前回の視線位置もしくはその
近傍に関する新たな焦点検出出力に基づいてレンズ制御
手段を動作させることを特徴とする視線検出機能を有す
るカメラ。
2. A lens control means for controlling focus adjustment of an objective lens, a visual axis detection means for detecting a visual line of an observer's eye, and a means for performing focus detection on a different portion in a screen, the visual axis detection being performed. A camera having a line-of-sight detection function characterized by operating the lens control means based on a new focus detection output regarding the previous line-of-sight position or its vicinity when the line-of-sight detection is impossible in a camera that repeatedly performs focus detection. .
【請求項3】 対物レンズの焦点調節を制御するレンズ
制御手段と観察者の眼の視線を検出する視線検出手段と
画面内の異なる部位に関して焦点検出を行う手段を備え
るカメラで、レンズ制御手段は対物レンズの結像位置の
移動方向のみを制御する第1の動作モードと、移動方向
と移動量とを制御する第2の動作モードとを有し、焦点
検出が不能の場合は第1の動作モードによる制御が行わ
れ、第1の動作モードによる対物レンズの調節制御中は
視線の検出と視線位置もしくはその近傍の焦点検出が所
定順序で行われることを特徴とする視線検出機能を有す
るカメラ。
3. A camera comprising lens control means for controlling focus adjustment of an objective lens, line-of-sight detection means for detecting the line-of-sight of an observer's eye, and means for performing focus detection on different parts of the screen. It has a first operation mode for controlling only the moving direction of the image formation position of the objective lens and a second operation mode for controlling the moving direction and the moving amount, and the first operation when focus detection is impossible. A camera having a line-of-sight detection function, characterized in that the line-of-sight is detected and the focus of the line-of-sight position or its vicinity is detected in a predetermined order during the control of adjusting the objective lens in the first operation mode.
【請求項4】 対物レンズの焦点調節を制御するレンズ
制御手段と観察者の眼の視線を検出する視線検出手段と
画面内の異なる部位に関して焦点検出を行う手段と動体
検出手段を備えるカメラで、焦点調節の開示指示操作を
受けて前記制御手段を駆動し、一旦合焦状態であること
を焦点検出を行う手段が出力した後はそれ以降の制御手
段の駆動を禁止する第1の動作モードと、物体距離の変
化に伴う結像面の変化を補正すべく連続的に前記制御手
段を駆動する第2の動作モードを有し、前記動体検出手
段は、視線検出結果に基づいて得られた焦点検出出力の
変動に因り第1の動作モードから第2の動作モードへ切
換えを行うとともに、第1の動作モードにおいて一旦合
焦状態であることを検出してから第2の動作モードに切
換わるまでは前記視野検出手段による画面内部位の再選
定を抑制することを特徴とする視線検出機能を有するカ
メラ。
4. A camera comprising lens control means for controlling focus adjustment of an objective lens, visual line detection means for detecting a visual line of an observer's eye, means for performing focus detection for different parts in a screen, and moving body detection means. A first operation mode in which the control means is driven in response to a focus adjustment disclosure instruction operation, and after the focus detection means outputs the focus state, driving of the control means thereafter is prohibited. , A second operation mode in which the control means is continuously driven to correct the change of the image plane due to the change of the object distance, and the moving body detection means has a focus obtained based on the line-of-sight detection result. Switching from the first operation mode to the second operation mode due to fluctuations in the detection output, and until detecting the in-focus state in the first operation mode until switching to the second operation mode Is the above A camera having a line-of-sight detection function, characterized in that re-selection of a part in the screen by the field detection means is suppressed.
【請求項5】 対物レンズの焦点調節を制御するレンズ
制御手段と観察者の眼の視線を検出する視線検出手段と
画面内の異なる部位に関して焦点検出を行う手段とを備
えるカメラで、焦点調節の開示指示操作を受けて、前記
レンズ制御手段を駆動し、一旦合焦状態であることを焦
点検出を行う手段が出力した後はそれ以降の駆動を禁止
するワンショット動作モードで、前記視線検出手段は初
回の焦点検出動作に先立って視線位置を検出し、またレ
ンズ制御手段は視線位置に基づいて検出した焦点検出出
力に因り駆動され、2回目以降の焦点検出動作において
は、前回と同じ視線位置に基づく焦点検出出力に因って
レンズ制御手段を制御することを特徴とする視線検出機
能を有するカメラ。
5. A camera comprising lens control means for controlling focus adjustment of an objective lens, line-of-sight detection means for detecting the line-of-sight of an observer's eye, and means for performing focus detection on different parts of the screen. In response to the disclosure instruction operation, the lens control means is driven, and after the focus detection means outputs that the focus state is once in-focus, the line-of-sight detection means is set in the one-shot operation mode in which further driving is prohibited. Detects the line-of-sight position prior to the first focus detection operation, and the lens control means is driven by the focus detection output detected based on the line-of-sight position. In the second and subsequent focus detection operations, the same line-of-sight position as before is detected. A camera having a line-of-sight detection function, characterized in that the lens control means is controlled in accordance with the focus detection output based on.
【請求項6】 対物レンズの焦点調節を制御するレンズ
制御手段と観察者の眼の視線を検出視線検出手段と画面
内の異なる部位に関して焦点検出を行う手段と重力の方
向に対する姿勢を検出する姿勢検出装置を有するカメラ
で、前記視線検出手段は前眼部からの反射光を用いるこ
とによりカメラが正位置の状態において検方向について
の視線位置を検出することが可能であり、前記姿勢検出
手段による出力がカメラの姿勢が縦位置であることを示
したときは、前記視線検出手段の動作を禁止すると共に
画面内の特定の部位についての焦点検出出力に基づいて
対物レンズの結像状態を判定することを特徴とする視線
検出機能を有するカメラ。
6. A lens control unit for controlling focus adjustment of an objective lens, a line of sight of an observer's eye, a line of sight detection unit, a unit for performing focus detection with respect to a different portion in a screen, and a posture for detecting a posture in the direction of gravity. In the camera having a detection device, the line-of-sight detection unit can detect the line-of-sight position in the inspection direction by using the reflected light from the anterior segment of the eye, and the posture detection unit can detect the line-of-sight position. When the output indicates that the posture of the camera is in the vertical position, the operation of the line-of-sight detecting means is prohibited, and the image formation state of the objective lens is determined based on the focus detection output for a specific part in the screen. A camera having a line-of-sight detection function.
JP17107892A 1992-06-29 1992-06-29 Camera provided with function for detecting line of sight Pending JPH0618772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17107892A JPH0618772A (en) 1992-06-29 1992-06-29 Camera provided with function for detecting line of sight

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17107892A JPH0618772A (en) 1992-06-29 1992-06-29 Camera provided with function for detecting line of sight

Publications (1)

Publication Number Publication Date
JPH0618772A true JPH0618772A (en) 1994-01-28

Family

ID=15916611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17107892A Pending JPH0618772A (en) 1992-06-29 1992-06-29 Camera provided with function for detecting line of sight

Country Status (1)

Country Link
JP (1) JPH0618772A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154385A (en) * 2004-07-12 2011-08-11 Canon Inc Optical apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154385A (en) * 2004-07-12 2011-08-11 Canon Inc Optical apparatus

Similar Documents

Publication Publication Date Title
JP3210027B2 (en) camera
JP2597961B2 (en) Automatic focusing device
US5091742A (en) Camera having an auto focusing device
JPH04331908A (en) Automatic focus detection device
JP3301799B2 (en) Camera system
EP0438116B1 (en) Focus detection apparatus
US5440367A (en) Focus detecting apparatus provided with a plurality of detection fields
US5140359A (en) Multi-point distance measuring apparatus
JP3352453B2 (en) camera
JP4560173B2 (en) Focus detection device
US5307112A (en) Focus detecting device for detecting focus to a plurality of different areas
JP3278397B2 (en) Camera with gaze detection function
JPH0618772A (en) Camera provided with function for detecting line of sight
JP2832006B2 (en) Automatic focusing device
JP2974637B2 (en) Automatic focusing device
JPH05107454A (en) Camera having focus detecting means and sight line detecting means
JP2001188163A (en) Camera provided with function of detecting line of sight
US4967225A (en) Camera incorporating automatic focusing apparatus
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
JP3184542B2 (en) camera
JP3486464B2 (en) Automatic focusing device
JPH03229209A (en) Automatic focus adjusting device
JP4262034B2 (en) Optical device and camera
JPH06148510A (en) Camera with line-of-sight detector
JP2771005B2 (en) Automatic focusing device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010206