JPH06138378A - Camera provided with focus detecting means and line-of-sight detecting means - Google Patents

Camera provided with focus detecting means and line-of-sight detecting means

Info

Publication number
JPH06138378A
JPH06138378A JP4312848A JP31284892A JPH06138378A JP H06138378 A JPH06138378 A JP H06138378A JP 4312848 A JP4312848 A JP 4312848A JP 31284892 A JP31284892 A JP 31284892A JP H06138378 A JPH06138378 A JP H06138378A
Authority
JP
Japan
Prior art keywords
focus
sight
line
signal
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4312848A
Other languages
Japanese (ja)
Inventor
Yukio Odaka
幸雄 小高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP4312848A priority Critical patent/JPH06138378A/en
Publication of JPH06138378A publication Critical patent/JPH06138378A/en
Priority to US08/636,627 priority patent/US5614985A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PURPOSE:To obtain a camera provided with a focus detecting means and a line-of-sight detecting means in which automatic focus detection is performed by effectively using the line-of-sight detecting means detecting the gazing point of the eyeball of a photographer and the focus detecting means detecting the focusing position of a photographing system at plural points. CONSTITUTION:This camera is provided with the line-of-sight detecting means detecting the gazing direction of the photographer who looks in the finder visual field of the camera, the focus detecting means repetitively detecting the focusing state in plural range-finding areas in the finder visual field of the photographing system, a line-of-sight decision means 102 deciding the state of a line-of-sight signal obtained by the line-of-sight detecting means, a focus decision means 103 deciding the state of a focus signal obtained by the focus detecting means, and a selection means 104 selecting at least one range-finding area out of plural range-finding areas based on the signal from the means 102 and the signal from the means 103.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は焦点検出手段と視線検出
手段とを有したカメラに関し、特に視線検出手段でファ
インダー視野内を覗く撮影者の視線方向を検出し、該フ
ァインダー視野内の注視方向及び注視点を求めると共に
該視線検出手段で得られる信号に基づいて被写体の複数
の測距領域における合焦状態を繰り返し検出する機能を
有した焦点検出手段で焦点検出を行なった写真用カメ
ラ、ビデオカメラ、SVカメラ等に好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera having focus detecting means and line-of-sight detecting means, and more particularly, the line-of-sight detecting means detects the line-of-sight direction of a photographer looking into the field of view of the finder and gaze direction within the field of view of the finder. And a photographic camera or video for which focus detection is performed by the focus detection means having a function of obtaining the point of gaze and repeatedly detecting the in-focus state of the subject in a plurality of distance measurement areas based on the signal obtained by the line-of-sight detection means. It is suitable for cameras, SV cameras and the like.

【0002】[0002]

【従来の技術】従来より撮影者の視線方向を検知し、撮
影者がファインダー視野内のどの領域(位置)を観察し
ているか、所謂撮影者の注視方向をカメラの一部に設け
た視線検出手段で検出し、該視線検出手段からの信号に
基づいて自動焦点調節や自動露出等の各種の撮影機能を
制御するようにしたカメラが種々と提案されている。
2. Description of the Related Art Conventionally, a line of sight of a photographer is detected by detecting the direction of the line of sight of the photographer, which region (position) the photographer is observing, the so-called gaze direction of the photographer being provided in a part of the camera. Various cameras have been proposed which are detected by a means and control various photographing functions such as automatic focus adjustment and automatic exposure based on a signal from the line-of-sight detecting means.

【0003】例えば特開昭61−61135号公報では
視線検出手段からの出力信号に基づいて焦点検出装置の
測距方向を機械的に制御し、撮影系の焦点状態を調節す
るようにしたカメラが提案されている。
For example, in Japanese Patent Laid-Open No. 61-61135, there is disclosed a camera which mechanically controls the distance measuring direction of a focus detecting device on the basis of an output signal from the line-of-sight detecting means to adjust the focus state of a photographing system. Proposed.

【0004】又、本出願人は特開平1−241511号
公報において、撮影者の注視方向を検出する視線検出手
段と複数個の測距視野を持つ焦点検出手段と複数個の測
光感度分布を持つ自動露出制御手段とを有し、このとき
該視線検出手段からの出力信号に基づいて焦点検出手段
や自動露出制御手段の駆動を制御するようにしたカメラ
を提案している。
The applicant of the present invention, in Japanese Patent Laid-Open No. 1-241511, has a line-of-sight detecting means for detecting a gaze direction of a photographer, a focus detecting means having a plurality of distance measuring fields, and a plurality of photometric sensitivity distributions. A camera is proposed which has an automatic exposure control means, and at this time controls the drive of the focus detection means and the automatic exposure control means based on the output signal from the line-of-sight detection means.

【0005】[0005]

【発明が解決しようとする課題】従来よりカメラに設け
られているオートフォーカス(自動焦点検出)動作には
大別して撮影レンズが合焦状態になるまで焦点検出を繰
り返して行ない、一度合焦状態になるとその後は焦点検
出を行なわないワンショット動作と、撮影レンズの焦点
状態に関係なく焦点検出を実行し続けるサーボ動作の2
つがある。
The conventional autofocus (automatic focus detection) operation provided in a camera is roughly divided into a focus state by repeatedly performing focus detection until the taking lens is in focus. After that, one-shot operation that does not perform focus detection and servo operation that continues to perform focus detection regardless of the focus state of the taking lens
There is one.

【0006】このうちワンショット動作は主に被写体が
停止しているときに使われるモードである。視線検出手
段からの信号を利用したオートフォーカス用のカメラの
ワンショットモードにおける動作は以下のようにして行
なっている。
Of these, the one-shot operation is a mode mainly used when the subject is stopped. The operation in the one-shot mode of the camera for autofocusing using the signal from the line-of-sight detecting means is performed as follows.

【0007】まず、スイッチをオンすると焦点検出動作
に先立ち、視線検出手段により撮影者のファインダー視
野内の注視点を求める。この手順は眼球像を検出する受
光手段(センサ)の蓄積を行ない、眼球像信号を読み出
す。そしてその眼球像信号から撮影者の視線方向を求め
る。
First, when the switch is turned on, the gaze point in the viewfinder field of the photographer is obtained by the line-of-sight detecting means prior to the focus detecting operation. In this procedure, a light receiving means (sensor) for detecting an eyeball image is accumulated and an eyeball image signal is read out. Then, the line-of-sight direction of the photographer is obtained from the eyeball image signal.

【0008】次に視線方向から撮影者(観察者)がファ
インダー視野内のどの部分(領域)を注目しているか、
即ち注視点を求めていく。このときの注視点はファイン
ダー視野内の座標で表わされる。そしてこのファインダ
ー視野内の注視点の座標からこれに対応する測距点(測
距領域)を決定していくようにしている。
Next, which part (area) in the viewfinder field the photographer (observer) is paying attention to from the direction of the line of sight,
That is, the point of interest is sought. The gazing point at this time is represented by coordinates in the viewfinder field. Then, the distance measuring point (distance measuring area) corresponding to this is determined from the coordinates of the gazing point in the field of view of the finder.

【0009】このように視線検出手段により求めた測距
点に対し、焦点検出手段により焦点状態を検出し、その
焦点情報に基づいて撮影レンズを合焦状態まで駆動制御
する。このとき視線検出手段により一度測距点が決定し
たら、以後合焦するまではその測距点の焦点状態だけに
注目して合焦操作を繰り返して行なっている。
As described above, the focus state is detected by the focus detecting means with respect to the distance measuring point obtained by the line-of-sight detecting means, and the photographing lens is driven and controlled to the in-focus state based on the focus information. At this time, once the focus detection point is determined by the line-of-sight detection means, the focusing operation is repeated by focusing only on the focus state of the focus detection point until the focus is achieved.

【0010】一方、サーボ動作は主に被写体が動いてい
るような場合に使用されるモードである。視線検出手段
のないオートフォーカス用のカメラのサーボモードにお
ける動作は以下のようにして行なっている。
On the other hand, the servo operation is a mode mainly used when a subject is moving. The operation in the servo mode of the camera for autofocus without the line-of-sight detecting means is performed as follows.

【0011】まずスイッチをオンすると、複数の測距点
に対応する全ての受光手段からの信号を用いた焦点検出
演算を行なう。その焦点検出演算の結果、画面中央部の
測距点が測距可能であれば中央部の測距点の焦点検出演
算の情報に基づき、合焦レンズの駆動を行なう。画面中
央部の測距点が測距不能であれば測距可能な測距点のう
ち最も至近側にある測距点の焦点検出演算の情報に基づ
き合焦レンズの駆動を行ない、合焦操作を行なってい
る。これはサーボモードの場合、主被写体はファインダ
ー視野内の中央部にあることが多いからである。
First, when the switch is turned on, focus detection calculation is performed using signals from all the light receiving means corresponding to a plurality of distance measuring points. As a result of the focus detection calculation, if the distance measuring point at the center of the screen can be measured, the focusing lens is driven based on the information of the focus detecting calculation of the center distance measuring point. If the distance measurement point in the center of the screen cannot be measured, the focusing lens is driven based on the focus detection calculation information of the closest distance measurement point among the distance measurement points that can be measured, and the focus operation is performed. Are doing. This is because in the servo mode, the main subject is often located in the center of the viewfinder field.

【0012】次に視線検出手段のあるオートフォーカス
用のカメラのサーボモードにおける動作は次のようにし
て行なっている。ワンショット動作と同じでスイッチを
オンした直後に視線検出手段からの信号を用いてファイ
ンダー視野内の測距点を決定する。以後は、その測距点
の焦点検出演算の情報に基づき合焦レンズの駆動を行な
い続けていく。
Next, the operation in the servo mode of the autofocus camera having the line-of-sight detecting means is performed as follows. Just like the one-shot operation, immediately after the switch is turned on, the distance measuring point within the viewfinder field is determined using the signal from the line-of-sight detecting means. After that, the focusing lens is continuously driven based on the information of the focus detection calculation of the focus detection point.

【0013】しかしながらサーボモード時は被写体が動
いていることが多いため、被写体の動きによってはその
測距点から被写体が外れてしまうことがある。また、サ
ーボモードにおいてもピントを合わせながら構図を変え
たい場合も出てくる。このためにはある間隔で撮影者の
注視点を抽出し続け、その都度注視点に対応する距離領
域の焦点状態を検出し、その合焦情報に基づいて合焦レ
ンズを駆動していく必要がある。
However, since the subject is often moving in the servo mode, the subject may deviate from the distance measuring point depending on the movement of the subject. Also in the servo mode, there are cases where it is desired to change the composition while focusing. For this purpose, it is necessary to continue to extract the gazing point of the photographer at certain intervals, detect the focus state of the distance area corresponding to the gazing point each time, and drive the focusing lens based on the focusing information. is there.

【0014】しかしながら動く物体を撮影する場合、視
線の動き方次第によっては視線検出が困難になったり、
視線検出系に強い外光ノイズがあったりすると、視線検
出精度が低下して安定した視線情報が得られにくい場合
がある。また、撮影者の眼の不用意な動きにより注視点
が背景に行ってしまうことがある。
However, when photographing a moving object, it may be difficult to detect the line of sight depending on how the line of sight moves.
If there is strong external light noise in the line-of-sight detection system, the line-of-sight detection accuracy may decrease and it may be difficult to obtain stable line-of-sight information. Moreover, the gazing point may go to the background due to the careless movement of the photographer's eyes.

【0015】このため、視線検出毎にその視線情報によ
り選択した測距点の焦点信号に基づいて合焦レンズを駆
動すると主被写体以外の誤った物体に対して合焦状態ま
で駆動しようとし、不用意なレンズ駆動や応答の悪い焦
点検出動作をしてしまうという問題点があった。
For this reason, if the focusing lens is driven based on the focus signal of the focus detection point selected by the line-of-sight information for each line-of-sight detection, an incorrect object other than the main subject will be driven to the in-focus state, and There is a problem that the lens is prepared and focus detection operation with poor response is performed.

【0016】本発明は視線検出手段で得られる視線信号
の状態を判定する視線判定手段からの信号と焦点検出手
段で得られる焦点信号の状態を判定する焦点判定手段か
らの信号とを利用して1つの測距点を適切に選択するこ
とにより、サーボ動作のように繰り返し焦点検出を行な
うような状態においても安定した良好なる焦点検出がで
きる焦点検出手段と視線検出手段とを有したカメラの提
供を目的とする。
The present invention utilizes the signal from the line-of-sight determining means for determining the state of the line-of-sight signal obtained by the line-of-sight detecting means and the signal from the focus determining means for determining the state of the focus signal obtained by the focus detecting means. Providing a camera having a focus detection unit and a line-of-sight detection unit capable of performing stable and good focus detection even in a state where focus detection is repeatedly performed, such as a servo operation, by appropriately selecting one focus detection point. With the goal.

【0017】[0017]

【課題を解決するための手段】本発明の焦点検出手段と
視線検出手段とを有したカメラは、カメラのファインダ
ー視野内を覗く撮影者の注視方向を検出する視線検出手
段と、撮影系のファインダー視野内の複数の測距領域に
おける合焦状態を繰り返し検出する焦点検出手段と、該
視線検出手段で得られる視線信号の状態を判定する視線
判定手段と、該焦点検出手段で得られる焦点信号の状態
を判定する焦点判定手段と、該視線判定手段からの信号
と焦点判定手段からの信号とに基づいて複数の測距領域
のうちから少なくとも1つの測距領域を選択する選択手
段とを有していることを特徴としている。
A camera having a focus detecting means and a line-of-sight detecting means of the present invention is a line-of-sight detecting means for detecting a gaze direction of a photographer looking into a viewfinder field of the camera, and a viewfinder of a photographing system. A focus detection unit that repeatedly detects a focus state in a plurality of distance measurement areas in the field of view, a line-of-sight determination unit that determines the state of the line-of-sight signal obtained by the line-of-sight detection unit, and a focus signal obtained by the focus detection unit. A focus determining means for determining a state and a selecting means for selecting at least one distance measuring area from a plurality of distance measuring areas based on a signal from the line-of-sight determining means and a signal from the focus determining means. It is characterized by

【0018】特に、前記焦点判定手段は焦点信号の状態
の信頼性を判定していることや、前記視線判定手段は視
線信号の状態の信頼性を判定していることや、前記選択
手段は前記視線検出手段の信号と前記焦点検出手段の信
号との選択にヒステリシスを設けていること等を特徴と
している。
In particular, the focus determination means determines the reliability of the state of the focus signal, the line-of-sight determination means determines the reliability of the state of the line-of-sight signal, and the selection means determines the reliability. It is characterized in that a hysteresis is provided in the selection of the signal of the line-of-sight detection means and the signal of the focus detection means.

【0019】[0019]

【実施例】図1は本発明を一眼レフカメラに適用したと
きの実施例1の要部概略図、図2は図1の一部分の説明
図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a schematic view of a main part of a first embodiment when the present invention is applied to a single-lens reflex camera, and FIG. 2 is a partial explanatory view of FIG.

【0020】図中、10は接眼レンズ、94は光学ブロ
ックでその内部には可視光透過で、赤外光に対して半透
過のダイクロイックミラー95が斜設されており、光路
分割器を兼ねている。11は受光レンズ、93はミラ
ー、14は受光素子列である。受光レンズ11と光電素
子列14は受光手段の一要素を構成している。光電素子
列14は通常は図面垂直方向に1次元的に複数の光電素
子が並んだデバイスを使うが、必要に応じて2次元的に
光電素子が並んだデバイスを使用する。
In the figure, 10 is an eyepiece lens, and 94 is an optical block, in which a dichroic mirror 95 that transmits visible light and is semi-transmissive to infrared light is obliquely provided, and also serves as an optical path splitter. There is. Reference numeral 11 is a light receiving lens, 93 is a mirror, and 14 is a light receiving element array. The light receiving lens 11 and the photoelectric element array 14 form one element of the light receiving means. The photoelectric element array 14 normally uses a device in which a plurality of photoelectric elements are arranged one-dimensionally in the vertical direction of the drawing, but a device in which photoelectric elements are arranged two-dimensionally is used as necessary.

【0021】13は光源で例えば赤外用発光ダイオード
から成っている。91は投光レンズ、7はピント板であ
り、その内部には光分割面92が斜設されている。光分
割面92はハーフミラーまたはダイクロイックミラーか
ら成っている。
Reference numeral 13 denotes a light source, which is composed of, for example, an infrared light emitting diode. A light projecting lens 91 and a focusing plate 7 are provided with a light dividing surface 92 obliquely provided therein. The light splitting surface 92 is composed of a half mirror or a dichroic mirror.

【0022】同図においては光源13からの赤外光は投
光レンズ91で集光され、ピント板7内に導入され、光
分割面92で反射し、ペンタプリズム8を介して接眼レ
ンズ10に入射する。接眼レンズ10に入射し、射出し
た赤外光はダイクロイックミラー95を通過し、アイポ
イントE近傍に位置する観察者の眼球15を照明する。
In the figure, the infrared light from the light source 13 is condensed by the light projecting lens 91, introduced into the focusing plate 7, reflected by the light dividing surface 92, and passed through the pentaprism 8 to the eyepiece 10. Incident. The infrared light that has entered the eyepiece lens 10 and exited passes through the dichroic mirror 95 and illuminates the eyeball 15 of the observer located near the eyepoint E.

【0023】また、眼球15で反射した赤外光はダイク
ロイックミラー95で反射され受光レンズ11によって
収斂しながらミラー93で反射し、光電素子列14上に
例えば眼球からの反射に基づくプルキンエ像等を形成す
る。
Further, the infrared light reflected by the eyeball 15 is reflected by the dichroic mirror 95 and is converged by the light receiving lens 11 while being reflected by the mirror 93, and a Purkinje image or the like based on the reflection from the eyeball is formed on the photoelectric element array 14. Form.

【0024】演算手段101は光電素子列14からの信
号を用いて撮影者の眼球15の視線方向を求めると共に
ファインダー視野内における注視方向及び注視点を求め
ている。
The calculating means 101 uses the signal from the photoelectric element array 14 to obtain the line-of-sight direction of the eyeball 15 of the photographer and the gaze direction and gaze point within the viewfinder field.

【0025】本実施例における視線検出方法は例えば本
出願人の先の提案による特開平1−241511号公報
や特開平1−274736号公報等に詳述されているた
め、また本発明の要旨ではないので詳細は割愛する。
The visual axis detection method in this embodiment is described in detail in, for example, Japanese Patent Application Laid-Open No. 1-241511 and Japanese Patent Application Laid-Open No. 1-274736 proposed by the present applicant. I will omit the details because it is not available.

【0026】本実施例において前述の各要素10,1
1,13,14,91,94,101は視線検出手段の
一要素を構成している。1は撮影系(撮影レンズともい
う)、2はクイックリターンミラー、3はサブミラーで
クイックリターンミラー2に固設されている。4は感光
面(像面)、5はシャッターである。6aは焦点検出手
段であり、ファインダー視野内の複数の位置(領域)の
合焦状態を検出する所謂多点焦点検出機能を有してい
る。
In the present embodiment, each of the above-mentioned elements 10, 1
Reference numerals 1, 13, 14, 91, 94 and 101 constitute one element of the line-of-sight detecting means. Reference numeral 1 is a photographing system (also called a photographing lens), 2 is a quick return mirror, and 3 is a sub-mirror fixed to the quick return mirror 2. Reference numeral 4 is a photosensitive surface (image surface), and 5 is a shutter. Reference numeral 6a denotes a focus detecting means, which has a so-called multi-point focus detecting function for detecting the in-focus state at a plurality of positions (regions) in the finder field.

【0027】102は視線判定手段であり、演算手段1
01からの視線信号の状態を判定している。103は焦
点判定手段であり、焦点検出手段6aからの焦点信号の
状態を判定している。104は選択手段であり、視線判
定手段102からの信号と焦点判定手段103からの信
号とに基づいて複数の測距領域のうちから少なくとも1
つの測距領域を選択している。
Reference numeral 102 is a line-of-sight determining means, which is a computing means 1
The state of the line-of-sight signal from 01 is determined. Reference numeral 103 denotes a focus determination means, which determines the state of the focus signal from the focus detection means 6a. Reference numeral 104 denotes a selection unit, which selects at least one of the plurality of distance measurement areas based on the signal from the line-of-sight determination unit 102 and the signal from the focus determination unit 103.
Two distance measuring areas are selected.

【0028】105は調整手段であり、選択手段104
で選択した測距領域に対する焦点検出手段6aからの合
焦信号に基づいて撮影系1の合焦レンズを光軸上駆動さ
せて合焦状態を調整している。
Reference numeral 105 is an adjusting means, and a selecting means 104.
The focusing lens of the photographing system 1 is driven on the optical axis based on the focusing signal from the focus detection means 6a for the distance measuring area selected in step 1 to adjust the focusing state.

【0029】尚、本実施例における焦点検出手段6aの
焦点検出方法は公知の技術を適用しているので、次にそ
の概略を図2を用いて説明する。
Since a known technique is applied to the focus detecting method of the focus detecting means 6a in the present embodiment, its outline will be described below with reference to FIG.

【0030】図2は焦点検出手段6aの光路を展開した
ときの要部概略図である。図中MSKは視野マスクであ
り、感光面4aと略等価な位置に配置されており、中央
に十字形の開口部MSK−1、両側の周辺部に縦長の開
口部MSK−2、MSK−3を有している。FLDLは
フィールドレンズであり、視野マスクMSKの3つの開
口部MSK−1,MSK−2,MSK−3に対応して3
つの部分FLDL−1,FLDL−2,FLDL−3か
ら成っている。
FIG. 2 is a schematic view of a main part when the optical path of the focus detecting means 6a is developed. In the figure, MSK is a visual field mask, which is arranged at a position substantially equivalent to the photosensitive surface 4a, and has a cross-shaped opening MSK-1 in the center and vertically long openings MSK-2, MSK-3 in the peripheral portions on both sides. have. FLDL is a field lens, which corresponds to the three openings MSK-1, MSK-2, and MSK-3 of the visual field mask MSK.
It consists of two parts FLDL-1, FLDL-2, FLDL-3.

【0031】DPは絞りであり、中心部には上下左右に
一対ずつ、計4つの開口DP−1a,DP−1b,DP
−1c,DP−1dを、また左右の周辺部分には一対2
つの開口DP−2a,DP−2b及び開口DP−3a,
DP−3bがそれぞれ設けられている。前記フィールド
レンズFLDLの各領域FLDL−1,FLDL−2,
FLDL−3はそれぞれこれらの開口対DP−1,DP
−2,DP−3を不図示の対物レンズの射出瞳付近に結
像する作用を有している。
DP is a diaphragm, and a pair of apertures DP-1a, DP-1b, DP are provided at the center, one pair vertically and horizontally.
-1c, DP-1d, and two on the left and right peripheral parts
Openings DP-2a, DP-2b and openings DP-3a,
DP-3b is provided respectively. Each region FLDL-1, FLDL-2 of the field lens FLDL,
FLDL-3 is a pair of apertures DP-1 and DP, respectively.
It has a function of forming an image of -2, DP-3 in the vicinity of the exit pupil of an objective lens (not shown).

【0032】AFLは4対の合計8つのレンズAFL−
1a,AFL−1b,AFL−4a,AFL−4b,A
FL−2a,AFL−2b,AFL−3a,AFL−3
bから成る2次結像レンズであり、絞りDPの各開口に
対応して、その後方に配置されている。
The AFL is composed of four pairs of eight lens AFL-.
1a, AFL-1b, AFL-4a, AFL-4b, A
FL-2a, AFL-2b, AFL-3a, AFL-3
It is a secondary image forming lens composed of b, and is arranged behind the aperture DP corresponding to each aperture.

【0033】SNSは4対の合計8つのセンサ列SNS
−1a,SNS−1b,SNS−4a,SNS−4b,
SNS−2a,SNS−2b,SNS−3a,SNS−
3bから成るセンサであり、各2次結像レンズAFLに
対応してその物体像を受光するように配置されている。
The SNS consists of four pairs of eight sensor arrays SNS in total.
-1a, SNS-1b, SNS-4a, SNS-4b,
SNS-2a, SNS-2b, SNS-3a, SNS-
3b, which is arranged so as to receive the object image corresponding to each secondary imaging lens AFL.

【0034】この図2に示す焦点検出系では撮影レンズ
の焦点がフィルム面より前方にある場合、各センサ列対
SNS上に形成される被写体像は互いに近づいた状態に
なり、焦点が後方にある場合には、被写体像は互いに離
れた状態になる。この被写体像の相対位置変位量は撮影
レンズの焦点外れ量との特定の関数関係にあるため、各
センサ列対でそのセンサ出力に対してそれぞれ適当な演
算を施せば、撮影レンズの焦点外れ量、所謂デフォーカ
ス量を検出することができる。
In the focus detection system shown in FIG. 2, when the focus of the taking lens is in front of the film surface, the subject images formed on each sensor array pair SNS are in a state of being close to each other and the focus is in the rear. In this case, the subject images are separated from each other. The relative position displacement of the subject image has a specific functional relationship with the defocus amount of the photographing lens. Therefore, if an appropriate calculation is performed for each sensor output in each sensor row pair, the defocus amount of the photographing lens The so-called defocus amount can be detected.

【0035】以上で説明したような構成をとることによ
り、不図示の対物レンズにより撮影または観察される範
囲の中心付近では、光量分布が上下または左右の一方向
にのみ変化するような物体に対しても測距することが可
能となり、中心以外の視野マスクMSKの周辺の開口部
MSK−2,MSK−3に対応する位置にある物体に対
しても測距することができる。
By adopting the configuration described above, for an object in which the light amount distribution changes only in one direction up and down or left and right near the center of the range photographed or observed by the objective lens (not shown). Even if it is possible to measure the distance, it is possible to measure the distance to an object at a position corresponding to the openings MSK-2 and MSK-3 around the field mask MSK other than the center.

【0036】図3は図2の如く焦点検出手段を備えたカ
メラの具体的な構成の一列を示す回路図であり、まず各
部の構成について説明する。図3においてPRSはカメ
ラの制御装置で、例えば内部にCPU(中央処理装
置),ROM,RAM,A/D変換機能を有する1チッ
プのマイクロコンピュータ(以下マイコンと記す)であ
る。
FIG. 3 is a circuit diagram showing a specific configuration of a camera including the focus detecting means as shown in FIG. 2, and the configuration of each part will be described first. In FIG. 3, PRS is a camera controller, which is, for example, a one-chip microcomputer (hereinafter referred to as a microcomputer) having a CPU (central processing unit), ROM, RAM, and an A / D conversion function inside.

【0037】マイコンPRSはROMに格納されたカメ
ラのシーケンスプログラムに従って、自動露出制御機
能、自動焦点調節機能、フィルムの巻き上げ・巻き戻し
等のカメラの一連の動作を行なっている。そのために、
マイコンPRSは通信用信号SO,SI,SCLK,通
信選択信号CLCM,CSDR,CDDRを用いて、カ
メラ本体内の周辺回路及びレンズ内制御装置と通信を行
なって、各々の回路やレンズの動作を制御する。
The microcomputer PRS performs a series of camera operations such as an automatic exposure control function, an automatic focus adjustment function, and film winding / rewinding in accordance with the camera sequence program stored in the ROM. for that reason,
The microcomputer PRS uses the communication signals SO, SI, SCLK and the communication selection signals CLCM, CSSDR, CDDR to communicate with the peripheral circuits in the camera body and the lens controller to control the operation of each circuit and lens. To do.

【0038】SOはマイコンPRSから出力されるデー
タ信号、SIはマイコンPRSに入力されるデータ信
号、SLCKは信号SO,SIの同期クロックである。
LCMはレンズ通信バッファ回路であり、カメラが動作
中のときにはレンズ用電源端子VLに電力を供給すると
ともに、マイコンPRSからの選択信号CLCMが高電
位レベル(以下、“H”と記し、低電位レベルは“L”
と記する)のときには、カメラとレンズ間の通信バッフ
ァとなる。
SO is a data signal output from the microcomputer PRS, SI is a data signal input to the microcomputer PRS, and SLCK is a synchronous clock of the signals SO and SI.
LCM is a lens communication buffer circuit, which supplies power to the lens power supply terminal VL when the camera is in operation, and the selection signal CLCM from the microcomputer PRS is at a high potential level (hereinafter referred to as “H”, a low potential level). Is "L"
, The communication buffer between the camera and the lens.

【0039】マイコンPRSが選択信号CLCMを
“H”にして、同期クロックSCLKに同期して所定の
データを信号SOとして送出すると、バッファ回路LC
Mはカメラ・レンズ間通信接点を介して、同期クロック
SCLK,信号SOの各々のバッファ信号LCK,DC
LをレンズLNSへ出力する。それと同時にレンズLN
Sからの信号DCLのバッファ信号を信号SIとして出
力し、マイコンPRSは同期クロックSCLKに同期し
て信号SIをレンズのデータとして入力する。
When the microcomputer PRS sets the selection signal CLCM to "H" and sends out predetermined data as the signal SO in synchronization with the synchronization clock SCLK, the buffer circuit LC
M is a buffer signal LCK, DC of each of a synchronous clock SCLK and a signal SO via a contact between the camera and the lens.
Output L to the lens LNS. At the same time the lens LN
The buffer signal of the signal DCL from S is output as the signal SI, and the microcomputer PRS inputs the signal SI as lens data in synchronization with the synchronization clock SCLK.

【0040】DDRはスイッチ検知及び表示用回路であ
り、信号CDDRが“H”のとき選択されて、信号S
O,信号SI,同期クロックSCLKを用いてマイコン
PRSから制御される。即ちマイコンPRSから送られ
てくるデータに基づいてカメラの表示部材DSPの表示
を切り換えたり、カメラの各種操作部材のオンオフ状態
を通信によってマイコンPRSに報知する。
DDR is a switch detection and display circuit, which is selected when the signal CDDR is "H", and the signal S
It is controlled by the microcomputer PRS using O, the signal SI and the synchronous clock SCLK. That is, the display of the display member DSP of the camera is switched based on the data sent from the microcomputer PRS, and the microcomputer PRS is informed of the on / off state of various operation members of the camera by communication.

【0041】SW1,SW2は不図示のレリーズボタン
に連動したスイッチで、レリーズボタンの第1段階の押
下によりSW1がオンし、引き続いて第2段階の押下で
SW2がオンする。マイコンPRSはSW1オンで測
光、自動焦点調節を行ない、SW2オンをトリガとして
露出制御とその後のフィルムの巻き上げを行なう。
SW1 and SW2 are switches interlocked with a release button (not shown). When the release button is pressed in the first step, SW1 is turned on, and when the release button is pressed in the second step, SW2 is turned on. The microcomputer PRS performs photometry and automatic focus adjustment when SW1 is on, and performs exposure control and subsequent film winding by using SW2 as a trigger.

【0042】尚、スイッチSW2はマイコンであるPR
Sの「割り込み入力端子」に接続され、SW1オン時の
プログラム実行中でもSW2オンによって割り込みがか
かり、直ちに所定の割り込みプログラムへ制御を移すこ
とができる。
The switch SW2 is a microcomputer PR.
It is connected to the "interruption input terminal" of S, and even when the program is running when SW1 is on, an interrupt is generated by turning on SW2, and control can be immediately transferred to a predetermined interrupt program.

【0043】MTR1はフィルム給送用、MTR2はミ
ラーアップ・ダウン及びシャッターばねチャージ用のモ
ータであり、各々の駆動回路MDR1,MDR2により
正転、逆転の制御が行なわれる。マイコンPRSから駆
動回路MDR1,駆動回路MDR2に入力されている信
号M1F,M1R,M2F,M2Rはモータ制御用の信
号である。
MTR1 is a film feeding motor, MTR2 is a motor for mirror up / down and shutter spring charging, and forward / reverse control is performed by respective drive circuits MDR1 and MDR2. The signals M1F, M1R, M2F and M2R input from the microcomputer PRS to the drive circuit MDR1 and the drive circuit MDR2 are signals for motor control.

【0044】MG1,MG2は各々シャッター先幕・後
幕走行開始用マグネットで、信号SMG1,SMG2,
増幅トランジスタTR1,TR2で通電され、マイコン
PRSによりシャッター制御が行なわれる。
MG1 and MG2 are magnets for starting the leading and trailing shutter shutters, respectively. Signals SMG1, SMG2 and
The amplification transistors TR1 and TR2 are energized, and the shutter control is performed by the microcomputer PRS.

【0045】尚、スイッチ検知及び表示用回路DDR,
モータ駆動回路MDR1,MDR2,シャッター制御は
本発明と直接関わりがないので、詳しい説明は省略す
る。
The switch detection and display circuit DDR,
Since the motor drive circuits MDR1, MDR2, and shutter control are not directly related to the present invention, detailed description thereof will be omitted.

【0046】LPRSはレンズ内制御回路で、該制御回
路LPRSにバッファ信号LCKに同期して入力される
信号DCLは、カメラから撮影レンズLNSに対する命
令のデータであり、命令に対するレンズの動作は予め決
められている。
LPRS is an in-lens control circuit, and a signal DCL input to the control circuit LPRS in synchronization with the buffer signal LCK is command data from the camera to the taking lens LNS, and the lens operation in response to the command is predetermined. Has been.

【0047】制御回路LPRSは、所定の手続きに従っ
てその命令を回折し、焦点調節や絞り制御の動作や、出
力DCLからレンズの各部動作状況(焦点調節光学系の
駆動状況や、絞りの駆動状態等)や各種パラメータ(開
放Fナンバー・焦点距離・デフォーカス量対焦点調節光
学系の移動量の係数等)の出力を行なう。
The control circuit LPRS diffracts the command in accordance with a predetermined procedure and performs operations of focus adjustment and diaphragm control, operation status of each part of the lens from the output DCL (drive status of focus adjustment optical system, drive status of diaphragm, etc.). ) And various parameters (open F-number, focal length, defocus amount vs. coefficient of movement amount of focus adjustment optical system, etc.) are output.

【0048】該実施例では、ズームレンズの例を示して
おり、カメラから焦点調節の命令が送られた場合には、
同時に送られてくる駆動量・方向に従って焦点調節用モ
ータLTMRを信号LMF,LMRによって駆動して、
焦点調節光学系を光軸方向に移動させて焦点調節を行な
う。
In this embodiment, an example of a zoom lens is shown, and when a focus adjustment command is sent from the camera,
The focus adjustment motor LTMR is driven by the signals LMF and LMR according to the driving amount and direction sent at the same time,
Focus adjustment is performed by moving the focus adjustment optical system in the optical axis direction.

【0049】光学系の移動量は光学系に連動して回動す
るパルス板のパターンをフォトカプラーにて検出し、移
動量に応じた数のパルスを出力するエンコーダ回路EN
CFのパルス信号SENCFでモニタし、回路LPRS
内のカウンタで計数し、該カウント値が回路LPRSに
送られた移動量に一致した時点でLPRS自身が信号L
MF,LMRを“L”にしてモータLMTRを制御す
る。
The movement amount of the optical system is an encoder circuit EN which detects the pattern of the pulse plate which rotates in conjunction with the optical system by the photocoupler and outputs the number of pulses corresponding to the movement amount.
Monitor with the pulse signal SENCF of CF, circuit LPRS
When the count value is counted by a counter inside the circuit and the count value matches the movement amount sent to the circuit LPRS, the LPRS itself outputs the signal L.
The motor LMTR is controlled by setting MF and LMR to "L".

【0050】このため、一旦カメラから焦点調節の命令
が送られた後は、カメラの制御装置であるところのマイ
コンPRSはレンズの駆動が終了するまで、レンズ駆動
に関して全く関与する必要がない。また、カメラから要
求があった場合には、上記カウンタの内容をカメラに送
出することも可能な構成になっている。
Therefore, once the focus adjustment command is sent from the camera, the microcomputer PRS, which is the camera controller, does not need to be involved in the lens driving at all until the lens driving is completed. Also, the contents of the counter can be sent to the camera when requested by the camera.

【0051】カメラから絞り制御の命令が送られた場合
には、同時に送られてくる絞り段数に従って、絞り駆動
用としては公知のステッピングモータDMTRを駆動す
る。尚、ステッピングモータDMTRはオープン制御が
可能なため、動作をモニタするためのエンコーダを必要
としない。
When a diaphragm control command is sent from the camera, a stepping motor DMTR known for driving the diaphragm is driven in accordance with the number of diaphragm stages sent at the same time. Since the stepping motor DMTR can be open-controlled, it does not need an encoder for monitoring the operation.

【0052】ENCZはズーム光学系に付随したエンコ
ーダ回路であり、制御回路LPRSはエンコーダ回路E
NCZからの信号SENCZを入力してズーム位置を検
出する。制御回路LPRS内には各ズーム位置における
レンズ・パラメータが格納されており、カメラ側のマイ
コンPRSから要求があった場合には、現在のズーム位
置に対応したパラメータをカメラに送出する。
ENCZ is an encoder circuit attached to the zoom optical system, and control circuit LPRS is an encoder circuit E.
The signal SENCZ from NCZ is input to detect the zoom position. Lens parameters at each zoom position are stored in the control circuit LPRS, and when a request is made from the microcomputer PRS on the camera side, the parameter corresponding to the current zoom position is sent to the camera.

【0053】SPCは、撮影レンズLNSを介した被写
体からの光を受光する。露出制御用の測光センサであ
り、その出力SSPCはマイコンPRSのアナログ入力
端子に入力され、A/D変換後、所定のプログラムに従
って自動露出制御に用いられる。
The SPC receives the light from the subject through the taking lens LNS. It is a photometric sensor for exposure control, and its output SSPC is input to an analog input terminal of a microcomputer PRS, and after A / D conversion, used for automatic exposure control according to a predetermined program.

【0054】SDRは、焦点検出用ラインセンサ装置S
NSの駆動回路であり、信号CSDRが“H”のときに
選択されて、信号SO,信号SI,同期クロックSCL
Kを用いてマイコンPRSから制御される。
SDR is a focus detecting line sensor device S
NS drive circuit, which is selected when the signal CSDR is "H", and is the signal SO, the signal SI, and the synchronous clock SCL.
It is controlled from the microcomputer PRS using K.

【0055】駆動回路SDRからセンサ装置SNSへ与
える信号φSEL0,φSEL1はマイコンPRSから
の信号SEL0,SEL1そのもので、 φSEL0=“L”,φSEL1=“L”のとき センサ列対SNS−1(SNS−1a,SNS−1b)
を、 φSEL0=“H”,φSEL1=“L”のとき センサ列対SNS−4(SNS−4a,SNS−4b)
を、 φSEL0=“L”,φSEL1=“H”のとき センサ列対SNS−2(SNS−2a,SNS−2b)
を、 φSEL0=“H”,φSEL1=“H”のとき センサ列対SNS−3(SNS−3a,SNS−3b)
を、 それぞれ選択する信号である。
The signals φSEL0 and φSEL1 supplied from the drive circuit SDR to the sensor device SNS are the signals SEL0 and SEL1 from the microcomputer PRS. When φSEL0 = “L” and φSEL1 = “L”, the sensor column pair SNS-1 (SNS- 1a, SNS-1b)
When φSEL0 = “H” and φSEL1 = “L” Sensor column pair SNS-4 (SNS-4a, SNS-4b)
When φSEL0 = “L” and φSEL1 = “H” Sensor column pair SNS-2 (SNS-2a, SNS-2b)
When φSEL0 = “H” and φSEL1 = “H” Sensor column pair SNS-3 (SNS-3a, SNS-3b)
Are signals to be selected.

【0056】蓄積終了後に、信号SEL0,信号SEL
1を適当に設定して、それからクロックφSH,φHR
Sを送ることにより、信号SEL0,SEL1(φSE
L0,φSEL1)で選択されたセンサ列の像信号が出
力VOUTから順次シリアルに出力される。
After the accumulation, the signals SEL0 and SEL
1 is set appropriately, and then the clocks φSH and φHR are set.
By sending S, signals SEL0 and SEL1 (φSE
The image signal of the sensor array selected by L0, φSEL1) is sequentially output from the output VOUT in serial.

【0057】VP1,VP2,VP3,VP4はそれぞ
れ各センサ列対SNS−1(SNS−1a,SNS−1
b),SNS−2(SNS−2a,SNS−2b),S
NS−3(SNS−3a,SNS−3b),SNS−4
(SNS−4a,SNS−4b)の近傍に配置された被
写体輝度モニタ用センサからのモニタ信号で、蓄積開始
と共にその電圧が上昇し、これにより各センサ列の蓄積
制御が行なわれる。
VP1, VP2, VP3 and VP4 are each sensor column pair SNS-1 (SNS-1a, SNS-1).
b), SNS-2 (SNS-2a, SNS-2b), S
NS-3 (SNS-3a, SNS-3b), SNS-4
A monitor signal from a subject brightness monitor sensor arranged in the vicinity of (SNS-4a, SNS-4b) causes the voltage to increase with the start of accumulation, whereby the accumulation control of each sensor array is performed.

【0058】信号φRES,φVRSはセンサのリセッ
ト用クロック、φHRS,φSHは像信号の読み出し用
クロック、φT1,φT2,φT3,φT4はそれぞれ
各センサ列対の蓄積を終了させるためのクロックであ
る。
The signals φRES and φVRS are sensor reset clocks, φHRS and φSH are image signal read clocks, and φT1, φT2, φT3 and φT4 are clocks for ending the accumulation of each sensor row pair.

【0059】センサ駆動回路SDRの出力VIDEO
は、センサ装置SNSからの像信号VOUTと暗電流出
力の差をとった後、被写体の輝度によって決定されるゲ
インで像幅された像信号である。上記暗電流出力とは、
センサ列中の遮光された画素の出力値であり、SDRは
マイコンPRSからの信号DSHによってコンデンサに
その出力を保持し、これと像信号との差動像幅を行な
う。出力VIDEOはマイコンPRSのアナログ入力端
子に入力されており、該マイコンPRSは同信号をA/
D変換後、そのディジタル値をRAM上の所定アドレス
へ順次格納していく。
Output VIDEO of the sensor drive circuit SDR
Is an image signal obtained by taking the difference between the image signal VOUT from the sensor device SNS and the dark current output and then image-widthing it with a gain determined by the brightness of the subject. What is the dark current output?
This is the output value of the shaded pixel in the sensor array, and SDR holds the output in the capacitor by the signal DSH from the microcomputer PRS, and performs the differential image width between this and the image signal. The output VIDEO is input to the analog input terminal of the microcomputer PRS, and the microcomputer PRS outputs the same signal to A /
After D conversion, the digital value is sequentially stored in a predetermined address on the RAM.

【0060】信号/TINTE1,/TINTE2,/
TINTE3,/TINTE4はそれぞれセンサ列対S
NS−1(SNS−1a,SNS−1b),SNS−2
(SNS−2a,SNS−2b),SNS−3(SNS
−3a,SNS−3b),SNS−4(SNS−4a,
SNS−4b)に蓄積された電荷で適正となり、蓄積が
終了したことを表わす信号で、マイコンPRSはこれを
受けて像信号の読み出しを実行する。
Signals / TINTE1, / TINTE2, /
TINTE3 and / TINTE4 are sensor row pairs S, respectively.
NS-1 (SNS-1a, SNS-1b), SNS-2
(SNS-2a, SNS-2b), SNS-3 (SNS
-3a, SNS-3b), SNS-4 (SNS-4a,
The electric charge accumulated in SNS-4b) becomes appropriate, and the signal indicating that the accumulation is completed is received by the microcomputer PRS, and the image signal is read out.

【0061】信号BTIMEは、センサ駆動回路SDR
内の像信号を像幅アンプの読み出しゲイン決定のタイミ
ングを与える信号で、通常上記センサ駆動回路SDEは
この信号が“H”となった時点でのモニタ信号VPO〜
VP3の電圧から、対応するセンサ列対の読み出しゲイ
ンを決定する。
The signal BTIME is the sensor drive circuit SDR.
The image signal inside is a signal for giving a timing for determining the read gain of the image width amplifier. Normally, the sensor drive circuit SDE normally outputs the monitor signal VPO ...
The read gain of the corresponding sensor row pair is determined from the voltage of VP3.

【0062】CK1,CK2は上記クロックφRES,
φVRS,φHRS,φSHを生成するために、マイコ
ンPRSからセンサ駆動回路SDRへ与えられる基準ク
ロックである。マイコンPRSが通信選択信号CSDR
を“H”として所定の「蓄積開始コマンド」をセンサ駆
動回路SDRに送出することによってセンサ装置SNS
の蓄積動作が開始される。
CK1 and CK2 are the above clock φRES,
It is a reference clock given from the microcomputer PRS to the sensor drive circuit SDR in order to generate φVRS, φHRS, and φSH. The microcomputer PRS uses the communication selection signal CSDR
Is sent to the sensor drive circuit SDR by sending a predetermined "accumulation start command" to "S".
The accumulation operation of is started.

【0063】これにより、4つのセンサ列対で各センサ
上に形成された被写体像の光電変換が行なわれ、センサ
の光電変換素子部には電荷が蓄積される。同時に各セン
サの輝度モニタ用センサの信号VP1〜VP4が上昇し
てゆき、この電圧が所定レベルに達すると、センサ駆動
回路SDRは前記信号/TINTE1〜/TINTE4
がそれぞれ独立に“L”となる。
As a result, photoelectric conversion of the subject image formed on each sensor is performed by the four sensor row pairs, and charges are accumulated in the photoelectric conversion element portion of the sensor. At the same time, the signals VP1 to VP4 from the brightness monitoring sensors of the respective sensors rise, and when this voltage reaches a predetermined level, the sensor drive circuit SDR causes the signals / TINTE1 to / TINTE4.
Are independently "L".

【0064】マイコンPRSはこれを受けてクロックC
K2に所定の波形を出力する。センサ駆動回路SDRは
クロックCK2に基づいてクロックφSH,φHRSを
生成してセンサ装置SNSに与え、該センサ装置SNS
は前記クロックによって像信号を出力し、マイコンPR
Sは自ら出力しているクロックCK2に同期して内部の
A/D変換機能でアナログ入力端子に入力されている出
力VIDEOをA/D変換後、ディジタル信号としてR
AMの所定アドレスへ順次格納していく。
In response to this, the microcomputer PRS receives the clock C
A predetermined waveform is output to K2. The sensor drive circuit SDR generates clocks φSH and φHRS based on the clock CK2 and supplies the clocks φSH and φHRS to the sensor device SNS.
Outputs an image signal by the clock, and the microcomputer PR
S is A / D converted from the output VIDEO input to the analog input terminal by the internal A / D conversion function in synchronization with the clock CK2 output by itself, and then R is converted to a digital signal.
The data is sequentially stored in a predetermined address of AM.

【0065】尚、センサ駆動回路SDR,センサ装置S
NSの動作については2対のセンサ列を有する焦点検出
装置として特開昭63−216905号公報等で開示さ
れているので、ここでの詳細な説明は省略する。
The sensor drive circuit SDR and the sensor device S
The operation of the NS is disclosed in Japanese Patent Application Laid-Open No. 63-216905 as a focus detection device having two pairs of sensor arrays, and therefore detailed description thereof is omitted here.

【0066】以上のようにして、マイコンPRSは各セ
ンサ列対上に形成された被写体像の像情報を受けとっ
て、その後所定の焦点検出演算を行ない、撮影レンズの
デフォーカス量を知ることができる。
As described above, the microcomputer PRS receives the image information of the subject image formed on each sensor array pair, and then performs a predetermined focus detection calculation to know the defocus amount of the taking lens. .

【0067】CCDはファインダー視野を注視する撮影
者の視線位置を検出するためのイメージセンサーであ
る。YLEDは視線検出用に用いられている光源であ
り、複数の発光ダイオード(LED)より構成されてい
る。この発光ダイオードLEDはカメラのファインダー
視野内を覗く観察者の眼球に向け照射され、その反射光
が視線検出用イメージセンサーCCDに結像され、その
結像位置等の情報に基づき観察者の視線位置を検出する
ようにしている。
The CCD is an image sensor for detecting the line-of-sight position of the photographer gazing at the viewfinder field. YLED is a light source used for visual axis detection, and is composed of a plurality of light emitting diodes (LEDs). The light emitting diode LED is irradiated toward the eyeball of an observer looking into the viewfinder field of the camera, and the reflected light is imaged on the image sensor CCD for visual axis detection, and the visual axis position of the observer is based on the information such as the imaged position. I am trying to detect.

【0068】YDRはマイコンPRSの命令に従い、視
線検出用イメージセンサーCCDの蓄積・読み出しや視
線検出用LEDであるYLEDを駆動する等の制御を行
なうための視線位置検出用インターフェース回路であ
る。
YDR is a line-of-sight position detecting interface circuit for performing control such as accumulating / reading out of the line-of-sight detecting image sensor CCD and driving YLED which is a line-of-sight detecting LED in accordance with a command from the microcomputer PRS.

【0069】次に本実施例におけるカメラの自動焦点調
整装置について、フローチャートを用いて説明する。図
4は本実施例におけるカメラ全体のシーケンスを示す大
まかなフローチャートである。図3に示した回路に給電
が開始されるとマイコンPRSは図4のステップ(00
0)から実行を開始する。
Next, an automatic focus adjusting device for a camera according to this embodiment will be described with reference to a flowchart. FIG. 4 is a rough flowchart showing the sequence of the entire camera in this embodiment. When power supply to the circuit shown in FIG. 3 is started, the microcomputer PRS executes the step (00
The execution starts from 0).

【0070】ステップ(001)において、レリーズボ
タンの第1段階押下によりオンするスイッチSW1の状
態検知を行ない、OFFならばステップ(002)へ移
行し、すべてのフラグと変数を初期化する。スイッチS
W1がオンであればステップ(003)へ移行し、カメ
ラの動作を開始する。
At step (001), the state of the switch SW1 which is turned on by pressing the release button in the first step is detected. If it is off, the process proceeds to step (002) to initialize all flags and variables. Switch S
If W1 is on, the process proceeds to step (003) to start the camera operation.

【0071】ステップ(003)では測光や各種スイッ
チ類の状態検知、表示等の「AE制御」サブルーチンを
実行する。AE制御は本発明と直接関わりがないので詳
しい説明は省略する。サブルーチン「AE制御」が終了
すると、続いてステップ(004)へ移行する。
In step (003), an "AE control" subroutine for photometry, state detection of various switches and display is executed. Since the AE control is not directly related to the present invention, detailed description will be omitted. When the subroutine "AE control" is completed, the process proceeds to step (004).

【0072】ステップ(004)で「AF制御」サブル
ーチンを実行する。ここではセンサの蓄積、焦点検出演
算、レンズ駆動の自動焦点調節動作を行なう。サブルー
チン「AF制御」が終了すると、再びステップ(00
1)へ戻り、電源がオフするまでステップ(003),
(004)を繰り返し実行していく。
At step (004), the "AF control" subroutine is executed. Here, the sensor accumulation, focus detection calculation, and lens-driven automatic focus adjustment operation are performed. When the subroutine "AF control" is completed, the step (00
Return to 1), and step (003) until the power is turned off.
(004) is repeatedly executed.

【0073】尚、本実施例のフローチャートでは、レリ
ーズ動作について記述していないが、レリーズ動作は本
発明と直接関わりがないのであえて省略している。
Although the release operation is not described in the flow chart of this embodiment, the release operation is omitted because it is not directly related to the present invention.

【0074】図5は図4のステップ(004)において
実行される「AF制御」サブルーチンのフローチャート
である。「AF制御」サブルーチンがコールされると、
図5に示すステップ(010)を経て、ステップ(01
1)以降のAF制御を実行していく。
FIG. 5 is a flowchart of the "AF control" subroutine executed in step (004) of FIG. When the "AF control" subroutine is called,
After step (010) shown in FIG. 5, step (01
AF control after 1) is executed.

【0075】まずステップ(011)にてスイッチSW
1がオンして1回目のAF制御であるか否化を判別し、
1回目である場合には、ステップ(012)へ移行し、
AF制御用のフラグ及び変数の初期化を行なう。続いて
ステップ(013)へ移行し、視線検出用フラグ・変数
の初期化を行なう。
First, in step (011), the switch SW
When 1 is turned on, it is determined whether or not it is the first AF control,
If it is the first time, move to step (012),
Initialize flags and variables for AF control. Subsequently, the process proceeds to step (013) to initialize the line-of-sight detection flag / variable.

【0076】続いてステップ(014)へ移行し、FP
LOCKというフラグをクリアする。このFPLOCK
というフラグは、後述する視線検出に用いられるフラグ
で、視線検出手段により一度測距点が設定されたことを
示すフラグである。
Then, the process proceeds to step (014) and the FP
Clear the flag called LOCK. This FPLOCK
Is a flag used for the sight line detection described later, and is a flag indicating that the focus detection point is once set by the sight line detecting means.

【0077】続いて、ステップ(015)へ移行する。
またステップ(011)でスイッチSW1をオンして1
回目のAFではないと判別されると、ステップ(01
5)へ移行する。
Then, the process proceeds to step (015).
In step (011), the switch SW1 is turned on to
If it is determined that it is not the AF for the second time, step (01
Go to 5).

【0078】ステップ(015)では「視線検出」サブ
ルーチンを実行する。ここでは、視線検出動作を行なう
ためのセンサ(図1のセンサ14)への蓄積・読み出し
から注視点の抽出、視線検出による測距点の決定等を行
なう。
At step (015), a "line-of-sight detection" subroutine is executed. Here, the gazing point is extracted from the accumulation / readout to the sensor (sensor 14 in FIG. 1) for performing the visual axis detection operation, and the distance measuring point is determined by the visual axis detection.

【0079】図6は視線検出のフローチャートである。FIG. 6 is a flow chart for detecting the line of sight.

【0080】図5に戻り、ステップ(016)では「焦
点検出」サブルーチンを実行する。ここでは、焦点検出
動作のための各センサへの像信号の蓄積・読み出しから
焦点検出演算及び主被写体があると想定される測距点の
決定までを行なう。
Returning to FIG. 5, in the step (016), the "focus detection" subroutine is executed. Here, from the accumulation / readout of the image signal to each sensor for the focus detection operation to the focus detection calculation and the determination of the distance measuring point where the main subject is assumed to be present.

【0081】図7,図8は焦点検出のフローチャートで
ある。
7 and 8 are flowcharts of focus detection.

【0082】図5に戻り、ステップ(017)では「測
距領域選択」サブルーチンを実行する。ここでは、ステ
ップ(016)で実行される「焦点検出」サブルーチン
から得られる測距点情報と、ステップ(015)で実行
される「視線検出」サブルーチンから得られる注視点に
基づく測距点情報等から実際に使用される測距点(測距
領域)を選び出す動作を行なう。
Returning to FIG. 5, in step (017), a "distance measuring area selection" subroutine is executed. Here, the distance measuring point information obtained from the "focus detection" subroutine executed in step (016) and the distance measuring point information based on the gazing point obtained from the "eye detection" subroutine executed in step (015), etc. Then, the operation for selecting the actually used distance measuring point (distance measuring area) is performed.

【0083】図9,図10,図11はこのときの測距領
域の選択のフローチャートである。
FIG. 9, FIG. 10 and FIG. 11 are flow charts for selecting the distance measuring area at this time.

【0084】図5に戻り、ステップ(018)ではステ
ップ(017)で得られた測距点の焦点検出情報からデ
フォーカス量を計算する。
Returning to FIG. 5, in step (018), the defocus amount is calculated from the focus detection information of the focus detection point obtained in step (017).

【0085】続くステップ(019)では「レンズ駆
動」サブルーチンを実行する。ここでは、デフォーカス
量から実際のレンズ駆動量を求め、必要であればレンズ
駆動を行なう動作をする。レンズ駆動完了後はステップ
(020)より「AF制御」サブルーチンをリターンす
る。
In the following step (019), a "lens drive" subroutine is executed. Here, the actual lens driving amount is obtained from the defocus amount, and the lens driving is performed if necessary. After the lens driving is completed, the "AF control" subroutine is returned from step (020).

【0086】次に図5のステップ(016)の焦点検出
について、図7,図8に示すサブルーチン「焦点検出」
のフローチャートに基づいて説明する。サブルーチン
「焦点検出」がコールされると、ステップ(110)を
経て、ステップ(111)以降の焦点検出動作を実行し
ていく。
Next, regarding the focus detection in step (016) of FIG. 5, the subroutine "focus detection" shown in FIGS.
A description will be given based on the flowchart. When the subroutine "focus detection" is called, the focus detection operation from step (111) onward is executed through step (110).

【0087】まずステップ(111)にて、スイッチS
W1がオンして1回目のAF制御であるか否かを判別
し、1回目である場合にはステップ(112)へ移行
し、選択センサを初期化する。
First, in step (111), the switch S
It is determined whether or not W1 is turned on and the first AF control is performed. If it is the first AF control, the process proceeds to step (112) to initialize the selection sensor.

【0088】続いて、ステップ(113)へサブルーチ
ン「蓄積開始」を実行する。同サブルーチンはセンサの
蓄積動作を開始させるルーチンであり、具体的にはセン
サ駆動回路SDRへ蓄積開始命令を送出して、センサ装
置SNSの蓄積動作を開始させ、それと共に上記センサ
駆動回路SDRからの各センサ蓄積終了信号/TINT
E1〜/TINTE3によってマイコンPRSが「蓄積
完了割り込み」を実行できるように割り込み機能を許可
するサブルーチンである。
Then, the subroutine "start accumulation" is executed in step (113). The subroutine is a routine for starting the accumulation operation of the sensor. Specifically, the accumulation start command is sent to the sensor drive circuit SDR to start the accumulation operation of the sensor device SNS, and at the same time, the sensor drive circuit SDR outputs the accumulation operation. Sensor accumulation end signal / TINT
This is a subroutine for enabling the interrupt function so that the microcomputer PRS can execute the “accumulation completion interrupt” by E1 to / TINTE3.

【0089】これにより4つのセンサSNS−1〜SN
S−3がそれぞれ蓄積完了となった時点で各々の蓄積割
り込みが実行されることになる。
As a result, the four sensors SNS-1 to SN
When the storage of S-3 is completed, each storage interrupt is executed.

【0090】各センサの蓄積終了は信号/TINTE1
〜/TINTE3の立ち下がりによって検知することが
でき、これらの信号はマイコンPRSの「割り込み機能
付き入力端子」に接続されている。
Completion of accumulation of each sensor is signal / TINTE1
It can be detected by the fall of ~ / TINTE3, and these signals are connected to the "input terminal with interrupt function" of the microcomputer PRS.

【0091】図7の図中、破線で示されている(a)が、
割り込み制御を表わしており、信号/TINTE1〜/
TINTE3による割り込みが発生した場合には、同図
の(a)を介して、図8に示した各割り込みルーチンへ制
御が移行する。
In the diagram of FIG. 7, (a) indicated by a broken line is
It represents interrupt control, and signals / TINTE1 to //
When an interrupt by TINTE3 occurs, the control shifts to each interrupt routine shown in FIG. 8 through (a) in the figure.

【0092】従って、例えばセンサSNS−1の電荷蓄
積が適正となって、センサ駆動回路SDRからの信号/
TINTE1が立ち下がれば、これに応答して図8のス
テップ(150)以降の割り込みルーチンへ移行するこ
とができる。
Therefore, for example, the charge accumulation of the sensor SNS-1 becomes appropriate, and the signal from the sensor drive circuit SDR /
When TINTE1 falls, in response to this, it is possible to shift to the interrupt routine after step (150) in FIG.

【0093】図8のステップ(150)以降の割り込み
ルーチンはセンサSNS−1の像信号を入力するための
ルーチンである。
The interrupt routine after step (150) in FIG. 8 is a routine for inputting the image signal of the sensor SNS-1.

【0094】ステップ(151)にて、センサSNS−
1の像信号を入力後、ステップ(152)にて割り込み
ルーチンをリターンする。像信号の入力は、マイコンP
RSのアナログ入力端子に入力される出力VIDEOを
シリアルA/D変換し、そのディジタルデータを所定R
AM領域へ順次格納していくことで達成される。
At step (151), the sensor SNS-
After inputting the image signal of 1, the interrupt routine is returned in step (152). The image signal is input by the microcomputer P
The output VIDEO input to the analog input terminal of RS is serially A / D converted and the digital data is converted into a predetermined R
This is achieved by sequentially storing in the AM area.

【0095】センサSNS−2,SNS−3,SNS−
4の蓄積が終了した場合も同様に割り込み制御で、それ
ぞれ図8のステップ(153),(156),(15
9)へ移行し、各センサの像信号入力が行なわれる。
Sensors SNS-2, SNS-3, SNS-
Similarly, when the storage of 4 is completed, the interrupt control is similarly performed, and steps (153), (156), and (15) of FIG.
The process moves to 9), and the image signal of each sensor is input.

【0096】サブルーチン「蓄積開始」や像信号入力の
具体的方法については、特開昭63−216905号公
報で開示されているので、詳細な説明は省略する。
A concrete method of the subroutine "accumulation start" and image signal input is disclosed in Japanese Patent Application Laid-Open No. 63-216905, and detailed description thereof will be omitted.

【0097】図7に戻って、説明を続ける。各センサの
像信号入力処理は、割り込み制御にしているので、図中
ステップ(114)〜(126)の焦点検出演算等の実
行中に蓄積完了時点で随時優先して処理されることにな
る。
Returning to FIG. 7, the description will be continued. Since the image signal input processing of each sensor is interrupt controlled, it is given priority at any time when the accumulation is completed during execution of the focus detection calculation of steps (114) to (126) in the figure.

【0098】さて、ステップ(113)でセンサの蓄積
動作が開始されると、ステップ(114)に移行する。
ステップ(114)では、センサSNS−1の焦点検出
演算が終了しているかどうかを判定し、終了していない
場合には、ステップ(115)へ移行する。
Now, when the accumulation operation of the sensor is started in step (113), the process proceeds to step (114).
In step (114), it is determined whether or not the focus detection calculation of the sensor SNS-1 is completed, and if it is not completed, the process proceeds to step (115).

【0099】ステップ(115)にて、センサSNS−
1の像信号入力が既に割り込み処理が完了しているか否
かを判定し、完了していればステップ(116)に移行
して、センサSNS−1の像信号に基づく焦点検出演算
を実行する。
At step (115), the sensor SNS-
It is judged whether or not the image signal input of No. 1 has already been interrupted, and if completed, the process proceeds to step (116) to execute the focus detection calculation based on the image signal of the sensor SNS-1.

【0100】デフォーカス量検出のための具体的な演算
方法は、特願昭61−160824号公報等に開示され
ているので、詳細な説明は省略する。
Since a specific calculation method for detecting the defocus amount is disclosed in Japanese Patent Application No. 61-160824, etc., detailed description will be omitted.

【0101】ステップ(114)でセンサSNS−1の
焦点検出演算が終了していない場合、あるいはステップ
(115)でセンサSNS−1の像信号の入力が完了し
ていない場合、あるいはステップ(116)でセンサS
NS−1の焦点検出演算が終了した後は、ステップ(1
17)へ移行する。
If the focus detection calculation of the sensor SNS-1 is not completed in step (114), or if the input of the image signal of the sensor SNS-1 is not completed in step (115), or step (116). With sensor S
After the focus detection calculation of NS-1 is completed, the step (1
Go to 17).

【0102】ステップ(117),(118),(11
9)では上述した処理をセンサSNS−2に対して行な
う。更にステップ(120),(121),(122)
では、センサSNS−3に対して、ステップ(12
3),(124),(125)ではセンサSNS−4に
対してそれぞれ上述の処理を行なう。
Steps (117), (118), (11)
In 9), the above-described processing is performed on the sensor SNS-2. Further steps (120), (121), (122)
Then, for sensor SNS-3, step (12
In 3), (124), and (125), the above-described processing is performed on the sensor SNS-4.

【0103】ステップ(126)では、すべてのセンサ
に対して対応した焦点検出演算が終了したか否かを判定
し、終了していない場合はステップ(114)へ、すべ
て終了している場合はステップ(127)へ移行する。
In step (126), it is judged whether or not the focus detection calculation corresponding to all the sensors is completed. If not completed, the process proceeds to step (114), and if completed, the step is completed. Move to (127).

【0104】ここまでをまとめてみると、ステップ(1
13)で蓄積動作を開始させた後は、各センサの像信号
が割り込み処理で読み込まれるのを待ちながら、ステッ
プ(114)〜(126)を繰り返し実行して、像信号
の読み込まれたセンサから順次焦点検出演算を行なって
いることになる。
The steps (1
After the accumulation operation is started in 13), steps (114) to (126) are repeatedly executed while waiting for the image signal of each sensor to be read by interrupt processing, and the image signal read sensor is read. This means that the focus detection calculation is sequentially performed.

【0105】続いてステップ(127)では、各センサ
の焦点検出演算の演算結果から主被写体が存在するであ
ろう測距点を選び出す動作を行なう。主被写体であると
する判断基準は、本発明では測距可能なセンサの中で最
も至近側にある測距点とする。測距点の決定が終了する
と、ステップ(128)にて「焦点検出」サブルーチン
をリターンする。
Subsequently, in step (127), an operation for selecting a focus detection point where the main subject is likely to exist is performed from the calculation result of the focus detection calculation of each sensor. In the present invention, the criterion for determining that the subject is the main subject is the distance measuring point closest to the distance measuring sensor. When the determination of the focus detection points is completed, the "focus detection" subroutine is returned in step (128).

【0106】次に図5のステップ(015)の視線検出
について図6に示すサブルーチン「視線検出」のフロー
チャートに基づいて説明する。サブルーチン「視線検
出」がコールされると、ステップ(201)を経て、ス
テップ(202)以降の視線検出動作を実行していく。
Next, the visual axis detection in step (015) of FIG. 5 will be described with reference to the flowchart of the subroutine "visual axis detection" shown in FIG. When the subroutine "line-of-sight detection" is called, the line-of-sight detection operation from step (202) is executed through step (201).

【0107】まず、ステップ(202)において、フラ
グFPLOCKが1か否かを判別する。即ち、ワンショ
ットAFで既に視線による測距点設定が終了しているか
否かを判別する。
First, at step (202), it is judged if the flag FPLOCK is 1 or not. That is, it is determined whether or not the distance measuring point setting based on the line of sight has already been completed by the one-shot AF.

【0108】フラグFPLOCKが1である、即ちワン
ショットAFで既に視線検出による測距点が設定済みで
ある場合は、一連の視線検出をスキップし、ステップ
(212)へ移行する。フラグFPLOCKがφである
場合、即ちワンショットAFで視線による測距点設定が
済んでいない場合、またはサーボAFのときは一連の視
線検出動作を行なうためにステップ(203)へ移行す
る。
If the flag FPLOCK is 1, that is, if the one-shot AF has already set the distance measuring point by sight line detection, a series of sight line detection is skipped, and the process proceeds to step (212). When the flag FPLOCK is φ, that is, when the distance measuring point is not set by the sight line in the one-shot AF, or when the servo AF is performed, the process proceeds to step (203) to perform a series of sight line detection operations.

【0109】ステップ(203)〜(204)におい
て、視線検出用センサの蓄積・読み出しを実行し、視線
データの読み取りを行なう。
In steps (203) to (204), the line-of-sight detection sensor is accumulated and read to read line-of-sight data.

【0110】続いてステップ(205)において、ステ
ップ(204)で読み出された視線データを基に、撮影
者の視線方向を求める。続くステップ(206)では、
前記ステップ(205)において行なわれた視線方向の
演算の過程・結果において、検出不可能、即ちNGと判
別されるとステップ(210)へ移行する。検出可能、
即ちOKである場合は、ステップ(207)へ移行す
る。
Then, in step (205), the line-of-sight direction of the photographer is obtained based on the line-of-sight data read in step (204). In the following step (206),
In the process / result of the calculation of the line-of-sight direction performed in step (205), if it is determined that detection is impossible, that is, NG, the process proceeds to step (210). Detectable,
That is, if it is OK, the process proceeds to step (207).

【0111】ステップ(207)では、ステップ(20
5)で求めた視線方向からファインダー視野内の観察者
が覗いている注視点を求める。続くステップ(208)
では、前記ステップ(207)において抽出した演算の
結果が、カメラの制御に用いる信頼度を持つか否かを判
別する。判別の結果、OKであると、ステップ(20
9)へ移行する。
In step (207), step (20
From the line-of-sight direction obtained in 5), the gazing point that the observer is looking into in the viewfinder field is obtained. Following Step (208)
Then, it is determined whether or not the result of the calculation extracted in the step (207) has the reliability used for controlling the camera. If the result of the determination is OK, the step (20
Go to 9).

【0112】ステップ(209)では、ステップ(20
7)で求めた注視点に対応する測距点を決定する。そし
て視線検出の成功を示すフラグEYEOKを1にする。
そしてステップ(212)へ移行する。ステップ(20
8)でNGと判別されると、ステップ(210)へ移行
する。
In the step (209), the step (20
The distance measuring point corresponding to the gazing point obtained in 7) is determined. Then, the flag EYEOK indicating the success of the sight line detection is set to 1.
Then, the process proceeds to step (212). Step (20
When it is determined as NG in 8), the process proceeds to step (210).

【0113】ステップ(210)では判定の結果、NG
となった回数をチェックする。3回以内であると、ステ
ップ(203)へ戻り、再びセンサの蓄積・読み出し等
を実行する。ステップ(210)で4回目と判別される
と、何らかの理由で検出が不可能であると判断し、ステ
ップ(211)へ移行する。
At step (210), the result of the judgment is NG.
Check the number of times. If it is within three times, the process returns to step (203) and the accumulation / readout of the sensor is executed again. When it is determined that it is the fourth time in step (210), it is determined that the detection is impossible for some reason, and the process proceeds to step (211).

【0114】ステップ(211)では今回の検出の結
果、視線検出失敗である処理を行なう。視線検出の成功
を示すフラグEYEOKをクリアする(例えばフラグの
処理等)。続いてステップ(212)へ移行し、「視線
検出」サブルーチンをリターンする。
At step (211), the process of the visual axis detection failure as a result of the current detection is performed. The flag EYEOK indicating the success of the sight line detection is cleared (for example, flag processing). Then, the process proceeds to step (212), and the "visual axis detection" subroutine is returned.

【0115】次に図5のステップ(017)の測距領域
選択について図9,図10,図11に示すサブルーチン
「領域選択」のフローチャートに基づいて説明する。サ
ブルーチン「領域選択」がコールされると、ステップ
(301)を経て、ステップ(302)以降の領域選択
動作を実行していく。
Next, the distance measurement area selection in step (017) of FIG. 5 will be described with reference to the flow chart of the subroutine "area selection" shown in FIGS. 9, 10 and 11. When the subroutine "area selection" is called, the area selection operation from step (302) is executed through step (301).

【0116】まず、ステップ(302)において、カメ
ラのAFモードがサーボAFであるか否かを判別し、サ
ーボAFでなければ、図11のステップ(350)へ移
行する。このときの制御の説明は後に示す。ステップ
(302)でサーボAFであると判別されると、ステッ
プ(303)へ移行する。
First, in step (302), it is determined whether or not the AF mode of the camera is servo AF. If it is not servo AF, the process proceeds to step (350) in FIG. The control at this time will be described later. If the servo AF is determined in step (302), the process proceeds to step (303).

【0117】ステップ(303)では、前記図5のステ
ップ(016)で実行されるサブルーチン「焦点検出」
によって得られた各センサの焦点検出演算の結果、すべ
てのセンサが測距不能であるか否かの判別を行ない、す
べてのセンサが測距不能であれば、ステップ(306−
1)へ移行する。ステップ(306−1)では、すべて
のセンサが測距不能であるため、とりあえず中央測距点
を選択する。
In step (303), the subroutine "focus detection" executed in step (016) of FIG. 5 is executed.
As a result of the focus detection calculation of each sensor obtained as described above, it is determined whether or not all the sensors cannot measure the distance. If all the sensors cannot measure the distance, step (306-
Go to 1). At step (306-1), since all the sensors cannot measure the distance, the central distance measuring point is selected for the time being.

【0118】続くステップ(306−2)では、注視点
に対応する測距点を選択する条件を満たしていないた
め、注視点に対応する測距点を選択する条件が何回連続
して発生したかをカウントする変数Nをクリアする。そ
して今回の領域選択動作において注視点に対応する測距
点を選択する条件を満たしたことを示すフラグSELE
CTEYEをクリアする。そしてステップ(314)へ
移行する。
In the following step (306-2), the condition for selecting the distance measuring point corresponding to the gazing point is not satisfied, so that the condition for selecting the distance measuring point corresponding to the gazing point occurs consecutively. The variable N that counts whether or not is cleared. Then, in the region selecting operation this time, a flag SELE indicating that the condition for selecting the focus detection point corresponding to the gazing point is satisfied
Clear CTEYE. Then, the process proceeds to step (314).

【0119】ステップ(303)でいずれかのセンサが
測距可能状態にあると判断されると、ステップ(30
4)へ移行する。
If it is determined in step (303) that any of the sensors is in the distance measuring enabled state, step (30)
Go to 4).

【0120】ステップ(304)では、前記図5のステ
ップ(015)で実行される視線検出動作の結果、視線
検出が成功したか否かを判別する。視線検出が成功した
ことを示すフラグEYEOKがφ、即ち視線検出が失敗
したならばステップ(307−1)へ移行し、EYEO
K=1、即ち視線検出が成功したならば、ステップ(3
05)へ移行する。
In step (304), it is determined whether or not the visual axis detection is successful as a result of the visual axis detection operation executed in step (015) of FIG. If the flag EYEOK indicating that the visual axis detection is successful is φ, that is, if the visual axis detection fails, the process proceeds to step (307-1), and EYEO
If K = 1, that is, if the line-of-sight detection is successful, step (3
Move to 05).

【0121】ステップ(305)では、前記ステップ
(207)で得られる撮影者のファインダー内の注視点
に対応する測距点が測距可能であるか否かを判別する。
この測距点が測距不能状態であればステップ(307−
1)へ移行する。
In step (305), it is determined whether or not the distance measuring point corresponding to the gazing point in the viewfinder of the photographer obtained in step (207) can be measured.
If this distance measuring point is in a state where distance measurement is impossible, step (307-
Go to 1).

【0122】ステップ(307−1)では、注視点に対
応する測距点を選択する条件を満たしていないため、今
回の領域選択動作において注視点に対応する測距点を選
択する条件を満たしたことを示すフラグSELECTE
YEをクリアする。そして、注視点に対応する測距点を
選択する条件が何回連続して発生したかをカウントする
変数Nをクリアする。
In step (307-1), since the condition for selecting the distance measuring point corresponding to the gazing point is not satisfied, the condition for selecting the distance measuring point corresponding to the gazing point is satisfied in this region selecting operation. Flag indicating that
Clear YE. Then, the variable N that counts how many times the condition for selecting the focus detection point corresponding to the gazing point occurs consecutively is cleared.

【0123】続くステップ(307−2)では、前記ス
テップ(127)で得られる測距点、即ち測距可能な測
距点の中で最至近にある測距点を選択する動作を行な
い、ステップ(314)へ移行する。
In the following step (307-2), an operation for selecting the closest distance measuring point among the distance measuring points obtained in the step (127), that is, the distance measuring points which can be measured is performed, Shift to (314).

【0124】ステップ(305)において、前記ステッ
プ(207)で得られる撮影者のファインダー視野内の
注視点に対応する測距点が測距可能であれば、ステップ
(308)へ移行する。
In step (305), if the distance measuring point corresponding to the gazing point in the viewfinder field of the photographer obtained in step (207) is measurable, the process proceeds to step (308).

【0125】ステップ(308)では、スイッチSW1
がオンして1回目のAF制御であるか否かを判別し、1
回目のAF制御であればステップ(307−1)へ移行
する。これにより1回目のAF制御では、測距可能な測
距点で最至近の測距点を選ぶことになる。ステップ(3
08)において、1回目のAF制御ではないと判断され
ると、ステップ(309)へ移行する。
At step (308), the switch SW1
Is turned on and it is determined whether or not the AF control is the first time.
If it is the AF control for the second time, the process proceeds to step (307-1). As a result, in the first AF control, the closest distance measuring point is selected among the distance measuring points capable of distance measurement. Step (3
If it is determined that the first AF control is not performed in 08), the process proceeds to step (309).

【0126】ステップ(309)では、撮影者のファイ
ンダー視野内の注視点に対応する測距点と最至近の測距
点が同一の測距点であるか否かの判別を行なう。同一で
あると判断されると、ステップ(307−1)へ移行す
る。同一の測距点でなければ、ステップ(310)へ移
行する。
In step (309), it is determined whether or not the distance measuring point corresponding to the gazing point in the field of view of the photographer and the closest distance measuring point are the same distance measuring point. If it is determined that they are the same, the process proceeds to step (307-1). If the distance measuring points are not the same, the process proceeds to step (310).

【0127】ステップ(310)では、前記図5のステ
ップ(015)で実行された視線検出動作において、そ
の信頼性が十分高いか否かの判別を行ない、十分高い場
合はステップ(311)へ移行し、そうでなければステ
ップ(316)へ移行する。
In step (310), it is judged whether or not the reliability is sufficiently high in the visual axis detection operation executed in step (015) of FIG. 5, and if it is sufficiently high, the process proceeds to step (311). If not, the process proceeds to step (316).

【0128】ここで、視線検出の信頼性について説明す
る。前記、図6のステップ(203),(204)で得
られた眼球像データと視線演算により検出した瞳孔エッ
ジの数、径及び水平方向の回転角等により信頼性を見極
める。
Here, the reliability of line-of-sight detection will be described. The reliability is determined based on the eyeball image data obtained in steps (203) and (204) of FIG. 6, the number of pupil edges detected by the line-of-sight calculation, the diameter, the horizontal rotation angle, and the like.

【0129】例えば、瞳孔エッジの数が所定の数以上存
在するか、また瞳孔径は所定の値より大きすぎないか、
あるいは水平方向の回転角はファインダー視野を覗くに
は大きすぎないか等の、いくつかの判定を行なうことに
より行なわれる。
For example, is there a predetermined number or more of pupil edges, or is the pupil diameter too large than a predetermined value?
Alternatively, the rotation angle in the horizontal direction is determined by making some judgments such as whether it is too large to look into the viewfinder field.

【0130】続くステップ(311)では、前記ステッ
プ(127)で得られる測距点、即ち測距可能な測距点
の最至近にある測距点と、前記ステップ(207)で得
られる測距点、即ち撮影者のファインダー視野内の注視
点に対応する測距点のそれぞれの信頼性値の比較を行な
う。
In the following step (311), the distance measuring point obtained in the step (127), that is, the distance measuring point closest to the distance measuring point capable of distance measurement, and the distance measuring point obtained in the step (207) are detected. The reliability values of the points, that is, the distance measuring points corresponding to the gazing point in the field of view of the photographer are compared.

【0131】信頼性値は、前記センサ装置SNSの対応
するセンサ列対の2像の一致度を示す値であり、本発明
では値が小さいほど信頼性が高く、値が大きいほど信頼
性が低いことを示す。撮影者の注視点に対応する測距点
の信頼性よりも、前記ステップ(127)で得られる測
距点の信頼性の方が高い場合には、ステップ(316)
へ移行し、そうでなければステップ(312−1)へ移
行する。
The reliability value is a value showing the degree of coincidence of two images of the corresponding sensor array pair of the sensor device SNS. In the present invention, the smaller the value, the higher the reliability, and the larger the value, the lower the reliability. Indicates that. If the reliability of the distance measuring point obtained in step (127) is higher than the reliability of the distance measuring point corresponding to the gazing point of the photographer, step (316)
Otherwise, to step (312-1).

【0132】ステップ(312−1)では、注視点に対
応する測距点を選択する条件が何回連続して発生してい
るかをカウントする変数Nが2であるか否かを判別し、
Nが2であればステップ(312−3)へ移行する。こ
れは変数Nを3以上の値にカウントアップさせないため
である。
At the step (312-1), it is judged whether or not the variable N for counting how many times the condition for selecting the distance measuring point corresponding to the gazing point occurs continuously is 2.
If N is 2, the process proceeds to step (312-3). This is because the variable N is not counted up to a value of 3 or more.

【0133】ステップ(312−1)でN=2ではな
い、即ち注視点に対応する測距点を選択する条件が今回
初めて、あるいは2回目のときはステップ(312−
2)へ移行し、注視点に対応する測距点を選択する条件
が何回連続して発生したかをカウントする変数Nに1を
加算する。
When N = 2 is not satisfied in step (312-1), that is, when the condition for selecting the distance measuring point corresponding to the gazing point is the first time or the second time this time, step (312-).
Going to 2), 1 is added to the variable N that counts how many times the condition for selecting the distance measuring point corresponding to the gazing point occurs consecutively.

【0134】続くステップ(312−3)では、変数N
が2であるか否か、即ち注視点に対応する測距点を選択
する条件が2回以上連続して発生しているか否かを判別
し、今回が1回目のときはステップ(316)へ移行す
る。
In the following step (312-3), the variable N
Is 2, that is, whether or not the condition for selecting the focus detection point corresponding to the gazing point has occurred twice or more consecutively. If this time is the first time, go to step (316). Transition.

【0135】ここで2回以上連続して発生しているか否
かの判別を行なっているのは、本実施例は前記ステップ
(127)で得られる測距点を選択することに重点を置
いたものを実現するために、2回連続して条件を満たさ
ないと、注視点に対応する測距点の選択を行なわないよ
うにするためである。
In this embodiment, the determination as to whether or not the occurrence has occurred twice or more is focused on the selection of the distance measuring point obtained in the step (127). This is because, in order to realize the object, if the condition is not satisfied twice consecutively, the distance measuring point corresponding to the gazing point is not selected.

【0136】ステップ(312−3)で、N=2、即ち
注視点に対応する測距を選択する条件を2回連続してみ
なしている場合は、ステップ(312−4)へ移行す
る。
In step (312-3), when N = 2, that is, when the condition for selecting the distance measurement corresponding to the gazing point is regarded twice consecutively, the process proceeds to step (312-4).

【0137】ステップ(312−4)では、今回の領域
選択動作で注視点に対応する測距点を選択する条件を満
たしたことを示すフラグSELECTEYEを1にす
る。続くステップ(313)では、前記ステップ(20
7)で得られる注視点に対応する測距点を選択する動作
を行なう。
In step (312-4), the flag SELECTEYE indicating that the condition for selecting the distance measuring point corresponding to the gazing point is satisfied in this region selecting operation is set to 1. In the following step (313), the step (20
The operation of selecting the distance measuring point corresponding to the gazing point obtained in 7) is performed.

【0138】続くステップ(314)では、ステップ
(301)以降に実行してきた一連の制御で選択した測
距点のデフォーカス量を選択デフォーカス量とし、実際
に合焦用のレンズを駆動するときに用いる。
In the following step (314), when the focusing lens is actually driven, the defocus amount of the focus detection point selected by the series of control executed after step (301) is set as the selected defocus amount. Used for.

【0139】前記ステップ(310)で視線検出動作の
信頼性は十分高いとは言えない状態であり、前記ステッ
プ(311)で前記ステップ(127)で得られる測距
点の信頼性の方が注視点に対応する信頼性よりも高い場
合はステップ(316)へ移行する。
In the step (310), the line-of-sight detection operation cannot be said to be sufficiently reliable, and in the step (311), the reliability of the focus detection point obtained in the step (127) is more important. When it is higher than the reliability corresponding to the viewpoint, the process proceeds to step (316).

【0140】ステップ(316)では、前回の領域選択
動作で注視点に対応する測距点を選択する条件を満たし
たことを示すフラグSELECTEYEが1か否かを判
別し、SELECTEYE=1であれば、即ち、前回注
視点に対応する測距点を選択した場合は、ステップ(3
17)へ移行し、SELECTEYE=φであれば、ス
テップ(307−1)へ移行する。
In step (316), it is determined whether or not the flag SELECTEYE, which indicates that the condition for selecting the focus detection point corresponding to the gazing point in the previous area selection operation is satisfied, is 1 and if SELECTEYE = 1. In other words, if the focus detection point corresponding to the gazing point was selected last time, step (3
17), and if SELECTEYE = φ, proceed to step (307-1).

【0141】ステップ(317)では、フラグSELE
CTEYEをクリアして、ステップ(313)へ移行す
る。
At step (317), the flag SELE is set.
Clear CTEYE and proceed to step (313).

【0142】ステップ(316)とステップ(317)
により、前回の注視点に対応する測距点を選択して、今
回の視線検出動作の信頼性が十分高くなくなったり、注
視点に対応する測距点の信頼性が前記ステップ(12
7)で得られる最近点の測距点の信頼性よりも低くなっ
てしまい、注視点に対応する測距点を選択する条件を満
たさない場合がある。
Step (316) and Step (317)
As a result, the distance measuring point corresponding to the previous gazing point is selected, and the reliability of the current line-of-sight detecting operation is not sufficiently high, or the reliability of the distance measuring point corresponding to the gazing point is determined in the step (12).
In some cases, the reliability becomes lower than the closest distance measuring point obtained in 7), and the condition for selecting the distance measuring point corresponding to the gazing point may not be satisfied.

【0143】この場合でも初めの1回はステップ(31
6)の判別により、注視点に対応する測距点を選択する
が、2回連続して注視点に対応する測距点を選択する条
件を満たさなくなった時には、前記ステップ(127)
で得られる最至近にある測距点を選択するようにして、
ヒステリシスを持たせている。
Even in this case, the first time step (31
According to the determination of 6), the distance measuring point corresponding to the gazing point is selected, but when the condition for selecting the distance measuring point corresponding to the gazing point is not satisfied twice in succession, the step (127) is performed.
Select the nearest AF point obtained by
Has hysteresis.

【0144】ステップ(314)の実行が終了すると、
ステップ(315)にて「領域選択」サブルーチンをリ
ターンする。
When the execution of step (314) is completed,
At step (315), the "area selection" subroutine is returned.

【0145】前記ステップ(302)で、カメラのAF
モードがワンショット動作であると判別されたときに実
行されるステップ(350)以降の制御を説明してい
く。
In step (302), the AF of the camera
The control after step (350) executed when it is determined that the mode is the one-shot operation will be described.

【0146】ステップ(350)では、フラグFPLO
CKが1か否かを判別する。フラグFPLOCKが1、
即ちワンショット動作で既に領域選択動作による測距点
が選択済みである場合は、ステップ(355)へ移行す
る。
At step (350), the flag FPLO is set.
It is determined whether CK is 1. Flag FPLOCK is 1,
That is, when the distance measuring point has already been selected by the area selecting operation in the one-shot operation, the process proceeds to step (355).

【0147】ステップ(355)では、前回即ち、スイ
ッチSW1がオンして1回目のAF制御のときに実行し
た視線検出動作で得られた測距点を再び選択する動作を
行ない、ステップ(314)へ移行する。
At the step (355), the operation for reselecting the distance measuring point obtained by the sight line detecting operation executed at the first time of the AF control with the switch SW1 turned on is carried out, and the step (314) Move to.

【0148】ステップ(350)でフラグFPLOCK
がφ、即ちワンショット動作で最初の領域選択動作であ
る場合は、ステップ(351)へ移行する。
In step (350), the flag FPLOCK is set.
Is φ, that is, the one-shot operation is the first area selection operation, the process proceeds to step (351).

【0149】ステップ(351)では、前記図5のステ
ップ(015)で実行した視線検出動作において、視線
検出が成功したか否かを判別し、失敗したらステップ
(354)へ移行する。
In step (351), it is determined whether or not the visual axis detection is successful in the visual axis detection operation executed in step (015) of FIG. 5, and if unsuccessful, the process proceeds to step (354).

【0150】ステップ(354)では、前記ステップ
(127)で得られた測距点、即ち各センサの焦点検出
演算結果から選び出した主被写体が存在すると判断した
測距点を選択する動作を行ない、ステップ(353)へ
移行する。
In step (354), the operation is performed to select the distance measuring point obtained in step (127), that is, the distance measuring point determined to have the main subject selected from the focus detection calculation results of the respective sensors. Go to step (353).

【0151】ステップ(351)において、視線検出が
成功した場合は、ステップ(352)へ移行する。ステ
ップ(352)では、前記ステップ(209)で得られ
た測距点、即ち撮影者のファインダー視野内の注視点に
対応する測距点を選択する動作を行なう。
If the line-of-sight detection is successful in step (351), the process proceeds to step (352). In step (352), the operation for selecting the distance measuring point obtained in step (209), that is, the distance measuring point corresponding to the gazing point in the field of view of the photographer is performed.

【0152】続いてステップ(353)では、ワンショ
ット動作で領域選択動作において、既に測距点と選択済
みであることを示すフラグFPLOCKを1にする。そ
してステップ(314)へ移行する。
Subsequently, at step (353), the flag FPLOCK indicating that the distance measuring point has already been selected is set to 1 in the one-shot operation in the area selecting operation. Then, the process proceeds to step (314).

【0153】以上説明してきた実施例における選択手段
の動作は、各センサの焦点検出演算結果による測距点を
重点的に選択するようにしている。
In the operation of the selecting means in the above-described embodiment, the focus detection point based on the focus detection calculation result of each sensor is selected with priority.

【0154】図12,図13は本発明の実施例2に係る
測距領域選択のサブルーチン「領域選択」のフローチャ
ートである。
FIG. 12 and FIG. 13 are flowcharts of the "area selection" subroutine for distance measurement area selection according to the second embodiment of the present invention.

【0155】本実施例では、実施例1に比べて選択手段
の動作が視線検出によって得られた注視点に基づく測距
点を重点的に選択している点が異なり、その他の構成は
同じである。そこで、ここでは図12,図13のサブル
ーチン「領域選択」のみを説明する。
The present embodiment is different from the first embodiment in that the operation of the selecting means selects the distance measuring point based on the gazing point obtained by the line-of-sight detection, with the other configuration being the same. is there. Therefore, only the subroutine "area selection" in FIGS. 12 and 13 will be described here.

【0156】図12,図13は前記図5のステップ(0
15)において実施される実施例2のサブルーチン「領
域選択」のフローチャートである。サブルーチン「領域
選択」がコールされると、ステップ(401)以降の領
域選択動作を実行していく。
12 and 13 show the steps (0
15 is a flowchart of a subroutine "area selection" of the second embodiment implemented in 15). When the subroutine "area selection" is called, the area selection operation after step (401) is executed.

【0157】まず、ステップ(402)において、カメ
ラのAFモードがサーボ動作であるか否かを判別し、サ
ーボ動作でなければ図13のステップ(450)へ移行
する。このときの制御の説明は後に示す。
First, in step (402), it is determined whether or not the AF mode of the camera is servo operation. If it is not servo operation, the process proceeds to step (450) in FIG. The control at this time will be described later.

【0158】ステップ(402)で、サーボ動作である
と判別されると、ステップ(403)へ移行する。
If it is determined in step (402) that the operation is a servo operation, the process proceeds to step (403).

【0159】ステップ(403)では、前記ステップ
(015)で実行される視線検出動作の結果、視線検出
が成功したか否かを判別する。視線検出が失敗したら、
ステップ(404)へ移行する。
At step (403), it is judged whether or not the visual axis detection is successful as a result of the visual axis detection operation executed at step (015). If gaze detection fails,
Go to step (404).

【0160】ステップ(404)では、前記ステップ
(127)で得られる各センサへの焦点検出演算結果か
ら選び出した主被写体が存在すると判断した測距点がな
いかどうか、即ちすべてのセンサが測距不能状態である
か否かを判別する。主被写体が存在しないと判断される
と、ステップ(405)へ移行する。
At step (404), there is no distance measuring point which is judged from the result of focus detection calculation to each sensor obtained at step (127), that is, whether or not there is a main subject, that is, all the sensors measure distance. It is determined whether or not the state is impossible. If it is determined that the main subject does not exist, the process proceeds to step (405).

【0161】ステップ(405)では、主被写体が存在
しないことから、とりあえず中央測距点を選択する動作
を行なう。
In step (405), since the main subject does not exist, the operation for selecting the central focus detection point is performed for the time being.

【0162】ステップ(404)で、主被写体があると
判断されると、ステップ(411)へ移行する。ステッ
プ(411)以降の説明は後に示す。ステップ(40
3)で、視線検出が成功したらステップ(406)へ移
行する。
If it is determined in step (404) that there is a main subject, the process proceeds to step (411). The description after step (411) will be given later. Step (40
In 3), if the visual axis detection is successful, the process proceeds to step (406).

【0163】ステップ(406)では、スイッチSW1
がオンして1回目のAF制御であるか否かを判別する。
1回目のAF制御であれば、ステップ(412)へ移行
する。
At step (406), the switch SW1
Is turned on and it is determined whether or not it is the first AF control.
If it is the first AF control, the process proceeds to step (412).

【0164】ステップ(412)では、前記図6のステ
ップ(209)で得られる測距点、即ち撮影者のファイ
ンダー視野内の注視点に対応する測距点を選択する動作
を行ない、続くステップ(413)へ移行する。ステッ
プ(406)で、1回目のAF制御ではないと判断され
るとステップ(407)へ移行する。
In step (412), the operation for selecting the distance measuring point obtained in step (209) of FIG. 6, that is, the distance measuring point corresponding to the gazing point in the field of view of the photographer is performed, and the following step ( 413). When it is determined in step (406) that the AF control is not the first time, the process proceeds to step (407).

【0165】ステップ(407)では、前記図6のステ
ップ(209)で得られる測距点と、前記図7のステッ
プ(127)で得られる測距点が同一である。
In step (407), the distance measuring point obtained in step (209) of FIG. 6 and the distance measuring point obtained in step (127) of FIG. 7 are the same.

【0166】即ち、撮影者のファインダー視野内の注視
点に対応する測距点と、各センサの焦点検出演算結果か
ら選び出した主被写体が存在すると判断した測距点が同
一のものであるか否かを判別する。同一のものと判断さ
れると、ステップ(412)へ移行する。同一のもので
はないと判断されると、ステップ(408)へ移行す
る。
That is, whether the distance measuring point corresponding to the gazing point in the viewfinder field of the photographer is the same as the distance measuring point determined to have the main subject selected from the focus detection calculation results of the respective sensors. Determine whether. If it is determined that they are the same, the process proceeds to step (412). If it is determined that they are not the same, the process proceeds to step (408).

【0167】ステップ(408)では、撮影者のファイ
ンダー視野内の注視点に対応する測距点の焦点検出演算
の結果、像信号の信頼性が十分高いか否かを判断する。
信頼性の値は、前記センサ装置SNSの対応するセンサ
列対の2像の一致度を示す値であり、本発明では値が小
さいほど信頼性は高く、値が大きいほど信頼性が低くな
るものである。
In step (408), it is determined whether or not the reliability of the image signal is sufficiently high as a result of the focus detection calculation of the focus detection point corresponding to the gazing point in the viewfinder field of the photographer.
The reliability value is a value indicating the degree of coincidence between the two images of the corresponding sensor array pair of the sensor device SNS. In the present invention, the smaller the value, the higher the reliability, and the larger the value, the lower the reliability. Is.

【0168】ステップ(408)で、信頼性が十分高い
と判断されるとステップ(412)へ移行する。ステッ
プ(408)で、信頼性が十分高くないと判断されると
(測距不能状態を含む)、ステップ(409)へ移行す
る。
If it is determined in step (408) that the reliability is sufficiently high, the process proceeds to step (412). If it is determined in step (408) that the reliability is not sufficiently high (including a state in which distance measurement is impossible), the process proceeds to step (409).

【0169】ステップ(409)では、前記図7のステ
ップ(127)で得られる測距点、即ち各センサの焦点
検出演算の結果から選び出した主被写体が存在すると判
断した測距点の焦点検出演算の結果、像信号の信頼性が
十分高いか否かを判別する。十分高いとはいえないと判
断すると、ステップ(412)へ移行する。十分高いと
判断されるとステップ(410)へ移行する。
In step (409), focus detection calculation of the focus detection points determined in step (127) of FIG. 7, that is, the main subject selected from the results of focus detection calculation of each sensor is present. As a result, it is determined whether or not the reliability of the image signal is sufficiently high. If it is determined that it is not sufficiently high, the process proceeds to step (412). If it is determined to be sufficiently high, the process proceeds to step (410).

【0170】ステップ(410)では、この状態が連続
して2回以上発生しているか否かを判別する。2回以上
連続して発生していなければ、ステップ(412)へ移
行する。2回以上発生していれば、ステップ(411)
へ移行する。
At step (410), it is determined whether or not this state has occurred twice or more consecutively. If it has not occurred twice or more consecutively, the process proceeds to step (412). If it occurs twice or more, step (411)
Move to.

【0171】ステップ(411)では、前記ステップ
(127)で得られる測距点、即ち各センサの焦点検出
演算結果から選び出した主被写体が存在すると判断した
測距点を選択する動作を行なう。
In step (411), an operation is performed to select the distance measuring point obtained in step (127), that is, the distance measuring point which is determined to be the main subject selected from the focus detection calculation results of the respective sensors.

【0172】続いてステップ(413)では、ステップ
(401)以降に実行してきた一連の制御で選択した測
距点のデフォーカスを選択デフォーカス量とし、実際に
合焦用のレンズの駆動を行なうときに用いる。ステップ
(413)の実行が終了すると、ステップ(414)に
て「領域選択」サブルーチンをリターンする。
Subsequently, in step (413), the defocus of the focus detection point selected in the series of control executed after step (401) is set as the selected defocus amount, and the focusing lens is actually driven. Sometimes used. When the execution of step (413) is completed, the "area selection" subroutine is returned in step (414).

【0173】次に、前記ステップ(402)で、カメラ
のAFモードがワンショット動作であると判別されたと
きに実行されるステップ(450)以降の制御を、図1
3のフローチャートに基づいて説明する。
Next, the control after step (450) executed when it is determined in step (402) that the AF mode of the camera is the one-shot operation will be described with reference to FIG.
It will be described based on the flowchart of FIG.

【0174】ステップ(450)では、フラグFPLO
CKが1か否かを判別する。フラグFPLOCKが1、
即ちワンショット動作で既に領域選択動作による測距点
が選択済みである場合は、ステップ(455)へ移行す
る。
At step (450), the flag FPLO is set.
It is determined whether CK is 1. Flag FPLOCK is 1,
That is, when the distance measuring point has already been selected by the area selecting operation in the one-shot operation, the process proceeds to step (455).

【0175】ステップ(455)では、前回即ちスイッ
チSW1がオンして1回目のAF制御のときに実行した
視線検出動作で得られた測距点を再び選択する動作を行
ない、ステップ(413)へ移行する。ステップ(45
0)で、フラグFPLOCKがφ、即ちワンショット動
作で最初の領域選択動作である場合は、ステップ(45
1)へ移行する。
At step (455), the operation for reselecting the focus detection point obtained by the sight line detecting operation executed at the first AF control with the switch SW1 turned on is carried out, and the process proceeds to step (413). Transition. Step (45
If the flag FPLOCK is φ, that is, the one-shot operation is the first area selection operation in step 0), the step (45)
Go to 1).

【0176】ステップ(451)では、前記図5のステ
ップ(015)で実行した視線検出動作において、視線
検出が成功したか否かを判別し、失敗したらステップ
(454)へ移行する。
At step (451), it is judged whether or not the visual axis detection is successful in the visual axis detection operation executed at step (015) of FIG. 5, and if it fails, the routine proceeds to step (454).

【0177】ステップ(454)では、前記図7のステ
ップ(127)で得られた測距点、即ち各センサの焦点
検出演算結果から選び出した主被写体が存在すると判断
した測距点を選択する動作を行ない、ステップ(45
3)へ移行する。ステップ(451)において、視線検
出が成功した場合は、ステップ(452)へ移行する。
In step (454), the operation of selecting the distance measuring point obtained in step (127) of FIG. 7, that is, the distance measuring point determined to have the main subject selected from the focus detection calculation results of the respective sensors. Step (45
Go to 3). If the line-of-sight detection is successful in step (451), the process proceeds to step (452).

【0178】ステップ(452)では、前記ステップ
(209)で得られた測距点、即ち撮影者のファインダ
ー視野内の注視点に対応する測距点を選択する動作を行
なう。
In step (452), the operation is performed to select the distance measuring point obtained in step (209), that is, the distance measuring point corresponding to the gazing point in the field of view of the photographer.

【0179】続いてステップ(453)では、ワンショ
ット動作で領域選択動作において、既に測距点を選択済
みであることを示すフラグFPLOCKを1にする。そ
してステップ(413)へ移行する。
Subsequently, at step (453), the flag FPLOCK indicating that the focus detection points have already been selected is set to 1 in the area selection operation in the one-shot operation. Then, the process proceeds to step (413).

【0180】図14,図15,図16は本発明の実施例
3に係る測距領域選択のサブルーチン「領域選択」のフ
ローチャートである。
FIG. 14, FIG. 15 and FIG. 16 are flow charts of the subroutine "area selection" of the distance measurement area selection according to the third embodiment of the present invention.

【0181】本実施例では、実施例1,2に比べて選択
手段の動作が焦点検出演算結果による測距点と視線検出
によって得られた注視点に基づく測距点とを対等にして
選択している点が異なり、その他の構成は同じである。
In this embodiment, as compared with the first and second embodiments, the operation of the selecting means selects the distance measuring point based on the focus detection calculation result and the distance measuring point based on the gazing point obtained by the line-of-sight detection equally. The other configurations are the same.

【0182】そこで、ここでは図14,図15,図16
のサブルーチン「領域選択」のみを説明する。
Therefore, here, FIG. 14, FIG. 15 and FIG.
Only the "area selection" subroutine of will be described.

【0183】図14,図15,図16は、前記図5のス
テップ(015)において実施される実施例3のサブル
ーチン「領域選択」のフローチャートである。サブルー
チン「領域選択」がコールされると、ステップ(50
1)以降の領域選択動作を実行していく。
FIG. 14, FIG. 15 and FIG. 16 are flowcharts of the subroutine "area selection" of the third embodiment carried out in step (015) of FIG. When the subroutine "area selection" is called, step (50
1) Subsequent area selection operations are executed.

【0184】まず、ステップ(502)において、カメ
ラのAFモードがサーボ動作であるか否かを判別し、サ
ーボ動作でなければ図16のステップ(550)へ移行
する。このときの制御の説明は後に示す。
First, in step (502), it is determined whether or not the AF mode of the camera is servo operation, and if it is not servo operation, the process proceeds to step (550) in FIG. The control at this time will be described later.

【0185】ステップ(503)では、前記図5のステ
ップ(015)で実行される視線検出動作の結果、視線
検出が成功したか否かを判別する。視線検出が失敗した
ら、ステップ(504)へ移行する。
In step (503), it is determined whether or not the visual axis detection is successful as a result of the visual axis detection operation executed in step (015) of FIG. If the sight line detection fails, the process proceeds to step (504).

【0186】ステップ(504)では、前記図7のステ
ップ(127)で得られる各センサの焦点検出演算結果
から選び出した主被写体が存在すると判断した測距点が
ないかどうか、即ちすべてのセンサが測距不能状態であ
るか否かを判別する。主被写体がないと判断されると、
ステップ(505)へ移行する。
At step (504), there is no distance measuring point for which it is judged that the main subject selected from the focus detection calculation result of each sensor obtained at step (127) of FIG. It is determined whether or not distance measurement is impossible. If it is determined that there is no main subject,
Go to step (505).

【0187】ステップ(505)では、主被写体が存在
しないことから、とりあえず中央測距点を選択する動作
を行なう。ステップ(504)で、主被写体があると判
断されると、ステップ(511)へ移行する。ステップ
(511)以降の説明は後に示す。
In step (505), since the main subject does not exist, the operation for selecting the central focus detection point is performed for the time being. If it is determined in step (504) that there is a main subject, the process proceeds to step (511). The description after step (511) will be given later.

【0188】ステップ(503)で、視線検出が成功し
たと判断されると、ステップ(507)へ移行する。
If it is determined in step (503) that the sight line detection has succeeded, the process proceeds to step (507).

【0189】ステップ(507)では、スイッチSW1
がオンして1回目のAF制御であるか否かを判別する。
1回目のAF制御であれば、ステップ(506)へ移行
する。
At step (507), the switch SW1
Is turned on and it is determined whether or not it is the first AF control.
If it is the first AF control, the process proceeds to step (506).

【0190】ステップ(506)では、前記図6のステ
ップ(209)で得られる測距点、即ち撮影者のファイ
ンダー視野内の注視点に対応する測距点を選択する動作
を行なう。ステップ(507)で、1回目のAF制御で
はないと判断されると、ステップ(508)へ移行す
る。
In step (506), an operation of selecting the distance measuring point obtained in step (209) of FIG. 6, that is, the distance measuring point corresponding to the gazing point in the viewfinder field of the photographer is performed. When it is determined in step (507) that it is not the first AF control, the process proceeds to step (508).

【0191】ステップ(508)では、前回実行したサ
ブルーチン「領域選択」で選択した測距点が視線検出に
よって得られた測距点か焦点検出演算結果から得られた
ものかの判定を行なう。視線検出によって得られた測距
点であれば、ステップ(509)へ移行する。
In step (508), it is determined whether the focus detection point selected in the previously executed subroutine "area selection" is the focus detection point obtained by the line-of-sight detection or the focus detection calculation result. If it is the focus detection point obtained by the sight line detection, the process proceeds to step (509).

【0192】ステップ(509)では、視線検出によっ
て得られた測距点の焦点検出演算の結果、像信号の信頼
性が十分高いか否かの判別を行なう。像信号の信頼性の
値は、前記センサ装置SNSの対応するセンサ列対の2
像の一致度を示す値である。
In step (509), it is determined whether or not the reliability of the image signal is sufficiently high as a result of the focus detection calculation of the focus detection points obtained by the visual axis detection. The reliability value of the image signal is 2 for the corresponding sensor array pair of the sensor device SNS.
It is a value indicating the degree of coincidence of images.

【0193】本発明では値が小さいほど信頼性が高く、
値が大きいほど信頼性が低くなるものである。
In the present invention, the smaller the value, the higher the reliability,
The larger the value, the lower the reliability.

【0194】ステップ(509)で信頼性が十分高いと
判断されると、ステップ(506)へ移行する。ステッ
プ(509)で信頼性は十分高いとはいえないと判断さ
れると、ステップ(510)へ移行する。
If it is determined in step (509) that the reliability is sufficiently high, the process proceeds to step (506). If it is determined in step (509) that the reliability is not sufficiently high, the process proceeds to step (510).

【0195】ステップ(510)では、この状態が2回
以上連続して発生しているか否かを判別する。2回以上
連続して発生していなければ、ステップ(506)へ移
行する。2回以上連続して発生していれば、ステップ
(511)へ移行する。
At step (510), it is determined whether or not this state occurs twice or more continuously. If it has not occurred twice or more consecutively, the process proceeds to step (506). If it occurs twice or more continuously, the process proceeds to step (511).

【0196】ステップ(511)では、前記図7のステ
ップ(127)で得られる測距点、即ち各センサの焦点
検出演算結果から選び出した主被写体が存在すると判断
した測距点を選択する動作を行なう。そしてステップ
(515)へ移行する。
In step (511), the operation of selecting the distance measuring point obtained in step (127) of FIG. 7, that is, the distance measuring point determined to have the main subject selected from the focus detection calculation results of the respective sensors is performed. To do. Then, the process proceeds to step (515).

【0197】ステップ(515)では、ステップ(50
1)以降に実行してきた一連の制御で選択した測距点の
デフォーカスを選択デフォーカスとして実際に合焦用の
レンズの駆動を行なうときに用いる。ステップ(51
5)の実行が終了すると、ステップ(516)にて「領
域選択」サブルーチンをリターンする。
In step (515), step (50
The defocus of the focus detection point selected by the series of controls executed after 1) is used as the selected defocus when actually driving the focusing lens. Step (51
When the execution of 5) is completed, the "area selection" subroutine is returned in step (516).

【0198】ステップ(508)で前回実行したサブル
ーチン「領域選択」で選択した測距点が焦点検出結果か
ら得られた測距点であると判断されると、ステップ(5
12)へ移行する。
If it is determined in step (508) that the focus detection point selected in the subroutine "area selection" executed last time is the focus detection point obtained from the focus detection result, step (5)
Go to 12).

【0199】ステップ(512)では、焦点検出演算結
果から得られた測距点の像信号の信頼性が十分高いか否
かの判別を行なう。
At step (512), it is determined whether or not the reliability of the image signal at the focus detection point obtained from the focus detection calculation result is sufficiently high.

【0200】像信号の信頼性が十分高いと判断される
と、ステップ(511)へ移行する。像信号の信頼性が
十分高いとはいえないと判断されると、ステップ(51
3)へ移行する。
When it is determined that the reliability of the image signal is sufficiently high, the process proceeds to step (511). If it is determined that the reliability of the image signal is not sufficiently high, step (51
Go to 3).

【0201】ステップ(513)では、この状態が2回
以上連続して発生しているか否かを判別する。2回以上
連続して発生していなければ、ステップ(511)へ移
行する。2回以上連続して発生していれば、ステップ
(514)へ移行する。
At step (513), it is determined whether or not this state occurs twice or more continuously. If it has not occurred twice or more consecutively, the process proceeds to step (511). If it occurs twice or more continuously, the process proceeds to step (514).

【0202】ステップ(514)では、前記図6のステ
ップ(209)で得られた測距点、即ち撮影者のファイ
ンダー視野内の注視点に対応する測距点を選択する動作
を行ない、ステップ(515)へ移行する。
In step (514), an operation for selecting the distance measuring point obtained in step (209) of FIG. 6, that is, the distance measuring point corresponding to the gazing point in the viewfinder field of the photographer is performed, and step ( 515).

【0203】前記ステップ(502)で、カメラのAF
モードがワンショット動作であると判別されたときに実
行される図16のステップ(550)以降の制御を説明
していく。
At the step (502), the AF of the camera is performed.
The control after step (550) in FIG. 16 executed when it is determined that the mode is the one-shot operation will be described.

【0204】ステップ(550)では、フラグFPLO
CKが1か否かを判別する。フラグFPLOCKが1、
即ちワンショット動作で既に領域選択動作による測距点
が選択済みである場合は、ステップ(555)へ移行す
る。
At step (550), the flag FPLO is set.
It is determined whether CK is 1. Flag FPLOCK is 1,
That is, when the distance measuring point has already been selected by the area selecting operation in the one-shot operation, the process proceeds to step (555).

【0205】ステップ(555)では、前回即ち、スイ
ッチSW1がオンして1回目のAF制御のときに実行し
た視線検出動作で得られた測距点を再び選択する動作を
行ない、ステップ(515)へ移行する。ステップ(5
50)でフラグFPLOCKがφ、即ちワンショット動
作で最初の領域選択動作である場合は、ステップ(55
1)へ移行する。
At the step (555), the operation for reselecting the focus detection point obtained by the sight line detecting operation executed at the first AF control with the switch SW1 turned on is performed at the step (555), and the step (515). Move to. Step (5
If the flag FPLOCK is φ in 50), that is, the one-shot operation is the first area selection operation, step (55)
Go to 1).

【0206】ステップ(551)では、前記図5のステ
ップ(015)で実行した視線検出動作において、視線
検出が成功したか否かを判別し、失敗したらステップ
(554)へ移行する。
At the step (551), it is judged whether or not the visual axis detection is successful in the visual axis detecting operation executed at the step (015) of FIG. 5, and if the visual axis detection is unsuccessful, the routine proceeds to the step (554).

【0207】ステップ(554)では、前記図7のステ
ップ(127)で得られた測距点、即ち各センサの焦点
検出演算結果から選び出した主被写体が存在すると判断
した測距点を選択する動作を行ない、ステップ(55
3)へ移行する。ステップ(551)において、視線検
出が成功した場合は、ステップ(552)へ移行する。
In step (554), the operation of selecting the distance measuring point obtained in step (127) of FIG. 7, that is, the distance measuring point determined to have the main subject selected from the focus detection calculation results of the respective sensors. Step (55
Go to 3). If the line-of-sight detection is successful in step (551), the process proceeds to step (552).

【0208】ステップ(552)では、前記図6のステ
ップ(209)で得られた測距点、即ち撮影者のファイ
ンダー視野内の注視点に対応する測距点を選択する動作
を行なう。
In step (552), the operation for selecting the distance measuring point obtained in step (209) of FIG. 6, that is, the distance measuring point corresponding to the gazing point in the field of view of the photographer is performed.

【0209】続いてステップ(553)では、ワンショ
ット動作で領域選択動作において、既に測距点と選択済
みであることを示すフラグFPLOCKを1にする。そ
してステップ(515)へ移行する。
Subsequently, at step (553), the flag FPLOCK indicating that the focus detection point and the focus detection point have already been selected is set to 1 in the area selection operation in the one-shot operation. Then, the process proceeds to step (515).

【0210】[0210]

【発明の効果】本発明によれば以上のように、視線検出
手段で得られる視線信号の状態を判定する視線判定手段
からの信号と焦点検出手段で得られる焦点信号の状態を
判定する焦点判定手段からの信号とを利用して1つの測
距点を適切に選択することにより、サーボ動作のように
繰り返し焦点検出を行なうような状態においても安定し
た良好なる焦点検出ができる焦点検出手段と視線検出手
段とを有したカメラを達成することができる。
As described above, according to the present invention, the focus determination for determining the state of the signal from the line-of-sight determining means for determining the state of the line-of-sight signal obtained by the line-of-sight detecting means and the state of the focus signal obtained by the focus detecting means By appropriately selecting one distance measuring point using the signal from the means, the focus detecting means and the line of sight capable of stable and good focus detection even in the state where the focus detection is repeatedly performed like the servo operation. A camera with detection means can be achieved.

【0211】特に、視線検出手段からの信号と焦点検出
手段からの信号を用いて撮影系の合焦操作を行なう際、
前述の如く例えば一瞬、撮影対象たる主被写体以外に視
線が向いてしまったり、視線検出精度が余り良くない状
態のときでも、視線検出手段の信号と焦点検出手段の信
号のいずれかを選択するように作用する選択手段を設け
ることにより、過って主被写体以外のものに対して合焦
操作をしようとし、不用意なレンズ駆動や応答の悪い焦
点検出動作を防止することができる焦点検出手段と視線
検出手段を有したカメラを達成することができる。
In particular, when performing the focusing operation of the photographing system by using the signal from the line-of-sight detecting means and the signal from the focus detecting means,
As described above, for example, even when the line of sight is directed to the subject other than the main subject to be photographed for a moment or the line-of-sight detection accuracy is not so good, either the signal of the line-of-sight detection unit or the signal of the focus detection unit is selected. By providing the selecting means that acts on the focus detecting means, it is possible to prevent the careless lens driving or the poor focus response detecting operation by inadvertently performing a focusing operation on an object other than the main subject. A camera having a line-of-sight detection means can be achieved.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明を一眼レフカメラに適用したときの
実施例1の要部概略図
FIG. 1 is a schematic view of a main part of a first embodiment when the present invention is applied to a single-lens reflex camera.

【図2】 図1の焦点検出手段の要部概略図FIG. 2 is a schematic view of a main part of the focus detection unit in FIG.

【図3】 図1のカメラの動作を示す回路図FIG. 3 is a circuit diagram showing the operation of the camera of FIG.

【図4】 図1のカメラ全体のシーケンスを示す概略
FIG. 4 is a schematic diagram showing a sequence of the entire camera of FIG.

【図5】 図4のAF制御のサブルーチンのフローチ
ャート
FIG. 5 is a flowchart of the AF control subroutine of FIG.

【図6】 図5の視線検出のサブルーチンのフローチ
ャート
FIG. 6 is a flowchart of a gaze detection subroutine of FIG.

【図7】 図5の焦点検出のサブルーチンのフローチ
ャート
7 is a flowchart of a focus detection subroutine of FIG.

【図8】 図5の焦点検出のサブルーチンのフローチ
ャート
FIG. 8 is a flowchart of the focus detection subroutine of FIG.

【図9】 図5の測距領域選択のサブルーチンのフロ
ーチャート
FIG. 9 is a flowchart of a subroutine for selecting a distance measurement area in FIG.

【図10】 図5の測距領域選択のサブルーチンのフロ
ーチャート
FIG. 10 is a flowchart of a subroutine for selecting a distance measurement area in FIG.

【図11】 図5の測距領域選択のサブルーチンのフロ
ーチャート
11 is a flowchart of a subroutine for selecting a distance measurement area in FIG.

【図12】 本発明の実施例2に係る領域選択のサブル
ーチンのフローチャート
FIG. 12 is a flowchart of a region selection subroutine according to the second embodiment of the present invention.

【図13】 本発明の実施例2に係る領域選択のサブル
ーチンのフローチャート
FIG. 13 is a flowchart of a region selection subroutine according to the second embodiment of the present invention.

【図14】 本発明の実施例3に係る領域選択のサブル
ーチンのフローチャート
FIG. 14 is a flowchart of a region selection subroutine according to the third embodiment of the present invention.

【図15】 本発明の実施例3に係る領域選択のサブル
ーチンのフローチャート
FIG. 15 is a flowchart of a region selection subroutine according to the third embodiment of the present invention.

【図16】 本発明の実施例3に係る領域選択のサブル
ーチンのフローチャート
FIG. 16 is a flowchart of a region selection subroutine according to the third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 撮影レンズ 6a 焦点検出手段 10 接眼レンズ 11 受光レンズ 13 光源 14 受光素子列 15 眼球 101 演算手段 102 視線検出手段 103 焦点判定手段 104 選択手段 105 調整手段 DESCRIPTION OF SYMBOLS 1 Photographing lens 6a Focus detection means 10 Eyepiece lens 11 Light receiving lens 13 Light source 14 Light receiving element array 15 Eyeball 101 Calculation means 102 Line-of-sight detection means 103 Focus determination means 104 Selection means 105 Adjustment means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G03B 13/02 7139−2K H04N 5/232 A 7316−2K G03B 3/00 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location G03B 13/02 7139-2K H04N 5/232 A 7316-2K G03B 3/00 A

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 カメラのファインダー視野内を覗く撮影
者の注視方向を検出する視線検出手段と、撮影系のファ
インダー視野内の複数の測距領域における合焦状態を繰
り返し検出する焦点検出手段と、該視線検出手段で得ら
れる視線信号の状態を判定する視線判定手段と、該焦点
検出手段で得られる焦点信号の状態を判定する焦点判定
手段と、該視線判定手段からの信号と焦点判定手段から
の信号とに基づいて複数の測距領域のうちから少なくと
も1つの測距領域を選択する選択手段とを有しているこ
とを特徴とする焦点検出手段と視線検出手段とを有した
カメラ。
1. A line-of-sight detecting means for detecting a gaze direction of a photographer looking into the finder field of view of a camera, and a focus detecting means for repeatedly detecting an in-focus state in a plurality of distance-measuring areas in the finder field of a photographing system, From the line-of-sight determination unit that determines the state of the line-of-sight signal obtained by the line-of-sight detection unit, the focus determination unit that determines the state of the focus signal obtained by the focus detection unit, and the signal from the line-of-sight determination unit and the focus determination unit. And a line-of-sight detecting means for selecting at least one distance measuring area from a plurality of distance measuring areas based on the signal of (1).
【請求項2】 前記焦点判定手段は焦点信号の状態の信
頼性を判定していることを特徴とする請求項1の焦点検
出手段と視線検出手段とを有したカメラ。
2. The camera having the focus detection means and the line-of-sight detection means according to claim 1, wherein the focus determination means determines the reliability of the state of the focus signal.
【請求項3】 前記視線判定手段は視線信号の状態の信
頼性を判定していることを特徴とする請求項1の焦点検
出手段と視線検出手段とを有したカメラ。
3. The camera having the focus detecting means and the visual axis detecting means according to claim 1, wherein the visual axis determining means determines the reliability of the state of the visual axis signal.
【請求項4】 前記選択手段は前記視線検出手段の信号
と前記焦点検出手段の信号との選択にヒステリシスを設
けていることを特徴とする請求項1の焦点検出手段と視
線検出手段を有したカメラ。
4. The focus detection means and the line-of-sight detection means according to claim 1, wherein the selection means is provided with hysteresis for selecting the signal of the line-of-sight detection means and the signal of the focus-detection means. camera.
JP4312848A 1992-10-28 1992-10-28 Camera provided with focus detecting means and line-of-sight detecting means Pending JPH06138378A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4312848A JPH06138378A (en) 1992-10-28 1992-10-28 Camera provided with focus detecting means and line-of-sight detecting means
US08/636,627 US5614985A (en) 1992-10-28 1996-04-23 Camera with device for detecting line of sight

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4312848A JPH06138378A (en) 1992-10-28 1992-10-28 Camera provided with focus detecting means and line-of-sight detecting means

Publications (1)

Publication Number Publication Date
JPH06138378A true JPH06138378A (en) 1994-05-20

Family

ID=18034160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4312848A Pending JPH06138378A (en) 1992-10-28 1992-10-28 Camera provided with focus detecting means and line-of-sight detecting means

Country Status (1)

Country Link
JP (1) JPH06138378A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236249A (en) * 2001-02-09 2002-08-23 Canon Inc Automatic focusing camera
JP2008176333A (en) * 2008-02-08 2008-07-31 Canon Inc Autofocus camera
US8634015B2 (en) 2008-10-10 2014-01-21 Canon Kabushiki Kaisha Image capturing apparatus and method and program for controlling same
JP2015022207A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Optical device, control method therefor, and control program
CN108881724A (en) * 2018-07-17 2018-11-23 北京七鑫易维信息技术有限公司 A kind of image acquiring method, device, equipment and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236249A (en) * 2001-02-09 2002-08-23 Canon Inc Automatic focusing camera
JP4593805B2 (en) * 2001-02-09 2010-12-08 キヤノン株式会社 Auto focus camera
JP2008176333A (en) * 2008-02-08 2008-07-31 Canon Inc Autofocus camera
JP4594402B2 (en) * 2008-02-08 2010-12-08 キヤノン株式会社 Auto focus camera
US8634015B2 (en) 2008-10-10 2014-01-21 Canon Kabushiki Kaisha Image capturing apparatus and method and program for controlling same
JP2015022207A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Optical device, control method therefor, and control program
CN108881724A (en) * 2018-07-17 2018-11-23 北京七鑫易维信息技术有限公司 A kind of image acquiring method, device, equipment and storage medium
CN108881724B (en) * 2018-07-17 2021-09-21 北京七鑫易维信息技术有限公司 Image acquisition method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP3210027B2 (en) camera
US5091742A (en) Camera having an auto focusing device
JP3301799B2 (en) Camera system
EP0438116B1 (en) Focus detection apparatus
US5198856A (en) Camera having camera-shake detecting device
JP3259996B2 (en) camera
JPH1138313A (en) Optical device and camera
JP4560173B2 (en) Focus detection device
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
US5614985A (en) Camera with device for detecting line of sight
EP0438140B1 (en) Focus detecting device in a camera
US5585882A (en) Focus detecting apparatus detecting focus to a plurality of areas
JPH11337814A (en) Optical device
US6118943A (en) Camera
JPH086184A (en) Photographing device
JP3294636B2 (en) Auto focus camera
JP2000075201A (en) Focus detector, focusing device and camera
JP2001188164A (en) Camera with function of detecting line of sight
JPH06148510A (en) Camera with line-of-sight detector
JP3486464B2 (en) Automatic focusing device
JP2663653B2 (en) Focus detection device
JPH03229209A (en) Automatic focus adjusting device
EP0439167A1 (en) Focus detection apparatus
JPH03214130A (en) Camera
JP2832054B2 (en) Focus detection device